JP6114572B2 - Object area estimation method, object area estimation apparatus, object detection apparatus including the object area, and vehicle. - Google Patents

Object area estimation method, object area estimation apparatus, object detection apparatus including the object area, and vehicle. Download PDF

Info

Publication number
JP6114572B2
JP6114572B2 JP2013035753A JP2013035753A JP6114572B2 JP 6114572 B2 JP6114572 B2 JP 6114572B2 JP 2013035753 A JP2013035753 A JP 2013035753A JP 2013035753 A JP2013035753 A JP 2013035753A JP 6114572 B2 JP6114572 B2 JP 6114572B2
Authority
JP
Japan
Prior art keywords
image
horizontal line
cluster
parallax image
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013035753A
Other languages
Japanese (ja)
Other versions
JP2014164564A (en
Inventor
俊之介 加畑
俊之介 加畑
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Motor Co Ltd
Original Assignee
Yamaha Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Motor Co Ltd filed Critical Yamaha Motor Co Ltd
Priority to JP2013035753A priority Critical patent/JP6114572B2/en
Publication of JP2014164564A publication Critical patent/JP2014164564A/en
Application granted granted Critical
Publication of JP6114572B2 publication Critical patent/JP6114572B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像センサを用いて対象物の存在領域を推定する対象物領域推定方法、対象物領域推定装置およびそれを備えた対象物検出装置、車両に関する。   The present invention relates to an object area estimation method, an object area estimation apparatus, an object detection apparatus including the object area, and a vehicle that estimate an existing area of an object using an image sensor.

従来、ゴルフ場内の走路を走行するゴルフカートには自動走行機能を有しているものがある。自動走行は電磁誘導線から発生する磁界を検出することで行われる。また、ゴルフカートの前面に超音波センサを設けて、ゴルフカート前方の障害物を検出する障害物検出装置を備えるものもある。超音波センサにより障害物が検出されると、ゴルフカートは減速または停止の制御が実施される(特許文献1参照)。   2. Description of the Related Art Conventionally, some golf carts that run on a course in a golf course have an automatic running function. Automatic traveling is performed by detecting a magnetic field generated from an electromagnetic induction wire. In addition, there is an apparatus provided with an obstacle detection device that detects an obstacle in front of the golf cart by providing an ultrasonic sensor in front of the golf cart. When an obstacle is detected by the ultrasonic sensor, the golf cart is controlled to decelerate or stop (see Patent Document 1).

また、障害物として特に人を検出する場合、画像処理にて人を検出する方法がある。人を検出する場合、検出対象となる人は画像の様々な位置に様々な大きさで存在するので、画像内を様々な位置にて様々な大きさで人の存在を判定する必要がある。そこで、画像モデルとして抽象化された矩形領域を用いて画像全体をスキャンすることで、人が存在しそうな領域を検出する。この矩形領域は様々な大きさのものを用いる。これにより、人が存在しそうな領域を検出することができる。   In addition, when a person is detected as an obstacle, there is a method for detecting a person by image processing. When a person is detected, the person to be detected exists in various sizes at various positions in the image. Therefore, it is necessary to determine the presence of the person at various positions in the image at various sizes. Therefore, an area where a person is likely to exist is detected by scanning the entire image using a rectangular area abstracted as an image model. This rectangular area has various sizes. Thereby, it is possible to detect an area where a person is likely to exist.

図17および図18は、障害物や人などの対象物の領域を検出する方法を示す説明図である。画像Imに対して検出窓W1、W2をそれぞれスキャンすることで対象物が存在しそうな領域を検出する。検出窓において直接HOG(Histograms of Oriented Gradients)特徴を求めて対象物を検出する方法と、検出窓をテンプレートマッチングとして用いて対象物の存在領域を推定した後に、該当する領域にてHOG(Histograms of Oriented Gradients)特徴を求めて対象物を検出する方法とがある(特許文献2参照)。   17 and 18 are explanatory diagrams illustrating a method for detecting an area of an object such as an obstacle or a person. By scanning the detection windows W1 and W2 with respect to the image Im, a region where an object is likely to exist is detected. A method of detecting an object by directly obtaining a HOG (Histograms of Oriented Gradients) feature in the detection window, and estimating the existence area of the object using the detection window as a template matching, and then, in the corresponding area, (Oriented Gradients) There is a method of detecting an object by obtaining features (see Patent Document 2).

(1)特許文献1の技術
特許文献1に記載のゴルフカートには自動走行装置が搭載されている。これにより、走路上に設けられた誘導線に沿って走路を自動走行することができる。また、超音波センサを用いて障害物までの距離を計測し、その距離に応じて障害物の有無を判定することが記載されている。
(1) Technology of Patent Document 1 The golf cart described in Patent Document 1 is equipped with an automatic traveling device. Thereby, a runway can be automatically run along the guide line provided on the runway. It also describes that an ultrasonic sensor is used to measure the distance to an obstacle and the presence or absence of the obstacle is determined according to the distance.

(2)特許文献2の技術
特許文献2には物体の検出装置および検出方法が記載されている。画像フレームの左から右に向けて、しかも上から下へ、画像モデルである矩形領域を順次スキャンすることで、人が存在しそうな領域を検出する。この検出領域のHOG特徴量を計算することで、人であるかどうかの判定をすることが記載されている。
(2) Technology of Patent Document 2 Patent Document 2 describes an object detection device and a detection method. By sequentially scanning a rectangular area as an image model from the left to the right of the image frame and from top to bottom, an area where a person is likely to exist is detected. It is described that it is determined whether or not the person is a person by calculating the HOG feature amount of the detection region.

特開2003−5832号公報JP 2003-5832 A 特開2011−248525号公報JP2011-248525A

しかしながら、画像全体を様々な大きさの矩形領域でスキャンすることは大きな演算負荷であり、多くの演算時間を必要とする。特に、処理能力が低い演算装置で判定処理を実施する場合、より多くの処理時間を必要とする。この結果、障害物や人などの対象物を検出するのに多大な時間が経過してしまい、対象物を検出した後の処理に支障をきたし、システム全体としての機能が損なわれる問題がある。   However, scanning the entire image with rectangular areas of various sizes is a large calculation load and requires a lot of calculation time. In particular, when the determination process is performed with an arithmetic device having a low processing capability, more processing time is required. As a result, it takes a long time to detect an object such as an obstacle or a person, which hinders the processing after the object is detected and impairs the function of the entire system.

本発明は、このような事情に鑑みてなされたものであって、対象物の存在領域を簡易に推定できる対象物領域推定方法、対象物領域推定装置およびそれを備えた対象物検出装置、車両を提供することを目的とする。   The present invention has been made in view of such circumstances, and an object area estimation method, an object area estimation apparatus, an object detection apparatus including the object area, and a vehicle that can easily estimate an existence area of an object The purpose is to provide.

上記目的を達成するために、本発明は次のような構成をとる。
すなわち、本発明に係る第1の発明は、前方の画像を撮影する撮影ステップと、前記画像を基に視差画像を作成する視差画像作成ステップと、前記視差画像を基に距離情報を抽出する距離情報抽出ステップと、前記画像または前記視差画像において予め定められた横ライン上の前記距離情報を基に、前記横ライン上の画素を複数のクラスタに分割するクラスタ分割ステップと、前記画像または前記視差画像において、前記クラスタの中から前記クラスタの大きさを基に撮影された対象物の横方向の存在領域を判定する横方向対象物領域判定ステップと、前記画像または前記視差画像において、撮影された対象物の縦方向の存在領域を判定する縦方向対象物領域判定ステップと、を備え、前記横ラインは少なくとも2つ以上有し、前記対象物縦方向領域判定ステップは、前記画像または前記視差画像において、予め定められた範囲内の大きさのクラスタを有する最も上の横ラインよりも上に別の横ラインが無い場合、前記画像または前記視差画像の上限を前記対象物の存在領域の上限とし、前記画像または前記視差画像において、予め定められた範囲内の大きさのクラスタを有する最も上の横ラインよりも上に別の横ラインが有る場合、前記最も上の横ラインよりも1本上の横ラインを前記対象物の存在領域の上限とし、前記画像または前記視差画像において、予め定められた範囲内の大きさのクラスタを有する最も下の横ラインよりも下に別の横ラインが無い場合、前記画像または前記視差画像の下限を前記対象物の存在領域の下限とし、前記画像または前記視差画像において、予め定められた範囲内の大きさのクラスタを有する最も下の横ラインよりも下に別の横ラインが有る場合、前記最も下の横ラインの1本下の横ラインを対象物の存在領域の下限とする対象物領域推定方法である。
In order to achieve the above object, the present invention has the following configuration.
That is, the first invention according to the present invention is a shooting step for shooting a front image, a parallax image creating step for creating a parallax image based on the image, and a distance for extracting distance information based on the parallax image. An information extraction step, a cluster division step of dividing the pixels on the horizontal line into a plurality of clusters based on the distance information on a predetermined horizontal line in the image or the parallax image, and the image or the parallax in the image, the lateral object area determination step of determining presence region in the lateral direction of the captured object based on the size of the cluster from among the clusters in the image or the parallax images photographed and a longitudinal object area determination step of determining vertical existence region of the object, wherein the lateral line has at least two or more, the object vertical The direction region determining step includes the step of determining the image or the parallax image when there is no other horizontal line above the uppermost horizontal line having a cluster having a size within a predetermined range in the image or the parallax image. When there is another horizontal line above the uppermost horizontal line having a cluster having a size within a predetermined range in the image or the parallax image. The uppermost horizontal line is set as the upper limit of the region where the object exists, and the image or the parallax image has the lowest cluster having a size within a predetermined range. When there is no other horizontal line below the horizontal line, the lower limit of the image or the parallax image is set as the lower limit of the region where the object exists, and the image or the parallax image When there is another horizontal line below the lowermost horizontal line having a cluster having a size within a predetermined range, the horizontal line immediately below the lowermost horizontal line is set as the lower limit of the region where the object exists. This is an object region estimation method.

第1の発明によれば、撮影ステップにより前方の画像を撮影する。視差画像作成ステップでは、撮影された画像を基に視差画像を作成する。距離情報抽出ステップでは、作成された視差画像を基に距離情報を抽出する。クラスタ分割ステップでは、画像または視差画像において予め定められた横ライン上の距離情報を基に、横ライン上の画素を複数のクラスタに分割する。横方向対象物領域判定ステップでは、クラスタの中からクラスタの大きさを基に対象物の横方向の存在領域を判定する。 According to the first aspect of the present invention, the front image is captured by the capturing step. In the parallax image creation step, a parallax image is created based on the captured image. In the distance information extraction step, distance information is extracted based on the created parallax image. In the cluster division step, the pixels on the horizontal line are divided into a plurality of clusters based on distance information on the horizontal line determined in advance in the image or the parallax image. The lateral object area determination step determines the existence region of the lateral object based on the size of the clusters from the cluster.

対象物領域を推定するのに、予め定められたライン上の距離情報だけを用いるので、演算負荷の軽減および演算速度の向上をすることができる。また、クラスタ分割することで画素のグルーピングを簡易に行うことができ、対象物の大きさとの比較を容易にすることができる。   Since only the distance information on a predetermined line is used to estimate the object area, the calculation load can be reduced and the calculation speed can be improved. Further, pixel grouping can be easily performed by dividing the cluster, and comparison with the size of an object can be facilitated.

また、本発明に係る第2の発明は、前方の画像を撮影する画像センサと、前記画像を基に視差画像を作成する視差画像作成部と、前記視差画像を基に距離情報を抽出する距離情報抽出部と、前記画像または前記視差画像において予め定められた横ライン上の前記距離情報を基に、前記横ライン上の画素を複数のクラスタに分割するクラスタ分割部と、前記クラスタの中から前記クラスタの大きさを基に対象物の横方向の存在領域を判定する横方向対象物領域判定部と、前記画像または前記視差画像において、撮影された対象物の縦方向の存在領域を判定する縦方向対象物領域判定部と、を備え、前記横ラインは少なくとも2つ以上有し、前記縦方向対象物領域判定部は、前記画像または前記視差画像において、予め定められた範囲内の大きさのクラスタを有する最も上の横ラインよりも上に別の横ラインが無い場合、前記画像または前記視差画像の上限を前記対象物の存在領域の上限とし、 前記画像または前記視差画像において、予め定められた範囲内の大きさのクラスタを有する最も上の横ラインよりも上に別の横ラインが有る場合、前記最も上の横ラインよりも1本上の横ラインを前記対象物の存在領域の上限とし、前記画像または前記視差画像において、予め定められた範囲内の大きさのクラスタを有する最も下の横ラインよりも下に別の横ラインが無い場合、前記画像または前記視差画像の下限を前記対象物の存在領域の下限とし、前記画像または前記視差画像において、予め定められた範囲内の大きさのクラスタを有する最も下の横ラインよりも下に別の横ラインが有る場合、前記最も下の横ラインの1本下の横ラインを対象物の存在領域の下限とする対象物領域推定装置である。 The second invention according to the present invention is an image sensor that captures a forward image, a parallax image creation unit that creates a parallax image based on the image, and a distance that extracts distance information based on the parallax image. An information extraction unit; a cluster division unit that divides pixels on the horizontal line into a plurality of clusters based on the distance information on a predetermined horizontal line in the image or the parallax image; and determining the lateral object region determination unit determines a lateral existence region of the object based on the size of the clusters in the image or the parallax images, the longitudinal existence region of the photographed object comprising a longitudinal object region determination unit, wherein the lateral line has at least two or more, the longitudinal object region determination unit, in the image or the parallax images, within a predetermined range magnitude When there is no other horizontal line above the uppermost horizontal line having a cluster, the upper limit of the image or the parallax image is set as the upper limit of the existence area of the object, and the image or the parallax image is determined in advance. If there is another horizontal line above the uppermost horizontal line having a cluster having a size within a predetermined range, the upper horizontal line is set to the upper limit of the region where the object exists. And in the image or the parallax image, when there is no other horizontal line below the lowest horizontal line having a cluster having a size within a predetermined range, the lower limit of the image or the parallax image is set to There is another horizontal line below the lowest horizontal line having a cluster having a size within a predetermined range in the image or the parallax image as the lower limit of the region where the object exists. If, as an object region estimation apparatus according to the lower limit of the existence region of the object horizontal line of one of a horizontal line of the lowest.

第2の発明によれば、画像センサにより前方の画像を撮影する。視差画像作成部は、撮影された画像を基に視差画像を作成する。距離情報抽出部は、作成された視差画像を基に距離情報を抽出する。クラスタ分割部は、画像または視差画像において予め定められた横ライン上の距離情報を基に、横ライン上の画素を複数のクラスタに分割する。横方向対象物領域判定部は、クラスタの中からクラスタの大きさを基に対象物の横方向の存在領域を判定する。 According to the second invention, a front image is taken by the image sensor. The parallax image creation unit creates a parallax image based on the captured image. The distance information extraction unit extracts distance information based on the created parallax image. The cluster dividing unit divides the pixels on the horizontal line into a plurality of clusters based on distance information on the horizontal line determined in advance in the image or the parallax image. The horizontal direction object region determination unit determines the presence region in the horizontal direction of the target object from the clusters based on the size of the cluster.

対象物領域を推定するのに、予め定められたライン上の距離情報だけを用いるので、演算負荷の軽減および演算速度の向上をすることができる。また、クラスタ分割することで画素のグルーピングを簡易に行うことができ、対象物の大きさとの比較を容易にすることができる。   Since only the distance information on a predetermined line is used to estimate the object area, the calculation load can be reduced and the calculation speed can be improved. Further, pixel grouping can be easily performed by dividing the cluster, and comparison with the size of an object can be facilitated.

また、前記クラスタの大きさは前記クラスタの幅であることが好ましい。対象物の幅の大きさはある程度決められた上限を有するので、クラスタの幅を基準とすることで精度良く対象物の存在領域を推定することができる。   The size of the cluster is preferably the width of the cluster. Since the width of the object has an upper limit determined to some extent, the region where the object exists can be accurately estimated by using the width of the cluster as a reference.

また、前記クラスタ分割部は、前記画像または前記視差画像において予め定められた縦ライン上の前記距離情報を基に、前記縦ライン上の画素を複数のクラスタに分割し、前記対象物領域判定部は、前記クラスタの中から前記横ライン上の前記クラスタの幅と前記縦ライン上の前記クラスタの高さとを基に対象物の存在領域を判定することが好ましい。   The cluster dividing unit divides pixels on the vertical line into a plurality of clusters based on the distance information on a predetermined vertical line in the image or the parallax image, and the object region determination unit Preferably, the presence area of the object is determined from the clusters based on the width of the clusters on the horizontal line and the height of the clusters on the vertical line.

クラスタ分割部は、予め定められた横ライン上の画素のクラスタ分割に加えて、予め定められた縦ライン上の距離情報を基に、縦ライン上の画素のクラスタ分割も行う。対象物領域判定部は、分割されたクラスタの中から、横ライン上のクラスタの幅と縦ライン上のクラスタの高さとを基に対象物の存在領域を判定する。横ラインにおけるクラスタの幅に加えて、縦ラインにおけるクラスタの高さによっても対象物領域を推定するので、推定精度を向上させることができる。また、横ライン単独の場合に比べて、対象物がライン上に有る頻度が上がるので、対象物との距離が離れていても対象物領域を推定しやすくなる。   In addition to the cluster division of pixels on a predetermined horizontal line, the cluster division unit also performs cluster division on pixels on the vertical line based on distance information on the predetermined vertical line. The object area determination unit determines an existing area of the object from the divided clusters based on the cluster width on the horizontal line and the cluster height on the vertical line. In addition to the cluster width in the horizontal line, the object region is estimated based on the height of the cluster in the vertical line, so that the estimation accuracy can be improved. In addition, since the frequency with which the object is on the line is increased as compared with the case of the horizontal line alone, it is easy to estimate the object region even if the distance from the object is large.

また、前記横ラインを複数個有し、前記対象物領域判定部は、前記視差画像上における予め定められた範囲内の大きさのクラスタを有する横ラインの座標および予め定められた範囲内の大きさのクラスタを有さない横ラインの座標を基に対象物の存在領域を判定してもよい。横ラインを複数個備えることで、より対象物の存在領域の推定範囲を制限することができる。視差画像上における予め定められた範囲内の大きさのクラスタを有する横ラインと予め定められた範囲内の大きさのクラスタを有さない横ラインとの位置関係により、横方向および縦方向の対象物領域を推定することができる。   A plurality of horizontal lines, and the object region determination unit includes coordinates of horizontal lines having clusters having a size within a predetermined range on the parallax image, and sizes within a predetermined range. The existence area of the object may be determined based on the coordinates of the horizontal line that does not have the same cluster. By providing a plurality of horizontal lines, it is possible to further limit the estimated range of the region where the object exists. Depending on the positional relationship between a horizontal line having clusters of a size within a predetermined range on a parallax image and a horizontal line having no clusters of a size within a predetermined range, objects in the horizontal direction and the vertical direction An object area can be estimated.

また、本発明に係る対象物検出装置は、上記対象物領域推定装置と、対象物領域推定装置により推定された対象物領域において対象物を検出する対象物検出部とを備える。上記対象物領域推定装置を備えるので、対象物領域を推定することができる。この推定された対象物領域内だけで対象物を検出すればよいので、スキャン領域を制限することができ、対象物の検出時間を短縮することができる。   Moreover, the target object detection apparatus which concerns on this invention is provided with the said target object area estimation apparatus and the target object detection part which detects a target object in the target object area | region estimated by the target object area estimation apparatus. Since the object region estimation device is provided, the object region can be estimated. Since the object only needs to be detected within the estimated object area, the scan area can be limited, and the object detection time can be shortened.

また、前記対象物は人でもよい。人のように形状のバラツキや動きのある対象物に対しても、精度良く領域を推定することができ検出することができる。   The object may be a person. A region can be estimated and detected with high accuracy even for an object having a variation in shape or movement like a person.

また、本発明に係る車両は、上記対象物検出装置を備える車両である。上記対象物検出装置を備えるので、対象物を高速に検出することができるので、対象物との接触回避を向上することができる。   Moreover, the vehicle which concerns on this invention is a vehicle provided with the said target object detection apparatus. Since the object detection device is provided, the object can be detected at a high speed, so that contact avoidance with the object can be improved.

本発明によれば、対象物の存在領域の簡易に推定できる対象物領域推定方法、対象物領域推定装置およびそれを備えた対象物検出装置、車両を提供することができる。   According to the present invention, it is possible to provide an object area estimation method, an object area estimation apparatus, an object detection apparatus provided with the object area, and a vehicle that can easily estimate the existence area of the object.

実施例1に係る車両の前面図である。1 is a front view of a vehicle according to a first embodiment. 実施例1に係る車両の構成を示すブロック図である。1 is a block diagram illustrating a configuration of a vehicle according to a first embodiment. 実施例1に係る対象物検出装置の構成を示すブロック図である。It is a block diagram which shows the structure of the target object detection apparatus which concerns on Example 1. FIG. 実施例1に係るステレオカメラと距離情報の向きとの関係を示す説明図である。It is explanatory drawing which shows the relationship between the stereo camera which concerns on Example 1, and the direction of distance information. 実施例1に係る視差画像と予め設定されたラインとの関係を示す説明図である。It is explanatory drawing which shows the relationship between the parallax image which concerns on Example 1, and the preset line. 実施例1に係る前方距離情報の可視化グラフである。3 is a visualization graph of forward distance information according to the first embodiment. 実施例1に係るクラスタ分割された前方距離情報の可視化グラフである。6 is a visualization graph of forward distance information divided into clusters according to the first embodiment. 実施例1に係る保管されている距離情報を示す説明図である。It is explanatory drawing which shows the distance information stored concerning Example 1. FIG. 実施例1に係る対象物検出の流れを示すフローチャートである。3 is a flowchart illustrating a flow of object detection according to the first embodiment. 実施例1に係る制限されたスキャン領域を示す説明図である。FIG. 6 is an explanatory diagram illustrating a limited scan area according to the first embodiment. 実施例2に係る対象物検出装置の構成を示すブロック図である。It is a block diagram which shows the structure of the target object detection apparatus which concerns on Example 2. FIG. 実施例2に係る縦方向のスキャン領域制限を示す説明図である。FIG. 10 is an explanatory diagram illustrating vertical scanning area restriction according to the second embodiment. 実施例2に係る縦方向のスキャン領域制限を示す説明図である。FIG. 10 is an explanatory diagram illustrating vertical scanning area restriction according to the second embodiment. 実施例2に係る対象物検出の流れを示すフローチャートである。10 is a flowchart illustrating a flow of object detection according to the second embodiment. 実施例2に係る制限されたスキャン領域を示す説明図である。FIG. 10 is an explanatory diagram illustrating a limited scan area according to the second embodiment. 変形例に係る縦および横方向のスキャン領域制限を示す説明図である。It is explanatory drawing which shows the scanning area restriction | limiting of the vertical and horizontal direction which concerns on a modification. 従来例に係る対象物領域の検出方法を示す説明図である。It is explanatory drawing which shows the detection method of the target object area | region which concerns on a prior art example. 従来例に係る対象物領域の検出方法を示す説明図である。It is explanatory drawing which shows the detection method of the target object area | region which concerns on a prior art example.

以下、図面を参照して本発明の実施例1を説明する。本発明における車両の実施形態として、自動走行するゴルフカートを挙げる。車両はゴルフカートに限られず、工場や果樹園で走行する無人搬送車も含まれる。また、車両は4輪車に限られず、3輪車でもよいし、モノレール型でもよい。なお、以下の説明で、前後および左右とは車両1の前進する方向を基準としている。   Embodiment 1 of the present invention will be described below with reference to the drawings. As an embodiment of a vehicle in the present invention, a golf cart that automatically runs is given. Vehicles are not limited to golf carts, but also include automated guided vehicles that run in factories and orchards. The vehicle is not limited to a four-wheeled vehicle, and may be a three-wheeled vehicle or a monorail type. In the following description, front and rear and left and right are based on the direction in which the vehicle 1 moves forward.

1.車両の概略構成
図1および図2を参照する。図1は、実施例に係る車両1の前面図であり、図2は車両1の構成を示す機能ブロック図である。車両1はゴルフ場内を自動または手動走行するゴルフカートである。車両1は、走路に埋め込まれた誘導線から発せられる電磁波に誘導されて自動走行することができる。車両1の前面中央部にステレオカメラ3が設けられている。
1. Schematic configuration of vehicle Referring to FIGS. 1 and 2. FIG. 1 is a front view of a vehicle 1 according to the embodiment, and FIG. 2 is a functional block diagram showing a configuration of the vehicle 1. The vehicle 1 is a golf cart that travels automatically or manually in a golf course. The vehicle 1 can be automatically driven by being guided by electromagnetic waves emitted from a guide wire embedded in the runway. A stereo camera 3 is provided in the center of the front surface of the vehicle 1.

また、車両1には、車両1の前方の対象物を検出する対象物検出装置5と、車両1が誘導線に沿って自動走行するのを制御する自動走行制御部7と、対象物検出装置5が対象物を検出すると運転者および周囲に警告を発生する警告出力部8と、対象物の検出により減速または停止の制御をする車速制御部9と、車輪を駆動し、車速制御部9により回転数が制御される駆動モータ11とが設けられている。本実施例において、車両1は駆動モータ11で駆動されるがこれに限らず、エンジンにより駆動されてもよい。   Further, the vehicle 1 includes an object detection device 5 that detects an object in front of the vehicle 1, an automatic travel control unit 7 that controls the vehicle 1 to automatically travel along a guide line, and an object detection device. When 5 detects an object, a warning output unit 8 that generates a warning to the driver and the surroundings, a vehicle speed control unit 9 that controls deceleration or stop by detecting the object, a wheel is driven, and a vehicle speed control unit 9 A drive motor 11 whose rotational speed is controlled is provided. In the present embodiment, the vehicle 1 is driven by the drive motor 11, but is not limited thereto, and may be driven by an engine.

2.対象物検出装置の構成
次に図3を参照して車両1に備えられた対象物検出装置5の構成を説明する。図3は、対象物検出装置の構成を示すブロック図である。
2. Configuration of Object Detection Device Next, the configuration of the object detection device 5 provided in the vehicle 1 will be described with reference to FIG. FIG. 3 is a block diagram illustrating a configuration of the object detection device.

対象物検出装置5は、対象物領域推定装置13と対象物を検出する対象物検出部15とを備える。対象物領域推定装置13は、撮影した画像に対して対象物が存在すると推定される領域を検出する。これにより、対象物の検出のためのスキャン領域を制限することができる。対象物検出部15は、画像中の制限された領域をスキャンして対象物を検出する。   The object detection device 5 includes an object region estimation device 13 and an object detection unit 15 that detects the object. The object area estimation device 13 detects an area in which the object is estimated to exist in the captured image. Thereby, it is possible to limit the scan area for detecting the object. The object detection unit 15 scans a limited area in the image and detects the object.

対象物領域推定装置13は、車両1の前方の画像を撮影するステレオカメラ3と、ステレオカメラ3により撮影された画像を一時的に保管する画像バッファ17と、ステレオカメラ3により撮影された画像を基に視差画像を作成する視差画像作成部19と、作成された視差画像から各画素の距離情報を抽出する距離情報抽出部21と、抽出された距離情報を保管する距離情報バッファ23と、抽出された距離情報を基に視差画像における画素をクラスタ分割するクラスタ分割部25と、分割された各クラスタを基に、対象物が存在する領域を判定する対象物領域判定部27と、対象物が存在すると判定された領域をスキャン領域として設定するスキャン領域設定部29とを備える。視差画像作成部19、距離情報抽出部21、クラスタ分割部25、対象物領域判定部27、スキャン領域設定部29、および、対象物検出部15はマイクロプロセッサまたはFPGA(Field Programmable Gate Array;再構成可能なゲートアレイ)で構成される。次にそれぞれの構成部について順に説明する。   The object region estimation device 13 includes a stereo camera 3 that captures an image in front of the vehicle 1, an image buffer 17 that temporarily stores an image captured by the stereo camera 3, and an image captured by the stereo camera 3. A parallax image creation unit 19 that creates a parallax image based on the distance information extraction unit 21 that extracts distance information of each pixel from the created parallax image, a distance information buffer 23 that stores the extracted distance information, and an extraction A cluster dividing unit 25 that divides the pixels in the parallax image based on the distance information, a target region determination unit 27 that determines a region where the target exists based on each of the divided clusters, and a target And a scan area setting unit 29 for setting an area determined to exist as a scan area. The parallax image creation unit 19, the distance information extraction unit 21, the cluster division unit 25, the object region determination unit 27, the scan region setting unit 29, and the object detection unit 15 are a microprocessor or an FPGA (Field Programmable Gate Array; reconfiguration) Possible gate array). Next, each component will be described in order.

ステレオカメラ3は、2個の画像センサ3a、3bで構成される。なお、ステレオカメラ3は、2個以上の画像センサで構成されてもよい。左画像センサ3aおよび右画像センサ3bはCCDやCMOSなど一般的な可視光センサである。左画像センサ3a、右画像センサ3bは予め定められた幾何条件の下で設置されている。実施例1では、左画像センサ3a、右画像センサ3bは水平方向に一定距離を保たれて設置されている。すなわち、左画像センサ3aおよび右画像センサ3bはそれぞれ平行ステレオの位置関係で配置されている。左画像センサ3a、右画像センサ3bは、それぞれ撮影された画像の各行の位置が一致するように、すなわち、エピポーラ線が一致するように、予めカメラキャリブレーションが実施されている。左画像センサ3aで撮影された画像を左眼画像とし、右画像センサ3bで撮影された画像を右眼画像とする。実施例1では左画像センサ3aを基準カメラとし、左眼画像を基準画像とする。なお、右眼画像を基準画像としてもよい。   The stereo camera 3 includes two image sensors 3a and 3b. The stereo camera 3 may be composed of two or more image sensors. The left image sensor 3a and the right image sensor 3b are general visible light sensors such as a CCD and a CMOS. The left image sensor 3a and the right image sensor 3b are installed under a predetermined geometric condition. In the first embodiment, the left image sensor 3a and the right image sensor 3b are installed at a constant distance in the horizontal direction. That is, the left image sensor 3a and the right image sensor 3b are arranged in a parallel stereo positional relationship. In the left image sensor 3a and the right image sensor 3b, camera calibration is performed in advance so that the positions of the respective rows of the captured images are matched, that is, the epipolar lines are matched. An image taken by the left image sensor 3a is taken as a left eye image, and an image taken by the right image sensor 3b is taken as a right eye image. In the first embodiment, the left image sensor 3a is a reference camera, and the left eye image is a reference image. The right eye image may be used as the reference image.

画像バッファ17は、ステレオカメラ3から送られる画像、すなわち、画像センサ3a、3bから送られる各画像を一時的に保管する。画像センサ3a、3bの保管された各画像は順に視差画像作成部19へ出力される。画像バッファ17は、メモリ、フラッシュメモリ、ハードディスク(HDD)などを用いる。   The image buffer 17 temporarily stores images sent from the stereo camera 3, that is, images sent from the image sensors 3a and 3b. The images stored in the image sensors 3a and 3b are sequentially output to the parallax image creation unit 19. The image buffer 17 uses a memory, a flash memory, a hard disk (HDD), or the like.

視差画像作成部19は、入力される各画像から視差画像を作成する。実施例1では、画像バッファ17に保管されている左眼画像および右眼画像を基に視差画像を作成する。視差画像は例えば、ステレオマッチングにより作成することができる。ステレオマッチングとして面積相関法を用いる。面積相関法は、注目画素を中心に一定の大きさのウィンドウ単位で各画像の一致度を計算し、最も一致度が高くなるようにステレオマッチングする。さらに、一致度が最も高い状態における注目画素の視差を算出する。ここでの視差は複数画像間の画素のズレ量を示す。実施例1において、視差は、左眼画像に対する右眼画像の横方向の画素のズレ量である。ステレオマッチングの方法は、他にも、SAD(Sum of absolute differences)や、Census transformが挙げられる。なお、視差画像上のX座標およびY座標は基準画像上のX座標およびY座標と同じである。   The parallax image creation unit 19 creates a parallax image from each input image. In the first embodiment, a parallax image is created based on the left eye image and the right eye image stored in the image buffer 17. The parallax image can be created by stereo matching, for example. The area correlation method is used as stereo matching. In the area correlation method, the degree of coincidence of each image is calculated in a window unit of a certain size around the pixel of interest, and stereo matching is performed so that the degree of coincidence becomes the highest. Further, the parallax of the target pixel in the state where the degree of coincidence is the highest is calculated. The parallax here indicates the amount of pixel shift between a plurality of images. In the first embodiment, the parallax is a pixel shift amount in the horizontal direction of the right eye image with respect to the left eye image. Other stereo matching methods include SAD (Sum of absolute differences) and Census transform. Note that the X and Y coordinates on the parallax image are the same as the X and Y coordinates on the reference image.

距離情報抽出部21は、視差画像を基に、予め設定された横ライン上の各画素が表示する被写体までの実空間上の距離を抽出する。視差画像から距離を抽出する方法は、従来から利用されている平行ステレオ法を用いる。すなわち、2台の画像センサ3a、3b間の距離(ステレオカメラ3の基線長)T、および、2台の画像センサ3a、3bの焦点距離fと視差画像を用いることで、視差画像および基準画像の各画素に対応した距離情報を算出することができる。   The distance information extraction unit 21 extracts a distance in real space to a subject displayed by each pixel on a preset horizontal line based on the parallax image. As a method for extracting the distance from the parallax image, a conventionally used parallel stereo method is used. That is, by using the distance (base line length of the stereo camera 3) T between the two image sensors 3a and 3b and the focal length f and the parallax image of the two image sensors 3a and 3b, the parallax image and the reference image are used. Distance information corresponding to each pixel can be calculated.

視差画像上の座標(X、Y)に対する距離情報は以下の式にて求めることができる。
d=np ・・・(1)
=fT/d ・・・(2)
=Z(X−np)f ・・・(3)
=Z・Y/f ・・・(4)
ここで、(X、Y)は視差画像の中央を原点とした視差画像における座標であり、(X,Y,Z)は、視差画像の座標(X、Y)に対応する距離情報である。また、dは視差距離であり、nは視差画素数であり、pは画像センサ3a、3bの画素ピッチである。ステレオカメラ3と距離情報(X,Y,Z)の方向が図4に図示されている。ステレオカメラ3の横方向にX軸が設けられ、ステレオカメラ3の縦方向にY軸が設けられ、ステレオカメラ3の前方向(奥行き方向)にZ軸が設けられている。演算された各距離情報は視差画像および基準画像の各画素に対応して距離情報バッファ23に保管される。
The distance information for the coordinates (X C , Y C ) on the parallax image can be obtained by the following equation.
d = np (1)
Z D = fT / d (2)
X D = Z D (X C -np) f ··· (3)
Y D = Z D · Y C / f (4)
Here, (X C , Y C ) are coordinates in the parallax image with the center of the parallax image as the origin, and (X D , Y D , Z D ) are the coordinates (X C , Y C ) of the parallax image. Corresponding distance information. D is the parallax distance, n is the number of parallax pixels, and p is the pixel pitch of the image sensors 3a and 3b. The directions of the stereo camera 3 and the distance information (X D , Y D , Z D ) are shown in FIG. X D axis is provided in the lateral direction of the stereo camera 3, Y D axis is provided in the longitudinal direction of the stereo camera 3, Z D axis is provided toward the front of the stereo camera 3 (the depth direction). Each calculated distance information is stored in the distance information buffer 23 corresponding to each pixel of the parallax image and the reference image.

図5を参照して説明する。図5は視差画像と予め設定されたラインとの関係を示す説明図である。ラインL1は視差画像上においてYCL1のY座標を有し、ラインL2は視差画像上においてYCL2のY座標を有し、ラインL3は視差画像上においてYCL3のY座標を有する。このように、各ラインL1〜L3のY座標は予め設定されている。距離情報抽出部21はこれら各ラインL1〜L3上の画素に対応する距離情報を抽出する。すなわち、視差画像において、Y座標がYCL1、YCL2、YCL3の画素に対応する距離情報を抽出する。例えば、ラインL1上の抽出された奥行き方向の可視化された距離情報が図6に示されている。なお、実施例1ではラインを3本設定しているが、ラインは1本でもよいし、その他複数本設定してもよい。なお、距離情報抽出部21は、各ラインL1〜L3上の画素の距離情報を優先的に抽出し、その後で視差画像における他の画素の距離情報を抽出する。 This will be described with reference to FIG. FIG. 5 is an explanatory diagram showing the relationship between a parallax image and a preset line. Line L1 has a Y coordinate of Y CL1 on the parallax image, the line L2 has a Y coordinate of Y CL2 on the parallax image, the line L3 has a Y coordinate of Y CL3 on the parallax image. Thus, the Y coordinate of each line L1-L3 is preset. The distance information extraction unit 21 extracts distance information corresponding to the pixels on these lines L1 to L3. That is, in the parallax image, distance information corresponding to pixels whose Y coordinates are Y CL1 , Y CL2 , and Y CL3 is extracted. For example, the extracted distance information in the depth direction on the line L1 is shown in FIG. In the first embodiment, three lines are set, but one line may be set or a plurality of other lines may be set. The distance information extraction unit 21 preferentially extracts the distance information of the pixels on the lines L1 to L3, and then extracts the distance information of other pixels in the parallax image.

クラスタ分割部25は、視差画像において予め定められた横方向のライン上の画素と対応する距離情報を基に、ライン上の各画素を設定された個数のクラスタ(塊)に分割する。クラスタ分割の方法は従来からあるウォード(Ward)法を採用する。ウォード法以外の方法を用いてクラスタ分割してもよい。実施例1では、奥行き方向(Z軸)の距離情報および横方向(X軸)の距離情報を基に、4個のクラスタに分割する。しかしながら、分割するクラスタの個数は4個に限らず適切に設定してもよい。これにより、ライン上の各画素が奥行き距離および横向き距離に応じてクラスタ分割されるので、互いの距離が近い画素群が1個のクラスタとしてグループ化される。 The cluster dividing unit 25 divides each pixel on the line into a set number of clusters (lumps) based on distance information corresponding to pixels on a predetermined horizontal line in the parallax image. A conventional Ward method is adopted as a method of cluster division. Clusters may be divided using a method other than the Ward method. In Example 1, based on the distance information of the distance information and transverse depth direction (Z D axis) (X D axis), it is divided into four clusters. However, the number of clusters to be divided is not limited to four and may be set appropriately. As a result, each pixel on the line is divided into clusters according to the depth distance and the lateral distance, so that pixel groups that are close to each other are grouped as one cluster.

図7には、クラスタ分割された奥行き方向の距離情報のグラフが示されている。ラインL1上の各画素がCL1〜CL4の4個のクラスタに分割されている。なお、実施例1では、車両1に最も近いクラスタにクラスタ番号CL1が設定され、距離が離れるにつれ、クラスタ番号CLNOが順に振り分けられている。分割されたクラスタに対応するクラスタ番号CLNO(CL1〜CL4)は、各画素のX座標と関連づけて距離情報バッファ23に格納される。 FIG. 7 shows a graph of distance information in the depth direction divided into clusters. Each pixel on the line L1 is divided into four clusters CL1 to CL4. In the first embodiment, the cluster number CL1 is set to the cluster closest to the vehicle 1, and the cluster number CL NO is sequentially assigned as the distance increases. Cluster numbers CL NO (CL1 to CL4) corresponding to the divided clusters are stored in the distance information buffer 23 in association with the X coordinate of each pixel.

距離情報バッファ23は、視差画像および基準画像の画素と対応付けられた各距離情報を保管する。図8には、予め定めらた各ラインL1〜L3のX座標と各距離情報との関連が示されている。すなわち、各ラインL1〜L3における、基準画像(視差画像)上のX座標値、Y座標値、および、横方向距離X、縦方向距離Y、奥行き方向距離Z、および、クラスタ番号CLNOとが関連付けられて保管されている。距離情報バッファ23として、例えば、メモリ、フラッシュメモリ、ハードディスク(HDD)などが挙げられる。 The distance information buffer 23 stores distance information associated with the parallax image and the reference image pixels. FIG. 8 shows a relationship between predetermined X coordinates of the lines L1 to L3 and distance information. That is, the X coordinate value, the Y coordinate value, the lateral distance X D , the longitudinal distance Y D , the depth direction distance Z D , and the cluster number CL on each of the lines L1 to L3 on the reference image (parallax image). Stored in association with NO . Examples of the distance information buffer 23 include a memory, a flash memory, and a hard disk (HDD).

対象物領域判定部27は、奥行き距離が最も小さいクラスタから順に各クラスタが対象物であるかどうかを判定する。各クラスタのクラスタ幅が予め定められた閾値の範囲内であれば対象物であると判定する。ここで、クラスタ幅とは、分割された各クラスタが有する実際の横方向の距離情報における最小値と最大値との幅である。例えば、図7のクラスタCL1における最小値はXD1であり最大値はXD2であるので、クラスタCL1の幅は(XD2−XD1)である。このように、対象物領域判定部27は、各クラスタのクラスタ幅を算出し、各クラスタ幅が予め定められた設定範囲内かどうかを判定する。対象物として人を検出する場合、例えば、設定範囲を1m以下に設定すればよい。 The object area determination unit 27 determines whether or not each cluster is an object in order from the cluster having the smallest depth distance. If the cluster width of each cluster is within a predetermined threshold range, it is determined as an object. Here, the cluster width is the width between the minimum value and the maximum value in the actual lateral distance information that each divided cluster has. For example, the minimum value is X D1 maximum in cluster CL1 in FIG. 7 because it is X D2, the width of the cluster CL1 is (X D2 -X D1). As described above, the object region determination unit 27 calculates the cluster width of each cluster, and determines whether each cluster width is within a predetermined setting range. When detecting a person as an object, for example, the setting range may be set to 1 m or less.

スキャン領域設定部29は、対象物であると判定されたクラスタの横方向の視差画像(基準画像)上の最大値座標および最小値座標をスキャン領域の最大値座標および最小値座標に設定する。これにより、対象物を検出する横方向のスキャン領域が制限される。   The scan region setting unit 29 sets the maximum value coordinate and the minimum value coordinate on the parallax image (reference image) in the horizontal direction of the cluster determined to be an object as the maximum value coordinate and the minimum value coordinate of the scan region. As a result, the horizontal scanning area for detecting the object is limited.

対象物検出部15は、画像バッファ17から基準画像を取得し、スキャン領域設定部からスキャン領域座標を取得する。対象物検出部15は、設定されたスキャン領域において、基準画像内を複数の大きさの検出窓をラスタスキャンさせて、対象物を検出する。対象物は、障害物であってもよいし、人であってもよい。人を検出する場合、HOG特徴を用いて検出することができる。HOG特徴を用いる場合、スキャン領域のみ距離情報を抽出すればよいので、画像全体の距離情報を抽出するのに比べて大幅に演算量を低減することができる。   The object detection unit 15 acquires a reference image from the image buffer 17 and acquires scan area coordinates from the scan area setting unit. The object detection unit 15 detects the object by raster scanning a plurality of detection windows in the reference image in the set scan region. The object may be an obstacle or a person. When detecting a person, it can be detected using HOG features. When the HOG feature is used, the distance information only needs to be extracted only in the scan region, so that the amount of calculation can be greatly reduced compared to extracting the distance information of the entire image.

次に、実施例1における対象物検出の動作を図9を用いて説明する。図9は対象物検出の処理手順を示すフローチャートである。   Next, the object detection operation in the first embodiment will be described with reference to FIG. FIG. 9 is a flowchart showing a processing procedure for detecting an object.

車両1の前面に設けられたステレオカメラ3により前方の画像を撮影する(ステップS01)。撮影された左眼画像および右眼画像は画像バッファ17に格納する。次に、画像バッファ17に格納されている画像を基に、視差画像作成部19が視差画像を作成する(ステップS02)。次に、距離情報抽出部21は、作成された視差画像において予め定められた高さ(YCL1、YCL2、YCL3座標)のラインL1、L2、L3上の画素における横(X)方向、縦(Y)方向、および、奥行き(Z)方向の距離情報を抽出する(ステップS03)。 A front image is taken by the stereo camera 3 provided on the front surface of the vehicle 1 (step S01). The captured left eye image and right eye image are stored in the image buffer 17. Next, the parallax image creation unit 19 creates a parallax image based on the image stored in the image buffer 17 (step S02). Next, the distance information extraction unit 21 uses the horizontal (X D ) direction of the pixels on the lines L1, L2, and L3 having predetermined heights (Y CL1 , Y CL2 , and Y CL3 coordinates) in the created parallax image. The distance information in the vertical (Y D ) direction and the depth (Z D ) direction is extracted (step S03).

抽出された距離情報は距離情報バッファ23へ格納される。また、抽出された距離情報を基に、クラスタ分割部25は各ラインL1〜L3上の画素をクラスタ分割する(ステップS04)。クラスタ分割されて振り分けられたクラスタ番号CLNOは、対応する視差画像上の画素のX座標およびその他の距離情報と関連付けて距離情報バッファ23に格納される。 The extracted distance information is stored in the distance information buffer 23. Further, based on the extracted distance information, the cluster dividing unit 25 performs cluster division on the pixels on the lines L1 to L3 (step S04). The cluster number CL NO assigned after the cluster division is stored in the distance information buffer 23 in association with the X coordinate of the pixel on the corresponding parallax image and other distance information.

次に、対象物領域判定部27は、分割された各クラスタの横方向の実距離であるクラスタ幅を算出する。(ステップS05)。さらに、対象物領域判定部27は、予め設定された範囲内の幅のクラスタが有るかどうかを判定する(ステップS06)。設定範囲内の幅のクラスタが無い場合(ステップS06のNo)、この撮影フレームでの処理を終えて、次の撮影フレームの処理に移る。   Next, the object region determination unit 27 calculates a cluster width that is an actual distance in the horizontal direction of each divided cluster. (Step S05). Furthermore, the object area determination unit 27 determines whether there is a cluster having a width within a preset range (step S06). If there is no cluster having a width within the set range (No in step S06), the processing for this shooting frame is finished, and the processing for the next shooting frame is started.

予め設定された範囲内の幅のクラスタが有る場合(ステップS06のYes)、スキャン領域設定部29は、この設定範囲内の幅であるクラスタの視差画像におけるX座標の最小値および最大値をそれぞれ、横方向スキャン領域の最小値および最大値として設定する(ステップS07)。すなわち、設定範囲内の幅であるクラスタが対象物の存在する領域であると推定することができる。なお、複数のクラスタにおいてクラスタ幅が設定範囲内であると判定された場合、これら複数のクラスタの中で、ステレオカメラ3に最も近いクラスタの最小値および最大値を横方向スキャン領域の最小値および最大値として設定する。   When there is a cluster having a width within the preset range (Yes in step S06), the scan area setting unit 29 sets the minimum value and the maximum value of the X coordinate in the parallax image of the cluster having the width within the set range, respectively. Then, the minimum and maximum values of the horizontal scanning area are set (step S07). That is, it can be estimated that a cluster having a width within the set range is an area where an object exists. When it is determined that the cluster width is within the set range in the plurality of clusters, the minimum value and the maximum value of the cluster closest to the stereo camera 3 among the plurality of clusters are set to the minimum value of the horizontal scanning region and Set as the maximum value.

次に、対象物検出部15は、横方向に制限されたスキャン領域Ar1内(図10参照)で対象物をHOG特徴量などを用いて対象物を検出する(ステップS08)。HOG特徴量を用いる場合、横方向に制限されたスキャン領域Ar1内のみ距離情報抽出部21にて距離情報を抽出して対象物を検出する。なお、対象物が検出されると、スピーカ等で構成される警告出力部8から操縦者および周囲に対して警報を発する。また、対象物が検出されると、車速制御部9が減速の制御およびブレーキ制動を実施し、駆動モータ11および車輪の回転が制動され、車両1が減速または停止する。   Next, the object detection unit 15 detects the object using the HOG feature amount or the like within the scan region Ar1 restricted in the horizontal direction (see FIG. 10) (step S08). When using the HOG feature amount, the distance information extraction unit 21 extracts the distance information only within the scan region Ar1 restricted in the horizontal direction to detect the object. When an object is detected, an alarm is issued to the operator and the surroundings from an alarm output unit 8 composed of a speaker or the like. When the object is detected, the vehicle speed control unit 9 performs deceleration control and brake braking, the drive motor 11 and the rotation of the wheels are braked, and the vehicle 1 decelerates or stops.

このように、実施例1によれば、対象物の存在領域を簡易に推定することができる。対象物の存在領域の推定は、距離情報抽出部21により抽出された実際の距離情報を基に推定されるので、推定精度を向上させることができる。また、予め設定されたライン上だけ距離情報の抽出をすれば対象物の存在領域の有無を判定することができるので、対象物の領域推定を高速にすることができる。   As described above, according to the first embodiment, it is possible to easily estimate the existence area of the object. Since the estimation of the region where the object exists is estimated based on the actual distance information extracted by the distance information extraction unit 21, the estimation accuracy can be improved. Further, if the distance information is extracted only on a preset line, the presence / absence of the target region can be determined, so that the target region can be estimated at high speed.

また、対象物を検出するスキャン領域が制限されるので、対象物を検出する時間を短縮することができる。これにより、対象物を検出するフレームレートを上げることができ、より短い時間間隔で対象物を検出することができる。   Further, since the scan area for detecting the object is limited, the time for detecting the object can be shortened. Thereby, the frame rate for detecting the object can be increased, and the object can be detected at shorter time intervals.

次に、図11を参照して実施例2に係る対象物検出装置について説明する。図11は実施例2における対象物検出装置の構成を示すブロック図である。実施例2において、実施例1に示した符号と同一の符号で示した部分は、実施例1と同様の構成であるのでここでの説明は省略する。また、以下に記載した以外の車両および対象物検出装置の構成は実施例1と同様である。   Next, the target object detection apparatus according to the second embodiment will be described with reference to FIG. FIG. 11 is a block diagram illustrating a configuration of the object detection device according to the second embodiment. In the second embodiment, the parts indicated by the same reference numerals as those in the first embodiment have the same configuration as in the first embodiment, and thus the description thereof is omitted here. The configurations of the vehicle and the object detection device other than those described below are the same as those in the first embodiment.

実施例2の特徴は、対象物の存在領域の推定を縦方向においても実施する点である。実施例1では対象物の存在領域の推定を横方向にのみ限定していたが、実施例2では横方向に加えて縦方向にも推定する。これにより、縦方向にもスキャン領域を制限することができる。   The feature of the second embodiment is that the estimation of the existence area of the object is also performed in the vertical direction. In the first embodiment, the estimation of the target area is limited only in the horizontal direction, but in the second embodiment, the estimation is performed in the vertical direction in addition to the horizontal direction. Thereby, it is possible to limit the scan area in the vertical direction.

実施例2における対象物領域推定装置13’は、実施例1における対象物領域推定装置13’に縦方向対象物領域判定部28が追加された構成である。なお、実施例2における横方向対象物領域判定部27’は実施例1における対象物領域判定部27と同じ構成であり、同じ機能を有する。また、実施例2においては、視差画像上で距離情報が抽出される予め決められたラインは2本以上設定されている。   The object area estimation device 13 ′ according to the second embodiment has a configuration in which a vertical direction object area determination unit 28 is added to the object area estimation device 13 ′ according to the first embodiment. In addition, the horizontal direction object area | region determination part 27 'in Example 2 is the same structure as the object area determination part 27 in Example 1, and has the same function. In the second embodiment, two or more predetermined lines from which distance information is extracted on the parallax image are set.

縦方向対象物領域判定部28は、設定範囲内の幅のクラスタを有さないラインのY座標をスキャン領域の最大Y座標値または最小Y座標値の候補として判定する。初期設定では、スキャン領域の最大Y座標値は視差画像(基準画像)の最大Y座標であるYCmaxに設定されている。また、スキャン領域の最小Y座標値は視差画像(基準画像)の最小Y座標であるYCminに設定されている。 The vertical object region determination unit 28 determines the Y coordinate of a line that does not have a cluster having a width within the set range as a candidate for the maximum Y coordinate value or the minimum Y coordinate value of the scan region. In the initial setting, the maximum Y coordinate value of the scan area is set to Y Cmax which is the maximum Y coordinate of the parallax image (reference image). Further, the minimum Y coordinate value of the scan area is set to Y Cmin which is the minimum Y coordinate of the parallax image (reference image).

設定範囲内の幅のクラスタを有さないラインのY座標値が、設定範囲内の幅のクラスタを有するラインのY座標値よりも大きい場合、設定範囲内の幅のクラスタを有さないラインのY座標値をスキャン領域の最大Y座標値として更新する。また、設定範囲内の幅のクラスタを有さないラインのY座標値が、設定範囲内の幅のクラスタを有するラインのY座標値よりも小さい場合、設定範囲内の幅のクラスタを有さないラインのY座標値をスキャン領域の最小Y座標値として更新する。   If the Y coordinate value of a line that does not have a cluster with a width within the setting range is greater than the Y coordinate value of a line with a cluster with a width within the setting range, the line that does not have a cluster with a width within the setting range The Y coordinate value is updated as the maximum Y coordinate value of the scan area. In addition, when the Y coordinate value of a line that does not have a cluster having a width within the setting range is smaller than the Y coordinate value of a line having a cluster having a width within the setting range, the cluster having a width within the setting range is not included. The Y coordinate value of the line is updated as the minimum Y coordinate value of the scan area.

図12、13を参照して、縦方向の対象物の領域判定をさらに説明する。図12は、1本のライン上で設定範囲の幅のクラスタが検出された場合であり、図13は複数本のラインで設定範囲の幅のクラスタが検出された場合である。視差画像上にラインL1〜L3の3本のラインが設定されている。図12では、横方向対象物領域判定部27により、ラインL1上のクラスタCL1の幅が設定範囲内であると判定され、他のクラスタは設定範囲内では無いと判定される。この場合、対象物Ob1は、設定範囲の幅のクラスタが検出されたラインL1の1本上に位置するラインL2と、ラインL1の1本下に位置するラインL3の間に存在すると推定することができる。そこで、縦方向のスキャン領域の最大値をラインL2のY座標であるYCL2と更新し、縦方向のスキャン領域の最小値をラインL3のY座標であるYCL3と更新することで、縦方向のスキャン領域を制限することができる。 With reference to FIGS. 12 and 13, the region determination of the object in the vertical direction will be further described. FIG. 12 shows a case where a cluster having a width of a set range is detected on one line, and FIG. 13 shows a case where a cluster having a width of the set range is detected on a plurality of lines. Three lines L1 to L3 are set on the parallax image. In FIG. 12, the horizontal direction object area determination unit 27 determines that the width of the cluster CL1 on the line L1 is within the setting range, and determines that the other clusters are not within the setting range. In this case, it is presumed that the object Ob1 exists between the line L2 located above the line L1 where the cluster having the width of the set range is detected and the line L3 located below the line L1. Can do. Therefore, the maximum value of the vertical scan area is updated as Y CL2 which is the Y coordinate of the line L2, and the minimum value of the vertical scan area is updated as Y CL3 which is the Y coordinate of the line L3. The scan area can be limited.

図13では、横方向対象物領域判定部27により、ラインL1上のクラスタCL5およびラインL2上のクラスタCL6の幅が設定範囲内であると判定され、他のクラスタは設定範囲内では無いと判定される。この場合、ラインL2よりも上方に別のラインは位置していないので、視差画像の上縁の座標であるYCmaxからラインL1の1本下に位置するラインL3の間に対象物Ob2が存在すると推定することができる。そこで、縦方向のスキャン領域の最大値は初期設定値であるYCmaxとし、縦方向のスキャン領域の最小値をラインL3のY座標であるYCL3と更新することで、縦方向のスキャン領域を制限することができる。 In FIG. 13, the lateral object region determination unit 27 determines that the widths of the cluster CL5 on the line L1 and the cluster CL6 on the line L2 are within the set range, and determines that the other clusters are not within the set range. Is done. In this case, since no other line is located above the line L2, the object Ob2 exists between the line L3 located one line below the line L1 from Y Cmax, which is the coordinate of the upper edge of the parallax image. Then it can be estimated. Therefore, the maximum value of the vertical scan area is set to Y Cmax , which is an initial setting value, and the minimum value of the vertical scan area is updated to Y CL3 , which is the Y coordinate of the line L3. Can be limited.

なお、ラインL1およびラインL3上に設定範囲内の幅のクラスタが検出された場合、縦方向のスキャン領域の最大値をラインL2のY座標であるYCL2と設定し、縦方向のスキャン領域の最小値を初期設定値であるYCminとすることで、縦方向のスキャン領域を制限することができる。 When a cluster having a width within the set range is detected on the line L1 and the line L3, the maximum value of the vertical scan area is set to Y CL2 which is the Y coordinate of the line L2, and the vertical scan area By setting the minimum value to Y Cmin that is the initial setting value, the vertical scanning area can be limited.

スキャン領域設定部29’は、実施例1と同様にスキャン領域を横方向に制限するのに加えて、縦方向にも制限して設定する。すなわち、クラスタの幅に基づいて横方向の制限が行われ、各ラインのY座標、基準画像(視差画像)の最大Y座標YCmaxおよび最小Y座標YCminに基づいて縦方向の制限が行われる。なお、縦方向対象物領域判定部28により、縦方向の対象物領域が判定されなかった場合は、初期設定値通り、基準画像の最大Y座標YCmaxおよび最小Y座標YCminをスキャン領域の最大Y座標値および最小Y座標値とする。 The scan area setting unit 29 ′ limits and sets the scan area in the vertical direction in addition to restricting the scan area in the horizontal direction as in the first embodiment. That is, the horizontal restriction is performed based on the cluster width, and the vertical restriction is performed based on the Y coordinate of each line, the maximum Y coordinate Y Cmax and the minimum Y coordinate Y Cmin of the reference image (parallax image). . If the vertical object area is not determined by the vertical object area determination unit 28, the maximum Y coordinate Y Cmax and the minimum Y coordinate Y Cmin of the reference image are set to the maximum of the scan area as the initial setting value. The Y coordinate value and the minimum Y coordinate value are used.

次に、実施例2における対象物検出の動作を図14を用いて説明する。図14は対象物検出の処理手順を示すフローチャートである。   Next, the object detection operation in the second embodiment will be described with reference to FIG. FIG. 14 is a flowchart showing a processing procedure for object detection.

ステップS01〜ステップS07まで実施例1と同様であるので、説明を省略する。ステップS07の次に、縦方向対象物領域判定部28は、全てのラインが設定範囲内の幅のクラスタを有するか否かの判定をする(ステップS09)。全てのラインが設定範囲内の幅のクラスタを有する場合(ステップS09のYes)、縦方向のスキャン領域の設定は、基準画像の予め設定されている最大Y座標YCmaxと最小Y座標YCminを設定する(ステップS10)。すなわち、縦方向のスキャン領域に関して、実質的には制限をかけていない。 Since Step S01 to Step S07 are the same as those in the first embodiment, the description thereof is omitted. Following step S07, the vertical object region determination unit 28 determines whether or not all the lines have clusters having a width within the set range (step S09). When all the lines have clusters having a width within the setting range (Yes in step S09), the vertical scan area is set by setting the maximum Y coordinate Y Cmax and the minimum Y coordinate Y Cmin set in advance in the reference image. Set (step S10). In other words, the vertical scanning area is not substantially limited.

また、ステップS09にて、全てのラインが設定範囲内の幅のクラスタを有さない場合(ステップS09のNo)、設定範囲内の幅のクラスタを有さないラインのY座標が設定範囲内の幅のクラスタを有するラインのY座標よりも大きいか判定する(ステップS11)。   In step S09, if all the lines do not have a cluster having a width within the set range (No in step S09), the Y coordinate of the line having no cluster having a width within the set range is within the set range. It is determined whether it is larger than the Y coordinate of a line having a cluster of width (step S11).

設定範囲内の幅のクラスタを有するラインのY座標よりも、設定範囲内の幅のクラスタを有さないラインのY座標が大きい場合(ステップS11のYes)、さらに、設定範囲内の幅のクラスタの無いラインのY座標がスキャン領域のY最大値よりも小さいか判定する(ステップS12)。設定範囲内の幅のクラスタの無いラインのY座標がスキャン領域のY最大値よりも小さい場合(ステップS12のYes)、このラインのY座標値をスキャン領域のY最大値座標として更新する(ステップS13)。設定範囲内のクラスタの無いラインのY座標がスキャン領域のY最大値以上の場合(ステップS12のNo)、何も処理をすることなく次の処理に移る。   When the Y coordinate of a line not having a cluster having a width within the setting range is larger than the Y coordinate of a line having a cluster having a width within the setting range (Yes in step S11), the cluster having a width within the setting range is further determined. It is determined whether or not the Y coordinate of the line having no dot is smaller than the maximum Y value of the scan area (step S12). If the Y coordinate of the line having no cluster within the set range is smaller than the Y maximum value of the scan area (Yes in step S12), the Y coordinate value of this line is updated as the Y maximum value coordinate of the scan area (step S12). S13). When the Y coordinate of the line having no cluster within the set range is equal to or larger than the Y maximum value of the scan area (No in step S12), the process proceeds to the next process without performing any process.

設定範囲内の幅のクラスタを有さないラインのY座標が、設定範囲内のクラスタを有するラインのY座標よりも小さい場合(ステップS11のNo)、さらに、設定範囲内の幅のクラスタを有さないラインのY座標がスキャン領域のY最小値よりも大きいか判定する(ステップS14)。設定範囲内の幅のクラスタを有さないラインのY座標がスキャン領域のY最小値よりも大きい場合(ステップS14のYes)、このラインのY座標値をスキャン領域のY最小値座標として更新する(ステップS15)。   When the Y coordinate of a line that does not have a cluster having a width within the setting range is smaller than the Y coordinate of a line having a cluster within the setting range (No in step S11), the cluster having a width within the setting range is further present. It is determined whether the Y coordinate of the line not to be processed is larger than the Y minimum value of the scan area (step S14). When the Y coordinate of a line that does not have a cluster having a width within the set range is larger than the Y minimum value of the scan area (Yes in step S14), the Y coordinate value of this line is updated as the Y minimum value coordinate of the scan area. (Step S15).

設定範囲内の幅のクラスタを有さないラインのY座標が、スキャン領域のY最小値以下の場合(ステップS14のNo)、何も処理をすることなく次の処理に移る。このようにして設定されたスキャン領域のY最大値座標およびY最小値座標を用いて、スキャン領域設定部29が縦方向のスキャン領域を設定する(ステップS10)。これら、横方向および縦方向において制限されたスキャン領域内で、実施例1と同様に対象物検出部15が対象物を検出する(ステップS08)。なお、次の撮影フレームの処理に移る際に、スキャン領域のY最大値座標およびY最小値座標が初期値に戻される。   If the Y coordinate of the line not having a cluster having a width within the set range is equal to or smaller than the Y minimum value of the scan area (No in step S14), the process proceeds to the next process without performing any process. The scan area setting unit 29 sets the vertical scan area using the Y maximum value coordinate and Y minimum value coordinate of the scan area set in this way (step S10). Within these scan regions limited in the horizontal and vertical directions, the object detection unit 15 detects the object as in the first embodiment (step S08). It should be noted that when moving to the processing of the next shooting frame, the Y maximum value coordinate and Y minimum value coordinate of the scan area are returned to the initial values.

このように、実施例2によれば、視差画像上において横方向に加えて縦方向にも対象物領域を推定する。これにより、図15に示すように、対象物検出のスキャン領域を縦方向にも制限することができ、対象物検出の時間をより短縮することができる。   Thus, according to the second embodiment, the object region is estimated in the vertical direction in addition to the horizontal direction on the parallax image. As a result, as shown in FIG. 15, the scan area for object detection can also be restricted in the vertical direction, and the time for object detection can be further shortened.

本発明は、上記実施例のものに限らず、次のように変形実施することができる。   The present invention is not limited to the above embodiment, and can be modified as follows.

(1)上記実施例において、クラスタ分割するラインL1〜L3は横方向のラインであった。これに限られず、横方向のラインに加えて、図16に示すように、縦方向のラインを有し、縦方向のラインにおいてもクラスタ分割して対象物領域の推定をしてもよい。この場合、クラスタ分割部25は、視差画像上に予め設定された縦方向のライン上の画素を、各画素の距離情報を基に複数個のクラスタに分割する。対象物領域判定部27は、分割されたクラスタの中から横ライン上のクラスタの幅と、縦ライン上のクラスタの高さとを基に対象物の存在領域を判定する。例えば、図16においては、クラスタCL7の実空間での高さが予め設定された縦方向の設定範囲内であれば対象物領域と判定し、設定範囲内でなければ対象物領域ではないと判定する。対象物領域と判定すると、クラスタCL7の最大値座標および最小値座標をそれぞれ、スキャン領域のY最大値座標およびY最小値座標として設定する。これにより、スキャン領域を縦方向にも制限することができる。   (1) In the above embodiment, the lines L1 to L3 to be divided into clusters are horizontal lines. The present invention is not limited to this, and in addition to the horizontal line, as shown in FIG. 16, the vertical line may be provided, and the target area may be estimated by dividing the vertical line into clusters. In this case, the cluster dividing unit 25 divides the pixels on the vertical line preset on the parallax image into a plurality of clusters based on the distance information of each pixel. The object area determination unit 27 determines an existing area of the object based on the cluster width on the horizontal line and the cluster height on the vertical line among the divided clusters. For example, in FIG. 16, if the height of the cluster CL7 in the real space is within a preset vertical setting range, it is determined as an object region, and if not within the setting range, it is determined not to be an object region. To do. If it is determined as the object region, the maximum value coordinate and the minimum value coordinate of the cluster CL7 are set as the Y maximum value coordinate and the Y minimum value coordinate of the scan region, respectively. As a result, the scan area can also be restricted in the vertical direction.

(2)上記実施例において、対象物の領域を推定するのに、クラスタ幅を基準としていた。これに限られず、クラスタ幅に加えて、クラスタの奥行き方向の長さも基準として対象物の領域を推定してもよい。   (2) In the above embodiment, the cluster width is used as a reference for estimating the region of the object. However, the present invention is not limited to this, and the area of the object may be estimated based on the length in the depth direction of the cluster in addition to the cluster width.

(3)上記実施例において、ステレオカメラ3を採用して視差画像を作成し、ステレオマッチングを実施することで距離情報を取得していた。これに限られず、距離情報を、例えば、レーダースキャナにより取得してもよい。この場合、単眼の画像センサにより取得された画像とレーダースキャナにより取得された距離情報とを予め対応づけされている必要がある。   (3) In the above embodiment, the stereo camera 3 is employed to create a parallax image, and distance information is acquired by performing stereo matching. For example, the distance information may be acquired by a radar scanner. In this case, the image acquired by the monocular image sensor needs to be associated with the distance information acquired by the radar scanner in advance.

(4)上記実施例において、対象物検出装置は車両に備えられていたがこれに限られない。他にも、例えば、自律走行するロボット用のビジョンシステムや視覚障害者の支援システムなどに採用してもよい。   (4) In the said Example, although the target object detection apparatus was equipped with the vehicle, it is not restricted to this. In addition, for example, it may be adopted in a vision system for a robot that travels autonomously or a support system for a visually impaired person.

1 … 車両
3 … ステレオカメラ
3a … 左画像センサ
3b … 右画像センサ
5、5’ … 対象物検出装置
13、13’ … 対象物領域推定装置
15 … 対象物検出部
19 … 視差画像作成部
21 … 距離情報抽出部
25 … クラスタ分割部
27 … 対象物領域判定部
29 … スキャン領域設定部
DESCRIPTION OF SYMBOLS 1 ... Vehicle 3 ... Stereo camera 3a ... Left image sensor 3b ... Right image sensor 5, 5 '... Object detection apparatus 13, 13' ... Object area estimation apparatus 15 ... Object detection part 19 ... Parallax image creation part 21 ... Distance information extraction unit 25 ... cluster division unit 27 ... object region determination unit 29 ... scan region setting unit

Claims (7)

前方の画像を撮影する撮影ステップと、
前記画像を基に視差画像を作成する視差画像作成ステップと、
前記視差画像を基に距離情報を抽出する距離情報抽出ステップと、
前記画像または前記視差画像において予め定められた横ライン上の前記距離情報を基に、前記横ライン上の画素を複数のクラスタに分割するクラスタ分割ステップと、
前記画像または前記視差画像において、前記クラスタの中から前記クラスタの大きさを基に撮影された対象物の横方向の存在領域を判定する横方向対象物領域判定ステップと、
前記画像または前記視差画像において、撮影された対象物の縦方向の存在領域を判定する縦方向対象物領域判定ステップと、
を備え
前記横ラインは少なくとも2つ以上有し、
前記対象物縦方向領域判定ステップは、
前記画像または前記視差画像において、予め定められた範囲内の大きさのクラスタを有する最も上の横ラインよりも上に別の横ラインが無い場合、前記画像または前記視差画像の上限を前記対象物の存在領域の上限とし、
前記画像または前記視差画像において、予め定められた範囲内の大きさのクラスタを有する最も上の横ラインよりも上に別の横ラインが有る場合、前記最も上の横ラインよりも1本上の横ラインを前記対象物の存在領域の上限とし、
前記画像または前記視差画像において、予め定められた範囲内の大きさのクラスタを有する最も下の横ラインよりも下に別の横ラインが無い場合、前記画像または前記視差画像の下限を前記対象物の存在領域の下限とし、
前記画像または前記視差画像において、予め定められた範囲内の大きさのクラスタを有する最も下の横ラインよりも下に別の横ラインが有る場合、前記最も下の横ラインの1本下の横ラインを対象物の存在領域の下限とする
対象物領域推定方法。
A shooting step to take a front image;
A parallax image creating step of creating a parallax image based on the image;
A distance information extracting step of extracting distance information based on the parallax image;
A cluster dividing step of dividing the pixels on the horizontal line into a plurality of clusters based on the distance information on a predetermined horizontal line in the image or the parallax image;
In the image or the parallax images, the lateral object area determination step of determining presence region in the lateral direction of the captured object based on the size of the cluster from among the clusters,
In the image or the parallax image, a vertical object region determination step for determining a vertical existence region of the captured object;
Equipped with a,
The horizontal line has at least two or more,
The object longitudinal direction region determining step includes:
In the image or the parallax image, when there is no other horizontal line above the uppermost horizontal line having a cluster having a size within a predetermined range, the upper limit of the image or the parallax image is set as the target. The upper limit of the existence area of
In the image or the parallax image, when there is another horizontal line above the uppermost horizontal line having a cluster having a size within a predetermined range, it is one higher than the uppermost horizontal line. The horizontal line is the upper limit of the area where the object exists,
In the image or the parallax image, when there is no other horizontal line below the lowest horizontal line having a cluster having a size within a predetermined range, the lower limit of the image or the parallax image is set as the object. The lower limit of the existence region of
In the image or the parallax image, when there is another horizontal line below the lowest horizontal line having a cluster having a size within a predetermined range, the horizontal line one line below the lowest horizontal line An object area estimation method in which a line is a lower limit of an object existing area .
前方の画像を撮影する画像センサと、
前記画像を基に視差画像を作成する視差画像作成部と、
前記視差画像を基に距離情報を抽出する距離情報抽出部と、
前記画像または前記視差画像において予め定められた横ライン上の前記距離情報を基に、前記横ライン上の画素を複数のクラスタに分割するクラスタ分割部と、
前記クラスタの中から前記クラスタの大きさを基に対象物の横方向の存在領域を判定する横方向対象物領域判定部と、
前記画像または前記視差画像において、撮影された対象物の縦方向の存在領域を判定する縦方向対象物領域判定部と、
を備え、
前記横ラインは少なくとも2つ以上有し、
前記縦方向対象物領域判定部は、
前記画像または前記視差画像において、予め定められた範囲内の大きさのクラスタを有する最も上の横ラインよりも上に別の横ラインが無い場合、前記画像または前記視差画像の上限を前記対象物の存在領域の上限とし、
前記画像または前記視差画像において、予め定められた範囲内の大きさのクラスタを有する最も上の横ラインよりも上に別の横ラインが有る場合、前記最も上の横ラインよりも1本上の横ラインを前記対象物の存在領域の上限とし、
前記画像または前記視差画像において、予め定められた範囲内の大きさのクラスタを有する最も下の横ラインよりも下に別の横ラインが無い場合、前記画像または前記視差画像の下限を前記対象物の存在領域の下限とし、
前記画像または前記視差画像において、予め定められた範囲内の大きさのクラスタを有する最も下の横ラインよりも下に別の横ラインが有る場合、前記最も下の横ラインの1本下の横ラインを対象物の存在領域の下限とする
対象物領域推定装置。
An image sensor for taking a forward image;
A parallax image creating unit that creates a parallax image based on the image;
A distance information extraction unit that extracts distance information based on the parallax image;
A cluster dividing unit that divides pixels on the horizontal line into a plurality of clusters based on the distance information on a predetermined horizontal line in the image or the parallax image;
And lateral object region determination unit determines a lateral existence region of the object based on the size of the cluster from among the clusters,
In the image or the parallax image, a vertical object region determination unit that determines a vertical existence region of the captured object;
With
The horizontal line has at least two or more,
The vertical direction object region determination unit,
In the image or the parallax image, when there is no other horizontal line above the uppermost horizontal line having a cluster having a size within a predetermined range, the upper limit of the image or the parallax image is set as the target. The upper limit of the existence area of
In the image or the parallax image, when there is another horizontal line above the uppermost horizontal line having a cluster having a size within a predetermined range, it is one higher than the uppermost horizontal line. The horizontal line is the upper limit of the area where the object exists,
In the image or the parallax image, when there is no other horizontal line below the lowest horizontal line having a cluster having a size within a predetermined range, the lower limit of the image or the parallax image is set as the object. The lower limit of the existence region of
In the image or the parallax image, when there is another horizontal line below the lowest horizontal line having a cluster having a size within a predetermined range, the horizontal line one line below the lowest horizontal line An object area estimation apparatus that uses a line as a lower limit of an object existing area .
請求項2に記載の対象物領域推定装置において、
前記クラスタの大きさは前記クラスタの幅である
対象物領域推定装置。
The object region estimation apparatus according to claim 2,
The size of the cluster is the width of the cluster.
請求項2に記載の対象物領域推定装置において、
前記クラスタ分割部は、前記画像または前記視差画像において予め定められた縦ライン上の前記距離情報を基に、前記縦ライン上の画素を複数のクラスタに分割し、
前記対象物領域判定部は、前記クラスタの中から前記横ライン上の前記クラスタの幅と前記縦ライン上の前記クラスタの高さとを基に対象物の存在領域を判定する
対象物領域推定装置。
The object region estimation apparatus according to claim 2,
The cluster dividing unit divides the pixels on the vertical line into a plurality of clusters based on the distance information on a predetermined vertical line in the image or the parallax image,
The object area determination unit determines an object existing area from the clusters based on a width of the cluster on the horizontal line and a height of the cluster on the vertical line.
請求項2からのいずれか1つに記載の対象物領域推定装置と、
前記対象物領域推定装置により推定された対象物領域において対象物を検出する対象物検出部とを
備えた対象物検出装置。
The object region estimation device according to any one of claims 2 to 4 ,
An object detection apparatus comprising: an object detection unit that detects an object in an object area estimated by the object area estimation apparatus.
請求項に記載の対象物検出装置において、
前記対象物は人である対象物検出装置。
The object detection device according to claim 5 ,
An object detection apparatus in which the object is a person.
請求項またはに記載の対象物検出装置を備えた車両。 Vehicle having an object detecting apparatus according to claim 5 or 6.
JP2013035753A 2013-02-26 2013-02-26 Object area estimation method, object area estimation apparatus, object detection apparatus including the object area, and vehicle. Active JP6114572B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013035753A JP6114572B2 (en) 2013-02-26 2013-02-26 Object area estimation method, object area estimation apparatus, object detection apparatus including the object area, and vehicle.

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013035753A JP6114572B2 (en) 2013-02-26 2013-02-26 Object area estimation method, object area estimation apparatus, object detection apparatus including the object area, and vehicle.

Publications (2)

Publication Number Publication Date
JP2014164564A JP2014164564A (en) 2014-09-08
JP6114572B2 true JP6114572B2 (en) 2017-04-12

Family

ID=51615103

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013035753A Active JP6114572B2 (en) 2013-02-26 2013-02-26 Object area estimation method, object area estimation apparatus, object detection apparatus including the object area, and vehicle.

Country Status (1)

Country Link
JP (1) JP6114572B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9679387B2 (en) * 2015-02-12 2017-06-13 Mitsubishi Electric Research Laboratories, Inc. Depth-weighted group-wise principal component analysis for video foreground/background separation
JP5947938B1 (en) * 2015-03-06 2016-07-06 ヤマハ発動機株式会社 Obstacle detection device and moving body equipped with the same

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3376864B2 (en) * 1997-07-23 2003-02-10 株式会社デンソー Obstacle recognition device for vehicles
JP5188429B2 (en) * 2009-03-24 2013-04-24 富士重工業株式会社 Environment recognition device

Also Published As

Publication number Publication date
JP2014164564A (en) 2014-09-08

Similar Documents

Publication Publication Date Title
KR20190095592A (en) Method and Apparatus for Vehicle Detection Using Lidar Sensor and Camera
JP6440411B2 (en) Object detection device
JP6151150B2 (en) Object detection device and vehicle using the same
US8941738B2 (en) Vehicle exterior monitoring device and vehicle exterior monitoring method
JP6705496B2 (en) Image processing device, imaging device, mobile device control system, mobile device, image processing method, and program
JP7206583B2 (en) Information processing device, imaging device, device control system, moving object, information processing method and program
JP6743882B2 (en) Image processing device, device control system, imaging device, image processing method, and program
JP6583527B2 (en) Image processing apparatus, imaging apparatus, mobile device control system, image processing method, and program
JP2017083326A (en) Image processor, imaging apparatus, equipment control system, frequency distribution image generation method, and program
JP6705497B2 (en) Image processing device, imaging device, mobile device control system, image processing method, program, and mobile device
JP6769477B2 (en) Image processing device, imaging device, mobile device control system, image processing method, and program
JP6597792B2 (en) Image processing apparatus, object recognition apparatus, device control system, image processing method and program
JP6816401B2 (en) Image processing device, imaging device, mobile device control system, image processing method, and program
JP6972797B2 (en) Information processing device, image pickup device, device control system, mobile body, information processing method, and program
JP5947938B1 (en) Obstacle detection device and moving body equipped with the same
US10789727B2 (en) Information processing apparatus and non-transitory recording medium storing thereon a computer program
JP6114572B2 (en) Object area estimation method, object area estimation apparatus, object detection apparatus including the object area, and vehicle.
JP2020135616A (en) Object detection device
JP5996421B2 (en) Obstacle detection device and vehicle using the same
JP6763198B2 (en) Image processing equipment, imaging equipment, mobile device control systems, image processing methods, and programs
JP2010231400A (en) Obstacle dangerous degree calculation device, method and program
US11884303B2 (en) Apparatus and method for determining lane change of surrounding objects
JP7409240B2 (en) Obstacle detection device and obstacle detection method
JP6812701B2 (en) Image processing equipment, mobile device control system, image processing method, and program
JP2019091295A (en) Image processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151014

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160920

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160927

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170314

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170317

R150 Certificate of patent or registration of utility model

Ref document number: 6114572

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250