JP5631833B2 - Mobile object equipped with object detection device - Google Patents
Mobile object equipped with object detection device Download PDFInfo
- Publication number
- JP5631833B2 JP5631833B2 JP2011213491A JP2011213491A JP5631833B2 JP 5631833 B2 JP5631833 B2 JP 5631833B2 JP 2011213491 A JP2011213491 A JP 2011213491A JP 2011213491 A JP2011213491 A JP 2011213491A JP 5631833 B2 JP5631833 B2 JP 5631833B2
- Authority
- JP
- Japan
- Prior art keywords
- evaluation value
- object detection
- determination unit
- inspection
- inspection points
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Measurement Of Optical Distance (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Description
本発明は、複数台のカメラのそれぞれが撮像するカメラ画像間の視差に基づいて物体を検出する物体検出装置を搭載する移動体に関する。 The present invention relates to a moving body equipped with an object detection device that detects an object based on parallax between camera images captured by each of a plurality of cameras.
従来、ステレオカメラを用いて物体までの距離を測定する方法が知られている(例えば、特許文献1参照。)。 Conventionally, a method of measuring a distance to an object using a stereo camera is known (see, for example, Patent Document 1).
この方法は、2つのカメラのそれぞれが撮像した2つのカメラ画像のそれぞれにおいて特徴点を見つけ出し、各カメラ画像間での特徴点同士の対応関係を明らかにし、対応付けられたそれらの特徴点の位置の違い(視差)に基づいて、その特徴点を形成する物体までの距離を三角測量で計算する。 This method finds feature points in each of the two camera images captured by each of the two cameras, clarifies the correspondence between the feature points between the camera images, and positions of the associated feature points. Based on the difference (parallax), the distance to the object forming the feature point is calculated by triangulation.
しかしながら、特許文献1に記載の方法は、特徴点を見つけ出すための演算コスト及び各カメラ画像間での特徴点同士の対応関係を明らかにするための演算コストが大きいため、低コストの組込み装置への実装が困難である。また、この方法は、二次元のカメラ画像から三次元の距離分布を導き出す方法であるため、カメラ画像の特定部分のみを測定範囲(測定対象の物体が存在する範囲)として予め設定することができず、測定対象の物体が存在し得ない領域に対しても演算コストをかけることとなり効率が悪い。 However, the method described in Patent Document 1 has a large calculation cost for finding a feature point and a calculation cost for clarifying the correspondence between the feature points between the camera images. Is difficult to implement. In addition, since this method is a method for deriving a three-dimensional distance distribution from a two-dimensional camera image, only a specific part of the camera image can be set in advance as a measurement range (a range in which an object to be measured exists). In addition, the calculation cost is applied even to the region where the object to be measured cannot exist, and the efficiency is poor.
上述の点に鑑み、本発明は、演算コストがより低い物体検出装置を搭載する移動体を提供することを目的とする。 In view of the above-described points, an object of the present invention is to provide a moving body on which an object detection device having a lower calculation cost is mounted.
上述の目的を達成するために、本発明の実施例に係る移動体は、少なくとも2つのカメラのそれぞれが撮像するカメラ画像間の視差に基づいて物体を検出する物体検出装置を搭載する移動体であって、前記物体検出装置は、被撮像空間を通る仮想直線上の複数の検査点のうちの1つに対応する画素を含む所定サイズの部分画像を各カメラ画像から抽出する部分画像抽出部と、同一検査点に対応する前記各カメラ画像の部分画像同士の類似度に基づいて前記複数の検査点のうちの1つに関する評価値を決定する評価値決定部と、前記評価値決定部が決定する評価値を用いて物体の存否を判定する物体存否判定部と、を備え、当該移動体は、旋回可能な旋回体を備え、前記仮想直線は、当該移動体が動いたときに当該移動体の一部が到達可能な空間領域を通ると共に、複数本配置され、それぞれが前記旋回体の側部端面に対して平行に伸びる。
また、本発明の実施例に係る移動体は、少なくとも2つのカメラのそれぞれが撮像するカメラ画像間の視差に基づいて物体を検出する物体検出装置を搭載する移動体であって、前記物体検出装置は、被撮像空間を通る仮想直線上の複数の検査点のうちの1つに対応する画素を含む所定サイズの部分画像を各カメラ画像から抽出する部分画像抽出部と、同一の検査点に対応する前記各カメラ画像の部分画像同士の類似度に基づいて前記複数の検査点のうちの1つに関する評価値を決定する評価値決定部と、前記評価値決定部が決定する評価値を用いて物体の存否を判定する物体存否判定部と、を備え、当該移動体は、旋回可能な旋回体を備え、前記仮想直線は、当該移動体が動いたときに当該移動体の一部が到達可能な空間領域を通ると共に、複数本配置され、それぞれが前記旋回体の中心から放射状に伸びる。
In order to achieve the above object, a mobile object according to an embodiment of the present invention is a mobile object equipped with an object detection device that detects an object based on a parallax between camera images captured by at least two cameras. The object detection device includes a partial image extraction unit that extracts a partial image of a predetermined size including a pixel corresponding to one of a plurality of inspection points on a virtual straight line passing through the imaging space from each camera image. The evaluation value determining unit that determines an evaluation value related to one of the plurality of inspection points based on the similarity between the partial images of the camera images corresponding to the same inspection point, and the evaluation value determining unit determines An object presence / absence determination unit that determines the presence / absence of an object using an evaluation value to be performed, the moving body includes a swiveling body capable of turning, and the virtual straight line corresponds to the moving body when the moving body moves Part of the sky reachable Together through the region, is parallelly arranged, respectively running parallel to the side end surface of the orbiting body.
A moving body according to an embodiment of the present invention is a moving body including an object detection device that detects an object based on parallax between camera images captured by each of at least two cameras. Corresponds to the same inspection point as the partial image extraction unit that extracts a partial image of a predetermined size including a pixel corresponding to one of a plurality of inspection points on a virtual straight line passing through the imaged space from each camera image. An evaluation value determining unit that determines an evaluation value related to one of the plurality of inspection points based on a similarity between partial images of the camera images to be used, and an evaluation value determined by the evaluation value determining unit An object presence / absence determination unit that determines presence / absence of an object, and the moving body includes a revolving body that can turn, and the virtual straight line can reach a part of the moving body when the moving body moves While passing through the space area Disposed present number, each extending radially from the center of the orbiting body.
上述の手段により、本発明は、演算コストがより低い物体検出装置を搭載する移動体を提供することができる。 With the above-described means, the present invention can provide a moving body equipped with an object detection device with a lower calculation cost.
以下、図面を参照しつつ、本発明を実施するための最良の形態の説明を行う。 Hereinafter, the best mode for carrying out the present invention will be described with reference to the drawings.
図1は、本発明に係る物体検出装置100の構成例を概略的に示すブロック図である。物体検出装置100は、主に、制御部1、撮像部2、表示部3、及び音声出力部4で構成される。 FIG. 1 is a block diagram schematically showing a configuration example of an object detection apparatus 100 according to the present invention. The object detection device 100 mainly includes a control unit 1, an imaging unit 2, a display unit 3, and an audio output unit 4.
制御部1は、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)、NVRAM(Non-Volatile Random Access Memory)等を備えたコンピュータである。制御部1は、例えば、ROMやNVRAMに保存された、後述する部分画像抽出部10、評価値決定部11、及び物体存否判定部12のそれぞれの機能要素に対応するプログラムをRAMに展開し、各機能要素に対応する処理をCPUに実行させる。 The control unit 1 is a computer including a CPU (Central Processing Unit), a RAM (Random Access Memory), a ROM (Read Only Memory), an NVRAM (Non-Volatile Random Access Memory), and the like. For example, the control unit 1 expands, in the RAM, programs corresponding to the functional elements of a partial image extraction unit 10, an evaluation value determination unit 11, and an object presence / absence determination unit 12 described later, which are stored in a ROM or NVRAM, The CPU is caused to execute processing corresponding to each functional element.
撮像部2は、画像を取得する装置であり、例えば、少なくとも2つのカメラで構成されるステレオビジョン装置である。撮像部2は、所定周期で撮像する画像データを制御部1に対して出力する。 The imaging unit 2 is a device that acquires an image, and is, for example, a stereo vision device including at least two cameras. The imaging unit 2 outputs image data captured at a predetermined cycle to the control unit 1.
撮像部2を構成する少なくとも2つのカメラは、所定距離を隔てて配置され、同じ空間領域を撮像する。以下では、少なくとも2つのカメラが撮像する共通の空間領域を「被撮像空間」と称する。 At least two cameras constituting the imaging unit 2 are arranged at a predetermined distance and image the same spatial region. Hereinafter, a common space area captured by at least two cameras is referred to as “imaged space”.
表示部3は、各種情報を表示するための装置であり、例えば、液晶ディスプレイ、プロジェクタ等であって、制御部1が出力する各種画像を表示する。 The display unit 3 is a device for displaying various types of information. For example, the display unit 3 is a liquid crystal display, a projector, or the like, and displays various images output from the control unit 1.
音声出力部4は、各種情報を音声出力するための装置であり、例えば、ブザー、スピーカ等であって、制御部1が出力する制御信号に応じて各種情報を音声出力する。 The audio output unit 4 is a device for outputting various types of information as audio, and is, for example, a buzzer, a speaker, and the like, and outputs various types of information as audio in accordance with control signals output from the control unit 1.
部分画像抽出部10は、撮像部2が撮像した画像から部分画像を抽出する機能要素である。 The partial image extraction unit 10 is a functional element that extracts a partial image from an image captured by the imaging unit 2.
具体的には、部分画像抽出部10は、撮像部2を構成する複数のカメラのそれぞれが撮像したカメラ画像から、検査点に対応する画素を含む所定サイズの部分画像を抽出する。部分画像は、例えば、検査点に対応する画素を中心画素とする矩形画像である。なお、部分画像は、円形、楕円形等の他の形状を有していてもよい。 Specifically, the partial image extraction unit 10 extracts a partial image having a predetermined size including pixels corresponding to the inspection points from the camera images captured by each of the plurality of cameras constituting the imaging unit 2. The partial image is, for example, a rectangular image having a pixel corresponding to the inspection point as a central pixel. The partial image may have other shapes such as a circle and an ellipse.
「検査点」とは、三次元空間である被撮像空間を通る仮想直線(以下、「測定ライン」とする。)上の点である。検査点は、好適には、物体検出装置100の検出対象に応じて予め設定される。この場合、物体検出装置100は、三次元空間に定義される三次元座標系における各検査点の三次元座標と、複数のカメラ画像のそれぞれに対して定義される二次元座標系における対応する二次元座標とを予め関連付けて保持する。但し、検査点は、物体検出装置100の検出対象に応じて動的に設定されてもよい。この場合、物体検出装置100は、測定ライン及び検査点を動的に設定し、各検査点の三次元座標に基づいて、複数のカメラ画像のそれぞれにおける対応する二次元座標を動的に算出する。 The “inspection point” is a point on a virtual straight line (hereinafter referred to as “measurement line”) that passes through the imaging space that is a three-dimensional space. The inspection point is preferably set in advance according to the detection target of the object detection apparatus 100. In this case, the object detection apparatus 100 includes a 3D coordinate of each inspection point in the 3D coordinate system defined in the 3D space and a corresponding 2D coordinate system defined for each of the plurality of camera images. Preliminarily associate and hold the dimension coordinates. However, the inspection point may be dynamically set according to the detection target of the object detection apparatus 100. In this case, the object detection apparatus 100 dynamically sets measurement lines and inspection points, and dynamically calculates corresponding two-dimensional coordinates in each of a plurality of camera images based on the three-dimensional coordinates of each inspection point. .
図2は、撮像部2と測定ラインVLとの関係の一例を示す図であり、撮像部2を構成する2つのカメラ2a、2bとカメラ2a、2bに関する被撮像空間を通る測定ラインVL上に配置される8個の検査点IP1〜IP8とを示す。 FIG. 2 is a diagram illustrating an example of the relationship between the imaging unit 2 and the measurement line VL. The two cameras 2a and 2b that constitute the imaging unit 2 and the measurement line VL passing through the imaging space related to the cameras 2a and 2b. Eight inspection points IP1 to IP8 are shown.
測定ラインVLは、被撮像空間を通る任意の直線であるが、好適には、物体検出装置100の検出対象である物体が存在する可能性の高い空間領域、又は、物体検出装置100の検出対象である物体が移動する可能性の高い空間領域を貫くように配置される。 The measurement line VL is an arbitrary straight line that passes through the space to be imaged. Preferably, the measurement line VL is a spatial region in which an object that is a detection target of the object detection device 100 is likely to exist, or a detection target of the object detection device 100. It is arranged so as to penetrate a spatial region where there is a high possibility that the object will move.
また、測定ラインVL上に配置される検査点間の距離は任意であり、等間隔であってもよく、不等間隔であってもよい。なお、検査点間の距離が長い程、すなわち、検査点の数が少ない程、物体検出装置100が物体を検出するために要する演算負荷は減少する。一方、検査点間の距離が短い程、すなわち、検査点の数が多い程、物体検出装置100の分解能は高くなる。 Further, the distance between the inspection points arranged on the measurement line VL is arbitrary, and may be equally spaced or unequal. Note that the longer the distance between the inspection points, that is, the smaller the number of inspection points, the smaller the calculation load required for the object detection apparatus 100 to detect the object. On the other hand, the shorter the distance between inspection points, that is, the greater the number of inspection points, the higher the resolution of the object detection apparatus 100.
図3は、図2に示す2台のカメラ2a、2bのそれぞれが撮像するカメラ画像2aR、2bRと8つの検査点IP1〜IP8との関係を示す。カメラ2aが撮像するカメラ画像2aRは、検査点IP1〜IP8のそれぞれに対応する画素2aP1〜2aP8を中心とする部分画像2aR1〜2aR8を含む。同様に、カメラ2bが撮像するカメラ画像2bRは、検査点IP1〜IP8のそれぞれに対応する画素2bP1〜2bP8を中心とする部分画像2bR1〜2bR8を含む。なお、部分画像2aR1〜2aR8及び部分画像2bR1〜2bR8のそれぞれのサイズは共通である。部分画像2bR1〜2bR8のサイズを共通とした場合、演算処理がしやすいというメリットがある。そのため、図3では、検査点IP2〜IP7のそれぞれを中心画素とする、カメラ画像2aR、2bRのそれぞれにおける部分画像の範囲の図示を省略する。なお、部分画像のサイズは、同じ検査点に対応する部分画像間で共通であれば、カメラからの距離に応じて検査点毎に変更されてもよい。この場合、カメラからの距離に応じて変化する、物体のカメラ画像内での映り込みサイズに、部分画像のサイズを合わせられるというメリットがある。なお、カメラ画像2aRのサイズは、カメラ画像2bRのサイズと同じである。また、図3は、カメラ2aの設置位置とカメラ2bの設置位置との違いに起因して、カメラ2aが撮像するカメラ画像2aRとカメラ2bが撮像するカメラ画像2bRとの間に視差が存在することを示す。 FIG. 3 shows the relationship between the camera images 2aR and 2bR captured by the two cameras 2a and 2b shown in FIG. 2 and the eight inspection points IP1 to IP8. The camera image 2aR captured by the camera 2a includes partial images 2aR1 to 2aR8 centering on the pixels 2aP1 to 2aP8 corresponding to the inspection points IP1 to IP8, respectively. Similarly, the camera image 2bR captured by the camera 2b includes partial images 2bR1 to 2bR8 centered on the pixels 2bP1 to 2bP8 corresponding to the inspection points IP1 to IP8, respectively. The partial images 2aR1 to 2aR8 and the partial images 2bR1 to 2bR8 have the same size. When the sizes of the partial images 2bR1 to 2bR8 are made common, there is an advantage that the arithmetic processing is easy. Therefore, in FIG. 3, illustration of the range of the partial image in each of the camera images 2aR and 2bR having each of the inspection points IP2 to IP7 as the central pixel is omitted. Note that the size of the partial image may be changed for each inspection point according to the distance from the camera as long as it is common among the partial images corresponding to the same inspection point. In this case, there is an advantage that the size of the partial image can be matched with the size of the reflection of the object in the camera image, which changes according to the distance from the camera. Note that the size of the camera image 2aR is the same as the size of the camera image 2bR. FIG. 3 shows that there is a parallax between the camera image 2aR captured by the camera 2a and the camera image 2bR captured by the camera 2b due to the difference between the installation position of the camera 2a and the installation position of the camera 2b. It shows that.
図4は、検出対象50を撮像する2台のカメラ2a、2bが出力するカメラ画像2aR、2bRを示す。なお、図4に示す測定ラインは、図3に示す測定ラインVLとは延在方向が異なるが、説明の便宜のため、同じ参照符号VLを用いて説明する。検査点IP1〜IP5についても同様である。 FIG. 4 shows camera images 2aR and 2bR output from the two cameras 2a and 2b that capture the detection target 50. Note that the measurement line shown in FIG. 4 has a different extension direction from the measurement line VL shown in FIG. 3, but will be described using the same reference numeral VL for convenience of explanation. The same applies to the inspection points IP1 to IP5.
図4において、カメラ2a、2bは、床面から500mmの高さに設置される。また、測定ラインVLは、床面からの高さが500mmの平面上で、カメラ2aとカメラ2bとを結ぶ線分の中点MPを通り、カメラ2a、2bの光軸方向に平行に伸びる。また、5つの検査点IP1〜IP5は、測定ラインVL上に等間隔(例えば、250mm間隔)に配置され、中点MPとの距離が最も小さい検査点IP1は、中点MPから1000mmの地点に配置される。また、検出対象50はヘルメットであり、中点MPから1750mmの地点に配置される。 In FIG. 4, the cameras 2a and 2b are installed at a height of 500 mm from the floor surface. The measurement line VL extends in parallel with the optical axis direction of the cameras 2a and 2b through the midpoint MP of the line connecting the cameras 2a and 2b on a plane having a height of 500 mm from the floor surface. The five inspection points IP1 to IP5 are arranged at equal intervals (for example, 250 mm intervals) on the measurement line VL, and the inspection point IP1 having the smallest distance from the midpoint MP is located at a point 1000 mm from the midpoint MP. Be placed. Moreover, the detection target 50 is a helmet and is arranged at a point 1750 mm from the midpoint MP.
図5は、図4の2つのカメラ画像2aR、2bRのそれぞれにおける、5つの検査点IP1〜IP5のそれぞれに対応する画素を含む、2つ1組の5組の部分画像を示す。 FIG. 5 shows two sets of five partial images including pixels corresponding to each of the five inspection points IP1 to IP5 in each of the two camera images 2aR and 2bR in FIG.
部分画像2aR1は、カメラ2aが撮像したカメラ画像2aRにおける、検査点IP1に対応する画素2aP1を中心画素とする部分画像である。また、部分画像2bR1は、カメラ2bが撮像したカメラ画像2bRにおける、検査点IP1に対応する画素2bP1を中心画素とする部分画像である。 The partial image 2aR1 is a partial image having a pixel 2aP1 corresponding to the inspection point IP1 as a central pixel in the camera image 2aR captured by the camera 2a. The partial image 2bR1 is a partial image having the pixel 2bP1 corresponding to the inspection point IP1 as the central pixel in the camera image 2bR captured by the camera 2b.
同様に、部分画像2aR2〜2aR5のそれぞれは、カメラ画像2aRにおける、検査点IP2〜IP5のそれぞれに対応する画素2aP2〜2aP5のそれぞれを中心画素とする部分画像である。また、部分画像2bR2〜2bR5のそれぞれは、カメラ画像2bRにおける、検査点IP2〜IP5のそれぞれに対応する画素2bP2〜2bP5のそれぞれを中心画素とする部分画像である。 Similarly, each of the partial images 2aR2 to 2aR5 is a partial image in which each of the pixels 2aP2 to 2aP5 corresponding to each of the inspection points IP2 to IP5 in the camera image 2aR is a central pixel. Further, each of the partial images 2bR2 to 2bR5 is a partial image in which each of the pixels 2bP2 to 2bP5 corresponding to each of the inspection points IP2 to IP5 in the camera image 2bR is a central pixel.
このようにして、部分画像抽出部10は、複数の検査点のそれぞれに対応する画素のそれぞれを中心画素とする所定サイズの部分画像を各カメラ画像から抽出する。 In this way, the partial image extraction unit 10 extracts a partial image of a predetermined size having each pixel corresponding to each of the plurality of inspection points as a central pixel from each camera image.
評価値決定部11は、互いに対応する部分画像の類似度に基づいて検査点に関する評価値を決定する機能要素である。 The evaluation value determination unit 11 is a functional element that determines an evaluation value related to an inspection point based on the similarity between corresponding partial images.
具体的には、評価値決定部11は、特定の検査点に対応する画素を中心画素とする部分画像同士の類似度に基づいてその特定の検査点に関する評価値を決定する。 Specifically, the evaluation value determination unit 11 determines an evaluation value related to a specific inspection point based on the similarity between partial images having a pixel corresponding to the specific inspection point as a central pixel.
図6は、評価値決定部11が検査点に関する評価値を決定する処理(以下、「評価値決定処理」とする。)の流れを示すフローチャートである。 FIG. 6 is a flowchart showing a flow of processing (hereinafter referred to as “evaluation value determination processing”) in which the evaluation value determination unit 11 determines an evaluation value related to the inspection point.
最初に、評価値決定部11は、部分画像における各画素の輝度勾配方向を算出する(ステップS1)。 First, the evaluation value determination unit 11 calculates the luminance gradient direction of each pixel in the partial image (step S1).
「輝度勾配方向」とは、ある注目画素において輝度変化が最大である方向を意味し、本実施例では、水平方向(画面横方向)の輝度の微分値と鉛直方向(画面縦方向)の輝度の微分値dIy(i、j)とが形成する角度θで表される。 “Luminance gradient direction” means the direction in which the luminance change is maximum at a certain target pixel. In this embodiment, the luminance differential value in the horizontal direction (horizontal direction of the screen) and the luminance in the vertical direction (vertical direction of the screen). The differential value dIy (i, j) of is formed by the angle θ formed.
具体的には、カメラ画像2aR、2bRのそれぞれにおける座標(i、j)の画素の輝度をI(i、j)で表すと、水平方向の輝度の微分値dIx(i、j)、鉛直方向の輝度の微分値dIy(i、j)、及び、輝度勾配方向θは、以下の式で表される。 Specifically, when the luminance of the pixel at the coordinates (i, j) in each of the camera images 2aR and 2bR is represented by I (i, j), the horizontal luminance differential value dI x (i, j), vertical The differential value dI y (i, j) of the luminance in the direction and the luminance gradient direction θ are expressed by the following equations.
また、図8は、カメラ画像2aRにおける、検査点IP1に対応する画素2aP1を中心画素とする部分画像2aR1における各画素の輝度勾配方向を示す。具体的には、図8(A)は、部分画像2aR1の全体像を示し、図8(B)は、図8(A)の破線円部分の拡大図を示す。なお、図8(A)は、説明の便宜のため、部分画像2aR1を縦9ピクセル、横9ピクセルのサイズで示す。また、図8(B)は、各画素の輝度勾配方向を矢印で示す。 FIG. 8 shows the luminance gradient direction of each pixel in the partial image 2aR1 having the pixel 2aP1 corresponding to the inspection point IP1 as the central pixel in the camera image 2aR. Specifically, FIG. 8A shows an overall image of the partial image 2aR1, and FIG. 8B shows an enlarged view of a broken-line circle portion of FIG. 8A. In FIG. 8A, for convenience of explanation, the partial image 2aR1 is shown in a size of 9 pixels vertically and 9 pixels horizontally. In FIG. 8B, the luminance gradient direction of each pixel is indicated by an arrow.
このようにして、評価値決定部11は、部分画像における各画素の輝度勾配方向θを算出する。 In this way, the evaluation value determination unit 11 calculates the luminance gradient direction θ of each pixel in the partial image.
部分画像における各画素の輝度勾配方向θを算出した後、評価値決定部11は、その算出した輝度勾配方向θを量子化する(ステップS2)。 After calculating the luminance gradient direction θ of each pixel in the partial image, the evaluation value determination unit 11 quantizes the calculated luminance gradient direction θ (step S2).
図9は、評価値決定部11による輝度勾配方向θの量子化方法の一例を説明する図である。 FIG. 9 is a diagram for explaining an example of the quantization method of the luminance gradient direction θ by the evaluation value determination unit 11.
図9(A)で示すように、評価値決定部11は、輝度勾配方向θが0度以上45度未満の場合に輝度勾配方向を値「0」に変換する。同様に、評価値決定部11は、輝度勾配方向θが45度以上90度未満、90度以上135度未満、135度以上180度未満、180度以上225度未満、225度以上270度未満、270度以上315度未満、315度以上360度未満の場合に、輝度勾配方向をそれぞれ値「1」、値「2」、値「3」、値「4」、値「5」、値「6」、値「7」に変換する。図9(B)は、量子化の結果の一例を示し、図8(B)に対応する。 As shown in FIG. 9A, the evaluation value determination unit 11 converts the luminance gradient direction into a value “0” when the luminance gradient direction θ is not less than 0 degrees and less than 45 degrees. Similarly, the evaluation value determination unit 11 has a luminance gradient direction θ of 45 degrees to less than 90 degrees, 90 degrees to less than 135 degrees, 135 degrees to less than 180 degrees, 180 degrees to less than 225 degrees, 225 degrees to less than 270 degrees, When the angle is greater than or equal to 270 degrees and less than 315 degrees and greater than or equal to 315 degrees and less than 360 degrees, the luminance gradient direction is set to value “1”, value “2”, value “3”, value “4”, value “5”, value “6”, respectively. ”And the value“ 7 ”. FIG. 9B shows an example of the result of quantization, and corresponds to FIG.
このようにして、評価値決定部11は、特定の検査点に対応する画素を中心画素とする部分画像における各画素の輝度勾配方向θを量子化する。 In this way, the evaluation value determination unit 11 quantizes the luminance gradient direction θ of each pixel in the partial image having the pixel corresponding to the specific inspection point as the central pixel.
輝度勾配方向θを量子化した後、評価値決定部11は、その量子化した輝度勾配方向の値のヒストグラムを作成する(ステップS3)。 After quantizing the luminance gradient direction θ, the evaluation value determination unit 11 creates a histogram of the quantized luminance gradient direction values (step S3).
図10は、評価値決定部11による輝度勾配方向の値のヒストグラムの作成方法の一例を説明する図である。なお、図10(A)の部分画像2aR1は、図9(A)の部分画像2aR1に対応する。 FIG. 10 is a diagram for explaining an example of a method of creating a histogram of values in the luminance gradient direction by the evaluation value determination unit 11. Note that the partial image 2aR1 in FIG. 10A corresponds to the partial image 2aR1 in FIG.
図10(A)で示すように、評価値決定部11は、部分画像2aR1を、中心画素2aP1を含む列より左側にある4列で構成される左側領域と、中心画素2aP1を含む1列、及び中心画素2aP1を含む列より右側にある4列で構成される右側領域とに分割する。 As shown in FIG. 10 (A), the evaluation value determining unit 11 includes a left side area composed of four columns on the left side of a column including the central pixel 2aP1, and a column including the central pixel 2aP1. And the right region composed of four columns on the right side of the column including the central pixel 2aP1.
その上で、評価値決定部11は、左側領域に含まれる各画素の輝度勾配方向の値の出現頻度を「0」〜「7」の値毎に計数する。同様に、評価値決定部11は、右側領域に含まれる各画素の輝度勾配方向の値の出現頻度を「0」〜「7」の値毎に計数する。 After that, the evaluation value determination unit 11 counts the appearance frequency of the value in the luminance gradient direction of each pixel included in the left region for each value of “0” to “7”. Similarly, the evaluation value determination unit 11 counts the appearance frequency of the value in the luminance gradient direction of each pixel included in the right region for each value of “0” to “7”.
図10(B)は、左側領域に関する「0」〜「7」の値と右側領域に関する「0」〜「7」の値とで構成される16種類(次元)の値のそれぞれの出現頻度の分布を示すヒストグラムの一例である。 FIG. 10B shows the appearance frequency of each of 16 types (dimensions) of values composed of values “0” to “7” for the left region and values “0” to “7” for the right region. It is an example of the histogram which shows distribution.
このようにして、評価値決定部11は、特定の検査点に対応する画素を中心画素とする部分画像の特徴を表すヒストグラムを作成する。 In this way, the evaluation value determination unit 11 creates a histogram representing the characteristics of the partial image with the pixel corresponding to the specific inspection point as the central pixel.
特定の検査点に関連する複数の部分画像のそれぞれの特徴を表すヒストグラムを作成した後、評価値決定部11は、その特定の検査点に関する評価値CGRAを決定する(ステップS4)。 After creating a histogram representing each feature of a plurality of partial images related to a specific inspection point, the evaluation value determination unit 11 determines an evaluation value C GRA related to the specific inspection point (step S4).
具体的には、評価値決定部11は、検査点IP1に関連する、カメラ2aが撮像したカメラ画像2aRにおける部分画像2aR1の特徴を表すヒストグラムと、同じく検査点IP1に関連する、カメラ2bが撮像したカメラ画像2bRにおける部分画像2bR1の特徴を表すヒストグラムとに基づいて、検査点IP1に関する評価値CGRAを決定する。 Specifically, the evaluation value determining unit 11 captures the histogram representing the characteristics of the partial image 2aR1 in the camera image 2aR captured by the camera 2a and related to the inspection point IP1, and the camera 2b related to the inspection point IP1. based on the histogram representing the characteristic of the partial image 2bR1 in the camera image 2br, determines an evaluation value C GRA an inspection point IP1.
評価値CGRAは、例えば、以下の式で表されるようなヒストグラム同士の各要素の強度差に基づく評価値が採用される。 As the evaluation value C GRA , for example, an evaluation value based on the intensity difference of each element between histograms as represented by the following equation is adopted.
この場合、検査点IP1に関する評価値CGRAが小さい程2つの部分画像2aR1、2bR1の類似度が高く、その評価値CGRAが大きい程2つの部分画像2aR1、2bR1の類似度が低い。なお、評価値CGRAの大小と類似度の高低との関係は、評価値CGRAの計算方法によっては反対となり得る。 In this case, a low evaluation value C GRA smaller the higher the similarity of the two partial images 2AR1,2bR1, similarity evaluation value C GRA greater the two partial images 2AR1,2bR1 an inspection point IP1. Note that the relationship between the magnitude of the evaluation value C GRA and the level of similarity may be opposite depending on the method of calculating the evaluation value C GRA .
また、特定の検査点に関連する部分画像が3つ以上存在する場合、すなわち撮像部2が3つ以上のカメラで構成される場合には、評価値決定部11は、それら3つ以上の部分画像のうちの2つの間の評価値CGRAを全ての組み合わせについて算出した上で、算出した複数の評価値CGRAに基づいて最終的な評価値CGRAを導き出すようにする。この場合、評価値決定部11は、例えば、複数の評価値CGRAの統計値(平均値、最大値、最小値、中間値等である。)を最終的な評価値CGRAとして導き出してもよい。 In addition, when there are three or more partial images related to a specific inspection point, that is, when the imaging unit 2 is configured by three or more cameras, the evaluation value determination unit 11 determines the three or more portions. two evaluation value C GRA between of the images on the calculated for all combinations, to derive a final evaluation value C GRA based on a plurality of evaluation values C GRA calculated. In this case, the evaluation value determination unit 11, for example, a plurality of evaluation values C GRA statistics be derived (average value, maximum value, minimum value, a median value, or the like.) As the final evaluation value C GRA Good.
このようにして、評価値決定部11は、特定の検査点に対応する画素を中心画素とする、互いに対応する部分画像の類似度に基づいて、その特定の検査点に関する評価値CGRAを決定する。 In this way, the evaluation value determination unit 11 determines the evaluation value C GRA related to the specific inspection point based on the similarity of the partial images corresponding to each other with the pixel corresponding to the specific inspection point as the central pixel. To do.
また、評価値決定部11は、予め設定された複数の検査点のそれぞれについて、上述の評価値決定処理を実行し、予め設定された複数の検査点のそれぞれに関する評価値CGRAを決定する。 In addition, the evaluation value determination unit 11 performs the above-described evaluation value determination process for each of a plurality of preset inspection points, and determines an evaluation value C GRA for each of the plurality of preset inspection points.
物体存否判定部12は、評価値決定部11が決定する、複数の検査点のそれぞれに関する評価値CGRAに基づいて物体の存否を判定する機能要素である。 The object presence / absence determination unit 12 is a functional element that determines the presence / absence of an object based on the evaluation value C GRA for each of a plurality of inspection points, which is determined by the evaluation value determination unit 11.
図11〜図13は、16個の検査点IP1〜IP16のそれぞれに関する評価値CGRAの分布を示す図である。 11 to 13 are diagrams showing distributions of evaluation values C GRA for each of the 16 inspection points IP1 to IP16.
図11〜図13において、カメラ2a、2bは、床面から500mmの高さに設置される。また、測定ラインVLは、床面からの高さが500mmの平面上で、カメラ2aとカメラ2bとを結ぶ線分の中点MPを通り、カメラ2a、2bの光軸方向に平行に伸びる。また、16個の検査点IP1〜IP16は、測定ラインVL上に250mm間隔に配置され、中点MPとの距離が最も小さい検査点IP1は、中点MPから1000mmの地点に配置される。また、検出対象50はヘルメットであり、図11では中点MPから1500mmの地点に配置され、図12では中点MPから2250mmの地点に配置され、図13では中点MPから3000mmの地点に配置される。 11 to 13, the cameras 2a and 2b are installed at a height of 500 mm from the floor surface. The measurement line VL extends in parallel with the optical axis direction of the cameras 2a and 2b through the midpoint MP of the line connecting the cameras 2a and 2b on a plane having a height of 500 mm from the floor surface. The 16 inspection points IP1 to IP16 are arranged at intervals of 250 mm on the measurement line VL, and the inspection point IP1 having the shortest distance from the midpoint MP is arranged at a point 1000 mm from the midpoint MP. Further, the detection target 50 is a helmet, which is arranged at a point 1500 mm from the midpoint MP in FIG. 11, arranged at a point 2250 mm from the midpoint MP in FIG. 12, and arranged at a point 3000 mm from the midpoint MP in FIG. Is done.
図11のケースでは、物体存否判定部12は、測定ラインVL上に並ぶ検査点IP1〜IP16のそれぞれに関する評価値CGRAの分布ら、中点MPから1500mmの地点に対応する検査点IP3に関する評価値CGRAが極値(最小値)であると判断する。そして、物体存否判定部12は、中点MPから1500mmの地点に検出対象50が存在すると判定する。また、図12のケースでは、物体存否判定部12は、中点MPから2250mmの地点に対応する検査点IP6に関する評価値CGRAが極値(最小値)であると判断し、中点MPから2250mmの地点に検出対象50が存在すると判定する。同様に、図13のケースでは、物体存否判定部12は、中点MPから3000mmの地点に対応する検査点IP9に関する評価値CGRAが極値(最小値)であると判断し、中点MPから3000mmの地点に検出対象50が存在すると判定する。 In the case of FIG. 11, the object existence judgment unit 12, distribution et evaluation value C GRA for each inspection point IP1~IP16 aligned on the measurement line VL, evaluation of test points IP3 corresponding to a point 1500mm from the midpoint MP It is determined that the value C GRA is an extreme value (minimum value). Then, the object presence / absence determination unit 12 determines that the detection target 50 exists at a point 1500 mm from the midpoint MP. In the case of FIG. 12, the object presence / absence determination unit 12 determines that the evaluation value C GRA related to the inspection point IP6 corresponding to the point 2250 mm from the midpoint MP is an extreme value (minimum value), and from the midpoint MP. It is determined that the detection target 50 exists at a point of 2250 mm. Similarly, in the case of FIG. 13, the object presence / absence determination unit 12 determines that the evaluation value C GRA related to the inspection point IP9 corresponding to the point 3000 mm from the midpoint MP is an extreme value (minimum value), and the midpoint MP. It is determined that the detection target 50 exists at a point of 3000 mm from the distance.
このようにして、物体存否判定部12は、複数の評価値CGRAから極値(最小値)を抽出し、その極値となる評価値CGRAを有する検査点(以下、「採用点」と称する。)の位置に物体が存在すると判定する。 In this manner, the object existence judgment unit 12 extracts the extreme (minimum value) from a plurality of evaluation values C GRA, test points having an evaluation value C GRA to be its extreme (hereinafter, the "adopted point" It is determined that there is an object at the position
この判定は、物体が存在する地点に対応する検査点に関する部分画像間の類似度が比較的高くなる一方で、物体が存在しない地点に対応する検査点に関する部分画像間の類似度が比較的低くなるという事実に基づく。物体が存在する地点に対応する検査点に関する、カメラ2aによる部分画像とカメラ2bによる部分画像とは、その物体を共通の被写体として含むのに対し、物体が存在しない地点に対応する検査点に関する、カメラ2aによる部分画像とカメラ2bによる部分画像とは、別々の物体(互いに異なる地点に存在するより遠方の物体)を被写体として含み得るためである。 In this determination, the similarity between the partial images regarding the inspection point corresponding to the point where the object exists is relatively high, while the similarity between the partial images regarding the inspection point corresponding to the point where the object does not exist is relatively low. Based on the fact that The partial image obtained by the camera 2a and the partial image obtained by the camera 2b relating to the inspection point corresponding to the point where the object exists include the object as a common subject, whereas the inspection point corresponding to the point where the object does not exist. This is because the partial image obtained by the camera 2a and the partial image obtained by the camera 2b may include different objects (distant objects existing at different points) as subjects.
また、物体存否判定部12は、複数の評価値CGRAの分布に基づいて物体の存否を判定してもよい。 The object presence / absence determination unit 12 may determine the presence / absence of an object based on the distribution of the plurality of evaluation values CGRA .
具体的には、物体存否判定部12は、採用点の評価値CGRAと採用点の周囲にある検査点の評価値CGRAとの間の関係に基づいて物体の存否を判定してもよい。この場合、採用点の周囲にある検査点の評価値CGRAは、例えば、採用点に隣接する複数の検査点の評価値CGRAの平均値、最大値、最小値、中間値等である。 Specifically, the object existence judgment unit 12 may determine the object presence or absence of, based on the relationship between the evaluation value C GRA inspection points surrounding the evaluation value C GRA and adoption point of adopting points . In this case, the evaluation value C GRA of the inspection points around the adopted points is, for example, the average value, maximum value, minimum value, intermediate value, etc. of the evaluation values C GRA of the plurality of inspection points adjacent to the adopted points.
例えば、物体存否判定部12は、採用点の評価値CGRAと採用点の周囲にある検査点の評価値CGRAとの間の差が所定値以上の場合に限り、採用点の位置に物体が存在すると判定してもよい。すなわち、物体存否判定部12は、その差が所定値未満の場合には、採用点の位置に物体が存在しないと判定してもよい。検査点の位置に物体が存在しない場合であっても、背景の輝度が均一な場合、その評価値CGRAは、物体が存在する場合と同じ程度に低くなるためである。また、物体が存在する場合には特定の1つの検査点の評価値CGRAが低くなり易いのに対し、物体が存在せず且つ背景の輝度が均一な場合には、隣接する複数の検査点の評価値CGRAが一様に低くなり易いためである。 For example, the object existence judgment unit 12, only when the difference between the evaluation value C GRA inspection points surrounding the evaluation value C GRA and adoption point of adoption point is a predetermined value or more, the object to the adoption point position May be determined to exist. That is, the object presence / absence determination unit 12 may determine that there is no object at the position of the adopted point when the difference is less than a predetermined value. This is because, even when the object does not exist at the position of the inspection point, if the luminance of the background is uniform, the evaluation value C GRA is as low as when the object is present. In addition, when an object exists, the evaluation value C GRA of one specific inspection point tends to be low, whereas when there is no object and the background brightness is uniform, a plurality of adjacent inspection points This is because the evaluation value C GRA is easily lowered uniformly.
また、物体検出装置100は、物体存否判定部12の判定結果を表示部3及び音声出力部4を通じて操作者に伝えるようにする。 In addition, the object detection apparatus 100 transmits the determination result of the object presence / absence determination unit 12 to the operator through the display unit 3 and the audio output unit 4.
具体的には、物体検出装置100は、カメラ2a、2bの何れか一方が撮像した画像を表示部3に表示し、物体存否判定部12により物体が存在すると判定された位置に対応する採用点の周囲の画像領域を他の画像領域と異ならせて表示する。例えば、物体検出装置100は、採用点の周囲の画像領域の色を他の画像領域の色と異ならせて表示する。 Specifically, the object detection apparatus 100 displays an image captured by one of the cameras 2 a and 2 b on the display unit 3, and the adoption point corresponding to the position where the object is determined to be present by the object presence determination unit 12. The image area around is displayed differently from other image areas. For example, the object detection apparatus 100 displays the color of the image area around the adopted point different from the colors of the other image areas.
また、物体検出装置100は、例えば、音声出力部4を通じて警報を出力したり、「Xメートルの地点に物体が存在します」といった音声メッセージを音声出力部4から出力したりする。 For example, the object detection apparatus 100 outputs an alarm through the sound output unit 4 or outputs a sound message such as “There is an object at a point of X meters” from the sound output unit 4.
次に、図14を参照しながら、物体検出装置100が物体を検出する処理(以下、「物体検出処理」とする。)の流れについて説明する。なお、図14は、物体検出処理の流れを示すフローチャートであり、物体検出装置100は、所定周期で繰り返しこの物体検出処理を実行する。また、測定ラインVLは、検出対象の物体が存在する可能性の高い空間領域を横切るように予め設定される。検査点は、測定ラインVL上に等間隔に所定数だけ予め配置される。また、撮像部2は、2台のカメラ2a、2bで構成され、カメラ2a、2bは、カメラ画像2aR、2bRを制御部1に対して出力する。 Next, a flow of processing (hereinafter referred to as “object detection processing”) in which the object detection apparatus 100 detects an object will be described with reference to FIG. FIG. 14 is a flowchart showing the flow of the object detection process, and the object detection apparatus 100 repeatedly executes the object detection process at a predetermined cycle. Further, the measurement line VL is set in advance so as to cross a spatial region where there is a high possibility that an object to be detected exists. A predetermined number of inspection points are arranged in advance at equal intervals on the measurement line VL. The imaging unit 2 includes two cameras 2a and 2b, and the cameras 2a and 2b output camera images 2aR and 2bR to the control unit 1.
最初に、物体検出装置100の制御部1は、部分画像抽出部10により、複数の検査点のうちの1つに対応する画素を中心画素とする部分画像を、カメラ画像2aR、2bRのそれぞれから抽出する(ステップS11)。 First, the control unit 1 of the object detection apparatus 100 causes the partial image extraction unit 10 to generate a partial image having a pixel corresponding to one of a plurality of inspection points as a central pixel from each of the camera images 2aR and 2bR. Extract (step S11).
その後、制御部1は、評価値決定部11により、上述の評価値決定処理を実行し、その検査点に関する評価値CGRAを決定する(ステップS12)。 Then, the control part 1 performs the above-mentioned evaluation value determination process by the evaluation value determination part 11, and determines the evaluation value CGRA regarding the inspection point (step S12).
その後、制御部1は、予め設定された全ての検査点に関する評価値CGRAを決定したか否かを判定する(ステップS13)。 Thereafter, the control unit 1 determines whether or not the evaluation values C GRA for all the inspection points set in advance have been determined (step S13).
予め設定された全ての検査点に関する評価値CGRAを未だ決定していないと判定した場合(ステップS13のNO)、制御部1は、評価値CGRAが未だ決定されていない検査点に関してステップS11及びステップS12を実行する。 When it is determined that the evaluation values C GRA regarding all the inspection points set in advance have not yet been determined (NO in step S13), the control unit 1 performs step S11 regarding the inspection points for which the evaluation value C GRA has not yet been determined. And step S12 is performed.
予め設定された全ての検査点に関する評価値CGRAを決定したと判定した場合(ステップS13のYES)、制御部1は、物体存否判定部12により、全ての検査点に関する評価値CGRAの分布に基づいて物体の存否を判定する(ステップS14)。 When it is determined that the evaluation values C GRA relating to all the inspection points set in advance have been determined (YES in step S13), the control unit 1 uses the object existence determination unit 12 to distribute the evaluation values C GRA relating to all the inspection points. The presence or absence of an object is determined based on (Step S14).
なお、本実施例では、物体検出装置100は、1本の測定ラインVL上に配置された複数の検査点のそれぞれに関する評価値CGRAの分布に基づいて、その1本の測定ラインVLが通る空間における物体の存否を判定する。しかしながら、本発明は、これに限定されない。物体検出装置100は、複数本の測定ラインのそれぞれに配置された複数の検査点のそれぞれに関する評価値CGRAの分布に基づいて、測定ライン毎に物体の存否を判定してもよい。 In the present embodiment, the object detection apparatus 100 passes through the one measurement line VL based on the distribution of the evaluation values C GRA for each of the plurality of inspection points arranged on one measurement line VL. The existence of an object in space is determined. However, the present invention is not limited to this. The object detection apparatus 100 may determine the presence / absence of an object for each measurement line based on the distribution of the evaluation value C GRA for each of the plurality of inspection points arranged on each of the plurality of measurement lines.
以上の構成により、物体検出装置100は、特定の検査点に対応する画素を中心画素とする、複数のカメラ画像のそれぞれにおける部分画像間の類似度に基づく評価値を用いて物体の存否を判定する。その結果、物体検出装置100は、エッジ検出等の画像処理により特徴点を見つけ出す必要なく物体の存否を判定することができ、物体の存否を判定するのに必要な演算コストを低減させることができる。 With the above configuration, the object detection apparatus 100 determines the presence / absence of an object using an evaluation value based on the similarity between partial images in each of a plurality of camera images, with a pixel corresponding to a specific inspection point as a central pixel. To do. As a result, the object detection apparatus 100 can determine the presence / absence of an object without having to find a feature point by image processing such as edge detection, and can reduce the calculation cost required to determine the presence / absence of the object. .
また、物体検出装置100は、検査点の位置を任意に設定可能とするので、測定範囲を必要最小限に制限することができ、物体の存否を判定するのに必要な演算コストを更に低減させることができる。 In addition, since the object detection apparatus 100 can arbitrarily set the position of the inspection point, the measurement range can be limited to the minimum necessary, and the calculation cost required to determine the presence or absence of the object can be further reduced. be able to.
また、物体検出装置100は、検査点の位置を任意に設定可能とするので、特定領域の物体検出の分解能を高めることができる。 In addition, since the object detection apparatus 100 can arbitrarily set the position of the inspection point, the resolution of object detection in a specific area can be increased.
次に、図15〜図19を参照しながら、物体検出装置100が移動体としてのショベル60に搭載される場合の測定ライン及び検査点の配置について説明する。 Next, the arrangement of measurement lines and inspection points when the object detection apparatus 100 is mounted on the excavator 60 as a moving body will be described with reference to FIGS.
図15は、物体検出装置100が搭載されるショベル60の構成例を示す図であり、図15(A)がショベル60の側面図を示し、図15(B)がショベル60の上面図を示す。 15 is a diagram illustrating a configuration example of the excavator 60 on which the object detection device 100 is mounted. FIG. 15A illustrates a side view of the excavator 60, and FIG. 15B illustrates a top view of the excavator 60. .
ショベル60は、クローラ式の下部走行体61の上に、旋回機構62を介して、上部旋回体63を旋回軸PVの周りで旋回自在に搭載している。 The excavator 60 has an upper swing body 63 mounted on a crawler-type lower traveling body 61 via a swing mechanism 62 so as to be rotatable around a swing axis PV.
また、上部旋回体63は、その前方左側部にキャブ(運転室)64を備え、その前方中央部に掘削アタッチメントEを備え、その後面に撮像部2を備える。なお、キャブ64内の運転者が視認し易い位置には表示部3が設置される。また、キャブ64内には、制御部1及び音声出力部4が設置される。 The upper swing body 63 includes a cab (operator's cab) 64 on the front left side thereof, a drilling attachment E on the front center thereof, and an imaging unit 2 on the rear surface thereof. In addition, the display part 3 is installed in the position which the driver | operator in the cab 64 is easy to visually recognize. In the cab 64, the control unit 1 and the audio output unit 4 are installed.
図16は、ショベル60に搭載される物体検出装置100が採用する測定ラインの配置の一例を示す図である。図16では、7本の測定ラインVLa〜VLgが配置され、7本の測定ラインVLa〜VLgのそれぞれには、4つの検査点が等間隔に配置される。なお、4つの検査点は、不等間隔に配置されてもよい。 FIG. 16 is a diagram illustrating an example of the arrangement of measurement lines employed by the object detection device 100 mounted on the excavator 60. In FIG. 16, seven measurement lines VLa to VLg are arranged, and four inspection points are arranged at equal intervals in each of the seven measurement lines VLa to VLg. Note that the four inspection points may be arranged at unequal intervals.
具体的には、測定ラインVLa上には4つの検査点IPa1〜IPa4が配置され、測定ラインVLb上には4つの検査点IPb1〜IPb4が配置され、測定ラインVLc上には4つの検査点IPc1〜IPc4が配置される。また、測定ラインVLd上には4つの検査点IPd1〜IPd4が配置され、測定ラインVLe上には4つの検査点IPe1〜IPe4が配置され、測定ラインVLf上には4つの検査点IPf1〜IPf4が配置され、測定ラインVLg上には4つの検査点IPg1〜IPg4が配置される。 Specifically, four inspection points IPa1 to IPa4 are arranged on the measurement line VLa, four inspection points IPb1 to IPb4 are arranged on the measurement line VLb, and four inspection points IPc1 are arranged on the measurement line VLc. ~ IPc4 is arranged. Further, four inspection points IPd1 to IPd4 are arranged on the measurement line VLd, four inspection points IPe1 to IPe4 are arranged on the measurement line VLe, and four inspection points IPf1 to IPf4 are arranged on the measurement line VLf. The four test points IPg1 to IPg4 are arranged on the measurement line VLg.
物体検出装置100は、7本の測定ラインVLa〜VLfのそれぞれに配置された4つの検査点のそれぞれに関する評価値CGRAの分布に基づいて、測定ライン毎に物体の存否を判定する。 The object detection apparatus 100 determines the presence / absence of an object for each measurement line based on the distribution of the evaluation values C GRA for each of the four inspection points arranged on each of the seven measurement lines VLa to VLf.
7本の測定ラインVLa〜VLgは、ショベル60の上部旋回体63の後部を中心として、ショベル60の後方に放射状に伸び、隣接する2本の測定ラインの間の角度が等しくなるように配置される。なお、隣接する2本の測定ラインの間の角度は、異なるものであってもよい。また、7本の測定ラインVLa〜VLgは、水平面に平行に伸び、検出対象に応じて地面からの高さが決定される。 The seven measurement lines VLa to VLg extend radially from the rear of the excavator 60 around the rear part of the upper swing body 63 of the excavator 60 and are arranged so that the angles between two adjacent measurement lines are equal. The Note that the angle between two adjacent measurement lines may be different. The seven measurement lines VLa to VLg extend parallel to the horizontal plane, and the height from the ground is determined according to the detection target.
7本の測定ラインVLa〜VLgのこの配置により、物体検出装置100は、ショベル60の後方の様々な方向に存在する物体を検出することができる。また、この配置により、測定ライン上に等間隔に配置される検査点の配置密度は、ショベル60に近いほど密となる。したがって、この配置は、ショベル60の操作者の死角となるショベル60の後方に存在する物体の検出を可能にし、且つ、ショベル60に近い程より詳細な物体の検出を可能にする。 With this arrangement of the seven measurement lines VLa to VLg, the object detection device 100 can detect objects existing in various directions behind the excavator 60. Further, due to this arrangement, the arrangement density of inspection points arranged at equal intervals on the measurement line becomes denser as it is closer to the excavator 60. Therefore, this arrangement enables detection of an object existing behind the excavator 60 that is a blind spot of the operator of the excavator 60, and enables detection of a more detailed object closer to the excavator 60.
また、7本の測定ラインVLa〜VLgは、上部旋回体63を基準とする座標系で定義されているので、測定ラインVLa〜VLg上の各検査点は、上部旋回体63に固定された撮像部2の動きとともに、すなわち、ショベル60の前後進、又は、上部旋回体63の旋回とともに移動する。その結果、物体検出装置100は、ショベル60の前後進、又は、上部旋回体63の旋回にかかわらず、常に、上部旋回体63の後方に存在する物体を検出できる。 In addition, since the seven measurement lines VLa to VLg are defined in a coordinate system based on the upper swing body 63, each inspection point on the measurement lines VLa to VLg is imaged fixed to the upper swing body 63. It moves with the movement of the part 2, that is, with the excavator 60 moving forward and backward, or with the turning of the upper turning body 63. As a result, the object detection apparatus 100 can always detect an object existing behind the upper swing body 63 regardless of whether the excavator 60 moves forward or backward or the upper swing body 63 rotates.
図17は、ショベル60に搭載される物体検出装置100の検出結果を表示する検出結果表示画面D1の一例である。物体検出装置100は、表示部3に検出結果を出力し、表示部3上に検出結果表示画面D1を表示させる。 FIG. 17 is an example of a detection result display screen D1 that displays a detection result of the object detection device 100 mounted on the excavator 60. The object detection device 100 outputs the detection result to the display unit 3 and displays the detection result display screen D1 on the display unit 3.
検出結果表示画面D1は、ショベル60の位置を表すCG(Computer Graphics)画像70を画面中央上部に表示する。なお、CG画像70は、ショベル60の掘削アタッチメントEに相当する画像部分が画面上方向を向くように配置される。 The detection result display screen D1 displays a CG (Computer Graphics) image 70 representing the position of the excavator 60 at the upper center of the screen. The CG image 70 is arranged such that an image portion corresponding to the excavation attachment E of the excavator 60 faces the screen upward direction.
図17では、検出結果表示画面D1は、図16で示された、測定ラインVLa上の検査点IPa3、測定ラインVLb上の検査点IPb4、測定ラインVLc上の検査点IPc3、測定ラインVLd上の検査点IPd3、及び測定ラインVLf上の検査点IPf4で物体が存在すると判定され、測定ラインVLe及び測定ラインVLg上で物体が存在しないと判定された場合の状態を示す。 In FIG. 17, the detection result display screen D1 is on the inspection point IPa3 on the measurement line VLa, the inspection point IPb4 on the measurement line VLb, the inspection point IPc3 on the measurement line VLc, and the measurement line VLd shown in FIG. A state in which it is determined that an object exists at the inspection point IPd3 and the inspection point IPf4 on the measurement line VLf and it is determined that no object exists on the measurement line VLe and the measurement line VLg is shown.
図17で示すように、物体検出装置100は、物体が存在すると判定された地点の画像部分に円形のマークを重畳表示する。物体の存在を操作者に伝えるためである。なお、物体検出装置100は、物体が存在すると判定された地点の画像部分の色を変えたり、点滅させたりする等の他の表示方法により、物体の存在を操作者に伝えるようにしてもよい。このようにして、物体検出装置100は、撮像部2を用いた物体の存否の判定結果を操作者に分かり易く認識させることができる。 As illustrated in FIG. 17, the object detection apparatus 100 displays a circular mark in a superimposed manner on an image portion at a point where it is determined that an object exists. This is to inform the operator of the presence of the object. Note that the object detection apparatus 100 may notify the operator of the presence of the object by other display methods such as changing the color of the image portion at the point where it is determined that the object is present or blinking the image. . In this way, the object detection apparatus 100 can make the operator easily recognize the determination result of the presence / absence of an object using the imaging unit 2.
図18は、ショベル60に搭載される物体検出装置100が採用する測定ラインの配置の別の例を示す図である。図18では、4本の測定ラインVLh〜VLkが配置され、4本の測定ラインVLh〜VLkのそれぞれには、5つの検査点が等間隔に配置される。なお、5つの検査点は、不等間隔に配置されてもよい。 FIG. 18 is a diagram illustrating another example of the arrangement of measurement lines employed by the object detection device 100 mounted on the excavator 60. In FIG. 18, four measurement lines VLh to VLk are arranged, and five inspection points are arranged at equal intervals in each of the four measurement lines VLh to VLk. Note that the five inspection points may be arranged at unequal intervals.
具体的には、測定ラインVLh上には5つの検査点IPh1〜IPh5が配置され、測定ラインVLi上には5つの検査点IPi1〜IPi5が配置され、測定ラインVLj上には5つの検査点IPj1〜IPj5が配置され、測定ラインVLk上には5つの検査点IPk1〜IPk5が配置される。 Specifically, five inspection points IPh1 to IPh5 are arranged on the measurement line VLh, five inspection points IPi1 to IPi5 are arranged on the measurement line VLi, and five inspection points IPj1 are arranged on the measurement line VLj. To IPj5, and five inspection points IPk1 to IPk5 are arranged on the measurement line VLk.
物体検出装置100は、4本の測定ラインVLh〜VLkのそれぞれに配置された5つの検査点のそれぞれに関する評価値CGRAの分布に基づいて、測定ライン毎に物体の存否を判定する。 The object detection apparatus 100 determines the presence / absence of an object for each measurement line based on the distribution of the evaluation value C GRA for each of the five inspection points arranged on each of the four measurement lines VLh to VLk.
4本の測定ラインVLh〜VLkは、ショベル60の後方において、ショベル60の上部旋回体63の側部端面(撮像部2の光軸)に平行に伸びる。また、4本の測定ラインVLh〜VLkは、水平面に平行に伸び、検出対象に応じて地面からの高さが決定される。なお、4本の測定ラインVLh〜VLkは、ショベル60の後方において、ショベル60の上部旋回体63の後端面に平行に伸びるものであってもよい。 The four measurement lines VLh to VLk extend in parallel to the side end face (the optical axis of the imaging unit 2) of the upper swing body 63 of the shovel 60 behind the shovel 60. Further, the four measurement lines VLh to VLk extend in parallel to the horizontal plane, and the height from the ground is determined according to the detection target. Note that the four measurement lines VLh to VLk may extend parallel to the rear end surface of the upper swing body 63 of the excavator 60 behind the excavator 60.
4本の測定ラインVLh〜VLkのこの配置により、測定ライン上に等間隔に配置される検査点の配置密度は、ショベル60からの距離にかかわらず一定となる。したがって、4本の測定ラインVLh〜VLkのこの配置は、ショベル60の操作者の死角となるショベル60の後方に存在する物体の検出を可能にし、且つ、ショベル60から比較的離れた地点に存在する物体を、ショベル60に比較的近い地点に存在する物体を検出する場合と同様の分解能で検出できるようにする。 With this arrangement of the four measurement lines VLh to VLk, the arrangement density of inspection points arranged at equal intervals on the measurement line is constant regardless of the distance from the shovel 60. Therefore, this arrangement of the four measurement lines VLh to VLk enables detection of an object existing behind the excavator 60 which is a blind spot of the operator of the excavator 60 and exists at a position relatively far from the excavator 60. The object to be detected can be detected with the same resolution as the case of detecting the object existing at a point relatively close to the excavator 60.
図19は、ショベル60に搭載される物体検出装置100が採用する測定ラインの配置のさらに別の例を示す図である。図19では、5本の測定ラインVLv〜VLzが配置され、5本の測定ラインVLv〜VLzのそれぞれには、4つの検査点が等間隔に配置される。なお、4つの検査点は、不等間隔に配置されてもよい。 FIG. 19 is a diagram illustrating still another example of the arrangement of measurement lines employed by the object detection device 100 mounted on the excavator 60. In FIG. 19, five measurement lines VLv to VLz are arranged, and four inspection points are arranged at equal intervals in each of the five measurement lines VLv to VLz. Note that the four inspection points may be arranged at unequal intervals.
物体検出装置100は、5本の測定ラインVLv〜VLzのそれぞれに配置された4つの検査点のそれぞれに関する評価値CGRAの分布に基づいて、測定ライン毎に物体の存否を判定する。 The object detection apparatus 100 determines the presence / absence of an object for each measurement line based on the distribution of the evaluation value C GRA for each of the four inspection points arranged on each of the five measurement lines VLv to VLz.
5本の測定ラインVLv〜VLzは、ショベル60の上部旋回体63の後部を中心として、ショベル60の後方に放射状に伸び、隣接する2本の測定ラインの間の角度が等しくなるように配置される。なお、隣接する2本の測定ラインの間の角度は、異なるものであってもよい。また、5本の測定ラインVLv〜VLzは、1つの鉛直面上に配置される。 The five measurement lines VLv to VLz extend radially from the rear of the excavator 60 around the rear part of the upper swing body 63 of the excavator 60, and are arranged so that the angles between two adjacent measurement lines are equal. The Note that the angle between two adjacent measurement lines may be different. Further, the five measurement lines VLv to VLz are arranged on one vertical plane.
5本の測定ラインVLv〜VLzのこの配置により、物体検出装置100は、ショベル60の後方に存在する様々な高さの物体を検出することができる。また、この配置により、測定ライン上に等間隔に配置される検査点の配置密度は、ショベル60に近いほど密となる。したがって、この配置は、ショベル60の操作者の死角となるショベル60の後方に存在する物体の検出を可能にし、且つ、ショベル60に近い程より詳細な物体の検出を可能にする。 With this arrangement of the five measurement lines VLv to VLz, the object detection device 100 can detect objects of various heights existing behind the excavator 60. Further, due to this arrangement, the arrangement density of inspection points arranged at equal intervals on the measurement line becomes denser as it is closer to the excavator 60. Therefore, this arrangement enables detection of an object existing behind the excavator 60 that is a blind spot of the operator of the excavator 60, and enables detection of a more detailed object closer to the excavator 60.
また、各検査点は、2つのカメラ画像のそれぞれに対して定義される二次元座標系における所定の二次元座標に対応付けられている。そのため、5本の測定ラインVLv〜VLzは、見かけ上、撮像部2の動きとともに、すなわち、ショベル60の前後進、又は、上部旋回体63の旋回とともに移動する。その結果、物体検出装置100は、ショベル60の前後進、又は、上部旋回体63の旋回にかかわらず、常に、上部旋回体63の後方に存在する物体を検出できる。 Each inspection point is associated with a predetermined two-dimensional coordinate in a two-dimensional coordinate system defined for each of the two camera images. Therefore, the five measurement lines VLv to VLz apparently move with the movement of the imaging unit 2, that is, with the excavator 60 moving forward and backward, or with the turning of the upper swing body 63. As a result, the object detection apparatus 100 can always detect an object existing behind the upper swing body 63 regardless of whether the excavator 60 moves forward or backward or the upper swing body 63 rotates.
なお、物体検出装置100を搭載するショベル60に関する上述の実施例では、水平方向に放射状に伸びる複数本の測定ラインと、垂直方向に放射状に伸びる複数本の測定ラインとを別々に説明したが、これらの測定ラインは、組み合わせて配置されてもよい。その場合、測定ラインは、例えば、立体的に放射状に伸びるように配置され得る。 In the above-described embodiment relating to the excavator 60 on which the object detection apparatus 100 is mounted, a plurality of measurement lines extending radially in the horizontal direction and a plurality of measurement lines extending radially in the vertical direction have been described separately. These measurement lines may be arranged in combination. In that case, the measurement line may be arranged so as to extend in a three-dimensional radial manner, for example.
また、上述の実施例では、撮像部2は、上部旋回体63の後部に取り付けられ、測定ラインは、ショベル60の後方にある物体を検出するのに適した配置となっている。しかしながら、本発明はこれに限定されない。例えば、撮像部2は、追加的に或いは代替的に、上部旋回体63の側部の一方又は双方に取り付けられていてもよい。その場合、測定ラインは、上部旋回体63の側方にある物体を検出するのに適した配置となり、例えば、上部旋回体63の側方に放射状に伸びるように配置される。 Further, in the above-described embodiment, the imaging unit 2 is attached to the rear part of the upper swing body 63, and the measurement line has an arrangement suitable for detecting an object behind the excavator 60. However, the present invention is not limited to this. For example, the imaging unit 2 may be additionally or alternatively attached to one or both of the side portions of the upper swing body 63. In such a case, the measurement line is suitable for detecting an object located on the side of the upper swing body 63, and is disposed so as to extend radially to the side of the upper swing body 63, for example.
また、上述の実施例では、物体検出装置100は、旋回機構62を備えたショベル60に搭載され、撮像部2が下部走行体61とともに前後進し、且つ、上部旋回体63とともに旋回する。しかしながら、本発明は、これに限定されない。例えば、撮像部2は、下部走行体61とともに前後進するが、上部旋回体63とともに旋回しないように取り付けられていてもよい。この場合、物体検出装置100は、上部旋回体63の旋回にかかわらず、常に、下部走行体61の後方に存在する物体を検出できる。また、物体検出装置100は、旋回機構を持たない車両等の移動体に搭載されてもよく、移動方向が限定される移動体に搭載されてもよい。 In the above-described embodiment, the object detection device 100 is mounted on the excavator 60 including the turning mechanism 62, and the imaging unit 2 moves forward and backward with the lower traveling body 61 and turns with the upper turning body 63. However, the present invention is not limited to this. For example, the imaging unit 2 may move forward and backward with the lower traveling body 61, but may be attached so as not to pivot with the upper swing body 63. In this case, the object detection device 100 can always detect an object existing behind the lower traveling body 61 regardless of the turning of the upper swinging body 63. Further, the object detection device 100 may be mounted on a moving body such as a vehicle that does not have a turning mechanism, or may be mounted on a moving body in which the moving direction is limited.
以上、本発明の好ましい実施例について詳説したが、本発明は、上述した実施例に制限されることはなく、本発明の範囲を逸脱することなしに上述した実施例に種々の変形及び置換を加えることができる。 Although the preferred embodiments of the present invention have been described in detail above, the present invention is not limited to the above-described embodiments, and various modifications and substitutions can be made to the above-described embodiments without departing from the scope of the present invention. Can be added.
例えば、上述の実施例において、物体検出装置100は、評価値CGRAとしてヒストグラム同士の各要素の強度差に基づく評価値を採用するが、輝度差の二乗和SSD(Sum of Squared Difference)、輝度差の総和SAD(Sum of Absolute Difference)、正規化相互相関ZNCC(Zero-mean Normalized Cross-Correlation)等を評価値として採用してもよい。また、物体検出装置100は、評価値を決定するために、SIFT(Scale-Invariant Feature Transform)、HOG(Histograms of Oriented Gradients)等のアルゴリズムを用いてもよい(藤吉弘亘、"Gradientベースの特徴抽出−SIFTとHOG−"、情報処理学会、研究報告CVIM 160, pp.211-214, 2007参照。)。 For example, in the above-described embodiment, the object detection apparatus 100 employs an evaluation value based on the intensity difference between the histograms as the evaluation value C GRA , but the sum of squares of luminance difference SSD (Sum of Squared Difference), luminance A sum of differences SAD (Sum of Absolute Difference), normalized cross-correlation ZNCC (Zero-mean Normalized Cross-Correlation), or the like may be adopted as an evaluation value. Further, the object detection apparatus 100 may use algorithms such as SIFT (Scale-Invariant Feature Transform), HOG (Histograms of Oriented Gradients), etc. (Hirohiro Fujiyoshi, “Gradient-based features”). Extraction-SIFT and HOG- ", Information Processing Society of Japan, Research Report CVIM 160, pp.211-214, 2007.)
1・・・制御部 2・・・撮像部 2a、2b・・・カメラ 3・・・表示部 4・・・音声出力部 10・・・部分画像抽出部 11・・・評価値決定部 12・・・物体存否判定部 60・・・ショベル 61・・・下部走行体 62・・・旋回機構 63・・・上部旋回体 64・・・キャブ 70・・・CG画像 100・・・物体検出装置 D1・・・検出結果表示画面 IP1〜IP16・・・検査点 VL・・・測定ライン DESCRIPTION OF SYMBOLS 1 ... Control part 2 ... Imaging part 2a, 2b ... Camera 3 ... Display part 4 ... Audio | voice output part 10 ... Partial image extraction part 11 ... Evaluation value determination part 12. .. Object existence / non-existence determining unit 60 ... excavator 61 ... lower traveling body 62 ... turning mechanism 63 ... upper turning body 64 ... cab 70 ... CG image 100 ... object detection device D1 ... Detection result display screen IP1 to IP16 ... Inspection point VL ... Measurement line
Claims (2)
前記物体検出装置は、
被撮像空間を通る仮想直線上の複数の検査点のうちの1つに対応する画素を含む所定サイズの部分画像を各カメラ画像から抽出する部分画像抽出部と、
同一の検査点に対応する前記各カメラ画像の部分画像同士の類似度に基づいて前記複数の検査点のうちの1つに関する評価値を決定する評価値決定部と、
前記評価値決定部が決定する評価値を用いて物体の存否を判定する物体存否判定部と、を備え、
当該移動体は、旋回可能な旋回体を備え、
前記仮想直線は、当該移動体が動いたときに当該移動体の一部が到達可能な空間領域を通ると共に、複数本配置され、それぞれが前記旋回体の側部端面に対して平行に伸びる、
移動体。 A moving body equipped with an object detection device that detects an object based on parallax between camera images captured by at least two cameras,
The object detection device includes:
A partial image extraction unit that extracts a partial image of a predetermined size including a pixel corresponding to one of a plurality of inspection points on a virtual straight line passing through an imaging space;
An evaluation value determination unit that determines an evaluation value related to one of the plurality of inspection points based on the similarity between the partial images of each camera image corresponding to the same inspection point;
An object presence / absence determination unit that determines the presence / absence of an object using the evaluation value determined by the evaluation value determination unit,
The mobile body includes a revolving body capable of revolving,
The virtual straight line, with a portion of the moving body when the moving body is moving through the spatial region reachable, are parallelly arranged, respectively running parallel to the side end face of the swivel body,
Moving body.
前記物体検出装置は、
被撮像空間を通る仮想直線上の複数の検査点のうちの1つに対応する画素を含む所定サイズの部分画像を各カメラ画像から抽出する部分画像抽出部と、
同一の検査点に対応する前記各カメラ画像の部分画像同士の類似度に基づいて前記複数の検査点のうちの1つに関する評価値を決定する評価値決定部と、
前記評価値決定部が決定する評価値を用いて物体の存否を判定する物体存否判定部と、を備え、
当該移動体は、旋回可能な旋回体を備え、
前記仮想直線は、当該移動体が動いたときに当該移動体の一部が到達可能な空間領域を通ると共に、複数本配置され、それぞれが前記旋回体の中心から放射状に伸びる、
移動体。 A moving body equipped with an object detection device that detects an object based on parallax between camera images captured by at least two cameras,
The object detection device includes:
A partial image extraction unit that extracts a partial image of a predetermined size including a pixel corresponding to one of a plurality of inspection points on a virtual straight line passing through an imaging space;
An evaluation value determination unit that determines an evaluation value related to one of the plurality of inspection points based on the similarity between the partial images of each camera image corresponding to the same inspection point;
An object presence / absence determination unit that determines the presence / absence of an object using the evaluation value determined by the evaluation value determination unit,
The mobile body includes a revolving body capable of revolving,
The imaginary straight line passes through a space area where a part of the moving body can reach when the moving body moves, and a plurality of the virtual straight lines are arranged, each extending radially from the center of the revolving body.
Moving body.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011213491A JP5631833B2 (en) | 2011-09-28 | 2011-09-28 | Mobile object equipped with object detection device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011213491A JP5631833B2 (en) | 2011-09-28 | 2011-09-28 | Mobile object equipped with object detection device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013073516A JP2013073516A (en) | 2013-04-22 |
JP5631833B2 true JP5631833B2 (en) | 2014-11-26 |
Family
ID=48477945
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011213491A Active JP5631833B2 (en) | 2011-09-28 | 2011-09-28 | Mobile object equipped with object detection device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5631833B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6378801B2 (en) * | 2017-05-08 | 2018-08-22 | 住友建機株式会社 | Excavator |
CN111582135B (en) * | 2020-04-30 | 2023-05-16 | 中南大学 | Excavator hand operation proficiency evaluation method and device based on working stage identification |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1999058927A1 (en) * | 1998-05-08 | 1999-11-18 | Sony Corporation | Image generating device and method |
JP4531921B2 (en) * | 2000-04-06 | 2010-08-25 | 日本信号株式会社 | Distance measuring device |
JP2010079582A (en) * | 2008-09-25 | 2010-04-08 | Toshiba Corp | Apparatus, method and program for detecting object |
-
2011
- 2011-09-28 JP JP2011213491A patent/JP5631833B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2013073516A (en) | 2013-04-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8412418B2 (en) | Industrial machine | |
CA2678156C (en) | Measurement apparatus, measurement method, and feature identification apparatus | |
CN105225230B (en) | A kind of method and device of identification foreground target object | |
CN103971406B (en) | Submarine target three-dimensional rebuilding method based on line-structured light | |
CN111462503B (en) | Vehicle speed measuring method and device and computer readable storage medium | |
JP5010001B2 (en) | 3D image display panel evaluation method and system | |
JP2016120892A (en) | Three-dimensional object detector, three-dimensional object detection method, and three-dimensional object detection program | |
CN104902246A (en) | Video monitoring method and device | |
JP5689534B2 (en) | Overhead crane with object detection device | |
JP2016205887A (en) | Road surface gradient detection device | |
JP5631834B2 (en) | Mobile object equipped with object detection device | |
CN109886064B (en) | Method for determining the boundary of a drivable space | |
Malinovskiy et al. | Video-based vehicle detection and tracking using spatiotemporal maps | |
JP5631833B2 (en) | Mobile object equipped with object detection device | |
CN104252707B (en) | Method for checking object and device | |
JP6860445B2 (en) | Object distance detector | |
JP4765113B2 (en) | Vehicle periphery monitoring device, vehicle, vehicle periphery monitoring program, and vehicle periphery monitoring method | |
JP4519519B2 (en) | Moving object detection device | |
JP2008286648A (en) | Distance measuring device, distance measuring system, and distance measuring method | |
JP2014126887A (en) | License plate determination device | |
AU2009348935B2 (en) | A method and an arrangement for estimating 3D models in a street environment | |
Cremer et al. | Processing of polarimetric infrared images for landmine detection | |
CN107481277B (en) | Imaging device and detection method based on dark channel prior model | |
JP2013073515A (en) | Object detecting method and object detecting device | |
Miekkala et al. | LiDAR system benchmarking for VRU detection in heavy goods vehicle blind spots |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20131108 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140709 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140715 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140909 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20141007 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20141008 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5631833 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |