JP2019090711A - Wall detector - Google Patents

Wall detector Download PDF

Info

Publication number
JP2019090711A
JP2019090711A JP2017220193A JP2017220193A JP2019090711A JP 2019090711 A JP2019090711 A JP 2019090711A JP 2017220193 A JP2017220193 A JP 2017220193A JP 2017220193 A JP2017220193 A JP 2017220193A JP 2019090711 A JP2019090711 A JP 2019090711A
Authority
JP
Japan
Prior art keywords
wall
axis
image
point group
parallax
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017220193A
Other languages
Japanese (ja)
Inventor
将崇 石▲崎▼
Masataka Ishizaki
将崇 石▲崎▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Industries Corp
Original Assignee
Toyota Industries Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Industries Corp filed Critical Toyota Industries Corp
Priority to JP2017220193A priority Critical patent/JP2019090711A/en
Publication of JP2019090711A publication Critical patent/JP2019090711A/en
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Image Analysis (AREA)

Abstract

To detect a wall.SOLUTION: A wall detector is mounted in a fork lift. The wall detector comprises two imaging devices and an image processing device. Each imaging device is a stereo camera. The image processing device calculates parallax from the image captured by each imaging device. The image processing device calculates coordinates of an object shown in the image from the calculated parallax, and plots the object to a world coordinate system. When there exists a point group P1 that represents a plurality of feature points P that are in a row on an X axis of a world coordinate system and there is no feature point P in the back from the point group P1, the image processing device determines that the point group P1 is the upper end of a wall.SELECTED DRAWING: Figure 8

Description

本発明は、壁検出装置に関する。   The present invention relates to a wall detection device.

移動体が障害物に衝突することを抑止するため、移動体には障害物を検出するための障害物検出装置が搭載されている(例えば、特許文献1参照)。
特許文献1の障害物検出装置は、ステレオカメラによって得られた視差(視差画像)を用いて障害物を検出している。ステレオカメラは、複数のカメラによって構成されている。視差は、複数のカメラで同一の対象物を撮像した場合に、各カメラによって撮像された画像に写る対象物の画像位置の差(画素数の差)である。障害物検出装置は、天井部に相当する高さ位置から下方に向けて所定の長さ以上に連続した面を含む物体を検出すると、当該物体は壁であると判断する。
In order to prevent a mobile from colliding with an obstacle, an obstacle detection device for detecting an obstacle is mounted on the mobile (see, for example, Patent Document 1).
The obstacle detection device of Patent Document 1 detects an obstacle using parallax (parallax image) obtained by a stereo camera. A stereo camera is composed of a plurality of cameras. The parallax is a difference (difference in the number of pixels) in the image position of the object shown in the image taken by each camera when the same object is imaged by a plurality of cameras. The obstacle detection device determines that the object is a wall when it detects an object including a surface continuous from the height position corresponding to the ceiling downward to a predetermined length or more.

特開2004−326264号公報Unexamined-Japanese-Patent No. 2004-326264

ところで、ステレオカメラを用いて障害物を検出する場合、視差から障害物の位置を検出する。視差を得るためには、各カメラによって撮像された画像から同一の対象物を抽出する必要がある。同一の対象物を抽出する際には、画像から特徴となる部分(エッジ)を抽出し、この特徴部分を対象物とする。しかし、模様や、凹凸などの特徴がない壁をステレオカメラで撮像した場合、視差を得ることができず、面の検出を行えない場合がある。すると、特許文献1の障害物検出装置では、壁を検出することができない場合が生じ得る。   By the way, when detecting an obstacle using a stereo camera, the position of the obstacle is detected from the parallax. In order to obtain parallax, it is necessary to extract the same object from the image captured by each camera. When extracting the same object, a portion (edge) that is a feature is extracted from the image, and this feature portion is used as the object. However, when a wall having no feature such as a pattern or unevenness is imaged by a stereo camera, parallax may not be obtained and detection of the surface may not be performed. Then, in the obstacle detection device of Patent Document 1, there may occur a case where the wall can not be detected.

本発明の目的は、壁を検出することができる壁検出装置を提供することにある。   An object of the present invention is to provide a wall detection device capable of detecting a wall.

上記課題を解決する壁検出装置は、移動体に搭載され、鉛直方向に立設する壁を検出する壁検出装置であって、前記移動体の周辺を撮像するステレオカメラと、前記ステレオカメラによって撮像された画像から視差を算出する視差算出手段と、前記移動体の進行方向に延びる軸を第1の軸、鉛直方向に延びる軸を第2の軸、前記第1の軸及び前記第2の軸に直交する軸を第3の軸とする3軸直交座標系において、前記視差が得られた特徴点についての実空間上での座標を算出する座標算出手段と、前記第3の軸上に並んだ複数の前記特徴点である点群が、鉛直方向において予め定められた高さよりも高い位置に存在し、かつ、前記点群よりも前記移動体の進行方向における奥に前記特徴点が存在しない場合、前記点群が前記壁の上端であると判定する判定手段と、を備える。   A wall detection device for solving the above-mentioned problems is a wall detection device which is mounted on a mobile body and detects a wall erected in the vertical direction, and is imaged by the stereo camera which images the periphery of the mobile body and the stereo camera Calculating means for calculating a parallax from the captured image, an axis extending in the traveling direction of the movable body as a first axis, an axis extending in the vertical direction as a second axis, the first axis, and the second axis The coordinate calculation means for calculating the coordinates in the real space about the feature point for which the parallax is obtained in a three-axis orthogonal coordinate system in which the axis orthogonal to the third axis is the third axis, and arranged on the third axis The point group which is the plurality of feature points is present at a position higher than a predetermined height in the vertical direction, and the feature point does not exist at the back of the moving body in the traveling direction than the point group If the point cloud is the top of the wall It comprises a constant determining means.

壁の上端には天井や空間などとの境目が存在するため、視差算出手段は、画像に写る壁の上端から視差を算出することができる。視差が得られた特徴点について座標を算出すると、壁の上端を示す特徴点は、第3の軸上に並ぶことになる。また、進行方向における壁よりも奥は、撮像することができないため、壁が撮像されている場合、点群よりも奥には特徴点が存在しない。このため、鉛直方向において予め定められた高さよりも高い位置に点群が存在し、かつ、点群よりも奥に特徴点が存在しない場合、判定手段は、点群が壁の上端であると判定することができる。壁検出装置は、上端から下方に向けて壁が存在していると判断することで、壁を検出することができる。   Since the boundary between the ceiling and the space exists at the upper end of the wall, the parallax calculating means can calculate the parallax from the upper end of the wall shown in the image. When coordinates are calculated for the feature points for which parallax has been obtained, the feature points indicating the upper end of the wall are aligned on the third axis. In addition, since it is not possible to image the back of the wall in the traveling direction, when the wall is imaged, there is no feature point at the back of the point cloud. For this reason, when the point group exists at a position higher than a predetermined height in the vertical direction, and the feature point does not exist behind the point group, the determination unit determines that the point group is the upper end of the wall It can be determined. The wall detection device can detect the wall by judging that the wall is present from the upper end to the lower side.

上記壁検出装置について、前記判定手段は、前記第3の軸上に並んだ複数の前記特徴点である下側点群が前記点群の下方に存在する場合、前記下側点群が前記壁の下端であると判定してもよい。   In the wall detection device, when the lower point group which is the plurality of the feature points arranged on the third axis is present below the point group, the determination means determines that the lower point group is the wall It may be determined that the lower end of.

壁の上端と同様に、壁の下端には床との境目が存在する。点群の下方に下側点群が存在する場合、判定手段は、下側点群が壁の下端であると判定することができる。壁検出装置は、点群と下側点群との間に壁が存在していると判断することができる。   Similar to the top of the wall, there is a boundary with the floor at the bottom of the wall. When the lower point group exists below the point group, the determination means can determine that the lower point group is the lower end of the wall. The wall detection device can determine that a wall exists between the point cloud and the lower point cloud.

上記壁検出装置について、前記ステレオカメラを構成する複数のカメラは、鉛直方向に並んで配置されていてもよい。
ステレオカメラを構成する複数のカメラを鉛直方向に並べると、各カメラによって撮像される画像に写る同一の対象物は、上下方向にずれて撮像されることになる。すると、視差は、各画像における縦ピクセルの差となって現れることになる。壁の上端のように、画像の横方向に延びるエッジから視差を算出する場合、視差算出手段は、縦ピクセルの差のほうが視差を算出しやすい。したがって、カメラを鉛直方向に並べて配置することで、壁検出装置は、壁の検出を行いやすくなる。
In the wall detection device, a plurality of cameras constituting the stereo camera may be arranged in the vertical direction.
When a plurality of cameras constituting a stereo camera are arranged in the vertical direction, the same object shown in an image captured by each camera is captured with a vertical shift. Then, the parallax appears as a difference of vertical pixels in each image. When the parallax is calculated from the edge extending in the horizontal direction of the image, such as the upper end of the wall, the parallax calculating unit can calculate the parallax more easily by the difference of the vertical pixels. Therefore, the wall detection device can easily detect the wall by arranging the cameras in the vertical direction.

上記壁検出装置について、前記判定手段は、前記第2の軸上に並んだ複数の前記特徴点である横点群が存在する場合、前記横点群が前記壁における左右方向の端部であると判定してもよい。   In the wall detection device, when there is a horizontal point group which is a plurality of the feature points arranged on the second axis, the determination means is an end portion in the left-right direction of the wall It may be determined that

壁における左右方向の端部を撮像すると、この端部は第2の軸上に並ぶ特徴点となる。したがって、横点群が存在する場合、判定手段は、横点群は壁における左右方向の端部であると判定できる。   When imaging the left and right ends of the wall, the ends become feature points aligned on the second axis. Therefore, when the horizontal point group is present, the determination means can determine that the horizontal point group is the lateral end of the wall.

本発明によれば、壁を検出することができる。   According to the present invention, walls can be detected.

壁検出装置が搭載されるフォークリフトの側面図。The side view of the forklift with which a wall detection device is carried. フォークリフト、及び、壁検出装置の概略構成図。The schematic block diagram of a forklift and a wall detection apparatus. 壁を示す概略図。Schematic which shows a wall. (a)は第1カメラによって壁を撮像したときの第1画像を示す図、(b)は第2カメラによって壁を撮像したときの第2画像を示す図。(A) is a figure which shows a 1st image when a wall is imaged with a 1st camera, (b) is a figure which shows a 2nd image when a wall is imaged with a 2nd camera. 壁検出処理を示すフローチャート。The flowchart which shows wall detection processing. 壁特徴探索処理を示すフローチャート。The flowchart which shows wall feature search processing. 相対位置算出処理を示すフローチャート。The flowchart which shows relative position calculation processing. ワールド座標系上にプロットされた特徴点を示す概略図。FIG. 3 is a schematic diagram showing feature points plotted on a world coordinate system. 通路の状態を説明するための図。The figure for demonstrating the state of a passage. ワールド座標系上にプロットされた特徴点を示す概略図。FIG. 3 is a schematic diagram showing feature points plotted on a world coordinate system.

以下、壁検出装置の一実施形態について説明する。
図1及び図2に示すように、移動体としてのフォークリフト10は、車体11と、車体11の前部に設けられた荷役装置12と、を備える。フォークリフト10は、駆動輪13と、操舵輪14と、駆動輪13を駆動させる走行用モータM1と、を備える。なお、フォークリフト10は、自動で走行動作及び荷役動作が行われるものであってもよいし、搭乗者(オペレータ)による操作によって走行動作及び荷役動作が行われるものであってもよい。
Hereinafter, one embodiment of a wall detection device is described.
As shown in FIGS. 1 and 2, the forklift 10 as a moving body includes a vehicle body 11 and a cargo handling device 12 provided at the front of the vehicle body 11. The forklift 10 includes a drive wheel 13, a steered wheel 14, and a traveling motor M 1 that drives the drive wheel 13. The forklift 10 may be one in which a traveling operation and a cargo handling operation are automatically performed, or may be one in which a traveling operation and a cargo handling operation are performed by an operation by a passenger (operator).

フォークリフト10は、メインコントローラ20と、走行用モータM1を制御する走行制御装置23と、車速センサ24と、を備える。メインコントローラ20は、走行動作、及び、荷役動作に関する制御を行う。メインコントローラ20は、CPU(演算部)21と、種々の制御を行うためのプログラムなどが記憶されたメモリ22と、を備える。   The forklift 10 includes a main controller 20, a traveling control device 23 that controls the traveling motor M1, and a vehicle speed sensor 24. The main controller 20 performs control relating to the traveling operation and the cargo handling operation. The main controller 20 includes a CPU (arithmetic unit) 21 and a memory 22 in which programs for performing various controls are stored.

メインコントローラ20のCPU21は、フォークリフト10の車速が目標速度となるように走行制御装置23に走行用モータM1の回転数の指令を与える。メインコントローラ20は、走行制御装置23に走行用モータM1を回転させる方向の指令を与えることで、フォークリフト10を進行させる方向(前進又は後進)を制御する。   The CPU 21 of the main controller 20 gives the travel control device 23 a command for the rotational speed of the traveling motor M1 so that the vehicle speed of the forklift 10 becomes the target speed. The main controller 20 controls the traveling direction (forward or reverse) of the forklift 10 by giving the traveling control device 23 an instruction for rotating the traveling motor M1.

本実施形態の走行制御装置23は、モータドライバである。本実施形態の車速センサ24は、走行用モータM1の回転数を検出する回転数センサである。車速センサ24は、走行用モータM1の回転数を走行制御装置23に出力する。走行制御装置23は、メインコントローラ20からの指令に基づき、走行用モータM1の回転数が指令と一致するように走行用モータM1を制御する。走行制御装置23は、走行用モータM1の回転方向がメインコントローラ20からの指令と一致するように走行用モータM1を制御する。   The travel control device 23 of the present embodiment is a motor driver. The vehicle speed sensor 24 of the present embodiment is a rotation speed sensor that detects the rotation speed of the traveling motor M1. The vehicle speed sensor 24 outputs the rotation speed of the traveling motor M1 to the traveling control device 23. The traveling control device 23 controls the traveling motor M1 based on the command from the main controller 20 so that the rotational speed of the traveling motor M1 matches the command. The traveling control device 23 controls the traveling motor M1 such that the rotation direction of the traveling motor M1 matches the command from the main controller 20.

フォークリフト10には、壁検出装置30が搭載されている。壁検出装置30は、2つの撮像装置31,41を備える。2つの撮像装置31,41のうちの一方は、前方撮像装置31であり、他方は後方撮像装置41である。前方撮像装置31は、フォークリフト10の前方を撮像するステレオカメラである。後方撮像装置41は、フォークリフト10の後方を撮影するステレオカメラである。   A wall detection device 30 is mounted on the forklift 10. The wall detection device 30 includes two imaging devices 31 and 41. One of the two imaging devices 31 and 41 is the front imaging device 31, and the other is the rear imaging device 41. The front imaging device 31 is a stereo camera that images the front of the forklift 10. The rear imaging device 41 is a stereo camera that shoots the rear of the forklift 10.

各撮像装置31,41は、車体11の上部に配置されている。前方撮像装置31は、2つのカメラ32,33を備える。カメラ32,33としては、例えば、CCDイメージセンサや、CMOSイメージセンサが用いられる。各カメラ32,33は、互いの光軸が平行となるように配置されている。なお、各カメラ32,33の光軸は、水平であってもよいし、水平でなくてもよい。本実施形態において、2つのカメラ32,33は、鉛直方向に並んで配置されている。2つのカメラ32,33のうち、上方に位置するカメラ32を第1カメラ32とし、下方に位置するカメラ33を第2カメラ33とする。後方撮像装置41は、前方撮像装置31と同一構成であり、第1カメラ42と、第2カメラ43と、を備える。   Each of the imaging devices 31 and 41 is disposed in the upper part of the vehicle body 11. The front imaging device 31 includes two cameras 32 and 33. As the cameras 32 and 33, for example, a CCD image sensor or a CMOS image sensor is used. The cameras 32 and 33 are arranged such that their optical axes are parallel to each other. The optical axes of the cameras 32 and 33 may or may not be horizontal. In the present embodiment, the two cameras 32 and 33 are arranged side by side in the vertical direction. Of the two cameras 32 and 33, the camera 32 located at the upper side is the first camera 32, and the camera 33 located at the lower side is the second camera 33. The rear imaging device 41 has the same configuration as the front imaging device 31, and includes a first camera 42 and a second camera 43.

第1カメラ32,42によって撮像された画像を第1画像、第2カメラ33,43によって撮像された画像を第2画像とすると、第1画像と第2画像とでは、同一の対象物が縦方向(画像のY軸)にずれて写ることになる。   Assuming that the image captured by the first camera 32, 42 is a first image, and the image captured by the second camera 33, 43 is a second image, the same object is vertically oriented in the first image and the second image. The image is shifted in the direction (Y axis of the image).

図3に示すように、鉛直方向に立設する壁Wを前方撮像装置31で撮像したとする。この場合、各カメラ32,33によって撮像された画像には、壁Wの上端E1、及び、壁Wの下端E2が写る。なお、鉛直方向に立設する壁Wとは、鉛直方向に対して傾斜して立設したものも含む。即ち、上端E1及び下端E2を備える壁であればよい。   As shown in FIG. 3, it is assumed that the wall W erected in the vertical direction is imaged by the front imaging device 31. In this case, the upper end E1 of the wall W and the lower end E2 of the wall W appear in the image captured by each of the cameras 32 and 33. The wall W erected in the vertical direction also includes a wall erected in an inclined manner with respect to the vertical direction. That is, it may be a wall provided with the upper end E1 and the lower end E2.

図4(a)、及び、図4(b)に示すように、第1画像と、第2画像では、上端E1及び下端E2が縦方向(画像のY軸)にずれて写ることになる。なお、本実施形態において、各カメラ32,33,42,43によって撮像される画像の画素数は、同一である。画像としては、例えば、VGA(640×480ピクセル)が用いられる。   As shown in FIGS. 4A and 4B, in the first image and the second image, the upper end E1 and the lower end E2 are shifted in the vertical direction (Y-axis of the image). In the present embodiment, the number of pixels of the image captured by each of the cameras 32, 33, 42, 43 is the same. For example, VGA (640 × 480 pixels) is used as the image.

図2に示すように、壁検出装置30は、各撮像装置31,41によって撮像された画像から壁Wを検出する画像処理装置50を備える。画像処理装置50は、CPU、RAM、ROM等から構成されている。なお、画像処理装置50は、壁W以外にも障害物となり得る物体を検出しているが、説明の便宜上、壁Wを検出する場合についてのみ説明する。画像処理装置50は、撮像装置31,41によって撮像された画像から壁Wを含む障害物を検出する障害物検出装置ともいえる。   As shown in FIG. 2, the wall detection device 30 includes an image processing device 50 that detects the wall W from the image captured by each of the imaging devices 31 and 41. The image processing apparatus 50 is configured of a CPU, a RAM, a ROM, and the like. Although the image processing apparatus 50 detects an object that can be an obstacle other than the wall W, for convenience of description, only the case of detecting the wall W will be described. The image processing device 50 can also be said to be an obstacle detection device that detects an obstacle including the wall W from the images captured by the imaging devices 31 and 41.

以下、画像処理装置50の行う壁検出処理について壁検出装置30の作用とともに説明する。
図5に示すように、画像処理装置50は、撮像装置31,41によって撮像された画像から、視差を算出する(ステップS10)。視差は、撮像装置31,41のそれぞれについて第1画像と、第2画像とを比較し、各画像に写る同一の対象物について第1画像と第2画像の画像位置(ピクセル)の差を算出することで得られる。画像位置の差は、第1画像に写る対象物と、第2画像に写る対象物との画素(ピクセル)数の差[px]である。本実施形態において、視差は視差画像として得られる。視差画像とは、撮像装置31,41によって撮像された画像に写る対象物と、当該対象物の視差とを対応付けた画像である。視差画像には、画素毎に視差が対応付けられている。視差画像の画素数は、第1画像(第2画像)の画素数と同一である。なお、視差画像とは、必ずしも表示を要するものではなく、視差画像における各画素(視差画像におけるX座標及びY座標)に視差が対応付けられたデータのことを示す。本実施形態において、画像処理装置50は、視差算出手段として機能する。
Hereinafter, the wall detection process performed by the image processing device 50 will be described together with the operation of the wall detection device 30.
As shown in FIG. 5, the image processing device 50 calculates parallax from the image captured by the imaging devices 31 and 41 (step S <b> 10). Parallax compares the first image and the second image for each of the imaging devices 31 and 41, and calculates the difference between the image position (pixel) of the first image and the second image for the same object shown in each image It is obtained by doing. The difference between the image positions is the difference [px] in the number of pixels between the object shown in the first image and the object shown in the second image. In the present embodiment, the parallax is obtained as a parallax image. The parallax image is an image in which an object appearing in an image captured by the imaging devices 31 and 41 is associated with parallax of the object. In the parallax image, parallax is associated with each pixel. The number of pixels of the parallax image is the same as the number of pixels of the first image (second image). Note that the parallax image does not necessarily need to be displayed, but indicates data in which parallax is associated with each pixel in the parallax image (X coordinate and Y coordinate in parallax image). In the present embodiment, the image processing device 50 functions as a parallax calculation unit.

図4(a)、及び、図4(b)に示すように、各画像に写る同一の対象物の画素を比較すると、第1画像と第2画像で横ピクセルは同一となる一方で、縦ピクセルは異なる。即ち、視差は縦ピクセルの差となって現れることになる。第1画像と第2画像との視差を算出する際には、各画像を縦方向(Y軸)に走査していくことで、各画像における同一の対象物を抽出する。なお、対象物とは、各画像に含まれる特徴部分であり、例えば、物体のエッジなど、境目として認識可能な部分である。対象物は、輝度情報などから検出することができ、画像処理装置50は、対象物から視差を算出することができる。一方で、画像中で特徴のない部分(画素)については、視差を算出することができない。   As shown in FIGS. 4A and 4B, when pixels of the same object shown in each image are compared, the horizontal pixels in the first image and the second image become the same, while The pixels are different. That is, parallax appears as a difference between vertical pixels. When calculating the parallax between the first image and the second image, the same object in each image is extracted by scanning each image in the vertical direction (Y axis). The object is a characteristic portion included in each image, and is, for example, a portion that can be recognized as a boundary, such as an edge of an object. The object can be detected from luminance information or the like, and the image processing apparatus 50 can calculate parallax from the object. On the other hand, parallax can not be calculated for a portion (pixel) having no feature in the image.

図5に示すように、画像処理装置50は、視差からフォークリフト10の周囲に存在する対象物の位置を算出する(ステップS11)。まず、画像処理装置50は、各撮像装置31,41によって得られた視差画像からカメラ座標系における対象物の位置を算出する。カメラ座標系は、光軸をZ軸とし、光軸に直交する2つの軸のそれぞれをX軸、Y軸とする3軸直交座標系である。カメラ座標系における対象物の位置は、カメラ座標系におけるZ座標Zc、X座標Xc、Y座標Ycで表わすことができる。Z座標Zc、X座標Xc、及び、Y座標Ycは、それぞれ、以下の(1)式〜(3)式を用いて算出することができる。   As shown in FIG. 5, the image processing device 50 calculates the position of an object present around the forklift 10 from the parallax (step S <b> 11). First, the image processing device 50 calculates the position of the object in the camera coordinate system from the parallax images obtained by the imaging devices 31 and 41. The camera coordinate system is a three-axis orthogonal coordinate system in which an optical axis is taken as a Z axis, and each of two axes orthogonal to the optical axis is taken as an X axis and a Y axis. The position of the object in the camera coordinate system can be represented by Z coordinate Zc, X coordinate Xc, and Y coordinate Yc in the camera coordinate system. The Z coordinate Zc, the X coordinate Xc, and the Y coordinate Yc can be calculated using the following equations (1) to (3), respectively.

ここで、Bは各撮像装置31,41の眼間距離[m]、fは焦点距離[m]、dは視差[px]である。xpは視差画像中の任意のX座標(任意の画素の横ピクセル)、x’は視差画像中の中心X座標である。ypは視差画像中の任意のY座標(任意の画素の縦ピクセル)、y’は視差画像中の中心Y座標である。視差画像中の全ての対象物について、上記した(1)式〜(3)式の計算は行われる。 Here, B is the interocular distance [m] of each imaging device 31, 41, f is the focal distance [m], and d is the parallax [px]. xp is an arbitrary X coordinate (horizontal pixel of an arbitrary pixel) in the parallax image, and x 'is a central X coordinate in the parallax image. yp is an arbitrary Y coordinate (longitudinal pixel of any pixel) in the parallax image, and y ′ is a central Y coordinate in the parallax image. The calculations of the equations (1) to (3) described above are performed for all the objects in the parallax image.

ここで、フォークリフト10の進行方向に延びる軸を第1の軸としてのY軸、鉛直方向に延びる軸を第2の軸としてのZ軸、Y軸及びZ軸に直交する軸を第3の軸としてのX軸とする3軸直交座標系(ワールド座標系)での座標を実空間上での座標(ワールド座標)とする。実空間上での対象物の位置は、実空間上におけるX座標Xw、Y座標Yw、Z座標Zwで表わすことができる。   Here, an axis extending in the traveling direction of the forklift 10 is a Y axis as a first axis, and an axis extending in a vertical direction is a third axis which is orthogonal to the Z axis as a second axis, Y axis, and Z axis. Coordinates in a three-axis orthogonal coordinate system (world coordinate system), which is an X-axis as a coordinate in (world coordinate) in real space, are used as The position of the object in the real space can be represented by the X coordinate Xw, the Y coordinate Yw, and the Z coordinate Zw in the real space.

各カメラ32,33,42,43の光軸が水平(鉛直方向と直交)となるように撮像装置31,41が設置されている場合、Xc=Xw、Yc=Zw、Zc=Ywとなる。即ち、カメラ座標系における対象物の位置が実空間上での対象物の位置となる。   When the imaging devices 31 and 41 are installed such that the optical axes of the cameras 32, 33, 42, and 43 are horizontal (orthogonal to the vertical direction), Xc = Xw, Yc = Zw, and Zc = Yw. That is, the position of the object in the camera coordinate system is the position of the object in real space.

一方で、各カメラ32,33、42,43の光軸が水平(鉛直方向と直交)ではない場合、画像処理装置50は、以下の(4)式を用いて座標変換(ワールド座標変換)を行う。   On the other hand, when the optical axis of each camera 32, 33, 42, 43 is not horizontal (perpendicular to the vertical direction), the image processing apparatus 50 performs coordinate conversion (world coordinate conversion) using the following equation (4) Do.

ここで、Hはワールド座標系における撮像装置31,41の取り付け高さであり、θはカメラ32,33、42,43の光軸と、水平面とがなす角+90°の角度である。本実施形態において、画像処理装置50は、座標算出手段として機能する。 Here, H is the mounting height of the imaging devices 31 and 41 in the world coordinate system, and θ is an angle of + 90 ° between the optical axes of the cameras 32, 33, 42 and 43 and the horizontal plane. In the present embodiment, the image processing apparatus 50 functions as coordinate calculation means.

次に、画像処理装置50は、進行方向の判定を行う(ステップS12)。進行方向(前進、又は、後進)は、例えば、車速センサ24によって検出される走行用モータM1の回転方向から判定することができる。   Next, the image processing apparatus 50 determines the traveling direction (step S12). The traveling direction (forward or reverse) can be determined from, for example, the rotation direction of the traveling motor M1 detected by the vehicle speed sensor 24.

画像処理装置50は、ステップS11によって得られた対象物の位置から、壁特徴が現れているかを探索する壁特徴探索処理を行う(ステップS13)。
図8に示すように、壁特徴の探索は、ワールド座標系におけるXY平面を任意の広さに分割した複数のエリアAのうち、進行方向に存在する各エリアAについて行われる。進行方向が前であれば、フォークリフト10より前の各エリアAについて壁特徴の探索が行われ、進行方向が後であれば、フォークリフト10より後の各エリアAについて壁特徴の探索が行われる。
The image processing device 50 performs wall feature search processing for searching whether the wall feature appears from the position of the object obtained in step S11 (step S13).
As shown in FIG. 8, the search for the wall feature is performed for each area A present in the traveling direction among a plurality of areas A obtained by dividing the XY plane in the world coordinate system into an arbitrary size. If the traveling direction is before, search for wall features is performed for each area A before the forklift 10, and if the traveling direction is after, search for wall features is performed for each area A after the forklift 10.

壁特徴の探索は、ステップS11で得られた対象物の位置を、ワールド座標系にプロットすることで行われる。以下、ワールド座標系にプロットされた対象物の位置を特徴点Pとして説明を行う。特徴点Pとは、ワールド座標系において、視差(対象物の位置)を得られた座標といえる。   The search for the wall feature is performed by plotting the position of the object obtained in step S11 in the world coordinate system. Hereinafter, the position of the object plotted in the world coordinate system will be described as the feature point P. The feature point P can be said to be the coordinates at which the parallax (the position of the object) is obtained in the world coordinate system.

図6に示すように、画像処理装置50は、鉛直方向において予め定められた高さよりも高い位置にX軸上に並ぶ複数の特徴点Pである点群P1が存在するか否かを判定する(ステップS21)。即ち、探索を行うエリアAに、Z座標Zw及びY座標Ywが同様の値である特徴点Pが、X軸上に並んで複数存在するか否かを判定する。なお、ここでいう「同様の値」とは、若干のずれを許容するものである。   As shown in FIG. 6, the image processing apparatus 50 determines whether or not the point group P1, which is a plurality of feature points P aligned on the X-axis, exists at a position higher than a predetermined height in the vertical direction. (Step S21). That is, it is determined whether or not a plurality of feature points P having similar values of the Z coordinate Zw and the Y coordinate Yw exist in the area A to be searched along the X axis. In addition, with "the same value" said here, a slight shift | offset | difference is accept | permitted.

撮像装置31,41により壁Wが撮像される場合、壁Wの上端E1には、天井や空間などとの境目が存在するため、画像に写る上端E1から視差を得ることができる。上端E1は、水平方向に延びるため、上端E1を示す特徴点Pをプロットした場合、複数の特徴点PがX軸上に並び、点群P1となる。なお、「鉛直方向において予め定められた高さよりも高い位置」とは、壁の上端E1が存在すると想定される高さであり、例えば、フォークリフト10の高さ(最高点)よりも高い位置である。壁Wの上端E1が鉛直方向において予め定められた高さよりも高い位置にあるか否かは、点群P1を構成する特徴点PのZ座標Zwから判定することができる。   When the wall W is imaged by the imaging devices 31 and 41, the upper end E1 of the wall W has a boundary with a ceiling, a space, and the like, so that parallax can be obtained from the upper end E1 captured in the image. Since the upper end E1 extends in the horizontal direction, when the feature points P indicating the upper end E1 are plotted, a plurality of feature points P are arranged on the X-axis to form a point group P1. Note that “a position higher than a predetermined height in the vertical direction” is a height at which it is assumed that the upper end E1 of the wall exists, and for example, at a position higher than the height (highest point) of the forklift 10 is there. Whether or not the upper end E1 of the wall W is at a position higher than a predetermined height in the vertical direction can be determined from the Z coordinate Zw of the feature point P constituting the point group P1.

ステップS21の判定結果が否定の場合、画像処理装置50は、該当エリアAには壁Wが存在しないと判断する(ステップS24)。ステップS21の判定結果が肯定の場合、画像処理装置50は、ステップS22に移行する。   If the determination result in step S21 is negative, the image processing apparatus 50 determines that the wall W does not exist in the corresponding area A (step S24). If the determination result of step S21 is affirmative, the image processing apparatus 50 proceeds to step S22.

画像処理装置50は、鉛直方向において予め定められた高さよりも低い位置に点群P1とは異なる点群である下側点群P2が存在するか否かを判定する(ステップS22)。壁Wの上端E1と同様に、壁Wの下端E2についても床との境目が存在する。下端E2を示す特徴点Pをプロットした場合、複数の特徴点PがX軸上に並び、下側点群P2となる。なお、ステップS22における「鉛直方向において点群P1よりも低い位置」とは、点群P1よりも低い位置であり、例えば、フォークリフト10が走行している床面と同一高の位置である。   The image processing apparatus 50 determines whether the lower point group P2 which is a point group different from the point group P1 is present at a position lower than a predetermined height in the vertical direction (step S22). Similar to the upper end E1 of the wall W, the lower edge E2 of the wall W also has a boundary with the floor. When the feature points P indicating the lower end E2 are plotted, the plurality of feature points P are arranged on the X-axis to become the lower point group P2. The “position lower than the point group P1 in the vertical direction” in step S22 is a position lower than the point group P1, and is, for example, a position at the same height as the floor surface on which the forklift 10 is traveling.

ステップS22の判定結果が否定の場合、画像処理装置50は、該当エリアAには壁Wが存在しないと判断する(ステップS24)。ステップS22の判定結果が肯定の場合、画像処理装置50は、ステップS23に移行する。   If the determination result in step S22 is negative, the image processing apparatus 50 determines that the wall W does not exist in the corresponding area A (step S24). If the determination result in step S22 is affirmative, the image processing apparatus 50 proceeds to step S23.

画像処理装置50は、点群P1(下側点群P2)より奥に特徴点Pが存在するか否かを判定する(ステップS23)。点群P1より奥とは、フォークリフト10が前進している場合には点群P1よりも前方であり、フォークリフト10が後進している場合には点群P1よりも後方である。ステップS23の判定結果が否定の場合、画像処理装置50は、該当エリアAには壁Wが存在すると判断する(ステップS25)。ステップS23の判定結果が肯定の場合、画像処理装置50が、該当エリアAには壁Wが存在しないと判断する(ステップS24)。   The image processing apparatus 50 determines whether or not the feature point P exists in the back of the point group P1 (lower point group P2) (step S23). The point group P1 is more forward than the point group P1 when the forklift 10 is moving forward, and is more backward than the point group P1 when the forklift 10 is moving backward. If the determination result in step S23 is negative, the image processing apparatus 50 determines that the wall W is present in the corresponding area A (step S25). If the determination result in step S23 is affirmative, the image processing apparatus 50 determines that the wall W does not exist in the corresponding area A (step S24).

図9に示すように、進行方向に壁Wが存在しない場合であっても、色の異なる2つの通路F1,F2が繋がっている場合や2つの通路F1,F2の継目がある場合など、2つの通路F1,F2の境界から視差(対象物の位置情報)が算出される場合がある。この場合、2つの通路F1,F2同士の境界に壁Wが存在しないにも関わらず点群P1が検出されることになる。壁Wが存在しない場合には、通路F1,F2の境界よりも奥にある物体Oが画像に写り、この物体によって視差が得られる。したがって、図10に示すように、点群P1が存在する場合であっても、点群P1より奥に特徴点Pが存在する場合、壁Wが存在しないと判断できる。   As shown in FIG. 9, even when there is no wall W in the direction of travel, the case where two passages F1 and F2 of different colors are connected or there is a joint between two passages F1 and F2, etc. 2 Parallax (position information of an object) may be calculated from the boundary between two passages F1 and F2. In this case, the point group P1 is detected even though the wall W is not present at the boundary between the two paths F1 and F2. If the wall W does not exist, an object O behind the boundary between the passages F1 and F2 appears in the image, and parallax is obtained by this object. Therefore, as shown in FIG. 10, even if the point group P1 is present, it can be determined that the wall W does not exist if the feature point P is present behind the point group P1.

一方で、進行方向における壁Wよりも奥は、撮像することができないため、壁Wが撮像されている場合、点群P1よりも奥には特徴点Pが存在しない。点群P1より奥に特徴点Pが存在しない場合、点群P1は壁Wの上端E1であり、下側点群P2は壁Wの下端E2であると判断することができる。そして、画像処理装置50は、点群P1及び下側点群P2が存在するエリアには、点群P1と下側点群P2との間に壁Wが存在すると検出することができる。本実施形態において、画像処理装置50は、判定手段として機能する。   On the other hand, since the back can not be imaged behind the wall W in the traveling direction, when the wall W is imaged, the feature point P does not exist behind the point group P1. When there is no feature point P behind the point group P1, it can be determined that the point group P1 is the upper end E1 of the wall W and the lower point group P2 is the lower end E2 of the wall W. Then, the image processing apparatus 50 can detect that the wall W is present between the point group P1 and the lower point group P2 in the area where the point group P1 and the lower point group P2 exist. In the present embodiment, the image processing apparatus 50 functions as a determination unit.

図6に示すように、エリアAの探索を終えると、即ち、ステップS24又はステップS25の処理が行われると、画像処理装置50は、探索数のインクリメント(加算)を行い(ステップS26)、壁特徴探索処理を終了する。   As shown in FIG. 6, when the search of the area A is finished, that is, when the process of step S24 or step S25 is performed, the image processing apparatus 50 increments (adds) the number of searches (step S26). The feature search process ends.

図5に示すように、壁特徴探索処理が終了すると、画像処理装置50は、進行方向に存在するエリアAの数と、探索数とを比較し、進行方向に存在するエリアAの数が探索数よりも多いか否かを判定する(ステップS14)。即ち、進行方向に存在するエリアAの全てについて、壁特徴探索処理を行ったか否かの判定を行う。ステップS14の判定結果が肯定の場合、画像処理装置50は、壁特徴の探索が終了していないエリアAについて、壁特徴探索処理を行う。一方で、ステップS14の判定結果が否定の場合、画像処理装置50はステップS15に移行する。   As shown in FIG. 5, when the wall feature search process is completed, the image processing apparatus 50 compares the number of areas A present in the traveling direction with the number of searches, and the number of areas A present in the traveling direction is searched It is determined whether the number is larger than the number (step S14). That is, it is determined whether or not wall feature search processing has been performed for all of the areas A present in the traveling direction. If the determination result in step S14 is affirmative, the image processing apparatus 50 performs wall feature search processing on the area A in which the search for wall features has not ended. On the other hand, if the determination result of step S14 is negative, the image processing apparatus 50 proceeds to step S15.

画像処理装置50は、フォークリフト10の進行方向に壁Wが存在するか否かを判定する(ステップS15)。即ち、ステップS13における壁特徴探索処理において、壁Wが検出されたか否かを判定する。ステップS15の判定結果が否定の場合、画像処理装置50は、処理を終了する。一方で、ステップS15の判定結果が肯定の場合、画像処理装置50は、相対位置算出処理を行う(ステップS16)。   The image processing device 50 determines whether the wall W is present in the traveling direction of the forklift 10 (step S15). That is, in the wall feature searching process in step S13, it is determined whether the wall W is detected. If the determination result in step S15 is negative, the image processing apparatus 50 ends the process. On the other hand, when the determination result of step S15 is affirmative, the image processing device 50 performs relative position calculation processing (step S16).

図7に示すように、相対位置算出処理において、画像処理装置50は、フォークリフト10と、壁Wとの相対位置を算出する(ステップS31)。相対位置の算出は、点群P1、あるいは、下側点群P2を構成する特徴点PのY座標から算出することができる。画像処理装置50は、算出した相対位置をメインコントローラ20に出力する。   As shown in FIG. 7, in the relative position calculation process, the image processing device 50 calculates the relative position of the forklift 10 and the wall W (step S31). The relative position can be calculated from the Y coordinate of the feature point P constituting the point group P1 or the lower point group P2. The image processing device 50 outputs the calculated relative position to the main controller 20.

メインコントローラ20は、フォークリフト10と壁Wとの相対距離が所定値以下か否かを判定する(ステップS32)。所定値とは、例えば、フォークリフト10の最高速度や、制動性能などに基づき定められる値である。   The main controller 20 determines whether the relative distance between the forklift 10 and the wall W is equal to or less than a predetermined value (step S32). The predetermined value is, for example, a value determined based on the maximum speed of the forklift 10, braking performance, and the like.

ステップS32の判定結果が否定の場合、メインコントローラ20は処理を終了する。ステップS32の判定結果が肯定の場合、メインコントローラ20は減速処理を行う(ステップS33)。減速処理としては、フォークリフト10を停止させる処理、フォークリフト10の速度を現在速度から段階的に低下させる処理、フォークリフト10の速度に制限を課し、制限速度を上回る速度での走行を規制する処理など、様々な処理が挙げられる。   If the determination result in step S32 is negative, the main controller 20 ends the process. If the determination result in step S32 is affirmative, the main controller 20 performs a deceleration process (step S33). As the deceleration processing, processing to stop the forklift 10, processing to gradually reduce the speed of the forklift 10 from the current speed, processing to restrict the speed of the forklift 10, and control traveling at a speed exceeding the speed limit And various treatments.

したがって、上記実施形態によれば、以下の効果を得ることができる。
(1)点群P1が存在し、かつ、点群P1よりも奥に特徴点Pがない場合、画像処理装置50は、点群P1が壁Wの上端E1であると判定している。画像処理装置50は、点群P1から下方に向けて壁Wが存在していると検出できる。壁Wの上端E1は、壁Wに模様や凹凸などの特徴がない場合であっても存在する。このため、上端E1から得られた視差により壁Wを検出することで、壁Wに特徴がない場合であっても、壁Wを検出することができる。
Therefore, according to the said embodiment, the following effects can be acquired.
(1) When the point group P1 exists and there is no feature point P behind the point group P1, the image processing device 50 determines that the point group P1 is the upper end E1 of the wall W. The image processing apparatus 50 can detect that the wall W exists downward from the point cloud P1. The upper end E1 of the wall W is present even in the case where the wall W has no feature such as a pattern or unevenness. Therefore, by detecting the wall W based on the parallax obtained from the upper end E1, the wall W can be detected even when the wall W has no feature.

(2)点群P1の下方に下側点群P2が存在する場合、画像処理装置50は、下側点群P2が壁Wの下端E2であると判定している。画像処理装置50は、点群P1と下側点群P2との間に壁Wが存在していると検出できる。このため、壁Wの検出をより正確に行うことができる。   (2) When the lower point group P2 exists below the point group P1, the image processing apparatus 50 determines that the lower point group P2 is the lower end E2 of the wall W. The image processing device 50 can detect that the wall W exists between the point group P1 and the lower point group P2. Therefore, the wall W can be detected more accurately.

(3)仮に、カメラ32,33,42,43を左右方向に並ぶように配置した場合、第1画像と第2画像とは横方向(画像におけるX座標)にずれた画像となる。壁Wの上端E1は水平方向に延びているため、第1画像と第2画像とが横方向にずれた場合、第1画像に写る対象物と同一の対象物が第2画像のいずれの画素に対応するかを判定しにくい。これに対して、カメラ32,33,42,43を鉛直方向にずらして配置することで、各カメラ32,33によって撮像される画像は縦方向にずれた画像となる。すると、視差は、各画像における縦ピクセルの差(画像におけるY座標の差)となって現れる。結果として、各画像から同一の対象物を抽出しやすくなり、視差が算出されやすくなる。したがって、画像処理装置50は、壁Wの検出を行いやすくなる。   (3) If the cameras 32, 33, 42, 43 are arranged in the lateral direction, the first image and the second image become images shifted in the lateral direction (X coordinate in the image). Since the upper end E1 of the wall W extends in the horizontal direction, when the first image and the second image shift in the lateral direction, the same object as the object shown in the first image is any pixel of the second image It is difficult to determine if it corresponds to On the other hand, by arranging the cameras 32, 33, 42, 43 in the vertical direction, the images captured by the cameras 32, 33 become images shifted in the vertical direction. Then, the parallax appears as a difference between vertical pixels in each image (difference in Y coordinate in the image). As a result, it becomes easy to extract the same object from each image, and it becomes easy to calculate the parallax. Therefore, the image processing apparatus 50 can easily detect the wall W.

なお、実施形態は以下のように変更してもよい。
○図8に破線で示すように、画像処理装置50は、ワールド座標系においてZ軸上に並んだ複数の特徴点Pである縦点群P3が存在する場合、当該縦点群P3が壁Wにおける左右方向の端部であると判定してもよい。この場合、画像処理装置50は、上端E1、下端E2、左右方向の端部に囲まれる部分に壁Wが存在すると検出する。また、画像処理装置50は、左右方向の端部を2つ検出した場合、2つの端部の間の部分に壁Wが存在すると検出してもよい。
The embodiment may be modified as follows.
○ As indicated by a broken line in FIG. 8, when there is a vertical point group P3 that is a plurality of feature points P arranged on the Z axis in the world coordinate system, the image processing device 50 determines that the vertical point group P3 is a wall W It may be determined that it is the end in the left-right direction in. In this case, the image processing apparatus 50 detects that the wall W is present in a portion surrounded by the upper end E1, the lower end E2, and the end in the left-right direction. The image processing apparatus 50 may also detect that the wall W is present in a portion between the two ends, when the two ends in the left-right direction are detected.

○画像処理装置50は、壁Wを検出する処理が行えればよく、相対位置の算出などを行わなくてもよい。例えば、画像処理装置50は、ステップS15までの処理を行い、壁Wが検出されたか否かの検出結果をメインコントローラ20に出力してもよい。この場合、メインコントローラ20は、壁Wが存在することを表示部に表示したり、ブザー音を鳴らすことで報知を行ってもよい。即ち、壁Wが検出された場合に行われる処理は、任意に変更してもよい。   The image processing device 50 may perform the process of detecting the wall W, and may not calculate the relative position. For example, the image processing apparatus 50 may perform the processing up to step S15 and output the detection result as to whether or not the wall W is detected to the main controller 20. In this case, the main controller 20 may notify the display unit that the wall W is present or sound a buzzer. That is, the process performed when the wall W is detected may be arbitrarily changed.

○撮像装置31,41を構成するカメラ32,33,42,43は、水平方向(左右方向)に並んで設けられていてもよい。この場合、鉛直方向に延びるエッジから視差を算出しやすい。   The cameras 32, 33, 42 and 43 constituting the imaging devices 31 and 41 may be provided side by side in the horizontal direction (left and right direction). In this case, the parallax can be easily calculated from the edge extending in the vertical direction.

○画像処理装置50は、鉛直方向において予め定められた高さよりも高い位置に点群P1が存在し、かつ、点群P1よりも奥に特徴点Pが存在しない場合に点群P1から下方に向けて壁Wが存在していると判断してもよい。即ち、壁Wの下端E2が存在するか否かの判定であるステップS22を省略してもよい。   ○ In the image processing apparatus 50, when the point group P1 exists at a position higher than a predetermined height in the vertical direction and the feature point P does not exist behind the point group P1, downward from the point group P1 It may be determined that the wall W is present. That is, step S22 which is a judgment of whether lower end E2 of wall W exists may be omitted.

○画像処理装置50は、点群P1と下側点群P2との間に特徴点Pが存在する場合、点群P1の存在するエリアAに壁Wが存在すると判断してもよい。この場合、壁Wは模様や凹凸などの特徴がある壁である。   The image processing apparatus 50 may determine that the wall W exists in the area A where the point group P1 exists, when the feature point P exists between the point group P1 and the lower point group P2. In this case, the wall W is a wall having a feature such as a pattern or unevenness.

○撮像装置31,41として、3つ以上のカメラを備えるものを用いてもよい。
○移動体としては、建設機械、自動搬送車、トラックなどの車両や、二足歩行式のロボットであってもよい。なお、移動体としては、屋内を移動するものであることが好ましい。
As the imaging devices 31 and 41, one having three or more cameras may be used.
The mobile object may be a construction machine, an automatic carrier, a vehicle such as a truck, or a biped robot. In addition, it is preferable that it is what moves indoors as a moving body.

○前方撮像装置31と、後方撮像装置41とは同一構成でなくてもよい。
○フォークリフト10の進行方向の判定は、車速センサ24の検出結果以外に基づいて行われてもよい。例えば、フォークリフト10の進行方向がディレクションレバーによって変更される場合、ディレクションレバーの操作位置を検出するディレクションセンサの検出結果に基づいて行われてもよい。また、メインコントローラ20から走行用モータM1の回転方向を取得してもよい。
The front imaging device 31 and the rear imaging device 41 may not have the same configuration.
The determination of the traveling direction of the forklift 10 may be performed based on a result other than the detection result of the vehicle speed sensor 24. For example, when the traveling direction of the forklift 10 is changed by the direction lever, it may be performed based on the detection result of the direction sensor which detects the operation position of the direction lever. Further, the rotation direction of the traveling motor M1 may be acquired from the main controller 20.

○撮像装置31,41によって撮像された画像の画像処理を行う装置として、画像処理装置50を設けたが、画像処理をメインコントローラ20などに行わせてもよい。即ち、走行動作や荷役動作に関する制御を行いメインコントローラ20の1つの機能として画像処理が行われるようにしてもよい。   The image processing apparatus 50 is provided as an apparatus for performing image processing of an image captured by the imaging devices 31 and 41. However, the image processing may be performed by the main controller 20 or the like. That is, image processing may be performed as one function of the main controller 20 by performing control related to the traveling operation and the cargo handling operation.

○画像処理装置50が視差算出手段、座標算出手段、及び、判定手段として機能するようにしたが、それぞれの手段として機能する個別の装置を設けてもよい。
○各実施形態において、走行駆動装置として、エンジンが用いられてもよい。すなわち、フォークリフト10は、エンジンの駆動によって走行してもよい。この場合、走行制御装置は、エンジンへの燃料噴射量などを制御する装置となる。
The image processing apparatus 50 functions as a parallax calculation unit, a coordinate calculation unit, and a determination unit. However, individual devices functioning as the respective units may be provided.
In each embodiment, an engine may be used as a traveling drive device. That is, the forklift 10 may travel by driving the engine. In this case, the travel control device is a device that controls the amount of fuel injection to the engine and the like.

○前進のみしか行えない移動体の場合、後方撮像装置41を設けなくてもよい。
○搭乗者が搭乗可能な移動体に壁検出装置30が搭載される場合、搭乗者による視認が行われにくい後方の壁Wのみを検出してもよい。この場合、前方撮像装置31を設けなくてもよい。
In the case of a moving object that can perform only forward movement, the rear imaging device 41 may not be provided.
In the case where the wall detection device 30 is mounted on a movable body that can be carried by a passenger, only the rear wall W in which visual recognition by the passenger is not easily performed may be detected. In this case, the front imaging device 31 may not be provided.

○前方撮像装置31は、フォークリフト10の前方を撮像できれば、どのような位置に配置されていてもよい。後方撮像装置41は、フォークリフト10の後方を撮像できれば、どのような位置に配置されていてもよい。例えば、前方撮像装置31は、荷役装置12に配置されていてもよいし、後方撮像装置41は、車体11の後方に設けられるカウンタウェイトに配置されていてもよい。   The front imaging device 31 may be disposed at any position as long as the front of the forklift 10 can be imaged. The rear imaging device 41 may be disposed at any position as long as the rear of the forklift 10 can be imaged. For example, the front imaging device 31 may be disposed in the cargo handling device 12, and the rear imaging device 41 may be disposed in a counterweight provided behind the vehicle body 11.

○座標変換は、(4)式に代えて、テーブルデータによって行われてもよい。テーブルデータは、Y座標YcとZ座標Zcの組み合わせにY座標Ywを対応させたテーブルデータと、Y座標YcとZ座標Zcとの組み合わせにZ座標Zwを対応させたテーブルデータである。これらのテーブルデータを画像処理装置50のROMなどに記憶しておくことで、カメラ座標系におけるY座標YcとZ座標Zcから、ワールド座標系におけるY座標Yw及びZ座標Zwを求めることができる。なお、実施形態では、カメラ座標系におけるX座標Xcと、ワールド座標系におけるX座標Xwとは一致するため、X座標Xwを求めるためのテーブルデータは記憶されない。   ○ Coordinate conversion may be performed by table data instead of equation (4). The table data is table data in which Y coordinate Yw corresponds to a combination of Y coordinate Yc and Z coordinate Zc, and Z data Zw corresponds to a combination of Y coordinate Yc and Z coordinate Zc. By storing these table data in the ROM of the image processing apparatus 50, the Y coordinate Yw and the Z coordinate Zw in the world coordinate system can be obtained from the Y coordinate Yc and the Z coordinate Zc in the camera coordinate system. In the embodiment, since the X coordinate Xc in the camera coordinate system matches the X coordinate Xw in the world coordinate system, the table data for obtaining the X coordinate Xw is not stored.

P…特徴点、P1…点群、P2…下側点群、P3…縦点群、10…フォークリフト(移動体)、30…壁検出装置、31,41…撮像装置(ステレオカメラ)、32,33,42,43…カメラ、50…画像処理装置(視差算出手段、座標算出手段、及び、判定手段)。   P: characteristic point, P1: point group, P2: lower point group, P3: vertical point group, 10: forklift (moving object), 30: wall detection device, 31, 41: imaging device (stereo camera), 32, 33, 42, 43 ... camera, 50 ... image processing apparatus (parallax calculation means, coordinate calculation means, determination means).

Claims (4)

移動体に搭載され、鉛直方向に立設する壁を検出する壁検出装置であって、
前記移動体の周辺を撮像するステレオカメラと、
前記ステレオカメラによって撮像された画像から視差を算出する視差算出手段と、
前記移動体の進行方向に延びる軸を第1の軸、鉛直方向に延びる軸を第2の軸、前記第1の軸及び前記第2の軸に直交する軸を第3の軸とする3軸直交座標系において、前記視差が得られた特徴点についての実空間上での座標を算出する座標算出手段と、
前記第3の軸上に並んだ複数の前記特徴点である点群が、鉛直方向において予め定められた高さよりも高い位置に存在し、かつ、前記点群よりも前記移動体の進行方向における奥に前記特徴点が存在しない場合、前記点群が前記壁の上端であると判定する判定手段と、を備える壁検出装置。
A wall detection device mounted on a mobile body and detecting a wall standing upright in the vertical direction,
A stereo camera for imaging the periphery of the moving body;
Disparity calculating means for calculating disparity from an image captured by the stereo camera;
An axis extending in the direction of movement of the movable body is a first axis, an axis extending in the vertical direction is a second axis, and an axis orthogonal to the first axis and the second axis is a third axis Coordinate calculation means for calculating coordinates in real space about a feature point for which the parallax has been obtained in an orthogonal coordinate system;
A plurality of point groups which are the plurality of feature points arranged on the third axis are present at positions higher than a predetermined height in the vertical direction, and in the traveling direction of the moving body than the point groups And a determination unit that determines that the point cloud is the upper end of the wall when the feature point does not exist at the back.
前記判定手段は、前記第3の軸上に並んだ複数の前記特徴点である下側点群が前記点群の下方に存在する場合、前記下側点群が前記壁の下端であると判定する請求項1に記載の壁検出装置。   The determination means determines that the lower point group is the lower end of the wall, when lower point groups which are the plurality of feature points arranged on the third axis exist below the point group. The wall detection device according to claim 1. 前記ステレオカメラを構成する複数のカメラは、鉛直方向に並んで配置されている請求項1又は請求項2に記載の壁検出装置。   The wall detection device according to claim 1, wherein the plurality of cameras constituting the stereo camera are arranged in line in the vertical direction. 前記判定手段は、前記第2の軸上に並んだ複数の前記特徴点である横点群が存在する場合、前記横点群が前記壁における左右方向の端部であると判定する請求項1〜請求項3のうちいずれか一項に記載の壁検出装置。   The judging means judges that the horizontal point group is a lateral end of the wall, when the horizontal point group which is the plurality of feature points arranged on the second axis is present. A wall detection device according to any one of the preceding claims.
JP2017220193A 2017-11-15 2017-11-15 Wall detector Pending JP2019090711A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017220193A JP2019090711A (en) 2017-11-15 2017-11-15 Wall detector

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017220193A JP2019090711A (en) 2017-11-15 2017-11-15 Wall detector

Publications (1)

Publication Number Publication Date
JP2019090711A true JP2019090711A (en) 2019-06-13

Family

ID=66836191

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017220193A Pending JP2019090711A (en) 2017-11-15 2017-11-15 Wall detector

Country Status (1)

Country Link
JP (1) JP2019090711A (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04127384A (en) * 1990-09-19 1992-04-28 Agency Of Ind Science & Technol Three-dimensional image processing method
JPH04253286A (en) * 1991-01-29 1992-09-09 Nissan Motor Co Ltd Method and device for estimating road surface parameter
JP2000267729A (en) * 1999-03-16 2000-09-29 Honda Motor Co Ltd Obstacle detecting device of vehicle
JP2005218578A (en) * 2004-02-04 2005-08-18 Funai Electric Co Ltd Self-propelled vacuum cleaner
WO2016162305A1 (en) * 2015-04-07 2016-10-13 Vorwerk & Co. Interholding Gmbh Method for processing a floor

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04127384A (en) * 1990-09-19 1992-04-28 Agency Of Ind Science & Technol Three-dimensional image processing method
JPH04253286A (en) * 1991-01-29 1992-09-09 Nissan Motor Co Ltd Method and device for estimating road surface parameter
JP2000267729A (en) * 1999-03-16 2000-09-29 Honda Motor Co Ltd Obstacle detecting device of vehicle
JP2005218578A (en) * 2004-02-04 2005-08-18 Funai Electric Co Ltd Self-propelled vacuum cleaner
WO2016162305A1 (en) * 2015-04-07 2016-10-13 Vorwerk & Co. Interholding Gmbh Method for processing a floor

Similar Documents

Publication Publication Date Title
US9300954B2 (en) Surrounding information-obtaining device for working vehicle
JP5633376B2 (en) Parking assistance system
WO2010100791A1 (en) Parking assist apparatus
US20200311964A1 (en) Object detection device and object detection method
JP6642906B2 (en) Parking position detection system and automatic parking system using the same
EP3633619B1 (en) Position detection apparatus and position detection method
JP6778620B2 (en) Road marking device, road marking system, and road marking method
JP2014089548A (en) Road surface level difference detection method, road surface level difference detection device and vehicle equipped with the road surface level difference detection device
JPWO2019163378A5 (en)
KR20170015106A (en) Automatic driving vehicle
JP2020068515A (en) Image processing apparatus
JP6044084B2 (en) Moving object position and orientation estimation apparatus and method
JP6844508B2 (en) Safety device
JP2009139325A (en) Travel road surface detecting apparatus for vehicle
JP6548312B2 (en) Image processing device
WO2017188158A1 (en) Device for detecting road surface state
JP7009945B2 (en) Image processing equipment and vehicles
JP7300646B2 (en) Conveyor
JP2021093124A (en) Industrial vehicle
JP6690904B2 (en) Self-driving vehicle
JP5692767B1 (en) Autonomous vehicle
JP2004104478A (en) Device and method for assisting parking
JP2019090711A (en) Wall detector
JP2018178878A (en) Industrial vehicle
JP6114572B2 (en) Object area estimation method, object area estimation apparatus, object detection apparatus including the object area, and vehicle.

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200206

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210303

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210921

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211119

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220419