JP2023145104A - Work machine - Google Patents
Work machine Download PDFInfo
- Publication number
- JP2023145104A JP2023145104A JP2022052393A JP2022052393A JP2023145104A JP 2023145104 A JP2023145104 A JP 2023145104A JP 2022052393 A JP2022052393 A JP 2022052393A JP 2022052393 A JP2022052393 A JP 2022052393A JP 2023145104 A JP2023145104 A JP 2023145104A
- Authority
- JP
- Japan
- Prior art keywords
- point group
- human
- camera
- controller
- missing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000005259 measurement Methods 0.000 claims description 32
- 238000000034 method Methods 0.000 abstract description 141
- 230000000007 visual effect Effects 0.000 abstract 3
- 238000012545 processing Methods 0.000 description 32
- 238000001514 detection method Methods 0.000 description 28
- 238000010586 diagram Methods 0.000 description 22
- 230000007547 defect Effects 0.000 description 16
- 230000006870 function Effects 0.000 description 16
- 238000005452 bending Methods 0.000 description 11
- 241000282412 Homo Species 0.000 description 8
- 239000003921 oil Substances 0.000 description 8
- 239000000284 extract Substances 0.000 description 5
- 230000002950 deficient Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000012937 correction Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000000126 substance Substances 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 239000010720 hydraulic oil Substances 0.000 description 1
- 238000002347 injection Methods 0.000 description 1
- 239000007924 injection Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Abstract
Description
本発明は、油圧ショベル等の作業機械に関する。 The present invention relates to working machines such as hydraulic excavators.
LiDAR等の距離計(物体検出センサ)又はカメラによって周囲の人間や物体を検知して車体制御や通知等を実行し、これによりオペレータの運転支援を行う作業機械(油圧ショベル等)が知られている。 Work machines (hydraulic excavators, etc.) are known that use distance meters (object detection sensors) such as LiDAR or cameras to detect people and objects in the surroundings, perform vehicle control and notifications, and thereby support the operator's driving. There is.
距離計では人間と物を識別することができず人間でも壁や木等でも同じ立体物(物体)として検知されるため、人間を検知した場合に運転支援の機能を働かせたいにも関わらず、運転支援の機能を働かせたくない対象の物体(人間以外)を検知した場合に必要以上に運転支援の機能が働いて煩わしい場合がある。他方、カメラは人間以外の物体と人間とを識別することができるが、一般に精度が不十分であり、全身が映っていない人間や背景色に近い服装の人間は検知されない場合もある。画像処理の識別用パラメータを調整して人間の検知精度を上げることは可能だが、この場合は地面の模様や陰等を誤検知し易くなる。 Distance meters cannot distinguish between humans and objects, and both humans and walls and trees are detected as the same three-dimensional object (object). When an object (other than a human being) is detected for which the driving support function should not be activated, the driving support function may be activated more than necessary, which may be troublesome. On the other hand, cameras can distinguish between humans and non-human objects, but the accuracy is generally insufficient, and people whose entire bodies are not visible or whose clothes match the background color may not be detected. It is possible to increase the accuracy of human detection by adjusting the identification parameters of image processing, but in this case, it is easy to falsely detect patterns on the ground, shadows, etc.
例えば、カメラ視野の端の領域を距離計でも監視し、距離計で物体が検出された領域のカメラ画像を処理することで、カメラ視野に全身が収まらない人間を検出する技術が知られている(特許文献1)。また、距離画像センサの距離情報をカメラの撮影画像に投影し、カメラで撮影された物体の位置を推定する技術が知られている(特許文献2)。 For example, there is a known technology that detects people whose whole body cannot fit within the camera's field of view by monitoring the area at the edge of the camera's field of view with a rangefinder and processing the camera image of the area where the object is detected by the rangefinder. (Patent Document 1). Furthermore, a technique is known in which distance information from a distance image sensor is projected onto an image captured by a camera to estimate the position of an object captured by the camera (Patent Document 2).
しかしながら、特許文献1の技術では、カメラ視野の端で距離計により部分的に検出された物体からは、その物体の全体の大きさは見当がつかないため、物体の検出領域に対して必要以上に広い領域を画像処理する必要がある。必要以上に広い領域を画像処理すると、検出された物体以外にも地面の模様等の様々なものが画像処理領域に映り込み、距離計で検出された壁や木等が人間として誤認され易くなる。
However, with the technology of
特許文献2に示された画角の広い距離画像センサは高額となるため、処理負荷や装置コストを低減すべく画角を抑えた距離画像センサを用いると、距離画像センサで人間の全身を映せない場合がある。距離画像センサで全身を映せないと、カメラの画像上における物体の存在範囲を正確に推定することができない。
The distance image sensor with a wide angle of view shown in
本発明の目的は、距離計で体の一部が検出された人間を、精度良く人間として識別することができる作業機械を提供することにある。 An object of the present invention is to provide a work machine that can accurately identify a person whose body part is detected by a rangefinder as a person.
上記目的を達成するために、本発明は、車体と、前記車体の周囲を撮影するカメラと、前記カメラのカメラ視野に測距視野が重なるように配置され、前記測距視野内の物体を測距して前記物体の表面の点群の座標データを取得する距離計と、前記距離計により測距された物体表面の点群である物体点群を前記カメラの撮影画像上で囲うフレームを演算し、前記撮影画像における前記フレームの対応領域を処理して前記物体が人間であるか否かを判定するコントローラとを備えた作業機械において、前記コントローラは、前記物体点群の分布に基づき、前記物体の上端及び下端が測距されているかを判定し、前記上端又は下端が測距されていない場合、予め設定した人間の姿勢とサイズに基づき、前記物体の上端又は下端の測距されない欠損点群を推定し、測距された前記物体点群と推定された前記欠損点群とを囲うように前記フレームを補正する作業機械を提供する。 In order to achieve the above object, the present invention includes a vehicle body, a camera that photographs the surroundings of the vehicle body, and a camera that is arranged so that a distance measurement field of view overlaps the camera field of view of the camera, and that measures an object within the distance measurement field of view. a rangefinder that obtains coordinate data of a point group on the surface of the object by distance measurement, and a frame that encloses the object point group, which is the point group of the object surface measured by the rangefinder, on the captured image of the camera. and a controller that processes a corresponding region of the frame in the photographed image to determine whether or not the object is a human, wherein the controller processes the object point group based on the distribution of the object point group. Determine whether the top and bottom ends of the object are measured, and if the top or bottom ends are not measured, determine the missing points on the top or bottom of the object that are not measured based on the preset human posture and size. A working machine is provided that corrects the frame so as to surround the measured object point group and the estimated missing point group.
本発明によれば、距離計で体の一部が検出された人間を、精度良く人間として識別することができる。 According to the present invention, a person whose body part is detected by a rangefinder can be identified as a person with high accuracy.
以下に図面を用いて本発明の実施の形態を説明する。本発明は油圧ショベルに限らずダンプトラックやホイールローダ、クレーン等の他種の作業機械にも適用可能であるが、以下においては油圧ショベルに本発明を適用した場合を例に挙げて説明する。 Embodiments of the present invention will be described below using the drawings. Although the present invention is applicable not only to hydraulic excavators but also to other types of working machines such as dump trucks, wheel loaders, and cranes, the following description will be given using an example in which the present invention is applied to a hydraulic excavator.
(第1実施形態)
-作業機械-
図1は本発明の第1実施形態に係る作業機械の一例である油圧ショベルの側面図である。本実施形態では、図1中の右左を油圧ショベルの前後とする。同図に示した油圧ショベルは、車体1と、車体1に取り付けたフロント作業機2とを備えている。車体1は、走行体3と、走行体3上に設けた旋回体4とを含んで構成されている。
(First embodiment)
-Working machines-
FIG. 1 is a side view of a hydraulic excavator which is an example of a working machine according to a first embodiment of the present invention. In this embodiment, the right and left sides in FIG. 1 are the front and rear of the hydraulic excavator. The hydraulic excavator shown in the figure includes a
走行体3は、油圧ショベルの基部構造体であり、左右の履帯5により走行するクローラ式の走行体であるが、ホイール式の走行体が用いられる場合もある。走行体3は、左右の走行モータ18,19(図2)により左右の履帯5をそれぞれ駆動して走行する。
The
旋回体4は、旋回輪6を介して走行体3の上部に設けられ、左側前部にオペレータが搭乗する運転室7を備えている。運転室7には、オペレータが座る運転席や、各種アクチュエータを操作する操作レバー等の操作装置、各種データを表示するモニタ10(図3)等が配置されている。旋回体4のベースフレームである旋回フレームには、旋回モータ17(図2)が取り付けられている。旋回モータは、油圧モータであるが、電動モータを用いる場合、油圧モータ及び電動モータの双方を用いる場合もある。旋回体4における運転室7の後側には動力室8、最後部にはカウンタウェイト9が設けられている。
The revolving body 4 is provided on the upper part of the
フロント作業機2は、旋回体4の前部(本実施形態では運転室7の右側)に連結されている。フロント作業機2は、ブーム11、アーム12、及びアタッチメント13(本実施形態ではバケット)を備えた多関節型の作業装置である。ブーム11は、旋回フレームに上下に回動可能に直接連結されると共に、ブームシリンダ14を介して旋回体フレームと連結されている。アーム12は、ブーム11の先端に回動可能に直接連結されると共に、アームシリンダ15を介してブーム11に連結されている。アタッチメント13は、アーム12の先端に回動可能に直接連結されると共に、アタッチメントシリンダ16を介してアーム12に連結されている。ブームシリンダ14、アームシリンダ15及びアタッチメントシリンダ16は、油圧シリンダである。
The
カウンタウェイト9の上部には、車体1の周囲(例えば旋回体4の後方)を撮影するカメラC、距離画像を取得する距離計(物体検出センサ)S2が搭載されている。 Mounted on the upper part of the counterweight 9 are a camera C that photographs the surroundings of the vehicle body 1 (for example, behind the rotating body 4), and a rangefinder (object detection sensor) S2 that acquires a distance image.
カメラCは、広角レンズとの画像センサ(CCD、CMOS等)とを有するカメラであり、旋回体4の後方を撮影するカメラに加え、旋回体4の左方を撮影するカメラや、旋回体4の右方を撮影するカメラが備えられる場合もある。カメラCは、車体1の側部又はすぐ近くがカメラ視野V1(図4A)に入るように、光軸を斜め下に向けて配置されている。
The camera C is a camera that has a wide-angle lens and an image sensor (CCD, CMOS, etc.). In some cases, a camera is installed to take pictures of the right side of the vehicle. The camera C is arranged with its optical axis directed diagonally downward so that the side of the
距離計Rは、ステレオカメラを用いることもできるが、本実施形態ではLiDAR(Light Detection and Ranging)であるとする。LiDARは、複数の測距点からなる距離画像(点群の座標データ)を取得する距離計である。距離計Rは、カメラCとの視差が小さくなるようにカメラCに接近して配置されている。距離計Rの測距視野V2(図4A)は縦横ともにカメラ視野V1より小さく(又は以下であり)、カメラ視野V1の内部に測距視野V2の全部が含まれ、測距視野V2の全部がカメラ視野V1に重なっている。距離計Rは、の測距視野V2において、左右方向(ヨー方向)及び上下方向(ピッチ方向)に光軸角度のずれた多数のレーザ光を照射し、各測距点で反射したレーザ光を受光するまでの時間から、各測距点までの距離を測定する。この構成により、距離計Rは、カメラ視野V1内の設定された自己の測距視野V2内に存在する物体(立体物)を測距し、その物体の表面の点群(複数のレーザ照射点)の座標データ(点群データ)を取得する。距離計Rで取得される座標データは、例えば距離計Rの位置を基準とするローカル座標系の値である。 Although a stereo camera can be used as the range finder R, in this embodiment, it is assumed that it is LiDAR (Light Detection and Ranging). LiDAR is a distance meter that acquires a distance image (coordinate data of a point group) consisting of a plurality of distance measurement points. The rangefinder R is placed close to the camera C so that the parallax with the camera C is small. The rangefinding field of view V2 (FIG. 4A) of the rangefinder R is smaller than (or smaller than) the camera field of view V1 both vertically and horizontally, and the entire rangefinding field of view V2 is included within the camera field of view V1. It overlaps with camera field of view V1. The rangefinder R irradiates a large number of laser beams with optical axis angles shifted in the horizontal direction (yaw direction) and vertical direction (pitch direction) in the distance measurement field of view V2, and calculates the laser beams reflected at each distance measurement point. Measure the distance to each distance measurement point from the time it takes to receive light. With this configuration, the rangefinder R measures the distance to an object (three-dimensional object) existing within the self-range measurement field of view V2 set within the camera field of view V1, and measures a group of points (a plurality of laser irradiation points) on the surface of the object. ) to obtain coordinate data (point cloud data). The coordinate data acquired by the range finder R is, for example, a value in a local coordinate system based on the position of the range finder R.
図1の油圧ショベルにおいては、ブームシリンダ14、アームシリンダ15、アタッチメントシリンダ16、旋回モータ17(図2)、及び走行モータ18,19(図2)に対し、油圧ポンプ22(図2)から吐出された圧油が操作に応じて供給される。圧油によりブームシリンダ14、アームシリンダ15及びアタッチメントシリンダ16が駆動されると、それぞれブーム11、アーム12及びアタッチメント13が回動し、アタッチメント13の位置と姿勢が変化する。旋回モータ17が駆動されると、旋回体4が旋回する。走行モータ18,19が駆動されると、走行体3が走行する。
In the hydraulic excavator shown in FIG. 1, a hydraulic pump 22 (Fig. 2) supplies water to the
-油圧システム-
図2は図1の油圧ショベルに搭載された油圧システムの要部を抜き出して表した回路図である。図2に示した油圧システムは、エンジン21、油圧ポンプ22、方向切換弁24-29、コントローラ40等を含んで構成されている。
-Hydraulic system-
FIG. 2 is a circuit diagram showing the main parts of the hydraulic system installed in the hydraulic excavator of FIG. 1. The hydraulic system shown in FIG. 2 includes an
油圧ポンプ22は、ブームシリンダ14等の油圧アクチュエータを駆動する圧油を吐出する可変容量ポンプである。油圧ポンプ22には、固定容量ポンプを用いることもできる。この油圧ポンプ22は、エンジン21により駆動されてタンク23から作動油を吸入して圧油を吐出する。
The
エンジン21には、燃料噴射量を調整するガバナ21aと、エンジン21の回転数を検出する回転数センサ21bとが備わっている。エンジン回転数は、コントローラ40がエンジン回転数を基にガバナ21aを制御することによって制御される。また、油圧ポンプ22から吐出される圧油の圧力は、リリーフ弁22aにより最大値が規定されている。
The
方向切換弁24は、油圧ポンプ22からブームシリンダ14に供給される圧油の流れ(方向及び流量)を制御する比例式の三位置切換弁である。同様に、方向切換弁25-29は、油圧ポンプ22からアームシリンダ15、アタッチメントシリンダ16、旋回モータ17、走行モータ18,19にそれぞれ供給される圧油の流れ(方向及び流量)を制御する比例式の三位置切換弁である。これら方向切換弁24-29は、対応して設けられた電磁弁がコントローラ40からの指令信号により駆動されることで動作し、油圧ポンプ22の吐出油を制御して対応する油圧アクチュエータを駆動する。
The
-コントローラ-
図3はコントローラ40の人間検知機能を表す機能ブロック図である。コントローラ40は、人間検知機能に必要な演算や制御の処理を周期的に実行するCPU等の処理装置と、人間検知機能に必要なプログラムやパラメータを記憶するメモリ(記憶装置)とを有する車載コンピュータである。
-controller-
FIG. 3 is a functional block diagram showing the human detection function of the
人間検知機能とは、距離計Rにより測距した物体表面の点群(物体点群)をカメラの撮影画像上で囲うフレームF1(図10)を演算し、カメラCの撮影画像におけるフレームF1の対応領域を処理し、測距した物体が人間であるかを判定する機能である。フレームF1は、距離計Rで測距された物体のカメラCの撮影画像上の領域を示すものであり、カメラCの撮影画像に投影された物体点群(後述する欠損点群がある場合は欠損点群を含む)を囲うように演算される。本実施形態の人間検知機能には、距離計Rで下から上まで全体が測距されない物体についても、人間であるかどうかを高精度に判定できる特徴がある。 The human detection function calculates a frame F1 (Fig. 10) that encloses a group of points on the object surface measured by the rangefinder R (object point group) on the captured image of the camera, and This function processes the corresponding area and determines whether the measured object is a human. Frame F1 shows the area on the image taken by camera C of the object measured by rangefinder R, and includes the object point group (if there is a missing point group described later) projected on the image taken by camera C. (including missing points). The human detection function of this embodiment has the feature that it can be determined with high accuracy whether or not an object is a human, even if the distance meter R cannot measure the entire object from bottom to top.
人間検知機能の概要を述べると、まず、コントローラ40は、物体点群の分布に基づき、物体の実体の(現実の)上端及び下端が測距されているかを判定する。物体の実体の上端又は下端が測距されていないと判定される場合、コントローラ40は、予め設定した人間の姿勢とサイズに基づき、測距された物体が人間であるとの仮定の下、物体の上端又は下端の測距されない欠損点群を推定し仮想的に演算する。本実施形態において、欠損点群は、距離計Rの測距視野V2から外れて測距されない物体の一部であるとする。こうして欠損点群が仮想される場合、コントローラ40は、カメラCの撮影画像上の物体の存在範囲となるフレームF1を拡張し、実測した物体点群と仮想した欠損点群とがカメラCの撮影画像上で囲われるようにフレームF1を補正演算する。物体の実体の上端及び下端の双方が測距されていると判定される場合(欠損点群がないと判定される場合)、コントローラ40は、補正することなく物体点群の映る範囲をフレームF1として演算する。そして、コントローラ40は、カメラCの撮影画像のフレームF1の対応領域を処理し、測距された物体が人間であるかを判定し、判定データをモニタ10に出力する。このように例示される本実施形態の人間検知機能は、具体的には、点群生成処理41、物体検出処理42、欠損判定処理43、欠損点群推定処理44、物体画素推定処理45、人間識別処理46を含んでいる。
To give an overview of the human detection function, first, the
1.点群生成処理
点群生成処理41において、コントローラ40は、距離計Rから入力された各点の測距データ(垂直角度、水平角度、距離)を基に、距離計Rを基準とする距離計座標系(XrYrZr座標系)における各点の座標(Xr,Yr,Zr)を点群データとして演算する。測距データの水平角度と水平角度は測距点毎の既定値であり、距離は測定値である。垂直角度は、距離計Rから見て、低角側から高角側に向かって大きくなる値である。水平角度は、距離計Rから見て、左から右に向かって大きくなる値である。距離は、距離計Rから離れるにつれて大きくなる値である。演算された点群の3次元座標のデータセットは、演算の基礎とした測距データと紐づけてメモリに記憶される。
1. Point cloud generation process In the point
2.物体検出処理
物体検出処理42において、コントローラ40は、点群生成処理41で演算された点群データから、物体点群のデータを抽出する。例えば、距離計Rの位置及び姿勢(既知のデータ)を基に地面の測距データと推定される点群を点群データから除外し、残った点群を点群間の距離に応じてクラスタリング処理して得られた1つ又は複数の点群を物体点群として抽出することができる。クラスタリング処理は、例えば処理対象とする点群について点毎に最も近い点を求め、互いの距離が設定距離以内の2点は同一物体に属することとして物体点群をグルーピングすることで行うことができる。
2. Object Detection Process In the
3.欠損判定処理
図4A及び図4Bは距離計Rと物体との位置関係を表す図である。図4Aには、物体Mが距離計Rの測距視野V2の下縁を跨ぎ、実体の下端(物体Mが人間であれば足元)が測距されない状態を表している。図4Bには、物体Mが距離計Rの測距視野V2の上縁を跨ぎ、実体の上端(物体Mが人間であれば頭部)が測距されない状態を表している。つまり、図4Aの状態では、距離計Rの測距視野V2の下側に測距視野V2から外れた物体Mの一部分が存在し、距離計Rにより得られる点群データが物体Mの下側の一部のデータを欠く。反対に、図4Bの状態では、距離計Rの測距視野V2の上側に測距視野V2から外れた物体Mの一部分が存在し、距離計Rにより得られる点群データが物体Mの上側の一部のデータを欠く。図4A又は図4Bに例示される場面において、距離計Rで測距された物体点群の範囲のカメラ画像を処理しても、物体Mの全体像が処理されないことから、物体Mが何であるかが正確に識別されない。
3. Defect Determination Processing FIGS. 4A and 4B are diagrams showing the positional relationship between the rangefinder R and the object. FIG. 4A shows a state in which the object M straddles the lower edge of the distance measurement field of view V2 of the rangefinder R, and the lower end of the object (or the feet if the object M is a human being) is not measured. FIG. 4B shows a state in which the object M straddles the upper edge of the distance measurement field of view V2 of the rangefinder R, and the upper end of the object (or the head if the object M is a human being) is not measured. In other words, in the state shown in FIG. 4A, there is a part of the object M that is outside the rangefinding field of view V2 below the rangefinder field of view V2 of the rangefinder R, and the point cloud data obtained by the rangefinder R is below the rangefinder field of view V2. lacks some data. On the other hand, in the state shown in FIG. 4B, there is a part of the object M that is outside the rangefinding field of view V2 above the rangefinder field of view V2 of the rangefinder R, and the point cloud data obtained by the rangefinder R is located above the rangefinder field of view V2. Missing some data. In the scene illustrated in FIG. 4A or 4B, even if the camera image of the range of the object point group measured by the rangefinder R is processed, the entire image of the object M is not processed, so what is the object M? is not accurately identified.
そこで、欠損判定処理43において、コントローラ40は、距離計Rで測距された物体点群の分布を基に、物体Mの実体の上端及び下端が測距されているか、つまり物体点群が物体Mの実体を下端から上端まで測距したものであるかを既定のアルゴリズムで判定する。この処理において、コントローラ40は、物体点群を構成する点が、距離計Rの測距視野V2の四辺の上下いずれかの辺に設定数以上ある場合、設定数以上の点を含む辺を跨いで測距視野V2外に物体Mの仮想される一部分(欠損点群)が存在すると推定する。
Therefore, in the
図5はコントローラ40による欠損判定処理43の手順を表すフローチャートである。
FIG. 5 is a flowchart showing the procedure of
欠損判定処理43を開始すると、コントローラ40は、ステップS11において、物体検出処理42で検出した(現在測距されている)物体点群の点群データをメモリからCPUに読み込んでステップS12に手順を移す。
When the
ステップS12に手順を移すと、コントローラ40は、距離計Rの測距視野V2の下辺に属する点が物体点群に設定数以上あるか否かを判定する。例えば、コントローラ40は、距離計Rの垂直画角で一意に定まる測距視野V2の最小垂直角度(測距視野V2の下辺の垂直角度)と、物体点群の各点の垂直角度とを比較する。そして、コントローラ40は、最小垂直角度との角度差が予め設定された閾値以下である点を測距視野V2の下辺に属する点であると判定し、それら点の点数N1をカウントする。
Shifting the procedure to step S12, the
続くステップS13において、コントローラ40は、カウントした点数N1が、予め設定されてメモリに記憶された設定数Na以上であるか否かを判定し、N1≧Naである場合はステップS14に手順を移し、N1<Naである場合はステップS15に手順を移す。
In the subsequent step S13, the
ステップS14に手順を移した場合、コントローラ40は、物体Mの欠損点群が測距視野V2の下側にあると判定し、その判定データをメモリに記憶して欠損判定処理43を終了し、欠損点群推定処理44に移行する。
When the procedure moves to step S14, the
ステップS15に手順を移した場合、コントローラ40は、距離計Rの測距視野V2の上辺に属する点が物体点群に設定数以上あるか否かを判定し、ステップS16に手順を移す。例えば、コントローラ40は、距離計Rの垂直画角で一意に定まる測距視野V2の最大垂直角度(測距視野V2の上辺の垂直角度)と、物体点群の各点の垂直角度とを比較する。そして、コントローラ40は、最小垂直角度との角度差が予め設定された閾値以下である点を測距視野V2の上辺に属する点であると判定し、それら点の点数N2をカウントする。
When the procedure moves to step S15, the
続くステップS16において、コントローラ40は、カウントした点数N2が、予め設定されてメモリに記憶された設定数Nb以上であるか否かを判定し、N2≧Nbである場合はステップS17に手順を移し、N2<Nbである場合はステップS18に手順を移す。
In the subsequent step S16, the
ステップS17に手順を移した場合、コントローラ40は、物体Mの欠損点群が測距視野V2の上側にあると判定し、その判定データをメモリに記憶して欠損判定処理43を終了し、欠損点群推定処理44に移行する。
When the procedure moves to step S17, the
ステップS18に手順を移した場合、コントローラ40は、物体Mの欠損点群はないと判定し、その判定データをメモリに記憶して欠損判定処理43を終了し、欠損点群推定処理44に移行する。
When the procedure moves to step S18, the
4.欠損点群推定処理
欠損点群推定処理44において、コントローラ40は、欠損点群がある場合、予め設定した人間の姿勢とサイズを基に、カメラCの撮影画像において測距視野V2を越えて物体Mが映り得る横軸方向及び縦軸方向の最大範囲を既定のアルゴリズムで演算する。この最大範囲が物体Mの欠損点群が映り得る範囲であり、コントローラ40は、演算した最大範囲に基づきフレームF1を補正する。
4. Missing Point Group Estimation Process In the missing point
図6はコントローラ40による欠損点群推定処理44の手順を表すフローチャートである。
FIG. 6 is a flowchart showing the procedure of the missing point
欠損点群推定処理44を開始すると、コントローラ40は、ステップS21において、欠損判定処理43による欠損点群の有無及び方向のデータをメモリからCPUに読み込んでステップS22に手順を移す。
When the missing point
ステップS22において、コントローラ40は、欠損処理判定43で欠損点群があると判定されたかを判定し、欠損点群の存在が推定される場合はステップS23に手順を移し、欠損点群は存在しないと推定される場合はステップS27に手順を移す。
In step S22, the
ステップS23に手順を移すと、コントローラ40は、カメラC及び距離計Rの位置と姿勢の既知データを基に、物体点群の座標データを距離計座標系の値(Xr,Yr,Zr)からカメラ座標系の値(Xc,Yc,Zc)に変換し、ステップS24に手順を移す。カメラ座標系は、直交座標系である(図4A)。Xc軸はカメラCの画像センサの受光面に平行でカメラCから見て上向きに正の値をとり、Yc軸はカメラCの画像センサの受光面に平行でカメラCから見て右向きに正の値をとり、Zc軸は画像センサの受光面に直交しカメラCから離れる方向に正の値をとる。
Moving the procedure to step S23, the
ステップS24において、コントローラ40は、カメラ座標系における人間の直立方向ベクトル(大きさは任意)を推定し、ステップS25に手順を移す。人間の直立方向は、例えば旋回体4の上向き方向(旋回体4の回転軸方向)を想定しても良いし、水平面と直交する方向(鉛直方向)を想定しても良い。前者の場合、旋回体4に対するカメラCの取付姿勢から、カメラ座標系における旋回体4の上向き方向を演算することができる。後者の場合、例えば重力方向を基準とする車体1の傾斜角を検出する傾斜センサを旋回体4に設け、水平面に対する旋回体4の傾きに基づいてカメラ座標系における旋回体4の上向き方向を演算することができる。傾斜センサには、慣性計測装置(IMU)等を用いることができる。
In step S24, the
ステップS25において、コントローラ40は、物体点群の重心を通り人間の直立方向ベクトルとカメラ座標系のXc軸とで定義される平面に平行な仮想平面を演算し、ステップS26に手順を移す。ここで、カメラCから見た仮想平面の横軸(右向き)をXc軸、Xc軸に直交する縦軸(上向き)をYb軸と定義する(図4A)。
In step S25, the
ステップS26において、コントローラ40は、物体点群の点群データに基づき、仮想平面内で人間が腰を曲げた姿勢や直立した姿勢を想定して欠損点群を仮想し、欠損点群推定処理44を終了して物体画素推定処理45に移行する。仮想平面内で腰を曲げたときにカメラCに人間が映り得るXc軸方向の範囲が最大にあるためである。欠損点群は、予め設定されてメモリに格納された人間の姿勢及びサイズ(姿勢毎のサイズ)のデータに基づき仮想演算される(後述)。
In step S<b>26 , the
ステップS27に手順を移した場合、コントローラ40は、欠損点群を点群数が0の空点群とし、欠損点群推定処理44を終了して物体画素推定処理45に移行する。
When the procedure moves to step S27, the
4-1.欠損点群の仮想方法
図7に示したように、人間の上半身長さをLu、下半身長さをLd、身長をLh(=Lu+Ld)とし、更に、人間が腰を曲げたときの屈曲点をO、屈曲点Oで想定される最大折れ角をθmaxとする。また、本実施形態において、人間の下半身はYb軸と平行、屈曲点Oは上半身の任意の1点、屈曲点Oを除き人間は直線形状であると想定する。人間の足元(下端)に点A、頭頂部(上端)に点Bを設定すると、OA≧Ld,OA+OB=Lhが成立する。線分OAはYb軸と平行である。
4-1. Virtual method for missing point group As shown in Figure 7, the upper half height of a human being is Lu, the lower half height is Ld, the height is Lh (=Lu+Ld), and the bending point when the human bends the waist is 0, and the maximum bending angle assumed at the bending point O is θmax. Further, in this embodiment, it is assumed that the lower body of the human being is parallel to the Yb axis, that the bending point O is an arbitrary point on the upper body, and that the human being has a straight line shape except for the bending point O. When point A is set at the feet (lower end) of a human being and point B is set at the top of the head (upper end), OA≧Ld and OA+OB=Lh hold. Line segment OA is parallel to the Yb axis.
ここで、コントローラ40のメモリには、図7のモデルについて予め設定された点Pxmin,Pxmax,Pymax,Pyminが記憶されている。点Pxminは、欠損点群が取り得る最小Xc座標の点である。点Pxmaxは、欠損点群が取り得る最大Xc座標の点である。点Pymaxは、欠損点群が取り得る最大Yb座標の点である。点Pyminは、欠損点群が取り得る最小Yb座標の点である。欠損判定処理43で距離計Rの測距視野V2の上側に欠損点群があると判定した場合、コントローラ40は、Pxmin,Pxmax,Pymaxの3点を演算することで、欠損点群が取り得る最大範囲を仮想する。反対に、欠損判定処理43で距離計Rの測距視野V2の下側に欠損点群があると判定した場合、コントローラ40は、Pxmin,Pxmax,Pyminの3点を演算することで、欠損点群が取り得る最大範囲を仮想する。以下に詳細を説明する。
Here, the memory of the
4-2.測距視野の上側に欠損点群が存在する場合
距離計Rの測距視野V2の上側に欠損点群がある場合のPxminの仮想方法を説明する。
4-2. When a group of missing points exists above the range-finding field of view A hypothetical method for Pxmin when there is a group of missing points above the range-finding field of view V2 of the rangefinder R will be described.
図8Aは、物体点群の高さが人間モデルの下半身長さより大きい条件下で距離計Rの測距視野V2の上側に存在する欠損点群が取り得るPxminを仮想する方法を説明するための図である。同図では、腰よりも上(例えば背中)で身体を折った人間モデルを図示している。Pxminは、点B(人間モデルの頭頂部)に当たる。図8Aに示した点線枠は、仮想平面に投影した物体点群の全部を過不足なく囲う物体点群存在範囲である。この物体存在範囲は、Xc軸に平行な2辺とYb軸に平行な2辺からなる長方形で定義される。物体点群存在範囲の四辺は、仮想平面に投影した物体点群のうち、Xc座標が最小の点、Xc座標が最大の点、Yb座標が最小の点、Yb座標が最大の点に外接する。 FIG. 8A is a diagram illustrating a method for imagining Pxmin that can be taken by a missing point group existing above the ranging field of view V2 of the rangefinder R under the condition that the height of the object point group is greater than the height of the lower half of the human model. It is a diagram. The figure shows a human model whose body is bent above the waist (for example, at the back). Pxmin corresponds to point B (the top of the human model's head). The dotted line frame shown in FIG. 8A is the object point group existence range that surrounds all the object point group projected onto the virtual plane without excess or deficiency. This object existence range is defined by a rectangle consisting of two sides parallel to the Xc axis and two sides parallel to the Yb axis. The four sides of the object point group existence range are circumscribed by the point with the minimum Xc coordinate, the point with the maximum Xc coordinate, the point with the minimum Yb coordinate, and the point with the maximum Yb coordinate among the object points projected onto the virtual plane. .
ここで、物体点群存在範囲のYb軸方向の長さ(物体点群の高さ)をH、物体点群のXc座標の最大値及び最小値をXcmax及びXcmin、Yb座標の最大値及び最小値をYbmax及びYbminとする。この場合、人間モデルの足元(点A)のYb座標はYbminであり、物体存在範囲の上辺は、線分OA又は線分OPxminと交差する。物体存在範囲の上辺は、点(Xcmin,Ybmax)と点(Xcmax,Ybmax)とを結ぶ線分である。Pxminは、点Aを物体存在範囲の左下の角(Xcmin,Ybmin)にとり、Xc軸の負の方向(左側)にθmaxだけ身体を折った人間モデルを用いて演算できる。屈曲点Oについては、線分OAがYb軸と平行であること、OA+OPmin=Lhであること、線分OA又はOPminが物体存在範囲の上辺と交わることから、物体存在範囲の左上の角(Xcmin,Ybmax)をとることでPxminを仮想できる。以上から、Pxminの座標は、(Xcmin-(Lh-H)sin(θmax),Ybmax+(Lh-H)cos(θmax))と演算できる。 Here, the length of the object point group existence range in the Yb-axis direction (the height of the object point group) is H, the maximum and minimum values of the Xc coordinates of the object point group are Xcmax and Xcmin, and the maximum and minimum values of the Yb coordinate. Let the values be Ybmax and Ybmin. In this case, the Yb coordinate of the human model's feet (point A) is Ybmin, and the upper side of the object existing range intersects the line segment OA or the line segment OPxmin. The upper side of the object existence range is a line segment connecting the points (Xcmin, Ybmax) and (Xcmax, Ybmax). Pxmin can be calculated using a human model whose body is bent by θmax in the negative direction (left side) of the Xc axis, with point A at the lower left corner (Xcmin, Ybmin) of the object existence range. Regarding the bending point O, the line segment OA is parallel to the Yb axis, OA + OPmin = Lh, and the line segment OA or OPmin intersects the upper side of the object existence range, so the upper left corner of the object existence range (Xcmin , Ybmax), Pxmin can be virtualized. From the above, the coordinates of Pxmin can be calculated as (Xcmin-(Lh-H) sin(θmax), Ybmax+(Lh-H) cos(θmax)).
図8Bは、物体点群の高さが人間モデルの下半身長さ以下である条件下で距離計Rの測距視野V2の上側に存在する欠損点群が取り得るPxminを仮想する方法を説明するための図である。この場合も、Pxminは、点Aを(Xcmin,Ybmin)にとり、Xc軸の負の方向にθmaxだけ身体を曲げた人間モデルを用いて演算される。屈曲点Oについては、線分OAがYb軸と平行であること、線分OAが下半身長さLd以上であることを考慮すると、人間モデルの腰の位置(Xcmin,Ybmin+Ld)にとることでPxminを仮想することができる。以上から、Pxminの座標は、(Xcmin-Lu×sin(θmax),Ybmin+Ld+Lu×cos(θmax))と演算できる。 FIG. 8B explains a method of imagining Pxmin that can be taken by the missing point group existing above the ranging field of view V2 of the rangefinder R under the condition that the height of the object point group is less than or equal to the lower half height of the human model. This is a diagram for In this case as well, Pxmin is calculated using a human model in which point A is taken as (Xcmin, Ybmin) and the body is bent by θmax in the negative direction of the Xc axis. Regarding the bending point O, considering that the line segment OA is parallel to the Yb axis and that the line segment OA is greater than or equal to the lower half height Ld, Pxmin can be obtained by taking the bending point O at the waist position of the human model (Xcmin, Ybmin + Ld). can be virtualized. From the above, the coordinates of Pxmin can be calculated as (Xcmin-Lu×sin(θmax), Ybmin+Ld+Lu×cos(θmax)).
測距視野V2の上側に欠損点群がある場合のPxmaxの座標も、以上のPxminの座標と同じ要領で演算できる。H>Ldの場合、Pxmaxの座標は(Xcmax+(Lh-H)sin(θmax),Ybmax+(Lh-H)cos(θmax))と演算される。H≦Ldの場合、Pxmaxの座標は(Xcmax+Lu×sin(θmax),Ybmin+Ld+Lu×cos(θmax))と演算される。 The coordinates of Pxmax when there is a group of missing points above the range-finding field of view V2 can also be calculated in the same manner as the coordinates of Pxmin above. When H>Ld, the coordinates of Pxmax are calculated as (Xcmax+(Lh-H) sin(θmax), Ybmax+(Lh-H) cos(θmax)). When H≦Ld, the coordinates of Pxmax are calculated as (Xcmax+Lu×sin(θmax), Ybmin+Ld+Lu×cos(θmax)).
測距視野V2の上側に欠損点群がある場合のPymaxの座標は、直立姿勢の人間を想定して求められることから、Pxmin又はPxmaxの座標のθmaxに0を代入することで求めることができる。具体的には、Pymaxの座標は(Xcmin,Ybmin+Lh)と演算される。 The coordinates of Pymax when there is a missing point group above the distance measurement field of view V2 are obtained assuming a person in an upright posture, so they can be obtained by substituting 0 for θmax in the coordinates of Pxmin or Pxmax. . Specifically, the coordinates of Pymax are calculated as (Xcmin, Ybmin+Lh).
4-3.測距視野の下側に欠損点群が存在する場合
図9Aは、物体点群の高さが人間モデルの上半身の高さ成分以上(H≦Lu×cos(θmax))である条件下で距離計Rの測距視野V2の下側に存在する欠損点群が取り得るPxmaxを仮想する方法を説明するための図である。同図では、腰で身体を折った人間モデルを図示している。Pxmaxは、点A(人間モデルの足元)に当たる。この図において、点B(人間モデルの頭頂部)のYb座標はYbmaxであり、線分OB又はOPが物体存在範囲の下辺と交差すると仮定する。物体存在範囲の下辺は、点(Xcmin,Ybmin)と点(Xcmax,Ybmin)とを結ぶ線分である。
4-3. When there is a missing point group on the lower side of the distance measurement field of view. Figure 9A shows the distance under the condition that the height of the object point group is greater than or equal to the height component of the upper body of the human model (H≦Lu×cos(θmax)). FIG. 6 is a diagram for explaining a method of imagining Pxmax that can be taken by a group of missing points existing below the distance measurement field of view V2 of the meter R; The figure shows a human model with its body bent at the waist. Pxmax corresponds to point A (the foot of the human model). In this figure, it is assumed that the Yb coordinate of point B (the top of the human model's head) is Ybmax, and that the line segment OB or OP intersects the lower side of the object existing range. The lower side of the object existence range is a line segment connecting the point (Xcmin, Ybmin) and the point (Xcmax, Ybmin).
図9Aにおいて、Pxminは、Xc軸の負の方向(左側)にθmaxだけ身体を折った人間モデルを用いて演算できる。屈曲点Oは、物体存在範囲の右下の角の点Q(Xcmax,Ybmin)と点Bとを通る直線上に存在すること、OP≧Ldであることを考慮すると、OP=Ld、OB=Luの条件でPxmaxが仮想できる。このとき、線分BQ=H/cos(θmax)、OQ=Lu-H/cos(θmax)であるため、Pxmaxの座標は(Xcmax+Lu×sin(θmax)-Htan(θmax),Ybmin-Lu×cos(θmax)+H-Ld)と演算できる。 In FIG. 9A, Pxmin can be calculated using a human model whose body is bent by θmax in the negative direction (left side) of the Xc axis. Considering that the inflection point O exists on a straight line passing through point Q (Xcmax, Ybmin) at the lower right corner of the object existing range and point B, and that OP≧Ld, OP=Ld, OB= Pxmax can be assumed under the conditions of Lu. At this time, since the line segment BQ=H/cos(θmax) and OQ=Lu−H/cos(θmax), the coordinates of Pxmax are (Xcmax+Lu×sin(θmax)−Htan(θmax), Ybmin−Lu×cos (θmax)+HLd) can be calculated.
図9Bは、物体点群の高さが人間モデルの上半身の高さ成分未満(H>Lu×cos(θmax))想である定下で距離計Rの測距視野V2の下側に存在する欠損点群が取り得るPxmaxを仮想する方法を説明するための図である。図9Bにおいても、図9Aと同様、OP=Ld、OB=Luで、Xc軸の負の方向にθmaxだけ身体を折った人間モデルを用いる。屈曲点Oは物体存在範囲の右辺上に存在する。物体存在範囲の右辺は、点(Xcmax,Ybmax)と点(Xcmax,Ybmin)とを結ぶ線分である。これら条件から、図9B中のPxmaxの座標は(Xcmax、Ybmax-Lu×cos(θmax)-Ld)と演算できる。 FIG. 9B shows an object point group existing below the rangefinding field of view V2 of the rangefinder R under a constant condition in which the height of the object point group is less than the height component of the upper body of the human model (H>Lu×cos(θmax)). FIG. 6 is a diagram for explaining a method of imagining Pxmax that a group of missing points can take. Similarly to FIG. 9A, in FIG. 9B, a human model is used in which OP=Ld, OB=Lu, and the body is bent by θmax in the negative direction of the Xc axis. The bending point O exists on the right side of the object existing range. The right side of the object existence range is a line segment connecting the points (Xcmax, Ybmax) and (Xcmax, Ybmin). From these conditions, the coordinates of Pxmax in FIG. 9B can be calculated as (Xcmax, Ybmax-Lu×cos(θmax)-Ld).
測距視野V2の下側に欠損点群がある場合のPxmminの座標も、以上のPxmaxの座標と同じ要領で演算できる。H≦Lu×cos(θmax)の場合、Pxminの座標は(Xcmin-Lu×sin(θmax)+Htan(θmax),Ybmin-Lu×cos(θmax)+H-Ld)と演算される。H>Lu×cos(θmax)の場合、Pxminの座標は(Xcmin、Ybmax-Lu×cos(θmax)-Ld)と演算できる。 The coordinates of Pxmmin when there is a group of missing points below the distance measurement field of view V2 can also be calculated in the same manner as the coordinates of Pxmax above. When H≦Lu×cos(θmax), the coordinates of Pxmin are calculated as (Xcmin−Lu×sin(θmax)+Htan(θmax), Ybmin−Lu×cos(θmax)+HLd). When H>Lu×cos(θmax), the coordinates of Pxmin can be calculated as (Xcmin, Ybmax−Lu×cos(θmax)−Ld).
測距視野V2の下側に欠損点群がある場合のPyminの座標は、直立姿勢の人間を想定して求められることから、Pxmin又はPxmaxの座標のθmaxに0を代入することで求めることができる。具体的には、Pyminの座標は(Xcmin,Ybmax-Lh)と演算できる。 The coordinates of Pymin when there is a missing point group on the lower side of the ranging field of view V2 can be found by assuming a person in an upright posture, so it can be found by substituting 0 for θmax in the coordinates of Pxmin or Pxmax. can. Specifically, the coordinates of Pymin can be calculated as (Xcmin, Ybmax-Lh).
なお、本実施形態においては、物体画素推定処理45(後述)で長方形のフレームを演算するため、Pxmin,Pxmax,Pymin,Pymaxのうち3点のみを演算する例を説明した。しかし、フレームの形状を四角形よりも角の多い多角形とし、カメラ画像上における人間の画像の存在範囲の仮想精度をより高める場合には、演算する点数を3点より多くしても良い。また、人間モデルの屈曲角度がθmaxより小さい条件でPxmax等を演算しても良いし、仮想平面に対して傾斜した方向に屈曲した人間モデルを用いてPxmax等を演算しても良い。 In this embodiment, an example has been described in which only three points among Pxmin, Pxmax, Pymin, and Pymax are calculated in order to calculate a rectangular frame in the object pixel estimation process 45 (described later). However, if the shape of the frame is a polygon with more corners than a rectangle and the virtual accuracy of the range of the human image on the camera image is to be further improved, the number of points to be calculated may be greater than three. Further, Pxmax, etc. may be calculated under the condition that the bending angle of the human model is smaller than θmax, or Pxmax, etc. may be calculated using a human model bent in a direction inclined with respect to the virtual plane.
5.物体画素推定処理
図10はコントローラ40による物体画素推定処理45の概要を説明するための図である。物体画素推定処理45において、コントローラ40は、物体検出処理42で検出した物体点群と欠損点群推定処理44で仮想した欠損点群(例えばPxmin,Pxmax,Pymax)に対応する、カメラCの画像センサの複数の画素を演算する。そして、コントローラ40は、これら複数の画素から、横軸方向位置が最小の画素、横軸方向位置が最大の画素、縦軸方向位置が最小の画素、縦軸方向位置が最大の画素を抽出し、長方形のフレームF1を演算により求める。点群に対応する画素は、例えばカメラC及び距離計Rの位置及び姿勢の既知データ、カメラCの内部パラメータに基づき、公知のピンホールモデルによる3次元点群の透視投影変換を用いて求めることができる。言うまでもないが、フレームF1は、横軸方向位置が最小の画素を通る縦線(左辺)、横軸方向位置が最大の画素を通る縦線(右辺)、縦軸方向位置が最小の画素を通る横線(下辺)、縦軸方向位置が最大の画素を通る横線(上辺)で定義される。
5. Object Pixel Estimation Process FIG. 10 is a diagram for explaining an overview of the object
6.人間識別処理
人間識別処理46に移行すると、コントローラ40は、物体画素推定処理45で演算したフレームF1を用い、カメラCによる撮影画像を処理して人間の識別を実行する。人間の識別には、例えば、ディープラーニングやHOG等の特徴量抽出を用いることができる。人間識別処理46の判定データは、コントローラ40からモニタ10に出力され、例えばカメラCの撮影画像にフレームF1を合成したライブビュー映像、その他テキスト情報や警報音等の適宜の報知形態により、人間の存在がオペレータに知らされる。人間識別処理46の結果、例えば油圧ショベルの最大旋回半径内に人間がいると判定された場合、報知動作に加えて又は代えて、コントローラ40により方向切換弁24-29の電磁弁が制御され、油圧ショベルの各アクチュエータが制動される構成にもできる。
6. Human Identification Process When proceeding to the
ここで、人間識別処理46の一例として、コントローラ40により、フレームF1でカメラCの撮影画像から切り出した切り出し画像を処理し、距離計Rで測距された物体が人間であるかを判定する態様を挙げることができる。フレームF1により切り出し画像を人間の識別に用いる場合、処理する画像が小さいため、人間識別処理46でコントローラ40にかかる負荷が軽減される。
Here, as an example of the
また、人間識別処理46の別の例として、カメラCの撮影画像の全体を処理して人間を識別し、識別した人間の位置及び大きさをフレームF1と比較し、一致度を評価する態様も挙げられる。この例の説明図を図11に示す。同図の例ではカメラ視野V1の中央に人間N(実像)が映っている。このカメラCの撮影画像(カメラ視野V1)の全体をコントローラ40により処理し、人間が映っていると判定された画像領域(一点鎖線)を人間識別画像領域F2とする。例えばこの人間識別画像領域F2をフレームF1と照合し、フレームF1に対する人間識別画像領域F2の一致度(重なり割合等)が設定値以上であれば、フレームF1内の測距された物体Mが人間であると判定することができる。仮にフレームF1に対する人間識別画像領域F2の一致度が設定値未満であれば、フレームF1内の測距された物体Mは人間ではないと判定される。画像処理のみでは地面の模様や影等が人間と誤認され得るが、このように画像処理の結果をフレームF1と照合することで、人間が精度良く識別される。
Further, as another example of the
このとき、一般に画像処理で人間を識別する場合には人間推定の確度が演算され、確度が一定以上であるか否かで人間識別の結論が出される場合がある。本実施形態の場合、例えば画像処理単独の結果では人間として識別するための確度が不足する物体についても、フレームF1との一致度が一定以上であれば、その物体が人間であると判定されるアルゴリズムを採用することもできる。 At this time, generally when identifying a human by image processing, the accuracy of human estimation is calculated, and a conclusion on human identification may be made depending on whether the accuracy is above a certain level. In the case of this embodiment, for example, even for objects for which the accuracy of identifying as a human being is insufficient as a result of image processing alone, if the degree of matching with frame F1 is above a certain level, the object is determined to be a human. Algorithms can also be used.
-効果-
(1)本実施形態においては、距離計Rで検出された物体点群が物体Mを上から下まで測距したものであるかを判定し、全体が測距されていない場合には物体Mを人間と仮定し、測距視野V2から外れて測距されない欠損点群を既定のアルゴリズムで仮想演算する。そして、カメラ画像上で人間を識別する領域の基準となるフレームを、物体点群だけでなく欠損点群を囲うように補正する。本実施形態によれば、こうして欠損点群を仮想し距離計Rの測距視野V2を超えてカメラ画像に映り得る人間の範囲(フレーム)を演算することで、距離計Rで体の一部が検出された人間を、精度良く人間として識別することができる。
-effect-
(1) In this embodiment, it is determined whether the object point group detected by the rangefinder R is obtained by measuring the object M from top to bottom. Assuming that is a human, a group of missing points that are outside the distance measurement field of view V2 and are not measured are virtually calculated using a predetermined algorithm. Then, the frame that serves as a reference for the region for identifying humans on the camera image is corrected so as to surround not only the object point group but also the missing point group. According to the present embodiment, by imagining the missing point group and calculating the range (frame) of a person that can be seen in the camera image beyond the rangefinding field of view V2 of the rangefinder R, the rangefinder R can detect a part of the body. A detected human can be identified as a human with high accuracy.
(2)本実施形態において、コントローラ40は、物体点群を構成する点が、距離計Rの測距視野V2の四辺の上下いずれかの辺に設定数以上ある場合、設定数以上の点を含む辺を跨いで距離計Rの測距視野V2の外に欠損点群が存在すると推定する。そして、コントローラ40は、予め設定した人間の姿勢とサイズに基づき、カメラCの撮影画像において距離計Rの測距視野V2を越えて人間が映り得る横軸方向及び縦軸方向の最大範囲を演算し、最大範囲に基づきフレームを補正する。このようなアルゴリズムで、物体Mが人間である場合に、その人間が映り得る過不足のない範囲(フレーム)を演算することができる。これにより、フレームが小さ過ぎて物体Mが人間であるかが識別できない、或いはフレームが必要以上に大きく余計な情報に起因して人間の認識精度が低下するといったことが抑制され、人間の識別制度を向上させることができる。
(2) In the present embodiment, if there are more than a set number of points constituting the object point group on either the upper or lower side of the four sides of the rangefinding field of view V2 of the rangefinder R, the
(第2の実施の形態)
本発明の第2実施形態を説明する。本実施形態は、図12に示したように、物体の上部の死角に入って距離計Rで測距されない物体の下端に欠損点群が存在する場面に適用される。以下に説明する本実施形態の人間検知機能は、第1実施形態で説明した人間検知機能と共にコントローラ40に実装することもできるし、単独でコントローラ40に実装することもできる。
(Second embodiment)
A second embodiment of the present invention will be described. The present embodiment is applied to a scene where a group of missing points exists at the bottom of an object that enters the blind spot above the object and is not measured by the rangefinder R, as shown in FIG. The human detection function of this embodiment described below can be implemented in the
本実施形態における人間検知機能において、コントローラ40は、距離計Rで地面を測距した地面点群に対する物体点群の上下の重なりが設定値未満で、かつ物体点群と地面との最小距離が設定距離以上である場合に、死角に隠れた欠損点群が存在すると推定する。本実施形態の人間検知機能も、第1実施形態と同様、点群生成処理41、物体検出処理42、欠損判定処理43、欠損点群推定処理44、物体画素推定処理45、人間識別処理46を含んでいる。これらのうち点群生成処理41、物体画素推定処理45及び人間識別処理46や作業機械のハード構成は、第1実施形態と同様である。物体検出処理42、欠損判定処理43及び欠損点群推定処理44が、本実施形態は第1実施形態と異なる。以下、本実施形態の物体検出処理42、欠損判定処理43及び欠損点群推定処理44について説明する。
In the human detection function in this embodiment, the
-物体検出処理-
物体検出処理42において、コントローラ40は、点群生成処理41で演算された点群データから、物体点群に加え、地面を測距した地面点群を抽出する。地面点群は、例えば、距離計Rの位置及び姿勢(既知のデータ)を基に地面の測距データと推定される点群である。物体点群の抽出については、第1実施形態と同様である。
-Object detection processing-
In the
-欠損判定処理-
図12に例示される場面において、距離計Rで測距された物体点群の範囲のカメラ画像を処理しても、物体Mの下端が死角に入って全体像が処理されないことから、物体Mが何であるかが正確に識別されない。そこで、欠損判定処理43において、コントローラ40は、距離計Rで測距された物体点群の分布を基に、物体Mの実体の上端及び下端が測距されているか、つまり物体点群が物体Mの実体を下端から上端まで測距したものであるかを既定のアルゴリズムで判定する。本実施形態において、コントローラ40は、物体点群と地面点群の上下方向の重なり度合いから、死角に隠れて測距されない物体Mの下端(欠損点群)の有無を判定する。
-Deficiency determination processing-
In the scene illustrated in FIG. 12, even if the camera image of the range of the object point group measured by the rangefinder R is processed, the lower end of the object M enters the blind spot and the entire image is not processed. It is not precisely identified what the Therefore, in the
図13は第2実施形態におけるコントローラ40による欠損判定処理43の手順を表すフローチャートである。
FIG. 13 is a flowchart showing the procedure of
欠損判定処理43を開始すると、コントローラ40は、ステップS31において、物体検出処理42で検出した(現在測距されている)物体点群及び地面点群の点群データをメモリからCPUに読み込んでステップS32に手順を移す。
When the
ステップS32に手順を移すと、コントローラ40は、カメラ座標系における人間の直立方向ベクトル(大きさは任意)を推定し、ステップS33に手順を移す。この手順は、第1実施形態の図6のフローで説明したステップS24と同様である。
When the procedure moves to step S32, the
ステップS33に手順を移すと、コントローラ40は、直立方向ベクトルと直交する仮想面(水平面)に物体点群と地面点群を投影し、仮想面上で物体点群を囲う領域と地面点群を囲う領域との重複面積を演算し、その重複面積が設定面積以上であるかを判定する。設定面積は、予め設定された値である。コントローラ40は、重複面積が設定面積以上であればステップS37に手順を移し、重複面積が設定面積未満であればステップS34に手順を移す。
Moving the procedure to step S33, the
なお、ステップS33においては、例えば仮想面上で物体点群を囲う領域の面積に占める重複面積の割合を演算し、その割合が設定割合以上であるかを判定するようにしても良い。 Note that in step S33, for example, the ratio of the overlapping area to the area of the area surrounding the object point group on the virtual plane may be calculated, and it may be determined whether the ratio is equal to or greater than a set ratio.
ステップS34に手順を移した場合、コントローラ40は、物体点群の中で直立方向成分が最小値を取る点(最下点と記載する)を抽出し、この最下点からの水平距離(直立方向ベクトルに直交する方向にとった距離)が最小の地面点群の点を抽出する。コントローラ40は、この抽出した2点の直立方向の距離を物体点群と地面との最小距離として演算し、ステップS35に手順を移す。
When the procedure moves to step S34, the
続くステップS35において、コントローラ40は、物体点群と地面との最小距離が予め設定した設定距離以上であるかを判定し、設定距離以上である場合はステップS36に、設定距離未満である場合はステップS37に手順を移す。
In subsequent step S35, the
ステップS36に手順を移した場合、コントローラ40は、物体Mの下端が上部の死角に入って欠損しており、欠損点群が物体Mの下端にあると判定し、その判定データをメモリに記憶して欠損判定処理43を終了し、欠損点群推定処理44に移行する。
When the procedure moves to step S36, the
ステップS37に手順を移した場合、コントローラ40は、物体Mの欠損点群はないと判定し、その判定データをメモリに記憶して欠損判定処理43を終了し、欠損点群推定処理44に移行する。この手順は、第1実施形態の図5のフローで説明したステップS18と同様である。
When the procedure moves to step S37, the
-欠損点群推定処理-
欠損点群推定処理44に移行すると、コントローラ40は、欠損点群が存在する場合、予め設定した人間の姿勢とサイズに基づき、カメラCの撮影画像において物体Mの上部に隠れて測距されない欠損点群を仮想し、欠損点群を含むフレームF1を演算する。
- Missing point group estimation processing -
When proceeding to the missing point
図14は第2実施形態における欠損点群推定処理44の手順を表すフローチャートである。
FIG. 14 is a flowchart showing the procedure of the missing point
欠損点群推定処理44を開始すると、コントローラ40は、ステップS41において、欠損判定処理43による欠損点群の有無及び方向、並びに物体点群のデータをメモリからCPUに読み込んでステップS42に手順を移す。
When the missing point
ステップS42において、コントローラ40は、欠損処理判定43で欠損点群があると判定されたかを判定し、欠損点群の存在が推定される場合はステップS43に手順を移し、欠損点群は存在しないと推定される場合はステップS45に手順を移す。
In step S42, the
ステップS43に手順を移すと、コントローラ40は、カメラ座標系における人間の直立方向ベクトル(大きさは任意)を推定し、ステップS44に手順を移す。この手順は、第1実施形態の図6のフローで説明したステップS24と同様である。
When the procedure moves to step S43, the
ステップS44において、コントローラ40は、物体点群の点群データに基づき、地面に人間が直立した姿勢を想定して欠損点群を仮想し、欠損点群推定処理44を終了して物体画素推定処理45に移行する。欠損点群は、物体点群の上部の点から予め設定されてメモリに格納された人間の身長Lhだけ低い位置に足元仮想される。
In step S44, the
ステップS45に手順を移した場合、コントローラ40は、欠損点群を点群数が0の空点群とし、欠損点群推定処理44を終了して物体画素推定処理45に移行する。
When the procedure moves to step S45, the
-効果-
本実施形態においては、足元が上半身の死角に入って距離計Rで測距されない場合でも、そのことを推定してフレームF1を演算し、精度良く人間として識別することができる。また、測距された物体Mについて、上半身の死角に隠れて足元が映っていない人間であることが想定されることで、人間識別処理の精度も向上し得る。
-effect-
In this embodiment, even if the feet are in the blind spot of the upper body and the distance cannot be measured by the range meter R, this can be estimated and the frame F1 can be calculated to accurately identify the person as a human. Furthermore, the accuracy of human identification processing can be improved by assuming that the measured object M is a human being who is hidden in the blind spot of the upper body and whose feet are not visible.
また、本実施形態を第1実施形態と組み合わせることで、測距視野V2から外れて体の一部が測距されない人間も、油圧ショベルの近くにいて上半身に隠れて足元が測距されない人間も、いずれも精度良く識別することができる。 Furthermore, by combining this embodiment with the first embodiment, it is possible to include people who are out of the distance measurement field of view V2 and whose parts of their bodies are not measured, and people who are near the hydraulic excavator and whose feet are hidden behind their upper bodies and whose feet are not measured. , both can be identified with high accuracy.
1…車体、7…運転室、40…コントローラ、C…カメラ、F1…フレーム、M…物体、N…人間、N1,N2…測距視野の四辺に含まれる点数、Na,Nb…設定数、Pxmax,Pxmin,Pymax,Pymin,…欠損点群、R…距離計、V1…カメラ視野、V2…測距視野 1...Vehicle body, 7...Driver's cabin, 40...Controller, C...Camera, F1...Frame, M...Object, N...Human, N1, N2...Number of points included in the four sides of the ranging field of view, Na, Nb...Number of settings, Pxmax, Pxmin, Pymax, Pymin,...missing point group, R...rangefinder, V1...camera field of view, V2...rangefinding field of view
Claims (4)
前記車体の周囲を撮影するカメラと、
前記カメラのカメラ視野に測距視野が重なるように配置され、前記測距視野内の物体を測距して前記物体の表面の点群の座標データを取得する距離計と、
前記距離計により測距された物体表面の点群である物体点群を前記カメラの撮影画像上で囲うフレームを演算し、前記撮影画像における前記フレームの対応領域を処理して前記物体が人間であるか否かを判定するコントローラと
を備えた作業機械において、
前記コントローラは、
前記物体点群の分布に基づき、前記物体の上端及び下端が測距されているかを判定し、
前記上端又は下端が測距されていない場合、予め設定した人間の姿勢とサイズに基づき、前記物体の上端又は下端の測距されない欠損点群を推定し、
測距された前記物体点群と推定された前記欠損点群とを囲うように前記フレームを補正する
ことを特徴とする作業機械。 The car body and
a camera that photographs the surroundings of the vehicle;
a rangefinder that is arranged so that a distance measurement field of view overlaps the camera field of view of the camera, and that measures an object within the distance measurement field of view to obtain coordinate data of a point group on the surface of the object;
A frame is calculated that encloses the object point group, which is a point group on the object surface measured by the distance meter, on the captured image of the camera, and the corresponding area of the frame in the captured image is processed to determine whether the object is a human being. In a working machine equipped with a controller that determines whether or not there is a
The controller includes:
Based on the distribution of the object point group, determine whether the upper end and the lower end of the object are measured;
If the upper end or the lower end is not ranged, estimate a group of missing points at the upper or lower end of the object that are not ranged based on a preset human posture and size;
A work machine characterized in that the frame is corrected so as to surround the distance-measured object point group and the estimated missing point group.
前記欠損点群は、前記距離計の測距視野を外れて測距されない前記物体の一部であって、
前記コントローラは、前記物体点群を構成する点が、前記距離計の測距視野の四辺の上下いずれかの辺に設定数以上ある場合、前記設定数以上の点を含む辺を跨いで前記距離計の測距視野外に前記欠損点群が存在すると推定することを特徴とする作業機械。 The working machine according to claim 1,
The missing point group is a part of the object that is outside the rangefinding field of view of the rangefinder and is not ranged,
When the number of points constituting the object point group is greater than or equal to a set number on any of the four sides of the rangefinding field of view of the rangefinder, the controller is configured to calculate the distance by straddling sides that include the number of points or more than the set number. A working machine characterized in that it is estimated that the missing point group exists outside the distance measuring field of the meter.
前記コントローラは、予め設定した人間の姿勢とサイズに基づき、前記カメラの撮影画像において前記距離計の測距視野を越えて前記人間が映り得る横軸方向及び縦軸方向の最大範囲を演算し、演算された前記最大範囲に基づき前記フレームを補正することを特徴とする作業機械。 The working machine according to claim 2,
The controller calculates the maximum range in the horizontal and vertical directions in which the human can be seen beyond the field of view of the rangefinder in the image taken by the camera, based on a preset posture and size of the human; A working machine, wherein the frame is corrected based on the calculated maximum range.
前記欠損点群は、前記物体の上部の死角に入って前記距離計で測距されない前記物体の下端であって、
前記コントローラは、前記距離計で地面を測距した地面点群に対する前記物体点群の上下の重なりが設定値未満で、前記物体点群と地面との最小距離が設定距離以上である場合、前記欠損点群が存在すると推定することを特徴とする作業機械。 The working machine according to claim 1,
The missing point group is a lower end of the object that falls into a blind spot above the object and is not ranged by the rangefinder,
When the vertical overlap of the object point group with the ground point group measured by the rangefinder is less than a set value, and the minimum distance between the object point group and the ground is equal to or greater than the set distance, the controller A work machine characterized by estimating the existence of a missing point group.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022052393A JP2023145104A (en) | 2022-03-28 | 2022-03-28 | Work machine |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022052393A JP2023145104A (en) | 2022-03-28 | 2022-03-28 | Work machine |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023145104A true JP2023145104A (en) | 2023-10-11 |
Family
ID=88253398
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022052393A Pending JP2023145104A (en) | 2022-03-28 | 2022-03-28 | Work machine |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023145104A (en) |
-
2022
- 2022-03-28 JP JP2022052393A patent/JP2023145104A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11492777B2 (en) | Shovel and system of managing shovel | |
US11959253B2 (en) | Excavator and information processing apparatus | |
US9300954B2 (en) | Surrounding information-obtaining device for working vehicle | |
EP2187166B1 (en) | Industrial Machine | |
JP2018028212A (en) | Construction machine | |
US20210010229A1 (en) | Shovel | |
JP6826233B2 (en) | Work machine outer shape measurement system, work machine outer shape display system, work machine control system and work machine | |
JPWO2019044316A1 (en) | Work machine measurement system, work machine, and work machine measurement method | |
US20230078047A1 (en) | Excavator and system for excavator | |
US20180079361A1 (en) | Display system for work vehicle | |
US20220112693A1 (en) | Monitoring device and construction machine | |
US20240028042A1 (en) | Visual overlays for providing perception of depth | |
US20210395982A1 (en) | System and method for work machine | |
JP2023145104A (en) | Work machine | |
KR20210034449A (en) | Apparatus for generating front image for construction equipment | |
US20220002970A1 (en) | Excavator | |
KR20230017724A (en) | System and method of controlling construction machinery | |
US20210388580A1 (en) | System and method for work machine | |
US11549238B2 (en) | System and method for work machine | |
JP7346061B2 (en) | excavator | |
JP2018178878A (en) | Industrial vehicle | |
US11908076B2 (en) | Display system and display method | |
US20210395980A1 (en) | System and method for work machine | |
JP2023093109A (en) | Construction machine, and information processing device | |
US20220002977A1 (en) | System and method for work machine |