JP2023145104A - Work machine - Google Patents

Work machine Download PDF

Info

Publication number
JP2023145104A
JP2023145104A JP2022052393A JP2022052393A JP2023145104A JP 2023145104 A JP2023145104 A JP 2023145104A JP 2022052393 A JP2022052393 A JP 2022052393A JP 2022052393 A JP2022052393 A JP 2022052393A JP 2023145104 A JP2023145104 A JP 2023145104A
Authority
JP
Japan
Prior art keywords
point group
human
camera
controller
missing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022052393A
Other languages
Japanese (ja)
Inventor
光輝 工藤
Koki Kudo
博史 坂本
Hiroshi Sakamoto
寿身 中野
Toshimi Nakano
舜 辻村
Shun Tsujimura
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Construction Machinery Co Ltd
Original Assignee
Hitachi Construction Machinery Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Construction Machinery Co Ltd filed Critical Hitachi Construction Machinery Co Ltd
Priority to JP2022052393A priority Critical patent/JP2023145104A/en
Publication of JP2023145104A publication Critical patent/JP2023145104A/en
Pending legal-status Critical Current

Links

Images

Abstract

To accurately identify a person whose body part is partially detected by a range finder as a human.SOLUTION: Provided is a work machine that comprises: a camera that photographs surroundings; a range finder that is disposed so that a range finding visual field overlaps a camera visual field of the camera, and measures a distance to an object within the range finding visual field to acquire coordinate data of a point group on a surface of the object; and a controller that calculates a frame encompassing the object point group range-found by the range finder on a captured image of the camera, and processes a corresponding area of the frame in the captured image to determine whether the object is a human. The work machine determines, based on distribution of the object point group, whether distances to an upper end and a lower end of the object are measured, and if the distance to the upper end or to the lower end is not measured, estimates a non-range-found missing point group of the upper end or lower end of the object based on a predetermined posture and size of a human, and compensates the frame to encompass the range-found object point group and the estimated missing point group.SELECTED DRAWING: Figure 3

Description

本発明は、油圧ショベル等の作業機械に関する。 The present invention relates to working machines such as hydraulic excavators.

LiDAR等の距離計(物体検出センサ)又はカメラによって周囲の人間や物体を検知して車体制御や通知等を実行し、これによりオペレータの運転支援を行う作業機械(油圧ショベル等)が知られている。 Work machines (hydraulic excavators, etc.) are known that use distance meters (object detection sensors) such as LiDAR or cameras to detect people and objects in the surroundings, perform vehicle control and notifications, and thereby support the operator's driving. There is.

距離計では人間と物を識別することができず人間でも壁や木等でも同じ立体物(物体)として検知されるため、人間を検知した場合に運転支援の機能を働かせたいにも関わらず、運転支援の機能を働かせたくない対象の物体(人間以外)を検知した場合に必要以上に運転支援の機能が働いて煩わしい場合がある。他方、カメラは人間以外の物体と人間とを識別することができるが、一般に精度が不十分であり、全身が映っていない人間や背景色に近い服装の人間は検知されない場合もある。画像処理の識別用パラメータを調整して人間の検知精度を上げることは可能だが、この場合は地面の模様や陰等を誤検知し易くなる。 Distance meters cannot distinguish between humans and objects, and both humans and walls and trees are detected as the same three-dimensional object (object). When an object (other than a human being) is detected for which the driving support function should not be activated, the driving support function may be activated more than necessary, which may be troublesome. On the other hand, cameras can distinguish between humans and non-human objects, but the accuracy is generally insufficient, and people whose entire bodies are not visible or whose clothes match the background color may not be detected. It is possible to increase the accuracy of human detection by adjusting the identification parameters of image processing, but in this case, it is easy to falsely detect patterns on the ground, shadows, etc.

例えば、カメラ視野の端の領域を距離計でも監視し、距離計で物体が検出された領域のカメラ画像を処理することで、カメラ視野に全身が収まらない人間を検出する技術が知られている(特許文献1)。また、距離画像センサの距離情報をカメラの撮影画像に投影し、カメラで撮影された物体の位置を推定する技術が知られている(特許文献2)。 For example, there is a known technology that detects people whose whole body cannot fit within the camera's field of view by monitoring the area at the edge of the camera's field of view with a rangefinder and processing the camera image of the area where the object is detected by the rangefinder. (Patent Document 1). Furthermore, a technique is known in which distance information from a distance image sensor is projected onto an image captured by a camera to estimate the position of an object captured by the camera (Patent Document 2).

特許第6689669号公報Patent No. 6689669 特開2019-4484号公報JP 2019-4484 Publication

しかしながら、特許文献1の技術では、カメラ視野の端で距離計により部分的に検出された物体からは、その物体の全体の大きさは見当がつかないため、物体の検出領域に対して必要以上に広い領域を画像処理する必要がある。必要以上に広い領域を画像処理すると、検出された物体以外にも地面の模様等の様々なものが画像処理領域に映り込み、距離計で検出された壁や木等が人間として誤認され易くなる。 However, with the technology of Patent Document 1, since the overall size of the object cannot be estimated from the object partially detected by the rangefinder at the edge of the camera's field of view, It is necessary to perform image processing on a wide area. If an area wider than necessary is image processed, various things other than the detected object, such as patterns on the ground, will be reflected in the image processing area, making it easy for objects such as walls and trees detected by a rangefinder to be mistaken as humans. .

特許文献2に示された画角の広い距離画像センサは高額となるため、処理負荷や装置コストを低減すべく画角を抑えた距離画像センサを用いると、距離画像センサで人間の全身を映せない場合がある。距離画像センサで全身を映せないと、カメラの画像上における物体の存在範囲を正確に推定することができない。 The distance image sensor with a wide angle of view shown in Patent Document 2 is expensive, so if a distance image sensor with a reduced angle of view is used to reduce the processing load and device cost, it will be possible to image the entire human body with the distance image sensor. There may be no. If the distance image sensor cannot capture the entire body, it is not possible to accurately estimate the extent of the object's presence on the camera image.

本発明の目的は、距離計で体の一部が検出された人間を、精度良く人間として識別することができる作業機械を提供することにある。 An object of the present invention is to provide a work machine that can accurately identify a person whose body part is detected by a rangefinder as a person.

上記目的を達成するために、本発明は、車体と、前記車体の周囲を撮影するカメラと、前記カメラのカメラ視野に測距視野が重なるように配置され、前記測距視野内の物体を測距して前記物体の表面の点群の座標データを取得する距離計と、前記距離計により測距された物体表面の点群である物体点群を前記カメラの撮影画像上で囲うフレームを演算し、前記撮影画像における前記フレームの対応領域を処理して前記物体が人間であるか否かを判定するコントローラとを備えた作業機械において、前記コントローラは、前記物体点群の分布に基づき、前記物体の上端及び下端が測距されているかを判定し、前記上端又は下端が測距されていない場合、予め設定した人間の姿勢とサイズに基づき、前記物体の上端又は下端の測距されない欠損点群を推定し、測距された前記物体点群と推定された前記欠損点群とを囲うように前記フレームを補正する作業機械を提供する。 In order to achieve the above object, the present invention includes a vehicle body, a camera that photographs the surroundings of the vehicle body, and a camera that is arranged so that a distance measurement field of view overlaps the camera field of view of the camera, and that measures an object within the distance measurement field of view. a rangefinder that obtains coordinate data of a point group on the surface of the object by distance measurement, and a frame that encloses the object point group, which is the point group of the object surface measured by the rangefinder, on the captured image of the camera. and a controller that processes a corresponding region of the frame in the photographed image to determine whether or not the object is a human, wherein the controller processes the object point group based on the distribution of the object point group. Determine whether the top and bottom ends of the object are measured, and if the top or bottom ends are not measured, determine the missing points on the top or bottom of the object that are not measured based on the preset human posture and size. A working machine is provided that corrects the frame so as to surround the measured object point group and the estimated missing point group.

本発明によれば、距離計で体の一部が検出された人間を、精度良く人間として識別することができる。 According to the present invention, a person whose body part is detected by a rangefinder can be identified as a person with high accuracy.

本発明の第1実施形態に係る作業機械の一例である油圧ショベルの側面図A side view of a hydraulic excavator that is an example of a working machine according to a first embodiment of the present invention 図1の油圧ショベルに搭載された油圧システムの要部を抜き出して表した回路図A circuit diagram showing the main parts of the hydraulic system installed in the hydraulic excavator shown in Figure 1. 図1の油圧ショベルに搭載されたコントローラの人間検知機能を表す機能ブロック図Functional block diagram showing the human detection function of the controller installed in the hydraulic excavator in Figure 1 距離計と物体との位置関係を表す図Diagram showing the positional relationship between the rangefinder and the object 距離計と物体との位置関係を表す図Diagram showing the positional relationship between the rangefinder and the object 図1の油圧ショベルに搭載されたコントローラによる欠損判定処理の手順を表すフローチャートA flowchart showing the procedure of defect determination processing by the controller installed in the hydraulic excavator shown in Figure 1. 図1の油圧ショベルに搭載されたコントローラによる欠損点群推定処理の手順を表すフローチャートA flowchart showing the procedure of missing point cloud estimation processing by the controller installed in the hydraulic excavator shown in Figure 1. 図1の油圧ショベルに搭載されたコントローラによる欠損点群推定処理で用いる人間モデルの一例を表す図A diagram showing an example of a human model used in the missing point cloud estimation process by the controller installed in the hydraulic excavator in Figure 1. 物体点群の高さが人間モデルの下半身長さより大きい条件下で距離計の測距視野の上側に存在する欠損点群が取り得るPxminを仮想する方法の説明図An explanatory diagram of a method for imagining Pxmin that can be taken by a missing point group existing above the rangefinding field of view under the condition that the height of the object point group is greater than the lower half height of the human model. 物体点群の高さが人間モデルの下半身長さ以下である条件下で距離計の測距視野の上側に存在する欠損点群が取り得るPxminを仮想する方法の説明図An explanatory diagram of a method for imagining the possible Pxmin of a missing point group existing above the rangefinding field of view under the condition that the height of the object point group is less than the height of the lower half of the human model. 物体点群の高さが人間モデルの上半身の高さ成分以上である条件下で距離計の測距視野の下側に存在する欠損点群が取り得るPxmaxを仮想する方法の説明図An explanatory diagram of a method for imagining the possible Pxmax of a missing point group existing at the lower side of the ranging field of the rangefinder under the condition that the height of the object point group is greater than or equal to the height component of the upper body of the human model. 物体点群の高さが人間モデルの上半身の高さ成分未満である条件下で距離計の測距視野の下側に存在する欠損点群が取り得るPxmaxを仮想する方法の説明図An explanatory diagram of a method for imagining the possible Pxmax of a missing point group existing at the lower side of the rangefinding field of view under the condition that the height of the object point group is less than the height component of the upper body of the human model. 図1の油圧ショベルに搭載されたコントローラによる物体画素推定処理の概要を説明するための図Diagram for explaining an overview of object pixel estimation processing by the controller installed in the hydraulic excavator in Figure 1 図1の油圧ショベルに搭載されたコントローラによる人間識別処理の例を説明するための図Diagram for explaining an example of human identification processing by the controller installed in the hydraulic excavator in Figure 1 距離計と物体との位置関係を表す図Diagram showing the positional relationship between the rangefinder and the object 本発明の第2実施形態に係る作業機械に搭載されたコントローラによる欠損判定処理の手順を表すフローチャートA flowchart showing the procedure of defect determination processing by a controller installed in a working machine according to a second embodiment of the present invention. 本発明の第2実施形態に係る作業機械に搭載されたコントローラによる欠損点群推定処理の手順を表すフローチャートA flowchart showing the procedure of the missing point group estimation process by the controller installed in the working machine according to the second embodiment of the present invention.

以下に図面を用いて本発明の実施の形態を説明する。本発明は油圧ショベルに限らずダンプトラックやホイールローダ、クレーン等の他種の作業機械にも適用可能であるが、以下においては油圧ショベルに本発明を適用した場合を例に挙げて説明する。 Embodiments of the present invention will be described below using the drawings. Although the present invention is applicable not only to hydraulic excavators but also to other types of working machines such as dump trucks, wheel loaders, and cranes, the following description will be given using an example in which the present invention is applied to a hydraulic excavator.

(第1実施形態)
-作業機械-
図1は本発明の第1実施形態に係る作業機械の一例である油圧ショベルの側面図である。本実施形態では、図1中の右左を油圧ショベルの前後とする。同図に示した油圧ショベルは、車体1と、車体1に取り付けたフロント作業機2とを備えている。車体1は、走行体3と、走行体3上に設けた旋回体4とを含んで構成されている。
(First embodiment)
-Working machines-
FIG. 1 is a side view of a hydraulic excavator which is an example of a working machine according to a first embodiment of the present invention. In this embodiment, the right and left sides in FIG. 1 are the front and rear of the hydraulic excavator. The hydraulic excavator shown in the figure includes a vehicle body 1 and a front working machine 2 attached to the vehicle body 1. The vehicle body 1 includes a running body 3 and a revolving body 4 provided on the running body 3.

走行体3は、油圧ショベルの基部構造体であり、左右の履帯5により走行するクローラ式の走行体であるが、ホイール式の走行体が用いられる場合もある。走行体3は、左右の走行モータ18,19(図2)により左右の履帯5をそれぞれ駆動して走行する。 The traveling body 3 is a base structure of a hydraulic excavator, and is a crawler-type traveling body that runs on left and right crawler tracks 5, but a wheel-type traveling body may be used in some cases. The traveling body 3 travels by driving left and right crawler tracks 5 by left and right traveling motors 18 and 19 (FIG. 2), respectively.

旋回体4は、旋回輪6を介して走行体3の上部に設けられ、左側前部にオペレータが搭乗する運転室7を備えている。運転室7には、オペレータが座る運転席や、各種アクチュエータを操作する操作レバー等の操作装置、各種データを表示するモニタ10(図3)等が配置されている。旋回体4のベースフレームである旋回フレームには、旋回モータ17(図2)が取り付けられている。旋回モータは、油圧モータであるが、電動モータを用いる場合、油圧モータ及び電動モータの双方を用いる場合もある。旋回体4における運転室7の後側には動力室8、最後部にはカウンタウェイト9が設けられている。 The revolving body 4 is provided on the upper part of the traveling body 3 via a revolving wheel 6, and includes a driver's cab 7 in which an operator is seated at the front left side. The driver's cab 7 includes a driver's seat where an operator sits, operating devices such as operating levers for operating various actuators, a monitor 10 (FIG. 3) that displays various data, and the like. A swing motor 17 (FIG. 2) is attached to a swing frame that is a base frame of the swing structure 4. The swing motor is a hydraulic motor, but when an electric motor is used, both a hydraulic motor and an electric motor may be used. A power chamber 8 is provided on the rear side of the driver's cab 7 in the revolving structure 4, and a counterweight 9 is provided at the rearmost portion.

フロント作業機2は、旋回体4の前部(本実施形態では運転室7の右側)に連結されている。フロント作業機2は、ブーム11、アーム12、及びアタッチメント13(本実施形態ではバケット)を備えた多関節型の作業装置である。ブーム11は、旋回フレームに上下に回動可能に直接連結されると共に、ブームシリンダ14を介して旋回体フレームと連結されている。アーム12は、ブーム11の先端に回動可能に直接連結されると共に、アームシリンダ15を介してブーム11に連結されている。アタッチメント13は、アーム12の先端に回動可能に直接連結されると共に、アタッチメントシリンダ16を介してアーム12に連結されている。ブームシリンダ14、アームシリンダ15及びアタッチメントシリンダ16は、油圧シリンダである。 The front working machine 2 is connected to the front part of the revolving body 4 (in this embodiment, to the right side of the operator's cab 7). The front working machine 2 is an articulated working machine that includes a boom 11, an arm 12, and an attachment 13 (a bucket in this embodiment). The boom 11 is directly connected to the revolving frame so as to be vertically rotatable, and is also connected to the revolving body frame via a boom cylinder 14 . The arm 12 is directly rotatably connected to the tip of the boom 11 and is also connected to the boom 11 via an arm cylinder 15 . The attachment 13 is directly rotatably connected to the tip of the arm 12 and is also connected to the arm 12 via an attachment cylinder 16 . The boom cylinder 14, arm cylinder 15, and attachment cylinder 16 are hydraulic cylinders.

カウンタウェイト9の上部には、車体1の周囲(例えば旋回体4の後方)を撮影するカメラC、距離画像を取得する距離計(物体検出センサ)S2が搭載されている。 Mounted on the upper part of the counterweight 9 are a camera C that photographs the surroundings of the vehicle body 1 (for example, behind the rotating body 4), and a rangefinder (object detection sensor) S2 that acquires a distance image.

カメラCは、広角レンズとの画像センサ(CCD、CMOS等)とを有するカメラであり、旋回体4の後方を撮影するカメラに加え、旋回体4の左方を撮影するカメラや、旋回体4の右方を撮影するカメラが備えられる場合もある。カメラCは、車体1の側部又はすぐ近くがカメラ視野V1(図4A)に入るように、光軸を斜め下に向けて配置されている。 The camera C is a camera that has a wide-angle lens and an image sensor (CCD, CMOS, etc.). In some cases, a camera is installed to take pictures of the right side of the vehicle. The camera C is arranged with its optical axis directed diagonally downward so that the side of the vehicle body 1 or the immediate vicinity thereof enters the camera field of view V1 (FIG. 4A).

距離計Rは、ステレオカメラを用いることもできるが、本実施形態ではLiDAR(Light Detection and Ranging)であるとする。LiDARは、複数の測距点からなる距離画像(点群の座標データ)を取得する距離計である。距離計Rは、カメラCとの視差が小さくなるようにカメラCに接近して配置されている。距離計Rの測距視野V2(図4A)は縦横ともにカメラ視野V1より小さく(又は以下であり)、カメラ視野V1の内部に測距視野V2の全部が含まれ、測距視野V2の全部がカメラ視野V1に重なっている。距離計Rは、の測距視野V2において、左右方向(ヨー方向)及び上下方向(ピッチ方向)に光軸角度のずれた多数のレーザ光を照射し、各測距点で反射したレーザ光を受光するまでの時間から、各測距点までの距離を測定する。この構成により、距離計Rは、カメラ視野V1内の設定された自己の測距視野V2内に存在する物体(立体物)を測距し、その物体の表面の点群(複数のレーザ照射点)の座標データ(点群データ)を取得する。距離計Rで取得される座標データは、例えば距離計Rの位置を基準とするローカル座標系の値である。 Although a stereo camera can be used as the range finder R, in this embodiment, it is assumed that it is LiDAR (Light Detection and Ranging). LiDAR is a distance meter that acquires a distance image (coordinate data of a point group) consisting of a plurality of distance measurement points. The rangefinder R is placed close to the camera C so that the parallax with the camera C is small. The rangefinding field of view V2 (FIG. 4A) of the rangefinder R is smaller than (or smaller than) the camera field of view V1 both vertically and horizontally, and the entire rangefinding field of view V2 is included within the camera field of view V1. It overlaps with camera field of view V1. The rangefinder R irradiates a large number of laser beams with optical axis angles shifted in the horizontal direction (yaw direction) and vertical direction (pitch direction) in the distance measurement field of view V2, and calculates the laser beams reflected at each distance measurement point. Measure the distance to each distance measurement point from the time it takes to receive light. With this configuration, the rangefinder R measures the distance to an object (three-dimensional object) existing within the self-range measurement field of view V2 set within the camera field of view V1, and measures a group of points (a plurality of laser irradiation points) on the surface of the object. ) to obtain coordinate data (point cloud data). The coordinate data acquired by the range finder R is, for example, a value in a local coordinate system based on the position of the range finder R.

図1の油圧ショベルにおいては、ブームシリンダ14、アームシリンダ15、アタッチメントシリンダ16、旋回モータ17(図2)、及び走行モータ18,19(図2)に対し、油圧ポンプ22(図2)から吐出された圧油が操作に応じて供給される。圧油によりブームシリンダ14、アームシリンダ15及びアタッチメントシリンダ16が駆動されると、それぞれブーム11、アーム12及びアタッチメント13が回動し、アタッチメント13の位置と姿勢が変化する。旋回モータ17が駆動されると、旋回体4が旋回する。走行モータ18,19が駆動されると、走行体3が走行する。 In the hydraulic excavator shown in FIG. 1, a hydraulic pump 22 (Fig. 2) supplies water to the boom cylinder 14, arm cylinder 15, attachment cylinder 16, swing motor 17 (Fig. 2), and travel motors 18, 19 (Fig. 2). Pressure oil is supplied according to the operation. When the boom cylinder 14, arm cylinder 15, and attachment cylinder 16 are driven by pressure oil, the boom 11, arm 12, and attachment 13 rotate, and the position and attitude of the attachment 13 change. When the turning motor 17 is driven, the rotating body 4 turns. When the traveling motors 18 and 19 are driven, the traveling body 3 travels.

-油圧システム-
図2は図1の油圧ショベルに搭載された油圧システムの要部を抜き出して表した回路図である。図2に示した油圧システムは、エンジン21、油圧ポンプ22、方向切換弁24-29、コントローラ40等を含んで構成されている。
-Hydraulic system-
FIG. 2 is a circuit diagram showing the main parts of the hydraulic system installed in the hydraulic excavator of FIG. 1. The hydraulic system shown in FIG. 2 includes an engine 21, a hydraulic pump 22, directional control valves 24-29, a controller 40, and the like.

油圧ポンプ22は、ブームシリンダ14等の油圧アクチュエータを駆動する圧油を吐出する可変容量ポンプである。油圧ポンプ22には、固定容量ポンプを用いることもできる。この油圧ポンプ22は、エンジン21により駆動されてタンク23から作動油を吸入して圧油を吐出する。 The hydraulic pump 22 is a variable displacement pump that discharges pressure oil that drives hydraulic actuators such as the boom cylinder 14. A fixed capacity pump can also be used as the hydraulic pump 22. This hydraulic pump 22 is driven by the engine 21, sucks in hydraulic oil from a tank 23, and discharges pressure oil.

エンジン21には、燃料噴射量を調整するガバナ21aと、エンジン21の回転数を検出する回転数センサ21bとが備わっている。エンジン回転数は、コントローラ40がエンジン回転数を基にガバナ21aを制御することによって制御される。また、油圧ポンプ22から吐出される圧油の圧力は、リリーフ弁22aにより最大値が規定されている。 The engine 21 includes a governor 21a that adjusts the amount of fuel injection, and a rotation speed sensor 21b that detects the rotation speed of the engine 21. The engine speed is controlled by the controller 40 controlling the governor 21a based on the engine speed. Moreover, the maximum value of the pressure of the pressure oil discharged from the hydraulic pump 22 is defined by the relief valve 22a.

方向切換弁24は、油圧ポンプ22からブームシリンダ14に供給される圧油の流れ(方向及び流量)を制御する比例式の三位置切換弁である。同様に、方向切換弁25-29は、油圧ポンプ22からアームシリンダ15、アタッチメントシリンダ16、旋回モータ17、走行モータ18,19にそれぞれ供給される圧油の流れ(方向及び流量)を制御する比例式の三位置切換弁である。これら方向切換弁24-29は、対応して設けられた電磁弁がコントローラ40からの指令信号により駆動されることで動作し、油圧ポンプ22の吐出油を制御して対応する油圧アクチュエータを駆動する。 The directional switching valve 24 is a proportional three-position switching valve that controls the flow (direction and flow rate) of pressure oil supplied from the hydraulic pump 22 to the boom cylinder 14 . Similarly, the directional control valves 25-29 are proportional control valves that control the flow (direction and flow rate) of pressure oil supplied from the hydraulic pump 22 to the arm cylinder 15, attachment cylinder 16, swing motor 17, and travel motors 18, 19, respectively. This is a three-position switching valve. These directional control valves 24-29 are operated by correspondingly provided electromagnetic valves being driven by command signals from the controller 40, and control the oil discharged from the hydraulic pump 22 to drive the corresponding hydraulic actuators. .

-コントローラ-
図3はコントローラ40の人間検知機能を表す機能ブロック図である。コントローラ40は、人間検知機能に必要な演算や制御の処理を周期的に実行するCPU等の処理装置と、人間検知機能に必要なプログラムやパラメータを記憶するメモリ(記憶装置)とを有する車載コンピュータである。
-controller-
FIG. 3 is a functional block diagram showing the human detection function of the controller 40. The controller 40 is an in-vehicle computer that includes a processing device such as a CPU that periodically executes calculations and control processes necessary for the human detection function, and a memory (storage device) that stores programs and parameters necessary for the human detection function. It is.

人間検知機能とは、距離計Rにより測距した物体表面の点群(物体点群)をカメラの撮影画像上で囲うフレームF1(図10)を演算し、カメラCの撮影画像におけるフレームF1の対応領域を処理し、測距した物体が人間であるかを判定する機能である。フレームF1は、距離計Rで測距された物体のカメラCの撮影画像上の領域を示すものであり、カメラCの撮影画像に投影された物体点群(後述する欠損点群がある場合は欠損点群を含む)を囲うように演算される。本実施形態の人間検知機能には、距離計Rで下から上まで全体が測距されない物体についても、人間であるかどうかを高精度に判定できる特徴がある。 The human detection function calculates a frame F1 (Fig. 10) that encloses a group of points on the object surface measured by the rangefinder R (object point group) on the captured image of the camera, and This function processes the corresponding area and determines whether the measured object is a human. Frame F1 shows the area on the image taken by camera C of the object measured by rangefinder R, and includes the object point group (if there is a missing point group described later) projected on the image taken by camera C. (including missing points). The human detection function of this embodiment has the feature that it can be determined with high accuracy whether or not an object is a human, even if the distance meter R cannot measure the entire object from bottom to top.

人間検知機能の概要を述べると、まず、コントローラ40は、物体点群の分布に基づき、物体の実体の(現実の)上端及び下端が測距されているかを判定する。物体の実体の上端又は下端が測距されていないと判定される場合、コントローラ40は、予め設定した人間の姿勢とサイズに基づき、測距された物体が人間であるとの仮定の下、物体の上端又は下端の測距されない欠損点群を推定し仮想的に演算する。本実施形態において、欠損点群は、距離計Rの測距視野V2から外れて測距されない物体の一部であるとする。こうして欠損点群が仮想される場合、コントローラ40は、カメラCの撮影画像上の物体の存在範囲となるフレームF1を拡張し、実測した物体点群と仮想した欠損点群とがカメラCの撮影画像上で囲われるようにフレームF1を補正演算する。物体の実体の上端及び下端の双方が測距されていると判定される場合(欠損点群がないと判定される場合)、コントローラ40は、補正することなく物体点群の映る範囲をフレームF1として演算する。そして、コントローラ40は、カメラCの撮影画像のフレームF1の対応領域を処理し、測距された物体が人間であるかを判定し、判定データをモニタ10に出力する。このように例示される本実施形態の人間検知機能は、具体的には、点群生成処理41、物体検出処理42、欠損判定処理43、欠損点群推定処理44、物体画素推定処理45、人間識別処理46を含んでいる。 To give an overview of the human detection function, first, the controller 40 determines whether the (real) upper and lower ends of the actual object have been measured based on the distribution of the object point group. If it is determined that the upper end or lower end of the object is not measured, the controller 40 moves the object to the object based on the preset human posture and size and on the assumption that the distanced object is a human. The missing points at the upper or lower end of the area that are not measured are estimated and calculated virtually. In this embodiment, it is assumed that the missing point group is a part of an object that is outside the distance measurement field of view V2 of the rangefinder R and is not measured. When the missing point group is virtualized in this way, the controller 40 expands frame F1, which is the range of the object on the captured image of camera C, so that the actually measured object point group and the virtual missing point group are A correction calculation is performed on the frame F1 so that it is surrounded on the image. If it is determined that both the upper end and the lower end of the object have been measured (if it is determined that there is no missing point group), the controller 40 converts the range of the object point group into frame F1 without correction. Calculate as Then, the controller 40 processes the corresponding area of the frame F1 of the image taken by the camera C, determines whether the measured object is a human, and outputs determination data to the monitor 10. Specifically, the human detection function of this embodiment illustrated in this way includes a point cloud generation process 41, an object detection process 42, a defect determination process 43, a defective point group estimation process 44, an object pixel estimation process 45, and a human detection function. It includes an identification process 46.

1.点群生成処理
点群生成処理41において、コントローラ40は、距離計Rから入力された各点の測距データ(垂直角度、水平角度、距離)を基に、距離計Rを基準とする距離計座標系(XrYrZr座標系)における各点の座標(Xr,Yr,Zr)を点群データとして演算する。測距データの水平角度と水平角度は測距点毎の既定値であり、距離は測定値である。垂直角度は、距離計Rから見て、低角側から高角側に向かって大きくなる値である。水平角度は、距離計Rから見て、左から右に向かって大きくなる値である。距離は、距離計Rから離れるにつれて大きくなる値である。演算された点群の3次元座標のデータセットは、演算の基礎とした測距データと紐づけてメモリに記憶される。
1. Point cloud generation process In the point cloud generation process 41, the controller 40 generates a rangefinder using the rangefinder R as a reference based on the distance measurement data (vertical angle, horizontal angle, distance) of each point input from the rangefinder R. The coordinates (Xr, Yr, Zr) of each point in the coordinate system (XrYrZr coordinate system) are calculated as point group data. The horizontal angle and horizontal angle of the ranging data are default values for each ranging point, and the distance is a measured value. The vertical angle is a value that increases from the low angle side to the high angle side when viewed from the rangefinder R. The horizontal angle is a value that increases from left to right when viewed from the rangefinder R. The distance is a value that increases as the distance from the rangefinder R increases. The data set of the calculated three-dimensional coordinates of the point group is stored in the memory in association with the distance measurement data on which the calculation is based.

2.物体検出処理
物体検出処理42において、コントローラ40は、点群生成処理41で演算された点群データから、物体点群のデータを抽出する。例えば、距離計Rの位置及び姿勢(既知のデータ)を基に地面の測距データと推定される点群を点群データから除外し、残った点群を点群間の距離に応じてクラスタリング処理して得られた1つ又は複数の点群を物体点群として抽出することができる。クラスタリング処理は、例えば処理対象とする点群について点毎に最も近い点を求め、互いの距離が設定距離以内の2点は同一物体に属することとして物体点群をグルーピングすることで行うことができる。
2. Object Detection Process In the object detection process 42, the controller 40 extracts object point group data from the point group data calculated in the point cloud generation process 41. For example, based on the position and orientation of the rangefinder R (known data), point clouds that are estimated to be ground ranging data are excluded from the point cloud data, and the remaining point clouds are clustered according to the distance between the point clouds. One or more point groups obtained through the processing can be extracted as an object point group. Clustering processing can be performed, for example, by finding the closest point for each point in the point group to be processed, and grouping the object point group by assuming that two points within a set distance from each other belong to the same object. .

3.欠損判定処理
図4A及び図4Bは距離計Rと物体との位置関係を表す図である。図4Aには、物体Mが距離計Rの測距視野V2の下縁を跨ぎ、実体の下端(物体Mが人間であれば足元)が測距されない状態を表している。図4Bには、物体Mが距離計Rの測距視野V2の上縁を跨ぎ、実体の上端(物体Mが人間であれば頭部)が測距されない状態を表している。つまり、図4Aの状態では、距離計Rの測距視野V2の下側に測距視野V2から外れた物体Mの一部分が存在し、距離計Rにより得られる点群データが物体Mの下側の一部のデータを欠く。反対に、図4Bの状態では、距離計Rの測距視野V2の上側に測距視野V2から外れた物体Mの一部分が存在し、距離計Rにより得られる点群データが物体Mの上側の一部のデータを欠く。図4A又は図4Bに例示される場面において、距離計Rで測距された物体点群の範囲のカメラ画像を処理しても、物体Mの全体像が処理されないことから、物体Mが何であるかが正確に識別されない。
3. Defect Determination Processing FIGS. 4A and 4B are diagrams showing the positional relationship between the rangefinder R and the object. FIG. 4A shows a state in which the object M straddles the lower edge of the distance measurement field of view V2 of the rangefinder R, and the lower end of the object (or the feet if the object M is a human being) is not measured. FIG. 4B shows a state in which the object M straddles the upper edge of the distance measurement field of view V2 of the rangefinder R, and the upper end of the object (or the head if the object M is a human being) is not measured. In other words, in the state shown in FIG. 4A, there is a part of the object M that is outside the rangefinding field of view V2 below the rangefinder field of view V2 of the rangefinder R, and the point cloud data obtained by the rangefinder R is below the rangefinder field of view V2. lacks some data. On the other hand, in the state shown in FIG. 4B, there is a part of the object M that is outside the rangefinding field of view V2 above the rangefinder field of view V2 of the rangefinder R, and the point cloud data obtained by the rangefinder R is located above the rangefinder field of view V2. Missing some data. In the scene illustrated in FIG. 4A or 4B, even if the camera image of the range of the object point group measured by the rangefinder R is processed, the entire image of the object M is not processed, so what is the object M? is not accurately identified.

そこで、欠損判定処理43において、コントローラ40は、距離計Rで測距された物体点群の分布を基に、物体Mの実体の上端及び下端が測距されているか、つまり物体点群が物体Mの実体を下端から上端まで測距したものであるかを既定のアルゴリズムで判定する。この処理において、コントローラ40は、物体点群を構成する点が、距離計Rの測距視野V2の四辺の上下いずれかの辺に設定数以上ある場合、設定数以上の点を含む辺を跨いで測距視野V2外に物体Mの仮想される一部分(欠損点群)が存在すると推定する。 Therefore, in the defect determination process 43, the controller 40 determines whether the upper and lower ends of the substance of the object M have been ranged based on the distribution of the object point group measured by the range meter R, that is, whether the object point group is A predetermined algorithm is used to determine whether the distance of the entity M is measured from the bottom end to the top end. In this process, if the number of points constituting the object point group is greater than or equal to the set number on either the upper or lower side of the four sides of the rangefinding field of view V2 of the rangefinder R, the controller 40 straddles the side that includes the set number or more points. It is estimated that a hypothetical part of the object M (missing point group) exists outside the distance measurement field of view V2.

図5はコントローラ40による欠損判定処理43の手順を表すフローチャートである。 FIG. 5 is a flowchart showing the procedure of defect determination processing 43 by the controller 40.

欠損判定処理43を開始すると、コントローラ40は、ステップS11において、物体検出処理42で検出した(現在測距されている)物体点群の点群データをメモリからCPUに読み込んでステップS12に手順を移す。 When the defect determination process 43 is started, the controller 40 reads the point cloud data of the object point group detected (currently ranging) in the object detection process 42 from the memory into the CPU in step S11, and executes the procedure in step S12. Move.

ステップS12に手順を移すと、コントローラ40は、距離計Rの測距視野V2の下辺に属する点が物体点群に設定数以上あるか否かを判定する。例えば、コントローラ40は、距離計Rの垂直画角で一意に定まる測距視野V2の最小垂直角度(測距視野V2の下辺の垂直角度)と、物体点群の各点の垂直角度とを比較する。そして、コントローラ40は、最小垂直角度との角度差が予め設定された閾値以下である点を測距視野V2の下辺に属する点であると判定し、それら点の点数N1をカウントする。 Shifting the procedure to step S12, the controller 40 determines whether the object point group includes a set number or more of points belonging to the lower side of the distance measurement field of view V2 of the range finder R. For example, the controller 40 compares the minimum vertical angle of the distance measurement field of view V2 (the vertical angle of the lower side of the distance measurement field of view V2), which is uniquely determined by the vertical angle of view of the rangefinder R, with the vertical angle of each point of the object point group. do. Then, the controller 40 determines points whose angular difference from the minimum vertical angle is less than or equal to a preset threshold as points belonging to the lower side of the distance measurement field of view V2, and counts the number N1 of these points.

続くステップS13において、コントローラ40は、カウントした点数N1が、予め設定されてメモリに記憶された設定数Na以上であるか否かを判定し、N1≧Naである場合はステップS14に手順を移し、N1<Naである場合はステップS15に手順を移す。 In the subsequent step S13, the controller 40 determines whether the counted number N1 is greater than or equal to a set number Na that is set in advance and stored in the memory, and if N1≧Na, the procedure moves to step S14. , if N1<Na, the procedure moves to step S15.

ステップS14に手順を移した場合、コントローラ40は、物体Mの欠損点群が測距視野V2の下側にあると判定し、その判定データをメモリに記憶して欠損判定処理43を終了し、欠損点群推定処理44に移行する。 When the procedure moves to step S14, the controller 40 determines that the missing point group of the object M is below the ranging field of view V2, stores the determination data in the memory, and ends the missing point determination process 43, The process moves to missing point group estimation processing 44 .

ステップS15に手順を移した場合、コントローラ40は、距離計Rの測距視野V2の上辺に属する点が物体点群に設定数以上あるか否かを判定し、ステップS16に手順を移す。例えば、コントローラ40は、距離計Rの垂直画角で一意に定まる測距視野V2の最大垂直角度(測距視野V2の上辺の垂直角度)と、物体点群の各点の垂直角度とを比較する。そして、コントローラ40は、最小垂直角度との角度差が予め設定された閾値以下である点を測距視野V2の上辺に属する点であると判定し、それら点の点数N2をカウントする。 When the procedure moves to step S15, the controller 40 determines whether the object point group has a set number or more of points belonging to the upper side of the distance measurement field of view V2 of the range finder R, and moves the procedure to step S16. For example, the controller 40 compares the maximum vertical angle of the ranging field of view V2 (the vertical angle of the upper side of the ranging field of view V2), which is uniquely determined by the vertical angle of view of the rangefinder R, with the vertical angle of each point of the object point group. do. Then, the controller 40 determines points whose angular difference from the minimum vertical angle is less than or equal to a preset threshold as points belonging to the upper side of the distance measurement field of view V2, and counts the number N2 of these points.

続くステップS16において、コントローラ40は、カウントした点数N2が、予め設定されてメモリに記憶された設定数Nb以上であるか否かを判定し、N2≧Nbである場合はステップS17に手順を移し、N2<Nbである場合はステップS18に手順を移す。 In the subsequent step S16, the controller 40 determines whether the counted number N2 is equal to or greater than a set number Nb that is set in advance and stored in the memory, and if N2≧Nb, the procedure moves to step S17. , if N2<Nb, the procedure moves to step S18.

ステップS17に手順を移した場合、コントローラ40は、物体Mの欠損点群が測距視野V2の上側にあると判定し、その判定データをメモリに記憶して欠損判定処理43を終了し、欠損点群推定処理44に移行する。 When the procedure moves to step S17, the controller 40 determines that the missing point group of the object M is above the ranging field of view V2, stores the determination data in the memory, ends the missing point determination process 43, and The process moves to point cloud estimation processing 44 .

ステップS18に手順を移した場合、コントローラ40は、物体Mの欠損点群はないと判定し、その判定データをメモリに記憶して欠損判定処理43を終了し、欠損点群推定処理44に移行する。 When the procedure moves to step S18, the controller 40 determines that there is no missing point group of the object M, stores the judgment data in the memory, ends the missing point group estimation process 43, and moves to the missing point group estimation process 44. do.

4.欠損点群推定処理
欠損点群推定処理44において、コントローラ40は、欠損点群がある場合、予め設定した人間の姿勢とサイズを基に、カメラCの撮影画像において測距視野V2を越えて物体Mが映り得る横軸方向及び縦軸方向の最大範囲を既定のアルゴリズムで演算する。この最大範囲が物体Mの欠損点群が映り得る範囲であり、コントローラ40は、演算した最大範囲に基づきフレームF1を補正する。
4. Missing Point Group Estimation Process In the missing point group estimation process 44, if there is a missing point group, the controller 40 detects an object beyond the distance measurement field of view V2 in the photographed image of the camera C based on the preset human posture and size. The maximum range in the horizontal and vertical directions in which M can be reflected is calculated using a predetermined algorithm. This maximum range is the range in which the missing points of the object M can be seen, and the controller 40 corrects the frame F1 based on the calculated maximum range.

図6はコントローラ40による欠損点群推定処理44の手順を表すフローチャートである。 FIG. 6 is a flowchart showing the procedure of the missing point group estimation process 44 by the controller 40.

欠損点群推定処理44を開始すると、コントローラ40は、ステップS21において、欠損判定処理43による欠損点群の有無及び方向のデータをメモリからCPUに読み込んでステップS22に手順を移す。 When the missing point group estimation process 44 is started, the controller 40 reads data on the presence/absence and direction of the missing point group from the memory into the CPU in step S21, and moves the procedure to step S22.

ステップS22において、コントローラ40は、欠損処理判定43で欠損点群があると判定されたかを判定し、欠損点群の存在が推定される場合はステップS23に手順を移し、欠損点群は存在しないと推定される場合はステップS27に手順を移す。 In step S22, the controller 40 determines whether it is determined that there is a missing point group in the missing processing determination 43, and if it is estimated that there is a missing point group, the procedure moves to step S23, and no missing point group exists. If it is estimated that this is the case, the procedure moves to step S27.

ステップS23に手順を移すと、コントローラ40は、カメラC及び距離計Rの位置と姿勢の既知データを基に、物体点群の座標データを距離計座標系の値(Xr,Yr,Zr)からカメラ座標系の値(Xc,Yc,Zc)に変換し、ステップS24に手順を移す。カメラ座標系は、直交座標系である(図4A)。Xc軸はカメラCの画像センサの受光面に平行でカメラCから見て上向きに正の値をとり、Yc軸はカメラCの画像センサの受光面に平行でカメラCから見て右向きに正の値をとり、Zc軸は画像センサの受光面に直交しカメラCから離れる方向に正の値をとる。 Moving the procedure to step S23, the controller 40 converts the coordinate data of the object point group from the values (Xr, Yr, Zr) of the rangefinder coordinate system based on the known data of the position and orientation of the camera C and the rangefinder R. The values are converted into camera coordinate system values (Xc, Yc, Zc), and the procedure moves to step S24. The camera coordinate system is a Cartesian coordinate system (FIG. 4A). The Xc axis is parallel to the light receiving surface of the image sensor of camera C and takes a positive value upward when viewed from camera C, and the Yc axis is parallel to the light receiving surface of the image sensor of camera C and takes a positive value pointing rightward as seen from camera C. The Zc axis is perpendicular to the light receiving surface of the image sensor and takes a positive value in the direction away from camera C.

ステップS24において、コントローラ40は、カメラ座標系における人間の直立方向ベクトル(大きさは任意)を推定し、ステップS25に手順を移す。人間の直立方向は、例えば旋回体4の上向き方向(旋回体4の回転軸方向)を想定しても良いし、水平面と直交する方向(鉛直方向)を想定しても良い。前者の場合、旋回体4に対するカメラCの取付姿勢から、カメラ座標系における旋回体4の上向き方向を演算することができる。後者の場合、例えば重力方向を基準とする車体1の傾斜角を検出する傾斜センサを旋回体4に設け、水平面に対する旋回体4の傾きに基づいてカメラ座標系における旋回体4の上向き方向を演算することができる。傾斜センサには、慣性計測装置(IMU)等を用いることができる。 In step S24, the controller 40 estimates the human's upright direction vector (the size is arbitrary) in the camera coordinate system, and moves the procedure to step S25. The direction in which a person stands upright may be, for example, the upward direction of the rotating body 4 (the rotational axis direction of the rotating body 4), or the direction perpendicular to the horizontal plane (vertical direction). In the former case, the upward direction of the rotating body 4 in the camera coordinate system can be calculated from the mounting attitude of the camera C with respect to the rotating body 4. In the latter case, for example, a tilt sensor that detects the inclination angle of the vehicle body 1 with respect to the direction of gravity is provided on the rotating body 4, and the upward direction of the rotating body 4 in the camera coordinate system is calculated based on the inclination of the rotating body 4 with respect to the horizontal plane. can do. An inertial measurement unit (IMU) or the like can be used as the tilt sensor.

ステップS25において、コントローラ40は、物体点群の重心を通り人間の直立方向ベクトルとカメラ座標系のXc軸とで定義される平面に平行な仮想平面を演算し、ステップS26に手順を移す。ここで、カメラCから見た仮想平面の横軸(右向き)をXc軸、Xc軸に直交する縦軸(上向き)をYb軸と定義する(図4A)。 In step S25, the controller 40 calculates a virtual plane that passes through the center of gravity of the object point group and is parallel to the plane defined by the human's upright direction vector and the Xc axis of the camera coordinate system, and moves the procedure to step S26. Here, the horizontal axis (rightward) of the virtual plane viewed from camera C is defined as the Xc axis, and the vertical axis (upward) orthogonal to the Xc axis is defined as the Yb axis (FIG. 4A).

ステップS26において、コントローラ40は、物体点群の点群データに基づき、仮想平面内で人間が腰を曲げた姿勢や直立した姿勢を想定して欠損点群を仮想し、欠損点群推定処理44を終了して物体画素推定処理45に移行する。仮想平面内で腰を曲げたときにカメラCに人間が映り得るXc軸方向の範囲が最大にあるためである。欠損点群は、予め設定されてメモリに格納された人間の姿勢及びサイズ(姿勢毎のサイズ)のデータに基づき仮想演算される(後述)。 In step S<b>26 , the controller 40 virtualizes a missing point group based on the point group data of the object point group, assuming a bent posture or an upright posture of a human in the virtual plane, and performs a missing point group estimation process 44 . , and the process moves to object pixel estimation processing 45. This is because the range in the Xc-axis direction in which a person can be seen by the camera C when bending the waist within the virtual plane is the maximum. The missing point group is virtually calculated based on data of human posture and size (size for each posture) that is set in advance and stored in memory (described later).

ステップS27に手順を移した場合、コントローラ40は、欠損点群を点群数が0の空点群とし、欠損点群推定処理44を終了して物体画素推定処理45に移行する。 When the procedure moves to step S27, the controller 40 sets the missing point group to a blank point group with a point group number of 0, ends the missing point group estimation process 44, and proceeds to the object pixel estimation process 45.

4-1.欠損点群の仮想方法
図7に示したように、人間の上半身長さをLu、下半身長さをLd、身長をLh(=Lu+Ld)とし、更に、人間が腰を曲げたときの屈曲点をO、屈曲点Oで想定される最大折れ角をθmaxとする。また、本実施形態において、人間の下半身はYb軸と平行、屈曲点Oは上半身の任意の1点、屈曲点Oを除き人間は直線形状であると想定する。人間の足元(下端)に点A、頭頂部(上端)に点Bを設定すると、OA≧Ld,OA+OB=Lhが成立する。線分OAはYb軸と平行である。
4-1. Virtual method for missing point group As shown in Figure 7, the upper half height of a human being is Lu, the lower half height is Ld, the height is Lh (=Lu+Ld), and the bending point when the human bends the waist is 0, and the maximum bending angle assumed at the bending point O is θmax. Further, in this embodiment, it is assumed that the lower body of the human being is parallel to the Yb axis, that the bending point O is an arbitrary point on the upper body, and that the human being has a straight line shape except for the bending point O. When point A is set at the feet (lower end) of a human being and point B is set at the top of the head (upper end), OA≧Ld and OA+OB=Lh hold. Line segment OA is parallel to the Yb axis.

ここで、コントローラ40のメモリには、図7のモデルについて予め設定された点Pxmin,Pxmax,Pymax,Pyminが記憶されている。点Pxminは、欠損点群が取り得る最小Xc座標の点である。点Pxmaxは、欠損点群が取り得る最大Xc座標の点である。点Pymaxは、欠損点群が取り得る最大Yb座標の点である。点Pyminは、欠損点群が取り得る最小Yb座標の点である。欠損判定処理43で距離計Rの測距視野V2の上側に欠損点群があると判定した場合、コントローラ40は、Pxmin,Pxmax,Pymaxの3点を演算することで、欠損点群が取り得る最大範囲を仮想する。反対に、欠損判定処理43で距離計Rの測距視野V2の下側に欠損点群があると判定した場合、コントローラ40は、Pxmin,Pxmax,Pyminの3点を演算することで、欠損点群が取り得る最大範囲を仮想する。以下に詳細を説明する。 Here, the memory of the controller 40 stores points Pxmin, Pxmax, Pymax, and Pymin that are set in advance for the model shown in FIG. The point Pxmin is the point with the minimum Xc coordinate that the missing point group can take. The point Pxmax is the point with the maximum Xc coordinate that the missing point group can take. The point Pymax is the point with the maximum Yb coordinate that the missing point group can take. The point Pymin is the point with the minimum Yb coordinate that the missing point group can take. If it is determined in the defect determination process 43 that there is a missing point group above the distance measurement field of view V2 of the rangefinder R, the controller 40 calculates the three points Pxmin, Pxmax, and Pymax to determine which points the missing point group can take. Virtual maximum range. On the other hand, if it is determined in the defect determination process 43 that there is a group of missing points below the distance measurement field of view V2 of the rangefinder R, the controller 40 calculates the three points Pxmin, Pxmax, and Pymin to remove the missing points. Assume the maximum possible range of the group. Details will be explained below.

4-2.測距視野の上側に欠損点群が存在する場合
距離計Rの測距視野V2の上側に欠損点群がある場合のPxminの仮想方法を説明する。
4-2. When a group of missing points exists above the range-finding field of view A hypothetical method for Pxmin when there is a group of missing points above the range-finding field of view V2 of the rangefinder R will be described.

図8Aは、物体点群の高さが人間モデルの下半身長さより大きい条件下で距離計Rの測距視野V2の上側に存在する欠損点群が取り得るPxminを仮想する方法を説明するための図である。同図では、腰よりも上(例えば背中)で身体を折った人間モデルを図示している。Pxminは、点B(人間モデルの頭頂部)に当たる。図8Aに示した点線枠は、仮想平面に投影した物体点群の全部を過不足なく囲う物体点群存在範囲である。この物体存在範囲は、Xc軸に平行な2辺とYb軸に平行な2辺からなる長方形で定義される。物体点群存在範囲の四辺は、仮想平面に投影した物体点群のうち、Xc座標が最小の点、Xc座標が最大の点、Yb座標が最小の点、Yb座標が最大の点に外接する。 FIG. 8A is a diagram illustrating a method for imagining Pxmin that can be taken by a missing point group existing above the ranging field of view V2 of the rangefinder R under the condition that the height of the object point group is greater than the height of the lower half of the human model. It is a diagram. The figure shows a human model whose body is bent above the waist (for example, at the back). Pxmin corresponds to point B (the top of the human model's head). The dotted line frame shown in FIG. 8A is the object point group existence range that surrounds all the object point group projected onto the virtual plane without excess or deficiency. This object existence range is defined by a rectangle consisting of two sides parallel to the Xc axis and two sides parallel to the Yb axis. The four sides of the object point group existence range are circumscribed by the point with the minimum Xc coordinate, the point with the maximum Xc coordinate, the point with the minimum Yb coordinate, and the point with the maximum Yb coordinate among the object points projected onto the virtual plane. .

ここで、物体点群存在範囲のYb軸方向の長さ(物体点群の高さ)をH、物体点群のXc座標の最大値及び最小値をXcmax及びXcmin、Yb座標の最大値及び最小値をYbmax及びYbminとする。この場合、人間モデルの足元(点A)のYb座標はYbminであり、物体存在範囲の上辺は、線分OA又は線分OPxminと交差する。物体存在範囲の上辺は、点(Xcmin,Ybmax)と点(Xcmax,Ybmax)とを結ぶ線分である。Pxminは、点Aを物体存在範囲の左下の角(Xcmin,Ybmin)にとり、Xc軸の負の方向(左側)にθmaxだけ身体を折った人間モデルを用いて演算できる。屈曲点Oについては、線分OAがYb軸と平行であること、OA+OPmin=Lhであること、線分OA又はOPminが物体存在範囲の上辺と交わることから、物体存在範囲の左上の角(Xcmin,Ybmax)をとることでPxminを仮想できる。以上から、Pxminの座標は、(Xcmin-(Lh-H)sin(θmax),Ybmax+(Lh-H)cos(θmax))と演算できる。 Here, the length of the object point group existence range in the Yb-axis direction (the height of the object point group) is H, the maximum and minimum values of the Xc coordinates of the object point group are Xcmax and Xcmin, and the maximum and minimum values of the Yb coordinate. Let the values be Ybmax and Ybmin. In this case, the Yb coordinate of the human model's feet (point A) is Ybmin, and the upper side of the object existing range intersects the line segment OA or the line segment OPxmin. The upper side of the object existence range is a line segment connecting the points (Xcmin, Ybmax) and (Xcmax, Ybmax). Pxmin can be calculated using a human model whose body is bent by θmax in the negative direction (left side) of the Xc axis, with point A at the lower left corner (Xcmin, Ybmin) of the object existence range. Regarding the bending point O, the line segment OA is parallel to the Yb axis, OA + OPmin = Lh, and the line segment OA or OPmin intersects the upper side of the object existence range, so the upper left corner of the object existence range (Xcmin , Ybmax), Pxmin can be virtualized. From the above, the coordinates of Pxmin can be calculated as (Xcmin-(Lh-H) sin(θmax), Ybmax+(Lh-H) cos(θmax)).

図8Bは、物体点群の高さが人間モデルの下半身長さ以下である条件下で距離計Rの測距視野V2の上側に存在する欠損点群が取り得るPxminを仮想する方法を説明するための図である。この場合も、Pxminは、点Aを(Xcmin,Ybmin)にとり、Xc軸の負の方向にθmaxだけ身体を曲げた人間モデルを用いて演算される。屈曲点Oについては、線分OAがYb軸と平行であること、線分OAが下半身長さLd以上であることを考慮すると、人間モデルの腰の位置(Xcmin,Ybmin+Ld)にとることでPxminを仮想することができる。以上から、Pxminの座標は、(Xcmin-Lu×sin(θmax),Ybmin+Ld+Lu×cos(θmax))と演算できる。 FIG. 8B explains a method of imagining Pxmin that can be taken by the missing point group existing above the ranging field of view V2 of the rangefinder R under the condition that the height of the object point group is less than or equal to the lower half height of the human model. This is a diagram for In this case as well, Pxmin is calculated using a human model in which point A is taken as (Xcmin, Ybmin) and the body is bent by θmax in the negative direction of the Xc axis. Regarding the bending point O, considering that the line segment OA is parallel to the Yb axis and that the line segment OA is greater than or equal to the lower half height Ld, Pxmin can be obtained by taking the bending point O at the waist position of the human model (Xcmin, Ybmin + Ld). can be virtualized. From the above, the coordinates of Pxmin can be calculated as (Xcmin-Lu×sin(θmax), Ybmin+Ld+Lu×cos(θmax)).

測距視野V2の上側に欠損点群がある場合のPxmaxの座標も、以上のPxminの座標と同じ要領で演算できる。H>Ldの場合、Pxmaxの座標は(Xcmax+(Lh-H)sin(θmax),Ybmax+(Lh-H)cos(θmax))と演算される。H≦Ldの場合、Pxmaxの座標は(Xcmax+Lu×sin(θmax),Ybmin+Ld+Lu×cos(θmax))と演算される。 The coordinates of Pxmax when there is a group of missing points above the range-finding field of view V2 can also be calculated in the same manner as the coordinates of Pxmin above. When H>Ld, the coordinates of Pxmax are calculated as (Xcmax+(Lh-H) sin(θmax), Ybmax+(Lh-H) cos(θmax)). When H≦Ld, the coordinates of Pxmax are calculated as (Xcmax+Lu×sin(θmax), Ybmin+Ld+Lu×cos(θmax)).

測距視野V2の上側に欠損点群がある場合のPymaxの座標は、直立姿勢の人間を想定して求められることから、Pxmin又はPxmaxの座標のθmaxに0を代入することで求めることができる。具体的には、Pymaxの座標は(Xcmin,Ybmin+Lh)と演算される。 The coordinates of Pymax when there is a missing point group above the distance measurement field of view V2 are obtained assuming a person in an upright posture, so they can be obtained by substituting 0 for θmax in the coordinates of Pxmin or Pxmax. . Specifically, the coordinates of Pymax are calculated as (Xcmin, Ybmin+Lh).

4-3.測距視野の下側に欠損点群が存在する場合
図9Aは、物体点群の高さが人間モデルの上半身の高さ成分以上(H≦Lu×cos(θmax))である条件下で距離計Rの測距視野V2の下側に存在する欠損点群が取り得るPxmaxを仮想する方法を説明するための図である。同図では、腰で身体を折った人間モデルを図示している。Pxmaxは、点A(人間モデルの足元)に当たる。この図において、点B(人間モデルの頭頂部)のYb座標はYbmaxであり、線分OB又はOPが物体存在範囲の下辺と交差すると仮定する。物体存在範囲の下辺は、点(Xcmin,Ybmin)と点(Xcmax,Ybmin)とを結ぶ線分である。
4-3. When there is a missing point group on the lower side of the distance measurement field of view. Figure 9A shows the distance under the condition that the height of the object point group is greater than or equal to the height component of the upper body of the human model (H≦Lu×cos(θmax)). FIG. 6 is a diagram for explaining a method of imagining Pxmax that can be taken by a group of missing points existing below the distance measurement field of view V2 of the meter R; The figure shows a human model with its body bent at the waist. Pxmax corresponds to point A (the foot of the human model). In this figure, it is assumed that the Yb coordinate of point B (the top of the human model's head) is Ybmax, and that the line segment OB or OP intersects the lower side of the object existing range. The lower side of the object existence range is a line segment connecting the point (Xcmin, Ybmin) and the point (Xcmax, Ybmin).

図9Aにおいて、Pxminは、Xc軸の負の方向(左側)にθmaxだけ身体を折った人間モデルを用いて演算できる。屈曲点Oは、物体存在範囲の右下の角の点Q(Xcmax,Ybmin)と点Bとを通る直線上に存在すること、OP≧Ldであることを考慮すると、OP=Ld、OB=Luの条件でPxmaxが仮想できる。このとき、線分BQ=H/cos(θmax)、OQ=Lu-H/cos(θmax)であるため、Pxmaxの座標は(Xcmax+Lu×sin(θmax)-Htan(θmax),Ybmin-Lu×cos(θmax)+H-Ld)と演算できる。 In FIG. 9A, Pxmin can be calculated using a human model whose body is bent by θmax in the negative direction (left side) of the Xc axis. Considering that the inflection point O exists on a straight line passing through point Q (Xcmax, Ybmin) at the lower right corner of the object existing range and point B, and that OP≧Ld, OP=Ld, OB= Pxmax can be assumed under the conditions of Lu. At this time, since the line segment BQ=H/cos(θmax) and OQ=Lu−H/cos(θmax), the coordinates of Pxmax are (Xcmax+Lu×sin(θmax)−Htan(θmax), Ybmin−Lu×cos (θmax)+HLd) can be calculated.

図9Bは、物体点群の高さが人間モデルの上半身の高さ成分未満(H>Lu×cos(θmax))想である定下で距離計Rの測距視野V2の下側に存在する欠損点群が取り得るPxmaxを仮想する方法を説明するための図である。図9Bにおいても、図9Aと同様、OP=Ld、OB=Luで、Xc軸の負の方向にθmaxだけ身体を折った人間モデルを用いる。屈曲点Oは物体存在範囲の右辺上に存在する。物体存在範囲の右辺は、点(Xcmax,Ybmax)と点(Xcmax,Ybmin)とを結ぶ線分である。これら条件から、図9B中のPxmaxの座標は(Xcmax、Ybmax-Lu×cos(θmax)-Ld)と演算できる。 FIG. 9B shows an object point group existing below the rangefinding field of view V2 of the rangefinder R under a constant condition in which the height of the object point group is less than the height component of the upper body of the human model (H>Lu×cos(θmax)). FIG. 6 is a diagram for explaining a method of imagining Pxmax that a group of missing points can take. Similarly to FIG. 9A, in FIG. 9B, a human model is used in which OP=Ld, OB=Lu, and the body is bent by θmax in the negative direction of the Xc axis. The bending point O exists on the right side of the object existing range. The right side of the object existence range is a line segment connecting the points (Xcmax, Ybmax) and (Xcmax, Ybmin). From these conditions, the coordinates of Pxmax in FIG. 9B can be calculated as (Xcmax, Ybmax-Lu×cos(θmax)-Ld).

測距視野V2の下側に欠損点群がある場合のPxmminの座標も、以上のPxmaxの座標と同じ要領で演算できる。H≦Lu×cos(θmax)の場合、Pxminの座標は(Xcmin-Lu×sin(θmax)+Htan(θmax),Ybmin-Lu×cos(θmax)+H-Ld)と演算される。H>Lu×cos(θmax)の場合、Pxminの座標は(Xcmin、Ybmax-Lu×cos(θmax)-Ld)と演算できる。 The coordinates of Pxmmin when there is a group of missing points below the distance measurement field of view V2 can also be calculated in the same manner as the coordinates of Pxmax above. When H≦Lu×cos(θmax), the coordinates of Pxmin are calculated as (Xcmin−Lu×sin(θmax)+Htan(θmax), Ybmin−Lu×cos(θmax)+HLd). When H>Lu×cos(θmax), the coordinates of Pxmin can be calculated as (Xcmin, Ybmax−Lu×cos(θmax)−Ld).

測距視野V2の下側に欠損点群がある場合のPyminの座標は、直立姿勢の人間を想定して求められることから、Pxmin又はPxmaxの座標のθmaxに0を代入することで求めることができる。具体的には、Pyminの座標は(Xcmin,Ybmax-Lh)と演算できる。 The coordinates of Pymin when there is a missing point group on the lower side of the ranging field of view V2 can be found by assuming a person in an upright posture, so it can be found by substituting 0 for θmax in the coordinates of Pxmin or Pxmax. can. Specifically, the coordinates of Pymin can be calculated as (Xcmin, Ybmax-Lh).

なお、本実施形態においては、物体画素推定処理45(後述)で長方形のフレームを演算するため、Pxmin,Pxmax,Pymin,Pymaxのうち3点のみを演算する例を説明した。しかし、フレームの形状を四角形よりも角の多い多角形とし、カメラ画像上における人間の画像の存在範囲の仮想精度をより高める場合には、演算する点数を3点より多くしても良い。また、人間モデルの屈曲角度がθmaxより小さい条件でPxmax等を演算しても良いし、仮想平面に対して傾斜した方向に屈曲した人間モデルを用いてPxmax等を演算しても良い。 In this embodiment, an example has been described in which only three points among Pxmin, Pxmax, Pymin, and Pymax are calculated in order to calculate a rectangular frame in the object pixel estimation process 45 (described later). However, if the shape of the frame is a polygon with more corners than a rectangle and the virtual accuracy of the range of the human image on the camera image is to be further improved, the number of points to be calculated may be greater than three. Further, Pxmax, etc. may be calculated under the condition that the bending angle of the human model is smaller than θmax, or Pxmax, etc. may be calculated using a human model bent in a direction inclined with respect to the virtual plane.

5.物体画素推定処理
図10はコントローラ40による物体画素推定処理45の概要を説明するための図である。物体画素推定処理45において、コントローラ40は、物体検出処理42で検出した物体点群と欠損点群推定処理44で仮想した欠損点群(例えばPxmin,Pxmax,Pymax)に対応する、カメラCの画像センサの複数の画素を演算する。そして、コントローラ40は、これら複数の画素から、横軸方向位置が最小の画素、横軸方向位置が最大の画素、縦軸方向位置が最小の画素、縦軸方向位置が最大の画素を抽出し、長方形のフレームF1を演算により求める。点群に対応する画素は、例えばカメラC及び距離計Rの位置及び姿勢の既知データ、カメラCの内部パラメータに基づき、公知のピンホールモデルによる3次元点群の透視投影変換を用いて求めることができる。言うまでもないが、フレームF1は、横軸方向位置が最小の画素を通る縦線(左辺)、横軸方向位置が最大の画素を通る縦線(右辺)、縦軸方向位置が最小の画素を通る横線(下辺)、縦軸方向位置が最大の画素を通る横線(上辺)で定義される。
5. Object Pixel Estimation Process FIG. 10 is a diagram for explaining an overview of the object pixel estimation process 45 by the controller 40. In the object pixel estimation process 45, the controller 40 generates an image of the camera C corresponding to the object point group detected in the object detection process 42 and the missing point group (for example, Pxmin, Pxmax, Pymax) virtualized in the missing point group estimation process 44. Calculate multiple pixels of the sensor. Then, the controller 40 extracts the pixel with the minimum horizontal position, the maximum pixel with the horizontal position, the minimum pixel with the vertical position, and the maximum pixel with the maximum vertical position from the plurality of pixels. , a rectangular frame F1 is calculated. Pixels corresponding to the point cloud can be obtained by using perspective projection transformation of the three-dimensional point cloud using a known pinhole model, for example, based on known data on the positions and orientations of the camera C and the rangefinder R, and internal parameters of the camera C. I can do it. Needless to say, frame F1 includes a vertical line (left side) passing through the pixel with the smallest horizontal position, a vertical line (right side) passing through the pixel with the largest horizontal position, and a vertical line passing through the pixel with the smallest vertical position. It is defined by a horizontal line (lower side) and a horizontal line (upper side) passing through the pixel with the largest vertical axis position.

6.人間識別処理
人間識別処理46に移行すると、コントローラ40は、物体画素推定処理45で演算したフレームF1を用い、カメラCによる撮影画像を処理して人間の識別を実行する。人間の識別には、例えば、ディープラーニングやHOG等の特徴量抽出を用いることができる。人間識別処理46の判定データは、コントローラ40からモニタ10に出力され、例えばカメラCの撮影画像にフレームF1を合成したライブビュー映像、その他テキスト情報や警報音等の適宜の報知形態により、人間の存在がオペレータに知らされる。人間識別処理46の結果、例えば油圧ショベルの最大旋回半径内に人間がいると判定された場合、報知動作に加えて又は代えて、コントローラ40により方向切換弁24-29の電磁弁が制御され、油圧ショベルの各アクチュエータが制動される構成にもできる。
6. Human Identification Process When proceeding to the human identification process 46, the controller 40 uses the frame F1 calculated in the object pixel estimation process 45 to process the image taken by the camera C to perform human identification. For example, feature extraction such as deep learning and HOG can be used to identify humans. The judgment data of the human identification process 46 is outputted from the controller 40 to the monitor 10, and is displayed as a live view image obtained by combining the frame F1 with the image taken by the camera C, or other appropriate notification forms such as text information or alarm sound. The presence is notified to the operator. As a result of the human identification process 46, for example, if it is determined that there is a human within the maximum turning radius of the hydraulic excavator, in addition to or in place of the notification operation, the solenoid valves of the directional control valves 24-29 are controlled by the controller 40, It is also possible to configure each actuator of the hydraulic excavator to be braked.

ここで、人間識別処理46の一例として、コントローラ40により、フレームF1でカメラCの撮影画像から切り出した切り出し画像を処理し、距離計Rで測距された物体が人間であるかを判定する態様を挙げることができる。フレームF1により切り出し画像を人間の識別に用いる場合、処理する画像が小さいため、人間識別処理46でコントローラ40にかかる負荷が軽減される。 Here, as an example of the human identification process 46, the controller 40 processes a cutout image cut out from the image taken by the camera C in the frame F1, and determines whether the object measured by the rangefinder R is a human. can be mentioned. When the cutout image of frame F1 is used for human identification, since the image to be processed is small, the load placed on the controller 40 in the human identification processing 46 is reduced.

また、人間識別処理46の別の例として、カメラCの撮影画像の全体を処理して人間を識別し、識別した人間の位置及び大きさをフレームF1と比較し、一致度を評価する態様も挙げられる。この例の説明図を図11に示す。同図の例ではカメラ視野V1の中央に人間N(実像)が映っている。このカメラCの撮影画像(カメラ視野V1)の全体をコントローラ40により処理し、人間が映っていると判定された画像領域(一点鎖線)を人間識別画像領域F2とする。例えばこの人間識別画像領域F2をフレームF1と照合し、フレームF1に対する人間識別画像領域F2の一致度(重なり割合等)が設定値以上であれば、フレームF1内の測距された物体Mが人間であると判定することができる。仮にフレームF1に対する人間識別画像領域F2の一致度が設定値未満であれば、フレームF1内の測距された物体Mは人間ではないと判定される。画像処理のみでは地面の模様や影等が人間と誤認され得るが、このように画像処理の結果をフレームF1と照合することで、人間が精度良く識別される。 Further, as another example of the human identification processing 46, there is also a mode in which the entire image taken by the camera C is processed to identify a human, and the position and size of the identified human are compared with the frame F1 to evaluate the degree of matching. Can be mentioned. An explanatory diagram of this example is shown in FIG. In the example shown in the figure, a person N (real image) is shown in the center of the camera field of view V1. The entire captured image (camera field of view V1) of the camera C is processed by the controller 40, and the image area (dotted chain line) in which it is determined that a human being is shown is defined as a human identification image area F2. For example, this human identification image area F2 is compared with the frame F1, and if the degree of coincidence (overlapping ratio, etc.) of the human identification image area F2 with the frame F1 is greater than or equal to a set value, the measured object M in the frame F1 is a human being. It can be determined that If the degree of coincidence of the human identification image area F2 with the frame F1 is less than the set value, it is determined that the object M measured within the frame F1 is not a human. With only image processing, patterns on the ground, shadows, etc. may be mistaken for humans, but by comparing the result of image processing with frame F1 in this way, humans can be identified with high accuracy.

このとき、一般に画像処理で人間を識別する場合には人間推定の確度が演算され、確度が一定以上であるか否かで人間識別の結論が出される場合がある。本実施形態の場合、例えば画像処理単独の結果では人間として識別するための確度が不足する物体についても、フレームF1との一致度が一定以上であれば、その物体が人間であると判定されるアルゴリズムを採用することもできる。 At this time, generally when identifying a human by image processing, the accuracy of human estimation is calculated, and a conclusion on human identification may be made depending on whether the accuracy is above a certain level. In the case of this embodiment, for example, even for objects for which the accuracy of identifying as a human being is insufficient as a result of image processing alone, if the degree of matching with frame F1 is above a certain level, the object is determined to be a human. Algorithms can also be used.

-効果-
(1)本実施形態においては、距離計Rで検出された物体点群が物体Mを上から下まで測距したものであるかを判定し、全体が測距されていない場合には物体Mを人間と仮定し、測距視野V2から外れて測距されない欠損点群を既定のアルゴリズムで仮想演算する。そして、カメラ画像上で人間を識別する領域の基準となるフレームを、物体点群だけでなく欠損点群を囲うように補正する。本実施形態によれば、こうして欠損点群を仮想し距離計Rの測距視野V2を超えてカメラ画像に映り得る人間の範囲(フレーム)を演算することで、距離計Rで体の一部が検出された人間を、精度良く人間として識別することができる。
-effect-
(1) In this embodiment, it is determined whether the object point group detected by the rangefinder R is obtained by measuring the object M from top to bottom. Assuming that is a human, a group of missing points that are outside the distance measurement field of view V2 and are not measured are virtually calculated using a predetermined algorithm. Then, the frame that serves as a reference for the region for identifying humans on the camera image is corrected so as to surround not only the object point group but also the missing point group. According to the present embodiment, by imagining the missing point group and calculating the range (frame) of a person that can be seen in the camera image beyond the rangefinding field of view V2 of the rangefinder R, the rangefinder R can detect a part of the body. A detected human can be identified as a human with high accuracy.

(2)本実施形態において、コントローラ40は、物体点群を構成する点が、距離計Rの測距視野V2の四辺の上下いずれかの辺に設定数以上ある場合、設定数以上の点を含む辺を跨いで距離計Rの測距視野V2の外に欠損点群が存在すると推定する。そして、コントローラ40は、予め設定した人間の姿勢とサイズに基づき、カメラCの撮影画像において距離計Rの測距視野V2を越えて人間が映り得る横軸方向及び縦軸方向の最大範囲を演算し、最大範囲に基づきフレームを補正する。このようなアルゴリズムで、物体Mが人間である場合に、その人間が映り得る過不足のない範囲(フレーム)を演算することができる。これにより、フレームが小さ過ぎて物体Mが人間であるかが識別できない、或いはフレームが必要以上に大きく余計な情報に起因して人間の認識精度が低下するといったことが抑制され、人間の識別制度を向上させることができる。 (2) In the present embodiment, if there are more than a set number of points constituting the object point group on either the upper or lower side of the four sides of the rangefinding field of view V2 of the rangefinder R, the controller 40 It is estimated that a group of missing points exists outside the ranging field of view V2 of the range finder R across the included sides. Then, the controller 40 calculates the maximum range in the horizontal and vertical directions in which a human can be seen beyond the rangefinding field of view V2 of the rangefinder R in the captured image of the camera C based on the preset human posture and size. and correct the frame based on the maximum range. With such an algorithm, when the object M is a human being, it is possible to calculate a range (frame) in which the human can be seen without too much or too little. This prevents the human recognition accuracy from decreasing due to the frame being too small and making it impossible to identify whether the object M is a human, or the frame being unnecessarily large and containing unnecessary information, thereby improving the human identification system. can be improved.

(第2の実施の形態)
本発明の第2実施形態を説明する。本実施形態は、図12に示したように、物体の上部の死角に入って距離計Rで測距されない物体の下端に欠損点群が存在する場面に適用される。以下に説明する本実施形態の人間検知機能は、第1実施形態で説明した人間検知機能と共にコントローラ40に実装することもできるし、単独でコントローラ40に実装することもできる。
(Second embodiment)
A second embodiment of the present invention will be described. The present embodiment is applied to a scene where a group of missing points exists at the bottom of an object that enters the blind spot above the object and is not measured by the rangefinder R, as shown in FIG. The human detection function of this embodiment described below can be implemented in the controller 40 together with the human detection function described in the first embodiment, or can be implemented alone in the controller 40.

本実施形態における人間検知機能において、コントローラ40は、距離計Rで地面を測距した地面点群に対する物体点群の上下の重なりが設定値未満で、かつ物体点群と地面との最小距離が設定距離以上である場合に、死角に隠れた欠損点群が存在すると推定する。本実施形態の人間検知機能も、第1実施形態と同様、点群生成処理41、物体検出処理42、欠損判定処理43、欠損点群推定処理44、物体画素推定処理45、人間識別処理46を含んでいる。これらのうち点群生成処理41、物体画素推定処理45及び人間識別処理46や作業機械のハード構成は、第1実施形態と同様である。物体検出処理42、欠損判定処理43及び欠損点群推定処理44が、本実施形態は第1実施形態と異なる。以下、本実施形態の物体検出処理42、欠損判定処理43及び欠損点群推定処理44について説明する。 In the human detection function in this embodiment, the controller 40 determines that the vertical overlap of the object point group with the ground point group measured by the range meter R is less than a set value, and the minimum distance between the object point group and the ground is If the distance is longer than the set distance, it is estimated that there is a group of missing points hidden in the blind spot. Similarly to the first embodiment, the human detection function of this embodiment includes a point cloud generation process 41, an object detection process 42, a defect determination process 43, a missing point group estimation process 44, an object pixel estimation process 45, and a human identification process 46. Contains. Of these, the point cloud generation process 41, object pixel estimation process 45, human identification process 46, and the hardware configuration of the work machine are the same as in the first embodiment. This embodiment differs from the first embodiment in object detection processing 42, defect determination processing 43, and defective point group estimation processing 44. The object detection process 42, defect determination process 43, and defective point group estimation process 44 of this embodiment will be described below.

-物体検出処理-
物体検出処理42において、コントローラ40は、点群生成処理41で演算された点群データから、物体点群に加え、地面を測距した地面点群を抽出する。地面点群は、例えば、距離計Rの位置及び姿勢(既知のデータ)を基に地面の測距データと推定される点群である。物体点群の抽出については、第1実施形態と同様である。
-Object detection processing-
In the object detection process 42, the controller 40 extracts, from the point cloud data calculated in the point cloud generation process 41, a ground point group obtained by measuring a distance from the ground in addition to the object point group. The ground point group is, for example, a point group that is estimated to be ground ranging data based on the position and orientation (known data) of the range finder R. Extraction of the object point group is the same as in the first embodiment.

-欠損判定処理-
図12に例示される場面において、距離計Rで測距された物体点群の範囲のカメラ画像を処理しても、物体Mの下端が死角に入って全体像が処理されないことから、物体Mが何であるかが正確に識別されない。そこで、欠損判定処理43において、コントローラ40は、距離計Rで測距された物体点群の分布を基に、物体Mの実体の上端及び下端が測距されているか、つまり物体点群が物体Mの実体を下端から上端まで測距したものであるかを既定のアルゴリズムで判定する。本実施形態において、コントローラ40は、物体点群と地面点群の上下方向の重なり度合いから、死角に隠れて測距されない物体Mの下端(欠損点群)の有無を判定する。
-Deficiency determination processing-
In the scene illustrated in FIG. 12, even if the camera image of the range of the object point group measured by the rangefinder R is processed, the lower end of the object M enters the blind spot and the entire image is not processed. It is not precisely identified what the Therefore, in the defect determination process 43, the controller 40 determines whether the upper and lower ends of the substance of the object M have been ranged based on the distribution of the object point group measured by the range meter R, that is, whether the object point group is A predetermined algorithm is used to determine whether the distance of the entity M is measured from the bottom end to the top end. In this embodiment, the controller 40 determines the presence or absence of the lower end of the object M (missing point group) that is hidden in a blind spot and is not measured from a distance, based on the degree of vertical overlap between the object point group and the ground point group.

図13は第2実施形態におけるコントローラ40による欠損判定処理43の手順を表すフローチャートである。 FIG. 13 is a flowchart showing the procedure of defect determination processing 43 by the controller 40 in the second embodiment.

欠損判定処理43を開始すると、コントローラ40は、ステップS31において、物体検出処理42で検出した(現在測距されている)物体点群及び地面点群の点群データをメモリからCPUに読み込んでステップS32に手順を移す。 When the defect determination process 43 is started, the controller 40 reads point cloud data of the object point group and the ground point group detected (currently ranging) in the object detection process 42 from the memory into the CPU in step S31. The procedure moves to S32.

ステップS32に手順を移すと、コントローラ40は、カメラ座標系における人間の直立方向ベクトル(大きさは任意)を推定し、ステップS33に手順を移す。この手順は、第1実施形態の図6のフローで説明したステップS24と同様である。 When the procedure moves to step S32, the controller 40 estimates the human's upright direction vector (the size is arbitrary) in the camera coordinate system, and moves the procedure to step S33. This procedure is similar to step S24 described in the flowchart of FIG. 6 of the first embodiment.

ステップS33に手順を移すと、コントローラ40は、直立方向ベクトルと直交する仮想面(水平面)に物体点群と地面点群を投影し、仮想面上で物体点群を囲う領域と地面点群を囲う領域との重複面積を演算し、その重複面積が設定面積以上であるかを判定する。設定面積は、予め設定された値である。コントローラ40は、重複面積が設定面積以上であればステップS37に手順を移し、重複面積が設定面積未満であればステップS34に手順を移す。 Moving the procedure to step S33, the controller 40 projects the object point group and the ground point group onto a virtual plane (horizontal plane) orthogonal to the upright direction vector, and defines an area surrounding the object point group and the ground point group on the virtual plane. The overlapping area with the enclosing area is calculated, and it is determined whether the overlapping area is greater than or equal to the set area. The set area is a preset value. If the overlapping area is greater than or equal to the set area, the controller 40 moves the procedure to step S37, and if the overlapping area is less than the set area, the controller 40 moves the procedure to step S34.

なお、ステップS33においては、例えば仮想面上で物体点群を囲う領域の面積に占める重複面積の割合を演算し、その割合が設定割合以上であるかを判定するようにしても良い。 Note that in step S33, for example, the ratio of the overlapping area to the area of the area surrounding the object point group on the virtual plane may be calculated, and it may be determined whether the ratio is equal to or greater than a set ratio.

ステップS34に手順を移した場合、コントローラ40は、物体点群の中で直立方向成分が最小値を取る点(最下点と記載する)を抽出し、この最下点からの水平距離(直立方向ベクトルに直交する方向にとった距離)が最小の地面点群の点を抽出する。コントローラ40は、この抽出した2点の直立方向の距離を物体点群と地面との最小距離として演算し、ステップS35に手順を移す。 When the procedure moves to step S34, the controller 40 extracts a point (described as the lowest point) in which the upright direction component has the minimum value among the object point group, and extracts the horizontal distance from this lowest point (upright direction component). The point of the ground point group with the minimum distance (distance taken in the direction perpendicular to the direction vector) is extracted. The controller 40 calculates the distance between the two extracted points in the upright direction as the minimum distance between the object point group and the ground, and moves the procedure to step S35.

続くステップS35において、コントローラ40は、物体点群と地面との最小距離が予め設定した設定距離以上であるかを判定し、設定距離以上である場合はステップS36に、設定距離未満である場合はステップS37に手順を移す。 In subsequent step S35, the controller 40 determines whether the minimum distance between the object point group and the ground is equal to or greater than a preset distance, and if it is equal to or greater than the preset distance, the process proceeds to step S36, and if it is less than the preset distance, the controller 40 The procedure moves to step S37.

ステップS36に手順を移した場合、コントローラ40は、物体Mの下端が上部の死角に入って欠損しており、欠損点群が物体Mの下端にあると判定し、その判定データをメモリに記憶して欠損判定処理43を終了し、欠損点群推定処理44に移行する。 When the procedure moves to step S36, the controller 40 determines that the lower end of the object M is missing because it is in the upper blind spot, and that the missing point group is at the lower end of the object M, and stores the determination data in the memory. The defect determination process 43 is then terminated, and the process proceeds to the defective point group estimation process 44.

ステップS37に手順を移した場合、コントローラ40は、物体Mの欠損点群はないと判定し、その判定データをメモリに記憶して欠損判定処理43を終了し、欠損点群推定処理44に移行する。この手順は、第1実施形態の図5のフローで説明したステップS18と同様である。 When the procedure moves to step S37, the controller 40 determines that there is no missing point group of the object M, stores the judgment data in the memory, ends the missing point group estimation process 43, and moves to the missing point group estimation process 44. do. This procedure is similar to step S18 described in the flowchart of FIG. 5 of the first embodiment.

-欠損点群推定処理-
欠損点群推定処理44に移行すると、コントローラ40は、欠損点群が存在する場合、予め設定した人間の姿勢とサイズに基づき、カメラCの撮影画像において物体Mの上部に隠れて測距されない欠損点群を仮想し、欠損点群を含むフレームF1を演算する。
- Missing point group estimation processing -
When proceeding to the missing point group estimation process 44, if there is a missing point group, the controller 40 determines whether the missing point group is hidden above the object M in the captured image of the camera C and is not measured based on the preset human posture and size. A point group is assumed and a frame F1 including the missing point group is calculated.

図14は第2実施形態における欠損点群推定処理44の手順を表すフローチャートである。 FIG. 14 is a flowchart showing the procedure of the missing point group estimation process 44 in the second embodiment.

欠損点群推定処理44を開始すると、コントローラ40は、ステップS41において、欠損判定処理43による欠損点群の有無及び方向、並びに物体点群のデータをメモリからCPUに読み込んでステップS42に手順を移す。 When the missing point group estimation process 44 is started, the controller 40 reads the presence/absence and direction of the missing point group determined by the missing point group 43 and the data of the object point group from the memory into the CPU in step S41, and moves the procedure to step S42. .

ステップS42において、コントローラ40は、欠損処理判定43で欠損点群があると判定されたかを判定し、欠損点群の存在が推定される場合はステップS43に手順を移し、欠損点群は存在しないと推定される場合はステップS45に手順を移す。 In step S42, the controller 40 determines whether it is determined that there is a missing point group in the missing processing determination 43, and if it is estimated that there is a missing point group, the procedure moves to step S43, and no missing point group exists. If it is estimated that this is the case, the procedure moves to step S45.

ステップS43に手順を移すと、コントローラ40は、カメラ座標系における人間の直立方向ベクトル(大きさは任意)を推定し、ステップS44に手順を移す。この手順は、第1実施形態の図6のフローで説明したステップS24と同様である。 When the procedure moves to step S43, the controller 40 estimates the human's upright direction vector (the size is arbitrary) in the camera coordinate system, and moves the procedure to step S44. This procedure is similar to step S24 described in the flowchart of FIG. 6 of the first embodiment.

ステップS44において、コントローラ40は、物体点群の点群データに基づき、地面に人間が直立した姿勢を想定して欠損点群を仮想し、欠損点群推定処理44を終了して物体画素推定処理45に移行する。欠損点群は、物体点群の上部の点から予め設定されてメモリに格納された人間の身長Lhだけ低い位置に足元仮想される。 In step S44, the controller 40 virtualizes a missing point group based on the point group data of the object point group, assuming the posture of a person standing upright on the ground, ends the missing point group estimation process 44, and processes the object pixel estimation process. 45. The missing point group is virtualized at a position lower than the upper point of the object point group by the human height Lh, which is set in advance and stored in the memory.

ステップS45に手順を移した場合、コントローラ40は、欠損点群を点群数が0の空点群とし、欠損点群推定処理44を終了して物体画素推定処理45に移行する。 When the procedure moves to step S45, the controller 40 sets the missing point group to a blank point group with a point group number of 0, ends the missing point group estimation process 44, and proceeds to object pixel estimation process 45.

-効果-
本実施形態においては、足元が上半身の死角に入って距離計Rで測距されない場合でも、そのことを推定してフレームF1を演算し、精度良く人間として識別することができる。また、測距された物体Mについて、上半身の死角に隠れて足元が映っていない人間であることが想定されることで、人間識別処理の精度も向上し得る。
-effect-
In this embodiment, even if the feet are in the blind spot of the upper body and the distance cannot be measured by the range meter R, this can be estimated and the frame F1 can be calculated to accurately identify the person as a human. Furthermore, the accuracy of human identification processing can be improved by assuming that the measured object M is a human being who is hidden in the blind spot of the upper body and whose feet are not visible.

また、本実施形態を第1実施形態と組み合わせることで、測距視野V2から外れて体の一部が測距されない人間も、油圧ショベルの近くにいて上半身に隠れて足元が測距されない人間も、いずれも精度良く識別することができる。 Furthermore, by combining this embodiment with the first embodiment, it is possible to include people who are out of the distance measurement field of view V2 and whose parts of their bodies are not measured, and people who are near the hydraulic excavator and whose feet are hidden behind their upper bodies and whose feet are not measured. , both can be identified with high accuracy.

1…車体、7…運転室、40…コントローラ、C…カメラ、F1…フレーム、M…物体、N…人間、N1,N2…測距視野の四辺に含まれる点数、Na,Nb…設定数、Pxmax,Pxmin,Pymax,Pymin,…欠損点群、R…距離計、V1…カメラ視野、V2…測距視野 1...Vehicle body, 7...Driver's cabin, 40...Controller, C...Camera, F1...Frame, M...Object, N...Human, N1, N2...Number of points included in the four sides of the ranging field of view, Na, Nb...Number of settings, Pxmax, Pxmin, Pymax, Pymin,...missing point group, R...rangefinder, V1...camera field of view, V2...rangefinding field of view

Claims (4)

車体と、
前記車体の周囲を撮影するカメラと、
前記カメラのカメラ視野に測距視野が重なるように配置され、前記測距視野内の物体を測距して前記物体の表面の点群の座標データを取得する距離計と、
前記距離計により測距された物体表面の点群である物体点群を前記カメラの撮影画像上で囲うフレームを演算し、前記撮影画像における前記フレームの対応領域を処理して前記物体が人間であるか否かを判定するコントローラと
を備えた作業機械において、
前記コントローラは、
前記物体点群の分布に基づき、前記物体の上端及び下端が測距されているかを判定し、
前記上端又は下端が測距されていない場合、予め設定した人間の姿勢とサイズに基づき、前記物体の上端又は下端の測距されない欠損点群を推定し、
測距された前記物体点群と推定された前記欠損点群とを囲うように前記フレームを補正する
ことを特徴とする作業機械。
The car body and
a camera that photographs the surroundings of the vehicle;
a rangefinder that is arranged so that a distance measurement field of view overlaps the camera field of view of the camera, and that measures an object within the distance measurement field of view to obtain coordinate data of a point group on the surface of the object;
A frame is calculated that encloses the object point group, which is a point group on the object surface measured by the distance meter, on the captured image of the camera, and the corresponding area of the frame in the captured image is processed to determine whether the object is a human being. In a working machine equipped with a controller that determines whether or not there is a
The controller includes:
Based on the distribution of the object point group, determine whether the upper end and the lower end of the object are measured;
If the upper end or the lower end is not ranged, estimate a group of missing points at the upper or lower end of the object that are not ranged based on a preset human posture and size;
A work machine characterized in that the frame is corrected so as to surround the distance-measured object point group and the estimated missing point group.
請求項1に記載の作業機械において、
前記欠損点群は、前記距離計の測距視野を外れて測距されない前記物体の一部であって、
前記コントローラは、前記物体点群を構成する点が、前記距離計の測距視野の四辺の上下いずれかの辺に設定数以上ある場合、前記設定数以上の点を含む辺を跨いで前記距離計の測距視野外に前記欠損点群が存在すると推定することを特徴とする作業機械。
The working machine according to claim 1,
The missing point group is a part of the object that is outside the rangefinding field of view of the rangefinder and is not ranged,
When the number of points constituting the object point group is greater than or equal to a set number on any of the four sides of the rangefinding field of view of the rangefinder, the controller is configured to calculate the distance by straddling sides that include the number of points or more than the set number. A working machine characterized in that it is estimated that the missing point group exists outside the distance measuring field of the meter.
請求項2に記載の作業機械において、
前記コントローラは、予め設定した人間の姿勢とサイズに基づき、前記カメラの撮影画像において前記距離計の測距視野を越えて前記人間が映り得る横軸方向及び縦軸方向の最大範囲を演算し、演算された前記最大範囲に基づき前記フレームを補正することを特徴とする作業機械。
The working machine according to claim 2,
The controller calculates the maximum range in the horizontal and vertical directions in which the human can be seen beyond the field of view of the rangefinder in the image taken by the camera, based on a preset posture and size of the human; A working machine, wherein the frame is corrected based on the calculated maximum range.
請求項1に記載の作業機械において、
前記欠損点群は、前記物体の上部の死角に入って前記距離計で測距されない前記物体の下端であって、
前記コントローラは、前記距離計で地面を測距した地面点群に対する前記物体点群の上下の重なりが設定値未満で、前記物体点群と地面との最小距離が設定距離以上である場合、前記欠損点群が存在すると推定することを特徴とする作業機械。
The working machine according to claim 1,
The missing point group is a lower end of the object that falls into a blind spot above the object and is not ranged by the rangefinder,
When the vertical overlap of the object point group with the ground point group measured by the rangefinder is less than a set value, and the minimum distance between the object point group and the ground is equal to or greater than the set distance, the controller A work machine characterized by estimating the existence of a missing point group.
JP2022052393A 2022-03-28 2022-03-28 Work machine Pending JP2023145104A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022052393A JP2023145104A (en) 2022-03-28 2022-03-28 Work machine

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022052393A JP2023145104A (en) 2022-03-28 2022-03-28 Work machine

Publications (1)

Publication Number Publication Date
JP2023145104A true JP2023145104A (en) 2023-10-11

Family

ID=88253398

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022052393A Pending JP2023145104A (en) 2022-03-28 2022-03-28 Work machine

Country Status (1)

Country Link
JP (1) JP2023145104A (en)

Similar Documents

Publication Publication Date Title
US11492777B2 (en) Shovel and system of managing shovel
US11959253B2 (en) Excavator and information processing apparatus
US9300954B2 (en) Surrounding information-obtaining device for working vehicle
EP2187166B1 (en) Industrial Machine
JP2018028212A (en) Construction machine
US20210010229A1 (en) Shovel
JP6826233B2 (en) Work machine outer shape measurement system, work machine outer shape display system, work machine control system and work machine
JPWO2019044316A1 (en) Work machine measurement system, work machine, and work machine measurement method
US20230078047A1 (en) Excavator and system for excavator
US20180079361A1 (en) Display system for work vehicle
US20220112693A1 (en) Monitoring device and construction machine
US20240028042A1 (en) Visual overlays for providing perception of depth
US20210395982A1 (en) System and method for work machine
JP2023145104A (en) Work machine
KR20210034449A (en) Apparatus for generating front image for construction equipment
US20220002970A1 (en) Excavator
KR20230017724A (en) System and method of controlling construction machinery
US20210388580A1 (en) System and method for work machine
US11549238B2 (en) System and method for work machine
JP7346061B2 (en) excavator
JP2018178878A (en) Industrial vehicle
US11908076B2 (en) Display system and display method
US20210395980A1 (en) System and method for work machine
JP2023093109A (en) Construction machine, and information processing device
US20220002977A1 (en) System and method for work machine