JP2023006459A - Information processing device and control program for information processing device - Google Patents

Information processing device and control program for information processing device Download PDF

Info

Publication number
JP2023006459A
JP2023006459A JP2021109067A JP2021109067A JP2023006459A JP 2023006459 A JP2023006459 A JP 2023006459A JP 2021109067 A JP2021109067 A JP 2021109067A JP 2021109067 A JP2021109067 A JP 2021109067A JP 2023006459 A JP2023006459 A JP 2023006459A
Authority
JP
Japan
Prior art keywords
information
map
ogm
excavator
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021109067A
Other languages
Japanese (ja)
Inventor
健太郎 長井
Kentaro Nagai
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Heavy Industries Ltd
Original Assignee
Sumitomo Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Heavy Industries Ltd filed Critical Sumitomo Heavy Industries Ltd
Priority to JP2021109067A priority Critical patent/JP2023006459A/en
Publication of JP2023006459A publication Critical patent/JP2023006459A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Component Parts Of Construction Machinery (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

To suitably perform an operation control of a target using map information.SOLUTION: A shovel 100 comprises an imaging device 40 that acquires peripheral information, a range sensor 41, and a controller 30. Based on the acquired information, the controller 30 forms a local OGM 73 in which the acquired information is displayed on a map; based on the local OGM 73, the controller forms a global OGM 74 in which information in an area wider than an area of the local OGM 73 is displayed on a map; and based on the local OGM 73, the controller controls an operation of the shovel 100.SELECTED DRAWING: Figure 3

Description

本発明は、情報処理装置及びその制御プログラムに関する。 The present invention relates to an information processing apparatus and its control program.

従来、カメラや物理的なセンサを用いて、対象の周辺の情報を取得する技術が知られている。
例えば、特許文献1に記載の技術では、対象(車両)の周辺における物体の存在確率を表すマップ占有格子地図(OGM:Occupancy Grid Maps)などの地図情報を作成し、このマップを利用して対象の動作制御を行っている。このOGMは格子によって仕切られており、各格子における物体の存在確率を示すことによって周囲状況がどのようになっているかを判断する。
Conventionally, there is known a technique of acquiring information around an object using a camera or a physical sensor.
For example, in the technique described in Patent Document 1, map information such as map occupancy grid maps (OGM: Occupancy Grid Maps) representing the existence probability of objects around a target (vehicle) is created, and the target is determined using this map. controls the operation of This OGM is partitioned by grids and determines what the surrounding conditions are by indicating the existence probability of an object in each grid.

特開2011-123551号公報JP 2011-123551 A

しかしながら、単純に対象の周辺を含む範囲のマップを作成すると、これを用いて好適に動作制御できない場合がある。
例えば、対象が作業機械の場合、繊細な作業も検出できるように格子サイズは細かい方が望ましいうえ、前後左右に上方も加えた全方位の情報が求められる。そのため、計算の負荷が重くなって時間を要してしまい、好適に動作制御できないおそれが生じる。特に車載用に利用される小型コンピュータあるいはエッジコンピューティングにおいては、そのおそれが強くなる。
However, simply creating a map of a range that includes the periphery of an object may not be used to appropriately control motion.
For example, if the target is a working machine, it is desirable that the grid size is finer so that even delicate work can be detected, and omnidirectional information including the front, back, left, right, and upward direction is also required. As a result, the calculation load becomes heavy and takes time, and there is a possibility that the operation cannot be controlled appropriately. Especially in small computers used in vehicles or in edge computing, the fear becomes stronger.

本発明は、上記事情に鑑みてなされたもので、OGM等の地図情報を用いて好適に対象の動作制御を行うことを目的とする。 SUMMARY OF THE INVENTION The present invention has been made in view of the above circumstances, and an object of the present invention is to suitably control the operation of a target using map information such as OGM.

本発明は、情報処理装置であって、
対象の周辺の情報を取得する情報取得手段と、
前記情報取得手段が取得した情報に基づいて、第1の領域における前記情報を地図表示した第1地図情報を作成する第1地図作成手段と、
前記第1地図情報に基づいて、前記第1の領域よりも広い第2の領域における前記情報を地図表示した第2地図情報を作成する第2地図作成手段と、
前記第1地図情報に基づいて、前記対象を動作制御する動作制御手段と、
を備える構成とした。
The present invention is an information processing device,
an information acquisition means for acquiring information around an object;
first map creation means for creating first map information in which the information in the first region is displayed on a map based on the information acquired by the information acquisition means;
second map creation means for creating second map information in which the information in a second area wider than the first area is displayed on a map based on the first map information;
operation control means for controlling the operation of the target based on the first map information;
It was configured to include

また、本発明は、対象の周辺の情報を取得する情報取得手段を備える情報処理装置の制御プログラムであって、
コンピュータを、
前記情報取得手段が取得した情報に基づいて、第1の領域における前記情報を地図表示した第1地図情報を作成する第1地図作成手段、
前記第1地図情報に基づいて、前記第1の領域よりも広い第2の領域における前記情報を地図表示した第2地図情報を作成する第2地図作成手段、
前記第1地図情報に基づいて、前記対象を動作制御する動作制御手段、
として機能させるようにした。
Further, the present invention is a control program for an information processing apparatus comprising information acquisition means for acquiring information about the surroundings of an object,
the computer,
first map creation means for creating first map information in which the information in the first area is displayed on a map based on the information acquired by the information acquisition means;
second map creation means for creating second map information based on the first map information, in which the information in a second area wider than the first area is displayed on a map;
operation control means for controlling the operation of the target based on the first map information;
It was made to function as

本発明によれば、地図情報を用いて好適に対象の動作制御を行うことができる。 Advantageous Effects of Invention According to the present invention, it is possible to suitably control the operation of an object using map information.

本実施形態に係るショベルの側面図である。1 is a side view of a shovel according to this embodiment; FIG. 図1のショベルのシステム構成を示すブロック図である。2 is a block diagram showing the system configuration of the excavator of FIG. 1; FIG. 本実施形態の物体検出処理でのデータの流れを示すデータフロー図である。FIG. 5 is a data flow diagram showing the flow of data in object detection processing according to the present embodiment; 本実施形態の第1のOGM、第2のOGM、ローカルOGMの一例を示す図である。It is a figure which shows an example of 1st OGM of this embodiment, 2nd OGM, and local OGM. 本実施形態のローカルOGM、グローバルOGMの一例を示す図である。It is a figure which shows an example of local OGM of this embodiment, and global OGM. 本実施形態の物体検出処理の変形例を説明するための図である。It is a figure for demonstrating the modification of the object detection process of this embodiment. 本実施形態の撮像装置及び距離センサのチルト角とローカルOGMの位置及び範囲との関係を説明するための図である。FIG. 5 is a diagram for explaining the relationship between the tilt angle of the imaging device and distance sensor of the present embodiment and the position and range of local OGM;

以下、本発明の実施形態について、図面を参照して詳細に説明する。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

[ショベルの構成]
まず、本実施形態に係るショベル100の構成について説明する。ショベル100は、本発明に係る情報処理装置を具備することにより、地図情報を用いて好適に動作制御できるように構成されている。
[Excavator configuration]
First, the configuration of the excavator 100 according to this embodiment will be described. The excavator 100 is equipped with the information processing device according to the present invention, and is configured so that the operation can be appropriately controlled using the map information.

図1は、本実施形態に係るショベル100の側面図である。
この図に示すように、ショベル100は、下部走行体1と、旋回機構2を介して旋回可能に下部走行体1に搭載される上部旋回体3と、アタッチメントとしてのブーム4、アーム5及びバケット6と、オペレータが搭乗するキャビン10とを備える。アタッチメントは、作業要素(例えば、バケット、クラッシャー、クレーン装置等)が設けられていれば、これに限られない。
FIG. 1 is a side view of a shovel 100 according to this embodiment.
As shown in this figure, the excavator 100 includes a lower traveling body 1, an upper revolving body 3 mounted on the lower traveling body 1 so as to be able to turn via a revolving mechanism 2, a boom 4, an arm 5 and a bucket as attachments. 6 and a cabin 10 in which an operator boards. The attachment is not limited to this as long as a working element (for example, bucket, crusher, crane device, etc.) is provided.

下部走行体1は、例えば、左右一対のクローラを含み、それぞれのクローラが走行油圧モータ(不図示)で油圧駆動されることにより、ショベル100を走行させる。
上部旋回体3は、旋回油圧モータ或いは電動機(共に不図示)等で駆動されることにより、下部走行体1に対して旋回する。
The lower traveling body 1 includes, for example, a pair of left and right crawlers, and each crawler is hydraulically driven by a traveling hydraulic motor (not shown) to cause the excavator 100 to travel.
The upper revolving structure 3 revolves with respect to the lower traveling structure 1 by being driven by a revolving hydraulic motor or an electric motor (both not shown).

ブーム4は、上部旋回体3の前部中央に俯仰可能に枢着され、ブーム4の先端には、アーム5が上下回動可能に枢着され、アーム5の先端には、バケット6が上下回動可能に枢着される。ブーム4、アーム5及びバケット6は、それぞれ、ブームシリンダ7、アームシリンダ8、及びバケットシリンダ9により油圧駆動される。
キャビン10は、オペレータが搭乗する操縦室であり、例えば上部旋回体3の前部左側に搭載される。ショベル100は、キャビン10に搭乗するオペレータの操作に応じて、アクチュエータを動作させ、下部走行体1、上部旋回体3、ブーム4、アーム5及びバケット6等の被駆動要素を駆動する。
The boom 4 is pivotally attached to the center of the front portion of the upper rotating body 3 so as to be able to be raised. An arm 5 is pivotally attached to the tip of the boom 4 so as to be vertically rotatable. rotatably pivoted; Boom 4, arm 5 and bucket 6 are hydraulically driven by boom cylinder 7, arm cylinder 8 and bucket cylinder 9, respectively.
The cabin 10 is a cockpit in which an operator boards, and is mounted on the front left side of the upper swing body 3, for example. The excavator 100 operates actuators to drive driven elements such as the lower traveling body 1, the upper revolving body 3, the boom 4, the arm 5 and the bucket 6 according to the operation of the operator in the cabin 10.

図2は、ショベル100のシステム構成を示すブロック図である。
この図に示すように、ショベル100は、上記構成のほか、コントローラ30と、撮像装置40と、距離センサ41と、動作・姿勢状態センサ42と、位置センサ43と、操作装置45と、表示装置50と、音声出力装置60と、通信機器80とを備える。本発明に係る情報処理装置は、少なくともコントローラ30を含む。
FIG. 2 is a block diagram showing the system configuration of the excavator 100. As shown in FIG.
As shown in this figure, the excavator 100 includes a controller 30, an imaging device 40, a distance sensor 41, an operation/posture state sensor 42, a position sensor 43, an operating device 45, and a display device in addition to the above configuration. 50 , an audio output device 60 and a communication device 80 . An information processing apparatus according to the present invention includes at least a controller 30 .

撮像装置40は、ショベル100の周辺を撮影してその画像をコントローラ30に出力する。撮像装置40は、後方カメラ40B、左方カメラ40L、右方カメラ40Rを含む。ショベル100の「周辺」とは、少なくともショベル100から所定距離内の所定範囲を含んでいればよい。
後方カメラ40Bは、上部旋回体3の後部に取り付けられ、上部旋回体3の後方を撮像する。
左方カメラ40Lは、上部旋回体3の左側部に取り付けられ、上部旋回体3の左側方を撮像する。
右方カメラ40Rは、上部旋回体3の右側部に取り付けられ、上部旋回体3の右側方を撮像する。
これら後方カメラ40B、左方カメラ40L及び右方カメラ40Rの各々は、上部旋回体3において、光軸が斜め下方に向くように取り付けられ、ショベル100近傍の地面からショベル100の遠方までを含む上下方向の撮像範囲(画角)を有する。また、後方カメラ40B、左方カメラ40L及び右方カメラ40Rの水平方向の撮像範囲(画角)は、例えば、合わせてショベル100回りの略全方位を含む範囲となっている。
The imaging device 40 photographs the surroundings of the excavator 100 and outputs the image to the controller 30 . The imaging device 40 includes a rear camera 40B, a left camera 40L, and a right camera 40R. The “surroundings” of the excavator 100 may include at least a predetermined range within a predetermined distance from the excavator 100 .
The rear camera 40</b>B is attached to the rear portion of the upper revolving body 3 and images the rear of the upper revolving body 3 .
The left camera 40L is attached to the left side of the upper revolving body 3 and images the left side of the upper revolving body 3 .
The right camera 40R is attached to the right side of the upper revolving body 3 and captures an image of the right side of the upper revolving body 3 .
Each of these rear camera 40B, left camera 40L, and right camera 40R is attached to the upper revolving body 3 so that the optical axis is directed obliquely downward, and covers the area from the ground in the vicinity of excavator 100 to the distance from excavator 100. It has a directional imaging range (angle of view). Further, the horizontal imaging range (angle of view) of the rear camera 40B, the left camera 40L, and the right camera 40R is, for example, a range that includes substantially all directions around the excavator 100 .

距離センサ41は、ショベル100の周辺の物体までの距離を測定してその情報(二次元又は三次元の距離情報)を取得する測距手段であり、取得した情報をコントローラ30に出力する。距離センサ41は、後方距離センサ41B、左方距離センサ41L、右方距離センサ41Rを含む。
後方距離センサ41Bは、上部旋回体3の後部に取り付けられ、上部旋回体3の後方の計測を行う。後方距離センサ41Bの計測範囲は、後方カメラ40Bの撮像範囲に対応している。
左方距離センサ41Lは、上部旋回体3の左側部に取り付けられ、上部旋回体3の左側方の計測を行う。左方距離センサ41Lの計測範囲は、左方カメラ40Lの撮像範囲に対応している。
右方距離センサ41Rは、上部旋回体3の右側部に取り付けられ、上部旋回体3の右側方の計測を行う。右方距離センサ41Rの計測範囲は、右方カメラ40Rの撮像範囲に対応している。
本実施形態では、各距離センサ41として、光を利用したLIDAR(Light Detection and Ranging)が用いられる。ただし、距離センサ41の種類は特に限定されず、例えばミリ波レーダーや、ステレオカメラによる測距装置などであってもよい。
The distance sensor 41 is a distance measuring means that measures the distance to an object around the excavator 100 and obtains information (two-dimensional or three-dimensional distance information), and outputs the obtained information to the controller 30 . The distance sensor 41 includes a rear distance sensor 41B, a left distance sensor 41L, and a right distance sensor 41R.
The rear distance sensor 41B is attached to the rear portion of the upper swing body 3 and measures the rear of the upper swing body 3 . The measurement range of the rear distance sensor 41B corresponds to the imaging range of the rear camera 40B.
The left distance sensor 41L is attached to the left side of the upper revolving body 3 and measures the left side of the upper revolving body 3 . The measurement range of the left distance sensor 41L corresponds to the imaging range of the left camera 40L.
The right distance sensor 41R is attached to the right side of the upper revolving body 3 and measures the right side of the upper revolving body 3 . The measurement range of the right distance sensor 41R corresponds to the imaging range of the right camera 40R.
In this embodiment, LIDAR (Light Detection and Ranging) using light is used as each distance sensor 41 . However, the type of the distance sensor 41 is not particularly limited, and may be, for example, a millimeter wave radar or a distance measuring device using a stereo camera.

また、撮像装置40と距離センサ41は、同方向を計測・撮影するものが互いに対応して組を成している。具体的には、後方カメラ40Bと後方距離センサ41Bが後方センサユニット46Bを構成し、左方カメラ40Lと左方距離センサ41Lが左方センサユニット46Lを構成し、右方カメラ40Rと右方距離センサ41Rが右方センサユニット46Rを構成している。 The imaging device 40 and the distance sensor 41 are paired to measure and photograph in the same direction. Specifically, the rear camera 40B and the rear distance sensor 41B constitute a rear sensor unit 46B, the left camera 40L and the left distance sensor 41L constitute the left sensor unit 46L, and the right camera 40R and the right distance sensor 46L constitute the left sensor unit 46L. The sensor 41R constitutes a right sensor unit 46R.

動作・姿勢状態センサ42は、ショベル100の動作状態や姿勢状態を検出するセンサであり、検出結果をコントローラ30に出力する。動作・姿勢状態センサ42は、ブーム角度センサと、アーム角度センサと、バケット角度センサと、三軸慣性センサ(IMU:Inertial Measurement Unit)と、旋回角度センサと、加速度センサとを含む。
これらのセンサは、ブーム等のシリンダのストロークセンサ、ロータリーエンコーダ等の回転情報を取得するセンサで構成されてもよく、IMUで取得される加速度(速度、位置も含んでもよい)により代替されてもよい。
アーム角度センサは、ブーム4を基準とするアーム5の回動角度(以下、「アーム角度」と称する)を検出する。
バケット角度センサは、アーム5を基準とするバケット6の回動角度(以下、「バケット角度」と称する)を検出する。
IMUは、ブーム4及びアーム5の各々に取り付けられ、所定の三軸に沿ったブーム4及びアーム5の加速度、及び、所定の三軸廻りのブーム4及びアーム5の角加速度を検出する。
旋回角度センサは、上部旋回体3の所定の角度方向を基準とする旋回角度を検出する。ただし、これに限られず、上部旋回体3に設けられたGPSやIMUセンサに基づいて旋回角度が検出されてもよい。
加速度センサは、上部旋回体3の旋回軸から離れた位置に取り付けられ、上部旋回体3の当該位置における加速度を検出する。これにより、加速度センサの検出結果に基づき、上部旋回体3が旋回しているのか、或いは、下部走行体1が走行しているのか等が判別されうる。
The motion/posture state sensor 42 is a sensor that detects the motion state and posture state of the excavator 100 and outputs the detection result to the controller 30 . The motion/posture state sensor 42 includes a boom angle sensor, an arm angle sensor, a bucket angle sensor, a three-axis inertial sensor (IMU: Inertial Measurement Unit), a turning angle sensor, and an acceleration sensor.
These sensors may be composed of stroke sensors of cylinders such as booms, sensors that acquire rotation information such as rotary encoders, etc., or may be replaced by acceleration (which may also include speed and position) acquired by the IMU. good.
The arm angle sensor detects the rotation angle of the arm 5 with respect to the boom 4 (hereinafter referred to as "arm angle").
The bucket angle sensor detects the rotation angle of the bucket 6 with respect to the arm 5 (hereinafter referred to as "bucket angle").
The IMU is attached to each of the boom 4 and arm 5 and detects the acceleration of the boom 4 and arm 5 along three predetermined axes and the angular acceleration of the boom 4 and arm 5 about three predetermined axes.
The turning angle sensor detects a turning angle of the upper turning body 3 with respect to a predetermined angular direction. However, the turning angle is not limited to this, and the turning angle may be detected based on the GPS or IMU sensor provided on the upper turning body 3 .
The acceleration sensor is attached at a position away from the pivot axis of the upper swing body 3 and detects the acceleration at that position of the upper swing body 3 . As a result, it can be determined whether the upper rotating body 3 is rotating or whether the lower traveling body 1 is running based on the detection result of the acceleration sensor.

位置センサ43は、ショベル100の位置(現在位置)の情報を取得するセンサであり、本実施形態ではGPS(Global Positioning System)受信機である。位置センサ43は、ショベル100の位置の情報を含むGPS信号をGPS衛星から受信し、取得したショベル100の位置情報をコントローラ30に出力する。なお、位置センサ43は、ショベル100の位置の情報を取得できるものであればGPS受信機でなくともよく、例えばGPS以外の衛星測位システムを利用するものであってもよい。位置センサ43は、下部走行体1に設けられてもよく、上部旋回体3に設けられていてもよい。 The position sensor 43 is a sensor that acquires information on the position (current position) of the excavator 100, and is a GPS (Global Positioning System) receiver in this embodiment. The position sensor 43 receives GPS signals including information on the position of the excavator 100 from GPS satellites, and outputs the acquired position information of the excavator 100 to the controller 30 . Note that the position sensor 43 may not be a GPS receiver as long as it can acquire information on the position of the excavator 100, and may use a satellite positioning system other than GPS, for example. The position sensor 43 may be provided on the lower traveling body 1 or may be provided on the upper revolving body 3 .

操作装置45は、キャビン10の操縦席付近に設けられ、オペレータが各動作要素(下部走行体1、上部旋回体3、ブーム4、アーム5及びバケット6等)の操作を行う操作手段である。換言すれば、操作装置45は、各動作要素を駆動するそれぞれの油圧アクチュエータの操作を行う操作手段である。操作装置45は、例えばレバーやペダル、各種ボタン等を含み、これらの操作内容に応じた操作信号をコントローラ30に出力する。
また、操作装置45は、撮像装置40、距離センサ41、動作・姿勢状態センサ42、位置センサ43、表示装置50、音声出力装置60、通信機器80等の操作を行う操作手段でもあり、これら各部に対する操作指令をコントローラ30に出力する。
The operation device 45 is provided near the cockpit of the cabin 10, and is an operation means for an operator to operate each operation element (the lower traveling body 1, the upper rotating body 3, the boom 4, the arm 5, the bucket 6, etc.). In other words, the operating device 45 is operating means for operating each hydraulic actuator that drives each operating element. The operating device 45 includes, for example, levers, pedals, various buttons, and the like, and outputs operation signals to the controller 30 according to the content of these operations.
Further, the operation device 45 is also operation means for operating the imaging device 40, the distance sensor 41, the motion/posture state sensor 42, the position sensor 43, the display device 50, the audio output device 60, the communication device 80, and the like. to the controller 30.

表示装置50は、キャビン10内の操縦席の周辺に設けられ、コントローラ30による制御の下、オペレータに通知する各種画像情報を表示する。表示装置50は、例えば液晶ディスプレイや有機EL(Electroluminescence)ディスプレイであり、操作装置45の少なくとも一部を兼ねるタッチパネル式であってもよい。 The display device 50 is provided around the cockpit in the cabin 10 and displays various image information to be notified to the operator under the control of the controller 30 . The display device 50 is, for example, a liquid crystal display or an organic EL (Electroluminescence) display, and may be of a touch panel type that also serves as at least part of the operation device 45 .

音声出力装置60は、キャビン10内の操縦席の周辺に設けられ、コントローラ30による制御の下、オペレータに通知する各種音声情報を出力する。音声出力装置60は、例えば、スピーカやブザー等である。 The voice output device 60 is provided around the cockpit in the cabin 10 and outputs various voice information to be notified to the operator under the control of the controller 30 . The audio output device 60 is, for example, a speaker, buzzer, or the like.

通信機器80は、所定の無線通信規格に基づき、所定の通信ネットワーク(例えば、基地局を末端とする携帯電話ネットワークやインターネット網等)NWを通じて、遠隔の外部機器や他のショベル100等と各種情報を送受信する通信デバイスである。 Based on a predetermined wireless communication standard, the communication device 80 communicates various information with remote external devices, other shovels 100, etc., through a predetermined communication network (for example, a mobile phone network with a base station as an end, an Internet network, etc.) NW. A communication device that sends and receives

コントローラ30は、ショベル100各部の動作を制御してショベル100の駆動制御を行う制御装置である。コントローラ30は、キャビン10内に搭載される。コントローラ30は、その機能が任意のハードウェア、ソフトウェア、或いはその組み合わせにより実現されてよく、例えば、CPU,RAM,ROM,I/O等を含むマイクロコンピュータを中心に構成される。コントローラ30は、これらの他にも、例えばFPGAやASICなどを含んで構成されてもよい。 The controller 30 is a control device that controls the operation of each part of the excavator 100 to drive and control the excavator 100 . The controller 30 is mounted inside the cabin 10 . The functions of the controller 30 may be realized by arbitrary hardware, software, or a combination thereof, and for example, it is mainly composed of a microcomputer including CPU, RAM, ROM, I/O, and the like. In addition to these, the controller 30 may be configured to include, for example, FPGA, ASIC, and the like.

また、コントローラ30は、各種機能を実行する機能部として、OGM計算部31と、物体検出判定部32とを含む。さらに、コントローラ30は、EEPROM(Electrically Erasable Programmable Read-Only Memory)等の内部メモリに規定される記憶領域としての記憶部35を含む。 The controller 30 also includes an OGM calculator 31 and an object detection determination unit 32 as functional units that execute various functions. Further, the controller 30 includes a storage section 35 as a storage area defined in an internal memory such as EEPROM (Electrically Erasable Programmable Read-Only Memory).

OGM計算部31は、撮像装置40及び距離センサ41からの出力に基づいて、距離情報を量子化して表現した二次元の占有格子地図ないしはOGMを作成する。OGMは、検出した特定の物体(検出対象)の位置・速度などの存在確率を地図表示したものであり、より詳しくは、検出対象の距離情報に基づいてグリッド上の対応するセルに当該検出対象の存在確率に関する確率情報を載せたものである(図4参照)。
なお本実施例では二次元のOGMの例を挙げているが、高さ情報を加えた三次元のOGMでも同様である。
より詳しくは、OGM計算部31は、撮像装置40の出力に基づいて物体を検出しその位置を解析してOGM(後述の第1のOGM71)を作成するカメラ用OGM作成部311と、距離センサ41の出力に基づいて物体を検出してOGM(後述の第2のOGM72)を作成する距離センサ用OGM作成部312と、これらのOGMを合成して局所的なローカルOGM73を作成するローカルOGM作成部313と、ローカルOGM73に基づいて広範なグローバルOGM74を作成するグローバルOGM作成部314とを含む(図3参照)。
The OGM calculator 31 creates a two-dimensional occupancy grid map or OGM that expresses the quantized distance information based on the outputs from the imaging device 40 and the distance sensor 41 . OGM is a map representation of the existence probability of a specific detected object (detection target) such as position and speed. , which contains probability information about the existence probability of (see FIG. 4).
In this embodiment, an example of two-dimensional OGM is given, but the same applies to three-dimensional OGM with height information added.
More specifically, the OGM calculation unit 31 includes a camera OGM creation unit 311 that detects an object based on the output of the imaging device 40, analyzes the position of the object, and creates an OGM (first OGM 71 described later); A distance sensor OGM creation unit 312 that detects an object based on the output of 41 and creates an OGM (a second OGM 72 to be described later), and a local OGM creation unit that creates a local OGM 73 by synthesizing these OGMs. and a global OGM creator 314 that creates a broad global OGM 74 based on the local OGM 73 (see FIG. 3).

物体検出判定部32は、OGM計算部31が作成した各ローカルOGM73に基づいて、ショベル100の周辺の特定の物体(検出対象)の検出判定を行う。そして、物体検出判定部32は、その検出結果(判定結果)を表示装置50に出力させる。 The object detection determination unit 32 performs detection determination of a specific object (detection target) around the excavator 100 based on each local OGM 73 created by the OGM calculation unit 31 . Then, the object detection determination unit 32 causes the display device 50 to output the detection result (determination result).

記憶部35は、ショベル100の各部を動作させるための各種プログラムや各種データ等を格納するほか、コントローラ30の作業領域としても機能する。本実施形態の記憶部35は、各種プログラムのほか、撮像装置40や距離センサ41等が取得した各種データ、計算結果等を記憶する。また、記憶部35には、後述の物体検出処理における検出対象の特徴量(画像特徴量)が予め記憶されている。記憶部35では、オペレータにより検出対象として選択され得る様々な種類の物体や人の各々に対し、少なくとも1つの特徴量が対応付けられている。 The storage unit 35 stores various programs and various data for operating each unit of the excavator 100 , and also functions as a work area for the controller 30 . The storage unit 35 of the present embodiment stores various programs, various data acquired by the imaging device 40, the distance sensor 41, and the like, calculation results, and the like. Further, the storage unit 35 stores in advance a feature amount (image feature amount) to be detected in an object detection process, which will be described later. In the storage unit 35, at least one feature value is associated with each of various types of objects and persons that can be selected as detection targets by the operator.

また、ショベル100は、所定の通信ネットワークNWを通じて、管理装置200と相互に通信を行うことができる。通信ネットワークNWには、例えば、基地局を末端とする移動体通信網が含まれてよい。また、通信ネットワークNWには、上空の通信衛星を利用する衛星通信網が含まれてもよい。また、通信ネットワークNWには、インターネット網等が含まれてもよい。また、通信ネットワークNWには、WiFiやブルートゥース(登録商標)等のプロトコルに準拠する近距離通信網を含んでもよい。これにより、ショベル100は、各種情報を管理装置200に送信(アップロード)することができる。
また、ショベル100は、通信ネットワークNWを通じて、支援装置300と相互に通信可能に構成されてもよい。
Also, the excavator 100 can communicate with the management device 200 through a predetermined communication network NW. The communication network NW may include, for example, a mobile communication network terminating at a base station. Also, the communication network NW may include a satellite communication network using a communication satellite in the sky. Also, the communication network NW may include the Internet network or the like. Also, the communication network NW may include a short-range communication network conforming to protocols such as WiFi and Bluetooth (registered trademark). Thereby, the excavator 100 can transmit (upload) various information to the management device 200 .
Also, the excavator 100 may be configured to be able to communicate with the support device 300 through the communication network NW.

管理装置200(外部装置、情報処理装置の一例)は、ショベル100及び支援装置300を所持するユーザ等と地理的に離れた位置に配置される。管理装置200は、例えば、ショベル100が作業する作業現場外に設けられる管理センタ等に設置され、一又は複数のサーバコンピュータ等を中心に構成されるサーバ装置である。この場合、サーバ装置は、システムを運用する事業者或いは当該事業者に関連する関連事業者が運営する自社サーバであってもよいし、レンタルサーバであってもよい。また、このサーバ装置は、いわゆるクラウドサーバであってもよい。また、管理装置200は、ショベル100の作業現場内の管理事務所等に配置されるサーバ装置(いわゆるエッジサーバ)であってもよいし、定置型或いは携帯型の汎用のコンピュータ端末であってもよい。
管理装置200は、上述の如く、通信ネットワークNWを通じて、ショベル100及び支援装置300のそれぞれと相互に通信を行うことができる。これにより、管理装置200は、ショベル100からアップロードされる各種情報を受信し、記憶(蓄積)しておくことができる。また、管理装置200は、支援装置300からの要求に応じて、支援装置300に各種情報を送信することができる。
A management device 200 (an example of an external device or an information processing device) is arranged at a location geographically separated from a user or the like possessing the excavator 100 and the support device 300 . The management device 200 is, for example, a server device installed in a management center or the like provided outside the work site where the excavator 100 works, and configured mainly by one or a plurality of server computers or the like. In this case, the server device may be an in-house server operated by a business operator that operates the system or a related business operator related to the business operator, or may be a rental server. Also, this server device may be a so-called cloud server. The management device 200 may be a server device (so-called edge server) arranged in a management office or the like in the work site of the excavator 100, or may be a stationary or portable general-purpose computer terminal. good.
As described above, the management device 200 can mutually communicate with each of the excavator 100 and the support device 300 through the communication network NW. As a result, the management device 200 can receive and store (accumulate) various information uploaded from the excavator 100 . In addition, the management device 200 can transmit various types of information to the support device 300 in response to requests from the support device 300 .

支援装置300(ユーザ端末、端末装置の一例)は、ユーザが利用するユーザ端末である。ユーザには、例えば、作業現場の監督者、管理者、ショベル100のオペレータ、ショベル100の管理者、ショベル100のサービスマン、ショベル100の開発者等が含まれてよい。支援装置300は、例えば、ユーザが所持するラップトップ型のコンピュータ端末、タブレット端末、スマートフォン等の汎用の携帯端末である。また、支援装置300は、デスクトップ型のコンピュータ等の定置型の汎用端末であってもよい。また、支援装置300は、情報の提供を受けるための専用の端末(携帯端末或いは定置端末)であってもよい。
支援装置300は、通信ネットワークNWを通じて、管理装置200と相互に通信を行うことができる。これにより、支援装置300は、管理装置200から送信される情報を受信し、自身に搭載される表示装置を通じて、ユーザに情報を提供することができる。また、支援装置300は、通信ネットワークNWを通じて、ショベル100と相互に通信可能に構成されてもよい。
A support device 300 (an example of a user terminal or terminal device) is a user terminal used by a user. Users may include, for example, worksite supervisors, managers, excavator 100 operators, excavator 100 managers, excavator 100 service personnel, excavator 100 developers, and the like. The support device 300 is, for example, a general-purpose portable terminal such as a laptop computer terminal, a tablet terminal, or a smart phone possessed by the user. Further, the support device 300 may be a stationary general-purpose terminal such as a desktop computer. Further, the support device 300 may be a dedicated terminal (portable terminal or stationary terminal) for receiving provision of information.
The support device 300 can communicate with the management device 200 through the communication network NW. Accordingly, the support device 300 can receive information transmitted from the management device 200 and provide the information to the user through the display device mounted therein. Further, the support device 300 may be configured to communicate with the excavator 100 through the communication network NW.

[ショベルの動作]
続いて、周辺の特定の物体を検出する物体検出処理を実行する際のショベル100の動作について説明する。
図3は、この物体検出処理でのデータの流れを示すデータフロー図であり、図4(a)~(c)は、後述の第1のOGM71、第2のOGM72、ローカルOGM73の一例を示す図であり、図5(a)、(b)は、後述のローカルOGM73、グローバルOGM74の一例を示す図である。
[Excavator movement]
Next, the operation of the excavator 100 when executing object detection processing for detecting a specific surrounding object will be described.
FIG. 3 is a data flow diagram showing the flow of data in this object detection process, and FIGS. 4(a) to 4(c) show examples of the first OGM 71, second OGM 72, and local OGM 73, which will be described later. 5A and 5B are diagrams showing an example of a local OGM 73 and a global OGM 74, which will be described later.

物体検出処理は、コントローラ30が内部の記憶装置に格納された所定のプログラムをCPU上で実行することにより実行される。この処理は、オペレータの操作に基づいて実行・終了されてもよいし、ショベル100の運転中に継続的に実行されてもよい。
本実施形態では、検出対象として人体(人)が検出されるものとする。そのため、処理の実行時には、例えばオペレータの操作により検出対象として人体が選択され、この検出対象に対応した特徴量(例えば人の顔のもの)が記憶部35から読み出されて設定されているものとする。
The object detection process is executed by the controller 30 executing a predetermined program stored in an internal storage device on the CPU. This process may be executed/finished based on an operator's operation, or may be continuously executed while the excavator 100 is in operation.
In this embodiment, it is assumed that a human body (person) is detected as a detection target. Therefore, when the process is executed, for example, a human body is selected as a detection target by an operator's operation, and the feature amount (for example, a human face) corresponding to the detection target is read from the storage unit 35 and set. and

物体検出処理が実行されると、図3に示すように、まずコントローラ30は、撮像装置40によりショベル100周辺の画像情報を取得するとともに、距離センサ41によりショベル100周辺の物体までの距離情報を取得する。コントローラ30は、取得した画像情報及び距離情報を記憶部35に記録させる。なお、ここでの撮像装置40と距離センサ41は、後方センサユニット46B、左方センサユニット46L又は右方センサユニット46Rとして互いに対応するものである。
また、コントローラ30は、上部旋回体3を旋回させながら周辺全周の撮影・計測を行ってもよい。
When the object detection process is executed, first, as shown in FIG. 3, the controller 30 acquires image information around the excavator 100 using the imaging device 40, and obtains distance information to objects around the excavator 100 using the distance sensor 41. get. The controller 30 causes the storage unit 35 to record the acquired image information and distance information. Note that the imaging device 40 and the distance sensor 41 here correspond to each other as a rear sensor unit 46B, a left sensor unit 46L, or a right sensor unit 46R.
Further, the controller 30 may perform photographing and measurement of the entire periphery while rotating the upper rotating body 3 .

次に、コントローラ30は、OGM計算部31により、ショベル100周辺の人(人体)の存在を表すOGMを作成する。
ここでは、OGM計算部31は、まず、撮像装置40が取得した画像に基づく第1のOGM71と、距離センサ41が取得した距離情報に基づく第2のOGM72とを個別に作成する。
Next, the controller 30 uses the OGM calculator 31 to create an OGM representing the presence of people (human bodies) around the excavator 100 .
Here, the OGM calculation unit 31 first creates separately a first OGM 71 based on the image acquired by the imaging device 40 and a second OGM 72 based on the distance information acquired by the distance sensor 41 .

第1のOGM71は、カメラ用OGM作成部311により、撮像装置40が取得した画像情報に基づいて、人体が検出されてそのOGMとして作成される。
ここでは、例えば図4(a)に示すような第1のOGM71が作成される。第1のOGM71では、撮像装置40による撮影画像から人体(と推定される物体)として検出された物体領域R1の位置が、例えば格子状に区画された二次元マップ上に平面表示される。
The first OGM 71 is created by the camera OGM creation unit 311 as the OGM after a human body is detected based on the image information acquired by the imaging device 40 .
Here, for example, a first OGM 71 as shown in FIG. 4(a) is created. In the first OGM 71, the position of an object region R1 detected as a human body (an object presumed to be a human body) from the image captured by the imaging device 40 is displayed on a two-dimensional map partitioned in a grid pattern, for example.

また、第2のOGM72は、距離センサ用OGM作成部312により、距離センサ41が取得した距離情報に基づいて、人体が検出されてそのOGMとして作成される。
ここでは、例えば図4(b)に示すような第2のOGM72が作成される。この第2のOGM72では、距離情報に基づいて人体(と推定される物体)として検出された物体領域R2の位置が、例えば第1のOGM71と同様に格子状に区画された二次元マップ上に平面表示される。
The second OGM 72 is created by the distance sensor OGM creating unit 312 as the OGM after the human body is detected based on the distance information acquired by the distance sensor 41 .
Here, for example, a second OGM 72 as shown in FIG. 4B is created. In this second OGM 72, the position of the object region R2 detected as a human body (an object presumed to be) based on the distance information is displayed on a two-dimensional map partitioned into a grid similar to the first OGM 71, for example. displayed on a plane.

次に、図3に示すように、OGM計算部31は、ローカルOGM作成部313により、第1のOGM71と第2のOGM72とを合成してローカルOGM73を作成する。
本実施形態のローカルOGM73では、例えば図4(c)に示すように、図4(a)に示す第1のOGM71と、図4(b)に示す第2のOGM72との、いずれにも物体領域R1、R2が存在するグリッドが、人体が検出された物体領域R3となっている。すなわち、第1のOGM71及び第2のOGM72の各々において、物体領域ありのグリッドに「1」、物体領域なしのグリッドに「0」を割り当てておき、合成の際に、対応するグリッド同士で和を取った数値が「1」の場合に当該グリッドを物体領域R3としている。
ただし、この合成手法は本実施形態のものに限定されない。例えば、第1のOGM71及び第2のOGM72の各々の作成時に、「0」と「1」だけではなく、各物体領域の存在の確からしさに応じて重み付けした数値を当該物体領域のグリッドに割り当ててもよい。そして、これらの合成時に、対応するグリッドの物体領域で和(又は積)を取った数値が所定の閾値以上となった場合に、当該グリッドを物体領域R3とすればよい。
Next, as shown in FIG. 3, the OGM calculator 31 synthesizes the first OGM 71 and the second OGM 72 by the local OGM generator 313 to generate a local OGM 73 .
In the local OGM 73 of this embodiment, for example, as shown in FIG. 4C, both the first OGM 71 shown in FIG. 4A and the second OGM 72 shown in FIG. A grid in which the regions R1 and R2 exist is an object region R3 in which a human body is detected. That is, in each of the first OGM 71 and the second OGM 72, "1" is assigned to grids with object regions, and "0" is assigned to grids without object regions. is "1", the grid is defined as the object region R3.
However, this synthesizing method is not limited to that of this embodiment. For example, when each of the first OGM 71 and the second OGM 72 is created, not only "0" and "1" but also numerical values weighted according to the probability of existence of each object region are assigned to the grid of the object region. may Then, when the value obtained by summing (or multiplying) the object regions of the corresponding grid is equal to or greater than a predetermined threshold value at the time of synthesizing these, the grid may be set as the object region R3.

ローカルOGM73は、本発明に係る第1地図情報の一例であり、図5(a)に示すように、ショベル100の周辺のうち、局所的な範囲(領域)を有するOGMである。本実施形態では、ショベル100の全周を囲むように、複数(6個)のローカルOGM73が作成される。
なお、ローカルOGM73の範囲や数量は特に限定されない。また、ローカルOGM73のセルサイズは、計算負荷が過大にならない範囲で細かい方が、物体検出の精度を向上させる点で好ましい。
The local OGM 73 is an example of first map information according to the present invention, and is an OGM having a local range (region) in the vicinity of the excavator 100 as shown in FIG. In this embodiment, a plurality (six) of local OGMs 73 are created so as to surround the entire circumference of the excavator 100 .
The range and number of local OGMs 73 are not particularly limited. Further, it is preferable that the cell size of the local OGM 73 is as small as possible in order to improve the accuracy of object detection within a range in which the calculation load is not excessive.

次に、図3に示すように、コントローラ30は、物体検出判定部32により、OGM計算部31が作成した各ローカルOGM73に基づいて、ショベル100の周辺の人(人体)の検出判定を行う。本実施形態では、ローカルOGM73のうち物体領域R3とされたグリッドに人が存在すると判定される。あるいは、割り当てられた数値が所定値以上のグリッド(物体領域R3)のみに人が存在すると判定してもよい。
このように、比較的に範囲が狭いローカルOGM73を用いて物体検出を行うことにより、その検出判定計算を高速化できる。なお、ローカルOGM73を直接利用する制御は、物体検出に限定されず、ショベル100の動作制御に広く適用でき、特に即応性が要求される動作制御(例えば衝突判定等)に好適に適用できる。
そして、物体検出判定部32は、その検出結果(判定結果)を表示装置50に出力させる。この表示態様は、検出対象の位置等が識別できるものであれば、特に限定されない。
Next, as shown in FIG. 3 , the controller 30 uses the object detection determination section 32 to detect and determine a person (human body) around the excavator 100 based on each local OGM 73 created by the OGM calculation section 31 . In this embodiment, it is determined that a person exists in the grid designated as the object region R3 in the local OGM 73 . Alternatively, it may be determined that a person exists only in grids (object regions R3) whose assigned numerical values are equal to or greater than a predetermined value.
By detecting an object using the local OGM 73 having a relatively narrow range in this way, the detection determination calculation can be speeded up. Note that the control that directly uses the local OGM 73 is not limited to object detection, but can be widely applied to motion control of the excavator 100, and is particularly suitable for motion control that requires quick response (for example, collision determination).
Then, the object detection determination unit 32 causes the display device 50 to output the detection result (determination result). This display mode is not particularly limited as long as the position or the like of the detection target can be identified.

次に、OGM計算部31は、グローバルOGM作成部314により、ローカルOGM73等に基づいてグローバルOGM74を作成する。
グローバルOGM74は、本発明に係る第2地図情報の一例であり、図5(b)に示すように、ショベル100の周辺の広範な範囲(領域)であって、ローカルOGM73よりも遠方までの範囲を有するOGMである。グローバルOGM作成部314は、複数のローカルOGM73から周辺情報を取得してグローバルOGM74を作成する。ただし、いずれのローカルOGM73にも含まれない範囲は、別途作成してもよい。グローバルOGM74の作成時間(更新周期)は、ローカルOGM73よりも長い。
なお、グローバルOGM74は、ローカルOGM73よりも広い範囲のものであればよい。また、グローバルOGM74のセルサイズは、ローカルOGM73より粗くてもよい。
Next, the OGM calculation unit 31 uses the global OGM creation unit 314 to create a global OGM 74 based on the local OGM 73 and the like.
The global OGM 74 is an example of second map information according to the present invention, and as shown in FIG. is an OGM with A global OGM creation unit 314 acquires peripheral information from a plurality of local OGMs 73 and creates a global OGM 74 . However, a range that is not included in any local OGM 73 may be created separately. The creation time (update cycle) of the global OGM 74 is longer than that of the local OGM 73 .
Note that the global OGM 74 may have a wider range than the local OGM 73 . Also, the cell size of the global OGM 74 may be coarser than the local OGM 73 .

そして、グローバルOGM作成部314は、グローバルOGM74(の情報)を表示装置50に出力させる。オペレータは、グローバルOGM74を視認することにより、ショベル100周辺の広範な範囲の状況を認識することができる。
なお、グローバルOGM74を利用する態様は、オペレータへの情報伝達(表示)に限定されず、例えば即応性が要求されないもの等に好適に適用できる。
Then, the global OGM creation unit 314 causes the display device 50 to output (information of) the global OGM 74 . By visually recognizing the global OGM 74, the operator can recognize the situation in a wide range around the excavator 100. FIG.
Note that the mode of using the global OGM 74 is not limited to information transmission (display) to the operator, and can be suitably applied to, for example, things that do not require responsiveness.

[本実施形態の技術的効果]
以上のように、本実施形態によれば、撮像装置40や距離センサ41で取得されたショベル100周辺の情報に基づいて、ショベル100周辺の局所的な領域の情報を地図表示したローカルOGM73が作成され、このローカルOGM73に基づいて、当該ローカルOGM73の領域(範囲)よりも広い領域の情報を地図表示したグローバルOGM74が作成される。そして、ローカルOGM73に基づいて、ショベル100が動作制御される。
このように、範囲が狭いローカルOGM73を用いて動作制御を行うことにより、単純に対象の周辺を広く含むマップを作成して動作制御する場合に比べ、その動作制御を高速化できる。したがって、地図情報を用いて好適に対象の動作制御を行うことができる。
[Technical effect of the present embodiment]
As described above, according to the present embodiment, based on the information around the excavator 100 acquired by the imaging device 40 and the distance sensor 41, the local OGM 73 that displays the information of the local area around the excavator 100 on a map creates Based on this local OGM 73, a global OGM 74 is created in which information of an area wider than the area (range) of the local OGM 73 is displayed on a map. The operation of the excavator 100 is controlled based on the local OGM 73 .
By controlling the operation using the local OGM 73 with a narrow range in this way, the speed of the operation control can be increased compared to the case of simply creating a map including a wide area around the object and controlling the operation. Therefore, the map information can be used to suitably control the motion of the object.

また、本実施形態によれば、ローカルOGM73よりも範囲の広いグローバルOGM74は、表示装置50に出力される。
これにより、比較的に作成時間(更新周期)の長いグローバルOGM74であっても、オペレータへの情報伝達(表示)用として好適に利用できる。
すなわち、より更新周期の短いローカルOGM73を用いて即応性が要求される動作制御を好適に行いつつ、より更新周期の長いグローバルOGM74を即応性の要求されない表示用途に好適に利用できる。
Further, according to this embodiment, the global OGM 74 having a wider range than the local OGM 73 is output to the display device 50 .
As a result, even the global OGM 74, which requires a relatively long creation time (update cycle), can be suitably used for information transmission (display) to the operator.
In other words, the local OGM 73 with a shorter update cycle can be used to suitably control operations that require quick response, while the global OGM 74 with a longer update cycle can be used favorably for display applications that do not require quick response.

[変形例1]
図6は、本実施形態の物体検出処理の変形例を説明するための図である。
物体検出判定部32は、物体検出を行うときに、ショベル100の動作状態に基づいて、複数のローカルOGM73から、当該動作状態に対応する少なくとも1つのローカルOGM73を選択し、この選択されたローカルOGM73のみを用いて物体検出を行ってもよい。
ここで、ショベル100の「動作状態」とは、ショベル100の移動、旋回、アタッチメントの動作等の各状態を含む。また、利用しないローカルOGM73は、そもそも作成しなくてもよい。
[Modification 1]
FIG. 6 is a diagram for explaining a modification of the object detection processing of this embodiment.
When performing object detection, the object detection determination unit 32 selects at least one local OGM 73 corresponding to the operation state from a plurality of local OGMs 73 based on the operation state of the excavator 100, and selects the selected local OGM 73. may be used for object detection.
Here, the "operating state" of the excavator 100 includes each state of the excavator 100 such as movement, turning, and operation of the attachment. Moreover, the local OGM 73 that is not used need not be created in the first place.

例えば図6(a)に示すように、ショベル100が移動する場合には、その進行方向に位置するローカルOGM73(73RF、73LF)のみを用いて物体検出(動作制御)を行ってもよい。
あるいは図6(b)に示すように、ショベル100(上部旋回体3)が旋回するときには、この旋回に伴って上部旋回体3やアタッチメントが含まれる(と予想される)領域のローカルOGM73(73RF、73R、73RB,73L)のみを用いて物体検出(動作制御)を行ってもよい。
For example, as shown in FIG. 6A, when the excavator 100 moves, object detection (operation control) may be performed using only the local OGMs 73 (73RF, 73LF) positioned in the direction of travel.
Alternatively, as shown in FIG. 6B, when the excavator 100 (upper revolving body 3) turns, the local OGM 73 (73 RF , 73R, 73RB, 73L) may be used for object detection (operation control).

このように、ショベル100の動作状態に基づいてローカルOGM73を少なくとも1つ選択し、当該選択したローカルOGM73に基づいてショベル100の動作制御することにより、その動作制御をさらに高速化できる。 Thus, by selecting at least one local OGM 73 based on the operating state of the excavator 100 and controlling the operation of the excavator 100 based on the selected local OGM 73, the operation control can be further speeded up.

[変形例2]
図7は、撮像装置40及び距離センサ41のチルト角とローカルOGM73の位置及び範囲(大きさ)との関係を説明するための図である。
撮像装置40及び距離センサ41は、PTZ状態(パン、チルト、ズームの各動作状態)に応じて、その検出位置や検出範囲が変化する。そのため、図7に一例(チルト動作例)を示すように、撮像装置40及び距離センサ41のPTZ状態に応じて、ローカルOGM73の位置及び範囲が変わる。
そこで、所望のローカルOGM73の位置及び範囲に基づいて、撮像装置40及び距離センサ41を適宜PTZ動作させてもよい。この場合、撮像装置40及び距離センサ41の各々はPTZ動作(パン、チルト、ズームの各動作)が可能に構成され、コントローラ30がこれを制御可能であるのは勿論である。
[Modification 2]
FIG. 7 is a diagram for explaining the relationship between the tilt angles of the imaging device 40 and the distance sensor 41 and the position and range (size) of the local OGM 73. As shown in FIG.
The detection positions and detection ranges of the imaging device 40 and the distance sensor 41 change according to the PTZ state (operation states of pan, tilt, and zoom). Therefore, as an example (tilt operation example) is shown in FIG. 7 , the position and range of the local OGM 73 change according to the PTZ states of the imaging device 40 and the distance sensor 41 .
Therefore, based on the desired position and range of the local OGM 73, the imaging device 40 and the distance sensor 41 may be appropriately PTZ-operated. In this case, each of the imaging device 40 and the distance sensor 41 is configured to be capable of PTZ operations (pan, tilt, and zoom operations), and of course the controller 30 can control this.

[その他]
以上、本発明の実施形態について説明したが、本発明は上記実施形態やその変形例に限られない。
例えば、上記実施形態では、撮像装置40や距離センサ41がショベル100に搭載されることとしたが、撮像装置40や距離センサ41はショベル100に搭載されていなくともよく、例えば高所に設置、あるいはドローンなどの無人航空機に搭載されていてもよい。そして、取得したデータをショベル100に送信してもよいし、あるいは、データを管理装置200や支援装置300に送信して検出処理を実行させ、その結果をショベル100に送信してもよい。
[others]
Although the embodiments of the present invention have been described above, the present invention is not limited to the above embodiments and modifications thereof.
For example, in the above embodiment, the imaging device 40 and the distance sensor 41 are mounted on the excavator 100, but the imaging device 40 and the distance sensor 41 may not be mounted on the excavator 100. Alternatively, it may be mounted on an unmanned aerial vehicle such as a drone. Then, the acquired data may be transmitted to the excavator 100 , or the data may be transmitted to the management device 200 or the support device 300 to execute detection processing, and the result thereof may be transmitted to the excavator 100 .

また、上記実施形態では、撮像装置と距離センサの(出力に基づく)検出結果を合成(フュージョン)する場合を例に挙げて説明した。しかし、本発明に係る情報取得手段は、対象(ショベル)の周辺の情報を取得できるものであれば、撮像装置と距離センサに限定されず、例えばミリ波センサや音声(音センサ)などを含んでもよい(その組み合わせは限定されない)。 Further, in the above embodiment, the case where the detection results (based on the output) of the imaging device and the distance sensor are combined (fused) has been described as an example. However, the information acquisition means according to the present invention is not limited to an imaging device and a distance sensor as long as it can acquire information around the target (excavator), and includes, for example, a millimeter wave sensor and voice (sound sensor). (The combination is not limited).

また、本発明に係る情報処理装置は、対象の周辺の情報を処理するものであればよく、当該対象に搭載されるものに限定されない。
また、この場合の「対象」は、ショベルに限定されず、建設機械全般に適用可能であるのは勿論のこと、建設機械を含む作業機械にも好適に適用可能である。
その他、実施の形態で示した細部は、発明の趣旨を逸脱しない範囲で適宜変更可能である。
Further, the information processing apparatus according to the present invention is not limited to the one mounted on the target as long as it processes information about the surroundings of the target.
In addition, the "target" in this case is not limited to excavators, but can be applied not only to construction machines in general, but also to working machines including construction machines.
Other details shown in the embodiments can be changed as appropriate without departing from the scope of the invention.

100 ショベル
30 コントローラ
31 OGM計算部
32 物体検出判定部
35 記憶部
40 撮像装置
41 距離センサ
42 動作・姿勢状態センサ
50 表示装置
73 ローカルOGM(第1地図情報)
74 グローバルOGM(第2地図情報)
200 管理装置
300 支援装置
100 Excavator 30 Controller 31 OGM calculation unit 32 Object detection determination unit 35 Storage unit 40 Imaging device 41 Distance sensor 42 Motion/posture state sensor 50 Display device 73 Local OGM (first map information)
74 Global OGM (secondary map information)
200 management device 300 support device

Claims (8)

対象の周辺の情報を取得する情報取得手段と、
前記情報取得手段が取得した情報に基づいて、第1の領域における前記情報を地図表示した第1地図情報を作成する第1地図作成手段と、
前記第1地図情報に基づいて、前記第1の領域よりも広い第2の領域における前記情報を地図表示した第2地図情報を作成する第2地図作成手段と、
前記第1地図情報に基づいて、前記対象を動作制御する動作制御手段と、
を備える、
情報処理装置。
an information acquisition means for acquiring information around an object;
first map creation means for creating first map information in which the information in the first region is displayed on a map based on the information acquired by the information acquisition means;
second map creation means for creating second map information in which the information in a second area wider than the first area is displayed on a map based on the first map information;
operation control means for controlling the operation of the target based on the first map information;
comprising
Information processing equipment.
前記第2地図情報を表示手段に表示させる表示制御手段を備える、
請求項1に記載の情報処理装置。
display control means for displaying the second map information on the display means;
The information processing device according to claim 1 .
前記第1地図作成手段は、互いに異なる領域を有する複数の前記第1地図情報を作成し、
前記第2地図作成手段は、前記複数の第1地図情報に基づいて前記第2地図情報を作成する、
請求項1又は請求項2に記載の情報処理装置。
The first map creation means creates a plurality of the first map information having areas different from each other,
The second map creation means creates the second map information based on the plurality of first map information.
The information processing apparatus according to claim 1 or 2.
前記対象の動作状態を検出する検出手段を備え、
前記動作制御手段は、
前記対象の動作状態に基づいて、前記複数の第1地図情報から少なくとも1つの第1地図情報を選択し、
前記少なくとも1つの第1地図情報に基づいて、前記対象を動作制御する、
請求項3に記載の情報処理装置。
A detection means for detecting the operating state of the target,
The operation control means is
selecting at least one piece of first map information from the plurality of pieces of first map information based on the operating state of the target;
controlling the operation of the target based on the at least one first map information;
The information processing apparatus according to claim 3.
前記情報取得手段は、
画像情報を取得する撮像手段と、距離情報を取得する測距手段と、を含み、
前記情報として、前記対象の周辺の物体の位置及び存在確率を取得する、
請求項1から請求項4のいずれか一項に記載の情報処理装置。
The information acquisition means is
including imaging means for acquiring image information and ranging means for acquiring distance information,
Obtaining the position and existence probability of objects in the vicinity of the target as the information;
The information processing apparatus according to any one of claims 1 to 4.
前記撮像手段及び前記測距手段は、PTZ動作が可能に構成され、
前記第1地図作成手段は、作成する前記第1地図情報の位置及び範囲に基づいて、前記撮像手段及び前記測距手段をPTZ動作させる、
請求項5に記載の情報処理装置。
The imaging means and the distance measuring means are configured to be capable of PTZ operation,
The first map creating means causes the imaging means and the distance measuring means to perform PTZ operations based on the position and range of the first map information to be created.
The information processing device according to claim 5 .
前記対象は建設機械である、
請求項1から請求項6のいずれか一項に記載の情報処理装置。
the object is a construction machine,
The information processing apparatus according to any one of claims 1 to 6.
対象の周辺の情報を取得する情報取得手段を備える情報処理装置の制御プログラムであって、
コンピュータを、
前記情報取得手段が取得した情報に基づいて、第1の領域における前記情報を地図表示した第1地図情報を作成する第1地図作成手段、
前記第1地図情報に基づいて、前記第1の領域よりも広い第2の領域における前記情報を地図表示した第2地図情報を作成する第2地図作成手段、
前記第1地図情報に基づいて、前記対象を動作制御する動作制御手段、
として機能させる、
情報処理装置の制御プログラム。
A control program for an information processing device comprising information acquisition means for acquiring information around an object,
the computer,
first map creation means for creating first map information in which the information in the first area is displayed on a map based on the information acquired by the information acquisition means;
second map creation means for creating second map information based on the first map information, in which the information in a second area wider than the first area is displayed on a map;
operation control means for controlling the operation of the target based on the first map information;
to function as
A control program for an information processing device.
JP2021109067A 2021-06-30 2021-06-30 Information processing device and control program for information processing device Pending JP2023006459A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021109067A JP2023006459A (en) 2021-06-30 2021-06-30 Information processing device and control program for information processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021109067A JP2023006459A (en) 2021-06-30 2021-06-30 Information processing device and control program for information processing device

Publications (1)

Publication Number Publication Date
JP2023006459A true JP2023006459A (en) 2023-01-18

Family

ID=85108299

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021109067A Pending JP2023006459A (en) 2021-06-30 2021-06-30 Information processing device and control program for information processing device

Country Status (1)

Country Link
JP (1) JP2023006459A (en)

Similar Documents

Publication Publication Date Title
EP3335944B1 (en) Work vehicle
EP3660231B1 (en) System and method for autonomous operation of heavy machinery
WO2017208997A1 (en) Shape measurement system, work machine and shape measurement method
WO2021019948A1 (en) Position identification system for construction machinery
AU2017242392B2 (en) Terminal device, control device, data-integrating device, work vehicle, image-capturing system, and image-capturing method
CN112955610A (en) Shovel, information processing device, information processing method, information processing program, terminal device, display method, and display program
JP7203616B2 (en) working machine
JPWO2018026021A1 (en) Management system
JP7387718B2 (en) Construction machinery, support systems
JP7203640B2 (en) Information processing device for working machine, information management system, information processing program for working machine
US20220412048A1 (en) Work assist server, work assist method, and work assist system
CN108779985B (en) Construction management system
WO2021192224A1 (en) Information processing device for work machine, information management system, and information processing program for work machine
JP2023006459A (en) Information processing device and control program for information processing device
JP2021095718A (en) Shovel and information processor
JP2023006464A (en) Information processing device and control program thereof
JP7452038B2 (en) Work support system
JP2021157359A (en) Information processing device, work machine, control method for information processing device, and control program
JP7349947B2 (en) Information processing equipment, working machines, information processing methods, information processing programs
CN113785091A (en) Construction machine image acquisition device, information management system, information terminal, and construction machine image acquisition program
US20220398512A1 (en) Work assist server, work assist method, and work assist system
JP2021197668A (en) Information processing device, and control method and control program of information processing device
US20240127372A1 (en) Construction management system, data processing device, and construction management method
US20240150997A1 (en) Work machine and information processing device
US20240135469A1 (en) Construction management system, data processing device, and construction management method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240412