JP2023063992A - Shovel - Google Patents

Shovel Download PDF

Info

Publication number
JP2023063992A
JP2023063992A JP2021174152A JP2021174152A JP2023063992A JP 2023063992 A JP2023063992 A JP 2023063992A JP 2021174152 A JP2021174152 A JP 2021174152A JP 2021174152 A JP2021174152 A JP 2021174152A JP 2023063992 A JP2023063992 A JP 2023063992A
Authority
JP
Japan
Prior art keywords
image
excavator
monitored object
monitored
detection unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021174152A
Other languages
Japanese (ja)
Inventor
亮太 黒澤
Ryota Kurosawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo SHI Construction Machinery Co Ltd
Original Assignee
Sumitomo SHI Construction Machinery Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo SHI Construction Machinery Co Ltd filed Critical Sumitomo SHI Construction Machinery Co Ltd
Priority to JP2021174152A priority Critical patent/JP2023063992A/en
Publication of JP2023063992A publication Critical patent/JP2023063992A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide a technique for more appropriately detecting an object to be detected from a picked-up image around a shovel.SOLUTION: A shovel 100 includes an undercarriage 1, a super structure 3 turnably mounted on the undercarriage 1, an image pick-up device 40 mounted on the super structure 3 for picking up an image around the super structure 3, an irradiation device 70 for irradiating an image pick-up range of the image pick-up device 40 with infrared light, and an object detection device 302 for recognizing a highly visible safety wear RV on the basis of the image picked-up by the image pick-up device 40 to detect a person around the shovel 100.SELECTED DRAWING: Figure 15

Description

本開示は、ショベルに関する。 The present disclosure relates to excavators.

従来、上部旋回体に搭載される撮像装置の撮像画像から、ショベル(上部旋回体)の周辺の所定範囲内の所定の物体(例えば、人)を検出し、安全機能(例えば、警報の出力)を作動させる技術が知られている(例えば、特許文献1参照)。 Conventionally, a predetermined object (e.g., a person) within a predetermined range around the excavator (upper revolving structure) is detected from an image captured by an imaging device mounted on the upper revolving structure, and a safety function (e.g., outputting an alarm) is performed. is known (see, for example, Patent Document 1).

特開2014-181508号公報JP 2014-181508 A

しかしながら、実在しない物体が検出され、誤って安全機能が作動したり、実在する物体が検出されずに、必要な安全機能が作動しなかったりする可能性がある。そのため、ショベルの周辺の物体検出の精度がより向上することが望ましい。 However, a non-existent object may be detected and the safety function may be erroneously activated, or a real object may not be detected and the required safety function may not be activated. Therefore, it is desirable to further improve the accuracy of object detection around the shovel.

そこで、上記課題に鑑み、ショベルの周辺の物体検出の精度をより向上させることが可能な技術を提供することを目的とする。 Therefore, in view of the above problems, it is an object of the present invention to provide a technique capable of further improving the accuracy of object detection around the excavator.

上記目的を達成するため、本開示の一実施形態では、
下部走行体と、
前記下部走行体に旋回自在に搭載される上部旋回体と、
前記上部旋回体に搭載され、前記上部旋回体の周辺を撮像する撮像装置と、
前記撮像装置の撮像範囲に赤外光を照射する照射装置と、
前記撮像装置の撮像画像に基づき、高視認性安全服を認識することにより、ショベルの周辺の人を検出する検出部と、を備える、
ショベルが提供される。
To achieve the above objectives, in one embodiment of the present disclosure,
a lower running body;
an upper rotating body rotatably mounted on the lower traveling body;
an imaging device mounted on the upper revolving body for imaging the periphery of the upper revolving body;
an irradiation device that irradiates an imaging range of the imaging device with infrared light;
a detection unit that detects people around the excavator by recognizing high-visibility safety clothing based on the captured image of the imaging device;
A shovel is provided.

上述の実施形態によれば、ショベルの周辺の物体検出の精度をより向上させることが可能な技術を提供することを目的とする。 According to the above-described embodiments, it is an object of the present invention to provide a technique capable of further improving the accuracy of object detection around the shovel.

ショベルの一例を示す側面図である。It is a side view which shows an example of a shovel. ショベルの一例を示す上面図である。It is a top view which shows an example of a shovel. ショベル管理システムの一例を示す図である。It is a figure which shows an example of an excavator management system. ショベルのハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of an excavator. 管理装置のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of a management apparatus. ショベルの機能構成の一例を示す機能ブロック図である。It is a functional block diagram showing an example of a functional configuration of a shovel. 物体検出方法の具体例を説明する図である。It is a figure explaining the example of the object detection method. 教師データの画像の第1例を示す図である。FIG. 4 is a diagram showing a first example of an image of training data; 教師データの画像の第2例を示す図である。FIG. 10 is a diagram showing a second example of an image of training data; 教師データの画像の第3例を示す図である。FIG. 11 is a diagram showing a third example of an image of training data; 教師データの画像の第4例を示す図である。FIG. 12 is a diagram showing a fourth example of an image of teacher data; 教師データの画像の第5例を示す図である。FIG. 12 is a diagram showing a fifth example of an image of teacher data; 教師データの画像の第6例を示す図である。FIG. 16 is a diagram showing a sixth example of an image of teacher data; 作業者の一例を示す図である。It is a figure which shows an example of a worker. 作業者の他の例を示す図である。It is a figure which shows another example of a worker. 撮像装置の撮像画像の一例を示す図である。It is a figure which shows an example of the captured image of an imaging device. 撮像装置の撮像画像に対する補正後の画像(補正済撮像画像)の一例を示す図である。FIG. 10 is a diagram showing an example of an image after correction (corrected captured image) with respect to the captured image of the imaging device; 監視物体(人)の全体(全身)のうちの一部分だけが映っている撮像画像の第1例を示す図である。FIG. 4 is a diagram showing a first example of a captured image in which only a part of the whole (whole body) of a monitored object (person) is shown; 監視物体(人)の全体(全身)のうちの一部分だけが映っている撮像画像の第2例を示す図である。FIG. 10 is a diagram showing a second example of a captured image in which only a part of the whole (whole body) of a monitored object (person) is shown; 監視物体(人)の全体(全身)のうちの一部分だけが映っている撮像画像の第3例を示す図である。FIG. 11 is a diagram showing a third example of a captured image in which only a part of the whole (whole body) of a monitored object (person) is shown; 監視物体(人)の全体(全身)のうちの一部分だけが映っている撮像画像の第4例を示す図である。FIG. 12 is a diagram showing a fourth example of a captured image in which only a part of the whole (whole body) of a monitored object (person) is shown; 監視物体(人)の検出状態の一例を示す図である。FIG. 10 is a diagram showing an example of a detection state of a monitored object (person); 監視物体(人)の検出状態の他の例を示す図である。FIG. 10 is a diagram showing another example of a detection state of a monitored object (person); 監視物体(人)の検出状態の更に他の例を示す図である。FIG. 10 is a diagram showing still another example of a detection state of a monitored object (person); ショベルの機能構成の他の例を示す機能ブロック図である。FIG. 3 is a functional block diagram showing another example of the functional configuration of the shovel;

以下、図面を参照して実施形態について説明する。 Embodiments will be described below with reference to the drawings.

[ショベルの概要]
図1~図3を参照して、ショベルの概要について説明する。
[Overview of Excavator]
An outline of the excavator will be described with reference to FIGS. 1 to 3. FIG.

図1、図2は、本実施形態に係るショベル100の一例を示す側面図及び上面図である。図3は、ショベル管理システムSYSの一例を示す図である。 1 and 2 are a side view and a top view showing an example of a shovel 100 according to this embodiment. FIG. 3 is a diagram showing an example of the excavator management system SYS.

図1、図2に示すように、ショベル100は、下部走行体1と、旋回機構2を介して旋回自在に下部走行体1に搭載される上部旋回体3と、各種作業を行うためのアタッチメントATと、キャビン10とを備える。以下、ショベル100(上部旋回体3)の前方は、ショベル100を上部旋回体3の旋回軸に沿って真上から平面視(上面視)で見たときに、上部旋回体3に対するアタッチメントが延び出す方向に対応する。 As shown in FIGS. 1 and 2, the excavator 100 includes a lower traveling body 1, an upper revolving body 3 mounted on the lower traveling body 1 so as to be rotatable via a revolving mechanism 2, and attachments for performing various operations. An AT and a cabin 10 are provided. Below, in front of the excavator 100 (upper revolving body 3), when the excavator 100 is viewed along the revolving shaft of the upper revolving body 3 from directly above in plan view (top view), the attachment to the upper revolving body 3 extends. Corresponds to the output direction.

下部走行体1は、例えば、左右一対のクローラ1Cを含む。下部走行体1は、それぞれのクローラ1Cが左側の走行油圧モータ1ML及び右側の走行油圧モータ1MRで油圧駆動されることにより、ショベル100を走行させる。 The undercarriage 1 includes, for example, a pair of left and right crawlers 1C. The lower traveling body 1 causes the excavator 100 to travel by hydraulically driving the respective crawlers 1C by the left traveling hydraulic motor 1ML and the right traveling hydraulic motor 1MR.

上部旋回体3は、旋回機構2が旋回油圧モータ2Mで油圧駆動されることにより、下部走行体1に対して旋回する。 The upper revolving structure 3 revolves with respect to the lower traveling structure 1 by hydraulically driving the revolving mechanism 2 with a revolving hydraulic motor 2M.

アタッチメントATは、被駆動要素としてのブーム4、アーム5、及びバケット6を含む。 Attachment AT includes boom 4, arm 5, and bucket 6 as driven elements.

ブーム4は、上部旋回体3の前部中央に俯仰可能に取り付けられ、ブーム4の先端には、アーム5が上下回動可能に取り付けられ、アーム5の先端には、バケット6が上下回動可能に取り付けられる。 The boom 4 is attached to the center of the front part of the upper rotating body 3 so as to be able to be raised. An arm 5 is attached to the tip of the boom 4 so as to be vertically rotatable. possible to be installed.

バケット6は、エンドアタッチメントの一例である。バケット6は、例えば、掘削作業等に用いられる。 Bucket 6 is an example of an end attachment. The bucket 6 is used, for example, for excavation work or the like.

また、アーム5の先端には、作業内容等に応じて、バケット6の代わりに、他のエンドアタッチメントが取り付けられてもよい。他のエンドアタッチメントは、例えば、大型バケット、法面用バケット、浚渫用バケット等の他の種類のバケットであってよい。また、他のエンドアタッチメントは、攪拌機、ブレーカ、グラップル等のバケット以外の種類のエンドアタッチメントであってもよい。また、アーム5と、エンドアタッチメントとの間には、例えば、クイックカップリングやチルトローテータ等の予備アタッチメントが介装されてもよい。 Further, another end attachment may be attached to the tip of the arm 5 instead of the bucket 6, depending on the type of work and the like. Other end attachments may be other types of buckets such as, for example, large buckets, slope buckets, dredging buckets, and the like. Other end attachments may also be types of end attachments other than buckets, such as agitators, breakers, grapples, and the like. Further, a spare attachment such as a quick coupling or a tilt rotator may be interposed between the arm 5 and the end attachment.

また、バケット6には、クレーン作業用のフックが取り付けられてもよい。フックは、基端が、アーム5とバケット6との間を連結するバケットピンに回動可能に連結される。これにより、フックは、掘削作業等のクレーン作業(吊り作業)以外の作業が行われる場合、2本のバケットリンクの間に形成される空間に収納される。 Also, the bucket 6 may be attached with a hook for crane work. The hook is pivotally connected at its proximal end to a bucket pin that connects between the arm 5 and the bucket 6 . Thereby, the hook is accommodated in the space formed between the two bucket links when work other than crane work (hanging work) such as excavation work is performed.

ブーム4、アーム5、及びバケット6は、それぞれ、油圧アクチュエータとしてのブームシリンダ7、アームシリンダ8、及びバケットシリンダ9により油圧駆動される。 The boom 4, arm 5, and bucket 6 are hydraulically driven by boom cylinders 7, arm cylinders 8, and bucket cylinders 9 as hydraulic actuators, respectively.

尚、ショベル100は、各種の油圧アクチュエータの一部又は全部が電動アクチュエータに置換されてもよい。つまり、ショベル100は、ハイブリッドショベルや電動ショベルであってもよい。 In the excavator 100, some or all of the various hydraulic actuators may be replaced with electric actuators. That is, the excavator 100 may be a hybrid excavator or an electric excavator.

キャビン10は、オペレータが搭乗する操縦室であり、例えば、上部旋回体3の前部左側に搭載される。 The cabin 10 is a cockpit in which an operator boards, and is mounted on the front left side of the upper swing body 3, for example.

尚、オペレータがショベル100に搭乗して操作を行わず、後述の如く、ショベル100が、専ら、遠隔操作や完全自動運転機能で動作する場合、キャビン10は省略されてよい。 Note that when an operator does not operate the excavator 100 and the excavator 100 operates exclusively by remote control or fully automatic operation function as described later, the cabin 10 may be omitted.

また、図3に示すように、ショベル100は、管理装置200と共に、ショベル管理システムSYSに含まれ、所定の通信回線NWを通じて、管理装置200と相互に通信を行うことが可能であってもよい。これにより、ショベル100は、各種情報を管理装置200に送信(アップロード)したり、管理装置200から各種の信号(例えば、情報信号や制御信号)等を受信したりすることができる。 Also, as shown in FIG. 3, the excavator 100 may be included in the excavator management system SYS together with the management device 200, and may be able to communicate with the management device 200 through a predetermined communication line NW. . As a result, the excavator 100 can transmit (upload) various information to the management device 200 and receive various signals (for example, information signals and control signals) from the management device 200 .

通信回線NWには、例えば、広域ネットワーク(WAN:Wide Area Network)が含まれる。広域ネットワークには、例えば、基地局を末端とする移動体通信網が含まれてよい。また、広域ネットワークには、例えば、ショベル100の上空の通信衛星を利用する衛星通信網が含まれてもよい。また、広域ネットワークには、例えば、インターネット網が含まれてもよい。また、通信回線NWには、例えば、管理装置200が設置される施設等のローカルネットワーク(LAN:Local Area Network)が含まれてもよい。ローカルネットワークは、無線回線であってもよいし、有線回線であってもよいし、その両方を含む回線であってよい。また、通信回線NWには、例えば、WiFiやブルートゥース(登録商標)等の所定の無線通信方式に基づく近距離通信回線が含まれてもよい。 The communication line NW includes, for example, a wide area network (WAN). A wide area network may include, for example, a mobile communication network terminating at a base station. The wide area network may also include, for example, a satellite communication network that uses communication satellites over the excavator 100 . The wide area network may also include, for example, the Internet network. Also, the communication line NW may include, for example, a local network (LAN: Local Area Network) such as a facility where the management device 200 is installed. The local network may be a wireless line, a wired line, or a line containing both. Also, the communication line NW may include, for example, a short-range communication line based on a predetermined wireless communication method such as WiFi or Bluetooth (registered trademark).

ショベル管理システムSYSは、管理装置200において、ショベル100に関する管理やショベル100に関する支援を実施する。 The excavator management system SYS manages the excavator 100 and supports the excavator 100 in the management device 200 .

例えば、ショベル管理システムSYSは、管理装置200において、ショベル100からアップロードされる各種情報に基づき、ショベル100の稼働状態や運用状況の管理(監視)を実施してよい。また、ショベル管理システムSYSは、後述の如く、管理装置200において、ショベル100の遠隔操作を支援してもよい。また、後述の如く、ショベル100が完全自動運転によって作業を行う場合、ショベル管理システムSYSは、例えば、管理装置200において、ショベル100の完全自動運転による作業の遠隔監視を支援してもよい。この場合、ショベル管理システムSYSは、管理装置200において、完全自動運転機能に対する監視者の介入によるショベル100の操作を支援してよい。 For example, the excavator management system SYS may manage (monitor) the operating state and operation status of the excavator 100 based on various information uploaded from the excavator 100 in the management device 200 . Further, the excavator management system SYS may support remote control of the excavator 100 in the management device 200 as described later. As will be described later, when the excavator 100 performs the work by fully automatic operation, the excavator management system SYS may support remote monitoring of the work by the fully automatic operation of the excavator 100 in the management device 200, for example. In this case, the excavator management system SYS may support the operation of the excavator 100 by the supervisor's intervention for the fully automated driving function in the management device 200 .

ショベル管理システムSYSに含まれるショベル100は、一台であってもよいし、複数台であってもよい。また、ショベル管理システムSYSに含まれる管理装置200は、一つであってもよいし、複数であってもよい。即ち、複数の管理装置200は、ショベル管理システムSYSに関する処理を分散して実施してよい。例えば、複数の管理装置200は、それぞれ、ショベル管理システムSYSに含まれる全てのショベル100のうちの担当する一部のショベル100との間で相互に通信を行い、一部のショベル100を対象とする処理を実行してよい。 The excavator 100 included in the excavator management system SYS may be one or plural. Also, the number of management devices 200 included in the excavator management system SYS may be one or plural. That is, the plurality of management devices 200 may distribute and implement the processing related to the excavator management system SYS. For example, the plurality of management devices 200 mutually communicate with some of the excavators 100 that are in charge of all the excavators 100 included in the excavator management system SYS. You may perform a process to

管理装置200は、例えば、ショベル100が作業を行う作業現場の外部の管理センタ等に設置されるオンプレミスサーバやクラウドサーバであってよい。また、管理装置200は、例えば、ショベル100が作業行う作業現場内、或いは、作業現場から相対的に近い場所に配置されるエッジサーバであってもよい。また、管理装置200は、ショベル100の作業現場内の管理事務所等に配置される定置型の端末装置或いは可搬型の端末装置(携帯端末)であってもよい。定置型の端末装置には、例えば、デスクトップ型のPC(Personal Computer)が含まれてよい。また、携帯型の端末装置には、例えば、スマートフォン、タブレット端末、ラップトップ型のPC等が含まれてよい。 The management device 200 may be, for example, an on-premises server or a cloud server installed in a management center or the like outside the work site where the excavator 100 works. Also, the management device 200 may be, for example, an edge server arranged in a work site where the excavator 100 works, or in a place relatively close to the work site. Also, the management device 200 may be a stationary terminal device or a portable terminal device (portable terminal) arranged in a management office or the like in the work site of the excavator 100 . The stationary terminal device may include, for example, a desktop PC (Personal Computer). Portable terminal devices may include, for example, smartphones, tablet terminals, laptop PCs, and the like.

ショベル100は、キャビン10に搭乗するオペレータの操作に応じて、アクチュエータ(例えば、油圧アクチュエータ)を動作させ、下部走行体1、上部旋回体3、及びアタッチメントAT等の被駆動要素を駆動してよい。 The excavator 100 may operate actuators (for example, hydraulic actuators) to drive driven elements such as the lower traveling body 1, the upper revolving body 3, and the attachment AT in accordance with the operation of an operator on board the cabin 10. .

また、ショベル100は、所定の外部装置(例えば、管理装置200)から遠隔操作(リモート操作)が可能に構成されてもよい。ショベル100が遠隔操作される場合、キャビン10の内部は、無人状態であってもよい。以下、オペレータの操作には、キャビン10のオペレータによる操作装置26に対する操作、及び外部のオペレータによる遠隔操作の双方が含まれる前提で説明を進める。 Also, the excavator 100 may be configured to be remotely controlled (remotely controlled) from a predetermined external device (for example, the management device 200). When the excavator 100 is remotely controlled, the interior of the cabin 10 may be unmanned. The following description is based on the premise that the operator's operation includes both the operation of the operating device 26 by the operator of the cabin 10 and the remote operation by the outside operator.

具体的には、管理装置200で行われるショベル100のアクチュエータに関するユーザ(オペレータ)からの入力によって、ショベル100が操作される。この場合、ショベル100は、例えば、後述の撮像装置40の撮像画像やその撮像画像に基づく加工画像(例えば、視点変換画像)等のショベル100の周辺の様子を表す画像(以下、「周辺画像」)のデータを外部装置に送信する。そして、周辺画像は、管理装置200に設けられる遠隔操作用の表示装置(以下、「遠隔操作用表示装置」)に表示される。また、ショベル100のキャビン10内の表示装置50A(図6参照)に表示される各種の情報画像(情報画面)は、同様に、管理装置200の遠隔操作用表示装置にも表示されてよい。これにより、オペレータは、例えば、遠隔操作用表示装置に表示されるショベル100の周辺の様子を表す周辺画像や各種の情報画像等の表示内容を確認しながら、ショベル100を遠隔操作することができる。そして、ショベル100は、管理装置200から受信される、遠隔操作の内容を表す遠隔操作信号に応じて、アクチュエータを動作させ、下部走行体1、上部旋回体3、及びアタッチメントAT等の被駆動要素を駆動することができる。 Specifically, the excavator 100 is operated by a user (operator)'s input regarding the actuator of the excavator 100 performed by the management device 200 . In this case, the excavator 100 may display an image representing the surroundings of the excavator 100 (hereinafter referred to as a “peripheral image”) such as an image captured by the imaging device 40 described later or a processed image based on the captured image (for example, a viewpoint conversion image). ) to the external device. The peripheral image is displayed on a remote control display device (hereinafter referred to as a “remote control display device”) provided in the management device 200 . Various information images (information screens) displayed on the display device 50A (see FIG. 6) in the cabin 10 of the excavator 100 may also be displayed on the remote control display device of the management device 200 in the same manner. As a result, the operator can remotely operate the excavator 100 while confirming the display contents such as the peripheral image representing the surroundings of the excavator 100 and various information images displayed on the remote control display device. . Then, the excavator 100 operates the actuators according to the remote control signal representing the content of the remote control received from the management device 200, and drives the driven elements such as the lower traveling body 1, the upper revolving body 3, and the attachment AT. can be driven.

また、ショベル100は、オペレータの操作の内容に依らず、自動でアクチュエータを動作させてもよい。これにより、ショベル100は、下部走行体1、上部旋回体3、アタッチメントAT等の被駆動要素の少なくとも一部を自動で動作させる機能、即ち、いわゆる「自動運転機能」或いは「マシンコントロール(Machine Control:MC)機能」を実現することができる。 In addition, the excavator 100 may automatically operate the actuator regardless of the content of the operator's operation. As a result, the excavator 100 has a function of automatically operating at least a part of the driven elements such as the lower traveling body 1, the upper revolving body 3, and the attachment AT, that is, the so-called "automatic driving function" or "machine control (Machine Control)." : MC) function" can be realized.

自動運転機能には、オペレータの操作に応じて、操作対象の被駆動要素(アクチュエータ)以外の被駆動要素(アクチュエータ)を自動で動作させる機能、即ち、いわゆる「半自動運機能」或いは「操作支援型のMC機能」が含まれてよい。また、自動運転機能には、オペレータの操作がない前提で、複数の被駆動要素(油圧アクチュエータ)の少なくとも一部を自動で動作させる機能、即ち、いわゆる「完全自動運転機能」或いは「完全自動型のMC機能」が含まれてもよい。ショベル100において、完全自動運転機能が有効な場合、キャビン10の内部は無人状態であってよい。また、半自動運転機能や完全自動運転機能等には、自動運転の対象の被駆動要素(アクチュエータ)の動作内容が予め規定されるルールに従って自動的に決定される態様が含まれてよい。また、半自動運転機能や完全自動運転機能等には、ショベル100が自律的に各種の判断を行い、その判断結果に沿って、自律的に自動運転の対象の被駆動要素(油圧アクチュエータ)の動作内容が決定される、いわゆる「自律運転機能」が含まれてもよい。 The automatic operation function includes a function to automatically operate a driven element (actuator) other than the driven element (actuator) to be operated according to the operation of the operator, that is, the so-called "semi-automatic operation function" or "operation support type 'MC function' may be included. In addition, the automatic operation function includes a function that automatically operates at least a part of a plurality of driven elements (hydraulic actuators) on the premise that there is no operator's operation, that is, a so-called "fully automatic operation function" or "fully automatic type". 'MC function' may be included. In the excavator 100, when the fully automatic operation function is enabled, the interior of the cabin 10 may be in an unmanned state. In addition, the semi-automatic operation function, the fully automatic operation function, and the like may include a mode in which the operation contents of the driven elements (actuators) to be automatically operated are automatically determined according to predetermined rules. In the semi-automatic operation function, the fully automatic operation function, etc., the excavator 100 autonomously makes various judgments, and according to the judgment results, the driven elements (hydraulic actuators) to be automatically operated autonomously operate. So-called "autonomous driving functions", whose contents are determined, may also be included.

[ショベルのハードウェア構成]
次に、図4を参照して、ショベル100のハードウェア構成について説明する。
[Excavator hardware configuration]
Next, a hardware configuration of the excavator 100 will be described with reference to FIG. 4 .

図4は、ショベル100のハードウェア構成の一例を示す図である。 FIG. 4 is a diagram showing an example of the hardware configuration of the excavator 100. As shown in FIG.

尚、図4では、機械的動力が伝達される経路は二重線、油圧アクチュエータを駆動する高圧の作動油が流れる経路は実線、パイロット圧が伝達される経路は破線、電気信号が伝達される経路は点線でそれぞれ示される。 In FIG. 4, the path through which mechanical power is transmitted is double lines, the path through which high-pressure hydraulic oil that drives the hydraulic actuator flows is solid lines, and the path through which pilot pressure is transmitted is dashed lines, and electrical signals are transmitted. Paths are indicated by dotted lines respectively.

ショベル100は、被駆動要素の油圧駆動に関する油圧駆動系、被駆動要素の操作に関する操作系、ユーザとの情報のやり取りに関するユーザインタフェース系、外部との通信に関する通信系、及び各種制御に関する制御系等のそれぞれの構成要素を含む。 The excavator 100 includes a hydraulic drive system for hydraulically driving the driven elements, an operation system for operating the driven elements, a user interface system for exchanging information with the user, a communication system for communication with the outside, a control system for various controls, and the like. including each component of

<油圧駆動系>
図4に示すように、本実施形態に係るショベル100の油圧駆動系は、上述の如く、下部走行体1(左右のクローラ1C)、上部旋回体3、及びアタッチメントAT等の被駆動要素のそれぞれを油圧駆動する油圧アクチュエータHAを含む。また、本実施形態に係るショベル100の油圧駆動系は、エンジン11と、レギュレータ13と、メインポンプ14と、コントロールバルブ17とを含む。
<Hydraulic drive system>
As shown in FIG. 4, the hydraulic drive system of the excavator 100 according to the present embodiment includes the lower traveling body 1 (left and right crawlers 1C), the upper revolving body 3, and the driven elements such as the attachment AT, as described above. includes a hydraulic actuator HA that hydraulically drives the . Also, the hydraulic drive system of the excavator 100 according to this embodiment includes an engine 11 , a regulator 13 , a main pump 14 and a control valve 17 .

図6に示すように、油圧アクチュエータHAには、走行油圧モータ1ML,1MR、旋回油圧モータ2M、ブームシリンダ7、アームシリンダ8、及びバケットシリンダ9等が含まれる。 As shown in FIG. 6, the hydraulic actuator HA includes travel hydraulic motors 1ML and 1MR, a turning hydraulic motor 2M, a boom cylinder 7, an arm cylinder 8, a bucket cylinder 9, and the like.

エンジン11は、ショベル100の原動機であり、油圧駆動系におけるメイン動力源である。エンジン11は、例えば、軽油を燃料とするディーゼルエンジンである。エンジン11は、例えば、上部旋回体3の後部に搭載される。エンジン11は、後述するコントローラ30による直接或いは間接的な制御下で、予め設定される目標回転数で一定回転し、メインポンプ14及びパイロットポンプ15を駆動する。 The engine 11 is a prime mover of the excavator 100 and a main power source in the hydraulic drive system. The engine 11 is, for example, a diesel engine that uses light oil as fuel. The engine 11 is mounted, for example, on the rear portion of the upper revolving body 3 . The engine 11 rotates at a preset target speed under direct or indirect control by a controller 30 to be described later, and drives the main pump 14 and the pilot pump 15 .

尚、エンジン11に代えて、或いは、加えて、他の原動機(例えば、電動機)等がショベル100に搭載されてもよい。 Note that, instead of or in addition to the engine 11, another prime mover (for example, an electric motor) or the like may be mounted on the excavator 100. FIG.

レギュレータ13は、コントローラ30の制御下で、メインポンプ14の吐出量を制御(調節)する。例えば、レギュレータ13は、コントローラ30からの制御指令に応じて、メインポンプ14の斜板の角度(以下、「傾転角」)を調節する。 The regulator 13 controls (adjusts) the discharge amount of the main pump 14 under the control of the controller 30 . For example, the regulator 13 adjusts the angle of the swash plate of the main pump 14 (hereinafter referred to as “tilt angle”) according to a control command from the controller 30 .

メインポンプ14は、高圧油圧ラインを通じてコントロールバルブ17に作動油を供給する。メインポンプ14は、例えば、エンジン11と同様、上部旋回体3の後部に搭載される。メインポンプ14は、上述の如く、エンジン11により駆動される。メインポンプ14は、例えば、可変容量式油圧ポンプであり、上述の如く、コントローラ30の制御下で、レギュレータ13により斜板の傾転角が調節されることによりピストンのストローク長が調整され、吐出流量(吐出圧)が制御される。 The main pump 14 supplies hydraulic fluid to the control valve 17 through a high pressure hydraulic line. The main pump 14 is mounted, for example, on the rear portion of the upper rotating body 3, similar to the engine 11. As shown in FIG. The main pump 14 is driven by the engine 11 as described above. The main pump 14 is, for example, a variable displacement hydraulic pump, and as described above, under the control of the controller 30, the regulator 13 adjusts the tilting angle of the swash plate, thereby adjusting the stroke length of the piston and discharging. The flow rate (discharge pressure) is controlled.

コントロールバルブ17は、オペレータの操作装置26に対する操作や遠隔操作の内容、或いは、コントローラ30から出力される自動運転機能に関する操作指令に応じて、油圧アクチュエータHAの制御を行う油圧制御装置である。自動運転機能に対応する操作指令は、コントローラ30が生成してもよいし、自動運転機能に関する制御を行う他の制御装置(演算装置)が生成してもよい。コントロールバルブ17は、例えば、上部旋回体3の中央部に搭載される。コントロールバルブ17は、上述の如く、高圧油圧ラインを介してメインポンプ14と接続され、メインポンプ14から供給される作動油を、オペレータの操作、或いは、自動運転機能に対応する操作指令に応じて、それぞれの油圧アクチュエータに選択的に供給する。具体的には、コントロールバルブ17は、メインポンプ14から油圧アクチュエータHAのそれぞれに供給される作動油の流量と流れる方向を制御する複数の制御弁(「方向切換弁」とも称する)を含む。 The control valve 17 is a hydraulic control device that controls the hydraulic actuator HA according to the content of the operator's operation on the operation device 26 or remote control, or an operation command relating to the automatic operation function output from the controller 30 . The operation command corresponding to the automatic driving function may be generated by the controller 30, or may be generated by another control device (arithmetic device) that performs control related to the automatic driving function. The control valve 17 is mounted, for example, in the central portion of the upper revolving body 3 . As described above, the control valve 17 is connected to the main pump 14 via the high-pressure hydraulic line, and supplies hydraulic oil supplied from the main pump 14 according to an operator's operation or an operation command corresponding to the automatic operation function. , selectively feeding the respective hydraulic actuators. Specifically, the control valve 17 includes a plurality of control valves (also referred to as “direction switching valves”) that control the flow rate and flow direction of hydraulic oil supplied from the main pump 14 to each hydraulic actuator HA.

<操作系>
図4に示すように、本実施形態に係るショベル100の操作系は、パイロットポンプ15と、操作装置26と、油圧制御弁31と、シャトル弁32と、油圧制御弁33とを含む。
<Operation system>
As shown in FIG. 4 , the operating system of the excavator 100 according to this embodiment includes a pilot pump 15 , an operating device 26 , a hydraulic control valve 31 , a shuttle valve 32 and a hydraulic control valve 33 .

パイロットポンプ15は、パイロットライン25を介して各種油圧機器にパイロット圧を供給する。パイロットポンプ15は、例えば、エンジン11と同様、上部旋回体3の後部に搭載される。パイロットポンプ15は、例えば、固定容量式油圧ポンプであり、上述の如く、エンジン11により駆動される。 Pilot pump 15 supplies pilot pressure to various hydraulic devices via pilot line 25 . The pilot pump 15 is mounted, for example, on the rear portion of the upper revolving body 3 in the same manner as the engine 11 . The pilot pump 15 is, for example, a fixed displacement hydraulic pump, and is driven by the engine 11 as described above.

尚、パイロットポンプ15は、省略されてもよい。この場合、メインポンプ14から吐出される相対的に高い圧力の作動油が所定の減圧弁により減圧された後の相対的に低い圧力の作動油がパイロット圧として各種油圧機器に供給される。 Incidentally, the pilot pump 15 may be omitted. In this case, relatively high-pressure hydraulic fluid discharged from the main pump 14 is decompressed by a predetermined pressure reducing valve, and then relatively low-pressure hydraulic fluid is supplied as pilot pressure to various hydraulic devices.

操作装置26は、キャビン10の操縦席付近に設けられ、オペレータが各種被駆動要素の操作を行うために用いられる。換言すれば、操作装置26は、オペレータがそれぞれの被駆動要素を駆動する油圧アクチュエータHAの操作を行うために用いられる。操作装置26は、それぞれの被駆動要素(油圧アクチュエータHA)を操作するためのペダル装置やレバー装置を含む。 The operating device 26 is provided near the cockpit of the cabin 10 and is used by the operator to operate various driven elements. In other words, the operating device 26 is used by the operator to operate the hydraulic actuators HA that drive the respective driven elements. The operating device 26 includes a pedal device and a lever device for operating each driven element (hydraulic actuator HA).

例えば、図4に示すように、操作装置26は、油圧パイロット式である。具体的には、操作装置26は、パイロットライン25及びそこから分岐されるパイロットライン25Aを通じてパイロットポンプ15から供給される作動油を利用し、操作内容に応じたパイロット圧を二次側のパイロットライン27Aに出力する。パイロットライン27Aは、シャトル弁32の一方の入口ポートに接続され、シャトル弁32の出口ポートに接続されるパイロットライン27を介して、コントロールバルブ17に接続される。これにより、コントロールバルブ17には、シャトル弁32を介して、操作装置26における各種被駆動要素(油圧アクチュエータ)に関する操作内容に応じたパイロット圧が入力されうる。そのため、コントロールバルブ17は、オペレータ等による操作装置26に対する操作内容に応じて、それぞれの油圧アクチュエータHAを駆動することができる。 For example, as shown in FIG. 4, the operating device 26 is hydraulically piloted. Specifically, the operating device 26 utilizes the hydraulic oil supplied from the pilot pump 15 through the pilot line 25 and the pilot line 25A branched therefrom, and applies the pilot pressure according to the operation content to the secondary side pilot line. 27A. The pilot line 27A is connected to one inlet port of the shuttle valve 32 and connected to the control valve 17 via the pilot line 27 connected to the outlet port of the shuttle valve 32 . As a result, a pilot pressure can be input to the control valve 17 through the shuttle valve 32 according to the operation details of various driven elements (hydraulic actuators) in the operating device 26 . Therefore, the control valve 17 can drive each hydraulic actuator HA according to the operation content of the operating device 26 by an operator or the like.

尚、操作装置26は、電気式であってもよい。この場合、パイロットライン27A、シャトル弁32、及び油圧制御弁33は省略される。具体的には、操作装置26は、操作内容に応じた電気信号(以下、「操作信号」)を出力し、操作信号は、コントローラ30に取り込まれる。そして、コントローラ30は、操作信号の内容に応じた制御指令、つまり、操作装置26に対する操作内容に応じた制御信号を油圧制御弁31に出力する。これにより、油圧制御弁31からコントロールバルブ17に操作装置26の操作内容に応じたパイロット圧が入力され、コントロールバルブ17は、操作装置26の操作内容に応じて、それぞれの油圧アクチュエータHAを駆動することができる。また、コントロールバルブ17に内蔵される、それぞれの油圧アクチュエータを駆動する制御弁(方向切換弁)は、電磁ソレノイド式であってもよい。この場合、操作装置26から出力される操作信号がコントロールバルブ17に、即ち、電磁ソレノイド式の制御弁に直接入力されてもよい。また、ショベル100が遠隔操作される場合や自動運転機能により動作する場合、操作装置26は省略されてもよい。 Note that the operating device 26 may be of an electric type. In this case, the pilot line 27A, shuttle valve 32 and hydraulic control valve 33 are omitted. Specifically, the operation device 26 outputs an electric signal (hereinafter referred to as “operation signal”) corresponding to the content of the operation, and the operation signal is captured by the controller 30 . Then, the controller 30 outputs to the hydraulic control valve 31 a control command corresponding to the content of the operation signal, that is, a control signal corresponding to the content of the operation on the operating device 26 . As a result, a pilot pressure corresponding to the operation content of the operation device 26 is input from the hydraulic control valve 31 to the control valve 17, and the control valve 17 drives each hydraulic actuator HA according to the operation content of the operation device 26. be able to. Also, the control valves (direction switching valves) built in the control valve 17 that drive the respective hydraulic actuators may be of the electromagnetic solenoid type. In this case, the operation signal output from the operation device 26 may be directly input to the control valve 17, that is, to the electromagnetic solenoid type control valve. Further, when the excavator 100 is remotely controlled or operates by an automatic driving function, the operating device 26 may be omitted.

油圧制御弁31は、操作装置26の操作対象の被駆動要素(油圧アクチュエータHA)ごとに設けられる。油圧制御弁31は、例えば、パイロットポンプ15とコントロールバルブ17との間のパイロットライン25Bに設けられ、その流路面積(即ち、作動油が通流可能な断面積)を変更可能に構成されてよい。これにより、油圧制御弁31は、パイロットライン25Bを通じて供給されるパイロットポンプ15の作動油を利用して、所定のパイロット圧を二次側のパイロットライン27Bに出力することができる。そのため、図4に示すように、油圧制御弁31は、パイロットライン27Bとパイロットライン27の間のシャトル弁32を通じて、間接的に、コントローラ30からの制御信号に応じた所定のパイロット圧をコントロールバルブ17に作用させることができる。また、図5に示すように、油圧制御弁31は、パイロットライン27B及びパイロットライン27を通じて、直接的に、コントローラ30からの制御信号に応じた所定のパイロット圧をコントロールバルブ17に作用させることができる。そのため、コントローラ30は、油圧制御弁31から電気式の操作装置26の操作内容に応じたパイロット圧をコントロールバルブ17に供給させ、オペレータの操作に基づくショベル100の動作を実現することができる。 The hydraulic control valve 31 is provided for each driven element (hydraulic actuator HA) to be operated by the operating device 26 . The hydraulic control valve 31 is provided, for example, in the pilot line 25B between the pilot pump 15 and the control valve 17, and is configured such that its passage area (that is, the cross-sectional area through which hydraulic oil can flow) can be changed. good. As a result, the hydraulic control valve 31 can output a predetermined pilot pressure to the secondary side pilot line 27B using the hydraulic fluid of the pilot pump 15 supplied through the pilot line 25B. Therefore, as shown in FIG. 4, the hydraulic control valve 31 indirectly controls a predetermined pilot pressure according to the control signal from the controller 30 through the shuttle valve 32 between the pilot lines 27B and 27B. 17. Further, as shown in FIG. 5, the hydraulic control valve 31 can directly apply a predetermined pilot pressure to the control valve 17 according to the control signal from the controller 30 through the pilot line 27B and the pilot line 27. can. Therefore, the controller 30 can cause the control valve 17 to supply the pilot pressure corresponding to the operation content of the electric operation device 26 from the hydraulic control valve 31, and can realize the operation of the excavator 100 based on the operator's operation.

また、コントローラ30は、例えば、油圧制御弁31を制御し、自動運転機能を実現してもよい。具体的には、コントローラ30は、操作装置26の操作の有無に依らず、自動運転機能に関する操作指令に対応する制御信号を油圧制御弁31に出力する。これにより、コントローラ30は、油圧制御弁31から自動運転機能に関する操作指令に対応するパイロット圧をコントロールバルブ17に供給させ、自動運転機能に基づくショベル100の動作を実現することができる。 Also, the controller 30 may control the hydraulic control valve 31, for example, to implement an automatic operation function. Specifically, the controller 30 outputs a control signal corresponding to an operation command related to the automatic operation function to the hydraulic control valve 31 regardless of whether or not the operation device 26 is operated. As a result, the controller 30 can cause the hydraulic control valve 31 to supply the control valve 17 with the pilot pressure corresponding to the operation command relating to the automatic operation function, thereby realizing the operation of the excavator 100 based on the automatic operation function.

また、コントローラ30は、例えば、油圧制御弁31を制御し、ショベル100の遠隔操作を実現してもよい。具体的には、コントローラ30は、通信装置60によって、管理装置200から受信される遠隔操作信号で指定される遠隔操作の内容に対応する制御信号を油圧制御弁31に出力する。これにより、コントローラ30は、油圧制御弁31から遠隔操作の内容に対応するパイロット圧をコントロールバルブ17に供給させ、オペレータの遠隔操作に基づくショベル100の動作を実現することができる。 Further, the controller 30 may control the hydraulic control valve 31 to realize remote control of the excavator 100, for example. Specifically, the controller 30 outputs to the hydraulic control valve 31 through the communication device 60 a control signal corresponding to the content of the remote operation designated by the remote operation signal received from the management device 200 . As a result, the controller 30 causes the hydraulic control valve 31 to supply the pilot pressure corresponding to the content of the remote operation to the control valve 17, thereby realizing the operation of the excavator 100 based on the operator's remote operation.

シャトル弁32は、2つの入口ポートと1つの出口ポートを有し、2つの入口ポートに入力されたパイロット圧のうちの高い方のパイロット圧を有する作動油を出口ポートに出力させる。シャトル弁32は、操作装置26の操作対象の被駆動要素(油圧アクチュエータHA)ごとに設けられる。また、シャトル弁32は、被駆動要素の移動方向(例えば、ブーム4の上げ方向及び下げ方向)ごとに設けられる。シャトル弁32の2つの入口ポートのうちの一方が操作装置26(具体的には、操作装置26に含まれる上述のレバー装置やペダル装置)の二次側のパイロットライン27Aに接続され、他方が油圧制御弁31の二次側のパイロットライン27Bに接続される。シャトル弁32の出口ポートは、パイロットライン27を通じて、コントロールバルブ17の対応する制御弁のパイロットポートに接続される。対応する制御弁とは、シャトル弁32の一方の入口ポートに接続される上述のレバー装置或いはペダル装置の操作対象である油圧アクチュエータを駆動する制御弁である。そのため、これらのシャトル弁32は、それぞれ、操作装置26の二次側のパイロットライン27Aのパイロット圧と油圧制御弁31の二次側のパイロットライン27Bのパイロット圧のうちの高い方を、対応する制御弁のパイロットポートに作用させることができる。つまり、コントローラ30は、操作装置26の二次側のパイロット圧よりも高いパイロット圧を油圧制御弁31から出力させることで、オペレータの操作装置26に対する操作に依らず、対応する制御弁を制御することができる。よって、コントローラ30は、オペレータの操作装置26に対する操作状態に依らず、被駆動要素(下部走行体1、上部旋回体3、アタッチメントAT)の動作を制御し、自動運転機能を実現することができる。 The shuttle valve 32 has two inlet ports and one outlet port, and outputs to the outlet port the hydraulic fluid having the higher pilot pressure among the pilot pressures input to the two inlet ports. The shuttle valve 32 is provided for each driven element (hydraulic actuator HA) to be operated by the operating device 26 . A shuttle valve 32 is provided for each moving direction of the driven element (for example, the raising direction and the lowering direction of the boom 4). One of the two inlet ports of the shuttle valve 32 is connected to the pilot line 27A on the secondary side of the operating device 26 (specifically, the above-described lever device and pedal device included in the operating device 26), and the other is connected to the pilot line 27A. It is connected to the pilot line 27B on the secondary side of the hydraulic control valve 31 . The outlet port of shuttle valve 32 is connected through pilot line 27 to the corresponding control valve pilot port of control valve 17 . The corresponding control valve is a control valve that drives the hydraulic actuator that is the object of operation of the above-described lever device or pedal device that is connected to one inlet port of the shuttle valve 32 . Therefore, these shuttle valves 32 correspond to the higher one of the pilot pressure of the pilot line 27A on the secondary side of the operating device 26 and the pilot pressure of the pilot line 27B on the secondary side of the hydraulic control valve 31. It can act on the pilot port of the control valve. That is, the controller 30 causes the hydraulic control valve 31 to output a pilot pressure higher than the pilot pressure on the secondary side of the operation device 26, thereby controlling the corresponding control valve regardless of the operator's operation of the operation device 26. be able to. Therefore, the controller 30 can control the operation of the driven elements (the lower traveling body 1, the upper revolving body 3, and the attachment AT) regardless of the operating state of the operating device 26 by the operator, and can realize the automatic driving function. .

油圧制御弁33は、操作装置26とシャトル弁32とを接続するパイロットライン27Aに設けられる。油圧制御弁33は、例えば、その流路面積を変更可能なように構成される。油圧制御弁33は、コントローラ30から入力される制御信号に応じて動作する。これにより、コントローラ30は、オペレータにより操作装置26が操作されている場合に、操作装置26から出力されるパイロット圧を強制的に減圧させることができる。そのため、コントローラ30は、操作装置26が操作されている場合であっても、操作装置26の操作に対応する油圧アクチュエータの動作を強制的に抑制させたり停止させたりすることができる。また、コントローラ30は、例えば、操作装置26が操作されている場合であっても、操作装置26から出力されるパイロット圧を減圧させ、油圧制御弁31から出力されるパイロット圧よりも低くすることができる。そのため、コントローラ30は、油圧制御弁31及び油圧制御弁33を制御することで、例えば、操作装置26の操作内容とは無関係に、所望のパイロット圧をコントロールバルブ17内の制御弁のパイロットポートに確実に作用させることができる。よって、コントローラ30は、例えば、油圧制御弁31に加えて、油圧制御弁33を制御することで、ショベル100の自動運転機能や遠隔操作機能をより適切に実現することができる。 The hydraulic control valve 33 is provided in a pilot line 27A that connects the operating device 26 and the shuttle valve 32 . The hydraulic control valve 33 is configured, for example, so that its flow passage area can be changed. The hydraulic control valve 33 operates according to control signals input from the controller 30 . Thereby, the controller 30 can forcibly reduce the pilot pressure output from the operating device 26 when the operating device 26 is operated by the operator. Therefore, even when the operation device 26 is being operated, the controller 30 can forcibly suppress or stop the operation of the hydraulic actuator corresponding to the operation of the operation device 26 . Further, for example, even when the operating device 26 is being operated, the controller 30 reduces the pilot pressure output from the operating device 26 to be lower than the pilot pressure output from the hydraulic control valve 31. can be done. Therefore, the controller 30 controls the hydraulic control valve 31 and the hydraulic control valve 33 to apply a desired pilot pressure to the pilot port of the control valve in the control valve 17, regardless of the operation content of the operating device 26, for example. can work reliably. Therefore, by controlling the hydraulic control valve 33 in addition to the hydraulic control valve 31, the controller 30 can realize the automatic operation function and the remote control function of the excavator 100 more appropriately.

<ユーザインタフェース系>
図4に示すように、本実施形態に係るショベル100のユーザインタフェース系は、操作装置26と、出力装置50と、入力装置52とを含む。
<User interface system>
As shown in FIG. 4 , the user interface system of the excavator 100 according to this embodiment includes an operation device 26 , an output device 50 and an input device 52 .

出力装置50は、ショベル100のユーザ(例えば、キャビン10のオペレータやショベル100の周辺の作業車等)に向けて各種情報を出力する。 The output device 50 outputs various kinds of information to a user of the excavator 100 (for example, an operator of the cabin 10, a work vehicle around the excavator 100, etc.).

例えば、出力装置50は、視覚的な方法で各種情報を出力する照明機器や表示装置50A(図6参照)等を含む。照明機器は、例えば、警告灯等である。表示装置50Aは、例えば、液晶ディスプレイや有機EL(Electroluminescence)ディスプレイ等である。照明機器や表示装置50Aは、例えば、キャビン10の内部に設けられ、キャビン10の内部のオペレータ等に視覚的な方法で各種情報を出力してよい。また、照明機器や表示装置50Aは、例えば、上部旋回体3の側面等に設けられ、ショベル100の周囲の作業者等に視覚的な方法で各種情報を出力してもよい。 For example, the output device 50 includes lighting equipment, a display device 50A (see FIG. 6), and the like that output various information in a visual manner. The lighting equipment is, for example, a warning light or the like. The display device 50A is, for example, a liquid crystal display or an organic EL (Electroluminescence) display. The lighting equipment and the display device 50A may be provided inside the cabin 10, for example, and may output various kinds of information to an operator or the like inside the cabin 10 in a visual manner. Further, the lighting device and the display device 50A may be provided on the side surface of the upper revolving body 3, for example, and output various information to workers around the excavator 100 in a visual manner.

また、例えば、出力装置50は、聴覚的な方法で各種情報を出力する音出力装置50B(図6参照)を含む。音出力装置50Bには、例えば、ブザーやスピーカ等が含まれる。音出力装置50Bは、例えば、キャビン10の内部及び外部の少なくとも一方に設けられ、キャビン10の内部のオペレータやショベル100の周囲の人(作業者等)に聴覚的な方法で各種情報を出力してよい。 Also, for example, the output device 50 includes a sound output device 50B (see FIG. 6) that outputs various information in an auditory manner. The sound output device 50B includes, for example, a buzzer, a speaker, and the like. The sound output device 50B is provided, for example, at least one of the interior and exterior of the cabin 10, and outputs various types of information to the operator inside the cabin 10 and people (workers, etc.) around the excavator 100 in an auditory manner. you can

また、例えば、出力装置50は、操縦席の振動等の触覚的な方法で各種情報を出力する装置を含んでもよい。 Also, for example, the output device 50 may include a device that outputs various information in a tactile manner such as vibration of the cockpit.

入力装置52は、ショベル100のユーザからの各種入力を受け付け、受け付けられる入力に対応する信号は、コントローラ30に取り込まれる。入力装置52は、例えば、キャビン10の内部に設けられ、キャビン10の内部のオペレータ等からの入力を受け付ける。また、入力装置52は、例えば、上部旋回体3の側面等に設けられ、ショベル100の周辺の作業者等からの入力を受け付けてもよい。 The input device 52 receives various inputs from the user of the excavator 100 , and signals corresponding to the received inputs are captured by the controller 30 . The input device 52 is provided, for example, inside the cabin 10 and receives input from an operator or the like inside the cabin 10 . Further, the input device 52 may be provided, for example, on the side surface of the upper revolving body 3 or the like, and may receive an input from a worker or the like around the excavator 100 .

例えば、入力装置52は、操作入力を受け付ける操作入力装置を含む。操作入力装置には、表示装置に実装されるタッチパネル、表示装置の周囲に設置されるタッチパッド、ボタンスイッチ、レバー、トグル、操作装置26(レバー装置)に設けられるノブスイッチ等が含まれてよい。 For example, the input device 52 includes an operation input device that receives operation input. The operation input device may include a touch panel mounted on the display device, a touch pad installed around the display device, a button switch, a lever, a toggle, a knob switch provided on the operation device 26 (lever device), and the like. .

また、例えば、入力装置52は、ユーザの音声入力を受け付ける音声入力装置を含んでもよい。音声入力装置には、例えば、マイクロフォンが含まれる。 Also, for example, the input device 52 may include a voice input device that receives a user's voice input. Audio input devices include, for example, microphones.

また、例えば、入力装置52は、ユーザのジェスチャ入力を受け付けるジェスチャ入力装置を含んでもよい。ジェスチャ入力装置には、例えば、ユーザが行うジェスチャの様子を撮像する撮像装置が含まれる。 Also, for example, the input device 52 may include a gesture input device that receives gesture input from the user. The gesture input device includes, for example, an imaging device that captures an image of a user's gesture.

また、例えば、入力装置52は、ユーザの生体入力を受け付ける生体入力装置を含んでもよい。生体入力には、例えば、ユーザの指紋、虹彩等の生体情報の入力が含まれる。 Also, for example, the input device 52 may include a biometric input device that receives biometric input from the user. The biometric input includes, for example, input of biometric information such as a user's fingerprint and iris.

<通信系>
図4に示すように、本実施形態に係るショベル100の通信系は、通信装置60を含む。
<Communication system>
As shown in FIG. 4 , the communication system of the excavator 100 according to this embodiment includes a communication device 60 .

通信装置60は、通信回線NWに接続し、ショベル100と別に設けられる装置(例えば、管理装置200)と通信を行う。ショベル100と別に設けられる装置には、ショベル100の外部にある装置の他、ショベル100のユーザによりキャビン10に持ち込まれる携帯型の端末装置が含まれてもよい。通信装置60は、例えば、4G(4th Generation)や5G(5th Generation)等の規格に準拠する移動体通信モジュールを含んでよい。また、通信装置60は、例えば、衛星通信モジュールを含んでもよい。また、通信装置60は、例えば、WiFi通信モジュールやブルートゥース(登録商標)通信モジュール等を含んでもよい。 The communication device 60 is connected to the communication line NW and communicates with a device provided separately from the excavator 100 (for example, the management device 200). Devices provided separately from the excavator 100 may include devices outside the excavator 100 as well as portable terminal devices brought into the cabin 10 by the user of the excavator 100 . The communication device 60 may include, for example, a mobile communication module conforming to standards such as 4G ( 4th Generation) and 5G ( 5th Generation). Communication device 60 may also include, for example, a satellite communication module. The communication device 60 may also include, for example, a WiFi communication module, a Bluetooth (registered trademark) communication module, and the like.

<制御系>
図4に示すように、本実施形態に係るショベル100の制御系は、コントローラ30を含む。また、本実施形態に係るショベル100の制御系は、操作圧センサ29と、撮像装置40と、照射装置70と、ブーム角度センサS1と、アーム角度センサS2と、バケット角度センサS3と、機体姿勢センサS4と、旋回角度センサS5とを含む。
<Control system>
As shown in FIG. 4 , the control system of the excavator 100 according to this embodiment includes a controller 30 . Further, the control system of the excavator 100 according to the present embodiment includes an operation pressure sensor 29, an imaging device 40, an irradiation device 70, a boom angle sensor S1, an arm angle sensor S2, a bucket angle sensor S3, and an aircraft attitude. It includes a sensor S4 and a turning angle sensor S5.

コントローラ30は、ショベル100に関する各種制御を行う。 The controller 30 performs various controls related to the excavator 100 .

コントローラ30の機能は、任意のハードウェア、或いは、任意のハードウェア及びソフトウェアの組み合わせ等により実現されてよい。例えば、図4に示すように、コントローラ30は、バスB1で接続される、補助記憶装置30A、メモリ装置30B、CPU(Central Processing Unit)30C、及びインタフェース装置30Dを含む。 The functions of the controller 30 may be implemented by any hardware, or any combination of hardware and software. For example, as shown in FIG. 4, the controller 30 includes an auxiliary storage device 30A, a memory device 30B, a CPU (Central Processing Unit) 30C, and an interface device 30D, which are connected via a bus B1.

補助記憶装置30Aは、不揮発性の記憶手段であり、インストールされるプログラムを格納すると共に、必要なファイルやデータ等を格納する。補助記憶装置30Aは、例えば、フラッシュメモリ等である。 The auxiliary storage device 30A is non-volatile storage means, stores programs to be installed, and stores necessary files, data, and the like. The auxiliary storage device 30A is, for example, a flash memory or the like.

メモリ装置30Bは、例えば、プログラムの起動指示があった場合に、補助記憶装置30AのプログラムをCPU30Cが読み込み可能なようにロードする。メモリ装置30Bは、例えば、SRAM(Static Random Access Memory)である。 The memory device 30B loads the program in the auxiliary storage device 30A so that the CPU 30C can read it, for example, when a program activation instruction is received. The memory device 30B is, for example, an SRAM (Static Random Access Memory).

CPU30Cは、例えば、メモリ装置30Bにロードされるプログラムを実行し、プログラムの命令に従って、コントローラ30の各種機能を実現する。 The CPU 30C, for example, executes a program loaded into the memory device 30B and realizes various functions of the controller 30 according to instructions of the program.

インタフェース装置30Dは、例えば、ショベル100の内部の通信回線に接続するためのインタフェースとして用いられる。インタフェース装置30Dは、接続する通信回線の種類に合わせて、複数の異なる種類のインタフェース装置を含んでよい。 The interface device 30D is used as an interface for connecting to a communication line inside the excavator 100, for example. The interface device 30D may include a plurality of different types of interface devices according to the type of communication line to be connected.

コントローラ30の各種機能を実現するプログラムは、例えば、可搬型の記録媒体によって提供される。この場合、インタフェース装置30Dは、記録媒体からのデータの読み取りや記録媒体へのデータの書き込みのためのインタフェースとして機能する。記録媒体は、例えば、キャビン10の内部に設置されるコネクタに着脱可能なケーブルで接続される専用ツールである。また、記録媒体は、例えば、SDメモリカードやUSB(Universal Serial Bus)メモリ等での汎用の記録媒体であってもよい。また、プログラムは、所定の通信回線を通じて、ショベル100の外部の他のコンピュータ(例えば、管理装置200)からダウンロードされ、補助記憶装置30Aにインストールされてもよい。 A program that implements various functions of the controller 30 is provided, for example, by a portable recording medium. In this case, the interface device 30D functions as an interface for reading data from the recording medium and writing data to the recording medium. The recording medium is, for example, a dedicated tool that is connected to a connector installed inside the cabin 10 with a detachable cable. Also, the recording medium may be, for example, a general-purpose recording medium such as an SD memory card or a USB (Universal Serial Bus) memory. Alternatively, the program may be downloaded from another computer (for example, the management device 200) outside the excavator 100 through a predetermined communication line and installed in the auxiliary storage device 30A.

尚、コントローラ30の機能の一部は、他のコントローラ(制御装置)により実現されてもよい。即ち、コントローラ30の機能は、複数のコントローラにより分散して実現される態様であってもよい。例えば、撮像装置40の撮像画像の画像処理に関する機能と、ショベル100の周辺の物体の検出に関する機能と、ショベル100の安全性の確保に関する機能とは互いに異なるコントローラによって実現されてよい。撮像装置40の撮像画像の画像処理に関する機能には、例えば、後述の表示処理部301や画像補正部306等の機能が含まれる。ショベル100の周辺の物体の検出に関する機能には、例えば、後述の物体検出部302や検出判断部307等の機能が含まれる。ショベル100の安全性の確保に関する機能には、例えば、後述の安全制御部304の機能が含まれる。また、ショベル100の周辺の物体の検出に関する機能は、撮像装置40の撮像画像の画像処理に関する機能を実現するコントローラと、ショベル100の安全性の確保に関する機能を実現するコントローラとに分散される形で搭載されてもよい。具体的には、ショベル100の周辺の物体の検出に関する機能のうち、撮像装置40の撮像画像から物体を認識する機能(物体検出部302の機能)のように、画像処理との関連性が高い機能は、前者のコントローラに搭載されてよい。一方、ショベル100の周辺の物体の検出に関する機能のうち、認識された物体の検出の有無を最終的に判断する機能(検出判断部307の機能)のように、ショベル100の安全性の確保に関連性が高い機能は、後者のコントローラに搭載されてよい。 Note that part of the functions of the controller 30 may be implemented by another controller (control device). In other words, the functions of the controller 30 may be distributed and implemented by a plurality of controllers. For example, a function related to image processing of an image captured by the imaging device 40, a function related to detection of objects around the excavator 100, and a function related to securing the safety of the excavator 100 may be implemented by different controllers. Functions related to image processing of captured images of the imaging device 40 include, for example, functions of a display processing unit 301 and an image correction unit 306, which will be described later. Functions related to detection of objects around the excavator 100 include, for example, functions of an object detection unit 302, a detection determination unit 307, and the like, which will be described later. The functions related to ensuring the safety of the excavator 100 include, for example, functions of the safety control unit 304, which will be described later. In addition, the function related to the detection of objects around the excavator 100 is distributed between a controller that implements a function related to image processing of the image captured by the imaging device 40 and a controller that implements a function related to ensuring the safety of the excavator 100. may be mounted in Specifically, among the functions related to the detection of objects around the excavator 100, there is a high relevance to image processing, such as the function of recognizing an object from the captured image of the imaging device 40 (the function of the object detection unit 302). Functionality may reside in the former controller. On the other hand, among the functions related to the detection of objects around the excavator 100, the function of finally determining whether or not a recognized object has been detected (the function of the detection determination unit 307) is used to ensure the safety of the excavator 100. More relevant functionality may reside in the latter controller.

操作圧センサ29は、油圧パイロット式の操作装置26の二次側(パイロットライン27A)のパイロット圧、即ち、操作装置26におけるそれぞれの被駆動要素(油圧アクチュエータ)の操作状態に対応するパイロット圧を検出する。操作圧センサ29による操作装置26におけるそれぞれの被駆動要素(油圧アクチュエータHA)に関する操作状態に対応するパイロット圧の検出信号は、コントローラ30に取り込まれる。 The operation pressure sensor 29 detects the pilot pressure on the secondary side (pilot line 27A) of the hydraulic pilot type operation device 26, that is, the pilot pressure corresponding to the operation state of each driven element (hydraulic actuator) in the operation device 26. To detect. A pilot pressure detection signal corresponding to the operation state of each driven element (hydraulic actuator HA) in the operation device 26 by the operation pressure sensor 29 is taken into the controller 30 .

尚、操作装置26が電気式である場合、操作圧センサ29は省略される。コントローラ30は、操作装置26から取り込まれる操作信号に基づき、操作装置26を通じたそれぞれの被駆動要素の操作状態を把握することができるからである。 Incidentally, if the operating device 26 is of an electric type, the operating pressure sensor 29 is omitted. This is because the controller 30 can grasp the operating state of each driven element through the operating device 26 based on the operating signal received from the operating device 26 .

撮像装置40は、ショベル100の周辺において、オペレータから見た死角や視認しにくい場所を補間するための画像を取得する。撮像装置40の出力(撮像画像)は、コントローラ30に取り込まれる。 The imaging device 40 acquires an image around the excavator 100 for interpolating a blind spot or a location that is difficult for the operator to visually recognize. The output (captured image) of the imaging device 40 is taken into the controller 30 .

撮像装置40は、例えば、単眼カメラ、ステレオカメラ、デプスカメラ等である。また、撮像装置40は、撮像画像に基づき、所定の撮像範囲(画角)内におけるショベル100の周辺の物体の位置及び外形を表す三次元データ(例えば、点群データやサーフェスデータ)を取得してもよい。 The imaging device 40 is, for example, a monocular camera, a stereo camera, a depth camera, or the like. In addition, based on the captured image, the imaging device 40 acquires three-dimensional data (for example, point cloud data or surface data) representing the position and outline of an object around the excavator 100 within a predetermined imaging range (angle of view). may

例えば、図1、図2に示すように、撮像装置40は、上部旋回体3の前方を撮像するカメラ40F、上部旋回体3の後方を撮像するカメラ40B、上部旋回体3の左方を撮像するカメラ40L、及び上部旋回体3の右方を撮像するカメラ40Rを含む。これにより、オペレータは、表示装置50Aや遠隔操作用表示装置を通じて、カメラ40B,40L,40Rの撮像画像や当該撮像画像に基づき生成される加工画像等の周辺画像を視認し、上部旋回体3の左方、右方、及び後方の様子を確認することができる。また、オペレータは、遠隔操作用表示装置を通じて、カメラ40Fの撮像画像や当該撮像画像に基づき生成される加工画像等の周辺画像を視認することで、バケット6を含むアタッチメントATの動作を確認しながら、ショベル100を遠隔操作することができる。以下、カメラ40F,40B,40L,40Rを包括的に、或いは、個別に、「カメラ40X」と称する場合がある。 For example, as shown in FIGS. 1 and 2, the imaging device 40 includes a camera 40F for imaging the front of the upper rotating body 3, a camera 40B for imaging the rear of the upper rotating body 3, and an image to the left of the upper rotating body 3. and a camera 40R for imaging the right side of the upper rotating body 3 . As a result, the operator can visually recognize peripheral images, such as images captured by the cameras 40B, 40L, and 40R and processed images generated based on the captured images, through the display device 50A and the display device for remote control. You can see the left, right, and rear views. In addition, the operator can visually confirm the operation of the attachment AT including the bucket 6 by visually recognizing the image captured by the camera 40F and the peripheral image such as the processed image generated based on the captured image through the remote control display device. , the excavator 100 can be operated remotely. Hereinafter, the cameras 40F, 40B, 40L, and 40R may be collectively or individually referred to as a "camera 40X."

撮像装置40(カメラ40X)は、それぞれ、撮像素子41と、画像処理エンジン42とを含む。カメラ40Xは、撮像素子41の出力(電気信号)に基づき、画像処理エンジン42によって撮像画像を生成し、生成した画像(撮像画像)を出力する。画像処理エンジン42は、例えば、CPU、メモリ装置、及び補助記憶装置等を含む画像処理専用のコンピュータであり、補助記憶装置にインストールされるプログラムをCPU上で実行することにより各種の画像処理を実現する。以下、画像処理エンジン42の撮像画像を生成する機能を撮像画像生成機能と称し、撮像装置40の撮像画像は、撮像画像生成機能で生成された画像を意味する。 The imaging devices 40 (cameras 40X) each include an imaging device 41 and an image processing engine 42 . The camera 40X generates a captured image by the image processing engine 42 based on the output (electrical signal) of the image sensor 41, and outputs the generated image (captured image). The image processing engine 42 is, for example, a computer dedicated to image processing including a CPU, a memory device, an auxiliary storage device, etc. Various image processing is realized by executing a program installed in the auxiliary storage device on the CPU. do. Hereinafter, the function of generating a captured image of the image processing engine 42 will be referred to as a captured image generating function, and the captured image of the imaging device 40 means an image generated by the captured image generating function.

尚、図2の二点鎖線は、カメラ40F,40B,40L,40Rの上面視の画角(撮像範囲)を表している。 The two-dot chain line in FIG. 2 represents the angle of view (imaging range) of the cameras 40F, 40B, 40L, and 40R when viewed from above.

照射装置70は、コントローラ30の制御下で、撮像装置40の撮像範囲に所定の光を照射する。所定の光は、例えば、可視光である。また、所定の光は、例えば、赤外光であってもよい。撮像装置40の撮像範囲全体を照射可能であれば、照射装置70は、一つであってもよいし、複数であってもよい。例えば、照射装置70は、カメラ40Xごとにもうけられ、カメラ40Xと近接するように上部旋回体3に設置される。 The irradiation device 70 irradiates the imaging range of the imaging device 40 with predetermined light under the control of the controller 30 . The predetermined light is, for example, visible light. Also, the predetermined light may be, for example, infrared light. As long as the entire imaging range of the imaging device 40 can be irradiated, the number of the irradiation devices 70 may be one or plural. For example, the irradiation device 70 is provided for each camera 40X and installed on the upper rotating body 3 so as to be close to the camera 40X.

尚、照射装置70は、省略されてもよい。 Note that the irradiation device 70 may be omitted.

ブーム角度センサS1は、所定基準(例えば、水平面やブーム4の可動角度範囲の両端の何れかの状態等)に対するブーム4の姿勢角度(以下、「ブーム角度」)に関する検出情報を取得する。ブーム角度センサS1は、例えば、ロータリエンコーダ、加速度センサ、角速度センサ、六軸センサ、IMU(Inertial Measurement Unit)等を含んでよい。また、ブーム角度センサS1は、ブームシリンダ7の伸縮位置を検出可能なシリンダセンサを含んでもよい。 The boom angle sensor S1 acquires detection information regarding the attitude angle of the boom 4 (hereinafter referred to as "boom angle") with respect to a predetermined reference (for example, a horizontal plane or one of the two ends of the movable angle range of the boom 4). The boom angle sensor S1 may include, for example, a rotary encoder, an acceleration sensor, an angular velocity sensor, a hexaaxial sensor, an IMU (Inertial Measurement Unit), and the like. Also, the boom angle sensor S1 may include a cylinder sensor capable of detecting the telescopic position of the boom cylinder 7 .

アーム角度センサS2は、所定基準(例えば、ブーム4の両端の連結点間を結ぶ直線やアーム5の可動角度範囲の両端の何れかの状態等)に対するアーム5の姿勢角度(以下、「アーム角度」)に関する検出情報を取得する。アーム角度センサS2は、例えば、ロータリエンコーダ、加速度センサ、角速度センサ、六軸センサ、IMU等を含んでよい。また、アーム角度センサS2は、アームシリンダ8の伸縮位置を検出可能なシリンダセンサを含んでもよい。 The arm angle sensor S2 detects the posture angle of the arm 5 (hereinafter referred to as the "arm angle ”). Arm angle sensor S2 may include, for example, a rotary encoder, an acceleration sensor, an angular velocity sensor, a hexaaxial sensor, an IMU, or the like. Also, the arm angle sensor S2 may include a cylinder sensor capable of detecting the extension/retraction position of the arm cylinder 8 .

バケット角度センサS3は、所定基準(例えば、アーム5の両端の連結点間を結ぶ直線やバケット6の可動角度範囲の両端の何れかの状態等)に対するバケット6の姿勢角度(以下、「バケット角度」)に関する検出情報を取得する。バケット角度センサS3は、例えば、ロータリエンコーダ、加速度センサ、角速度センサ、六軸センサ、IMU等を含んでよい。また、バケット角度センサS3は、バケットシリンダ9の伸縮位置を検出可能なシリンダセンサを含んでもよい。 The bucket angle sensor S3 detects the attitude angle of the bucket 6 (hereinafter referred to as "bucket angle ”). Bucket angle sensor S3 may include, for example, a rotary encoder, an acceleration sensor, an angular velocity sensor, a hexaaxial sensor, an IMU, and the like. Also, the bucket angle sensor S3 may include a cylinder sensor capable of detecting the expansion/contraction position of the bucket cylinder 9 .

機体姿勢センサS4は、下部走行体1及び上部旋回体3を含むショベル100の機体の姿勢状態に関する検出情報を取得する。機体姿勢センサS4は、例えば、上部旋回体3に搭載され、上部旋回体3の水平面に対する傾斜角度や旋回軸回りの姿勢角度(即ち、地面を基準とする上部旋回体3の向き)に関する検出情報を取得する。機体姿勢センサS4は、例えば、加速度センサ(傾斜センサ)、角速度センサ、六軸センサ、IMU等を含んでよい。 The machine body posture sensor S4 acquires detection information regarding the body posture of the excavator 100 including the lower running body 1 and the upper revolving body 3 . The machine body attitude sensor S4 is mounted on the upper revolving structure 3, for example, and detects information related to the tilt angle of the upper revolving structure 3 with respect to the horizontal plane and the attitude angle around the revolving axis (that is, the orientation of the upper revolving structure 3 with respect to the ground). to get The airframe attitude sensor S4 may include, for example, an acceleration sensor (tilt sensor), an angular velocity sensor, a hexaaxial sensor, an IMU, and the like.

旋回角度センサS5は、下部走行体1を基準とする上部旋回体3の旋回角度(即ち、上部旋回体3の向き)に関する検出情報を取得する。旋回角度センサS5は、例えば、ポテンショメータ、ロータリエンコーダ、レゾルバ等を含む。 The turning angle sensor S5 acquires detection information regarding the turning angle of the upper turning body 3 with respect to the lower traveling body 1 (that is, the orientation of the upper turning body 3). The turning angle sensor S5 includes, for example, a potentiometer, rotary encoder, resolver, and the like.

また、例えば、ショベル100は、自機の絶対位置を測位可能な測位装置を含んでもよい。測位装置は、例えば、GNSS(Global Navigation Satellite System)センサである。これにより、ショベル100の姿勢状態の推定精度を向上させることができる。 Also, for example, the excavator 100 may include a positioning device capable of positioning its own absolute position. The positioning device is, for example, a GNSS (Global Navigation Satellite System) sensor. Thereby, the estimation accuracy of the posture state of the excavator 100 can be improved.

また、例えば、ショベル100は、撮像装置40に加えて、ショベル100の周辺の物体との距離を検出する距離センサを含んでもよい。距離センサは、例えば、LIDAR(Light Detecting and Ranging)、ミリ波レーダ、超音波センサ、赤外線センサ、距離画像センサ等を含む。これにより、コントローラ30は、例えば、撮像装置40の出力に加えて、距離センサの出力を用いて、ショベル100の周辺の物体を検出することができる。 Also, for example, the excavator 100 may include a distance sensor that detects the distance to objects around the excavator 100 in addition to the imaging device 40 . Distance sensors include, for example, LIDAR (Light Detecting and Ranging), millimeter wave radar, ultrasonic sensors, infrared sensors, distance image sensors, and the like. Thereby, the controller 30 can detect an object around the excavator 100 using, for example, the output of the distance sensor in addition to the output of the imaging device 40 .

尚、ブーム角度センサS1、アーム角度センサS2、バケット角度センサS3、機体姿勢センサS4、及び旋回角度センサS5の一部又は全部は、省略されてもよい。例えば、遠隔操作機能や自動運転機能が採用されない場合、ショベル100のアタッチメントATや機体(上部旋回体3)の姿勢状態を推定する必要がない場合もあるからである。また、例えば、撮像装置40や後述の距離センサ等により取得されるショベル100の周辺の情報からショベル100の姿勢状態を推定することが可能な場合もあるからである。具体的には、撮像装置40や後述の距離センサ等により取得されるショベル100の周辺の情報には、機体(上部旋回体3)から見た周囲の物体やアタッチメントの位置や形状等に関する情報が含まれる場合がある。この場合、コントローラ30は、要求される精度によっては、その情報からアタッチメントATや機体(上部旋回体3)の姿勢状態を推定することができる。 A part or all of the boom angle sensor S1, the arm angle sensor S2, the bucket angle sensor S3, the body attitude sensor S4, and the turning angle sensor S5 may be omitted. This is because, for example, when the remote control function and the automatic driving function are not employed, it may not be necessary to estimate the attitude state of the attachment AT of the excavator 100 or the machine body (upper rotating body 3). This is also because, for example, it may be possible to estimate the posture state of the excavator 100 from information around the excavator 100 acquired by the imaging device 40, a distance sensor described later, or the like. Specifically, information about the surroundings of the excavator 100 acquired by the imaging device 40, a distance sensor described later, or the like includes information about the positions and shapes of surrounding objects and attachments viewed from the machine body (upper rotating body 3). may be included. In this case, the controller 30 can estimate the attitude state of the attachment AT and the body (upper rotating body 3) from the information, depending on the accuracy required.

[管理装置のハードウェア構成]
次に、図5を参照して、管理装置200のハードウェア構成について説明する。
[Hardware configuration of management device]
Next, a hardware configuration of the management device 200 will be described with reference to FIG.

図5は、本実施形態に係る管理装置200のハードウェア構成の一例を示す図である。 FIG. 5 is a diagram showing an example of the hardware configuration of the management device 200 according to this embodiment.

管理装置200の機能は、任意のハードウェア或いは任意のハードウェア及びソフトウェアの組み合わせ等により実現される。例えば、図5に示すように、管理装置200は、バスB2で接続される、外部インタフェース201、補助記憶装置202、メモリ装置203、CPU204、通信インタフェース206、入力装置207、及び表示装置208を含む。 The functions of the management device 200 are realized by arbitrary hardware or a combination of arbitrary hardware and software. For example, as shown in FIG. 5, the management device 200 includes an external interface 201, an auxiliary storage device 202, a memory device 203, a CPU 204, a communication interface 206, an input device 207, and a display device 208, which are connected via a bus B2. .

外部インタフェース201は、記録媒体201Aからデータの読み取りや記録媒体201Aへのデータの書き込みのためのインタフェースとして機能する。記録媒体201Aには、例えば、フレキシブルディスク、CD(Compact Disc)、DVD(Digital Versatile Disc)、BD(Blu-ray(登録商標) Disc)、SDメモリカード、USBメモリ等が含まれる。これにより、管理装置200は、記録媒体201Aを通じて、処理で利用する各種データを読み込み、補助記憶装置202に格納したり、各種機能を実現するプログラムをインストールしたりすることができる。 The external interface 201 functions as an interface for reading data from the recording medium 201A and writing data to the recording medium 201A. The recording medium 201A includes, for example, a flexible disk, a CD (Compact Disc), a DVD (Digital Versatile Disc), a BD (Blu-ray (registered trademark) Disc), an SD memory card, a USB memory, and the like. As a result, the management device 200 can read various data used in processing through the recording medium 201A, store the data in the auxiliary storage device 202, and install programs that implement various functions.

尚、管理装置200は、通信インタフェース206を通じて、外部装置から各種データやプログラムを取得してもよい。 Note that the management device 200 may acquire various data and programs from an external device through the communication interface 206 .

補助記憶装置202は、インストールされた各種プログラムを格納すると共に、各種処理に必要なファイルやデータ等を格納する。補助記憶装置202は、例えば、HDD(Hard Disc Drive)やSSD(Solid State Drive)やフラッシュメモリ等を含む。 The auxiliary storage device 202 stores various installed programs, as well as files and data required for various processes. The auxiliary storage device 202 includes, for example, an HDD (Hard Disc Drive), SSD (Solid State Drive), flash memory, and the like.

メモリ装置203は、プログラムの起動指示があった場合に、補助記憶装置202からプログラムを読み出して格納する。メモリ装置203は、例えば、DRAM(Dynamic Random Access Memory)やSRAM(Static Random Access Memory)を含む。 The memory device 203 reads out and stores the program from the auxiliary storage device 202 when a program activation instruction is received. The memory device 203 includes, for example, a DRAM (Dynamic Random Access Memory) and an SRAM (Static Random Access Memory).

CPU204は、補助記憶装置202からメモリ装置203にロードされた各種プログラムを実行し、プログラムに従って管理装置200に関する各種機能を実現する。 The CPU 204 executes various programs loaded from the auxiliary storage device 202 to the memory device 203, and implements various functions related to the management device 200 according to the programs.

高速演算装置205は、CPU204と連動し、相対的に高い速度で演算処理を行う。高速演算装置205は、例えば、GPU(Graphics Processing Unit)やASIC(Application Specific Integrated Circuit)やFPGA(Field-Programmable Gate Array)等を含む。 The high-speed arithmetic device 205 works in conjunction with the CPU 204 and performs arithmetic processing at a relatively high speed. The high-speed arithmetic unit 205 includes, for example, a GPU (Graphics Processing Unit), an ASIC (Application Specific Integrated Circuit), an FPGA (Field-Programmable Gate Array), and the like.

尚、高速演算装置205は、必要な演算処理の速度に応じて、省略されてもよい。 Note that the high-speed arithmetic unit 205 may be omitted depending on the required arithmetic processing speed.

通信インタフェース206は、外部機器と通信可能に接続するためのインタフェースとして用いられる。これにより、管理装置200は、通信インタフェース206を通じて、例えば、ショベル100等の外部機器と通信することができる。また、通信インタフェース206は、接続される機器との間の通信方式等によって、複数の種類の通信インタフェースを有してもよい。 A communication interface 206 is used as an interface for communicably connecting to an external device. Thereby, the management device 200 can communicate with an external device such as the excavator 100 through the communication interface 206 . Also, the communication interface 206 may have a plurality of types of communication interfaces depending on the communication method with the connected device.

入力装置207は、ユーザから各種入力を受け付ける。例えば、入力装置207には、オペレータが遠隔操作を行うための入力装置(遠隔操作用操作装置)が含まれる。 The input device 207 receives various inputs from the user. For example, the input device 207 includes an input device (operating device for remote control) for remote control by the operator.

入力装置207は、例えば、ユーザからの機械的な操作入力を受け付ける操作入力装置を含む。操作入力装置は、例えば、ボタン、トグル、レバー等を含む。また、操作入力装置は、例えば、表示装置208に実装されるタッチパネル、表示装置208とは別に設けられるタッチパッド等を含む。 The input device 207 includes, for example, an operation input device that receives mechanical operation input from the user. Operation input devices include, for example, buttons, toggles, levers, and the like. Further, the operation input device includes, for example, a touch panel mounted on the display device 208, a touch pad provided separately from the display device 208, and the like.

また、入力装置207は、例えば、ユーザからの音声入力を受付可能な音声入力装置を含む。音声入力装置は、例えば、ユーザの音声を集音可能なマイクロフォンを含む。 Also, the input device 207 includes, for example, a voice input device capable of accepting voice input from the user. The voice input device includes, for example, a microphone capable of collecting the user's voice.

また、入力装置207は、例えば、ユーザからのジェスチャ入力を受付可能なジェスチャ入力装置を含む。ジェスチャ入力装置は、例えば、ユーザのジェスチャの様子を撮像可能なカメラを含む。 Also, the input device 207 includes, for example, a gesture input device capable of accepting gesture input from the user. The gesture input device includes, for example, a camera capable of capturing an image of a user's gesture.

また、入力装置207は、例えば、ユーザからの生体入力を受付可能な生体入力装置を含む。生体入力装置は、例えば、ユーザの指紋や虹彩に関する情報を内包する画像データを取得可能なカメラを含む。 Also, the input device 207 includes, for example, a biometric input device capable of accepting biometric input from the user. A biometric input device includes, for example, a camera capable of acquiring image data containing information about a user's fingerprint or iris.

表示装置208は、ユーザに向けて、情報画面や操作画面を表示する。例えば、表示装置208には、上述の遠隔操作用表示装置が含まれる。表示装置208は、例えば、液晶ディスプレイや有機EL(Electroluminescence)ディスプレイ等である。 The display device 208 displays information screens and operation screens for the user. For example, display device 208 may include the remote display device described above. The display device 208 is, for example, a liquid crystal display or an organic EL (Electroluminescence) display.

[ショベルの機能構成の一例]
次に、図6を参照して、ショベル100の機能構成の一例について説明する。
[Example of excavator functional configuration]
Next, an example of the functional configuration of the excavator 100 will be described with reference to FIG. 6 .

図6は、本実施形態に係るショベル100の機能構成の一例を示す機能ブロック図である。 FIG. 6 is a functional block diagram showing an example of the functional configuration of the shovel 100 according to this embodiment.

図6に示すように、コントローラ30は、機能部として、表示処理部301と、物体検出部302と、位置推定部303と、安全制御部304と、照射制御部305とを含む。また、コントローラ30は、機能部として、画像補正部306を含んでもよい。表示処理部301、物体検出部302、位置推定部303、安全制御部304、及び照射制御部305の機能は、例えば、補助記憶装置30Aにインストールされるプログラムをメモリ装置30BにロードしCPU30C上で実行することにより実現される。 As shown in FIG. 6, the controller 30 includes a display processing unit 301, an object detection unit 302, a position estimation unit 303, a safety control unit 304, and an irradiation control unit 305 as functional units. Also, the controller 30 may include an image correction unit 306 as a functional unit. The functions of the display processing unit 301, the object detection unit 302, the position estimation unit 303, the safety control unit 304, and the irradiation control unit 305 are such that, for example, a program installed in the auxiliary storage device 30A is loaded into the memory device 30B and executed on the CPU 30C. It is realized by executing

表示処理部301は、撮像装置40から入力される撮像画像に基づき、キャビン10の内部の表示装置50Aに周辺画像を表示させる。 The display processing unit 301 causes the display device 50A inside the cabin 10 to display a peripheral image based on the captured image input from the imaging device 40 .

表示処理部301は、カメラ40F,40B,40L,40Rの何れか一つの撮像範囲に相当する周辺画像を表示装置50Aに表示してもよいし、カメラ40F,40B,40L,40Rのうちの何れか2以上のカメラの撮像範囲を表示装置50Aに表示してもよい。例えば、表示処理部301は、カメラ40F,40B,40L,40Rのうちの少なくともカメラ40B,40Rの撮像範囲を含む周辺画像を表示装置50Aに表示する。カメラ40B,40Rの撮像範囲に相当する上部旋回体3の後方及び右側方は、キャビン10のオペレータから見て死角になり易いからである。 The display processing unit 301 may display a peripheral image corresponding to the imaging range of any one of the cameras 40F, 40B, 40L, and 40R on the display device 50A, or may display any one of the cameras 40F, 40B, 40L, and 40R. Alternatively, the imaging ranges of two or more cameras may be displayed on the display device 50A. For example, the display processing unit 301 displays on the display device 50A a peripheral image including at least the imaging range of the cameras 40B and 40R among the cameras 40F, 40B, 40L and 40R. This is because the rear and right sides of the upper rotating body 3, which correspond to the imaging ranges of the cameras 40B and 40R, tend to be blind spots when viewed from the operator of the cabin 10. FIG.

物体検出部302(検出部の一例)は、撮像装置40の出力(撮像画像)に基づき、ショベル100の周辺の監視物体の所定の物体(以下、「監視物体」)を検出する。具体的には、物体検出部302は、撮像装置40の撮像画像から、監視物体を認識し、その監視物体が映っている位置(領域)を特定してよい。また、物体検出部302は、画像補正部306により撮像装置40(カメラ40X)の撮像画像が補正された後の画像(以下、「補正済撮像画像」)から、監視物体を認識し、その監視物体が映っている位置(領域)を特定してもよい。つまり、監視物体の検出とは、撮像装置40の撮像画像の中に映っている監視物体を認識し、その監視物体が含まれる入力画像の中の位置(領域)を特定することを意味してよい。以下、物体検出部302に入力される画像(撮像装置40の出力そのものの撮像画像、或いは、画像補正部306から出力される補正済撮像画像)を便宜的に「入力画像」と称する場合がある。 The object detection unit 302 (an example of a detection unit) detects a predetermined object (hereinafter referred to as “monitoring object”) among the monitoring objects around the excavator 100 based on the output (captured image) of the imaging device 40 . Specifically, the object detection unit 302 may recognize the monitored object from the captured image of the imaging device 40 and specify the position (area) where the monitored object is captured. Further, the object detection unit 302 recognizes a monitoring object from an image (hereinafter referred to as a “corrected captured image”) after the captured image of the imaging device 40 (camera 40X) has been corrected by the image correction unit 306, and detects the monitoring object. You may specify the position (area) where the object is reflected. In other words, detection of a monitored object means recognizing a monitored object appearing in an image captured by the imaging device 40 and specifying a position (region) in an input image containing the monitored object. good. Hereinafter, an image input to the object detection unit 302 (a captured image of the output itself of the imaging device 40 or a corrected captured image output from the image correction unit 306) may be referred to as an "input image" for convenience. .

監視物体には、ショベル100の周辺で作業する作業者や作業現場の監督者等の人が含まれてよい。また、監視物体には、作業現場の人以外の任意の物体(障害物)が含まれてもよい。作業現場の人以外の障害物には、例えば、穴、溝、土砂の山等の特定の地形、ロードコーン、柵、電柱、仮置きの資材、作業現場の仮設事務所等の定置された(即ち、自身の力では移動しない)障害物が含まれてよい。また、作業現場の人以外の障害物には、例えば、他の作業機械や作業車両等の移動可能な障害物が含まれてよい。物体検出部302による検出対象の監視物体の種類数は、1つであってもよいし、複数であってもよい。以下、監視物体が人である場合を中心に説明を行う。 Observed objects may include people such as workers working around the excavator 100 and supervisors at work sites. Objects to be monitored may also include any objects (obstacles) other than people on the work site. Obstacles other than people at the work site include, for example, specific terrain such as holes, ditches, and mountains of earth and sand, road cones, fences, utility poles, temporary materials, temporary offices at the work site, etc. That is, obstacles that cannot move by themselves) may be included. Obstacles other than people at the work site may include, for example, movable obstacles such as other work machines and work vehicles. The number of types of monitored objects to be detected by the object detection unit 302 may be one or plural. The following description will focus on the case where the object to be monitored is a person.

物体検出部302による物体検出方法の詳細については、後述する。 The details of the object detection method by the object detection unit 302 will be described later.

尚、物体検出部302は、入力装置52に対するオペレータ等による所定の入力に応じて、その機能がON(有効)/OFF(無効)の間で切り替えられてもよい。また、物体検出部302の機能は、カメラ40Xに移管され、検出結果がコントローラ30に送信される態様であってもよい。また、物体検出部302の機能は、表示装置50Aに移管され、検出結果がコントローラ30に移管される態様であってもよい。この場合、カメラ40Xの撮像画像は、表示装置50Aに直接入力される。そのため、この場合、表示処理部301の機能も表示装置50Aに移管されてよい。また、物体検出部302の機能は、撮像装置40に移管されてもよい。この場合、物体検出部302の機能は、カメラ40F,40B,40L,40Rのそれぞれの撮像画像に基づき監視物体を検出する物体検出部に分割され、カメラ40F,40B,40L,40Rのそれぞれに内蔵される(後述の図25参照)。 The function of the object detection unit 302 may be switched between ON (enabled) and OFF (disabled) according to a predetermined input by an operator or the like to the input device 52 . Alternatively, the function of the object detection unit 302 may be transferred to the camera 40X, and the detection result may be transmitted to the controller 30. FIG. Alternatively, the function of the object detection unit 302 may be transferred to the display device 50A, and the detection result may be transferred to the controller 30. FIG. In this case, the image captured by camera 40X is directly input to display device 50A. Therefore, in this case, the function of the display processing unit 301 may also be transferred to the display device 50A. Also, the function of the object detection unit 302 may be transferred to the imaging device 40 . In this case, the function of the object detection unit 302 is divided into object detection units that detect monitored objects based on the images captured by the cameras 40F, 40B, 40L, and 40R, respectively. (See FIG. 25, which will be described later).

位置推定部303は、物体検出部302により撮像装置40の撮像画像の中から監視物体が検出された場合に、検出された監視物体が実際に存在する位置、即ち、ショベル100の周辺での監視物体の位置(以下、「実在位置」)を推定する。 When the object detection unit 302 detects a monitored object from the captured image of the imaging device 40, the position estimation unit 303 monitors the position where the detected monitored object actually exists, that is, the surroundings of the excavator 100. Estimate the position of an object (hereinafter, “actual position”).

具体的には、位置推定部303は、物体検出部302により特定された監視物体の撮像画像における検出位置(検出領域)に基づき、監視物体の実在位置を推定する。また、物体検出部302により複数の監視物体が検出されている場合、位置推定部303は、複数の監視物体ごとの実在位置を推定する。 Specifically, the position estimation unit 303 estimates the actual position of the monitored object based on the detected position (detection area) of the monitored object in the captured image specified by the object detection unit 302 . Also, when a plurality of monitored objects are detected by the object detection unit 302, the position estimation unit 303 estimates the actual position of each of the plurality of monitored objects.

例えば、カメラ40Xが単眼カメラの場合、位置推定部303は、入力画像の中の監視物体の検出領域における基準点(検出位置)を特定し、その基準点の入力画像における左右方向の位置に基づき、ショベル100(上部旋回体3)から見た方向を推定する。また、位置推定部303は、入力画像の中の監視物体の検出領域の大きさ(例えば、上下方向の大きさ)に基づき、ショベル100から監視物体までの距離(具体的には、ショベル100が位置する作業平面に沿う方向の距離)を推定する。認識された監視物体の入力画像上における大きさは、監視物体がショベル100(上部旋回体3)から離れるほど小さくなる相関関係があるからである。具体的には、監視物体には、想定される大きさの範囲(例えば、想定される人の身長の範囲)があるため、想定された大きさの範囲に含まれる当該監視物体のショベル100から見た位置と、入力画像上での大きさとの相関関係が予め規定されうる。そのため、物体検出部302は、例えば、補助記憶装置30A等に予め格納される、入力画像上の監視物体の大きさと上部旋回体3から見た距離との相関関係を表すマップや変換式等に基づき、認識された監視物体の実在位置を推定することができる。よって、位置推定部303は、ショベル100(上部旋回体3)から見た監視物体の方向、及び距離を推定することにより、認識された監視物体の位置を推定することができる。 For example, if the camera 40X is a monocular camera, the position estimating unit 303 identifies a reference point (detection position) in the detection area of the monitored object in the input image, and based on the horizontal position of the reference point in the input image. , the direction viewed from the excavator 100 (upper revolving body 3). Further, the position estimation unit 303 determines the distance from the excavator 100 to the monitored object (specifically, the distance from the excavator 100 to the monitored object based on the size of the detection area of the monitored object in the input image (for example, the size in the vertical direction). Estimate the distance in the direction along the work plane where it is located. This is because there is a correlation that the size of the recognized monitored object on the input image decreases as the monitored object moves away from the excavator 100 (upper revolving body 3). Specifically, since a monitored object has an assumed size range (for example, an assumed range of human height), from the excavator 100 of the monitored object included in the assumed size range, A correlation between the viewing position and the size on the input image can be predefined. For this reason, the object detection unit 302 uses, for example, a map, a conversion formula, or the like, which is stored in advance in the auxiliary storage device 30A or the like, to represent the correlation between the size of the monitored object on the input image and the distance seen from the upper swing structure 3. Based on this, the actual position of the recognized surveillance object can be estimated. Therefore, the position estimating unit 303 can estimate the recognized position of the monitored object by estimating the direction and distance of the monitored object as seen from the excavator 100 (upper rotating body 3).

また、例えば、カメラ40Xが単眼カメラの場合、位置推定部303は、監視物体が下部走行体1と同じ平面上に存在する前提の下、入力画像の当該平面上への射影変換等によって、その実在位置を推定してもよい。具体的には、位置推定部303は、監視物体の地面との接触点を代表する基準点(検出位置)を特定し、その基準点に対して、カメラ40Xの上部旋回体3に対する設置位置及び設置角度に応じて規定される射影変換により、監視物体の実在位置を演算してよい。この場合、入力画像を構成するある部分(例えば、ある画素)は、ショベル100(下部走行体1)と同じ平面上のある位置に1対1で対応づけられる。 Further, for example, when the camera 40X is a monocular camera, the position estimating unit 303, on the premise that the monitored object exists on the same plane as the lower traveling body 1, performs projective transformation of the input image onto the plane, and so on. A real location may be estimated. Specifically, the position estimating unit 303 identifies a reference point (detection position) representing the contact point of the monitored object with the ground, and determines the installation position of the camera 40X with respect to the upper revolving body 3 and The actual position of the monitored object may be calculated by projective transformation defined according to the installation angle. In this case, a certain portion (for example, a certain pixel) constituting the input image is associated one-to-one with a certain position on the same plane as the excavator 100 (undercarriage 1).

また、例えば、カメラ40Xがステレオカメラの場合、2つの撮像画像ごとの監視物体の検出領域における基準位置のズレ(視差)に基づき、監視物体の実在位置を推定する。 Further, for example, when the camera 40X is a stereo camera, the actual position of the monitored object is estimated based on the deviation (parallax) of the reference position in the detection area of the monitored object for each of the two captured images.

安全制御部304(制御部の一例)は、ショベル100の機能安全に関する制御を行う。 A safety control unit 304 (an example of a control unit) performs control related to functional safety of the excavator 100 .

安全制御部304は、例えば、物体検出部302によって、ショベル100の周辺の所定範囲内で監視物体が検出される場合に、安全機能を作動させる。具体的には、安全制御部304は、位置推定部303により推定される、監視物体の実在位置(推定値)がショベル100の周辺の所定範囲内である場合に、安全機能を作動させてよい。 The safety control unit 304 activates the safety function, for example, when the object detection unit 302 detects a monitored object within a predetermined range around the excavator 100 . Specifically, the safety control unit 304 may activate the safety function when the actual position (estimated value) of the monitored object estimated by the position estimation unit 303 is within a predetermined range around the excavator 100. .

安全機能には、例えば、キャビン10の内部、キャビン10の外部、及びショベル100の遠隔のオペレータや監視者等の少なくとも一つに対する警報等を出力し、監視物体の検出を報知する報知機能が含まれてよい。これにより、キャビン10の内部のオペレータ、ショベル100の周辺の作業者、ショベル100の遠隔操作や遠隔監視を行うオペレータや監視者等に対して、ショベル100の周辺の監視エリア内に監視物体が存在していることに関する注意を促すことができる。以下、キャビン10の内部(オペレータ等)への報知機能を「内部報知機能」、ショベル100の外部(作業者等)への報知機能を「外部報知機能」、及びショベル100の遠隔操作や遠隔監視を行うオペレータや監視者への報知機能を「遠隔報知機能」とそれぞれ称し、区別する場合がある。 The safety function includes, for example, a notification function that outputs an alarm or the like to at least one of the inside of the cabin 10, the outside of the cabin 10, and the remote operator or monitor of the excavator 100 to notify the detection of the monitored object. can be As a result, an operator inside the cabin 10, a worker around the excavator 100, an operator or an observer who performs remote operation or remote monitoring of the excavator 100, or the like, is notified that there is an object to be monitored in the surveillance area around the excavator 100. You can call attention to what you are doing. Hereinafter, the notification function to the inside (operator, etc.) of the cabin 10 is "internal notification function", the notification function to the outside (workers, etc.) of the excavator 100 is "external notification function", and the remote operation and remote monitoring of the excavator 100 are described. The notification function to the operator or the monitor who performs the remote notification is sometimes referred to as a "remote notification function" and may be distinguished.

また、安全機能には、例えば、操作装置26の操作、遠隔操作、或いは自動運転機能に対応する操作指令に対するショベル100の動作を制限する動作制限機能が含まれてよい。これにより、ショベル100の動作を強制的に制限し、ショベル100と周辺の物体との接近や接触等の可能性を低減させることができる。動作制限機能には、操作装置26の操作、遠隔操作、或いは自動運転機能に対応する操作指令に対するショベル100の動作速度を通常よりも遅くする動作減速機能が含まれてよい。また、動作制限機能には、操作装置26の操作、遠隔操作、或いは自動運転機能に対応する操作指令に関わらず、ショベル100の動作を停止させ、停止状態を維持させる動作停止機能が含まれてもよい。 Further, the safety function may include, for example, an operation restriction function that restricts the operation of the excavator 100 in response to an operation command corresponding to the operation of the operation device 26, remote operation, or automatic driving function. As a result, the operation of the excavator 100 can be forcibly restricted, and the possibility of the excavator 100 approaching or contacting surrounding objects can be reduced. The motion restriction function may include a motion deceleration function that slows down the motion speed of the excavator 100 in response to an operation command corresponding to the operation of the operating device 26, the remote control, or the automatic driving function. In addition, the operation restriction function includes an operation stop function that stops the operation of the excavator 100 and maintains the stopped state regardless of operation commands corresponding to the operation of the operating device 26, remote operation, or automatic operation function. good too.

安全制御部304は、例えば、物体検出部302によって、ショベル100の周辺の所定範囲(以下、「報知範囲」)で監視物体が検出される場合に、報知機能を作動させる。報知範囲は、例えば、ショベル100の所定の部位からの距離Dが閾値Dth1以下の範囲である。ショベル100の所定の部位は、例えば、上部旋回体3である。また、ショベル100の所定の部位は、例えば、アタッチメントATの先端部のバケット6やフックであってもよい。閾値Dth1は、ショベル100の所定の部位から見た方向に依らず一定であってもよいし、ショベル100の所定の部位から見た方向によって変化してもよい。 For example, the safety control unit 304 activates the notification function when the object detection unit 302 detects a monitored object in a predetermined range around the excavator 100 (hereinafter, “report range”). The notification range is, for example, a range in which the distance D from a predetermined portion of the shovel 100 is equal to or less than the threshold value Dth1. The predetermined portion of the excavator 100 is, for example, the upper revolving body 3 . Also, the predetermined portion of the shovel 100 may be, for example, the bucket 6 or the hook at the tip of the attachment AT. The threshold value Dth1 may be constant regardless of the direction viewed from the predetermined portion of the excavator 100, or may vary depending on the direction viewed from the predetermined portion of the excavator 100. FIG.

安全制御部304は、例えば、音出力装置50Bを制御することにより、キャビン10の内部及び外部の少なくとも一方に対する音(即ち、聴覚的な方法)による内部報知機能や外部報知機能を作動させる。このとき、安全制御部304は、各種条件に応じて、出力される音の音高、音圧、音色、音を周期的に吹鳴させる場合の吹鳴周期、音声の内容等を異ならせてもよい。 The safety control unit 304, for example, controls the sound output device 50B to activate an internal notification function and an external notification function using sound (that is, auditory method) for at least one of the inside and outside of the cabin 10. At this time, the safety control unit 304 may vary the pitch, sound pressure, tone color of the sound to be output, the sounding period when the sound is sounded periodically, the content of the sound, etc., according to various conditions. .

また、安全制御部304は、例えば、視覚的な方法による内部報知機能を作動させる。具体的には、安全制御部304は、表示処理部301を通じて、キャビン10の内部の表示装置50Aを制御することにより、表示装置50Aに周辺画像と共に、監視物体が検出されていることを表す画像を表示させてよい。また、安全制御部304は、表示処理部301を通じて、キャビン10の内部の表示装置50Aに表示される周辺画像に映っている監視物体や、検出された監視物体に対応する周辺画像上の位置を強調させてもよい。より具体的には、安全制御部304は、キャビン10の内部の表示装置50Aに表示されている周辺画像上に、検出されている監視物体を囲む枠を重畳して表示させたり、検出された監視物体の実在位置に対応する周辺画像上の位置にマーカを重畳して表示させたりしてよい。これにより、表示装置50Aは、オペレータに対する視覚的な報知機能を実現することができる。また、安全制御部304は、キャビン10の内部の警告灯や照明装置等を用いて、監視物体が検出されていることをキャビン10の内部のオペレータ等に対して報知してもよい。 Safety control unit 304 also activates an internal notification function, for example, by visual means. Specifically, the safety control unit 304 controls the display device 50A inside the cabin 10 through the display processing unit 301, so that the display device 50A displays an image indicating that the monitored object is being detected together with the peripheral image. can be displayed. In addition, the safety control unit 304, through the display processing unit 301, detects the monitored object appearing in the peripheral image displayed on the display device 50A inside the cabin 10 and the position on the peripheral image corresponding to the detected monitored object. may be emphasized. More specifically, the safety control unit 304 superimposes a frame surrounding the detected monitored object on the peripheral image displayed on the display device 50A inside the cabin 10, or displays the detected monitored object. A marker may be superimposed and displayed at a position on the peripheral image corresponding to the actual position of the monitored object. Thereby, the display device 50A can realize a visual notification function for the operator. Further, the safety control unit 304 may use a warning light, a lighting device, or the like inside the cabin 10 to notify the operator or the like inside the cabin 10 that the monitored object has been detected.

また、安全制御部304は、例えば、上部旋回体3のハウス部の側面等に設けられる出力装置50(例えば、前照灯等の照明装置や表示装置50A)を制御することにより、視覚的な方法による外部報知機能を作動させてもよい。また、安全制御部304は、例えば、オペレータが着座する操縦席を振動させる振動発生装置を制御することにより、触覚的な方法で内部報知機能を作動させてもよい。これにより、コントローラ30は、オペレータやショベル100の周辺の作業者及び監督者等に対して、ショベル100の周辺の相対的に近い場所に監視物体(例えば、作業者等の人)が存在することを認識させることができる。そのため、コントローラ30は、オペレータに対して、ショベル100の周辺の安全状況の確認を促したり、監視エリア内の作業者等に対して、監視エリアからの退避を促したりすることができる。 In addition, the safety control unit 304 controls the output device 50 (for example, a lighting device such as a headlight or a display device 50A) provided on the side surface of the housing portion of the upper rotating body 3, for example, to provide a visual An external notification function by the method may be activated. The safety control unit 304 may also activate the internal notification function in a tactile manner, for example, by controlling a vibration generator that vibrates the cockpit on which the operator sits. As a result, the controller 30 can notify the operator, workers and supervisors around the excavator 100 that an object to be monitored (for example, a person such as a worker) exists in a relatively close place around the excavator 100. can be recognized. Therefore, the controller 30 can prompt the operator to check the safety situation around the excavator 100, and can prompt the worker or the like in the monitoring area to evacuate from the monitoring area.

また、安全制御部304は、例えば、通信装置60を通じて、報知機能の作動を示す指令信号を管理装置200に送信することにより、遠隔報知機能を作動させてもよい。この場合、管理装置200は、通信インタフェース206によりショベル100から指令信号を受信すると、表示装置208等を通じて、視覚的な方法や聴覚的な方法による警報を出力してよい。これにより、管理装置200を通じてショベル100の遠隔操作や遠隔監視を行うオペレータや監視者は、ショベル100の周辺の報知範囲内に監視物体が進入したことを把握することができる。 Further, the safety control unit 304 may activate the remote notification function by transmitting a command signal indicating activation of the notification function to the management device 200 via the communication device 60, for example. In this case, when the command signal is received from the excavator 100 through the communication interface 206, the management device 200 may output a warning visually or audibly through the display device 208 or the like. As a result, an operator or a monitor who performs remote operation or remote monitoring of the excavator 100 through the management device 200 can recognize that a monitored object has entered the notification range around the excavator 100 .

尚、安全制御部304の遠隔報知機能は、管理装置200に移管されてもよい。この場合、管理装置200は、ショベル100から物体検出部302による監視物体の検出状況や位置推定部303による監視物体の実在位置の推定結果に関する情報を受信する。そして、管理装置200は、受信した情報に基づき、報知範囲内への監視物体の進入の有無を判断し、報知範囲内に監視物体が存在する場合に、外部報知機能を作動させる。 Note that the remote notification function of the safety control unit 304 may be transferred to the management device 200 . In this case, the management device 200 receives, from the excavator 100 , information about the detection status of the monitored object by the object detection unit 302 and the estimation result of the actual position of the monitored object by the position estimation unit 303 . Based on the received information, the management device 200 determines whether or not the object to be monitored enters the notification range, and activates the external notification function when the object to be monitored exists within the notification range.

また、安全制御部304は、報知範囲内で検出されている監視物体と、上部旋回体3との位置関係に応じて、報知態様(即ち、報知の仕方)を異ならせてもよい。 In addition, the safety control unit 304 may vary the notification mode (that is, the notification method) according to the positional relationship between the monitored object detected within the notification range and the upper rotating body 3 .

例えば、安全制御部304は、物体検出部302により報知範囲内で検出された監視物体がショベル100の所定の部位に対して相対的に遠い位置に存在する場合、監視物体への注意を促す程度の相対的に緊急度が低い警報(以下、「注意レベルの警報」)を出力してよい。以下、報知範囲のうちのショベル100の所定の部位に対する距離が相対的に遠い範囲、即ち、注意レベルの警報に対応する範囲を便宜的に「注意報知範囲」と称する場合がある。一方、安全制御部304は、物体検出部302により報知範囲内で検出された監視物体がショベル100の所定の部位に対して相対的に近い位置に存在する場合、監視物体がショベル100の所定の部位に接近し危険度が高まっていることを知らせる相対的に緊急度が高い警報(以下、「警戒レベルの警報」)を出力してよい。以下、報知範囲のうちのショベル100の所定の部位に対する距離が相対的に近い範囲、即ち、警戒レベルの警報に対応する範囲を「警戒報知範囲」と称する場合がある。 For example, when the monitored object detected by the object detection unit 302 within the reporting range is located at a position relatively far from a predetermined portion of the excavator 100, the safety control unit 304 may warn of the monitored object. may output a relatively low-urgency warning (hereinafter, “caution-level warning”). Hereinafter, the range in which the distance from the predetermined part of the excavator 100 is relatively long, ie, the range corresponding to the caution level warning, may be referred to as the "caution notification range" for convenience. On the other hand, when the monitored object detected by the object detection unit 302 within the reporting range is relatively close to a predetermined portion of the excavator 100 , the safety control unit 304 determines that the monitored object is located at a predetermined position of the excavator 100 . A relatively high-urgency alarm (hereinafter referred to as "warning level alarm") may be output to notify that the site is approaching and the degree of danger is increasing. Hereinafter, a range in which the distance to a predetermined part of the excavator 100 is relatively close, ie, a range corresponding to an alert level warning, may be referred to as an "alert alert range".

この場合、安全制御部304は、注意レベルの警報と警戒レベルの警報との間で、音出力装置50Bから出力される音の音高、音圧、音色、吹鳴周期等を異ならせてよい。また、安全制御部304は、注意レベルの警報と警戒レベルの警報との間で、表示装置50Aに表示される監視物体が検出されていることを表す画像や、表示装置50Aに表示される周辺画像上の監視物体或いは監視物体の位置を強調させる画像(例えば、枠やマーカ等)の色、形状、大きさ、点滅の有無、点滅周期等を異ならせてよい。これにより、コントローラ30は、音出力装置50Bから出力される報知音(警報音)や表示装置50Aに表示される報知画像の相違によって、オペレータ等に緊急度、換言すれば、監視物体のショベル100の所定の部位に対する接近度を把握させることができる。 In this case, the safety control unit 304 may vary the pitch, sound pressure, tone, sounding period, etc. of the sound output from the sound output device 50B between the caution level warning and the caution level warning. In addition, the safety control unit 304 controls the image indicating that the monitored object is being detected displayed on the display device 50A and the peripheral image displayed on the display device 50A between the caution level warning and the caution level warning. The color, shape, size, presence/absence of blinking, blinking cycle, etc. of the monitored object on the image or the image (for example, frame, marker, etc.) that emphasizes the position of the monitored object may be varied. As a result, the controller 30 informs the operator or the like of the degree of urgency, in other words, the excavator 100 of the object to be monitored, according to the difference between the notification sound (warning sound) output from the sound output device 50B and the notification image displayed on the display device 50A. It is possible to grasp the degree of proximity to a predetermined site of.

安全制御部304は、報知機能の作動開始後、物体検出部302により検出されていた監視物体が報知範囲内で検出されなくなった場合、報知機能を停止させてよい。また、安全制御部304は、報知機能の作動開始後、入力装置52を通じて、報知機能の作動を解除する所定の入力が受け付けられた場合に、報知機能を停止させてもよい。 The safety control unit 304 may stop the notification function when the monitored object detected by the object detection unit 302 is no longer detected within the notification range after the operation of the notification function is started. Further, the safety control unit 304 may stop the notification function when a predetermined input for canceling the operation of the notification function is received through the input device 52 after the activation of the notification function is started.

また、安全制御部304は、例えば、物体検出部302によりショベル100の周辺の所定範囲(以下、「動作制限範囲」)内で監視物体が検出される場合に、動作制限機能を作動させる。動作制限範囲は、例えば、上述の報知範囲と同じに設定される。また、動作制限範囲は、例えば、報知範囲よりもその外縁がショベル100の所定の部位に相対的に近くなるような範囲に設定されてもよい。これにより、安全制御部304は、例えば、監視物体が外側から報知範囲に進入すると、まず、報知機能を作動させ、その後に、監視物体が内側の動作制限範囲に進入すると、更に、動作制限機能を作動させることができる。そのため、コントローラ30は、監視物体の監視エリア内での内側への移動に合わせて、段階的に、報知機能及び動作制限機能を作動させることができる。 Also, the safety control unit 304 activates the operation restriction function, for example, when the object detection unit 302 detects a monitored object within a predetermined range (hereinafter referred to as “operation restriction range”) around the excavator 100 . The operation limit range is set, for example, to be the same as the notification range described above. Also, the operation restriction range may be set to a range in which the outer edge is relatively closer to a predetermined portion of the excavator 100 than the notification range, for example. As a result, for example, when the monitored object enters the notification range from the outside, the safety control unit 304 first activates the notification function, and then when the monitored object enters the inner operation restriction range, the operation restriction function is activated. can be activated. Therefore, the controller 30 can activate the notification function and the operation restriction function step by step in accordance with the inward movement of the monitored object within the monitored area.

具体的には、安全制御部304は、ショベル100の所定の部位からの距離Dが閾値Dth2(≦Dth1)以内の動作制限範囲内で監視物体が検出されると、動作制限機能を作動させてよい。閾値Dth2は、ショベル100の所定の部位から見た方向に依らず一定であってもよいし、ショベル100の所定の部位から見た方向によって変化してもよい。 Specifically, the safety control unit 304 activates the operation restriction function when the monitored object is detected within the operation restriction range in which the distance D from the predetermined portion of the excavator 100 is within the threshold value Dth2 (≦Dth1). good. The threshold value Dth2 may be constant regardless of the direction viewed from the predetermined portion of the excavator 100, or may vary depending on the direction viewed from the predetermined portion of the excavator 100. FIG.

また、動作制限範囲には、操作装置26の操作、遠隔操作、自動運転機能に対応する操作指令に対するショベル100の動作速度を通常よりも遅くする動作減速範囲、及び操作装置26の操作、遠隔操作、自動運転機能に対応する操作指令に関わらず、ショベル100の動作を停止させ、停止状態を維持させる動作停止範囲の少なくとも一方が含まれる。例えば、動作制限範囲に動作減速範囲及び動作停止範囲の双方が含まれる場合、動作停止範囲は、動作制限範囲のうちのショベル100の所定の部位に近接する範囲である。そして、動作減速範囲は、動作制限範囲のうちの動作停止範囲の外側に設定される範囲である。 In addition, the operation limitation range includes an operation deceleration range in which the operation speed of the excavator 100 is slower than normal in response to an operation command corresponding to the operation of the operation device 26, remote operation, and automatic driving function, and an operation deceleration range of operation of the operation device 26, remote operation. , and at least one of an operation stop range in which the operation of the excavator 100 is stopped and the stop state is maintained regardless of the operation command corresponding to the automatic operation function. For example, when the motion deceleration range and the motion stop range are included in the motion limit range, the motion stop range is a range close to a predetermined portion of the excavator 100 within the motion limit range. The motion deceleration range is a range set outside the motion stop range in the motion limit range.

安全制御部304は、油圧制御弁31を制御することにより、ショベル100の動作を制限する動作制限機能を作動させる。この場合、安全制御部304は、全ての被駆動要素(即ち、対応する油圧アクチュエータ)の動作を制限してもよいし、一部の被駆動要素(油圧アクチュエータ)の動作を制限してもよい。これにより、コントローラ30は、ショベル100の周辺に監視物体が存在する場合に、ショベル100の動作を減速させたり、停止させたりすることができる。そのため、コントローラ30は、ショベル100の周辺の監視物体とショベル100や吊り荷との接触の発生を抑制することができる。また、安全制御部304は、パイロットライン25の図示しない電磁切換弁を制御し、パイロットライン25を遮断することにより、動作制限機能(動作停止機能)を作動させてもよい。 The safety control unit 304 operates an operation restriction function that restricts the operation of the excavator 100 by controlling the hydraulic control valve 31 . In this case, the safety control unit 304 may limit the operation of all driven elements (that is, the corresponding hydraulic actuators), or may limit the operation of some driven elements (hydraulic actuators). . As a result, the controller 30 can decelerate or stop the operation of the excavator 100 when there is an object to be monitored around the excavator 100 . Therefore, the controller 30 can suppress the occurrence of contact between the monitored objects around the excavator 100 and the excavator 100 and the suspended load. Further, the safety control unit 304 may operate an operation limiting function (operation stopping function) by controlling an electromagnetic switching valve (not shown) of the pilot line 25 to shut off the pilot line 25 .

また、安全制御部304は、動作制限機能の作動開始後、物体検出部302により検出されていた監視物体が動作制限範囲内で検出されなくなった場合、動作制限機能を停止させてよい。また、安全制御部304は、動作制限機能の作動開始後、入力装置52を通じて、動作制限機能の作動を解除する所定の入力が受け付けられた場合に、動作制限機能を停止させてもよい。入力装置52に対する報知機能の作動解除のための入力の内容と、動作制限機能の作動解除のための入力の内容とは、同じであってもよいし、異なっていてもよい。 Further, the safety control unit 304 may stop the operation restriction function when the monitored object detected by the object detection unit 302 is no longer detected within the operation restriction range after the activation of the operation restriction function. Further, the safety control unit 304 may stop the operation restriction function when a predetermined input for canceling the operation of the operation restriction function is received through the input device 52 after the operation of the operation restriction function is started. The content of the input to the input device 52 for deactivation of the notification function and the content of the input for deactivation of the motion restriction function may be the same or different.

また、安全制御部304は、入力装置52に対するオペレータ等による所定の入力に応じて、その機能がON(有効)/OFF(無効)の間で切り替えられてもよい。 Further, the function of the safety control unit 304 may be switched between ON (enabled) and OFF (disabled) according to a predetermined input by an operator or the like to the input device 52 .

照射制御部305(判定部の一例)は、照射装置70に関する制御を行う。 The irradiation control unit 305 (an example of a determination unit) controls the irradiation device 70 .

尚、上述の如く、照射装置70が省略される場合、当然の如く、照射制御部305も省略される。 Incidentally, as described above, when the irradiation device 70 is omitted, the irradiation control section 305 is also omitted as a matter of course.

画像補正部306は、撮像装置40(カメラ40X)の出力(撮像画像)に所定の補正を行い、補正済撮像画像を物体検出部302に出力する。 The image correction unit 306 performs predetermined correction on the output (captured image) of the imaging device 40 (camera 40X) and outputs the corrected captured image to the object detection unit 302 .

[物体検出方法の概要]
次に、図7~図15を参照して、物体検出部による物体検出方法の概要について説明する。
[Outline of object detection method]
Next, with reference to FIGS. 7 to 15, an outline of an object detection method by the object detection section will be described.

図7は、物体検出方法の具体例を説明する図である。図8~図13は、教師データの画像の第1例~第6例(画像800~1300)を示す図である。具体的には、図8~図13は、ショベル100と同機種のショベルの同じ位置に設置されたカメラ40Xと同種のカメラの撮像画像であり、撮像画像の手前側(下端部)には、上部旋回体3の側面が映っている。図14、図15は、作業者Wの一例及び他の例を示す図である。 FIG. 7 is a diagram for explaining a specific example of the object detection method. 8 to 13 are diagrams showing first to sixth examples (images 800 to 1300) of images of teacher data. Specifically, FIGS. 8 to 13 show images captured by a camera of the same type as the camera 40X installed at the same position of an excavator of the same model as the excavator 100. On the front side (lower end) of the captured image, The side surface of the upper revolving body 3 is shown. 14 and 15 are diagrams showing an example and another example of the worker W. FIG.

物体検出部302は、例えば、形状検出やパターン認識(テンプレートマッチング)等の画像処理技術を簡易的に適用することにより、カメラ40Xの撮像画像から監視物体を検出する。 The object detection unit 302 detects the monitored object from the image captured by the camera 40X by simply applying image processing techniques such as shape detection and pattern recognition (template matching).

また、図7に示すように、物体検出部302は、例えば、画像処理技術に加えて、機械学習を適用することにより、カメラ40Xの撮像画像から監視物体を検出する。具体的には、物体検出部302は、入力画像に映る監視物体の特徴を機械学習済みの学習済みモデルLMを用いて、入力画像(カメラ40Xの撮像画像或いはその補正済の撮像画像)から、監視物体が映っている領域を表す矩形枠(以下、「検出枠」)、及び監視物体の種類を表すラベルを出力する。ラベルは、例えば、監視物体が存在しないことを表すラベル、及び監視物体の種類ごとに設定されるラベルを含む。監視物体の種類ごとのラベルは、1つのみ設定されてもよいし、後述の如く、複数設定されてもよい。また、複数の種類の監視物体が存在する場合、単一の学習済みモデルLMが全ての種類の監視物体ごとのラベルを出力可能に、即ち、全ての種類の監視物体を検出可能に構成されてもよいし、全ての種類の監視物体のうちの一部の種類のみを検出可能な学習済みモデルLMが複数設けられてもよい。例えば、監視物体の種類ごとに、学習済みモデルLMが存在し、学習済みモデルLMごとのラベルは、ある種類の監視物体が存在することを示すラベル、及びその種類の監視物体が存在しないことを示すラベルのみで構成されてもよい。 Further, as shown in FIG. 7, the object detection unit 302 detects the monitored object from the captured image of the camera 40X, for example, by applying machine learning in addition to the image processing technology. Specifically, the object detection unit 302 uses a machine-learned model LM to determine the features of the monitored object appearing in the input image, from the input image (the captured image of the camera 40X or its corrected captured image), A rectangular frame (hereinafter referred to as a “detection frame”) representing the area in which the monitored object is captured and a label representing the type of the monitored object are output. Labels include, for example, a label indicating that no monitored object exists and a label set for each type of monitored object. Only one label may be set for each type of monitored object, or a plurality of labels may be set as described later. Also, when there are multiple types of monitored objects, the single trained model LM is configured to output labels for all types of monitored objects, that is, to detect all types of monitored objects. Alternatively, a plurality of trained models LM capable of detecting only some types of all types of monitored objects may be provided. For example, a trained model LM exists for each type of monitored object, and a label for each trained model LM indicates that a certain type of monitored object exists and a label that indicates that a monitored object of that type does not exist. It may be composed only of the label to indicate.

学習済みモデルLMは、ベースの学習モデルに対して、教師あり学習が適用されることにより生成される。具体的には、入力としての画像と、出力としての正解(検出枠及びラベル)との組み合わせによる教師データの集まり(教師データセット)をベースの学習モデルに機械学習させることにより、学習済みモデルLMが生成される。また、学習済みモデルLMは、既存の学習済みモデルLMに新たな教師データセットを追加学習させることにより、生成(更新)されてもよい。教師データセットに含まれる、入力としての画像には、当然の如く、監視物体が含まれる(映っている)画像と、監視物体が含まれない(映っていない)画像の双方が採用される。 A trained model LM is generated by applying supervised learning to the base learning model. Specifically, a trained model LM is obtained by subjecting a learning model based on machine learning to a collection of teacher data (teacher data set) by combining an image as an input and a correct answer (detection frame and label) as an output. is generated. Also, the trained model LM may be generated (updated) by additionally learning a new teacher data set to the existing trained model LM. As an input image included in the training data set, naturally, both an image including (showing) the monitored object and an image not including (not showing) the monitored object are adopted.

学習済みモデルLMは、例えば、管理装置200等の外部装置で生成され、ショベル100の製造時に、所定の記録媒体からインタフェース装置30Dを通じて、補助記憶装置30Aに書き込まれる。また、学習済みモデルLMは、所定の通信回線を通じて、管理装置200等の外部装置からショベル100にダウンロードされ、コントローラ30の補助記憶装置30Aに登録されてもよい。これにより、物体検出部302は、補助記憶装置30Aに登録済みの学習済みモデルLMを用いて、監視物体を検出することができる。 The learned model LM is generated, for example, by an external device such as the management device 200, and is written from a predetermined recording medium to the auxiliary storage device 30A through the interface device 30D when the excavator 100 is manufactured. Also, the learned model LM may be downloaded from an external device such as the management device 200 to the excavator 100 via a predetermined communication line and registered in the auxiliary storage device 30A of the controller 30 . As a result, the object detection unit 302 can detect the monitored object using the learned model LM registered in the auxiliary storage device 30A.

また、学習済みモデルLMは、所定の記録媒体からインタフェース装置30Dを通じて、更新用データが補助記憶装置30Aにインストールされることによって更新されてもよい。また、学習済みモデルLMは、所定の通信回線を通じて、更新用データが管理装置200等の外部装置からショベル100にダウンロードされ、補助記憶装置30Aにインストールされることによって更新されてもよい。これにより、物体検出部302は、更新済みの最新の学習済みモデルLMを用いて、監視物体を検出することができる。 Also, the learned model LM may be updated by installing update data in the auxiliary storage device 30A from a predetermined recording medium through the interface device 30D. Also, the learned model LM may be updated by downloading update data from an external device such as the management device 200 to the excavator 100 through a predetermined communication line and installing the updated data in the auxiliary storage device 30A. Thereby, the object detection unit 302 can detect the monitored object using the latest updated learned model LM.

例えば、物体検出部302は、画像に映っている監視物体の画像特徴量の傾向を機械学習済みのサポートベクターマシーン(SVM:Support Vector Machine)を用いて、入力画像から監視物体を検出する。この場合、学習済みモデルLMには、前段処理として、カメラ40Xの撮像画像から画像特徴量を抽出する処理部が含まれる。画像特徴量は、例えば、HOG(Histogram of Oriented Gradients)特徴量である。 For example, the object detection unit 302 detects the surveillance object from the input image using a support vector machine (SVM) that has undergone machine learning of the tendency of the image feature amount of the surveillance object in the image. In this case, the trained model LM includes, as pre-processing, a processing unit that extracts image feature amounts from the image captured by the camera 40X. The image feature quantity is, for example, a HOG (Histogram of Oriented Gradients) feature quantity.

また、例えば、物体検出部302は、ディープニューラルネットワーク(DNN:Deep Neural Network)用いた機械学習、即ち、深層学習(ディープラーニング)による学習済みモデルLMを用いて、入力画像から監視物体を検出する。具体的には、物体検出部302は、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)を用いた深層学習による学習済みモデルLMを用いて、入力画像から監視物体をしてよい。CNNは、畳み込み処理を行う畳み込み層及びプーリング処理を行うプーリング層の組み合わせを活性化関数により複数繋ぎ合わせることにより構成され、最終段の全結合層によって、特徴量(特徴マップ)に基づく最終判断を行う。活性化関数は、例えば、ReLU(Rectified Linear Unit)である。これにより、学習済みモデルLMは、前段処理を要せずに、入力画像をそのまま取り扱うことができる。 Further, for example, the object detection unit 302 detects a monitored object from an input image using machine learning using a deep neural network (DNN), that is, a trained model LM based on deep learning. . Specifically, the object detection unit 302 may detect a monitored object from an input image using a trained model LM based on deep learning using a convolutional neural network (CNN). The CNN is configured by connecting multiple combinations of convolution layers that perform convolution processing and pooling layers that perform pooling processing using activation functions. conduct. The activation function is, for example, ReLU (Rectified Linear Unit). As a result, the trained model LM can handle the input image as it is without preprocessing.

例えば、物体検出部302は、CNNをベースとする学習済みモデルLMを用いて、入力画像から監視物体の候補の領域を生成し、これらの候補をラベルに分類することにより、監視物体を検出する。即ち、CNNをベースとする学習済みモデルLMは、例えば、入力画像からの監視物体の検出を分類問題として取り扱い、カメラ40Xの撮像画像から監視物体の候補の領域を生成し、これらの候補をラベルに分類する態様の分類モデルであってよい。分類モデルは、例えば、R(Region-based)-CNNやその派生系(Fast R-CNN、Faster R-CNN等)である。 For example, the object detection unit 302 uses the CNN-based trained model LM to generate regions of candidates for monitored objects from the input image, and classifies these candidates into labels to detect monitored objects. . That is, the CNN-based trained model LM treats, for example, the detection of a monitored object from an input image as a classification problem, generates regions of candidate monitored objects from the image captured by the camera 40X, and labels these candidates It may be a classification model that classifies into Classification models are, for example, R (Region-based)-CNN and its derivatives (Fast R-CNN, Faster R-CNN, etc.).

また、例えば、物体検出部302は、CNNをベースとする学習済みモデルLMを用いて、入力画像から、監視物体の認識及びその位置(領域)の特定を同時に実施することにより、監視物体を検出する。即ち、CNNをベースとする学習済みモデルLMは、例えば、カメラ40Xの撮像画像からの監視物体の検出を回帰問題として取り扱い、入力画像から、監視物体の認識及び位置(領域)の特定を同時に実施する態様の回帰モデルであってもよい。回帰モデルは、例えば、YOLO(You Only Look Once)やSSD(Single Shot Detector)等である。 Further, for example, the object detection unit 302 detects a monitored object by simultaneously recognizing the monitored object and specifying its position (area) from the input image using a CNN-based trained model LM. do. That is, the CNN-based trained model LM, for example, treats the detection of a monitored object from an image captured by the camera 40X as a regression problem, and simultaneously recognizes and identifies the position (area) of the monitored object from the input image. It may be a regression model of the aspect to do. The regression model is, for example, YOLO (You Only Look Once) or SSD (Single Shot Detector).

学習済みモデルLMは、例えば、ベースの学習モデル或いは既存の学習済みモデルLMが互いに異なる姿勢の監視物体を検出可能なように機械学習されることにより生成される。 The learned model LM is generated, for example, by performing machine learning so that the base learning model or the existing learned model LM can detect surveillance objects in different postures.

例えば、図8に示すように、教師データの画像800には、カメラに正面を向けて直立の姿勢状態の作業者Wが映っている。また、図9に示すように、教師データの画像900には、カメラに正面を向けて中腰の姿勢状態の作業者Wが映っている。また、図10に示すように、教師データの画像1000には、カメラに正面を向けてしゃがんでいる姿勢状態の作業者Wが映っている。学習済みモデルLMは、画像800~1000のように、互いに異なる姿勢の監視物体が映っている画像を含む教師データセットによって機械学習されることで、互いに異なる姿勢の監視物体(本例では、人)を入力画像から検出することができる。 For example, as shown in FIG. 8, a teacher data image 800 shows a worker W in an upright posture facing the camera. Further, as shown in FIG. 9, an image 900 of the training data shows a worker W who faces the camera and is in a state of crouching. Further, as shown in FIG. 10, an image 1000 of the training data shows the worker W in a crouching posture facing the camera. The trained model LM is machine-learned using a teacher data set including images showing monitored objects with different postures, such as images 800 to 1000, so that monitored objects with different postures (in this example, human ) can be detected from the input image.

また、学習済みモデルLMは、例えば、ベースの学習モデル或いは既存の学習済みモデルLMが互いに異なる向きの監視物体を検出可能なように機械学習されることにより生成されてもよい。 Also, the trained model LM may be generated, for example, by performing machine learning so that the base learning model or the existing trained model LM can detect surveillance objects in different directions.

例えば、図11に示すように、教師データの画像1100には、カメラに対して横(右)を向いている直立の姿勢状態の作業者Wが映っている。また、図12に示すように、教師データの画像1200には、カメラに対して背を向けている中腰の姿勢状態の作業者Wが映っている。また、図13に示すように、教師データの画像1300には、カメラに対して横(左)を向いているしゃがんだ姿勢状態の作業者Wが映っている。学習済みモデルLMは、画像800,1100や画像900,1200や画像1000,1300のように、互いに異なる向きの監視物体が映っている画像を含む教師データセットによって機械学習されることで、互いに異なる向きの監視物体を入力画像から検出することができる。 For example, as shown in FIG. 11, an image 1100 of training data shows a worker W in an upright posture facing sideways (to the right) with respect to the camera. In addition, as shown in FIG. 12, an image 1200 of the training data shows the worker W in a state of crouching with his back facing the camera. Further, as shown in FIG. 13, an image 1300 of training data shows a worker W in a squatting posture facing sideways (to the left) with respect to the camera. The learned models LM are machine-learned using a teacher data set including images showing monitored objects in different directions, such as images 800 and 1100, images 900 and 1200, and images 1000 and 1300, so that they differ from each other. The orientation of the monitored object can be detected from the input image.

また、学習済みモデルLMは、例えば、ベースの学習モデル或いは既存の学習済みモデルLMが向き及び姿勢の少なくとも一方が互いに異なる監視物体を検出可能なように機械学習されることにより生成されてもよい。具体的には、学習済みモデルLMは、画像800~画像1300のように、互いに向きや姿勢の異なる監視物体が映っている画像を含む教師データセットによって機械学習されることで、向きや姿勢が互いに異なる監視物体を入力画像から検出することができる。 Also, the trained model LM may be generated, for example, by performing machine learning so that the base learning model or the existing trained model LM can detect surveillance objects that differ in at least one of orientation and orientation from each other. . Specifically, the trained model LM is machine-learned using a teacher data set including images showing monitored objects with different orientations and orientations, such as images 800 to 1300, so that the orientations and orientations of the learned models LM are machine-learned. Different monitored objects can be detected from the input image.

また、監視物体が人である場合、学習済みモデルLMは、例えば、ショベル100の周辺の作業者等による着用頻度が相対的に高い着用物を着用した人やその着用物を検出(認識)可能なように機械学習されることにより生成されてもよい。これにより、コントローラ30は、例えば、作業服等と背景との区別がつきにくいような撮像画像の場合であっても、着用物の特徴を適切に認識し、人やその着用物を検出し、ショベル100の人の存在を把握することができる。 In addition, when the object to be monitored is a person, the learned model LM can detect (recognize) a person who wears clothing that is worn relatively frequently by workers in the vicinity of the excavator 100 and the clothing worn by the worker. It may be generated by machine learning as follows. As a result, the controller 30 can appropriately recognize the characteristics of the wearable item, detect the person and the wearable item, and The existence of a person on the shovel 100 can be grasped.

例えば、図14に示すように、学習済みモデルLMは、ヘルメットを着用した人(作業者W)やその着用されたヘルメットHMTを検出(認識)するように機械学習されることにより生成されてもよい。具体的には、学習済みモデルLMは、ヘルメットHMTを着用した作業者Wが映っている画像を多数含む教師データセットによって機械学習されることで、ヘルメットを着用した人やその着用されたヘルメットを入力画像から検出することができる。 For example, as shown in FIG. 14, the learned model LM may be generated by machine learning to detect (recognize) a person wearing a helmet (worker W) and the helmet HMT worn by the person. good. Specifically, the trained model LM is machine-learned using a teacher data set containing a large number of images showing a worker W wearing a helmet HMT. It can be detected from the input image.

また、例えば、図15に示すように、学習済みモデルLMは、高視認性安全服RVを着用した人(作業者W)やその着用された高視認性安全服RVを検出(認識)するように機械学習されることにより生成されてもよい。高視認性安全服RVは、その着用者の周囲からの視認性が相対的に高くなるように構成される。高視認性安全服RVには、例えば、再帰性反射材が取り付けられている。また、高視認性安全服RVには、例えば、蛍光イエローや蛍光グリーンで着色される蛍光生地が使用される。具体的には、学習済みモデルLMは、高視認性安全服RVを着用した作業者Wが映っている画像を多数含む教師データセットによって機械学習がされることで、高視認性安全服を着用した人やその着用されている高視認性安全服を入力画像から検出することができる。 Further, for example, as shown in FIG. 15, the learned model LM detects (recognizes) a person (worker W) wearing the high-visibility safety clothing RV and the high-visibility safety clothing RV worn by the person (worker W). may be generated by machine learning. The high-visibility safety clothing RV is configured to have relatively high visibility from the wearer's surroundings. For example, a retroreflective material is attached to the high-visibility safety clothing RV. For the high-visibility safety clothing RV, for example, fluorescent fabric colored with fluorescent yellow or fluorescent green is used. Specifically, the learned model LM is machine-learned using a teacher data set that includes many images of a worker W wearing high-visibility safety clothing RV. It is possible to detect a person who has been injured and the high-visibility safety clothing they are wearing from the input image.

また、例えば、図15に示すように、学習済みモデルLMは、ヘルメットHMT及び高視認性安全服RVの双方を着用した人(作業者W)やその着用された高視認性安全服RV及びヘルメットHMTの双方を検出(認識)するように機械学習されてもよい。この場合、学習済みモデルLMは、ヘルメットの存在を表すラベル、及び高視認性安全服の存在を表すラベルの双方を出力可能であってもよい。具体的には、学習済みモデルLMは、ヘルメットHMT及び高視認性安全服RVを着用した作業者Wが映っている画像を多数含む教師データセットによって機械学習がされることで、ヘルメット及び高視認性安全服を着用した人やその着用されているヘルメット及び高視認性安全服を入力画像から検出することができる。 Further, for example, as shown in FIG. 15, the learned model LM includes a person (worker W) who wears both the helmet HMT and the high-visibility safety clothing RV, and the high-visibility safety clothing RV and helmet worn by the person (worker W). It may be machine-learned to detect (recognize) both HMTs. In this case, the trained model LM may be capable of outputting both a label representing the presence of the helmet and a label representing the presence of the high-visibility safety clothing. Specifically, the trained model LM is machine-learned using a teacher data set including a large number of images showing a worker W wearing a helmet HMT and high-visibility safety clothing RV. It is possible to detect a person wearing a safety suit and the helmet and high-visibility safety suit worn by the person from the input image.

また、教師データセットには、例えば、カメラ40Xと同機種のカメラによって撮像された、監視物体が映っている画像が含まれる。また、教師データセットには、例えば、図8~図13に示すように、ショベル100と同機種のショベルの略同じ位置に略同じ姿勢で設置される、カメラ40Xと同機種のカメラによって撮像された、監視物体が映っている画像が含まれてもよい。これにより、学習済みモデルLMは、カメラ40Xの撮像画像への監視物体の映り方を考慮して、カメラ40Xの撮像画像から監視物体を検出可能なように機械学習される。そのため、物体検出部302は、監視物体をより精度良く検出することができる。 In addition, the teacher data set includes, for example, an image in which a monitored object is captured by a camera of the same model as the camera 40X. In addition, as shown in FIGS. 8 to 13, for example, the training data set includes images taken by a camera of the same model as the camera 40X, which is installed at approximately the same position and in approximately the same posture as the excavator of the same model as the excavator 100. Also, an image in which the monitored object is shown may be included. As a result, the trained model LM is machine-learned so that the monitored object can be detected from the image captured by the camera 40X, taking into account how the monitored object appears in the image captured by the camera 40X. Therefore, the object detection unit 302 can detect the monitored object with higher accuracy.

また、教師データセットには、例えば、互いに異なる複数の種類の背景のそれぞれの中に監視物体が映っている画像が含まれる。例えば、複数の種類の背景には、土の地面、アスファルトの地面、森林、住宅、都市建造物等が含まれる。これにより、学習済みモデルLMは、背景の違いによる監視物体の見え方を考慮して、入力画像から監視物体を検出可能なように機械学習される。そのため、物体検出部302は、監視物体をより精度良く検出することができる。 In addition, the teacher data set includes, for example, images in which a monitored object appears in each of a plurality of types of backgrounds different from each other. For example, multiple types of backgrounds include dirt grounds, asphalt grounds, forests, houses, urban buildings, and the like. As a result, the trained model LM is machine-learned so that the monitored object can be detected from the input image, taking into account how the monitored object looks due to different backgrounds. Therefore, the object detection unit 302 can detect the monitored object with higher accuracy.

また、教師データセットには、例えば、異なる複数の時間帯のそれぞれで撮像された、監視物体が映っている画像が含まれる。複数の時間帯には、例えば、朝の時間帯(例えば、6時~10時)、昼の時間帯(例えば、10時~15時)、夕方の時間帯(例えば、16時~19時)、及び夜の時間帯(例えば、19時~翌6時)が含まれる。これにより、学習済みモデルLMは、時間帯の違いによる監視物体の見え方を考慮して、入力画像から監視物体を検出可能なように機械学習される。そのため、物体検出部302は、監視物体をより精度良く検出することができる。 In addition, the teacher data set includes, for example, images in which a monitored object is captured, each of which is captured in a plurality of different time periods. The plurality of time periods include, for example, morning time period (for example, 6:00 to 10:00), afternoon time period (for example, 10:00 to 15:00), evening time period (for example, 16:00 to 19:00). , and nighttime hours (eg, 19:00 to 6:00 the next day). As a result, the trained model LM is machine-learned so that the monitored object can be detected from the input image, taking into consideration how the monitored object looks depending on the time period. Therefore, the object detection unit 302 can detect the monitored object with higher accuracy.

また、教師データセットには、例えば、夜の時間帯に異なる複数の照明状態で撮像された、監視物体が映っている画像が含まれる。照明状態には、例えば、照明の照度の高低や照明の色等が含まれる。これにより、学習済みモデルLMは、照明状態の違いによる監視物体の見え方を考慮して、入力画像から監視物体を検出可能なように機械学習される。そのため、物体検出部302は、監視物体をより精度良く検出することができる。 In addition, the teacher data set includes, for example, images showing monitored objects, which are captured under different lighting conditions during night hours. The illumination state includes, for example, the level of illuminance of illumination, the color of illumination, and the like. As a result, the trained model LM is machine-learned so that the monitored object can be detected from the input image, taking into account how the monitored object looks under different lighting conditions. Therefore, the object detection unit 302 can detect the monitored object with higher accuracy.

また、教師データセットには、例えば、異なる複数の種類の天候状態で撮像された、監視物体が映っている画像が含まれる。複数の種類の天候状態には、例えば、晴れ、曇り、雨、雪等が含まれる。これにより、学習済みモデルLMは、天候の違いによる監視物体の見え方を考慮して、入力画像から監視物体を検出可能なように機械学習される。そのため、物体検出部302は、監視物体をより精度良く検出することができる。 In addition, the training data set includes, for example, images in which surveillance objects are captured under different types of weather conditions. Multiple types of weather conditions include, for example, sunny, cloudy, rainy, snowy, and the like. As a result, the trained model LM is machine-learned so that the monitored object can be detected from the input image, taking into consideration how the monitored object looks depending on the weather. Therefore, the object detection unit 302 can detect the monitored object with higher accuracy.

また、教師データセットには、例えば、光源と撮像範囲との位置関係が互い異なる、監視物体が映っている複数の画像が含まれる。光源は、例えば、太陽や夜間の照明である。複数の画像には、光源と撮像範囲との位置関係が順光、半順光、側光、逆光等のそれぞれに相当する画像が含まれる。また、複数の画像には、例えば、同じ順光、側光、逆光等の状態で、太陽の地面から高さ(仰角)がそれぞれで異なる画像が含まれる。これにより、教師データセットは、光源の位置の違いによる監視物体の見え方を考慮して、入力画像から監視物体を検出可能なように機械学習される。そのため、物体検出部302は、監視物体をより精度良く検出することができる。 In addition, the teacher data set includes, for example, a plurality of images in which a monitored object is shown, with different positional relationships between the light source and the imaging range. The light source is, for example, the sun or night lighting. The plurality of images includes images in which the positional relationship between the light source and the imaging range corresponds to front light, semi-front light, side light, backlight, and the like. Also, the plurality of images includes, for example, images with different heights (elevation angles) from the ground of the sun under the same conditions such as front light, side light, and backlight. As a result, the training data set is machine-learned so that the monitored object can be detected from the input image, taking into consideration how the monitored object looks due to the difference in the position of the light source. Therefore, the object detection unit 302 can detect the monitored object with higher accuracy.

[物体検出方法の具体例]
次に、図16~図18を参照して、物体検出部302による監視物体の検出方法の具体例について説明する。
[Specific example of object detection method]
Next, a specific example of a monitoring object detection method by the object detection unit 302 will be described with reference to FIGS. 16 to 18. FIG.

<第1例>
本例では、物体検出部302は、入力画像から高視認性安全服を検出(認識)することにより、ショベル100の周辺の人(作業者)を検出する。これにより、物体検出部302は、例えば、ショベル100の周辺の人の作業服と背景との区別がつきにくい入力画像からでも、人を検出し易くなり、その結果、監視物体としての人をより精度良く検出することができる。
<First example>
In this example, the object detection unit 302 detects people (workers) around the excavator 100 by detecting (recognizing) high-visibility safety clothing from the input image. This makes it easier for the object detection unit 302 to detect a person, for example, even from an input image in which it is difficult to distinguish between the work clothes of people around the excavator 100 and the background. It can be detected with high accuracy.

具体的には、物体検出部302は、入力画像から高視認性安全服を着用した人を検出(認識)するようにしてもよいし、人に着用された高視認性安全服そのものを検出(認識)するようにしてもよいし、その双方を検出(認識)するようにしてもよい。これにより、物体検出部302は、高視認性安全服を着用した人や(人に着用された)高視認性安全服を検出した場合に、監視物体としての人を検出したと判断できる。 Specifically, the object detection unit 302 may detect (recognize) a person wearing high-visibility safety clothing from the input image, or detect (recognize) the high-visibility safety clothing itself worn by the person. recognition), or both of them may be detected (recognized). Accordingly, the object detection unit 302 can determine that a person as a monitoring object has been detected when a person wearing high-visibility safety clothing or a high-visibility safety clothing (worn by a person) is detected.

例えば、物体検出部302は、高視認性安全服の形状、色(例えば、蛍光イエローや蛍光グリーン)、及び再帰性反射材の輝度の少なくとも一つを認識することにより、ショベル100の周辺の人を検出する。具体的には、物体検出部302は、高視認性安全服の形状や色や再帰性反射材の輝度について、形状検出やパターン認識等を適用することにより、高視認性安全服の形状、色、及び再帰性反射材の輝度の少なくとも一つを認識してよい。また、物体検出部302は、上述の如く、高視認性安全服を着用する人(作業者)が映っている画像を多数含む教師データセットに基づく学習済みモデルLMを用いることで、高視認性安全服の形状、色、及び再帰性反射材の輝度の少なくとも一つを認識してよい。 For example, the object detection unit 302 recognizes at least one of the shape and color (e.g., fluorescent yellow or fluorescent green) of the high-visibility safety clothing, and the brightness of the retroreflective material, thereby detecting the presence of people around the excavator 100 . to detect Specifically, the object detection unit 302 detects the shape and color of the high-visibility safety clothing and the brightness of the retroreflective material by applying shape detection, pattern recognition, and the like. , and the brightness of the retroreflector. In addition, as described above, the object detection unit 302 uses a trained model LM based on a teacher data set containing many images of people (workers) wearing high-visibility safety clothing to achieve high-visibility At least one of the shape and color of the safety clothing and the brightness of the retroreflector may be recognized.

また、本例では、撮像装置40(カメラ40X)は、照射装置70から可視光が照射されている状態で、ショベル100の周辺の撮像画像を取得してよい。この場合、照射装置70は、コントローラ30(照射制御部305)の制御下で、カメラ40Xの稼働中(電源オン中)に可視光を常時照射してもよいし、カメラ40Xの撮像タイミングに同期して、可視光を照射してもよい。これにより、撮像装置40の撮像範囲に高視認性安全服を着用する人(作業者)が存在する場合、高視認性安全服の再帰性反射材や蛍光色がより明瞭にカメラ40Xの撮像画像に映る。そのため、物体検出部302は、入力画像(カメラ40Xの撮像画像或いは画像補正部306による補正済みの撮像画像)から高視認性安全服を検出(認識)し易くなり、その結果、監視物体としての人をより精度良く検出することができる。 Further, in this example, the imaging device 40 (camera 40X) may acquire a captured image of the periphery of the excavator 100 in a state where visible light is emitted from the irradiation device 70 . In this case, under the control of the controller 30 (irradiation control unit 305), the irradiation device 70 may always irradiate visible light while the camera 40X is in operation (while the power is on), or may be synchronized with the imaging timing of the camera 40X. and visible light may be irradiated. As a result, when there is a person (worker) wearing high-visibility safety clothing in the imaging range of the imaging device 40, the retroreflective material and fluorescent color of the high-visibility safety clothing are more clearly captured in the image captured by the camera 40X. reflected in Therefore, the object detection unit 302 can easily detect (recognize) the high-visibility safety clothing from the input image (the captured image of the camera 40X or the captured image corrected by the image correction unit 306). A person can be detected more accurately.

また、本例では、撮像装置40(カメラ40X)は、照射装置70から赤外光が照射されている状態で、ショベル100の周辺の撮像画像を取得してもよい。この場合、照射装置70は、コントローラ30(照射制御部305)の制御下で、カメラ40Xの稼働中(電源オン中)に赤外光を常時照射してもよいし、カメラ40Xの撮像タイミングに同期して、赤外光を間欠的に(周期的に)照射してもよい。これにより、撮像装置40の撮像範囲に高視認性安全服を着用する人(作業者)が存在する場合、高視認性安全服の再帰性反射材の輪郭がより明瞭にカメラ40Xの撮像画像に映る。そのため、物体検出部302は、入力画像から高視認性安全服を検出(認識)し易くなり、その結果、監視物体としての人をより精度良く検出することができる。また、赤外光の場合、可視光の場合のように、人の目が直接感知することができないことから、ショベル100の周辺の人への影響を抑制することができる。 Further, in this example, the imaging device 40 (camera 40X) may acquire a captured image around the excavator 100 while the irradiation device 70 is emitting infrared light. In this case, under the control of the controller 30 (irradiation control unit 305), the irradiation device 70 may always irradiate the infrared light while the camera 40X is in operation (while the power is on), or at the imaging timing of the camera 40X. Synchronously, infrared light may be intermittently (periodically) irradiated. As a result, when there is a person (worker) wearing high-visibility safety clothing within the imaging range of the imaging device 40, the outline of the retroreflective material of the high-visibility safety clothing becomes clearer in the captured image of the camera 40X. reflected. Therefore, the object detection unit 302 can easily detect (recognize) the high-visibility safety clothing from the input image, and as a result, can detect a person as a surveillance object with high accuracy. In addition, unlike visible light, infrared light cannot be directly detected by the human eye, so that the impact on people around the shovel 100 can be suppressed.

また、本例では、照射装置70は、コントローラ30の制御下で、赤外光を常時(継続して)照射する状態と、カメラ40Xの撮像タイミングに同期して赤外光を間欠的に照射する状態とを切り換えてもよい。例えば、照射制御部305は、表示装置50Aや表示装置208に表示される周辺画像に赤外光の影響があるか否かを判定する。そして、照射制御部305は、その判定結果に応じて、照射装置70からの赤外光の照射状態の切り換えを行ってよい。赤外光の影響とは、例えば、カメラ40Xが被写体(例えば、高視認性安全服)から反射された近赤外光を捉えることにより、表示装置50Aの周辺画像が赤みを帯びた状態になることを意味する。照射制御部305は、画像解析によって、赤外光の影響の有無を判定してよい。また、照射制御部305は、入力装置52や通信装置60を通じて、ユーザ(オペレータや監視者)からの所定の入力を受け付けることにより、赤外光の影響があると判定してもよい。これにより、オペレータや監視者は、表示装置50Aや表示装置208の周辺画像が赤みを帯びた状態にあると認識すると、入力装置52や入力装置207を通じて所定の入力を行うことで、その状態をコントローラ30に通知することができる。 Further, in this example, under the control of the controller 30, the irradiation device 70 emits infrared light constantly (continuously) and intermittently in synchronization with the imaging timing of the camera 40X. You may switch between the state of For example, the irradiation control unit 305 determines whether the peripheral image displayed on the display device 50A or the display device 208 is affected by the infrared light. Then, the irradiation control unit 305 may switch the irradiation state of the infrared light from the irradiation device 70 according to the determination result. The effect of infrared light is, for example, when the camera 40X captures near-infrared light reflected from a subject (for example, high-visibility safety clothing), the peripheral image of the display device 50A becomes reddish. means that The irradiation control unit 305 may determine the presence or absence of the influence of infrared light by image analysis. Further, the irradiation control unit 305 may determine that there is an influence of infrared light by receiving a predetermined input from a user (operator or monitor) through the input device 52 or the communication device 60 . Accordingly, when the operator or the observer recognizes that the peripheral image of the display device 50A or the display device 208 is in a reddish state, the state can be corrected by performing a predetermined input through the input device 52 or the input device 207. Controller 30 can be notified.

具体的には、照射制御部305は、通常、即ち、表示装置50Aや表示装置208に表示される周辺画像に赤外光の影響がない状態で、照射装置70から赤外光を継続して照射させる。一方、照射制御部305は、表示装置50Aや表示装置208に表示される周辺画像に赤外光の影響がある状態になると、カメラ40Xの撮像タイミングに同期して赤外光を間欠的に照射させる。これにより、コントローラ30による照射装置70の制御負荷の抑制と、表示装置50A等の周辺画像への赤外光への影響の抑制とのバランスを図ることができる。 Specifically, the irradiation control unit 305 normally emits infrared light from the irradiation device 70 in a state in which peripheral images displayed on the display device 50A and the display device 208 are not affected by the infrared light. irradiate. On the other hand, when the peripheral image displayed on the display device 50A or the display device 208 is affected by the infrared light, the irradiation control unit 305 intermittently irradiates the infrared light in synchronization with the imaging timing of the camera 40X. Let Thereby, it is possible to achieve a balance between suppressing the control load of the irradiation device 70 by the controller 30 and suppressing the influence of the infrared light on the peripheral image of the display device 50A or the like.

<第2例>
図16は、撮像装置40(カメラ40X)の撮像画像の一例を示す図である。図17は、画像補正部306による、撮像装置40(カメラ40X)に対する補正後の画像(補正済撮像画像)の一例を示す図である。
<Second example>
FIG. 16 is a diagram showing an example of an image captured by the imaging device 40 (camera 40X). FIG. 17 is a diagram showing an example of an image after correction (corrected captured image) for the imaging device 40 (camera 40X) by the image correction unit 306. As shown in FIG.

本例では、物体検出部302は、画像補正部306により撮像装置40の撮像画像に対する補正済の画像(補正済み撮像画像)を入力画像として監視物体を検出する。 In this example, the object detection unit 302 detects a monitoring object using an image (corrected captured image) corrected with respect to the captured image of the imaging device 40 by the image correction unit 306 as an input image.

例えば、キャビン10のオペレータから見たときに、上部旋回体3の後方、並びに左側方及び右側方は、直接視認することは難しい。また、例えば、遠隔操作のオペレータは、キャビン10の前方を含めて周辺を直接視認することはできない。そのため、ショベル100を上面視で見たときの周辺の360度の範囲を4つのカメラ40F,40B,40L,40Rでカバーする必要が生じる。その結果、例えば、図2に示すように、4つのカメラ40F,40B,40L,40Rは、左右方向の画角(視野角)が非常に大きく設定される広角カメラとなる場合があり、その撮像画像には、広角歪み(ボリューム歪像)が生じる場合がある。 For example, when viewed from the operator of the cabin 10, it is difficult to directly visually recognize the rear, left and right sides of the upper swing structure 3 . Further, for example, a remote operator cannot directly see the surroundings including the front of the cabin 10 . Therefore, the four cameras 40F, 40B, 40L, and 40R need to cover a 360-degree peripheral range when the excavator 100 is viewed from above. As a result, for example, as shown in FIG. 2, the four cameras 40F, 40B, 40L, and 40R may be wide-angle cameras in which the angle of view (viewing angle) in the horizontal direction is set to be extremely large. Wide-angle distortion (volume distortion) may occur in the image.

また、例えば、図1、図2に示すように、カメラ40Xは、上部旋回体3の上部に設置される。そのため、カメラ40Xは、相対的に高い位置から地面付近の監視物体を含めて監視物体を検出する必要があり、カメラ40Xの光軸は、斜め下向きに設定される。その結果、カメラ40Xの撮像画像には、パースによる歪みが生じる場合がある。 Further, for example, as shown in FIGS. 1 and 2, the camera 40X is installed on the upper portion of the upper rotating body 3. As shown in FIG. Therefore, the camera 40X needs to detect monitored objects including those near the ground from a relatively high position, and the optical axis of the camera 40X is set obliquely downward. As a result, perspective distortion may occur in the image captured by the camera 40X.

例えば、図16に示すように、カメラ40Xの撮像画像の中央部、左端部、及び右端部には、作業者W1~W3がそれぞれ映っている。カメラ40Xの撮像画像の中央部の作業者W1は、被写体にとっての鉛直軸が撮像画像の上下軸と略一致するように映っている。「略」とは、ショベル100の製造上の誤差やカメラ40Xの設置時の誤差を許容する意図である。一方、カメラ40Xの撮像画像における作業者W2,W3は、それぞれ、その鉛直軸が上下軸に対して左側及び右側に傾いている。カメラ40Xの撮像画像は、左右端部の被写体の鉛直軸が上下軸に対して端部側に傾くように歪むからである。 For example, as shown in FIG. 16, workers W1 to W3 are shown at the center, left end, and right end of the image captured by camera 40X. The worker W1 in the central portion of the captured image of the camera 40X is shown such that the vertical axis for the subject substantially coincides with the vertical axis of the captured image. “Substantially” is intended to allow manufacturing errors of the excavator 100 and errors during installation of the camera 40X. On the other hand, the workers W2 and W3 in the image captured by the camera 40X have their vertical axes tilted leftward and rightward with respect to the vertical axis, respectively. This is because the image captured by the camera 40X is distorted such that the vertical axis of the subject at the left and right ends is tilted toward the end with respect to the vertical axis.

これに対して、本例では、画像補正部306は、カメラ40Xの撮像画像の上下軸と、被写体にとっての鉛直軸との差が小さくなるように、カメラ40Xの撮像画像を補正し、補正済撮像画像を出力する。 On the other hand, in this example, the image correction unit 306 corrects the image captured by the camera 40X so that the difference between the vertical axis of the image captured by the camera 40X and the vertical axis for the subject is small. Output the captured image.

例えば、図17に示すように、画像補正部306は、カメラ40Xの撮像画像のうちの中央部及び左右の両端部のうちの後者の画像領域のみをそれぞれ内側に所定量だけ傾斜させることにより、補正済み撮像画像を生成する。これにより、補正済み撮像画像における作業者W2,W3は、その画像における上下軸と被写体にとっての鉛直軸との差が相対的に小さくなる。 For example, as shown in FIG. 17, the image correction unit 306 inclines only the latter image area out of the central portion and the left and right end portions of the image captured by the camera 40X by a predetermined amount. Generate a corrected captured image. As a result, the workers W2 and W3 in the corrected captured image have a relatively small difference between the vertical axis in the image and the vertical axis for the subject.

また、画像補正部306は、射影変換等の既知の手法を用いて、カメラ40Xの撮像画像の歪み自体を補正してもよい。これにより、画像補正部306は、補正済み撮像画像における上下軸と被写体にとっての鉛直軸との差を小さくすることができる。 Further, the image correction unit 306 may correct the distortion itself of the captured image of the camera 40X using a known method such as projective transformation. Thereby, the image correction unit 306 can reduce the difference between the vertical axis in the corrected captured image and the vertical axis for the subject.

本例では、物体検出部302は、入力画像における上下軸と被写体にとっての鉛直軸との間の差が相対的に小さい監視物体及び相対的に大きい監視物体のうちの前者のみを検出可能なように構成される。画像における上下軸と被写体にとっての鉛直軸との間の差が相対的に大きい監視物体は、例えば、図16の作業者W2,W3のように、カメラ40Xの撮像画像の左右の両端部に映っている監視物体である。また、画像における上下軸と被写体によっての鉛直軸との間の差が相対的に小さい監視物体は、例えば、図16の作業者W1のように、カメラ40Xの撮像画像の左右の両端部に映っている監視物体である。また、画像における上下軸と被写体によっての鉛直軸との間の差が相対的に小さい監視物体は、例えば、図17の作業者W1~W3のように、カメラ40Xの補正済撮像画像に映っている監視物体である。これにより、物体検出部302は、補正済撮像画像を入力画像として用いて、監視物体を検出することができる。 In this example, the object detection unit 302 can detect only the former of the monitored object with a relatively small difference between the vertical axis of the input image and the vertical axis for the subject and the monitored object with a relatively large difference. configured to Objects to be monitored with a relatively large difference between the vertical axis of the image and the vertical axis of the subject, such as workers W2 and W3 in FIG. is a surveillance object. In addition, a monitored object with a relatively small difference between the vertical axis in the image and the vertical axis of the subject, such as worker W1 in FIG. is a surveillance object. In addition, surveillance objects with a relatively small difference between the vertical axis in the image and the vertical axis depending on the subject, such as workers W1 to W3 in FIG. is a surveillance object. Accordingly, the object detection unit 302 can detect the monitored object using the corrected captured image as the input image.

具体的には、物体検出部302は、入力画像における上下軸と被写体にとっての鉛直軸との間の差が相対的に小さい監視物体について、形状検出やパターン認識等を適用することにより、入力画像からこのような監視物体を検出してよい。また、物体検出部302は、入力画像における上下軸と被写体にとっての鉛直軸との間の差が相対的に小さい監視物体が映っている画像及び相対的に大きい監視物体が映っている画像のうちの前者のみを含む教師データセットに基づく学習済みモデルLMを用いてもよい。これにより、物体検出部302は、入力画像(補正済撮像画像)の中から画像における上下軸と被写体にとっての鉛直軸との間の差が相対的に小さい監視物体のみを認識すればよいことから、監視物体をより精度良く検出することができる。また、学習済みモデルLMが用いられる場合、画像(補正済撮像画像)の中から画像における上下軸と被写体にとっての鉛直軸との間の差が相対的に小さい監視物体のみの特徴を学習すればよいことから、機械学習の効率化を図ることができる。 Specifically, the object detection unit 302 applies shape detection, pattern recognition, or the like to a monitored object whose difference between the vertical axis in the input image and the vertical axis for the subject is relatively small, thereby detecting the input image. may detect such surveillance objects from. In addition, the object detection unit 302 detects an image including a monitoring object with a relatively small difference between the vertical axis of the input image and the vertical axis for the subject, and an image including a relatively large monitoring object. A trained model LM based on a teacher data set containing only the former may be used. As a result, the object detection unit 302 needs only to recognize from the input image (corrected captured image) only the monitored object whose difference between the vertical axis of the image and the vertical axis of the subject is relatively small. , the monitored object can be detected more accurately. Also, when the trained model LM is used, only the feature of the monitored object having a relatively small difference between the vertical axis of the image and the vertical axis of the subject can be learned from the image (corrected captured image). Because it is good, it is possible to improve the efficiency of machine learning.

また、学習済みモデルLMが用いられる場合、教師データセットには、上述の如く、例えば、カメラ40Xと同機種のカメラによって撮像された、監視物体が映っている画像が利用される。また、教師データセットには、上述の如く、例えば、図8~図13に示すように、ショベル100と同機種のショベルの略同じ位置に略同じ姿勢で設置される、カメラ40Xと同機種のカメラによって撮像された、監視物体が映っている画像が利用されてもよい。この場合、カメラ40Xと同種のカメラの撮像画像は、画像補正部306と同じ機能によって補正され、教師データセットには、補正済みの画像が含まれてよい。これにより、学習済みモデルLMは、カメラ40Xの撮像画像への監視物体の映り方を考慮して監視物体を検出可能なように、且つ、画像における上下軸と被写体にとっての鉛直軸との間の差が相対的に小さい監視物体のみを検出可能なように機械学習される。そのため、物体検出部302は、監視物体をより精度良く検出することができる。また、この場合、教師データセットには、例えば、左右方向の中央部に監視物体が映っている撮像画像、及び左右方向の少なくとも一方の端部に監視物体が映っている撮像画像の双方のそれぞれに対応する補正済みの画像が含まれてもよい。これにより、学習済みモデルLMは、入力画像(補正済撮像画像)における左右の中央部の補正無しの監視物体、及び入力画像における左右方向の端部の補正ありの監視物体の双方を検出可能なように機械学習される。そのため、物体検出部302は、監視物体をより精度良く検出することができる。 Also, when the trained model LM is used, as described above, for example, an image showing a monitored object captured by a camera of the same model as the camera 40X is used as the teacher data set. Further, as described above, the teacher data set includes, for example, as shown in FIGS. An image captured by a camera showing the monitored object may be used. In this case, an image captured by a camera of the same type as the camera 40X is corrected by the same function as the image correction unit 306, and the corrected image may be included in the teacher data set. As a result, the trained model LM can detect the monitored object by considering how the monitored object appears in the captured image of the camera 40X, and the distance between the vertical axis of the image and the vertical axis of the subject. Machine learning is performed so that only monitored objects with relatively small differences can be detected. Therefore, the object detection unit 302 can detect the monitored object with higher accuracy. Further, in this case, the teacher data set includes, for example, both the captured image in which the monitored object is captured in the center in the horizontal direction and the captured image in which the monitored object is captured at least one end in the horizontal direction. may include the corrected image corresponding to . As a result, the learned model LM can detect both a monitoring object without correction in the left and right central portions of the input image (corrected captured image) and a monitoring object with correction in the left and right ends of the input image. It is machine-learned as follows. Therefore, the object detection unit 302 can detect the monitored object with higher accuracy.

<第3例>
図18~図21は、監視物体(人)の全体(全身)のうちの一部分だけが映っている撮像画像の一例を示す図である。
<Third example>
18 to 21 are diagrams showing examples of captured images in which only a portion of the entire (whole body) of a monitored object (person) is shown.

例えば、図18~図21に示すように、カメラ40Xの撮像画像では、左右方向の撮像範囲の両端部に位置する監視物体としての人(作業者W)の全体(全身)うちの下部(下半身)を含む一部分のみが映っている場合がある。具体的には、図18(第1例)では、カメラ40Xの撮像画像の右端部の上部旋回体3に相対的に近い位置に、作業者Wの下半身と上半身の一部(腰の部分)が映っている。また、図19(第2例)では、カメラ40Xの撮像画像の左端部の上部旋回体3に相対的に近い位置に、作業者Wの下半身と上半身の一部(頭部を除く胸部、腰部、腕部、及び手部)が映っている。また、図20(第3例)では、カメラ40Xの撮像画像の右端部の上部旋回体3に相対的に近い位置に、作業者Wの下半身の一部(下脚部及び足部)が映っている。また、図21(第4例)では、カメラ40Xの撮像画像の左端部の上部旋回体3から相対的に離れた位置に、作業者Wの下半身の一部(下脚部及び足部)が映っている。カメラ40Xが上部旋回体3の上面から地面に向かって斜め下向きの光軸を有し、監視物体としての作業者W(人)の上半身がカメラ40Xの三次元的な撮像範囲から外れてしまうからである。 For example, as shown in FIGS. 18 to 21, in the image captured by the camera 40X, the lower part (lower body) of the whole (whole body) of a person (worker W) serving as a monitored object located at both ends of the imaging range in the horizontal direction. ) may be shown. Specifically, in FIG. 18 (first example), a part of the lower body and upper body (waist part) of the worker W is placed at a position relatively close to the upper revolving body 3 on the right end of the image captured by the camera 40X. is reflected. In addition, in FIG. 19 (second example), a part of the lower body and upper body of the worker W (thorax excluding the head, waist, , arms, and hands) are shown. In FIG. 20 (third example), a part of the lower body (lower legs and feet) of the worker W appears at a position relatively close to the upper revolving body 3 on the right end of the image captured by the camera 40X. there is In FIG. 21 (fourth example), a part of the lower body (lower legs and feet) of the worker W appears at a position relatively distant from the upper revolving body 3 on the left end of the image captured by the camera 40X. ing. This is because the camera 40X has an optical axis that extends obliquely downward from the upper surface of the upper revolving body 3 toward the ground, and the upper body of the worker W (person) as a monitored object is out of the three-dimensional imaging range of the camera 40X. is.

また、監視物体と、カメラ40Xとの間に障害物が存在する場合、監視物体(人)の下部(下半身)が障害物で隠れて、カメラ40Xの撮像画像には、監視物体の全体のうちのの上部(上半身)を含む一部分のみが映っている場合がある。 In addition, when an obstacle exists between the monitored object and the camera 40X, the lower part (lower body) of the monitored object (person) is hidden by the obstacle, and the captured image of the camera 40X includes Only a part including the upper part of the body (upper body) may be shown.

これに対して、本例では、物体検出部302は、入力画像から監視物体(人)の全体(全身)のうちの所定の一部のみを検出(認識)することにより、監視物体(人)を検出(認識)する。所定の一部は、例えば、上述の如く、監視物体(人)の下部(下半身)や上部(上半身)等である。これにより、物体検出部302は、入力画像に監視物体の全体のうちの所定の一部を含む一部分のみしか映っていない場合であっても、監視物体を検出することができる。そのため、物体検出部302は、監視物体をより精度良く検出することができる。 On the other hand, in this example, the object detection unit 302 detects (recognizes) only a predetermined portion of the whole (whole body) of the monitored object (person) from the input image, thereby detecting (recognizing) the monitored object (person). to detect (recognize) The predetermined part is, for example, the lower part (lower body) or upper part (upper body) of the object (person) to be monitored, as described above. Thereby, the object detection unit 302 can detect the monitored object even when the input image shows only a portion including a predetermined portion of the entire monitored object. Therefore, the object detection unit 302 can detect the monitored object with higher accuracy.

具体的には、物体検出部302は、監視物体の所定の一部について、形状検出やパターン認識等を適用することにより、入力画像から監視物体の所定の一部を検出してよい。また、物体検出部302は、監視物体の全体のうちの所定の一部を含む一部分のみが映っている画像を含む教師データセットに基づく学習済みモデルLMを用いて、監視物体の所定の一部を検出してもよい。 Specifically, the object detection unit 302 may detect a predetermined portion of the monitored object from the input image by applying shape detection, pattern recognition, or the like to the predetermined portion of the monitored object. Further, the object detection unit 302 uses a trained model LM based on a teacher data set including an image showing only a portion including a predetermined part of the entire monitored object to detect a predetermined part of the monitored object. may be detected.

また、物体検出部302は、監視物体の全体、及び監視物体の全体のうちの所定の一部の双方を検出(認識)可能に構成されてもよい。これにより、物体検出部302は、例えば、監視物体の全体、及び監視物体の所定の一部の何れか一方を検出した場合に、監視物体を検出したと判断することができる。そのため、物体検出部302は、監視物体をより精度良く検出することができる。 Further, the object detection unit 302 may be configured to detect (recognize) both the entire monitored object and a predetermined portion of the entire monitored object. Accordingly, the object detection unit 302 can determine that the monitored object has been detected, for example, when either the entire monitored object or a predetermined part of the monitored object is detected. Therefore, the object detection unit 302 can detect the monitored object with higher accuracy.

例えば、物体検出部302は、監視物体の全体が映っている画像、及び監視物体の全体のうちの所定の一部を含む一部分のみが映っている画像を含む教師データセットに基づく学習済みモデルLMを用いて、監視物体の全体、及び監視物体の所定の一部の双方を検出する。この場合、物体検出部302は、監視物体の全体を表すラベルと、監視物体の全体のうちの所定の一部を表すラベルと、を含む複数のラベルの中から検出された監視物体に対応するラベルを出力してよい。そして、物体検出部302は、学習済みモデルLMから、検出された監視物体のラベルが監視物体の全体を表すラベル、及び監視物体の全体のうちの所定の一部を表すラベルの何れか一方が出力されると、監視物体の検出を判断してよい。 For example, the object detection unit 302 uses a trained model LM based on a teacher data set including an image showing the entire monitored object and an image showing only a part including a predetermined portion of the entire monitored object. is used to detect both the entire monitored object and predetermined parts of the monitored object. In this case, the object detection unit 302 detects the monitored object from among a plurality of labels including a label representing the entire monitored object and a label representing a predetermined portion of the entire monitored object. You can print the label. Then, the object detection unit 302 determines from the learned model LM that the label of the detected monitored object is either a label representing the entire monitored object or a label representing a predetermined portion of the entire monitored object. When output, detection of a monitored object may be determined.

また、学習済みモデルLMが用いられる場合、教師データセットには、例えば、カメラ40Xと同機種のカメラによって撮像され、監視物体の全体のうちの下部を含む一部分のみが左端部及び右端部の少なくとも一方に映っている画像が利用される。また、教師データセットには、例えば、ショベル100と同機種のショベルの略同じ位置に略同じ姿勢で設置される、カメラ40Xと同機種のカメラによって撮像された、監視物体の全体のうちの下部を含む一部分のみが左端部及び右端部の少なくとも一方に映っている画像が利用されてもよい。これにより、学習済みモデルLMは、カメラ40Xの撮像画像への監視物体の映り方を考慮して、監視物体の全体のうちの下部(例えば、人の下半身)を検出可能なように機械学習される。そのため、物体検出部302は、監視物体の全体の内の所定の一部をより精度良く検出することができる。 Also, when the trained model LM is used, the teacher data set includes, for example, a camera of the same model as the camera 40X, and only a part including the lower part of the entire monitored object is at least the left end and the right end. The image that appears on one side is used. In addition, the teacher data set includes, for example, the lower part of the entire monitored object captured by a camera of the same model as the camera 40X, which is installed at approximately the same position and in approximately the same posture as the excavator of the same model as the excavator 100. An image in which at least one of the left and right ends may be used. As a result, the learned model LM is machine-learned so that the lower part of the entire monitored object (for example, the lower body of a person) can be detected in consideration of how the monitored object appears in the captured image of the camera 40X. be. Therefore, the object detection unit 302 can more accurately detect a predetermined part of the entire monitored object.

また、物体検出部302は、入力画像の左右方向の中央部の画像に基づき、監視物体の全体を検出し、入力画像の左右方向の両端部の画像に基づき、監視物体の全体のうちの下部(例えば、人の下半身)のみを検出してもよい。上述の如く、入力画像では、左右方向の両端部において、監視物体の全体のうちの下部(例えば、人の下半身)のみ映っている場合がありうるからである。 Further, the object detection unit 302 detects the entire monitored object based on the image at the center in the horizontal direction of the input image, and detects the lower part of the entire monitored object based on the images at both ends in the horizontal direction of the input image. (For example, only the lower body of a person) may be detected. This is because, as described above, in the input image, at both ends in the left and right direction, only the lower part of the entire monitored object (for example, the lower body of a person) may appear.

また、物体検出部302は、互いに撮像範囲の一部が重複する2つのカメラ40Xのそれぞれの撮像画像に基づき、撮像範囲が重複する一部の領域の双方で監視物体の所定の一部を検出(認識)する場合に、その領域の監視物体を検出するようにしてもよい。互いに撮像範囲の一部が重複する2つのカメラ40Xは、例えば、カメラ40F,40R、カメラ40R,40B、カメラ40B,40L、及びカメラ40L,40Fの何れか一つの組み合わせに相当する。これにより、物体検出部302は、2つのカメラ40Xの重複する撮像範囲の一部の領域において、一方のカメラ40Xに基づき監視物体の所定の一部を誤検出しても、他方のカメラ40Xに基づき監視物体の所定の一部を検出していないことで、未検出と判断できる。そのため、物体検出部302は、監視物体の全体のうちの所定の一部を検出する場合の誤検出を抑制することができる。 Further, the object detection unit 302 detects a predetermined part of the monitored object in both of the partial areas where the imaging ranges overlap, based on the captured images of the two cameras 40X whose imaging ranges partially overlap each other. In the case of (recognizing), the surveillance object in that area may be detected. The two cameras 40X whose imaging ranges partially overlap each other correspond to, for example, any one combination of the cameras 40F and 40R, the cameras 40R and 40B, the cameras 40B and 40L, and the cameras 40L and 40F. As a result, even if the object detection unit 302 erroneously detects a predetermined portion of the monitored object based on one camera 40X in a partial area of the overlapping imaging ranges of the two cameras 40X, the other camera 40X Based on this, it can be determined that a predetermined portion of the monitored object has not been detected. Therefore, the object detection unit 302 can suppress erroneous detection when detecting a predetermined portion of the entire monitored object.

[監視物体の実在位置の推定方法の具体例]
次に、図22~図24を参照して、検出された監視物体の実在位置の推定方法の具体例について説明する。
[Specific example of method for estimating actual position of monitored object]
Next, a specific example of a method for estimating the actual position of a detected monitored object will be described with reference to FIGS. 22 to 24. FIG.

図22~図24は、物体検出部302による監視物体(人)の検出状態の一例、他の例、及び更に他の例を示す図である。具体的には、図22~図24は、物体検出部302によって、入力画像から監視物体(作業者W)が検出された場合の入力画像における監視物体の検出範囲を表す検出枠FRを示す図である。 22 to 24 are diagrams showing one example, another example, and still another example of the detection state of the monitored object (person) by the object detection unit 302. FIG. Specifically, FIGS. 22 to 24 are diagrams showing a detection frame FR representing the detection range of the monitored object in the input image when the monitored object (worker W) is detected from the input image by the object detection unit 302. FIG. is.

図22~図24の画像は、例えば、物体検出部302により監視物体(作業者W)が検出された場合に、表示装置50Aや遠隔操作用表示装置に表示されてよい。これにより、オペレータや監視者は、ショベル100の周辺の監視物体(作業者W)の検出状況を、周辺画像(カメラ40Xの撮像画像)を見ながら把握することができる。 22 to 24 may be displayed on the display device 50A or the remote control display device, for example, when the object detection unit 302 detects the monitored object (worker W). As a result, the operator or the monitor can grasp the detection status of the monitored object (worker W) around the excavator 100 while viewing the peripheral image (the image captured by the camera 40X).

図22、図23の状況では、作業者Wが上部旋回体3に対して相対的に近い同じ場所に直立状態でカメラ40Xに正面を向けて存在している。また、図24の状況では、作業者Wが上部旋回体3に対して相対的に離れた場所に直立状態でカメラ40Xに正面を向けて存在している。 In the situations of FIGS. 22 and 23, the worker W is present in the same place relatively close to the upper swing body 3 in an upright state facing the camera 40X. In addition, in the situation of FIG. 24 , the worker W is present in a position relatively distant from the upper rotating body 3 and facing the camera 40X in an upright state.

例えば、図22の状況では、物体検出部302は、入力画像(例えば、カメラ40Xの撮像画像)に映っている作業者Wの全体を監視物体(人)として検出(認識)している。そのため、検出枠FRは、作業者Wを囲むような矩形状として表現されている。 For example, in the situation of FIG. 22, the object detection unit 302 detects (recognizes) the entire worker W appearing in the input image (for example, the image captured by the camera 40X) as a monitoring object (person). Therefore, the detection frame FR is expressed as a rectangular shape surrounding the worker W. As shown in FIG.

一方、例えば、図23の状況では、物体検出部302は、入力画像に映っている作業者Wの全体のうちの上下方向の上部(上半身の部分)のみを監視物体(人)として検出(認識)している。そのため、検出枠FRは、ヘルメットが着用される頭、及び高視認性安全服が着用される胴部を含む作業者Wの上部のみを囲むような矩形状として表現されている。 On the other hand, for example, in the situation of FIG. 23, the object detection unit 302 detects (recognizes) only the upper part in the vertical direction (upper body part) of the entire worker W shown in the input image as a monitoring object (person). )are doing. Therefore, the detection frame FR is expressed as a rectangular shape that surrounds only the upper part of the worker W including the head on which the helmet is worn and the torso on which the high-visibility safety clothing is worn.

物体検出部302は、例えば、人のヘルメットや高視認性安全服等の着用物を検出(認識)することにより、人を検出(認識)する場合、入力画像における人の着用物に相当する一部分の領域のみを監視物体の検出範囲と判断する可能性がある。また、監視物体の背景やそのときの天候によっては、入力画像における監視物体の形状等の特徴が不鮮明となり、物体検出部302は、監視物体の全体の一部分しか監視物体として認識できない可能性がある。そのため、物体検出部302は、入力画像上で監視物体の全体のうちの上下方向の一部のみを検出(認識)する場合がある。 For example, when the object detection unit 302 detects (recognizes) a person by detecting (recognizing) a person's wearing object such as a helmet or high-visibility safety clothing, the object detection unit 302 detects a part of the input image corresponding to the person's wearing object. There is a possibility that only the area of is judged as the detection range of the monitored object. In addition, depending on the background of the monitored object and the weather at that time, features such as the shape of the monitored object in the input image may become unclear, and the object detection unit 302 may be able to recognize only a part of the entire monitored object as the monitored object. . Therefore, the object detection unit 302 may detect (recognize) only a portion of the entire monitored object in the vertical direction on the input image.

例えば、図23の状況で、上述の如く、入力画像上の検出(認識)された監視物体の大きさ(検出枠FRの上下方向の大きさ)に基づき、作業者Wの実在位置が推定されると、実際よりも上部旋回体3から遠い位置に作業者が存在すると判断される可能性がある。具体的には、図22の状況と同じ位置に作業者Wが存在するにも関わらず、図23の状況では、図22の状況で推定される実在位置よりも上部旋回体3から離れた実在位置が推定される可能性がある。 For example, in the situation of FIG. 23, as described above, the actual position of the worker W is estimated based on the size of the monitored object detected (recognized) on the input image (the size of the detection frame FR in the vertical direction). Then, it may be determined that the operator exists at a position farther from the upper revolving body 3 than it actually is. Specifically, although the worker W exists at the same position as in the situation of FIG. 22, in the situation of FIG. Position may be estimated.

また、例えば、図23の状況と、図24の状況では、作業者Wと上部旋回体3との距離が異なるものの、入力画像上での人(作業者W)の検出位置、具体的には、検出範囲(検出枠FR)の下端位置は、略同じである。そのため、上述の如く、入力画像上の監視物体の検出位置(基準点)に基づき、射影変換等によって、監視物体の実在位置が推定されると、図24の状況で検出される作業者Wと同様に、上部旋回体3から相対的に離れた実在位置が推定される可能性がある。 Also, for example, in the situation of FIG. 23 and the situation of FIG. , the lower end position of the detection range (detection frame FR) is substantially the same. Therefore, as described above, when the actual position of the monitored object is estimated by projective transformation or the like based on the detected position (reference point) of the monitored object on the input image, the worker W detected in the situation of FIG. Similarly, a real position relatively distant from the upper revolving structure 3 may be estimated.

これに対して、本例では、位置推定部303は、監視物体の入力画像上での上下方向の検出位置に関する情報、及び監視物体の入力画像上での検出範囲の大きさや形状に関する情報に基づき、監視物体の実在位置を推定する。監視物体の入力画像上での上下方向の検出位置に関する情報とは、監視物体の入力画像上での検出範囲を代表する座標位置であり、例えば、監視物体の入力画像上での検出範囲の下端、上端、及び図心の少なくとも一つの座標を含む。監視物体の入力画像上での検出範囲の大きさに関する情報には、例えば、検出範囲の高さ(上下方向の寸法)に関する情報、幅(左右方向の寸法)に関する情報、縦横比に関する情報、対角線に関する情報、面積に関する情報等が含まれる。また、監視物体の入力画像上での検出範囲の形状に関する情報には、例えば、縦横比に関する情報等が含まれる。 On the other hand, in this example, the position estimating unit 303 is based on information regarding the detection position of the monitoring object in the vertical direction on the input image and information regarding the size and shape of the detection range of the monitoring object on the input image. , to estimate the real position of the monitored object. The information about the detection position of the monitoring object in the vertical direction on the input image is the coordinate position representing the detection range of the monitoring object on the input image. , the top edge, and at least one coordinate of the centroid. Information about the size of the detection range on the input image of the monitored object includes, for example, information about the height (vertical dimension) of the detection range, information about the width (horizontal dimension), information about the aspect ratio, diagonal line Information about the area, information about the area, etc. are included. Information about the shape of the detection range of the monitored object on the input image includes, for example, information about the aspect ratio.

具体的には、位置推定部303は、監視物体の入力画像上での上下方向の検出位置に対する監視物体の入力画像上での検出範囲の形状や大きさの整合性の有無を判定してよい。入力画像における監視物体の全体が検出されていると仮定すると、監視物体の入力画像上での上下方向の検出位置によって、想定される監視物体の検出範囲の形状や大きさの範囲が決まる。そのため、位置推定部303は、監視物体の入力画像上での上下方向の検出位置に対して、監視物体の入力画像上での検出範囲の形状や大きさがこの想定される範囲に収まるのか否かの整合性の有無によって、監視物体の全体が検出されているか否かを判定できる。 Specifically, the position estimating unit 303 may determine whether or not there is consistency in the shape and size of the detection range on the input image of the monitored object with respect to the vertical detection position of the monitored object on the input image. . Assuming that the whole monitored object is detected in the input image, the shape and size range of the assumed detection range of the monitored object are determined by the vertical detection position of the monitored object on the input image. Therefore, the position estimating unit 303 determines whether the shape and size of the detection range of the monitored object on the input image fall within this assumed range with respect to the detected position of the monitored object in the vertical direction on the input image. Whether or not the whole monitored object is detected can be determined based on the presence or absence of such consistency.

監視物体の入力画像上での検出範囲の形状や大きさの想定される範囲は、監視物体の入力画像上での上下方向の検出位置に応じて、一律に規定されてよい。また、監視物体の入力画像上での検出範囲の形状や大きさの想定される範囲は、監視物体の入力画像上での上下方向の検出位置に加えて、他の条件が考慮されてもよい。例えば、監視物体の入力画像上での検出範囲の形状や大きさの想定される範囲は、監視物体の入力画像上での上下方向の検出位置に加えて、検出された監視物体の姿勢や向きによって可変されてもよい。監視物体の姿勢や向きによって、入力画像上での監視物体の見え方が異なり、その結果、監視物体の入力画像上での検出範囲の形状や大きさが変化するからである。監視物体の向きや姿勢は、例えば、学習済みモデルLMが監視物体の異なる向きや姿勢ごとに、監視物体を検出可能なように、即ち、異なる向きや姿勢に対応する複数のラベルごとに監視物体を検出可能なように機械学習されることにより、取得されうる。また、監視物体の入力画像(撮像画像)上での検出範囲の形状や大きさの想定される範囲は、例えば、監視物体の入力画像(撮像画像)上での上下方向の検出位置だけでなく、その検出位置でのレンズによる歪みを考慮して規定されてもよい。 The assumed range of the shape and size of the detection range of the monitored object on the input image may be defined uniformly according to the vertical detection position of the monitored object on the input image. In addition to the detection position of the monitored object in the vertical direction on the input image, other conditions may be considered for the assumed range of the shape and size of the detection range of the monitored object on the input image. . For example, the assumed range of the shape and size of the detection range of the monitored object on the input image includes the vertical detection position of the monitored object on the input image, as well as the posture and orientation of the detected monitored object. may be varied by This is because the appearance of the monitored object on the input image differs depending on the posture and orientation of the monitored object, and as a result, the shape and size of the detection range of the monitored object on the input image change. The orientation and orientation of the monitored object are determined, for example, so that the trained model LM can detect the monitored object for each different orientation and orientation of the monitored object, that is, for each of a plurality of labels corresponding to different orientations and orientations. can be obtained by machine learning so that the can be detected. In addition, the assumed range of the shape and size of the detection range on the input image (captured image) of the monitored object is not limited to the vertical detection position on the input image (captured image) of the monitored object, for example. , may be defined taking into account the distortion due to the lens at that detection position.

位置推定部303は、監視物体の入力画像上での上下方向の検出位置に対する、監視物体の入力画像上での検出範囲の形状や大きさの整合性がある場合、監視物体の全体が検出されていると判定する。この場合、位置推定部303は、監視物体の入力画像上での検出位置や検出範囲に基づき、上述の通り、監視物体の実在位置を推定してよい。 The position estimating unit 303 detects the entire monitored object when there is consistency in the shape and size of the detection range of the monitored object on the input image with respect to the detected vertical position of the monitored object on the input image. determined to be In this case, the position estimation unit 303 may estimate the actual position of the monitored object based on the detected position and detection range of the monitored object on the input image, as described above.

一方、位置推定部303は、監視物体の入力画像上での上下方向の検出位置に対する、監視物体の入力画像上での検出範囲の形状や大きさの整合性がない場合、監視物体の全体のうちの一部のみが検出されていると判定する。この場合、位置推定部303は、監視物体の入力画像上での検出位置或いは検出範囲を補正し、補正後の検出位置や検出範囲に基づき、監視物体の実在位置を推定してよい。 On the other hand, if there is no consistency in the shape and size of the detection range on the input image of the monitored object with respect to the detected position of the monitored object in the vertical direction on the input image, the position estimation unit 303 can estimate the entire monitored object. It is determined that only a part of them are detected. In this case, the position estimation unit 303 may correct the detected position or detection range of the monitored object on the input image, and estimate the actual position of the monitored object based on the corrected detected position or detection range.

例えば、位置推定部303は、監視物体の入力画像上での検出範囲の幅が、監視物体の入力画像上での上下方向の検出位置に対して想定される範囲を大きい方向に逸脱する場合、入力画像における監視物体の全体の上側の一部のみが検出されていると判定する(図23参照)。 For example, if the width of the detection range of the monitored object on the input image deviates from the assumed range with respect to the vertical detection position of the monitored object on the input image, the position estimation unit 303 It is determined that only the upper part of the entire surveillance object in the input image is detected (see FIG. 23).

また、例えば、位置推定部303は、監視物体の入力画像上での検出範囲の縦横比が、監視物体の入力画像上での上下方向の検出位置に対して想定される範囲を左右方向の寸法が大きくなる方向に逸脱する場合、入力画像における監視物体の全体の上下方向の一部のみが検出されていると判定する。更に、位置推定部303は、物体検出部302により、監視物体の全体の所定の一部のみ或いは監視物体の着用物のみが検出される場合、その所定の一部或いは着用物の装着部位を考慮して、入力画像における監視物体の全体の上下方向の上側及び下側のどちらの一部のみが検出されているかを判定してよい。例えば、位置推定部303は、物体検出部302によりヘルメットや高視認性安全服が検出(認識)される場合、入力画像における監視物体(人)の全体のうちのヘルメットや高視認性安全服の着用箇所を含む上側の一部のみが検出されていると判定する(図23参照)。また、位置推定部303は、入力画像における監視物体の全体の上下方向の一部のみが検出されていると判定すると、安全面を優先して、一律に、監視物体の全体の上下方向の上側の一部のみが検出されているとみなしてもよい。 Further, for example, the position estimation unit 303 determines the horizontal-to-horizontal dimension of the range assumed with respect to the vertical detection position of the monitored object on the input image. deviates in the direction of increasing, it is determined that only a portion of the whole monitoring object in the input image has been detected in the vertical direction. Furthermore, when the object detection unit 302 detects only a predetermined portion of the entire monitored object or only the clothing of the monitored object, the position estimation unit 303 considers the predetermined portion or the wearing part of the clothing. Then, it may be determined whether only the upper part or the lower part in the vertical direction of the whole monitoring object in the input image is detected. For example, when the object detection unit 302 detects (recognizes) a helmet or high-visibility safety clothing, the position estimation unit 303 determines whether the helmet or the high-visibility safety clothing is part of the entire monitored object (person) in the input image. It is determined that only a part of the upper side including the wearing part is detected (see FIG. 23). Further, when the position estimating unit 303 determines that only a part of the entire monitored object in the input image is detected in the vertical direction, the position estimating unit 303, giving priority to safety, uniformly detects the entire monitored object in the vertical direction. may be considered to be detected only in part.

この場合、位置推定部303は、例えば、監視物体の入力画像上での検出範囲の高さ及び幅に関する情報に基づき、監視物体として想定される形状(縦横比)になるように、監視物体の入力画像上での検出範囲を下側に延ばす補正を行ってよい。監視物体として想定される形状(縦横比)は、例えば、監視物体の入力画像上での検出位置に応じて規定される。また、監視物体として想定される形状(縦横比)は、例えば、監視物体の入力画像上での検出位置に加えて、監視物体の向きや姿勢、その検出位置でのレンズによる歪み等に応じて規定されてもよい。また、位置推定部303は、例えば、監視物体の入力画像上での検出範囲の幅に関する情報に基づき、監視物体の入力画像上での検出範囲の幅と整合するように、監視物体の検出位置を下に移動させたり、監視物体の検出範囲を下側に延ばしたりする補正をしてもよい。この際、位置推定部303は、例えば、監視物体の向きや姿勢、その検出位置でのレンズによる歪み等を考慮して、監視物体の検出位置や検出範囲を補正してよい。そして、位置推定部303は、補正後の監視物体の検出範囲や検出位置に基づき、監視物体の実在位置を推定してよい。 In this case, the position estimating unit 303, for example, based on information about the height and width of the detection range on the input image of the monitored object, adjusts the position of the monitored object so that it assumes the shape (aspect ratio) of the monitored object. Correction may be performed to extend the detection range on the input image downward. The assumed shape (aspect ratio) of the monitored object is defined, for example, according to the detected position of the monitored object on the input image. In addition, the shape (aspect ratio) assumed for the monitored object is determined according to the detected position of the monitored object on the input image, the direction and posture of the monitored object, and the distortion caused by the lens at the detected position. may be specified. Further, the position estimating unit 303 calculates the detection position of the monitoring object so as to match the width of the detection range on the input image of the monitoring object, for example, based on the information about the width of the detection range on the input image of the monitoring object. may be moved downward, or the detection range of the monitored object may be extended downward. At this time, the position estimating unit 303 may correct the detection position and detection range of the monitored object in consideration of, for example, the orientation and posture of the monitored object, distortion caused by the lens at the detected position, and the like. Then, the position estimation unit 303 may estimate the actual position of the monitored object based on the corrected detection range and detected position of the monitored object.

このように、本例では、位置推定部303は、物体検出部302により入力画像上での監視物体の全体のうちの一部(特に、上下方向の上側の一部)のみが検出される状態を把握し、その状態を考慮して、監視物体の実在位置を推定することができる。そのため、位置推定部303は、例えば、監視物体の実在位置を実際よりも上部旋回体3から相対的に離れた位置として推定するような事態を抑制し、監視物体の実在位置をより適切に推定することができる。よって、コントローラ30(安全制御部304)は、より適切に安全機能を作動させることができ、その結果、ショベル100の安全性を向上させることができる。 Thus, in this example, the position estimation unit 303 detects a state in which only a portion of the entire monitored object (in particular, the upper portion in the vertical direction) is detected by the object detection unit 302 on the input image. , and considering its state, the actual position of the monitored object can be estimated. Therefore, the position estimator 303, for example, suppresses a situation in which the actual position of the monitored object is estimated as a position relatively distant from the upper revolving structure 3, and more appropriately estimates the actual position of the monitored object. can do. Therefore, the controller 30 (safety control section 304) can operate the safety function more appropriately, and as a result, the safety of the excavator 100 can be improved.

[ショベルの機能構成の他の例]
次に、図25を参照して、ショベル100の機能構成の他の例について説明する。以下、上述の一例(図6)と異なる部分を中心に説明を行い、上述の一例と同じ或いは対応する説明を省略する場合がある。
[Another example of excavator functional configuration]
Next, another example of the functional configuration of the excavator 100 will be described with reference to FIG. 25 . The following description will focus on the parts that differ from the example described above (FIG. 6), and descriptions that are the same as or correspond to the example described above may be omitted.

図25は、本実施形態に係るショベル100の機能構成の他の例を示す機能ブロック図である。 FIG. 25 is a functional block diagram showing another example of the functional configuration of the shovel 100 according to this embodiment.

図25に示すように、コントローラ30は、上述の一例の場合と同様、表示処理部301と、物体検出部302と、位置推定部303と、安全制御部304と、照射制御部305とを含み、画像補正部306を含んでもよい。また、コントローラ30は、上述の一例と異なり、検出判断部307を含む。 As shown in FIG. 25, the controller 30 includes a display processing unit 301, an object detection unit 302, a position estimation unit 303, a safety control unit 304, and an irradiation control unit 305, as in the above example. , the image correction unit 306 may be included. Further, the controller 30 includes a detection determination section 307 unlike the example described above.

撮像装置40は、物体検出部402を含む。また、撮像装置40は、画像補正部404を含んでもよい。 The imaging device 40 includes an object detection section 402 . The imaging device 40 may also include an image correction unit 404 .

物体検出部402(検出部の一例)は、物体検出部302と同様、撮像装置40の撮像画像に基づき、監視物体を検出する。物体検出部402は、物体検出部402F,402B,402L,402Rを含む。以下、物体検出部402F,402B,402L,402Rを包括的に、或いは、任意の一つを個別に「物体検出部402X」と称する場合がある。 An object detection unit 402 (an example of a detection unit) detects a monitored object based on an image captured by the imaging device 40, similar to the object detection unit 302. FIG. Object detection unit 402 includes object detection units 402F, 402B, 402L, and 402R. Hereinafter, the object detection units 402F, 402B, 402L, and 402R may be collectively referred to as an "object detection unit 402X", or any one of them may be individually referred to as an "object detection unit 402X".

物体検出部402Fは、カメラ40Fに搭載され、物体検出部302と同様、カメラ40Fの撮像画像に基づき、監視物体を検出する。具体的には、物体検出部402Fは、カメラ40Fの撮像画像から、監視物体を認識し、その監視物体が映っている位置(領域)を特定してよい。また、物体検出部402Fは、画像補正部404Fによりカメラ40Fの撮像画像(即ち、撮像画像生成機能で生成される撮像画像)が補正された後の画像(補正済撮像画像)から、監視物体を認識し、その監視物体が映っている位置(領域)を特定してもよい。物体検出部402Fの機能は、任意のハードウェア或いは任意のハードウェア及びソフトウェアの組み合わせ等により実現される。例えば、物体検出部402Fの機能は、例えば、カメラ40Fの画像処理エンジン42の補助記憶装置にインストールされるプログラムがメモリ装置にロードされCPU上で実行されることにより実現される。以下、物体検出部402B,402L,402Rの機能についても同様である。 The object detection unit 402F is mounted on the camera 40F and, like the object detection unit 302, detects a monitored object based on the captured image of the camera 40F. Specifically, the object detection unit 402F may recognize the monitored object from the captured image of the camera 40F and specify the position (area) where the monitored object is captured. Further, the object detection unit 402F detects the monitored object from the image (corrected captured image) after the captured image of the camera 40F (that is, the captured image generated by the captured image generation function) is corrected by the image correction unit 404F. The position (area) where the monitored object appears may be specified. The function of the object detection unit 402F is realized by arbitrary hardware or a combination of arbitrary hardware and software. For example, the function of the object detection unit 402F is realized by loading a program installed in the auxiliary storage device of the image processing engine 42 of the camera 40F into the memory device and executing it on the CPU. The same applies to the functions of the object detection units 402B, 402L, and 402R below.

物体検出部402Bは、カメラ40Bに搭載され、物体検出部302と同様、カメラ40Bの撮像画像に基づき、監視物体を検出する。具体的には、物体検出部402Bは、カメラ40Bの撮像画像から、監視物体を認識し、その監視物体が映っている位置(領域)を特定してよい。また、物体検出部402Bは、画像補正部404Bによりカメラ40Bの撮像画像(即ち、撮像画像生成機能で生成される撮像画像)が補正された後の画像(補正済撮像画像)から、監視物体を認識し、その監視物体が映っている位置(領域)を特定してもよい。 The object detection unit 402B is mounted on the camera 40B, and similar to the object detection unit 302, detects a monitored object based on the captured image of the camera 40B. Specifically, the object detection unit 402B may recognize the monitored object from the captured image of the camera 40B and specify the position (area) where the monitored object is captured. Further, the object detection unit 402B detects the monitored object from the image (corrected captured image) after the captured image of the camera 40B (that is, the captured image generated by the captured image generation function) is corrected by the image correction unit 404B. The position (area) where the monitored object appears may be specified.

物体検出部402Lは、カメラ40Lに搭載され、物体検出部302と同様、カメラ40Lの撮像画像に基づき、監視物体を検出する。具体的には、物体検出部402Lは、カメラ40Lの撮像画像から、監視物体を認識し、その監視物体が映っている位置(領域)を特定してよい。また、物体検出部402Lは、画像補正部404Lによりカメラ40Lの撮像画像(即ち、撮像画像生成機能で生成される撮像画像)が補正された後の画像(補正済撮像画像)から、監視物体を認識し、その監視物体が映っている位置(領域)を特定してもよい。 The object detection unit 402L is mounted on the camera 40L and, like the object detection unit 302, detects a monitored object based on the captured image of the camera 40L. Specifically, the object detection unit 402L may recognize the monitored object from the captured image of the camera 40L and specify the position (area) where the monitored object is captured. Further, the object detection unit 402L detects the monitored object from the image (corrected captured image) after the captured image of the camera 40L (that is, the captured image generated by the captured image generation function) is corrected by the image correction unit 404L. The position (area) where the monitored object appears may be specified.

物体検出部402Rは、カメラ40Rに搭載され、物体検出部302と同様、カメラ40Rの撮像画像に基づき、監視物体を検出する。具体的には、物体検出部402Rは、カメラ40Rの撮像画像から、監視物体を認識し、その監視物体が映っている位置(領域)を特定してよい。また、物体検出部402Rは、画像補正部404Rによりカメラ40Rの撮像画像(即ち、撮像画像生成機能で生成される撮像画像)が補正された後の画像(補正済撮像画像)から、監視物体を認識し、その監視物体が映っている位置(領域)を特定してもよい。 The object detection unit 402R is mounted on the camera 40R and, like the object detection unit 302, detects a monitored object based on the captured image of the camera 40R. Specifically, the object detection unit 402R may recognize the monitored object from the captured image of the camera 40R and specify the position (area) where the monitored object is captured. Further, the object detection unit 402R detects the monitored object from the image (corrected captured image) after the captured image of the camera 40R (that is, the captured image generated by the captured image generation function) is corrected by the image correction unit 404R. The position (area) where the monitored object appears may be specified.

画像補正部404は、画像補正部306と同様、撮像装置40(カメラ40X)の出力(撮像画像)に所定の補正を行い、補正済撮像画像を物体検出部402に出力する。画像補正部404F,404B,404L,404Rを含む。 Like the image correction unit 306 , the image correction unit 404 performs predetermined correction on the output (captured image) of the imaging device 40 (camera 40X) and outputs the corrected captured image to the object detection unit 402 . It includes image correction units 404F, 404B, 404L, and 404R.

画像補正部404Fは、カメラ40Fに搭載され、上述の画像補正部306と同様、カメラ40Fの撮像画像に所定の補正を行い、補正済撮像画像を物体検出部402Fに出力する。 The image correction unit 404F is mounted on the camera 40F, performs predetermined correction on the captured image of the camera 40F, and outputs the corrected captured image to the object detection unit 402F, similarly to the image correction unit 306 described above.

尚、カメラ40Fは、撮像画像生成機能で生成される撮像画像に加えて、画像補正部404Fにより補正される補正済撮像画像をコントローラ30に出力してもよい。以下、カメラ40B,40L,40Rについても同様であってよい。この場合、コントローラ30の画像補正部306は省略され、物体検出部302は、カメラ40Xから入力される補正済撮像画像に基づき、監視物体を検出してよい。 Note that the camera 40F may output to the controller 30 a corrected captured image corrected by the image correction unit 404F in addition to the captured image generated by the captured image generation function. The same may be applied to cameras 40B, 40L, and 40R below. In this case, the image correction unit 306 of the controller 30 may be omitted, and the object detection unit 302 may detect the monitored object based on the corrected captured image input from the camera 40X.

画像補正部404Bは、カメラ40Bに搭載され、上述の画像補正部306と同様、カメラ40Bの撮像画像に所定の補正を行い、補正済撮像画像を物体検出部402Bに出力する。 The image correction unit 404B is mounted on the camera 40B, performs predetermined correction on the captured image of the camera 40B, and outputs the corrected captured image to the object detection unit 402B, like the image correction unit 306 described above.

画像補正部404Lは、カメラ40Lに搭載され、上述の画像補正部306と同様、カメラ40Lの撮像画像に所定の補正を行い、補正済撮像画像を物体検出部402Lに出力する。 The image correction unit 404L is mounted on the camera 40L, performs predetermined correction on the captured image of the camera 40L, and outputs the corrected captured image to the object detection unit 402L, similarly to the image correction unit 306 described above.

画像補正部404Rは、カメラ40Rに搭載され、上述の画像補正部306と同様、カメラ40Rの撮像画像に所定の補正を行い、補正済撮像画像を物体検出部402Rに出力する。 The image correction unit 404R is mounted on the camera 40R, performs predetermined correction on the captured image of the camera 40R, and outputs the corrected captured image to the object detection unit 402R, like the image correction unit 306 described above.

物体検出部402Xは、互いに同じアルゴリズムを用いて、入力画像から監視物体を検出する。一方、物体検出部402Xは、物体検出部302と異なるアルゴリズムを用いて、入力画像から監視物体を検出する。これにより、例えば、物体検出部302,402Xのうちの何れか一方が監視物体を検出できない場合でも、何れか他方が監視物体を検出する可能性を高めることができる。その結果、ショベル100の周辺の監視物体を検出できない事態の発生を抑制することができる。また、例えば、物体検出部302,402Xのうちの何れか一方が存在しない監視物体を検出してしまっても、他方が監視物体を検出していないことを以て、監視物体を検出しないようにすることもできる。 The object detection units 402X use the same algorithm to detect the monitored object from the input image. On the other hand, the object detection unit 402X uses an algorithm different from that of the object detection unit 302 to detect the monitored object from the input image. As a result, for example, even if one of the object detection units 302 and 402X cannot detect the monitored object, the possibility of the other detecting the monitored object can be increased. As a result, it is possible to suppress the occurrence of a situation in which the monitoring object around the excavator 100 cannot be detected. Also, for example, even if one of the object detection units 302 and 402X detects a non-existing monitored object, the other does not detect the monitored object, so that the monitored object is not detected. can also

例えば、物体検出部302,402Xは、何れか一方が画像処理技術及び機械学習技術のうちの前者のみを利用し、何れか他方が画像処理技術及び機械学習技術の双方、即ち、学習済みモデルLMを利用して、監視物体を検出してよい。 For example, one of the object detection units 302 and 402X uses only the former of the image processing technology and the machine learning technology, and the other uses both the image processing technology and the machine learning technology, that is, the trained model LM may be used to detect the monitored object.

また、例えば、物体検出部302,402Xは、何れか一方が学習済みモデルLMとして監視物体の画像特徴量を機械学習済みのSVMを利用し、何れか他方が深層学習による学習済みモデルLMを利用して、入力画像から監視物体を検出してもよい。 Also, for example, one of the object detection units 302 and 402X uses an SVM that has undergone machine learning of the image feature amount of the monitored object as a trained model LM, and the other uses a trained model LM based on deep learning. Then, the monitored object may be detected from the input image.

また、物体検出部302,402Xは、例えば、互いに異なるネットワーク(DNN)による学習済みモデルLMを用いて、入力画像から監視物体を検出してもよい。例えば、物体検出部302,402Xは、何れか一方が学習済みモデルLMとしてCNNをベースとする分類モデルを利用し、何れか他方が学習済みモデルLMとしてCNNをベースとする回帰モデルを利用して、入力画像から監視物体を検出してもよい。具体的には、物体検出部302,402Xは、何れか一方がFaster R-CNNによる学習済みモデルLMを利用し、何れか他方がYOLO或いはSSDによる学習済みモデルLMを利用して、入力画像から監視物体を検出してもよい。また、例えば、物体検出部302,402Xは、CNNベースの学習済みモデルLMを利用し、それぞれの学習済みモデルLMは、ネットワーク構造、ネットワークの層数、特徴マップの構造、候補領域の特性の少なくとも1つが互いに異なっていてもよい。候補領域の特性には、縦横比や候補領域の固定或いは可変の違い等が含まれうる。具体的には、物体検出部302,402Xは、何れか一方がYOLOによる学習済みモデルLMを利用し、何れか他方がSSDによる学習済みモデルLMを利用して、入力画像から監視物体を検出してもよい。また、例えば、物体検出部302,402Xは、同じSSDによる学習済みモデルLMを利用し、それぞれの学習済みモデルLMは、ネットワーク構造、ネットワークの層数、特徴マップの構造、候補領域の特性等のパラメータの少なくとも1つが互いに異なっていてもよい。 Also, the object detection units 302 and 402X may detect the monitored object from the input image using, for example, trained models LM based on different networks (DNN). For example, one of the object detection units 302 and 402X uses a CNN-based classification model as a trained model LM, and the other uses a CNN-based regression model as a trained model LM. , the monitored object may be detected from the input image. Specifically, one of the object detection units 302 and 402X uses a trained model LM based on Faster R-CNN, and the other uses a trained model LM based on YOLO or SSD. A surveillance object may be detected. Also, for example, the object detection units 302 and 402X use CNN-based trained models LM, and each trained model LM has at least the following: one may be different from the other. Properties of the candidate regions may include aspect ratios, fixed or variable differences between the candidate regions, and the like. Specifically, one of the object detection units 302 and 402X uses the learned model LM by YOLO and the other uses the learned model LM by SSD to detect the monitored object from the input image. may Also, for example, the object detection units 302 and 402X use the same SSD trained model LM, and each trained model LM has a network structure, the number of layers of the network, the structure of the feature map, the characteristics of the candidate region, and the like. At least one of the parameters may be different from each other.

また、例えば、物体検出部302,402Xは、互いに異なる教師データセットで機械学習された学習済みモデルLMを利用して、入力画像から監視物体を検出してもよい。 Also, for example, the object detection units 302 and 402X may detect a monitored object from an input image using a learned model LM machine-learned with different teacher data sets.

例えば、物体検出部302,402Xは、互いに監視物体の姿勢及び向きの少なくとも一方が異なる画像による教師データセットで機械学習された学習済みモデルLMを利用して、入力画像から監視物体を検出してよい。例えば、物体検出部302,402Xの学習済みモデルLMは、何れか一方が直立状態の人が映る画像による教師データセットで機械学習され、何れか他方が中腰状態やしゃがんだ状態の人が映る画像による教師データセットで機械学習されていてもよい。また、例えば、物体検出部302,402Xの学習済みモデルは、何れか一方がカメラに向かって前或いは後を向いた人が映る画像による教師データセットで機械学習され、何れか他方がカメラに向かって横向きの人が映る画像による教師データセットで機械学習されていてもよい。これにより、物体検出部302,402Xは、何れか一方が入力画像に映っている監視物体の向きや姿勢の影響で、監視物体を適切に検出できない状況でも、何れか他方が入力画像から監視物体を適切に検出する可能性を高めることができる。そのため、物体検出部302,402Xは、全体として、より確実に監視物体を検出することができる。 For example, the object detection units 302 and 402X detect a monitored object from an input image using a trained model LM machine-learned with a teacher data set of images in which at least one of the posture and orientation of the monitored object is different from each other. good. For example, one of the learned models LM of the object detection units 302 and 402X is machine-learned with a teacher data set of images showing a person standing upright, and the other is an image showing a person crouching or squatting. It may be machine-learned with a teacher dataset by Also, for example, the trained models of the object detection units 302 and 402X are machine-learned using a teacher data set of images showing a person with one of them facing the camera facing forward or backward, and the other one facing the camera. It may be machine-learned with a training data set of images showing people in landscape orientation. As a result, even if one of the object detection units 302 and 402X cannot properly detect the monitored object due to the influence of the direction and posture of the monitored object appearing in the input image, the other can detect the monitored object from the input image. can increase the possibility of properly detecting Therefore, the object detection units 302 and 402X as a whole can more reliably detect the monitored object.

また、例えば、物体検出部302,402Xは、何れか一方が監視物体(人)の形状を含むその全体を検出(認識)し、何れか他方が監視物体(人)の着用物を検出(認識)することにより、入力画像から監視物体を検出してもよい。例えば、物体検出部302,402Xは、何れか一方が入力画像から人の全体を検出し、何れか他方が人の着用するヘルメット或いは安全ベストを検出(認識)することにより、入力画像から人を検出してよい。これにより、物体検出部302,402Xは、例えば、何らかの理由で、何れか一方が人の全体を適切に検出(認識)できない状況であっても、何れか他方がより確実に監視物体(人)を検出することができる。 Also, for example, one of the object detection units 302 and 402X detects (recognizes) the entirety including the shape of the monitored object (person), and the other detects (recognizes) the object worn by the monitored object (person). ), the monitored object may be detected from the input image. For example, one of the object detection units 302 and 402X detects the entire person from the input image, and the other detects (recognizes) the helmet or safety vest worn by the person, thereby recognizing the person from the input image. may be detected. As a result, for example, even if one of the object detection units 302 and 402X cannot properly detect (recognize) the whole person for some reason, the other can detect the monitored object (person) more reliably. can be detected.

また、例えば、物体検出部302,402Xは、互いに、監視物体(人)の異なる着用物を検出することにより、入力画像から監視物体を検出してもよい。例えば、物体検出部302,402Xは、何れか一方が入力画像から人の着用するヘルメットを検出(認識)し、何れか他方が入力画像から人の着用する安全ベストを検出(認識)することにより、入力画像から人を検出してよい。これにより、物体検出部302,402Xは、例えば、作業者が一の着用物を未着用である等によって、何れか一方が一の着用物を認識できない場合でも、何れか他方が他の着用物を認識することで、より確実に監視物体(人)を検出することができる。 Further, for example, the object detection units 302 and 402X may detect the monitored object from the input image by detecting different clothing worn by the monitored object (person). For example, one of the object detection units 302 and 402X detects (recognizes) a helmet worn by a person from the input image, and the other detects (recognizes) a safety vest worn by a person from the input image. , may detect people from the input image. As a result, the object detection units 302 and 402X detect that even if one of the workers cannot recognize the one wearing item because, for example, the worker has not worn the one wearing item, the other wears the other wearing item. By recognizing , the monitored object (person) can be detected more reliably.

また、例えば、物体検出部302,402Xは、互いに、監視物体の背景の種類が異なる画像による教師データセットで機械学習された学習済みモデルLMを利用して、入力画像から監視物体を検出してもよい。例えば、物体検出部302,402Xの学習済みモデルLMは、何れか一方が背景に土砂の地面が映る画像による教師データセットで機械学習され、何れか他方が背景にアスファルト等の地面が映る画像による教師データセットで機械学習されていてよい。これにより、物体検出部302,402Xは、何れか一方が入力画像の背景の影響で、監視物体を適切に検出できない状況でも、何れか他方が入力画像から監視物体を適切に検出する可能性を高めることができる。そのため、物体検出部302,402Xは、全体として、より確実に監視物体を検出することができる。 Further, for example, the object detection units 302 and 402X detect a monitored object from an input image by using a trained model LM machine-learned with a teacher data set of images with different background types of the monitored object. good too. For example, one of the trained models LM of the object detection units 302 and 402X is machine-learned with a teacher data set based on an image of the earth and sand ground in the background, and the other is based on an image of the ground such as asphalt in the background. It may be machine-learned with a teacher dataset. As a result, even if one of the object detection units 302 and 402X cannot properly detect the monitored object due to the background of the input image, the other can detect the monitored object appropriately from the input image. can be enhanced. Therefore, the object detection units 302 and 402X as a whole can more reliably detect the monitored object.

また、例えば、物体検出部302,402Xは、互いに、取得(撮像)された時間帯の異なる画像による教師データセットで機械学習された学習済みモデルLMを利用して、入力画像から監視物体を検出してもよい。例えば、物体検出部302,402Xの学習済みモデルは、何れか一方が朝や昼の時間帯に撮像された画像による教師データセットで機械学習され、何れか他方が夕方や夜間の時間体に撮像された画像による教師データセットで機械学習されてよい。これにより、コントローラ30は、例えば、ショベル100の作業中の時間帯に合わせて、物体検出部302,402Xを使い分けたり、物体検出部302,402Xの検出結果に基づく監視物体の検出に関する最終判断の方法を切り換えたりすることができる。 Further, for example, the object detection units 302 and 402X mutually detect a monitored object from an input image by using a trained model LM machine-learned with a teacher data set of images acquired (captured) in different time zones. You may For example, one of the learned models of the object detection units 302 and 402X is machine-learned using a teacher data set based on images captured in the morning or afternoon, and the other is captured in the evening or nighttime. may be machine-learned on a training dataset with the images obtained. As a result, the controller 30 can selectively use the object detection units 302 and 402X according to, for example, the time period during which the excavator 100 is working, and can make a final decision regarding the detection of the monitored object based on the detection results of the object detection units 302 and 402X. You can switch methods.

また、ショベル100が夜間に使用される場合、例えば、物体検出部302,402Xは、互いに、夜間の照明状態の異なる画像による教師データセットで機械学習された学習済みモデルLMを利用して、入力画像から監視物体を検出してもよい。例えば、物体検出部302,402Xの学習済みモデルLMは、例えば、何れか一方が相対的に高い照度で取得された画像による教師データセットで機械学習され、何れか他方が相対的に低い照度で取得された画像による教師データセットで機械学習されていてもよい。また、例えば、物体検出部302,402Xの学習済みモデルLMは、例えば、互いに異なる色の照明状態で取得された画像による教師データセットで機械学習されていてもよい。これにより、物体検出部302,402Xは、照明状態の影響で、何れか一方が監視物体を適切に検出できない状況でも、何れか他方が監視物体を適切に検出する可能性を高めることができる。そのため、物体検出部302,402Xは、全体として、より確実に監視物体を検出することができる。 Further, when the excavator 100 is used at night, for example, the object detection units 302 and 402X each use a learned model LM machine-learned with a teacher data set of images with different lighting conditions at night to input A surveillance object may be detected from an image. For example, one of the learned models LM of the object detection units 302 and 402X is machine-learned with a teacher data set based on images acquired at relatively high illuminance, and the other is machine-learned with relatively low illuminance. It may be machine-learned with a training data set based on the acquired images. Further, for example, the trained models LM of the object detection units 302 and 402X may be machine-learned using a teacher data set of images acquired under lighting conditions of different colors. As a result, even if one of the object detection units 302 and 402X cannot properly detect the monitored object due to the lighting conditions, the other can increase the possibility that the other can properly detect the monitored object. Therefore, the object detection units 302 and 402X as a whole can more reliably detect the monitored object.

また、例えば、物体検出部302,402Xは、例えば、互いに異なる天候状態で取得(撮像)された画像による教師データセットで機械学習された学習済みモデルLMを利用して、入力画像から監視物体を検出してもよい。例えば、物体検出部302,402Xは、例えば、物体検出部302,402Xの学習済みモデルLMは、何れか一方が晴れや曇りの状態で取得された画像による教師データセットで機械学習され、何れか他方が雨や雪の状態で取得された画像による教師データセットで機械学習されていてもよい。これにより、物体検出部302,402Xは、例えば、天候の影響で、何れか一方が監視物体を適切に検出できない状況でも、何れか他方が監視物体を適切に検出する可能性を高めることができる。そのため、物体検出部302,402Xは、全体として、より確実に監視物体を検出することができる。 Further, for example, the object detection units 302 and 402X detect a monitored object from an input image by using a learned model LM machine-learned with a teacher data set of images acquired (captured) under different weather conditions. may be detected. For example, one of the object detection units 302 and 402X, for example, the learned model LM of the object detection units 302 and 402X, is machine-learned with a teacher data set based on images acquired in a sunny or cloudy state. The other may be machine-learned using a teacher data set based on images acquired in rain or snow conditions. As a result, even if one of the object detection units 302 and 402X cannot properly detect the monitored object due to weather, for example, the other can increase the possibility that the other can properly detect the monitored object. . Therefore, the object detection units 302 and 402X as a whole can more reliably detect the monitored object.

また、例えば、物体検出部302,402Xは、例えば、互いに異なる光源と撮像範囲との位置関係で取得された画像による教師データセットで機械学習された学習済みモデルLMを使用して、入力画像から監視物体を検出してもよい。例えば、物体検出部302,402Xの学習済みモデルLMは、何れか一方が順光や半順光や側光に相当する画像による教師データセットで機械学習され、何れか他方が逆光に相当する画像による教師データセットで機械学習されていてもよい。これにより、物体検出部302,402Xは、光源と撮像範囲との位置関係の影響で、何れか一方が監視物体を適切に検出できない状況であっても、何れか他方が監視物体を適切に検出する可能性を高めることができる。そのため、物体検出部302,402Xは、全体として、より確実に監視物体を検出することができる。 Further, for example, the object detection units 302 and 402X use a trained model LM machine-learned with a teacher data set of images acquired with different positional relationships between the light source and the imaging range, from the input image. A surveillance object may be detected. For example, one of the trained models LM of the object detection units 302 and 402X is machine-learned with a teacher data set using images corresponding to front light, semi-front light, or side light, and the other is an image corresponding to backlight. It may be machine-learned with a teacher dataset by As a result, even if one of the object detection units 302 and 402X cannot properly detect the monitored object due to the influence of the positional relationship between the light source and the imaging range, the other can properly detect the monitored object. can increase the likelihood of Therefore, the object detection units 302 and 402X as a whole can more reliably detect the monitored object.

検出判断部307は、物体検出部302の検出結果、及び物体検出部402Xに基づき、監視物体を検出する。具体的には、検出判断部307は、物体検出部302の検出結果、及び物体検出部402Xの検出結果に基づき、監視物体の検出に関する最終判断を行う。検出判断部307による監視物体の検出方法の詳細は後述する。 The detection determination unit 307 detects the monitored object based on the detection result of the object detection unit 302 and the object detection unit 402X. Specifically, the detection determination unit 307 makes a final determination regarding detection of the monitored object based on the detection result of the object detection unit 302 and the detection result of the object detection unit 402X. The details of the detection method of the monitored object by the detection determination unit 307 will be described later.

位置推定部303は、検出判断部307により監視物体が検出された場合に、検出された監視物体の実在位置を推定する。また、検出判断部307により複数の監視物体が検出されている場合、位置推定部303は、複数の監視物体ごとの実在位置を推定する。 The position estimator 303 estimates the actual position of the detected monitored object when the detection determiner 307 detects the monitored object. Moreover, when a plurality of monitored objects are detected by the detection determination unit 307, the position estimation unit 303 estimates the actual position of each of the plurality of monitored objects.

例えば、物体検出部302,402Xの何れか一方で、監視物体が検出されている場合、その何れか一方により特定される入力画像上での検出範囲等に基づき、上述の方法を任意に適用することで、監視物体の位置を推定する。 For example, if a monitored object is detected by one of the object detection units 302 and 402X, the above method is arbitrarily applied based on the detection range on the input image specified by one of them. By doing so, the position of the monitored object is estimated.

また、例えば、物体検出部302,402Xの双方で、同じ監視物体が検出されている場合、物体検出部302,402Xの検出結果のそれぞれに対して、監視物体の実在位置を推定し、それぞれの推定結果から監視物体の実在位置を推定してもよい。例えば、物体検出部302,402Xの検出結果のそれぞれに対する監視物体の実在位置の推定結果の平均を取ることにより、検出された監視物体の実在位置を推定してもよい。 Further, for example, when the same monitored object is detected by both the object detection units 302 and 402X, the actual position of the monitored object is estimated for each of the detection results of the object detection units 302 and 402X, and The actual position of the monitored object may be estimated from the estimation result. For example, the actual position of the detected monitoring object may be estimated by averaging the estimation results of the actual position of the monitoring object for each of the detection results of the object detection units 302 and 402X.

安全制御部304は、例えば、検出判断部307によって、ショベル100の周辺の所定範囲内で監視物体が検出される場合に、安全機能を作動させる。具体的には、安全制御部304は、位置推定部303により推定される、監視物体の実在位置(推定値)がショベル100の周辺の所定範囲内である場合に、安全機能を作動させてよい。 The safety control unit 304 activates the safety function when, for example, the detection determination unit 307 detects a monitored object within a predetermined range around the excavator 100 . Specifically, the safety control unit 304 may activate the safety function when the actual position (estimated value) of the monitored object estimated by the position estimation unit 303 is within a predetermined range around the excavator 100. .

尚、物体検出部302,402の何れか一方の機能は、表示装置50Aに移管されてもよい。また、物体検出部302,402に加えて、更に、入力画像から監視物体を検出する、1以上の物体検出部がショベル100に設けられてもよい。追加される物体検出部は、表示装置50Aに設けられてもよいし、コントローラ30に設けられてもよいし、コントローラ30とは異なるコントローラに設けられてもよい。この場合、追加分を含む3以上の物体検出部は、互いに異なるアルゴリズムを用いて、入力画像から監視物体を検出してもよい。 Note that the function of either one of the object detection units 302 and 402 may be transferred to the display device 50A. Further, in addition to the object detection units 302 and 402, the excavator 100 may be provided with one or more object detection units that detect a monitored object from an input image. The object detection unit to be added may be provided in the display device 50A, may be provided in the controller 30, or may be provided in a controller different from the controller 30. FIG. In this case, the three or more object detection units including the additional ones may use algorithms different from each other to detect the monitored object from the input image.

[物体検出方法の具体例]
次に、検出判断部307による監視物体の検出方法、即ち、監視物体の検出に関する最終判断の方法について説明する。
[Specific example of object detection method]
Next, a method of detecting a monitored object by the detection/judgment unit 307, that is, a method of final determination regarding detection of a monitored object will be described.

検出判断部307は、例えば、物体検出部302及び物体検出部402Xの少なくとも一方で監視物体が検出されている場合、その監視物体がショベル100の周辺に存在すると判断し、その監視物体を検出してよい。これにより、コントローラ30は、例えば、物体検出部302,402Xのうちの何れか一方で実在する監視物体を検出されなくても、何れか他方でその監視物体が検出されれば、その監視物体を検出することができる。そのため、コントローラ30は、例えば、監視物体の検出失敗が発生し易い状況や監視物体の検出失敗を防止する必要性が高い状況で、実在する監視物体をより確実に検出し、その結果、ショベル100の安全機能の作動に伴って、安全性をより向上させることができる。 For example, when a monitored object is detected by at least one of the object detection unit 302 and the object detection unit 402X, the detection determination unit 307 determines that the monitored object exists around the excavator 100, and detects the monitored object. you can As a result, for example, even if one of the object detection units 302 and 402X does not detect an existing monitored object, if the other detects the monitored object, the controller 30 detects the monitored object. can be detected. Therefore, the controller 30 more reliably detects the actual monitored object in a situation where detection failure of the monitored object is likely to occur or in a situation where it is highly necessary to prevent detection failure of the monitored object. With the operation of the safety function, safety can be further improved.

また、検出判断部307は、例えば、物体検出部302及び物体検出部402Xの双方で監視物体が検出されている場合、その監視物体がショベル100の周辺に存在すると判断し、その監視物体を検出してもよい。これにより、コントローラ30は、例えば、物体検出部302,402Xの何れか一方で実在しない監視物体が誤検出されてしまっても、何れか他方でその監視物体が検出されなければ、その監視物体を検出しないようにすることができる。そのため、コントローラ30は、例えば、監視物体の誤検出が発生し易い状況や監視物体の誤検出による作業効率の低下を防止する必要性が高い状況で、監視物体の誤検出を抑制することができる。 Further, for example, when a monitored object is detected by both the object detection unit 302 and the object detection unit 402X, the detection determination unit 307 determines that the monitored object exists around the excavator 100, and detects the monitored object. You may As a result, for example, even if one of the object detection units 302 and 402X erroneously detects a non-existing monitored object, if the other does not detect the monitored object, the controller 30 detects the monitored object. can be made undetectable. Therefore, the controller 30 can suppress erroneous detection of a monitored object in a situation where erroneous detection of a monitored object is likely to occur or in a situation where it is highly necessary to prevent a decrease in work efficiency due to erroneous detection of a monitored object. .

尚、上述の如く、ショベル100に3以上の物体検出部が設けられる場合、検出判断部307は、例えば、全ての物体検出部のうちの所定数(2以上の整数)以上の物体検出部で監視物体が検出されている場合に、その監視物体を検出してよい。所定数は、固定であってもよいし、可変されてもよい。例えば、所定数は、入力装置52や通信装置60を通じて受け付けられるユーザ(オペレータや監視者)からの所定の入力に応じて可変されてよい。 As described above, when three or more object detection units are provided in the excavator 100, the detection determination unit 307 selects, for example, a predetermined number (integer of two or more) of all the object detection units. A monitored object may be detected if the monitored object has been detected. The predetermined number may be fixed or variable. For example, the predetermined number may be varied according to a predetermined input received from the user (operator or supervisor) through the input device 52 or communication device 60 .

また、検出判断部307は、入力装置52や通信装置60を通じて受け付けられるユーザ(オペレータや監視者)からの所定の入力に応じて、上記の2つの方法を切り換えてもよい。 Further, the detection determination unit 307 may switch between the above two methods according to a predetermined input from the user (operator or supervisor) received through the input device 52 or the communication device 60 .

また、検出判断部307は、例えば、物体検出部302及び物体検出部402Xのそれぞれの検出結果に規定される重要度を用いて、物体検出部302及び物体検出部402Xに基づき、監視物体を検出してもよい。具体的には、検出判断部307は、物体検出部302及び物体検出部402Xのうちの検出結果の重要度が相対的に高い一方により監視物体が検出される場合に、その監視物体を検出する。 Further, the detection determination unit 307 detects the monitored object based on the object detection unit 302 and the object detection unit 402X, for example, using the importance defined in the detection results of the object detection unit 302 and the object detection unit 402X. You may Specifically, the detection determination unit 307 detects the monitored object when the monitored object is detected by one of the object detection unit 302 and the object detection unit 402X whose detection result is relatively more important. .

重要度は、例えば、入力装置52や通信装置60を通じて受け付けられるユーザ(オペレータや監視者)からの所定の入力に応じて設定(可変)されてよい。これにより、ユーザは、例えば、表示装置50Aや遠隔操作用表示装置に表示される周辺画像と、実際の物体検出部302,402Xによる監視物体の検出状況とを比較し、より精度高いと考えられる一方の検出結果の重要度を高く設定できる。また、重要度は、ショベル100の周辺の状況に応じて、自動で設定(可変)されてもよい。例えば、ショベル100の置かれている環境状態に応じて、物体検出部302,402Xの間で監視物体の検出精度に差異が生じる場合、その検出精度が高い一方の検出結果の重要度が他方の検出結果の重要度よりも高く設定されてよい。ショベル100の置かれている環境状態には、カメラ40Xの撮像画像に背景として映るショベル100の周辺の物体(例えば、地面の土砂、アスファルト等の種別)等の状態が含まれうる。また、ショベル100の置かれている環境状態には、例えば、作業が行われている時間帯、夜間作業時の照明状態、天候状態、光源とカメラ40Xとの撮像範囲との位置関係等が含まれうる。これにより、コントローラ30は、例えば、ショベル100の置かれている状況に合わせて、物体検出部302,402Xのうちのより検出精度が高いと想定される何れか一方の重要度を相対的に高く設定することができる。 The importance may be set (variable) according to a predetermined input from the user (operator or supervisor) received through the input device 52 or the communication device 60, for example. As a result, the user can compare, for example, the peripheral image displayed on the display device 50A or the remote control display device with the actual detection status of the monitored object by the object detection units 302 and 402X, and the accuracy is considered to be higher. The importance of one detection result can be set high. Also, the importance may be automatically set (variable) according to the surrounding conditions of the excavator 100 . For example, if there is a difference in the detection accuracy of the monitored object between the object detection units 302 and 402X depending on the environmental conditions in which the excavator 100 is placed, the importance of one detection result with high detection accuracy is higher than that of the other. It may be set higher than the importance of the detection result. The environmental conditions in which the excavator 100 is placed may include the conditions of objects around the excavator 100 that appear as the background in the captured image of the camera 40X (for example, types such as earth and sand on the ground, asphalt, etc.). Further, the environmental conditions in which the excavator 100 is placed include, for example, the time period during which work is being performed, the lighting conditions during nighttime work, the weather conditions, the positional relationship between the light source and the imaging range of the camera 40X, and the like. can be As a result, the controller 30 relatively increases the importance of one of the object detection units 302 and 402X, which is assumed to have higher detection accuracy, according to the situation in which the excavator 100 is placed. Can be set.

尚、上述の如く、ショベル100に3以上の物体検出部が設けられる場合、検出判断部307は、それぞれの物体検出部の検出結果の重要度が相対的に高くなるほど、その検出結果が最終判断の結果に反映されやすくなるように、監視物体を検出してよい。例えば、検出判断部307は、全ての物体検出部のうちの一部の物体検出部により監視物体が検出されている場合、その一部の物体検出部のそれぞれの検出結果の重要度の合計が他の残りの物体検出部のそれぞれの検出結果の重要度の合計より大きい場合、その監視物体を検出してよい。また、例えば、検出判断部307は、全ての物体検出部のうちの一部の物体検出部により監視物体が検出されている場合、その一部の物体検出部のそれぞれの検出結果の重要度の合計が所定の閾値以上である場合に、その監視物体を検出してよい。 As described above, when three or more object detection units are provided in the shovel 100, the detection determination unit 307 determines that the detection result of each object detection unit is the final determination as the importance of the detection result of each object detection unit becomes relatively higher. A monitored object may be detected so as to be more likely to be reflected in the result of . For example, when the object to be monitored is detected by some object detection units out of all the object detection units, the detection determination unit 307 determines that the sum of the degrees of importance of the detection results of the part of the object detection units is If it is greater than the sum of the significance levels of the detection results of the other remaining object detection units, the monitored object may be detected. Further, for example, when a monitoring object is detected by some object detection units out of all object detection units, the detection determination unit 307 determines the degree of importance of each detection result of the part of the object detection units. If the sum is greater than or equal to a predetermined threshold, the monitored object may be detected.

[変形・変更]
以上、実施形態について詳述したが、本開示はかかる特定の実施形態に限定されるものではなく、特許請求の範囲に記載された要旨の範囲内において、種々の変形・変更が可能である。
[Transformation/change]
Although the embodiments have been described in detail above, the present disclosure is not limited to such specific embodiments, and various modifications and changes are possible within the scope of the claims.

例えば、上述した実施形態では、ショベル100に搭載される撮像装置40の撮像画像に基づく監視物体の検出方法について説明したが、同様の方法は、他の作業機械に搭載される撮像装置の撮像画像に基づく監視物体の検出方法に適用されてもよい。他の作業機械は、例えば、アタッチメントATの先端にバケット6に代えてリフティングマグネットが装着されるリフマグ機、ブルドーザ、林業機械(例えば、ハーベスタ)道路機械(例えば、アスファルトフィニッシャ)等である。 For example, in the above-described embodiment, the method of detecting a monitored object based on the image captured by the imaging device 40 mounted on the excavator 100 has been described. can be applied to the surveillance object detection method based on Other working machines are, for example, liftmag machines, bulldozers, forestry machines (for example, harvesters), road machines (for example, asphalt finishers), etc., in which a lifting magnet is attached to the tip of the attachment AT in place of the bucket 6 .

1 下部走行体
1C クローラ
1ML 走行油圧モータ
1MR 走行油圧モータ
2 旋回機構
2M 旋回油圧モータ
3 上部旋回体
4 ブーム
5 アーム
6 バケット
7 ブームシリンダ
8 アームシリンダ
9 バケットシリンダ
10 キャビン
11 エンジン
13 レギュレータ
14 メインポンプ
15 パイロットポンプ
17 コントロールバルブ
25 パイロットライン
25A パイロットライン
25B パイロットライン
26 操作装置
27 パイロットライン
27A パイロットライン
27B パイロットライン
29 操作圧センサ
30 コントローラ
30A 補助記憶装置
30B メモリ装置
30C CPU
30D インタフェース装置
31 油圧制御弁
32 シャトル弁
33 油圧制御弁
40 撮像装置
40B カメラ
40F カメラ
40L カメラ
40R カメラ
50 出力装置
50A 表示装置
50B 音出力装置
52 入力装置
60 通信装置
70 照射装置
100 ショベル
200 管理装置
201 外部インタフェース
201A 記録媒体
202 補助記憶装置
203 メモリ装置
204 CPU
205 高速演算装置
206 通信インタフェース
207 入力装置
208 表示装置
301 表示処理部
302 物体検出部(検出部)
303 位置推定部
304 安全制御部(制御部)
305 照射制御部(判定部)
306 画像補正部
307 検出判断部
402,402B,402F,402L,402R 物体検出部(検出部)
404,404B,404F,404L,404R 画像補正部
AT アタッチメント
HA 油圧アクチュエータ
HMT ヘルメット
LM 学習済みモデル
NW 通信回線
RV 高視認性安全服
S1 ブーム角度センサ
S2 アーム角度センサ
S3 バケット角度センサ
S4 機体姿勢センサ
S5 旋回角度センサ
SYS ショベル管理システム
W,W1~W3 作業者
1 lower traveling body 1C crawler 1ML traveling hydraulic motor 1MR traveling hydraulic motor 2 turning mechanism 2M turning hydraulic motor 3 upper turning body 4 boom 5 arm 6 bucket 7 boom cylinder 8 arm cylinder 9 bucket cylinder 10 cabin 11 engine 13 regulator 14 main pump 15 Pilot pump 17 Control valve 25 Pilot line 25A Pilot line 25B Pilot line 26 Operation device 27 Pilot line 27A Pilot line 27B Pilot line 29 Operation pressure sensor 30 Controller 30A Auxiliary storage device 30B Memory device 30C CPU
30D interface device 31 hydraulic control valve 32 shuttle valve 33 hydraulic control valve 40 imaging device 40B camera 40F camera 40L camera 40R camera 50 output device 50A display device 50B sound output device 52 input device 60 communication device 70 irradiation device 100 excavator 200 management device 201 External Interface 201A Recording Medium 202 Auxiliary Storage Device 203 Memory Device 204 CPU
205 high-speed arithmetic unit 206 communication interface 207 input device 208 display device 301 display processing unit 302 object detection unit (detection unit)
303 position estimation unit 304 safety control unit (control unit)
305 irradiation control unit (determining unit)
306 image correction unit 307 detection determination unit 402, 402B, 402F, 402L, 402R object detection unit (detection unit)
404, 404B, 404F, 404L, 404R Image Corrector AT Attachment HA Hydraulic Actuator HMT Helmet LM Learned Model NW Communication Line RV High Visibility Safety Clothes S1 Boom Angle Sensor S2 Arm Angle Sensor S3 Bucket Angle Sensor S4 Aircraft Attitude Sensor S5 Rotation Angle sensor SYS Excavator management system W, W1 to W3 Operator

Claims (8)

下部走行体と、
前記下部走行体に旋回自在に搭載される上部旋回体と、
前記上部旋回体に搭載され、前記上部旋回体の周辺を撮像する撮像装置と、
前記撮像装置の撮像範囲に赤外光を照射する照射装置と、
前記撮像装置の撮像画像に基づき、高視認性安全服を認識することにより、ショベルの周辺の人を検出する検出部と、を備える、
ショベル。
a lower running body;
an upper rotating body rotatably mounted on the lower traveling body;
an imaging device mounted on the upper revolving body for imaging the periphery of the upper revolving body;
an irradiation device that irradiates an imaging range of the imaging device with infrared light;
a detection unit that detects people around the excavator by recognizing high-visibility safety clothing based on the captured image of the imaging device;
Excavator.
前記高視認性安全服を認識することは、人に着用された状態の前記高視認性安全服を認識すること、又は、前記高視認性安全服を着用した人を認識することである、
請求項1に記載のショベル。
Recognizing the high-visibility safety clothing is recognizing the high-visibility safety clothing worn by a person, or recognizing the person wearing the high-visibility safety clothing.
Shovel according to claim 1 .
前記照射装置は、前記撮像装置の撮像周期に同期して周期的に、又は、前記撮像装置の稼働中に継続して、前記撮像装置の撮像範囲に赤外光を照射する、
請求項1又は2に記載のショベル。
The irradiation device irradiates the imaging range of the imaging device with infrared light periodically in synchronization with the imaging cycle of the imaging device, or continuously while the imaging device is in operation.
A shovel according to claim 1 or 2.
前記撮像画像又は前記撮像画像に基づき生成される加工画像を表示する表示装置と、
前記表示装置の前記撮像画像または前記加工画像の表示内容に前記赤外光の影響があるか否かを判定する判定部と、を備え、
前記照射装置は、前記判定部により前記表示装置の前記撮像画像又は前記加工画像の表示内容に前記赤外光の影響がないと判定される場合、前記撮像装置の稼働中に継続して前記撮像装置の撮像範囲に前記赤外光を照射し、前記判定部により前記表示装置の前記撮像画像又は前記加工画像の表示内容に前記赤外光の影響があると判定される場合、前記撮像装置の撮像周期に同期して周期的に、前記撮像装置の撮像範囲に前記赤外光を照射する、
請求項3に記載のショベル。
a display device for displaying the captured image or a processed image generated based on the captured image;
a determination unit that determines whether display content of the captured image or the processed image on the display device is affected by the infrared light,
When the determination unit determines that the display content of the captured image or the processed image on the display device is not affected by the infrared light, the irradiation device continues the imaging while the imaging device is in operation. When the imaging range of the device is irradiated with the infrared light, and it is determined by the determination unit that the display content of the captured image or the processed image on the display device is affected by the infrared light, irradiating the imaging range of the imaging device with the infrared light periodically in synchronization with an imaging cycle;
Shovel according to claim 3.
前記判定部は、ユーザからの所定の入力が受け付けられた場合に、前記表示装置の前記撮像画像又は前記加工画像の表示内容に前記赤外光の影響があると判定する、
請求項4に記載のショベル。
The determination unit determines that the display content of the captured image or the processed image on the display device is affected by the infrared light when a predetermined input from a user is received.
Shovel according to claim 4.
前記検出部は、前記撮像画像に基づき、前記高視認性安全服の形状、色、及び再帰性反射材の輝度の少なくとも一つを認識することにより、ショベルの周辺の人を検出する、
請求項1乃至5の何れか一項に記載のショベル。
The detection unit detects people around the excavator by recognizing at least one of the shape and color of the high-visibility safety clothing and the brightness of the retroreflective material based on the captured image.
Shovel according to any one of claims 1 to 5.
前記検出部は、前記高視認性安全服を着用した人が映っている教師データの画像によって、前記高視認性安全服の形状、色、及び再帰性反射材の輝度の少なくとも一つを機械学習済みのモデルを用いて、ショベルの周辺の人を検出する、
請求項6に記載のショベル。
The detection unit machine-learns at least one of the shape and color of the high-visibility safety clothing, and the brightness of the retroreflection material, based on an image of training data showing a person wearing the high-visibility safety clothing. Detect people around the excavator using a pre-existing model,
Shovel according to claim 6.
前記検出部によりショベルの周辺の所定範囲内で人が検出された場合、ショベルの動作を減速または停止させる制御部を備える、
請求項1乃至7の何れか一項に記載のショベル。
a control unit that decelerates or stops the operation of the excavator when the detection unit detects a person within a predetermined range around the excavator;
Shovel according to any one of claims 1 to 7.
JP2021174152A 2021-10-25 2021-10-25 Shovel Pending JP2023063992A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021174152A JP2023063992A (en) 2021-10-25 2021-10-25 Shovel

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021174152A JP2023063992A (en) 2021-10-25 2021-10-25 Shovel

Publications (1)

Publication Number Publication Date
JP2023063992A true JP2023063992A (en) 2023-05-10

Family

ID=86271073

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021174152A Pending JP2023063992A (en) 2021-10-25 2021-10-25 Shovel

Country Status (1)

Country Link
JP (1) JP2023063992A (en)

Similar Documents

Publication Publication Date Title
US20220018096A1 (en) Shovel and construction system
US20220002979A1 (en) Shovel and shovel management apparatus
US20220074171A1 (en) Display device, shovel, and information processing apparatus
JP7358349B2 (en) Excavators, information processing equipment
KR20220002941A (en) shovel
US20220136215A1 (en) Work machine and assist device to assist in work with work machine
US20210270013A1 (en) Shovel, controller for shovel, and method of managing worksite
WO2020196874A1 (en) Construction machine and assistance system
KR20210152493A (en) Shovel, safety equipment confirmation system at work site
JP2023174887A (en) Work machine, information processing device
US20220042283A1 (en) Shovel
CN115279974A (en) Construction support system for excavator
US20230008338A1 (en) Construction machine, construction machine management system, and machine learning apparatus
JP2023063992A (en) Shovel
JP2023063993A (en) Shovel
JP2023063991A (en) Shovel
JP2023063989A (en) Shovel
JP2023063990A (en) Shovel
JP2023063988A (en) Shovel
JP2023093109A (en) Construction machine, and information processing device
WO2021149775A1 (en) Work machine and information processing device
JP7346061B2 (en) excavator
JP2022179081A (en) Remote operation support system and remote operation support device
WO2023132321A1 (en) Surrounding-area monitoring system and work machine
JP2021120515A (en) Work machine, and information processor