JP2023153686A - Detection device and detection method - Google Patents

Detection device and detection method Download PDF

Info

Publication number
JP2023153686A
JP2023153686A JP2022063096A JP2022063096A JP2023153686A JP 2023153686 A JP2023153686 A JP 2023153686A JP 2022063096 A JP2022063096 A JP 2022063096A JP 2022063096 A JP2022063096 A JP 2022063096A JP 2023153686 A JP2023153686 A JP 2023153686A
Authority
JP
Japan
Prior art keywords
excavator
excavation
target image
detection device
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022063096A
Other languages
Japanese (ja)
Inventor
心 影山
Kokoro Kageyama
稔 林
Minoru Hayashi
匡樹 松村
Masaki Matsumura
真史 土本
Masafumi Tsuchimoto
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kajima Corp
Enzan Koubou Co Ltd
Original Assignee
Kajima Corp
Enzan Koubou Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kajima Corp, Enzan Koubou Co Ltd filed Critical Kajima Corp
Priority to JP2022063096A priority Critical patent/JP2023153686A/en
Publication of JP2023153686A publication Critical patent/JP2023153686A/en
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

To acquire an excavation position of an excavator by means of an inexpensive method.SOLUTION: A detection device 100 comprises: an image acquisition unit 30 which acquires an object image obtained by imaging the foundation and an excavator 10; a processing detection unit 31 which detects a tip of the excavator in the object image by applying image processing to the object image; an energy information acquisition unit 32 which acquires information about an excavation energy value of excavating the foundation by the excavator in association with the object image; and a position specification unit 33 which specifies the position of the tip of the excavator 10 detected in the associated object image as an excavation position when the excavation energy value equal to or greater than a prescribed threshold is acquired.SELECTED DRAWING: Figure 2

Description

本発明は、掘削機の掘削位置を検出する検出装置及び検出方法に関する。 The present invention relates to a detection device and a detection method for detecting the excavation position of an excavator.

特許文献1には、山岳トンネルの掘削時にドリルジャンボによって計測された穿孔エネルギーを利用して切羽前方の地山を評価する方法が記載されている。また、特許文献1には、コンピュータ制御されたドリルジャンボによって、削孔時の穿孔位置、穿孔エネルギー、穿孔方向の角度データなどの掘削データを自動入手することが記載されている。 Patent Document 1 describes a method of evaluating the ground in front of a face using drilling energy measured by a drill jumbo during excavation of a mountain tunnel. Further, Patent Document 1 describes that drilling data such as drilling position, drilling energy, and drilling direction angle data during drilling are automatically obtained using a computer-controlled drill jumbo.

特開2021-127655号公報JP2021-127655A

特許文献1に記載の方法では、ドリルジャンボに各種センサを設けて、ドリルジャンボの作動をセンシングすることで、穿孔位置を自動入手している。 In the method described in Patent Document 1, a drill jumbo is provided with various sensors and the drilling position is automatically obtained by sensing the operation of the drill jumbo.

しかしながら、ドリルジャンボに取り付けたセンサから穿孔位置を取得するには、複数のセンサを要する。また、センサの取付位置やドリルジャンボの形状を測定し、ドリルジャンボの先端位置を計算する必要がある。このように、センサによってドリルジャンボの作動をセンシングして穿孔位置を取得する方法はコストが高く、より安価で穿孔位置を取得することが望まれている。 However, multiple sensors are required to obtain the drilling position from the sensor attached to the drill jumbo. Additionally, it is necessary to measure the mounting position of the sensor and the shape of the drill jumbo, and calculate the position of the tip of the drill jumbo. As described above, the method of obtaining the drilling position by sensing the operation of the drill jumbo with a sensor is expensive, and it is desired to obtain the drilling position at a lower cost.

本発明は、掘削機の掘削位置を安価な方法で取得することを目的とする。 The present invention aims to obtain the excavation position of an excavator in an inexpensive manner.

本発明は、アーム状の掘削機による地盤の掘削位置を検出する検出装置であって、地盤及び掘削機を撮像した対象画像を取得する画像取得部と、対象画像に画像処理を施して対象画像内の掘削機の先端部を検出する処理検出部と、掘削機によって地盤を掘削する掘削エネルギー値の情報を対象画像と関連付けて取得するエネルギー情報取得部と、所定の閾値以上の掘削エネルギー値が取得されると、関連付けられた対象画像内で検出された掘削機の先端部の位置を掘削位置として特定する位置特定部と、を備える。 The present invention is a detection device that detects the excavation position of the ground by an arm-shaped excavator, and includes an image acquisition unit that acquires a target image of the ground and the excavator, and a target image that performs image processing on the target image. a processing detection unit that detects the tip of the excavator in the ground; an energy information acquisition unit that obtains information on the excavation energy value for excavating the ground by the excavator in association with a target image; and a position specifying unit that, when acquired, specifies the position of the tip of the excavator detected in the associated target image as the excavation position.

本発明は、アーム状の掘削機による地盤の掘削位置を検出する検出方法であって、地盤及び掘削機を撮像した対象画像を取得し、対象画像に画像処理を施して対象画像内の掘削機の先端部を検出し、掘削機によって地盤を掘削する掘削エネルギー値の情報を対象画像と関連付けて取得し、所定の閾値以上の掘削エネルギー値が取得されると、関連付けられた対象画像内で検出された掘削機の先端部の位置を掘削位置として特定する。 The present invention is a detection method for detecting the excavation position of the ground by an arm-shaped excavator, in which a target image of the ground and the excavator is acquired, image processing is performed on the target image, and the excavator in the target image is Detects the tip of the excavator, and obtains information on the excavation energy value for excavating the ground by associating it with the target image, and when an excavation energy value greater than a predetermined threshold is acquired, it is detected in the associated target image. The position of the tip of the excavator is specified as the excavation position.

本発明によれば、掘削位置を安価に取得することができる。 According to the present invention, excavation positions can be acquired at low cost.

本発明の実施形態に係る検出システムの概略図である。1 is a schematic diagram of a detection system according to an embodiment of the present invention. 本発明の実施形態に係る検出システムの構成を示すブロック図である。1 is a block diagram showing the configuration of a detection system according to an embodiment of the present invention. 本発明の実施形態に係る検出方法を示すフローチャートである。3 is a flowchart showing a detection method according to an embodiment of the present invention. 本発明の実施形態に係る評価方法を示すフローチャートである。3 is a flowchart showing an evaluation method according to an embodiment of the present invention. 本発明の実施形態に係る検出方法において、対象画像で掘削機が検出された状態を示す図である。FIG. 3 is a diagram showing a state in which an excavator is detected in a target image in a detection method according to an embodiment of the present invention. 本発明の実施形態に係る検出方法において、対象画像で掘削機の先端部の位置を推定する方法を示す図である。FIG. 3 is a diagram illustrating a method of estimating the position of the tip of an excavator using a target image in a detection method according to an embodiment of the present invention. 本発明の実施形態に係る評価方法において、対象画像で切羽を複数の領域に分割した状態を示す図である。FIG. 3 is a diagram showing a state in which a face is divided into a plurality of regions in a target image in an evaluation method according to an embodiment of the present invention. 本発明の実施形態に係る評価方法における評価画像を示す図である。It is a figure showing the evaluation image in the evaluation method concerning an embodiment of the present invention.

以下、図面を参照して、本発明の実施形態に係る検出装置100を備える検出システム101及び検出方法について説明する。 Hereinafter, a detection system 101 including a detection device 100 and a detection method according to an embodiment of the present invention will be described with reference to the drawings.

検出システム101は、アーム状の掘削機10を備え掘削機10によって地盤を掘削する作業機械102に適用され、掘削機10による地盤の掘削位置を検出するものである。 The detection system 101 is applied to a working machine 102 that includes an arm-shaped excavator 10 and excavates the ground with the excavator 10, and detects the position where the excavator 10 excavates the ground.

まず、図1を参照して、作業機械102の全体構成について説明する。 First, the overall configuration of the work machine 102 will be described with reference to FIG.

本実施形態では、作業機械102は、掘削対象となる地盤としてトンネルTの切羽Sに対して爆薬を装填するための発破孔Hを削孔するドリルジャンボである。作業機械102は、アーム状の掘削機10と、掘削機10を搭載する移動台車1と、を備える。 In this embodiment, the working machine 102 is a drill jumbo that drills a blast hole H for loading explosives into a face S of a tunnel T as the ground to be excavated. The working machine 102 includes an arm-shaped excavator 10 and a mobile cart 1 on which the excavator 10 is mounted.

掘削機10は、図1に示すように、一端にビット11が取付けられたロッド12と、ロッド12の他端を支持するドリフタ13と、ドリフタ13の移動を案内するガイドセル14と、を有する。ドリフタ13が駆動機構(図示省略)によりガイドセル14に沿って往復移動すると、ロッド12がガイドセル14に沿って往復移動する。 As shown in FIG. 1, the excavator 10 includes a rod 12 with a bit 11 attached to one end, a drifter 13 that supports the other end of the rod 12, and a guide cell 14 that guides the movement of the drifter 13. . When the drifter 13 reciprocates along the guide cell 14 by a drive mechanism (not shown), the rod 12 reciprocates along the guide cell 14.

ドリフタ13は、ロッド12に回転力を付与可能であると共に打撃力を付与可能である。切羽Sにおける岩盤にビット11を押付けた状態でビット11を回転させると共にビット11を用いて岩盤を打撃することにより、発破孔Hが穿孔される。作業機械102は、通常、複数の掘削機10を備えるが、本実施形態では、説明の便宜上、単一の掘削機10のみを図示している。 The drifter 13 can apply rotational force to the rod 12 as well as impact force. By rotating the bit 11 while pressing the bit 11 against the rock at the face S and striking the rock using the bit 11, a blast hole H is bored. The work machine 102 normally includes a plurality of excavators 10, but in this embodiment, only a single excavator 10 is illustrated for convenience of explanation.

移動台車1は、伸縮自在なブーム15の基端を上下方向及び左右方向に揺動自在に支持しており、ブーム15の先端に掘削機10のガイドセル14が上下方向及び左右方向に揺動自在に支持される。ブーム15は、不図示の駆動機構により移動台車1に対して揺動すると共に伸縮する。ブーム15の揺動及び伸縮に伴って、掘削機10が上下左右に移動する。掘削機10のガイドセル14は、駆動機構(図示省略)によりブーム15に対して揺動する。ガイドセル14の揺動に伴って、掘削機10の向き(ロッド12の向き)が変化する。 The movable trolley 1 supports the base end of a telescopic boom 15 so as to be swingable in the vertical and horizontal directions, and the guide cell 14 of the excavator 10 is supported on the tip of the boom 15 to swing in the vertical and horizontal directions. freely supported. The boom 15 swings relative to the movable trolley 1 and expands and contracts by a drive mechanism (not shown). As the boom 15 swings and expands and contracts, the excavator 10 moves vertically and horizontally. The guide cell 14 of the excavator 10 swings relative to the boom 15 by a drive mechanism (not shown). As the guide cell 14 swings, the direction of the excavator 10 (the direction of the rod 12) changes.

作業者によって掘削機10が操作されることで、切羽Sが削孔され、発破孔Hが穿孔される。通常、掘削機10による切羽Sの削孔中には移動台車1は移動せず、移動台車1と切羽Sとの位置関係は変化しない。 By operating the excavator 10 by an operator, the face S is drilled and the blast hole H is drilled. Normally, the movable trolley 1 does not move while the excavator 10 is drilling the face S, and the positional relationship between the movable trolley 1 and the face S does not change.

検出システム101は、図1及び図2に示すように、切羽Sを撮像する撮像部としてのカメラ20と、掘削機10による掘削エネルギー値を取得するための測定部25と、掘削機10による切羽Sへの削孔位置を検出する検出装置100と、を備える。 As shown in FIGS. 1 and 2, the detection system 101 includes a camera 20 as an imaging unit that images the face S, a measurement unit 25 that acquires the excavation energy value by the excavator 10, and a face S that captures the excavation face S. A detection device 100 for detecting a drilling position to S is provided.

カメラ20は、掘削機10によって削孔される切羽Sの全体を撮像可能となるように、移動台車1に取り付けられる。カメラ20は、切羽Sを連続的に撮像して動画形式の画像データを取得する。なお、カメラ20は、断続的に静止画を撮像するものでもよい。カメラ20によって取得された画像データは、検出装置100に入力される。 The camera 20 is attached to the movable cart 1 so as to be able to image the entire face S drilled by the excavator 10. The camera 20 continuously images the face S and acquires image data in a moving image format. Note that the camera 20 may be one that captures still images intermittently. Image data acquired by camera 20 is input to detection device 100.

測定部25は、掘削機10の掘削エネルギー値を取得するために必要な掘削機10の作動状態を表すパラメータを測定する。測定部25は、複数の掘削機10のそれぞれの作動状態を表すパラメータを互いに区別可能に測定している。本実施形態では、測定部25は、ドリフタ13からロッド12に付与される回転力及び打撃力を測定する各種センサにより構成される。例えば、図示は省略するが、測定部25は、ロッド12の回転力を検出するトルクセンサ、ロッド12による打撃力を検出する圧力センサ、及びロッド12の移動速度を検出する速度センサを有する。測定部25は、カメラ20による静止画の撮像間隔(サンプリング間隔)に対応して、ロッド12の回転力、打撃力、及び移動速度を測定する。つまり、測定部25は、カメラ20が撮像するフレームごとに各測定項目を測定する。測定部25の測定結果は、検出装置100に入力される。なお、測定部25は、少なくとも後述する対象画像が撮像された際の掘削エネルギーを取得できるように、サンプリング間隔が設定されていればよい。 The measurement unit 25 measures parameters representing the operating state of the excavator 10 necessary to obtain the excavation energy value of the excavator 10. The measuring unit 25 measures parameters representing the operating states of each of the plurality of excavators 10 in a manner that allows them to be distinguished from each other. In the present embodiment, the measurement unit 25 is composed of various sensors that measure the rotational force and impact force applied to the rod 12 from the drifter 13. For example, although not shown, the measuring unit 25 includes a torque sensor that detects the rotational force of the rod 12, a pressure sensor that detects the striking force of the rod 12, and a speed sensor that detects the moving speed of the rod 12. The measuring unit 25 measures the rotational force, striking force, and moving speed of the rod 12 in accordance with the still image capturing interval (sampling interval) by the camera 20. That is, the measurement unit 25 measures each measurement item for each frame captured by the camera 20. The measurement results of the measurement unit 25 are input to the detection device 100. Note that the measuring unit 25 only needs to have a sampling interval set so as to be able to acquire at least the excavation energy when a target image, which will be described later, is captured.

検出装置100は、制御プログラム等を実行するCPU(Central Processing Unit)と、CPUにより実行される制御プログラムを記憶するROM(Read-Only Memory)と、CPUの演算結果等を記憶するRAM(Random Access Memory)と、通信装置と、等を備えたコンピュータによって構成される。検出装置100は、ROMに記憶される制御プログラムがCPUによって実行されることにより、本明細書に記載の検出装置100の各種機能を実行する。検出装置100は、一つのコンピュータによって構成されていてもよいし、複数のマイクロコンピュータによって構成され各制御を当該複数のコンピュータで分散処理するように構成されていてもよい。 The detection device 100 includes a CPU (Central Processing Unit) that executes a control program, etc., a ROM (Read-Only Memory) that stores the control program executed by the CPU, and a RAM (Random Access Unit) that stores the calculation results of the CPU. It is composed of a computer equipped with a memory (Memory), a communication device, and the like. The detection device 100 executes various functions of the detection device 100 described in this specification by executing a control program stored in the ROM by the CPU. The detection device 100 may be configured by one computer, or may be configured by multiple microcomputers so that each control is distributed among the multiple computers.

検出装置100は、例えば、移動台車1に搭載され、カメラ20及び測定部25と有線又は無線によって通信可能に接続される。なお、検出装置100は、移動台車1に搭載される構成に限定されず、移動台車1以外の場所に設けられてもよい。例えば、検出装置100は、カメラ20及び測定部25とネットワークを通じて無線接続されたサーバコンピュータによって構成されてもよい。 The detection device 100 is mounted, for example, on the mobile trolley 1, and is communicably connected to the camera 20 and the measurement unit 25 by wire or wirelessly. Note that the detection device 100 is not limited to being mounted on the movable trolley 1, and may be provided at a location other than the movable trolley 1. For example, the detection device 100 may be configured by a server computer wirelessly connected to the camera 20 and the measurement unit 25 through a network.

検出装置100は、図2に示すように、カメラ20から入力される画像データから対象画像を取得する画像取得部30と、対象画像に画像処理を施して対象画像内の掘削機10の先端部を検出する処理検出部31と、掘削機10によって切羽Sを削孔する掘削エネルギー値の情報を対象画像と関連付けて取得するエネルギー情報取得部32と、掘削エネルギー値に基づいて対象画像内で掘削機10による掘削位置を特定する位置特定部33と、撮像した切羽Sを複数の領域に分割し、各領域内に含まれる一又は複数の掘削位置での掘削エネルギー値に基づいて当該領域での掘削エネルギー値を算出するエネルギー算出部34と、を備える。なお、図2に示す検出装置100の各構成は、検出装置100の各機能を仮想的なユニットとして示したものであり、物理的に存在することを意味するものではない。 As shown in FIG. 2, the detection device 100 includes an image acquisition unit 30 that acquires a target image from image data input from a camera 20, and an image acquisition unit 30 that performs image processing on the target image to detect the tip of the excavator 10 in the target image. an energy information acquisition unit 32 that obtains information on the excavation energy value for drilling the face S by the excavator 10 in association with the target image; A position specifying unit 33 specifies the excavation position by the machine 10, and divides the imaged face S into a plurality of regions, and determines the excavation energy value in the region based on the excavation energy value at one or more excavation positions included in each region. An energy calculation unit 34 that calculates an excavation energy value is provided. Note that each configuration of the detection device 100 shown in FIG. 2 shows each function of the detection device 100 as a virtual unit, and does not mean that it physically exists.

画像取得部30は、動画形式で入力される画像データから、所定の時間間隔によって静止画を抜き出す。抜き出された静止画(以下、「対象画像」と称する。)は、処理検出部31によって画像処理される。画像データから静止画を抜き出す間隔は、カメラ20が静止画を撮像するサンプリング間隔と同じ(つまり、動画の各フレームすべてを対象画像として抽出する)構成であってもよいし、当該サンプリング間隔よりも大きくてもよい。後述する検出方法では、動画の各フレームが対象画像として抜き出されるものとして説明する。 The image acquisition unit 30 extracts still images at predetermined time intervals from image data input in video format. The extracted still image (hereinafter referred to as “target image”) is subjected to image processing by the processing detection unit 31. The interval at which still images are extracted from the image data may be the same as the sampling interval at which the camera 20 captures still images (that is, each frame of the video is extracted as a target image), or may be configured to It can be large. The detection method described later will be described assuming that each frame of a moving image is extracted as a target image.

処理検出部31は、掘削機10の先端部が特定された画像群を教師データとして機械学習された学習済みモデルによって対象画像内の掘削機10の先端部、後端部、及び全体を検出する。ここでいう掘削機10の先端部とは、ビット11が取り付けられるロッド12の先端部のことである。 The processing detection unit 31 detects the tip, rear end, and the entirety of the excavator 10 in the target image using a learned model that is machine-learned using a group of images in which the tip of the excavator 10 is specified as teacher data. . The tip of the excavator 10 here refers to the tip of the rod 12 to which the bit 11 is attached.

学習済みモデルは、予め切羽S及び掘削機10を撮像した画像群に対して、作業者によって画像内の掘削機10の先端部、後端部、及び全体をラベリングし、ラベリングされた画像群を教師データとしてコンピュータに深層学習を用いた機械学習を行わせることで構築される。また、学習済みモデルは、複数の掘削機10をそれぞれ識別可能となるように学習されている。例えば、マーカ等を各掘削機10に付与し、マーカに基づいてラベリングした画像群を教師データとすることで、掘削機10を識別する学習済みモデルを生成することができる。 The trained model is created by labeling the front end, rear end, and the entirety of the excavator 10 in the images by an operator for a group of images taken in advance of the face S and the excavator 10, and then labeling the labeled image group. It is constructed by having a computer perform machine learning using deep learning as training data. Further, the trained model has been trained to be able to identify each of the plurality of excavators 10. For example, a learned model that identifies the excavators 10 can be generated by assigning a marker or the like to each excavator 10 and using a group of images labeled based on the markers as training data.

処理検出部31による画像処理・物体認識によって、掘削機10の先端部、後端部、及び全体のそれぞれに対応する矩形領域(バウンティングボックス)B1,B2,B3が抽出される(図5参照)。また、処理検出部31は、掘削機10の先端部を抽出できない場合に、抽出された後端部及び全体に基づいて先端部の位置を推定して検出する機能を有している。当該機能の詳細については、後に説明する。 Through image processing and object recognition by the processing detection unit 31, rectangular areas (bounting boxes) B1, B2, and B3 corresponding to the front end, rear end, and the entire excavator 10 are extracted (see FIG. 5). ). Further, the processing detection unit 31 has a function of estimating and detecting the position of the tip portion based on the extracted rear end portion and the entire portion when the tip portion of the excavator 10 cannot be extracted. Details of this function will be explained later.

エネルギー情報取得部32は、対象画像が撮像された際の掘削機10の掘削エネルギー値を測定部25の測定結果に基づいて取得する。掘削エネルギー値は、掘削機10の回転力、打撃力、及び移動速度に基づき、算出される。掘削機10の回転力、打撃力、及び移動速度から掘削エネルギー値を算出する方法は、公知の方法を採用できるため詳細な説明は省略する。対象画像と、当該対象画像が撮像された際の掘削エネルギー値とは、互いに関連付けられて記憶されると共に位置特定部33に入力される。 The energy information acquisition unit 32 acquires the excavation energy value of the excavator 10 when the target image was captured based on the measurement result of the measurement unit 25. The excavation energy value is calculated based on the rotational force, striking force, and moving speed of the excavator 10. As a method for calculating the excavation energy value from the rotational force, impact force, and movement speed of the excavator 10, a known method can be adopted, and detailed explanation will be omitted. The target image and the excavation energy value at the time the target image was captured are stored in association with each other and input to the position specifying unit 33.

位置特定部33は、エネルギー情報取得部32から入力された対象画像の削孔エネルギー値が、予め設定される閾値よりも大きければ、対象画像内において当該掘削機10の先端部の位置を切羽Sに対する削孔位置であると特定する。このようにして、対象画像内での掘削位置が特定される。閾値は、掘削機10が切羽Sを掘削していない状態において測定部25のセンサの誤差やノイズに起因して生じる掘削エネルギー値のぶれ(変動)が影響しないように、ゼロよりも大きな値に設定される。 If the drilling energy value of the target image input from the energy information acquisition unit 32 is larger than a preset threshold, the position specifying unit 33 determines the position of the tip of the excavator 10 in the target image as a face S. It is determined that the drilling position is for. In this way, the excavation position within the target image is specified. The threshold value is set to a value larger than zero so that fluctuations (fluctuations) in the excavation energy value that occur due to sensor errors and noise of the measurement unit 25 do not affect when the excavator 10 is not excavating the face S. Set.

位置特定部33は、対象画像内で掘削位置を特定すると、画像内で予め切羽Sの形状が特定されている基準画像と対象画像とを比較して、対象画像内での切羽Sの形状を特定する。これにより、検出した掘削位置と切羽Sとの相対的な位置関係が特定される。 After specifying the excavation position in the target image, the position specifying unit 33 compares the target image with a reference image in which the shape of the face S has been specified in advance in the image, and determines the shape of the face S in the target image. Identify. Thereby, the relative positional relationship between the detected excavation position and the face S is specified.

エネルギー算出部34は、対象画像にグリッドを作成し、対象画像内の切羽Sを複数の領域に分割する。エネルギー算出部34は、位置特定部33によって特定された対象画像内の切羽Sの位置と掘削位置、及び、当該掘削位置を掘削した掘削エネルギー値に基づいて、分割された各領域における掘削エネルギー値を算出する。各領域の掘削エネルギー値とは、各領域に対応する一の掘削エネルギー値(代表値)である。領域内に複数の発破孔Hが設けられる場合には、各領域の掘削エネルギー値は、各発破孔Hを掘削する掘削エネルギー値の平均値や、領域内の発破孔Hの掘削エネルギー値のうちの最大値とすることができる。後述する切羽Sの評価方法では、代表値として、最大値を採用する場合を例に説明する。 The energy calculation unit 34 creates a grid in the target image and divides the face S in the target image into a plurality of regions. The energy calculation unit 34 calculates the excavation energy value in each divided area based on the position of the face S in the target image specified by the position specifying unit 33, the excavation position, and the excavation energy value for excavating the excavation position. Calculate. The excavation energy value of each area is one excavation energy value (representative value) corresponding to each area. When a plurality of blast holes H are provided in a region, the drilling energy value of each region is the average value of the drilling energy values for drilling each blast hole H, or among the drilling energy values of the blast holes H in the region. can be the maximum value of In the evaluation method of the face S, which will be described later, a case will be explained using an example in which the maximum value is adopted as the representative value.

また、エネルギー算出部34は、対象画像内で分割された複数の領域に対して、掘削エネルギー値の大小に応じて色彩や明度を付与することで、評価画像を生成する。生成された評価画像は、検出装置100から外部のモニタに出力される。これにより、作業者は、評価画像中に色彩や明度の違いで表現された掘削エネルギー値の分布を確認することで、切羽Sの硬軟の状態を把握することができる。 Furthermore, the energy calculation unit 34 generates an evaluation image by assigning color and brightness to a plurality of divided regions within the target image according to the magnitude of the excavation energy value. The generated evaluation image is output from the detection device 100 to an external monitor. Thereby, the operator can grasp the hardness and softness state of the face S by checking the distribution of excavation energy values expressed by differences in color and brightness in the evaluation image.

次に、図3から図8を参照して、検出システム101による掘削位置の検出方法及び切羽Sの評価方法について説明する。 Next, with reference to FIGS. 3 to 8, a method of detecting an excavation position and a method of evaluating the face S using the detection system 101 will be described.

図3は、検出装置100が実行する掘削位置の検出方法を示すフローチャートであり、図4は、切羽Sの評価方法を示すフローチャートである。検出装置100は、対象画像を画像処理することで掘削機10による掘削位置を検出し、掘削位置と掘削に要した掘削エネルギー値とに基づいて切羽Sの状態を評価する。 FIG. 3 is a flowchart showing a method of detecting an excavation position performed by the detection device 100, and FIG. 4 is a flowchart showing a method of evaluating the face S. The detection device 100 detects the excavation position by the excavator 10 by image processing the target image, and evaluates the state of the face S based on the excavation position and the excavation energy value required for excavation.

まず、掘削位置の検出方法について説明する。検出装置100は、図3に示す掘削位置の検出処理を所定の処理間隔で実行する。本実施形態では、検出装置100が実行する検出処理の処理間隔は、カメラ20が撮影するフレームの時間間隔と一致する。つまり、検出システム101は、カメラ20が撮影した動画のフレームごとに図3に示す処理を実行する。なお、検出システム101が実行する処理間隔は、フレームの時間間隔以上に設定されていればよい。 First, a method for detecting an excavation position will be explained. The detection device 100 executes the excavation position detection processing shown in FIG. 3 at predetermined processing intervals. In this embodiment, the processing interval of the detection processing performed by the detection device 100 matches the time interval of frames photographed by the camera 20. In other words, the detection system 101 executes the process shown in FIG. 3 for each frame of the video captured by the camera 20. Note that the processing interval executed by the detection system 101 may be set to be equal to or longer than the frame time interval.

ステップS10では、カメラ20が撮影した動画から1フレーム分の静止画を抜きだして、対象画像として取得する。 In step S10, one frame of a still image is extracted from the video taken by the camera 20 and acquired as a target image.

ステップS11では、学習済みの機械学習モデルによって対象画像から掘削機10の先端部、後端部、及び全体の領域を抽出する。具体的には、図5に示すように、掘削機10の先端部を示す矩形領域B1、後端部を示す矩形領域B2、及び全体を示す矩形領域B3を抽出する。 In step S11, the tip, rear end, and entire area of the excavator 10 are extracted from the target image using the trained machine learning model. Specifically, as shown in FIG. 5, a rectangular area B1 indicating the tip of the excavator 10, a rectangular area B2 indicating the rear end, and a rectangular area B3 indicating the entire excavator 10 are extracted.

ここで、掘削機10の先端部は、切羽Sに接触し掘削するものであるため、機械学習モデルによる画像内での物体認識を行う方法では、後端部や全体と比べて対象画像内で領域が抽出されにくい。このため、対象画像から、掘削機10の後端部及び全体は検出されるものの、先端部は検出されないことがある。なお、掘削機10の全体は、先端部が検出されなくても、対象画像内である程度の範囲に存在し特徴量を抽出できるため、先端部よりも検出は容易である。 Here, since the leading end of the excavator 10 excavates by contacting the face S, in the method of recognizing objects in images using a machine learning model, the leading end of the excavator 10 excavates by touching the face S. Areas are difficult to extract. Therefore, although the rear end and the entire excavator 10 are detected from the target image, the tip may not be detected. Note that even if the tip of the entire excavator 10 is not detected, it exists within a certain range in the target image and the feature amount can be extracted, so it is easier to detect than the tip.

このような場合、検出システム101は、掘削機10の後端部と全体との相対的な位置関係に基づいて、先端部の位置を推定することで、先端部の検出を行う。具体的には、図6に示すように、通常、掘削機10の後端部を示す矩形領域B2は、掘削機10の全体を示す矩形領域B3内に存在する。そして、掘削機10の先端部は、掘削機10の後端部から本体部分に沿って延びた先に存在する。このため、掘削機10の先端部だけが検出されない場合には、検出装置100は、掘削機10の全体を示す矩形領域B3の中心点P3に対して、後端部の矩形領域B2の中心点P2とは点対称となる位置を対象画像内での先端部の位置P1と推定する。つまり、掘削機10全体を示す矩形領域B3の中心点P3と後端部を示す矩形領域B2の中心点P2とを結んだ仮想線(図6中の二点鎖線)上において、掘削機10の全体の中心点P2からの距離が後端部の中心点P3と等距離にある点P1を、先端部として検出する。これにより、掘削機10の先端部が対象画像から直接検出できない場合であっても、掘削機10による削孔位置をある程度の精度により検出することが可能となる。 In such a case, the detection system 101 detects the tip by estimating the position of the tip based on the relative positional relationship between the rear end of the excavator 10 and the entire excavator 10. Specifically, as shown in FIG. 6, a rectangular area B2 indicating the rear end of the excavator 10 normally exists within a rectangular area B3 indicating the entire excavator 10. The tip of the excavator 10 extends from the rear end of the excavator 10 along the main body. Therefore, when only the tip of the excavator 10 is not detected, the detection device 100 detects the center point of the rectangular area B2 of the rear end with respect to the center point P3 of the rectangular area B3 indicating the entire excavator 10. A position that is point symmetrical with P2 is estimated as the position P1 of the tip in the target image. That is, on the virtual line (double-dotted line in FIG. 6) connecting the center point P3 of the rectangular area B3 indicating the entire excavator 10 and the center point P2 of the rectangular area B2 indicating the rear end, A point P1 that is equidistant from the center point P2 of the entire body to the center point P3 of the rear end portion is detected as the tip portion. Thereby, even if the tip of the excavator 10 cannot be directly detected from the target image, the position of the hole drilled by the excavator 10 can be detected with a certain degree of accuracy.

ステップS10及びステップS11が実行されるのと並列して、ステップS12及びS13が実行される。なお、ステップS10及びS11とステップS12及びS13とは、並列処理に限られず直列に処理されてもよく、その前後の順番もいずれであってもよい。ステップS12では、対象画像が撮影された際の測定部20による測定結果(対象画像に対応した測定結果)を取得する。 Steps S12 and S13 are executed in parallel with the execution of steps S10 and S11. Note that steps S10 and S11 and steps S12 and S13 are not limited to parallel processing, but may be processed in series, and the order before or after them may be any order. In step S12, the measurement result by the measurement unit 20 when the target image was photographed (the measurement result corresponding to the target image) is acquired.

ステップS13では、ステップ12で取得した測定結果から掘削機10の掘削エネルギー値を算出する。 In step S13, the excavation energy value of the excavator 10 is calculated from the measurement results obtained in step 12.

ステップ11において掘削機10が抽出され、ステップS13において掘削エネルギー値が算出されると、ステップS14において、掘削エネルギーが所定の閾値以上であるか判定される。掘削エネルギー値が閾値よりも小さい場合には、そのまま処理を終了する。掘削エネルギーが閾値以上である場合には、ステップS15に進み、対象画像(より具体的には、当該対象画像内での掘削機10の先端部の位置)と掘削エネルギー値とが関連付けて記憶される。この際の掘削機10の先端部の位置が、掘削機10による削孔位置として検出される。ステップS15が完了すると、処理が終了する。 When the excavator 10 is extracted in step S11 and the excavation energy value is calculated in step S13, it is determined in step S14 whether the excavation energy is greater than or equal to a predetermined threshold value. If the excavation energy value is smaller than the threshold, the process is immediately terminated. If the excavation energy is equal to or greater than the threshold value, the process proceeds to step S15, where the target image (more specifically, the position of the tip of the excavator 10 within the target image) and the excavation energy value are stored in association with each other. Ru. The position of the tip of the excavator 10 at this time is detected as the hole drilling position by the excavator 10. When step S15 is completed, the process ends.

検出装置100は、このような削孔位置の検出を、例えば、予め定められた数の発破孔Hが形成されるまで実行する。予め定められた数の発破孔Hが検出されると、検出装置100は、図4に示す評価処理を実行して、切羽Sの評価を行う。なお、検出装置100は、例えば、作業者による操作入力があった場合に図4に処理を実行する構成でもよい。このように、図4に示す処理を実行するタイミングは、任意に設定することができる。 The detection device 100 detects such drilling positions until, for example, a predetermined number of blast holes H are formed. When a predetermined number of blast holes H are detected, the detection device 100 performs the evaluation process shown in FIG. 4 to evaluate the face S. Note that the detection device 100 may have a configuration that executes the process shown in FIG. 4 when there is an operation input by the operator, for example. In this way, the timing for executing the process shown in FIG. 4 can be set arbitrarily.

図4に示すように、ステップS20では、対象画像内での掘削対象である地盤形状(切羽Sの形状)の特定が行われる。具体的には、予め検出システム101には、切羽Sの形状(画像内での位置)が特定された基準画像が記憶される。基準画像は、例えば、トンネルTの掘削における設計上の切羽Sの形状が示された画像である。対象画像を基準画像に対してフィッティングすることで、対象画像内での切羽Sの形状が特定される。フィッティングは、基準画像内の切羽Sが対象画像内の切羽Sに重なるように、基準画像を移動・拡縮させて、対象画像と基準画像とを重ね合わせるものである。対象画像に対する基準画像のフィッティングは、検出装置100によって実行されてもよいし、作業者によって手動で行われてもよい。これにより、対象画像内での座標位置であった掘削位置が、切羽Sに対する相対的な位置として把握される。 As shown in FIG. 4, in step S20, the shape of the ground (the shape of the face S) that is the excavation target in the target image is specified. Specifically, the detection system 101 stores in advance a reference image in which the shape (position within the image) of the face S is specified. The reference image is, for example, an image showing the design shape of the face S in excavating the tunnel T. By fitting the target image to the reference image, the shape of the face S in the target image is specified. Fitting involves moving and enlarging/reducing the reference image so that the face S in the reference image overlaps the face S in the target image, and superimposes the target image and the reference image. The fitting of the reference image to the target image may be performed by the detection device 100 or may be performed manually by an operator. Thereby, the excavation position, which was a coordinate position within the target image, is understood as a position relative to the face S.

次に、ステップS21では、図7に示すように、対象画像内で切羽Sをグリッド線によって複数の領域に分割する。なお、グリッド線の間隔や形状は、図6に示す例に限定されず、任意に設定することができる。また、図7で示される各点は、掘削機10による掘削位置を示している。 Next, in step S21, as shown in FIG. 7, the face S is divided into a plurality of regions using grid lines in the target image. Note that the spacing and shape of the grid lines are not limited to the example shown in FIG. 6, and can be set arbitrarily. Further, each point shown in FIG. 7 indicates an excavation position by the excavator 10.

ステップS22では、グリッド線によって分割されたセルCごとに一つの掘削エネルギー値(代表値)を算出する。セルC内に複数の発破孔Hが形成されている場合には、掘削エネルギー値の代表値は、複数の発破孔Hに対する掘削エネルギー値のうちの最大値である。また、セルC内に発破孔Hが形成されていない場合には、当該セルCの掘削エネルギー値は、0(ゼロ)として算出される。 In step S22, one excavation energy value (representative value) is calculated for each cell C divided by the grid lines. When a plurality of blast holes H are formed in the cell C, the representative value of the excavation energy value is the maximum value of the excavation energy values for the plurality of blast holes H. Moreover, when the blast hole H is not formed in the cell C, the excavation energy value of the cell C is calculated as 0 (zero).

次に、ステップS23では、掘削エネルギー値の大小によってセルCを色分けした評価画像を生成する(図8参照)。そして、ステップS24において、評価画像を例えば外部のモニタ等に出力して、処理を終了する。これにより、作業者は、評価画像を確認することで、地盤の硬軟を判断することができる。 Next, in step S23, an evaluation image is generated in which the cells C are color-coded depending on the magnitude of the excavation energy value (see FIG. 8). Then, in step S24, the evaluation image is output to, for example, an external monitor, and the process ends. This allows the worker to determine the hardness or softness of the ground by checking the evaluation image.

以上の実施形態によれば、以下に示す作用効果を奏する。 According to the above embodiment, the following effects are achieved.

本実施形態では、画像処理によって掘削機10の先端部が検出され、掘削エネルギー値に基づくことで掘削機10が地盤を掘削しているかを把握することができる。つまり、地盤を掘削している状態の掘削機10の先端部を画像処理によって検出できるため、地盤に対する掘削位置を特定することができる。このように、センサを使わず画像処理によって掘削機10の先端部の位置を特定することができるため、掘削機10の動作をセンシングするセンサ等を削減でき、掘削位置をより安価に取得することができる。 In this embodiment, the tip of the excavator 10 is detected by image processing, and based on the excavation energy value, it can be determined whether the excavator 10 is excavating the ground. That is, since the tip of the excavator 10 excavating the ground can be detected by image processing, the excavation position with respect to the ground can be specified. In this way, since the position of the tip of the excavator 10 can be specified by image processing without using a sensor, the number of sensors for sensing the operation of the excavator 10 can be reduced, and the excavation position can be acquired at a lower cost. I can do it.

また、本実施形態では、掘削エネルギー値が閾値以上である場合にのみ、当該掘削エネルギー値が算出された際の掘削機10の先端部の位置を掘削位置であると検出する。掘削位置と掘削エネルギー値とに基づいて、評価画像が生成される。これにより、切羽Sの硬軟を把握することができる。切羽Sの硬軟が把握されることで、発破孔Hへの装薬管理、これから掘削する先の地山(発破した後に生じる新たな切羽Sなど)の硬軟の予測、トンネルT内に設置する支保工の評価と管理、などを行うことができる。 Further, in the present embodiment, only when the excavation energy value is equal to or greater than the threshold value, the position of the tip of the excavator 10 at the time when the excavation energy value is calculated is detected as the excavation position. An evaluation image is generated based on the excavation position and excavation energy value. Thereby, the hardness and softness of the face S can be grasped. By understanding the hardness and softness of the face S, it is possible to manage the charge to the blast hole H, predict the hardness and softness of the ground that will be excavated from now on (such as a new face S that will be created after blasting), and support that will be installed inside the tunnel T. evaluation and management of engineering work, etc.

次に、本実施形態の変形例について説明する。 Next, a modification of this embodiment will be described.

上記実施形態では、機械学習された学習モデルによって対象画像内で掘削機10の先端部と後端部とが検出される。検出システム101は、先端部と後端部とに基づいて、掘削機10の角度、ひいては削孔する角度を算出してもよい。掘削機10の全長は予め把握できるため、掘削機10の全長と、掘削機10の先端部及び後端部の位置から、掘削角度を算出することが可能である。このようにして算出した掘削角度を、例えば、削孔の精度評価等に用いてもよい。 In the embodiment described above, the leading end and the trailing end of the excavator 10 are detected in the target image using a machine-learned learning model. The detection system 101 may calculate the angle of the excavator 10 and thus the drilling angle based on the leading end and the trailing end. Since the total length of the excavator 10 can be known in advance, it is possible to calculate the excavation angle from the total length of the excavator 10 and the positions of the front end and rear end of the excavator 10. The excavation angle calculated in this manner may be used, for example, for evaluating the accuracy of drilling.

また、上記実施形態では、検出装置100は、切羽Sを削孔するドリルジャンボに適用されるものであるが、これに限定されず、例えば、同じく掘削機10によって地盤を掘削するロードヘッダーに適用されてもよい。 Further, in the above embodiment, the detection device 100 is applied to a drill jumbo that drills a face S, but is not limited to this, and is also applied to, for example, a road header that excavates the ground with the excavator 10. may be done.

また、上記実施形態では、掘削エネルギー値が閾値以上となると、その際の掘削機10の先端部の位置を掘削位置として取得する。この構成は、掘削エネルギー値が閾値に達していない場合に、掘削機10の先端部の位置を記憶することを妨げるものではない。 Further, in the embodiment described above, when the excavation energy value becomes equal to or greater than the threshold value, the position of the tip of the excavator 10 at that time is acquired as the excavation position. This configuration does not prevent the position of the tip of the excavator 10 from being stored when the excavation energy value has not reached the threshold value.

また、上記実施形態では、対象画像と基準画像とを比較(フィッティング)することで、対象画像内での切羽S形状を特定し、切羽Sに対する発破孔Hの相対的な位置が把握される。上記実施形態では、基準画像は、設計上での切羽S形状に基づくものであったが、例えば、実際に切羽Sを撮像したうえで、当該画像内での切羽Sの形状を画像処理又は作業者の手動により検出して、基準画像としてもよい。また、切羽Sに対する発破孔Hの相対的な位置の特定は、対象画像と基準画像とを比較する方法に限定されない。基準画像を利用しなくても、実際の切羽Sの形状と、切羽Sに対するカメラ20の相対位置と、を予め把握することで、当該カメラ20によって切羽Sを撮像した対象画像内での切羽Sの形状は特定することも可能である。また、対象画像に対して画像処理を施して、切羽SとトンネルTの内壁との境界を検出して、対象画像内での切羽Sの形状を特定することも可能である。 Further, in the above embodiment, by comparing (fitting) the target image and the reference image, the shape of the face S in the target image is specified, and the relative position of the blast hole H with respect to the face S is grasped. In the above embodiment, the reference image is based on the designed shape of the face S, but for example, after actually imaging the face S, the shape of the face S in the image can be changed through image processing or processing. It may be detected manually by a person and used as a reference image. Moreover, the relative position of the blast hole H with respect to the face S is specified not limited to the method of comparing the target image and the reference image. Even without using a reference image, by understanding the actual shape of the face S and the relative position of the camera 20 with respect to the face S in advance, the face S in the target image captured by the camera 20 can be It is also possible to specify the shape of . It is also possible to perform image processing on the target image, detect the boundary between the face S and the inner wall of the tunnel T, and specify the shape of the face S in the target image.

また、上記実施形態では、処理検出部31は、機械学習済みの学習モデルによって対象画像内で掘削機10を検出するが、掘削機10の検出は、学習モデルを利用した画像処理に限定されない。なお、学習済みモデルを利用する場合には、掘削の対象となる地盤が更新・変更された場合には、当該地盤を撮像した画像にラベリングを施して新たな教師データを作成し、新たな教師データを追加学習させることが望ましい。 Further, in the embodiment described above, the processing detection unit 31 detects the excavator 10 in the target image using a machine-learned learning model, but the detection of the excavator 10 is not limited to image processing using the learning model. In addition, when using a trained model, if the ground to be excavated is updated or changed, new training data is created by labeling the image of the ground, and new training data is created. It is desirable to perform additional learning on data.

以上、本発明の実施形態について説明したが、上記実施形態は本発明の適用例の一部を示したに過ぎず、本発明の技術的範囲を上記実施形態の具体的構成に限定する趣旨ではない。 Although the embodiments of the present invention have been described above, the above embodiments merely show a part of the application examples of the present invention, and are not intended to limit the technical scope of the present invention to the specific configurations of the above embodiments. do not have.

上述した検出装置100における一連の処理は、コンピュータにこれを実行さるためのプログラムとして提供されてもよい。また、上述した一連の処理を実行するためのプログラムは、検出装置100によって読み取り可能な記憶媒体によって提供される。また、プログラムは、ネットワーク回線を通じて検出装置100に提供されてもよい。また、検出装置100が実行する各種プログラムは、例えばCD-ROM等の非一過性の記録媒体に記憶されたものを用いてもよい。 The series of processes in the detection device 100 described above may be provided as a program for a computer to execute. Further, a program for executing the series of processes described above is provided by a storage medium readable by the detection device 100. Further, the program may be provided to the detection device 100 through a network line. Further, the various programs executed by the detection device 100 may be stored in a non-transitory recording medium such as a CD-ROM.

100 検出装置
10 掘削機
20 カメラ(撮像部)
25 測定部
30 画像取得部
31 処理検出部
32 エネルギー情報取得部
33 位置特定部
34 エネルギー算出部
100 Detection device 10 Excavator 20 Camera (imaging unit)
25 Measuring unit 30 Image acquisition unit 31 Processing detection unit 32 Energy information acquisition unit 33 Position identification unit 34 Energy calculation unit

Claims (6)

アーム状の掘削機による地盤の掘削位置を検出する検出装置であって、
前記地盤及び前記掘削機を撮像した対象画像を取得する画像取得部と、
前記対象画像に画像処理を施して前記対象画像内の前記掘削機の先端部を検出する処理検出部と、
前記掘削機によって前記地盤を掘削する掘削エネルギー値の情報を前記対象画像と関連付けて取得するエネルギー情報取得部と、
所定の閾値以上の前記掘削エネルギー値が取得されると、関連付けられた前記対象画像内で検出された前記掘削機の前記先端部の位置を前記掘削位置として特定する位置特定部と、を備える、
ことを特徴とする検出装置。
A detection device for detecting the position of excavation in the ground by an arm-shaped excavator,
an image acquisition unit that acquires a target image of the ground and the excavator;
a processing detection unit that performs image processing on the target image to detect a tip of the excavator in the target image;
an energy information acquisition unit that acquires information on an excavation energy value for excavating the ground with the excavator in association with the target image;
a position specifying unit that specifies the position of the tip of the excavator detected in the associated target image as the excavation position when the excavation energy value that is equal to or greater than a predetermined threshold is acquired;
A detection device characterized by:
請求項1に記載の検出装置であって、
前記処理検出部は、教師データを用いて機械学習された学習済みモデルによって前記掘削機の前記先端部を検出する、
ことを特徴とする検出装置。
The detection device according to claim 1,
The processing detection unit detects the tip of the excavator using a trained model that is machine learned using teacher data.
A detection device characterized by:
請求項1又は2に記載の検出装置であって、
前記処理検出部は、前記掘削機の前記先端部、後端部、及び全体を検出するように構成され、前記先端部が検出できなかった場合には、前記後端部と前記全体との位置関係から前記先端部の位置を検出する、
ことを特徴とする検出装置。
The detection device according to claim 1 or 2,
The processing detection unit is configured to detect the front end, rear end, and the whole of the excavator, and when the front end cannot be detected, the position of the rear end and the whole is determined. detecting the position of the tip from the relationship;
A detection device characterized by:
請求項1又は2に記載の検出装置であって、
前記位置特定部は、画像内での前記地盤の形状が特定された基準画像と前記対象画像とを比較して前記対象画像内での前記地盤の形状を特定し、前記地盤と前記掘削位置との位置関係を特定する、
ことを特徴とする検出装置。
The detection device according to claim 1 or 2,
The position specifying unit specifies the shape of the ground in the target image by comparing the reference image in which the shape of the ground in the image is specified with the target image, and identifies the shape of the ground in the target image, and determines the relationship between the ground and the excavation position. identify the positional relationship of
A detection device characterized by:
請求項4に記載の検出装置であって、
前記地盤を複数の領域に分割し、各領域内に含まれる一又は複数の掘削位置での前記掘削エネルギー値に基づいて当該領域での前記掘削エネルギー値を算出するエネルギー算出部をさらに備える、
ことを特徴とする検出装置。
5. The detection device according to claim 4,
Further comprising an energy calculation unit that divides the ground into a plurality of regions and calculates the excavation energy value in the region based on the excavation energy value at one or more excavation positions included in each region,
A detection device characterized by:
アーム状の掘削機による地盤の掘削位置を検出する検出方法であって、
前記地盤及び前記掘削機を撮像した対象画像を取得し、
前記対象画像に画像処理を施して前記対象画像内の前記掘削機の先端部を検出し
前記掘削機によって前記地盤を掘削する掘削エネルギー値の情報を前記対象画像と関連付けて取得し、
所定の閾値以上の前記掘削エネルギー値が取得されると、関連付けられた前記対象画像内で検出された前記掘削機の前記先端部の位置を前記掘削位置として特定する、
ことを特徴とする検出方法。
A detection method for detecting the position of excavation in the ground by an arm-shaped excavator,
Obtaining a target image of the ground and the excavator;
performing image processing on the target image to detect the tip of the excavator in the target image; and acquiring information on an excavation energy value for excavating the ground by the excavator in association with the target image;
When the excavation energy value equal to or greater than a predetermined threshold is acquired, identifying the position of the tip of the excavator detected in the associated target image as the excavation position;
A detection method characterized by:
JP2022063096A 2022-04-05 2022-04-05 Detection device and detection method Pending JP2023153686A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022063096A JP2023153686A (en) 2022-04-05 2022-04-05 Detection device and detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022063096A JP2023153686A (en) 2022-04-05 2022-04-05 Detection device and detection method

Publications (1)

Publication Number Publication Date
JP2023153686A true JP2023153686A (en) 2023-10-18

Family

ID=88349659

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022063096A Pending JP2023153686A (en) 2022-04-05 2022-04-05 Detection device and detection method

Country Status (1)

Country Link
JP (1) JP2023153686A (en)

Similar Documents

Publication Publication Date Title
CN105917067B (en) Mine vehicle and the method for initializing mining activity task
CN101647023B (en) Method and apparatus for remote characterization of faults in the vicinity of boreholes
JP2019096014A (en) Determination device, determination program, and determination method
JP2020066843A (en) Tunnel deformation prediction method and deformation prediction system
JP2023153686A (en) Detection device and detection method
JP6788990B2 (en) Scraping management device
Jones et al. A method for determining field accuracy of mobile scanning devices for geomechanics applications
JP6820505B2 (en) Tunnel ground exploration method
CN112459136A (en) Deep foundation pit construction safety risk monitoring method, device, equipment and medium
CN117036399A (en) Non-contact penetration or dynamic detection test data acquisition method and terminal equipment
JP2022037786A (en) Ground property evaluation method and ground property evaluation system in front of face
JP7227843B2 (en) Vertical Shaft Construction Device and Vertical Shaft Construction Method
CN110107274B (en) Real-time online monitoring system and monitoring method for TBM (Tunnel boring machine) jumbolter based on hydraulic system
AU2022274080B2 (en) A system for tuning hydraulic components of a production digger
CN105863603B (en) A kind of localization method and system of drill jumbo automatic seeking point
JP6434375B2 (en) Rock exploration method and rock exploration device
CN212254178U (en) Rock lithology determination system
US20220259815A1 (en) System for determining content of work performed by construction machine and method for determining work
JP6923132B2 (en) Perforated navigation device
CN104048635B (en) Accumulated hole depth measuring system, measuring method and engineering machinery with accumulated hole depth measuring system
JP6923131B2 (en) Perforated navigation device
CN104636712B (en) Drilling slip status image automatic recognition system
KR20200128949A (en) Apparatus and method for predicting front geological features based on indicatingtendency to change according to measuring data for a blind end in a tunnel
JP7377391B1 (en) Estimation device, estimation method and program
JP2024143560A (en) Rock landing position prediction processing device and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240924