JP2020094469A - Construction machine management system, construction machine management program, construction machine management method, construction machine and external management device of construction machine - Google Patents
Construction machine management system, construction machine management program, construction machine management method, construction machine and external management device of construction machine Download PDFInfo
- Publication number
- JP2020094469A JP2020094469A JP2019075348A JP2019075348A JP2020094469A JP 2020094469 A JP2020094469 A JP 2020094469A JP 2019075348 A JP2019075348 A JP 2019075348A JP 2019075348 A JP2019075348 A JP 2019075348A JP 2020094469 A JP2020094469 A JP 2020094469A
- Authority
- JP
- Japan
- Prior art keywords
- construction
- construction machine
- machine
- construction site
- detection sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Operation Control Of Excavators (AREA)
- Component Parts Of Construction Machinery (AREA)
Abstract
Description
本発明は、建設機械管理システム、建設機械管理プログラム、建設機械管理方法、建設
機械および建設機械の外部管理装置に関する。
The present invention relates to a construction machine management system, a construction machine management program, a construction machine management method, a construction machine, and an external management device for the construction machine.
近年、建設施工現場においては、その施工現場エリアで用いられる建設機械による施工
箇所について、電子機器を利用してモニタするといったことが行われている。建設機械に
よる施工箇所を認識できれば、例えば、その認識結果を地形データと照合することにより
、施工中の作業管理等が可能となるからである。
2. Description of the Related Art In recent years, at a construction construction site, an electronic device is used to monitor a construction site of a construction machine used in the construction site area. This is because if the construction site by the construction machine can be recognized, for example, the work management during construction can be performed by collating the recognition result with the topographical data.
従来、建設機械による施工箇所のモニタは、例えば、トータルステーション(Total St
ation、以下「TS」ともいう。)として知られているレーザ発光装置を施工現場エリア
に設置し、そのレーザ発光装置が出射するレーザ光を利用して行われる(例えば、特許文
献1参照)。また、その他に、例えば、GPS(Global Positioning System)に代表さ
れる全球測位衛星システム(Global Navigation Satellite System、以下「GNSS」と
もいう。)を利用して行われることもある(例えば、特許文献2参照)。
Conventionally, the monitoring of the construction site by the construction machine is performed by, for example, the Total Station
ation, hereinafter also referred to as “TS”. ) Is installed in the construction site area, and the laser light emitted by the laser light emitting device is used (see, for example, Patent Document 1). In addition, for example, a Global Positioning Satellite System (hereinafter also referred to as “GNSS”) represented by GPS (Global Positioning System) may be used (for example, Patent Document 2). reference).
上述した従来技術では、建設機械による施工箇所のモニタが、TSまたはGNSSを利
用して行われる。つまり、建設機械からみたら外部システムとなるTSまたはGNSSを
利用しつつ、その建設機械についてのモニタが他律的に行われることになる。
In the above-mentioned conventional technique, the construction site is monitored by the construction machine by using TS or GNSS. That is, while using the TS or GNSS which is an external system from the viewpoint of the construction machine, the monitoring of the construction machine is heterogeneously performed.
しかしながら、外部システムを利用した他律的なモニタでは、以下のような難点が生じ
得る。例えば、TSまたはGNSSは総じて高価であり、また利用にあたり専門的な知識
を要するため、必ずしも建設機械についてのモニタを簡便に行えるとは言えない。また、
外部システムを利用する施工現場エリアの環境や条件等によっては、建設機械に届くはず
のレーザ光または衛星電波が遮られ、そのことがモニタ精度に悪影響を及ぼしてしまうお
それがある。
However, a heterogeneous monitor using an external system may have the following problems. For example, since TS or GNSS is generally expensive and requires specialized knowledge to use it, it cannot always be said that monitoring of construction machines can be performed easily. Also,
Depending on the environment and conditions of the construction site area where the external system is used, laser light or satellite radio waves that should reach the construction machine may be blocked, which may adversely affect the monitoring accuracy.
そこで、本発明は、建設機械による施工箇所をその建設機械からみて自律的にモニタす
ることで、当該モニタを簡便かつ高精度に行うことを可能にする技術を提供することを目
的とする。
Therefore, it is an object of the present invention to provide a technology that enables the construction site to be monitored easily and accurately by monitoring the construction site of the construction machine autonomously as viewed from the construction machine.
本発明は、上記目的を達成するために案出されたもので、その一態様は以下のとおりで
ある。
The present invention has been devised to achieve the above object, and one mode thereof is as follows.
本発明の一態様によれば、
施工現場エリアを移動可能な建設機械に搭載される検出センサ部と、
前記施工現場エリアに設置された外部指標についての前記検出センサ部での検出結果と
、前記建設機械が有する可動作業具に付された可動指標についての前記検出センサ部での
検出結果とを基に、前記施工現場エリアでの前記可動作業具による施工箇所の位置情報を
認識する位置認識部と、
を備える建設機械管理システムが提供される。
According to one aspect of the invention,
A detection sensor unit mounted on a construction machine that can move in the construction site area,
Based on the detection result of the detection sensor section for the external index installed in the construction site area, and the detection result of the detection sensor section for the movable index attached to the movable work tool of the construction machine A position recognition unit that recognizes position information of a construction site by the movable work tool in the construction site area,
A construction machine management system is provided.
本発明によれば、建設機械に搭載される検出センサ部の利用により、その建設機械によ
る施工箇所を自律的にモニタし得るので、当該モニタを簡便かつ高精度に行うことが可能
になる。
According to the present invention, by utilizing the detection sensor unit mounted on the construction machine, the construction site of the construction machine can be autonomously monitored, so that the monitoring can be performed easily and highly accurately.
以下、本発明の実施形態について図面を参照しながら説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
<1.基本的な技術思想の概要>
まず、本発明の基本的な技術思想について、その概要を説明する。
図1は、本発明の基本的な技術思想が適用される建設機械管理システムの概略構成例を
示す機能ブロック図である。
<1. Overview of basic technical ideas>
First, an outline of the basic technical idea of the present invention will be described.
FIG. 1 is a functional block diagram showing a schematic configuration example of a construction machine management system to which the basic technical idea of the present invention is applied.
(システムの概要)
図例の建設機械管理システムは、建設施工現場の施工現場エリア1で用いられる建設機
械2について、その建設機械2が有する可動作業具3による施工箇所をモニタして、その
モニタ結果(すなわち、施工箇所についての認識結果)を取得するように構成されたもの
である。さらには、建設機械2による施工箇所のモニタ結果を取得したら、そのモニタ結
果に基づいて施工中の作業管理等を行い得るように構成されたものである。
(System overview)
The construction machine management system of the illustrated example monitors the construction location of the construction machine 2 used in the construction site area 1 of the construction construction site by the movable work implement 3 included in the construction machine 2 and displays the monitoring result (that is, construction). It is configured to acquire the recognition result) about the location. Further, when the monitoring result of the construction site by the construction machine 2 is acquired, the work management during the construction can be performed based on the monitoring result.
ここで、施工現場エリア1とは、建設機械2を用いた施工の対象となる領域のことであ
る。施工とは、建設機械2を用いて行う工事または処理のことをいう。施工の内容(種類
)については、建設機械2を用いて行うものであれば、特に限定されることはない。
また、施工現場エリア1については、施工後の状態(例えば工事後の地形)についての
設計データに相当する施工計画データが予め用意されているものとする。施工計画データ
は、施工後状態を特定し得るものであれば、データ形式等が特に限定されることはない。
なお、施工現場エリア1における施工前状態または施工中状態と、施工計画データによ
って特定される施工後状態とは、例えばその施工現場エリア1内に設定された基準点を利
用することで、互いに対応付けられるようになっている。
Here, the construction site area 1 is an area to be constructed using the construction machine 2. Construction refers to construction or processing performed using the construction machine 2. The content (type) of construction is not particularly limited as long as the construction machine 2 is used.
In addition, for the construction site area 1, it is assumed that construction plan data corresponding to design data regarding a state after construction (for example, topography after construction) is prepared in advance. The construction plan data is not particularly limited in data format as long as it can specify the post-construction state.
Note that the pre-construction state or the construction-in-progress state in the construction site area 1 and the post-construction state specified by the construction plan data correspond to each other, for example, by using the reference point set in the construction site area 1. It is designed to be attached.
施工現場エリア1の施工を行う建設機械2は、その施工現場エリア1内の任意位置に移
動可能に構成されている。施工現場エリア1内の移動は、自走によるものであってもよい
し、他の動力源を利用するものであってもよい。また、建設機械2は、停止状態または移
動中に動作させることが可能な可動作業具3を有しており、その可動作業具3を動作させ
ることで、施工現場エリア1に対する施工を行うように構成されている。このような建設
機械2において、可動作業具3による施工箇所は、その可動作業具3が実際に被施工物(
例えば地面)と接する箇所となる。
The construction machine 2 that performs construction on the construction site area 1 is configured to be movable to an arbitrary position within the construction site area 1. The movement within the construction site area 1 may be self-propelled or may use another power source. Further, the construction machine 2 has a movable work tool 3 that can be operated during a stopped state or during movement, and by operating the movable work tool 3, it is possible to perform construction on the construction site area 1. It is configured. In such a construction machine 2, the construction site of the movable work tool 3 is actually the work (
For example, it will be a place that contacts the ground).
このような建設機械2については、代表的な例として、油圧ショベルやブルドーザ等と
いった土木用途の建設機械が挙げられる。例えば、油圧ショベルであれば、アームの先端
に取り付けられたバケット(ショベル)が、可動作業具3に相当することになる。ただし
、ここでいう建設機械2は、土木用途に限定されることはなく、可動作業具3を有して移
動可能に構成されたものであれば、広義な意味での様々な作業機械が含まれる。例えば、
ここでいう建設機械2には、油圧ショベルやブルドーザ等の土木用途機械の他に、トラッ
クやローダ等の運搬機械、クレーン等の荷役機械、基礎工事用機械、せん孔機械、トンネ
ル工事用機械、圧砕機等のコンクリート機械、舗装機械、道路維持用機械等が含まれ、さ
らには圧雪車や自走型草刈機についても含まれ得る。
As a typical example of such a construction machine 2, a construction machine for civil engineering such as a hydraulic excavator or a bulldozer can be given. For example, in the case of a hydraulic excavator, a bucket (excavator) attached to the tip of the arm corresponds to the movable work implement 3. However, the construction machine 2 here is not limited to civil engineering applications, and includes various work machines in a broad sense as long as the construction machine 2 has the movable work tool 3 and is movable. Be done. For example,
The construction machine 2 here includes, in addition to civil engineering machines such as hydraulic excavators and bulldozers, transport machines such as trucks and loaders, cargo handling machines such as cranes, foundation construction machines, punching machines, tunnel construction machines, and crushing machines. This includes concrete machines such as machines, paving machines, road maintenance machines, etc., and may also include snow plows and self-propelled mowers.
(発明者が得た知見)
ところで、建設機械2の可動作業具3による施工箇所のモニタにあたっては、そのモニ
タを簡便かつ高精度に行えることが好ましい。しかしながら、既述の従来技術によるモニ
タでは、外部システムを利用して他律的に行うため、必ずしもモニタを簡便かつ高精度に
行えるとは限らない。
(Findings obtained by the inventor)
By the way, when monitoring the construction site by the movable work tool 3 of the construction machine 2, it is preferable that the monitoring can be performed easily and with high accuracy. However, the monitor according to the above-described conventional technique does not necessarily perform monitoring easily and with high accuracy because it is performed heterogeneously using an external system.
施工箇所のモニタは、例えば、そのモニタ結果に基づいて施工中の作業管理等を可能に
するために行う。よって、モニタによる施工箇所の位置認識は、数mオーダーの精度では
足りず、少なくとも数cmオーダーの高精度で行う必要がある。このような高精度でのモ
ニタを行う場合、非常に高価であるTSまたはGNSSを利用すれば対応可能であるが、
非常に高価であるが故に必ずしも簡単に導入し得るものではない。しかも、TSまたはG
NSSの利用にあたり専門的な知識を要するため、利便性の点でも難がある。つまり、T
SまたはGNSSといった外部システムを利用して高精度でモニタを行う場合には、その
モニタを必ずしも簡便に行えるとは言えない。
The monitoring of the construction site is performed, for example, to enable work management during construction based on the monitoring result. Therefore, the position recognition of the construction site by the monitor needs to be performed with high accuracy of at least several cm, which is not enough with the accuracy of several m. When monitoring with such high accuracy, it is possible to use TS or GNSS, which is very expensive,
Since it is very expensive, it is not always easy to introduce. Moreover, TS or G
Since it requires specialized knowledge to use NSS, it is difficult to use it. That is, T
When an external system such as S or GNSS is used to perform monitoring with high accuracy, the monitoring cannot always be said to be simple.
また、施工現場エリア1については、様々な環境下や条件下等に設定されることが想定
される。具体的には、例えば、市街地のようにレーザ光の照射を控えるべき場所に施工現
場エリア1が設定されたり、地下空間のように衛星電波が届かない場所に施工現場エリア
1が設定されたりすることがあり得る。そのため、外部システムを利用してモニタを行う
場合、施工現場エリア1の環境や条件等によってはレーザ光または衛星電波が遮られ、そ
のことがモニタ精度に悪影響を及ぼしてしまうおそれがある。
Further, it is assumed that the construction site area 1 is set under various environments or conditions. Specifically, for example, the construction site area 1 is set in a place where the irradiation of laser light should be refrained from, such as an urban area, or the construction site area 1 is set in a place where satellite radio waves cannot reach, such as an underground space. It is possible. Therefore, when monitoring is performed using an external system, laser light or satellite radio waves may be blocked depending on the environment and conditions of the construction site area 1, which may adversely affect the monitoring accuracy.
これらのことを踏まえた上で鋭意検討を重ねた結果、本願の発明者は、建設機械2に搭
載される検出センサ部11の利用により、建設機械2による施工箇所をその建設機械2か
らみて自律的にモニタすることで、当該モニタを簡便かつ高精度に行うことが可能になる
のではないかという着想を得るに至った。つまり、ここで説明する基本的な技術思想は、
外部システムを利用した他律的なモニタではなく、建設機械2による施工箇所をその建設
機械2が自律的にモニタするという、従来にはない新規な着想に基づいて案出されたもの
である。
As a result of earnestly studying on the basis of these things, the inventor of the present application uses the detection sensor unit 11 mounted on the construction machine 2 to autonomously see the construction site of the construction machine 2 from the viewpoint of the construction machine 2. The idea that it becomes possible to perform the monitoring simply and with high accuracy by performing the automatic monitoring has been obtained. In other words, the basic technical idea explained here is
It was devised on the basis of a new idea that the construction machine 2 autonomously monitors the construction site of the construction machine 2, rather than a heterogeneous monitor using an external system.
(システム構成例)
具体的には、図1に示すように、建設機械管理システムが以下のような構成を備えてい
る。すなわち、建設機械管理システムは、少なくとも、建設機械に搭載される検出センサ
部11と、外部管理装置20との間で情報授受を行う情報通信部12と、検出センサ部1
1および情報通信部12に接続されたコンピュータ部13と、を備えている。
(Example of system configuration)
Specifically, as shown in FIG. 1, the construction machine management system has the following configuration. That is, the construction machine management system includes at least the detection sensor section 11 mounted on the construction machine, the information communication section 12 for exchanging information with the external management apparatus 20, and the detection sensor section 1.
1 and a computer unit 13 connected to the information communication unit 12.
検出センサ部11は、建設機械2または当該建設機械2が有する可動作業具3の位置、
姿勢または方位を検出するために用いられるものである。ここでいう位置とは、施工現場
エリア1を三次元座標空間と考えた場合の座標位置である。姿勢とは、水平面に対する傾
きの量である。方位とは、移動方向または可動方向の向きである。
このような検出センサ部11としては、例えば、イメージセンサ(カメラ)、傾斜計、
加速度センサ、ジャイロセンサ(角加速度センサ)の少なくとも一つ、好ましくはこれら
を適宜組み合わせて構成されたものが挙げられる。また、検出センサ部11として、単独
計測タイプのGPS装置を複数用いることも考えられる。
The detection sensor unit 11 includes a position of the construction machine 2 or a movable work tool 3 of the construction machine 2,
It is used to detect a posture or an azimuth. The position here is a coordinate position when the construction site area 1 is considered as a three-dimensional coordinate space. The posture is the amount of inclination with respect to the horizontal plane. The azimuth is the direction of movement or movement.
As such a detection sensor unit 11, for example, an image sensor (camera), an inclinometer,
At least one of an acceleration sensor and a gyro sensor (angular acceleration sensor), and preferably a combination of these may be used. It is also possible to use a plurality of single measurement type GPS devices as the detection sensor unit 11.
情報通信部12は、外部管理装置20との間の通信を確立するためのものである。この
ような情報通信部12としては、例えば、LTE(Long Term Evolution)回線、Wi−
Fi(Wireless Fidelity)、ブルートゥース(登録商標)等といった公知の無線通信技
術を利用して、外部管理装置20との通信を確立するものを用いればよい。
情報通信部12の通信相手となる外部管理装置20としては、例えば、建設機械2とは
離れて(施工現場エリア1内または施工現場エリア1外の別を問わず)配置されるコンピ
ュータ装置が挙げられる。ただし、これに限定されることはなく、コンピュータ装置と同
視できる機能を有していれば、例えば、可搬性を有するタブレット端末を外部管理装置2
0としてもよい。外部管理装置20が可搬性を有する場合、その外部管理装置20を持つ
者は、建設機械2に搭乗した状態においても、その外部管理装置20を利用することが可
能となる。
The information communication unit 12 is for establishing communication with the external management device 20. As such an information communication unit 12, for example, an LTE (Long Term Evolution) line, Wi-
A known wireless communication technique such as Fi (Wireless Fidelity) or Bluetooth (registered trademark) may be used to establish communication with the external management device 20.
Examples of the external management device 20 that is a communication partner of the information communication unit 12 include a computer device that is arranged apart from the construction machine 2 (whether inside the construction site area 1 or outside the construction site area 1). Be done. However, the present invention is not limited to this, and a tablet terminal having portability may be used as long as it has a function that can be regarded as a computer device.
It may be 0. When the external management device 20 is portable, a person who has the external management device 20 can use the external management device 20 even when the external management device 20 is on the construction machine 2.
コンピュータ部13は、例えば、いわゆるシングルボードコンピュータ(Single Board
Computer、以下「SBC」ともいう。)を用いて構成されたもので、予め設定された所
定プログラムを実行することにより、以下に述べる機能を実現するように構成されたもの
である。すなわち、コンピュータ部13は、コンピュータとしてのハードウエア資源を備
えており、所定プログラムを実行することで、そのプログラム(ソフトウエア)とハード
ウエア資源とが協働して、位置認識部13a、データ取得部13b、差分情報抽出部13
c、ガイダンス出力部13d、動作計画生成部13eおよび動作指示部13fとして機能
するように構成されている。
The computer unit 13 is, for example, a so-called single board computer.
Computer, hereinafter also referred to as "SBC". ) Is used to implement the functions described below by executing a predetermined program set in advance. That is, the computer unit 13 includes hardware resources as a computer, and by executing a predetermined program, the program (software) and the hardware resources cooperate with each other, and the position recognition unit 13a and the data acquisition unit. Unit 13b, difference information extraction unit 13
c, the guidance output unit 13d, the operation plan generation unit 13e, and the operation instruction unit 13f.
位置認識部13aは、施工現場エリア1に設置された外部指標1aについての検出セン
サ部11での検出結果と、建設機械2が有する可動作業具3に付された可動指標3aにつ
いての検出センサ部11での検出結果とを基に、施工現場エリア1での建設機械2の可動
作業具3による施工箇所の位置情報を認識する機能である。
外部指標1aとしては、例えば、施工現場エリア1内の基準点に設置された標尺、また
はこれに準ずるものを用いる。外部指標1aは、施工現場エリア1に単数が設置されてい
てもよいし、複数が設置されていてもよい。
外部指標1aを検出する検出センサ部11としては、例えば、外部指標1aの画像を撮
像するイメージセンサ(カメラ)を用いる。その場合に、外部指標1aには、画像パター
ンで識別される二次元のマーカ図形、または、発光パターンで識別される二次元の発光面
を有する発光器、若しくは、発光パターンの一例としての点滅パターンで識別される点光
源を有する発光器が付設されていると、当該外部指標1aの識別が容易になる点で好まし
い。ただし、外部指標1aを検出可能であれば、イメージセンサ以外の検出センサ部11
を用いてもよい。
また、可動指標3aは、建設機械2の可動作業具3に予め付設されているものとする。
可動作業具3についての検出は、外部指標1aの場合と同様に、例えば、可動作業具3
に関する画像を撮像するイメージセンサ(カメラ)を用いる。その場合に、可動作業具3
には、可動指標3aとして、外部指標1aとは異なるパターンの二次元のマーカ図形、ま
たは、外部指標1aとは異なるパターンの二次元の発光面を有する発光器、若しくは、外
部指標1aとは異なる点滅パターンの点光源を有する発光器が付設されていると、当該可
動作業具3についての検出および当該可動指標3aの識別が容易になる点で好ましい。ま
た、可動指標3aの検出は、外部指標1aの場合と同様に、イメージセンサ以外の検出セ
ンサ部11を用いて行ってもよい。
The position recognition unit 13a detects the detection result of the external index 1a installed in the construction site area 1 by the detection sensor unit 11 and the detection sensor unit of the movable index 3a attached to the movable work tool 3 of the construction machine 2. It is a function of recognizing the position information of the construction site by the movable work implement 3 of the construction machine 2 in the construction site area 1 based on the detection result of 11.
As the external index 1a, for example, a staff installed at a reference point in the construction site area 1 or something similar thereto is used. A single external index 1a may be installed in the construction site area 1, or a plurality of external indexes 1a may be installed.
As the detection sensor unit 11 that detects the external index 1a, for example, an image sensor (camera) that captures an image of the external index 1a is used. In that case, the external index 1a includes a two-dimensional marker figure identified by an image pattern, a light emitter having a two-dimensional light emitting surface identified by a light emitting pattern, or a blinking pattern as an example of a light emitting pattern. It is preferable that a light-emitting device having a point light source identified by is attached because it facilitates identification of the external index 1a. However, if the external index 1a can be detected, the detection sensor unit 11 other than the image sensor 11
May be used.
Further, the movable index 3a is assumed to be attached to the movable work tool 3 of the construction machine 2 in advance.
The movable work tool 3 is detected by, for example, the movable work tool 3 as in the case of the external index 1a.
An image sensor (camera) that captures an image of the image is used. In that case, the movable work implement 3
In addition, as the movable index 3a, a two-dimensional marker figure having a pattern different from that of the external index 1a, or a light emitter having a two-dimensional light emitting surface having a pattern different from that of the external index 1a, or different from the external index 1a. It is preferable to additionally provide a light emitting device having a point light source with a blinking pattern, because detection of the movable work tool 3 and identification of the movable index 3a become easy. Further, the detection of the movable index 3a may be performed using the detection sensor unit 11 other than the image sensor, as in the case of the external index 1a.
そして、位置認識部13aは、外部指標1aについての検出結果と、可動指標3aにつ
いての検出結果とを基に、例えば詳細を後述する測量技術を利用しつつ、少なくとも建設
機械2の可動作業具3による施工箇所の位置を認識する。これにより、可動作業具3によ
る施工箇所について、施工現場エリア1(三次元座標空間)内の座標位置を認識すること
ができる。
なお、位置認識部13aは、施工箇所の位置に加えて、傾斜計やジャイロセンサ等とい
った検出センサ部11での検出結果を基に、建設機械2の姿勢または方位を認識するもの
であってもよい。つまり、位置認識部13aが認識する位置情報には、少なくとも建設機
械2の位置に関する情報が含まれており、さらに好ましくは位置に加えて姿勢や方位等の
情報が含まれているものとする。
Then, the position recognition unit 13a uses at least the movable technique 3 of the construction machine 2 based on the detection result of the external index 1a and the detection result of the movable index 3a, for example, using a surveying technique described in detail later. Recognize the position of the construction site. As a result, it is possible to recognize the coordinate position in the construction site area 1 (three-dimensional coordinate space) for the construction site by the movable work implement 3.
The position recognition unit 13a may recognize the posture or orientation of the construction machine 2 based on the detection result of the detection sensor unit 11 such as an inclinometer or a gyro sensor in addition to the position of the construction site. Good. That is, it is assumed that the position information recognized by the position recognizing unit 13a includes at least information regarding the position of the construction machine 2, and more preferably includes information such as posture and orientation in addition to the position.
データ取得部13bは、施工現場エリア1についての施工計画データ(設計データ)を
取得する機能である。施工計画データの取得手法については、特に限定されることはなく
、例えば、コンピュータ部13における記憶領域に施工計画データを予め格納しておくこ
とで取得可能としてもよいし、情報通信部12を通じて外部から取得し得るようにしても
よい。
The data acquisition unit 13b has a function of acquiring construction plan data (design data) for the construction site area 1. The method of acquiring the construction plan data is not particularly limited. For example, the construction plan data may be acquired by storing the construction plan data in a storage area of the computer unit 13 in advance, or through the information communication unit 12 to the outside. May be obtained from
差分情報抽出部13cは、位置認識部13aでの認識結果を建設機械2の可動作業具3
による施工箇所のモニタ結果として得た上で、そのモニタ結果をデータ取得部13bが取
得した施工計画データと対比して、施工計画データに対する可動作業具3による施工箇所
の差分を差分情報として抽出する機能である。差分情報の抽出手法については、特に限定
されることはなく、例えば、公知の演算手法を利用して行えばよい。
The difference information extraction unit 13c uses the recognition result of the position recognition unit 13a as the movable work implement 3 of the construction machine 2.
Is obtained as a monitoring result of the construction site, and the monitoring result is compared with the construction plan data acquired by the data acquisition unit 13b, and the difference of the construction site by the movable work implement 3 with respect to the construction plan data is extracted as difference information. It is a function. The method for extracting the difference information is not particularly limited, and for example, a known calculation method may be used.
ガイダンス出力部13dは、差分情報抽出部13cが抽出した差分情報を基に可動作業
具3の操作ガイダンス情報を生成するとともに、生成した操作ガイダンス情報の出力を行
う機能である。操作ガイダンス情報は、建設機械2の可動作業具3による施工箇所を施工
計画データに合致させるために、当該建設機械2において必要となる操作を案内する情報
である。このような操作ガイダンス情報の生成および出力は、建設機械の技術分野でいわ
ゆるマシンガイダンスとして知られている公知技術を利用して行えばよい。なお、操作ガ
イダンス情報の出力先としては、例えば、建設機械2のオペレータが操作する操作パネル
、またはこれに準ずるものが挙げられるが、これに限定されることはなく、情報通信部1
2を通じて外部管理装置20に出力しても構わない。
The guidance output unit 13d has a function of generating operation guidance information of the movable work implement 3 based on the difference information extracted by the difference information extraction unit 13c, and outputting the generated operation guidance information. The operation guidance information is information for guiding an operation required on the construction machine 2 in order to match the construction site of the movable work implement 3 of the construction machine 2 with the construction plan data. Generation and output of such operation guidance information may be performed using a known technique known as so-called machine guidance in the technical field of construction machinery. The output destination of the operation guidance information may be, for example, an operation panel operated by an operator of the construction machine 2 or something similar thereto, but is not limited to this, and the information communication unit 1 may be used.
2 may be output to the external management device 20.
動作計画生成部13eは、差分情報抽出部13cが抽出した差分情報を基に、建設機械
2における可動作業具3の動作計画情報を生成する機能である。動作計画情報は、建設機
械2の可動作業具3による施工箇所を施工計画データに合致させるために、当該可動作業
具3をどのように動作させればよいかを特定する情報である。つまり、動作計画情報は、
建設機械2の動作の自動制御(運転の自動化)を実現するために必要となる情報である。
なお、ここでいう自動制御は、建設機械の技術分野でいわゆるマシンコントロールとして
知られている公知技術を利用して実現したものであればよい。
The motion plan generation unit 13e has a function of generating motion plan information of the movable work implement 3 in the construction machine 2 based on the difference information extracted by the difference information extraction unit 13c. The motion plan information is information that specifies how to move the movable work tool 3 in order to match the construction site of the movable work tool 3 of the construction machine 2 with the construction plan data. In other words, the operation plan information is
This is information necessary to realize automatic control of operation of the construction machine 2 (automation of operation).
It should be noted that the automatic control here may be realized by using a known technique known as so-called machine control in the technical field of construction machinery.
動作指示部13fは、動作計画生成部13eが生成した動作計画情報を基に、建設機械
2が有する駆動制御部4に対する動作指示を与える機能である。動作指示部13fが動作
指示を与えると、建設機械2では、その動作指示に従いつつ、駆動制御部4が可動作業具
3を動作させることになる。なお、建設機械2への動作指示は、上述した自動制御の一端
を担うものであり、いわゆるマシンコントロールとして知られている公知技術を利用して
実現したものであればよい。
The operation instruction unit 13f is a function that gives an operation instruction to the drive control unit 4 included in the construction machine 2 based on the operation plan information generated by the operation plan generation unit 13e. When the operation instruction section 13f gives an operation instruction, in the construction machine 2, the drive control section 4 operates the movable work implement 3 while following the operation instruction. The operation instruction to the construction machine 2 plays a part of the automatic control described above, and may be realized by using a known technique known as so-called machine control.
以上に説明した各部13a〜13fとしての機能は、コンピュータ部13が所定プログ
ラムを実行することによって実現される。つまり、各部(各手段)13a〜13fとして
の機能を実現する所定プログラムは、本発明に係る「建設機械管理プログラム」の一実施
形態に相当する。その場合に、各機能を実現する所定プログラムは、コンピュータ部13
にインストール可能なものであれば、当該コンピュータ部13で読み取り可能な記録媒体
(例えば、磁気ディスク、光ディスク、光磁気ディスク、半導体メモリ等)に格納されて
提供されるものであってもよいし、インターネットや専用回線等のネットワークを通じて
外部から提供されるものであってもよい。
The functions of the respective units 13a to 13f described above are realized by the computer unit 13 executing a predetermined program. That is, the predetermined program that realizes the functions of the units (each unit) 13a to 13f corresponds to an embodiment of the "construction machine management program" according to the present invention. In that case, the predetermined program that realizes each function is the computer unit 13
May be provided by being stored in a recording medium (for example, a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, etc.) that can be read by the computer unit 13 as long as it can be installed in It may be provided from the outside through a network such as the Internet or a dedicated line.
なお、ここでは、コンピュータ部13が各部13a〜13fとしての機能の全てを備え
ている場合を例に挙げているが、必ずしもこれに限定されることはなく、コンピュータ部
13は少なくとも位置認識部13aとしての機能を備えたものであればよい。位置認識部
13aを除く他の各部13b〜13fとしての機能については、コンピュータ部13では
なく外部管理装置20が備えていてもよいし、コンピュータ部13と外部管理装置20と
が重複して備えていてもよいし、コンピュータ部13と外部管理装置20とのいずれも備
えていなくてもよい。
Note that, here, the case where the computer unit 13 has all of the functions as the respective units 13a to 13f is taken as an example, but the present invention is not limited to this, and the computer unit 13 is at least the position recognition unit 13a. Anything can be used as long as it has the function as. Functions other than the position recognition unit 13a, such as the units 13b to 13f, may be included in the external management device 20 instead of the computer unit 13, or may be included in the computer unit 13 and the external management device 20. Alternatively, neither the computer unit 13 nor the external management device 20 may be provided.
(処理動作例)
続いて、上述した構成の建設機械管理システムにおける処理動作を説明する。ここで例
に挙げる処理動作は、建設機械管理方法の一具体例に相当する。
(Example of processing operation)
Next, a processing operation in the construction machine management system having the above-mentioned configuration will be described. The processing operation described here as an example corresponds to a specific example of a construction machine management method.
施工現場エリア1において建設機械2を用いて施工を行う場合には、まず、その建設機
械2の移動後の位置において、建設機械2に搭載される検出センサ部11により、施工現
場エリア1内の基準点に設置された外部指標1aについての検出を行う。例えば、検出セ
ンサ部11としてイメージセンサを用いる場合であれば、外部指標1aの画像を撮像でき
るまで、その外部指標1aについての検出を継続的に行う。複数の外部指標1aが設置さ
れている場合には、少なくとも一つの外部指標1aを検出する。
When performing construction using the construction machine 2 in the construction site area 1, first, at the position after the movement of the construction machine 2, the detection sensor unit 11 mounted on the construction machine 2 causes The external index 1a installed at the reference point is detected. For example, if an image sensor is used as the detection sensor unit 11, the external index 1a is continuously detected until an image of the external index 1a can be captured. When a plurality of external indexes 1a are installed, at least one external index 1a is detected.
また、検出センサ部11は、建設機械2の移動後の位置において、外部指標1aの検出
に加えて、可動指標3aについての検出も行う。
Further, the detection sensor unit 11 detects not only the external index 1a but also the movable index 3a at the position after the construction machine 2 is moved.
そして、検出センサ部11が外部指標1aおよび可動指標3aを検出したら、これらの
検出結果を基に、例えば詳細を後述する測量技術を利用しつつ、建設機械2の可動作業具
3による施工箇所の位置を認識する。これにより、位置認識部13aは、可動作業具3に
よる施工箇所について、施工現場エリア1内における位置(三次元座標値)を認識するこ
とになる。このとき、位置認識部13aは、必要に応じて、可動作業具3の姿勢または方
位についても認識する。
Then, when the detection sensor unit 11 detects the external index 1a and the movable index 3a, based on these detection results, for example, using a surveying technique described later in detail, the construction location of the movable work tool 3 of the construction machine 2 is determined. Recognize position. As a result, the position recognition unit 13a recognizes the position (three-dimensional coordinate value) in the construction site area 1 with respect to the construction site by the movable work tool 3. At this time, the position recognition unit 13a also recognizes the posture or orientation of the movable work tool 3 as necessary.
このようにして得た認識結果によれば、建設機械2が有する可動作業具3による施工箇
所について、基準点を基準とした場合の施工現場エリア1内の絶対的な位置(必要に応じ
て姿勢または方位を含む。)を特定することが可能となる。つまり、建設機械2に搭載さ
れる検出センサ部11を利用しつつ、外部指標1aおよび可動指標3aの検出結果に基づ
く位置認識部13aでの認識処理を経ることで、TSまたはGNSSといった外部システ
ムを要することなく、建設機械2による施工箇所を、その建設機械2からみて自律的にモ
ニタし得るようになる。
According to the recognition result obtained in this way, regarding the construction site by the movable work tool 3 of the construction machine 2, the absolute position in the construction site area 1 when the reference point is used as a reference (posture as necessary Or including the direction) can be specified. That is, by utilizing the detection sensor unit 11 mounted on the construction machine 2 and performing recognition processing by the position recognition unit 13a based on the detection results of the external index 1a and the movable index 3a, an external system such as TS or GNSS can be installed. It becomes possible to autonomously monitor the construction site by the construction machine 2 as viewed from the construction machine 2 without needing to do so.
位置認識部13aでの認識処理を経て、建設機械2の可動作業具3による施工箇所のモ
ニタ結果を得たら、差分情報抽出部13cが、そのモニタ結果をデータ取得部13bが取
得した施工計画データと対比して、当該施工計画データとの差分情報を抽出する。差分情
報抽出部13cが差分情報を抽出したら、以下のようなマシンガイダンス処理動作または
マシンコントロール処理動作を行うことが可能となる。
When the monitoring result of the construction site by the movable work implement 3 of the construction machine 2 is obtained through the recognition processing by the position recognition unit 13a, the difference information extraction unit 13c causes the data acquisition unit 13b to acquire the monitoring result. In contrast to this, the difference information with the construction plan data is extracted. When the difference information extracting unit 13c extracts the difference information, the following machine guidance processing operation or machine control processing operation can be performed.
マシンガイダンス処理動作を行う場合には、差分情報抽出部13cが抽出した差分情報
を基に、ガイダンス出力部13dが操作ガイダンス情報を生成する。そして、生成した操
作ガイダンス情報を、例えば、建設機械2の操作パネルまたはこれに準ずるもので出力す
る。これにより、建設機械2のオペレータは、操作パネルの出力内容を参照することで、
施工計画データによる施工内容、当該建設機械2の姿勢や動き等を把握しつつ、当該建設
機械2(すなわち自機)の操作を行うことができる。したがって、オペレータにとっては
、建設機械2の可動作業具3による施工箇所を施工計画データに合致させる上で、非常に
利便性に優れたものとなる。なお、操作ガイダンス情報の出力先は、情報通信部12を介
して接続された外部管理装置20であってもよい。その場合には、例えば、建設機械2を
実際に操作するオペレータが非熟練者であっても、建設機械2とは離れて配置される外部
管理装置20の出力内容を参照した熟練者が、建設機械2による施工の状況を把握しつつ
、非熟練者に対して操作の助言を行うといったことが実現可能となる。
When performing the machine guidance processing operation, the guidance output unit 13d generates operation guidance information based on the difference information extracted by the difference information extraction unit 13c. Then, the generated operation guidance information is output by, for example, the operation panel of the construction machine 2 or something similar thereto. Thereby, the operator of the construction machine 2 refers to the output content of the operation panel,
It is possible to operate the construction machine 2 (that is, its own machine) while grasping the construction contents based on the construction plan data, the posture and movement of the construction machine 2, and the like. Therefore, it is very convenient for the operator to match the construction site of the movable work implement 3 of the construction machine 2 with the construction plan data. The output destination of the operation guidance information may be the external management device 20 connected via the information communication unit 12. In that case, for example, even if the operator who actually operates the construction machine 2 is an unskilled person, a skilled person who refers to the output content of the external management device 20 arranged apart from the construction machine 2 may It becomes feasible to give an operation advice to an unskilled person while grasping the situation of construction by the machine 2.
マシンコントロール処理動作を行う場合には、差分情報抽出部13cが抽出した差分情
報を基に、その差分情報による差分を低減させるように、動作計画生成部13eが動作計
画情報を生成する。そして、動作計画生成部13eが生成した動作計画情報を基に、動作
指示部13fが建設機械2の駆動制御部4に対して動作指示を与える。これにより、建設
機械2は、可動作業具3による施工箇所を施工計画データに合致させるように、当該建設
機械2(すなわち自機)の動作や姿勢等が自動運転されることになる。なお、建設機械2
の自動運転を行う場合、差分情報抽出部13cが抽出した差分情報や動作計画生成部13
eが生成した動作計画情報等を、情報通信部12を介して接続された外部管理装置20に
出力し、その外部管理装置20から建設機械2の動作や姿勢等を補助的に制御し得るよう
にしてもよい。このようにすれば、例えば、外部管理装置20を操作する熟練者が、建設
機械2による施工の状況を把握しつつ、当該建設機械2に対する制御内容を適宜修正する
ことが可能となるので、当該建設機械2の自動運転についての精度や信頼性等の向上が図
れるようになる。
When performing the machine control processing operation, the operation plan generation unit 13e generates the operation plan information based on the difference information extracted by the difference information extraction unit 13c so as to reduce the difference due to the difference information. Then, the operation instruction unit 13f gives an operation instruction to the drive control unit 4 of the construction machine 2 based on the operation plan information generated by the operation plan generation unit 13e. As a result, the construction machine 2 is automatically operated in terms of operation, posture, etc. of the construction machine 2 (that is, its own machine) so that the construction site by the movable work implement 3 matches the construction plan data. Construction machine 2
In the case of performing the automatic driving of the above, the difference information extracted by the difference information extraction unit 13c and the operation plan generation unit 13
The operation plan information and the like generated by e are output to the external management device 20 connected via the information communication unit 12, so that the operation and posture of the construction machine 2 can be supplementarily controlled from the external management device 20. You can With this configuration, for example, an expert operating the external management device 20 can appropriately correct the control content for the construction machine 2 while grasping the status of the construction by the construction machine 2, The accuracy and reliability of the automatic operation of the construction machine 2 can be improved.
(作用効果)
以上に説明した建設機械管理システムにおいては、建設機械2に搭載される検出センサ
部11を利用しつつ、外部指標1aおよび可動指標3aの検出結果を組み合わせ、これら
の検出結果に基づく位置認識部13aでの認識処理を経ることで、建設機械2の可動作業
具3による施工箇所のモニタ結果を得る。したがって、TSまたはGNSSといった外部
システムを要することなく、建設機械2の可動作業具3による施工箇所を自律的にモニタ
することが可能になる。
(Effect)
In the construction machine management system described above, the detection sensor unit 11 mounted on the construction machine 2 is used, the detection results of the external index 1a and the movable index 3a are combined, and the position recognition unit 13a based on these detection results is used. By performing the recognition process in 1., the monitoring result of the construction site by the movable work tool 3 of the construction machine 2 is obtained. Therefore, it becomes possible to autonomously monitor the construction site by the movable work implement 3 of the construction machine 2 without requiring an external system such as TS or GNSS.
検出センサ部11を利用した自律的なモニタであれば、非常に高価であるTSまたはG
NSSを利用する場合に比べると、簡単に導入し得るようになる。検出センサ部11とし
て、イメージセンサ(カメラ)や傾斜計等といった普及品の使用が可能だからである。し
かも、TSまたはGNSSのように専門的な知識を必要としないため、利便性の点でも優
れている。つまり、検出センサ部11を利用した自律的なモニタであれば、TSまたはG
NSSといった外部システムを利用する場合に比べて、そのモニタを簡便に行えるように
なる。
If it is an autonomous monitor using the detection sensor unit 11, TS or G which is very expensive
Compared to the case of using NSS, it can be easily introduced. This is because a widely available product such as an image sensor (camera) or an inclinometer can be used as the detection sensor unit 11. Moreover, since it does not require specialized knowledge like TS or GNSS, it is also excellent in convenience. In other words, if it is an autonomous monitor using the detection sensor unit 11, TS or G
The monitoring can be performed more easily than when using an external system such as NSS.
また、検出センサ部11を利用した自律的なモニタであれば、外部からのレーザ光また
は衛星電波が必須とはならないので、様々な環境下や条件下等に施工現場エリア1が設定
されることが想定される場合であっても、これに柔軟かつ適切に対応することが可能とな
る。例えば、市街地のようにレーザ光の照射を控えるべき場所に施工現場エリア1が設定
されたり、地下空間のように衛星電波が届かない場所に施工現場エリア1が設定されたり
しても、建設機械2の可動作業具3による施工箇所について柔軟かつ適切にモニタするこ
とができ、そのモニタ精度に悪影響が及んでしまうこともない。
Further, if an autonomous monitor using the detection sensor unit 11 does not require external laser light or satellite radio waves, the construction site area 1 should be set under various environments and conditions. Even if it is assumed, it is possible to deal with this flexibly and appropriately. For example, even if the construction site area 1 is set in a place where the irradiation of laser light should be refrained from, such as an urban area, or the construction site area 1 is set in a place where satellite radio waves do not reach, such as an underground space, construction machinery It is possible to flexibly and appropriately monitor the construction site by the movable work tool 2 of No. 2, and the monitoring accuracy is not adversely affected.
また、検出センサ部11を利用した自律的なモニタを行う場合であっても、その検出セ
ンサ部11およびその検出対象となる外部指標1a等の設定、並びに、位置認識部13a
での認識処理アルゴリズムの設定によっては、そのモニタを数cmオーダーの高精度で行
うことが可能である。つまり、検出センサ部11を利用した自律的なモニタによっても、
建設機械2の可動作業具3による施工箇所について、高精度での位置や姿勢等の認識を行
うことができる。
Further, even when performing autonomous monitoring using the detection sensor unit 11, the detection sensor unit 11 and the setting of the external index 1a or the like to be detected, and the position recognition unit 13a.
Depending on the setting of the recognition processing algorithm in the above, the monitor can be performed with high accuracy on the order of several cm. That is, even with an autonomous monitor using the detection sensor unit 11,
It is possible to highly accurately recognize the position, posture, etc. of a construction site of the construction machine 2 by the movable work implement 3.
以上のように、本実施形態の技術的思想によれば、建設機械2に搭載される検出センサ
部11の利用により、その建設機械2の可動作業具3による施工箇所を自律的にモニタし
得るので、当該モニタを簡便かつ高精度に行うことが可能になる。
As described above, according to the technical idea of the present embodiment, by using the detection sensor unit 11 mounted on the construction machine 2, the construction site of the movable work implement 3 of the construction machine 2 can be autonomously monitored. Therefore, the monitor can be performed easily and with high accuracy.
<2.第一実施形態>
次に、上述の技術思想が具現化された実施形態について、具体例を挙げて説明する。
まず、建設機械2が油圧ショベルの一種であるバックホウである場合を、第一実施形態
として説明する。
<2. First embodiment>
Next, an embodiment in which the above-mentioned technical idea is embodied will be described with a specific example.
First, a case where the construction machine 2 is a backhoe which is a type of hydraulic excavator will be described as a first embodiment.
(建設機械)
図2は、第一実施形態において施工現場エリアで用いられる建設機械の一例であるバッ
クホウの概略構成例を模式的に示す説明図である。
建設機械の一例であるバックホウ2は、油圧ショベルと称される建設機械のうち、バケ
ット(ショベル)をオペレータ側向きに取り付けたものであり、主として施工現場エリア
1の掘削用途に用いられる。さらに詳しくは、バックホウ2は、走行装置としての右無限
軌道2aおよび左無限軌道2bを有しており、施工現場エリア1内を移動可能に構成され
ている。また、バックホウ2は、走行装置に支持される旋回可能な機台2cを有しており
、その機台2cにオペレータが搭乗して操作(操縦)を行うように構成されている。
(Construction machinery)
FIG. 2 is an explanatory diagram schematically showing a schematic configuration example of a backhoe that is an example of a construction machine used in a construction site area in the first embodiment.
The backhoe 2, which is an example of a construction machine, is a construction machine called a hydraulic excavator in which a bucket (excavator) is attached to the operator side, and is mainly used for excavating the construction site area 1. More specifically, the backhoe 2 has a right endless track 2a and a left endless track 2b as traveling devices, and is configured to be movable within the construction site area 1. Further, the backhoe 2 has a turntable machine base 2c supported by a traveling device, and is configured such that an operator rides on the machine base 2c to perform an operation (steering).
バックホウ2の機台2cには、可動作業具3としての第一アーム3b、第二アーム3c
およびバケット3dが取り付けられており、これらを動作させることで地表面に対して掘
削等の施工を行うようになっている。つまり、バケット3dの剣先位置が、そのバケット
3dによる施工箇所に相当する。
On the machine base 2c of the backhoe 2, a first arm 3b and a second arm 3c as movable work tools 3 are provided.
Also, a bucket 3d is attached, and by operating these, construction such as excavation is performed on the ground surface. That is, the sword tip position of the bucket 3d corresponds to the construction site of the bucket 3d.
また、バックホウ2には、検出センサ部11として、画像を撮像するイメージセンサ(
カメラ)11a,11bと、二軸方向の傾き(具体的には、左右方向および前後方向の傾
き)を検出可能な傾斜センサ11cと、が搭載されている。イメージセンサ11a,11
bは、バックホウ2における優れた視野の箇所(例えば、機台2cの天井面または前面等
)に同方向を向いて並設された複数(例えば、二つ)のカメラ11a,11bによって構
成されている。
さらに、バックホウ2が有する可動作業具3には、バケット3dの向き(傾き)を検出
可能な傾斜センサ11dが取り付けられている。
なお、カメラ11a,11bおよび傾斜センサ11c,11dは、いずれも、公知のも
のを用いればよい。また、バックホウ2には、これらに加えて、さらに他の検出センサ部
11が設けられていてもよい。
Further, the backhoe 2 has an image sensor (for detecting an image) as a detection sensor unit 11.
Cameras 11a and 11b and a tilt sensor 11c capable of detecting tilts in two axial directions (specifically, tilts in the left-right direction and the front-back direction) are mounted. Image sensor 11a, 11
b is composed of a plurality of (for example, two) cameras 11a and 11b arranged side by side in the same direction at a location (for example, a ceiling surface or a front surface of the machine base 2c) having an excellent visual field in the backhoe 2. There is.
Further, a tilt sensor 11d capable of detecting the direction (tilt) of the bucket 3d is attached to the movable work implement 3 included in the backhoe 2.
Known cameras may be used for the cameras 11a and 11b and the tilt sensors 11c and 11d. In addition to these, the backhoe 2 may be further provided with another detection sensor unit 11.
このようなバックホウ2が用いられる施工現場エリア1には、基準点となる位置(予め
座標が特定されている位置)に、外部指標1aとしての標尺またはこれに準ずるものが立
設されている。そして、外部指標1aには、画像パターンで識別される二次元のマーカ図
形1bが付設されている。なお、外部指標1aには、マーカ図形1bに代えて、発光パタ
ーンで識別される二次元の発光面を有する発光器、または、発光パターンの一例としての
点滅パターンで識別される点光源を有する発光器が付設されていてもよい。外部指標1a
におけるマーカ図形1bは、カメラ11a,11bによる撮像対象となるものである。
In the construction site area 1 in which such a backhoe 2 is used, a staff as an external index 1a or something similar thereto is erected at a position serving as a reference point (position where coordinates are specified in advance). A two-dimensional marker figure 1b identified by the image pattern is attached to the external index 1a. It should be noted that the external index 1a has, instead of the marker graphic 1b, a light-emitting device having a two-dimensional light-emitting surface identified by a light-emitting pattern, or light emission having a point light source identified by a blinking pattern as an example of a light-emitting pattern. A container may be attached. External indicator 1a
The marker graphic 1b in (1) is an object to be imaged by the cameras 11a and 11b.
施工現場エリア1に複数の基準点が設定されている場合には、それぞれの基準点に外部
指標1aおよびマーカ図形1bが配置されていてもよい。つまり、外部指標1aおよびマ
ーカ図形1bは、施工現場エリア1内の異なる位置のそれぞれに個別に設置されていても
よい。
When a plurality of reference points are set in the construction site area 1, the external index 1a and the marker graphic 1b may be arranged at each reference point. That is, the external index 1a and the marker graphic 1b may be individually installed at different positions in the construction site area 1.
また、バックホウ2が有する可動作業具3には、例えば第二アーム3cにおけるバケッ
ト3dの近傍箇所に、可動指標としてのマーカ図形3aが付設されている。なお、マーカ
図形3aに代えて、発光パターンで識別される二次元の発光面を有する発光器、または、
発光パターンの一例としての点滅パターンで識別される点光源を有する発光器が付設され
ていてもよい。可動指標としてのマーカ図形3aは、外部指標1aにおけるマーカ図形1
bと同様に、カメラ11a,11bによる撮像対象となるものである。
Further, the movable work implement 3 included in the backhoe 2 is provided with a marker graphic 3a as a movable index, for example, at a position in the second arm 3c near the bucket 3d. A light emitting device having a two-dimensional light emitting surface identified by a light emitting pattern instead of the marker figure 3a, or
A light emitter having a point light source identified by a blinking pattern as an example of the light emission pattern may be additionally provided. The marker figure 3a as the movable index is the marker figure 1 in the external index 1a.
Similar to b, it is an object to be imaged by the cameras 11a and 11b.
ただし、可動指標としてのマーカ図形3aと、外部指標1aにおけるマーカ図形1bと
は、それぞれが互いに異なる二次元パターンによって構成されていることが好ましい。な
お、発光器の場合は、発光パターンまたは点滅パターンが互いに異なることが好ましい。
図3は、本実施形態に係る建設機械管理システムで用いられるマーカ図形の二次元パタ
ーンの例を示す説明図である。
例えば、図3(a)に示す二次元パターンをマーカ図形1bとして用いる場合には、図
3(b)に示す二次元パターンをマーカ図形3aとして用いることが考えられる。このよ
うにすれば、各マーカ図形1b,3aについての検出を、同一のイメージセンサ(カメラ
)11a,11bを用いて行う場合であっても、それぞれの識別を容易かつ的確に行える
ようになる。
However, it is preferable that the marker graphic 3a as the movable index and the marker graphic 1b of the external index 1a are configured by different two-dimensional patterns. In the case of the light emitting device, it is preferable that the light emitting pattern or the blinking pattern be different from each other.
FIG. 3 is an explanatory diagram showing an example of a two-dimensional pattern of a marker figure used in the construction machine management system according to this embodiment.
For example, when the two-dimensional pattern shown in FIG. 3A is used as the marker figure 1b, it is possible to use the two-dimensional pattern shown in FIG. 3B as the marker figure 3a. This makes it possible to easily and accurately identify each of the marker figures 1b and 3a even if the detection is performed using the same image sensor (camera) 11a and 11b.
(システム構成例)
次に、第一実施形態における建設機械管理システムの構成例を説明する。
図4は、第一実施形態に係る建設機械管理システムの構成例を示すブロック図である。
(Example of system configuration)
Next, a configuration example of the construction machine management system in the first embodiment will be described.
FIG. 4 is a block diagram showing a configuration example of the construction machine management system according to the first embodiment.
第一実施形態に係る建設機械管理システムは、バックホウ2に搭載される検出センサ部
11としてのカメラ11a,11bおよび傾斜センサ11c,11dと、これらに接続さ
れたSBC13と、を備えている。SBC13は、既述のコンピュータ部13として機能
するものである。
The construction machine management system according to the first embodiment includes cameras 11a and 11b as the detection sensor unit 11 mounted on the backhoe 2 and tilt sensors 11c and 11d, and an SBC 13 connected to these. The SBC 13 functions as the computer unit 13 described above.
SBC13には、情報通信部12としてのデータ通信端末12を介して、外部管理装置
20が接続されている。また、SBC13には、Wi−Fi端末31を介して、タブレッ
ト端末32が接続されている。タブレット端末32は、バックホウ2のオペレータが利用
するもので、当該バックホウ2の操作パネルに準ずるものに相当する。なお、バックホウ
2の操作パネルが画像を表示する機能を有していれば、タブレット端末32は省略しても
構わない。
The external management device 20 is connected to the SBC 13 via the data communication terminal 12 as the information communication unit 12. A tablet terminal 32 is connected to the SBC 13 via a Wi-Fi terminal 31. The tablet terminal 32 is used by the operator of the backhoe 2 and corresponds to the operation panel of the backhoe 2. The tablet terminal 32 may be omitted if the operation panel of the backhoe 2 has a function of displaying an image.
さらに、SBC13には、バックホウ2が有する駆動制御部4としての機構制御部4a
および油圧制御部4bが接続されている。機構制御部4aは、右無限軌道2aの前後進、
左無限軌道2bの前後進、機台2cの旋回等をコントロールするものである。油圧制御部
4bは、可動作業具3を構成する第一アーム3b、第二アーム3cおよびバケット3dの
動作をコントロールするものである。
Further, the SBC 13 has a mechanism control unit 4a as the drive control unit 4 included in the backhoe 2.
And the hydraulic control unit 4b is connected. The mechanism control unit 4a moves forward and backward on the right endless track 2a,
It controls forward/backward movement of the left endless track 2b, turning of the machine base 2c, and the like. The hydraulic control unit 4b controls the operations of the first arm 3b, the second arm 3c, and the bucket 3d that form the movable work implement 3.
なお、SBC13と外部との接続は、例えばUSB(Universal Serial Bus)またはI
2C(Inter-Integrated Circuit)を利用して行うことが考えられるが、これに限定され
ることはなく、他の公知の通信方式を利用して行うようにしても構わない。
The SBC 13 is connected to the outside by, for example, USB (Universal Serial Bus) or I.
2C (Inter-Integrated Circuit) may be used, but the present invention is not limited to this, and other known communication methods may be used.
(処理動作例)
次に、上述した構成の建設機械管理システムにおける処理動作例、すなわち第一実施形
態における建設機械管理方法を説明する。
図5は、第一実施形態に係る建設機械管理方法の処理手順の流れの一例を示すフロー図
である。
(Example of processing operation)
Next, an example of the processing operation in the construction machine management system having the above-mentioned configuration, that is, the construction machine management method in the first embodiment will be described.
FIG. 5 is a flowchart showing an example of the flow of processing procedures of the construction machine management method according to the first embodiment.
上述した構成の建設機械管理システムでは、バックホウ2による施工箇所のモニタにあ
たり、まず、施工現場エリア1の基準点に設置された外部指標1aについてのマーカ認識
を行う(ステップ101、以下ステップを「S」と略す。)。具体的には、外部指標1a
に付設されたマーカ図形1bをカメラ11a,11bで撮像して、そのマーカ図形1bに
ついての撮像画像を得る。このときの撮像は、複数(例えば、二つ)のカメラ11a,1
1bを用いることから、施工現場エリア1に配置されたいずれか一つのマーカ図形1bに
ついて行えば、後述する測量技術を利用した位置認識を行うことができる。施工現場エリ
ア1に複数のマーカ図形1bが配置されていれば、ある一つのマーカ図形1bとバックホ
ウ2との間に遮蔽物が存在していても、他のマーカ図形1bについての撮像画像を得るこ
とが可能となるので、外部指標1aについてのマーカ認識に支障を来してしまうことがな
い。
In the construction machine management system having the above-described configuration, when monitoring the construction site by the backhoe 2, first, the marker recognition is performed on the external index 1a installed at the reference point of the construction site area 1 (step 101, the step "S" below). ". Specifically, the external indicator 1a
An image of the marker graphic 1b attached to the image is captured by the cameras 11a and 11b to obtain a captured image of the marker graphic 1b. The imaging at this time is performed by a plurality (for example, two) of cameras 11a, 1
Since 1b is used, if any one of the marker figures 1b arranged in the construction site area 1 is used, it is possible to perform position recognition using a surveying technique described later. If a plurality of marker figures 1b are arranged in the construction site area 1, even if there is a shield between one certain marker figure 1b and the backhoe 2, a captured image of another marker figure 1b is obtained. Therefore, the marker recognition of the external index 1a is not hindered.
また、マーカ認識は、外部指標1aのマーカ図形1bのみならず、バックホウ2の可動
作業具3に付設された可動指標としてのマーカ図形3aについても行う(S101)。具
体的には、可動作業具3に付設されたマーカ図形3aをカメラ11a,11bで撮像して
、そのマーカ図形3aについての撮像画像を得る。このとき、各マーカ図形1b,3aに
ついての撮像を、同一のカメラ11a,11bを用いて行えば、検出センサ部11の構成
が複雑化してしまうのを抑制することができる。
The marker recognition is performed not only for the marker graphic 1b of the external index 1a but also for the marker graphic 3a as a movable index attached to the movable work tool 3 of the backhoe 2 (S101). Specifically, the marker graphic 3a attached to the movable work implement 3 is imaged by the cameras 11a and 11b, and a captured image of the marker graphic 3a is obtained. At this time, if the images of the respective marker figures 1b and 3a are taken by using the same cameras 11a and 11b, it is possible to prevent the configuration of the detection sensor unit 11 from becoming complicated.
さらに、建設機械管理システムでは、傾斜センサ11cがバックホウ2自体についての
傾斜認識を行うとともに、傾斜センサ11dが可動作業具3のバケット3dについての傾
斜認識を行う(S102)。
Further, in the construction machine management system, the tilt sensor 11c recognizes the tilt of the backhoe 2 itself, and the tilt sensor 11d recognizes the tilt of the bucket 3d of the movable work implement 3 (S102).
マーカ認識および傾斜認識を行うと、建設機械管理システムでは、続いて、SBC13
における位置認識部13aとしての機能が、バックホウ2のバケット3dによる施工箇所
についての位置判定(位置認識)を行う(S103)。
When the marker recognition and the tilt recognition are performed, the construction machine management system subsequently proceeds to SBC13.
The function as the position recognition unit 13a in (1) performs position determination (position recognition) on the construction site by the bucket 3d of the backhoe 2 (S103).
位置判定に際して、位置認識部13aは、第一認識処理と、第二認識処理と、を行う。
まず、第一認識処理として、外部指標1aのマーカ図形1bについての撮像結果を基に、
施工現場エリア1におけるバックホウ2の位置情報を認識する。具体的には、一方のカメ
ラ11aで得た撮像結果と、他方のカメラ11bで得た撮像結果と、カメラ11a,11
b同士の位置関係とを基に、以下に説明する2カメラ画像による測量技術を利用して、マ
ーカ図形1bとカメラ11a,11bとの位置関係を認識する。
At the time of position determination, the position recognition unit 13a performs a first recognition process and a second recognition process.
First, as the first recognition processing, based on the imaging result of the marker figure 1b of the external index 1a,
The position information of the backhoe 2 in the construction site area 1 is recognized. Specifically, the imaging result obtained by the one camera 11a, the imaging result obtained by the other camera 11b, and the cameras 11a, 11
Based on the positional relationship between b, the positional relationship between the marker graphic 1b and the cameras 11a and 11b is recognized by using a surveying technique using two camera images described below.
図6は、第一実施形態で用いられる2カメラ画像による測量技術の概要を示す説明図で
ある。
図中において、A、Bは各カメラ11a,11bの位置を、またTは測量対象(例えば
、マーカ図形1b)の位置を、AA´、BB´は各カメラ11a,11bの光軸を、それ
ぞれ表している。また、QはABの中点を、Q´はA´B´の中点を、それぞれ表してい
る。したがって、AQ=BQ、A´Q´=B´Q´、AA´‖QQ´‖、BB´の関係が
成り立つ。なお、A´、O、Q´、B´の各点はQQ´に垂直な面上の仮想点であり、A
´およびB´は各カメラ11a,11bで得られる撮像画像の中心点(原点)に相当する
ことになる。
FIG. 6 is an explanatory diagram showing an outline of the surveying technique by the two-camera image used in the first embodiment.
In the figure, A and B are the positions of the cameras 11a and 11b, T is the position of the survey target (for example, the marker graphic 1b), and AA' and BB' are the optical axes of the cameras 11a and 11b, respectively. It represents. Further, Q represents the midpoint of AB, and Q′ represents the midpoint of A′B′. Therefore, the relationship of AQ=BQ, A'Q'=B'Q', AA'|QQ'||, and BB' is established. The points A′, O, Q′, and B′ are virtual points on the plane perpendicular to QQ′, and
′ And B′ correspond to the center points (origins) of the captured images obtained by the cameras 11a and 11b.
ここで、例えば、点Iと点Jの実距離をIJと表記し、点Iと点Jの画像上の画素距離
をIJpと表記し、被写体の大きさと被写体の画素距離とから被写体までの距離を求める
ための予め測定可能なカメラ11a,11bの特性値をkとする場合を考える。その場合
、以下に示す関係式が成り立つ。
Here, for example, the actual distance between the points I and J is expressed as IJ, the pixel distance on the image between the points I and J is expressed as IJp, and the distance from the size of the subject and the pixel distance of the subject to the subject. Let us consider a case in which the characteristic value of the cameras 11a and 11b that can be measured in advance for determining is k. In that case, the following relational expressions hold.
以上の関係式を基にすれば、カメラ11a,11bについてのA、Bの位置関係と、そ
れぞれによる撮像画像におけるA´、O、Q´、B´の各点の位置関係とから、測量対象
との間の距離QT、光軸面上の測量対象までの距離QO、および、光軸面から測量対象ま
での高さ距離OTを求めることが可能となる。また、傾斜センサ11cによる線分QOの
水平面からの仰角の検出結果から、点Tから点Qへの距離と仰角を求めることが可能であ
る。また、例えば二つのマーカ図形1bまでの距離と仰角を測定することで、点Qの絶対
座標を求めることも可能である。
Based on the above relational expression, from the positional relationship of A and B for the cameras 11a and 11b and the positional relationship of each point of A′, O, Q′, and B′ in the captured images, the survey target It is possible to obtain the distance QT between the optical axis plane, the distance QO to the survey target on the optical axis plane, and the height distance OT from the optical axis plane to the survey target. Further, the distance from the point T to the point Q and the elevation angle can be obtained from the detection result of the elevation angle of the line segment QO from the horizontal plane by the tilt sensor 11c. Further, for example, the absolute coordinates of the point Q can be obtained by measuring the distance to the two marker figures 1b and the elevation angle.
つまり、位置認識部13aは、以上に説明した2カメラ画像による測量技術を利用しつ
つ、バックホウ2の位置を特定する上で基準となる当該バックホウ2の所定部分(例えば
、各カメラ11a,11bの設置点の中点である点Q)点について、マーカ図形1b(す
なわち、施工現場エリア1内の基準点)に対する三次元座標位置を算出して認識する。こ
のようにして認識した三次元座標位置は、施工現場エリア1におけるバックホウ2の所定
部分の絶対位置に相当する。
That is, the position recognizing unit 13a uses a surveying technique based on the two-camera image described above, and a predetermined portion of the backhoe 2 (for example, each of the cameras 11a and 11b) that serves as a reference for specifying the position of the backhoe 2. For the point Q, which is the midpoint of the installation point, the three-dimensional coordinate position with respect to the marker graphic 1b (that is, the reference point within the construction site area 1) is calculated and recognized. The three-dimensional coordinate position recognized in this way corresponds to the absolute position of the predetermined portion of the backhoe 2 in the construction site area 1.
このとき、位置認識部13aは、マーカ図形1bの撮像結果を基に外部指標1aが設置
された基準点の位置を特定することで、施工現場エリア1内におけるバックホウ2の方位
(すなわち、機台2cが向いている方向)を認識することができる。さらに、位置認識部
13aは、傾斜センサ11cによる検出結果を基に、バックホウ2自体の姿勢(すなわち
、施工現場エリア1内での傾きの状態)についても認識することができる。
At this time, the position recognition unit 13a identifies the position of the reference point where the external index 1a is installed based on the imaging result of the marker graphic 1b, so that the orientation of the backhoe 2 in the construction site area 1 (that is, the machine stand). 2c) can be recognized. Furthermore, the position recognition unit 13a can also recognize the posture of the backhoe 2 itself (that is, the state of the tilt in the construction site area 1) based on the detection result of the tilt sensor 11c.
位置判定に際して、上述した第一認識処理を行うと、位置認識部13aは、続いて、第
二認識処理を行う。第二認識処理では、可動指標としてのマーカ図形3aについての撮像
結果を基に、バケット3dによる施工箇所の位置情報を認識する。具体的には、一方のカ
メラ11aで得た撮像結果と、他方のカメラ11bで得た撮像結果と、マーカ図形3aと
バケット3dとの位置関係と、さらにはバケット3dについての傾斜センサ11dでの検
出結果とを基に、上述した2カメラ画像による測量技術を利用しつつ、マーカ図形3aと
カメラ11a,11bとの位置関係を認識した上で、さらにマーカ図形3aとバケット3
dによる施工箇所との位置関係を認識する。
When the above-described first recognition processing is performed in the position determination, the position recognition unit 13a subsequently performs the second recognition processing. In the second recognition processing, the position information of the construction site by the bucket 3d is recognized based on the imaging result of the marker figure 3a as the movable index. Specifically, the imaging result obtained by one camera 11a, the imaging result obtained by the other camera 11b, the positional relationship between the marker graphic 3a and the bucket 3d, and further the tilt sensor 11d for the bucket 3d. Based on the detection result, the positional relationship between the marker graphic 3a and the cameras 11a and 11b is recognized while using the above-described surveying technique using the two-camera image, and then the marker graphic 3a and the bucket 3 are further detected.
Recognize the positional relationship with the construction site by d.
図7は、第一実施形態で用いられるバケット施工箇所の位置認識モデルの概要を示す説
明図である。
図中において、Sは第一アーム3bのサイズ、Rは第二アーム3cのサイズ、Pはバケ
ット3dのサイズ、R1,R2は第二アーム3cにおけるマーカ図形3aの位置を、それ
ぞれ表しており、いずれもバックホウ2の利用時点で既知の値である。したがって、上述
した2カメラ画像による測量技術を利用しつつ、カメラ11a,11bのAB光軸面上の
点Qからマーカ図形3aまでの水平距離Mおよび垂直距離Hを認識した上で、傾斜センサ
11dによる検出結果を基にバケット3dの回転角(傾き)がわかれば、点Q(すなわち
、バックホウ2の位置を特定する上で基準となる当該バックホウ2の所定部分)に対する
バケット3dの剣先位置の三次元座標位置を算出して認識することができる。バケット3
dの剣先位置は、当該バケット3dによる施工箇所の位置に相当する。つまり、このよう
にして認識した三次元座標位置は、バケット3dによる施工箇所についてのバックホウ2
の所定部分に対する相対位置に相当することになる。
FIG. 7 is an explanatory diagram showing an outline of the position recognition model of the bucket construction location used in the first embodiment.
In the figure, S is the size of the first arm 3b, R is the size of the second arm 3c, P is the size of the bucket 3d, and R1 and R2 are the positions of the marker graphic 3a on the second arm 3c, respectively. Both are known values when the backhoe 2 is used. Therefore, the tilt sensor 11d is used after recognizing the horizontal distance M and the vertical distance H from the point Q on the AB optical axis planes of the cameras 11a and 11b to the marker figure 3a while using the above-described surveying technique using two camera images. If the rotation angle (tilt) of the bucket 3d is known on the basis of the detection result by, the tertiary of the blade tip position of the bucket 3d with respect to the point Q (that is, a predetermined portion of the backhoe 2 that serves as a reference for specifying the position of the backhoe 2) The original coordinate position can be calculated and recognized. Bucket 3
The sword tip position of d corresponds to the position of the construction site of the bucket 3d. That is, the three-dimensional coordinate position recognized in this way is the backhoe 2 for the construction site by the bucket 3d.
Corresponds to the relative position with respect to a predetermined portion of the.
このとき、位置認識部13aは、第一認識処理でのバックホウ2の姿勢等についての認
識結果を反映させることで、可動作業具3の姿勢または方位についても認識する。これに
より、位置認識部13aは、例えばバックホウ2に傾き等が生じた状態であっても、その
バックホウ2におけるバケット3dの剣先位置を正しく認識することができる。
At this time, the position recognizing unit 13a also recognizes the attitude or azimuth of the movable work tool 3 by reflecting the recognition result of the attitude or the like of the backhoe 2 in the first recognition processing. Thereby, the position recognition unit 13a can correctly recognize the sword tip position of the bucket 3d on the backhoe 2 even when the backhoe 2 is tilted or the like.
このようにして得た第一認識処理での絶対位置の認識結果と第二認識処理での相対位置
の認識結果とを組み合わせることで、位置認識部13aは、バックホウ2のバケット3d
による施工箇所について、基準点を基準とした場合の施工現場エリア1内の絶対的な位置
のモニタ結果を得ることが可能となる。
By combining the absolute position recognition result in the first recognition process and the relative position recognition result in the second recognition process obtained in this way, the position recognition unit 13a causes the bucket 3d of the backhoe 2 to move.
It is possible to obtain an absolute position monitoring result in the construction site area 1 when the reference point is used as a reference for the construction point.
その後、図5に示すように、建設機械管理システムでは、SBC13における差分情報
抽出部13cとしての機能が、施工現場エリア1の施工計画データに対するバックホウ2
の姿勢認識を行う(S104)。具体的には、バックホウ2のバケット3dによる施工箇
所についてのモニタ結果を、施工現場エリア1の施工計画データにおける該当位置の座標
値と対比して、それぞれの間の差分情報を抽出する。
Then, as shown in FIG. 5, in the construction machine management system, the function as the difference information extracting unit 13c in the SBC 13 is such that the backhoe 2 for the construction plan data of the construction site area 1 is used.
Posture recognition is performed (S104). Specifically, the monitor result of the construction site by the bucket 3d of the backhoe 2 is compared with the coordinate value of the corresponding position in the construction plan data of the construction site area 1 to extract the difference information between them.
差分情報を抽出したら、建設機械管理システムでは、SBC13におけるガイダンス出
力部13dとしての機能が、マシンガイダンス処理動作を行って操作ガイダンス情報を出
力することで、バックホウ2のオペレータに対して当該バックホウ2の姿勢表示を行う(
S105)。このとき、操作ガイダンス情報の出力は、外部管理装置20で行うようにし
てもよい。つまり、外部管理装置20を扱うセンター熟練者に対して、バックホウ2の姿
勢表示を行うようにしてもよい(S106)。
After the difference information is extracted, in the construction machine management system, the function of the guidance output unit 13d in the SBC 13 performs the machine guidance processing operation and outputs the operation guidance information, so that the operator of the backhoe 2 is notified of the backhoe 2. Posture display (
S105). At this time, the operation guidance information may be output by the external management device 20. That is, the posture of the backhoe 2 may be displayed to a center expert who handles the external management device 20 (S106).
操作ガイダンス情報の出力は、例えば、以下のような態様で行う。
図8は、第一実施形態に係る建設機械管理システムが出力する操作ガイダンス情報の例
を示す説明図である。
The operation guidance information is output in the following manner, for example.
FIG. 8 is an explanatory diagram illustrating an example of operation guidance information output by the construction machine management system according to the first embodiment.
操作ガイダンス情報の出力は、例えば、図8(a)に示すような表示画面41によって
行うことが考えられる。図例の表示画面41は、施工計画データに基づいて三次元形状が
ワイヤーフレーム形式で描画された施工面41aに対して、バックホウ2のバケット3d
を表す画像41bが、抽出された差分情報が反映された位置に表示されて構成されている
。表示画面41中には、バケット3dの現在位置を施工面41aに導くためのガイド線(
誘導曲線)41cが表示されていてもよい。さらに、表示画面41中には、関連の数値(
例えば、座標値)が表示されていてもよい。
It is conceivable that the operation guidance information is output, for example, on a display screen 41 as shown in FIG. The display screen 41 of the illustrated example shows a bucket 3d of the backhoe 2 for a construction surface 41a in which a three-dimensional shape is drawn in a wire frame format based on construction plan data.
An image 41b representing “” is displayed and configured at a position where the extracted difference information is reflected. In the display screen 41, a guide line (for guiding the current position of the bucket 3d to the construction surface 41a (
The guidance curve) 41c may be displayed. Furthermore, in the display screen 41, the related numerical value (
For example, the coordinate value) may be displayed.
また、操作ガイダンス情報を出力は、必ずしも三次元形式の表示画面41による必要は
なく、例えば、図8(b)に示すような二次元形式の表示画面42によるものであっても
よいし、必要に応じて三次元形式と二次元形式を切り換え可能なものであってもよい。
The output of the operation guidance information does not necessarily have to be performed by the three-dimensional display screen 41, but may be performed by the two-dimensional display screen 42 shown in FIG. 8B, for example. It is possible to switch between a three-dimensional format and a two-dimensional format according to the above.
このような表示画面41,42によって操作ガイダンス情報の出力を行えば、オペレー
タにとっては、バックホウ2のバケット3dによる施工箇所を施工計画データに合致させ
る上で、非常に利便性に優れたものとなる。また、操作ガイダンス情報の出力を外部管理
装置20で行うようにすれば、例えば、バックホウ2を実際に操作するオペレータが非熟
練者であっても、遠隔箇所にいるセンター熟練者が、バックホウ2による施工の状況を把
握しつつ、非熟練者に対して操作の助言を行うといったことが実現可能となる。
If the operation guidance information is output by such display screens 41 and 42, it will be very convenient for the operator in matching the construction site of the bucket 3d of the backhoe 2 with the construction plan data. .. Further, if the external management device 20 outputs the operation guidance information, for example, even if the operator who actually operates the backhoe 2 is an unskilled person, a center expert at a remote location can use the backhoe 2 to operate. It is possible to give advice to the unskilled person on the operation while grasping the construction situation.
また、建設機械管理システムでは、上述したマシンガイダンス処理動作とは別に、また
はマシンガイダンス処理動作に加えて、SBC13における動作計画生成部13eおよび
動作指示部13fとしての機能が、マシンコントロール処理動作を行うものであってもよ
い。具体的には、図5に示すように、まず、動作計画生成部13eが、動作計画情報とし
てバケット3dを施工面に移動させる移動曲線を生成する処理(すなわち、図中の姿勢制
御)を行うとともに(S107)、その移動を行うための動作を、第一アーム3bの油圧
動作、第二アーム3cの油圧動作、バケット3dの油圧動作、右無限軌道2aまたは左無
限軌道2bの前後進動作、機台2cの旋回動作の各シーケンスで構成する処理(すなわち
、図中の制御生成)を行う(S108)。そして、動作指示部13fが、各シーケンスに
よる動作指示を、機構制御部4aおよび油圧制御部4bに与える処理(すなわち、図中の
制御指示)を行う(S109)。この動作指示を受けて、機構制御部4aが必要に応じて
右無限軌道2a、左無限軌道2bまたは機台2cを動作させるとともに(S110)、油
圧制御部4bが必要に応じて第一アーム3b、第二アーム3cまたはバケット3dを動作
させることで(S111)、バックホウ2のバケット3dを所定位置に導く。
In the construction machine management system, in addition to the machine guidance processing operation described above, or in addition to the machine guidance processing operation, the functions of the operation plan generation unit 13e and the operation instruction unit 13f in the SBC 13 perform the machine control processing operation. It may be one. Specifically, as shown in FIG. 5, first, the motion plan generation unit 13e performs a process of generating a movement curve that moves the bucket 3d to the construction surface as motion plan information (that is, posture control in the drawing). At the same time (S107), the movement for performing the movement includes hydraulic movement of the first arm 3b, hydraulic movement of the second arm 3c, hydraulic movement of the bucket 3d, forward and backward movement of the right endless track 2a or the left endless track 2b, Processing (that is, control generation in the drawing) that is configured in each sequence of the turning operation of the machine base 2c is performed (S108). Then, the operation instruction unit 13f performs a process of giving an operation instruction according to each sequence to the mechanism control unit 4a and the hydraulic pressure control unit 4b (that is, a control instruction in the drawing) (S109). In response to this operation instruction, the mechanism control unit 4a operates the right endless track 2a, the left endless track 2b or the machine base 2c as necessary (S110), and the hydraulic control unit 4b causes the first arm 3b to operate as necessary. The bucket 3d of the backhoe 2 is guided to a predetermined position by operating the second arm 3c or the bucket 3d (S111).
このようなマシンコントロール処理動作を行うことで、施工面に沿ってバケット3dが
動くように、バックホウ2の位置調整を自動的に行うことが可能となる。つまり、バケッ
ト3dによる施工箇所を施工計画データに合致させるように、バックホウ2の動作や姿勢
等が自動運転されることになる。
By performing such a machine control processing operation, the position of the backhoe 2 can be automatically adjusted so that the bucket 3d moves along the construction surface. That is, the operation, posture, and the like of the backhoe 2 are automatically operated so that the construction site by the bucket 3d matches the construction plan data.
なお、マシンコントロール処理動作を行う場合において、ここでは姿勢制御(S107
)、制御生成(S108)および制御指示(S109)をSBC13で行っているが、こ
れらの処理をSBC13に比べて高い処理能力を有する外部管理装置20で行うようにし
ても構わない。
In the case of performing the machine control processing operation, the posture control (S107
), the control generation (S108) and the control instruction (S109) are performed by the SBC 13, but these processes may be performed by the external management device 20 having a higher processing capacity than the SBC 13.
また、姿勢制御(S107)で生成した動作計画情報(移動曲線等)については、外部
管理装置20で出力し、その外部管理装置20での制御監視に供するようにしてもよい(
S112)。このようにすれば、例えば、外部管理装置20からバックホウ2の動作や姿
勢等を補助的に制御し得るようになる。したがって、遠隔箇所にいるセンター熟練者が、
バックホウ2による施工の状況を把握しつつ、当該バックホウ2に対する制御内容を適宜
修正することが可能となるので、当該バックホウ2の自動運転についての精度や信頼性等
の向上が図れるようになる。
Further, the motion plan information (movement curve, etc.) generated in the attitude control (S107) may be output by the external management device 20 and used for control monitoring by the external management device 20 (
S112). With this configuration, for example, the operation and posture of the backhoe 2 can be supplementarily controlled by the external management device 20. Therefore, a center expert at a remote location
Since it is possible to appropriately modify the control content for the backhoe 2 while grasping the status of construction by the backhoe 2, it is possible to improve the accuracy and reliability of the automatic operation of the backhoe 2.
(作用効果)
以上に説明した第一実施形態によれば、バックホウ2に搭載される検出センサ部11の
利用により、そのバックホウ2のバケット3dによる施工箇所を自律的にモニタし得るの
で、当該モニタを簡便かつ高精度に行うことが可能になる。
(Effect)
According to the first embodiment described above, by using the detection sensor unit 11 mounted on the backhoe 2, the construction site of the bucket 3d of the backhoe 2 can be autonomously monitored, so that the monitor is simple and high. It can be done with precision.
また、第一実施形態によれば、バケット3dによる施工箇所についてのモニタ結果を、
施工現場エリア1の施工計画データと対比して、これらの間の差分を差分情報として抽出
する。したがって、抽出した差分情報を基にマシンガイダンス処理動作またはマシンコン
トロール処理動作を行うことが可能となり、バックホウ2が自律的に得たモニタ結果を有
効に活用する上で非常に好適なものとなる。
Further, according to the first embodiment, the monitoring result of the construction site by the bucket 3d is
By comparing with the construction plan data of the construction site area 1, the difference between them is extracted as difference information. Therefore, the machine guidance processing operation or the machine control processing operation can be performed based on the extracted difference information, which is very suitable for effectively utilizing the monitoring result obtained by the backhoe 2 autonomously.
また、第一実施形態で説明したように、自律的なモニタ結果に基づいて、マシンガイダ
ンス処理動作またはマシンコントロール処理動作を行うようにすれば、バックホウ2のオ
ペレータにとって、非常に利便性に優れたものとなる。しかも、これらの処理動作が自律
的なモニタ結果(すなわち、簡便かつ高精度に得られるモニタ結果)に基づいて行われる
ので、その処理動作に対する信頼性等も担保し得るようになる。
Further, as described in the first embodiment, if the machine guidance processing operation or the machine control processing operation is performed based on the autonomous monitoring result, it is very convenient for the operator of the backhoe 2. Will be things. Moreover, since these processing operations are performed based on the autonomous monitoring result (that is, the monitoring result that can be easily and accurately obtained), the reliability of the processing operation can be ensured.
また、第一実施形態で説明したように、外部管理装置20との間で、差分情報または当
該差分情報からの導出情報である動作計画情報等を授受すれば、遠隔箇所にいるセンター
熟練者による助言や補助制御等が可能となる。したがって、オペレータやセンター熟練者
等にとって非常に利便性に優れたものとなり、しかもバックホウ2による施工の精度、効
率、信頼性等についても非常に優れたものとすることができる。
Further, as described in the first embodiment, if the difference information or the operation plan information, which is the derived information from the difference information, is exchanged with the external management device 20, the center expert at a remote location can Advice and auxiliary control are possible. Therefore, it is very convenient for the operator, the expert in the center, and the like, and the construction accuracy, efficiency, reliability, etc. of the backhoe 2 can also be made very excellent.
また、第一実施形態では、バックホウ2には検出センサ部11としてイメージセンサ(
カメラ)11a,11bが搭載されており、そのイメージセンサ11a,11bで得た画
像に対する認識処理を行うことで、バックホウ2の絶対位置およびバケット3dの相対位
置の認識を行う。このように、カメラ11a,11bを用いて位置認識を行えば、非常に
高価であるTSまたはGNSSを利用する場合に比べて簡単に導入し得るようになり、ま
たTSまたはGNSSのように専門的な知識を必要としないため利便性の点でも優れてお
り、結果としてシステム構築を簡便に行えるようになる。しかも、カメラ11a,11b
で得た画像を解析して位置認識を行うので、その解析アルゴリズムの設定次第で、必要十
分な位置精度(例えば、数cmオーダーの高精度)での位置認識を行うことが可能である
。
In addition, in the first embodiment, the backhoe 2 includes an image sensor (detection sensor unit 11).
Cameras 11a, 11b are mounted, and recognition processing is performed on the images obtained by the image sensors 11a, 11b to recognize the absolute position of the backhoe 2 and the relative position of the bucket 3d. In this way, if the position recognition is performed using the cameras 11a and 11b, it can be introduced more easily than in the case of using a very expensive TS or GNSS, and it is possible to use a specialized device such as TS or GNSS. Since it does not require detailed knowledge, it is also convenient in terms of convenience, and as a result, the system can be easily constructed. Moreover, the cameras 11a and 11b
Since the position recognition is performed by analyzing the image obtained in step 1, it is possible to perform the position recognition with necessary and sufficient position accuracy (for example, high accuracy on the order of several cm) depending on the setting of the analysis algorithm.
また、第一実施形態では、外部指標1aにおけるマーカ図形1bについての検出と、第
二アーム3cにおける可動指標としてのマーカ図形3aについての検出とを、バックホウ
2に搭載された同一のイメージセンサ(カメラ)11a,11bを用いて行う。そのため
、バックホウ2の絶対位置およびバケット3dの相対位置の認識にあたり、マーカ図形1
bとマーカ図形3aとの検出が必要となる場合であっても、それぞれに対応するイメージ
センサ(カメラ)を個別に設ける必要がなく、センサ構成が複雑化してしまうのを抑制す
ることができる。このことは、センサ導入コストの抑制や画像処理のための処理負荷軽減
等にも繋がるため、システム構築を簡便に行えるようにする上でも好適である。
In the first embodiment, the detection of the marker graphic 1b in the external index 1a and the detection of the marker graphic 3a as the movable index in the second arm 3c are performed by the same image sensor (camera) mounted on the backhoe 2. ) 11a, 11b. Therefore, in recognizing the absolute position of the backhoe 2 and the relative position of the bucket 3d, the marker graphic 1
Even when it is necessary to detect b and the marker figure 3a, it is not necessary to separately provide an image sensor (camera) corresponding to each, and it is possible to prevent the sensor configuration from becoming complicated. This leads to a reduction in sensor introduction cost, a reduction in processing load for image processing, and the like, which is also suitable for simplifying system construction.
また、第一実施形態では、イメージセンサが同方向を向いて並設された複数(例えば、
二つ)のカメラ11a,11bによって構成されている。つまり、一つのマーカ図形1b
,3aについての検出結果として、複数(例えば、二つ)の撮像画像が得られる。したが
って、例えば2カメラ画像による測量技術を利用することが可能となり、検出対象となる
マーカ図形1b,3aが単数の場合であっても、高精度での位置認識を行うことが可能と
なる。
Further, in the first embodiment, a plurality of image sensors arranged in parallel in the same direction (for example,
It is composed of two cameras 11a and 11b. That is, one marker figure 1b
, 3a, a plurality of (for example, two) captured images are obtained. Therefore, for example, it is possible to use a surveying technique using two camera images, and it is possible to perform highly accurate position recognition even if the number of marker figures 1b and 3a to be detected is singular.
また、第一実施形態では、外部指標1aに二次元パターンのマーカ図形1b(または発
光器)が付設されている。そのため、外部指標1aについての検出にイメージセンサ(カ
メラ)11a,11bを用いる場合において、パターン認識技術を利用し得るようになる
ので、撮像画像に含まれるマーカ図形1bの識別および抽出を容易かつ的確に行うことが
できる。
さらに、第一実施形態では、バックホウ2の第二アーム3cに可動指標としてのマーカ
図形3a(または発光器)が付設されているので、外部指標1aにおけるマーカ図形1b
の場合と同様に、マーカ図形3aの識別および抽出を容易かつ的確に行うことができる。
しかも、マーカ図形1bとは異なるパターンのマーカ図形3aとすれば、これらを混同し
てしまうこともない。
In addition, in the first embodiment, a two-dimensional pattern marker figure 1b (or a light emitter) is attached to the external index 1a. Therefore, when the image sensors (cameras) 11a and 11b are used to detect the external index 1a, it becomes possible to use the pattern recognition technique, so that the marker graphic 1b included in the captured image can be easily and accurately identified and extracted. Can be done.
Furthermore, in the first embodiment, since the marker graphic 3a (or light emitter) as a movable index is attached to the second arm 3c of the backhoe 2, the marker graphic 1b in the external index 1a is attached.
As in the case of, the marker graphic 3a can be identified and extracted easily and accurately.
Moreover, if the marker figure 3a has a different pattern from the marker figure 1b, they will not be confused.
<3.第二実施形態>
次に、建設機械2が、いわゆるスリップフォーム工法で用いられるスリップフォーム機
である場合を、第二実施形態として説明する。なお、ここでは、主として第一実施形態と
の相違点について説明し、第一実施形態の場合と同様の内容については説明を省略する。
<3. Second embodiment>
Next, a case where the construction machine 2 is a slip foam machine used in a so-called slip foam construction method will be described as a second embodiment. Note that here, differences from the first embodiment will be mainly described, and description of the same contents as in the first embodiment will be omitted.
(建設機械)
図9は、第二実施形態において施工現場エリアで用いられる建設機械の一例であるスリ
ップフォーム機の基本的な構成例を模式的に示す側面図である。
建設機械の一例であるスリップフォーム機2は、少なくとも、進行方向の前方側に配さ
れる前部切削機(以下、単に「切削機」ともいう。)2dと、進行方向の後方側に配され
る後部成型機(以下、単に「成型機」ともいう。)2eと、を備えて構成されている。切
削機2dと成型機2eとは、互いに連結されて一体で移動するようになっているが、それ
ぞれが別々の機械として移動するように構成されていてもよい。
(Construction machinery)
FIG. 9: is a side view which shows typically the basic structural example of the slip foam machine which is an example of the construction machine used in the construction site area in 2nd embodiment.
The slip-form machine 2, which is an example of a construction machine, has at least a front cutting machine (hereinafter, simply referred to as “cutting machine”) 2d arranged on the front side in the traveling direction and a rear cutting machine on the rear side in the traveling direction. And a rear molding machine (hereinafter, also simply referred to as “molding machine”) 2e. The cutting machine 2d and the molding machine 2e are connected to each other and move integrally, but they may be configured to move as separate machines.
ここで、スリップフォーム機2を用いて行うスリップフォーム工法について簡単に説明
する。
図10は、スリップフォーム機を用いて行うスリップフォーム工法の施工状況を示す説
明図である。
スリップフォーム工法による施工にあたっては、まず、切削機2dを用いて溝を掘削す
る掘削工程を行う。掘削溝を形成したら、続いて、その掘削溝の溝内に成型機2eが有す
る鋼製型枠(モールド)を配置する。そして、モールド内に生コンクリートを投入し、そ
の内部で生コンクリートを所定形状に締固め、成型する成型工程を行う。これらの工程は
、切削機2dおよび成型機2eを移動させながら行う。
このように、スリップフォーム工法では、自走機能を持つスリップフォーム機を用いて
、同一断面のコンクリート構造物(例えばU字溝)を連続的に打設していくのである。
なお、コンクリート構造物は、内部に鉄筋が敷設されたものであってもよい。その場合
には、切削機2dと成型機2eとを離して配置し、切削機2dと成型機2eとの間で鉄筋
の敷設を行うようにすればよい。
Here, a slip-form construction method performed using the slip-form machine 2 will be briefly described.
FIG. 10: is explanatory drawing which shows the construction condition of the slip-form construction method performed using a slip-form machine.
In the construction by the slip form method, first, an excavation step of excavating a groove using the cutting machine 2d is performed. After forming the excavation groove, subsequently, a steel frame (mold) included in the molding machine 2e is placed in the excavation groove. Then, a molding step is performed in which the fresh concrete is put into the mold, and the fresh concrete is compacted into a predetermined shape and molded therein. These steps are performed while moving the cutting machine 2d and the molding machine 2e.
As described above, in the slip-form construction method, a concrete structure (for example, U-shaped groove) having the same cross section is continuously placed using a slip-form machine having a self-propelled function.
The concrete structure may have a reinforcing bar laid inside. In that case, the cutting machine 2d and the molding machine 2e may be arranged apart from each other, and the reinforcing bar may be laid between the cutting machine 2d and the molding machine 2e.
このようなスリップフォーム工法による施工を行うために、スリップフォーム機2にお
ける切削機2dおよび成型機2eは、それぞれが以下に述べるように構成されている。
In order to perform the construction by such a slip-form construction method, the cutting machine 2d and the molding machine 2e in the slip-form machine 2 are each configured as described below.
図11は、第二実施形態におけるスリップフォーム機を構成する前部切削機の構成例を
模式的に示す説明図である。
図11(a)に示すように、切削機2dは、無限軌道(クローラ)やタイヤ等の走行装
置2fと、その走行装置2fに支持される車体部2gとを有し、施工現場エリア内を移動
可能に構成されている。車体部2gには、油圧で動作するアクチュエータ2hを介して、
可動作業具3としての上部筐体3eおよび掘削ドラム3fが取り付けられている。掘削ド
ラム3fは、上部筐体3eに回転可能に支持されているとともに、その外周面に複数のカ
ッタービット3gが設けられている。
このような構成の切削機2dでは、アクチュエータ2hが上部筐体3eを動かし、これ
により掘削ドラム3fの位置および姿勢を制御するようになっている。また、図11(b
)に示すように、掘削ドラム3fを回転させることで、地表面に対して掘削等の施工を行
うようになっている。なお、掘削ドラム3fの回転によって生じる掘削物(土、砂、石、
アスファルト片等)は、前方側に延びる搬送コンベア2iによって搬送されるものとする
。
FIG. 11: is explanatory drawing which shows typically the structural example of the front part cutting machine which comprises the slip foam machine in 2nd embodiment.
As shown in FIG. 11(a), the cutting machine 2d has a traveling device 2f such as an endless track (crawler) and tires, and a vehicle body portion 2g supported by the traveling device 2f. It is configured to be movable. Via the actuator 2h, which operates hydraulically, to the vehicle body 2g,
An upper casing 3e as a movable working tool 3 and a drilling drum 3f are attached. The excavating drum 3f is rotatably supported by the upper housing 3e, and a plurality of cutter bits 3g is provided on the outer peripheral surface thereof.
In the cutting machine 2d having such a configuration, the actuator 2h moves the upper casing 3e, thereby controlling the position and the posture of the excavating drum 3f. In addition, FIG.
As shown in (), the excavation drum 3f is rotated to excavate the ground surface. In addition, excavated objects (earth, sand, stone,
The asphalt piece or the like) is transported by the transport conveyor 2i extending to the front side.
つまり、切削機2dでは、進行する際に可動する上部筐体3e、掘削ドラム3fおよび
カッタービット3gが、建設機械2の可動作業具3に相当する。また、回転する掘削ドラ
ム3fの外周面に設けられたカッタービット3gの先端位置が、可動作業具3による施工
箇所に相当する。
In other words, in the cutting machine 2d, the upper casing 3e, the excavation drum 3f, and the cutter bit 3g that move when moving are equivalent to the movable working tool 3 of the construction machine 2. Further, the tip end position of the cutter bit 3g provided on the outer peripheral surface of the rotating excavating drum 3f corresponds to the construction site of the movable work implement 3.
図12は、第二実施形態におけるスリップフォーム機を構成する後部成型機の構成例を
模式的に示す説明図である。
図12(a)に示すように、成型機2eは、上述した切削機2dと同様に、走行装置2
jと、その走行装置2jに支持される車体部2kとを有し、施工現場エリア内を移動可能
に構成されている。車体部2kには、油圧で動作するアクチュエータ2lを介して、可動
作業具3としての上部筐体3hおよびモールド3iが取り付けられている。
モールド3iには、図12(b)に示すように、モールド内に生コンクリートを投入す
るためのコンクリート注入器2mが接続されている。さらに、モールド3iには、振動で
モールド内に生コンクリートを充填させるためのバイブレータ3jが付設されている。
このような構成の成型機2eでは、アクチュエータ2lが上部筐体3hを動かし、これ
によりモールド3iの位置および姿勢を制御するようになっている。また、位置および姿
勢が制御されるモールド3iへのコンクリート注入を行いつつ、そのモールド3iを進行
方向に移動させることで、同一断面のコンクリート構造物を連続的に打設するようになっ
ている。
FIG. 12 is an explanatory diagram schematically showing a configuration example of a rear molding machine that constitutes the slip foam machine according to the second embodiment.
As shown in FIG. 12( a ), the molding machine 2 e is similar to the cutting machine 2 d described above in that the traveling device 2
j and a vehicle body portion 2k supported by the traveling device 2j, and is configured to be movable in the construction site area. An upper housing 3h as a movable work tool 3 and a mold 3i are attached to the vehicle body portion 2k via an actuator 21 that operates by hydraulic pressure.
As shown in FIG. 12(b), the mold 3i is connected to a concrete injector 2m for pouring ready-mixed concrete into the mold. Further, the mold 3i is provided with a vibrator 3j for filling the mold with fresh concrete by vibration.
In the molding machine 2e having such a configuration, the actuator 2l moves the upper housing 3h, thereby controlling the position and the posture of the mold 3i. Further, while pouring concrete into the mold 3i whose position and orientation are controlled and moving the mold 3i in the traveling direction, concrete structures having the same cross section are continuously poured.
つまり、成型機2eでは、進行する際に可動する上部筐体3hおよびモールド3iが、
建設機械2の可動作業具3に相当する。また、モールド3iが配された位置が、可動作業
具3による施工箇所に相当する。
That is, in the molding machine 2e, the upper housing 3h and the mold 3i that move as they move are
It corresponds to the movable working tool 3 of the construction machine 2. Further, the position where the mold 3i is arranged corresponds to the construction site of the movable work tool 3.
ところで、ここで説明する第二実施形態において、スリップフォーム機2には、検出セ
ンサ部11が搭載されている。
図13は、第二実施形態において施工現場エリアで用いられる建設機械の一例であるス
リップフォーム機の概略構成例を模式的に示す斜視図である。
スリップフォーム機2には、検出センサ部11として、画像を撮像するイメージセンサ
(カメラ)11e〜11hと、傾きを検出可能な傾斜センサ11i,11jと、が搭載さ
れている。イメージセンサ11e〜11hは、切削機2dにおける上部筐体3eの側面に
下方向を向いて並設された複数(例えば、二つ)のカメラ11e,11fと、成型機2e
における上部筐体3hの側面に下方向を向いて並設された複数(例えば、二つ)のカメラ
11g,11hと、によって構成されている。なお、切削機2dと成型機2eとが連結さ
れている場合、切削機2dの上部筐体3eにおけるカメラ11fと成型機2eの上部筐体
3hにおけるカメラ11gとは、必ずしも別体で備える必要はなく、一つのカメラで共用
するようにしてもよい。また、傾斜センサ11i,11jは、切削機2dの上部筐体3e
と成型機2eの上部筐体3hとのそれぞれに個別に配置されている。
なお、カメラ11e〜11hおよび傾斜センサ11i,11jは、いずれも、公知のも
のを用いればよい。また、スリップフォーム機2には、これらに加えて、さらに他の検出
センサ部11が設けられていてもよい。
By the way, in the second embodiment described here, the slip sensor 2 is equipped with the detection sensor unit 11.
FIG. 13: is a perspective view which shows typically the schematic structural example of the slip foam machine which is an example of the construction machine used in the construction site area in 2nd embodiment.
The slip-form machine 2 is equipped with image sensors (cameras) 11e to 11h for picking up images and tilt sensors 11i and 11j capable of detecting tilts as the detection sensor unit 11. The image sensors 11e to 11h include a plurality of (for example, two) cameras 11e and 11f that are arranged side by side on the side surface of the upper housing 3e of the cutting machine 2d so as to face downward, and the molding machine 2e.
The plurality of (for example, two) cameras 11g and 11h are arranged in parallel on the side surface of the upper housing 3h facing downward. When the cutting machine 2d and the molding machine 2e are connected, the camera 11f in the upper housing 3e of the cutting machine 2d and the camera 11g in the upper housing 3h of the molding machine 2e do not necessarily have to be provided separately. Alternatively, one camera may be shared. Further, the inclination sensors 11i and 11j are the upper housing 3e of the cutting machine 2d.
And the upper housing 3h of the molding machine 2e, respectively.
Known cameras may be used for the cameras 11e to 11h and the tilt sensors 11i and 11j. In addition to these components, the slip foam machine 2 may be provided with another detection sensor unit 11.
このようなスリップフォーム機2が用いられる施工現場エリア1には、基準点となる位
置(予め座標が特定されている位置)に、外部指標1aとして、画像パターンで識別され
る二次元のマーカ図形1cが配置されている。マーカ図形1cは、カメラ11e〜11h
による撮像対象となるものであり、スリップフォーム機2の進行方向に沿って複数が所定
間隔で配列されているものとする。なお、マーカ図形1cに代えて、発光パターンで識別
される二次元の発光面を有する発光器、または、点滅パターンで識別される点光源を有す
る発光器が配置されていてもよい。
In the construction site area 1 in which such a slip-form machine 2 is used, a two-dimensional marker figure identified as an external index 1a by an image pattern is provided at a position serving as a reference point (position where coordinates are specified in advance). 1c is arranged. The marker figure 1c includes cameras 11e to 11h.
It is assumed that a plurality of objects are to be imaged, and a plurality of them are arranged at predetermined intervals along the traveling direction of the slip foam machine 2. Instead of the marker graphic 1c, a light emitting device having a two-dimensional light emitting surface identified by a light emitting pattern or a light emitting device having a point light source identified by a blinking pattern may be arranged.
また、切削機2dの可動作業具3を構成する上部筐体3eと、成型機2eの可動作業具
3を構成する上部筐体3hとには、それぞれにおけるカメラ11e〜11hの個別に対応
するように、可動指標としてのマーカ図形3kが付設されている。マーカ図形3kは、外
部指標1aとしてのマーカ図形1cと同様に、カメラ11e〜11hによる撮像対象とな
るものである。そのため、マーカ図形3kは、マーカ図形1cとは異なる二次元パターン
によって構成されていることが好ましい。なお、マーカ図形3kに代えて、発光パターン
で識別される二次元の発光面を有する発光器、または、点滅パターンで識別される点光源
を有する発光器が付設されていてもよい。
Further, the cameras 11e to 11h in the upper housing 3e that configures the movable work tool 3 of the cutting machine 2d and the upper housing 3h that configures the movable work tool 3 of the molding machine 2e respectively correspond to each other. Further, a marker figure 3k as a movable index is attached. The marker graphic 3k is an object to be imaged by the cameras 11e to 11h, like the marker graphic 1c as the external index 1a. Therefore, it is preferable that the marker graphic 3k be configured by a two-dimensional pattern different from the marker graphic 1c. Instead of the marker graphic 3k, a light emitting device having a two-dimensional light emitting surface identified by a light emitting pattern or a light emitting device having a point light source identified by a blinking pattern may be attached.
(システム構成例)
次に、第二実施形態における建設機械管理システムの構成例を説明する。
図14は、第二実施形態に係る建設機械管理システムの構成例を示すブロック図である
。
(Example of system configuration)
Next, a configuration example of the construction machine management system in the second embodiment will be described.
FIG. 14 is a block diagram showing a configuration example of the construction machine management system according to the second embodiment.
第二実施形態に係る建設機械管理システムは、切削機2dの上部筐体3eに搭載される
検出センサ部11としてのカメラ11e,11fおよび傾斜センサ11iと、成型機2e
の上部筐体3hに搭載される検出センサ部11としてのカメラ11g,11hおよび傾斜
センサ11jと、これらに接続されたSBC13と、を備えている。SBC13は、切削
機2dまたは成型機2eの少なくとも一方に搭載されていればよく、既述のコンピュータ
部13として機能するものである。
The construction machine management system according to the second embodiment includes cameras 11e and 11f as a detection sensor unit 11 and an inclination sensor 11i mounted on an upper housing 3e of a cutting machine 2d, and a molding machine 2e.
The cameras 11g and 11h as the detection sensor unit 11 mounted on the upper housing 3h and the tilt sensor 11j, and the SBC 13 connected to them are provided. The SBC 13 may be mounted on at least one of the cutting machine 2d and the molding machine 2e, and functions as the computer unit 13 described above.
SBC13に、データ通信端末12を介して外部管理装置20が接続されており、Wi
−Fi端末31を介してタブレット端末32が接続されている点は、第一実施形態の場合
と同様である。
The external management device 20 is connected to the SBC 13 via the data communication terminal 12, and Wi
-The point that the tablet terminal 32 is connected via the Fi terminal 31 is similar to the case of the first embodiment.
さらに、SBC13には、スリップフォーム機2が有する駆動制御部4としての油圧制
御部4cが接続されている。油圧制御部4cは、切削機2dにおけるアクチュエータ2h
および成型機2eにおけるアクチュエータ2lの動作をコントロールするものである。
Further, the SBC 13 is connected to a hydraulic control unit 4c as a drive control unit 4 of the slip foam machine 2. The hydraulic control unit 4c uses the actuator 2h in the cutting machine 2d.
It also controls the operation of the actuator 2l in the molding machine 2e.
(処理動作例)
次に、上述した構成の建設機械管理システムにおける処理動作例、すなわち第二実施形
態における建設機械管理方法を説明する。
図15は、第二実施形態に係る建設機械管理方法の処理手順の流れの一例を示すフロー
図である。
(Example of processing operation)
Next, an example of the processing operation in the construction machine management system having the above-described configuration, that is, the construction machine management method in the second embodiment will be described.
FIG. 15 is a flowchart showing an example of the flow of processing procedures of the construction machine management method according to the second embodiment.
上述した構成の建設機械管理システムでは、スリップフォーム機2による施工箇所のモ
ニタにあたり、まず、施工現場エリア1に設置されたマーカ図形1cについてのマーカ認
識を行うとともに、上部筐体3e,3hに付設されたマーカ図形3kについてのマーカ認
識を行う(S201)。具体的には、マーカ図形1c,3kを各カメラ11e〜11hで
撮像して、そのマーカ図形1c,3kについての撮像画像を得る。このときの撮像は、そ
れぞれのカメラ11e〜11hにおいて、少なくとも二つのマーカ図形1cと一つのマー
カ図形3kとが一つの画像内に収まるように行う。少なくとも二つのマーカ図形1cと一
つのマーカ図形3kとを撮像すれば、各カメラ11e〜11hでの撮像結果のそれぞれに
おいて、後述する測量技術を利用した位置認識を行うことができる。そのために、マーカ
図形1cは、各カメラ11e〜11hの画角を考慮して設定された所定間隔で配列されて
いるものとする。
In the construction machine management system having the configuration described above, when monitoring the construction site by the slip foam machine 2, first, the marker figure 1c installed in the construction site area 1 is recognized and the upper housings 3e and 3h are attached. Marker recognition is performed on the generated marker figure 3k (S201). Specifically, the marker figures 1c and 3k are picked up by the cameras 11e to 11h to obtain picked-up images of the marker figures 1c and 3k. The imaging at this time is performed such that at least two marker figures 1c and one marker figure 3k are included in one image in each of the cameras 11e to 11h. If at least two marker figures 1c and one marker figure 3k are imaged, it is possible to perform position recognition using the surveying technique described later in each of the imaging results of the cameras 11e to 11h. Therefore, it is assumed that the marker figures 1c are arranged at predetermined intervals set in consideration of the angle of view of each of the cameras 11e to 11h.
さらに、建設機械管理システムでは、傾斜センサ11iが切削機2dの上部筐体3eに
ついての傾斜認識を行うとともに、傾斜センサ11jが成型機2eの上部筐体3hについ
ての傾斜認識を行う(S202)。
Further, in the construction machine management system, the tilt sensor 11i recognizes the tilt of the upper housing 3e of the cutting machine 2d, and the tilt sensor 11j recognizes the tilt of the upper housing 3h of the molding machine 2e (S202).
マーカ認識および傾斜認識を行うと、建設機械管理システムでは、続いて、SBC13
における位置認識部13aとしての機能が、スリップフォーム機2による施工箇所につい
ての位置判定(位置認識)を行う(S203)。
When the marker recognition and the tilt recognition are performed, the construction machine management system subsequently proceeds to SBC13.
The function of the position recognizing unit 13a in (1) performs position determination (position recognition) of the construction site by the slipform machine 2 (S203).
位置判定に際して、位置認識部13aは、マーカ図形1c,3kについての撮像画像を
基に、切削機2dによる施工箇所と成型機2eによる施工箇所とのそれぞれを認識する。
具体的には、各カメラ11e〜11h別に、それぞれで得た撮像結果に基づいて、以下に
説明する測量技術を利用して、カメラ11e〜11hを搭載した上部筐体3e,3hの位
置を認識する。
At the time of position determination, the position recognition unit 13a recognizes each of the construction site by the cutting machine 2d and the construction site by the molding machine 2e based on the captured images of the marker figures 1c and 3k.
Specifically, for each of the cameras 11e to 11h, the positions of the upper housings 3e and 3h in which the cameras 11e to 11h are mounted are recognized by using the surveying technique described below, based on the imaging result obtained by each camera. To do.
図16は、第二実施形態で用いられる測量技術の概要を示す説明図である。
ここでは、図16(a)に示すように、カメラ11eでのマーカ図形1c,3kについ
ての撮像画像を基に、切削機2dの上部筐体3eの側方距離および高さを測量する技術に
ついて説明する。なお、他のカメラ11f〜11hでの撮像画像に対しても、全く同様の
測量技術を適用可能であることは言うまでもない。
図16(a)中において、Pはカメラ11eの位置を、A,Bは二つのマーカ図形1c
のそれぞれの位置を、Rはマーカ図形3kの位置を、それぞれ表している。各マーカ図形
1cの間の距離ABは、これらの設置時に規定されて既知であるものとする。カメラ11
eとマーカ図形3kとの間の距離PRは、これらの上部筐体3eへの設置時に測定されて
既知であるものとする。また、カメラ11eは、上部筐体3eが水平状態の場合に光軸が
鉛直方向に沿い、かつ、光軸がマーカ図形3kの中心近傍を通るように、調整された状態
で上部筐体3eに設置されているものとする。
FIG. 16 is an explanatory diagram showing an outline of the surveying technique used in the second embodiment.
Here, as shown in FIG. 16A, a technique for measuring the lateral distance and height of the upper casing 3e of the cutting machine 2d based on the imaged images of the marker figures 1c and 3k captured by the camera 11e. explain. Needless to say, the same surveying technique can be applied to the images captured by the other cameras 11f to 11h.
In FIG. 16A, P is the position of the camera 11e, and A and B are the two marker figures 1c.
, And R represents the position of the marker graphic 3k. It is assumed that the distance AB between the marker figures 1c is defined and known when these are installed. Camera 11
It is assumed that the distance PR between the e and the marker graphic 3k is measured and known at the time of installation in the upper housing 3e. The camera 11e is mounted on the upper housing 3e in an adjusted state so that the optical axis extends along the vertical direction when the upper housing 3e is horizontal and the optical axis passes near the center of the marker graphic 3k. It is assumed to be installed.
また、図16(b)〜(d)中において、Oはカメラ11eによる撮像画像の中心を、
dは上部筐体3eの傾斜角(水平状態で0、マーカ図形1c側に傾く方向に+)を、それ
ぞれ表している。
16(b) to 16(d), O represents the center of the image captured by the camera 11e,
d represents the inclination angle of the upper housing 3e (0 in the horizontal state, + in the direction inclined to the marker graphic 1c side).
ここで、例えば、点Iと点Jの実距離をIJと表記し、点Iと点Jの画像上の画素距離
をIJpと表記し、被写体の大きさと被写体の画素距離とから被写体までの距離を求める
ための予め測定可能なカメラ11eの特性値をkとする場合を考える。また、カメラ11
eの設置時に、上部筐体3eのカメラ設置面と水平面上で直交し、上部筐体3eからマー
カ図形1cの向きの、カメラ座標系のおける任意のベクトルを、ベクトルSとして求めて
おく。Cは、カメラ座標上でRからベクトルS方向の直線と線分ABとの交点である。ま
た、カメラ座標上でのOから線分RCへの垂線の足をO´とする。
そうすると、ACPとBCPとの按分により、AとBから実座標Cが求まる。なお、カ
メラ座標上で∠ACO´をθとする。また、光軸POに垂直でCを含む面上へのRの射影
をR´とする。O´も同面上で扱う。
その場合、以下に示す関係式が成り立つ。
Here, for example, the actual distance between the points I and J is expressed as IJ, the pixel distance on the image between the points I and J is expressed as IJp, and the distance from the size of the subject and the pixel distance of the subject to the subject. Let us consider a case in which the characteristic value of the camera 11e that can be measured in advance to obtain is k. Also, the camera 11
When e is installed, an arbitrary vector in the camera coordinate system that is orthogonal to the camera installation surface of the upper housing 3e on the horizontal plane and faces the marker graphic 1c from the upper housing 3e is obtained as a vector S. C is the intersection of the straight line in the vector S direction from R and the line segment AB on the camera coordinates. Further, the foot of the perpendicular line from O to the line segment RC on the camera coordinates is O′.
Then, the actual coordinates C are obtained from A and B by the proportional division between ACP and BCP. Note that ∠ACO′ is θ on the camera coordinates. Further, the projection of R on the plane perpendicular to the optical axis PO and containing C is R′. O'is also treated on the same side.
In that case, the following relational expressions hold.
以上の関係式を基にすれば、ある一つのカメラ11eの位置と二つのマーカ図形1cの
それぞれの位置と一つのマーカ図形3kの位置との関係から、カメラ11eが設置された
上部筐体3eの位置について、側方距離CDおよび高さPDを求めることが可能となる。
そして、距離CDおよび高さPDがわかれば、これらに基づいて、マーカ図形3kの位
置である点Rを求めることが可能となる。マーカ図形3kの位置である点Rは、点Cから
上部筐体3eに向け線分ABと角度θをなす直線上で、点Cから上部筐体3eに向けた距
離CD−PRsin(d)に位置し、点Cからの高さPD−PRcos(d)に位置する
点となる。
Based on the above relational expressions, the upper housing 3e in which the camera 11e is installed is determined from the relationship between the position of one camera 11e, the positions of the two marker figures 1c, and the position of the one marker figure 3k. It becomes possible to obtain the lateral distance CD and the height PD for the position of.
Then, if the distance CD and the height PD are known, the point R, which is the position of the marker graphic 3k, can be obtained based on these. The point R, which is the position of the marker figure 3k, is on a straight line forming an angle θ with the line segment AB from the point C toward the upper housing 3e, and at a distance CD-PRsin(d) from the point C toward the upper housing 3e. It is located at the height PD-PRcos(d) from the point C.
つまり、位置認識部13aは、以上に説明した測量技術を利用しつつ、マーカ図形1c
の点A,Bを絶対的な位置、これに対するマーカ図形3kの点Rを相対的な位置と捉え、
これらの検出結果に基づいて、上部筐体3eの位置を特定する上で基準の一つとなる当該
上部筐体3eの所定部分(具体的には、マーカ図形3kが付された点Rの位置)について
、その三次元座標位置を算出して認識する。
In other words, the position recognizing unit 13a uses the surveying technique described above while using the marker graphic 1c.
The points A and B are regarded as absolute positions, and the point R of the marker graphic 3k relative to them is regarded as a relative position,
Based on these detection results, a predetermined portion of the upper housing 3e that serves as one of the references for specifying the position of the upper housing 3e (specifically, the position of the point R with the marker graphic 3k) Is calculated and recognized.
位置認識部13aは、以上のような位置認識処理を、カメラ11eによる検出結果のみ
ならず、他のカメラ11f〜11hによる検出結果についても、全く同様に行う。これに
より、位置認識部13aは、各カメラ11e〜11hのそれぞれに対応する上部筐体3e
,3hの所定部分について、三次元座標位置の認識結果を得ることになる。
The position recognition unit 13a performs the above position recognition processing not only on the detection result by the camera 11e but also on the detection results by the other cameras 11f to 11h. As a result, the position recognition unit 13a causes the upper housing 3e corresponding to each of the cameras 11e to 11h.
, 3h, the recognition result of the three-dimensional coordinate position is obtained.
位置判定に際して、各カメラ11e〜11hの対応部分についての位置認識結果を得る
と、次いで、位置認識部13aは、これらの位置認識結果を組み合わせて、上部筐体3e
,3hの位置情報を認識する。
Upon obtaining the position recognition results for the corresponding portions of the cameras 11e to 11h in the position determination, the position recognition unit 13a then combines these position recognition results to form the upper housing 3e.
, 3h position information is recognized.
具体的には、例えば上部筐体3eであれば、カメラ11eの検出結果に基づく位置認識
結果と、カメラ11fの検出結果に基づく位置認識結果とから、当該上部筐体3eにおけ
る2箇所のマーカ図形3k(点R)のそれぞれの三次元座標位置が特定されるので、位置
認識部13aは、これらの三次元座標位置に基づき、施工現場エリア1内での上部筐体3
eの位置、方位、姿勢(傾きの状態)等を認識する。このとき、位置認識部13aは、傾
斜センサ11iによる検出結果を基に、上部筐体3eの姿勢について認識する。
Specifically, for example, in the case of the upper housing 3e, two marker figures in the upper housing 3e are determined from the position recognition result based on the detection result of the camera 11e and the position recognition result based on the detection result of the camera 11f. Since the respective 3D coordinate positions of 3k (point R) are specified, the position recognition unit 13a determines the upper housing 3 in the construction site area 1 based on these 3D coordinate positions.
The position, azimuth, attitude (state of inclination), etc. of e are recognized. At this time, the position recognition unit 13a recognizes the posture of the upper housing 3e based on the detection result of the tilt sensor 11i.
このように、位置認識部13aは、カメラ11eの検出結果に基づく位置認識結果とカ
メラ11fの検出結果に基づく位置認識結果とを組み合わせ、さらには傾斜センサ11i
による検出結果を基にしつつ、上部筐体3eの位置情報を認識する。これにより、切削機
2dについては、可動作業具3としての上部筐体3e、掘削ドラム3fおよびカッタービ
ット3gによる施工箇所について、基準点であるマーカ図形1cの位置を基準とした場合
の施工現場エリア1内の絶対的な位置のモニタ結果を得ることが可能となる。
In this way, the position recognition unit 13a combines the position recognition result based on the detection result of the camera 11e and the position recognition result based on the detection result of the camera 11f, and further, the tilt sensor 11i.
The position information of the upper housing 3e is recognized based on the detection result by the. Thereby, in the cutting machine 2d, the construction site area when the position of the marker figure 1c which is the reference point is used as the reference for the construction location of the upper casing 3e as the movable work tool 3, the excavation drum 3f and the cutter bit 3g. It is possible to obtain the monitoring result of the absolute position within 1.
また、例えば上部筐体3hであれば、カメラ11gの検出結果に基づく位置認識結果と
、カメラ11hの検出結果に基づく位置認識結果とから、当該上部筐体3hにおける2箇
所の三次元座標位置が特定されるので、位置認識部13aは、これらの三次元座標位置に
基づき、施工現場エリア1内での上部筐体3hの位置、方位、姿勢(傾きの状態)等を認
識する。このとき、位置認識部13aは、傾斜センサ11jによる検出結果を基に、上部
筐体3hの姿勢について認識する。
Further, for example, in the case of the upper housing 3h, two three-dimensional coordinate positions in the upper housing 3h are determined from the position recognition result based on the detection result of the camera 11g and the position recognition result based on the detection result of the camera 11h. Since it is specified, the position recognition unit 13a recognizes the position, orientation, attitude (inclined state), etc. of the upper housing 3h in the construction site area 1 based on these three-dimensional coordinate positions. At this time, the position recognition unit 13a recognizes the posture of the upper housing 3h based on the detection result of the tilt sensor 11j.
このように、位置認識部13aは、カメラ11gの検出結果に基づく位置認識結果とカ
メラ11hの検出結果に基づく位置認識結果とを組み合わせ、さらには傾斜センサ11j
による検出結果を基にしつつ、上部筐体3hの位置情報を認識する。これにより、成型機
2eについては、可動作業具3としての上部筐体3hおよびモールド3iによる施工箇所
について、基準点であるマーカ図形1cの位置を基準とした場合の施工現場エリア1内の
絶対的な位置のモニタ結果を得ることが可能となる。
In this way, the position recognition unit 13a combines the position recognition result based on the detection result of the camera 11g and the position recognition result based on the detection result of the camera 11h, and further, the tilt sensor 11j.
The position information of the upper housing 3h is recognized based on the detection result by the. As a result, regarding the molding machine 2e, the absolute location within the construction site area 1 when the position of the marker figure 1c, which is the reference point, is used as the reference for the installation location of the upper housing 3h as the movable work tool 3 and the mold 3i. It is possible to obtain monitoring results at various positions.
その後、図15に示すように、建設機械管理システムでは、SBC13における差分情
報抽出部13cとしての機能が、施工現場エリア1の施工計画データに対するスリップフ
ォーム機2の姿勢認識を行う(S204)。具体的には、スリップフォーム機2の切削機
2dおよび成型機2eによる施工箇所についてのモニタ結果を、施工現場エリア1の施工
計画データにおける該当位置の座標値と対比して、それぞれの間の差分情報を抽出する。
Thereafter, as shown in FIG. 15, in the construction machine management system, the function of the difference information extraction unit 13c in the SBC 13 performs posture recognition of the slipform machine 2 with respect to the construction plan data of the construction site area 1 (S204). Specifically, the monitoring result of the construction site by the cutting machine 2d and the molding machine 2e of the slip foam machine 2 is compared with the coordinate value of the corresponding position in the construction plan data of the construction site area 1, and the difference between the two is compared. Extract information.
差分情報を抽出したら、建設機械管理システムでは、SBC13におけるガイダンス出
力部13dとしての機能が、マシンガイダンス処理動作を行って操作ガイダンス情報を出
力することで、スリップフォーム機2を扱う現場作業者に対して当該スリップフォーム機
2の姿勢表示を行う(S205)。
After the difference information is extracted, in the construction machine management system, the function as the guidance output unit 13d in the SBC 13 performs the machine guidance processing operation and outputs the operation guidance information, so that it can be applied to the field worker who handles the slipform machine 2. Then, the posture of the slipform machine 2 is displayed (S205).
操作ガイダンス情報の出力は、例えば、以下のような態様で行う。
図17は、第二実施形態に係る建設機械管理システムが出力する操作ガイダンス情報の
例を示す説明図である。
The operation guidance information is output in the following manner, for example.
FIG. 17 is an explanatory diagram illustrating an example of operation guidance information output by the construction machine management system according to the second embodiment.
操作ガイダンス情報の出力は、例えば、図17に示すような表示画面43によって行う
ことが考えられる。図例の表示画面43は、施工計画データに基づいて描画された施工面
43aに対して、スリップフォーム機2を表す画像43bが、抽出された差分情報が反映
された位置に表示されて構成されている。表示画面43中には、スリップフォーム機2の
切削機2dおよび成型機2eの現在位置を施工面43aに導くためのガイド線(誘導曲線
)43cが表示されていてもよい。さらに、表示画面43中には、関連の数値(例えば、
座標値)が表示されていてもよい。
It is conceivable that the operation guidance information is output on the display screen 43 as shown in FIG. 17, for example. The display screen 43 of the illustrated example is configured such that an image 43b representing the slipform machine 2 is displayed on a construction surface 43a drawn based on the construction plan data at a position where the extracted difference information is reflected. ing. A guide line (guide curve) 43c for guiding the current positions of the cutting machine 2d and the molding machine 2e of the slipform machine 2 to the construction surface 43a may be displayed on the display screen 43. Furthermore, in the display screen 43, a related numerical value (for example,
The coordinate value) may be displayed.
このような表示画面43によって操作ガイダンス情報の出力を行えば、現場作業者にと
っては、スリップフォーム機2の切削機2dおよび成型機2eによる施工箇所を施工計画
データに合致させる上で、非常に利便性に優れたものとなる。
If the operation guidance information is output on the display screen 43 as described above, it is very convenient for the site worker to match the construction site by the cutting machine 2d and the molding machine 2e of the slipform machine 2 with the construction plan data. It has excellent properties.
なお、図15に示すように、施工計画データに対するスリップフォーム機2の姿勢認識
(S206)、および、操作ガイダンス情報の出力によるスリップフォーム機2の姿勢表
示(S207)については、外部管理装置20で行うようにしてもよい。操作ガイダンス
情報の出力を外部管理装置20で行うようにすれば、例えば、スリップフォーム機2を実
際に操作する現場作業者が非熟練者であっても、遠隔箇所にいるセンター熟練者が、スリ
ップフォーム機2による施工の状況を把握しつつ、非熟練者に対して操作の助言を行うと
いったことが実現可能となる。
Note that, as shown in FIG. 15, the external management device 20 performs the posture recognition of the slipform machine 2 for the construction plan data (S206) and the posture display of the slipform machine 2 by the output of the operation guidance information (S207). You may do it. If the operation management information is output by the external management device 20, for example, even if the field worker who actually operates the slip-form machine 2 is an unskilled worker, a center expert who is at a remote location can slip. It is possible to provide an operation advice to a non-skilled person while grasping the situation of construction by the foam machine 2.
また、外部管理装置20は、マシンガイダンス処理動作とは別に、またはマシンガイダ
ンス処理動作に加えて、マシンコントロール処理動作を行うものであってもよい。具体的
には、外部管理装置20は、スリップフォーム機2の切削機2dおよび成型機2eを施工
面に移動させる移動曲線を生成する処理(すなわち、図中の姿勢制御)を行うとともに(
S208)、その移動を行うための動作を、アクチュエータ2h,2lの油圧動作等の各
シーケンスで構成する処理(すなわち、図中の制御生成)を行う(S209)。そして、
各シーケンスによる動作指示を、油圧制御部4cに与える処理(すなわち、図中の制御指
示)を行う(S210)。この動作指示を受けて、油圧制御部4cが必要に応じてアクチ
ュエータ2h,2lを動作させることで(S211)、切削機2dにおける上部筐体3e
、掘削ドラム3fおよびカッタービット3g、並びに、切削機2eにおける上部筐体3h
およびモールド3iを所定位置に導く。
Further, the external management device 20 may perform a machine control processing operation separately from or in addition to the machine guidance processing operation. Specifically, the external management device 20 performs a process of generating a movement curve for moving the cutting machine 2d and the molding machine 2e of the slipform machine 2 to the construction surface (that is, attitude control in the figure) (
(S208), processing for configuring the operation for performing the movement in each sequence such as hydraulic operation of the actuators 2h, 2l (that is, control generation in the figure) is performed (S209). And
A process of giving an operation instruction according to each sequence to the hydraulic control unit 4c (that is, a control instruction in the drawing) is performed (S210). In response to this operation instruction, the hydraulic control unit 4c operates the actuators 2h and 2l as needed (S211), and thereby the upper housing 3e of the cutting machine 2d.
, The excavating drum 3f and the cutter bit 3g, and the upper casing 3h of the cutting machine 2e.
And the mold 3i is guided to a predetermined position.
このようなマシンコントロール処理動作を行うことで、施工面に沿って切削機2dにお
ける上部筐体3e、掘削ドラム3fおよびカッタービット3g、並びに、切削機2eにお
ける上部筐体3hおよびモールド3iが動くように、切削機2dおよび成型機2eの位置
調整を自動的に行うことが可能となる。つまり、切削機2dおよび成型機2eによる施工
箇所を施工計画データに合致させるように、スリップフォーム機2の動作や姿勢等が自動
運転されることになる。
By performing such a machine control processing operation, the upper casing 3e in the cutting machine 2d, the excavating drum 3f and the cutter bit 3g, and the upper casing 3h and the mold 3i in the cutting machine 2e move along the construction surface. In addition, it is possible to automatically adjust the positions of the cutting machine 2d and the molding machine 2e. That is, the operation, posture, and the like of the slip-form machine 2 are automatically operated so that the construction sites of the cutting machine 2d and the molding machine 2e match the construction plan data.
なお、マシンコントロール処理動作を行う場合において、ここでは姿勢制御(S208
)、制御生成(S209)および制御指示(S210)を外部管理装置20で行う場合を
例に挙げたが、これらの処理をスリップフォーム機2のSBC13で行うようにしても構
わない。
In the case where the machine control processing operation is performed, the posture control (S208) is performed here.
), the control generation (S209) and the control instruction (S210) are performed by the external management device 20 as an example, but these processes may be performed by the SBC 13 of the slipform machine 2.
また、姿勢制御(S208)で生成した動作計画情報(移動曲線等)については、外部
管理装置20での制御監視に供するようにしてもよい(S212)。このようにすれば、
例えば、外部管理装置20からスリップフォーム機2の動作や姿勢等を補助的に制御し得
るようになる。したがって、遠隔箇所にいるセンター熟練者が、スリップフォーム機2に
よる施工の状況を把握しつつ、当該スリップフォーム機2に対する制御内容を適宜修正す
ることが可能となるので、当該スリップフォーム機2の自動運転についての精度や信頼性
等の向上が図れるようになる。
Further, the motion plan information (movement curve, etc.) generated in the attitude control (S208) may be used for control monitoring in the external management device 20 (S212). If you do this,
For example, the operation and posture of the slip foam machine 2 can be supplementarily controlled from the external management device 20. Therefore, it becomes possible for a center expert at a remote location to appropriately correct the control content for the slipform machine 2 while grasping the situation of the construction by the slipform machine 2, and thus the slipform machine 2 is automatically operated. The accuracy and reliability of driving can be improved.
(作用効果)
以上に説明した第二実施形態によれば、スリップフォーム機2に搭載される検出センサ
部11の利用により、そのスリップフォーム機2の切削機2dおよび成型機2eによる施
工箇所を自律的にモニタし得るので、上述した第一実施形態の場合とほぼ同様の作用効果
が得られる。
(Effect)
According to the second embodiment described above, the detection sensor unit 11 mounted on the slip foam machine 2 is used to autonomously monitor the construction site of the cutting machine 2d and the molding machine 2e of the slip foam machine 2. Since this is obtained, substantially the same operational effects as in the case of the above-described first embodiment can be obtained.
また、第二実施形態では、検出センサ部11として、切削機2dの上部筐体3eに複数
のカメラ11e,11fが搭載され、成型機2eの上部筐体3hにも複数のカメラ11g
,11hが搭載されている。各カメラ11e〜11hは、それぞれが、少なくとも二つの
マーカ図形1cと一つのマーカ図形3kとを検出対象とする。つまり、イメージセンサが
同方向を向いて並設された複数(例えば、一筐体あたり二つ)のカメラ11e〜11hに
よって構成されており、各カメラ11e〜11hが複数の指標(具体的には、二つのマー
カ図形1cと一つのマーカ図形3k)を検出対象とする。そして、位置判定に際して、位
置認識部13aは、各カメラ11e〜11hでの検出結果について個別に位置認識を行う
とともに、これらの位置認識結果を適宜組み合わせて上部筐体3e,3hの位置情報を認
識する。したがって、第二実施形態においては、上部筐体3e,3hのそれぞれについて
、各カメラ11e〜11hでの検出結果から、三次元座標位置のみならず、その方位や姿
勢(傾きの状態)等についても認識することができ、しかもその認識を高精度に行うこと
が可能となる。
Further, in the second embodiment, as the detection sensor unit 11, a plurality of cameras 11e and 11f are mounted on the upper housing 3e of the cutting machine 2d, and a plurality of cameras 11g are also mounted on the upper housing 3h of the molding machine 2e.
, 11h are installed. Each of the cameras 11e to 11h targets at least two marker figures 1c and one marker figure 3k as detection targets. That is, the image sensor is configured by a plurality (for example, two per one housing) of cameras 11e to 11h arranged in parallel in the same direction, and each of the cameras 11e to 11h has a plurality of indices (specifically, , Two marker figures 1c and one marker figure 3k) are detected. Then, at the time of position determination, the position recognition unit 13a individually recognizes the positions of the detection results of the cameras 11e to 11h, and appropriately combines these position recognition results to recognize the position information of the upper housings 3e and 3h. To do. Therefore, in the second embodiment, for each of the upper housings 3e and 3h, not only the three-dimensional coordinate position but also the azimuth, posture (inclined state), etc. are detected from the detection results of the cameras 11e to 11h. The recognition can be performed, and the recognition can be performed with high accuracy.
また、第二実施形態では、外部指標1aとして、所定間隔で配列された複数のマーカ図
形1cを用いる。したがって、自走機能を持つスリップフォーム機2を用いて長尺状のコ
ンクリート構造物を連続的に打設していく場合に適用して非常に好適なものとなる。例え
ば、スリップフォーム工法では、スリップフォーム機2の進行方向に沿って長尺状の連続
体からなるセンサラインを敷設し、そのセンサラインに沿ってスリップフォーム機2を移
動させることがある。これに対して、外部指標1aとして複数のマーカ図形1cを用いれ
ば、連続体の敷設を要することなく、当該マーカ図形1cを点在させることで、スリップ
フォーム機2を高精度に移動させることが可能となる。しかも、センサラインの場合とは
異なり、姿勢(傾斜)についても認識することが可能となる。そのため、スリップフォー
ム工法のように、建設機械を所定方向に移動させながら施工を行う場合に適用して非常に
好適なものとなる。
Further, in the second embodiment, a plurality of marker figures 1c arranged at predetermined intervals are used as the external index 1a. Therefore, it is very suitable when applied to the case where a long concrete structure is continuously placed using the slip-form machine 2 having a self-propelled function. For example, in the slipform construction method, a sensor line composed of a long continuous body may be laid along the traveling direction of the slipform machine 2, and the slipform machine 2 may be moved along the sensor line. On the other hand, if a plurality of marker figures 1c are used as the external index 1a, it is possible to move the slipform machine 2 with high accuracy by interspersing the marker figures 1c without laying a continuum. It will be possible. Moreover, unlike the case of the sensor line, it is possible to recognize the posture (inclination). Therefore, it is very suitable to be applied in the case where construction is performed while moving the construction machine in a predetermined direction like the slip-form construction method.
<4.他の実施形態>
以上に、本発明の実施形態を具体的に説明したが、本発明の技術的範囲は上述の実施形
態に限定されるものではなく、その要旨を逸脱しない範囲で種々変更可能である。
<4. Other Embodiments>
Although the embodiments of the present invention have been specifically described above, the technical scope of the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the invention.
例えば、第一実施形態ではバックホウ2を、また第二実施形態ではスリップフォーム機
2を、それぞれ建設機械として例示したが、本発明の技術的範囲がこれらに限定されるこ
とはない。つまり、本発明は、土木用途機械、運搬機械、荷役機械、基礎工事用機械、せ
ん孔機械、トンネル工事用機械、圧砕機等のコンクリート機械、舗装機械、道路維持用機
械、圧雪車、自走型草刈機等、様々な種類の建設機械に適用可能である。
建設機械が圧雪車である場合には、例えば、スキー場のゲレンデに外部指標を配置する
ことで、その圧雪車のブレードによる施工箇所(圧雪箇所)を、当該圧雪車が自律的にモ
ニタすることが可能になる。また、建設機械が自走型草刈機である場合には、例えば、ゴ
ルフ場のコースに外部指標を配置することで、その自走型草刈機のカッタ刃による施工箇
所(草刈箇所)を、当該自走型草刈機が自律的にモニタすることが可能になる。
For example, the backhoe 2 in the first embodiment and the slip foam machine 2 in the second embodiment are exemplified as the construction machine, but the technical scope of the present invention is not limited thereto. That is, the present invention is a civil engineering machine, a transport machine, a cargo handling machine, a foundation construction machine, a drilling machine, a tunnel construction machine, a concrete machine such as a crusher, a paving machine, a road maintenance machine, a snow plow, a self-propelled type It can be applied to various types of construction machines such as mowers.
When the construction machine is a snow plow, for example, by arranging an external index on the slope of the ski resort, the snow plow can autonomously monitor the construction site (snow plow) by the blade of the snow plow. Will be possible. In addition, when the construction machine is a self-propelled mower, for example, by arranging an external index on the course of the golf course, the construction site (cutting place) by the cutter blade of the self-propelled mower The self-propelled mower can be autonomously monitored.
また、第一実施形態では、外部指標1aにマーカ図形1bが付設されている場合を例に
挙げたが、本発明の技術的範囲がこれに限定されることはない。つまり、マーカ図形1b
が付設されていなくても、例えば、外部指標1aとして標尺またはこれに準ずるものを用
いれば、その標尺の目盛等の画像を解析することで、その外部指標1aが配置された基準
点の位置を特定することが可能である。
In the first embodiment, the case where the marker figure 1b is attached to the external index 1a is described as an example, but the technical scope of the present invention is not limited to this. That is, the marker graphic 1b
Even if the external indicator 1a is not attached, for example, if a staff or a similar one is used as the external index 1a, the position of the reference point where the external index 1a is arranged can be determined by analyzing the image of the scale or the like of the staff. It is possible to specify.
また、第一実施形態および第二実施形態では、いずれも、検出センサ部11としてイメ
ージセンサ(カメラ)11a,11b,11e〜11hを用いる場合を例に挙げたが、本
発明の技術的範囲がこれに限定されることはない。つまり、検出センサ部11は、少なく
とも建設機械の位置認識を行い得るものであれば、イメージセンサに代えて、またはイメ
ージセンサに加えて、他のセンサを用いてもよい。
例えば、他のセンサとして、赤外線カメラまたは赤外線センサを用いることが考えられ
る。赤外線を利用したものであれば、夜間やトンネル工事現場等といった特殊な環境下で
あっても、照明の影響等を抑制しつつ、高精度な位置認識を行うことが可能となる。
また、位置認識を行い得る他のセンサとしては、例えば、単独計測タイプのGPS装置
を複数用いることが考えられる。単独計測タイプのGPS装置であれば近年安価なものが
流通しており、またGPS装置同士の相対位置であれば高精度に認識し得るという特性を
利用しつつ、複数のGPS装置を用いることで、少なくとも数cmオーダーの高精度な位
置認識を行うことが可能となる。
In each of the first and second embodiments, the case where the image sensors (cameras) 11a, 11b, and 11e to 11h are used as the detection sensor unit 11 has been described as an example, but the technical scope of the present invention is not limited to this. It is not limited to this. That is, the detection sensor unit 11 may use another sensor instead of the image sensor or in addition to the image sensor as long as it can at least recognize the position of the construction machine.
For example, it is possible to use an infrared camera or an infrared sensor as another sensor. If infrared rays are used, even in a special environment such as at night or in a tunnel construction site, it is possible to perform highly accurate position recognition while suppressing the influence of lighting and the like.
Further, as another sensor capable of recognizing the position, for example, a plurality of single measurement type GPS devices may be used. By using a plurality of GPS devices, the inexpensive single-measurement type GPS devices are in circulation in recent years, and the relative positions of the GPS devices can be recognized with high accuracy. It becomes possible to perform highly accurate position recognition on the order of at least several cm.
また、第一実施形態および第二実施形態では、いずれも、検出センサ部11としてイメ
ージセンサ(カメラ)11a,11b,11e〜11hと傾斜センサ11c,11d,1
1i,11jとを組み合わせてを用いる場合を例に挙げたが、本発明の技術的範囲がこれ
に限定されることはない。例えば、検出センサ部11がイメージセンサ(カメラ)のみに
よって構成されている場合であっても、その検出結果に基づいて位置認識を行うことは可
能である。ただし、第一実施形態および第二実施形態で説明したように、イメージセンサ
(カメラ)と傾斜センサとを組み合わせて用いれば、検出センサ部11としての構成が複
雑化してしまうのを抑制しつつ、高精度の位置認識を行うことが実現可能となる。
In each of the first and second embodiments, the image sensor (camera) 11a, 11b, 11e to 11h and the tilt sensors 11c, 11d, 1 are used as the detection sensor unit 11.
The case where 1i and 11j are used in combination has been described as an example, but the technical scope of the present invention is not limited to this. For example, even if the detection sensor unit 11 is composed of only an image sensor (camera), it is possible to perform position recognition based on the detection result. However, as described in the first embodiment and the second embodiment, if the image sensor (camera) and the tilt sensor are used in combination, it is possible to prevent the configuration of the detection sensor unit 11 from becoming complicated, It becomes feasible to perform highly accurate position recognition.
また、第一実施形態では、第二認識処理に際して、可動指標としてのマーカ図形3aの
撮像結果を基にバケット3dによる施工箇所の位置認識をする場合を例に挙げたが、例え
ば、第一アーム3b、第二アーム3cおよびバケット3dのそれぞれに傾斜センサが設け
られていれば、各傾斜センサによる検出結果を利用して位置認識をするようにしてもよい
。第一アーム3b、第二アーム3cおよびバケット3dのそれぞれの回転角の検出結果を
組み合わせれば、バケット3dの剣先位置を特定することが可能だからである。
Further, in the first embodiment, the case where the position of the construction site is recognized by the bucket 3d based on the imaging result of the marker figure 3a as the movable index in the second recognition process is described as an example. If an inclination sensor is provided on each of 3b, the second arm 3c, and the bucket 3d, the position may be recognized using the detection result of each inclination sensor. This is because the sword tip position of the bucket 3d can be specified by combining the detection results of the rotation angles of the first arm 3b, the second arm 3c, and the bucket 3d.
また、第二実施形態では、スリップフォーム工法によりコンクリート構造物(例えばU
字溝)を打設する場合を例に挙げたが、U字溝の他に、縁石、側溝、円形水路、防護柵、
路面舗装等を施工対象物とする場合であっても、全く同様に本発明を適用することが可能
である。
また、第二実施形態では、主として切削機2dと成型機2eを連動させる場合について
説明したが、切削機2dと成型機2eとが別々の建設機械として運転するようにしてもよ
い。その場合に、マシンガイダンス処理動作およびマシンコントロール処理動作は、それ
ぞれに対して別々に行われることになる。
また、第二実施形態では、マシンコントロール処理動作にあたり、アクチュエータ2h
,2lの油圧動作等を制御する場合を例に挙げたが、例えば、切削機2dの走行装置2f
や成型機2eの走行装置2j等に対する動作制御を行うようにしてもよい。
また、第二実施形態では、スリップフォーム工法で用いられるスリップフォーム機2に
本発明を適用した場合を例に挙げたが、進行方向に移動しながら施工を行う建設機械であ
れば、例えば、オープンシールド機(オープンピット機)の前筐体と後筐体等のように、
別工法において用いられる建設機械であっても、全く同様に本発明を適用することが可能
である。
Further, in the second embodiment, a concrete structure (for example, U
Although the example of the case of placing a gutter) was given, in addition to the U-shaped gutter, curbs, gutters, circular waterways, protective fences,
Even when the road surface pavement or the like is used as the construction object, the present invention can be applied in exactly the same manner.
In the second embodiment, the case where the cutting machine 2d and the molding machine 2e are mainly linked has been described, but the cutting machine 2d and the molding machine 2e may be operated as separate construction machines. In that case, the machine guidance processing operation and the machine control processing operation are performed separately for each.
In the second embodiment, the actuator 2h is used for the machine control processing operation.
, 2l is used as an example to control the hydraulic operation and the like, but, for example, the traveling device 2f of the cutting machine 2d is used.
Alternatively, the operation control of the traveling device 2j of the molding machine 2e or the like may be performed.
Further, in the second embodiment, the case where the present invention is applied to the slipform machine 2 used in the slipform construction method is taken as an example, but if it is a construction machine that performs construction while moving in the traveling direction, for example, open Like the front and rear housings of shield machines (open pit machines),
The present invention can be similarly applied to a construction machine used in another method.
また、上述の各実施形態では、本発明の技術思想を「建設機械管理システム」として具
現化した場合を例に挙げたが、必ずしもこれに限定されることはない。
例えば、本発明は、各実施形態で説明した建設機械の自律的なモニタ処理をコンピュー
タに実行させる「建設機械管理プログラム」としても成立し得る。つまり、本発明は、
「施工現場エリアを移動可能な建設機械に搭載される検出センサ部に接続されたコンピュ
ータを、
前記施工現場エリアに設置された外部指標についての前記検出センサ部での検出結果と
、前記建設機械が有する可動作業具に付された可動指標についての前記検出センサ部での
検出結果とを基に、前記施工現場エリアでの前記可動作業具による施工箇所の位置情報を
認識する位置認識手段、
として機能させる建設機械管理プログラム。」としても成立し得る。
Further, in each of the above-described embodiments, the case where the technical idea of the present invention is embodied as the “construction machine management system” has been described as an example, but the invention is not necessarily limited to this.
For example, the present invention can be realized as a “construction machine management program” that causes a computer to execute the autonomous monitoring process of the construction machine described in each embodiment. That is, the present invention is
"A computer connected to the detection sensor unit mounted on the construction machine that can move in the construction site area,
Based on the detection result of the detection sensor section for the external index installed in the construction site area, and the detection result of the detection sensor section for the movable index attached to the movable work tool of the construction machine , Position recognition means for recognizing position information of a construction site by the movable work tool in the construction site area,
Construction machine management program to function as. Can also be established.
また、例えば、本発明は、各実施形態で説明した建設機械の自律的なモニタ処理を行う
「建設機械管理方法」としても成立し得る。つまり、本発明は、
「施工現場エリアを移動可能な建設機械に搭載される検出センサ部を用い、
前記施工現場エリアに設置された外部指標についての前記検出センサ部での検出結果と
、前記建設機械が有する可動作業具に付された可動指標についての前記検出センサ部での
検出結果とを基に、前記施工現場エリアでの前記可動作業具による施工箇所の位置情報を
認識する
建設機械管理方法。」としても成立し得る。
Further, for example, the present invention can be realized as a “construction machine management method” that performs the autonomous monitoring process of the construction machine described in each embodiment. That is, the present invention is
"Using the detection sensor unit mounted on the construction machine that can move in the construction site area,
Based on the detection result of the detection sensor section for the external index installed in the construction site area, and the detection result of the detection sensor section for the movable index attached to the movable work tool of the construction machine A construction machine management method for recognizing position information of a construction site by the movable work tool in the construction site area. Can also be established.
また、例えば、本発明は、各実施形態で説明した自律的なモニタ処理を行う機能を備え
た「建設機械」としても成立し得る。つまり、本発明は、
「施工現場エリアを移動可能な建設機械であって、
前記建設機械に搭載される検出センサ部と、
前記検出センサ部に接続されたコンピュータ部と、を備え、
前記コンピュータ部は、前記施工現場エリアに設置された外部指標についての前記検出
センサ部での検出結果と、前記建設機械が有する可動作業具に付された可動指標について
の前記検出センサ部での検出結果とを基に、前記施工現場エリアでの前記可動作業具によ
る施工箇所の位置情報を認識する位置認識部を有する
建設機械。」としても成立し得る。
Further, for example, the present invention can be realized as a “construction machine” having the function of performing the autonomous monitor processing described in each embodiment. That is, the present invention is
"A construction machine that can move in the construction site area,
A detection sensor unit mounted on the construction machine,
A computer unit connected to the detection sensor unit,
The computer unit detects the detection result of the external index installed in the construction site area by the detection sensor unit and the detection sensor unit of the movable index attached to the movable work tool of the construction machine. A construction machine having a position recognition unit for recognizing position information of a construction site by the movable work tool in the construction site area based on the result. Can also be established.
また、例えば、本発明は、建設機械との間で情報授受を行うように構成されるとともに
、各実施形態で説明した建設機械の自律的なモニタ処理を行うように構成された「建設機
械の外部管理装置」としても成立し得る。つまり、本発明は、
「施工現場エリアを移動可能な建設機械と離れて配置され、前記建設機械との間で情報授
受を行うように構成された建設機械の外部管理装置であって、
施工現場エリアを移動可能な建設機械に搭載される検出センサ部を用い、
前記施工現場エリアに設置された外部指標についての前記検出センサ部での検出結果と
、前記建設機械が有する可動作業具に付された可動指標についての前記検出センサ部での
検出結果とを基に、前記施工現場エリアでの前記可動作業具による施工箇所の位置情報を
認識した認識結果について、
少なくとも前記認識結果または当該認識結果からの導出情報のいずれかを出力するよう
に構成されている、
建設機械の外部管理装置。」としても成立し得る。
In addition, for example, the present invention is configured to exchange information with a construction machine and to perform the autonomous monitoring process of the construction machine described in each embodiment. It can also be established as an "external management device". That is, the present invention is
“An external management device for a construction machine, which is arranged apart from a construction machine that is movable in a construction site area and is configured to exchange information with the construction machine,
Using the detection sensor unit mounted on the construction machine that can move in the construction site area,
Based on the detection result of the detection sensor section for the external index installed in the construction site area, and the detection result of the detection sensor section for the movable index attached to the movable work tool of the construction machine , About the recognition result of recognizing the position information of the construction site by the movable work tool in the construction site area,
At least one of the recognition result and the derived information from the recognition result is configured to be output,
External management equipment for construction machinery. Can also be established.
1…施工現場エリア、1a…外部指標、1b,1c…マーカ図形、2…建設機械(バッ
クホウ、スリップフォーム機)、2a…右無限軌道、2b…左無限軌道、2c…機台、2
d…前部切削機、2e…後部成型機、2f…走行装置、2g…車体部、2h…アクチュエ
ータ、3…可動作業具、3a,3k…可動指標(マーカ図形)、3b…第一アーム、3c
…第二アーム、3d…バケット、3e…上部筐体、3f…掘削ドラム、3g…カッタービ
ット、3h…上部筐体、3i…モールド、3j…バイブレータ、11…検出センサ部、1
1a,11b,11e〜11h…イメージセンサ(カメラ)、11c,11d,11i,
11j…傾斜センサ、12…情報通信部(データ通信端末)、13…コンピュータ部(S
BC)、13a…位置認識部、13b…データ取得部、13c…差分情報抽出部、13d
…ガイダンス出力部、13e…動作計画生成部、13f…動作指示部、20…外部管理装
置
1... Construction site area, 1a... External index, 1b, 1c... Marker figure, 2... Construction machine (backhoe, slipform machine), 2a... Right endless track, 2b... Left endless track, 2c... Machine stand, 2
d... front cutting machine, 2e... rear molding machine, 2f... running device, 2g... vehicle body part, 2h... actuator, 3... movable work tool, 3a, 3k... movable index (marker figure), 3b... first arm, 3c
...Second arm, 3d...bucket, 3e...upper casing, 3f...drilling drum, 3g...cutter bit, 3h...upper casing, 3i...mold, 3j...vibrator, 11...detection sensor unit, 1
1a, 11b, 11e to 11h... Image sensor (camera), 11c, 11d, 11i,
11j... Inclination sensor, 12... Information communication unit (data communication terminal), 13... Computer unit (S
BC), 13a... Position recognition unit, 13b... Data acquisition unit, 13c... Difference information extraction unit, 13d
... Guidance output unit, 13e... Operation plan generation unit, 13f... Operation instruction unit, 20... External management device
Claims (13)
前記施工現場エリアに設置された外部指標についての前記検出センサ部での検出結果と、前記建設機械が有する可動作業具に付された可動指標についての前記検出センサ部での検出結果とを基に、前記外部指標および前記可動指標の各位置と前記検出センサ部の位置との位置関係を利用した測量演算を行って、前記施工現場エリアでの前記可動作業具による施工箇所の三次元座標値を含む位置情報を認識する位置認識部と、
を備える建設機械管理システム。 A detection sensor unit mounted on a construction machine that can move in the construction site area,
Based on the detection result of the detection sensor section for the external index installed in the construction site area, and the detection result of the detection sensor section for the movable index attached to the movable work tool of the construction machine , Performing a survey calculation using the positional relationship between the position of each of the external index and the movable index and the position of the detection sensor unit to obtain a three-dimensional coordinate value of a construction site by the movable work tool in the construction site area. A position recognition unit that recognizes position information including
Construction machine management system equipped with.
請求項1に記載の建設機械管理システム。 The position recognition unit, through the first recognition process for recognizing the position information of the construction machine, and the second recognition process for recognizing the position information of the construction site by the movable work tool, the three-dimensional coordinates for the construction site. The construction machine management system according to claim 1, wherein position information including a value is recognized.
請求項1に記載の建設機械管理システム。 The construction machine management system according to claim 1, wherein the detection sensor unit is mounted on the construction machine that performs construction while moving in a predetermined direction.
請求項1から3のいずれか1項に記載の建設機械管理システム。 The construction machine management system according to any one of claims 1 to 3, wherein the position information recognized by the position recognition unit includes at least one of a posture and an orientation of the movable work tool.
を備える請求項1から4のいずれか1項に記載の建設機械管理システム。 The difference information extraction part which compares the recognition result by the said position recognition part with the construction plan data about the said construction site area, and extracts the difference of the said construction location with respect to the said construction plan data as difference information. The construction machine management system according to any one of 1.
を備える請求項5に記載の建設機械管理システム。 The construction machine management system according to claim 5, further comprising: a guidance output unit that outputs operation guidance information of the movable work tool generated based on the difference information extracted by the difference information extraction unit.
前記動作計画生成部が生成した動作計画情報を基に、前記建設機械が有する駆動制御部に対する動作指示を与える動作指示部と、
を備える請求項5または6に記載の建設機械管理システム。 Based on the difference information extracted by the difference information extraction unit, a motion plan generation unit that generates motion plan information of the movable work tool for matching the construction location with the construction plan data,
An operation instruction section for giving an operation instruction to the drive control section of the construction machine, based on the operation plan information generated by the operation plan generation section;
The construction machine management system according to claim 5, further comprising:
前記情報通信部が授受する情報には、少なくとも前記差分情報抽出部が抽出した差分情報または当該差分情報からの導出情報のいずれかが含まれる
請求項5から7のいずれか1項に記載の建設機械管理システム。 An information communication unit for exchanging information between the construction machine and an external management device arranged apart from the construction machine,
The construction according to any one of claims 5 to 7, wherein the information transmitted and received by the information communication unit includes at least one of difference information extracted by the difference information extraction unit and derivation information from the difference information. Machine management system.
前記位置認識部は、前記イメージセンサで得た画像に対する認識処理を行うことで、位置情報認識を行うように構成されている
請求項1から8のいずれか1項に記載の建設機械管理システム。 The detection sensor unit has an image sensor for capturing an image,
The construction machine management system according to any one of claims 1 to 8, wherein the position recognition unit is configured to perform position information recognition by performing recognition processing on an image obtained by the image sensor.
前記施工現場エリアに設置された外部指標についての前記検出センサ部での検出結果と、前記建設機械が有する可動作業具に付された可動指標についての前記検出センサ部での検出結果とを基に、前記外部指標および前記可動指標の各位置と前記検出センサ部の位置との位置関係を利用した測量演算を行って、前記施工現場エリアでの前記可動作業具による施工箇所の三次元座標値を含む位置情報を認識する位置認識手段、
として機能させる建設機械管理プログラム。 A computer connected to the detection sensor unit mounted on the construction machine that can move in the construction site area,
Based on the detection result of the detection sensor section for the external index installed in the construction site area, and the detection result of the detection sensor section for the movable index attached to the movable work tool of the construction machine , Performing a survey calculation using the positional relationship between the position of each of the external index and the movable index and the position of the detection sensor unit to obtain a three-dimensional coordinate value of a construction site by the movable work tool in the construction site area. Position recognition means for recognizing position information including
Construction machine management program to function as.
前記施工現場エリアに設置された外部指標についての前記検出センサ部での検出結果と、前記建設機械が有する可動作業具に付された可動指標についての前記検出センサ部での検出結果とを基に、前記外部指標および前記可動指標の各位置と前記検出センサ部の位置との位置関係を利用した測量演算を行って、前記施工現場エリアでの前記可動作業具による施工箇所の三次元座標値を含む位置情報を認識する
建設機械管理方法。 Using the detection sensor unit mounted on the construction machine that can move in the construction site area,
Based on the detection result of the detection sensor section for the external index installed in the construction site area, and the detection result of the detection sensor section for the movable index attached to the movable work tool of the construction machine , Performing a survey calculation using the positional relationship between the position of each of the external index and the movable index and the position of the detection sensor unit to obtain a three-dimensional coordinate value of a construction site by the movable work tool in the construction site area. A construction machine management method that recognizes location information including.
前記建設機械に搭載される検出センサ部と、
前記検出センサ部に接続されたコンピュータ部と、を備え、
前記コンピュータ部は、前記施工現場エリアに設置された外部指標についての前記検出センサ部での検出結果と、前記建設機械が有する可動作業具に付された可動指標についての前記検出センサ部での検出結果とを基に、前記外部指標および前記可動指標の各位置と前記検出センサ部の位置との位置関係を利用した測量演算を行って、前記施工現場エリアでの前記可動作業具による施工箇所の三次元座標値を含む位置情報を認識する位置認識部を有する
建設機械。 A construction machine that can be moved in the construction site area,
A detection sensor unit mounted on the construction machine,
A computer unit connected to the detection sensor unit,
The computer unit detects the detection result of the external index installed in the construction site area by the detection sensor unit and the detection sensor unit of the movable index attached to the movable work tool of the construction machine. Based on the result, by performing a survey calculation using the positional relationship between each position of the external index and the movable index and the position of the detection sensor unit, of the construction site by the movable work tool in the construction site area A construction machine having a position recognition unit that recognizes position information including three-dimensional coordinate values.
施工現場エリアを移動可能な建設機械に搭載される検出センサ部を用い、
前記施工現場エリアに設置された外部指標についての前記検出センサ部での検出結果と、前記建設機械が有する可動作業具に付された可動指標についての前記検出センサ部での検出結果とを基に、前記外部指標および前記可動指標の各位置と前記検出センサ部の位置との位置関係を利用した測量演算を行って、前記施工現場エリアでの前記可動作業具による施工箇所の三次元座標値を含む位置情報を認識した認識結果について、
少なくとも前記認識結果または当該認識結果からの導出情報のいずれかを出力するように構成されている、
建設機械の外部管理装置。 An external management device for a construction machine, which is arranged apart from a construction machine that can move a construction site area, and is configured to exchange information with the construction machine,
Using the detection sensor unit mounted on the construction machine that can move in the construction site area,
Based on the detection result of the detection sensor section for the external index installed in the construction site area, and the detection result of the detection sensor section for the movable index attached to the movable work tool of the construction machine , Performing a survey calculation using the positional relationship between the position of each of the external index and the movable index and the position of the detection sensor unit to obtain a three-dimensional coordinate value of a construction site by the movable work tool in the construction site area. About the recognition result of recognizing the location information including
At least one of the recognition result and the derived information from the recognition result is configured to be output,
External management equipment for construction machinery.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019075348A JP6684004B1 (en) | 2019-04-11 | 2019-04-11 | Construction machine management system, construction machine management program, construction machine management method, construction machine and construction machine external management device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019075348A JP6684004B1 (en) | 2019-04-11 | 2019-04-11 | Construction machine management system, construction machine management program, construction machine management method, construction machine and construction machine external management device |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018232862A Division JP6529058B1 (en) | 2018-12-12 | 2018-12-12 | Construction machine management system, construction machine management program, construction machine management method, construction machine and external management device for construction machine |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020048774A Division JP7215742B2 (en) | 2020-03-19 | 2020-03-19 | Construction Machinery Management System, Construction Machinery Management Program, Construction Machinery Management Method, Construction Machinery and External Management Device for Construction Machinery |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6684004B1 JP6684004B1 (en) | 2020-04-22 |
JP2020094469A true JP2020094469A (en) | 2020-06-18 |
Family
ID=70286833
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019075348A Active JP6684004B1 (en) | 2019-04-11 | 2019-04-11 | Construction machine management system, construction machine management program, construction machine management method, construction machine and construction machine external management device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6684004B1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022026520A1 (en) * | 2020-07-28 | 2022-02-03 | Construct A.I. Inc. | Machine learning based construction methods, techniques, and algorithms |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010066117A (en) * | 2008-09-10 | 2010-03-25 | Hitachi Constr Mach Co Ltd | Stereo image processor of working machine |
JP2014074317A (en) * | 2012-10-05 | 2014-04-24 | Serita Kensetsu Co Ltd | Construction support apparatus, and the method and program |
JP2015224875A (en) * | 2014-05-26 | 2015-12-14 | Kyb株式会社 | Operation state detection system of work machine, and work machine |
WO2017061516A1 (en) * | 2015-10-05 | 2017-04-13 | 株式会社小松製作所 | Construction management system and construction management method |
JP2018184815A (en) * | 2017-04-27 | 2018-11-22 | 株式会社小松製作所 | Calibration device of imaging device, work machine and calibration method |
-
2019
- 2019-04-11 JP JP2019075348A patent/JP6684004B1/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010066117A (en) * | 2008-09-10 | 2010-03-25 | Hitachi Constr Mach Co Ltd | Stereo image processor of working machine |
JP2014074317A (en) * | 2012-10-05 | 2014-04-24 | Serita Kensetsu Co Ltd | Construction support apparatus, and the method and program |
JP2015224875A (en) * | 2014-05-26 | 2015-12-14 | Kyb株式会社 | Operation state detection system of work machine, and work machine |
WO2017061516A1 (en) * | 2015-10-05 | 2017-04-13 | 株式会社小松製作所 | Construction management system and construction management method |
JP2018184815A (en) * | 2017-04-27 | 2018-11-22 | 株式会社小松製作所 | Calibration device of imaging device, work machine and calibration method |
Also Published As
Publication number | Publication date |
---|---|
JP6684004B1 (en) | 2020-04-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6925775B2 (en) | Construction management system | |
AU2021201894B2 (en) | Shape measuring system and shape measuring method | |
JP2020159192A (en) | Display system, construction machine, and display method | |
JP7215742B2 (en) | Construction Machinery Management System, Construction Machinery Management Program, Construction Machinery Management Method, Construction Machinery and External Management Device for Construction Machinery | |
JP6794449B2 (en) | Management system | |
JP6585697B2 (en) | Construction management system | |
WO2020121933A1 (en) | Construction machinery management system, construction machinery management program, construction machinery management method, construction machinery, and external management device for construction machinery | |
JP6918716B2 (en) | Construction machinery | |
AU2019292457B2 (en) | Display control device, display control system, and display control method | |
JP2019190193A (en) | Work machine | |
AU2021201940A1 (en) | Construction method, work machine control system, and work machine | |
CN108779985B (en) | Construction management system | |
JP6606230B2 (en) | Shape measurement system | |
JP6684004B1 (en) | Construction machine management system, construction machine management program, construction machine management method, construction machine and construction machine external management device | |
JP6815462B2 (en) | Shape measurement system and shape measurement method | |
JP7166326B2 (en) | Construction management system | |
JP2018178711A (en) | Method for generating shape information of construction site, and control system for work machine | |
JP3118173B2 (en) | Geodetic system | |
WO2024047785A1 (en) | Survey system and survey method | |
CN115398066A (en) | Construction method and construction system | |
CN118257314A (en) | Display device of construction machine and construction machine |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190411 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20190411 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190417 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20190605 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190702 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190828 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191105 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191204 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200225 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200319 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6684004 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |