JP2003333590A - System for generating image at site - Google Patents

System for generating image at site

Info

Publication number
JP2003333590A
JP2003333590A JP2002141556A JP2002141556A JP2003333590A JP 2003333590 A JP2003333590 A JP 2003333590A JP 2002141556 A JP2002141556 A JP 2002141556A JP 2002141556 A JP2002141556 A JP 2002141556A JP 2003333590 A JP2003333590 A JP 2003333590A
Authority
JP
Japan
Prior art keywords
image
construction machine
site
camera
construction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002141556A
Other languages
Japanese (ja)
Inventor
Hideyuki Wakai
秀之 若井
Atsushi Aoki
淳 青木
Hiroshi Miwa
浩史 三輪
Hiroyoshi Yamaguchi
博義 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Komatsu Ltd
Original Assignee
Komatsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Komatsu Ltd filed Critical Komatsu Ltd
Priority to JP2002141556A priority Critical patent/JP2003333590A/en
Publication of JP2003333590A publication Critical patent/JP2003333590A/en
Pending legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide a system for generating images at a site for grasping a three-dimensional shape of a construction site and properly informing the operator of a construction machine about a relation between a planned frame and a present completed amount, a traveling available range, and a dangerous range or the like. <P>SOLUTION: A plurality of camera poles 1 each provided with a stereo camera 3 comprising a plurality of cameras 2 are placed respectively at different places, and each camera 2 photographs a construction work site 5. Each stereo camera 3 applies stereo processing to a photographed image to obtain a distance image. A host device 4 acquiring the distance image from each stereo camera 3 integrates the distance images to produce three-dimensional model data of the construction work site 5. The operator of the construction machine 6 designates an optional virtual view point 9-1, 9-2, 9-3, or 9-4 to the host device 4 from a driver's seat. The host device 4 draws an image viewing the construction work site 5 from the designated virtual view point on the basis of the three-dimensional model data and transmits the image to the construction machine 6, which displays the image in front of the driver's seat. <P>COPYRIGHT: (C)2004,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、例えば建設機械な
どの作業車両の乗員等のオペレータや現場作業員や監督
者などに、現場を任意の仮想視点から観察した画像を提
供するための画像処理技術に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to image processing for providing an operator, such as an occupant of a work vehicle such as a construction machine, a site worker, or a supervisor with an image of a site observed from an arbitrary virtual viewpoint. Regarding technology.

【0002】[0002]

【従来の技術】例えば土木工事の施工現場においては、
現在、建設機械(以下、建機と略称する)のオペレータ
は丁張り(地面上に立てられた、木棒等で作られた、土
地等の出来形を指示するための十字架形やその他規定形
状のガイド)に基づいて施工を行っているが、実際の出
来形が丁張りに対してどの様になっているか、建機のオ
ペレータ席から正確に把握することは出来ない。そこ
で、建機オペレータを誘導する作業員を導入したり、建
機オペレータが席から降りて現況と丁張りの関係を確認
したりしているので作業効率が悪い。
2. Description of the Related Art For example, at a construction site of civil engineering,
Currently, operators of construction machines (hereinafter abbreviated as construction machines) use tautons (such as cruciforms and other prescribed shapes that stand on the ground, are made of wooden sticks, etc., to indicate the finished shape of the land, etc. However, it is not possible to accurately grasp from the operator's seat of the construction machine what the actual work is like for the siding. Therefore, work efficiency is poor because a worker who guides the construction machine operator is introduced or the construction machine operator descends from the seat and checks the relationship between the present condition and the tension.

【0003】自動車では、例えば特開2001-339716号の
様に、車両に搭載したカメラで撮影した画像を用い、仮
想的に視点位置をダイナミックに変更して、車内の表示
装置に運転状況に応じて車両周辺の最適な合成画像を表
示することができる車両周辺監視装置及び方法が開示さ
れている。この仮想視点の技術を、建機にも応用するこ
とによって施工作業の効率化が期待される。
In an automobile, for example, as disclosed in Japanese Patent Laid-Open No. 2001-339716, an image taken by a camera mounted on the vehicle is used to dynamically change the viewpoint position virtually, and a display device in the vehicle is used to change the viewpoint according to the driving situation. There is disclosed a vehicle periphery monitoring device and method capable of displaying an optimal composite image of the vehicle periphery. It is expected that the efficiency of construction work will be improved by applying this virtual viewpoint technology to construction machinery.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、特開20
01-339716号に記載のものをそのまま建機に適用して
も、建機搭載のカメラからの画像を用いるため、建機を
中心とした視点から建機周辺の現場領域を眺めた様子し
か把握することしかできない。また、建機が移動する範
囲内での現場の様子しか把握できず、現場全体の状況を
精度良く把握することができない。そのため、丁張りと
現況出来形との関係や走行可能範囲や危険範囲などとい
った、建機オペレータや現場作業員や監督者などが知り
たい現場全体の現況を、的確にそれらの関係者に知らせ
ることが困難である。
[Problems to be Solved by the Invention]
Even if the one described in No. 01-339716 is applied to the construction machine as it is, the image from the camera mounted on the construction machine is used, so it is only possible to understand how the site area around the construction machine is viewed from the viewpoint centering on the construction machine. You can only do it. Moreover, only the situation of the site within the range where the construction machine moves can be grasped, and the situation of the whole site cannot be grasped accurately. Therefore, it is necessary to accurately inform the relevant parties of the current situation of the entire site that the construction machine operator, site workers, supervisors, etc. want to know, such as the relationship between the tension and the current work model, the movable range and the dangerous range. Is difficult.

【0005】そこで、本発明の目的は、現場全体の現況
を把握して的確に関係者に知らせるためのシステムを提
供することである。
Therefore, an object of the present invention is to provide a system for grasping the current situation of the entire site and accurately informing the persons concerned.

【0006】[0006]

【課題を解決するための手段】本発明の一つの実施形態
に従う現場の画像生成システムは、現場をその現場の所
定の異なる場所から眺めた複数の画像を入力する画像入
力手段と、所望の仮想視点を指定する視点指定手段と、
前記現場の複数の画像を用いて、前記指定された仮想視
点から前記現場を眺めた画像を生成する画像生成手段と
を備える。
An on-site image generation system according to an embodiment of the present invention includes an image input unit for inputting a plurality of images of a site viewed from different predetermined places on the site, and a desired virtual image. A viewpoint specifying means for specifying a viewpoint,
An image generating unit that generates an image of the site viewed from the designated virtual viewpoint using a plurality of images of the site.

【0007】好適な実施形態では、前記画像生成手段
は、前記現場の3次元モデルデータを生成する3次元モ
デリング手段を更に有する。
In a preferred embodiment, the image generating means further comprises a three-dimensional modeling means for generating the three-dimensional model data of the site.

【0008】好適な実施形態では、現場を観察できる異
なる場所に配置された複数台のステレオカメラを備え、
前記画像生成手段は、前記複数台のステレオカメラが撮
影した画像を用いて、前記指定された仮想視点から前記
現場を眺めた画像を生成する。
[0008] In a preferred embodiment, a plurality of stereo cameras arranged at different places where the scene can be observed are provided,
The image generation means generates an image of the site viewed from the designated virtual viewpoint, using the images captured by the plurality of stereo cameras.

【0009】好適な実施形態では、また、前記ステレオ
カメラの各々は、上下方向に一列に並んだ複数のカメラ
を有したポール形のものである。
In a preferred embodiment, each of the stereo cameras is a pole type having a plurality of cameras arranged in a line in the vertical direction.

【0010】好適な実施形態では、また、前記画像入力
手段は、前記現場の複数の動画像を入力し、前記画像生
成手段は、前記入力された複数の動画像を用いて、前記
指定された仮想視点から前記現場を眺めた動画像を生成
する。
In a preferred embodiment, the image input means inputs a plurality of moving images of the scene, and the image generating means uses the plurality of input moving images to perform the designation. A moving image in which the scene is viewed from a virtual viewpoint is generated.

【0011】好適な実施形態では、また、前記現場にお
ける丁張り等の特定物の3次元位置を検出する特定物検
出手段を更に備え、前記画像生成手段は、前記現場を眺
めた画像を生成するとき、前記検出された特定物の3次
元位置に基づいて、前記生成した画像に、前記特定物を
示すための表示を含める。
In a preferred embodiment, further, a specific object detecting means for detecting a three-dimensional position of a specific object such as a marking on the site is further provided, and the image generating means generates an image looking at the site. At this time, based on the detected three-dimensional position of the specific object, a display for showing the specific object is included in the generated image.

【0012】好適な実施形態では、また、前記視点指定
手段と前記表示手段は、前記現場で作業する作業車両に
搭載されている。
In a preferred embodiment, the viewpoint designating means and the display means are mounted on a work vehicle working on the site.

【0013】好適な実施形態では、また、前記視点指定
手段は、指定された1以上の仮想視点を登録する視点登
録手段と、登録されている1以上の仮想視点の中から所
望の仮想視点を選択する視点選択手段とを有し、前記画
像生成手段は、前記視点選択手段によって仮想視点が或
る値から別の値へと切り替えられると、これに直ちに応
答して、画像を生成するときの仮想視点を切り替える。
In a preferred embodiment, the viewpoint designating means registers a viewpoint registration means for registering one or more designated virtual viewpoints, and a desired virtual viewpoint from the registered one or more virtual viewpoints. The image generating means has a viewpoint selecting means for selecting, and when the virtual viewpoint is switched from a certain value to another value by the viewpoint selecting means, the image generating means responds to this immediately when generating an image. Switch the virtual viewpoint.

【0014】[0014]

【発明の実施の形態】以下、本発明を適用した実施形態
に係る作業車両のための現場画像生成システムについ
て、図面を用いて説明する。
BEST MODE FOR CARRYING OUT THE INVENTION A site image generation system for a work vehicle according to an embodiment to which the present invention is applied will be described below with reference to the drawings.

【0015】図1は、本発明の第1の実施形態に係る現
場画像生成システムにおいて建設作業現場に設置された
カメラの配置などを示す図である。
FIG. 1 is a diagram showing the arrangement of cameras installed at a construction work site in the on-site image generation system according to the first embodiment of the present invention.

【0016】本システムは、複数(ここでは3本)のカ
メラポール1を有し、各カメラポール1は、建設作業現
場5を撮影するために、それぞれ異なる位置に配置され
ている。各カメラポール1は、地面に固定することもで
きるし、車両などに搭載して、移動可能とすることもで
きる。各カメラポール1が配置される位置は、建設作業
現場5全体を撮影するために、死角ができないような位
置に配置され、その三次元座標は予め計測されている。
カメラポール1の本数は、必ずしも3本である必要は無
い。
The present system has a plurality (here, three) of camera poles 1, and each camera pole 1 is arranged at a different position in order to photograph the construction work site 5. Each camera pole 1 can be fixed to the ground, or can be mounted on a vehicle or the like to be movable. The position at which each camera pole 1 is arranged is arranged at a position where a blind spot cannot be made in order to photograph the entire construction work site 5, and its three-dimensional coordinates are measured in advance.
The number of camera poles 1 does not necessarily have to be three.

【0017】各カメラポール1は、所定の異なる相対位
置に配置された複数(ここでは5台)の動画カメラ2
(例えば、ビデオカメラ)を組み合わてなるステレオカ
メラ3を有する。1つのステレオカメラ3に含まれる5
台のカメラ2は、高さ方向に一列に並んでいるが、必ず
しもそうでなければならないわけではなく、例えばサイ
コロの5の目のように並んでいても、或いは、他の配置
であってもよく、さらに、カメラ2の台数も5台である
必要は無く、2台以上であれば5台より多くても少なく
てもよい。そして、各カメラポール1のすべてのカメラ
2が、建設作業現場の建設作業現場5を同時に撮影す
る。各カメラポール1からの5本の動画像から、後述す
るように、それぞれ距離画像が独立して生成され、それ
らの距離画像から建設作業現場5の動的な3次元モデル
が合成されることになる。
Each camera pole 1 includes a plurality of (five in this case) moving image cameras 2 arranged at different predetermined relative positions.
It has a stereo camera 3 which is a combination of (for example, a video camera). 5 included in one stereo camera 3
The cameras 2 in a row are arranged in a line in the height direction, but this does not necessarily have to be the case. For example, the cameras 2 may be arranged in a row of 5's on the dice or other arrangements. Well, the number of cameras 2 does not have to be 5, and may be more or less than 5 as long as it is 2 or more. Then, all the cameras 2 of each camera pole 1 simultaneously photograph the construction work site 5 of the construction work site. As will be described later, distance images are independently generated from the five moving images from each camera pole 1, and a dynamic three-dimensional model of the construction work site 5 is synthesized from these distance images. Become.

【0018】建設作業現場5には複数箇所に丁張り7が
打ってあり、建設機械(以下、建機という)6が丁張り
7に従って所定の作業を行っている。ここで、図中、丁
張り7を結んでいる点線8は、丁張り7によって指示さ
れる土地の出来形を表した仮想的な設計線である。建機
6のオペレータは、丁張り7の示す設計線8に土地形状
が合うように作業を行なうことになるから、作業中随時
に丁張り7と実際の地形との関係を確認する必要があ
る。また、安全かつ効率的に作業を進めるために、オペ
レータは、随時に建設作業現場5の地形を観察して、危
険領域や走行可能領域なども把握する必要がある。
The construction work site 5 is provided with stakes 7 at a plurality of points, and a construction machine (hereinafter referred to as a construction machine) 6 performs a predetermined work according to the stakes 7. Here, in the figure, the dotted line 8 connecting the stakes 7 is a virtual design line that represents the finished shape of the land indicated by the stakes 7. Since the operator of the construction machine 6 will perform work so that the land shape matches the design line 8 indicated by the stake 7, it is necessary to check the relation between the stake 7 and the actual topography at any time during the work. . Further, in order to proceed with the work safely and efficiently, the operator needs to observe the topography of the construction work site 5 at any time to grasp the dangerous area and the travelable area.

【0019】それを可能にするために、後に詳述するよ
うに、建機6の運転室にはジョイスティックのような操
作装置とディスプレイ装置をもった情報端末が備え付け
られている。そして、オペレータは運転席上で操作装置
を操作することで任意の仮想視点(視点の位置と視線の
方向を含み、以下、纏めて視点パラメータという)を指
定することができ、また、予め任意の複数の視点パラメ
ータを登録しておいて、その中から所望の視点パラメー
タを選択することもできる。建機6とは別の場所に設置
された(又は建機6に搭載された)ホストコンピュータ
が、ステレオカメラ3からの動画像を用いて建設作業現
場5の動的な3次元モデルデータを生成し、その動的な
3次元モデルデータを用いて、オペレータの望む視点パ
ラメータで建設作業現場5を眺めたときの動画像を作成
して、その動画像を建機6の運転室の情報端末へ送って
そのディスプレイ装置に表示する。オペレータは、その
動作画像を見て施工状態の確認を行う。
In order to make that possible, as will be described in detail later, the operator's cab of the construction machine 6 is equipped with an information terminal having an operating device such as a joystick and a display device. Then, the operator can specify an arbitrary virtual viewpoint (including the position of the viewpoint and the direction of the line of sight, which will be collectively referred to as a viewpoint parameter) by operating the operating device on the driver's seat. It is also possible to register a plurality of viewpoint parameters and select a desired viewpoint parameter from among them. A host computer installed (or mounted on the construction machine 6) in a place different from the construction machine 6 generates dynamic three-dimensional model data of the construction work site 5 using the moving image from the stereo camera 3. Then, using the dynamic three-dimensional model data, a moving image when the construction work site 5 is viewed with the viewpoint parameter desired by the operator is created, and the moving image is sent to the information terminal in the cab of the construction machine 6. It is sent and displayed on the display device. The operator confirms the construction state by looking at the operation image.

【0020】建機6は、それぞれ、ステレオカメラ3か
ら視認できる所定場所(ここでは運転席の屋根上の所定
位置)に特定形状(ここでは球形)のマーカ61、62
を複数(ここでは2つ)備える。マーカ61および62
は、例えば、互いに異なる色が着色されていて、カメラ
2で撮影した画像から画像処理によって識別可能であ
る。このマーカペアは、後述するように、建機6の位置
および向きを検出するときに利用される。
Each of the construction machines 6 has a specific shape (here, a spherical shape) markers 61, 62 at a predetermined location (here, a predetermined position on the roof of the driver's seat) visible from the stereo camera 3.
A plurality (here, two) are provided. Markers 61 and 62
Are colored in different colors, for example, and can be identified by image processing from an image captured by the camera 2. This marker pair is used when detecting the position and direction of the construction machine 6, as described later.

【0021】次に、本システムの機能構成について、図
2〜図5を用いて説明する。
Next, the functional configuration of this system will be described with reference to FIGS.

【0022】図2は、本システムの概略的な動作の流れ
を示す。
FIG. 2 shows a schematic operation flow of this system.

【0023】図2に示すように、ステップ100で、複
数のステレオカメラ3によって建設作業現場5の地形情
報(距離画像)が収集される。ステップ110で、複数
のステレオカメラ3からの地形情報が合成されて建設作
業現場5の動的な3次元モデルデータが生成される。ス
テップ120で、予め登録されている複数の視点パラメ
ータの中からオペレータ所望の視点パラメータが指定さ
れる。ステップ130で、指定された視点パラメータで
建設作業現場5を眺めた動画像が、上記動的な3次元モ
デルデータから生成される。ステップ140で、その動
画像が建機運転室内のディスプレイ装置に表示される。
As shown in FIG. 2, in step 100, topographical information (distance image) of the construction work site 5 is collected by the plurality of stereo cameras 3. In step 110, topographical information from the plurality of stereo cameras 3 is combined to generate dynamic three-dimensional model data of the construction work site 5. At step 120, a viewpoint parameter desired by the operator is designated from among a plurality of registered viewpoint parameters. In step 130, a moving image of the construction work site 5 viewed from the specified viewpoint parameter is generated from the dynamic three-dimensional model data. In step 140, the moving image is displayed on the display device in the construction machine driver's cab.

【0024】視点パラメータの指定は、建機運転室内の
ジョイスティックなどの操作装置を操作することで行な
われ、上述したように予め登録された複数の視点パラメ
ータの中から選択するだけでなく、視点パラメータを自
由に動かして好きな視点パラメータを指定することもで
きる。通常、作業の開始時に、ステップ150で、オペ
レータは視点パラメータを適当に変えながらその視点パ
ラメータでの画像を観察することで、丁張りと土地との
関係或いは地形の状態等が都合良く把握できる適切な視
点パラメータ(視点位置と視線方向)を探す。そして、ス
テップ160で、見つかった適切な視点パラメータの各
々を車載の上記情報端末又は上記ホストコンピュータに
登録する。この方法で複数の視点パラメータを登録する
ことができる。例えば、図1に例示するように、丁張り
7の示す仮想設計線8の高さでそれに直交する方向から
水平に眺めた(つまり、現場5の断面図が表示されるよ
うな)視点パラメータ9−1、9−2、9−3や、上空
から鉛直に見下ろした(つまり、現場5の平面図が表示
されるような)視点パラメータ9−4などを、見つけて
登録することができる。一旦1以上の視点パラメータが
登録されると、以後、上述したステップ120〜140
によって、その登録された視点パラメータをオペレータ
が選択するだけで、いちいち視点パラメータをマニュア
ルで変化させ調整しなくても、システムは直ちにその選
択された視点パラメータで建設作業現場5を眺めた画像
を生成して、ディスプレイ装置に表示する。登録された
視点パラメータの変更や削除や追加は自由である。
The designation of the viewpoint parameter is performed by operating an operating device such as a joystick in the operator's cab of the construction machine. As described above, the viewpoint parameter is not only selected from the plurality of registered viewpoint parameters. You can also move freely to specify the viewpoint parameters you like. Usually, at the start of the work, in step 150, the operator appropriately changes the viewpoint parameter and observes the image with the viewpoint parameter, so that it is possible to conveniently grasp the relation between the tent and the land or the state of the terrain. Search for different viewpoint parameters (viewpoint position and line-of-sight direction). Then, in step 160, each of the appropriate viewpoint parameters found is registered in the in-vehicle information terminal or the host computer. Multiple viewpoint parameters can be registered by this method. For example, as illustrated in FIG. 1, a viewpoint parameter 9 when viewed horizontally from the direction orthogonal to the height of the virtual design line 8 indicated by the tension 7 (that is, a sectional view of the site 5 is displayed) 9. It is possible to find and register -1, 9-2, 9-3, the viewpoint parameter 9-4 vertically viewed from above (that is, a plan view of the site 5 is displayed), and the like. Once one or more viewpoint parameters are registered, the above steps 120 to 140 will be performed thereafter.
Thus, the operator simply selects the registered viewpoint parameter, and the system immediately generates an image of the construction work site 5 with the selected viewpoint parameter without manually changing and adjusting the viewpoint parameter. And display it on the display device. You can freely change, delete, or add the registered viewpoint parameters.

【0025】図3は、本システムの全体の機能構成を示
す図である。本システムは、各カメラポール1に設置さ
れたステレオカメラ3と、各ステレオカメラ3で合成さ
れた距離画像を統合して建設作業現場5の3次元モデル
を求めるホスト装置4と、建設機械6の運転席に搭載さ
れた情報端末200を備える。
FIG. 3 is a diagram showing the overall functional configuration of this system. This system includes a stereo camera 3 installed on each camera pole 1, a host device 4 that obtains a three-dimensional model of a construction work site 5 by integrating distance images synthesized by the stereo cameras 3, and a construction machine 6. The information terminal 200 mounted on the driver's seat is provided.

【0026】各ステレオカメラ3は、それぞれ、5台の
カメラ2と、その5台のカメラ2が撮影した輝度動画像
を用いてステレオ画像処理法により距離動画像を生成す
る画像処理部31と、画像処理部31の処理結果をホス
ト装置4へ無線で送信する無線送受信部32とを備え
る。(なお、この実施形態では、各ステレオカメラ3に
おいて距離動画像を生成してホスト装置4へ送信し、ホ
スト装置4にて、集まった複数の距離動画像から建設作
業現場5の3次元モデルを生成するようになっている
が、必ずしもそうでなければならないわけではない。他
の方式、例えば、各ステレオカメラ3では複雑な画像処
理は行なわずに、5台のカメラ2の輝度動画像をホスト
装置4へ送信し、ホスト装置4にて、ステレオ画像処理
法でステレオカメラ3毎の距離動画像を生成し、更に、
それらの距離動画像から3次元モデルを生成するように
してもよい。このようなステレオカメラ3とホスト装置
4の処理分担には、様々なバリエーションが採用し得る
から、以下の説明は一つの例示にすぎない。)
Each stereo camera 3 includes five cameras 2 and an image processing unit 31 for generating a distance moving image by a stereo image processing method using the luminance moving images captured by the five cameras 2. The wireless transmission / reception unit 32 wirelessly transmits the processing result of the image processing unit 31 to the host device 4. (In this embodiment, each stereo camera 3 generates a distance moving image and transmits the distance moving image to the host device 4, and the host device 4 generates a three-dimensional model of the construction site 5 from a plurality of collected distance moving images. However, it does not have to be the case that another method, for example, each stereo camera 3 does not perform complicated image processing, and the luminance moving image of the five cameras 2 is used as a host image. The data is transmitted to the device 4, and the host device 4 generates a range moving image for each stereo camera 3 by the stereo image processing method.
A three-dimensional model may be generated from those distance moving images. Since various variations can be adopted for the sharing of processing between the stereo camera 3 and the host device 4 as described above, the following description is merely one example. )

【0027】各ステレオカメラ3毎の画像処理部31の
詳細な機能構成を図4に示す。
FIG. 4 shows a detailed functional configuration of the image processing section 31 for each stereo camera 3.

【0028】画像処理部31は、建機位置認識部33
と、ステレオ処理部34と、座標変換処理部35とを備
える。
The image processing section 31 includes a construction machine position recognition section 33.
A stereo processing unit 34 and a coordinate conversion processing unit 35.

【0029】ここで、ステレオ画像処理を行って距離画
像を得るために、1つのステレオカメラ3に含まれる5
台のカメラ2のうち1台を基準カメラ2aとし、残りの
4台を比較カメラ2bとする。そして、基準カメラ2a
と比較カメラ2bの各々とで一つのカメラペアを構成す
る。すなわち、本実施形態では4つのカメラペアが構成
される。
Here, in order to perform a stereo image process to obtain a range image, 5 included in one stereo camera 3
One of the two cameras 2 is the reference camera 2a, and the remaining four are the comparison cameras 2b. And the reference camera 2a
And each of the comparison cameras 2b form one camera pair. That is, four camera pairs are configured in this embodiment.

【0030】ステレオ処理部34は、基準カメラ2aお
よび比較カメラ2bが撮影したそれぞれの画像のノイズ
を除去し且つエッジを強調するためのLoG(ラプラシ
アン・オブ・ガウシアン)処理部341と、各カメラペ
アごとに、基準カメラ2aからの画像(以下、基準画像
という)とそれぞれの比較カメラ2bからの画像(以
下、比較画像という)との間で、パターンマッチングを
行ってSAD(Sum of Absolute Distance)を計算する
SAD処理部342と、4つのカメラペアのSADを合
計するSSAD(Sum of SAD)処理部343と、距離画
像を合成する距離画像合成部344とを備える。
The stereo processing unit 34 includes a LoG (Laplacian of Gaussian) processing unit 341 for removing noise and enhancing edges of images captured by the reference camera 2a and the comparison camera 2b, and each camera pair. For each, pattern matching is performed between the image from the reference camera 2a (hereinafter referred to as the reference image) and the image from each comparison camera 2b (hereinafter referred to as the comparison image) to obtain the SAD (Sum of Absolute Distance). An SAD processing unit 342 for calculating, an SSAD (Sum of SAD) processing unit 343 for totaling SADs of four camera pairs, and a distance image combining unit 344 for combining distance images are provided.

【0031】各LoG処理部341が、各カメラ2から
の画像にそれぞれLoG処理を施すと、異なるカメラ間
の画質の差を小さくすることができる。その結果、引き
続く異なるカメラの画像間のでパターンマッチング処理
を精度の良いものにすることができる。
When each LoG processing unit 341 performs LoG processing on the image from each camera 2, the difference in image quality between different cameras can be reduced. As a result, it is possible to make the pattern matching process with high accuracy between successive images of different cameras.

【0032】各SAD処理部342およびSSAD処理
部343は、例えば、以下のような手順で処理を行い、
いわゆる対応点探索を行う。
Each of the SAD processing section 342 and the SSAD processing section 343 performs processing in the following procedure, for example,
A so-called corresponding point search is performed.

【0033】(1) 基準画像内から、距離計測のターゲ
ットとなる一つの画素を選ぶ。このターゲット画素に対
応する建設作業現場内の物体までの距離として、或る距
離を仮定する。そして、その仮定された距離だけ離れた
建設作業現場空間中の座標点に対応する各比較画像内の
画素(以下「対応候補画素」という)の位置を求める。
(1) Select one pixel as a target of distance measurement from the reference image. A certain distance is assumed as the distance to the object in the construction work site corresponding to this target pixel. Then, the position of the pixel (hereinafter referred to as “corresponding candidate pixel”) in each comparison image corresponding to the coordinate point in the construction work site space separated by the assumed distance is obtained.

【0034】(2) 基準画像内に、ターゲット画素の位
置を中心とする例えば3画素×3画素というサイズのマ
ッチングウィンドウ(画素ブロック)(以下、「参照ウ
ィンドウ」という)を設定する。各比較画像内にも、対
応候補画素の位置を中心とする同サイズのマッチングウ
インドウ(以下「比較ウィンドウ」という)を設定する。
(2) A matching window (pixel block) (hereinafter referred to as "reference window") having a size of, for example, 3 pixels × 3 pixels centered on the position of the target pixel is set in the reference image. Within each comparison image, a matching window (hereinafter referred to as “comparison window”) of the same size centered on the position of the corresponding candidate pixel is set.

【0035】(3) 個々のカメラペア毎に、基準画像上
の参照ウインドウ内の各画素の画素値と、比較画像上の
比較ウィンドウ内の対応する各画素の画素値とを比較
し、画素間の「相違度」を求める。なお、前記「相違度」と
しては、画素値間の差の絶対値、あるいは、画素値間の
差の二乗などを用いる。
(3) For each camera pair, the pixel value of each pixel in the reference window on the standard image and the pixel value of each corresponding pixel in the comparison window on the comparative image are compared, and “Dissimilarity” is calculated. As the “degree of difference”, the absolute value of the difference between pixel values, the square of the difference between pixel values, or the like is used.

【0036】(4) 参照ウインドウ内の全画素について
上記「相違度」を求め、それら「相違度」を参照ウイン
ドウ内の全画素について合計(以下、ウインドウ加算と
いう)して、「ウインドウ加算した相違度」をカメラペア
毎に求める。この「ウインドウ加算した相違度」が「SA
D」である。
(4) The "difference" is obtained for all the pixels in the reference window, and the "difference" is summed up for all the pixels in the reference window (hereinafter referred to as window addition) to obtain "difference obtained by window addition". Degree ”for each camera pair. This “window added difference” is “SA
D ".

【0037】SSAD処理部343は、各SAD処理部
342からの各カメラペアの「SAD」を取得し、そし
て、集まった4つのカメラペアの「SAD」を合計し
て、「相違度の最終合計」を求める。この「相違度の最終
合計」が「SSAD」である。
The SSAD processing unit 343 acquires the “SAD” of each camera pair from each SAD processing unit 342, and sums the “SAD” of the four camera pairs that have been collected to obtain the “final sum of dissimilarity”. Is asked. This "final total of dissimilarity" is "SSAD".

【0038】各SAD処理部342は、ターゲット画素
に対応する建設作業現場内の物体までの距離として、他
に複数個の距離を更に仮定し、それらの距離の各々につ
いても、上述した処理により「SAD」を求め、これに
対応して、SSAD処理部343が上述した処理を行な
って、各々の距離について「SSAD」を求める。そし
て、SSAD処理部343は「SSAD」が最小となる一
つの仮定距離を、ターゲット画素に対応する物体までの
距離として推定し、ターゲット画素および推定距離を距
離画像合成部344へ出力する。
Each SAD processing unit 342 further assumes a plurality of distances as the distance to the object in the construction work site corresponding to the target pixel, and each of these distances is " “SAD” is obtained, and in response to this, the SSAD processing unit 343 performs the above-described processing to obtain “SSAD” for each distance. Then, the SSAD processing unit 343 estimates one assumed distance at which “SSAD” is the minimum as the distance to the object corresponding to the target pixel, and outputs the target pixel and the estimated distance to the distance image synthesis unit 344.

【0039】ここで、「SSAD」が最小となるというこ
とは、基準画像の参照ウインドウ内の画像パターンと、
比較画像の比較ウィンドウ内の画像パターンとが最も良
く類似するということを意味している。
Here, the minimum "SSAD" means that the image pattern in the reference window of the standard image is
This means that the comparison image is most similar to the image pattern in the comparison window.

【0040】そして、基準画像内の全画素をターゲット
画素として上記のような処理を行って距離を推定し、距
離画像合成部344がこれを蓄積することにより、基準
画像に対応した距離画像が得られる。
Then, all pixels in the reference image are used as target pixels to perform the above-described processing to estimate the distance, and the distance image synthesizing unit 344 accumulates this to obtain a distance image corresponding to the reference image. To be

【0041】なお、本実施形態では、建機6の動きを実
時間で把握するために、各カメラ2は基本的に動画カメ
ラ(例えば、ビデオカメラ)であり、動画カメラ2から出
力される各時点のフレーム画像毎に対応点探索が行なわ
れる。その結果としてステレオ処理部34から出力され
る画像も、各時点のフレーム画像が距離画像であるよう
な動画像である。
In the present embodiment, in order to grasp the movement of the construction machine 6 in real time, each camera 2 is basically a moving image camera (for example, a video camera), and each output from the moving image camera 2. Corresponding point search is performed for each frame image at the time point. As a result, the image output from the stereo processing unit 34 is also a moving image in which the frame image at each time point is a distance image.

【0042】上記の対応点探索をステレオカメラ3ごと
に行なうことで、各ステレオカメラ3ごとに距離画像が
得られるが、各ステレオカメラ3の距離画像から得られ
る対象領域5の3次元座標値(つまり、画像内の画素の
x、y座標値と、画素値が示す距離値(z座標値))
は、そのステレオカメラ3の配置場所と方向を基準にし
たカメラ座標系で表現されたものである。従って、座標
変換処理部35は、各ステレオカメラ3の距離画像から
得られる各カメラ座標系の座標値を、所定の共通の基準
座標系に変換する処理を行う。
By performing the above corresponding point search for each stereo camera 3, a range image is obtained for each stereo camera 3, but the three-dimensional coordinate value of the target area 5 obtained from the range image of each stereo camera 3 ( That is, the x and y coordinate values of the pixel in the image and the distance value (z coordinate value) indicated by the pixel value)
Is expressed in a camera coordinate system based on the location and direction of the stereo camera 3. Therefore, the coordinate conversion processing unit 35 performs a process of converting the coordinate value of each camera coordinate system obtained from the distance image of each stereo camera 3 into a predetermined common reference coordinate system.

【0043】なお、座標変換処理を行なうための具体的
な装置として、例えば特開2002−32744号に開
示された装置を応用することができる。
As a specific device for performing the coordinate conversion process, for example, the device disclosed in JP-A-2002-32744 can be applied.

【0044】建機位置認識部33は、基準カメラからの
画像中の建機に付けられたマーカを検出するマーカ座標
検出部331と、カメラポール1からマーカまでの距離
を決定するマーカ距離決定部332とを備える。
The construction machine position recognition unit 33 includes a marker coordinate detection unit 331 that detects a marker attached to the construction machine in the image from the reference camera, and a marker distance determination unit that determines the distance from the camera pole 1 to the marker. 332.

【0045】マーカ座標検出部331は、5台のカメラ
2のうちの一つ、例えば基準カメラ2aから基準画像を
受け付ける。画像上では、建機6に取り付けられた各マ
ーカ61,62は、それぞれ円として写っているので、
パターン認識によってそれを抽出し、各マーカ61,6
2の基準画像上のx、y座標値を決定する。
The marker coordinate detector 331 receives a reference image from one of the five cameras 2, for example, the reference camera 2a. Since the markers 61 and 62 attached to the construction machine 6 are shown as circles in the image,
It is extracted by pattern recognition, and each marker 61, 6 is extracted.
2. Determine the x, y coordinate values on the two reference images.

【0046】マーカ距離決定部332は、距離画像合成
部344によって合成された基準画像に対応する距離画
像から、マーカ座標検出部331により検出された各マ
ーカ61,62のx、y座標に対応するz座標値を求
め、カメラポール1からマーカ61,62までの距離を
求める。
The marker distance determining unit 332 corresponds to the x and y coordinates of the markers 61 and 62 detected by the marker coordinate detecting unit 331 from the distance image corresponding to the reference image combined by the distance image combining unit 344. The z coordinate value is obtained, and the distance from the camera pole 1 to the markers 61 and 62 is obtained.

【0047】マーカ距離決定部332は、基準画像上で
の各マーカ61,62の座標値とカメラポール1から各
マーカ61,62までの距離を座標変換処理部35へ通
知する。座標変換処理部35は、距離画像の変換と同様
に、各マーカの位置を示す3次元座標値(画像内の画素
のx、y座標値と、マーカまでの距離値(z座標値))
を、所定の共通の基準座標系に変換する処理を行う。
The marker distance determination unit 332 notifies the coordinate conversion processing unit 35 of the coordinate values of the markers 61 and 62 on the reference image and the distances from the camera pole 1 to the markers 61 and 62. The coordinate conversion processing unit 35, similarly to the conversion of the distance image, three-dimensional coordinate values indicating the position of each marker (x and y coordinate values of pixels in the image and distance value to the marker (z coordinate value)).
Is converted into a predetermined common reference coordinate system.

【0048】座標変換処理部35は、各マーカの3次元
座標値および距離画像を無線送受信部32へ渡し、無線
送受信部32がホスト装置4へ送信する。(なお、変形
例として、座標変換処理部35はホスト装置4に設け、
座標変換前のカメラ座標系のマーカ座標値および距離画
像を、各ステレオカメラ3からホスト装置4へ送信する
ようにしてもよい。)
The coordinate conversion processing unit 35 transfers the three-dimensional coordinate values of each marker and the distance image to the wireless transmission / reception unit 32, and the wireless transmission / reception unit 32 transmits them to the host device 4. (Note that as a modification, the coordinate conversion processing unit 35 is provided in the host device 4,
You may make it transmit the marker coordinate value and distance image of the camera coordinate system before coordinate conversion from each stereo camera 3 to the host device 4. )

【0049】次に、図3に戻り、ホスト装置4及び建機
6の情報端末200について説明する。
Next, returning to FIG. 3, the information terminal 200 of the host device 4 and the construction machine 6 will be described.

【0050】ホスト装置4は、例えば汎用的なコンピュ
ータシステムにより構成され、以下に説明するホスト装
置4内の個々の構成要素または機能は、例えば、コンピ
ュータプログラムを実行することにより実現される。
The host device 4 is composed of, for example, a general-purpose computer system, and individual components or functions in the host device 4 described below are realized by executing a computer program, for example.

【0051】ホスト装置4は、その内部機能として、ス
テレオカメラ3からの無線信号を受信する無線送受信部
41と、複数のステレオカメラ3からのマーカの3次元
座標値に基づいて、個々の建機の位置及び方向を検出す
る建機検出部42と、複数のステレオカメラ3からの距
離画像を統計処理して建設作業現場の地形の3次元モデ
ルデータを生成する地形生成部43と、建機の位置及び
方向を示すデータと地形の3次元モデルデータをGIS
(Geographic Information System)データとして記憶
するためのGISデータ記憶部44とを備える。更に、
ホスト装置4は、GISデータ記憶部44内の地形の3
次元モデルデータの中から丁張りの部分を検出する丁張
り検出部45と、GISデータ記憶部44内の建機の位
置及び方向を示すデータ及び地形の3次元モデルデータ
を用いて、オペレータ所望の視点パラメータで建設作業
現場5を見た画像を作成するレンダリング部46と、建
機の情報端末200と無線で通信し、視点パラメータの
指定などの情報を情報端末200から受信したり、レン
ダリング部46からの画像をの情報端末200へ送信し
たりする無線送受信部47とを備える。
The host device 4 has, as its internal functions, a radio transmitter / receiver 41 for receiving a radio signal from the stereo camera 3 and an individual construction machine based on the three-dimensional coordinate values of the markers from the plurality of stereo cameras 3. Of a construction machine, which detects the position and direction of the construction machine, a terrain generation section 43 which statistically processes distance images from a plurality of stereo cameras 3 to generate three-dimensional model data of the terrain of a construction work site, GIS data including position and direction and 3D model data of topography
And a GIS data storage unit 44 for storing as (Geographic Information System) data. Furthermore,
The host device 4 uses the terrain 3 in the GIS data storage unit 44.
An operator-desired one is used by using the tension detection unit 45 that detects a tension portion from the three-dimensional model data, the data indicating the position and direction of the construction machine in the GIS data storage unit 44, and the three-dimensional model data of the terrain. The rendering unit 46, which creates an image of the construction work site 5 with the viewpoint parameter, wirelessly communicates with the information terminal 200 of the construction machine, receives information such as designation of the viewpoint parameter from the information terminal 200, and the rendering unit 46. The wireless transmission / reception unit 47 that transmits the image from the information terminal 200 to the information terminal 200.

【0052】また、建機の情報端末200も、例えば汎
用的なコンピュータシステムにより構成される。情報端
末200は、オペレータが視点パラメータの変更や登録
や選択を行なうための視点操作部201と、表示された
建設作業現場画像中からオペレータが丁張りの部分を指
定するための丁張り指定部202と、ホスト装置4から
の建設作業現場画像を表示するためのディスプレイ装置
203と、ホスト装置4と無線で通信して、視点操作部
201から視点パラメータの情報及び丁張り指定部20
2からの丁張り指定の情報をホスト装置4へ送信した
り、ホスト装置4から建設作業現場画像を受信したりす
る無線送受信部204とを備える。
The construction machine information terminal 200 is also composed of, for example, a general-purpose computer system. The information terminal 200 includes a viewpoint operating unit 201 for the operator to change, register, and select viewpoint parameters, and a marking specification unit 202 for the operator to specify the portion to be marked from the displayed construction work site image. And a display device 203 for displaying a construction work site image from the host device 4, and wireless communication with the host device 4, and the viewpoint operating unit 201 provides information about viewpoint parameters and the marking designation unit 20.
The wireless transmission / reception unit 204 that transmits the information for specifying the stitching from the host device 4 to the host device 4 and receives the construction work site image from the host device 4.

【0053】図5は、ホスト装置4の建機検出部42お
よび地形生成部43の詳細な構成を示す。
FIG. 5 shows the detailed construction of the construction machine detection section 42 and the terrain generation section 43 of the host device 4.

【0054】図5に示すように、建機検出部42は、3
つのステレオカメラ3がそれぞれ推定したマーカの位置
に基づいて、個々の建機に対応したマーカのペアを識別
し、そのマーカペアの位置から建機の位置および方向を
決定する建機位置決定部421と、地形の3次元モデル
中から個々の建機の3次元モデルを認識する建機認識部
422と、個々の建機の3次元モデルの特徴パターンを
記憶した建機パターン記憶部423とを備える。
As shown in FIG. 5, the construction machine detection unit 42 has three
A construction machine position determination unit 421 that identifies a pair of markers corresponding to each construction machine based on the positions of the markers estimated by the three stereo cameras 3 and determines the position and direction of the construction machine from the position of the marker pair. A construction machine recognition unit 422 that recognizes a three-dimensional model of each construction machine from the three-dimensional model of the terrain, and a construction machine pattern storage unit 423 that stores a characteristic pattern of the three-dimensional model of each construction machine.

【0055】建機位置決定部421は、例えば、3つの
ステレオカメラ3によって推定された各マーカの3次元
座標値に、所定の統計的処理(例えば、3つのステレオ
カメラ3からの座標値の平均値を求める、3つのステレ
オカメラ3からの座標値の多数決をとる、或いは、3つ
のステレオカメラ3からの座標値のうち最も信頼性の高
い値を選ぶ、など)を施して、各マーカの最終的な位置
座標値を決定する。そして、位置の確定した複数のマー
カを、相互位置関係が所定の関係になっているペアのマ
ーカに分類することで、個々の建機に取り付けられたペ
アのマーカ61,62を検出し、そのペアのマーカペア
61,62の代表的な位置をその建機の位置とし、そし
て、そのペアのマーカ61,62の配列方向に基づいて
その建機の方向を決定する。この位置と方向の決定を、
全ての建機(つまり、全てのペアのマーカ)について行
なう。
The construction machine position determining unit 421 uses a predetermined statistical process (for example, an average of the coordinate values from the three stereo cameras 3) on the three-dimensional coordinate values of the markers estimated by the three stereo cameras 3, for example. The majority of the coordinate values from the three stereo cameras 3 is calculated, or the most reliable value among the coordinate values from the three stereo cameras 3 is selected. The specific position coordinate value. Then, by classifying the plurality of fixed-position markers into a pair of markers having a predetermined mutual positional relationship, the pair of markers 61 and 62 attached to each construction machine are detected, and The representative position of the pair of markers 61, 62 is set as the position of the construction machine, and the direction of the construction machine is determined based on the arrangement direction of the markers 61, 62 of the pair. To determine this position and direction,
Do this for all construction equipment (that is, markers for all pairs).

【0056】建機認識部422は、建機位置決定部42
1からの個々の建機の位置および方向と、建機パターン
記憶部423に蓄積されている様々な機種の建機の3次
元特徴パターンとを用いて、後述する距離画像統合処理
部431が作成した地形の3次元モデルデータの中か
ら、個々の建機に対応する3次元モデル部分を抽出す
る。例えば、地形の3次元モデルデータの中から、建機
位置決定部421からの個々の建機の位置および方向に
よって決まるの個々の建機と推定される領域の3次元モ
デル部分を取り出し、その取り出した3次元モデル部分
の3次元形状特徴を、建機パターン記憶部423に蓄積
されている様々な機種の建機の3次元特徴パターンと照
合することで、個々の建機の3次元モデル部分をより正
確に割出すとともに、その建機が何の機種であるかも識
別できる。こうして得られた個々の建機の位置および方
向並びに3次元モデルは、GISデータの要素としてG
ISデータ記憶部44に格納される。(なお、建機認識
部422による建機の3次元モデルデータの抽出処理は
省略してもよい。この場合、GISデータに含まれる建
機関連のデータは、建機位置決定部421からの建機の
位置および方向だけとなる。)
The construction machine recognizing unit 422 is used by the construction machine position determining unit 42.
Created by the distance image integration processing unit 431, which will be described later, using the position and direction of each construction machine from 1 and the three-dimensional characteristic patterns of construction machines of various models accumulated in the construction machine pattern storage unit 423. A 3D model portion corresponding to each construction machine is extracted from the 3D model data of the formed terrain. For example, from the three-dimensional model data of the terrain, a three-dimensional model portion of an area estimated to be an individual construction machine determined by the position and direction of each construction machine from the construction machine position determining unit 421 is extracted, and the extraction By comparing the 3D shape features of the 3D model part with the 3D feature patterns of the various types of construction machines stored in the construction machine pattern storage unit 423, the 3D model part of each construction machine can be obtained. More accurate indexing and identification of the model of the construction machine. The position and direction of each construction machine and the three-dimensional model obtained in this way are G elements as elements of GIS data.
It is stored in the IS data storage unit 44. (Note that the extraction processing of the three-dimensional model data of the construction machine by the construction machine recognition unit 422 may be omitted. In this case, the construction machine-related data included in the GIS data is the data from the construction machine position determination unit 421. Only the position and direction of the machine.)

【0057】地形生成部43は、3つのステレオカメラ
3からの距離画像を統計処理して統合する距離画像統合
処理部431と、距離画像統合処理部431の処理結果
及び上述した建機認識部422の処理結果に基づいて建
設作業現場の地形の3次元モデルを決定する地形決定部
431とを備える。
The terrain generation unit 43 statistically processes the distance images from the three stereo cameras 3 and integrates the distance image integration processing unit 431, the processing result of the distance image integration processing unit 431, and the construction machine recognition unit 422 described above. And a terrain determination unit 431 that determines a three-dimensional model of the terrain at the construction work site based on the processing result of 1.

【0058】距離画像統合処理部431は、3つのステ
レオカメラ3からの距離画像に、所定の統計的処理(例
えば、3つのステレオカメラ3からの座標値の多数決を
とる、或るいは、3つのステレオカメラ3からの座標値
のうち最も信頼性の高い値を選ぶ、など)を施して、地
形(建機も含んでいる)の最終的な3次元座標値(すな
わち、地形の3次元モデルデータ)を求める。
The distance image integration processing unit 431 performs a predetermined statistical process on the distance images from the three stereo cameras 3 (for example, majority decision of the coordinate values from the three stereo cameras 3, or three). The most reliable value among the coordinate values from the stereo camera 3 is selected, and the final three-dimensional coordinate value of the terrain (including construction machinery) (that is, three-dimensional model data of the terrain) is applied. ).

【0059】なお、上記統計的処理のより具体的な方法
としては、特開2002−32744号に開示された方
法、すなわち、複数のステレオカメラからの距離画像に
基づいて、3次元空間のボクセルデータを求めて統合す
る方法を応用することができる。
A more specific method of the above statistical processing is the method disclosed in Japanese Patent Laid-Open No. 2002-32744, that is, voxel data in three-dimensional space based on distance images from a plurality of stereo cameras. Can be applied to apply the method of integration.

【0060】地形決定部432は、距離画像統合処理部
431からの地形(建機や丁張りも含んでいる)の3次
元モデルデータから、建機認識部422の決定した建機
の3次元モデルを取り除いて、建設作業現場の建機を含
まない純粋な地形(丁張りは含む)の3次元モデルデー
タを生成する。この純粋な地形の3次元モデルデータ
は、GISデータの要素として、GISデータ記憶部4
4に格納される。(なお、上述したように建機認識部4
22を省略した場合には、地形決定部432も省略され
る。その場合には、距離画像統合処理部431からの建
機も含んだ地形の3次元モデルデータが、GISデータ
記憶部44に格納される。)
The terrain determining unit 432 determines the 3D model of the construction machine determined by the construction machine recognizing unit 422 from the 3D model data of the terrain (including the construction machine and the siding) from the distance image integration processing unit 431. Is removed to generate three-dimensional model data of pure terrain (including stakes) that does not include construction machinery at the construction work site. This three-dimensional model data of pure terrain is used as an element of GIS data and stored in the GIS data storage unit 4
Stored in 4. (Note that, as described above, the construction machine recognition unit 4
When 22 is omitted, the terrain determination unit 432 is also omitted. In that case, the three-dimensional model data of the terrain including the construction machine from the distance image integration processing unit 431 is stored in the GIS data storage unit 44. )

【0061】再び図3を参照する。ホスト装置4内のレ
ンダリング部46は、GISデータ記憶部44内のGI
Sデータ(リアルタイムで変化する地形及び建機の動的
な3次元モデルデータ)を用いて、建機の情報端末20
0の視点操作部201から指定された視点パラメータで
建設作業現場5を眺めた動画像を描画する。ここで、G
ISデータにおいて建機の位置と方向が判明しているた
め、上記動画像内で建機と建機以外の地形等とを色分け
などで区別して表示することができる。特に、建機の3
次元モデルデータが抽出されている場合には、建機を明
確に他の地形から区別して表示することができる。地形
の3次元モデルと建機の位置、方向及び3次元モデル
は、カメラで撮影された動画像の動きに追従して動く動
的なものであるから、それらのデータに基づいた画像表
示も動的に行なうことができる。さらに、次に説明する
丁張り検出部45の機能によって、GISデータにおけ
る地形の3次元モデルデータの中から丁張りの部分も識
別されるようになっているので、上記動画像内で、丁張
りも、それ以外の地形から区別して表示することができ
る。
Referring again to FIG. The rendering unit 46 in the host device 4 uses the GI in the GIS data storage unit 44.
Information terminal 20 for construction equipment using S data (terrain that changes in real time and dynamic three-dimensional model data of construction equipment)
A moving image of the construction work site 5 is drawn with the viewpoint parameter specified by the viewpoint operation unit 201 of 0. Where G
Since the position and direction of the construction machine are known in the IS data, the construction machine and the terrain other than the construction machine can be displayed in different colors in the moving image. Especially for construction machinery 3
When the dimensional model data is extracted, it is possible to clearly display the construction machine from other terrain. Since the three-dimensional model of the terrain and the position and direction of the construction machine and the three-dimensional model are dynamic ones that follow the movement of the moving image captured by the camera, the image display based on those data also moves. You can Furthermore, since the function of the marking detection unit 45 described below can identify the marking portion from the three-dimensional model data of the terrain in the GIS data, the marking portion can be identified in the moving image. Can also be displayed separately from other topography.

【0062】図6は、丁張り検出部45の詳細な機能構
成を示す。
FIG. 6 shows a detailed functional configuration of the stitch detection unit 45.

【0063】図6に示すように、丁張り検出部45は、
オペレータによる表示画像上での丁張り位置の指定及び
その表示画像の視点パラメータを入力する丁張り指定入
力部451と、入力された丁張り位置の指定と視点パラ
メータとに基づいて、地形の3次元モデルデータの中か
ら丁張りの位置を割り出す丁張り位置決定部452と、
様々な形状の丁張りの3次元形状特徴パターンを記憶し
た丁張りパターン記憶部453と、地形の3次元モデル
データの中から丁張りの3次元モデルデータを識別し
て、丁張りの3次元モデルデータをGISデータの要素
としてGISデータ記憶部44に格納する丁張り認識部
454とを備える。
As shown in FIG. 6, the tension detection unit 45 is
A three-dimensional topography is specified based on the marking position input unit 451 for inputting the marking position on the display image by the operator and the viewpoint parameter of the displayed image, and the specified marking position and the viewpoint parameter. A tension position determining unit 452 for calculating the tension position from the model data,
A three-dimensional model of a stake by identifying a stencil pattern storage unit 453 storing various three-dimensional shape characteristic patterns of a stab and a three-dimensional model data of the terrain from the three-dimensional model data of the terrain. A sizing recognition unit 454 that stores data in the GIS data storage unit 44 as an element of GIS data is provided.

【0064】丁張り指定入力部451には、建機の情報
端末200の丁張り指定部202からの表示画像上での
丁張りの位置指定が入力される。すなわち、建機のオペ
レータは、通常、作業を開始する前に、ディスプレイ装
置203に表示された建設作業現場画像の中から丁張り
を見つけ出して、表示画像内での丁張りの部位を丁張り
指定部202を操作して指定する(例えば、ディスプレ
イ画面上でカーソルを丁張り部位に置いて、指定ボタン
を押す、などの操作で指定する)。すると、その指定さ
れた丁張り部位表示画像内での座標値が、丁張り位置指
定情報として丁張り指定入力部451に入力される。こ
れとともに、その表示画像を作成するときにレンダリン
グ部46が用いた視点パラメータも、丁張り指定入力部
451に入力される。丁張り指定入力部451は、表示
画像内での丁張り部位の座標値と、表示画像の視点パラ
メータに基づいて、丁張りの概略の3次元座標値を推定
する。
The position specification of the marking on the display image is input from the marking specifying unit 202 of the information terminal 200 of the construction machine to the marking specifying input unit 451. That is, the operator of the construction machine usually finds a stake in the construction work site image displayed on the display device 203 before starting the work, and designates the stake portion in the display image. Designate by operating the unit 202 (for example, by placing the cursor on the sticking portion on the display screen and pressing the designation button). Then, the coordinate values in the designated marking portion display image are input to the marking designation input unit 451 as the marking position designation information. At the same time, the viewpoint parameter used by the rendering unit 46 when creating the display image is also input to the stitching specification input unit 451. The marking specification input unit 451 estimates a rough three-dimensional coordinate value of the marking based on the coordinate value of the marking portion in the display image and the viewpoint parameter of the display image.

【0065】丁張り位置決定部452は、丁張り指定入
力部451からの丁張りの概略の3次元座標値を、GI
Sデータ記憶部44からの地形の3次元モデルデータの
座標値に合わせ込むことで、地形の3次元モデルデータ
における丁張りと推定される3次元座標値を割り出す。
The marking position determining unit 452 uses the GI to determine the approximate three-dimensional coordinate value of the marking from the marking specifying input unit 451.
By matching with the coordinate values of the three-dimensional model data of the terrain from the S data storage unit 44, the three-dimensional coordinate values estimated to be the sticking in the three-dimensional model data of the terrain are calculated.

【0066】丁張り認識部454は、丁張り位置決定部
452により割り出された丁張りと推定される3次元座
標値の近傍領域の3次元モデルデータを、地形の3次元
モデルデータから抽出して、その抽出した近傍領域の3
次元モデルデータの形状特徴を、丁張りパターン記憶部
453に記憶されている様々な丁張りの形状特徴パター
ンと照合することで、地形の3次元モデルデータにおけ
る丁張りに該当する部分を識別して、識別した丁張りの
3次元モデルデータ(3次元座標値)を、GISデータ
記憶部44に格納する。レンダリング部46は、画像を
生成するとき、地形の3次元モデルデータだけでなく丁
張りの3次元モデルデータを用いることで、丁張りと他
の地形とを色分けなどで明確に区別した画像を生成する
ことが出来る。一度設置された丁張りは、破壊されたり
意図的に移動されたりしないかぎり、作業が進行しても
不動であるのが通常であるから、ある時点で識別された
丁張りの3次元モデルデータ(3次元座標値)は、その
時点以降、レンダリング部46による動画像の各フレー
ム生成に継続的に利用される。また、こうすることによ
り、丁張りが破壊されたりしても、破壊前の丁張りを表
示画像上に表示することができるから、正しく建設作業
を継続することができる。
The signature recognition unit 454 extracts from the 3D model data of the terrain the 3D model data of the area near the 3D coordinate values estimated to be the signature determined by the signature position determination unit 452. 3 of the extracted neighborhood area
By comparing the shape features of the dimensional model data with various shape feature patterns of the straits stored in the stencil pattern storage unit 453, the portion corresponding to the stencil in the three-dimensional terrain model data can be identified. , And stores the identified three-dimensional model data (three-dimensional coordinate values) in the GIS data storage unit 44. When generating the image, the rendering unit 46 uses not only the three-dimensional model data of the terrain but also the three-dimensional model data of the terrain to generate an image in which the territory and other terrain are clearly distinguished by color coding or the like. You can do it. Once installed, the three-dimensional model data of the three-dimensional model (identified at a certain point) is usually used, as it usually remains immobile even if the work progresses unless it is destroyed or intentionally moved. The three-dimensional coordinate value) is continuously used for each frame generation of the moving image by the rendering unit 46 after that point. Further, by doing so, even if the tine is destroyed, the tine before the rupture can be displayed on the display image, so that the construction work can be correctly continued.

【0067】なお、上述した丁張り認識部454による
丁張りの3次元モデルデータの割出処理を省略して、丁
張り位置決定部452で推定された丁張りの3次元位置
を、GISデータの要素として記憶しておき、画像をレ
ンダリングするときには、その丁張りの3次元位置に該
当する画像上の位置に目印などを表示するようにしても
よい。また、上述のように丁張りを検出して表示画像上
に表示する処理と併せて又はそれに代えて、オペレータ
に丁張りによって示される仮想的な設計線8を表示画像
上で引かせて、その設計線を表示画像上に表示するよう
にすることもできる。また、上述のように丁張り又は仮
想設計線をオペレータに指定させる代わりに、特徴点抽
出やパターン認識の技術を使って完全に自動的に丁張り
の検出や仮想設計線の設定を行なうことも可能である
が、オペレータの手を借りるという上述の方法は、人間
の持つ非常に高度な認識能力を活用してシステムの負担
を軽減できるので実用的であると考えられる。
It should be noted that by omitting the processing of indexing the 3D model data of the marking by the marking recognition unit 454 described above, the 3D position of the marking estimated by the marking position determining unit 452 is converted into GIS data. It may be stored as an element, and when the image is rendered, a mark or the like may be displayed at a position on the image corresponding to the three-dimensional position of the strut. Further, in addition to or instead of the processing of detecting the stitch and displaying it on the display image as described above, the operator draws the virtual design line 8 indicated by the stitch on the display image, The design line may be displayed on the display image. Further, instead of having the operator specify the stencil or the virtual design line as described above, it is possible to detect the stencil and set the virtual design line completely automatically by using the feature point extraction and pattern recognition techniques. Although possible, it is considered that the above-mentioned method of borrowing an operator's hand is practical because the burden on the system can be reduced by utilizing a very high recognition ability of human beings.

【0068】図7は、異なる仮想視点から眺めた表示画
像の例を示す。
FIG. 7 shows examples of display images viewed from different virtual viewpoints.

【0069】図7に示すように、例えば建機端末200
の視点操作部201に設けられた表示選択部211に設
けられた複数の視点選択ボタン「視点1」〜「視点4」
に予め、例えば誘導員視点、オペレータ視点、上空視点
及び丁張り横視点などの予め設定された仮想視点の視点
パラメータを割り当てておくことができる。そして、
「視点1」〜「視点4」の任意のボタンを押して所望の
視点を選ぶことで、ディスプレイ装置203に、それら
の仮想視点から眺めた建設現場の画像231〜234を
選択的に表示することができる。
As shown in FIG. 7, for example, the construction machine terminal 200
A plurality of viewpoint selection buttons “viewpoint 1” to “viewpoint 4” provided on the display selection unit 211 provided on the viewpoint operation unit 201
It is possible to previously assign viewpoint parameters of preset virtual viewpoints such as a guideman's viewpoint, an operator's viewpoint, an aerial viewpoint, and a sideways horizontal viewpoint. And
By pressing any button of "viewpoint 1" to "viewpoint 4" and selecting a desired viewpoint, the images 231 to 234 of the construction site viewed from those virtual viewpoints can be selectively displayed on the display device 203. it can.

【0070】上述した本発明の実施形態は、本発明の説
明のための例示であり、本発明の範囲をそれらの実施形
態にのみ限定する趣旨ではない。当業者は、本発明の要
旨を逸脱することなしに、他の様々な態様で本発明を実
施することができる。
The above-described embodiments of the present invention are examples for explaining the present invention, and the scope of the present invention is not limited only to those embodiments. Those skilled in the art can implement the present invention in various other modes without departing from the gist of the present invention.

【0071】例えば、上記実施形態では、建機の位置お
よび向きの検出は、建機に設置されたマーカを利用して
行っているが、これは、建機画像とのパターンマッチン
グや、建機に特有の色情報を用いた検出と置き換えても
良い。
For example, in the above-described embodiment, the position and orientation of the construction machine are detected by using the markers installed on the construction machine. However, this is done by pattern matching with the construction machine image or the construction machine. It may be replaced with the detection using the color information specific to the.

【0072】また、上記の実施形態では、ステレオカメ
ラごとに距離画像を合成し、ホスト装置でこれらの統合
処理を行っているが、各カメラが撮影した画像をすべて
ホスト装置へ送信し、ホスト装置がすべての処理を一貫
して行うようにすることもできる。
Further, in the above embodiment, the distance images are combined for each stereo camera and the integration processing is performed by the host device. However, all the images taken by the cameras are transmitted to the host device, and the host device Can do all the processing consistently.

【0073】さらに、最終的に出力されるデータはGI
Sデータである必要は無く、他の形式のデータであって
もよい。
Further, the finally output data is GI.
The data need not be S data, and may be data in other formats.

【0074】画像のソースは、上述の実施形態のように
動画カメラである必要は必ずしも無く、静止画カメラで
もよいし、ネットワークから取得した画像を用いてもよ
い。
The source of the image does not necessarily have to be the moving image camera as in the above-mentioned embodiment, and may be a still image camera or an image acquired from the network.

【0075】また、上述した実施形態では、複数台のカ
メラで撮影された作業現場の画像から、一旦作業現場の
3次元モデルデータを作成して、その3次元モデルデー
タに基づいて、任意視点から作業現場を眺めた画像を生
成している。しかし、カメラの3次元位置が決まってい
ることから、それらのカメラで撮影した作業現場の画像
と、任意視点から作業現場を眺めた画像との関係は幾何
学的に決まるから、この幾何学的な関係を用いて、撮影
画像から直接的に(つまり、3次元モデルデータを作成
することなしに)、任意視点から眺めた画像を生成し表
示することもできる。この場合も、丁張り又は仮想設計
線の表示については、例えば、上述の実施形態と同様に
表示画像上でオペレータが指定し、その指定に基づいて
丁張り又は仮想設計線の3次元座標を割出し、その3次
元座標に基づいて任意視点からの画像上での丁張り位置
又は仮想設計線の位置を決定し表示する、という方法を
採ることができる。
Further, in the above-described embodiment, the three-dimensional model data of the work site is once created from the images of the work site captured by a plurality of cameras, and based on the three-dimensional model data, from an arbitrary viewpoint. An image of the work site is generated. However, since the three-dimensional position of the camera is determined, the relationship between the image of the work site taken by those cameras and the image of the work site viewed from an arbitrary viewpoint is geometrically determined. It is also possible to generate and display an image viewed from an arbitrary viewpoint directly from the photographed image (that is, without creating three-dimensional model data) using such a relationship. Also in this case, regarding the display of the marking or the virtual design line, for example, the operator designates on the display image as in the above-described embodiment, and the three-dimensional coordinate of the marking or the virtual design line is divided based on the designation. It is possible to adopt a method in which the drawing position is determined, and the position of the taut or the position of the virtual design line on the image from the arbitrary viewpoint is determined and displayed based on the three-dimensional coordinates.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の実施形態に係る作業現場画像生成シス
テムのカメラの配置などを示す図である。
FIG. 1 is a diagram showing the arrangement of cameras in a work site image generation system according to an embodiment of the present invention.

【図2】本発明の実施形態に係る作業現場画像生成シス
テムの概略的な動作の流れを示す図である。
FIG. 2 is a diagram showing a schematic operation flow of the work site image generation system according to the embodiment of the present invention.

【図3】本発明の実施形態に係る作業現場画像生成シス
テムの機能構成を示す図である。
FIG. 3 is a diagram showing a functional configuration of a work site image generation system according to the embodiment of the present invention.

【図4】画像処理部の詳細な機能構成を示す図である。FIG. 4 is a diagram illustrating a detailed functional configuration of an image processing unit.

【図5】ホスト装置の3次元モデルを生成する部分の詳
細な機能構成を示す図である。
FIG. 5 is a diagram showing a detailed functional configuration of a portion for generating a three-dimensional model of a host device.

【図6】ホスト装置の丁張り検出部の機能構成を示す図
である。
FIG. 6 is a diagram showing a functional configuration of a stitching detection unit of a host device.

【図7】異なる仮想視点から眺めた表示画像の例を示す
図である。
FIG. 7 is a diagram showing an example of a display image viewed from different virtual viewpoints.

【符号の説明】[Explanation of symbols]

1…カメラポール、2…カメラ、3…ステレオカメラ、
4…ホスト装置、5…建設作業現場、6…建設機械、7
…丁張り、8…仮想設計線
1 ... camera pole, 2 ... camera, 3 ... stereo camera,
4 ... Host device, 5 ... Construction work site, 6 ... Construction machine, 7
… Collecting, 8… Virtual design line

───────────────────────────────────────────────────── フロントページの続き (72)発明者 三輪 浩史 神奈川県平塚市万田1200 株式会社小松製 作所研究所内 (72)発明者 山口 博義 神奈川県平塚市万田1200 株式会社小松製 作所研究所内 Fターム(参考) 5B050 AA03 BA04 BA09 BA11 DA07 EA27 FA02 FA06 5B057 AA20 CA12 CB13 CD14 CH01 DA16 5C054 CE15 CF03 DA07 EH00 FE02 HA00 HA05    ─────────────────────────────────────────────────── ─── Continued front page    (72) Inventor Hiroshi Miwa             1200 Manda, Hiratsuka-shi, Kanagawa Made by Komatsu Ltd.             Seisakusho Institute (72) Inventor Hiroyoshi Yamaguchi             1200 Manda, Hiratsuka-shi, Kanagawa Made by Komatsu Ltd.             Seisakusho Institute F-term (reference) 5B050 AA03 BA04 BA09 BA11 DA07                       EA27 FA02 FA06                 5B057 AA20 CA12 CB13 CD14 CH01                       DA16                 5C054 CE15 CF03 DA07 EH00 FE02                       HA00 HA05

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 現場を前記現場の所定の異なる場所から
眺めた複数の画像を入力する画像入力手段と、 所望の仮想視点を指定する視点指定手段と、 前記現場の複数の画像を用いて、前記指定された仮想視
点から前記現場を眺めた画像を生成する画像生成手段
と、を備える現場の画像生成システム。
1. An image input unit for inputting a plurality of images of a site viewed from a predetermined different place on the site, a viewpoint designating unit for designating a desired virtual viewpoint, and a plurality of images of the site, An image generating system for a scene, comprising: an image generating unit that generates an image of the scene viewed from the designated virtual viewpoint.
【請求項2】 前記画像生成手段は、 前記作業現場の3次元モデルデータを生成する3次元モ
デリング手段と、を有する請求項1記載の作業現場の画
像生成システム。
2. The work site image generation system according to claim 1, further comprising: a three-dimensional modeling unit configured to generate three-dimensional model data of the work site.
【請求項3】 現場を前記現場の所定の異なる場所から
眺めた複数の画像を入力するステップと、 所望の仮想視点を指定するステップと、 前記現場の複数の画像を用いて、前記指定された仮想視
点から前記現場を眺めた画像を生成するステップと、を
備える現場の画像生成方法。
3. A step of inputting a plurality of images of a scene viewed from a predetermined different place of the scene, a step of designating a desired virtual viewpoint, and a plurality of images of the scene being used for the designation. Generating an image of the site viewed from a virtual viewpoint.
JP2002141556A 2002-05-16 2002-05-16 System for generating image at site Pending JP2003333590A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002141556A JP2003333590A (en) 2002-05-16 2002-05-16 System for generating image at site

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002141556A JP2003333590A (en) 2002-05-16 2002-05-16 System for generating image at site

Publications (1)

Publication Number Publication Date
JP2003333590A true JP2003333590A (en) 2003-11-21

Family

ID=29702103

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002141556A Pending JP2003333590A (en) 2002-05-16 2002-05-16 System for generating image at site

Country Status (1)

Country Link
JP (1) JP2003333590A (en)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007003462A (en) * 2005-06-27 2007-01-11 Toyota Motor Corp Sight line recognition device and sight line recognition method
KR100789721B1 (en) 2006-03-24 2008-01-02 주식회사 네이블텍 A disaster prevention system and method
JP2009042175A (en) * 2007-08-10 2009-02-26 Koishi:Kk Execution position measuring system and finishing-stakeless system
JP2009258058A (en) * 2008-04-21 2009-11-05 National Institute Of Advanced Industrial & Technology Three-dimensional object position measuring device
JP2010253176A (en) * 2009-04-28 2010-11-11 Ge Medical Systems Global Technology Co Llc Modeling device, magnetic resonance imaging apparatus, modeling method, and program
WO2017119517A1 (en) * 2017-01-13 2017-07-13 株式会社小松製作所 Working-machine control system, working machine, and working-machine control method
JP2018112051A (en) * 2017-12-05 2018-07-19 株式会社小松製作所 Control system of work machine, work machine, control method of work machine, and navigation controller
JP2019004399A (en) * 2017-06-19 2019-01-10 コベルコ建機株式会社 Work machine periphery monitoring system
WO2019167726A1 (en) * 2018-02-28 2019-09-06 株式会社小松製作所 Information presenting device and information presenting method
JP2019183636A (en) * 2017-12-05 2019-10-24 株式会社小松製作所 Control system of work machine, work machine, control method of work machine, and navigation controller
JP2020051029A (en) * 2018-09-21 2020-04-02 日立建機株式会社 Coordinate conversion system and working machine
JP2021018071A (en) * 2019-07-17 2021-02-15 日本電気株式会社 Topographic information generation device, topographic information generation system, and information generation method
WO2021106278A1 (en) 2019-11-25 2021-06-03 コベルコ建機株式会社 Work assistance server, work assistance method, and work assistance system
WO2021106279A1 (en) 2019-11-25 2021-06-03 コベルコ建機株式会社 Work assistance server, work assistance method, and work assistance system
US11316084B2 (en) 2017-09-26 2022-04-26 Osram Oled Gmbh Radiation-emitting semiconductor component and method for producing radiation-emitting semiconductor component
JP2022128470A (en) * 2017-02-17 2022-09-01 住友重機械工業株式会社 Periphery monitoring system for work machine
JP2023011454A (en) * 2021-07-12 2023-01-24 東亜道路工業株式会社 Three-dimensional design data creation method, construction work method, three-dimensional design data creation system, and three-dimensional design data creation program

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4742695B2 (en) * 2005-06-27 2011-08-10 トヨタ自動車株式会社 Gaze recognition apparatus and gaze recognition method
JP2007003462A (en) * 2005-06-27 2007-01-11 Toyota Motor Corp Sight line recognition device and sight line recognition method
KR100789721B1 (en) 2006-03-24 2008-01-02 주식회사 네이블텍 A disaster prevention system and method
JP2009042175A (en) * 2007-08-10 2009-02-26 Koishi:Kk Execution position measuring system and finishing-stakeless system
JP2009258058A (en) * 2008-04-21 2009-11-05 National Institute Of Advanced Industrial & Technology Three-dimensional object position measuring device
JP2010253176A (en) * 2009-04-28 2010-11-11 Ge Medical Systems Global Technology Co Llc Modeling device, magnetic resonance imaging apparatus, modeling method, and program
WO2017119517A1 (en) * 2017-01-13 2017-07-13 株式会社小松製作所 Working-machine control system, working machine, and working-machine control method
CN107002383A (en) * 2017-01-13 2017-08-01 株式会社小松制作所 The control method of the control system of Work machine, Work machine and Work machine
JPWO2017119517A1 (en) * 2017-01-13 2018-01-11 株式会社小松製作所 Work machine control system, work machine, work machine control method, and navigation controller
CN107002383B (en) * 2017-01-13 2022-03-15 株式会社小松制作所 Control system for work machine, and control method for work machine
US10774505B2 (en) 2017-01-13 2020-09-15 Komatsu Ltd. Work machine control system, work machine, and work machine control method
JP2022128470A (en) * 2017-02-17 2022-09-01 住友重機械工業株式会社 Periphery monitoring system for work machine
JP2019004399A (en) * 2017-06-19 2019-01-10 コベルコ建機株式会社 Work machine periphery monitoring system
US11848406B2 (en) 2017-09-26 2023-12-19 Osram Oled Gmbh Radiation-emitting semiconductor component and method for producing radiation-emitting semiconductor component
US11316084B2 (en) 2017-09-26 2022-04-26 Osram Oled Gmbh Radiation-emitting semiconductor component and method for producing radiation-emitting semiconductor component
JP2018112051A (en) * 2017-12-05 2018-07-19 株式会社小松製作所 Control system of work machine, work machine, control method of work machine, and navigation controller
JP2019183636A (en) * 2017-12-05 2019-10-24 株式会社小松製作所 Control system of work machine, work machine, control method of work machine, and navigation controller
JP2019151968A (en) * 2018-02-28 2019-09-12 株式会社小松製作所 Information presenting device and information presenting method
JP7150447B2 (en) 2018-02-28 2022-10-11 株式会社小松製作所 Information presentation device and information presentation method
US11532162B2 (en) 2018-02-28 2022-12-20 Komatsu Ltd. Information presenting device and information presenting method
WO2019167726A1 (en) * 2018-02-28 2019-09-06 株式会社小松製作所 Information presenting device and information presenting method
JP2020051029A (en) * 2018-09-21 2020-04-02 日立建機株式会社 Coordinate conversion system and working machine
JP7301514B2 (en) 2018-09-21 2023-07-03 日立建機株式会社 Coordinate transformation system and working machine
JP2021018071A (en) * 2019-07-17 2021-02-15 日本電気株式会社 Topographic information generation device, topographic information generation system, and information generation method
WO2021106279A1 (en) 2019-11-25 2021-06-03 コベルコ建機株式会社 Work assistance server, work assistance method, and work assistance system
WO2021106278A1 (en) 2019-11-25 2021-06-03 コベルコ建機株式会社 Work assistance server, work assistance method, and work assistance system
JP2023011454A (en) * 2021-07-12 2023-01-24 東亜道路工業株式会社 Three-dimensional design data creation method, construction work method, three-dimensional design data creation system, and three-dimensional design data creation program

Similar Documents

Publication Publication Date Title
JP2003333590A (en) System for generating image at site
US9895131B2 (en) Method and system of scanner automation for X-ray tube with 3D camera
US9300954B2 (en) Surrounding information-obtaining device for working vehicle
CN106169184A (en) For determining the method and system of the spatial character of video camera
US6278479B1 (en) Dual reality system
CN105973236A (en) Indoor positioning or navigation method and device, and map database generation method
CN111874821A (en) Clustering method of point group data, guide information display device and crane
JP7355974B2 (en) Distance estimation device and method
JP5349224B2 (en) Image processing apparatus and image processing method
CN115597659B (en) Intelligent safety management and control method for transformer substation
JP2001319218A (en) Image monitoring device
CN106352871A (en) Indoor visual positioning system and method based on artificial ceiling beacon
JP2011170599A (en) Outdoor structure measuring instrument and outdoor structure measuring method
JP2021536649A (en) How to Build a Video Surveillance System for Target Detection and Tracking
JP2003329448A (en) Three-dimensional site information creating system
CN114747208A (en) Work support server, work support method, and work support system
JP4205004B2 (en) Calibration method
KR102385677B1 (en) 3D based cctv control video system
JP7004131B2 (en) Management system, management method and management program
JP3919722B2 (en) Skin shape measuring method and skin shape measuring apparatus
US6787750B1 (en) Method and apparatus for robust optical tracking with beacon markers
US11273374B2 (en) Information processing system, player-side apparatus control method, and program
KR102362509B1 (en) Image map making system auto-searching the misprounciations of digital map data for precision improvement of map imgae
JPH1157209A (en) Rally game system using view label
JP7437930B2 (en) Mobile objects and imaging systems