JP2020045687A - Work machine - Google Patents

Work machine Download PDF

Info

Publication number
JP2020045687A
JP2020045687A JP2018175328A JP2018175328A JP2020045687A JP 2020045687 A JP2020045687 A JP 2020045687A JP 2018175328 A JP2018175328 A JP 2018175328A JP 2018175328 A JP2018175328 A JP 2018175328A JP 2020045687 A JP2020045687 A JP 2020045687A
Authority
JP
Japan
Prior art keywords
cameras
calibration
video
marker
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018175328A
Other languages
Japanese (ja)
Inventor
真一 笹▲崎▼
Shinichi Sasazaki
真一 笹▲崎▼
恵一郎 中村
Keiichiro Nakamura
恵一郎 中村
絢生 後藤
Kensei Goto
絢生 後藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Construction Machinery Co Ltd
Original Assignee
Hitachi Construction Machinery Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Construction Machinery Co Ltd filed Critical Hitachi Construction Machinery Co Ltd
Priority to JP2018175328A priority Critical patent/JP2020045687A/en
Publication of JP2020045687A publication Critical patent/JP2020045687A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Component Parts Of Construction Machinery (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

To provide a work machine capable of improving calibration accuracy while suppressing increase in labor and time in calibration.SOLUTION: A controller 12 forming on the basis of a synthesis condition and outputting a synthetic image on a display device 17: stores shapes of predetermined calibration markers 20 used for calibration processing; identifies positions of calibration markers 20 in images captured by a plurality of cameras 11a to 11d; calculates distances from the plurality of cameras 11a to 11d to a plurality of characteristic points in the calibration markers 20 based on the images captured by the plurality of cameras 11a to 11d; calculates attachment positions and attachment angles of the plurality of cameras 11a to 11d with respect to the calibration markers 20 based on the calculated distances; and identifies synthesis conditions in forming a synthetic image based on the calculated attachment positions and attachment angles.SELECTED DRAWING: Figure 4

Description

本発明は、作業機械に関する。   The present invention relates to a working machine.

近年、作業機械の電子化、情報化が進み、多くの電子機器が搭載されるようになっている。例えば、油圧ショベル等の作業機械には、車体の周囲を複数のカメラによって撮影し、その映像をキャブ内の表示部に表示することにより、キャブ内の作業者が運転席に着座したまま映像を確認することができ、車体の周囲の状況を知ることができるものがある。特に、油圧ショベル等の作業機械では、構造上の理由によりキャブ内の作業者の車体の周囲に対する視界が制限され易いので、キャブ内の作業者が表示部の映像から車体の周囲の状況をより正確に把握できる技術が重要となっている。   In recent years, computerization and computerization of work machines have progressed, and many electronic devices have been mounted. For example, on a work machine such as a hydraulic excavator, an image of the periphery of a vehicle body is taken by a plurality of cameras, and an image of the image is displayed on a display unit in the cab, so that a worker in the cab can take an image while sitting in a driver's seat. Some of them can be checked and the situation around the vehicle body can be known. In particular, in a working machine such as a hydraulic excavator, the visibility of the worker in the cab around the vehicle body is likely to be limited due to structural reasons. Technology that can accurately grasp is important.

このようなキャブ内の作業者の視界を補助する従来技術として、例えば、特許文献1には、車体に搭載された複数のカメラで車体の周囲を撮影し、撮影した映像を合成処理することで車体の上空から車体と周囲の状況を俯瞰的に撮影した映像(以降、便宜的に俯瞰映像と称する)を生成し、キャブ内の表示部に表示させる技術が開示されている。   As a conventional technique for assisting the field of view of a worker in such a cab, for example, Patent Literature 1 discloses a technique in which a plurality of cameras mounted on a vehicle body capture images of the periphery of the vehicle body, and the captured images are synthesized. A technology is disclosed in which a video (hereinafter, referred to as a bird's-eye video for convenience) generated by capturing an overhead view of a vehicle and surroundings from above the vehicle is displayed on a display unit in a cab.

特開2014−125865号公報JP 2014-125865 A

上記従来技術のように、複数の映像から合成した俯瞰映像などを表示部に表示する際には、カメラの取付位置や取付角度の設計値(設定値)からの誤差(以降、取付位置誤差及び取付角度誤差と称する)により、合成した俯瞰映像にラップやずれが発生するので、カメラの取付位置誤差及び取付角度誤差を補正する(すなわち、キャリブレーションを行う)必要がある。各カメラの取付位置誤差及び取付角度誤差のキャリブレーション方法としては、例えば、各カメラの撮影範囲の予め定めた範囲などにマーカ(目印)となるものを設置した後、各カメラで撮影された映像中のマーカを基準点にして各カメラ(各映像)間のラップやずれを補正する補正値を算出する方法があり、その補正値を俯瞰映像の生成処理に適用することによってラップやずれを抑制している。   When a bird's-eye view image or the like synthesized from a plurality of images is displayed on the display unit as in the above-described related art, an error from a design value (set value) of a camera mounting position or a mounting angle (hereinafter, mounting position error and (Referred to as “mounting angle error”), a lap or a shift occurs in the synthesized bird's-eye view image. Therefore, it is necessary to correct the mounting position error and the mounting angle error of the camera (that is, perform calibration). As a method for calibrating the mounting position error and the mounting angle error of each camera, for example, a camera (marker) is set in a predetermined range of the shooting range of each camera, and then an image taken by each camera is set. There is a method of calculating a correction value that corrects the lap or shift between each camera (each image) using the marker inside as a reference point, and the lap or shift is suppressed by applying the correction value to the overhead view image generation processing. doing.

しかしながら、複数のカメラのキャリブレーションを行う場合には、車両の周囲に複数のマーカを配置する必要があるため、マーカの配置などキャリブレーションの準備に係る手間や、キャリブレーションそのものに要する時間が増加してしまうことが考えられる。このようなキャリブレーションに要する時間の増加を抑制することは、実運用上の重要な課題である。特に、工場の量産設備などの生産ラインにおける機械の組立時や、稼動現場において稼動途中の機械のカメラの取付け位置がずれてしまった際など、時間的な制約条件が厳しい状況の中では、キャリブレーションに要する手間や時間の増加を抑制することがより一層重要である。   However, when calibrating a plurality of cameras, it is necessary to arrange a plurality of markers around the vehicle, so that the time required for calibration preparation such as marker arrangement and the time required for the calibration itself increase. It is possible to do it. Suppressing the increase in the time required for such calibration is an important issue in actual operation. In particular, when time constraints are severe, such as when assembling machines on a production line such as mass production equipment at a factory or when the camera mounting position of a machine being operated at the operation site has shifted, calibration is It is even more important to suppress an increase in labor and time required for the application.

本発明は上記に鑑みてなされたものであり、キャリブレーションにおける手間や時間の増加を抑制しつつ、キャリブレーションの精度を向上することができる作業機械を提供することを目的とする。   The present invention has been made in view of the above, and an object of the present invention is to provide a working machine capable of improving the accuracy of calibration while suppressing an increase in labor and time in calibration.

本願は上記課題を解決する手段を複数含んでいるが、その一例を挙げるならば、下部走行体と、前記下部走行体に対して旋回可能に設けられた上部旋回体と、前記上部旋回体に配置され、前記下部走行体と前記上部旋回体とにより構成された車体の周囲を撮影する複数のカメラと、前記複数のカメラによって撮影された映像から合成された合成映像を表示する表示装置と、前記合成映像を合成条件に基づいて生成し、前記表示装置に出力するコントローラとを備えた作業機械において、前記コントローラは、前記複数のカメラで撮影した映像において、校正処理に用いる予め定めた形状のキャリブレーションマーカの位置を特定し、前記複数のカメラで撮影した映像に基づいて、前記複数のカメラから前記キャリブレーションマーカにおける複数の特徴点までの距離を算出し、算出した距離に基づいて、前記複数のカメラの前記キャリブレーションマーカに対する取り付け位置および取り付け角度を算出し、算出した取り付け位置および取り付け角度に基づいて、前記合成映像を生成する際の前記合成条件を特定し、特定した合成条件に基づいて合成映像を合成して前記表示装置に出力するものとする。   The present application includes a plurality of means for solving the above-mentioned problems, but to give an example, a lower traveling body, an upper revolving body provided to be able to pivot with respect to the lower traveling body, and an upper revolving body. A plurality of cameras arranged to photograph the periphery of the vehicle body formed by the lower traveling structure and the upper revolving structure, and a display device that displays a composite image synthesized from images captured by the plurality of cameras, A working machine including a controller that generates the synthesized image based on the synthesizing condition and outputs the synthesized image to the display device, wherein the controller has a predetermined shape to be used for a calibration process in the images captured by the plurality of cameras. Specify the position of the calibration marker, based on the video captured by the plurality of cameras, from the plurality of cameras in the calibration marker Calculating the distances to the number of feature points, calculating the mounting positions and mounting angles of the plurality of cameras with respect to the calibration marker based on the calculated distances, and calculating the combination based on the calculated mounting positions and mounting angles. It is assumed that the synthesis condition when generating the video is specified, the synthesized video is synthesized based on the specified synthesis condition, and the synthesized video is output to the display device.

本発明によれば、キャリブレーションにおける手間や時間の増加を抑制しつつ、キャリブレーションの精度を向上することができる。   According to the present invention, it is possible to improve the accuracy of calibration while suppressing an increase in labor and time in calibration.

本発明の一実施の形態に係る作業機械の一例である油圧ショベルの構成を模式的に示す側面図である。FIG. 1 is a side view schematically illustrating a configuration of a hydraulic shovel as an example of a work machine according to an embodiment of the present invention. 本発明の一実施の形態に係る作業機械の一例である油圧ショベルの構成を模式的に示す上面図である。FIG. 1 is a top view schematically illustrating a configuration of a hydraulic shovel as an example of a work machine according to an embodiment of the present invention. 作業機械の周囲表示装置を模式的に示す図である。It is a figure which shows the periphery display device of a working machine typically. コントローラの映像合成部の処理機能を示す機能ブロック図である。FIG. 4 is a functional block diagram illustrating processing functions of a video compositing unit of the controller. 校正処理を示すフローチャートである。It is a flowchart which shows a calibration process. 映像に映るキャリブレーションマーカの様子を示す図である。It is a figure showing a situation of a calibration marker reflected on a picture. 隣り合うカメラの撮影範囲の重複範囲にキャリブレーションマーカが位置する様子を示す図である。It is a figure showing signs that a calibration marker is located in an overlapped range of a photography range of an adjacent camera. カメラからキャリブレーションマーカまでの距離を算出する様子を示す図である。FIG. 9 is a diagram illustrating a state in which a distance from a camera to a calibration marker is calculated. カメラのヨー、ロール、ピッチを示す図である。FIG. 3 is a diagram illustrating yaw, roll, and pitch of a camera. 隣り合うカメラの位置関係を示す図である。FIG. 3 is a diagram illustrating a positional relationship between adjacent cameras. 左後方にキャリブレーションマーカを配置した様子を示す図である。It is a figure showing signs that a calibration marker is arranged at the rear left. 隣り合うカメラの位置関係を示す図である。FIG. 3 is a diagram illustrating a positional relationship between adjacent cameras. 右後方にキャリブレーションマーカを配置した様子を示す図である。It is a figure showing signs that a calibration marker is arranged at the rear right. 隣り合うカメラの位置関係を示す図である。FIG. 3 is a diagram illustrating a positional relationship between adjacent cameras. 左前方にキャリブレーションマーカを配置した様子を示す図である。It is a figure showing signs that a calibration marker is arranged at the front left. 隣り合うカメラの位置関係を示す図である。FIG. 3 is a diagram illustrating a positional relationship between adjacent cameras. 右前方にキャリブレーションマーカを配置した様子を示す図である。It is a figure showing signs that a calibration marker is arranged at the front right. 隣り合うカメラの位置関係を示す図である。FIG. 3 is a diagram illustrating a positional relationship between adjacent cameras. キャリブレーションマーカとカメラの位置関係を示す図である。FIG. 3 is a diagram illustrating a positional relationship between a calibration marker and a camera. カメラの映像における映像合成位置の一例を示す図である。FIG. 3 is a diagram illustrating an example of a video synthesis position in a video of a camera. 映像合成位置を用いて合成した俯瞰映像の様子を模式的に示す図である。It is a figure which shows typically the mode of the bird's-eye view image synthesized using the image synthesis position.

以下、本発明の一実施の形態を図面を参照しつつ説明する。なお、本実施の形態では、作業機械の一例としてクローラ式の下部走行体と上部旋回体とで車体を構成する油圧ショベルを例示して説明するが、例えば、ホイール式油圧ショベルやクレーンのように旋回動作を行う上部旋回体を有する作業機械であれば、油圧駆動型や電動駆動型などの駆動方式によらず本発明の適用が可能である。   Hereinafter, an embodiment of the present invention will be described with reference to the drawings. In the present embodiment, a hydraulic excavator that forms a vehicle body with a crawler type lower traveling body and an upper revolving superstructure as an example of a work machine will be described. The present invention can be applied to any work machine having an upper swing body that performs a swing operation, regardless of a drive system such as a hydraulic drive type or an electric drive type.

図1は本実施の形態に係る作業機械の一例である油圧ショベルの構成を模式的に示す側面図であり、図2は上面図である。   FIG. 1 is a side view schematically showing a configuration of a hydraulic shovel as an example of a working machine according to the present embodiment, and FIG. 2 is a top view.

図1において、油圧ショベル1は、上部旋回体3と、前記上部旋回体3の前側に俯仰動可能に支持された多関節型のフロント作業機4と、上部旋回体3を旋回可能に支持する自走可能なクローラ式の下部走行体2とで構成されている。上部旋回体3と下部走行体2は、油圧ショベル1の車体を構成している。   In FIG. 1, a hydraulic excavator 1 supports an upper swing body 3, a multi-joint type front work machine 4 supported on the front side of the upper swing body 3 so as to be able to move up and down, and a swingable upper swing body 3. And a self-propelled crawler-type lower traveling body 2. The upper revolving unit 3 and the lower traveling unit 2 constitute a vehicle body of the excavator 1.

上部旋回体3は、支持構造体をなす旋回フレーム5を有しており、旋回フレーム5の前側にはフロント作業機4の基端部が回動可能に支持されている。また、旋回フレーム5の後側には、フロント作業機4との重量バランスをとるためのカウンタウエイト10が取付けられている。旋回フレーム5の前方左側には、油圧ショベル1を操作するオペレータが乗り込むためのキャブ6が配設されている。   The upper swing body 3 has a swing frame 5 as a support structure, and a base end of the front work machine 4 is rotatably supported on the front side of the swing frame 5. Further, a counterweight 10 for balancing the weight with the front work machine 4 is attached to the rear side of the turning frame 5. A cab 6 is provided on the left front side of the turning frame 5 so that an operator operating the excavator 1 can get on the cab.

キャブ6内には、オペレータが着座する座席や、フロント作業機4の駆動操作、上部旋回体3の旋回操作、下部走行体2の走行操作などを行う操作装置(いずれも図示せず)のほか、座席に着座したオペレータが見やすい位置であってオペレータによる外部視野の妨げにならない位置に表示装置17が配置されている。   The cab 6 includes a seat on which an operator sits, and operating devices (not shown) for performing a driving operation of the front work machine 4, a turning operation of the upper revolving unit 3, a traveling operation of the lower traveling unit 2, and the like. The display device 17 is disposed at a position where the operator sitting on the seat is easy to see and does not hinder the external visual field by the operator.

また、カウンタウエイト10の前側には、内部にエンジン、油圧ポンプ、熱交換装置等の搭載機器類(いずれも図示せず)を収容する建屋カバー7が配設されている。建屋カバー7は、旋回フレーム5の左右両側に位置して前後方向に延びた左右の側面板7Aと、各側面板7Aの上端部間を接続する水平方向に延びた上面板7Bとにより大略構成され、建屋カバー7の後側はカウンタウエイト10によって閉塞されている。建屋カバー7の上面板7B上には、建屋カバー7内に収容された搭載機器類を上方から覆うエンジンカバー8が設けられている。   In addition, a building cover 7 is provided in front of the counterweight 10 to house mounted equipment (both not shown) such as an engine, a hydraulic pump, and a heat exchanger. The building cover 7 is roughly composed of left and right side plates 7A located on the left and right sides of the revolving frame 5 and extending in the front-rear direction, and upper plates 7B extending in the horizontal direction connecting between upper end portions of the respective side plates 7A. The rear side of the building cover 7 is closed by a counterweight 10. An engine cover 8 is provided on the upper surface plate 7B of the building cover 7 to cover the mounted devices housed in the building cover 7 from above.

上部旋回体3の前側におけるキャブ6の前側上部と、上部旋回体3の左右それぞれの上部(つまり、建屋カバー7の上面板7Bの左右端部)であって前後方向の中央付近と、カウンタウエイト10の左右中央位置とには、それぞれ、車体近傍を含む車体周囲が撮影範囲となるように配置されたカメラ11a〜11dが設置されている。   A front upper portion of the cab 6 on the front side of the upper revolving unit 3, and upper portions on the left and right of the upper revolving unit 3 (that is, the left and right ends of the upper surface plate 7B of the building cover 7) near the center in the front and rear direction; Cameras 11a to 11d are disposed at the left and right center positions of the camera 10, respectively, such that the periphery of the vehicle body including the vicinity of the vehicle body is a shooting range.

図1及び図2においては、キャリブレーションマーカ20をキャブ6からみて後方に配置した様子を例示している。キャリブレーションマーカ20は、本実施の形態における周囲表示装置の校正処理に用いるものであり、例えば、シート状の部材に描画された予め定めた形状(以降、形状とは形および大きさを含むものとする)を有する図形である。すなわち、キャリブレーションマーカ20を既知の性能のカメラ11a〜11dで撮影した場合には、その映像中におけるキャリブレーションマーカ20の形状と、予め定めたキャリブレーションマーカ20の形状とから、キャリブレーションマーカ20とカメラ11a〜11dとの位置関係を求めることができる。なお、このことについては後に詳述する。   FIGS. 1 and 2 show an example in which the calibration marker 20 is disposed rearward as viewed from the cab 6. The calibration marker 20 is used for a calibration process of the peripheral display device in the present embodiment, and is, for example, a predetermined shape drawn on a sheet-like member (hereinafter, the shape includes a shape and a size. ). That is, when the calibration marker 20 is photographed by the cameras 11a to 11d of known performance, the calibration marker 20 is determined from the shape of the calibration marker 20 in the video and the shape of the predetermined calibration marker 20. The positional relationship between the camera and the cameras 11a to 11d can be obtained. This will be described later in detail.

図3は、本実施の形態に係る作業機械の周囲表示装置を模式的に示す図である。   FIG. 3 is a diagram schematically illustrating a peripheral display device of the work machine according to the present embodiment.

図3にいて周囲表示装置は、複数(例えば、本実施の形態では4台)のカメラ11a〜11dと、複数のカメラ11a〜11dによって撮影された映像を表示するモニタ(液晶モニタ)などの表示装置17と、周囲表示装置の全体の動作を制御するコントローラ12と、コントローラ12と共動して種々の制御を行うパソコン13とを備えている。   In FIG. 3, the surrounding display device is a display such as a plurality of (for example, four in the present embodiment) cameras 11a to 11d and a monitor (liquid crystal monitor) that displays images captured by the plurality of cameras 11a to 11d. The system includes a device 17, a controller 12 for controlling the overall operation of the surrounding display device, and a personal computer 13 for performing various controls in cooperation with the controller 12.

表示装置17には、各カメラ11a〜11dで撮影された映像や、これらの映像を鉛直上方から撮影したように(つまり、上方視点となるように)視点変換した映像、或いは、各カメラ11a〜11dで撮影した映像18a〜18dを合成処理して生成した俯瞰映像18(車体の上空から車体と周囲の状況を俯瞰的に撮影したような映像を擬似的に合成した合成映像)を映し出す画面15が設けられている。   The display device 17 displays images taken by the cameras 11a to 11d, images obtained by changing the viewpoints of the images as if they were taken vertically from above (that is, as an upper viewpoint), or each of the cameras 11a to 11d. A screen 15 for displaying an overhead image 18 (composite image obtained by artificially synthesizing an image of the vehicle and its surroundings from the sky above the vehicle in a bird's eye view) generated by synthesizing the images 18a to 18d captured in 11d. Is provided.

図3に示す例では、表示装置17の画面15に俯瞰映像18が表示されている場合を示している。俯瞰映像18は、例えば、俯瞰映像18における自車の形状および大きさを概略的に示す自車アイコン16を中央に配置し、自車アイコン16の上下左右にカメラ11a,11c,11b,11dで撮影した映像を自車が中心となるような上方視点の映像18a,18c,18b,18dにそれぞれ変換して配置することで形成されている。また、コントローラ12には、画面15に映し出される映像の種類を切り替える映像切替スイッチ14が接続されている。   The example illustrated in FIG. 3 illustrates a case where the bird's-eye view video 18 is displayed on the screen 15 of the display device 17. The bird's-eye view image 18 has, for example, a vehicle icon 16 schematically indicating the shape and size of the vehicle in the bird's-eye view image 18 arranged in the center, and cameras 11a, 11c, 11b, and 11d above, below, left, and right of the vehicle icon 16. It is formed by converting the photographed image into images 18a, 18c, 18b, 18d of the upper viewpoint such that the own vehicle is the center, and arranging them. The controller 12 is connected to a video changeover switch 14 for switching the type of video displayed on the screen 15.

本願発明は上記のように構成した作業機械に適用されるものであり、本実施の形態に係る作業機械の周囲表示装置のコントローラ12は、カメラ11a〜11dの映像から表示装置17に表示する映像を生成する合成映像生成部120を有している。   The present invention is applied to the work machine configured as described above, and the controller 12 of the peripheral display device of the work machine according to the present embodiment uses the images displayed on the display device 17 from the images of the cameras 11a to 11d. Is generated.

図4はコントローラの映像合成部の処理機能を示す機能ブロック図である。   FIG. 4 is a functional block diagram showing the processing functions of the video compositing unit of the controller.

図4において、コントローラ12の合成映像生成部120は、カメラ11a〜11dによって撮影された映像を取得する映像取得部121と、キャリブレーションマーカ20の予め定めた形状を記憶するマーカ形状記憶部127と、複数のカメラ11a〜11dで撮影した映像におけるキャリブレーションマーカ20の位置を特定する映像マーカ位置特定部122と、複数のカメラ11a〜11dで撮影した映像に基づいて、複数のカメラ11a〜11dからキャリブレーションマーカ20における複数の特徴点までの距離を算出するマーカ距離算出部123と、マーカ距離算出部123の算出結果に基づいて、複数のカメラ11a〜11dのキャリブレーションマーカ20に対する取り付け位置および取り付け角度を算出するカメラ取付位置特定部124と、カメラ取付位置特定部124の算出結果に基づいて、合成映像を生成する際の合成条件を特定する映像合成位置特定部125と、映像合成位置特定部125で特定した合成条件に基づいて、映像取得部121で取得したカメラ11a〜11dからの合成映像(俯瞰映像18)を合成し、表示装置17に出力する映像合成部126とを有している。   In FIG. 4, a composite image generation unit 120 of the controller 12 includes an image acquisition unit 121 that acquires images captured by the cameras 11a to 11d, a marker shape storage unit 127 that stores a predetermined shape of the calibration marker 20, and A video marker position specifying unit 122 for specifying the position of the calibration marker 20 in the video captured by the plurality of cameras 11a to 11d, and a plurality of cameras 11a to 11d based on the video captured by the plurality of cameras 11a to 11d. A marker distance calculation unit 123 that calculates distances to a plurality of feature points in the calibration marker 20, and mounting positions and mounting of the cameras 11a to 11d with respect to the calibration marker 20 based on the calculation results of the marker distance calculation unit 123. Camera mounting position for calculating the angle The specifying unit 124, a video combining position specifying unit 125 that specifies a combining condition when generating a combined video based on the calculation result of the camera attachment position specifying unit 124, and a combining condition specified by the video combining position specifying unit 125. A video synthesizing unit 126 for synthesizing the synthesized video (overhead video 18) from the cameras 11a to 11d acquired by the video acquiring unit 121 and outputting the synthesized video to the display device 17.

マーカ形状記憶部127には、校正処理に用いるキャリブレーションマーカ20の形状(形および大きさ)が記憶されている。マーカ形状記憶部127に記憶されるキャリブレーションマーカ20の形状は、マーカ形状設定部130により予め設定される。マーカ形状設定部130は、例えば、複数のキャリブレーションマーカの候補からオペレータが選択的に校正処理に使用するキャリブレーションマーカ20を設定するものであり、パソコン13にその機能を持たせても良く、或いは、コントローラ12に設定装置(図示せず)を設けても良い。   The marker shape storage unit 127 stores the shape (shape and size) of the calibration marker 20 used for the calibration process. The shape of the calibration marker 20 stored in the marker shape storage unit 127 is set in advance by the marker shape setting unit 130. The marker shape setting unit 130 is, for example, for setting the calibration marker 20 used by the operator for the calibration process from a plurality of calibration marker candidates, and the personal computer 13 may have the function. Alternatively, a setting device (not shown) may be provided in the controller 12.

図5は、校正処理を示すフローチャートである。   FIG. 5 is a flowchart showing the calibration processing.

図5において、コントローラ12における合成映像生成部120の映像取得部121は、まず、カメラ11a〜11dからの映像を取得する(ステップS100)。続いて、図示しない入力装置などにより校正処理の開始が指示されると、映像マーカ位置特定部122は、マーカ形状記憶部127に記憶されたキャリブレーションマーカ20の形状(形および大きさ)に基づき、取得した映像中のキャリブレーションマーカ20の位置を特定する(ステップS110)。   In FIG. 5, the image acquisition unit 121 of the composite image generation unit 120 in the controller 12 first acquires images from the cameras 11a to 11d (step S100). Subsequently, when the start of the calibration process is instructed by an input device (not shown) or the like, the video marker position specifying unit 122 determines the shape (shape and size) of the calibration marker 20 stored in the marker shape storage unit 127. Then, the position of the calibration marker 20 in the acquired video is specified (step S110).

例えば、図2に示したように、上部旋回体3の後方のカメラ11cの撮影範囲にキャリブレーションマーカ20を配置した場合には、図6に示すように、カメラ11cにより撮影された映像112cにキャリブレーションマーカ20が映り、映像112cにおけるキャリブレーションマーカ20の位置が特定される。なお、キャリブレーションマーカ20の位置の特定方法には特に制限はなく、例えば、パターンマッチングなどの手法を用いて、映像中におけるキャリブレーションマーカ20の位置が特定できれば良い。   For example, as shown in FIG. 2, when the calibration marker 20 is arranged in the shooting range of the camera 11c behind the upper revolving unit 3, as shown in FIG. The calibration marker 20 appears, and the position of the calibration marker 20 in the video 112c is specified. The method for specifying the position of the calibration marker 20 is not particularly limited, and any method may be used as long as the position of the calibration marker 20 in the video can be specified using a technique such as pattern matching.

続いて、映像マーカ位置特定部122は、校正する2つのカメラに同一のキャリブレーションマーカ20が映るっているかどうか、すなわち、隣り合うカメラの撮影範囲が重複する位置にキャリブレーションマーカ20が映っているかどうかを判定し(ステップS120)、判定結果がNOの場合には、判定結果がYESになるまでステップS100,S110の処理を繰り返す。   Subsequently, the video marker position specifying unit 122 determines whether the same calibration marker 20 is reflected in the two cameras to be calibrated, that is, the calibration marker 20 is reflected in a position where the photographing ranges of the adjacent cameras overlap. It is determined whether or not there is (Step S120). If the determination result is NO, the processes of Steps S100 and S110 are repeated until the determination result becomes YES.

本実施の形態においてキャリブレーションマーカ20は、図7に示すように、例えば、隣り合うカメラ11c,11dのそれぞれの撮影範囲111c,111dの重複範囲に位置するように配置する。すなわち、同様に、隣り合うカメラ11a,11bの撮影範囲の重複範囲、隣り合うカメラ11b,11cの撮影範囲の重複範囲、および、隣り合うカメラ11a,11dの撮影範囲の重複範囲のそれぞれにキャリブレーションマーカ20が位置するように配置して撮影を行う。なお、複数の重複範囲で同時にキャリブレーションマーカ20が撮影される必要はなく、各重複範囲で最低1回ずつキャリブレーションマーカ20が撮影(すなわち、映像マーカ位置特定部122で位置が特定)されればよい。   In the present embodiment, as shown in FIG. 7, the calibration marker 20 is arranged, for example, so as to be located in the overlapping range of the photographing ranges 111c and 111d of the adjacent cameras 11c and 11d. That is, similarly, calibration is performed on each of the overlapping range of the shooting range of the adjacent cameras 11a and 11b, the overlapping range of the shooting range of the adjacent cameras 11b and 11c, and the overlapping range of the shooting range of the adjacent cameras 11a and 11d. Photographing is performed with the marker 20 positioned so as to be positioned. It is not necessary to photograph the calibration marker 20 simultaneously in a plurality of overlapping ranges, and the calibration marker 20 is photographed at least once in each overlapping range (that is, the position is specified by the video marker position specifying unit 122). I just need.

したがって、各重複範囲に個別にキャリブレーションマーカ20を配置するのではなく、例えば、車体の周囲に1つのキャリブレーションマーカ20を配置し、上部旋回体3を下部走行体2に対して旋回させ、撮影範囲の各重複範囲でキャリブレーションマーカ20を撮影すればよい。このとき、上部旋回体3のある単一の旋回動作において全ての重複範囲でキャリブレーションマーカ20が撮影される必要はない。すなわち、キャリブレーションマーカ20を撮影できない重複範囲があった場合には、その重複範囲についてのみキャリブレーションマーカ20の位置を移動させてキャリブレーションマーカ20が撮影できるようにすれば足りる。   Therefore, instead of individually arranging the calibration markers 20 in each overlapping range, for example, one calibration marker 20 is arranged around the vehicle body, and the upper revolving unit 3 is turned with respect to the lower traveling unit 2, The calibration marker 20 may be photographed in each overlapping range of the photographing range. At this time, it is not necessary to photograph the calibration marker 20 in all overlapping ranges in a single swing operation of the upper swing body 3. That is, when there is an overlapping range in which the calibration marker 20 cannot be photographed, it is sufficient that the position of the calibration marker 20 is moved only in the overlapping range so that the calibration marker 20 can be photographed.

続いて、ステップS120での判定結果がYESの場合、すなわち、全ての重複範囲でキャリブレーションマーカ20が少なくとも1回以上撮影され、映像における位置が特定された場合には、マーカ距離算出部123は、複数のカメラ11a〜11dのそれぞれからキャリブレーションマーカ20までの距離を算出する(ステップS130)。   Subsequently, when the determination result in step S120 is YES, that is, when the calibration marker 20 is photographed at least once in all the overlapping ranges and the position in the video is specified, the marker distance calculating unit 123 Then, the distance from each of the plurality of cameras 11a to 11d to the calibration marker 20 is calculated (step S130).

すなわち、図8に示すように、マーカ距離算出部123では、カメラ11a〜11dでそれぞれ撮影された映像112a〜112d(カメラ投影面とも言える)におけるキャリブレーションマーカ21(ここでは、地面101に配置されたキャリブレーションマーカ20と区別して示す)の位置および形状(形および大きさ)に基づいて、カメラ11a〜11dのそれぞれの中心(View Point)から地面101に配置されたキャリブレーションマーカ20上の特徴点までの距離を算出する。なお、距離の算出方向に特に制限はなく、例えば、VIO(Visual Inertial Odometry)機能などを用いることができる。マーカ距離算出部123では、例えば、キャリブレーションマーカ20上のカメラ11a〜11dから近い順に3つ以上の端点を特徴点として測定するようにする。   That is, as shown in FIG. 8, the marker distance calculation unit 123 arranges the calibration markers 21 (here, arranged on the ground 101 in the images 112 a to 112 d (also referred to as camera projection planes) captured by the cameras 11 a to 11 d, respectively. Based on the position and shape (shape and size) of each of the calibration markers 20 shown on the calibration marker 20 from the center (View Point) of each of the cameras 11a to 11d. Calculate the distance to the point. There is no particular limitation on the direction in which the distance is calculated, and for example, a VIO (Visual Inertial Odometry) function or the like can be used. The marker distance calculation unit 123 measures, for example, three or more end points as feature points in order from the camera 11a to 11d on the calibration marker 20.

続いて、カメラ取付位置特定部124は、マーカ距離算出部123での算出結果に基づいて、複数のカメラ11a〜11dのキャリブレーションマーカ20に対する取り付け位置(例えば、互いに直行するx軸、y軸、及び、z軸により規定されるxyz座標系における相対位置)および取り付け角度(図9に示すようなxyz座標系におけるヨー、ロール、ピッチ)を算出する(ステップS140)。カメラ取付位置特定部124では、マーカ距離算出部123で求めたキャリブレーションマーカ20上の3点以上の特徴点までの距離を用いるので、複数のカメラ11a〜11dとキャリブレーションマーカ20との位置関係(取り付け位置および取り付け角度)を一意に求めることができる。   Subsequently, the camera attachment position specifying unit 124 attaches the plurality of cameras 11a to 11d to the calibration marker 20 (for example, the x-axis, the y-axis Then, a relative position in the xyz coordinate system defined by the z axis and a mounting angle (yaw, roll, and pitch in the xyz coordinate system as shown in FIG. 9) are calculated (step S140). Since the camera attachment position specifying unit 124 uses the distances to three or more feature points on the calibration marker 20 obtained by the marker distance calculating unit 123, the positional relationship between the plurality of cameras 11a to 11d and the calibration marker 20 is used. (The mounting position and the mounting angle) can be uniquely obtained.

また、カメラ取付位置特定部124は、カメラ11a〜11dとキャリブレーションマーカ20との位置関係から、同じシーンで同時に撮像したキャリブレーションマーカを基準に隣り合ったカメラ11a〜11dの位置関係を特定する(ステップS150)。すなわち、例えば、図11に示すように、上部旋回体3の左後方にキャリブレーションマーカ20が位置し、隣り合うカメラ11c,11dの重複する撮影範囲においてキャリブレーションマーカ20を撮影した映像を用いて求めたカメラ11c,11dのそれぞれとキャリブレーションマーカ20との位置関係から、図10に示すように、隣り合うカメラ11c,11dの位置関係を特定する。   Further, the camera mounting position specifying unit 124 specifies the positional relationship between the adjacent cameras 11a to 11d based on the positional relationship between the cameras 11a to 11d and the calibration marker 20 based on the calibration markers imaged simultaneously in the same scene. (Step S150). That is, for example, as shown in FIG. 11, the calibration marker 20 is located on the left rear side of the upper revolving unit 3, and an image obtained by photographing the calibration marker 20 in the overlapping photographing range of the adjacent cameras 11 c and 11 d is used. From the obtained positional relationship between the cameras 11c and 11d and the calibration marker 20, the positional relationship between the adjacent cameras 11c and 11d is specified as shown in FIG.

同様に、図13に示すように、上部旋回体3の右後方にキャリブレーションマーカ20が位置し、隣り合うカメラ11b,11cの重複する撮影範囲においてキャリブレーションマーカ20を撮影した映像を用いて求めたカメラ11b,11cのそれぞれとキャリブレーションマーカ20との位置関係から、図12に示すように、隣り合うカメラ11b,11cの位置関係を特定する。また、同様に、図15に示すように、上部旋回体3の左前方にキャリブレーションマーカ20が位置し、隣り合うカメラ11a,11dの重複する撮影範囲においてキャリブレーションマーカ20を撮影した映像を用いて求めたカメラ11a,11dのそれぞれとキャリブレーションマーカ20との位置関係から、図14に示すように、隣り合うカメラ11a,11dの位置関係を特定する。また、同様に、図17に示すように、上部旋回体3の右前方にキャリブレーションマーカ20が位置し、隣り合うカメラ11a,11bの重複する撮影範囲においてキャリブレーションマーカ20を撮影した映像を用いて求めたカメラ11a,11bのそれぞれとキャリブレーションマーカ20との位置関係から、図16に示すように、隣り合うカメラ11a,11bの位置関係を特定する。   Similarly, as shown in FIG. 13, the calibration marker 20 is located at the right rear of the upper revolving unit 3, and the calibration marker 20 is obtained by using an image obtained by photographing the calibration marker 20 in the overlapping photographing range of the adjacent cameras 11 b and 11 c. From the positional relationship between each of the cameras 11b and 11c and the calibration marker 20, the positional relationship between the adjacent cameras 11b and 11c is specified as shown in FIG. Similarly, as shown in FIG. 15, the calibration marker 20 is located at the front left of the upper revolving unit 3, and an image obtained by photographing the calibration marker 20 in the overlapping photographing range of the adjacent cameras 11 a and 11 d is used. From the positional relationship between each of the cameras 11a and 11d and the calibration marker 20, the positional relationship between the adjacent cameras 11a and 11d is specified as shown in FIG. Similarly, as shown in FIG. 17, the calibration marker 20 is located at the front right of the upper revolving unit 3, and an image obtained by photographing the calibration marker 20 in the overlapping photographing range of the adjacent cameras 11 a and 11 b is used. From the positional relationship between each of the cameras 11a and 11b and the calibration marker 20, the positional relationship between the adjacent cameras 11a and 11b is specified as shown in FIG.

このように、図19に示すように、隣り合うカメラ11a〜11dの重複する撮影範囲においてキャリブレーションマーカ20を撮影した映像を用いて求めたカメラ11a〜11dのそれぞれとキャリブレーションマーカ20との位置関係から、図18に示すように、隣り合うカメラ11a〜11dの位置関係を特定することができる。   In this way, as shown in FIG. 19, the positions of the cameras 11a to 11d and the calibration markers 20 obtained by using the images obtained by photographing the calibration markers 20 in the overlapping shooting ranges of the adjacent cameras 11a to 11d. From the relationship, as shown in FIG. 18, the positional relationship between the adjacent cameras 11a to 11d can be specified.

続いて、映像合成位置特定部125は、カメラ取付位置特定部124の算出結果に基づいて、合成映像を生成する際の合成条件として映像合成位置を特定し、映像合成部126に出力して(ステップS160)、処理を終了する。   Subsequently, the video combining position specifying unit 125 specifies a video combining position as a combining condition when generating a combined video based on the calculation result of the camera attachment position specifying unit 124, and outputs it to the video combining unit 126 ( Step S160), and the process ends.

図20は、カメラの映像における映像合成位置の一例を示す図である。また、図21は、映像合成位置を用いて合成した俯瞰映像の様子を模式的に示す図である。   FIG. 20 is a diagram illustrating an example of a video synthesis position in a video of a camera. FIG. 21 is a diagram schematically illustrating a state of a bird's-eye view video synthesized using the video synthesis position.

図20に示すように、映像合成位置特定部125では、カメラ取付位置特定部124の算出結果に基づいて、俯瞰映像18を生成する際の合成条件として映像合成位置を特定する。ここで、映像合成位置とは、俯瞰映像18を生成する際に、隣り合う2つのカメラで撮影された映像の位置を合わせるポイント(貼り合わせポイント)のことである。例えば、図20及び図21に示すカメラ11aの映像112aにおけるカメラ11bの映像112bとの映像合成位置は、貼り合わせポイントA,A’,A’’である。また、カメラ11aの映像112aにおけるカメラ11dの映像112dとの映像合成位置は、貼り合わせポイントB,B’,B’’である。なお、本実施の形態では、カメラ取付位置特定部124で特定した隣り合うカメラ11a〜11dの位置関係から貼り合わせポイントを求める場合を例示して説明しているが、例えば、マーカ距離算出部123等で用いたキャリブレーションマーカ20上の3点以上の特徴点を貼り合わせポイントとして用いることもできる。   As shown in FIG. 20, the video synthesis position specifying unit 125 specifies a video synthesis position as a synthesis condition when generating the overhead view video 18 based on the calculation result of the camera attachment position specification unit 124. Here, the image combining position is a point (combining point) at which the positions of images captured by two adjacent cameras are adjusted when the overhead view image 18 is generated. For example, the image combining position of the image 112a of the camera 11a and the image 112b of the camera 11b shown in FIGS. 20 and 21 is the bonding point A, A ′, A ″. Further, the image combining position of the image 112a of the camera 11a with the image 112d of the camera 11d is the bonding point B, B ', B' '. In the present embodiment, the case where the bonding point is obtained from the positional relationship between the adjacent cameras 11a to 11d specified by the camera mounting position specifying unit 124 has been described as an example. For example, three or more characteristic points on the calibration marker 20 used in the above-described method can be used as bonding points.

映像合成位置特定部125で合成条件として特定された映像合成位置は、映像合成部126に送られて記憶される。すなわち、映像合成部126では、校正処理において映像合成位置特定部125で合成条件として特定した映像合成位置(貼り合わせポイント)を記憶して用いることで、車体全周囲の映像をより精度の高い俯瞰映像18として合成することができる。なお、映像マーカ位置特定部122から映像合成位置特定部125による校正処理を行っていない場合は、映像合成位置特定部125は、記憶した合成条件を用いて俯瞰映像18の合成を行う。   The video synthesis position specified as the synthesis condition by the video synthesis position specifying unit 125 is sent to the video synthesis unit 126 and stored. That is, the video synthesizing unit 126 stores and uses the video synthesizing position (bonding point) specified as the synthesizing condition by the video synthesizing position specifying unit 125 in the calibration processing, so that the image around the entire vehicle body can be more accurately viewed. The image 18 can be synthesized. When the calibration process from the video marker position specifying unit 122 to the video combining position specifying unit 125 is not performed, the video combining position specifying unit 125 combines the overhead view video 18 using the stored combining condition.

以上のように構成した本実施の形態における効果を説明する。   Effects of the present embodiment configured as described above will be described.

複数のカメラのキャリブレーションを行う場合には、車両の周囲に複数のマーカを配置する必要があるため、マーカの配置などキャリブレーションの準備に係る手間や、キャリブレーションそのものに要する時間が増加してしまうことが考えられる。このようなキャリブレーションに要する時間の増加を抑制することは、実運用上の重要な課題である。特に、工場の量産設備などの生産ラインにおける機械の組立時や、稼動現場において稼動途中の機械のカメラの取付け位置がずれてしまった際など、時間的な制約条件が厳しい状況の中では、キャリブレーションに要する手間や時間の増加を抑制することがより一層重要である。   When calibrating a plurality of cameras, it is necessary to arrange a plurality of markers around the vehicle, so that the labor involved in preparing for calibration, such as arranging the markers, and the time required for the calibration itself increase. It is possible that Suppressing the increase in the time required for such calibration is an important issue in actual operation. In particular, when time constraints are severe, such as when assembling machines on a production line such as mass production equipment at a factory or when the camera mounting position of a machine being operated at the operation site has shifted, calibration is It is even more important to suppress an increase in labor and time required for the application.

これに対して本実施の形態においては、下部走行体2と、下部走行体2に対して旋回可能に設けられた上部旋回体3と、上部旋回体3に配置され、下部走行体2と上部旋回体3とにより構成された車体の周囲を撮影する複数のカメラ11a〜11dと、複数のカメラ11a〜11dによって撮影された映像から合成された合成映像(例えば、俯瞰映像18)を表示する表示装置17と、合成映像を合成条件に基づいて生成し、表示装置17に出力するコントローラ12とを備えた作業機械(例えば、油圧ショベル1)において、コントローラ12は、校正処理に用いる予め定めたキャリブレーションマーカ20の形状を記憶するマーカ形状記憶部127と、複数のカメラ11a〜11dで撮影した映像におけるキャリブレーションマーカ20の位置を特定する映像マーカ位置特定部122と、複数のカメラ11a〜11dで撮影した映像に基づいて、複数のカメラ11a〜11dからキャリブレーションマーカ20における複数の特徴点までの距離を算出するマーカ距離算出部123と、マーカ距離算出部123の算出結果に基づいて、複数のカメラ11a〜11dのキャリブレーションマーカ20に対する取り付け位置および取り付け角度を算出するカメラ取付位置特定部124と、カメラ取付位置特定部124の算出結果に基づいて、合成映像を生成する際の合成条件を特定する映像合成位置特定部125とを有するように構成したので、キャリブレーションにおける手間や時間の増加を抑制しつつ、キャリブレーションの精度を向上することができる。   On the other hand, in the present embodiment, the lower traveling unit 2, the upper revolving unit 3 that is provided to be pivotable with respect to the lower traveling unit 2, and the upper revolving unit 3 are disposed on the lower traveling unit 2 and the upper traveling unit 2. A display for displaying a plurality of cameras 11a to 11d for photographing the periphery of a vehicle body constituted by the revolving superstructure 3 and a combined image (for example, an overhead view image 18) synthesized from images captured by the plurality of cameras 11a to 11d. In a working machine (e.g., the excavator 1) including the device 17 and the controller 12 that generates a synthesized image based on the synthesizing condition and outputs the synthesized image to the display device 17, the controller 12 performs a predetermined calibration used in the calibration process. A marker shape storage unit 127 for storing the shape of the calibration marker 20, and a calibration marker 20 for images captured by the plurality of cameras 11a to 11d. A marker distance for calculating a distance from a plurality of cameras 11a to 11d to a plurality of feature points in a calibration marker 20 based on images captured by a plurality of cameras 11a to 11d and a video marker position specifying unit 122 for specifying a position. A calculating unit 123; a camera mounting position specifying unit 124 that calculates mounting positions and mounting angles of the plurality of cameras 11a to 11d with respect to the calibration marker 20 based on the calculation results of the marker distance calculating unit 123; Based on the calculation result of 124, the image synthesis position specifying unit 125 that specifies the synthesis condition when generating the synthesized image is configured, so that the calibration can be performed while suppressing an increase in labor and time in the calibration. Accuracy can be improved.

次に上記の各実施の形態の特徴について説明する。   Next, the features of the above embodiments will be described.

(1)上記の実施の形態では、下部走行体2と、前記下部走行体に対して旋回可能に設けられた上部旋回体3と、前記上部旋回体に配置され、前記下部走行体と前記上部旋回体とにより構成された車体の周囲を撮影する複数のカメラ11a〜11dと、前記複数のカメラによって撮影された映像から合成された合成映像(例えば、俯瞰映像18)を表示する表示装置17と、前記合成映像を合成条件に基づいて生成し、前記表示装置に出力するコントローラ12とを備えた作業機械(例えば、油圧ショベル1)において、前記コントローラは、校正処理に用いる予め定めたキャリブレーションマーカ20の形状を記憶するマーカ形状記憶部127と、前記複数のカメラで撮影した映像における前記キャリブレーションマーカの位置を特定する映像マーカ位置特定部122と、前記複数のカメラで撮影した映像に基づいて、前記複数のカメラから前記キャリブレーションマーカにおける複数の特徴点までの距離を算出するマーカ距離算出部123と、前記マーカ距離算出部の算出結果に基づいて、前記複数のカメラの前記キャリブレーションマーカに対する取り付け位置および取り付け角度を算出するカメラ取付位置特定部124と、前記カメラ取付位置特定部の算出結果に基づいて、前記合成映像を生成する際の前記合成条件を特定する映像合成位置特定部125とを有するものとした。   (1) In the above embodiment, the lower traveling unit 2, the upper revolving unit 3 provided to be able to pivot with respect to the lower traveling unit, and the lower traveling unit and the upper A plurality of cameras 11a to 11d for photographing the periphery of the vehicle body constituted by the revolving body, and a display device 17 for displaying a composite image (for example, a bird's-eye image 18) synthesized from images captured by the plurality of cameras. A working machine (e.g., a hydraulic shovel 1) including a controller 12 that generates the synthesized video based on the synthesis condition and outputs the synthesized video to the display device, wherein the controller uses a predetermined calibration marker used in a calibration process. A marker shape storage unit 127 that stores the shape of the calibration marker 20; and a position of the calibration marker in an image captured by the plurality of cameras. An image marker position specifying unit 122; a marker distance calculating unit 123 that calculates distances from the plurality of cameras to a plurality of feature points in the calibration marker based on images captured by the plurality of cameras; A camera mounting position specifying unit that calculates mounting positions and mounting angles of the plurality of cameras with respect to the calibration marker based on a calculation result of the calculating unit; and the combining based on a calculation result of the camera mounting position specifying unit. An image synthesizing position specifying unit 125 for specifying the synthesizing conditions when generating an image is provided.

これにより、キャリブレーションにおける手間や時間の増加を抑制しつつ、キャリブレーションの精度を向上することができる。   Thus, it is possible to improve the accuracy of the calibration while suppressing an increase in labor and time in the calibration.

(2)また、上記の実施の形態では、(1)の作業機械において、前記合成映像は、前記上部旋回体3及び前記下部走行体2からなる車体の上空から前記車体と周囲の状況とを俯瞰的に撮影した映像を擬似的に合成した俯瞰映像18であり、前記映像合成位置特定部125は、前記複数のカメラ11a〜11dでそれぞれ撮影された複数の映像から前記俯瞰映像を生成する際の合成条件を特定するものとした。   (2) In the above-described embodiment, in the work machine according to (1), the composite image includes a view of the vehicle body and surroundings from above the vehicle body including the upper revolving unit 3 and the lower traveling unit 2. The overhead image 18 is a bird's-eye view image 18 obtained by pseudo-synthesizing a video shot in a bird's-eye view. The video synthesis position specifying unit 125 is configured to generate the bird's-eye view video from a plurality of videos captured by the cameras 11a to 11d. Are specified.

(3)また、上記の実施の形態では、(1)の作業機械において、前記カメラ取付位置特定部124は、前記複数のカメラ11a〜11dから前記キャリブレーションマーカ20における少なくとも3点以上の特徴点までの距離に基づいて、前記複数のカメラの取り付け位置および取り付け角度をそれぞれ算出し、前記映像合成位置特定部125は、前記複数のカメラで撮影した映像における前記キャリブレーションマーカの3点以上の特徴点の位置に基づいて、前記合成条件を特定するものとした。   (3) In the above embodiment, in the work machine of (1), the camera attachment position specifying unit 124 determines at least three or more characteristic points in the calibration marker 20 from the plurality of cameras 11a to 11d. The video compositing position specifying unit 125 calculates the mounting positions and the mounting angles of the plurality of cameras based on the distances to the three or more points of the calibration markers in the video captured by the plurality of cameras. The synthesis condition is specified based on the position of the point.

<付記>
なお、本発明は上記の実施の形態に限定されるものではなく、その要旨を逸脱しない範囲内の様々な変形例や組み合わせが含まれる。また、本発明は、上記の実施の形態で説明した全ての構成を備えるものに限定されず、その構成の一部を削除したものも含まれる。また、上記の各構成、機能等は、それらの一部又は全部を、例えば集積回路で設計する等により実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。
<Appendix>
Note that the present invention is not limited to the above-described embodiment, and includes various modifications and combinations without departing from the gist of the present invention. In addition, the present invention is not limited to the configuration including all the configurations described in the above embodiment, and includes a configuration in which a part of the configuration is deleted. In addition, each of the above-described configurations, functions, and the like may be realized by designing a part or all of them, for example, using an integrated circuit. In addition, the above-described configurations, functions, and the like may be realized by software by a processor interpreting and executing a program that realizes each function.

1…油圧ショベル、2…下部走行体、3…上部旋回体、4…フロント作業機、5…旋回フレーム、6…キャブ、7…建屋カバー、7A…側面板、7B…上面板、8…エンジンカバー、10…カウンタウエイト、11a〜11d…カメラ、12…コントローラ、13…パソコン、14…映像切替スイッチ、15…画面、16…自車アイコン、17…表示装置、18…俯瞰映像、18a〜18d…映像、20,21…キャリブレーションマーカ、101…地面、111c,111d…撮影範囲、112a〜112d…映像、120…合成映像生成部、121…映像取得部、122…映像マーカ位置特定部、123…マーカ距離算出部、124…カメラ取付位置特定部、125…映像合成位置特定部、126…映像合成部、127…マーカ形状記憶部、130…マーカ形状設定部   DESCRIPTION OF SYMBOLS 1 ... Hydraulic excavator, 2 ... Lower traveling body, 3 ... Upper revolving superstructure, 4 ... Front work machine, 5 ... Revolving frame, 6 ... Cab, 7 ... Building cover, 7A ... Side plate, 7B ... Top plate, 8 ... Engine Cover: 10: counter weight, 11a to 11d: camera, 12: controller, 13: personal computer, 14: video changeover switch, 15: screen, 16: own vehicle icon, 17: display device, 18: overhead view video, 18a to 18d ... Video, 20, 21 Calibration marker, 101 Ground, 111c, 111d Shooting range, 112a to 112d Video, 120 Synthetic video generation unit, 121 Video acquisition unit, 122 Image marker position identification unit, 123 ... Marker distance calculation unit, 124 ... Camera mounting position specification unit, 125 ... Video synthesis position specification unit, 126 ... Video synthesis unit, 127 ... Marker shape storage , 130 ... marker shape setting unit

Claims (3)

下部走行体と、
前記下部走行体に対して旋回可能に設けられた上部旋回体と、
前記上部旋回体に配置され、前記下部走行体と前記上部旋回体とにより構成された車体の周囲を撮影する複数のカメラと、
前記複数のカメラによって撮影された映像から合成された合成映像を表示する表示装置と、
前記合成映像を合成条件に基づいて生成し、前記表示装置に出力するコントローラとを備えた作業機械において、
前記コントローラは、前記複数のカメラで撮影した映像において、校正処理に用いる予め定めた形状のキャリブレーションマーカの位置を特定し、前記複数のカメラで撮影した映像に基づいて、前記複数のカメラから前記キャリブレーションマーカにおける複数の特徴点までの距離を算出し、算出した距離に基づいて、前記複数のカメラの前記キャリブレーションマーカに対する取り付け位置および取り付け角度を算出し、算出した取り付け位置および取り付け角度に基づいて、前記合成映像を生成する際の前記合成条件を特定し、特定した合成条件に基づいて合成映像を合成して前記表示装置に出力することを特徴とする作業機械。
An undercarriage,
An upper revolving structure provided so as to be rotatable with respect to the lower traveling structure,
A plurality of cameras arranged on the upper revolving unit and photographing the periphery of a vehicle body formed by the lower traveling unit and the upper revolving unit,
A display device that displays a composite image synthesized from images captured by the plurality of cameras,
A work machine comprising: a controller that generates the synthesized video based on the synthesis condition and outputs the synthesized video to the display device.
The controller specifies the position of a calibration marker having a predetermined shape used in the calibration process in the images captured by the plurality of cameras, and based on the images captured by the plurality of cameras, Calculating distances to a plurality of feature points in the calibration marker, calculating mounting positions and mounting angles of the plurality of cameras with respect to the calibration markers based on the calculated distances, based on the calculated mounting positions and mounting angles. A work machine configured to specify the combination condition when the combined image is generated, to combine the combined image based on the specified combination condition, and to output the combined image to the display device.
請求項1記載の作業機械において、
前記合成映像は、前記上部旋回体及び前記下部走行体からなる車体の上空から前記車体と周囲の状況とを俯瞰的に撮影した映像を擬似的に合成した俯瞰映像であり、
前記コントローラは、前記複数のカメラでそれぞれ撮影された複数の映像から前記俯瞰映像を生成する際の合成条件を特定することを特徴とする作業機械。
The work machine according to claim 1,
The synthesized image is a bird's-eye view image obtained by pseudo-synthesizing an image of the vehicle body and surrounding conditions taken from above the vehicle body consisting of the upper revolving structure and the lower traveling structure.
The work machine according to claim 1, wherein the controller specifies a synthesis condition when the overhead view video is generated from a plurality of videos captured by the plurality of cameras.
請求項2記載の作業機械において、
前記コントローラは、前記複数のカメラから前記キャリブレーションマーカにおける少なくとも3点以上の特徴点までの距離に基づいて、前記複数のカメラの取り付け位置および取り付け角度をそれぞれ算出し、前記複数のカメラで撮影した映像における前記キャリブレーションマーカの3点以上の特徴点の位置に基づいて、前記合成条件を特定することを特徴とする作業機械。
The work machine according to claim 2,
The controller calculates an attachment position and an attachment angle of each of the plurality of cameras based on a distance from the plurality of cameras to at least three or more characteristic points in the calibration marker, and captures images with the plurality of cameras. A work machine characterized in that the combination condition is specified based on positions of three or more feature points of the calibration marker in a video.
JP2018175328A 2018-09-19 2018-09-19 Work machine Pending JP2020045687A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018175328A JP2020045687A (en) 2018-09-19 2018-09-19 Work machine

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018175328A JP2020045687A (en) 2018-09-19 2018-09-19 Work machine

Publications (1)

Publication Number Publication Date
JP2020045687A true JP2020045687A (en) 2020-03-26

Family

ID=69900876

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018175328A Pending JP2020045687A (en) 2018-09-19 2018-09-19 Work machine

Country Status (1)

Country Link
JP (1) JP2020045687A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7174389B1 (en) 2022-02-18 2022-11-17 株式会社ヒューマンサポートテクノロジー Object position estimation display device, method and program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012122734A (en) * 2010-12-06 2012-06-28 Nissan Motor Co Ltd Moving body position estimation device and moving body position estimation method
JP2014064224A (en) * 2012-09-24 2014-04-10 Clarion Co Ltd Calibration method and device for camera
JP2014125865A (en) * 2012-12-27 2014-07-07 Hitachi Constr Mach Co Ltd Vehicle body periphery display device for work machine
JP2015075426A (en) * 2013-10-10 2015-04-20 株式会社フジタ Method for calibrating cameras for overhead image display unit mounted on construction machine and overhead image display unit using results thereof
JP2017078923A (en) * 2015-10-20 2017-04-27 クラリオン株式会社 Calibration device, calibration method, and calibration program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012122734A (en) * 2010-12-06 2012-06-28 Nissan Motor Co Ltd Moving body position estimation device and moving body position estimation method
JP2014064224A (en) * 2012-09-24 2014-04-10 Clarion Co Ltd Calibration method and device for camera
JP2014125865A (en) * 2012-12-27 2014-07-07 Hitachi Constr Mach Co Ltd Vehicle body periphery display device for work machine
JP2015075426A (en) * 2013-10-10 2015-04-20 株式会社フジタ Method for calibrating cameras for overhead image display unit mounted on construction machine and overhead image display unit using results thereof
JP2017078923A (en) * 2015-10-20 2017-04-27 クラリオン株式会社 Calibration device, calibration method, and calibration program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7174389B1 (en) 2022-02-18 2022-11-17 株式会社ヒューマンサポートテクノロジー Object position estimation display device, method and program
JP2023120758A (en) * 2022-02-18 2023-08-30 株式会社ヒューマンサポートテクノロジー Object position estimation display device, method, and program

Similar Documents

Publication Publication Date Title
WO2013058093A1 (en) Device for monitoring surroundings of machinery
WO2016031009A1 (en) Display system of work vehicle, display control device, work vehicle, and display control method
JP6029306B2 (en) Perimeter monitoring equipment for work machines
KR101752613B1 (en) Periphery monitoring device for work machine
EP2991343B1 (en) Image to be processed generating device, image to be processed generating method, and operation assistance system
EP3512194B1 (en) Bird&#39;s-eye view image system, bird&#39;s-eye view image display method and program
EP2560384B1 (en) Processing target image generation device, processing target image generation method, and operation support system
JP6106430B2 (en) Work machine body periphery display device
JP6321977B2 (en) Perimeter monitoring equipment for heavy machinery
JP2013253402A (en) Surrounding monitoring device for work machine
CN107407075B (en) Image data generating method
JP2005217889A (en) Image positional relation correcting device, steering support device provided with image positional relation correcting device, and image positional relation correcting method
US10721397B2 (en) Image processing system using predefined stitching configurations
JP2007147422A (en) Measurement system, image processor, and method
JP6324665B2 (en) Perimeter monitoring equipment for work machines
CN107250725B (en) Image pickup apparatus
JP5066198B2 (en) Work machine monitoring device
JP4286294B2 (en) Driving support system
WO2019187560A1 (en) Working machine control device
JP5805574B2 (en) Perimeter monitoring equipment for work machines
JP5752631B2 (en) Image generation method, image generation apparatus, and operation support system
JP2020045687A (en) Work machine
JP6256874B2 (en) Overhead image display device for construction machinery
JP6799557B2 (en) Work machine
JP2020147962A (en) Ambient display system and work machines equipped with the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200812

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210727

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210810

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220301