JP7444094B2 - Remote operation support system and remote operation support method - Google Patents

Remote operation support system and remote operation support method Download PDF

Info

Publication number
JP7444094B2
JP7444094B2 JP2021017122A JP2021017122A JP7444094B2 JP 7444094 B2 JP7444094 B2 JP 7444094B2 JP 2021017122 A JP2021017122 A JP 2021017122A JP 2021017122 A JP2021017122 A JP 2021017122A JP 7444094 B2 JP7444094 B2 JP 7444094B2
Authority
JP
Japan
Prior art keywords
image
imaging device
distance measuring
remote operation
remote
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021017122A
Other languages
Japanese (ja)
Other versions
JP2022120309A (en
Inventor
真輝 大谷
佑介 上村
誠司 佐伯
洋一郎 山▲崎▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kobelco Construction Machinery Co Ltd
Original Assignee
Kobelco Construction Machinery Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kobelco Construction Machinery Co Ltd filed Critical Kobelco Construction Machinery Co Ltd
Priority to JP2021017122A priority Critical patent/JP7444094B2/en
Priority to PCT/JP2021/041011 priority patent/WO2022168383A1/en
Publication of JP2022120309A publication Critical patent/JP2022120309A/en
Application granted granted Critical
Publication of JP7444094B2 publication Critical patent/JP7444094B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F9/00Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
    • E02F9/20Drives; Control devices
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F9/00Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
    • E02F9/26Indicating devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Mining & Mineral Resources (AREA)
  • Civil Engineering (AREA)
  • General Engineering & Computer Science (AREA)
  • Structural Engineering (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Component Parts Of Construction Machinery (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、遠隔操作装置により油圧ショベル等の作業機械を遠隔操作する技術に関する。 The present invention relates to a technique for remotely controlling a working machine such as a hydraulic excavator using a remote control device.

遠隔ショベルにおいて、距離検出装置が求めた距離の情報から旋回体の旋回中心軸を中心とする円弧の画像を生成し、カメラで撮影した画像と合成した合成画像を表示装置に表示する技術が提案されている(例えば、特許文献1参照)。カメラで撮影した2次元映像だと奥行感・地形の凹凸がわからないので、従来技術では、LIDAR等の距センサで取得した地形情報をカメラ映像に重畳させ、奥行感や地面の凹凸情報をオペレータに認識できるようにしている。 A technology has been proposed for remote excavators that generates an image of an arc centered on the rotation center axis of a rotating body from distance information determined by a distance detection device, and displays a composite image on a display device by combining it with the image taken by a camera. (For example, see Patent Document 1). Since a two-dimensional image taken with a camera does not give a sense of depth or the unevenness of the terrain, conventional technology superimposes the topographical information acquired by a distance sensor such as LIDAR on the camera image, giving the operator a sense of depth and information about the unevenness of the ground. making it recognizable.

特許第6794193号公報Patent No. 6794193

しかし、カメラで取得される画像データと、LIDARで取得される距離情報とがずれた状態で合成されると有用性が低い情報しか生成されない。このため、画像データと距離情報とを的確に合成する技術が必要とされている。 However, if the image data acquired by the camera and the distance information acquired by LIDAR are combined in a misaligned manner, only information with low usefulness is generated. Therefore, there is a need for a technique that accurately combines image data and distance information.

そこで、本発明は、作業機械に搭載されている撮像装置を通じて取得された撮像画像と、同じ作業機械に搭載されている測距装置を通じて取得された測距画像に含まれる測距情報と、が的確に複合された環境画像を生成することができる技術的手法を提供することを目的とする。 Therefore, the present invention provides that a captured image acquired through an imaging device mounted on a work machine and distance measurement information included in a distance measurement image acquired through a distance measurement device mounted on the same work machine are The purpose of the present invention is to provide a technical method that can generate an accurately composite environmental image.

本発明の遠隔操作支援サーバは、
遠隔操作装置による作業機械の遠隔操作を支援するための遠隔操作支援システムであって、
前記作業機械に搭載されている撮像装置を通じて取得された、前記作業機械に搭載され、かつ、実空間において前記撮像装置による撮像範囲と重複する測距範囲を有する測距装置に付されたマーカを含む撮像画像に基づき、前記撮像装置を基準とする前記測距装置の相対位置および相対姿勢を認識する第1支援処理要素と、
前記第1支援処理要素により認識された前記撮像装置を基準とする前記測距装置の相対位置および相対姿勢に基づき、前記遠隔操作装置を構成する遠隔出力インターフェースに出力される、前記測距装置により取得された測距画像に含まれる情報が前記撮像画像に組み込まれた環境画像を生成する第2支援処理要素と、
を備えている。
The remote operation support server of the present invention includes:
A remote operation support system for supporting remote operation of a work machine using a remote control device,
A marker attached to a ranging device mounted on the working machine and having a ranging range that overlaps an imaging range by the imaging device in real space, acquired through an imaging device mounted on the working machine. a first support processing element that recognizes the relative position and relative orientation of the distance measuring device with respect to the imaging device based on captured images;
Based on the relative position and relative orientation of the distance measuring device with respect to the imaging device recognized by the first support processing element, the distance measuring device outputs to a remote output interface that constitutes the remote control device. a second support processing element that generates an environmental image in which information included in the acquired ranging image is incorporated into the captured image;
It is equipped with

当該構成の遠隔操作支援システムによれば、作業機械に搭載されている撮像装置を通じて取得された撮像画像、ひいては同じく作業機械に搭載されている測距装置に付されたマーカの映り込み態様に基づき、撮像装置を基準とした測距装置の相対位置および相対姿勢が認識される。撮像装置を基準とした測距装置の相対位置および相対姿勢、ひいては撮像画像座標系および測距画像座標系の座標変換態様に基づき、測距画像に含まれる距離情報が撮像画像に組み込まれた環境画像が生成される。この環境画像が遠隔操作装置を構成する遠隔出力インターフェースに出力されることにより、当該環境画像に接したオペレータに撮像画像(2次元画像)に映り込んでいる物体の3次元実空間における位置(または位置および姿勢)を的確に認識させることができる。 According to the remote operation support system having the above configuration, based on the captured image acquired through the imaging device mounted on the working machine, and furthermore, the reflection state of the marker attached to the distance measuring device also mounted on the working machine. , the relative position and relative orientation of the distance measuring device with respect to the imaging device are recognized. An environment in which distance information included in a distance measurement image is incorporated into a captured image based on the relative position and relative orientation of the distance measurement device with respect to the imaging device, and furthermore, the coordinate transformation mode of the captured image coordinate system and the distance measurement image coordinate system. An image is generated. By outputting this environmental image to the remote output interface that constitutes the remote control device, the operator who is in contact with the environmental image can tell the position (or position and posture) can be accurately recognized.

また、本発明の遠隔操作支援システムにおいて、前記第1支援処理要素は、前記撮像画像における前記マーカのサイズに応じて前記撮像装置を基準とする前記測距装置の相対位置を認識する。 Further, in the remote operation support system of the present invention, the first support processing element recognizes the relative position of the distance measuring device with respect to the imaging device according to the size of the marker in the captured image.

当該構成の遠隔操作支援システムによれば、撮像画像(2次元画像)に映り込んでいるマーカのサイズおよび表示位置に応じて撮像装置を基準とした測距装置の相対位置が認識される。これにより、マーカの映り込み態様に基づいて撮像装置を基準とした測距装置の相対位置が認識される。 According to the remote operation support system with this configuration, the relative position of the distance measuring device with respect to the imaging device is recognized according to the size and display position of the marker reflected in the captured image (two-dimensional image). As a result, the relative position of the distance measuring device with respect to the imaging device is recognized based on the reflected appearance of the marker.

また、本発明の遠隔操作支援システムにおいて、前記測距装置に付されたマーカは複数であり、前記第1支援処理要素は、複数の前記マーカに応じて前記撮像装置を基準とする前記測距装置の相対姿勢を認識する。 Further, in the remote operation support system of the present invention, a plurality of markers are attached to the distance measuring device, and the first support processing element is configured to determine the distance measuring device based on the imaging device according to the plurality of markers. Recognize the relative posture of the device.

当該構成の遠隔操作支援サーバによれば、撮像画像(2次元画像)に映り込んでいる複数のマーカに応じて撮像装置を基準とする前記測距装置の相対姿勢を認識する。これにより、マーカの映り込み態様に基づいて撮像装置を基準とした測距装置の相対姿勢が認識される。 According to the remote operation support server having this configuration, the relative attitude of the distance measuring device with respect to the imaging device is recognized according to the plurality of markers reflected in the captured image (two-dimensional image). As a result, the relative attitude of the distance measuring device with respect to the imaging device is recognized based on the reflection mode of the marker.

本発明の遠隔操作支援システムに関する説明図。FIG. 1 is an explanatory diagram regarding the remote operation support system of the present invention. 遠隔操作装置の構成に関する説明図。FIG. 2 is an explanatory diagram regarding the configuration of a remote control device. 作業機械の構成に関する説明図。An explanatory diagram regarding the configuration of a working machine. 操作支援システムの機能に関する説明図。An explanatory diagram regarding the functions of the operation support system. 撮像画像に関する説明図。An explanatory diagram regarding a captured image. 撮像画像座標系および測距画像座標系の相対位置・姿勢に関する説明図。FIG. 4 is an explanatory diagram regarding the relative positions and orientations of a captured image coordinate system and a ranging image coordinate system. 環境画像に関する説明図。An explanatory diagram regarding an environmental image.

(遠隔操作支援システムの構成)
図1に示されている遠隔操作支援複合システムは、遠隔操作支援サーバ10(遠隔操作支援システムを構成する。)と、作業機械40を遠隔操作するための遠隔操作装置20と、により構成されている。遠隔操作支援サーバ10、遠隔操作装置20および作業機械40は相互にネットワーク通信可能に構成されている。遠隔操作支援サーバ10および遠隔操作装置20の相互通信ネットワークと、遠隔操作支援サーバ10および作業機械40の相互通信ネットワークと、は同一であってもよく相違していてもよい。
(Configuration of remote operation support system)
The remote operation support complex system shown in FIG. 1 is composed of a remote operation support server 10 (constituting a remote operation support system) and a remote operation device 20 for remotely controlling a work machine 40. There is. The remote operation support server 10, the remote operation device 20, and the work machine 40 are configured to be able to communicate with each other via network. The mutual communication network of the remote operation support server 10 and the remote operation device 20 and the mutual communication network of the remote operation support server 10 and the work machine 40 may be the same or different.

本発明の構成要素が情報を「認識する」とは、当該情報を受信すること、当該情報を記憶装置から読み出すこと、当該情報をデータベースから検索すること、当該情報を測定すること、受信等された基礎情報に基づき、当該情報を決定、判定、推定または予測すること、当該情報を記憶装置に保存することなど、後続する演算処理において当該情報を利用可能な状態にするためのあらゆる演算処理を包含する概念である。 When a component of the present invention "recognizes" information, it means receiving the information, reading the information from a storage device, retrieving the information from a database, measuring the information, receiving the information, etc. Based on the basic information obtained, perform any calculation processing to make the information available for subsequent calculation processing, such as determining, judging, estimating, or predicting the information, or storing the information in a storage device. It is an inclusive concept.

(遠隔操作支援サーバの構成)
遠隔操作支援サーバ10は、データベース102と、第1支援処理要素121と、第2支援処理要素122と、を備えている。データベース102は、撮像画像データ等を記憶保持する。データベース102は、遠隔操作支援サーバ10とは別個のデータベースサーバにより構成されていてもよい。各支援処理要素は、演算処理装置(シングルコアプロセッサまたはマルチコアプロセッサもしくはこれを構成するプロセッサコア)により構成され、メモリなどの記憶装置から必要なデータおよびソフトウェアを読み取り、当該データを対象として当該ソフトウェアにしたがった後述の演算処理を実行する。
(Configuration of remote operation support server)
The remote operation support server 10 includes a database 102, a first support processing element 121, and a second support processing element 122. The database 102 stores and holds captured image data and the like. The database 102 may be configured by a database server separate from the remote operation support server 10. Each support processing element is composed of an arithmetic processing unit (single-core processor or multi-core processor, or processor cores constituting it), reads necessary data and software from a storage device such as memory, and processes the data and software as target. Therefore, the arithmetic processing described later is executed.

(遠隔操作装置の構成)
遠隔操作装置20は、遠隔制御装置200と、遠隔入力インターフェース210と、遠隔出力インターフェース220と、を備えている。遠隔制御装置200は、演算処理装置(シングルコアプロセッサまたはマルチコアプロセッサもしくはこれを構成するプロセッサコア)により構成され、メモリなどの記憶装置から必要なデータおよびソフトウェアを読み取り、当該データを対象として当該ソフトウェアにしたがった演算処理を実行する。
(Configuration of remote control device)
The remote control device 20 includes a remote control device 200, a remote input interface 210, and a remote output interface 220. The remote control device 200 is composed of an arithmetic processing unit (single-core processor or multi-core processor, or processor cores constituting it), reads necessary data and software from a storage device such as memory, and processes the data into the software. Execute the arithmetic processing accordingly.

遠隔入力インターフェース210は、遠隔操作機構211を備えている。遠隔出力インターフェース220は、画像出力装置221と、音響出力装置222と、遠隔無線通信機器222と、を備えている。 The remote input interface 210 includes a remote control mechanism 211. The remote output interface 220 includes an image output device 221, an audio output device 222, and a remote wireless communication device 222.

遠隔操作機構211には、走行用操作装置と、旋回用操作装置と、ブーム用操作装置と、アーム用操作装置と、バケット用操作装置と、が含まれている。各操作装置は、回動操作を受ける操作レバーを有している。走行用操作装置の操作レバー(走行レバー)は、作業機械40の下部走行体410を動かすために操作される。走行レバーは、走行ペダルを兼ねていてもよい。例えば、走行レバーの基部または下端部に固定されている走行ペダルが設けられていてもよい。旋回用操作装置の操作レバー(旋回レバー)は、作業機械40の旋回機構430を構成する油圧式の旋回モータを動かすために操作される。ブーム用操作装置の操作レバー(ブームレバー)は、作業機械40のブームシリンダ442を動かすために操作される。アーム用操作装置の操作レバー(アームレバー)は作業機械40のアームシリンダ444を動かすために操作される。バケット用操作装置の操作レバー(バケットレバー)は作業機械40のバケットシリンダ446を動かすために操作される。 The remote control mechanism 211 includes a travel operating device, a turning operating device, a boom operating device, an arm operating device, and a bucket operating device. Each operating device has an operating lever that is rotated. The operating lever (traveling lever) of the traveling operating device is operated to move the lower traveling body 410 of the work machine 40. The travel lever may also serve as a travel pedal. For example, a travel pedal may be provided that is fixed to the base or lower end of the travel lever. The operating lever (swing lever) of the swing operating device is operated to move a hydraulic swing motor that constitutes the swing mechanism 430 of the working machine 40 . The operating lever (boom lever) of the boom operating device is operated to move the boom cylinder 442 of the work machine 40. The operating lever (arm lever) of the arm operating device is operated to move the arm cylinder 444 of the work machine 40. The operating lever (bucket lever) of the bucket operating device is operated to move the bucket cylinder 446 of the work machine 40.

遠隔操作機構211を構成する各操作レバーは、例えば、図2に示されているように、オペレータが着座するためのシートStの周囲に配置されている。シートStは、アームレスト付きのハイバックチェアのような形態であるが、ヘッドレストがないローバックチェアのような形態、または、背もたれがないチェアのような形態など、オペレータが着座できる任意の形態の着座部であってもよい。 For example, as shown in FIG. 2, the operating levers constituting the remote control mechanism 211 are arranged around a seat St on which an operator is seated. The seat St is a seating part in any form on which the operator can sit, such as a high-back chair with an armrest, a low-back chair without a headrest, or a chair without a backrest. It may be.

シートStの前方に左右のクローラに応じた左右一対の走行レバー2110が左右横並びに配置されている。一つの操作レバーが複数の操作レバーを兼ねていてもよい。例えば、図2に示されているシートStの左側フレームの前方に設けられている左側操作レバー2111が、前後方向に操作された場合にアームレバーとして機能し、かつ、左右方向に操作された場合に旋回レバーとして機能してもよい。同様に、図2に示されているシートStの右側フレームの前方に設けられている右側操作レバー2112が、前後方向に操作された場合にブームレバーとして機能し、かつ、左右方向に操作された場合にバケットレバーとして機能してもよい。レバーパターンは、オペレータの操作指示によって任意に変更されてもよい。 A pair of left and right travel levers 2110 corresponding to left and right crawlers are arranged side by side in front of the seat St. One operating lever may also serve as multiple operating levers. For example, when the left operating lever 2111 provided in front of the left frame of the seat St shown in FIG. 2 functions as an arm lever when operated in the front-back direction, and when operated in the left-right direction It may also function as a pivot lever. Similarly, the right operating lever 2112 provided in front of the right frame of the seat St shown in FIG. It may function as a bucket lever in some cases. The lever pattern may be arbitrarily changed according to an operator's operation instruction.

画像出力装置221は、例えば図2に示されているように、シートStの前方、左斜め前方および右斜め前方のそれぞれに配置された略矩形状の画面を有する中央画像出力装置2210、左側画像出力装置2211および右側画像出力装置2212により構成されている。中央画像出力装置2210、左側画像出力装置2211および右側画像出力装置2212のそれぞれの画面(画像表示領域)の形状およびサイズは同じであってもよく相違していてもよい。 For example, as shown in FIG. 2, the image output device 221 includes a central image output device 2210 having substantially rectangular screens disposed in front of the seat St, diagonally to the left, and diagonally to the right, and a left side image. It is composed of an output device 2211 and a right-side image output device 2212. The shapes and sizes of the screens (image display areas) of the central image output device 2210, left side image output device 2211, and right side image output device 2212 may be the same or different.

図2に示されているように、中央画像出力装置2210の画面および左側画像出力装置2211の画面が傾斜角度δ1(例えば、120°≦δ1≦150°)をなすように、左側画像出力装置2211の右縁が、中央画像出力装置2210の左縁に隣接している。図2に示されているように、中央画像出力装置2210の画面および右側画像出力装置2212の画面が傾斜角度δ2(例えば、120°≦δ2≦150°)をなすように、右側画像出力装置2212の左縁が、中央画像出力装置2210の右縁に隣接している。当該傾斜角度δ1およびδ2は同じであっても相違していてもよい。 As shown in FIG. 2, the left image output device 2211 The right edge of is adjacent to the left edge of central image output device 2210 . As shown in FIG. 2, the right image output device 2212 is arranged such that the screen of the center image output device 2210 and the screen of the right image output device 2212 form an inclination angle δ2 (for example, 120°≦δ2≦150°). The left edge of is adjacent to the right edge of central image output device 2210 . The inclination angles δ1 and δ2 may be the same or different.

中央画像出力装置2210、左側画像出力装置2211および右側画像出力装置2212のそれぞれの画面は、鉛直方向に対して平行であってもよく、鉛直方向に対して傾斜していてもよい。中央画像出力装置2210、左側画像出力装置2211および右側画像出力装置2212のうち少なくとも1つの画像出力装置が、複数に分割された画像出力装置により構成されていてもよい。例えば、中央画像出力装置2210が、略矩形状の画面を有する上下に隣接する一対の画像出力装置により構成されていてもよい。 The screens of the central image output device 2210, the left image output device 2211, and the right image output device 2212 may be parallel to the vertical direction or may be inclined to the vertical direction. At least one of the central image output device 2210, the left image output device 2211, and the right image output device 2212 may be configured by a plurality of divided image output devices. For example, the central image output device 2210 may include a pair of vertically adjacent image output devices each having a substantially rectangular screen.

画像出力装置221を構成する画像出力装置の個数は任意に変更されてもよい。例えば、画像出力装置221がシートStを前方において囲むように湾曲面状または屈曲面状の1個の画像出力装置により構成されていてもよい。画像出力装置221がシートStを前方において囲むように横方向に連続して配置された4枚以上の平面状の画像出力装置により構成されていてもよい。 The number of image output devices constituting the image output device 221 may be changed arbitrarily. For example, the image output device 221 may be configured as one image output device having a curved surface shape or a bent surface shape so as to surround the sheet St at the front. The image output device 221 may be constituted by four or more planar image output devices arranged in succession in the lateral direction so as to surround the sheet St in the front.

音響出力装置222は、スピーカーにより構成され、例えば図2に示されているように、シートStの後方、左アームレスト後部および右アームレスト後部のそれぞれに配置された中央音響出力装置2220、左側音響出力装置2221および右側音響出力装置2222により構成されている。中央音響出力装置2220、左側音響出力装置2221および右側音響出力装置2222のそれぞれの仕様は同じであってもよく相違していてもよい。 The sound output device 222 is composed of a speaker, and includes a central sound output device 2220 and a left sound output device arranged at the rear of the seat St, the rear of the left armrest, and the rear of the right armrest, respectively, as shown in FIG. 2, for example. 2221 and a right side sound output device 2222. The specifications of the central sound output device 2220, the left side sound output device 2221, and the right side sound output device 2222 may be the same or different.

(作業機械の構成)
作業機械40は、実機制御装置400と、実機入力インターフェース41と、実機出力インターフェース42と、作業機構440と、を備えている。実機制御装置400は、演算処理装置(シングルコアプロセッサまたはマルチコアプロセッサもしくはこれを構成するプロセッサコア)により構成され、メモリなどの記憶装置から必要なデータおよびソフトウェアを読み取り、当該データを対象として当該ソフトウェアにしたがった演算処理を実行する。
(Composition of working machine)
The work machine 40 includes a real machine control device 400, a real machine input interface 41, a real machine output interface 42, and a work mechanism 440. The actual machine control device 400 is composed of an arithmetic processing device (a single-core processor or a multi-core processor, or a processor core constituting this processor), reads necessary data and software from a storage device such as a memory, and processes the data into the software. Execute the arithmetic processing accordingly.

作業機械40は、例えばクローラショベル(建設機械)であり、図3に示されているように、クローラ式の下部走行体410と、下部走行体410に旋回機構430を介して旋回可能に搭載されている上部旋回体420と、を備えている。上部旋回体420の前方左側部にはキャブ424(運転室)が設けられている。上部旋回体420の前方中央部には作業機構440が設けられている。 The work machine 40 is, for example, a crawler excavator (construction machine), and as shown in FIG. and an upper revolving body 420. A cab 424 (operator's cab) is provided at the front left side of the upper revolving body 420. A working mechanism 440 is provided at the front central portion of the upper revolving body 420.

実機入力インターフェース41は、実機操作機構411と、実機撮像装置S1と、測距装置S2と、を備えている。作業機械40は、GPSおよび必要に応じてジャイロセンサ等により構成されている測位装置を備えていてもよい。実機操作機構411は、キャブ424の内部に配置されたシートの周囲に遠隔操作機構211と同様に配置された複数の操作レバーを備えている。遠隔操作レバーの操作態様に応じた信号を受信し、当該受信信号に基づいて実機操作レバーを動かす駆動機構またはロボットがキャブ424に設けられている。実機撮像装置S1は、キャブ424の内部空間に配置され、フロントウィンドウおよび左右一対のサイドウィンドウ越しに作業機構440の少なくとも一部を含む作業環境または作業機械40の周囲の様子を撮像する。フロントウィンドウおよびサイドウィンドウのうち一部または全部が省略されていてもよい。測距装置S2は、キャブ424の内部空間に配置され、フロントウィンドウ越しに作業機械40の周囲にある地面等の物体までの距離を測定する。 The real device input interface 41 includes a real device operating mechanism 411, a real device imaging device S1, and a distance measuring device S2. The work machine 40 may include a positioning device including a GPS and, if necessary, a gyro sensor or the like. The actual machine operating mechanism 411 includes a plurality of operating levers arranged around a seat arranged inside the cab 424 in the same way as the remote operating mechanism 211 . The cab 424 is provided with a drive mechanism or a robot that receives a signal corresponding to the operating mode of the remote control lever and moves the actual control lever based on the received signal. The actual machine imaging device S1 is arranged in the interior space of the cab 424, and images the working environment including at least a portion of the working mechanism 440 or the surroundings of the working machine 40 through the front window and the pair of left and right side windows. Some or all of the front window and side windows may be omitted. The distance measuring device S2 is arranged in the interior space of the cab 424 and measures the distance to objects such as the ground around the work machine 40 through the front window.

実機撮像装置S1は、キャブ424の内部空間後部(例えば、シートのヘッドレストの付近またはその後方)に配置されている。このため、図5に示されているように、撮像装置S1を通じて取得される撮像画像には、キャブ424の内部空間に配置されている実機操作機構411を構成する操作レバーおよびシートの一部など、キャブ424の内部空間が映り込んでいる。測距装置S2は、キャブ424の内部空間において実機撮像装置S1の撮像範囲に含まれる位置(例えば、キャブ424の内部空間前部または撮像装置S1よりも前方またはフロントウィンドウ寄りの位置)に配置されている。 The actual imaging device S1 is arranged at the rear of the interior space of the cab 424 (for example, near or behind the headrest of the seat). Therefore, as shown in FIG. 5, the captured image acquired through the imaging device S1 includes the operating lever and part of the seat that constitute the actual machine operating mechanism 411 arranged in the interior space of the cab 424. , the interior space of the cab 424 is reflected. The distance measuring device S2 is arranged in the interior space of the cab 424 at a position included in the imaging range of the actual imaging device S1 (for example, at the front of the interior space of the cab 424, or in a position ahead of the imaging device S1 or closer to the front window). ing.

実機撮像装置S1の位置および姿勢が作業機械40に対して固定されていてもよいが、駆動機構により実機撮像装置S1の位置および/または姿勢が作業機械40に対して下辺に調節されてもよい。 The position and orientation of the actual imaging device S1 may be fixed with respect to the working machine 40, but the position and/or orientation of the actual imaging device S1 may be adjusted to the lower side with respect to the working machine 40 by a drive mechanism. .

このため、図5に示されているように、撮像装置S1を通じて取得される撮像画像には、測距装置S2および当該測距装置S2に付された3つのマーカM0、M1およびM2が映り込んでいる。
マーカM0は、例えば、測距装置S2のハウジングの背面上部に配置されている。マーカM1およびM2は、例えば、測距装置S2のハウジングの背面下部または当該ハウジングを支持するフレームまたはブラケットの背面に横方向に離間して配置されている。マーカM0、M1、M2の平均座標値は測距装置S2の背面に位置する。また、3つのマーカM0、M1、M2のうちのいずれか一つ(例えばM0)が測距装置S2の背面に位置するように配置されてもよい。
Therefore, as shown in FIG. 5, the distance measuring device S2 and the three markers M0, M1, and M2 attached to the distance measuring device S2 are reflected in the captured image acquired through the imaging device S1. I'm here.
The marker M0 is arranged, for example, on the upper back side of the housing of the distance measuring device S2. The markers M1 and M2 are arranged, for example, at the lower part of the back of the housing of the range finder S2 or on the back of a frame or bracket that supports the housing, spaced apart laterally. The average coordinate values of markers M0, M1, and M2 are located on the back side of distance measuring device S2. Further, any one of the three markers M0, M1, and M2 (for example, M0) may be arranged on the back side of the distance measuring device S2.

実機出力インターフェース42は、実機無線通信機器422を備えている。 The real device output interface 42 includes a real device wireless communication device 422.

図3に示されているように、作業機構としての作業機構440は、上部旋回体420に起伏可能に装着されているブーム441と、ブーム441の先端に回動可能に連結されているアーム443と、アーム443の先端に回動可能に連結されているバケット445と、を備えている。作業機構440には、伸縮可能な油圧シリンダにより構成されているブームシリンダ442、アームシリンダ444およびバケットシリンダ446が装着されている。 As shown in FIG. 3, the working mechanism 440 as a working mechanism includes a boom 441 that is attached to the upper revolving body 420 so as to be able to raise and lower, and an arm 443 that is rotatably connected to the tip of the boom 441. and a bucket 445 rotatably connected to the tip of the arm 443. The working mechanism 440 is equipped with a boom cylinder 442, an arm cylinder 444, and a bucket cylinder 446, each of which is an extendable hydraulic cylinder.

ブームシリンダ442は、作動油の供給を受けることにより伸縮してブーム441を起伏方向に回動させるように当該ブーム441と上部旋回体420との間に介在する。アームシリンダ444は、作動油の供給を受けることにより伸縮してアーム443をブーム441に対して水平軸回りに回動させるように当該アーム443と当該ブーム441との間に介在する。バケットシリンダ446は、作動油の供給を受けることにより伸縮してバケット445をアーム443に対して水平軸回りに回動させるように当該バケット445と当該アーム443との間に介在する。 The boom cylinder 442 is interposed between the boom 441 and the upper revolving structure 420 so as to expand and contract when supplied with hydraulic oil and rotate the boom 441 in the up-and-down direction. The arm cylinder 444 is interposed between the arm 443 and the boom 441 so as to expand and contract when supplied with hydraulic oil and rotate the arm 443 around a horizontal axis with respect to the boom 441 . The bucket cylinder 446 is interposed between the bucket 445 and the arm 443 so as to expand and contract when supplied with hydraulic oil and rotate the bucket 445 about a horizontal axis relative to the arm 443 .

(機能)
前記構成の遠隔操作支援システムの機能について図4に示されているフローチャートを用いて説明する。当該フローチャートにおいて「C●」というブロックは、記載の簡略のために用いられ、データの送信および/または受信を意味し、当該データの送信および/または受信を条件として分岐方向の処理が実行される条件分岐を意味している。受信されたデータは、データベース102および/または不揮発性もしくは揮発性のメモリにより構成されている記憶装置に格納される。
(function)
The functions of the remote operation support system having the above configuration will be explained using the flowchart shown in FIG. In the flowchart, the block "C●" is used to simplify the description, and means the transmission and/or reception of data, and the processing in the branch direction is executed on the condition that the data is transmitted and/or received. It means conditional branching. The received data is stored in a storage device comprising a database 102 and/or non-volatile or volatile memory.

遠隔操作装置20において、オペレータにより遠隔入力インターフェース210を通じた指定操作の有無が判定される(図4/STEP210)。「指定操作」は、例えば、オペレータが遠隔操作を意図する作業機械40を指定するための遠隔入力インターフェース210におけるタップなどの操作である。当該判定結果が否定的である場合(図4/STEP210‥NO)、一連の処理が終了する。その一方、当該判定結果が肯定的である場合(図4/STEP210‥YES)、遠隔無線通信機器222を通じて、遠隔操作支援サーバ10に対して環境確認要求が送信される(図4/STEP212)。 In the remote control device 20, it is determined whether the operator has performed a designated operation through the remote input interface 210 (FIG. 4/STEP 210). The "designation operation" is, for example, an operation such as a tap on the remote input interface 210 for designating the work machine 40 that the operator intends to remotely control. If the determination result is negative (FIG. 4/STEP 210...NO), the series of processes ends. On the other hand, if the determination result is positive (FIG. 4/STEP 210...YES), an environment confirmation request is sent to the remote operation support server 10 via the remote wireless communication device 222 (FIG. 4/STEP 212).

遠隔操作支援サーバ10において、環境確認要求が受信された場合、第1支援処理要素121により当該環境確認要求が該当する作業機械40に対して送信される(図4/C110)。 When the environment confirmation request is received in the remote operation support server 10, the first support processing element 121 transmits the environment confirmation request to the corresponding work machine 40 (FIG. 4/C110).

作業機械40において、実機無線通信機器422を通じて環境確認要求が受信された場合(図4/C410)、実機制御装置400が実機撮像装置S1を通じて撮像画像を取得し、かつ、測距装置S2を通じて測距画像を取得する(図4/STEP410)。ここで、実機制御装置400またはこれを構成する画像処理装置により、撮像画像および/または測距画像を対象として、画像データ量を低下させるため、および/またはノイズを除去するための画像処理が実行されてもよい。実機制御装置400により、実機無線通信機器422を通じて、撮像画像に応じた撮像画像データおよび測距画像に応じた測距画像データが遠隔操作サーバ10に対して送信される(図4/STEP412)。 In the work machine 40, when an environment confirmation request is received through the actual machine wireless communication device 422 (FIG. 4/C410), the actual machine control device 400 acquires a captured image through the actual machine imaging device S1, and performs measurement through the distance measuring device S2. A distance image is acquired (FIG. 4/STEP 410). Here, image processing for reducing the amount of image data and/or removing noise is performed on the captured image and/or the distance measurement image by the actual device control device 400 or an image processing device constituting the same. may be done. The actual device control device 400 transmits captured image data corresponding to the captured image and ranging image data corresponding to the ranging image to the remote control server 10 via the actual wireless communication device 422 (FIG. 4/STEP 412).

遠隔操作支援サーバ10において、撮像画像データおよび測距画像データが受信された場合(図4/C112)、図5に示されているように、測距装置S2に付されたマーカM0、M1およびM2が含まれている撮像画像に基づき、第1支援処理要素121により、実機撮像装置S1を基準とした測距装置S2の相対位置および相対姿勢が認識される(図4/STEP111)。これは、図6に示されている撮像装置座標系C(S1)=(X1,Y1,Z1)および測距装置座標系C(S2)=(X2,Y2,Z2)の間の座標変換行列またはこれに相当するクォータニオンを求めることと同義である。撮像装置座標系C(S1)のX1軸は撮像装置S1の光軸と一致するように定義されている。Y1-Z1平面座標系が撮像画像座標系を構成する。測距装置座標系C(S2)のX2軸は測距装置S2の光軸と一致するように定義されている。Y2-Z2平面座標系が測距画像座標系を構成する。 When the remote operation support server 10 receives the captured image data and the ranging image data (FIG. 4/C112), as shown in FIG. Based on the captured image containing M2, the first support processing element 121 recognizes the relative position and relative orientation of the distance measuring device S2 with respect to the actual imaging device S1 (FIG. 4/STEP 111). This is a coordinate transformation matrix between the imaging device coordinate system C(S1) = (X1, Y1, Z1) and the distance measuring device coordinate system C(S2) = (X2, Y2, Z2) shown in FIG. Or, it is synonymous with finding the equivalent quaternion. The X1 axis of the imaging device coordinate system C (S1) is defined to coincide with the optical axis of the imaging device S1. The Y1-Z1 plane coordinate system constitutes the captured image coordinate system. The X2 axis of the range finder coordinate system C(S2) is defined to coincide with the optical axis of the range finder S2. The Y2-Z2 plane coordinate system constitutes the ranging image coordinate system.

実機撮像装置S1を基準とした測距装置S2の相対位置を求めることは、図6に示されている撮像装置座標系C(S1)の原点O1から測距装置座標系C(S2)の原点O2まで延びるベクトルRを求めることと同義である。例えば、図5に示されている撮像画像におけるマーカM0、M1およびM2それぞれのサイズに基づき、撮像装置座標系C(S1)の原点O1からマーカM0、M1およびM2(の中心または重心)までのそれぞれの長さ(ノルム)が定められる。マーカM0、M1およびM2のサイズが大きいほど、原点O1から各マーカの長さは短いという幾何学的関係が利用される。また、前工程で定められる長さと図5に示されている撮像画像におけるマーカM0、M1およびM2の撮像画像上の表示位置とから、各マーカM0、M1およびM2の撮像装置座標系C(S1)における座標値が定められる。撮像装置座標系C(S1)においてマーカがX1軸上の任意点からY1軸方向およびX1軸方向にずれるほど前工程で定められる長さが大きくなる(撮像画像上のマーカのサイズが小さくなる)という幾何学的関係が利用される。 Determining the relative position of the range finder S2 with respect to the actual image capture device S1 is performed by moving from the origin O1 of the image capture device coordinate system C(S1) to the origin of the range finder coordinate system C(S2) shown in FIG. This is equivalent to finding the vector R extending to O2. For example, based on the sizes of markers M0, M1, and M2 in the captured image shown in FIG. The length (norm) of each is determined. A geometric relationship is used in which the larger the size of the markers M0, M1, and M2, the shorter the length of each marker from the origin O1. Furthermore, from the length determined in the previous step and the display positions of the markers M0, M1, and M2 on the captured image shown in FIG. 5, the imaging device coordinate system C (S1 ) are determined. In the imaging device coordinate system C (S1), the more the marker shifts from an arbitrary point on the X1 axis in the Y1 axis direction and the X1 axis direction, the longer the length determined in the previous process becomes (the size of the marker on the captured image becomes smaller). This geometric relationship is used.

また、撮像画像におけるマーカM0、M1およびM2の平均座標値に基づき、図6に示されている撮像装置座標系C(S1)におけるベクトルRが定められる。ベクトルRは、ベクトルRの長さ、方位角θ1および仰角φ1で示すこともできる。図6に示されているベクトルR1は、ベクトルRがX1-Y1平面に投影された結果を模式的に表わしており、ベクトルR1がX1軸に対してなす角度が当該方位角θ1に相当する。同様にして、ベクトルR2は、ベクトルRがY1-Z1平面に投影された結果を模式的に表わしており、ベクトルR2がY1軸に対してなす角度が当該仰角φ1に相当する。ベクトルRの長さ、方位角θ1および仰角φ1に基づき、撮像装置座標系C(S1)および測距装置座標系C(S2)の間の並進行列が定められる。また、3つのマーカM0、M1、M2のうちのいずれか一つ(例えばM0)が測距装置S2の背面に位置するように配置されている場合には、原点O1からマーカM0で延びるベクトルがベクトルRに相当する。また、3つのマーカM0、M1、M2に対する相対的な位置関係を考慮してベクトルRが定められてもよい。 Furthermore, a vector R in the imaging device coordinate system C (S1) shown in FIG. 6 is determined based on the average coordinate values of the markers M0, M1, and M2 in the captured image. The vector R can also be expressed by the length of the vector R, the azimuth angle θ1, and the elevation angle φ1. Vector R1 shown in FIG. 6 schematically represents the result of projection of vector R onto the X1-Y1 plane, and the angle that vector R1 makes with respect to the X1 axis corresponds to the azimuth angle θ1. Similarly, vector R2 schematically represents the result of projection of vector R onto the Y1-Z1 plane, and the angle that vector R2 makes with respect to the Y1 axis corresponds to the elevation angle φ1. Based on the length of the vector R, the azimuth angle θ1, and the elevation angle φ1, a translation matrix between the imaging device coordinate system C (S1) and the ranging device coordinate system C (S2) is determined. Furthermore, if any one of the three markers M0, M1, and M2 (for example, M0) is located on the back of the distance measuring device S2, the vector extending from the origin O1 to the marker M0 is Corresponds to vector R. Further, the vector R may be determined in consideration of the relative positional relationship with respect to the three markers M0, M1, and M2.

実機撮像装置S1を基準とした測距装置S2の相対姿勢を求めることは、図6に示されている撮像装置座標系C(S1)が、その原点O1を測距装置座標系C(S2)の原点O2に一致させるように並進された結果としての座標系C(S1)を基準とした、測距装置座標系C(S2)の方位角θ2および仰角φ2を求めることと同義である。例えば、マーカM0,マーカM1およびマーカM2がY2‐Z2平面に位置することから、3マーカの座標からY2‐Z2平面を特定し、X2軸はY2‐Z2平面に対して垂直又は垂直から方位角θ2および仰角φ2にオフセットした方向の軸であって、原点O2を通る軸がX2軸として特定される。当該オフセット量は、3つのマーカM0、M1、M2を取り付けた測距装置S2を特定の平面に設定した際の光軸の傾き量を予め確認しておくことにより設定される。 Determining the relative attitude of the distance measuring device S2 with respect to the actual imaging device S1 is performed by changing the imaging device coordinate system C (S1) shown in FIG. 6 from the origin O1 to the distance measuring device coordinate system C (S2) This is equivalent to determining the azimuth angle θ2 and the elevation angle φ2 of the rangefinder coordinate system C (S2) based on the coordinate system C (S1) that has been translated so as to coincide with the origin O2 of the range finder coordinate system C (S2). For example, since marker M0, marker M1, and marker M2 are located on the Y2-Z2 plane, the Y2-Z2 plane is specified from the coordinates of the three markers, and the X2 axis is perpendicular to the Y2-Z2 plane or the azimuth angle from the vertical. The axis in the direction offset from θ2 and the elevation angle φ2 and passing through the origin O2 is specified as the X2 axis. The offset amount is set by checking in advance the amount of inclination of the optical axis when the distance measuring device S2 to which the three markers M0, M1, and M2 are attached is set on a specific plane.

また、X2軸を特定する別の方法として、図5に示されている撮像画像において、複数のマーカとして、例えば、マーカM1とマーカM2が横並びに配置されている場合、マーカM1とマーカM2との間隔に基づき、図6に示されている方位角θ2が求められる。当該間隔が小さいほど方位角θ2が大きくなるという幾何学的関係が用いられる。図5に示されている撮像画像におけるマーカM0とマーカM1およびマーカM2のうち一方または両方との間隔または平均間隔に基づき、図6に示されている仰角φ2が求められる。当該間隔が小さいほど仰角φ2が大きくなるという幾何学的関係が用いられる。方位角θ2および仰角φ2に基づき、撮像装置座標系C(S1)および測距装置座標系C(S2)の間の回転行列が定められる。 Further, as another method for specifying the X2 axis, in the captured image shown in FIG. 5, when a plurality of markers, for example, marker M1 and marker M2 are arranged side by side, Based on the interval, the azimuth angle θ2 shown in FIG. 6 is determined. A geometric relationship is used in which the smaller the interval, the larger the azimuth angle θ2. The elevation angle φ2 shown in FIG. 6 is determined based on the interval or average interval between the marker M0 and one or both of the markers M1 and M2 in the captured image shown in FIG. A geometric relationship is used in which the smaller the interval, the larger the elevation angle φ2. Based on the azimuth angle θ2 and the elevation angle φ2, a rotation matrix between the imaging device coordinate system C (S1) and the ranging device coordinate system C (S2) is determined.

作業機械40またはキャブ424の内部空間における実機撮像装置S1および測距装置S2の位置および姿勢が不変である場合、STEP111の処理は初期においてのみ実行され、その後は省略されてもよい。 If the positions and postures of the actual imaging device S1 and the distance measuring device S2 in the internal space of the work machine 40 or the cab 424 remain unchanged, the process in STEP 111 may be executed only in the initial stage and may be omitted thereafter.

第1支援処理要素121により認識された実機撮像装置S1を基準とした測距装置S2の相対位置および相対姿勢に基づき、第2支援処理要素122により、撮像画像に測距画像に含まれている距離情報が組み合わせられた環境画像が生成される(図4/STEP112)。具体的には、測距画像座標系(Y2,Z2)の各画素における画素値である物体までの距離が、撮像画像座標系(Y1,Z1)の各画素に対して割り当てられる。この際、測距画像座標系(Y2,Z2)の各画素の座標値が、前記のようにして求められた並進行列および回転行列が用いられることにより、撮像画像座標系(Y1,Z1)の座標値に座標変換される。実機撮像装置S1および測距装置S2のそれぞれの解像度の相違等により、一般的に、当該座標変換後の測距画像座標系(Y2,Z2)の各画素の座標値は、撮像画像座標系(Y1,Z1)の各画素の座標値に一致しない。このため、適当な補間方法にしたがって、測距画像座標系(Y2,Z2)の各画素の画素値が撮像画像座標系(Y1,Z1)の各画素(すべての画素でなくてもよい。)に対して割り当てられる。これにより、撮像画像に映り込んでいる物体の複数箇所のそれぞれの、撮像装置S1を基準とした実空間位置、ひいては当該物体の表面の凹凸等の形状が推定される。 Based on the relative position and relative orientation of the distance measuring device S2 with respect to the actual imaging device S1 recognized by the first support processing element 121, the second support processing element 122 determines whether the distance measurement device is included in the captured image. An environment image in which the distance information is combined is generated (FIG. 4/STEP 112). Specifically, the distance to the object, which is the pixel value of each pixel in the ranging image coordinate system (Y2, Z2), is assigned to each pixel in the captured image coordinate system (Y1, Z1). At this time, the coordinate values of each pixel in the ranging image coordinate system (Y2, Z2) are changed to the captured image coordinate system (Y1, Z1) by using the translation matrix and rotation matrix obtained as described above. Coordinates are converted to coordinate values. Due to the difference in resolution between the actual imaging device S1 and the distance measuring device S2, the coordinate values of each pixel in the ranging image coordinate system (Y2, Z2) after the coordinate transformation are generally the same as the captured image coordinate system ( Y1, Z1) do not match the coordinate values of each pixel. Therefore, according to an appropriate interpolation method, the pixel value of each pixel in the ranging image coordinate system (Y2, Z2) is changed to each pixel (not necessarily all pixels) in the captured image coordinate system (Y1, Z1). assigned to. As a result, the real space position of each of a plurality of locations of the object reflected in the captured image with reference to the imaging device S1, and the shape of the surface irregularities of the object are estimated.

これらの結果として、例えば、図7に示されているように、撮像画像に含まれている物体としての地面の上に、測距画像に含まれている距離情報に応じた網目状の線図が重畳された環境画像が生成される。当該網目状の線図のうち緯線図の延在態様は、測距画像において縦座標値を固定したままで横座標値を右(または左)方向に変化させた際の、画素値(測距装置S2から物体までの距離)の変化態様に応じて定まる。当該網目状の線図のうち経線図の延在態様は、測距画像において横座標値を固定したままで縦座標値を上(または下)方向に変化させた際の、画素値(測距装置S2から物体までの距離)の変化態様に応じて定まる。 As a result, for example, as shown in FIG. 7, a mesh-like line diagram is created on the ground as an object included in the captured image according to the distance information included in the ranging image. An environment image with superimposed images is generated. The extension mode of the latitude map in the mesh-like line diagram is the pixel value (distance measurement The distance from the device S2 to the object) is determined according to the change in the distance from the device S2 to the object. The extension mode of the meridian diagram in the mesh-like line diagram is the pixel value (distance measurement The distance from the device S2 to the object) is determined according to the change in the distance from the device S2 to the object.

第2支援処理要素122により撮像画像に応じた環境画像データが遠隔操作装置20に対して送信される(図4/STEP114)。 The second support processing element 122 transmits environmental image data corresponding to the captured image to the remote control device 20 (FIG. 4/STEP 114).

遠隔操作装置20において、遠隔無線通信機器222を通じて環境画像データが受信された場合(図4/C210)、遠隔制御装置200により、環境画像データに応じた環境画像が画像出力装置221に出力される(図4/STEP214)。これにより、図7に示されているような画像が、キャブ424のフロントウィンドウ越しに映る混んでいるような環境画像が画像出力装置221に出力される。 When the remote control device 20 receives environmental image data through the remote wireless communication device 222 (FIG. 4/C210), the remote control device 200 outputs an environmental image according to the environmental image data to the image output device 221. (Figure 4/STEP 214). As a result, an image as shown in FIG. 7, such as a crowded environment image shown through the front window of the cab 424, is output to the image output device 221.

遠隔操作装置20において、遠隔制御装置200により遠隔操作機構211の操作態様が認識され(図4/STEP216)、かつ、遠隔無線通信機器222を通じて、当該操作態様に応じた遠隔操作指令が遠隔操作支援サーバ10に対して送信される(図4/STEP218)。 In the remote control device 20, the operation mode of the remote control mechanism 211 is recognized by the remote control device 200 (FIG. 4/STEP 216), and a remote control command corresponding to the operation mode is sent to remote control support through the remote wireless communication device 222. It is transmitted to the server 10 (FIG. 4/STEP 218).

遠隔操作支援サーバ10において、第2支援処理要素122により当該遠隔操作指令が受信された場合、第1支援処理要素121により、当該遠隔操作指令が作業機械40に対して送信される(図4/C114)。 In the remote operation support server 10, when the second support processing element 122 receives the remote operation command, the first support processing element 121 transmits the remote operation command to the work machine 40 (FIG. 4/ C114).

作業機械40において、実機制御装置400により、実機無線通信機器422を通じて操作指令が受信された場合(図4/C412)、作業機構440等の動作が制御される(図4/STEP414)。例えば、バケット445により作業機械40の前方の土をすくい、上部旋回体410を旋回させたうえでバケット445から土を落とす作業が実行される。 In the work machine 40, when the actual machine control device 400 receives an operation command through the real machine wireless communication device 422 (FIG. 4/C412), the operation of the work mechanism 440, etc. is controlled (FIG. 4/STEP 414). For example, the soil in front of the working machine 40 is scooped up using the bucket 445, the upper revolving body 410 is rotated, and then the soil is dropped from the bucket 445.

(効果)
当該構成の遠隔操作支援システムによれば、作業機械40に搭載されている撮像装置S1を通じて取得された撮像画像、ひいては同じく作業機械40に搭載されている測距装置S2に付されたマーカM0、M1およびM2の映り込み態様に基づき、撮像装置S1を基準とした測距装置S2の相対位置および相対姿勢が認識される(図4/STEP111、図5および図6参照)。撮像装置S1を基準とした測距装置S2の相対位置および相対姿勢、ひいては撮像画像座標系および測距画像座標系の座標変換態様に基づき、測距画像に含まれる距離情報が撮像画像に組み込まれた環境画像が生成される(図4/STEP112および図7参照)。
(effect)
According to the remote operation support system having this configuration, the captured image acquired through the imaging device S1 mounted on the working machine 40, and furthermore, the marker M0 attached to the distance measuring device S2 also mounted on the working machine 40, Based on the reflection mode of M1 and M2, the relative position and relative orientation of the distance measuring device S2 with respect to the imaging device S1 are recognized (see FIG. 4/STEP 111, FIGS. 5 and 6). The distance information included in the ranging image is incorporated into the captured image based on the relative position and relative orientation of the ranging device S2 with respect to the imaging device S1, as well as the coordinate transformation mode of the captured image coordinate system and the ranging image coordinate system. An environmental image is generated (see FIG. 4/STEP 112 and FIG. 7).

この環境画像が遠隔操作装置20を構成する遠隔出力インターフェース220に出力されることにより、当該環境画像に接したオペレータに撮像画像(2次元画像)に映り込んでいる物体の3次元実空間における位置(または位置および姿勢)を的確に認識させることができる。 By outputting this environmental image to the remote output interface 220 that constitutes the remote control device 20, the operator who is in contact with the environmental image can see the position in the three-dimensional real space of the object reflected in the captured image (two-dimensional image). (or position and posture) can be accurately recognized.

(本発明の他の実施形態)
遠隔支援処理サーバ10の少なくとも一部の機能要素が、遠隔操作装置20および/または作業機械40により構成されていてもよい。例えば、第1支援処理要素121が、第1演算処理装置としての遠隔制御装置200および/または実機制御装置400により構成されていてもよい。第2支援処理要素122が、第2演算処理装置としての遠隔制御装置200および/または実機制御装置400により構成されていてもよい。遠隔操作支援サーバ10の機能要素が遠隔操作装置20に搭載されている場合、前記実施形態における無線通信に代えて、当該遠隔操作装置20に搭載されている有線ネットワークを通じた有線通信によって情報が通信されてもよい。同様に、遠隔操作支援サーバ10の機能要素が作業機械40に搭載されている場合、前記実施形態における無線通信に代えて、当該作業機械40に搭載されている有線ネットワークを通じた有線通信によって情報が通信されてもよい。
(Other embodiments of the present invention)
At least some functional elements of the remote support processing server 10 may be configured by the remote control device 20 and/or the work machine 40. For example, the first support processing element 121 may be configured by the remote control device 200 and/or the real machine control device 400 as the first arithmetic processing device. The second support processing element 122 may be configured by a remote control device 200 and/or a real machine control device 400 as a second arithmetic processing device. When the functional elements of the remote operation support server 10 are installed in the remote operation device 20, information is communicated by wired communication through a wired network installed in the remote operation device 20 instead of the wireless communication in the above embodiment. may be done. Similarly, when the functional elements of the remote operation support server 10 are installed in a work machine 40, information is transmitted by wired communication through a wired network installed in the work machine 40, instead of the wireless communication in the above embodiment. may be communicated.

例えば、図4/STEP112およびSTEP114、または、図4/C112、STEP111、STEP112およびSTEP114により表わされる機能要素が、遠隔制御装置200により構成されていてもよい。図4/C112およびSTEP111、または、図4/C112、STEP111、STEP112およびSTEP1114により表わされる機能要素が、実機制御装置400により構成されていてもよい。 For example, the functional elements represented by STEP112 and STEP114 in FIG. 4 or C112, STEP111, STEP112, and STEP114 in FIG. 4 may be configured by the remote control device 200. The functional elements represented by C112 and STEP 111 in FIG. 4 or C112, STEP 111, STEP 112, and STEP 1114 in FIG.

マーカの個数は4以上であってもよい。複数のマーカM0、M1およびM2は合同、相似または非相似であってもよい。複数のマーカM0、M1およびM2のそれぞれの形状は、円形、楕円形、三角形、正方形、矩形、台形、正六角形等の多角形および星形など、様々な形状の中から選択されてもよい。また、マーカには二次元コード(QRコード(登録商標))を付与しておき、撮像画像から二次元コードを抽出することでマーカを特定してもよい。図6に示されている撮像装置座標系C(S1)における測距装置座標系C(S2)の姿勢が既知である場合、ベクトルRを求める観点から、マーカの個数は1または2であってもよい。図6に示されている撮像装置座標系C(S1)における測距装置座標系C(S2)の方位角θ2または仰角φ2が既知である場合、マーカの個数は2であってもよく、仰角φ2または方位角θ2を前記のように幾何学的関係から定めるために当該2個のマーカが縦方向または横方向に離間して配置されていてもよい。2個のマーカが縦方向および横方向のそれぞれにずれて配置されるように測距装置S2に対して付されていてもよい。 The number of markers may be four or more. The plurality of markers M0, M1 and M2 may be congruent, similar or dissimilar. The shape of each of the plurality of markers M0, M1, and M2 may be selected from various shapes such as a circle, an ellipse, a triangle, a square, a rectangle, a trapezoid, a polygon such as a regular hexagon, and a star shape. Alternatively, a two-dimensional code (QR code (registered trademark)) may be assigned to the marker, and the marker may be identified by extracting the two-dimensional code from the captured image. When the orientation of the distance measuring device coordinate system C (S2) in the imaging device coordinate system C (S1) shown in FIG. Good too. If the azimuth angle θ2 or the elevation angle φ2 of the distance measuring device coordinate system C (S2) in the imaging device coordinate system C (S1) shown in FIG. 6 is known, the number of markers may be 2, and the elevation angle In order to determine φ2 or azimuth θ2 from the geometrical relationship as described above, the two markers may be spaced apart in the vertical or horizontal direction. Two markers may be attached to the distance measuring device S2 so as to be disposed shifted in each of the vertical and horizontal directions.

撮像装置S1を基準とした測距装置S2の相対姿勢としては、ねじれの要素が含まれてもよい。例えば、図5に示されている撮像画像におけるマーカM0、M1およびM2の撮像画像上の相対的な表示位置が、右回り又は左回りにずれている場合には、測距装置S2が右回り又は左回りにずれて設置されている。第1支援処理要素121によりこのようなねじれを考慮した相対姿勢が認識されてもよい。 The relative attitude of the distance measuring device S2 with respect to the imaging device S1 may include an element of twist. For example, if the relative display positions of the markers M0, M1, and M2 on the captured image shown in FIG. Or it is installed counterclockwise. The first support processing element 121 may recognize a relative posture that takes such twisting into consideration.

前記実施形態では、マーカM0、M1、M2の平均座標値又は3つのマーカM0、M1、M2のうちのいずれか一つ(例えばM0)測距装置S2の背面に位置するように配置されていたが、他の実施形態として、マーカM0、M1、M2に対する測距装置S2の背面の相対的な位置を予め確認しておくことにより設定してもよい。3つのマーカM0、M1、M2の配置位置の自由度が向上する。 In the embodiment, the average coordinate value of the markers M0, M1, M2 or any one of the three markers M0, M1, M2 (for example, M0) is arranged to be located on the back side of the distance measuring device S2. However, as another embodiment, it may be set by confirming in advance the relative position of the back surface of the distance measuring device S2 with respect to the markers M0, M1, and M2. The degree of freedom in arranging the three markers M0, M1, and M2 is improved.

前記実施形態では、作業機械40において撮像装置S1および測距装置S2がともにキャブ424の内部空間に配置されていたが、他の実施形態として、撮像装置S1の撮像範囲に測距装置S2に付されたマーカM0、M1およびM2が映り込み、かつ、実空間において撮像装置S1の撮像範囲と測距装置S2の測距範囲とが重複していることを条件として、作業機械40において撮像装置S1および測距装置S2が異なる形態で配置されていてもよい。例えば、撮像装置S1が前方に向けられてキャブ424の内部空間に配置される一方、測距装置S2が前方に向けられてキャブ424の前方に配置されていてもよい。。 In the embodiment described above, both the imaging device S1 and the distance measuring device S2 are arranged in the interior space of the cab 424 in the working machine 40, but in another embodiment, the distance measuring device S2 is attached to the imaging range of the imaging device S1. The working machine 40 uses the imaging device S1 on the condition that the markers M0, M1, and M2 are reflected, and the imaging range of the imaging device S1 and the ranging range of the ranging device S2 overlap in real space. and the distance measuring device S2 may be arranged in different forms. For example, the imaging device S1 may be disposed in the interior space of the cab 424 facing forward, while the distance measuring device S2 may be disposed in front of the cab 424 facing forward. .

10‥遠隔操作支援サーバ、20‥遠隔操作装置、40‥作業機械、102‥データベース、121‥第1支援処理要素、122‥第2支援処理要素、200‥遠隔制御装置、210‥遠隔入力インターフェース、211‥遠隔操作機構、220‥遠隔出力インターフェース、221‥画像出力装置、222‥音響出力装置、400‥実機制御装置、410‥実機入力インターフェース、420‥実機出力インターフェース、424‥キャブ(運転室)、440‥作業機構、445‥バケット(作業部)、S1‥実機撮像装置、S2‥測距装置、M0、M1、M2‥マーカ。 10...Remote operation support server, 20...Remote operation device, 40...Work machine, 102...Database, 121...First support processing element, 122...Second support processing element, 200...Remote control device, 210...Remote input interface, 211... Remote control mechanism, 220... Remote output interface, 221... Image output device, 222... Sound output device, 400... Actual machine control device, 410... Actual machine input interface, 420... Actual machine output interface, 424... Cab (driver's cab), 440... Working mechanism, 445... Bucket (working part), S1... Actual imaging device, S2... Distance measuring device, M0, M1, M2... Marker.

Claims (4)

遠隔操作装置による作業機械の遠隔操作を支援するための遠隔操作支援システムであって、
前記作業機械に搭載されている撮像装置を通じて取得された、前記作業機械に搭載され、かつ、実空間において前記撮像装置による撮像範囲と重複する測距範囲を有する測距装置に付されたマーカを含む撮像画像に基づき、前記撮像装置を基準とする前記測距装置の相対位置および相対姿勢を認識する第1支援処理要素と、
前記第1支援処理要素により認識された前記撮像装置を基準とする前記測距装置の相対位置および相対姿勢に基づき、前記遠隔操作装置を構成する遠隔出力インターフェースに出力される、前記測距装置により取得された測距画像に含まれる情報が前記撮像画像に組み込まれた環境画像を生成する第2支援処理要素と、
を備えている遠隔操作支援システム。
A remote operation support system for supporting remote operation of a working machine using a remote control device,
A marker attached to a ranging device mounted on the working machine and having a ranging range that overlaps an imaging range by the imaging device in real space, acquired through an imaging device mounted on the working machine. a first support processing element that recognizes the relative position and relative orientation of the distance measuring device with respect to the imaging device based on captured images;
Based on the relative position and relative orientation of the range finder with respect to the imaging device recognized by the first support processing element, the range finder outputs the information to a remote output interface constituting the remote control device. a second support processing element that generates an environmental image in which information included in the acquired ranging image is incorporated into the captured image;
A remote control support system equipped with
請求項1に記載の遠隔操作支援システムにおいて、
前記第1支援処理要素は、前記撮像画像における前記マーカのサイズおよび表示位置に応じて前記撮像装置を基準とする前記測距装置の相対位置を認識する 遠隔操作支援システム。
The remote operation support system according to claim 1,
The first support processing element recognizes the relative position of the distance measuring device with respect to the imaging device according to the size and display position of the marker in the captured image.
請求項1または2に記載の遠隔操作支援システムにおいて、
前記測距装置に付されたマーカは複数であり、
前記第1支援処理要素は、複数の前記マーカに応じて前記撮像装置を基準とする前記測距装置の相対姿勢を認識する
遠隔操作支援システム。
The remote operation support system according to claim 1 or 2,
A plurality of markers are attached to the distance measuring device,
The first support processing element recognizes a relative attitude of the distance measuring device with respect to the imaging device according to the plurality of markers.
遠隔操作装置による作業機械の遠隔操作を支援するための遠隔操作支援方法であって、って、
前記作業機械に搭載されている撮像装置を通じて取得された、前記作業機械に搭載され、かつ、実空間において前記撮像装置による撮像範囲と重複する測距範囲を有する測距装置に付されたマーカを含む撮像画像に基づき、前記撮像装置を基準とする前記測距装置の相対位置および相対姿勢を認識する第1支援処理ステップと、
前記第1支援処理ステップにおいて認識された前記撮像装置を基準とする前記測距装置の相対位置および相対姿勢に基づき、前記遠隔操作装置を構成する遠隔出力インターフェースに出力される、前記測距装置により取得された測距画像に含まれる情報が前記撮像画像に組み込まれた環境画像を生成する第2支援処理ステップと、
を含んでいる遠隔操作支援方法。
A remote operation support method for supporting remote operation of a working machine using a remote control device,
A marker attached to a ranging device mounted on the working machine and having a ranging range that overlaps an imaging range by the imaging device in real space, acquired through an imaging device mounted on the working machine. a first support processing step of recognizing the relative position and relative orientation of the distance measuring device with respect to the imaging device based on captured images;
Based on the relative position and relative orientation of the distance measuring device with respect to the imaging device recognized in the first support processing step, the distance measuring device outputs to a remote output interface that constitutes the remote control device. a second support processing step of generating an environmental image in which information included in the acquired ranging image is incorporated into the captured image;
A remote operation support method including.
JP2021017122A 2021-02-05 2021-02-05 Remote operation support system and remote operation support method Active JP7444094B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021017122A JP7444094B2 (en) 2021-02-05 2021-02-05 Remote operation support system and remote operation support method
PCT/JP2021/041011 WO2022168383A1 (en) 2021-02-05 2021-11-08 Remote operation assistance system and remote operation assistance method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021017122A JP7444094B2 (en) 2021-02-05 2021-02-05 Remote operation support system and remote operation support method

Publications (2)

Publication Number Publication Date
JP2022120309A JP2022120309A (en) 2022-08-18
JP7444094B2 true JP7444094B2 (en) 2024-03-06

Family

ID=82741029

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021017122A Active JP7444094B2 (en) 2021-02-05 2021-02-05 Remote operation support system and remote operation support method

Country Status (2)

Country Link
JP (1) JP7444094B2 (en)
WO (1) WO2022168383A1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019188389A1 (en) 2018-03-29 2019-10-03 ソニー株式会社 Signal processing device and signal processing method, program, and moving body
JP2020131365A (en) 2019-02-20 2020-08-31 コベルコ建機株式会社 Display system for work machine
JP2020160777A (en) 2019-03-26 2020-10-01 日立建機株式会社 Calibration work support system
JP2020183696A (en) 2020-03-19 2020-11-12 J Think株式会社 Construction machine management system, construction machine management program, construction machine management method, construction machine and external management device of construction machine

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6927821B2 (en) * 2017-09-15 2021-09-01 株式会社小松製作所 Display system and display device
JP7372029B2 (en) * 2018-06-29 2023-10-31 株式会社小松製作所 Display control device, display control system, and display control method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019188389A1 (en) 2018-03-29 2019-10-03 ソニー株式会社 Signal processing device and signal processing method, program, and moving body
JP2020131365A (en) 2019-02-20 2020-08-31 コベルコ建機株式会社 Display system for work machine
JP2020160777A (en) 2019-03-26 2020-10-01 日立建機株式会社 Calibration work support system
JP2020183696A (en) 2020-03-19 2020-11-12 J Think株式会社 Construction machine management system, construction machine management program, construction machine management method, construction machine and external management device of construction machine

Also Published As

Publication number Publication date
JP2022120309A (en) 2022-08-18
WO2022168383A1 (en) 2022-08-11

Similar Documents

Publication Publication Date Title
WO2020241618A1 (en) Map generation system and map generation method
JP7285051B2 (en) Display control device and display control method
JP6927821B2 (en) Display system and display device
JP6867132B2 (en) Work machine detection processing device and work machine detection processing method
JP6832548B2 (en) Work machine image display system, work machine remote control system, work machine and work machine image display method
JP2016008484A (en) Construction machinery
JP7080750B2 (en) Display control system, remote control system, display control device, and display control method
JP2024028464A (en) Display control system and display control method
WO2021124654A1 (en) Work assist server, work assist method, and work assist system
JP2024052764A (en) Display control device and display method
JP7444094B2 (en) Remote operation support system and remote operation support method
WO2023002796A1 (en) System for setting operation range of excavation machine and method for controlling same
JP7452038B2 (en) Work support system
JP7392422B2 (en) Work support server and work support system
JP2023040971A (en) Remote control support device, remote control support system, and remote control support method
WO2023100533A1 (en) Image display system, remote operation assistance system, and image display method
WO2023136070A1 (en) Remote operation support system and remote operation support method
KR102011386B1 (en) an excavator working radius representation method
WO2021106280A1 (en) Work assist server, work assist method, and work assist system
JP7363560B2 (en) Remote control device, remote control support server, remote control support system, and remote control support method
WO2023026568A1 (en) Remote operation system and remote operation composite system
JP7367606B2 (en) Remote operation support device and remote operation support method
JP2024057361A (en) Work support device and work support method
JP2023032997A (en) remote control system
US20210395980A1 (en) System and method for work machine

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240123

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240205

R150 Certificate of patent or registration of utility model

Ref document number: 7444094

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150