JP7444094B2 - Remote operation support system and remote operation support method - Google Patents
Remote operation support system and remote operation support method Download PDFInfo
- Publication number
- JP7444094B2 JP7444094B2 JP2021017122A JP2021017122A JP7444094B2 JP 7444094 B2 JP7444094 B2 JP 7444094B2 JP 2021017122 A JP2021017122 A JP 2021017122A JP 2021017122 A JP2021017122 A JP 2021017122A JP 7444094 B2 JP7444094 B2 JP 7444094B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- imaging device
- distance measuring
- remote operation
- remote
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 14
- 238000003384 imaging method Methods 0.000 claims description 67
- 238000012545 processing Methods 0.000 claims description 42
- 239000003550 marker Substances 0.000 claims description 24
- 230000007613 environmental effect Effects 0.000 claims description 14
- 230000007246 mechanism Effects 0.000 description 20
- 238000004891 communication Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 11
- 238000005259 measurement Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 239000011159 matrix material Substances 0.000 description 5
- 230000036544 posture Effects 0.000 description 5
- 238000012790 confirmation Methods 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 239000010720 hydraulic oil Substances 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 239000002131 composite material Substances 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000002689 soil Substances 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
Images
Classifications
-
- E—FIXED CONSTRUCTIONS
- E02—HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
- E02F—DREDGING; SOIL-SHIFTING
- E02F9/00—Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
- E02F9/20—Drives; Control devices
-
- E—FIXED CONSTRUCTIONS
- E02—HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
- E02F—DREDGING; SOIL-SHIFTING
- E02F9/00—Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
- E02F9/26—Indicating devices
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
Landscapes
- Engineering & Computer Science (AREA)
- Mining & Mineral Resources (AREA)
- Civil Engineering (AREA)
- General Engineering & Computer Science (AREA)
- Structural Engineering (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Component Parts Of Construction Machinery (AREA)
- Closed-Circuit Television Systems (AREA)
Description
本発明は、遠隔操作装置により油圧ショベル等の作業機械を遠隔操作する技術に関する。 The present invention relates to a technique for remotely controlling a working machine such as a hydraulic excavator using a remote control device.
遠隔ショベルにおいて、距離検出装置が求めた距離の情報から旋回体の旋回中心軸を中心とする円弧の画像を生成し、カメラで撮影した画像と合成した合成画像を表示装置に表示する技術が提案されている(例えば、特許文献1参照)。カメラで撮影した2次元映像だと奥行感・地形の凹凸がわからないので、従来技術では、LIDAR等の距センサで取得した地形情報をカメラ映像に重畳させ、奥行感や地面の凹凸情報をオペレータに認識できるようにしている。 A technology has been proposed for remote excavators that generates an image of an arc centered on the rotation center axis of a rotating body from distance information determined by a distance detection device, and displays a composite image on a display device by combining it with the image taken by a camera. (For example, see Patent Document 1). Since a two-dimensional image taken with a camera does not give a sense of depth or the unevenness of the terrain, conventional technology superimposes the topographical information acquired by a distance sensor such as LIDAR on the camera image, giving the operator a sense of depth and information about the unevenness of the ground. making it recognizable.
しかし、カメラで取得される画像データと、LIDARで取得される距離情報とがずれた状態で合成されると有用性が低い情報しか生成されない。このため、画像データと距離情報とを的確に合成する技術が必要とされている。 However, if the image data acquired by the camera and the distance information acquired by LIDAR are combined in a misaligned manner, only information with low usefulness is generated. Therefore, there is a need for a technique that accurately combines image data and distance information.
そこで、本発明は、作業機械に搭載されている撮像装置を通じて取得された撮像画像と、同じ作業機械に搭載されている測距装置を通じて取得された測距画像に含まれる測距情報と、が的確に複合された環境画像を生成することができる技術的手法を提供することを目的とする。 Therefore, the present invention provides that a captured image acquired through an imaging device mounted on a work machine and distance measurement information included in a distance measurement image acquired through a distance measurement device mounted on the same work machine are The purpose of the present invention is to provide a technical method that can generate an accurately composite environmental image.
本発明の遠隔操作支援サーバは、
遠隔操作装置による作業機械の遠隔操作を支援するための遠隔操作支援システムであって、
前記作業機械に搭載されている撮像装置を通じて取得された、前記作業機械に搭載され、かつ、実空間において前記撮像装置による撮像範囲と重複する測距範囲を有する測距装置に付されたマーカを含む撮像画像に基づき、前記撮像装置を基準とする前記測距装置の相対位置および相対姿勢を認識する第1支援処理要素と、
前記第1支援処理要素により認識された前記撮像装置を基準とする前記測距装置の相対位置および相対姿勢に基づき、前記遠隔操作装置を構成する遠隔出力インターフェースに出力される、前記測距装置により取得された測距画像に含まれる情報が前記撮像画像に組み込まれた環境画像を生成する第2支援処理要素と、
を備えている。
The remote operation support server of the present invention includes:
A remote operation support system for supporting remote operation of a work machine using a remote control device,
A marker attached to a ranging device mounted on the working machine and having a ranging range that overlaps an imaging range by the imaging device in real space, acquired through an imaging device mounted on the working machine. a first support processing element that recognizes the relative position and relative orientation of the distance measuring device with respect to the imaging device based on captured images;
Based on the relative position and relative orientation of the distance measuring device with respect to the imaging device recognized by the first support processing element, the distance measuring device outputs to a remote output interface that constitutes the remote control device. a second support processing element that generates an environmental image in which information included in the acquired ranging image is incorporated into the captured image;
It is equipped with
当該構成の遠隔操作支援システムによれば、作業機械に搭載されている撮像装置を通じて取得された撮像画像、ひいては同じく作業機械に搭載されている測距装置に付されたマーカの映り込み態様に基づき、撮像装置を基準とした測距装置の相対位置および相対姿勢が認識される。撮像装置を基準とした測距装置の相対位置および相対姿勢、ひいては撮像画像座標系および測距画像座標系の座標変換態様に基づき、測距画像に含まれる距離情報が撮像画像に組み込まれた環境画像が生成される。この環境画像が遠隔操作装置を構成する遠隔出力インターフェースに出力されることにより、当該環境画像に接したオペレータに撮像画像(2次元画像)に映り込んでいる物体の3次元実空間における位置(または位置および姿勢)を的確に認識させることができる。 According to the remote operation support system having the above configuration, based on the captured image acquired through the imaging device mounted on the working machine, and furthermore, the reflection state of the marker attached to the distance measuring device also mounted on the working machine. , the relative position and relative orientation of the distance measuring device with respect to the imaging device are recognized. An environment in which distance information included in a distance measurement image is incorporated into a captured image based on the relative position and relative orientation of the distance measurement device with respect to the imaging device, and furthermore, the coordinate transformation mode of the captured image coordinate system and the distance measurement image coordinate system. An image is generated. By outputting this environmental image to the remote output interface that constitutes the remote control device, the operator who is in contact with the environmental image can tell the position (or position and posture) can be accurately recognized.
また、本発明の遠隔操作支援システムにおいて、前記第1支援処理要素は、前記撮像画像における前記マーカのサイズに応じて前記撮像装置を基準とする前記測距装置の相対位置を認識する。 Further, in the remote operation support system of the present invention, the first support processing element recognizes the relative position of the distance measuring device with respect to the imaging device according to the size of the marker in the captured image.
当該構成の遠隔操作支援システムによれば、撮像画像(2次元画像)に映り込んでいるマーカのサイズおよび表示位置に応じて撮像装置を基準とした測距装置の相対位置が認識される。これにより、マーカの映り込み態様に基づいて撮像装置を基準とした測距装置の相対位置が認識される。 According to the remote operation support system with this configuration, the relative position of the distance measuring device with respect to the imaging device is recognized according to the size and display position of the marker reflected in the captured image (two-dimensional image). As a result, the relative position of the distance measuring device with respect to the imaging device is recognized based on the reflected appearance of the marker.
また、本発明の遠隔操作支援システムにおいて、前記測距装置に付されたマーカは複数であり、前記第1支援処理要素は、複数の前記マーカに応じて前記撮像装置を基準とする前記測距装置の相対姿勢を認識する。 Further, in the remote operation support system of the present invention, a plurality of markers are attached to the distance measuring device, and the first support processing element is configured to determine the distance measuring device based on the imaging device according to the plurality of markers. Recognize the relative posture of the device.
当該構成の遠隔操作支援サーバによれば、撮像画像(2次元画像)に映り込んでいる複数のマーカに応じて撮像装置を基準とする前記測距装置の相対姿勢を認識する。これにより、マーカの映り込み態様に基づいて撮像装置を基準とした測距装置の相対姿勢が認識される。 According to the remote operation support server having this configuration, the relative attitude of the distance measuring device with respect to the imaging device is recognized according to the plurality of markers reflected in the captured image (two-dimensional image). As a result, the relative attitude of the distance measuring device with respect to the imaging device is recognized based on the reflection mode of the marker.
(遠隔操作支援システムの構成)
図1に示されている遠隔操作支援複合システムは、遠隔操作支援サーバ10(遠隔操作支援システムを構成する。)と、作業機械40を遠隔操作するための遠隔操作装置20と、により構成されている。遠隔操作支援サーバ10、遠隔操作装置20および作業機械40は相互にネットワーク通信可能に構成されている。遠隔操作支援サーバ10および遠隔操作装置20の相互通信ネットワークと、遠隔操作支援サーバ10および作業機械40の相互通信ネットワークと、は同一であってもよく相違していてもよい。
(Configuration of remote operation support system)
The remote operation support complex system shown in FIG. 1 is composed of a remote operation support server 10 (constituting a remote operation support system) and a
本発明の構成要素が情報を「認識する」とは、当該情報を受信すること、当該情報を記憶装置から読み出すこと、当該情報をデータベースから検索すること、当該情報を測定すること、受信等された基礎情報に基づき、当該情報を決定、判定、推定または予測すること、当該情報を記憶装置に保存することなど、後続する演算処理において当該情報を利用可能な状態にするためのあらゆる演算処理を包含する概念である。 When a component of the present invention "recognizes" information, it means receiving the information, reading the information from a storage device, retrieving the information from a database, measuring the information, receiving the information, etc. Based on the basic information obtained, perform any calculation processing to make the information available for subsequent calculation processing, such as determining, judging, estimating, or predicting the information, or storing the information in a storage device. It is an inclusive concept.
(遠隔操作支援サーバの構成)
遠隔操作支援サーバ10は、データベース102と、第1支援処理要素121と、第2支援処理要素122と、を備えている。データベース102は、撮像画像データ等を記憶保持する。データベース102は、遠隔操作支援サーバ10とは別個のデータベースサーバにより構成されていてもよい。各支援処理要素は、演算処理装置(シングルコアプロセッサまたはマルチコアプロセッサもしくはこれを構成するプロセッサコア)により構成され、メモリなどの記憶装置から必要なデータおよびソフトウェアを読み取り、当該データを対象として当該ソフトウェアにしたがった後述の演算処理を実行する。
(Configuration of remote operation support server)
The remote
(遠隔操作装置の構成)
遠隔操作装置20は、遠隔制御装置200と、遠隔入力インターフェース210と、遠隔出力インターフェース220と、を備えている。遠隔制御装置200は、演算処理装置(シングルコアプロセッサまたはマルチコアプロセッサもしくはこれを構成するプロセッサコア)により構成され、メモリなどの記憶装置から必要なデータおよびソフトウェアを読み取り、当該データを対象として当該ソフトウェアにしたがった演算処理を実行する。
(Configuration of remote control device)
The
遠隔入力インターフェース210は、遠隔操作機構211を備えている。遠隔出力インターフェース220は、画像出力装置221と、音響出力装置222と、遠隔無線通信機器222と、を備えている。
The
遠隔操作機構211には、走行用操作装置と、旋回用操作装置と、ブーム用操作装置と、アーム用操作装置と、バケット用操作装置と、が含まれている。各操作装置は、回動操作を受ける操作レバーを有している。走行用操作装置の操作レバー(走行レバー)は、作業機械40の下部走行体410を動かすために操作される。走行レバーは、走行ペダルを兼ねていてもよい。例えば、走行レバーの基部または下端部に固定されている走行ペダルが設けられていてもよい。旋回用操作装置の操作レバー(旋回レバー)は、作業機械40の旋回機構430を構成する油圧式の旋回モータを動かすために操作される。ブーム用操作装置の操作レバー(ブームレバー)は、作業機械40のブームシリンダ442を動かすために操作される。アーム用操作装置の操作レバー(アームレバー)は作業機械40のアームシリンダ444を動かすために操作される。バケット用操作装置の操作レバー(バケットレバー)は作業機械40のバケットシリンダ446を動かすために操作される。
The
遠隔操作機構211を構成する各操作レバーは、例えば、図2に示されているように、オペレータが着座するためのシートStの周囲に配置されている。シートStは、アームレスト付きのハイバックチェアのような形態であるが、ヘッドレストがないローバックチェアのような形態、または、背もたれがないチェアのような形態など、オペレータが着座できる任意の形態の着座部であってもよい。
For example, as shown in FIG. 2, the operating levers constituting the
シートStの前方に左右のクローラに応じた左右一対の走行レバー2110が左右横並びに配置されている。一つの操作レバーが複数の操作レバーを兼ねていてもよい。例えば、図2に示されているシートStの左側フレームの前方に設けられている左側操作レバー2111が、前後方向に操作された場合にアームレバーとして機能し、かつ、左右方向に操作された場合に旋回レバーとして機能してもよい。同様に、図2に示されているシートStの右側フレームの前方に設けられている右側操作レバー2112が、前後方向に操作された場合にブームレバーとして機能し、かつ、左右方向に操作された場合にバケットレバーとして機能してもよい。レバーパターンは、オペレータの操作指示によって任意に変更されてもよい。
A pair of left and
画像出力装置221は、例えば図2に示されているように、シートStの前方、左斜め前方および右斜め前方のそれぞれに配置された略矩形状の画面を有する中央画像出力装置2210、左側画像出力装置2211および右側画像出力装置2212により構成されている。中央画像出力装置2210、左側画像出力装置2211および右側画像出力装置2212のそれぞれの画面(画像表示領域)の形状およびサイズは同じであってもよく相違していてもよい。
For example, as shown in FIG. 2, the
図2に示されているように、中央画像出力装置2210の画面および左側画像出力装置2211の画面が傾斜角度δ1(例えば、120°≦δ1≦150°)をなすように、左側画像出力装置2211の右縁が、中央画像出力装置2210の左縁に隣接している。図2に示されているように、中央画像出力装置2210の画面および右側画像出力装置2212の画面が傾斜角度δ2(例えば、120°≦δ2≦150°)をなすように、右側画像出力装置2212の左縁が、中央画像出力装置2210の右縁に隣接している。当該傾斜角度δ1およびδ2は同じであっても相違していてもよい。
As shown in FIG. 2, the left
中央画像出力装置2210、左側画像出力装置2211および右側画像出力装置2212のそれぞれの画面は、鉛直方向に対して平行であってもよく、鉛直方向に対して傾斜していてもよい。中央画像出力装置2210、左側画像出力装置2211および右側画像出力装置2212のうち少なくとも1つの画像出力装置が、複数に分割された画像出力装置により構成されていてもよい。例えば、中央画像出力装置2210が、略矩形状の画面を有する上下に隣接する一対の画像出力装置により構成されていてもよい。
The screens of the central
画像出力装置221を構成する画像出力装置の個数は任意に変更されてもよい。例えば、画像出力装置221がシートStを前方において囲むように湾曲面状または屈曲面状の1個の画像出力装置により構成されていてもよい。画像出力装置221がシートStを前方において囲むように横方向に連続して配置された4枚以上の平面状の画像出力装置により構成されていてもよい。
The number of image output devices constituting the
音響出力装置222は、スピーカーにより構成され、例えば図2に示されているように、シートStの後方、左アームレスト後部および右アームレスト後部のそれぞれに配置された中央音響出力装置2220、左側音響出力装置2221および右側音響出力装置2222により構成されている。中央音響出力装置2220、左側音響出力装置2221および右側音響出力装置2222のそれぞれの仕様は同じであってもよく相違していてもよい。
The
(作業機械の構成)
作業機械40は、実機制御装置400と、実機入力インターフェース41と、実機出力インターフェース42と、作業機構440と、を備えている。実機制御装置400は、演算処理装置(シングルコアプロセッサまたはマルチコアプロセッサもしくはこれを構成するプロセッサコア)により構成され、メモリなどの記憶装置から必要なデータおよびソフトウェアを読み取り、当該データを対象として当該ソフトウェアにしたがった演算処理を実行する。
(Composition of working machine)
The
作業機械40は、例えばクローラショベル(建設機械)であり、図3に示されているように、クローラ式の下部走行体410と、下部走行体410に旋回機構430を介して旋回可能に搭載されている上部旋回体420と、を備えている。上部旋回体420の前方左側部にはキャブ424(運転室)が設けられている。上部旋回体420の前方中央部には作業機構440が設けられている。
The
実機入力インターフェース41は、実機操作機構411と、実機撮像装置S1と、測距装置S2と、を備えている。作業機械40は、GPSおよび必要に応じてジャイロセンサ等により構成されている測位装置を備えていてもよい。実機操作機構411は、キャブ424の内部に配置されたシートの周囲に遠隔操作機構211と同様に配置された複数の操作レバーを備えている。遠隔操作レバーの操作態様に応じた信号を受信し、当該受信信号に基づいて実機操作レバーを動かす駆動機構またはロボットがキャブ424に設けられている。実機撮像装置S1は、キャブ424の内部空間に配置され、フロントウィンドウおよび左右一対のサイドウィンドウ越しに作業機構440の少なくとも一部を含む作業環境または作業機械40の周囲の様子を撮像する。フロントウィンドウおよびサイドウィンドウのうち一部または全部が省略されていてもよい。測距装置S2は、キャブ424の内部空間に配置され、フロントウィンドウ越しに作業機械40の周囲にある地面等の物体までの距離を測定する。
The real
実機撮像装置S1は、キャブ424の内部空間後部(例えば、シートのヘッドレストの付近またはその後方)に配置されている。このため、図5に示されているように、撮像装置S1を通じて取得される撮像画像には、キャブ424の内部空間に配置されている実機操作機構411を構成する操作レバーおよびシートの一部など、キャブ424の内部空間が映り込んでいる。測距装置S2は、キャブ424の内部空間において実機撮像装置S1の撮像範囲に含まれる位置(例えば、キャブ424の内部空間前部または撮像装置S1よりも前方またはフロントウィンドウ寄りの位置)に配置されている。
The actual imaging device S1 is arranged at the rear of the interior space of the cab 424 (for example, near or behind the headrest of the seat). Therefore, as shown in FIG. 5, the captured image acquired through the imaging device S1 includes the operating lever and part of the seat that constitute the actual
実機撮像装置S1の位置および姿勢が作業機械40に対して固定されていてもよいが、駆動機構により実機撮像装置S1の位置および/または姿勢が作業機械40に対して下辺に調節されてもよい。
The position and orientation of the actual imaging device S1 may be fixed with respect to the working
このため、図5に示されているように、撮像装置S1を通じて取得される撮像画像には、測距装置S2および当該測距装置S2に付された3つのマーカM0、M1およびM2が映り込んでいる。
マーカM0は、例えば、測距装置S2のハウジングの背面上部に配置されている。マーカM1およびM2は、例えば、測距装置S2のハウジングの背面下部または当該ハウジングを支持するフレームまたはブラケットの背面に横方向に離間して配置されている。マーカM0、M1、M2の平均座標値は測距装置S2の背面に位置する。また、3つのマーカM0、M1、M2のうちのいずれか一つ(例えばM0)が測距装置S2の背面に位置するように配置されてもよい。
Therefore, as shown in FIG. 5, the distance measuring device S2 and the three markers M0, M1, and M2 attached to the distance measuring device S2 are reflected in the captured image acquired through the imaging device S1. I'm here.
The marker M0 is arranged, for example, on the upper back side of the housing of the distance measuring device S2. The markers M1 and M2 are arranged, for example, at the lower part of the back of the housing of the range finder S2 or on the back of a frame or bracket that supports the housing, spaced apart laterally. The average coordinate values of markers M0, M1, and M2 are located on the back side of distance measuring device S2. Further, any one of the three markers M0, M1, and M2 (for example, M0) may be arranged on the back side of the distance measuring device S2.
実機出力インターフェース42は、実機無線通信機器422を備えている。
The real
図3に示されているように、作業機構としての作業機構440は、上部旋回体420に起伏可能に装着されているブーム441と、ブーム441の先端に回動可能に連結されているアーム443と、アーム443の先端に回動可能に連結されているバケット445と、を備えている。作業機構440には、伸縮可能な油圧シリンダにより構成されているブームシリンダ442、アームシリンダ444およびバケットシリンダ446が装着されている。
As shown in FIG. 3, the working
ブームシリンダ442は、作動油の供給を受けることにより伸縮してブーム441を起伏方向に回動させるように当該ブーム441と上部旋回体420との間に介在する。アームシリンダ444は、作動油の供給を受けることにより伸縮してアーム443をブーム441に対して水平軸回りに回動させるように当該アーム443と当該ブーム441との間に介在する。バケットシリンダ446は、作動油の供給を受けることにより伸縮してバケット445をアーム443に対して水平軸回りに回動させるように当該バケット445と当該アーム443との間に介在する。
The
(機能)
前記構成の遠隔操作支援システムの機能について図4に示されているフローチャートを用いて説明する。当該フローチャートにおいて「C●」というブロックは、記載の簡略のために用いられ、データの送信および/または受信を意味し、当該データの送信および/または受信を条件として分岐方向の処理が実行される条件分岐を意味している。受信されたデータは、データベース102および/または不揮発性もしくは揮発性のメモリにより構成されている記憶装置に格納される。
(function)
The functions of the remote operation support system having the above configuration will be explained using the flowchart shown in FIG. In the flowchart, the block "C●" is used to simplify the description, and means the transmission and/or reception of data, and the processing in the branch direction is executed on the condition that the data is transmitted and/or received. It means conditional branching. The received data is stored in a storage device comprising a
遠隔操作装置20において、オペレータにより遠隔入力インターフェース210を通じた指定操作の有無が判定される(図4/STEP210)。「指定操作」は、例えば、オペレータが遠隔操作を意図する作業機械40を指定するための遠隔入力インターフェース210におけるタップなどの操作である。当該判定結果が否定的である場合(図4/STEP210‥NO)、一連の処理が終了する。その一方、当該判定結果が肯定的である場合(図4/STEP210‥YES)、遠隔無線通信機器222を通じて、遠隔操作支援サーバ10に対して環境確認要求が送信される(図4/STEP212)。
In the
遠隔操作支援サーバ10において、環境確認要求が受信された場合、第1支援処理要素121により当該環境確認要求が該当する作業機械40に対して送信される(図4/C110)。
When the environment confirmation request is received in the remote
作業機械40において、実機無線通信機器422を通じて環境確認要求が受信された場合(図4/C410)、実機制御装置400が実機撮像装置S1を通じて撮像画像を取得し、かつ、測距装置S2を通じて測距画像を取得する(図4/STEP410)。ここで、実機制御装置400またはこれを構成する画像処理装置により、撮像画像および/または測距画像を対象として、画像データ量を低下させるため、および/またはノイズを除去するための画像処理が実行されてもよい。実機制御装置400により、実機無線通信機器422を通じて、撮像画像に応じた撮像画像データおよび測距画像に応じた測距画像データが遠隔操作サーバ10に対して送信される(図4/STEP412)。
In the
遠隔操作支援サーバ10において、撮像画像データおよび測距画像データが受信された場合(図4/C112)、図5に示されているように、測距装置S2に付されたマーカM0、M1およびM2が含まれている撮像画像に基づき、第1支援処理要素121により、実機撮像装置S1を基準とした測距装置S2の相対位置および相対姿勢が認識される(図4/STEP111)。これは、図6に示されている撮像装置座標系C(S1)=(X1,Y1,Z1)および測距装置座標系C(S2)=(X2,Y2,Z2)の間の座標変換行列またはこれに相当するクォータニオンを求めることと同義である。撮像装置座標系C(S1)のX1軸は撮像装置S1の光軸と一致するように定義されている。Y1-Z1平面座標系が撮像画像座標系を構成する。測距装置座標系C(S2)のX2軸は測距装置S2の光軸と一致するように定義されている。Y2-Z2平面座標系が測距画像座標系を構成する。
When the remote
実機撮像装置S1を基準とした測距装置S2の相対位置を求めることは、図6に示されている撮像装置座標系C(S1)の原点O1から測距装置座標系C(S2)の原点O2まで延びるベクトルRを求めることと同義である。例えば、図5に示されている撮像画像におけるマーカM0、M1およびM2それぞれのサイズに基づき、撮像装置座標系C(S1)の原点O1からマーカM0、M1およびM2(の中心または重心)までのそれぞれの長さ(ノルム)が定められる。マーカM0、M1およびM2のサイズが大きいほど、原点O1から各マーカの長さは短いという幾何学的関係が利用される。また、前工程で定められる長さと図5に示されている撮像画像におけるマーカM0、M1およびM2の撮像画像上の表示位置とから、各マーカM0、M1およびM2の撮像装置座標系C(S1)における座標値が定められる。撮像装置座標系C(S1)においてマーカがX1軸上の任意点からY1軸方向およびX1軸方向にずれるほど前工程で定められる長さが大きくなる(撮像画像上のマーカのサイズが小さくなる)という幾何学的関係が利用される。 Determining the relative position of the range finder S2 with respect to the actual image capture device S1 is performed by moving from the origin O1 of the image capture device coordinate system C(S1) to the origin of the range finder coordinate system C(S2) shown in FIG. This is equivalent to finding the vector R extending to O2. For example, based on the sizes of markers M0, M1, and M2 in the captured image shown in FIG. The length (norm) of each is determined. A geometric relationship is used in which the larger the size of the markers M0, M1, and M2, the shorter the length of each marker from the origin O1. Furthermore, from the length determined in the previous step and the display positions of the markers M0, M1, and M2 on the captured image shown in FIG. 5, the imaging device coordinate system C (S1 ) are determined. In the imaging device coordinate system C (S1), the more the marker shifts from an arbitrary point on the X1 axis in the Y1 axis direction and the X1 axis direction, the longer the length determined in the previous process becomes (the size of the marker on the captured image becomes smaller). This geometric relationship is used.
また、撮像画像におけるマーカM0、M1およびM2の平均座標値に基づき、図6に示されている撮像装置座標系C(S1)におけるベクトルRが定められる。ベクトルRは、ベクトルRの長さ、方位角θ1および仰角φ1で示すこともできる。図6に示されているベクトルR1は、ベクトルRがX1-Y1平面に投影された結果を模式的に表わしており、ベクトルR1がX1軸に対してなす角度が当該方位角θ1に相当する。同様にして、ベクトルR2は、ベクトルRがY1-Z1平面に投影された結果を模式的に表わしており、ベクトルR2がY1軸に対してなす角度が当該仰角φ1に相当する。ベクトルRの長さ、方位角θ1および仰角φ1に基づき、撮像装置座標系C(S1)および測距装置座標系C(S2)の間の並進行列が定められる。また、3つのマーカM0、M1、M2のうちのいずれか一つ(例えばM0)が測距装置S2の背面に位置するように配置されている場合には、原点O1からマーカM0で延びるベクトルがベクトルRに相当する。また、3つのマーカM0、M1、M2に対する相対的な位置関係を考慮してベクトルRが定められてもよい。 Furthermore, a vector R in the imaging device coordinate system C (S1) shown in FIG. 6 is determined based on the average coordinate values of the markers M0, M1, and M2 in the captured image. The vector R can also be expressed by the length of the vector R, the azimuth angle θ1, and the elevation angle φ1. Vector R1 shown in FIG. 6 schematically represents the result of projection of vector R onto the X1-Y1 plane, and the angle that vector R1 makes with respect to the X1 axis corresponds to the azimuth angle θ1. Similarly, vector R2 schematically represents the result of projection of vector R onto the Y1-Z1 plane, and the angle that vector R2 makes with respect to the Y1 axis corresponds to the elevation angle φ1. Based on the length of the vector R, the azimuth angle θ1, and the elevation angle φ1, a translation matrix between the imaging device coordinate system C (S1) and the ranging device coordinate system C (S2) is determined. Furthermore, if any one of the three markers M0, M1, and M2 (for example, M0) is located on the back of the distance measuring device S2, the vector extending from the origin O1 to the marker M0 is Corresponds to vector R. Further, the vector R may be determined in consideration of the relative positional relationship with respect to the three markers M0, M1, and M2.
実機撮像装置S1を基準とした測距装置S2の相対姿勢を求めることは、図6に示されている撮像装置座標系C(S1)が、その原点O1を測距装置座標系C(S2)の原点O2に一致させるように並進された結果としての座標系C(S1)を基準とした、測距装置座標系C(S2)の方位角θ2および仰角φ2を求めることと同義である。例えば、マーカM0,マーカM1およびマーカM2がY2‐Z2平面に位置することから、3マーカの座標からY2‐Z2平面を特定し、X2軸はY2‐Z2平面に対して垂直又は垂直から方位角θ2および仰角φ2にオフセットした方向の軸であって、原点O2を通る軸がX2軸として特定される。当該オフセット量は、3つのマーカM0、M1、M2を取り付けた測距装置S2を特定の平面に設定した際の光軸の傾き量を予め確認しておくことにより設定される。 Determining the relative attitude of the distance measuring device S2 with respect to the actual imaging device S1 is performed by changing the imaging device coordinate system C (S1) shown in FIG. 6 from the origin O1 to the distance measuring device coordinate system C (S2) This is equivalent to determining the azimuth angle θ2 and the elevation angle φ2 of the rangefinder coordinate system C (S2) based on the coordinate system C (S1) that has been translated so as to coincide with the origin O2 of the range finder coordinate system C (S2). For example, since marker M0, marker M1, and marker M2 are located on the Y2-Z2 plane, the Y2-Z2 plane is specified from the coordinates of the three markers, and the X2 axis is perpendicular to the Y2-Z2 plane or the azimuth angle from the vertical. The axis in the direction offset from θ2 and the elevation angle φ2 and passing through the origin O2 is specified as the X2 axis. The offset amount is set by checking in advance the amount of inclination of the optical axis when the distance measuring device S2 to which the three markers M0, M1, and M2 are attached is set on a specific plane.
また、X2軸を特定する別の方法として、図5に示されている撮像画像において、複数のマーカとして、例えば、マーカM1とマーカM2が横並びに配置されている場合、マーカM1とマーカM2との間隔に基づき、図6に示されている方位角θ2が求められる。当該間隔が小さいほど方位角θ2が大きくなるという幾何学的関係が用いられる。図5に示されている撮像画像におけるマーカM0とマーカM1およびマーカM2のうち一方または両方との間隔または平均間隔に基づき、図6に示されている仰角φ2が求められる。当該間隔が小さいほど仰角φ2が大きくなるという幾何学的関係が用いられる。方位角θ2および仰角φ2に基づき、撮像装置座標系C(S1)および測距装置座標系C(S2)の間の回転行列が定められる。 Further, as another method for specifying the X2 axis, in the captured image shown in FIG. 5, when a plurality of markers, for example, marker M1 and marker M2 are arranged side by side, Based on the interval, the azimuth angle θ2 shown in FIG. 6 is determined. A geometric relationship is used in which the smaller the interval, the larger the azimuth angle θ2. The elevation angle φ2 shown in FIG. 6 is determined based on the interval or average interval between the marker M0 and one or both of the markers M1 and M2 in the captured image shown in FIG. A geometric relationship is used in which the smaller the interval, the larger the elevation angle φ2. Based on the azimuth angle θ2 and the elevation angle φ2, a rotation matrix between the imaging device coordinate system C (S1) and the ranging device coordinate system C (S2) is determined.
作業機械40またはキャブ424の内部空間における実機撮像装置S1および測距装置S2の位置および姿勢が不変である場合、STEP111の処理は初期においてのみ実行され、その後は省略されてもよい。
If the positions and postures of the actual imaging device S1 and the distance measuring device S2 in the internal space of the
第1支援処理要素121により認識された実機撮像装置S1を基準とした測距装置S2の相対位置および相対姿勢に基づき、第2支援処理要素122により、撮像画像に測距画像に含まれている距離情報が組み合わせられた環境画像が生成される(図4/STEP112)。具体的には、測距画像座標系(Y2,Z2)の各画素における画素値である物体までの距離が、撮像画像座標系(Y1,Z1)の各画素に対して割り当てられる。この際、測距画像座標系(Y2,Z2)の各画素の座標値が、前記のようにして求められた並進行列および回転行列が用いられることにより、撮像画像座標系(Y1,Z1)の座標値に座標変換される。実機撮像装置S1および測距装置S2のそれぞれの解像度の相違等により、一般的に、当該座標変換後の測距画像座標系(Y2,Z2)の各画素の座標値は、撮像画像座標系(Y1,Z1)の各画素の座標値に一致しない。このため、適当な補間方法にしたがって、測距画像座標系(Y2,Z2)の各画素の画素値が撮像画像座標系(Y1,Z1)の各画素(すべての画素でなくてもよい。)に対して割り当てられる。これにより、撮像画像に映り込んでいる物体の複数箇所のそれぞれの、撮像装置S1を基準とした実空間位置、ひいては当該物体の表面の凹凸等の形状が推定される。
Based on the relative position and relative orientation of the distance measuring device S2 with respect to the actual imaging device S1 recognized by the first
これらの結果として、例えば、図7に示されているように、撮像画像に含まれている物体としての地面の上に、測距画像に含まれている距離情報に応じた網目状の線図が重畳された環境画像が生成される。当該網目状の線図のうち緯線図の延在態様は、測距画像において縦座標値を固定したままで横座標値を右(または左)方向に変化させた際の、画素値(測距装置S2から物体までの距離)の変化態様に応じて定まる。当該網目状の線図のうち経線図の延在態様は、測距画像において横座標値を固定したままで縦座標値を上(または下)方向に変化させた際の、画素値(測距装置S2から物体までの距離)の変化態様に応じて定まる。 As a result, for example, as shown in FIG. 7, a mesh-like line diagram is created on the ground as an object included in the captured image according to the distance information included in the ranging image. An environment image with superimposed images is generated. The extension mode of the latitude map in the mesh-like line diagram is the pixel value (distance measurement The distance from the device S2 to the object) is determined according to the change in the distance from the device S2 to the object. The extension mode of the meridian diagram in the mesh-like line diagram is the pixel value (distance measurement The distance from the device S2 to the object) is determined according to the change in the distance from the device S2 to the object.
第2支援処理要素122により撮像画像に応じた環境画像データが遠隔操作装置20に対して送信される(図4/STEP114)。
The second
遠隔操作装置20において、遠隔無線通信機器222を通じて環境画像データが受信された場合(図4/C210)、遠隔制御装置200により、環境画像データに応じた環境画像が画像出力装置221に出力される(図4/STEP214)。これにより、図7に示されているような画像が、キャブ424のフロントウィンドウ越しに映る混んでいるような環境画像が画像出力装置221に出力される。
When the
遠隔操作装置20において、遠隔制御装置200により遠隔操作機構211の操作態様が認識され(図4/STEP216)、かつ、遠隔無線通信機器222を通じて、当該操作態様に応じた遠隔操作指令が遠隔操作支援サーバ10に対して送信される(図4/STEP218)。
In the
遠隔操作支援サーバ10において、第2支援処理要素122により当該遠隔操作指令が受信された場合、第1支援処理要素121により、当該遠隔操作指令が作業機械40に対して送信される(図4/C114)。
In the remote
作業機械40において、実機制御装置400により、実機無線通信機器422を通じて操作指令が受信された場合(図4/C412)、作業機構440等の動作が制御される(図4/STEP414)。例えば、バケット445により作業機械40の前方の土をすくい、上部旋回体410を旋回させたうえでバケット445から土を落とす作業が実行される。
In the
(効果)
当該構成の遠隔操作支援システムによれば、作業機械40に搭載されている撮像装置S1を通じて取得された撮像画像、ひいては同じく作業機械40に搭載されている測距装置S2に付されたマーカM0、M1およびM2の映り込み態様に基づき、撮像装置S1を基準とした測距装置S2の相対位置および相対姿勢が認識される(図4/STEP111、図5および図6参照)。撮像装置S1を基準とした測距装置S2の相対位置および相対姿勢、ひいては撮像画像座標系および測距画像座標系の座標変換態様に基づき、測距画像に含まれる距離情報が撮像画像に組み込まれた環境画像が生成される(図4/STEP112および図7参照)。
(effect)
According to the remote operation support system having this configuration, the captured image acquired through the imaging device S1 mounted on the working
この環境画像が遠隔操作装置20を構成する遠隔出力インターフェース220に出力されることにより、当該環境画像に接したオペレータに撮像画像(2次元画像)に映り込んでいる物体の3次元実空間における位置(または位置および姿勢)を的確に認識させることができる。
By outputting this environmental image to the
(本発明の他の実施形態)
遠隔支援処理サーバ10の少なくとも一部の機能要素が、遠隔操作装置20および/または作業機械40により構成されていてもよい。例えば、第1支援処理要素121が、第1演算処理装置としての遠隔制御装置200および/または実機制御装置400により構成されていてもよい。第2支援処理要素122が、第2演算処理装置としての遠隔制御装置200および/または実機制御装置400により構成されていてもよい。遠隔操作支援サーバ10の機能要素が遠隔操作装置20に搭載されている場合、前記実施形態における無線通信に代えて、当該遠隔操作装置20に搭載されている有線ネットワークを通じた有線通信によって情報が通信されてもよい。同様に、遠隔操作支援サーバ10の機能要素が作業機械40に搭載されている場合、前記実施形態における無線通信に代えて、当該作業機械40に搭載されている有線ネットワークを通じた有線通信によって情報が通信されてもよい。
(Other embodiments of the present invention)
At least some functional elements of the remote
例えば、図4/STEP112およびSTEP114、または、図4/C112、STEP111、STEP112およびSTEP114により表わされる機能要素が、遠隔制御装置200により構成されていてもよい。図4/C112およびSTEP111、または、図4/C112、STEP111、STEP112およびSTEP1114により表わされる機能要素が、実機制御装置400により構成されていてもよい。
For example, the functional elements represented by STEP112 and STEP114 in FIG. 4 or C112, STEP111, STEP112, and STEP114 in FIG. 4 may be configured by the
マーカの個数は4以上であってもよい。複数のマーカM0、M1およびM2は合同、相似または非相似であってもよい。複数のマーカM0、M1およびM2のそれぞれの形状は、円形、楕円形、三角形、正方形、矩形、台形、正六角形等の多角形および星形など、様々な形状の中から選択されてもよい。また、マーカには二次元コード(QRコード(登録商標))を付与しておき、撮像画像から二次元コードを抽出することでマーカを特定してもよい。図6に示されている撮像装置座標系C(S1)における測距装置座標系C(S2)の姿勢が既知である場合、ベクトルRを求める観点から、マーカの個数は1または2であってもよい。図6に示されている撮像装置座標系C(S1)における測距装置座標系C(S2)の方位角θ2または仰角φ2が既知である場合、マーカの個数は2であってもよく、仰角φ2または方位角θ2を前記のように幾何学的関係から定めるために当該2個のマーカが縦方向または横方向に離間して配置されていてもよい。2個のマーカが縦方向および横方向のそれぞれにずれて配置されるように測距装置S2に対して付されていてもよい。 The number of markers may be four or more. The plurality of markers M0, M1 and M2 may be congruent, similar or dissimilar. The shape of each of the plurality of markers M0, M1, and M2 may be selected from various shapes such as a circle, an ellipse, a triangle, a square, a rectangle, a trapezoid, a polygon such as a regular hexagon, and a star shape. Alternatively, a two-dimensional code (QR code (registered trademark)) may be assigned to the marker, and the marker may be identified by extracting the two-dimensional code from the captured image. When the orientation of the distance measuring device coordinate system C (S2) in the imaging device coordinate system C (S1) shown in FIG. Good too. If the azimuth angle θ2 or the elevation angle φ2 of the distance measuring device coordinate system C (S2) in the imaging device coordinate system C (S1) shown in FIG. 6 is known, the number of markers may be 2, and the elevation angle In order to determine φ2 or azimuth θ2 from the geometrical relationship as described above, the two markers may be spaced apart in the vertical or horizontal direction. Two markers may be attached to the distance measuring device S2 so as to be disposed shifted in each of the vertical and horizontal directions.
撮像装置S1を基準とした測距装置S2の相対姿勢としては、ねじれの要素が含まれてもよい。例えば、図5に示されている撮像画像におけるマーカM0、M1およびM2の撮像画像上の相対的な表示位置が、右回り又は左回りにずれている場合には、測距装置S2が右回り又は左回りにずれて設置されている。第1支援処理要素121によりこのようなねじれを考慮した相対姿勢が認識されてもよい。
The relative attitude of the distance measuring device S2 with respect to the imaging device S1 may include an element of twist. For example, if the relative display positions of the markers M0, M1, and M2 on the captured image shown in FIG. Or it is installed counterclockwise. The first
前記実施形態では、マーカM0、M1、M2の平均座標値又は3つのマーカM0、M1、M2のうちのいずれか一つ(例えばM0)測距装置S2の背面に位置するように配置されていたが、他の実施形態として、マーカM0、M1、M2に対する測距装置S2の背面の相対的な位置を予め確認しておくことにより設定してもよい。3つのマーカM0、M1、M2の配置位置の自由度が向上する。 In the embodiment, the average coordinate value of the markers M0, M1, M2 or any one of the three markers M0, M1, M2 (for example, M0) is arranged to be located on the back side of the distance measuring device S2. However, as another embodiment, it may be set by confirming in advance the relative position of the back surface of the distance measuring device S2 with respect to the markers M0, M1, and M2. The degree of freedom in arranging the three markers M0, M1, and M2 is improved.
前記実施形態では、作業機械40において撮像装置S1および測距装置S2がともにキャブ424の内部空間に配置されていたが、他の実施形態として、撮像装置S1の撮像範囲に測距装置S2に付されたマーカM0、M1およびM2が映り込み、かつ、実空間において撮像装置S1の撮像範囲と測距装置S2の測距範囲とが重複していることを条件として、作業機械40において撮像装置S1および測距装置S2が異なる形態で配置されていてもよい。例えば、撮像装置S1が前方に向けられてキャブ424の内部空間に配置される一方、測距装置S2が前方に向けられてキャブ424の前方に配置されていてもよい。。
In the embodiment described above, both the imaging device S1 and the distance measuring device S2 are arranged in the interior space of the
10‥遠隔操作支援サーバ、20‥遠隔操作装置、40‥作業機械、102‥データベース、121‥第1支援処理要素、122‥第2支援処理要素、200‥遠隔制御装置、210‥遠隔入力インターフェース、211‥遠隔操作機構、220‥遠隔出力インターフェース、221‥画像出力装置、222‥音響出力装置、400‥実機制御装置、410‥実機入力インターフェース、420‥実機出力インターフェース、424‥キャブ(運転室)、440‥作業機構、445‥バケット(作業部)、S1‥実機撮像装置、S2‥測距装置、M0、M1、M2‥マーカ。 10...Remote operation support server, 20...Remote operation device, 40...Work machine, 102...Database, 121...First support processing element, 122...Second support processing element, 200...Remote control device, 210...Remote input interface, 211... Remote control mechanism, 220... Remote output interface, 221... Image output device, 222... Sound output device, 400... Actual machine control device, 410... Actual machine input interface, 420... Actual machine output interface, 424... Cab (driver's cab), 440... Working mechanism, 445... Bucket (working part), S1... Actual imaging device, S2... Distance measuring device, M0, M1, M2... Marker.
Claims (4)
前記作業機械に搭載されている撮像装置を通じて取得された、前記作業機械に搭載され、かつ、実空間において前記撮像装置による撮像範囲と重複する測距範囲を有する測距装置に付されたマーカを含む撮像画像に基づき、前記撮像装置を基準とする前記測距装置の相対位置および相対姿勢を認識する第1支援処理要素と、
前記第1支援処理要素により認識された前記撮像装置を基準とする前記測距装置の相対位置および相対姿勢に基づき、前記遠隔操作装置を構成する遠隔出力インターフェースに出力される、前記測距装置により取得された測距画像に含まれる情報が前記撮像画像に組み込まれた環境画像を生成する第2支援処理要素と、
を備えている遠隔操作支援システム。 A remote operation support system for supporting remote operation of a working machine using a remote control device,
A marker attached to a ranging device mounted on the working machine and having a ranging range that overlaps an imaging range by the imaging device in real space, acquired through an imaging device mounted on the working machine. a first support processing element that recognizes the relative position and relative orientation of the distance measuring device with respect to the imaging device based on captured images;
Based on the relative position and relative orientation of the range finder with respect to the imaging device recognized by the first support processing element, the range finder outputs the information to a remote output interface constituting the remote control device. a second support processing element that generates an environmental image in which information included in the acquired ranging image is incorporated into the captured image;
A remote control support system equipped with
前記第1支援処理要素は、前記撮像画像における前記マーカのサイズおよび表示位置に応じて前記撮像装置を基準とする前記測距装置の相対位置を認識する 遠隔操作支援システム。 The remote operation support system according to claim 1,
The first support processing element recognizes the relative position of the distance measuring device with respect to the imaging device according to the size and display position of the marker in the captured image.
前記測距装置に付されたマーカは複数であり、
前記第1支援処理要素は、複数の前記マーカに応じて前記撮像装置を基準とする前記測距装置の相対姿勢を認識する
遠隔操作支援システム。 The remote operation support system according to claim 1 or 2,
A plurality of markers are attached to the distance measuring device,
The first support processing element recognizes a relative attitude of the distance measuring device with respect to the imaging device according to the plurality of markers.
前記作業機械に搭載されている撮像装置を通じて取得された、前記作業機械に搭載され、かつ、実空間において前記撮像装置による撮像範囲と重複する測距範囲を有する測距装置に付されたマーカを含む撮像画像に基づき、前記撮像装置を基準とする前記測距装置の相対位置および相対姿勢を認識する第1支援処理ステップと、
前記第1支援処理ステップにおいて認識された前記撮像装置を基準とする前記測距装置の相対位置および相対姿勢に基づき、前記遠隔操作装置を構成する遠隔出力インターフェースに出力される、前記測距装置により取得された測距画像に含まれる情報が前記撮像画像に組み込まれた環境画像を生成する第2支援処理ステップと、
を含んでいる遠隔操作支援方法。
A remote operation support method for supporting remote operation of a working machine using a remote control device,
A marker attached to a ranging device mounted on the working machine and having a ranging range that overlaps an imaging range by the imaging device in real space, acquired through an imaging device mounted on the working machine. a first support processing step of recognizing the relative position and relative orientation of the distance measuring device with respect to the imaging device based on captured images;
Based on the relative position and relative orientation of the distance measuring device with respect to the imaging device recognized in the first support processing step, the distance measuring device outputs to a remote output interface that constitutes the remote control device. a second support processing step of generating an environmental image in which information included in the acquired ranging image is incorporated into the captured image;
A remote operation support method including.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021017122A JP7444094B2 (en) | 2021-02-05 | 2021-02-05 | Remote operation support system and remote operation support method |
PCT/JP2021/041011 WO2022168383A1 (en) | 2021-02-05 | 2021-11-08 | Remote operation assistance system and remote operation assistance method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021017122A JP7444094B2 (en) | 2021-02-05 | 2021-02-05 | Remote operation support system and remote operation support method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022120309A JP2022120309A (en) | 2022-08-18 |
JP7444094B2 true JP7444094B2 (en) | 2024-03-06 |
Family
ID=82741029
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021017122A Active JP7444094B2 (en) | 2021-02-05 | 2021-02-05 | Remote operation support system and remote operation support method |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7444094B2 (en) |
WO (1) | WO2022168383A1 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019188389A1 (en) | 2018-03-29 | 2019-10-03 | ソニー株式会社 | Signal processing device and signal processing method, program, and moving body |
JP2020131365A (en) | 2019-02-20 | 2020-08-31 | コベルコ建機株式会社 | Display system for work machine |
JP2020160777A (en) | 2019-03-26 | 2020-10-01 | 日立建機株式会社 | Calibration work support system |
JP2020183696A (en) | 2020-03-19 | 2020-11-12 | J Think株式会社 | Construction machine management system, construction machine management program, construction machine management method, construction machine and external management device of construction machine |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6927821B2 (en) * | 2017-09-15 | 2021-09-01 | 株式会社小松製作所 | Display system and display device |
JP7372029B2 (en) * | 2018-06-29 | 2023-10-31 | 株式会社小松製作所 | Display control device, display control system, and display control method |
-
2021
- 2021-02-05 JP JP2021017122A patent/JP7444094B2/en active Active
- 2021-11-08 WO PCT/JP2021/041011 patent/WO2022168383A1/en active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019188389A1 (en) | 2018-03-29 | 2019-10-03 | ソニー株式会社 | Signal processing device and signal processing method, program, and moving body |
JP2020131365A (en) | 2019-02-20 | 2020-08-31 | コベルコ建機株式会社 | Display system for work machine |
JP2020160777A (en) | 2019-03-26 | 2020-10-01 | 日立建機株式会社 | Calibration work support system |
JP2020183696A (en) | 2020-03-19 | 2020-11-12 | J Think株式会社 | Construction machine management system, construction machine management program, construction machine management method, construction machine and external management device of construction machine |
Also Published As
Publication number | Publication date |
---|---|
WO2022168383A1 (en) | 2022-08-11 |
JP2022120309A (en) | 2022-08-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2020241618A1 (en) | Map generation system and map generation method | |
JP7285051B2 (en) | Display control device and display control method | |
JP6867132B2 (en) | Work machine detection processing device and work machine detection processing method | |
JP6927821B2 (en) | Display system and display device | |
JP6832548B2 (en) | Work machine image display system, work machine remote control system, work machine and work machine image display method | |
JP7420733B2 (en) | Display control system and display control method | |
JP2016008484A (en) | Construction machinery | |
JP7080750B2 (en) | Display control system, remote control system, display control device, and display control method | |
WO2021124654A1 (en) | Work assist server, work assist method, and work assist system | |
JP7452038B2 (en) | Work support system | |
WO2021230090A1 (en) | Remote operation assistance device and remote operation assistance method | |
JP7444094B2 (en) | Remote operation support system and remote operation support method | |
JP7392422B2 (en) | Work support server and work support system | |
JP2023040971A (en) | Remote control support device, remote control support system, and remote control support method | |
JP2023014767A (en) | Travel range setting system and control method for excavator | |
WO2023100533A1 (en) | Image display system, remote operation assistance system, and image display method | |
WO2023136070A1 (en) | Remote operation support system and remote operation support method | |
WO2021106280A1 (en) | Work assist server, work assist method, and work assist system | |
JP7363560B2 (en) | Remote control device, remote control support server, remote control support system, and remote control support method | |
WO2023026568A1 (en) | Remote operation system and remote operation composite system | |
JP7528891B2 (en) | Remote Control System | |
JP2024057361A (en) | Work support device and work support method | |
KR20190060127A (en) | an excavator working radius representation method | |
JP2024057362A (en) | Work support system, remote control support system, work support method, and display device | |
JP2023032998A (en) | Work support system and work support composite system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231121 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240123 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240205 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7444094 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |