WO2022163337A1 - 表示システム及び表示方法 - Google Patents

表示システム及び表示方法 Download PDF

Info

Publication number
WO2022163337A1
WO2022163337A1 PCT/JP2022/000500 JP2022000500W WO2022163337A1 WO 2022163337 A1 WO2022163337 A1 WO 2022163337A1 JP 2022000500 W JP2022000500 W JP 2022000500W WO 2022163337 A1 WO2022163337 A1 WO 2022163337A1
Authority
WO
WIPO (PCT)
Prior art keywords
visible light
image
infrared
distance
imaging device
Prior art date
Application number
PCT/JP2022/000500
Other languages
English (en)
French (fr)
Inventor
正光 北橋
Original Assignee
株式会社小松製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社小松製作所 filed Critical 株式会社小松製作所
Priority to AU2022214854A priority Critical patent/AU2022214854A1/en
Priority to CA3203152A priority patent/CA3203152A1/en
Priority to US18/039,591 priority patent/US20240015374A1/en
Publication of WO2022163337A1 publication Critical patent/WO2022163337A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/11Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0686Adjustment of display parameters with two or more screen areas displaying information with different brightness or colours
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/20Details of the management of multiple sources of image data

Definitions

  • the display device 50 is arranged in the remote control room 200 outside the work machine 1.
  • the display device 50 displays an image of the work site.
  • the image of the work site includes an image of a predetermined range around work machine 1 .
  • the image of the predetermined range around work machine 1 includes at least the image of the work target of work machine 1 .
  • the work target of the work machine 1 includes the work target of the work machine 1 .
  • the infrared imaging device 30 images the work site.
  • the infrared imaging device 30 is provided on the working machine 1 .
  • the infrared imaging device 30 is provided on the revolving body 3 .
  • the infrared imaging device 30 images a predetermined range around the working machine 1 .
  • the infrared imager 30 acquires images in the infrared spectral range.
  • the spectrum range of infrared rays is 780 [nm] or more and 100 [ ⁇ m] or less.
  • the infrared imager 30 acquires images in the far-infrared spectral range.
  • the spectrum range of the infrared imaging device 30 is, for example, 7.5 [ ⁇ m] or more and 14 [ ⁇ m] or less.
  • Each of the visible light imaging device 20 and the infrared imaging device 30 has an optical system and an image sensor that receives light that has passed through the optical system.
  • the image sensor includes a CCD (Couple Charged Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor.
  • first infrared camera 31 and the second infrared camera 32 may be arranged between the first visible light camera 21 and the second visible light camera 22 .
  • the imaging range of the first visible light camera 21, the imaging range of the second visible light camera 22, the imaging range of the first infrared camera 31, and the imaging range of the second infrared camera 32 match.
  • the first visible light camera 21 , the second visible light camera 22 , the first infrared camera 31 , and the second infrared camera 32 simultaneously capture the front range of the revolving body 3 .
  • At least part of the imaging range of the first visible light camera 21 and the imaging range of the second visible light camera 22 should match. At least part of the imaging range of the first infrared camera 31 and the imaging range of the second infrared camera 32 need only match. It is sufficient that the imaging range of the visible light imaging device 20 and a part of the imaging range of the infrared imaging device 30 match.
  • the running body control unit 301 receives the operation signal of the remote control device 40 transmitted from the control device 60 .
  • the traveling body control unit 301 outputs a control signal for controlling the operation of the traveling body 2 based on the operation signal of the remote control device 40 .
  • the work machine control unit 303 receives the operation signal of the remote control device 40 transmitted from the control device 60 .
  • Work machine control unit 303 outputs a control signal for controlling the operation of work machine 4 based on an operation signal from remote control device 40 .
  • Control signals for controlling work implement 4 include control signals for controlling hydraulic cylinders 5 .
  • the communication device 7 communicates with the communication device 6 via the communication system 400 .
  • the communication device 7 receives the operation signal of the remote control device 40 transmitted from the control device 60 via the communication device 6 and outputs it to the control device 300 .
  • the communication device 7 transmits the visible light image data and the infrared image data output from the image output unit 304 to the communication device 6 .
  • the communication device 7 includes an encoder that compresses each of the visible light image data and the infrared image data. Each of the visible light image data and the infrared image data is transmitted from the communication device 7 to the communication device 6 in a compressed state.
  • the control device 60 includes an operation signal output unit 61, a visible light image acquisition unit 62, an infrared image acquisition unit 63, a visible light distance calculation unit 64, an infrared distance calculation unit 65, a determination unit 66, and a synthesis unit 67. , a reference line generation unit 68 , and a display output unit 69 .
  • the operation signal output unit 61 outputs an operation signal for remotely operating the working machine 1 .
  • An operation signal for remotely operating the work machine 1 is generated by the operator operating the remote control device 40 .
  • the operation signal output section 61 outputs an operation signal for the remote control device 40 .
  • the communication device 6 transmits the operation signal output from the operation signal output section 61 to the communication device 7 .
  • the visible light image acquisition unit 62 acquires a visible light image Ga representing the image of the first target captured by the visible light imaging device 20 .
  • the visible light image acquisition unit 62 acquires the visible light image Ga by acquiring the visible light image data restored by the communication device 6 .
  • the first target includes an imaging target that exists within the imaging range of the visible light imaging device 20 .
  • the infrared image acquisition unit 63 acquires an infrared image Gb representing an image of the second target captured by the infrared imaging device 30 .
  • the infrared imaging device 30 obtains the infrared image Gb by obtaining the infrared image data restored by the communication device 6 .
  • the second target includes an imaging target that exists within the imaging range of the infrared imaging device 30 .
  • the visible light distance calculation unit 64 calculates a visible light distance Da that indicates the distance from the visible light imaging device 20 to the first object existing in the imaging range of the visible light imaging device 20 .
  • the first visible light camera 21 and the second visible light camera 22 of the visible light imaging device 20 constitute a stereo camera.
  • the visible light distance calculation unit 64 stereo-processes the visible light image Ga captured by the first visible light camera 21 and the visible light image Ga captured by the second visible light camera 22, thereby obtaining the visible light imaging device 20 to the first target is calculated.
  • the infrared distance calculation unit 65 calculates an infrared distance Db that indicates the distance from the infrared imaging device 30 to the second object existing in the imaging range of the infrared imaging device 30 .
  • the first infrared camera 31 and the second infrared camera 32 of the infrared imaging device 30 constitute a stereo camera.
  • the infrared distance calculation unit 65 stereo-processes the infrared image Gb captured by the first infrared camera 31 and the infrared image Gb captured by the second infrared camera 32, thereby determining the distance from the infrared imaging device 30 to the second target. An infrared distance Db is calculated.
  • FIG. 5 is a schematic diagram for explaining the visible light imaging device 20 and the infrared imaging device 30 according to the embodiment.
  • the visible light imaging device 20 images a predetermined range around the work machine 1 .
  • the infrared imaging device 30 images a predetermined range around the work machine 1 .
  • the imaging range of the visible light imaging device 20 and at least part of the imaging range of the infrared imaging device 30 match.
  • FIG. 5 shows a situation in which the visible light image Ga captured by the visible light imaging device 20 is not blurred.
  • the first target imaged by the visible light imaging device 20 and the second target imaged by the infrared imaging device 30 are the same imaging target.
  • the visible light distance calculation unit 64 stereo-processes the visible light image Ga captured by the first visible light camera 21 and the visible light image Ga captured by the second visible light camera 22, thereby obtaining the visible light imaging device 20 to the first target is calculated.
  • the infrared distance calculation unit 65 stereo-processes the infrared image Gb captured by the first infrared camera 31 and the infrared image Gb captured by the second infrared camera 32, thereby determining the distance from the infrared imaging device 30 to the second target.
  • An infrared distance Db is calculated.
  • the visible light distance Da and the infrared distance Db are substantially equal.
  • FIG. 6 is a schematic diagram for explaining the visible light image Ga and the infrared image Gb according to the embodiment.
  • FIG. 6 shows the visible light image Ga and the infrared image Gb captured when the visible light image Ga captured by the visible light imaging device 20 is not blurred.
  • the first target imaged by the visible light imaging device 20 and the second target imaged by the infrared imaging device 30 are the same imaging target.
  • the first object appearing in the visible light image Ga and the second object appearing in the infrared image Gb are the same imaging object.
  • a plurality of first segmented regions Pa are defined in the visible light image Ga.
  • a plurality of first partition regions Pa are defined in a matrix in the visible light image Ga.
  • the first partitioned area Pa includes pixels (pixel areas) of the visible light image Ga. Pixels of the visible light image Ga correspond to pixels of the image sensor of the visible light imaging device 20 .
  • a plurality of second segmented regions Pb are defined in the infrared image Gb.
  • a plurality of second partition regions Pb are defined in a matrix in the infrared image Gb.
  • the second partitioned area Pb includes pixels (pixel areas) of the infrared image Gb.
  • the pixels of the infrared image Gb correspond to the pixels of the image sensor of the infrared imaging device 30 .
  • the reference point Po of the image area is set in each of the visible light image Ga and the infrared image Gb.
  • the positions indicated by the reference points Po of both images are the same, and the first partitioned area Pa obtained by dividing the visible light image Ga and the second partitioned area Pb obtained by dividing the infrared image Gb are each divided with the reference point Po as a reference. , are calibrated so that the size and position (range indicated by the image) match.
  • the structure of the optical system of the visible light imaging device 20 and the structure of the image sensor of the infrared imaging device 30 may be different.
  • the focal length of the optical system of the visible light imaging device 20 and the focal length of the optical system of the infrared imaging device 30, and the visual field range of the system of the visible light imaging device 20 and the visual field range of the optical system of the infrared imaging device 30 are: can be different.
  • the plurality of first partitioned regions Pa (pixels) defined in the visible light image Ga and the plurality of second partitioned regions Pb (pixels) defined in the infrared image Gb have a one-to-one correspondence, and the pixels are The indicated regions are positionally coincident.
  • the size of the first partitioned region Pa and the size of the second partitioned region Pb are equal.
  • the number of first partitioned regions Pa and the number of second partitioned regions Pb are equal.
  • the visible light distance calculator 64 calculates the visible light distance Da for each of the plurality of first partitioned areas Pa defined in the visible light image Ga.
  • the visible light distance calculation unit 64 calculates the visible light distance Da from the visible light imaging device 20 to the first target existing in the imaging range of the visible light imaging device 20 for each of the plurality of first divided regions Pa of the visible light image Ga. calculate.
  • the infrared distance calculator 65 calculates the infrared distance Db for each of the plurality of second partitioned areas Pb defined in the infrared image Gb.
  • the infrared distance calculation unit 65 calculates an infrared distance Db from the infrared imaging device 30 to a second target existing in the imaging range of the infrared imaging device 30 for each of the plurality of second partitioned regions Pb of the infrared image Gb.
  • the synthesizing unit 67 synthesizes the visible light image Ga with the second partitioned region Pb in which the difference between the visible light distance Da and the infrared distance Db is equal to or greater than the distance threshold to generate the synthesized image Gd.
  • the synthesizing unit 67 synthesizes the cutout region Gc cut out from the infrared image Gb and the visible light image Ga from which the plurality of first divided regions Pa corresponding to the cutout region Gc are removed, A synthetic image Gd is generated.
  • the synthesizing unit 67 synthesizes a first segmented region of the visible light image Ga in which a cutout region Gc including a plurality of second segmented regions Pb for which the difference between the visible light distance Da and the infrared distance Db is equal to or greater than the distance threshold corresponds to the cutout region Gc.
  • the cutout region Gc and the visible light image Ga are combined so as to be superimposed on Pa.
  • the synthesizing unit 67 adds a plurality of second segmented regions Pb whose difference between the visible light distance Da and the infrared distance Db is equal to or greater than the distance threshold in the portion of the visible light image Ga from which the first segmented region Pa has been removed. Fit a clipping region Gc containing
  • the synthesizing unit 67 may perform smoothing processing on the boundary between the visible light image Ga and the cutout region Gc after fitting (overlapping) the cutout region Gc to the visible light image Ga.
  • the reference line generation unit 68 generates a reference line image Ge indicating the distance from the work machine 1 based on the infrared distance Db calculated by the infrared distance calculation unit 65 .
  • the operator of the work machine 1 can check the display device 50 and recognize the situation around the work machine 1. .
  • the operator of the work machine 1 can confirm the display device 50 and recognize the distance from the work machine 1 to the imaging target (construction target). can be done.
  • the reference line generation unit 68 generates a reference line image Ge indicating the distance from the work machine 1 based on the infrared distance Db calculated by the infrared distance calculation unit 65 .
  • the synthesized image Gd is not displayed on the display device 50 and the visible light image Ga is displayed on the display device 50 .
  • the visible light image Ga is displayed on the display device 50 instead of the synthesized image Gd when the area of the object to be imaged that is blocked by the dust is small.
  • FIG. 13 is a block diagram showing a computer system 1000 according to an embodiment.
  • the controller 60 described above includes a computer system 1000 .
  • a computer system 1000 includes a processor 1001 such as a CPU (Central Processing Unit), a main memory 1002 including non-volatile memory such as ROM (Read Only Memory) and volatile memory such as RAM (Random Access Memory), It has a storage 1003 and an interface 1004 including an input/output circuit.
  • the functions of the control device 60 described above are stored in the storage 1003 as computer programs.
  • the processor 1001 reads a computer program from the storage 1003, develops it in the main memory 1002, and executes the above-described processing according to the program. Note that the computer program may be distributed to the computer system 1000 via a network.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mechanical Engineering (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Selective Calling Equipment (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

表示システムは、作業機械に設けられた可視光撮像装置により撮像された第1対象の画像を示す可視光画像を取得する可視光画像取得部と、作業機械に設けられた赤外線撮像装置により撮像された第2対象の画像を示す赤外線画像を取得する赤外線画像取得部と、可視光撮像装置から第1対象までの距離を示す可視光距離を可視光画像に規定された複数の第1区画領域ごとに算出する可視光距離算出部と、赤外線撮像装置から第2対象までの距離を示す赤外線距離を赤外線画像に第1区画領域に対応するように規定された複数の第2区画領域ごとに算出する赤外線距離算出部と、対応する第1区画領域及び第2区画領域ごとに可視光距離と赤外線距離との差が距離閾値以上か否かを判定する判定部と、差が距離閾値以上である第2区画領域と可視光画像とを合成して合成画像を生成する合成部と、合成画像が表示装置に表示されるように合成画像を出力する表示出力部と、を備える。

Description

表示システム及び表示方法
 本開示は、表示システム及び表示方法に関する。
 表示システムに係る技術分野において、特許文献1に開示されているような画像処理装置が知られている。
特開2018-106239号公報
 作業機械に係る技術分野において、作業機械の周辺を可視光撮像装置で撮像する技術が知られている。可視光撮像装置により撮像された画像が作業機械の操作者に提供されることにより、操作者は、作業機械の周辺の状況を確認することができる。作業機械の作業に起因して粉塵が発生する可能性がある。また、霧が発生している状況で作業機械の作業が実施される可能性がある。粉塵又は霧が発生すると、可視光撮像装置により撮像される画像が不鮮明になる可能性がある。また、作業機械の作業が夜間に実施される場合においても、可視光撮像装置により撮像される画像が不鮮明になる可能性がある。また、逆光状態の撮像対象を撮像する場合においても、可視光撮像装置により撮像される画像が不鮮明になる可能性がある。
 本開示は、可視光撮像装置により撮像される画像が不鮮明になる事象が発生しても、作業機械の周辺の状況を作業機械の操作者に提供することを目的とする。
 本開示に従えば、作業機械に設けられた可視光撮像装置により撮像された第1対象の画像を示す可視光画像を取得する可視光画像取得部と、前記作業機械に設けられた赤外線撮像装置により撮像された第2対象の画像を示す赤外線画像を取得する赤外線画像取得部と、前記可視光撮像装置から前記第1対象までの距離を示す可視光距離を前記可視光画像に規定された複数の第1区画領域ごとに算出する可視光距離算出部と、前記赤外線撮像装置から前記第2対象までの距離を示す赤外線距離を前記赤外線画像に前記第1区画領域に対応するように規定された複数の第2区画領域ごとに算出する赤外線距離算出部と、対応する前記第1区画領域及び前記第2区画領域ごとに前記可視光距離と前記赤外線距離との差が距離閾値以上か否かを判定する判定部と、前記差が距離閾値以上である前記第2区画領域と前記可視光画像とを合成して合成画像を生成する合成部と、前記合成画像が表示装置に表示されるように前記合成画像を出力する表示出力部と、を備える、表示システムが提供される。
 本開示によれば、可視光撮像装置により撮像される画像が不鮮明になる事象が発生しても、作業機械の周辺の状況を作業機械の操作者に提供することができる。
図1は、実施形態に係る作業機械の遠隔操作システムを示す模式図である。 図2は、実施形態に係る作業機械を示す斜視図である。 図3は、実施形態に係る可視光撮像装置及び遠赤外線撮像装置を示す斜視図である。 図4は、実施形態に係る作業機械の遠隔操作システムを示す機能ブロック図である。 図5は、実施形態に係る可視光撮像装置及び赤外線撮像装置を説明するための模式図である。 図6は、実施形態に係る可視光画像及び赤外線画像を説明するための模式図である。 図7は、実施形態に係る可視光撮像装置及び赤外線撮像装置を説明するための模式図である。 図8は、実施形態に係る可視光画像及び赤外線画像を説明するための模式図である。 図9は、実施形態に係る合成画像の生成方法を説明するための模式図である。 図10は、実施形態に係る合成画像の生成方法を説明するための模式図である。 図11は、実施形態に係る表示装置に表示される合成画像及び目安線画像を示す模式図である。 図12は、実施形態に係る表示方法を示すフローチャートである。 図13は、実施形態に係るコンピュータシステムを示すブロック図である。
 以下、本開示に係る実施形態について図面を参照しながら説明するが、本開示は実施形態に限定されない。以下で説明する実施形態の構成要素は適宜組み合わせることができる。また、一部の構成要素を用いない場合もある。
[遠隔操作システム]
 図1は、実施形態に係る作業機械1の遠隔操作システム100を示す模式図である。遠隔操作システム100は、作業現場に存在する作業機械1を遠隔操作する。遠隔操作システム100の少なくとも一部は、遠隔操作地の遠隔操作室200に配置される。遠隔操作システム100は、遠隔操作装置40と、表示装置50と、制御装置60とを備える。
 遠隔操作装置40は、作業機械1の外部の遠隔操作室200に配置される。遠隔操作装置40は、遠隔操作室200において操作者に操作される。操作者は、操縦シート45に着座した状態で、遠隔操作装置40を操作することができる。
 表示装置50は、作業機械1の外部の遠隔操作室200に配置される。表示装置50は、作業現場の画像を表示する。作業現場の画像は、作業機械1の周辺の所定範囲の画像を含む。作業機械1の周辺の所定範囲の画像は、少なくとも作業機械1の作業対象の画像を含む。作業機械1の作業対象は、作業機械1の施工対象を含む。
 表示装置50は、液晶ディスプレイ(LCD:Liquid Crystal Display)又は有機ELディスプレイ(OELD:Organic Electroluminescence Display)のようなフラットパネルディスプレイを含む。実施形態において、表示装置50は、隣接するように配置された複数のフラットパネルディスプレイを含む。表示装置50は、1つのフラットパネルディスプレイにより構成されてもよい。
 操作者は、表示装置50に表示される作業現場の画像を確認しながら、遠隔操作装置40を操作する。作業機械1は、遠隔操作装置40によって遠隔操作される。
 制御装置60は、作業機械1の外部の遠隔操作室200に配置される。制御装置60は、コンピュータシステムを含む。
 作業機械1は、制御装置300を備える。制御装置300は、コンピュータシステムを含む。
 制御装置60と制御装置300とは、通信システム400を介して通信する。通信システム400として、インターネット(internet)、ローカルエリアネットワーク(LAN:Local Area Network)、携帯電話通信網、及び衛星通信網が例示される。
[作業機械]
 図2は、実施形態に係る作業機械1を示す斜視図である。実施形態においては、作業機械1が油圧ショベルであることとする。作業機械1は、作業現場において稼働する。
 図2に示すように、作業機械1は、走行体2と、走行体2に支持される旋回体3と、旋回体3に支持される作業機4と、作業機4を駆動する油圧シリンダ5と、可視光撮像装置20と、赤外線撮像装置30とを備える。
 走行体2は、旋回体3を支持した状態で走行可能である。旋回体3は、走行体2に支持された状態で旋回軸RXを中心に旋回可能である。作業機4は、旋回体3に連結されるブーム4Aと、ブーム4Aに連結されるアーム4Bと、アーム4Bに連結されるバケット4Cと、油圧シリンダ5として、ブーム4Aを駆動するブームシリンダ5Aと、アーム4Bを駆動するアームシリンダ5Bと、バケット4Cを駆動するバケットシリンダ5Cとを含む。
 旋回軸RXを基準として作業機4が存在する方向が前方であり、前方の逆方向が後方である。旋回軸RXを基準として左右方向の一方が右方であり、右方の逆方向が左方である。走行体2の接地面から離れる方向が上方であり、上方の逆方向が下方である。
 可視光撮像装置20は、作業現場を撮像する。可視光撮像装置20は、作業機械1に設けられる。実施形態において、可視光撮像装置20は、旋回体3に設けられる。可視光撮像装置20は、作業機械1の周辺の所定範囲を撮像する。可視光撮像装置20は、可視光の波長範囲の画像を取得する。可視光の波長範囲は、例えば360[nm]以上830[nm]以下である。
 赤外線撮像装置30は、作業現場を撮像する。赤外線撮像装置30は、作業機械1に設けられる。実施形態において、赤外線撮像装置30は、旋回体3に設けられる。赤外線撮像装置30は、作業機械1の周辺の所定範囲を撮像する。赤外線撮像装置30は、赤外線のスペクトル範囲の画像を取得する。赤外線のスペクトル範囲は、780[nm]以上100[μm]以下である。実施形態において、赤外線撮像装置30は、遠赤外線のスペクトル範囲の画像を取得する。赤外線撮像装置30のスペクトル範囲は、例えば7.5[μm]以上14[μm]以下である。
 可視光撮像装置20及び赤外線撮像装置30のそれぞれは、作業機械1の周辺に存在する撮像対象を撮像する。撮像対象は、物体である。可視光撮像装置20及び赤外線撮像装置30に撮像される撮像対象として、作業機械1の施工対象、作業機4の掘削対象、作業現場に存在する構造物、作業機械1の少なくとも一部、作業機械1とは別の作業機械、及び作業現場で働く人物(作業者)が例示される。
 可視光撮像装置20及び赤外線撮像装置30のそれぞれは、光学系と、光学系を通過した光を受光するイメージセンサとを有する。イメージセンサは、CCD(Couple Charged Device)イメージセンサ又はCMOS(Complementary Metal Oxide Semiconductor)イメージセンサを含む。
 可視光撮像装置20の撮像範囲と赤外線撮像装置30の撮像範囲の少なくとも一部とは、一致する。可視光撮像装置20の撮像範囲は、可視光撮像装置20の光学系の視野範囲を含む。赤外線撮像装置30の撮像範囲は、赤外線撮像装置30の光学系の視野範囲を含む。実施形態において、可視光撮像装置20の撮像範囲と赤外線撮像装置30の撮像範囲とは、一致する。なお、可視光撮像装置20の撮像範囲と赤外線撮像装置30の撮像範囲の一部とが一致してもよい。
[可視光撮像装置及び遠赤外線撮像装置]
 図3は、実施形態に係る可視光撮像装置20及び赤外線撮像装置30を示す斜視図である。図3に示すように、可視光撮像装置20及び赤外線撮像装置30のそれぞれは、旋回体3の前部の上部に配置される。可視光撮像装置20及び赤外線撮像装置30のそれぞれは、旋回体3の前方を撮像する。実施形態において、可視光撮像装置20及び赤外線撮像装置30により撮像される作業機械1の周辺の所定範囲は、旋回体3の前方範囲である。
 実施形態において、可視光撮像装置20は、第1可視光カメラ21と、第2可視光カメラ22とを含む。第1可視光カメラ21及び第2可視光カメラ22のそれぞれは、可視光の波長範囲の画像を取得する。第1可視光カメラ21と第2可視光カメラ22とは、左右方向に配置される。
 実施形態において、赤外線撮像装置30は、第1赤外線カメラ31と、第2赤外線カメラ32とを含む。第1赤外線カメラ31及び第2赤外線カメラ32のそれぞれは、赤外線のスペクトル範囲の画像を取得する。実施形態において、第1赤外線カメラ31及び第2赤外線カメラ32のそれぞれは、遠赤外線カメラである。第1赤外線カメラ31と第2赤外線カメラ32とは、左右方向に配置される。
 第1赤外線カメラ31は、第1可視光カメラ21よりも左方に配置される。第2赤外線カメラ32は、第2可視光カメラ22よりも右方に配置される。第1可視光カメラ21及び第2可視光カメラ22は、第1赤外線カメラ31と第2赤外線カメラ32との間に配置される。
 なお、第1赤外線カメラ31及び第2赤外線カメラ32が、第1可視光カメラ21と第2可視光カメラ22との間に配置されてもよい。
 第1可視光カメラ21の撮像範囲と、第2可視光カメラ22の撮像範囲と、第1赤外線カメラ31の撮像範囲と、第2赤外線カメラ32の撮像範囲とは、一致する。第1可視光カメラ21と、第2可視光カメラ22と、第1赤外線カメラ31と、第2赤外線カメラ32とは、旋回体3の前方範囲を同時に撮像する。
 なお、第1可視光カメラ21の撮像範囲と第2可視光カメラ22の撮像範囲の少なくとも一部とが一致していればよい。第1赤外線カメラ31の撮像範囲と第2赤外線カメラ32の撮像範囲の少なくとも一部とが一致していればよい。可視光撮像装置20の撮像範囲と赤外線撮像装置30の撮像範囲の一部とが一致していればよい。
 以下の説明において、可視光撮像装置20により撮像された画像を適宜、可視光画像Ga、と称し、赤外線撮像装置30で撮像された画像を適宜、赤外線画像Gb、と称する。
[表示システム]
 図4は、実施形態に係る作業機械1の遠隔操作システム100を示す機能ブロック図である。図4に示すように、遠隔操作システム100は、作業現場の画像を表示する表示システム10を有する。また、遠隔操作システム100は、遠隔操作地に配置される通信装置6と、通信装置6に接続される制御装置60と、制御装置60に接続される遠隔操作装置40と、制御装置60に接続される表示装置50とを備える。また、遠隔操作システム100は、作業機械1に配置される通信装置7と、通信装置7に接続される制御装置300と、制御装置300に接続される可視光撮像装置20と、制御装置300に接続される赤外線撮像装置30と、制御装置300により制御される走行体2と、制御装置300により制御される旋回体3と、制御装置300により制御される油圧シリンダ5とを備える。表示システム10は、可視光撮像装置20と、赤外線撮像装置30と、制御装置60と、表示装置50とを含む。
 制御装置300は、走行体制御部301と、旋回体制御部302と、作業機制御部303と、画像出力部304とを有する。
 走行体制御部301は、制御装置60から送信された遠隔操作装置40の操作信号を受信する。走行体制御部301は、遠隔操作装置40の操作信号に基づいて、走行体2の動作を制御する制御信号を出力する。
 旋回体制御部302は、制御装置60から送信された遠隔操作装置40の操作信号を受信する。旋回体制御部302は、遠隔操作装置40の操作信号に基づいて、旋回体3の動作を制御する制御信号を出力する。
 作業機制御部303は、制御装置60から送信された遠隔操作装置40の操作信号を受信する。作業機制御部303は、遠隔操作装置40の操作信号に基づいて、作業機4の動作を制御する制御信号を出力する。作業機4を制御する制御信号は、油圧シリンダ5を制御する制御信号を含む。
 画像出力部304は、可視光撮像装置20により撮像された可視光画像Gaを示す可視光画像データを出力する。また、画像出力部304は、赤外線撮像装置30により撮像された赤外線画像Gbを示す赤外線画像データを出力する。
 通信装置7は、通信システム400を介して通信装置6と通信する。通信装置7は、通信装置6を介して制御装置60から送信された遠隔操作装置40の操作信号を受信して、制御装置300に出力する。通信装置7は、画像出力部304から出力された可視光画像データ及び赤外線画像データを通信装置6に送信する。通信装置7は、可視光画像データ及び赤外線画像データのそれぞれを圧縮するエンコーダを含む。可視光画像データ及び赤外線画像データのそれぞれは、圧縮された状態で、通信装置7から通信装置6に送信される。
 通信装置6は、通信システム400を介して通信装置7と通信する。通信装置6は、遠隔操作装置40が操作されることにより生成された操作信号を通信装置7に送信する。通信装置6は、通信装置7を介して制御装置300から送信された可視光画像データ及び赤外線画像データを受信して、制御装置60に出力する。通信装置6は、圧縮された可視光画像データ及び赤外線画像データのそれぞれを復元するデコーダを含む。可視光画像データ及び赤外線画像データのそれぞれは、復元された状態で、通信装置6から制御装置60に出力される。
 制御装置60は、操作信号出力部61と、可視光画像取得部62と、赤外線画像取得部63と、可視光距離算出部64と、赤外線距離算出部65と、判定部66と、合成部67と、目安線生成部68と、表示出力部69とを有する。
 操作信号出力部61は、作業機械1を遠隔操作する操作信号を出力する。遠隔操作装置40が操作者に操作されることにより、作業機械1を遠隔操作する操作信号が生成される。操作信号出力部61は、遠隔操作装置40の操作信号を出力する。通信装置6は、操作信号出力部61から出力された操作信号を通信装置7に送信する。
 可視光画像取得部62は、可視光撮像装置20によりに撮像された第1対象の画像を示す可視光画像Gaを取得する。可視光画像取得部62は、通信装置6により復元された可視光画像データを取得することにより、可視光画像Gaを取得する。第1対象は、可視光撮像装置20の撮像範囲に存在する撮像対象を含む。
 赤外線画像取得部63は、赤外線撮像装置30によりに撮像された第2対象の画像を示す赤外線画像Gbを取得する。赤外線撮像装置30は、通信装置6により復元された赤外線画像データを取得することにより、赤外線画像Gbを取得する。第2対象は、赤外線撮像装置30の撮像範囲に存在する撮像対象を含む。
 可視光距離算出部64は、可視光撮像装置20から可視光撮像装置20の撮像範囲に存在する第1対象までの距離を示す可視光距離Daを算出する。実施形態において、可視光撮像装置20の第1可視光カメラ21と第2可視光カメラ22とは、ステレオカメラを構成する。可視光距離算出部64は、第1可視光カメラ21により撮像された可視光画像Gaと第2可視光カメラ22により撮像された可視光画像Gaとをステレオ処理することにより、可視光撮像装置20から第1対象までの可視光距離Daを算出する。
 赤外線距離算出部65は、赤外線撮像装置30から赤外線撮像装置30の撮像範囲に存在する第2対象までの距離を示す赤外線距離Dbを算出する。実施形態において、赤外線撮像装置30の第1赤外線カメラ31と第2赤外線カメラ32とは、ステレオカメラを構成する。赤外線距離算出部65は、第1赤外線カメラ31により撮像された赤外線画像Gbと第2赤外線カメラ32により撮像された赤外線画像Gbとをステレオ処理することにより、赤外線撮像装置30から第2対象までの赤外線距離Dbを算出する。
 図5は、実施形態に係る可視光撮像装置20及び赤外線撮像装置30を説明するための模式図である。図5(A)に示すように、可視光撮像装置20は、作業機械1の周辺の所定範囲を撮像する。図5(B)に示すように、赤外線撮像装置30は、作業機械1の周辺の所定範囲を撮像する。可視光撮像装置20の撮像範囲と赤外線撮像装置30の撮像範囲の少なくとも一部とは、一致する。
 図5は、可視光撮像装置20により撮像される可視光画像Gaが不鮮明になる事象が発生していない状況を示す。図5において、可視光撮像装置20により撮像される第1対象と赤外線撮像装置30により撮像される第2対象とは、同一の撮像対象である。可視光距離算出部64は、第1可視光カメラ21により撮像された可視光画像Gaと第2可視光カメラ22により撮像された可視光画像Gaとをステレオ処理することにより、可視光撮像装置20から第1対象までの可視光距離Daを算出する。赤外線距離算出部65は、第1赤外線カメラ31により撮像された赤外線画像Gbと第2赤外線カメラ32により撮像された赤外線画像Gbとをステレオ処理することにより、赤外線撮像装置30から第2対象までの赤外線距離Dbを算出する。図5において、可視光距離Daと赤外線距離Dbとは、実質的に等しい。
 図6は、実施形態に係る可視光画像Ga及び赤外線画像Gbを説明するための模式図である。図6は、可視光撮像装置20により撮像される可視光画像Gaが不鮮明になる事象が発生していないときに撮像された可視光画像Ga及び赤外線画像Gbを示す。図6において、可視光撮像装置20により撮像される第1対象と赤外線撮像装置30により撮像される第2対象とは、同一の撮像対象である。可視光画像Gaに現れる第1対象と赤外線画像Gbに現れる第2対象とは、同一の撮像対象である。
 図6(A)に示すように、可視光画像Gaに複数の第1区画領域Paが規定される。第1区画領域Paは、可視光画像Gaにマトリクス状に複数規定される。実施形態において、第1区画領域Paは、可視光画像Gaの画素(画素領域)を含む。可視光画像Gaの画素は、可視光撮像装置20のイメージセンサの画素に対応する。
 図6(B)に示すように、赤外線画像Gbに複数の第2区画領域Pbが規定される。第2区画領域Pbは、赤外線画像Gbにマトリクス状に複数規定される。実施形態において、第2区画領域Pbは、赤外線画像Gbの画素(画素領域)を含む。赤外線画像Gbの画素は、赤外線撮像装置30のイメージセンサの画素に対応する。
 図6(A)及び図6(B)に示すように、可視光画像Ga及び赤外線画像Gbのそれぞれに画像領域の基準点Poが設定される。両方の画像の基準点Poが指し示す位置は一致し、かつ、可視光画像Gaを分割した第1区画領域Pa及びと赤外線画像Gbを分割した第2区画領域Pbのそれぞれは基準点Poを基準として、大きさと位置(画像の指し示す範囲)が一致するようにキャリブレーションされている。
 実施形態において、画像を分割した第1区画領域Paと第2区画領域Pbとが一致していれば、可視光撮像装置20のイメージセンサの構造と赤外線撮像装置30のイメージセンサの構造とは、異なっていてもよい。例えば、可視光撮像装置20のイメージセンサの画素の大きさと赤外線撮像装置30のイメージセンサの画素の大きさ、可視光撮像装置20のイメージセンサの画素の数(行数及び列数)と赤外線撮像装置30のイメージセンサの画素の数(行数及び列数)、及び可視光撮像装置20のイメージセンサにおける隣り合う画素の間隔と赤外線撮像装置30のイメージセンサにおける隣り合う画素の間隔とは、異なってもよい。また、可視光撮像装置20の光学系の構造と赤外線撮像装置30のイメージセンサの構造とも、異なってもよい。例えば、可視光撮像装置20の光学系の焦点距離と赤外線撮像装置30の光学系の焦点距離、及び可視光撮像装置20の系の視野範囲と赤外線撮像装置30の光学系の視野範囲とは、異なっていてもよい。
 したがって、可視光画像Gaに規定された複数の第1区画領域Pa(画素)と赤外線画像Gbに規定された複数の第2区画領域Pb(画素)とは、1対1で対応するとともに画素が指し示す領域は位置的に一致している。
 したがって、第1区画領域Paの大きさと第2区画領域Pbの大きさとは、等しい。第1区画領域Paの数と第2区画領域Pbの数とは、等しい。
 可視光距離算出部64は、可視光画像Gaに規定された複数の第1区画領域Paごとに可視光距離Daを算出する。可視光距離算出部64は、可視光画像Gaの複数の第1区画領域Paごとに、可視光撮像装置20から可視光撮像装置20の撮像範囲に存在する第1対象までの可視光距離Daを算出する。
 赤外線距離算出部65は、赤外線画像Gbに規定された複数の第2区画領域Pbごとに赤外線距離Dbを算出する。赤外線距離算出部65は、赤外線画像Gbの複数の第2区画領域Pbごとに、赤外線撮像装置30から赤外線撮像装置30の撮像範囲に存在する第2対象までの赤外線距離Dbを算出する。
 判定部66は、相互に対応する第1区画領域Pa及び第2区画領域Pbごとに、可視光距離Daと赤外線距離Dbとの差が予め定められている距離閾値以上か否かを判定する。
 図7は、実施形態に係る可視光撮像装置20及び赤外線撮像装置30を説明するための模式図である。図7は、可視光撮像装置20により撮像される可視光画像Gaが不鮮明になる事象が発生している状況を示す。
 作業機械1の作業において、可視光画像Gaが不鮮明になる事象が発生する可能性がある。図7に示すように、可視光画像Gaが不鮮明になる事象として、作業機械1の作業に起因する粉塵の発生が例示される。図7(A)に示すように、粉塵の少なくとも一部は、可視光撮像装置20と撮像対象との間の空間に発生する可能性がある。図7(B)に示すように、粉塵の少なくとも一部は、赤外線撮像装置30と撮像対象との間の空間に発生する可能性がある。
 可視光は、粉塵を透過することができず、可視光撮像装置20は、粉塵で遮られる撮像対象を撮像することができない。可視光撮像装置20により撮像される第1対象は、粉塵と、撮像対象の一部とを含む。
 赤外線は、粉塵を透過することができ、赤外線撮像装置30は、粉塵で遮られる撮像対象を撮像することができる。赤外線撮像装置30により撮像される第2対象は、粉塵をほぼ含まず、撮像対象を含む。
 上述のように、可視光距離算出部64は、第1可視光カメラ21により撮像された可視光画像Gaと第2可視光カメラ22により撮像された可視光画像Gaとをステレオ処理することにより、可視光撮像装置20から第1対象までの可視光距離Daを算出する。可視光距離算出部64により算出される可視光距離Daは、可視光撮像装置20から粉塵までの可視光距離Daと、可視光撮像装置20から撮像対象までの可視光距離Daとを含む。可視光撮像装置20から粉塵までの可視光距離Daは、可視光撮像装置20から撮像対象までの可視光距離Daよりも短い。
 上述のように、赤外線距離算出部65は、第1赤外線カメラ31により撮像された赤外線画像Gbと第2赤外線カメラ32により撮像された赤外線画像Gbとをステレオ処理することにより、赤外線撮像装置30から第2対象までの赤外線距離Dbを算出する。可視光距離算出部64により算出される赤外線距離Dbは、赤外線撮像装置30から粉塵までの赤外線距離Dbを含まず、赤外線撮像装置30から撮像対象までの赤外線距離Dbを含む。可視光撮像装置20から粉塵までの可視光距離Daは、赤外線撮像装置30から撮像対象までの赤外線距離Dbよりも短い。
 このように、可視光撮像装置20及び赤外線撮像装置30と撮像対象との間の空間に粉塵が存在する場合、可視光距離Daと赤外線距離Dbとに差が生じる可能性がある。判定部66は、可視光距離Daと赤外線距離Dbとの差が距離閾値以上か否かを判定することにより、粉塵の有無を判定することができる。また、判定部66は、相互に対応する第1区画領域Pa及び第2区画領域Pbごとに可視光距離Daと赤外線距離Dbとの差が距離閾値以上か否かを判定することにより、粉塵の位置を特定することができる。
 図8は、実施形態に係る可視光画像Ga及び赤外線画像Gbを説明するための模式図である。図8は、可視光撮像装置20により撮像される可視光画像Gaが不鮮明になる事象が発生しているときに撮像された可視光画像Ga及び赤外線画像Gbを示す。図8(A)は、図7(A)を参照して説明したような粉塵が発生している状況で撮像された可視光画像Gaを示す。図8(B)は、図7(B)を参照して説明したような粉塵が発生している状況で撮像された赤外線画像Gbを示す。
 図8に示すように、粉塵により、可視光撮像装置20により撮像される第1対象と赤外線撮像装置30により撮像される第2対象とは、一致しなくなる可能性がある。可視光撮像装置20により撮像される第1対象は、粉塵と、撮像対象の一部とを含む。赤外線撮像装置30により撮像される第2対象は、粉塵をほぼ含まず、撮像対象を含む。
 図8(A)に示すように、可視光画像Gaには、粉塵に遮られた撮像対象の一部が現れない可能性がある。可視光画像Gaは、粉塵と、撮像対象の一部とを含む。
 図8(B)に示すように、赤外線画像Gbには、粉塵が現れず、撮像対象が現れる。赤外線画像Gbは、粉塵をほぼ含まず、撮像対象を含む。
 合成部67は、可視光距離Daと赤外線距離Dbとの差が距離閾値以上である第2区画領域Pbと可視光画像Gaとを合成して合成画像Gdを生成する。
 実施形態において、可視光距離Daと赤外線距離Dbとの差が距離閾値以上である第2区画領域Pbは、図8(B)の切り取り領域Gcに含まれる複数の第2区画領域Pbである。切り取り領域Gcの第2区画領域Pbは、可視光画像Gaにおいて粉塵が現れている第1区画領域Paに対応する。
 切り取り領域Gcの第2区画領域Pbは、可視光距離Daと赤外線距離Dbとの差が距離閾値以上の第2区画領域Pbである。実施形態において、切り取り領域Gcは、可視光距離Daと赤外線距離Dbとの差が距離閾値以上である複数の第2区画領域Pbの集合体を示す。切り取り領域Gcの外側の第2区画領域Pbは、可視光距離Daと赤外線距離Dbとの差が距離閾値未満の第2区画領域Pbである。
 図9及び図10のそれぞれは、実施形態に係る合成画像Gdの生成方法を説明するための模式図である。
 図9(B)に示すように、合成部67は、赤外線画像Gbから切り取り領域Gcを切り取る。すなわち、合成部67は、可視光距離Daと赤外線距離Dbとの差が距離閾値以上である複数の第2区画領域Pbを赤外線画像Gbから切り取る。
 図9(A)に示すように、合成部67は、可視光画像Gaから切り取り領域Gcに対応する複数の第1区画領域Paを除去する。すなわち、合成部67は、可視光距離Daと赤外線距離Dbとの差が距離閾値以上である複数の第1区画領域Paを可視光画像Gaから除去する。
 切り取り領域Gcに対応する第1区画領域Paは、可視光距離Daと赤外線距離Dbとの差が距離閾値以上の第1区画領域Paである。切り取り領域Gcに対応しない第1区画領域Paは、可視光距離Daと赤外線距離Dbとの差が距離閾値未満の第1区画領域Paである。
 図10に示すように、合成部67は、赤外線画像Gbから切り取った切り取り領域Gcと、切り取り領域Gcに対応する複数の第1区画領域Paが除去された可視光画像Gaとを合成して、合成画像Gdを生成する。合成部67は、可視光距離Daと赤外線距離Dbとの差が距離閾値以上である複数の第2区画領域Pbを含む切り取り領域Gcが切り取り領域Gcに対応する可視光画像Gaの第1区画領域Paに重畳するように、切り取り領域Gcと可視光画像Gaとを合成する。実施形態において、合成部67は、可視光画像Gaにおいて第1区画領域Paが除去された部分に、可視光距離Daと赤外線距離Dbとの差が距離閾値以上である複数の第2区画領域Pbを含む切り取り領域Gcを当て嵌める。
 なお、合成部67は、可視光画像Gaに切り取り領域Gcを当て嵌めた後(重畳させた後)、可視光画像Gaと切り取り領域Gcとの境界をスムージング処理してもよい。
 図10に示すように、合成画像Gdは、可視光距離Daと赤外線距離Dbとの差が距離閾値以上である複数の第2区画領域Pbと、可視光距離Daと赤外線距離Dbとの差が距離閾値未満である複数の第1区画領域Paとを含む。すなわち、合成画像Gdは、可視光画像Gaの一部と赤外線画像Gbの一部とにより構成される。
 目安線生成部68は、赤外線距離算出部65により算出された赤外線距離Dbに基づいて、作業機械1からの距離を示す目安線画像Geを生成する。
 表示出力部69は、合成部67により生成された合成画像Gdが表示装置50に表示されるように、合成画像Gdを表示装置50に出力する。また、表示出力部69は、目安線生成部68により生成された目安線画像Geが表示装置50に表示されるように、目安線画像Geを表示装置50に出力する。
 図11は、実施形態に係る表示装置50に表示される合成画像Gd及び目安線画像Geを示す模式図である。
 合成画像Gdが表示装置50に表示されることにより、粉塵が発生しても、作業機械1の操作者は、表示装置50を確認して、作業機械1の周辺の状況を認識することができる。また、目安線画像Geが表示装置50に表示されることにより、作業機械1の操作者は、表示装置50を確認して、作業機械1から撮像対象(施工対象)までの距離を認識することができる。
[表示方法]
 図12は、実施形態に係る表示方法を示すフローチャートである。
 可視光撮像装置20は、作業機械1の周辺を撮像する。赤外線撮像装置30は、作業機械1の周辺を撮像する。画像出力部304は、通信装置7及び通信システム400を介して、可視光撮像装置20により撮像された可視光画像Gaを示す可視光画像データを制御装置60に送信する。画像出力部304は、通信装置7及び通信システム400を介して、赤外線撮像装置30により撮像された赤外線画像Gbを示す赤外線画像データを制御装置60に送信する。
 可視光画像取得部62は、画像出力部304から送信された可視光画像Gaを取得する(ステップS1)。
 赤外線画像取得部63は、画像出力部304から送信された赤外線画像Gbを取得する(ステップS2)。
 可視光距離算出部64は、第1可視光カメラ21により撮像された可視光画像Gaと第2可視光カメラ22により撮像された可視光画像Gaとをステレオ処理することにより、可視光撮像装置20から第1対象までの距離を示す可視光距離Daを可視光画像Gaに規定された複数の第1区画領域Paごとに算出する(ステップS3)。
 赤外線距離算出部65は、第1赤外線カメラ31により撮像された赤外線画像Gbと第2赤外線カメラ32により撮像された赤外線画像Gbとをステレオ処理することにより、赤外線撮像装置30から第2対象までの距離を示す赤外線距離Dbを赤外線画像Gbに第1区画領域Paに対応するように規定された複数の第2区画領域Pbごとに算出する(ステップS4)。
 判定部66は、相互に対応する第1区画領域Pa及び第2区画領域Pbごとに可視光距離Daと赤外線距離Dbとの差が予め定められている距離閾値以上か否かを判定する。すなわち、判定部66は、相互に対応する第1区画領域Pa及び第2区画領域Pbごとに可視光距離Daと赤外線距離Dbとの差が大きいか否かを判定する。また、判定部66は、可視光距離Daと赤外線距離Dbとの差が距離閾値以上である第2区画領域Pbが存在するか否かを判定する(ステップS5)。
 ステップS5において、可視光距離Daと赤外線距離Dbとの差が距離閾値以上である第2区画領域Pbが存在すると判定した場合、すなわち、可視光距離Daと赤外線距離Dbとの差が大きいと判定した場合(ステップS5:Yes)、判定部66は、可視光距離Daと赤外線距離Dbとの差が距離閾値以上である複数の第2区画領域Pbの集合体を示す切り取り領域Gcが予め定められている領域閾値以上か否かを判定する。すなわち、判定部66は、赤外線画像Gbを占める切り取り領域Gcの大きさ(割合)が大きいか否かを判定する(ステップS6)。
 ステップS6において、切り取り領域Gcが領域閾値以上であると判定された場合(ステップS6:Yes)、すなわち、赤外線画像Gbを占める切り取り領域Gcの大きさが大きいと判定された場合、合成部67は、切り取り領域Gcと可視光画像Gaとを合成して合成画像Gdを生成する(ステップS7)。
 また、目安線生成部68は、赤外線距離算出部65により算出された赤外線距離Dbに基づいて、作業機械1からの距離を示す目安線画像Geを生成する。
 表示出力部69は、合成部67により生成された合成画像Gdが表示装置50に表示されるように、合成画像Gdを表示装置50に出力する。また、表示出力部69は、目安線生成部68により生成された目安線画像Geが表示装置50に表示されるように、目安線画像Geを表示装置50に出力する。これにより、図11に示したように、合成画像Gdと目安線画像Geとが表示装置50に表示される(ステップS8)。
 ステップS5において、可視光距離Daと赤外線距離Dbとの差が距離閾値以上である第2区画領域Pbが存在しないと判定された場合(ステップS5:No)、表示出力部69は、可視光画像Gaが表示装置50に表示されるように、可視光画像Gaを表示装置50に出力する。また、表示出力部69は、目安線生成部68により生成された目安線画像Geが表示装置50に表示されるように、目安線画像Geを表示装置50に出力する。これにより、可視光画像Gaと目安線画像Geとが表示装置50に表示される(ステップS9)。
 ステップS6において、切り取り領域Gcが領域閾値未満であると判定された場合、すなわち、赤外線画像Gbを占める切り取り領域Gcの大きさが小さいと判定された場合(ステップS6:No)、表示出力部69は、可視光画像Gaが表示装置50に表示されるように、可視光画像Gaを表示装置50に出力する。また、表示出力部69は、目安線生成部68により生成された目安線画像Geが表示装置50に表示されるように、目安線画像Geを表示装置50に出力する。これにより、可視光画像Gaと目安線画像Geとが表示装置50に表示される(ステップS9)。
 すなわち、実施形態においては、可視光距離Daと赤外線距離Dbとの差が距離閾値以上である第2区画領域Pbが存在しても、その第2区画領域Pbの数が少ない場合、すなわち、切り取り領域Gcが小さい場合、合成画像Gdは表示装置50に表示されず、可視光画像Gaが表示装置50に表示される。換言すれば、粉塵が発生しても、撮像対象のうち粉塵に遮られる領域が小さい場合、合成画像Gdは表示装置50に表示されず、可視光画像Gaが表示装置50に表示される。
 なお、ステップS6の処理は、無くてもよい。
[コンピュータシステム]
 図13は、実施形態に係るコンピュータシステム1000を示すブロック図である。上述の制御装置60は、コンピュータシステム1000を含む。コンピュータシステム1000は、CPU(Central Processing Unit)のようなプロセッサ1001と、ROM(Read Only Memory)のような不揮発性メモリ及びRAM(Random Access Memory)のような揮発性メモリを含むメインメモリ1002と、ストレージ1003と、入出力回路を含むインターフェース1004とを有する。上述の制御装置60の機能は、コンピュータプログラムとしてストレージ1003に記憶されている。プロセッサ1001は、コンピュータプログラムをストレージ1003から読み出してメインメモリ1002に展開し、プログラムに従って上述の処理を実行する。なお、コンピュータプログラムは、ネットワークを介してコンピュータシステム1000に配信されてもよい。
 コンピュータプログラム又はコンピュータシステム1000は、上述の実施形態に従って、作業機械1の周辺の所定範囲を撮像する可視光撮像装置20により撮像された第1対象の画像を示す可視光画像Gaを取得することと、作業機械1の周辺の所定範囲を撮像する赤外線撮像装置30により撮像された第2対象の画像を示す赤外線画像Gbを取得することと、可視光撮像装置20から第1対象までの距離を示す可視光距離Daを可視光画像Gaに規定された複数の第1区画領域Paごとに算出することと、赤外線撮像装置30から第2対象までの距離を示す赤外線距離Dbを赤外線画像Gbに第1区画領域Paに対応するように規定された複数の第2区画領域Pbごとに算出することと、対応する第1区画領域Pa及び第2区画領域Pbごとに可視光距離Daと赤外線距離Dbとの差が距離閾値以上か否かを判定することと、差が距離閾値以上である第2区画領域Pbと可視光画像Gaとを合成して合成画像Gdを生成することと、合成画像Gdが表示装置50に表示されるように合成画像Gdを出力することと、を実行することができる。
[効果]
 以上説明したように、可視光画像Gaが不鮮明になる事象が発生していない状況においては、ステップS9で説明したように、可視光画像Gaが表示装置50に表示される。可視光画像Gaはカラー画像であり、可視光画像Gaの分解能は赤外線画像Gbの分解能よりも高い。すなわち、可視光画像Gaの視認性は、赤外線画像Gbの視認性よりも優れている。そのため、可視光画像Gaが不鮮明になる事象が発生していない状況においては、表示システム10は、可視光画像Gaを表示装置50に表示する。これにより、表示システム10は、作業機械1の周辺の状況を作業機械1の操作者に提供することができる。
 可視光画像Gaが不鮮明になる事象が発生した状況においては、ステップS8で説明したように、可視光画像Gaと赤外線画像Gbとの合成画像Gdが表示装置50に表示される。可視光画像Gaにおいて不鮮明な一部の領域だけが赤外線画像Gbに置き換わる。上述のように、可視光画像Gaの視認性は優れている。可視光画像Gaの全部の領域が赤外線画像Gbに置き換わるのではなく、可視光画像Gaの不鮮明な一部の領域だけが赤外線画像Gbに置き換わるので、合成画像Gdの視認性は良好な状態を維持される。
 赤外線画像Gbに置き換えられる可視光画像Gaの一部の領域は、可視光距離Daと赤外線距離Dbとの差に基づいて決定される。可視光距離Daと赤外線距離Dbとの差が大きい領域が可視光画像Ga及び赤外線画像Gbに存在する場合、可視光画像Gaと赤外線画像Gbとが合成される。これにより、可視光画像Gaの不鮮明な一部の領域だけが赤外線画像Gbに適正に置き換わる。表示システム10は、作業機械1の周辺の状況を作業機械1の操作者に提供することができる。
[その他の実施形態]
 上述の実施形態においては、可視光撮像装置20により撮像される画像が不鮮明になる事象が、粉塵の発生であることとした。可視光撮像装置20により撮像される画像が不鮮明になる事象として、粉塵の発生の他に、霧の発生、作業機械の作業が夜間に実施されることに起因する可視光の光量不足、及び撮像対象が逆光状態になることが例示される。
 霧の粒子(水滴)が可視光撮像装置20及び赤外線撮像装置30と撮像対象との間の空間に存在する場合、可視光は霧の粒子を透過することが困難であるが、赤外線は霧の粒子を透過することができる。したがって、表示システム10は、上述の実施形態にしたがって合成画像Gdを生成することができる。表示システム10は、可視光撮像装置20により撮像される可視光画像Gaの少なくとも一部が不鮮明になる事象が発生しても、合成画像Gdを表示装置50に表示することにより、作業機械1の周辺の状況を作業機械1の操作者に提供することができる。
 可視光の光量不足の場合、可視光撮像装置20のイメージセンサにおける画素の輝度が過少になる。つまり、所謂、黒つぶれが発生する。その場合、可視光距離算出部64は、第1可視光カメラ21により撮像された可視光画像Gaと第2可視光カメラ22により撮像された可視光画像Gaとをステレオ処理することが困難になる。すなわち、可視光の光量不足の場合、可視光距離算出部64は、可視光距離Daを算出することが困難になる。一方、赤外線距離算出部65は、第1赤外線カメラ31により撮像された赤外線画像Gbと第2赤外線カメラ32により撮像された赤外線画像Gbとをステレオ処理することにより、赤外線距離Dbを算出することができる。可視光の光量不足の場合においても、可視光距離Daと赤外線距離Dbとに差が生じるので、表示システム10は、上述の実施形態にしたがって合成画像Gdを生成することができる。
 撮像対象が逆光状態の場合、可視光撮像装置20のイメージセンサにおける画素の輝度が過剰になる。つまり、所謂、白飛びが発生する。その場合、可視光距離算出部64は、第1可視光カメラ21により撮像された可視光画像Gaと第2可視光カメラ22により撮像された可視光画像Gaとをステレオ処理することが困難になる。すなわち、撮像対象が逆光状態の場合、可視光距離算出部64は、可視光距離Daを算出することが困難になる。一方、赤外線距離算出部65は、第1赤外線カメラ31により撮像された赤外線画像Gbと第2赤外線カメラ32により撮像された赤外線画像Gbとをステレオ処理することにより、赤外線距離Dbを算出することができる。撮像対象が逆光状態の場合においても、可視光距離Daと赤外線距離Dbとに差が生じるので、表示システム10は、上述の実施形態にしたがって合成画像Gdを生成することができる。
 上述の実施形態において、可視光距離算出部64は、第1可視光カメラ21により撮像された可視光画像Gaと第2可視光カメラ22により撮像された可視光画像Gaとをステレオ処理することにより、可視光距離Daを算出することとした。作業機械1にレーザセンサ(LIDAR:Light Detection and Ranging)のような距離検出装置が設けられてもよい。レーザセンサは、可視光の波長範囲であるレーザ光を用いて距離を検出する。可視光距離算出部64は、距離検出装置の検出データに基づいて、可視光撮像装置20から第1対象までの可視光距離Daを可視光画像Gaに規定された複数の第1区画領域Paごとに算出することができる。距離検出装置が設けられる場合、可視光撮像装置20の第1可視光カメラ21及び第2可視光カメラ22の一方が省略されてもよい。
 上述の実施形態において、1つの第1区画領域Paは、可視光画像Gaの1つの画素でもよいし、複数の画素の組み合わせでもよい。1つの第2区画領域Pbは、赤外線画像Gbの1つの画素でもよいし、複数の画素の組み合わせでもよい。また、第1区画領域Paは、可視光画像Gaの画素に基づかずに規定されてもよい。第2区画領域Pbは、赤外線画像Gbの画素に基づかずに規定されてもよい。複数の第1区画領域Paと複数の第2区画領域Pbとが1対1で対応していればよい。
 上述の実施形態においては、表示システム10が遠隔操作システム100に適用されることとした。表示装置50は、遠隔操作室200に配置されなくてもよい。表示装置50は、作業機械1の操作室(キャブ)に配置されてもよい。また、上述の実施形態で説明した制御装置60の一部の機能が作業機械1に配置されてもよい。作業機械1の操作室に搭乗した操作者は、作業機械1の操作室に配置されている表示装置50を確認しながら、作業機械1の操作室に配置されている搭乗操作装置を操作することができる。この場合においても、表示システム10は、可視光撮像装置20により撮像される可視光画像Gaが不鮮明になる事象が発生しても、作業機械1の周辺の状況を作業機械1の操作者に提供することができる。
 上述の実施形態においては、作業機械1が油圧ショベルであることとした。作業機械1は、ブルドーザでもよいし、ホイールローダでもよいし、ダンプトラックでもよい。
 1…作業機械、2…走行体、3…旋回体、4…作業機、4A…ブーム、4B…アーム、4C…バケット、5…油圧シリンダ、5A…ブームシリンダ、5B…アームシリンダ、5C…バケットシリンダ、6…通信装置、7…通信装置、10…表示システム、20…可視光撮像装置、21…第1可視光カメラ、22…第2可視光カメラ、30…赤外線撮像装置、31…第1赤外線カメラ、32…第2赤外線カメラ、40…遠隔操作装置、45…操縦シート、50…表示装置、60…制御装置、61…操作信号出力部、62…可視光画像取得部、63…赤外線画像取得部、64…可視光距離算出部、65…赤外線距離算出部、66…判定部、67…合成部、68…目安線生成部、69…表示出力部、100…遠隔操作システム、200…遠隔操作室、300…制御装置、301…走行体制御部、302…旋回体制御部、303…作業機制御部、304…画像出力部、400…通信システム、Da…可視光距離、Db…赤外線距離、Ga…可視光画像、Gb…赤外線画像、Gc…切り取り領域、Gd…合成画像、Ge…目安線画像、Pa…第1区画領域、Pb…第2区画領域、RX…旋回軸。

Claims (7)

  1.  作業機械に設けられた可視光撮像装置により撮像された第1対象の画像を示す可視光画像を取得する可視光画像取得部と、
     前記作業機械に設けられた赤外線撮像装置により撮像された第2対象の画像を示す赤外線画像を取得する赤外線画像取得部と、
     前記可視光撮像装置から前記第1対象までの距離を示す可視光距離を前記可視光画像に規定された複数の第1区画領域ごとに算出する可視光距離算出部と、
     前記赤外線撮像装置から前記第2対象までの距離を示す赤外線距離を前記赤外線画像に前記第1区画領域に対応するように規定された複数の第2区画領域ごとに算出する赤外線距離算出部と、
     対応する前記第1区画領域及び前記第2区画領域ごとに前記可視光距離と前記赤外線距離との差が距離閾値以上か否かを判定する判定部と、
     前記差が距離閾値以上である前記第2区画領域と前記可視光画像とを合成して合成画像を生成する合成部と、
     前記合成画像が表示装置に表示されるように前記合成画像を出力する表示出力部と、を備える、
     表示システム。
  2.  前記合成部は、前記差が距離閾値以上である前記第2区画領域が前記第2区画領域に対応する前記可視光画像の前記第1区画領域に重畳するように、前記第2区画領域と前記可視光画像とを合成する、
     請求項1に記載の表示システム。
  3.  前記合成画像は、前記差が距離閾値以上である前記第2区画領域と前記差が距離閾値未満である前記第1区画領域とを含む、
     請求項1又は請求項2に記載の表示システム。
  4.  前記可視光撮像装置は、第1可視光カメラと、第2可視光カメラと、を含み、
     前記可視光距離算出部は、前記第1可視光カメラにより撮像された可視光画像と前記第2可視光カメラにより撮像された可視光画像とをステレオ処理することにより、前記可視光距離を算出する、
     請求項1から請求項3のいずれか一項に記載の表示システム。
  5.  前記赤外線撮像装置は、第1赤外線カメラと、第2赤外線カメラと、を含み、
     前記赤外線距離算出部は、前記第1赤外線カメラにより撮像された赤外線画像と前記第2赤外線カメラにより撮像された赤外線画像とをステレオ処理することにより、前記赤外線距離を算出する、
     請求項1から請求項4のいずれか一項に記載の表示システム。
  6.  前記赤外線距離に基づいて前記作業機械からの距離を示す目安線画像を生成する目安線生成部を備え、
     前記表示出力部は、前記目安線画像が前記表示装置に表示されるように前記目安線画像を出力する、
     請求項1から請求項5のいずれか一項に記載の表示システム。
  7.  作業機械に設けられた可視光撮像装置により撮像された第1対象の画像を示す可視光画像を取得することと、
     前記作業機械に設けられた赤外線撮像装置により撮像された第2対象の画像を示す赤外線画像を取得することと、
     前記可視光撮像装置から前記第1対象までの距離を示す可視光距離を前記可視光画像に規定された複数の第1区画領域ごとに算出することと、
     前記赤外線撮像装置から前記第2対象までの距離を示す赤外線距離を前記赤外線画像に前記第1区画領域に対応するように規定された複数の第2区画領域ごとに算出することと、
     対応する前記第1区画領域及び前記第2区画領域ごとに前記可視光距離と前記赤外線距離との差が距離閾値以上か否かを判定することと、
     前記差が距離閾値以上である前記第2区画領域と前記可視光画像とを合成して合成画像を生成することと、
     前記合成画像が表示装置に表示されるように前記合成画像を出力することと、を含む、
     表示方法。
PCT/JP2022/000500 2021-01-29 2022-01-11 表示システム及び表示方法 WO2022163337A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
AU2022214854A AU2022214854A1 (en) 2021-01-29 2022-01-11 Display system and display method
CA3203152A CA3203152A1 (en) 2021-01-29 2022-01-11 Display system and display method
US18/039,591 US20240015374A1 (en) 2021-01-29 2022-01-11 Display system and display method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021013735A JP2022117174A (ja) 2021-01-29 2021-01-29 表示システム及び表示方法
JP2021-013735 2021-01-29

Publications (1)

Publication Number Publication Date
WO2022163337A1 true WO2022163337A1 (ja) 2022-08-04

Family

ID=82653264

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/000500 WO2022163337A1 (ja) 2021-01-29 2022-01-11 表示システム及び表示方法

Country Status (5)

Country Link
US (1) US20240015374A1 (ja)
JP (1) JP2022117174A (ja)
AU (1) AU2022214854A1 (ja)
CA (1) CA3203152A1 (ja)
WO (1) WO2022163337A1 (ja)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0937147A (ja) * 1995-07-19 1997-02-07 Honda Motor Co Ltd 視覚装置
JP2008230358A (ja) * 2007-03-19 2008-10-02 Honda Motor Co Ltd 表示装置
JP2009174854A (ja) * 2006-05-09 2009-08-06 Panasonic Corp 測距用画像選択機能を有する測距装置
JP2012027773A (ja) * 2010-07-26 2012-02-09 Toyota Central R&D Labs Inc 擬似濃淡画像生成装置及びプログラム
WO2012073722A1 (ja) * 2010-12-01 2012-06-07 コニカミノルタホールディングス株式会社 画像合成装置
US20140368640A1 (en) * 2012-02-29 2014-12-18 Flir Systems Ab Method and system for performing alignment of a projection image to detected infrared (ir) radiation information
CN104537786A (zh) * 2014-11-10 2015-04-22 国家电网公司 用于变电站的红外远程影像识别报警装置
CN106683039A (zh) * 2016-11-21 2017-05-17 云南电网有限责任公司电力科学研究院 一种生成火情态势图的系统
US20200300087A1 (en) * 2019-03-20 2020-09-24 Joy Global Underground Mining Llc Systems and methods for controlling a longwall mining system based on a forward-looking mine profile

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0937147A (ja) * 1995-07-19 1997-02-07 Honda Motor Co Ltd 視覚装置
JP2009174854A (ja) * 2006-05-09 2009-08-06 Panasonic Corp 測距用画像選択機能を有する測距装置
JP2008230358A (ja) * 2007-03-19 2008-10-02 Honda Motor Co Ltd 表示装置
JP2012027773A (ja) * 2010-07-26 2012-02-09 Toyota Central R&D Labs Inc 擬似濃淡画像生成装置及びプログラム
WO2012073722A1 (ja) * 2010-12-01 2012-06-07 コニカミノルタホールディングス株式会社 画像合成装置
US20140368640A1 (en) * 2012-02-29 2014-12-18 Flir Systems Ab Method and system for performing alignment of a projection image to detected infrared (ir) radiation information
CN104537786A (zh) * 2014-11-10 2015-04-22 国家电网公司 用于变电站的红外远程影像识别报警装置
CN106683039A (zh) * 2016-11-21 2017-05-17 云南电网有限责任公司电力科学研究院 一种生成火情态势图的系统
US20200300087A1 (en) * 2019-03-20 2020-09-24 Joy Global Underground Mining Llc Systems and methods for controlling a longwall mining system based on a forward-looking mine profile

Also Published As

Publication number Publication date
CA3203152A1 (en) 2022-08-04
US20240015374A1 (en) 2024-01-11
AU2022214854A1 (en) 2023-06-29
JP2022117174A (ja) 2022-08-10

Similar Documents

Publication Publication Date Title
JP7108750B2 (ja) システムおよび方法
US10650251B2 (en) Monitoring image display device of industrial machine
AU2013293921B2 (en) Environment monitoring device for operating machinery
JP5888956B2 (ja) ショベル及び該ショベルの周囲画像表示方法
US9836938B2 (en) Shovel having audio output device installed in cab
US11447928B2 (en) Display system, display method, and remote control system
EP3666977B1 (en) Road machine
CA2815822C (en) Dump truck
US20150009329A1 (en) Device for monitoring surroundings of machinery
KR101752613B1 (ko) 작업 기계의 주변 감시 장치
US10621743B2 (en) Processing-target image creating device, processing-target image creating method, and operation assisting system
US20190199940A1 (en) Image display apparatus
JP2013253402A (ja) 作業機械の周囲監視装置
WO2019189633A1 (ja) 道路機械
WO2023085311A1 (ja) 表示システム及び表示方法
WO2022163337A1 (ja) 表示システム及び表示方法
KR20210034449A (ko) 건설장비용 전방 영상 생성 장치
JP2016065449A (ja) ショベル
JP7351478B2 (ja) 表示システム、遠隔操作システム、及び表示方法
US11949845B2 (en) Dynamic visual overlay for enhanced terrain perception on remote control construction equipment
KR102671221B1 (ko) 화상 처리 장치, 카메라 시스템 및 화상 처리 방법
JP7178334B2 (ja) ショベル及びショベルの表示装置
JP7009327B2 (ja) ショベル
JP5964353B2 (ja) ダンプトラック
JP2023169512A (ja) 監視システム、監視システムの制御方法およびプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22745562

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 3203152

Country of ref document: CA

WWE Wipo information: entry into national phase

Ref document number: 18039591

Country of ref document: US

ENP Entry into the national phase

Ref document number: 2022214854

Country of ref document: AU

Date of ref document: 20220111

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 22745562

Country of ref document: EP

Kind code of ref document: A1