JP2021022827A - 表示システム、遠隔操作システム、及び表示方法 - Google Patents

表示システム、遠隔操作システム、及び表示方法 Download PDF

Info

Publication number
JP2021022827A
JP2021022827A JP2019138122A JP2019138122A JP2021022827A JP 2021022827 A JP2021022827 A JP 2021022827A JP 2019138122 A JP2019138122 A JP 2019138122A JP 2019138122 A JP2019138122 A JP 2019138122A JP 2021022827 A JP2021022827 A JP 2021022827A
Authority
JP
Japan
Prior art keywords
image
brightness
viewpoint position
display
viewpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019138122A
Other languages
English (en)
Other versions
JP7351478B2 (ja
Inventor
陽二郎 大畠
Yojiro Ohata
陽二郎 大畠
前田 太郎
Taro Maeda
太郎 前田
正紘 古川
Masahiro Furukawa
正紘 古川
大祐 近藤
Daisuke Kondo
大祐 近藤
正崇 黒川
Masataka KUROKAWA
正崇 黒川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Komatsu Ltd
Osaka University NUC
Original Assignee
Komatsu Ltd
Osaka University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Komatsu Ltd, Osaka University NUC filed Critical Komatsu Ltd
Priority to JP2019138122A priority Critical patent/JP7351478B2/ja
Priority to PCT/JP2020/028501 priority patent/WO2021020292A1/ja
Priority to AU2020322381A priority patent/AU2020322381B2/en
Priority to US17/629,496 priority patent/US11939744B2/en
Publication of JP2021022827A publication Critical patent/JP2021022827A/ja
Application granted granted Critical
Publication of JP7351478B2 publication Critical patent/JP7351478B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F9/00Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
    • E02F9/20Drives; Control devices
    • E02F9/2025Particular purposes of control systems not otherwise provided for
    • E02F9/205Remotely operated machines, e.g. unmanned vehicles
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F9/00Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
    • E02F9/26Indicating devices
    • E02F9/261Surveying the work-site to be treated
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/10Intensity circuits
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/377Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3182Colour adjustment, e.g. white balance, shading or gamut
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Hardware Design (AREA)
  • Structural Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Civil Engineering (AREA)
  • Mining & Mineral Resources (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】限られた回線容量でも、作業機械を遠隔操作する作業者に作業現場の遠近感を効果的に知覚させること。【解決手段】表示システムは、第1カメラで撮像された作業現場の第1画像及び第2カメラで撮像された作業現場の第2画像のそれぞれを取得する画像取得部と、作業者の視点位置を算出する視点位置算出部と、視点位置に基づいて、第1画像及び第2画像の少なくとも一方の輝度を調整する輝度調整部と、輝度が調整された第1画像及び第2画像を合成して表示装置に表示させる表示制御部と、を備える。【選択図】図4

Description

本発明は、表示システム、遠隔操作システム、及び表示方法に関する。
作業機械を無人化する方法の一つとして作業機械を遠隔操作する方法が提案されている。作業機械を遠隔操作する場合、作業現場の画像が遠隔地に存在する表示装置に送信される。作業者は、表示装置に表示された作業現場の画像を確認しながら作業機械を遠隔操作する。特許文献1には、作業現場を撮像するTVカメラと、作業者の頭部の位置を検出する頭部位置検出センサと、TVカメラの撮像方向が頭部位置検出センサの検出結果に対応する方向となるようにTVカメラの向きを制御するアクチュエータと、撮像信号から画像光波を作成してスクリーンに投影するプロジェクタとを備えるテレオペレーティングシステムが開示されている。
特開平06−339153号公報
作業現場の2次元画像が表示装置に表示される場合、作業者は作業現場の遠近感を知覚し難い。その結果、作業者は遠隔操作を円滑に実施することができず、作業機械の作業効率が低下する可能性がある。頭部位置検出センサの検出信号が遠隔地から作業現場のアクチュエータに送信され、作業者の頭部に連動してカメラが移動するようにアクチュエータが駆動し、カメラで取得された画像が作業現場から遠隔地の表示装置に送信されることにより、表示装置に表示される画像の視点が作業者の頭部に連動して移動する。これにより、視点の移動に連動した運動視差が作業者に提示され、作業者は、運動立体視により遠近感を知覚することができ、遠隔操作を円滑に実施し易くなる。
しかし、遠隔地から作業現場に送信される検出信号の通信遅延又は作業現場から遠隔地に送信される画像の通信遅延などに起因して、表示装置に表示される画像の視点の移動が作業者の頭部の移動に対して遅延する可能性がある。その結果、視点に正しく対応した運動視差を提示し難くなり、作業者は運動立体視による遠近感を知覚し難くなる。
一方、多数の視点に相当する多数のカメラからの画像が遠隔地の表示装置に送信されることにより、作業者は、遠近感を知覚することができる可能性が高くなるものの、多数のカメラからの大容量の画像を送信する回線容量を確保することは困難である。
本発明の態様は、限られた回線容量でも、作業機械を遠隔操作する作業者に作業現場の遠近感を効果的に知覚させることを目的とする。
本発明の態様に従えば、第1カメラで撮像された作業現場の第1画像及び第2カメラで撮像された前記作業現場の第2画像のそれぞれを取得する画像取得部と、作業者の視点位置を算出する視点位置算出部と、前記視点位置に基づいて、前記第1画像及び前記第2画像の少なくとも一方の輝度を調整する輝度調整部と、前記輝度が調整された前記第1画像及び前記第2画像を合成して表示装置に表示させる表示制御部と、を備える、表示システムが提供される。
本発明の態様によれば、限られた回線容量でも、作業機械を遠隔操作する作業者に作業現場の遠近感を効果的に知覚させることができる。
図1は、本実施形態に係る作業機械の遠隔操作システムを模式的に示す図である。 図2は、本実施形態に係る作業機械の一部を模式的に示す図である。 図3は、本実施形態に係る遠隔操作施設を模式的に示す図である。 図4は、本実施形態に係る表示システムを示す機能ブロック図である。 図5は、本実施形態に係る輝度調整部の動作を説明するための図である。 図6は、本実施形態に係る表示制御部の動作を説明するための図である。 図7は、本実施形態に係る表示制御部の動作を説明するための図である。 図8は、本実施形態に係る表示制御部の動作を説明するための図である。 図9は、本実施形態に係る表示システムの表示方法を示すフローチャートである。 図10は、本実施形態に係るコンピュータシステムを示すブロック図である。 図11は、本実施形態に係る輝度調整部の動作を説明するための図である。
以下、本発明に係る実施形態について図面を参照しながら説明するが、本発明はこれに限定されない。以下で説明する実施形態の構成要素は適宜組み合わせることができる。また、一部の構成要素を用いない場合もある。
[遠隔操作システム]
図1は、本実施形態に係る作業機械1の遠隔操作システム100を模式的に示す図である。図2は、本実施形態に係る作業機械1の一部を模式的に示す図である。本実施形態においては、作業機械1が油圧ショベルであることとする。以下の説明においては、作業機械1を適宜、油圧ショベル1、と称する。
油圧ショベル1は、作業現場で作業する。油圧ショベル1は、作業機2と、運転台4を有する旋回体3と、旋回体3を旋回可能に支持する走行体5と、制御装置300とを備える。
作業機2は、旋回体3に連結されるブーム6と、ブーム6に連結されるアーム7と、アーム7に連結されるバケット8と、ブーム6を駆動するブームシリンダ10と、アーム7を駆動するアームシリンダ11と、バケット8を駆動するバケットシリンダ12とを有する。ブームシリンダ10、アームシリンダ11、及びバケットシリンダ12のそれぞれは、油圧により駆動される油圧シリンダである。
走行体5は、履帯を有する。履帯が回転することにより、油圧ショベル1が走行する。
制御装置300は、油圧ショベル1を制御する制御信号を出力する。制御装置300は、コンピュータシステムを含む。
遠隔操作システム100は、作業現場を撮像する撮像装置30と、作業現場に係る画像を遠隔操作施設において表示させる表示システム200と、遠隔操作施設に設けられる遠隔操作装置40とを備える。遠隔操作施設は、作業現場の遠隔地に設けられる。
撮像装置30は、油圧ショベル1に設けられる。撮像装置30は、対象物が撮像できる位置に設置すればよく、運転台以外に設置してもよい。運転台のないキャブレスの車両においては、撮像装置30は、対象物が撮像できる位置にカメラを設置すればよい。撮像装置30は、第1カメラ31及び第2カメラ32を有する。第1カメラ31及び第2カメラ32のそれぞれは、ビデオカメラであり、作業現場を撮像する。第1カメラ31及び第2カメラ32は、ステレオカメラでもよい。第1カメラ31及び第2カメラ32のそれぞれは、光学系と、光学系を通過した光を受光するイメージセンサとを有する。イメージセンサは、CCD(Couple Charged Device)イメージセンサ又はCMOS(Complementary Metal Oxide Semiconductor)イメージセンサを含む。
図2に示すように、第1カメラ31及び第2カメラ32のそれぞれは、旋回体3の運転台4に固定される。
旋回体3に3次元の車体座標系(Xm、Ym、Zm)が規定される。Xm軸方向は、旋回体3の前後方向である。Ym軸方向は、旋回体3の車幅方向である。Zm軸方向は、旋回体3の上下方向である。第1カメラ31と第2カメラ32とは、旋回体3の所定方向に配置される。第1カメラ31と第2カメラ32とは、旋回体3の車幅方向(Ym軸方向)に配置される。第1カメラ31と第2カメラ32とは、旋回体3の高さ方向である上下方向(Zm軸方向)や、視軸方向である前後方向(Xm軸方向)に配置してもよい。第1カメラ31の光学系の視野領域と第2カメラ32の光学系の視野領域の少なくとも一部とは、重複する。
第1カメラ31及び第2カメラ32のそれぞれは、旋回体3の前方に存在する作業現場の対象物を撮像する。
撮像装置30により撮像される対象物は、作業現場において施工される施工対象を含む。施工対象は、油圧ショベル1の作業機2で掘削される掘削対象を含む。なお、施工対象は、油圧ショベル1とは別の作業機械により施工される施工対象でもよいし、作業者により施工される施工対象でもよい。また、施工対象は、施工前の施工対象、施工中の施工対象、及び施工後の施工対象を含む概念である。
また、撮像装置30により撮像される対象物は、油圧ショベル1の少なくとも一部を含む。撮像装置30により撮像される対象物は、例えば作業機2、旋回体3、及び走行体5の少なくとも一つを含む。対象物である作業機2は、掘削している状態の作業機2でもよいし、掘削していない状態の作業機2でもよい。対象物である旋回体3は、旋回している状態の旋回体3でもよいし、旋回していない状態の旋回体3でもよい。対象物である走行体5は、走行している状態の走行体5でもよいし、走行していない状態の走行体5でもよい。また、撮像装置30により撮像される対象物は、遠隔操作される油圧ショベル1の周囲に配置される作業機械でもよい。撮像装置30により撮像される対象物は、遠隔操作される油圧ショベル1とは別の油圧ショベルでもよいし、ダンプトラックでもよい。
以下の説明においては、第1カメラ31で撮像された作業現場の画像を適宜、第1画像M1、と称し、第2カメラ32で撮像された作業現場の画像を適宜、第2画像M2、と称する。
表示システム200は、油圧ショベル1の外部に配置される表示装置50と、油圧ショベル1の外部に配置される処理装置60とを備える。表示システム200は、さらに撮像装置30を含んでもよい。表示装置50及び処理装置60のそれぞれは、油圧ショベル1とは別体である。表示装置50及び処理装置60のそれぞれは、例えば遠隔操作施設に設けられる。
表示装置50として、液晶ディスプレイ(LCD:Liquid Crystal Display)又は有機ELディスプレイ(OELD:Organic Electroluminescence Display)のようなフラットパネルディスプレイが例示される。処理装置60は、コンピュータシステムを含む。
遠隔操作装置40は、油圧ショベル1の外部に配置される。遠隔操作装置40は、油圧ショベル1とは別体である。遠隔操作装置40は、油圧ショベル1の作業機2及び旋回体3を遠隔操作する作業レバー及び走行体5を遠隔操作する走行レバーを含む。作業者は、遠隔操作施設において遠隔操作装置40を操作する。
処理装置60は、通信システム400を介して油圧ショベル1の制御装置300と通信可能である。通信システム400は、油圧ショベル1に搭載される無線通信機401を有する。通信システム400は、インターネット(internet)、ローカルエリアネットワーク(LAN:Local Area Network)、携帯電話通信網、及び衛星通信網の少なくとも一つを含む。
遠隔操作装置40が操作されることにより生成された操作信号は、通信システム400を介して制御装置300に送信される。制御装置300は、取得した操作信号に基づいて、作業機2、旋回体3、及び走行体5を制御する制御信号を出力する。これにより、油圧ショベル1が遠隔操作される。
第1カメラ31で撮像された作業現場の第1画像M1及び第2カメラ32で撮像された作業現場の第2画像M2のそれぞれは、通信システム400を介して処理装置60に送信される。処理装置60は、第1画像M1及び第2画像M2を画像処理して、所定の画像を表示装置50に表示させる。
[遠隔操作施設]
図3は、本実施形態に係る遠隔操作施設を模式的に示す図である。図3に示すように、遠隔操作システム100は、作業者の頭部の位置及び姿勢を検出する頭部位置センサ41と、作業者の頭部に装着されるキャップ42と、作業者が着座する操縦席43と、遠隔操作装置40と、表示装置50と、処理装置60とを有する。頭部位置センサ41、キャップ42、操縦席43、遠隔操作装置40、表示装置50、及び処理装置60のそれぞれは、例えば油圧ショベル1の外部の遠隔操作施設に設けられる。
頭部位置センサ41は、作業者の頭部の位置及び姿勢を検出する。キャップ42が作業者の頭部に装着される。キャップ42に頭部マーカが設けられる。頭部位置センサ41は、キャップ42の頭部マーカを光学的に検出して、作業者の頭部の位置及び姿勢を検出する。
頭部位置センサ41は、油圧ショベル1の外部において作業者の視点位置を検出する視点位置センサとして機能する。視点位置は、頭部の位置及び姿勢から従属的に決定される。頭部と視点との相対位置は既知データである。そのため、作業者の頭部の位置及び姿勢が検出されることにより、作業者の視点位置が検出される。
作業者は、表示装置50の表示画面と正対するように操縦席43に着座する。作業者は、表示装置50の表示画面を確認しながら、遠隔操作装置40を操作する。頭部位置センサ41は、操縦席に着座している作業者の頭部の位置及び姿勢を検出する。
頭部位置センサ41に3次元のローカル座標系(Xr、Yr、Zr)が規定される。車体座標系の位置を規定の変換式又は変換行列でローカル座標系の位置に変換した場合、Xm軸方向の位置はXr軸方向の位置に変換され、Ym軸方向の位置はYr軸方向の位置に変換され、Zm軸方向の位置はZr軸方向の位置に変換される。すなわち、ローカル座標系のXr軸は、車体座標系のXm軸に対応し、同様に、Yr軸はYm軸に、Zr軸はZm軸に対応する。Xr軸方向は、操縦席43に着座した作業者の前後方向である。Yr軸方向は、操縦席43に着座した作業者の左右方向である。Zr軸方向は、操縦席43に着座した作業者の上下方向である。Yr軸方向は、表示装置50の表示画面の横方向に相当する。
[表示システム]
図4は、本実施形態に係る表示システム200を示す機能ブロック図である。図4に示すように、表示システム200は、頭部位置センサ41と、表示装置50と、制御装置60とを有する。
撮像装置30の第1カメラ31は、作業現場を撮像して、作業現場の第1画像M1を取得する。撮像装置30の第2カメラ32は、作業現場を撮像して、作業現場の第2画像M2を取得する。第1カメラ31で取得された第1画像M1及び第2カメラ32で取得された第2画像M2は、通信システム400を介して処理装置60に送信される。頭部位置センサ41の検出データは、処理装置60に出力される。
処理装置60は、画像取得部61と、視点位置算出部62と、輝度調整部63と、表示制御部64と、記憶部65とを有する。
画像取得部61は、第1カメラ31で撮像された作業現場の第1画像M1及び第2カメラ32で撮像された作業現場の第2画像M2のそれぞれを、通信システム400を介して取得する。
視点位置算出部62は、頭部位置センサ41の検出データに基づいて、作業者の視点位置を算出する。頭部位置センサ41は、作業者の頭部の位置及び姿勢を逐次取得する。作業者の視点位置は逐次変化する。視点位置は、頭部の位置及び姿勢から従属的に決定される。頭部と視点との相対位置は既知データであり、記憶部65に記憶されている。視点位置算出部62は、頭部位置センサ41の検出データと記憶部65に記憶されている既知データとに基づいて、作業者の視点位置を算出することができる。
輝度調整部63は、視点位置算出部62により算出された作業者の視点位置に基づいて、第1画像M1及び第2画像M2の少なくとも一方の輝度を調整する。
図5は、本実施形態に係る輝度調整部63の動作を説明するための図である。作業者が頭部を動かすことにより、作業者の視点位置が変化する。
本実施形態において、視点位置は、第1位置R1と第2位置R2との間を移動することとする。第1位置R1と第2位置R2とは、旋回体3のYm軸方向(車幅方向)に対応するYr軸方向に配置される。Ym軸方向に対応するYr軸方向とは、規定の変換式又は変換行列で車体座標系をローカル座標系に変換した場合、Ym軸方向を変換した後のYr軸方向をいう。上述のように、Yr軸方向は、操縦席43に着座した作業者の左右方向であり、表示装置50の表示画面の横方向に相当する。なお、Xr軸方向の頭部運動に対応したXm軸方向について、さらに第3カメラ、第4カメラなど複数のカメラを設置し、同様の変換を成立させてもよい。
図2に示したように、第2カメラ32は、第1カメラ31よりも+Ym側に配置される。図5に示すように、第2位置R2は、第1位置R1よりも+Yr側に配置される。車体座標系における第1カメラ31と第2カメラ32との相対位置と、ローカル座標系における第1位置R1と第2位置R2との相対位置とは、一致する。
例えば、車体座標系の第1カメラ31の位置は、ローカル座標系の第1位置R1に変換される。車体座標系の第2カメラ32の位置は、ローカル座標系の第2位置R2に変換される。なお、車体座標系における第1カメラ31と第2カメラ32との相対位置と、ローカル座標系における第1位置R1と第2位置R2との相対位置とが一致していればよく、第1カメラ31の位置が第1位置R1とは異なる位置に変換されてもよいし、第2カメラ32の位置が第2位置R2とは異なる位置に変換されてもよい。
図5において、ラインML1は、Yr軸方向の視点位置と第1画像M1の輝度L1との関係を示す。ラインML2は、Yr軸方向の視点位置と第2画像M2の輝度L2との関係を示す。ラインML1で示すように、輝度調整部63は、Yr軸方向の視点位置に基づいて、第1画像M1の輝度L1を調整する。また、ラインML2で示すように、輝度調整部63は、Yr軸方向の視点位置に基づいて、第2画像M2の輝度L2を調整する。
輝度調整部63は、視点位置が第1位置R1にあるときに第1画像M1の輝度L1が第2画像M2の輝度L2よりも高くなり、視点位置が第2位置R2にあるときに第2画像M2の輝度L2が第1画像M1の輝度L1よりも高くなるように、輝度L1及び輝度L2を調整する。
輝度調整部63は、視点位置が第1位置R1に近いほど第1画像M1の輝度L1が高くなり、視点位置が第2位置R2に近いほど第2画像M2の輝度L2が高くなるように調整する。また、輝度調整部63は、視点位置が第1位置R1に近いほど第2画像R2の輝度L2が低くなり、視点位置が第2位置R2に近いほど第1画像M1の輝度L1が低くなるように、輝度L1及び輝度L2を調整する。
すなわち、輝度調整部63は、視点位置が第1位置R1に近いほど第1画像M1の輝度L1が第2画像M2の輝度L2よりも高くなり、視点位置が第2位置R2に近いほど第2画像M2の輝度L2が第1画像M1の輝度L1よりも高くなるように、輝度L1及び輝度L2を調整する。
本実施形態において、輝度調整部63は、視点位置が第1位置R1と第2位置R2との中心位置Rmよりも第1位置R1に近いときに第1画像M1の輝度L1が第2画像M2の輝度L2よりも高くなり、視点位置が中心位置Rmよりも第2位置M2に近いときに第2画像M2の輝度L2が第1画像M1の輝度L1よりも高くなるように、輝度L1及び輝度L2を調整する。
また、輝度調整部63は、視点位置が第1位置R1にあるときに第1画像M1の輝度L1が規定値MAになり第2画像M2の輝度L2がゼロになるように、輝度L1及び輝度L2を調整する。また、輝度調整部63は、視点位置が第2位置R2にあるときに第2画像M2の輝度L2が規定値MAになり第1画像M1の輝度L1がゼロになるように、輝度L1及び輝度L2を調整する。すなわち、輝度調整部63は、視点位置が第1位置R1にあるときに、[輝度L1:輝度L2=1:0]になり、視点位置が第2位置R2にあるときに、[輝度L1:輝度L2=0:1]になるように、輝度L1及び輝度L2を調整する。
また、輝度調整部63は、視点位置が中心位置Rmにあるときに第1画像M1の輝度L1が規定値MAの半分になり第2画像M2の輝度L2が規定値MAの半分になるように、輝度L1及び輝度L2を調整する。すなわち、輝度調整部63は、視点位置が中心位置Rmにあるときに、[輝度L1:輝度L2=1:1]になるように、輝度L1及び輝度L2を調整する。
ラインML1の傾きとラインML2の傾きとは等しい。ラインML1の傾きとは、第1位置R1から視点位置までの距離に対する輝度L1の変化率をいい、ラインML2の傾きとは、第2位置R2から視点位置までの距離に対する輝度L2の変化率をいう。
表示制御部64は、輝度調整部63により輝度が調整された第1画像M1及び第2画像M2を合成して表示装置50に表示させる。
図6、図7、及び図8のそれぞれは、本実施形態に係る表示制御部64の動作を説明するための図である。図6は、視点位置が第1位置R1にあるときに表示装置50に表示される画像を示す。図7は、視点位置が中心位置Rmにあるときに表示装置50に表示される画像を示す。図8は、視点位置が第2位置R2にあるときに表示装置50に表示される画像を示す。
図6に示すように、表示制御部64は、視点位置が第1位置R1にあるとき、輝度L1が規定値MAである第1画像M1のみを表示装置50に表示させる。
図7に示すように、表示制御部64は、視点位置が中心位置Rmにあるとき、輝度L1が[0.5×MA]である第1画像M1と輝度L2が[0.5×MA]である第2画像M2とを重畳させて表示装置50に表示させる。
図8に示すように、表示制御部64は、視点位置が第2位置R2にあるとき、輝度L2が規定値MAである第2画像M2のみを表示装置50に表示させる。
[表示方法]
図9は、本実施形態に係る表示システム200の表示方法を示すフローチャートである。第1カメラ31及び第2カメラ32は、作業現場を撮像する。制御装置300は、第1カメラ31で撮像された作業現場の第1画像M1及び第2カメラ32で撮像された作業現場の第2画像M2のそれぞれを、通信システム400を介して処理装置60に送信する。処理装置60の画像取得部61は、第1カメラ61で撮像された作業現場の第1画像M1及び第2カメラ32で撮像された作業現場の第2画像M2のそれぞれを取得する(ステップS1)。
頭部位置センサ41は、作業者の頭部の位置及び姿勢を検出する。頭部位置センサ41の検出データは、視点位置算出部62に出力される。視点位置算出部62は、頭部位置センサ41の検出データと記憶部65に記憶されている頭部と視点との相対位置を示す既知データとに基づいて、作業者の視点位置を算出する(ステップS2)。
輝度調整部63は、視点位置算出部62により算出された作業者の視点位置に基づいて、第1画像M1の輝度L1及び第2画像M2の輝度L2を調整する(ステップS3)。
図5を参照して説明したように、輝度調整部63は、視点位置が第1位置R1にあるときに第1画像M1の輝度L1が第2画像M2の輝度L2よりも高くなり、視点位置が第2位置R2にあるときに第2画像M2の輝度L1が第1画像M1の輝度L1よりも高くなるように、輝度L1及び輝度L2を調整する。
表示制御部64は、輝度調整部63により輝度L1が調整された第1画像M1及び輝度L2が調整された第2画像M2を合成して表示装置50に表示させる(ステップS4)。
[コンピュータシステム]
図10は、本実施形態に係るコンピュータシステム1000を示すブロック図である。上述の処理装置60は、コンピュータシステム1000を含む。コンピュータシステム1000は、CPU(Central Processing Unit)のようなプロセッサ1001と、ROM(Read Only Memory)のような不揮発性メモリ及びRAM(Random Access Memory)のような揮発性メモリを含むメインメモリ1002と、ストレージ1003と、入出力回路を含むインターフェース1004とを有する。上述の処理装置60の機能は、コンピュータプログラムとしてストレージ1003に記憶されている。プロセッサ1001は、コンピュータプログラムをストレージ1003から読み出してメインメモリ1002に展開し、コンピュータプログラムに従って上述の処理を実行する。なお、コンピュータプログラムは、ネットワークを介してコンピュータシステム1000に配信されてもよい。
コンピュータプログラムは、上述の実施形態に従って、作業者の視点位置に基づいて、第1カメラ31で撮像された作業現場の第1画像M1及び第2カメラ32で撮像された作業現場の第2画像M2の少なくとも一方の輝度を調整することと、輝度が調整された第1画像M1及び第2画像M2を合成して表示装置50に表示させることと、を実行することができる。
[効果]
以上説明したように、本実施形態によれば、第1カメラ31及び第2カメラ32により作業現場の第1画像M1及び第2画像M2が取得される。作業者の視点位置に基づいて、第1画像M1の輝度L1及び第2画像M2の輝度L2が調整される。作業者の視点位置の移動(作業者の頭部の運動)に合わせて、第1画像M1と第2画像M2との輝度合成比が追従的に変化することにより、仮現運動と同様の視覚効果が作業者にもたらされる。この視覚効果によって、作業者は、実際には作業現場から遠隔操作施設に伝送されていない視点画像があたかも伝送されているように錯覚する。そのため、作業現場から遠隔操作施設に大容量の画像を伝送しなくても、限られた回線容量において、作業現場の遠近感を作業者に効果的に知覚させることができる。
[その他の実施形態]
図11は、本実施形態に係る輝度調整部63の動作を説明するための図である。図11のラインML1で示すように、Yr軸方向の視点位置と第1画像M1の輝度L1とが比例し、図11のラインML2で示すように、Yr軸方向の視点位置と第2画像M2の輝度L2とが比例してもよい。
図11に示す例においても、輝度調整部63は、視点位置が第1位置R1にあるときに、[輝度L1:輝度L2=1:0]になり、視点位置が第2位置R2にあるときに、[輝度L1:輝度L2=0:1]になるように、輝度L1及び輝度L2を調整する。
また、輝度調整部63は、視点位置が中心位置Rmにあるときに、[輝度L1:輝度L2=1:1]になるように、輝度L1及び輝度L2を調整する。
また、輝度調整部63は、視点位置が第1位置R1と第2位置R2との間の図示しない任意位置Raにあるときに、[輝度L1:輝度L2=m:n]になるように、輝度L1及び輝度L2を調整する。任意位置Raは、第1位置R1との距離がnであり、第2位置R2との距離がmである位置である。
表示制御部64は、視点位置が任意位置Raにあるとき、輝度L1が[規定値MA×m%]である第1画像M1と輝度L2が[規定値MA×n%]である第2画像M2とを重畳させて表示装置50に表示させる。
なお、上述の実施形態においては、視点位置が第1位置R1にあるときに第2画像M2の輝度L2がゼロになり、視点位置が第2位置R2にあるときに第1画像M1の輝度L1がゼロになるように、輝度L1及び輝度L2が調整されることとした。視点位置が第1位置R1にあるときに第2画像M2の輝度L2がゼロよりも大きくてもよいし、視点位置が第2位置R2にあるときに第1画像M1の輝度L1がゼロよりも大きくてもよい。
上述の実施形態においては、視点位置に基づいて、第1画像M1の輝度L1と第2画像M2の輝度L2との両方が調整されることとした。例えば第1画像M1の輝度L1が一定値に維持され、視点位置に基づいて第2画像M2の輝度L2のみが調整されてもよいし、第2画像M2の輝度L2が一定値に維持され、視点位置に基づいて第1画像M1の輝度L1のみが調整されてもよい。
上述の実施形態においては、撮像装置30は、第1カメラ31及び第2カメラ32を有することとした。撮像装置30は、3台以上の任意の複数台のカメラにより構成されてもよい。
上述の実施形態においては、撮像装置30が油圧ショベル1に設けられることとした。撮像装置30は、作業現場の対象物を撮像可能であれば任意の位置に設けることができる。例えば、撮像装置30は遠隔操作対象である油圧ショベル1とは別の作業機械に設けられてもよいし、ドローンのような飛行体に設けられてもよいし、作業現場に設けられている構造物に設けられてもよい。
上述の実施形態においては、光学式の頭部位置センサ41で作業者の頭部の位置及び姿勢を検出することによって、作業者の視点位置が取得されることとした。例えば、磁気式の頭部位置センサで作業者の頭部の位置及び姿勢を検出してもよいし、視線検出装置によって作業者の瞳孔の位置が直接的に検出されてもよい。
上述の実施形態においては、作業機械1が油圧ショベルであることとした。作業機械1は、施工対象を施工可能な作業機械であればよく、施工対象を掘削可能な掘削機械及び土砂を運搬可能な運搬機械でもよい。作業機械1は、例えばホイールローダでもよいし、ブルドーザでもよいし、ダンプトラックでもよい。より詳しくは、作業機械1がショベル以外の車両である場合、カメラの位置は対象物や車両の進行方向が撮像できる位置に設置すればよい。作業機械1がブルドーザである場合、後進において作業を実施する場合があるため、カメラの設置位置は車両の前方に限らず、車両の後方にカメラを設けてもよい。
1…油圧ショベル(作業機械)、2…作業機、3…旋回体、4…運転台、5…走行体、6…ブーム、7…アーム、8…バケット、10…ブームシリンダ、11…アームシリンダ、12…バケットシリンダ、30…撮像装置、31…第1カメラ(第1撮像装置)、32…第2カメラ(第2撮像装置)、40…遠隔操作装置、41…頭部位置センサ(視点位置センサ)、42…キャップ、43…操縦席、50…表示装置、60…処理装置、61…画像取得部、62…視点位置算出部、63…輝度調整部、64…表示制御部、65…記憶部、100…遠隔操作システム、200…表示システム、300…制御装置、400…通信システム、401…無線通信機、M1…第1画像、M2…第2画像。

Claims (8)

  1. 第1撮像装置で撮像された作業現場の第1画像及び第2撮像装置で撮像された前記作業現場の第2画像のそれぞれを取得する画像取得部と、
    作業者の視点位置を算出する視点位置算出部と、
    前記視点位置に基づいて、前記第1画像及び前記第2画像の少なくとも一方の輝度を調整する輝度調整部と、
    前記輝度が調整された前記第1画像及び前記第2画像を合成して表示装置に表示させる表示制御部と、を備える、
    表示システム。
  2. 前記視点位置は、第1位置と第2位置との間を移動し、
    前記輝度調整部は、前記視点位置が前記第1位置にあるときに前記第1画像の輝度が前記第2画像の輝度よりも高くなり、前記視点位置が前記第2位置にあるときに前記第2画像の輝度が前記第1画像の輝度よりも高くなるように調整する、
    請求項1に記載の表示システム。
  3. 前記輝度調整部は、前記視点位置が前記第1位置にあるときに前記第2画像の輝度がゼロになり、前記視点位置が前記第2位置にあるときに前記第1画像の輝度がゼロになるように調整する、
    請求項2に記載の表示システム。
  4. 前記輝度調整部は、前記視点位置が前記第1位置に近いほど前記第1画像の輝度が高くなり、前記視点位置が前記第2位置に近いほど前記第2画像の輝度が高くなるように調整する、
    請求項3に記載の表示システム。
  5. 前記輝度調整部は、前記視点位置が前記第1位置と前記第2位置との中心位置よりも前記第1位置に近いときに前記第1画像の輝度が前記第2画像の輝度よりも高くなり、前記視点位置が前記中心位置よりも前記第2位置に近いときに前記第2画像の輝度が前記第1画像の輝度よりも高くなるように調整する、
    請求項3または4に記載の表示システム。
  6. 前記第1撮像装置及び前記第2撮像装置のそれぞれは、前記作業現場で作業する作業機械に設けられ、
    前記第1撮像装置と前記第2撮像装置とは、前記作業機械の所定方向に配置され、
    前記第1位置と前記第2位置とは、前記所定方向に対応する規定方向に配置される、
    請求項3から請求項5のいずれか一項に記載の表示システム。
  7. 作業機械に設けられ、作業現場を撮像する第1撮像装置及び第2撮像装置と、
    前記作業機械の外部に配置される表示装置と、
    前記作業機械の外部において作業者の視点位置を検出する視点位置センサと、
    前記作業機械の外部に配置され、前記作業機械と通信可能な処理装置と、を備え、
    前記処理装置は、
    前記第1撮像装置で撮像された第1画像及び前記第2撮像装置で撮像された第2画像のそれぞれを取得する画像取得部と、
    前記視点位置センサの検出データに基づいて、前記第1画像及び前記第2画像の少なくとも一方の輝度を調整する輝度調整部と、
    前記輝度が調整された前記第1画像及び前記第2画像を合成して前記表示装置に表示させる表示制御部と、を有する、
    遠隔操作システム。
  8. 作業者の視点位置に基づいて、第1撮像装置で撮像された作業現場の第1画像及び第2撮像装置で撮像された前記作業現場の第2画像の少なくとも一方の輝度を調整することと、
    前記輝度が調整された前記第1画像及び前記第2画像を合成して表示装置に表示させることと、を含む、
    表示方法。
JP2019138122A 2019-07-26 2019-07-26 表示システム、遠隔操作システム、及び表示方法 Active JP7351478B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019138122A JP7351478B2 (ja) 2019-07-26 2019-07-26 表示システム、遠隔操作システム、及び表示方法
PCT/JP2020/028501 WO2021020292A1 (ja) 2019-07-26 2020-07-22 表示システム、遠隔操作システム、及び表示方法
AU2020322381A AU2020322381B2 (en) 2019-07-26 2020-07-22 Display system, remote operation system, and display method
US17/629,496 US11939744B2 (en) 2019-07-26 2020-07-22 Display system, remote operation system, and display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019138122A JP7351478B2 (ja) 2019-07-26 2019-07-26 表示システム、遠隔操作システム、及び表示方法

Publications (2)

Publication Number Publication Date
JP2021022827A true JP2021022827A (ja) 2021-02-18
JP7351478B2 JP7351478B2 (ja) 2023-09-27

Family

ID=74230307

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019138122A Active JP7351478B2 (ja) 2019-07-26 2019-07-26 表示システム、遠隔操作システム、及び表示方法

Country Status (4)

Country Link
US (1) US11939744B2 (ja)
JP (1) JP7351478B2 (ja)
AU (1) AU2020322381B2 (ja)
WO (1) WO2021020292A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7409074B2 (ja) * 2019-12-25 2024-01-09 コベルコ建機株式会社 作業支援サーバ、撮像装置の選択方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016013691A1 (ja) * 2015-10-15 2016-01-28 株式会社小松製作所 位置計測システム及び位置計測方法
JP2016107945A (ja) * 2014-12-10 2016-06-20 株式会社リコー 情報提供装置、情報提供方法及び情報提供用制御プログラム
WO2016140055A1 (ja) * 2015-03-05 2016-09-09 株式会社小松製作所 作業機械の画像表示システム、作業機械の遠隔操作システム及び作業機械
WO2017138409A1 (ja) * 2016-02-10 2017-08-17 株式会社リコー 情報表示装置
WO2018043299A1 (ja) * 2016-08-31 2018-03-08 株式会社小松製作所 作業機械の画像表示システム、作業機械の遠隔操作システム、作業機械及び作業機械の画像表示方法
WO2018043301A1 (ja) * 2016-09-02 2018-03-08 株式会社小松製作所 作業機械の画像表示システム
WO2018168163A1 (ja) * 2017-03-13 2018-09-20 株式会社小松製作所 表示システム、表示方法、及び遠隔操作システム
WO2018220914A1 (ja) * 2017-05-31 2018-12-06 株式会社小松製作所 表示システム、表示方法、及び遠隔操作システム
WO2019054000A1 (ja) * 2017-09-15 2019-03-21 株式会社小松製作所 表示システム、表示方法、及び表示装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06339153A (ja) 1993-05-27 1994-12-06 Shinko Electric Co Ltd 画像処理装置およびテレオペレーティングシステム
JPH08107516A (ja) 1994-10-04 1996-04-23 Tokyu Constr Co Ltd 建設ロボット用立体カメラ雲台装置及び建設ロボット用立体カメラ自動追従装置
EP1923852A4 (en) * 2005-09-06 2010-06-30 Fujitsu Ten Ltd DISPLAY ARRANGEMENT AND DISPLAY METHOD
JP2009080144A (ja) * 2007-09-25 2009-04-16 Toshiba Corp 立体映像表示装置および立体映像表示方法
EP2063647A1 (en) * 2007-11-24 2009-05-27 Barco NV Calibration of a 3-dimensional display
KR102447101B1 (ko) * 2017-09-12 2022-09-26 삼성전자주식회사 무안경 3d 디스플레이를 위한 영상 처리 방법 및 장치
US11431917B2 (en) * 2020-10-12 2022-08-30 Dell Products L.P. System and method of operating a display associated with an information handling system

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016107945A (ja) * 2014-12-10 2016-06-20 株式会社リコー 情報提供装置、情報提供方法及び情報提供用制御プログラム
WO2016140055A1 (ja) * 2015-03-05 2016-09-09 株式会社小松製作所 作業機械の画像表示システム、作業機械の遠隔操作システム及び作業機械
WO2016013691A1 (ja) * 2015-10-15 2016-01-28 株式会社小松製作所 位置計測システム及び位置計測方法
WO2017138409A1 (ja) * 2016-02-10 2017-08-17 株式会社リコー 情報表示装置
WO2018043299A1 (ja) * 2016-08-31 2018-03-08 株式会社小松製作所 作業機械の画像表示システム、作業機械の遠隔操作システム、作業機械及び作業機械の画像表示方法
WO2018043301A1 (ja) * 2016-09-02 2018-03-08 株式会社小松製作所 作業機械の画像表示システム
WO2018168163A1 (ja) * 2017-03-13 2018-09-20 株式会社小松製作所 表示システム、表示方法、及び遠隔操作システム
WO2018220914A1 (ja) * 2017-05-31 2018-12-06 株式会社小松製作所 表示システム、表示方法、及び遠隔操作システム
WO2019054000A1 (ja) * 2017-09-15 2019-03-21 株式会社小松製作所 表示システム、表示方法、及び表示装置

Also Published As

Publication number Publication date
JP7351478B2 (ja) 2023-09-27
US20220290401A1 (en) 2022-09-15
AU2020322381A1 (en) 2022-02-24
WO2021020292A1 (ja) 2021-02-04
US11939744B2 (en) 2024-03-26
AU2020322381B2 (en) 2023-02-02

Similar Documents

Publication Publication Date Title
JP6807781B2 (ja) 表示システム、表示方法、及び遠隔操作システム
AU2018333191B2 (en) Display system, display method, and display apparatus
US11447928B2 (en) Display system, display method, and remote control system
CN107406035B (zh) 工程作业机械
JP6927821B2 (ja) 表示システム、及び表示装置
JP7151392B2 (ja) 建設機械の遠隔操作装置
JP2016089388A (ja) 作業支援画像生成装置、及びそれを備えた作業機械の遠隔操縦システム
WO2019181159A1 (ja) 建設機械
WO2021020567A1 (ja) 表示システム、遠隔操作システム、及び表示方法
WO2021020292A1 (ja) 表示システム、遠隔操作システム、及び表示方法
JP2021114757A (ja) 作業機械の遠隔操作システム及び作業機械の遠隔操作方法
US12091839B2 (en) System and method for work machine
JP2023040971A (ja) 遠隔操作支援装置、遠隔操作支援システムおよび遠隔操作支援方法
US12084840B2 (en) System and method for work machine
WO2023136070A1 (ja) 遠隔操作支援システムおよび遠隔操作支援方法
US20220002977A1 (en) System and method for work machine
KR20180060078A (ko) 건설장비에서의 작업 모니터링 시스템

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20190809

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20190809

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220630

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230822

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230906

R150 Certificate of patent or registration of utility model

Ref document number: 7351478

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150