JP2019521403A - 車輌ウィンドスクリーン上における拡張現実表示の方法及び装置 - Google Patents

車輌ウィンドスクリーン上における拡張現実表示の方法及び装置 Download PDF

Info

Publication number
JP2019521403A
JP2019521403A JP2018550676A JP2018550676A JP2019521403A JP 2019521403 A JP2019521403 A JP 2019521403A JP 2018550676 A JP2018550676 A JP 2018550676A JP 2018550676 A JP2018550676 A JP 2018550676A JP 2019521403 A JP2019521403 A JP 2019521403A
Authority
JP
Japan
Prior art keywords
vehicle
operator
information
surrounding environment
determining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018550676A
Other languages
English (en)
Inventor
バレリアノビッチ エデルマン,レオニド
バレリアノビッチ エデルマン,レオニド
パグリアーニ,ダニエーレ
Original Assignee
トプコン ポジショニング システムズ, インク.
トプコン ポジショニング システムズ, インク.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by トプコン ポジショニング システムズ, インク., トプコン ポジショニング システムズ, インク. filed Critical トプコン ポジショニング システムズ, インク.
Publication of JP2019521403A publication Critical patent/JP2019521403A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • B60K35/213
    • B60K35/28
    • B60K35/29
    • B60K35/81
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • B60K2360/16
    • B60K2360/18
    • B60K2360/334
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2300/00Indexing codes relating to the type of vehicle
    • B60W2300/17Construction vehicles, e.g. graders, excavators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2400/00Special features of vehicle units
    • B60Y2400/92Driver displays
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F3/00Dredgers; Soil-shifting machines
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F9/00Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
    • E02F9/26Indicating devices
    • E02F9/261Surveying the work-site to be treated
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0141Head-up displays characterised by optical features characterised by the informative content of the display
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Abstract

機械操縦者に周辺環境の拡張現実視界を提供する方法には、車輌の位置及び方向の決定が含まれる。車輌操縦者の眼球位置及び視線も併せて決定される。車輌操縦者に表示すべき作業情報は、車輌の位置及び方向に基づき決定される。作業情報は、車輌操縦者の眼球位置及び視線に基づき表示される。一実施形態によると、ウィンドスクリーン越しに視認可能な周辺環境特徴が決定される。操縦者に表示される作業情報は周辺環境特徴に基づき修正される。

Description

この開示は概して拡張現実(AR)表示に関するものであり、更に具体的には、建設用車輌のウィンドスクリーン用のAR表示に関するものである。
拡張現実は、情報と使用者が知覚した周辺環境とを統合したものである。拡張現実はウィンドウを使用して実施可能であり、該ウィンドウを通じて使用者は周辺環境を目視することができる。たとえば投影機を使用して、情報をウィンドウ上に投影することができる。情報には、使用者がウィンドウ越しに目視可能ないくつかの物体を重ね合わせることができる。この情報は、不透明、透明、又は半透明の態様で表示することができる。拡張現実は、車輌と併せて使用し、車輌のウィンドスクリーン(ウィンドシールドとも呼ばれる)上に情報を投影することによって、使用者に追加情報を提供することができる。たとえば車輌の速度、磁針方角、その他に関する情報を車輌のウィンドスクリーン上に投影し、ヘッドアップディスプレイ(HUD)によって使用者に提供することができる。HUDを使用することによって、使用者は車輌の計器盤ではなくウィンドスクリーン上の情報を目視することが可能になり、車輌操縦者は車輌のウィンドスクリーン越しに、連続的に周辺環境を目視することができる。
拡張現実表示は車輌パラメーター及び存在物についての追加情報を使用者に提供し、これらを追加情報が表示されるウィンドウ越しに視認することができる。
一実施形態によると、機械操縦者に周辺環境の拡張現実視界を提供する方法には、車輌の位置及び方向の決定が含まれる。車輌操縦者の眼球位置及び視線も併せて決定される。車輌操縦者に表示すべき作業情報は、車輌の位置及び車輌の方向に基づき決定される。作業情報は、車輌操縦者の眼球位置及び視線に基づき表示される。一実施形態によると、ウィンドスクリーン越しに視認可能な周辺環境特徴が決定される。作業情報の特定及び表示では、更に周辺環境特徴の決定にも基づいている。一実施形態によると、周辺環境特徴の決定は、車輌が位置する周辺環境内に所在する物体の検出に基づき行われる。作業情報には、建設パラメーター、農作業、及び/又は地面改良パラメーターを含むことができる。一実施形態によると、操縦者による入力によって具体的な作業が特定され、作業情報の特定も、更に操縦者による入力に基づいている。一実施形態によると、作業情報の表示は、操縦者の眼球位置及び視線に基づく周辺環境特徴を重ね合わせている作業情報に関する属性画像の表示からなる。属性画像のための位置は、周辺環境認識装置からのデータに基づき決定することができる。
図1は、拡張現実表示を機械操縦者に提供するシステムを示す。
図2は、拡張現実ディスプレイ及び関係する構成要素を装備した機械を示す。
図3は、機械操縦者に画像を表示する拡張現実システムの構成を示す。
図4は、眼球位置及び視線を考慮した修正を伴う又は伴わない拡張現実ディスプレイ上に表示された画像の例を示す。
図5は、一実施形態に係る機械操縦者に画像を表示する方法のフローチャートを示す。
図6は、コンピューターの高レベルブロックダイアグラムを示す。
拡張現実は、実行すべき作業に関する情報及び追加情報を車輌(たとえば建設機械などの機械)の操縦者に提供するために利用される。一実施形態によると、車輌の操縦者には、車輌のウィンドスクリーン(ウィンドシールドとも呼ばれる)上にヘッドアップディスプレイ(HUD)が提供される。HUDは、地面改良、建設工事、地面工事など、作業に関する情報を操縦者に提供する。一実施形態によると、操縦者に表示される情報は、機械の位置及び方向に基づいている。機械操縦者はHUDに表示される情報を利用して、作業を実行するために機械を操縦することができる。たとえば、ウィンドスクリーン上に表示される掘削用に指定された区域の仮想境界を操縦者に提供することができる。この区域の仮想境界は、ウィンドスクリーン越しの現実視界をウィンドスクリーン上に表示される情報と合致させる目的で、操縦者の眼球の位置及び視線に基づいて表示される。これによって操縦者は、ウィンドスクリーン越しに視認する現実の物体及び位置と合致した仮想情報を目視することが可能となる。仮想画像を表示するときに操縦者の眼球位置及び操縦者の視線が考慮されなければ、仮想画像はウィンドスクリーン越しに視認される現実の物体及び位置と合致しない。一実施形態によるとHUDは、現状で存在していない所望の構造及び地面に関する具体的な区域についての情報を操縦者に提供する。機械操縦者に拡張現実視界を提供するためには、複数の装置が使用される。
図1は、車輌のウィンドスクリーン上における拡張現実表示のためのシステム100を示す。一実施形態によると、位置・方向検出装置104は、この装置104が設置されている関係機械の位置及び方向を決定するために使用される1つ又は複数の装置である。機械の位置を決定するためには、全地球的航法衛星システム(GNSS)受信機を使用することができる。このGNSS受信機(全地球測位システム(GPS)受信機とも呼ばれる)は、機械の方向を決定するために使用することもできる。たとえば機械の方向を決定するために、どのように機械が移動可能であるのかについての知識を伴う機械の移動に関するGNSSデータを利用することができる。一実施形態によると、機械の位置を決定するためにGNSS受信機を使用し、機械の方向を決定するためにその他の装置を使用することができる。
機械の方向を決定するために、慣性計測装置(IMU)を使用することができる。IMUは、機械に搭載すること、又はその他の方法で機械に設置することができる。IMUは、機械の移動及び方向を決定する目的で、機械の加速度を計測する。たとえば機械の出発方向が判明していれば、機械の現在方向を決定する目的で、1つ若しくは複数の方向における機械の出発方向及び加速度に基づいて、IMUは異なる方向における機械の加速度を計測することができる。出発位置が判明していれば、IMUは更に、機械の位置を決定するために使用することもできる。たとえばIMUが前進加速度を検出していれば、この加速度を利用して、機械が特定の速度で前進していることを検出可能である。機械の現在位置は、機械が移動している方向、そして特定の速度で機械が移動している時間に基づいて決定することができる。
機械の位置及び/又は方向を決定するために、レーザー追跡装置、光学追跡装置、及び/又はステレオカメラを使用することもできる。更に、GNSS受信機及びIMUなど、これらの装置の組合せによって機械の位置及び場所を決定することができる。その他の装置の組合せも同様に使用することができる。
物体検出装置106は、機械が位置する区域における物体及び障害物を検出するために使用される。一実施形態によると、物体検出装置106は、機械が位置する区域を監視するための1つ又は複数のセンサーを有する。物体検出装置には、音波トランシーバー、レーザートランシーバー、光学感知装置(たとえばカメラ又はステレオカメラ)、レーダートランシーバーなど、あらゆる種類のハードウェアを使用することができる。機械が位置する区域における物体及び障害物を検出可能なあらゆる種類のセンサー若しくは装置、又はセンサー及び/若しくは装置の組合せを使用することができる。
周辺環境認識装置108は、使用者に表示される追加情報の配置を決定するために使用され、これによってその情報は、操縦者が視認する必要がある現実の物体と干渉しない。一実施形態によると、周辺環境認識装置108は、機械が位置する区域における物体及び障害物を検出するために使用される物体検出装置を有する。一実施形態によると、周辺環境認識装置108の物体検出装置は、物体検出装置106とは別個のものである。一実施形態によると、周辺環境認識装置は、物体検出装置106が取得したデータを利用する。その後、機械が位置する区域における物体に関する情報は、機械操縦者に表示するための追加情報の配置を決定するために利用され、それによって現実の物体は、機械のウィンドスクリーンを介して表示される追加情報によって隠されない。
眼球位置・視線検出装置110は、操縦者の眼球位置及び操縦者の視線の方向を決定するために使用される。一実施形態によると、操縦者の眼球位置はウィンドスクリーンとの関係で決定される。たとえば操縦者の眼球を、ウィンドスクリーンに対して中心に位置させることが考えられる。操縦者の眼球位置は、操縦者の頭部の動きによって変化する。たとえば操縦者が左又は右に傾くことによって、ウィンドスクリーンに対する操縦者の眼球位置は変化する。操縦者の視線は、操縦者が見ている場所である。たとえば操縦者は、前方、左側、右側、上方、下方を見ていることが考えられる。操縦者の眼球位置及び視線は、機械のウィンドスクリーン上に投影される画像を配置するために利用され、これによってウィンドスクリーン越しに視認可能な現実の物体に対する追加情報が調整される。たとえばウィンドスクリーン上に物体を指す引出線の画像を表示することが可能であり、これによって引出線は、操縦者の眼球位置及び視線方向に基づいて物体を指すことになる。一実施形態によると、眼球位置・視線検出装置110はステレオカメラからなるが、操縦者の眼球位置及び視線方向を検出可能なあらゆる装置又は装置グループからなるものが考えられる。
拡張現実装置112は、情報を機械操縦者に表示するために使用される装置である。一実施形態によると、拡張現実装置112は、拡張現実装置112が設置されている機械のウィンドスクリーン上に画像を投影するための投影機からなる。拡張現実装置112は、ウィンドスクリーンに取り付けられている透明フィルム上に画像を投影することができる。一実施形態によると、拡張現実装置112はウィンドスクリーン上に表示される画像の輝度及びコントラストを調整可能であり、これによって画像の目視性と、ウィンドスクリーンの外側にある現実世界の視認性とが向上する。表示される画像の輝度及び/又はコントラストは、操縦者の不快性を防止するために調整することもできる。表示される画像の輝度及び/又はコントラストの調整は、自動的に又は使用者の制御によって行うことができる。
作業情報データベース114は、機械の使用が必要となる作業に関する情報を保存するために使用される。作業情報データベース114は更に、機械が位置する周辺環境に関する情報を保存することもできる。たとえば掘削を実行すべき位置(たとえば周辺環境)に関する情報と共に、掘削に関する情報が作業情報データベース114に保存される。作業情報データベース114には、機械操縦者に対する情報の生成及び表示に使用される情報を取得する目的でアクセスすることができる。
位置・方向検出装置104、物体検出装置106、周辺環境認識装置108、眼球位置・視線検出装置110、拡張現実装置112、及び作業情報データベース114は、それぞれコントローラー102と通信する。一実施形態によると、コントローラー102はプロセッサーであり、各種装置からデータを受信し、作業情報データベース114にアクセスし、拡張現実装置112にデータを出力して関係する機械操縦者に対する画像を表示させる。一実施形態によると、コントローラー102、位置・方向検出装置104、物体検出装置106、周辺環境認識装置108、眼球位置・視線検出装置110、拡張現実装置112、及び作業情報データベース114は、建設機械などの機械に物理的に設置される。コントローラー102は、キーボード、カーソルコントローラー(たとえばマウス)、ディスプレイ(図示せず)などの周辺機器を有しており、使用者はコントローラー102と双方向作業することができる。コントローラー102は、有線又は無線ネットワークを介して、図1に示す1つ又は複数の構成要素と通信することができる。一実施形態によると、機械から隔離して1つ又は複数の装置を設置することができる。たとえば作業情報データベース114は、コントローラー102から隔離した場所に設置可能であり、2つの構成要素間でデータを送受信することができる。一実施形態によると、データは作業情報データベース114とコントローラー102との間で無線送信される。位置・方向検出装置に関しては、この装置の1つ又は複数の構成要素を、コントローラー102が設置されている場所から隔離して設置することができる。
図2は、拡張現実システム及び関係する構成要素を装備した機械101を示す。この実施形態では、コントローラー102、眼球位置・視線検出装置110、拡張現実装置112、及び作業情報データベース114が、機械101の操縦室内に設置されていることを示している。この実施形態では、位置・方向検出装置104、物体検出装置106、及び環境認識装置108が、機械101の操縦室の屋根上に設置されていることを示している。
図3は、機械101の操縦者に画像を表示する拡張現実システムの構成を示す。具体的に図3では、システム100の構成要素の一部が設置されている機械101のウィンドスクリーン204を示している。操縦者202は、機械の操縦室内に位置しており、ウィンドスクリーン204越しに周辺環境特徴208を目視するものとして示されている。コントローラー102(図1及び図2に示す)は、眼球位置・視線検出装置110及び拡張現実装置112と通信する。位置・方向検出装置104及び物体検出装置106からのデータに基づいて、コントローラー102は操縦者202に表示すべき属性画像212を決定する。一実施形態によると、属性画像212の配置は、機械が位置している周辺環境に関する情報、並びに、眼球位置・視線検出装置110、周辺環境認識装置108及び作業情報データベース114からのデータに基づいて決定される。周辺環境認識装置108からのデータは、属性画像212の配置を決定するために利用され、これによって、障害物又は構造物など、操縦者202が視認しなければならない周辺環境の部分と干渉しないようになる。
図3において属性画像212は、ウィンドスクリーン204上に属性画像212を投影する拡張現実装置112によって、操縦者202に対して表示される。この例における属性画像212は矢印であり、操縦者が置かれている機械を使用して操縦者202が実行すべき操作を表示している。属性画像212は、投影線214によって示される具体的な配置内で、ウィンドスクリーン204上に投影される。属性画像212が表示されるウィンドスクリーン204上の具体的な配置は、操縦者202の眼球位置及び視線に基づいており、これによって属性画像212が、視野線210によって示される周辺環境特徴208に関して操縦者202が有する視界と合致する。
一実施形態によると属性画像212の配置は、作業情報データベース114からの情報に基づいて、位置・方向検出装置104からの機械の位置及び方向情報を利用して決定される。たとえば掘削が必要な区域は、機械の位置に基づいて、機械の近傍であると決定することができる。属性画像212の配置は、機械の方向に基づいて決定することができる。掘削すべき区域が、現状でウィンドスクリーン越しに操縦者の視界内にあれば、操縦者202の眼球位置及び視線に基づいて属性画像212が表示される。更に、物体検出装置106からの情報は、機械が位置する周辺環境における物体を特定するために利用される。属性画像212の配置は、操縦者202が視認しなければならない物体が遮られる状況を防止する目的で、周辺環境認識装置108からの情報に基づいて修正することができる。
一実施形態によると、ウィンドスクリーン204上の属性画像212の配置(すなわち、ウィンドスクリーン204上の具体的な配置内での属性画像212の投影)は、交線方式を用いて決定することができる。操縦者の視線方向において、操縦者の眼球位置から対象物(たとえば周辺環境特徴208)に延伸する線が計算される。一実施形態によると、この線は複数の点からなる。この線に沿いながら、線がウィンドスクリーンと交差する場所の点が決定される。その後、属性画像212とウィンドスクリーン204における線の交点とを合致させることによって、操縦者の眼球位置との関係で対象物と合致した属性画像212が、ウィンドスクリーン204上に配置(たとえば投影)される。一実施形態によると、操縦者が目視する対象物の画像の幾何学的中心が決定され、属性画像212の幾何学的中心は、その交点におけるウィンドスクリーン204上に配置される。この線は、操縦者の両目のうち1つの位置から延伸させること、又は操縦者の両目の中間点から延伸させることができる。一実施形態によると、操縦者の両目の中間点は、その中間点から対象物に延伸する線を計算する前に決定される。
図4は、操縦者の眼球位置及び配置が属性画像の配置を調整するために利用されない場合における拡張現実視界を示す。図4に示すように、ファントム属性画像404によって示される配置に属性画像が表示されるべきであるが、代わって属性画像402の配置に示すように、不正確な位置に表示されている。属性画像402の配置は、操縦者の眼球位置及び視線方向を考慮して調整されていない。ファントム属性画像404の配置は、操縦者の眼球位置及び視線方向に基づいて画像配置を修正していれば、画像が表示されていたであろう配置である。
図5は、機械操縦者に情報を表示するためにコントローラー102が実行する方法500のフローチャートを示す。ステップ502においてコントローラー102はユーザー入力を受信する。一実施形態によるとユーザー入力は、操縦者が情報を希望する具体的な作業を特定する。たとえば操縦者が使用する機械の種類に応じて、操縦者は掘削情報、建設情報などを見ることを希望するであろう。ステップ504においてコントローラー102は、コントローラー102が設置されている車輌の位置を決定する。ステップ506においてコントローラー102は、コントローラー102が設置されている車輌の方向を決定する。一実施形態によると、位置及び方向情報は、位置・方向検出装置104からコントローラー102が受信する情報に基づいて決定される。
ステップ508においてコントローラー102は、操縦者の眼球位置を決定する。ステップ510においてコントローラー102は、操縦者の視線を決定する。一実施形態によると操縦者の眼球位置及び視線は、眼球位置・視線検出装置110からコントローラー102が受信した情報に基づいて決定される。
ステップ512においてコントローラー102は、車輌が位置する周辺環境の周辺環境特徴を決定する。一実施形態によるとコントローラー102は、物体検出装置106から受信した情報を利用して周辺環境特徴を決定する。たとえば隆起、陥没、装備、構造などの特徴は、物体検出装置106によって検出することができる。コントローラー102は物体に関して受信した情報を利用して、この情報を、作業情報データベース114に含まれている周辺環境データと比較することができる。たとえば周辺環境データを利用して、車輌が位置する周辺環境において検出された物体を特定することができる。
ステップ514においてコントローラー102は、使用者に表示すべき作業情報を特定する。一実施形態によるとコントローラー102は、作業情報データベース114に保存されている情報を利用して作業情報を特定する。たとえばコントローラー102は、車輌の位置及び方向を利用して、車輌が位置する周辺環境を特定することができる。操縦者が閲覧を希望する具体的な作業情報は、操縦者からのユーザー入力を利用して決定される。たとえば掘削作業であれば機械操縦者は、掘削区域の仮想境界及び必要な掘削深さの仮想表示を含むディスプレイを要求し、その提供を受けることができる。ブルドーザーによって実行される作業であれば操縦者は、作業現場の仮想境界、仮想切削表示、仮想投入表示を含むディスプレイを要求し、その提供を受けることができる。農業用トラクターによって実行される作業であればトラクター操縦者は、播種又は噴霧作業の仮想マップを要求し、その提供を受けることができる。
ステップ516において、ステップ514で特定された作業情報が操縦者に表示される。一実施形態によると、表示するために特定された作業情報はコントローラー102から拡張現実装置112に送信され、一実施形態によると、拡張現実装置112が車輌のウィンドスクリーン上に情報を投影する。
一実施形態によると、特定されて操縦者に表示される作業情報は、1つ又は複数の属性画像からなる。一実施形態によると、各属性画像は、1つの周辺環境特徴と関係している。たとえばコントローラー102は、1つの属性画像を、掘削が必要な1つの周辺環境の区域に割り当てることができる。この例として属性画像は、掘削が必要である深さを表示する1つの画像からなる。1つの具体的な周辺環境特徴に、1つ又は複数の属性画像を関係させることができる。
一実施形態によると、ウィンドスクリーン上に表示される属性画像の配置は、車輌が位置する周辺環境に基づいて修正することができる。一実施形態によると周辺環境に関する情報は、周辺環境認識装置108から受信する。たとえば周辺環境認識装置108によって検出された周辺環境中の物体が、車輌と相互作用すべきでない何かであると特定された場合、コントローラー102は1つ又は複数の属性画像の表示を修正し、相互作用すべきでない物体が遮られる又は隠される状況を防止することができる。一実施形態によると、ある属性の配置を指定することによって、物体が遮られる状況を防止することができる。属性画像の輝度及び/又は透明度を調整することによって、相互作用すべきでない物体について、操縦者の視界が妨害される状況を防止することもできる。
コントローラー102、位置・方向検出装置104、物体検出装置106、周辺環境認識装置108、眼球位置・視線検出装置110、拡張現実装置112、及び作業情報データベース114は、それぞれ1つのコンピューターを使用して実施することができる。このようなコンピューターの高レベルブロックダイアグラムを図6に示す。コンピューター602は、コンピューター602のオペレーション全体を制御するプロセッサー604を有しており、この制御は、そのオペレーションを定義するコンピュータープログラムによる指示の実行によって行われる。コンピュータープログラムによる指示は、保存装置612又はその他のコンピューター読取可能媒体(たとえば磁気ディスク、CD ROMなど)に保存可能であり、コンピュータープログラムによる指示の実行を希望するときに、メモリ610にロードすることができる。すなわち図5の方法ステップは、メモリ610及び/又は保存装置612に保存されているコンピュータープログラムによる指示によって定義され、そのコンピュータープログラムによる指示を実行するプロセッサー604によって制御されることができる。たとえばコンピュータープログラムによる指示は、図5の方法ステップによって定義されたアルゴリズムを実行するために当業者がプログラムしたコンピューター実行可能コードとして実施することができる。こうしてプロセッサー604は、コンピュータープログラムによる指示を実行することによって、図5の方法ステップによって定義されたアルゴリズムを実行する。コンピューター602は更に、ネットワークを介してその他の装置と通信する1つ又は複数のネットワークインターフェース606も有する。コンピューター602は更に、使用者のコンピューター602との双方向作業を可能とする入出力装置608(たとえばディスプレイ、キーボード、マウス、スピーカー、ボタンなど)も有している。当業者であれば、実際のコンピューターの実施にはその他の構成要素も含まれる可能性があることを認識し、図6は、そのようなコンピューターの構成要素の一部を参考的に高レベルで表示したものであると認識するものと考えられる。
上述した詳細な説明は、すべての点において例示的かつ類似的であるが、限定的なものではないと理解され、ここで開示された発明の範囲は詳細な説明から決定すべきでなく、むしろ、特許法で許される最大の幅によって解釈される請求の範囲から決定すべきである。ここで表示及び説明した各実施形態は本発明の原理を例示的に示したものに過ぎず、当業者であれば、発明の範囲及び要旨から逸脱することなく、各種変形例の実施が可能なものと理解される。当業者であれば、発明の範囲及び要旨から逸脱することなく、各種特徴のその他の組合せの実施が可能なものと考えられる。

Claims (20)

  1. 車輌の位置を決定すること
    前記車輌の方向を決定すること、
    前記車輌の操縦者の眼球位置を決定すること、
    前記車輌の操縦者の視線を決定すること、
    前記車輌の位置及び前記車輌の方向に基づいて前記車輌のウィンドスクリーン上において前記操縦者に表示する作業情報を特定すること、及び
    前記車輌の操縦者の眼球位置及び視線に基づいて前記ウィンドスクリーン上において前記操縦者に前記作業情報を表示すること、
    を含む方法。
  2. 更に、前記ウィンドスクリーン越しに視認可能な周辺環境特徴を決定することを含み、
    前記作業情報の特定及び前記作業情報の表示は、更に前記周辺環境特徴の決定に基づいている請求項1に記載の方法。
  3. 更に、前記車輌が位置する周辺環境内に位置する物体を検出することを含み、
    前記周辺環境特徴の決定は、前記物体の検出及び前記作業情報に関係する周辺環境データに基づいている請求項2に記載の方法。
  4. 前記作業情報は、建設パラメーター、農作業、又は地面改良パラメーターのうちの1つである請求項3に記載の方法。
  5. 更に、具体的な作業を特定する操縦者による入力を受信することを含み、
    前記作業情報の特定は、更に前記操縦者による入力に基づいている請求項1に記載の方法。
  6. 前記作業情報の表示は、更に、
    前記操縦者の眼球位置及び視線に基づく周辺環境特徴を重ね合わせている作業情報に関する属性画像を表示することを含む請求項1に記載の方法。
  7. 更に、周辺環境認識装置からのデータに基づいて表示する属性画像のための位置を決定することを含む請求項6に記載の方法。
  8. プロセッサー、及び
    コンピュータープログラムによる指示を保存したメモリを備え、前記コンピュータープログラムによる指示が前記プロセッサー上で実行されるときに、前記プロセッサーは、
    車輌の位置を決定すること
    前記車輌の方向を決定すること、
    前記車輌の操縦者の眼球位置を決定すること、
    前記車輌の操縦者の視線を決定すること、
    前記車輌の位置及び前記車輌の方向に基づいて前記車輌のウィンドスクリーン上において前記操縦者に表示する作業情報を特定すること、及び
    前記車輌の操縦者の眼球位置及び視線に基づいて前記ウィンドスクリーン上において前記操縦者に前記作業情報を表示すること、
    を含むオペレーションを実施する装置。
  9. 前記オペレーションは、更に、
    前記ウィンドスクリーン越しに視認可能な周辺環境特徴を決定することを含み、
    前記作業情報の特定及び前記作業情報の表示は、更に前記周辺環境特徴の決定に基づいている請求項8に記載の装置。
  10. 前記オペレーションは、更に、
    前記車輌が位置する周辺環境内に位置する物体を検出することを含み、
    前記周辺環境特徴の決定は、前記物体の検出及び前記作業情報に関係する周辺環境データに基づいている請求項9に記載の装置。
  11. 前記作業情報は、建設パラメーター、農作業、又は地面改良パラメーターのうちの1つである請求項10に記載の装置。
  12. 前記オペレーションは、更に、
    具体的な作業を特定する操縦者による入力を受信することを含み、
    前記作業情報の特定は、更に前記操縦者による入力に基づいている請求項8に記載の装置。
  13. 前記作業情報の表示は、更に、
    前記操縦者の眼球位置及び視線に基づく周辺環境特徴を重ね合わせている作業情報に関する属性画像を表示することを含む請求項8に記載の装置。
  14. 前記オペレーションは、更に、
    周辺環境認識装置からのデータに基づいて表示する属性画像のための位置を決定することを含む請求項13に記載の装置。
  15. コンピュータープログラムによる指示を保存したコンピューター読取可能媒体であって、プロセッサー上で実行されるときに、前記プロセッサーに、
    車輌の位置を決定すること
    前記車輌の方向を決定すること、
    前記車輌の操縦者の眼球位置を決定すること、
    前記車輌の操縦者の視線を決定すること、
    前記車輌の位置及び前記車輌の方向に基づいて前記車輌のウィンドスクリーン上において前記操縦者に表示する作業情報を特定すること、及び
    前記車輌の操縦者の眼球位置及び視線に基づいて前記ウィンドスクリーン上において前記操縦者に前記作業情報を表示すること、
    を含むオペレーションを実施させるコンピューター読取可能媒体。
  16. 前記オペレーションは、更に、
    前記ウィンドスクリーン越しに視認可能な周辺環境特徴を決定することを含み、
    前記作業情報の特定及び前記作業情報の表示は、更に周辺環境特徴の決定に基づいている請求項15に記載のコンピューター読取可能媒体。
  17. 前記オペレーションは、更に、
    前記車輌が位置する周辺環境内に位置する物体を検出することを含み、
    前記周辺環境特徴の決定は、前記物体の検出及び前記作業情報に関係する周辺環境データに基づいている請求項16に記載のコンピューター読取可能媒体。
  18. 前記作業情報は、建設パラメーター、農作業、又は地面改良パラメーターのうちの1つである請求項17に記載のコンピューター読取可能媒体。
  19. 前記オペレーションは、更に、
    具体的な作業を特定する操縦者による入力を受信することを含み、
    前記作業情報の特定は、更に前記操縦者による入力に基づいている請求項15に記載のコンピューター読取可能媒体。
  20. 前記作業情報の表示は、更に、
    前記操縦者の眼球位置及び視線に基づく周辺環境特徴を重ね合わせている作業情報に関する属性画像を表示する請求項15に記載のコンピューター読取可能媒体。
JP2018550676A 2016-04-04 2016-04-04 車輌ウィンドスクリーン上における拡張現実表示の方法及び装置 Pending JP2019521403A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/RU2016/000186 WO2017176143A1 (en) 2016-04-04 2016-04-04 Method and apparatus for augmented reality display on vehicle windscreen

Publications (1)

Publication Number Publication Date
JP2019521403A true JP2019521403A (ja) 2019-07-25

Family

ID=60000511

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018550676A Pending JP2019521403A (ja) 2016-04-04 2016-04-04 車輌ウィンドスクリーン上における拡張現実表示の方法及び装置

Country Status (6)

Country Link
US (1) US10789744B2 (ja)
EP (1) EP3440496A4 (ja)
JP (1) JP2019521403A (ja)
KR (1) KR102340298B1 (ja)
AU (1) AU2016402225B2 (ja)
WO (1) WO2017176143A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021157217A (ja) * 2020-03-25 2021-10-07 株式会社インフォマティクス 建設機械における図面投影システム、図面投影方法及びプログラム
JP7400076B2 (ja) 2019-08-05 2023-12-18 トプコン ポジショニング システムズ, インク. 視覚に基づくブレード位置決め
US11846091B2 (en) 2020-01-28 2023-12-19 Topcon Positioning Systems, Inc. System and method for controlling an implement on a work machine using machine vision

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3543402A1 (de) * 2018-03-19 2019-09-25 Joseph Vögele AG Baumaschine zum erstellen oder bearbeiten einer strasse
US20190355177A1 (en) * 2018-05-15 2019-11-21 Honeywell International Inc. Building system maintenance using mixed reality
JP7151392B2 (ja) 2018-11-07 2022-10-12 コベルコ建機株式会社 建設機械の遠隔操作装置
JP7159903B2 (ja) * 2019-02-19 2022-10-25 コベルコ建機株式会社 目標位置推測装置
JP7318258B2 (ja) * 2019-03-26 2023-08-01 コベルコ建機株式会社 遠隔操作システムおよび遠隔操作サーバ
US20220136214A1 (en) * 2020-11-05 2022-05-05 Trimble Inc. High-accuracy augmented reality display for construction machines
US20230141588A1 (en) * 2021-11-11 2023-05-11 Caterpillar Paving Products Inc. System and method for configuring augmented reality on a worksite

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002146846A (ja) * 2000-11-13 2002-05-22 Topcon Corp 建設機械の施工案内装置
WO2005024144A1 (ja) * 2003-09-02 2005-03-17 Komatsu Ltd. 施工目標指示装置
JP2010018141A (ja) * 2008-07-10 2010-01-28 Caterpillar Japan Ltd 建設機械におけるディスプレイ装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8521411B2 (en) 2004-06-03 2013-08-27 Making Virtual Solid, L.L.C. En-route navigation display method and apparatus using head-up display
JP4414959B2 (ja) * 2005-11-16 2010-02-17 アイシン精機株式会社 駐車支援装置
US20080262669A1 (en) * 2006-09-22 2008-10-23 Jadi, Inc. Autonomous vehicle controller
JP5050735B2 (ja) * 2007-08-27 2012-10-17 マツダ株式会社 車両用運転支援装置
US20140240313A1 (en) * 2009-03-19 2014-08-28 Real Time Companies Computer-aided system for 360° heads up display of safety/mission critical data
US8692739B2 (en) * 2011-09-22 2014-04-08 GM Global Technology Operations LLC Dynamic information presentation on full windshield head-up display
US8660735B2 (en) * 2011-12-14 2014-02-25 General Motors Llc Method of providing information to a vehicle
JP2016502479A (ja) * 2012-12-07 2016-01-28 ボルボトラックコーポレーション 車両装備、車両装備を制御する方法及びコンピュータプログラム
KR102004000B1 (ko) * 2012-12-26 2019-07-25 두산인프라코어 주식회사 헤드업 디스플레이를 이용한 건설기계의 작업 가이드 디스플레이 장치 및 방법
JP6258582B2 (ja) 2012-12-28 2018-01-10 株式会社小松製作所 建設機械の表示システムおよびその制御方法
US9096128B2 (en) * 2013-01-14 2015-08-04 Intel Corporation Creating a sensory experience in a vehicle
US20140362195A1 (en) * 2013-03-15 2014-12-11 Honda Motor, Co., Ltd. Enhanced 3-dimensional (3-d) navigation
KR101524379B1 (ko) * 2013-12-27 2015-06-04 인하대학교 산학협력단 주문형 비디오에서 인터랙티브 서비스를 위한 캡션 교체 서비스 시스템 및 그 방법
US10503249B2 (en) 2014-07-03 2019-12-10 Topcon Positioning Systems, Inc. Method and apparatus for construction machine visualization

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002146846A (ja) * 2000-11-13 2002-05-22 Topcon Corp 建設機械の施工案内装置
WO2005024144A1 (ja) * 2003-09-02 2005-03-17 Komatsu Ltd. 施工目標指示装置
JP2010018141A (ja) * 2008-07-10 2010-01-28 Caterpillar Japan Ltd 建設機械におけるディスプレイ装置

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7400076B2 (ja) 2019-08-05 2023-12-18 トプコン ポジショニング システムズ, インク. 視覚に基づくブレード位置決め
US11905675B2 (en) 2019-08-05 2024-02-20 Topcon Positioning Systems, Inc. Vision-based blade positioning
US11846091B2 (en) 2020-01-28 2023-12-19 Topcon Positioning Systems, Inc. System and method for controlling an implement on a work machine using machine vision
JP7463530B2 (ja) 2020-01-28 2024-04-08 トプコン ポジショニング システムズ, インク. 機械視点を用いた工作機械上の装置の制御システムおよび方法
JP2021157217A (ja) * 2020-03-25 2021-10-07 株式会社インフォマティクス 建設機械における図面投影システム、図面投影方法及びプログラム
JP7013509B2 (ja) 2020-03-25 2022-01-31 株式会社インフォマティクス 建設機械における図面投影システム、図面投影方法及びプログラム

Also Published As

Publication number Publication date
EP3440496A1 (en) 2019-02-13
KR20180133864A (ko) 2018-12-17
KR102340298B1 (ko) 2021-12-20
WO2017176143A1 (en) 2017-10-12
US10789744B2 (en) 2020-09-29
EP3440496A4 (en) 2019-11-13
AU2016402225A1 (en) 2018-09-13
US20180144523A1 (en) 2018-05-24
AU2016402225B2 (en) 2022-02-10

Similar Documents

Publication Publication Date Title
JP2019521403A (ja) 車輌ウィンドスクリーン上における拡張現実表示の方法及び装置
US9001153B2 (en) System and apparatus for augmented reality display and controls
WO2021197189A1 (zh) 基于增强现实的信息显示方法、系统、装置及投影设备
EP3164787B1 (en) Method and apparatus for construction machine visualization
US9335545B2 (en) Head mountable display system
US9506774B2 (en) Method of inputting a path for a vehicle and trailer
US9683848B2 (en) System for determining hitch angle
JP4366716B2 (ja) 車両用情報表示装置
US20140358424A1 (en) System and method of inputting an intended backing path
US8218006B2 (en) Near-to-eye head display system and method
US20100287500A1 (en) Method and system for displaying conformal symbology on a see-through display
BR102019008576B1 (pt) Máquina de trabalho móvel
JP6545423B2 (ja) 調整装置、表示システム及び調整方法
US20210019942A1 (en) Gradual transitioning between two-dimensional and three-dimensional augmented reality images
TW201009802A (en) Method and system for operating a display device
US11024040B2 (en) Dynamic object tracking
US10382746B1 (en) Stereoscopic augmented reality head-worn display with indicator conforming to a real-world object
CN110031975B (zh) 在车辆中校准增强现实眼镜的方法和系统与增强现实眼镜
KR102531888B1 (ko) 자동차에서 디스플레이 장치를 작동하기 위한 방법
JP2016091192A (ja) 虚像表示装置、制御方法、プログラム、及び記憶媒体
US20210142492A1 (en) Moving object tracking using object and scene trackers
KR20170055577A (ko) 헤드업 디스플레이를 이용한 건물정보 표시 장치 및 방법
US20210216769A1 (en) Providing augmented reality images to an operator of a machine
JP7367922B2 (ja) 操縦支援システム
JP2019081480A (ja) ヘッドアップディスプレイ装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190326

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20190412

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20190412

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200423

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200526

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200811

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201215

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210222

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210713