JP2019172243A - Control device, display device, movable body, control method and program - Google Patents

Control device, display device, movable body, control method and program Download PDF

Info

Publication number
JP2019172243A
JP2019172243A JP2019050377A JP2019050377A JP2019172243A JP 2019172243 A JP2019172243 A JP 2019172243A JP 2019050377 A JP2019050377 A JP 2019050377A JP 2019050377 A JP2019050377 A JP 2019050377A JP 2019172243 A JP2019172243 A JP 2019172243A
Authority
JP
Japan
Prior art keywords
image data
future
image
vehicle
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019050377A
Other languages
Japanese (ja)
Inventor
敬太 片桐
Keita Katagiri
敬太 片桐
賢一郎 齊所
Kenichiro Saisho
賢一郎 齊所
真人 草▲なぎ▼
Masato Kusanagi
真人 草▲なぎ▼
紘史 山口
Hiroshi Yamaguchi
紘史 山口
友規 鈴木
Tomonori Suzuki
友規 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to PCT/JP2019/013470 priority Critical patent/WO2019189515A1/en
Priority to US17/041,325 priority patent/US20210016793A1/en
Priority to EP19721395.2A priority patent/EP3775780A1/en
Publication of JP2019172243A publication Critical patent/JP2019172243A/en
Pending legal-status Critical Current

Links

Landscapes

  • Instrument Panels (AREA)
  • Traffic Control Systems (AREA)

Abstract

To provide a behavior of own vehicle so as to be visible at certain future timing.SOLUTION: A control device generates an image to be displayed so as to be visible while being superposed on a surrounding environment when being viewed from an occupant of a movable body. The control device generates image data including a symbol that indicates a location of the movable body at certain future timing based on at least any one of internal information and external information of the movable body.SELECTED DRAWING: Figure 6

Description

本発明は、制御装置、表示装置、移動体、制御方法、及びプログラムに関する。   The present invention relates to a control device, a display device, a moving body, a control method, and a program.

車両、船舶、航空機、産業用ロボット等の移動体に搭載されるヘッドアップディスプレイ(HUD:Head-Up Display)の開発が進められている。HUDは、人間の視野に直接情報を映し出すものであり、移動体の乗員に種々の情報を提供する。HUDでは、生成された光像をフロントガラスやコンバイナ等によって乗員の方向に回折させ、乗員の視線の前方の虚像位置に画像が存在するかのように表示する。画像は、虚像位置で周囲の環境に重畳されて表示される。   Development of a head-up display (HUD) mounted on a moving body such as a vehicle, a ship, an aircraft, or an industrial robot is being promoted. The HUD projects information directly on the human visual field and provides various information to the passengers of the moving body. In the HUD, the generated light image is diffracted in the direction of the occupant by a windshield, a combiner, or the like, and displayed as if an image exists at the virtual image position in front of the sight line of the occupant. The image is displayed superimposed on the surrounding environment at the virtual image position.

実際には存在しない仮想の先行車を乗員の前方に表示する車両用表示装置が知られている(たとえば、特許文献1参照)。この文献では、先行車がいないときに仮想の先行車を乗員の前方に表示し、自車両の走行状態と道路状況とに基づいて仮想の先行車の走行状態を変更することで、乗員は自車両の状態と前方の情報を違和感なく把握することができる。   2. Description of the Related Art A vehicle display device that displays a virtual preceding vehicle that does not actually exist in front of an occupant is known (see, for example, Patent Document 1). In this document, when a preceding vehicle is not present, a virtual preceding vehicle is displayed in front of the occupant, and the occupant can automatically change the traveling state of the virtual preceding vehicle based on the traveling state of the host vehicle and the road condition. It is possible to grasp the state of the vehicle and the information ahead in a sense of incongruity.

公知の車両用表示装置では、自車両の前方の走行車線上で基準車間距離Lroだけ離れた位置が仮想先行車の位置に設定されている。基準車間距離Lroは自車両の速度の関数として規定されており、現時点よりも後の自車両の挙動については考慮されていない。将来のある時点での自車両の挙動を乗員に視認可能に提示することができれば、乗員は安心感をもって自車両を走行させることができるはずである。   In a known vehicle display device, a position that is separated by a reference inter-vehicle distance Lro on the traveling lane ahead of the host vehicle is set as the position of the virtual preceding vehicle. The reference inter-vehicle distance Lro is defined as a function of the speed of the host vehicle, and the behavior of the host vehicle after the current time is not taken into consideration. If the behavior of the host vehicle at a certain time in the future can be presented to the occupant so as to be visible, the occupant should be able to drive the host vehicle with a sense of security.

本発明は、移動体の乗員に将来のある時点におけるその移動体の挙動を視認可能に提示することのできる制御技術を提供することを目的とする。   An object of this invention is to provide the control technique which can show to the passenger | crew of a mobile body the behavior of the mobile body in the future at a certain time point so that visual recognition is possible.

上記目的を実現するために、移動体の乗員から見て周囲の環境に重畳して見えるように表示される画像のデータを生成する制御装置は、
前記移動体の内部情報と外部情報の少なくとも何れか一方に基づいた将来の所定の時点における前記移動体の位置、を示すシンボルを含む画像データを生成する画像データ生成部、
を有する。
In order to achieve the above object, a control device that generates data of an image that is displayed so as to be superimposed on the surrounding environment when viewed from a passenger of a moving object,
An image data generating unit that generates image data including a symbol indicating a position of the moving body at a predetermined future time based on at least one of internal information and external information of the moving body;
Have

上記の構成により、乗員は将来のある時点の移動体の挙動を視覚的に把握することができ、安心感をもって移動体を操作することができる。   With the above configuration, the occupant can visually grasp the behavior of the moving body at a certain time in the future, and can operate the moving body with a sense of security.

表示装置を搭載した移動体の一例として、HUDを搭載した自動車を示す模式図である。It is a schematic diagram which shows the motor vehicle carrying HUD as an example of the mobile body carrying a display apparatus. 所定軸周りの自動車の回転を説明する図である。It is a figure explaining rotation of the automobile around a predetermined axis. 投射エリアの配置例を示す図である。It is a figure which shows the example of arrangement | positioning of a projection area. 表示装置が搭載された表示システムの構成例を示す図である。It is a figure which shows the structural example of the display system by which a display apparatus is mounted. 実施形態の表示装置のハードウェア構成図である。It is a hardware block diagram of the display apparatus of embodiment. 表示装置と、移動体に搭載されるその他の電子機器との接続関係を示す模式図である。It is a schematic diagram which shows the connection relation of a display apparatus and the other electronic device mounted in a moving body. 実施形態の表示装置の画像制御部の機能ブロック図である。It is a functional block diagram of the image control part of the display apparatus of embodiment. 将来の自車両のシンボルの重畳表示の例を示す図である。It is a figure which shows the example of the superimposed display of the symbol of the future own vehicle. 将来の自車両のシンボルの重畳表示の例を示す図である。It is a figure which shows the example of the superimposed display of the symbol of the future own vehicle. 自車両の状態の変化量に応じた表示タイミングの算出を説明する図である。It is a figure explaining calculation of the display timing according to the amount of change of the state of the own vehicle. 自車両の状態の変化量に応じた表示タイミングの算出を説明する図である。It is a figure explaining calculation of the display timing according to the amount of change of the state of the own vehicle. 自車両の状態の変化量に応じた表示タイミングの算出を説明する図である。It is a figure explaining calculation of the display timing according to the amount of change of the state of the own vehicle. 自車両の状態の変化量の取得例を示す図である。It is a figure which shows the example of acquisition of the variation | change_quantity of the state of the own vehicle. 実施形態の表示制御方法のフローチャートである。It is a flowchart of the display control method of an embodiment.

実施形態では、車両等の移動体に搭載された表示装置で、現時点よりも後の将来の移動体(自車両)の走行画像を、前方の道路などの現実環境に重畳して表示する。   In the embodiment, with a display device mounted on a moving body such as a vehicle, a traveling image of a future moving body (own vehicle) after the current time is displayed superimposed on a real environment such as a road ahead.

図1は、表示装置1を搭載した移動体の一例として、自動車300を模式的に示す。表示装置1は、この例では車載ヘッドアップディスプレイ(以下、「HUD」と省略する)である。表示装置1が搭載される移動体は、自動車300に限定されず、車両、船舶、航空機、産業用ロボット等の移動体に表示装置1を搭載することができる。自動車300は、アダプティブクルーズコントロール(ACC:半自動走行)の機能を有しており、半自動運転と手動運転を切り替えて走行可能であることが想定されているが、本発明はACC機能を有していない車両にも適用可能である。   FIG. 1 schematically shows an automobile 300 as an example of a moving body on which the display device 1 is mounted. In this example, the display device 1 is an in-vehicle head-up display (hereinafter abbreviated as “HUD”). The moving body on which the display device 1 is mounted is not limited to the automobile 300, and the display device 1 can be mounted on a moving body such as a vehicle, a ship, an aircraft, and an industrial robot. The automobile 300 has a function of adaptive cruise control (ACC: semi-automatic running) and is assumed to be able to run by switching between semi-automatic driving and manual driving. However, the present invention has an ACC function. It is also applicable to vehicles that do not.

表示装置1は、例えば自動車300のダッシュボード上、またはダッシュボード内に設置され、搭乗者または操作員(以下、「乗員P」とする)の前方のフロントガラス310の所定の投射エリア311に、光像を投射する。   The display device 1 is installed, for example, on a dashboard of the automobile 300 or in a dashboard, and a predetermined projection area 311 of a windshield 310 in front of a passenger or an operator (hereinafter referred to as “occupant P”) A light image is projected.

表示装置1は、光学装置10と制御装置20を有する。制御装置20は主として、フロントガラス310に投射する画像の生成と表示の制御を行う。光学装置10は、生成された画像をフロントガラス310の投射エリア311に投射する。光学装置10の構成は、本発明と直接関連しないので詳細な構成は図示しないが、たとえば、後述するようにレーザ光源から出力されるレーザ光を投射エリア311と光源の間に設けられたスクリーンに二次元走査して中間像を形成し、この中間像を投射エリア311に投射する。スクリーンは、マイクロレンズアレイ、マイクロミラーアレイ等で構成することができる。   The display device 1 includes an optical device 10 and a control device 20. The control device 20 mainly controls generation and display of an image projected on the windshield 310. The optical device 10 projects the generated image onto the projection area 311 of the windshield 310. Since the configuration of the optical device 10 is not directly related to the present invention, a detailed configuration is not shown. For example, as will be described later, the laser light output from the laser light source is applied to a screen provided between the projection area 311 and the light source. Two-dimensional scanning is performed to form an intermediate image, and this intermediate image is projected onto the projection area 311. The screen can be composed of a microlens array, a micromirror array, or the like.

フロントガラス310の投射エリア311は、光の一部の成分を反射し、他の一部を透過させる透過反射部材で形成されている。光学装置10で形成された中間像は、投射エリア311で反射されて、乗員Pの方向に向かう。反射光が破線で示す光路で乗員Pの瞳に入射したときに、乗員Pはフロントガラス310の投射エリア311に投影された画像を視認する。このとき、乗員Pは、光像があたかも虚像位置Iから点線の光路を通って瞳に入射しているかのように感じる。表示された画像は、虚像位置Iに存在するかのように認識される。   The projection area 311 of the windshield 310 is formed of a transmission / reflection member that reflects a part of the light component and transmits the other part. The intermediate image formed by the optical device 10 is reflected by the projection area 311 and travels toward the passenger P. When the reflected light enters the occupant P's pupil through an optical path indicated by a broken line, the occupant P visually recognizes the image projected on the projection area 311 of the windshield 310. At this time, the occupant P feels as if the optical image is incident on the pupil from the virtual image position I through the dotted optical path. The displayed image is recognized as if it exists at the virtual image position I.

虚像位置Iにおける虚像は、自動車300の前方の現実環境、たとえば走行路上に重畳されて表示される。この意味で、虚像位置Iに結像される画像をAR(Augmented Reality:拡張現実)画像と呼んでもよい。   The virtual image at the virtual image position I is displayed superimposed on the real environment in front of the automobile 300, for example, on the traveling road. In this sense, an image formed at the virtual image position I may be referred to as an AR (Augmented Reality) image.

図1Bは、自動車300のピッチング角、ヨー角、及び、ロール角を示す。移動体など前後・左右・上下が決まった物体が、前後の軸(図のZ軸)に対して回転(又は傾斜)することをローリング、左右の軸(図のX軸)に対して回転(又は傾斜)することをピッチング、上下軸(図のY軸)に対して回転(又は傾斜)することをヨーイングという。また、それぞれの回転量又は傾斜量をロール角、ピッチング角、ヨー角という。   FIG. 1B shows the pitching angle, yaw angle, and roll angle of the automobile 300. Rotating (or tilting) an object with a fixed front / rear, left / right, and up / down movement, such as a moving object, with respect to the front / rear axis (Z-axis in the figure) and rotating with respect to the left / right axis (X-axis in the figure) (Or tilting) is called pitching, and rotating (or tilting) with respect to the vertical axis (Y-axis in the figure) is called yawing. Each rotation amount or inclination amount is referred to as a roll angle, a pitching angle, or a yaw angle.

図2は、投射エリア311の配置例を示す図である。投射エリア311は、たとえば運転席から見てフロントガラス310の正面位置よりもやや下方に配置される比較的小さな領域である。乗員Pの視点と虚像位置Iを結ぶ線分は、投射エリア311の範囲内に含まれ、虚像位置Iで拡大された画像が視認される。   FIG. 2 is a diagram illustrating an arrangement example of the projection area 311. The projection area 311 is a relatively small area that is disposed slightly below the front position of the windshield 310 when viewed from the driver's seat, for example. A line segment connecting the viewpoint of the occupant P and the virtual image position I is included in the range of the projection area 311, and an image enlarged at the virtual image position I is visually recognized.

投射エリア311は、後述する画像が重畳表示される表示エリアと同じではない。投射エリア311は、レーザ光により形成された光像が投射される面であるのに対し、表示エリアは投射エリア311よりも外側で乗員Pの視野内にあり、重畳表示される光像が結像する虚像位置Iを含む一定のエリアをいう。表示エリアは、たとえば乗員Pの視点から前方に十数メートルほど離れた位置に設定される。   The projection area 311 is not the same as a display area on which an image to be described later is superimposed and displayed. The projection area 311 is a surface on which an optical image formed by laser light is projected, whereas the display area is outside the projection area 311 and within the field of view of the occupant P. A certain area including the virtual image position I to be imaged. The display area is set, for example, at a position about a dozen meters away from the viewpoint of the passenger P.

自動車300には、自動車300の周囲環境の情報を取得するカメラ、LiDAR(Light Detection and Raging:光検出及び測距)等の検出器5が搭載されていてもよい。検出器5は、たとえば自動車300の前方、側方等の外部環境の画像を撮影する。検出器5は、外部情報取得用のセンサの一例であり、カメラに替えて、またはカメラと組み合わせて超音波レーダ、レーザレーダ等を用いてもよい。   The automobile 300 may be equipped with a camera 5 that acquires information about the environment around the automobile 300 and a detector 5 such as LiDAR (Light Detection and Raging). The detector 5 captures an image of the external environment such as the front or side of the automobile 300, for example. The detector 5 is an example of a sensor for acquiring external information, and an ultrasonic radar, a laser radar, or the like may be used instead of the camera or in combination with the camera.

図3Aは、表示装置1が搭載された表示システムの構成例を示す。表示システム150は、CAN(Controller Area Network)バスなどの車載ネットワークNWを介して相互に接続される車両ナビゲーション装置400、舵角センサ152、表示装置1、及び車速センサ154を有する。   FIG. 3A shows a configuration example of a display system in which the display device 1 is mounted. The display system 150 includes a vehicle navigation device 400, a steering angle sensor 152, a display device 1, and a vehicle speed sensor 154 that are connected to each other via an in-vehicle network NW such as a CAN (Controller Area Network) bus.

車両ナビゲーション装置400は、GPSに代表されるGNSS(Global Navigation Satellite System)を有し、車両の現在地を検出して、電子地図上に車両の位置を表示する。また、出発地と目的地の入力を受け付け、出発地から目的地までの経路を検索して電子地図上に経路を表示したり、進路変更の手前で運転者に進行方向を音声、文字(ディスプレイに表示される)、又はアニメーション等で案内したりする。なお、車両ナビゲーション装置400は携帯電話網などを介してサーバと通信してもよい。この場合、サーバが電子地図を自動車300に送信する、経路検索を行う等が可能である。   The vehicle navigation apparatus 400 has a GNSS (Global Navigation Satellite System) represented by GPS, detects the current location of the vehicle, and displays the position of the vehicle on an electronic map. It also accepts input of departure and destination, searches for the route from the departure point to the destination and displays the route on an electronic map, or voices and displays the direction of travel to the driver before changing the route (display Or displayed by animation or the like. Note that the vehicle navigation apparatus 400 may communicate with a server via a mobile phone network or the like. In this case, the server can transmit an electronic map to the automobile 300, perform a route search, and the like.

舵角センサ152は、運転者によるステアリングホイールの操舵角を検出するセンサである。主に操舵の方向と操舵量を検出する。どのような原理で検出してもよいが例えば、ステアリングホイールと連動して回転するスリット円盤を通過する光のON/OFFをカウントするものがある。   The steering angle sensor 152 is a sensor that detects the steering angle of the steering wheel by the driver. It mainly detects the direction and amount of steering. For example, there is one that counts ON / OFF of light passing through a slit disk that rotates in conjunction with a steering wheel.

車速センサ154は、例えば車輪の回転をホール素子などで検出し、回転速度に応じたパルス波を出力する。単位時間の回転量(パルス数)とタイヤの外径とから車速を検出する。   The vehicle speed sensor 154 detects, for example, the rotation of the wheel with a hall element and outputs a pulse wave corresponding to the rotation speed. The vehicle speed is detected from the rotation amount (number of pulses) per unit time and the outer diameter of the tire.

表示装置1は、車載された各センサからの情報を取得できる。表示装置1は車載ネットワークからではなく外部のネットワークからの情報を取得してもよい。例えば、カーナビゲーション情報、操舵角、又は車速などを取得できる。操舵角、車速については、今後自動運転が実用化された場合、ITS(Intelligent Transport Systems)によって走行車両の位置姿勢や車速を観測して車載デバイスをコントロール可能であると考えられる。   The display device 1 can acquire information from each sensor mounted on the vehicle. The display device 1 may acquire information from an external network instead of the in-vehicle network. For example, car navigation information, steering angle, or vehicle speed can be acquired. With regard to the steering angle and vehicle speed, it is considered that in-vehicle devices can be controlled by observing the position and orientation of the traveling vehicle and the vehicle speed by ITS (Intelligent Transport Systems) when automatic driving is put into practical use in the future.

図3Bは、実施形態の表示装置1のハードウェア構成例である。表示装置1の光学装置10は、光源としてのレーザダイオード(LD)101と、光走査デバイスとしてのMEMS(Micro Electro Mechanical System)102を有する。LD101は、たとえば、赤(R)、緑(G)、青(B)の光を出力するレーザ素子を含む。MEMS102は、LD101から出力されるレーザ光を、LD101と投射エリア311の間に配置されたスクリーン上に二次元走査して光画像を描画する。光走査デバイスとしては、MEMSの他にポリゴンミラー、カルバノミラー等を用いてもよい。   FIG. 3B is a hardware configuration example of the display device 1 according to the embodiment. The optical device 10 of the display device 1 includes a laser diode (LD) 101 as a light source and a MEMS (Micro Electro Mechanical System) 102 as an optical scanning device. LD 101 includes, for example, a laser element that outputs red (R), green (G), and blue (B) light. The MEMS 102 draws an optical image by two-dimensionally scanning the laser beam output from the LD 101 on a screen disposed between the LD 101 and the projection area 311. As the optical scanning device, a polygon mirror, a carbano mirror, or the like may be used in addition to MEMS.

制御装置20は、FPGA(Field-Programmable Gate Array)201、CPU(Central Processing Unit)202、ROM(Read Only Memory)203、RAM(Random Access Memory)204、インターフェース(以下、「I/F」という)205、バスライン206、LDドライバ207、MEMSコントローラ208、及び補助記憶装置としてのSSD(Solid State Drive)209を備えている。また、着脱可能に配置される記録媒体211を有していてもよい。   The control device 20 includes an FPGA (Field-Programmable Gate Array) 201, a CPU (Central Processing Unit) 202, a ROM (Read Only Memory) 203, a RAM (Random Access Memory) 204, and an interface (hereinafter referred to as “I / F”). 205, a bus line 206, an LD driver 207, a MEMS controller 208, and an SSD (Solid State Drive) 209 as an auxiliary storage device. Further, the recording medium 211 may be detachably arranged.

FPGA201は、LDドライバ207とMEMSコントローラ208の動作を制御する。LDドライバ207は、FPGA201の制御の下で、LD101を駆動するドライブ信号を生成し、出力する。ドライブ信号によって、R,G,Bの光を出色する各レーザ素子の発光タイミングが制御される。MEMSコントローラ208は、FPGA201の制御の下でMEMS制御信号を生成して出力し、MEMS102の走査角度と走査タイミングを制御する。FPGA201に替えて、PLG(Programmable Logic Device)等のその他のロジックデバイスを用いてもよい。   The FPGA 201 controls the operation of the LD driver 207 and the MEMS controller 208. The LD driver 207 generates and outputs a drive signal for driving the LD 101 under the control of the FPGA 201. The light emission timing of each laser element that emits R, G, B light is controlled by the drive signal. The MEMS controller 208 generates and outputs a MEMS control signal under the control of the FPGA 201, and controls the scanning angle and scanning timing of the MEMS 102. Instead of the FPGA 201, other logic devices such as PLG (Programmable Logic Device) may be used.

CPU202は、表示装置1の画像データ処理の全般を制御する。ROM203は、CPU202が表示装置1の各機能を制御するために実行するプログラムを含む各種のプログラムを記憶している。ROM203は、経路画像の重畳表示に用いられる各種の画像オブジェクトを保存していてもよい。RAM204は、CPU202のワークエリアをして使用される。   The CPU 202 controls the overall image data processing of the display device 1. The ROM 203 stores various programs including a program executed by the CPU 202 to control each function of the display device 1. The ROM 203 may store various image objects used for the superimposed display of route images. The RAM 204 is used as a work area for the CPU 202.

I/F205は、外部コントローラ等と通信するためのインターフェースであり、例えば、自動車300のCANバスを介して、検出器5、車両ナビゲーション装置、各種センサ装置等に接続される。   The I / F 205 is an interface for communicating with an external controller or the like, and is connected to, for example, the detector 5, the vehicle navigation device, various sensor devices, and the like via the CAN bus of the automobile 300.

表示装置1は、I/F205を介して記録媒体211の読み取りや書き込みを行うことができる。表示装置1での処理を実現する画像処理プログラムは、記録媒体211によって提供されてもよい。この場合、画像処理プログラムは、記録媒体211からI/F205を介してSSD209にインストールされる。画像処理プログラムのインストールは必ずしも記録媒体211によって行う必要はなく、ネットワークを介して他のコンピュータからダウンロードするようにしてもよい。SSD209は、インストールされた画像処理プログラムを格納すると共に、必要なファイルやデータ等を格納する。   The display device 1 can read and write to the recording medium 211 via the I / F 205. An image processing program for realizing processing in the display device 1 may be provided by the recording medium 211. In this case, the image processing program is installed from the recording medium 211 to the SSD 209 via the I / F 205. Installation of the image processing program is not necessarily performed by the recording medium 211, and may be downloaded from another computer via a network. The SSD 209 stores the installed image processing program and also stores necessary files and data.

記録媒体211の一例としては、フレキシブルディスク、CD−ROM、DVDディスク、SDメモリカード、USB(Universal Serial Bus)メモリ等の可搬型の記録媒体が挙げられる。また、補助記憶装置としてはSSD209に替えて、HDD(Hard Disk Drive)、フラッシュメモリ等を用いてもよい。SDD209等の補助記憶装置と、記録媒体211は、いずれもコンピュータ読み取り可能な記録媒体である。   Examples of the recording medium 211 include portable recording media such as a flexible disk, a CD-ROM, a DVD disk, an SD memory card, and a USB (Universal Serial Bus) memory. Further, as an auxiliary storage device, an HDD (Hard Disk Drive), a flash memory, or the like may be used instead of the SSD 209. The auxiliary storage device such as the SDD 209 and the recording medium 211 are both computer-readable recording media.

図4は、実施形態の表示装置1と、自動車300に搭載されるその他の電子機器との接続関係を示す模式図である。表示装置1は、光学部230と画像制御部250を有する。光学部230は、大まかには光学装置10に対応するが、FPGA201、LDドライバ207、及びMEMSコントローラ208を光学部230に含めてもよい。画像制御部250は、制御装置20の少なくとも一部によって実現される。   FIG. 4 is a schematic diagram illustrating a connection relationship between the display device 1 according to the embodiment and other electronic devices mounted on the automobile 300. The display device 1 includes an optical unit 230 and an image control unit 250. The optical unit 230 roughly corresponds to the optical device 10, but the FPGA 201, the LD driver 207, and the MEMS controller 208 may be included in the optical unit 230. The image control unit 250 is realized by at least a part of the control device 20.

表示装置1は、I/F205及びCANを介して、ECU(Electronic Control Unit:電子制御ユニット)600、車両ナビゲーション装置400、センサ群500等の電子機器に接続されている。センサ群500は、図3Aのシステムの舵角センサ152、及び車速センサ154を含む。自動車300に検出器5が設置される場合は、検出器5もI/F205を介して表示装置1に接続されていてもよい。   The display device 1 is connected to electronic devices such as an ECU (Electronic Control Unit) 600, a vehicle navigation device 400, and a sensor group 500 via an I / F 205 and a CAN. The sensor group 500 includes the steering angle sensor 152 and the vehicle speed sensor 154 of the system of FIG. 3A. When the detector 5 is installed in the automobile 300, the detector 5 may also be connected to the display device 1 via the I / F 205.

表示装置1は、車両ナビゲーション装置400、センサ群500、検出器5等から外部情報を取得して、自車両が走行する経路の前方にある交差点、カーブ、障害物等の存在を検知する。   The display device 1 acquires external information from the vehicle navigation device 400, the sensor group 500, the detector 5, and the like, and detects the presence of an intersection, a curve, an obstacle, etc. ahead of the route on which the host vehicle travels.

センサ群500は、アクセル量センサ、ブレーキ量センサ、ハンドルの角度(操舵角)センサ、タイヤの角度センサ、加速度センサ、ジャイロセンサ(またはヨーレートセンサ)、車速センサ、レーザレーダ装置、明るさセンサ、雨滴センサ等を含み、自動車300の挙動、周囲の環境、前方の走行車両との間の距離等を検知する。   The sensor group 500 includes an accelerator amount sensor, a brake amount sensor, a steering wheel angle sensor, a tire angle sensor, an acceleration sensor, a gyro sensor (or a yaw rate sensor), a vehicle speed sensor, a laser radar device, a brightness sensor, and raindrops. It includes sensors and the like, and detects the behavior of the automobile 300, the surrounding environment, the distance to the traveling vehicle ahead, and the like.

車両ナビゲーション装置400は、道路地図、GPS情報、交通規制情報、各道路の工事情報等を含むナビゲーション情報を有している。   The vehicle navigation apparatus 400 has navigation information including a road map, GPS information, traffic regulation information, construction information for each road, and the like.

車両ナビゲーション装置400、センサ群500、及び検出器5で取得された情報は画像制御部250に供給され、取得された情報の少なくとも一部が、将来の自車両のシンボルを含む画像データの生成に用いられる。   Information acquired by the vehicle navigation device 400, the sensor group 500, and the detector 5 is supplied to the image control unit 250, and at least a part of the acquired information is used to generate image data including a symbol of a future host vehicle. Used.

図5は、画像制御部250の機能ブロック図である。画像制御部250は、情報入力部800と、情報解析部810と、表示タイミング取得部820と、画像データ生成部830と、画像描画部840とを有する。   FIG. 5 is a functional block diagram of the image control unit 250. The image control unit 250 includes an information input unit 800, an information analysis unit 810, a display timing acquisition unit 820, an image data generation unit 830, and an image drawing unit 840.

情報入力部800は、たとえばI/F205で実現され、車両ナビゲーション装置400、センサ群500、ECU600、検出器5等からの情報を入力する。情報入力部800は、内部情報入力部8001と外部情報入力部8002を有する。内部情報は、自動車300自体の状態を表わす情報である。内部情報入力部8001は、センサ群500、及びECU600からCAN等を介して自動車300の現在の位置、速度、角速度情報(ヨー、ロール、ピッチ)等を取得する。ヨーは、自動車の左右の回転を示し、ステアリングの角度から計算されてもよいし3軸センサから取得されてもよい。ロールは、自動車300の左右の傾きを示し、ピッチは、自動車300の前後の傾きを示す。   The information input unit 800 is realized by, for example, the I / F 205, and inputs information from the vehicle navigation device 400, the sensor group 500, the ECU 600, the detector 5, and the like. The information input unit 800 includes an internal information input unit 8001 and an external information input unit 8002. The internal information is information representing the state of the automobile 300 itself. The internal information input unit 8001 acquires the current position, speed, angular velocity information (yaw, roll, pitch) of the automobile 300 from the sensor group 500 and the ECU 600 via CAN or the like. The yaw indicates the left and right rotation of the automobile, and may be calculated from the steering angle or may be obtained from a three-axis sensor. The roll indicates the left / right inclination of the automobile 300, and the pitch indicates the front / rear inclination of the automobile 300.

外部情報は、内部情報以外の自動車300の外部の状況等を示す情報である。外部情報入力部8002は、車両ナビゲーション装置400からナビゲーション情報、地図情報などを取得する。また、検出器5から撮像情報を取得してもよい。   The external information is information indicating an external situation of the automobile 300 other than the internal information. The external information input unit 8002 acquires navigation information, map information, and the like from the vehicle navigation device 400. Moreover, you may acquire imaging information from the detector 5. FIG.

情報解析部810は、道路状況検知部8110と車両変化量算出部8120を有する。道路状況検知部8110は、取得された外部情報に基づいて、障害物、交差点、カーブ等の道路状況を検知する。車両変化量算出部8120は、取得された内部情報に基づいて、自車両の位置姿勢等の状態の変化量を算出する。道路状況(または走行状況)と、自車両の状態の変化量を合わせて、「移動状況」と呼んでもよい。情報解析部810は、情報入力部800で取得された外部情報と内部情報に基づいて、自車両の移動状況を解析する。   The information analysis unit 810 includes a road condition detection unit 8110 and a vehicle change amount calculation unit 8120. The road condition detection unit 8110 detects road conditions such as obstacles, intersections, and curves based on the acquired external information. The vehicle change amount calculation unit 8120 calculates a change amount of a state such as the position and orientation of the host vehicle based on the acquired internal information. The road condition (or running condition) and the amount of change in the condition of the host vehicle may be combined and called “movement situation”. The information analysis unit 810 analyzes the movement status of the host vehicle based on the external information and internal information acquired by the information input unit 800.

表示タイミング取得部820は、情報入力部800で取得された自車両の内部情報及び外部情報と、情報解析部810で得られた解析情報に基づいて、何秒後あるいは何メートル先の自車両の将来像を表示するかを示すタイミング情報を取得する。どれくらい先の自車両の将来像を生成するか、というタイミングの計算自体は、表示タイミング取得部820で行ってもよいし、画像制御部250の外部の計算機で行ってもよい。   The display timing acquisition unit 820 is based on the internal information and external information of the own vehicle acquired by the information input unit 800 and the analysis information obtained by the information analysis unit 810, and the display timing acquisition unit 820 Timing information indicating whether to display an image in the future is acquired. The calculation of the timing of how far the future image of the host vehicle is to be generated may be performed by the display timing acquisition unit 820 or by a computer outside the image control unit 250.

画像データ生成部830は、情報解析部810で得られた移動状況に基づいて、将来のある時点(または位置)における自車両のシンボルを含む画像データを生成する。「移動状況」は、道路状況検知部8110で検知された道路状況と、車両変化量算出部8120で得られた自車両の状態の変化量の少なくとも一方である。道路状況には、走行予定の経路上の障害物の存在、右左折路、分岐、交差点の有無等が含まれる。自車両の状態の変化量には、位置姿勢の変化量、速度の変化量(加減速度)等が含まれる。   The image data generation unit 830 generates image data including the symbol of the host vehicle at a certain future time (or position) based on the movement situation obtained by the information analysis unit 810. The “movement situation” is at least one of a road situation detected by the road situation detection unit 8110 and a change amount of the state of the host vehicle obtained by the vehicle change amount calculation unit 8120. The road conditions include the presence of obstacles on the planned route, right / left turn roads, branches, presence / absence of intersections, and the like. The amount of change in the state of the host vehicle includes the amount of change in position and orientation, the amount of change in speed (acceleration / deceleration), and the like.

画像データ生成部830は、自車両のシンボルとして、たとえばROM204に保存されている自車両のオブジェクトを読み出して、3次元コンピュータグラフィクス技術により加工して、将来のある時点での自車両の3次元画像データを生成してもよい。また、画像データ生成部は、予め記憶しておいた画像を自車両のシンボルとして使用しても良い。この場合、自車両のシンボルに対応する複数の角度の画像を記憶しておいて、読み出して使用しても良い。自車両のシンボルは、実際の車両を撮影した画像から生成されてもよいし、CAD画像から生成されてもよい。また、自車両のシンボルはアイコンのような画像として表示されても良い。   The image data generation unit 830 reads out an object of the host vehicle stored in, for example, the ROM 204 as a symbol of the host vehicle, processes the object by a three-dimensional computer graphics technique, and generates a three-dimensional image of the host vehicle at a certain time in the future. Data may be generated. The image data generation unit may use an image stored in advance as a symbol of the host vehicle. In this case, images of a plurality of angles corresponding to the symbol of the host vehicle may be stored and read out and used. The symbol of the host vehicle may be generated from an image obtained by photographing an actual vehicle, or may be generated from a CAD image. Further, the symbol of the host vehicle may be displayed as an image such as an icon.

画像描画部840は制御部8410を有し、画像データ生成部830によって生成された画像データに基づいて、光学装置10による画像の投射動作を制御する。画像描画部840は、FPGA201、LDドライバ207、及びMEMSコントローラ208によって実現され得る。画像描画部840により将来の自車両の光像が描画され、光像がフロントガラス310の投射エリア311に投射される。これにより、虚像位置Iを含む表示エリアに将来の自車両の虚像が重畳表示される。   The image drawing unit 840 includes a control unit 8410 and controls the image projection operation by the optical device 10 based on the image data generated by the image data generation unit 830. The image drawing unit 840 can be realized by the FPGA 201, the LD driver 207, and the MEMS controller 208. The image drawing unit 840 draws a future optical image of the host vehicle, and the optical image is projected onto the projection area 311 of the windshield 310. Thereby, the virtual image of the future own vehicle is superimposed and displayed on the display area including the virtual image position I.

<将来の自車両の重畳表示の例>
図6は、将来の自車両のシンボル11の重畳表示の例を示す。将来の自車両のシンボル11は、所定の表示エリア13内で現実の環境、たとえば前方の走行予定の道路12に重畳して見えるように、虚像として表示される。図6の(A)は、自車両が安定して走行しているときの将来の自車両の走行状態を示す画像である。図6の(B)は、自車両の走行の態様が大きく変化する将来の時点での自車両の走行状態を示す画像である。
<Example of superimposed display of future vehicle>
FIG. 6 shows an example of superimposed display of the symbol 11 of the future host vehicle. The symbol 11 of the future own vehicle is displayed as a virtual image so as to be superimposed on a real environment, for example, a road 12 scheduled to travel ahead in a predetermined display area 13. FIG. 6A is an image showing a future traveling state of the host vehicle when the host vehicle is traveling stably. FIG. 6B is an image showing the traveling state of the host vehicle at a future time when the traveling mode of the host vehicle changes greatly.

図6の(A)では、自車両の状態の変化量が少ない(所定の閾値未満などの)とき、あるいは道路12に障害物や右左折路等が検知されないときに、現在点からみて比較的遠い時点または位置を走行している将来の自車両のシンボル11が、たとえば3D画像を二次元に投影した画像として表示エリア13に表示される。   In FIG. 6A, when the amount of change in the state of the host vehicle is small (eg, less than a predetermined threshold), or when no obstacle or right / left turn road is detected on the road 12, A symbol 11 of a future host vehicle traveling at a distant time or position is displayed in the display area 13 as an image obtained by projecting a 3D image in two dimensions, for example.

図6の(B)では、自車両の状態の変化量が大きいとき、あるいは道路12に障害物や右左折路が検知されるときに、より近い将来、あるいは比較的近い位置を走行している将来の自車両のシンボル11が、たとえば3D画像を二次元に投影した画像として表示エリア13に表示される。   In FIG. 6B, when the amount of change in the state of the host vehicle is large, or when an obstacle or a right / left turn road is detected on the road 12, the vehicle is traveling in the near future or a relatively close position. A symbol 11 of the future host vehicle is displayed in the display area 13 as an image obtained by projecting a 3D image in two dimensions, for example.

自車両の変化量が大きいときとは、車速の変化が大きいとき(加速、または減速のレートが大きいとき)、ヨー、ピッチ、ロールのいずれかの量の変化が大きいときなどである。たとえば、カーブにさしかかっているときは、ヨーレートとローリング量が大きくなる。下りまたは上りの坂道にさしかかっているときはピッチが大きくなる。障害物を回避しようとしているときは、ヨーレートが大きくなるが速度は減少する。車線変更をしようとしているときは、ヨーレートが大きくなる。   The case where the amount of change of the host vehicle is large is when the change of the vehicle speed is large (when the acceleration or deceleration rate is large), or when the amount of any of yaw, pitch, or roll is large. For example, when approaching a curve, the yaw rate and rolling amount increase. The pitch increases when approaching downhill or uphill slopes. When trying to avoid an obstacle, the yaw rate increases but the speed decreases. When trying to change lanes, the yaw rate increases.

表示エリア13に表示される画像は、乗員の視点から見たときに、現実の環境(この例では前方の道路12)とスケール、遠近感が同期して表示される。図6の(A)の比較的遠い将来の自車両のシンボル11の虚像は、遠方に小さく見えるように表示され、図6の(B)の比較的近い将来の自車両のシンボル11の虚像は、手前側に大きく見えるように表示される。   The image displayed in the display area 13 is displayed in synchronism with the actual environment (in this example, the road 12 ahead), scale, and perspective when viewed from the viewpoint of the passenger. The virtual image of the symbol 11 of the host vehicle in the relatively far future in FIG. 6A is displayed so as to appear small in the distance, and the virtual image of the symbol 11 of the host vehicle in the near future in FIG. , It is displayed so that it looks larger on the front side.

これにより、乗員は運転状況の変化を直感的に把握して、たとえば、半自動運転モードから手動運転に切り替えるタイミングを的確に把握することができる。ACC機能を有していない自動車300の場合も、乗員は自車両における運転状況の変化を事前に把握することができるので、ハンドル操作、アクセル/ブレーキ操作が遅れることを回避することができる。   Thereby, the passenger | crew can grasp | ascertain intuitively the change of a driving | running | working condition, for example, can grasp | ascertain correctly the timing which switches from semiautomatic driving mode to manual driving | operation. Even in the case of the automobile 300 that does not have the ACC function, since the occupant can grasp in advance the change in the driving situation in the host vehicle, it is possible to avoid delays in the steering wheel operation and the accelerator / brake operation.

比較的近い将来の自車両のシンボル11が表示エリア13の広い部分を占有する場合、乗員の視界を妨げないように、将来の自車両のシンボル11の透明度を変更してもよい。   When the symbol 11 of the host vehicle in the near future occupies a wide part of the display area 13, the transparency of the symbol 11 of the host vehicle in the future may be changed so as not to disturb the sight of the passenger.

図7は、将来の自車両のシンボル11の重畳表示の別の例を示す。図7の(A)の比較的遠い将来の自車両のシンボル11Rは、表示エリア13に占める割合が小さいので、濃い色、あるいは低い透明度で表示される。図7の(B)の比較的近い将来の自車両のシンボル11Nの虚像は、表示エリア13に占める割合が大きいので、将来の自車両のシンボル11Nは、薄い色、あるいは透明度を高くして(半透明状態で)表示される。近い将来の自車両のシンボルの走行画像の透明度を上げることで、乗員は現実の背景(道路状態)を視認することができる。   FIG. 7 shows another example of the superimposed display of the symbol 11 of the future host vehicle. Since the symbol 11R of the host vehicle in the relatively far future of FIG. 7A occupies a small area in the display area 13, it is displayed in a dark color or low transparency. Since the virtual image of the symbol 11N of the host vehicle in the near future in FIG. 7B occupies a large proportion in the display area 13, the symbol 11N of the host vehicle in the future has a light color or high transparency ( Displayed in a translucent state. By increasing the transparency of the driving image of the symbol of the vehicle in the near future, the occupant can visually recognize the actual background (road condition).

また、自車両の現在の速度と、将来のある時点における自車両の速度との差に基づいて図7の将来の自車両のシンボル11の色を変えてもよい。たとえば、現在の自車両の速度よりも表示される将来の自車両の速度が遅いときは、図7の(A)で将来の自車両のシンボル11Rを青色で表示し、現在の速度よりも将来の自車両の速度が速いときは、将来の自車両のシンボル11Rを赤色で表示する。この場合、乗員は、自車両でこれからブレーキ操作がなされるのか、アクセル操作がなされるのかを直感的に把握することができる。   Further, the color of the symbol 11 of the future host vehicle in FIG. 7 may be changed based on the difference between the current speed of the host vehicle and the speed of the host vehicle at a certain time in the future. For example, when the speed of the future own vehicle displayed is slower than the current speed of the own vehicle, the symbol 11R of the future own vehicle is displayed in blue in FIG. When the speed of the own vehicle is high, the symbol 11R of the future own vehicle is displayed in red. In this case, the occupant can intuitively grasp whether the brake operation will be performed on the host vehicle or the accelerator operation will be performed.

さらに、表示エリア13に表示される将来の自車両のシンボル11Rまたは11Nを、所定のタイミングで薄く、または小さく表示変更してもよい。たとえば、緊急時に他のコンテンツ(たとえば「この先渋滞、注意!」、「この先、事故車両あり!」などのメッセージ)を表示エリア13に表示する場合、将来の自車両のシンボル11Rまたは11Nを目立たないように表示変更することで、緊急メッセージへの注意を喚起することができる。   Further, the symbol 11R or 11N of the future host vehicle displayed in the display area 13 may be changed to be lighter or smaller at a predetermined timing. For example, when other contents (for example, messages such as “Foot traffic ahead, attention!”, “Far ahead, there is an accident vehicle!”, Etc.) are displayed in the display area 13 in an emergency, the symbol 11R or 11N of the future own vehicle is not conspicuous. By changing the display like this, it is possible to call attention to the emergency message.

図8Aは、自車両の変化量に応じた表示タイミング(何秒後の自車両を表示するか)の算出例を説明する図である。図8Aの横軸は時間、縦軸は自車両の変化量Dである。時間t=0は現在を表わし、時刻t1は、変化量Dが閾値Th1を超える将来の時点である。   FIG. 8A is a diagram illustrating a calculation example of display timing (how many seconds later the own vehicle is displayed) according to the change amount of the own vehicle. In FIG. 8A, the horizontal axis represents time, and the vertical axis represents the change amount D of the host vehicle. Time t = 0 represents the present time, and time t1 is a future time when the amount of change D exceeds the threshold Th1.

変化量Dは、たとえば、
D=α×S(t)+β×V(t) (1)
で表される。ここで、αとβはそれぞれ重み付係数であり(α+β=1)、Sはある時点におけるステアリングの操舵角に基づく変化値、Vはある時点における車速に基づく変化値である。SとVは、いずれもある時点の推定値である。ステアリングの操舵角及び車速の現在値と、現在までの履歴に基づいて予測される推定値である。
The amount of change D is, for example,
D = α × S (t) + β × V (t) (1)
It is represented by Here, α and β are weighting coefficients (α + β = 1), S is a change value based on the steering angle of the steering at a certain time point, and V is a change value based on the vehicle speed at a certain time point. S and V are both estimated values at a certain time. This is an estimated value predicted based on the current values of the steering angle and vehicle speed of the steering wheel and the history up to now.

変化量Dを求める変化値は、ステアリングの操舵角と車速に限定されない。またステアリングの操舵角と車速を統合した関数に限定されず、これらのパラメータをそれぞれ独立に用いた複数の関数を用いてもよい。   The change value for obtaining the change amount D is not limited to the steering angle of the steering and the vehicle speed. Further, the function is not limited to a function in which the steering angle and the vehicle speed are integrated, and a plurality of functions using these parameters independently may be used.

図8Aは、式(1)に基づいて計算された変化量Dを、現時点よりも後の一定時間tごとにプロットしたグラフである。予測される変化量Dが、現在の時間から徐々に大きくなり、ある時点で閾値Th1を超えて、その後ピークに達し、ピーク以降は徐々に減少して閾値Thよりも小さくなる。この例では、予測される変化量Dが最初に閾値Th1を超える時点t1における自車両のシンボルが生成される。   FIG. 8A is a graph in which the amount of change D calculated based on Equation (1) is plotted for each fixed time t after the current time. The predicted amount of change D gradually increases from the current time, exceeds a threshold Th1 at a certain point, reaches a peak thereafter, gradually decreases after the peak, and becomes smaller than the threshold Th. In this example, the symbol of the host vehicle at the time point t1 when the predicted change amount D first exceeds the threshold Th1 is generated.

図8Bは、閾値Th1を超えるタイミングが現在の時点に近接する場合を説明する図である。変化量がすでに激しく変化していて、閾値を超えるタイミングがほぼ現時点と一致する場合は、現時点からΔt後の時刻t1'における自車両のシンボルを生成し表示することで、乗員の注意を喚起することができる。   FIG. 8B is a diagram illustrating a case where the timing exceeding the threshold Th1 is close to the current time point. If the amount of change has already changed drastically and the timing at which the threshold value is exceeded substantially coincides with the current time, the vehicle's symbol is generated and displayed at time t1 ′ after Δt from the current time to alert the passenger. be able to.

一方、時間軸上のどの時点でも閾値Th1を超えない場合は、所定の表示タイミングの限界点に相当する時刻tlim(図8A参照)での将来の自車両のシンボル11を表示エリア13に表示してもよい。 On the other hand, if the threshold Th1 is not exceeded at any point on the time axis, the symbol 11 of the future host vehicle at the time t lim (see FIG. 8A) corresponding to the limit point of the predetermined display timing is displayed in the display area 13. May be.

図9は、自車両の変化量に応じた表示タイミング(何秒後の自車両を表示するか)の算出の別の例を示す図である。図9は、式(1)に基づいて計算された変化量Dを、現時点よりも後の一定時間tごとにプロットしたグラフである。予測される変化量が、現在の時間から徐々に大きくなり、ある時点でピークに達し、その後徐々に減少する。   FIG. 9 is a diagram showing another example of calculation of display timing (how many seconds later the own vehicle is displayed) according to the change amount of the own vehicle. FIG. 9 is a graph in which the change amount D calculated based on the equation (1) is plotted for each predetermined time t after the current time. The predicted amount of change gradually increases from the current time, reaches a peak at a certain point, and then gradually decreases.

現在の時刻からある時間までの変化量Dの積分値Sinとして計算される斜線領域の面積が閾値Th2を超える(Sin>Th2)時点の時刻t2を、表示タイミングとして算出する。時間軸上のどの時点でも積分値Sinが閾値Th2を超えない場合(すなわち変化量Dが小さい場合)は、所定の表示タイミングの限界点に相当する時刻tlimにおける将来の自車両のシンボル11を表示エリア13に表示する。 Area of the hatched region which is calculated as the integral value S in the amount of change D up to a certain time from the current time exceeds the threshold value Th2 of the (S in> Th2) time t2 time is calculated as a display timing. If the integral value S in does not exceed the threshold Th2 at any point on the time axis (that is, when the change amount D is small), the symbol 11 of the future host vehicle at the time t lim corresponding to the limit point of the predetermined display timing. Is displayed in the display area 13.

図8と図9のいずれにおいても、前方車両の割り込み、歩行者などの障害物が検知されたときは、その都度リアルタイムで時間の関数としての変化量Dが再計算されるので、表示エリア13に表示される将来の自車両のシンボル11の表示も変化する。   In both FIG. 8 and FIG. 9, when an obstacle such as a front vehicle interruption or a pedestrian is detected, the change amount D as a function of time is recalculated in real time each time, so that the display area 13 The display of the symbol 11 of the future vehicle displayed on the screen also changes.

図10は、自車両の状態の変化量の取得例を示す図である。図8及び図9では、現時点t0と、将来のある時点t3の間の変化量D1を取得したが、図10に示すように、将来の異なる時点t3とt4の間の変化量D2を取得してもよい。また、現時点t0と第1の将来の時点t3までの変化量D1と、現時点t0から第2の将来の時点t4までの変化量D3の双方を用いてもよい。複数の将来のタイミングを考慮することで、予測される自車両の走行状態の推定精度が向上する。   FIG. 10 is a diagram illustrating an example of acquiring the amount of change in the state of the host vehicle. 8 and 9, the change amount D1 between the current time point t0 and a future time point t3 is acquired. However, as shown in FIG. 10, the change amount D2 between different future time points t3 and t4 is acquired. May be. Alternatively, both the change amount D1 from the current time t0 to the first future time point t3 and the change amount D3 from the current time t0 to the second future time point t4 may be used. By considering a plurality of future timings, the estimated accuracy of the predicted traveling state of the host vehicle is improved.

図11は、表示装置1で行われる表示制御のフローチャートである。この制御フローは表示装置1の画像制御部250によって実施される。   FIG. 11 is a flowchart of display control performed in the display device 1. This control flow is performed by the image control unit 250 of the display device 1.

画像制御部250は、自車両の内部情報と外部情報の少なくとも一方を取得する(S11)。内部情報は、センサ群500、ECU600から取得される速度情報、ステアリング操舵角情報(ヨー、ロール、ピッチ)、タイヤ角情報、自車両で推定した位置情報などである。外部情報は、車両ナビゲーション装置400、検出器5、センサ群500(レーザレーダ等)、GPS等から取得される地図情報、撮像情報、周囲の環境情報、測距情報等である。   The image control unit 250 acquires at least one of internal information and external information of the host vehicle (S11). The internal information includes speed information acquired from the sensor group 500 and the ECU 600, steering steering angle information (yaw, roll, pitch), tire angle information, position information estimated by the host vehicle, and the like. The external information includes vehicle navigation device 400, detector 5, sensor group 500 (laser radar, etc.), map information acquired from GPS, imaging information, surrounding environment information, distance measurement information, and the like.

画像制御部250は、取得した情報に基づいて、現在表示エリア13に表示されるべき将来の自車両のタイミング(または位置)を算出する(S12)。将来のタイミング(時点)の算出は、図8に示したように、自車両の状態の変化量が所定の閾値Th1を超える時点から所定の時間Δtだけ後の時点、あるいは、図9に示したように、変化量の積分値が所定の閾値Th2を超える時点などである。   The image control unit 250 calculates the future timing (or position) of the host vehicle to be displayed in the current display area 13 based on the acquired information (S12). As shown in FIG. 8, the future timing (time point) is calculated as shown in FIG. 9 at a time point after a predetermined time Δt from the time point when the amount of change in the state of the vehicle exceeds a predetermined threshold value Th1. As described above, it is the time when the integrated value of the amount of change exceeds a predetermined threshold Th2.

表示装置1はまた、取得された外部情報から、自車両の走行予定の経路に障害物が検知されたか否かを判断する(S13)。歩行者、割り込み車両、道路工事などの障害物が検知される場合は(S13でYES)、ステップS11に戻って、将来の自車両のタイミングまたは位置を再計算する(S12)。走行予定の経路に障害物が検知されない場合は(S13でNO)、将来の自車両のシンボルを含む画像データを生成する(S14)。   The display device 1 also determines from the acquired external information whether an obstacle has been detected on the route planned for traveling of the host vehicle (S13). If an obstacle such as a pedestrian, an interrupting vehicle, or road construction is detected (YES in S13), the process returns to step S11 to recalculate the timing or position of the future host vehicle (S12). If no obstacle is detected on the planned travel route (NO in S13), image data including a symbol of the future host vehicle is generated (S14).

生成された画像データを出力し、光学装置10でレーザ光を走査して光像を描画し、表示リア内に将来の自車両の虚像を表示する(S15)。なお、光像の描画は、レーザ走査方式に限定されず、後述するようにパネル方式等、光像を形成することのできる任意の投射手段を用いてもよい。   The generated image data is output, a laser image is scanned by the optical device 10 to draw an optical image, and a virtual image of the future host vehicle is displayed in the display rear (S15). The drawing of the light image is not limited to the laser scanning method, and any projection means capable of forming a light image, such as a panel method as described later, may be used.

ステップS11〜S15は、表示制御が終了するまで繰り返し行われる(S22でNO)。車両の走行が終了したとき(エンジンが切られたとき)、あるいは表示制御OFFの指示が入力されたときに、表示制御が終了し(S18でYES)、処置を終了する。   Steps S11 to S15 are repeated until the display control ends (NO in S22). When the vehicle finishes running (when the engine is turned off) or when an instruction to turn off the display control is input, the display control is finished (YES in S18), and the treatment is finished.

この表示制御をプログラムで実行する場合は、表示制御用のプログラムをROM203またはSSD209に格納しておき、CPU202でプログラムを読み出して実行してもよい。この場合、CPU202は、移動体の乗員から見て周囲の環境に重畳して見えるように表示される画像の画像データを生成する際に、少なくとも、
(a)自動車300の内部情報と外部情報の少なくとも何れか一方に基づいて、将来の所定の時点における前記移動体の位置を示すシンボルを含む画像データを生成する手順、
を実行する。
When this display control is executed by a program, the display control program may be stored in the ROM 203 or the SSD 209, and the program may be read and executed by the CPU 202. In this case, when the CPU 202 generates image data of an image that is displayed so as to be superimposed on the surrounding environment when viewed from the occupant of the moving body, at least,
(a) a procedure for generating image data including a symbol indicating a position of the moving body at a predetermined future time point based on at least one of internal information and external information of the automobile 300;
Execute.

上述した構成と手法により、現在の時点よりも後の将来の自車両の画像を現実の環境に重畳して表示することで、乗員は直感的に自車両の動作を把握することができ、自車両の動作が大きく変化する場合でも、事前に予測することができる。   By using the configuration and method described above, an image of a future host vehicle after the current time point is displayed superimposed on the actual environment, so that the passenger can intuitively grasp the operation of the host vehicle. Even when the operation of the vehicle changes greatly, it can be predicted in advance.

本発明は上述した実施形態に限定されない。たとえば、自車両の変化量を、ステアリングの操舵角Sと車速Vの多項式で求める替わりに、ステアリングの操舵角S、アクセル量X、ブレーキ量Yの(S,X,Y)の多項式で算出してもよい。また、図8及び図9で、時間の関数としての変化量Dを算出する替わりに、将来の自車両の位置の関数として変化量Dを計算して、仮想表示される将来の自車両の位置を決定してもよい。   The present invention is not limited to the embodiment described above. For example, instead of obtaining the amount of change of the host vehicle with a polynomial of the steering angle S and the vehicle speed V, the (S, X, Y) polynomial of the steering angle S, the accelerator amount X, and the brake amount Y of the steering is calculated. May be. Further, in FIG. 8 and FIG. 9, instead of calculating the change amount D as a function of time, the change amount D is calculated as a function of the position of the future host vehicle, and the position of the future host vehicle virtually displayed. May be determined.

光学装置10として、レーザ走査方式に替えてパネル方式を採用してもよい。パネル方式として、液晶パネルDMD(Digital Mirror Device:デジタルミラーデバイス)パネル、ドット蛍光表示管(VFD:Vacuum Fluorescent Display)等のイメージングデバイスを用いてもよい。   As the optical device 10, a panel method may be adopted instead of the laser scanning method. As the panel method, an imaging device such as a liquid crystal panel DMD (Digital Mirror Device) panel or a dot fluorescent display tube (VFD) may be used.

フロントガラス310の投射エリア311に、ハーフミラー、ホログラム等で形成されるコンバイナが設けられていてもよい。フロントガラス310の表面または層間に光透過・反射型の反射膜が蒸着されていてもよい。   A combiner formed of a half mirror, a hologram, or the like may be provided in the projection area 311 of the windshield 310. A light transmissive / reflective reflective film may be deposited on the surface of the windshield 310 or between the layers.

表示装置1の各機能の少なくとも一部を、1以上のコンピュータで構成されるクラウドコンピューティングによって実現してもよい。   You may implement | achieve at least one part of each function of the display apparatus 1 by the cloud computing comprised by one or more computers.

1 表示装置
5 検出器
10 光学装置
11 シンボル
13 表示エリア
20 制御装置
250 画像制御部(制御装置)
300 自動車(移動体)
310 フロントガラス
311 投射エリア
400 車両ナビゲーション装置
500 センサ群
600 ECU
800 情報入力部
810 情報解析部
820 表示タイミング取得部
830 画像データ生成部
840 画像描画部
DESCRIPTION OF SYMBOLS 1 Display apparatus 5 Detector 10 Optical apparatus 11 Symbol 13 Display area 20 Control apparatus 250 Image control part (control apparatus)
300 automobile (mobile)
310 windshield 311 projection area 400 vehicle navigation device 500 sensor group 600 ECU
800 Information input unit 810 Information analysis unit 820 Display timing acquisition unit 830 Image data generation unit 840 Image drawing unit

特開2002−144913号JP 2002-144913

Claims (12)

移動体の乗員から見て周囲の環境に重畳して見えるように表示される画像の画像データを生成する制御装置であって、
前記移動体の内部情報と外部情報の少なくともいずれか一方に基づいた将来の所定の時点における前記移動体の位置、を示すシンボルを含む画像データを生成する画像データ生成部、
を有する制御装置。
A control device that generates image data of an image that is displayed so as to be superimposed on the surrounding environment when viewed from a passenger of a moving body,
An image data generating unit that generates image data including a symbol indicating a position of the moving body at a predetermined future time point based on at least one of internal information and external information of the moving body;
Control device.
前記画像データ生成部は、前記内部情報と前記外部情報で示される前記移動体の移動状況に基づいて前記将来の所定の時点を決定することを特徴とする請求項1に記載の制御装置。   The control apparatus according to claim 1, wherein the image data generation unit determines the future predetermined time based on a movement state of the moving body indicated by the internal information and the external information. 前記画像データ生成部は、前記移動体の状態の変化量に基づいて前記将来の所定の時点を決定することを特徴とする請求項2に記載の制御装置。   The control apparatus according to claim 2, wherein the image data generation unit determines the future predetermined time based on a change amount of a state of the moving body. 前記画像データ生成部は、前記変化量が所定の閾値を超える時点を前記将来の所定の時点として決定することを特徴とする請求項3に記載の制御装置。   The control apparatus according to claim 3, wherein the image data generation unit determines a time when the amount of change exceeds a predetermined threshold as the predetermined future time. 前記画像データ生成部は、前記変化量が前記所定の閾値を超える時点が現在の時点と近接する場合に、現在から一定時間後を前記将来の所定の時点として決定することを特徴とする請求項4に記載の制御装置。   The image data generation unit, when a time when the amount of change exceeds the predetermined threshold is close to a current time, determines a certain time after the current time as the predetermined time in the future. 4. The control device according to 4. 前記画像データ生成部は、前記変化量の時間積分値が所定の閾値を超える時点を、前記将来の時点として決定することを特徴とする請求項3に記載の制御装置。   The control apparatus according to claim 3, wherein the image data generation unit determines a time point at which a time integral value of the change amount exceeds a predetermined threshold as the future time point. 前記画像データ生成部は、現時点と将来の1の時点の間の前記変化量、または複数の異なる将来の時点の間の前記変化量を求めることを特徴とする請求項3に記載の制御装置。   The control apparatus according to claim 3, wherein the image data generation unit obtains the change amount between a current time point and a future one time point, or the change amount between a plurality of different future time points. 前記画像データ生成部は、前記将来の所定時点を示す値に応じて、生成される前記移動体の前記シンボルの色、濃度、透明度、サイズの少なくとも1つを変化させることを特徴とする請求項1乃至7のいずれか1項に記載の制御装置。   The image data generation unit changes at least one of a color, a density, a transparency, and a size of the symbol of the moving body to be generated according to a value indicating the predetermined future time point. The control device according to any one of 1 to 7. 請求項1乃至8のいずれか1項に記載の制御装置と、
前記画像データに基づく光を前記移動体の所定の投射エリアに投射する光学部と、
を備える表示装置。
A control device according to any one of claims 1 to 8,
An optical unit that projects light based on the image data onto a predetermined projection area of the moving body;
A display device comprising:
請求項1乃至8のいずれか1項に記載の制御装置を搭載した移動体。   A moving body equipped with the control device according to claim 1. 移動体の乗員から見て周囲の環境に重畳して見えるように表示される画像を生成する制御方法であって、
前記移動体の内部情報と外部情報の少なくとも何れか一方に基づいた将来の所定の時点における前記移動体の位置、を示すシンボルを含む画像データを生成する、
制御方法。
A control method for generating an image that is displayed so as to be superimposed on a surrounding environment when viewed from a passenger of a moving object,
Generating image data including a symbol indicating a position of the mobile body at a predetermined future time based on at least one of internal information and external information of the mobile body;
Control method.
移動体の乗員から見て周囲の環境に重畳して見えるように表示される画像を生成するプログラムであって、
前記移動体の内部情報と外部情報の少なくともいずれか一方に基づいた将来の所定の時点における前記移動体の位置、を示すシンボルを含む画像データを生成する手順、
をコンピュータに実行させるプログラム。
A program for generating an image that is displayed so as to be superimposed on the surrounding environment when viewed from a passenger of a moving object,
A procedure for generating image data including a symbol indicating a position of the mobile body at a predetermined future time based on at least one of internal information and external information of the mobile body;
A program that causes a computer to execute.
JP2019050377A 2018-03-28 2019-03-18 Control device, display device, movable body, control method and program Pending JP2019172243A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2019/013470 WO2019189515A1 (en) 2018-03-28 2019-03-27 Control apparatus, display apparatus, movable body, and image display method
US17/041,325 US20210016793A1 (en) 2018-03-28 2019-03-27 Control apparatus, display apparatus, movable body, and image display method
EP19721395.2A EP3775780A1 (en) 2018-03-28 2019-03-27 Control apparatus, display apparatus, movable body, and image display method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018066207 2018-03-29
JP2018066207 2018-03-29

Publications (1)

Publication Number Publication Date
JP2019172243A true JP2019172243A (en) 2019-10-10

Family

ID=68169246

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019050377A Pending JP2019172243A (en) 2018-03-28 2019-03-18 Control device, display device, movable body, control method and program

Country Status (1)

Country Link
JP (1) JP2019172243A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021244142A1 (en) * 2020-06-01 2021-12-09 北京航迹科技有限公司 Road condition prompting method and apparatus, electronic device, and storage medium
JP2022138172A (en) * 2021-03-10 2022-09-26 矢崎総業株式会社 Display device for vehicle

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08178679A (en) * 1994-12-19 1996-07-12 Honda Motor Co Ltd On-vehicle display device
JP2015054599A (en) * 2013-09-11 2015-03-23 本田技研工業株式会社 Display device for vehicle
JPWO2013136374A1 (en) * 2012-03-16 2015-07-30 三菱電機株式会社 Driving assistance device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08178679A (en) * 1994-12-19 1996-07-12 Honda Motor Co Ltd On-vehicle display device
JPWO2013136374A1 (en) * 2012-03-16 2015-07-30 三菱電機株式会社 Driving assistance device
JP2015054599A (en) * 2013-09-11 2015-03-23 本田技研工業株式会社 Display device for vehicle

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021244142A1 (en) * 2020-06-01 2021-12-09 北京航迹科技有限公司 Road condition prompting method and apparatus, electronic device, and storage medium
JP2022138172A (en) * 2021-03-10 2022-09-26 矢崎総業株式会社 Display device for vehicle
JP7447039B2 (en) 2021-03-10 2024-03-11 矢崎総業株式会社 Vehicle display device

Similar Documents

Publication Publication Date Title
US10293748B2 (en) Information presentation system
US10254539B2 (en) On-vehicle device, method of controlling on-vehicle device, and computer-readable storage medium
JP6201690B2 (en) Vehicle information projection system
US11016497B2 (en) Vehicle control system, vehicle control method, and vehicle control program
US20210016793A1 (en) Control apparatus, display apparatus, movable body, and image display method
US9827907B2 (en) Drive assist device
CN111052733A (en) Surrounding vehicle display method and surrounding vehicle display device
US20210003414A1 (en) Image control apparatus, display apparatus, movable body, and image control method
JP6969509B2 (en) Vehicle display control device, vehicle display control method, and control program
CN111034186B (en) Surrounding vehicle display method and surrounding vehicle display device
JP7346859B2 (en) Control device, display device, moving object, control method, and program
WO2019189619A1 (en) Image control apparatus, display apparatus, movable body, and image control method
WO2019189515A1 (en) Control apparatus, display apparatus, movable body, and image display method
JP7082034B2 (en) Information output device, output control method, and program
US20220009411A1 (en) Display device and display method for display device
JP2019172243A (en) Control device, display device, movable body, control method and program
JP2020152161A (en) Vehicular display control device, vehicular display control method and vehicular display control program
JP7400242B2 (en) Vehicle display control device and vehicle display control method
JP7024619B2 (en) Display control device for mobile body, display control method for mobile body, and control program
JP2019077340A (en) Head-up display device
JP2020201647A (en) Vehicle display control device, vehicle display control method, and vehicle display control program
WO2021132408A1 (en) Display apparatus, moving body, display method, and program
US20240042857A1 (en) Vehicle display system, vehicle display method, and computer-readable non-transitory storage medium storing vehicle display program
JP2023039693A (en) Display control device, display control program and virtual image display system
WO2019220884A1 (en) Driving assistance device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220913

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221018

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230221