JP2021117220A - Display device, mobile body, method for display, and program - Google Patents

Display device, mobile body, method for display, and program Download PDF

Info

Publication number
JP2021117220A
JP2021117220A JP2020205061A JP2020205061A JP2021117220A JP 2021117220 A JP2021117220 A JP 2021117220A JP 2020205061 A JP2020205061 A JP 2020205061A JP 2020205061 A JP2020205061 A JP 2020205061A JP 2021117220 A JP2021117220 A JP 2021117220A
Authority
JP
Japan
Prior art keywords
image
vehicle
display device
presented
presents
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020205061A
Other languages
Japanese (ja)
Inventor
友規 鈴木
Tomonori Suzuki
友規 鈴木
和寛 ▲高▼澤
和寛 ▲高▼澤
Kazuhiro Takazawa
真人 草▲なぎ▼
Masato Kusanagi
真人 草▲なぎ▼
悠貴 堀
Yuki Hori
悠貴 堀
晨 関屋
Shin Sekiya
晨 関屋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to PCT/JP2021/001913 priority Critical patent/WO2021149740A1/en
Priority to EP21704029.4A priority patent/EP4093629A1/en
Publication of JP2021117220A publication Critical patent/JP2021117220A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Instructional Devices (AREA)
  • Navigation (AREA)
  • Instrument Panels (AREA)
  • Traffic Control Systems (AREA)

Abstract

To allow route guidance information to be presented even when a projection angle of view is small.SOLUTION: The display device according to an embodiment of the present invention is a display device which displays a projection target image. The display device includes: an image generation unit for generating a presentation image which presents route guidance information; and a projection unit provided in a mobile body, the projection unit projecting the projection target image including the presentation image, the presentation image presenting the direction in which the mobile body is to move.SELECTED DRAWING: Figure 11

Description

本発明は、表示装置、移動体、表示方法、及びプログラムに関する。 The present invention relates to a display device, a moving body, a display method, and a program.

従来、各種情報を含む被投射画像を車両のフロントウインドシールド等に投射することで、各種情報を車両の前景に重畳表示し、車両の運転者に視認させるヘッドアップディスプレイ等の表示装置が知られている。 Conventionally, a display device such as a head-up display has been known in which various information is superimposed on the foreground of a vehicle by projecting a projected image including various information onto the front windshield of the vehicle, and the driver of the vehicle can visually recognize the various information. ing.

また、このような表示装置における表示情報の一つとして、車両の経路を案内する経路案内情報として、車両の走行予定経路(移動予定経路)を提示する画像を表示し、報知したい場所までの残距離に基づいて、この表示形態を変化させる技術が開示されている(例えば、特許文献1参照)。 Further, as one of the display information in such a display device, as the route guidance information for guiding the route of the vehicle, an image presenting the planned travel route (scheduled movement route) of the vehicle is displayed, and the remaining information to the place to be notified is displayed. A technique for changing this display form based on a distance is disclosed (see, for example, Patent Document 1).

しかしながら、特許文献1の技術では、画像を表示するために広角の投射画角が求められ、表示装置のサイズやコストが増大する場合がある。 However, in the technique of Patent Document 1, a wide-angle projection angle of view is required to display an image, and the size and cost of the display device may increase.

本発明は、狭い投射画角でも経路案内情報を提示可能にすることを課題とする。 An object of the present invention is to make it possible to present route guidance information even with a narrow projection angle of view.

本発明の一態様に係る表示装置は、被投射画像を表示する表示装置であって、経路案内情報を提示する提示画像を生成する画像生成部と、移動体に備えられ、前記提示画像を含む前記被投射画像を投射する投射部と、を備え、前記提示画像は、前記移動体の移動予定方向を提示する。 The display device according to one aspect of the present invention is a display device that displays a projected image, includes an image generation unit that generates a presentation image that presents route guidance information, and a moving body that includes the presentation image. A projection unit for projecting the projected image is provided, and the presented image presents a planned movement direction of the moving body.

本発明によれば、狭い投射画角でも経路案内情報を提示できる。 According to the present invention, route guidance information can be presented even with a narrow projection angle of view.

実施形態に係る表示装置が車両に搭載された構成例を示す図である。It is a figure which shows the configuration example in which the display device which concerns on embodiment is mounted on a vehicle. 表示部の構成例を示す図である。It is a figure which shows the structural example of the display part. 表示装置が車両に搭載された車載システムの構成例を示すブロック図である。It is a block diagram which shows the configuration example of the in-vehicle system in which the display device is mounted on a vehicle. 検出装置の構成例を示すブロック図である。It is a block diagram which shows the configuration example of a detection device. 認識装置の機能構成例を示すブロック図である。It is a block diagram which shows the functional configuration example of a recognition device. 車両又は車両の表示部品に対する障害物の相対位置例を示す図である。It is a figure which shows the relative position example of an obstacle with respect to a vehicle or a display component of a vehicle. 実施形態に係る制御部のハードウェア構成例のブロック図である。It is a block diagram of the hardware configuration example of the control part which concerns on embodiment. 実施形態に係る制御部の機能構成例のブロック図である。It is a block diagram of the functional structure example of the control part which concerns on embodiment. 実施形態に係る制御部による処理例を示すフローチャートである。It is a flowchart which shows the processing example by the control part which concerns on embodiment. 残距離が提示閾値以下でない場合の前景への表示例を示す図である。It is a figure which shows the display example in the foreground when the remaining distance is not less than a presentation threshold value. 残距離が提示閾値以下である場合の前景への表示例を示す図である。It is a figure which shows the display example in the foreground when the remaining distance is less than a presentation threshold value. 被投射画像のサイズと提示画像との関係を示す図であり、(a)は比較例に係る図、(b)は実施形態に係る図である。It is a figure which shows the relationship between the size of the projected image and the presented image, (a) is a figure which concerns on a comparative example, and (b) is a figure which concerns on embodiment. 被投射画像のサイズと投射画角との関係例を示す図である。It is a figure which shows the relationship example of the size of the projected image, and the projected angle of view. 矢印図形の表示間隔と重畳範囲との関係例を示す図である。It is a figure which shows the relationship example of the display interval of an arrow figure, and the superimposition range. 矢印図形の表示位置例を説明する図である。It is a figure explaining the display position example of an arrow figure.

以下、図面を参照して発明を実施するための形態について説明する。なお、各図面において、同一構成の部分には同一符号を付し、重複した説明を省略する場合がある。 Hereinafter, modes for carrying out the invention will be described with reference to the drawings. In each drawing, parts having the same configuration may be designated by the same reference numerals, and duplicate description may be omitted.

実施形態では、経路案内情報として移動体の移動予定方向を提示する提示画像を生成し、移動体に備えられた投射部により提示画像を含む被投射画像を投射して表示する。移動体の移動予定経路を提示するための大きな画像を投射せず、移動体の移動予定方向を提示する小さな画像を投射することで、狭い投射画角であっても経路案内情報を提示可能にする。 In the embodiment, a presented image that presents the planned movement direction of the moving body is generated as route guidance information, and a projected image including the presented image is projected and displayed by a projection unit provided on the moving body. By projecting a small image that presents the planned movement direction of the moving body without projecting a large image for presenting the planned movement route of the moving body, it is possible to present route guidance information even with a narrow projection angle of view. do.

<実施形態における用語について>
(移動体)
移動可能な物体をいう。例えば移動体は、自動車、車両、電車、汽車又はフォークリフト等の陸上を移動可能な陸上移動体を含み、飛行機、気球又はドローン等の空中を移動可能な空中移動体を含み、船、船舶、汽船又はボート等の水上を移動可能な水上移動体を含む。
<Terms in the embodiment>
(Mobile)
A movable object. For example, moving objects include land-moving bodies such as automobiles, vehicles, trains, trains or forklifts, and aerial moving bodies such as airplanes, balloons or drones that can move in the air, such as ships, ships and steamers. Alternatively, it includes a floating body such as a boat that can move on the water.

(前景)
移動体の運転者が視認する移動体の前方の風景をいう。例えば、フロントウインドシールドを通じて運転者が視認する車両前方の風景が前景に該当する。
(foreground)
The scenery in front of the moving body that the driver of the moving body sees. For example, the scenery in front of the vehicle that the driver sees through the front windshield corresponds to the foreground.

(移動予定経路)
移動体が出発地から目的地まで移動する予定の経路のうち、移動体が直近に移動する予定の経路をいう。実施形態では、移動体が車両である場合を一例とするため、移動予定経路を車両の走行予定経路と称して説明を行う。
(Planned movement route)
Of the routes in which the moving body is scheduled to move from the starting point to the destination, the route in which the moving body is scheduled to move most recently. In the embodiment, since the case where the moving body is a vehicle is taken as an example, the planned movement route will be described as the planned travel route of the vehicle.

(移動予定方向)
移動体の移動予定経路において、移動体が移動する予定の方向をいう。例えば、移動予定経路に交差点がある場合には、交差点で移動体が進むべき方向が移動予定方向に該当する。実施形態では、移動体が車両である場合を一例とするため、移動予定方向を車両の走行予定方向と称して説明を行う。
(Planned movement direction)
The direction in which the moving body is scheduled to move in the planned movement route of the moving body. For example, when there is an intersection on the planned movement route, the direction in which the moving body should travel at the intersection corresponds to the planned movement direction. In the embodiment, since the case where the moving body is a vehicle is taken as an example, the planned moving direction will be referred to as the planned traveling direction of the vehicle.

(経路案内情報)
移動体が出発地から目的地まで移動する経路を案内する情報をいう。経路案内情報には、移動予定経路(走行予定経路)の情報や、移動予定方向(走行予定方向)、経路案内情報を提示する地点の情報等が含まれる。
(Route guidance information)
Information that guides the route that a moving body travels from the starting point to the destination. The route guidance information includes information on the planned travel route (planned travel route), the planned travel direction (planned travel direction), information on the point where the route guidance information is presented, and the like.

(被投射画像)
投射部により投射され、移動体の運転者に視認させる画像をいう。
(Projected image)
An image projected by a projection unit and made visible to the driver of a moving object.

(提示画像)
経路案内情報を提示する画像をいう。投射部により投射されることで移動体の運転者に視認される。実施形態に係る提示画像は、移動体の移動予定方向(車両の走行予定方向)を提示できる。
(Presentation image)
An image that presents route guidance information. By being projected by the projection unit, it is visually recognized by the driver of the moving body. The presented image according to the embodiment can present the planned movement direction of the moving body (the planned travel direction of the vehicle).

(運転者)
移動体を運転又は操縦する者のことをいう。
(driver)
A person who drives or steers a moving body.

以下、車両に搭載されるヘッドアップディスプレイ(HUD;Head Up Display)を表示装置の一例として、実施形態を説明する。 Hereinafter, embodiments will be described using a head-up display (HUD) mounted on a vehicle as an example of a display device.

<構成例>
図1は実施形態に係る表示装置1が自車両8に搭載された構成の一例を示す図である。
<Configuration example>
FIG. 1 is a diagram showing an example of a configuration in which the display device 1 according to the embodiment is mounted on the own vehicle 8.

表示装置1は自車両8に設けられたダッシュボードの内部に埋め込まれており、表示装置1の上面に設けられた射出窓3からフロントウインドシールド71に向けて被投射画像を投射する。被投射画像はフロントウインドシールド71よりも正のY方向に虚像Iとして表示され、自車両8の運転者Vにより視認される。運転者Vは、虚像Iを視認することで、自車両8の正のY方向にある他の車両や路面等に視線を保ったまま、少ない視線移動で運転のために有用な情報を取得できる。 The display device 1 is embedded inside a dashboard provided in the own vehicle 8, and projects an image to be projected from the injection window 3 provided on the upper surface of the display device 1 toward the front windshield 71. The projected image is displayed as a virtual image I in the positive Y direction from the front windshield 71, and is visually recognized by the driver V of the own vehicle 8. By visually recognizing the virtual image I, the driver V can acquire useful information for driving with a small movement of the line of sight while keeping the line of sight of another vehicle or the road surface in the positive Y direction of the own vehicle 8. ..

なお、表示装置1はフロントウインドシールド71に被投射画像を投射できればよく、ダッシュボードの他、天井やサンバイザなどに設置されていてもよい。 The display device 1 may be installed on the ceiling, sun visor, or the like in addition to the dashboard, as long as the projected image can be projected on the front windshield 71.

図1に示すように、表示装置1は、主要な構成要素として、投射部10と、制御部20とを備えている。投射部10は、フロントウインドシールド71に向けて被投射画像を投射する。投射部10による被投射画像の投射方式としては、レーザ走査方式及びパネル方式が知られている。レーザ走査方式は、レーザ光源から射出されたレーザビームを2次元走査デバイスで走査し中間像(後述するスクリーンに投射される実像)を形成する方式である。パネル方式は、液晶パネル、DMD(Digital Micro-mirror Device)パネル、蛍光表示管(VFD;Vacuum Fluorescent Display)等のイメージングデバイスで中間像を形成する方式である。 As shown in FIG. 1, the display device 1 includes a projection unit 10 and a control unit 20 as main components. The projection unit 10 projects the projected image toward the front windshield 71. As a projection method of the projected image by the projection unit 10, a laser scanning method and a panel method are known. The laser scanning method is a method in which a laser beam emitted from a laser light source is scanned by a two-dimensional scanning device to form an intermediate image (a real image projected on a screen described later). The panel method is a method of forming an intermediate image with an imaging device such as a liquid crystal panel, a DMD (Digital Micro-mirror Device) panel, or a vacuum fluorescent display (VFD).

レーザ走査方式は、全画面を発光して部分的に遮光することで画像を形成するパネル方式とは違い、各画素に対して発光/非発光を割り当てることができるため、一般に高コントラストの画像を形成できる点で好適である。高コントラストであることで視認性が向上するため、パネル方式のHUDよりも少ない注意資源で車両の乗員が情報を視認できることが明らかになっている。 The laser scanning method is different from the panel method in which an image is formed by emitting light from the entire screen and partially blocking light, and since it is possible to assign light emission / non-light emission to each pixel, a high-contrast image is generally obtained. It is suitable in that it can be formed. Since the high contrast improves the visibility, it has been clarified that the occupants of the vehicle can visually recognize the information with less attention resources than the panel type HUD.

特に、パネル方式では情報がない領域でも遮光しきれない光が投射され、HUDが画像を表示できる範囲に表示枠が投射されてしまう(この現象をポストカードという)。レーザ走査方式ではこのような現象がなく、コンテンツのみを投影できる。特に、AR(Augmented Reality)において、実在する風景に生成した画像を重ねて表示する際のリアリティが向上する。 In particular, in the panel method, light that cannot be completely blocked is projected even in an area where there is no information, and the display frame is projected in a range where the HUD can display an image (this phenomenon is called a postcard). The laser scanning method does not have such a phenomenon and can project only the content. In particular, in AR (Augmented Reality), the reality when the generated image is superimposed and displayed on the actual landscape is improved.

なお、ARとは、「拡張現実」と訳され、実在する風景に実在しないオブジェクトの画像を重ねて表示することで、目の前にある世界を仮想的に拡張する技術をいう。但し、パネル方式のHUDであってもより少ない注意資源で視認できる(疲れにくい)態様で情報を表示できるHUDであればよい。 Note that AR is translated as "augmented reality" and refers to a technology that virtually expands the world in front of you by superimposing images of non-existent objects on an existing landscape. However, even if it is a panel-type HUD, it may be a HUD that can display information in a manner that can be visually recognized (less tired) with less attention resources.

図2は、投射部10の構成の一例を示す図である。投射部10は、主に、光源部101と、光偏向器102と、ミラー103と、スクリーン104と、凹面ミラー105とを備えている。なお、図2は主要な構成要素を示したに過ぎず、図示する以外の構成要素を備えてもよいし、図示する構成要素の一部を備えていなくてもよい。 FIG. 2 is a diagram showing an example of the configuration of the projection unit 10. The projection unit 10 mainly includes a light source unit 101, a light deflector 102, a mirror 103, a screen 104, and a concave mirror 105. Note that FIG. 2 only shows the main components, and may include components other than those shown in the figure, or may not include some of the components shown in the figure.

光源部101は、Red(R)、Green(G)及びBlue(B)に対応した3つのレーザ光源(以下、LD:レーザダイオードとする)、カップリングレンズ、アパーチャ、合成素子及びレンズ等を備えており、3つのLDから出射されたレーザビームを合成して光偏向器102の反射面に向かって導く。光偏向器102の反射面に導かれたレーザビームは、光偏向器102により2次元的に偏向される。 The light source unit 101 includes three laser light sources (hereinafter referred to as LD: laser diode) corresponding to Red (R), Green (G), and Blue (B), a coupling lens, an aperture, a synthetic element, a lens, and the like. The laser beams emitted from the three LDs are combined and guided toward the reflecting surface of the light deflector 102. The laser beam guided to the reflecting surface of the light deflector 102 is two-dimensionally deflected by the light deflector 102.

光偏向器102としては、直交する2軸に対して揺動する1つの微小なミラーや、1軸に揺動又は回動する2つの微小なミラー等を用いることができる。光偏向器102は、半導体プロセス等で作製されたMEMS(Micro Electro Mechanical Systems)ミラーとすることができる。光偏向器102は、圧電素子の変形力を駆動力とするアクチュエータにより駆動できる。但し、光偏向器102として、ガルバノミラーやポリゴンミラー等を用いてもよい。 As the optical deflector 102, one minute mirror that swings with respect to two orthogonal axes, two minute mirrors that swing or rotate about one axis, and the like can be used. The optical deflector 102 can be a MEMS (Micro Electro Mechanical Systems) mirror manufactured by a semiconductor process or the like. The optical deflector 102 can be driven by an actuator whose driving force is the deformation force of the piezoelectric element. However, as the light deflector 102, a galvano mirror, a polygon mirror, or the like may be used.

光偏向器102により2次元的に偏向されたレーザビームはミラー103に入射し、ミラー103により折り返され、スクリーン104の表面(被走査面)上に2次元の画像(中間像)を描画する。ミラー103としては、凹面鏡等を用いることができるが、凸面鏡や平面鏡を用いてもよい。光偏向器102とミラー103でレーザビームの方向を偏向することで、投射部10の小型化又は構成要素の配置を柔軟に変更できる。 The laser beam two-dimensionally deflected by the light deflector 102 is incident on the mirror 103, folded back by the mirror 103, and draws a two-dimensional image (intermediate image) on the surface (scanned surface) of the screen 104. As the mirror 103, a concave mirror or the like can be used, but a convex mirror or a plane mirror may be used. By deflecting the direction of the laser beam with the light deflector 102 and the mirror 103, the size of the projection unit 10 can be reduced or the arrangement of the components can be flexibly changed.

スクリーン104としては、レーザビームを所望の発散角で発散させる機能を有するマイクロレンズアレイやマイクロミラーアレイを用いると好適であるが、レーザビームを拡散させる拡散板、表面が平滑な透過板や反射板等を用いてもよい。一般に光源部101からスクリーン104まではHUD装置と呼ばれる。但し、この他の部品を含んでもよい。 As the screen 104, it is preferable to use a microlens array or a micromirror array having a function of diverging the laser beam at a desired divergence angle, but a diffuser plate for diffusing the laser beam, a transmission plate having a smooth surface, or a reflector. Etc. may be used. Generally, the light source unit 101 to the screen 104 are called a HUD device. However, other parts may be included.

スクリーン104から射出されたレーザビームは、凹面ミラー105で反射され、フロントウインドシールド71に投影される。凹面ミラー105はレンズと似た働きを備え、所定の焦点距離に像を結像させる機能を備える。このため、凹面ミラー105がレンズであるとすると物体に相当するスクリーン104上の像は凹面ミラー105の焦点距離によって定まる距離Rの位置に結像する。従って、自車両8の運転者V等の乗員から見た場合、フロントウインドシールド71から距離R+Rの位置に虚像Iが表示される。自車両8の運転者Vからフロントウインドシールド71までの距離をRとすると、図2では自車両8の運転者Vの視点Eから距離R(=R+R+R)の位置に虚像Iが表示される(結像する)。 The laser beam emitted from the screen 104 is reflected by the concave mirror 105 and projected onto the front windshield 71. The concave mirror 105 has a function similar to that of a lens, and has a function of forming an image at a predetermined focal length. Therefore, assuming that the concave mirror 105 is a lens, the image on the screen 104 corresponding to the object is formed at the position of the distance R 2 determined by the focal length of the concave mirror 105. Therefore, when viewed from the occupant such as the driver V of the own vehicle 8, the virtual image I is displayed at the position of the distance R 1 + R 2 from the front windshield 71. Assuming that the distance from the driver V of the own vehicle 8 to the front windshield 71 is R 3 , in FIG. 2, a virtual image is formed at the position of the distance R (= R 1 + R 2 + R 3 ) from the viewpoint E of the driver V of the own vehicle 8. I is displayed (imaging).

フロントウインドシールド71への光束の少なくとも一部は自車両8の運転者Vの視点Eに向けて反射される。この結果、自車両8の運転者Vはフロントウインドシールド71を介してスクリーン104の中間像が拡大された虚像Iを視認可能となる。換言すると、自車両8の運転者Vから見て、フロントウインドシールド71越しに中間像が拡大表示された虚像Iが表示される。 At least a part of the light flux to the front windshield 71 is reflected toward the viewpoint E of the driver V of the own vehicle 8. As a result, the driver V of the own vehicle 8 can visually recognize the virtual image I in which the intermediate image of the screen 104 is enlarged through the front windshield 71. In other words, when viewed from the driver V of the own vehicle 8, a virtual image I in which the intermediate image is enlarged and displayed is displayed through the front windshield 71.

なお、一般にフロントウインドシールド71は平面ではなく僅かに湾曲している。このため、凹面ミラー105の焦点距離だけでなくフロントウインドシールド71の曲面によっても虚像Iの結像位置が決定されるが、距離Rは上述したようにほぼ距離R+Rによって定まる。視線移動が少なくて済むように虚像Iを遠方に結像させるには、距離R又はRを長くする。距離Rを長くする方法としてはミラーで光路を折り返す方法があり、距離R2を長くする方法としては凹面ミラー105の焦点距離を調整する方法がある。 In general, the front windshield 71 is not flat but slightly curved. Therefore, the image formation position of the virtual image I is determined not only by the focal length of the concave mirror 105 but also by the curved surface of the front windshield 71, but the distance R is substantially determined by the distance R 1 + R 2 as described above. In order to form the virtual image I in the distance so that the movement of the line of sight is small, the distance R 1 or R 2 is lengthened. Distance R 1 as a method of long there is a way to fold the optical path by a mirror, the distance R2 as a method for long, there is a method of adjusting the focal distance of the concave mirror 105.

なお、フロントウインドシールド71の影響で中間像の水平線が上又は下に凸形状となる光学歪みが生じるため、ミラー103及び凹面ミラー105の少なくとも一方は、歪みを補正するように設計、配置されることが好ましい。あるいは、投影される映像が歪みを考慮して補正されることが好ましい。 Since the front windshield 71 causes optical distortion in which the horizontal line of the intermediate image becomes convex upward or downward, at least one of the mirror 103 and the concave mirror 105 is designed and arranged so as to correct the distortion. Is preferable. Alternatively, it is preferable that the projected image is corrected in consideration of distortion.

また、フロントウインドシールド71よりも視点E側に透過反射部材としてコンバイナを配置してもよい。コンバイナに凹面ミラー105からの光を照射するようにしても、フロントウインドシールド71に凹面ミラー105からの光を照射した場合と同様に、虚像Iとして情報を提示することができる。 Further, a combiner may be arranged as a transmission reflection member on the viewpoint E side of the front windshield 71. Even if the combiner is irradiated with the light from the concave mirror 105, the information can be presented as a virtual image I as in the case where the front windshield 71 is irradiated with the light from the concave mirror 105.

<表示装置1が搭載される車載システム2の構成例>
次に、表示装置1が自車両8に搭載された車載システム2を、図3を参照して説明する。図3は、表示装置1が自車両8に搭載された車載システム2の構成の一例を示すブロック図である。
<Configuration example of in-vehicle system 2 on which the display device 1 is mounted>
Next, an in-vehicle system 2 in which the display device 1 is mounted on the own vehicle 8 will be described with reference to FIG. FIG. 3 is a block diagram showing an example of the configuration of the in-vehicle system 2 in which the display device 1 is mounted on the own vehicle 8.

車載システム2はCAN(Controller Area Network)バス等の車載ネットワークNWを介して通信するカーナビゲーションシステム11と、エンジンECU(Electronic Control Unit)12と、表示装置1と、ブレーキECU13と、ステアリングECU14と、認識装置15と、検出装置16とを備えている。 The in-vehicle system 2 includes a car navigation system 11 that communicates via an in-vehicle network NW such as a CAN (Controller Area Network) bus, an engine ECU (Electronic Control Unit) 12, a display device 1, a brake ECU 13, and a steering ECU 14. It includes a recognition device 15 and a detection device 16.

カーナビゲーションシステム11は、GPS(Global Positioning System)に代表されるGNSS(Global Navigation Satellite System)を備え、自車両8の現在地を検出して電子地図上に自車両8の位置を表示する。 The car navigation system 11 includes a GNSS (Global Navigation Satellite System) represented by GPS (Global Positioning System), detects the current location of the own vehicle 8, and displays the position of the own vehicle 8 on an electronic map.

また、出発地と目的地の入力を受け付け、出発地から目的地までの経路案内情報を検索して電子地図上に表示したり、進路変更の手前で自車両8の乗員に進行方向を音声、文字(ディスプレイに表示される)、又はアニメーション等で案内したりする。なお、カーナビゲーションシステム11は携帯電話網などを介してサーバと通信してもよい。この場合、サーバが電子地図を自車両8に送信したり経路検索を行ったりすることができる。 In addition, it accepts the input of the departure point and the destination, searches for the route guidance information from the departure point to the destination and displays it on the electronic map, or voices the direction of travel to the occupants of the own vehicle 8 before changing the course. Guidance is provided by characters (displayed on the display) or animation. The car navigation system 11 may communicate with the server via a mobile phone network or the like. In this case, the server can transmit the electronic map to the own vehicle 8 and search the route.

エンジンECU12は、各センサからの情報と自車両8の状況に合わせ、理想となる燃料噴射量の決定、点火時期の進角・遅角、動弁機構等の制御を行う。また、現在車速とアクセル開度の関係に対し変速段の切り替え線が定められたマップを参照する等して変速の必要性を判断する。エンジンECU12はこれらを組み合わせ先行車への追従走行時の加速や減速制御を行う。なお、エンジンと共に又はエンジンを動力とすることなく電気モータを動力としてもよい。 The engine ECU 12 determines an ideal fuel injection amount, controls the advance / retard of the ignition timing, the valve operating mechanism, and the like according to the information from each sensor and the situation of the own vehicle 8. In addition, the necessity of shifting is determined by referring to a map in which the switching line of the shifting stage is defined for the relationship between the current vehicle speed and the accelerator opening. The engine ECU 12 combines these to perform acceleration and deceleration control during follow-up traveling to the preceding vehicle. An electric motor may be used as a power source together with the engine or without using the engine as a power source.

ブレーキECU13は、ABS(Antilock Braking System)制御、先行車への追従走行時の制動制御、対象物とのTTC(Time To Collision)に基づく自動制動、坂道発進時の停止状態維持制御等、自車両8の運転者Vによるブレーキペダルの操作がなくても自車両8の車輪毎に制動力を制御する。 The brake ECU 13 has ABS (Antilock Braking System) control, braking control when following a preceding vehicle, automatic braking based on TTC (Time To Collision) with an object, stop state maintenance control when starting on a slope, and the like. Even if the driver V of the vehicle 8 does not operate the brake pedal, the braking force is controlled for each wheel of the own vehicle 8.

ステアリングECU14は、自車両8の運転者Vによるハンドルの操舵の方向と操舵量を検出し、操舵方向に操舵トルクを付加するパワーステアリング制御を行う。また、走行レーンからの逸脱を回避する方向、走行レーンの中央の走行を維持する方向、又は障害物との接近を回避する方向に、自車両8の運転者Vによるハンドル操作がなくても操舵する。 The steering ECU 14 detects the steering direction and steering amount of the steering wheel by the driver V of the own vehicle 8 and performs power steering control to add steering torque to the steering direction. Further, steering is performed in the direction of avoiding deviation from the traveling lane, in the direction of maintaining the traveling in the center of the traveling lane, or in the direction of avoiding approaching an obstacle, even if the driver V of the own vehicle 8 does not operate the steering wheel. do.

検出装置16は各種のセンサを備えており、自車両8の周囲の対象物の検出や、運転者Vによる自車両8の操作情報の検出等を行う。 The detection device 16 includes various sensors, and detects an object around the own vehicle 8 and detects operation information of the own vehicle 8 by the driver V.

認識装置15は検出装置16が検出した対象物が何か、自車両8に対する対象物の相対位置(方向と距離)及び自車両8を示す表示部品に対する対象物の相対位置(方向と距離)を認識する。車速等の情報、及び対象物の識別結果と相対位置は表示装置1に入力される。 The recognition device 15 determines what the object detected by the detection device 16 is, the relative position (direction and distance) of the object with respect to the own vehicle 8 and the relative position (direction and distance) of the object with respect to the display component indicating the own vehicle 8. recognize. Information such as vehicle speed, identification result of the object, and relative position are input to the display device 1.

<検出装置16の構成例>
次に、検出装置16の構成を、図4を参照して説明する。図4は、検出装置16の構成の一例を示すブロック図である。検出装置16は、表示装置1が表示する車速を検出する車速センサ161、表示装置1が表示する車両情報を取得する車両情報センサ162、対象物を検出するレーダセンサ163と周囲カメラ164、乗員に関する情報である乗員状態情報を取得する乗員状態情報センサ165、外部から渋滞情報などを受信するVICS受信装置166(登録商標。VICS:Vehicle Information and Communication System Center)、及びインターネットなどに接続する外部通信装置167等を備えている。
<Configuration example of detection device 16>
Next, the configuration of the detection device 16 will be described with reference to FIG. FIG. 4 is a block diagram showing an example of the configuration of the detection device 16. The detection device 16 relates to a vehicle speed sensor 161 that detects the vehicle speed displayed by the display device 1, a vehicle information sensor 162 that acquires vehicle information displayed by the display device 1, a radar sensor 163 and a surrounding camera 164 that detect an object, and an occupant. An occupant status information sensor 165 that acquires occupant status information, which is information, a VICS receiver 166 (registered trademark. VICS: Vehicle Information and Communication System Center) that receives congestion information from the outside, and an external communication device that connects to the Internet, etc. It is equipped with 167 and the like.

なお、検出装置16が備える各センサは検出装置16にまとまって存在する必要はなく、車載されていればよい。 It should be noted that the sensors included in the detection device 16 do not have to be collectively present in the detection device 16, and may be mounted on a vehicle.

車速センサ161は、ドライブトレイン系のシャフトの回転と共に回転する磁石を、車体に固定されたセンサ部が検出し、回転速度に比例したパルス波を発生させる。単位時間のパルス数により車速を検出できる。 The vehicle speed sensor 161 detects a magnet that rotates with the rotation of the shaft of the drive train system by a sensor unit fixed to the vehicle body, and generates a pulse wave proportional to the rotation speed. The vehicle speed can be detected by the number of pulses per unit time.

車両情報センサ162は、車速センサ161以外の車両情報を検出する1つ以上のセンサを備えている。例えば、燃料計センサ、シフトレバー位置センサ、オドメータ、トリップメータ、ウィンカセンサ、及び水温センサ等である。これらは一般的な構成で各車両情報を取得できればよい。燃料計センサは現在の残燃料を検出する。 The vehicle information sensor 162 includes one or more sensors that detect vehicle information other than the vehicle speed sensor 161. For example, a fuel gauge sensor, a shift lever position sensor, an odometer, a trip meter, a winker sensor, a water temperature sensor, and the like. It suffices if each vehicle information can be acquired in these with a general configuration. The fuel gauge sensor detects the current residual fuel.

シフトレバー位置センサは自車両8の運転者Vが操作したシフトレバー位置を検出する。オドメータは自車両8の走行距離を累積して総走行距離を提供する。トリップメータは自車両8の運転者Vが初期化してから現在までの区間走行距離を提供する。 The shift lever position sensor detects the shift lever position operated by the driver V of the own vehicle 8. The odometer accumulates the mileage of the own vehicle 8 to provide the total mileage. The trip meter provides the section mileage from the initialization by the driver V of the own vehicle 8 to the present.

ウィンカセンサは自車両8の運転者Vが操作したウィンカの方向を検出する。水温センサはエンジン冷却水の温度を検出する。これらは車両から取得できる情報の一例に過ぎず、この他、自車両8から取得できる情報は車両情報となりうる。例えば、電気自動車やハイブリッド車ではバッテリ残量、回生電力量、又は、消費電力量等も取得できる。 The winker sensor detects the direction of the winker operated by the driver V of the own vehicle 8. The water temperature sensor detects the temperature of the engine cooling water. These are only examples of information that can be acquired from the vehicle, and in addition, the information that can be acquired from the own vehicle 8 can be vehicle information. For example, in an electric vehicle or a hybrid vehicle, the remaining battery level, the amount of regenerative power, the amount of power consumption, and the like can be obtained.

周囲カメラ164は車両の周囲を撮像する撮像装置である。取り付け場所は好ましくは車用の側方から後方を撮像できるように、複数の場所に設置される。例えば、自車両8のルーフやバンパにおいて車両の左後方コーナー、右後方コーナー、及び後部等に設置される。後部に設置された撮像装置をバックモニタというが、後部の周囲カメラ164はバックモニタに限られない。この他、サイドミラー、ピラー、ルーフのサイド部分、又はドアなどに配置されてもよい。なお、周囲カメラ164には前方を撮像する撮像装置が含まれてよい。例えばルームミラーの裏側やその近くに取り付けられる。 The peripheral camera 164 is an imaging device that images the surroundings of the vehicle. The mounting locations are preferably installed in a plurality of locations so that the rear can be imaged from the side for the vehicle. For example, it is installed in the left rear corner, the right rear corner, the rear part, etc. of the vehicle on the roof or bumper of the own vehicle 8. The image pickup device installed at the rear is called a back monitor, but the peripheral camera 164 at the rear is not limited to the back monitor. In addition, it may be arranged on a side mirror, a pillar, a side portion of the roof, a door, or the like. The peripheral camera 164 may include an imaging device that images the front. For example, it can be installed on or near the back of a rear-view mirror.

周囲カメラ164は単眼カメラの場合とステレオカメラの場合がある。距離情報を取得できる単眼カメラ又はステレオカメラの場合、レーダセンサ163がなくてもよい。しかし、距離情報を取得できる周囲カメラ164に加え、レーダセンサ163があることで、周囲カメラ164の距離情報とレーダセンサ163の距離情報をフュージョンし(統合し)、互いのデメリットを補完しあって高精度な距離情報を取得できる。なお、レーダセンサ163と周囲カメラ164の他にソニックセンサ(超音波センサ)等を有していてもよい。 The peripheral camera 164 may be a monocular camera or a stereo camera. In the case of a monocular camera or a stereo camera capable of acquiring distance information, the radar sensor 163 may not be provided. However, in addition to the peripheral camera 164 that can acquire the distance information, the radar sensor 163 fuses (integrates) the distance information of the peripheral camera 164 and the distance information of the radar sensor 163, and complements each other's disadvantages. Highly accurate distance information can be acquired. In addition to the radar sensor 163 and the surrounding camera 164, a sonic sensor (ultrasonic sensor) or the like may be provided.

レーダセンサ163は自車両8の前方、側方、後方など自車両8の周囲にレーダを送信し、物体で反射して戻ってくるレーダを受信する。配置場所は自車両8の周囲の障害物を検出できる場所であればよい。レーダセンサ163は送信から受信までの時間により物体までの距離を検出すると共に、レーダの照射方向により物体の方向を検出するTOF方式(Time Of Fright)がある。 The radar sensor 163 transmits radar to the surroundings of the own vehicle 8, such as the front, side, and rear of the own vehicle 8, and receives the radar reflected by an object and returned. The placement location may be any location where obstacles around the own vehicle 8 can be detected. The radar sensor 163 has a TOF method (Time Of Fright) in which the distance to an object is detected by the time from transmission to reception and the direction of the object is detected by the irradiation direction of the radar.

TOF方式のレーダセンサとしてLIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)が知られている。また、連続的に送信波の周波数を大きくしながら受信波と送信波の混合波を生成し、周波数がわずかに異なることで生じる混合波のうなり周波数を距離に換算するFMCW方式(Frequency Modulation Continuous Wave)がある。FMCW方式では複数の受信アンテナで受信波の位相ずれを検出することで物体の方向を推定する。 LIDAR (Light Detection and Ranging, Laser Imaging Detection and Ranging) is known as a TOF type radar sensor. In addition, the FMCW method (Frequency Modulation Continuous Wave) that generates a mixed wave of the received wave and the transmitted wave while continuously increasing the frequency of the transmitted wave and converts the humming frequency of the mixed wave generated by the slightly different frequencies into a distance. ). In the FMCW method, the direction of an object is estimated by detecting the phase shift of the received wave with a plurality of receiving antennas.

乗員状態情報センサ165は自車両8の乗員から直接又は間接的に検出される乗員状態情報を検出するセンサである。代表的なものに顔カメラがある。顔カメラは自車両8の乗員の顔を撮像して顔認証を行い、自車両8の乗員を特定又は識別する。また、顔画像から顔の向きや視線方向を検出することが可能になる。 The occupant state information sensor 165 is a sensor that detects occupant state information directly or indirectly detected from the occupants of the own vehicle 8. A typical one is a face camera. The face camera captures the face of the occupant of the own vehicle 8 and performs face recognition to identify or identify the occupant of the own vehicle 8. In addition, it becomes possible to detect the direction of the face and the direction of the line of sight from the face image.

この他、乗員状態情報センサ165は、例えば、心電センサ、心拍数センサ、血圧センサ、体温センサ、脈拍センサ、呼吸センサ、発汗センサ、瞬きセンサ、瞳孔センサ、脳波センサ、又は、筋電位センサ等でもよい。乗員状態情報センサ165としては例えば、腕時計型のウェアラブル端末(スマートウォッチ)を車両の乗員が装着する形態がある。 In addition, the occupant state information sensor 165 may include, for example, an electrocardiographic sensor, a heart rate sensor, a blood pressure sensor, a body temperature sensor, a pulse sensor, a respiratory sensor, a sweating sensor, a blinking sensor, a pupil sensor, a brain wave sensor, a myoelectric potential sensor, or the like. It may be. As the occupant state information sensor 165, for example, there is a form in which a vehicle occupant wears a wristwatch-type wearable terminal (smart watch).

VICS受信装置166はVICSが配信する電波を受信する。なお、VICSは渋滞や交通規制等の道路交通情報を、FM多重放送やビーコンを使ってリアルタイムに車載装置に送信するシステムである。外部通信装置167は3G、4G、5G、LTE及び無線LAN等のネットワークを介してインターネット等に接続し各種の情報を受信する。例えば、雨、雪、霧などの天候情報を受信できる。 The VICS receiver 166 receives radio waves distributed by VICS. VICS is a system that transmits road traffic information such as traffic congestion and traffic regulation to an in-vehicle device in real time using FM multiplex broadcasting or a beacon. The external communication device 167 connects to the Internet or the like via a network such as 3G, 4G, 5G, LTE and wireless LAN, and receives various information. For example, it can receive weather information such as rain, snow, and fog.

また、ニュース、音楽、動画等を受信してもよい。また、外部通信装置167は、例えば信号機の状態情報と信号が変わるまでの時間等を取得できる。このように、VICS受信装置166と外部通信装置167は路車間通信を行う場合がある。この他、外部通信装置167は車間通信で他車両6が検出した情報を取得してもよい。 You may also receive news, music, videos and the like. Further, the external communication device 167 can acquire, for example, the state information of the traffic light and the time until the signal changes. In this way, the VICS receiving device 166 and the external communication device 167 may perform road-to-vehicle communication. In addition, the external communication device 167 may acquire the information detected by the other vehicle 6 in the inter-vehicle communication.

なお、先進運転システム(ADAS)では情報を表示して警告するだけでなく、自車両8の制御を行う場合もある。この場合、ECUはレーダセンサ163又は周囲カメラ164の少なくとも一方が検出する対象物の距離情報に基づいてエンジンECU12、ブレーキECU13及びステアリングECU14と連携して各種の運転支援を行う。例えば、先行車への追従走行時の加減速制御、自動制動、走行レーンからの逸脱回避、レーンキープ走行、及び、対象物の回避操舵等を行う。このような制御のために、周囲カメラ164が撮像した画像から、ECUが白線等の道路ペイント等を認識する。 In addition, the advanced driver assistance system (ADAS) not only displays information and warns, but also controls the own vehicle 8. In this case, the ECU cooperates with the engine ECU 12, the brake ECU 13, and the steering ECU 14 to provide various driving support based on the distance information of the object detected by at least one of the radar sensor 163 and the surrounding camera 164. For example, acceleration / deceleration control, automatic braking, avoidance of deviation from the traveling lane, lane keeping traveling, avoidance steering of an object, and the like during follow-up traveling to a preceding vehicle are performed. For such control, the ECU recognizes road paint such as white lines from the image captured by the surrounding camera 164.

追従走行時の加減速制御では、ECUは車速に応じた目標の距離を維持するように動力と制動力を制御する。自動制動では、TTCに応じて、警告、ブレーキペダルの押下を促す表示及び衝突の可能性が高い場合におけるシートベルトの巻き上げと衝突回避制動等を行う。走行レーンからの逸脱回避では、運転支援ECU36は撮像された画像から白線(走行区分線)を認識し、走行レーンを逸脱する方向と反対方向に操舵トルクを付加する。 In acceleration / deceleration control during follow-up travel, the ECU controls power and braking force so as to maintain a target distance according to the vehicle speed. In automatic braking, a warning, a display prompting the brake pedal to be pressed, a seatbelt winding when there is a high possibility of a collision, collision avoidance braking, and the like are performed according to the TTC. In avoiding deviation from the traveling lane, the driving support ECU 36 recognizes a white line (traveling division line) from the captured image and applies steering torque in a direction opposite to the direction deviating from the traveling lane.

また、レーンキープ走行では走行レーンの中央を目標走行ラインに設定し、目標走行ラインからの乖離に比例した操舵トルクを乖離とは反対方向に付加する。対象物の回避操舵では、制動では衝突を回避できないと判断した場合に、対象物を回避するための走行ラインを決定し、この走行ラインを走行する操舵トルクを付加する。 Further, in lane-keeping driving, the center of the traveling lane is set as the target traveling line, and steering torque proportional to the deviation from the target traveling line is added in the direction opposite to the deviation. In avoidance steering of an object, when it is determined that a collision cannot be avoided by braking, a traveling line for avoiding the object is determined, and steering torque traveling on this traveling line is added.

また、例えば車線変更時にレーダセンサ163又は周囲カメラ164により、隣の車線のドアミラーに映らない領域(死角領域)を併走する車両を検知した場合に、乗員に警告する。このような支援をブラインドスポットモニタという。 Further, for example, when the radar sensor 163 or the surrounding camera 164 detects a vehicle traveling in parallel in an area (blind spot area) that is not reflected in the door mirror of the adjacent lane when changing lanes, the occupant is warned. Such support is called a blind spot monitor.

<認識装置15の機能構成例>
次に、認識装置15の機能構成について図5を参照して説明する。図5は認識装置15が備える機能構成の一例を示すブロック図である。認識装置15は対象判断部151と相対位置決定部152を備える。
<Example of functional configuration of recognition device 15>
Next, the functional configuration of the recognition device 15 will be described with reference to FIG. FIG. 5 is a block diagram showing an example of the functional configuration included in the recognition device 15. The recognition device 15 includes a target determination unit 151 and a relative position determination unit 152.

対象判断部151は主に周囲カメラ164が撮像して得た周囲画像データを解析して写っている対象物の分類を判断する。実施形態では、例えば、他車両、歩行者、二輪車、又はその他等を判断する。 The object determination unit 151 mainly analyzes the ambient image data obtained by the surrounding camera 164 to determine the classification of the captured object. In the embodiment, for example, another vehicle, a pedestrian, a two-wheeled vehicle, or the like is determined.

なお、周囲カメラ164がステレオカメラの場合、周囲画像データの各画素又は画素ブロックには距離情報が含まれている。このような周囲画像データを距離画像という。また、対象判断部151は周囲画像データだけでなく、レーダ測距情報からも対象物を判断できる。例えば、LIDARの点群の密度が十分に高い場合、対象物の形状が得られるので、形状を解析して対象物の分類を判断できる。 When the peripheral camera 164 is a stereo camera, each pixel or pixel block of the peripheral image data includes distance information. Such surrounding image data is called a distance image. Further, the target determination unit 151 can determine an object not only from the surrounding image data but also from the radar ranging information. For example, when the density of the point cloud of LIDAR is sufficiently high, the shape of the object can be obtained, so that the shape can be analyzed to determine the classification of the object.

対象判断部151が対象を判断する方法の1つとして、機械学習を用いた画像認識方法がある。機械学習とは、コンピュータに人のような学習能力を獲得させるための技術であり,コンピュータが,データ識別等の判断に必要なアルゴリズムを,事前に取り込まれる学習データから自律的に生成し,新たなデータについてこれを適用して予測を行う技術のことをいう。機械学習のための学習方法は、教師あり学習、教師なし学習、半教師学習、強化学習、深層学習のいずれかの方法でもよく、更に、これらの学習方法を組み合わせた学習方法でもよく、機械学習のための学習方法は問わない。なお、機械学習の手法には、パーセプトロン、ディープラーニング、サポートベクターマシン、ロジスティック回帰、ナイーブベイズ、決定木、ランダムフォレストなどがある。 As one of the methods for the object determination unit 151 to determine an object, there is an image recognition method using machine learning. Machine learning is a technology for making a computer acquire learning ability like a human being, and the computer autonomously generates an algorithm necessary for judgment such as data identification from learning data taken in advance, and newly It is a technology that applies this to various data to make predictions. The learning method for machine learning may be any of supervised learning, unsupervised learning, semi-supervised learning, intensive learning, and deep learning, and may be a learning method that combines these learning methods. Machine learning It doesn't matter how you learn for. Machine learning methods include perceptrons, deep learning, support vector machines, logistic regression, naive bays, decision trees, and random forests.

相対位置決定部152は、図6に示すように、自車両8又は自車両8を示す表示部品62に対する対象物の相対位置(方向と距離)を決定する。図6は、自車両8又は自車両8を示す表示部品62に対する対象物の相対位置の一例を説明する図である。図6に示すように、自車両8を示す表示部品62(虚像Iの中心)が、自車両8の中心から車幅方向にQ、車長方向にPの位置に表示されるものとする。 As shown in FIG. 6, the relative position determining unit 152 determines the relative position (direction and distance) of the object with respect to the own vehicle 8 or the display component 62 indicating the own vehicle 8. FIG. 6 is a diagram illustrating an example of the relative position of the object with respect to the own vehicle 8 or the display component 62 indicating the own vehicle 8. As shown in FIG. 6, it is assumed that the display component 62 (center of the virtual image I) indicating the own vehicle 8 is displayed at the position Q in the vehicle width direction and P in the vehicle length direction from the center of the own vehicle 8.

周囲画像データ又はレーダ測距情報により他車両6が自車両8の中心を原点に(A,B)の座標であることが検出されたものとする。また、自車両8の中心から他車両6までの距離をL、その方向をθで表す。なお、周囲画像データが距離画像の場合、(A,B)を直接求められるが、レーダ測距情報の場合は距離と方向を(A,B)に分解すればよい。相対位置決定部152は座標(A,B)を、自車両8を示す表示部品62を基準とする座標(C,D)に変換する。 It is assumed that the other vehicle 6 is detected to have the coordinates (A, B) with the center of the own vehicle 8 as the origin by the surrounding image data or the radar distance measurement information. Further, the distance from the center of the own vehicle 8 to the other vehicle 6 is represented by L 1 , and the direction thereof is represented by θ 1. If the surrounding image data is a distance image, (A, B) can be obtained directly, but if it is radar distance measurement information, the distance and direction may be decomposed into (A, B). The relative position-fixing unit 152 converts the coordinates (A, B) into the coordinates (C, D) based on the display component 62 indicating the own vehicle 8.

自車両8を示す表示部品62は虚像Iとして提示されるので自車両8の前方の決まった位置に存在する。上記のように車両の中心から自車両8を示す表示部品62までの車幅方向の距離をQ、車長方向の距離をPとすると座標(C,D)は以下のように決定される。
(C、D)=(A+Q,B+P)
Since the display component 62 indicating the own vehicle 8 is presented as a virtual image I, it exists at a fixed position in front of the own vehicle 8. As described above, assuming that the distance in the vehicle width direction from the center of the vehicle to the display component 62 indicating the own vehicle 8 is Q and the distance in the vehicle length direction is P, the coordinates (C, D) are determined as follows.
(C, D) = (A + Q, B + P)

相対位置決定部152は車両に配置された各レーダセンサ又は周囲カメラ毎に同様の処理を行い、自車両8を示す表示部品62に対する対象物の相対位置を決定する。相対位置を決定することで距離と方向も求められる。自車両8を示す表示部品62から他車両6までの距離をL、その方向をθで表す。図6の例では、距離L=√(C+D)、方向θ=arctan(D/C)である。なお、方向θ、θの基準(どの方向を0度とするか)は適宜設定されてよい。図6では9時の方向を0度としている。 The relative position determining unit 152 performs the same processing for each radar sensor or surrounding camera arranged in the vehicle, and determines the relative position of the object with respect to the display component 62 indicating the own vehicle 8. The distance and direction can also be obtained by determining the relative position. The distance from the display component 62 indicating the own vehicle 8 to the other vehicle 6 is represented by L 2 , and the direction thereof is represented by θ 2. In the example of FIG. 6, the distance L 2 = √ (C 2 + D 2 ) and the direction θ 2 = arctan (D / C). The reference for the directions θ 1 and θ 2 (which direction is 0 degree) may be set as appropriate. In FIG. 6, the 9 o'clock direction is set to 0 degree.

認識装置15は、対象判断部151が判断した対象物の分類を示す分類情報と、相対位置決定部152が取得した自車両8から対象物までの距離情報と、自車両8に対する対象物の相対位置を示す位置情報とを制御部20に出力する。 The recognition device 15 includes classification information indicating the classification of the object determined by the target determination unit 151, distance information from the own vehicle 8 to the object acquired by the relative position determination unit 152, and relative to the object 8 with respect to the own vehicle 8. The position information indicating the position is output to the control unit 20.

<制御部20のハードウェア構成例>
次に、制御部20のハードウェア構成を、図7を参照して説明する。図7は、制御部20のハードウェア構成の一例を示すブロック図である。図7に示すように、制御部20は、FPGA(Field-Programmable Gate Array)201と、CPU(Central Processing Unit)202と、ROM(Read Only Memory)203と、RAM(Random Access Memory)204と、I/F(Interface)205と、バスライン206と、LDドライバ207と、MEMSコントローラ208とを備えている。FPGA201、CPU202、ROM203、RAM204、及びI/F205は、バスライン206を介して相互に接続されている。
<Hardware configuration example of control unit 20>
Next, the hardware configuration of the control unit 20 will be described with reference to FIG. 7. FIG. 7 is a block diagram showing an example of the hardware configuration of the control unit 20. As shown in FIG. 7, the control unit 20 includes an FPGA (Field-Programmable Gate Array) 201, a CPU (Central Processing Unit) 202, a ROM (Read Only Memory) 203, a RAM (Random Access Memory) 204, and the like. It includes an I / F (Interface) 205, a bus line 206, an LD driver 207, and a MEMS controller 208. The FPGA 201, CPU 202, ROM 203, RAM 204, and I / F 205 are connected to each other via the bus line 206.

CPU202は、制御部20の各機能を制御する。ROM203は、CPU202が、制御部20の各機能を制御するために実行するプログラム203pを記憶している。RAM204にはプログラム203pが展開され、CPU202がプログラム203pを実行するためのワークエリアとして使用される。また、RAM204は画像メモリ209を備えている。 The CPU 202 controls each function of the control unit 20. The ROM 203 stores a program 203p executed by the CPU 202 to control each function of the control unit 20. The program 203p is expanded in the RAM 204, and is used as a work area for the CPU 202 to execute the program 203p. Further, the RAM 204 includes an image memory 209.

画像メモリ209は虚像Iとして投影される画像の生成に使用される。I/F205は、認識装置15や検出装置16と通信するためのインターフェイスであり、車両9のCAN(Controller Area Network)バス又はイーサネット(登録商標)等に接続される。 The image memory 209 is used to generate an image projected as a virtual image I. The I / F 205 is an interface for communicating with the recognition device 15 and the detection device 16, and is connected to the CAN (Controller Area Network) bus of the vehicle 9, Ethernet (registered trademark), or the like.

FPGA201は、CPU202が作成した画像に基づいてLDドライバ207を制御する。LDドライバ207は投射部10の光源部101のLDを駆動することで、画像に応じたLDの発光を制御する。FPGA201は、画像の画素位置に応じた方向にレーザビームが偏向されるようにMEMSコントローラ208を介して投射部10の光偏向器102を動作させる。 The FPGA 201 controls the LD driver 207 based on the image created by the CPU 202. The LD driver 207 controls the light emission of the LD according to the image by driving the LD of the light source unit 101 of the projection unit 10. The FPGA 201 operates the light deflector 102 of the projection unit 10 via the MEMS controller 208 so that the laser beam is deflected in the direction corresponding to the pixel position of the image.

<制御部20の機能構成例>
次に、制御部20の機能構成について、図8を参照して説明する。図8は、制御部20の機能構成の一例を示すブロック図である。
<Example of functional configuration of control unit 20>
Next, the functional configuration of the control unit 20 will be described with reference to FIG. FIG. 8 is a block diagram showing an example of the functional configuration of the control unit 20.

図8に示すように、制御部20は、残距離取得部21と、判定部22と、方向決定部23と、画像生成部24と、出力部25とを備えている。これらのうち、残距離取得部21、判定部22、方向決定部23及び画像生成部24の機能は、図7のCPU202が所定のプログラムを実行すること等により実現される。また出力部25の機能は図7のI/F205等により実現される。 As shown in FIG. 8, the control unit 20 includes a remaining distance acquisition unit 21, a determination unit 22, a direction determination unit 23, an image generation unit 24, and an output unit 25. Of these, the functions of the remaining distance acquisition unit 21, the determination unit 22, the direction determination unit 23, and the image generation unit 24 are realized by the CPU 202 of FIG. 7 executing a predetermined program or the like. Further, the function of the output unit 25 is realized by the I / F 205 or the like shown in FIG.

残距離取得部21は、カーナビゲーションシステム11から入力した経路案内情報に基づいて、提示画像を提示する地点に自車両8が到達するまでの残距離情報を取得し、取得結果を判定部22に出力する。 Based on the route guidance information input from the car navigation system 11, the remaining distance acquisition unit 21 acquires the remaining distance information until the own vehicle 8 reaches the point where the presented image is presented, and outputs the acquisition result to the determination unit 22. Output.

判定部22は、残距離が所定の提示閾値以下になったか否かを判定し、判定結果を方向決定部23に出力する。 The determination unit 22 determines whether or not the remaining distance is equal to or less than a predetermined presentation threshold value, and outputs the determination result to the direction determination unit 23.

方向決定部23は、残距離が提示閾値以下になった場合に、カーナビゲーションシステム11から入力した経路案内情報に基づき、自車両8の走行予定経路における走行予定方向を決定し、決定結果を画像生成部24に出力する。例えば、自車両8の走行予定経路に交差点がある場合には、交差点で自車両8が進むべき方向を決定する。 When the remaining distance becomes equal to or less than the presentation threshold value, the direction determination unit 23 determines the planned travel direction on the planned travel route of the own vehicle 8 based on the route guidance information input from the car navigation system 11, and images the determination result. Output to the generation unit 24. For example, when there is an intersection on the planned travel route of the own vehicle 8, the direction in which the own vehicle 8 should travel is determined at the intersection.

画像生成部24は、方向決定部23が決定した走行予定方向に応じて、自車両8の走行予定経路における走行予定方向を提示するための提示画像を生成する。そして、生成した提示画像の画像データを、出力部25を介して投射部10に出力する。 The image generation unit 24 generates a presentation image for presenting the planned travel direction on the planned travel route of the own vehicle 8 according to the planned travel direction determined by the direction determination unit 23. Then, the image data of the generated presentation image is output to the projection unit 10 via the output unit 25.

投射部10(図1参照)は、入力した提示画像データに基づき、フロントウインドシールド71に提示画像を含む被投射画像を投射し、提示画像の虚像を自車両8の運転者Vに視認させる。 The projection unit 10 (see FIG. 1) projects a projected image including the presented image on the front windshield 71 based on the input presented image data, and makes the driver V of the own vehicle 8 visually recognize the virtual image of the presented image.

なお、画像生成部24は、提示画像だけでなく、残距離取得部21が取得した残距離情報を表示する残距離画像や、図4の車速センサ161が検出した自車両8の車速情報を表示する車速画像等の他の画像を生成することもできる。そして、提示画像や残距離画像、車速画像等が1つの画像内に配置された被投射画像データを、出力部25を介して投射部10に出力できる。 The image generation unit 24 displays not only the presented image but also the remaining distance image that displays the remaining distance information acquired by the remaining distance acquisition unit 21 and the vehicle speed information of the own vehicle 8 detected by the vehicle speed sensor 161 of FIG. It is also possible to generate other images such as a vehicle speed image. Then, the projected image data in which the presented image, the remaining distance image, the vehicle speed image, and the like are arranged in one image can be output to the projection unit 10 via the output unit 25.

<制御部20による処理例>
次に、制御部20による処理の流れを、図9を参照して説明する。図9は、制御部20による処理の一例を示すフローチャートである。
<Processing example by control unit 20>
Next, the flow of processing by the control unit 20 will be described with reference to FIG. FIG. 9 is a flowchart showing an example of processing by the control unit 20.

まず、ステップS91において、残距離取得部21及び方向決定部23は、カーナビゲーションシステム11から経路案内情報を入力する。 First, in step S91, the remaining distance acquisition unit 21 and the direction determination unit 23 input route guidance information from the car navigation system 11.

続いて、ステップS92において、残距離取得部21は、経路案内情報に基づいて、自車両8が提示画像を提示する地点に到達するまでの残距離情報を取得し、取得結果を判定部22に出力する。 Subsequently, in step S92, the remaining distance acquisition unit 21 acquires the remaining distance information until the own vehicle 8 reaches the point where the presented image is presented based on the route guidance information, and the acquisition result is transmitted to the determination unit 22. Output.

続いて、ステップS93において、判定部22は、残距離が提示閾値以下になったか否かを判定する。 Subsequently, in step S93, the determination unit 22 determines whether or not the remaining distance is equal to or less than the presentation threshold value.

ステップS93で残距離が提示閾値以下でないと判定された場合には(ステップS93、No)、ステップS91以降の処理が再度繰り返される。 If it is determined in step S93 that the remaining distance is not equal to or less than the presentation threshold value (steps S93, No), the processes after step S91 are repeated again.

一方、ステップS93で残距離が提示閾値以下であると判定された場合には(ステップS93、Yes)、ステップS94において、方向決定部23は、経路案内情報に基づき、自車両8の走行予定方向を決定する。 On the other hand, when it is determined in step S93 that the remaining distance is equal to or less than the presentation threshold value (step S93, Yes), in step S94, the direction determining unit 23 determines the planned traveling direction of the own vehicle 8 based on the route guidance information. To determine.

続いて、ステップS95において、画像生成部24は、方向決定部23が決定した走行予定方向に応じて提示画像を生成する。 Subsequently, in step S95, the image generation unit 24 generates a presentation image according to the planned traveling direction determined by the direction determination unit 23.

続いて、ステップS96において、出力部25は提示画像データを投射部10に出力する。 Subsequently, in step S96, the output unit 25 outputs the presented image data to the projection unit 10.

このようにして、制御部20は提示画像を生成し、投射部10に出力できる。なお、ステップS91〜S94までの間に、画像生成部24は、上述した残距離画像や車速画像等を生成し、これらを含む被投射画像データを、出力部25を介して投射部10に出力することもできる。この場合は、提示画像が含まれずに残距離画像や車速画像等が含まれる被投射画像が自車両8の前景に重畳表示される。 In this way, the control unit 20 can generate the presentation image and output it to the projection unit 10. During steps S91 to S94, the image generation unit 24 generates the above-mentioned residual distance image, vehicle speed image, and the like, and outputs the projected image data including these to the projection unit 10 via the output unit 25. You can also do it. In this case, the projected image including the remaining distance image, the vehicle speed image, and the like without including the presented image is superimposed and displayed on the foreground of the own vehicle 8.

(各種表示例)
次に、表示装置1による各種表示例について説明する。以下では、図3のカーナビゲーションシステム11を用いて目的地が設定された状態で、自車両8の前景に画像が重畳表示された場合を一例として説明する。また一般的なカーナビゲーションシステムでは、交差点や道路が分岐する分岐点毎で、車両の走行予定経路を案内する。そのため、これに対応して交差点や分岐点毎で提示画像を表示して、走行予定経路を案内する場合を一例として説明する。
(Various display examples)
Next, various display examples by the display device 1 will be described. In the following, a case where an image is superimposed and displayed on the foreground of the own vehicle 8 in a state where the destination is set using the car navigation system 11 of FIG. 3 will be described as an example. Further, in a general car navigation system, the planned travel route of a vehicle is guided at each intersection or a branch point where a road branches. Therefore, a case where the presented image is displayed at each intersection or branch point corresponding to this and the planned travel route is guided will be described as an example.

まず、図10は、残距離が提示閾値以下でない場合における自車両8の前景300への表示の一例を示す図である。 First, FIG. 10 is a diagram showing an example of display on the foreground 300 of the own vehicle 8 when the remaining distance is not equal to or less than the presentation threshold value.

前景300には、先行車両301や道路302等が含まれている。また、前景300には、車速画像303と、残距離画像304とが重畳表示されている。 The foreground 300 includes a preceding vehicle 301, a road 302, and the like. Further, in the foreground 300, the vehicle speed image 303 and the remaining distance image 304 are superimposed and displayed.

車速画像303は、自車両8の現在の車速を表示する画像である。図10の例では、車速として70(km/h)が表示されている。 The vehicle speed image 303 is an image displaying the current vehicle speed of the own vehicle 8. In the example of FIG. 10, 70 (km / h) is displayed as the vehicle speed.

残距離画像304は、提示画像を提示する地点に自車両8が到達するまでの残距離を表示する画像である。図10の例では、提示画像を提示する地点として「都筑I.C.」が表示されるとともに、「都筑I.C.」までの残距離である200mmが表示されている。 The remaining distance image 304 is an image that displays the remaining distance until the own vehicle 8 reaches the point where the presented image is presented. In the example of FIG. 10, "Tsuki I.C." is displayed as a point for presenting the presented image, and 200 mm, which is the remaining distance to "Tsuki I.C.", is displayed.

残距離画像304は、残距離が所定の表示閾値(例えば500m)以下になった場合に表示され、残距離が提示閾値(例えば100m)以下になるまで表示される。図10では残距離が提示閾値以下ではないため、提示画像がまだ表示されていない。 The remaining distance image 304 is displayed when the remaining distance becomes equal to or less than a predetermined display threshold value (for example, 500 m), and is displayed until the remaining distance becomes equal to or less than the presentation threshold value (for example, 100 m). In FIG. 10, since the remaining distance is not equal to or less than the presentation threshold value, the presentation image is not yet displayed.

次に、図11は、残距離が提示閾値以下である場合における自車両8の前景300aへの表示の一例を示す図である。 Next, FIG. 11 is a diagram showing an example of display of the own vehicle 8 on the foreground 300a when the remaining distance is equal to or less than the presentation threshold value.

前景300aには、道路302に交差する交差道路305が現れている。また、残距離が提示閾値以下になったため、前景300aでは、図10における残距離画像304が非表示となり、提示画像306が新たに表示されている。 In the foreground 300a, a crossing road 305 that intersects the road 302 appears. Further, since the remaining distance is equal to or less than the presentation threshold value, the remaining distance image 304 in FIG. 10 is hidden and the presented image 306 is newly displayed in the foreground 300a.

提示画像306は、交差道路305に案内(誘導)するように、自車両8の走行予定方向を提示する画像である。図11に示すように、提示画像306は、2つの矢印図形306a及び306bを含んで構成されている。 The presented image 306 is an image that presents the planned traveling direction of the own vehicle 8 so as to guide (guide) the intersection road 305. As shown in FIG. 11, the presented image 306 is configured to include two arrow figures 306a and 306b.

矢印図形306a及び306bは、交差道路305を指示するように方向性を備えている。矢印図形306a及び306bが指示する方向が自車両8の走行予定方向(移動体の移動予定方向)に対応する。 The arrow figures 306a and 306b are oriented to indicate the crossroads 305. The directions indicated by the arrow figures 306a and 306b correspond to the planned traveling directions of the own vehicle 8 (the planned moving directions of the moving body).

また矢印図形306a及び306bのそれぞれは、Z方向における投射部10の投射画角に対応するサイズより小さい画像サイズの図形であり、正のZ方向から負のZ方向に向けて断続的に表示されている。 Further, each of the arrow figures 306a and 306b is a figure having an image size smaller than the size corresponding to the projection angle of view of the projection unit 10 in the Z direction, and is displayed intermittently from the positive Z direction to the negative Z direction. ing.

ここで、図11に矢印で示したZ方向は、前景300a内の垂直方向に沿う方向に対応し、X方向は前景300a内の水平方向に沿う方向に対応する。この点は、以降の図12〜15に示すX方向及びZ方向においても同様である。なお、被投射画像のサイズと投射画角との関係は、図13を用いて後述する。 Here, the Z direction indicated by the arrow in FIG. 11 corresponds to the direction along the vertical direction in the foreground 300a, and the X direction corresponds to the direction along the horizontal direction in the foreground 300a. This point is the same in the X direction and the Z direction shown in FIGS. 12 to 15 below. The relationship between the size of the projected image and the projected angle of view will be described later with reference to FIG.

自車両8の運転者Vは、前景300aに重畳表示された提示画像306を視認することで、走行予定経路における走行予定方向を分かりやすく認識できる。 The driver V of the own vehicle 8 can easily recognize the planned travel direction on the planned travel route by visually recognizing the presentation image 306 superimposed and displayed on the foreground 300a.

この矢印図形306a及び306bは「複数の図形」の一例である。なお、図11の例では、2個の矢印を示したが、これに限定されるものではなく、矢印の個数はさらに増加させてもよい。また、図形は矢印に限定されるものではなく、方向を指示するものであれば任意の形状の図形であってもよい。 The arrow figures 306a and 306b are examples of "plurality of figures". In the example of FIG. 11, two arrows are shown, but the present invention is not limited to this, and the number of arrows may be further increased. Further, the figure is not limited to the arrow, and may be a figure of any shape as long as it indicates a direction.

また、図11において、破線で示した領域307は、被投射画像が表示される領域を示している。前景300aにおける領域307の領域内に被投射画像が表示されている。提示画像306は被投射画像に含まれる画像であるため、この領域307内に表示される。なお、領域307は被投射画像が表示される領域を説明するために図示したものであり、自車両8の前景300aに表示されるものではない。 Further, in FIG. 11, the area 307 shown by the broken line indicates the area where the projected image is displayed. The projected image is displayed in the area of the area 307 in the foreground 300a. Since the presented image 306 is an image included in the projected image, it is displayed in this area 307. The area 307 is shown for explaining the area where the projected image is displayed, and is not displayed in the foreground 300a of the own vehicle 8.

次に、図12は、被投射画像のサイズと提示画像との関係を説明する図である。(a)は比較例に係る被投射画像のサイズと提示画像との関係を示す図、(b)は実施形態に係る被投射画像のサイズと提示画像との関係を示す図である。また、図12は、図10及び図11における前景への被投射画像の重畳表示を、自車両8の上方(上空から見下ろす方向)から見た図に対応する。 Next, FIG. 12 is a diagram for explaining the relationship between the size of the projected image and the presented image. (A) is a diagram showing the relationship between the size of the projected image according to the comparative example and the presented image, and (b) is a diagram showing the relationship between the size of the projected image and the presented image according to the embodiment. Further, FIG. 12 corresponds to a view of the superimposed display of the projected image on the foreground in FIGS. 10 and 11 as viewed from above the own vehicle 8 (direction looking down from the sky).

図12(a)では、道路302を走行する自車両8の走行予定経路を提示するために、経路に沿って伸びる太矢印の提示画像306'が表示されている。この場合、走行予定経路に沿って太矢印を伸ばす必要があるため、提示画像306'を含む被投射画像には、重畳範囲308'を提示可能なサイズが要求される。ここで重畳範囲とは、投射部10の投射画角と俯角(見下ろし角)により決定される範囲であり、前景と被投射画像とが重畳する範囲をいう。 In FIG. 12A, a presentation image 306'of a thick arrow extending along the route is displayed in order to present the planned travel route of the own vehicle 8 traveling on the road 302. In this case, since it is necessary to extend the thick arrow along the planned travel route, the projected image including the presentation image 306'is required to have a size capable of presenting the superposition range 308'. Here, the superimposition range is a range determined by the projection angle of view and the depression angle (looking down angle) of the projection unit 10, and refers to a range in which the foreground and the projected image are superposed.

これに対し、図12(b)に示すように、実施形態に係る提示画像306は、走行予定方向を提示するため、経路全体を示すように提示画像306を提示しなくてもよい。そのため、図12(a)における重畳範囲308'と比較して小さい重畳範囲308を提示可能なサイズで被投射画像を生成可能になっている。 On the other hand, as shown in FIG. 12B, since the presentation image 306 according to the embodiment presents the planned traveling direction, it is not necessary to present the presentation image 306 so as to show the entire route. Therefore, it is possible to generate a projected image with a size capable of presenting a superimposition range 308, which is smaller than the superimposition range 308'in FIG. 12A.

次に、図13は、被投射画像のサイズと投射部10による投射画角との関係の一例を説明する図である。図13において、虚像I'は比較例に係る虚像を示している。虚像I'は、投射画角φ'で被投射画像が投射されることで、運転者Vに視認される被投射画像の虚像である。一方、虚像Iは実施形態に係る虚像を示している。虚像Iは投射画角φで被投射画像が投射されることで、運転者Vに視認される被投射画像の虚像である。 Next, FIG. 13 is a diagram illustrating an example of the relationship between the size of the projected image and the projected angle of view by the projection unit 10. In FIG. 13, virtual image I'shows a virtual image according to a comparative example. The virtual image I'is a virtual image of the projected image that is visually recognized by the driver V by projecting the projected image at a projection angle of view φ'. On the other hand, the virtual image I shows a virtual image according to the embodiment. The virtual image I is a virtual image of the projected image that is visually recognized by the driver V by projecting the projected image at a projection angle of view φ.

実施形態に係る提示画像306を含む被投射画像の虚像IのZ方向におけるサイズhは、比較例に係る提示画像306'を含む被投射画像の虚像I'のZ方向におけるサイズh'と比較して小さい。そのため、投射画角φ'と比較して狭い投射画角φで提示画像306を提示し、経路案内情報を提示することが可能になっている。 The size h of the virtual image I of the projected image including the presented image 306 according to the embodiment in the Z direction is compared with the size h'of the virtual image I'including the presented image 306'according to the comparative example in the Z direction. Is small. Therefore, it is possible to present the presentation image 306 at a projection angle of view φ that is narrower than the projection angle of view φ'and to present the route guidance information.

ここで、投射画角φは、垂直方向に沿うZ方向における投射部10の最大投射画角に対応する。 Here, the projection angle of view φ corresponds to the maximum projection angle of view of the projection unit 10 in the Z direction along the vertical direction.

次に、図14は、提示画像306における矢印図形306a及び306bの表示間隔と、重畳範囲との関係の一例を説明する図である。図14において、表示間隔dは矢印図形306a及び306bの表示間隔を示し、重畳距離eは自車両8の走行方向(X方向及びY方向の両方に直交する方向)における重畳範囲の長さ(距離)を示している。図14に示すように、表示間隔dは重畳距離eより小さいことが好ましい。また表示間隔dを、Z方向における投射部10の最大投射画角以下にすると、矢印図形306a及び306b等の複数の図形を前景に表示でき、複数の図形で走行予定方向をより分かりやすく提示できるため、好適である。 Next, FIG. 14 is a diagram illustrating an example of the relationship between the display intervals of the arrow figures 306a and 306b in the presented image 306 and the superimposition range. In FIG. 14, the display interval d indicates the display interval of the arrow figures 306a and 306b, and the superimposition distance e is the length (distance) of the superimposition range in the traveling direction of the own vehicle 8 (direction orthogonal to both the X direction and the Y direction). ) Is shown. As shown in FIG. 14, the display interval d is preferably smaller than the superposition distance e. Further, when the display interval d is set to be equal to or less than the maximum projection angle of view of the projection unit 10 in the Z direction, a plurality of figures such as arrow figures 306a and 306b can be displayed in the foreground, and the planned traveling direction can be presented more clearly with the plurality of figures. Therefore, it is suitable.

<表示装置1による作用効果>
以上説明したように、実施形態では、経路案内情報として自車両8の走行予定方向を提示する提示画像を生成し、自車両8に備えられた投射部10で提示画像を含む被投射画像を投射して表示する。自車両8の走行予定経路を提示するための大きな画像を投射せず、自車両8の移動予定方向を提示する小さな画像を投射するため、狭い投射画角φ(図13参照)で提示画像306を提示して経路案内情報を提示できる。これにより、表示装置1のサイズやコストが増大することを回避できる。
<Action and effect of display device 1>
As described above, in the embodiment, a presented image presenting the planned traveling direction of the own vehicle 8 is generated as route guidance information, and a projected image including the presented image is projected by the projection unit 10 provided in the own vehicle 8. To display. The presentation image 306 with a narrow projection angle of view φ (see FIG. 13) in order to project a small image showing the planned movement direction of the own vehicle 8 without projecting a large image for presenting the planned travel route of the own vehicle 8. Can be presented to present route guidance information. As a result, it is possible to avoid an increase in the size and cost of the display device 1.

また、実施形態に係る提示画像306は、投射部10の投射画角に対応するサイズより小さい画像サイズの複数の図形である矢印図形306a及び306bを含んで構成されている。また、矢印図形306a及び306bは、正のZ方向から負のZ方向に向けて断続的に表示されている。このようにすることで、走行予定経路に沿って伸びる太矢印の提示画像を前景の道路に重畳させる場合と比較して、前景の道路に重畳される提示画像306の面積を小さくすることができる。これにより、前景における視覚的な煩わしさ(煩雑さ)を解消できる。 Further, the presented image 306 according to the embodiment includes arrow figures 306a and 306b, which are a plurality of figures having an image size smaller than the size corresponding to the projection angle of view of the projection unit 10. Further, the arrow figures 306a and 306b are displayed intermittently from the positive Z direction to the negative Z direction. By doing so, the area of the presented image 306 superimposed on the road in the foreground can be reduced as compared with the case where the presented image of the thick arrow extending along the planned travel route is superimposed on the road in the foreground. .. As a result, the visual annoyance (complexity) in the foreground can be eliminated.

ここで、提示画像306における矢印図形306a及び306bの表示位置によっても、走行予定方向を提示できる。図15は提示画像306における矢印図形306a及び306bの表示位置の一例を説明する図である。 Here, the planned traveling direction can also be presented by the display positions of the arrow figures 306a and 306b in the presented image 306. FIG. 15 is a diagram illustrating an example of display positions of arrow figures 306a and 306b in the presented image 306.

矢印図形306a及び306bを、運転者Vの中心軸309上に表示すると最も簡易的であるが、交差点の基準位置310を定め、基準位置310と運転者Vとを結ぶ直線状に矢印図形306a及び306bが配置されるように表示してもよい。 It is simplest to display the arrow figures 306a and 306b on the central axis 309 of the driver V, but the reference position 310 of the intersection is determined and the arrow figures 306a and 306b are linearly connected to the reference position 310 and the driver V. It may be displayed so that 306b is arranged.

このような表示状態を自車両8の前景300aを視認した場合に置き換えて説明する。提示画像306の虚像は、前景300a内の垂直方向に沿う方向に配列された複数の図形で、走行予定方向を提示する。この複数の図形は、前景内の垂直方向に沿う方向における交差点に近い位置で走行予定方向を提示する図形ほど、前景内の水平方向に沿う方向における交差点に近い位置で走行予定方向を提示する。 Such a display state will be described by replacing it with the case where the foreground 300a of the own vehicle 8 is visually recognized. The virtual image of the presented image 306 is a plurality of figures arranged in a direction along the vertical direction in the foreground 300a, and presents the planned traveling direction. As for the plurality of figures, the figure that presents the planned travel direction at a position closer to the intersection in the vertical direction in the foreground presents the planned travel direction at a position closer to the intersection in the horizontal direction in the foreground.

図11を参照してより具体的に述べると、提示画像306を構成する矢印図形306a及び306bのうち、前景300a内の垂直方向に沿う方向(Z方向)における交差道路305に近い位置で走行予定方向を提示する矢印図形306aは、矢印図形306bと比較して、前景300a内の水平方向に沿う方向(X方向)における交差道路305に近い位置で走行予定方向を提示する。 More specifically with reference to FIG. 11, among the arrow figures 306a and 306b constituting the presented image 306, the vehicle is scheduled to travel at a position close to the crossing road 305 in the direction along the vertical direction (Z direction) in the foreground 300a. The arrow figure 306a presenting the direction presents the planned traveling direction at a position closer to the crossing road 305 in the direction along the horizontal direction (X direction) in the foreground 300a as compared with the arrow figure 306b.

このようにすることで、矢印図形306a及び306bの向きだけでなく、矢印図形306a及び306bの表示位置によっても、運転者Vは走行予定方向を認識可能になる。 By doing so, the driver V can recognize the planned traveling direction not only by the directions of the arrow figures 306a and 306b but also by the display positions of the arrow figures 306a and 306b.

なお、上述した実施形態における残距離画像304は、提示画像を提示する地点の情報と、この地点に自車両8が到達するまでの残距離の情報を提示するため、経路案内情報を提示する提示画像ということもできる。但し、残距離画像304は文字情報であり、表示のために広い投射画角を必要とするものではないため、投射画角への影響は小さい。 The remaining distance image 304 in the above-described embodiment is presented to present route guidance information in order to present information on a point at which the presented image is presented and information on the remaining distance until the own vehicle 8 reaches this point. It can also be called an image. However, since the remaining distance image 304 is character information and does not require a wide projection angle of view for display, the influence on the projection angle of view is small.

<その他の好適例>
以上、本発明を実施するための最良の形態について実施例を用いて説明したが、本発明はこうした実施例に限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
<Other preferred examples>
Although the best mode for carrying out the present invention has been described above with reference to examples, the present invention is not limited to these examples, and various modifications and modifications and variations and within a range not deviating from the gist of the present invention are made. Substitutions can be added.

なお、上述した実施形態において、認識装置15の備える機能の一部、又は全部を制御部20が備える構成にしてもよい。また、制御部20の備える機能の一部を認識装置15やカーナビゲーションシステム11、検出装置16等の他の構成要素が備える構成にしてもよい。 In the above-described embodiment, the control unit 20 may have a part or all of the functions provided by the recognition device 15. Further, a part of the functions provided by the control unit 20 may be provided by other components such as the recognition device 15, the car navigation system 11, and the detection device 16.

また、実施形態は表示方法も含む。例えば、表示方法は、被投射画像を表示する表示装置による表示方法であって、経路案内情報を提示する提示画像を生成する工程と、移動体に備えられた投射部により前記提示画像を含む前記被投射画像を投射する工程と、を行い、前記提示画像は、前記移動体の移動予定方向を提示する。このような表示方法により、上述した表示装置と同様の効果を得ることができる。 The embodiment also includes a display method. For example, the display method is a display method using a display device that displays a projected image, and includes a step of generating a presentation image that presents route guidance information and a projection unit provided on the moving body that includes the presentation image. The step of projecting the image to be projected is performed, and the presented image presents the planned movement direction of the moving body. By such a display method, the same effect as that of the display device described above can be obtained.

また、実施形態はプログラムも含む。例えば、プログラムは、被投射画像を表示する表示装置で動作するプログラムであって、経路案内情報を提示する提示画像を生成し、移動体に備えられた投射部により前記提示画像を含む前記被投射画像を投射する処理をコンピュータに実行させ、前記提示画像は、前記移動体の移動予定方向を提示する。このようなプログラムにより、上述した表示装置と同様の効果を得ることができる。 The embodiment also includes a program. For example, the program is a program that operates on a display device that displays a projected image, generates a presented image that presents route guidance information, and is projected by a projection unit provided on the moving body that includes the presented image. A computer is made to execute a process of projecting an image, and the presented image presents a planned movement direction of the moving body. With such a program, the same effect as that of the display device described above can be obtained.

上記で説明した実施形態の各機能は、一又は複数の処理回路によって実現することが可能である。ここで、本明細書における「処理回路」とは、電子回路により実装されるプロセッサのようにソフトウェアによって各機能を実行するようプログラミングされたプロセッサや、上記で説明した各機能を実行するよう設計されたASIC(Application Specific Integrated Circuit)、DSP(digital signal processor)、FPGA(field programmable gate array)や従来の回路モジュール等のデバイスを含むものとする。 Each function of the embodiment described above can be realized by one or more processing circuits. Here, the "processing circuit" in the present specification is a processor programmed to execute each function by software such as a processor implemented by an electronic circuit, or a processor designed to execute each function described above. It shall include devices such as ASIC (Application Specific Integrated Circuit), DSP (digital signal processor), FPGA (field programmable gate array) and conventional circuit modules.

1 表示装置
2 車載システム
8 自車両(移動体の一例)
10 投射部
11 カーナビゲーションシステム
15 認識装置
16 検出装置
164 周囲カメラ
20 制御部
21 残距離取得部
22 判定部
23 方向決定部
24 画像生成部
25 出力部
300、300a 前景
301 先行車両
302 道路
303 車速画像
304 残距離画像
305 交差道路
306 提示画像
306a、306b 矢印図形(複数の図形の一例)
307 領域
308 重畳範囲
d 表示間隔
e 重畳距離
h Z方向における虚像のサイズ
I 虚像
V 運転者
X 前景における水平方向に沿う方向
Z 前景における垂直方向に沿う方向
φ 投射画角
1 Display device 2 In-vehicle system 8 Own vehicle (an example of a moving body)
10 Projection unit 11 Car navigation system 15 Recognition device 16 Detection device 164 Surrounding camera 20 Control unit 21 Remaining distance acquisition unit 22 Judgment unit 23 Direction determination unit 24 Image generation unit 25 Output unit 300, 300a Foreground 301 Leading vehicle 302 Road 303 Vehicle speed image 304 Remaining distance image 305 Crossing road 306 Presented images 306a, 306b Arrow figures (example of multiple figures)
307 Area 308 Superimposition range d Display interval e Superimposition distance h Virtual image size in Z direction I Virtual image V Driver X Direction along the horizontal direction in the foreground Z Direction along the vertical direction in the foreground φ Projection angle of view

特開2019−207155号公報JP-A-2019-207155

Claims (10)

被投射画像を表示する表示装置であって、
経路案内情報を提示する提示画像を生成する画像生成部と、
移動体に備えられ、前記提示画像を含む前記被投射画像を投射する投射部と、を備え、
前記提示画像は、前記移動体の移動予定方向を提示する
表示装置。
A display device that displays the projected image.
An image generator that generates a presentation image that presents route guidance information,
A projection unit provided on the moving body and projecting the projected image including the presented image is provided.
The presented image is a display device that presents the planned movement direction of the moving body.
前記提示画像は、複数の図形で前記移動予定方向を提示する
請求項1に記載の表示装置。
The display device according to claim 1, wherein the presented image presents the planned movement direction with a plurality of figures.
前記図形は、前記移動予定方向を示す方向性を有する矢印図形の画像である
請求項2に記載の表示装置。
The display device according to claim 2, wherein the figure is an image of an arrow figure having a directionality indicating the planned movement direction.
前記提示画像の虚像を前記移動体の前景に重畳表示する
請求項1乃至3の何れか1項に記載の表示装置。
The display device according to any one of claims 1 to 3, wherein a virtual image of the presented image is superimposed and displayed on the foreground of the moving body.
前記提示画像の虚像は、前記前景内の交差点における前記移動予定方向を提示する
請求項4に記載の表示装置。
The display device according to claim 4, wherein the virtual image of the presented image presents the planned movement direction at an intersection in the foreground.
前記提示画像の虚像は、前記前景内の垂直方向に沿う方向に配列された複数の図形で前記移動予定方向を提示し、
前記複数の図形のそれぞれの間隔は、前記垂直方向に沿う方向における前記投射部の最大投射画角以下である
請求項5に記載の表示装置。
The virtual image of the presented image presents the planned movement direction by a plurality of figures arranged in a direction along the vertical direction in the foreground.
The display device according to claim 5, wherein the distance between the plurality of figures is equal to or less than the maximum projection angle of view of the projection unit in a direction along the vertical direction.
前記提示画像の虚像は、前記前景内の垂直方向に沿う方向に配列された複数の図形で前記移動予定方向を提示し、
前記複数の図形は、前記前景内の垂直方向に沿う方向における前記交差点に近い位置で前記移動予定方向を提示する前記図形ほど、前記前景内の水平方向に沿う方向における前記交差点に近い位置で前記移動予定方向を提示する
請求項5、又は6に記載の表示装置。
The virtual image of the presented image presents the planned movement direction by a plurality of figures arranged in a direction along the vertical direction in the foreground.
The plurality of figures present the planned movement direction at a position closer to the intersection in the direction along the vertical direction in the foreground, and the figure is closer to the intersection in the direction along the horizontal direction in the foreground. The display device according to claim 5 or 6, which presents the planned movement direction.
請求項1乃至7の何れか1項に記載の表示装置を有する移動体。 A mobile body having the display device according to any one of claims 1 to 7. 被投射画像を表示する表示装置による表示方法であって、
経路案内情報を提示する提示画像を生成する工程と、
移動体に備えられた投射部により前記提示画像を含む前記被投射画像を投射する工程と、を行い、
前記提示画像は、前記移動体の移動予定方向を提示する
表示方法。
It is a display method using a display device that displays the projected image.
The process of generating a presentation image that presents route guidance information,
A step of projecting the projected image including the presented image by a projection unit provided on the moving body is performed.
The presented image is a display method for presenting a planned movement direction of the moving body.
被投射画像を表示する表示装置で動作するプログラムであって、
経路案内情報を提示する提示画像を生成し、
移動体に備えられた投射部により前記提示画像を含む前記被投射画像を投射する
処理をコンピュータに実行させ、
前記提示画像は、前記移動体の移動予定方向を提示する
プログラム。
A program that runs on a display device that displays the projected image.
Generate a presentation image that presents route guidance information,
A computer is made to execute a process of projecting the projected image including the presented image by a projection unit provided on the moving body.
The presented image is a program that presents the planned movement direction of the moving body.
JP2020205061A 2020-01-24 2020-12-10 Display device, mobile body, method for display, and program Pending JP2021117220A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2021/001913 WO2021149740A1 (en) 2020-01-24 2021-01-20 Display apparatus, movable body, display method, program, and non-transitory recording medium
EP21704029.4A EP4093629A1 (en) 2020-01-24 2021-01-20 Display apparatus, movable body, display method, program, and non-transitory recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020010358 2020-01-24
JP2020010358 2020-01-24

Publications (1)

Publication Number Publication Date
JP2021117220A true JP2021117220A (en) 2021-08-10

Family

ID=77174650

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020205061A Pending JP2021117220A (en) 2020-01-24 2020-12-10 Display device, mobile body, method for display, and program

Country Status (1)

Country Link
JP (1) JP2021117220A (en)

Similar Documents

Publication Publication Date Title
JP7074432B2 (en) Vehicle control systems, vehicle control methods, and vehicle control programs
EP3106838B1 (en) Display apparatus for vehicle
JP6699675B2 (en) Information provision device
JP7222285B2 (en) DISPLAY CONTROL DEVICE, DISPLAY DEVICE, DISPLAY SYSTEM, MOBILE OBJECT, PROGRAM, IMAGE GENERATION METHOD
WO2018220828A1 (en) Vehicle control system, vehicle control method and program
CN108688556A (en) Motor-vehicle bulb
CN107380056A (en) Vehicular illumination device and vehicle
JP2018203007A (en) Vehicle control system, vehicle control method and vehicle control program
WO2018220832A1 (en) Vehicle control system, vehicle control method, and program
JP2018203008A (en) Vehicle control system, vehicle control method and program
WO2020110580A1 (en) Head-up display, vehicle display system, and vehicle display method
US20210016793A1 (en) Control apparatus, display apparatus, movable body, and image display method
US11043034B2 (en) Image output device
WO2020208989A1 (en) Display control device and display control program
US20210362597A1 (en) Vehicle control device and vehicle including the same
WO2019003929A1 (en) Display system, information presentation system, method for controlling display system, program and recording medium for display system, and mobile body device
CN110834583A (en) Display system for vehicle and vehicle
WO2019189515A1 (en) Control apparatus, display apparatus, movable body, and image display method
WO2021132259A1 (en) Display apparatus, display method, and program
JP2021117089A (en) Display device and method for display
JP2021117704A (en) Display device and method for display
JP2021105986A (en) Display device, moving entity, display method, and program
JP2020142753A (en) Display apparatus, display control method and program
JP7111121B2 (en) Display control device and display control program
EP3888966A1 (en) Vehicle display device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231011