JP2019168745A - Display device, mobile body, display method, and program - Google Patents

Display device, mobile body, display method, and program Download PDF

Info

Publication number
JP2019168745A
JP2019168745A JP2018053838A JP2018053838A JP2019168745A JP 2019168745 A JP2019168745 A JP 2019168745A JP 2018053838 A JP2018053838 A JP 2018053838A JP 2018053838 A JP2018053838 A JP 2018053838A JP 2019168745 A JP2019168745 A JP 2019168745A
Authority
JP
Japan
Prior art keywords
image
predetermined object
display device
moving body
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018053838A
Other languages
Japanese (ja)
Other versions
JP7183555B2 (en
Inventor
賢一郎 齊所
Kenichiro Saisho
賢一郎 齊所
紘史 山口
Hiroshi Yamaguchi
紘史 山口
真人 草▲なぎ▼
Masato Kusanagi
真人 草▲なぎ▼
友規 鈴木
Tomonori Suzuki
友規 鈴木
敬太 片桐
Keita Katagiri
敬太 片桐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2018053838A priority Critical patent/JP7183555B2/en
Publication of JP2019168745A publication Critical patent/JP2019168745A/en
Application granted granted Critical
Publication of JP7183555B2 publication Critical patent/JP7183555B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Instrument Panels (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)

Abstract

To reduce an unnatural feeling of an object to be displayed by addition to a real environment.SOLUTION: A display device for displaying a predetermined object at a position to be superimposed on an external environment of a mobile body includes: an acquisition section for acquiring an external image of a mobile body; a determination section for determining an image in an area in the periphery of a predetermined object in accordance with an image acquired by the acquisition section; and a display section for displaying a predetermined object and an image of an area in the periphery of the predetermined object.SELECTED DRAWING: Figure 4

Description

本発明は、表示装置、移動体、表示方法、及びプログラムに関する。   The present invention relates to a display device, a moving body, a display method, and a program.

従来、運転者等の搭乗者を載せて移動する車両、船舶、航空機、及び産業用ロボット等の移動体(移動装置)において、搭乗者に情報を提供するためのオブジェクトを表示するヘッドアップディスプレイ(HUD、Head-Up Display)を利用したものが知られている。このHUDでは、例えば、表示画像光をフロントガラスやコンバイナにより反射させ、移動体の搭乗者に視認させる。   2. Description of the Related Art Conventionally, in a moving body (moving device) such as a vehicle, a ship, an aircraft, and an industrial robot that carries a passenger such as a driver, a head-up display that displays an object for providing information to the passenger ( A device using HUD (Head-Up Display) is known. In this HUD, for example, display image light is reflected by a windshield or a combiner, and is visually recognized by a passenger of a moving body.

このHUDにおいて、表示するオブジェクトの視認性を向上させるために、当該オブジェクトの表示輝度、及び表示色等を調整する技術が知られている(例えば、特許文献1を参照)。   In this HUD, in order to improve the visibility of an object to be displayed, a technique for adjusting the display brightness, display color, and the like of the object is known (see, for example, Patent Document 1).

しかしながら、従来技術では、例えば、経路案内用の図形等のオブジェクトを、AR(Augmented Reality)により移動体の前方等の現実の環境に付加して表示する場合、当該オブジェクトが、その背景の現実の環境に存在するように知覚されにくい場合があるという問題がある。   However, in the prior art, for example, when an object such as a route guidance figure is added and displayed in an actual environment such as in front of a moving object by AR (Augmented Reality), the object is displayed in the background. There is a problem that it may be difficult to perceive as it exists in the environment.

そこで、現実の環境に付加して表示するオブジェクトの違和感を低減させることを目的とする。   Therefore, an object is to reduce the uncomfortable feeling of an object displayed in addition to an actual environment.

所定のオブジェクトを、移動体の外部の環境に重なる位置に表示させる表示装置が、前記移動体の外部の画像を取得する取得部と、前記所定のオブジェクトの周囲の領域の画像を、前記取得部により取得された画像に応じて決定する決定部と、前記所定のオブジェクトと、前記決定部により決定された、前記所定のオブジェクトの周囲の領域の画像とを表示する表示部と、を有する。   A display device that displays a predetermined object at a position overlapping with an environment outside the moving body, an acquisition unit that acquires an image outside the moving body, and an image of an area around the predetermined object. And a display unit that displays the predetermined object and an image of an area around the predetermined object determined by the determination unit.

開示の技術によれば、現実の環境に付加して表示するオブジェクトの違和感を低減させることができる。   According to the disclosed technology, it is possible to reduce a sense of incongruity of an object displayed in addition to an actual environment.

実施形態に係る表示システムのシステム構成の一例を示す図である。It is a figure which shows an example of the system configuration | structure of the display system which concerns on embodiment. 実施形態に係る表示装置により画像が投影される範囲の一例を示す図である。It is a figure which shows an example of the range where an image is projected by the display apparatus which concerns on embodiment. 実施形態に係る表示装置のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of the display apparatus which concerns on embodiment. 実施形態に係る表示装置の機能ブロックの一例を示す図である。It is a figure which shows an example of the functional block of the display apparatus which concerns on embodiment. 実施形態に係る表示装置の処理の一例を示すフローチャートである。It is a flowchart which shows an example of a process of the display apparatus which concerns on embodiment. 実施形態に係るブレンド領域を生成する処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process which produces | generates the blend area | region which concerns on embodiment. 実施形態に係るブレンド領域を生成する処理について説明する図である。It is a figure explaining the process which produces | generates the blend area | region which concerns on embodiment. 実施形態に係るブレンド領域を生成する処理について説明する図である。It is a figure explaining the process which produces | generates the blend area | region which concerns on embodiment. 実施形態に係るブレンド領域を生成する処理について説明する図である。It is a figure explaining the process which produces | generates the blend area | region which concerns on embodiment. 実施形態に係るブレンド領域を生成する処理について説明する図である。It is a figure explaining the process which produces | generates the blend area | region which concerns on embodiment. 実施形態に係るブレンド領域を生成する処理について説明する図である。It is a figure explaining the process which produces | generates the blend area | region which concerns on embodiment. オブジェクト、及びブレンド領域の表示例について説明する図である。It is a figure explaining the example of a display of an object and a blend area | region.

以下、本発明の実施形態について、図面を参照しながら詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

<システム構成>
まず、本実施形態に係る表示システム1のシステム構成について、図1Aを用いて説明する。図1Aは、実施形態に係る表示システム1のシステム構成の一例を示す図である。
<System configuration>
First, the system configuration of the display system 1 according to the present embodiment will be described with reference to FIG. 1A. FIG. 1A is a diagram illustrating an example of a system configuration of a display system 1 according to the embodiment.

図1Aに示すように、実施形態に係る表示システム1は、車両、船舶、航空機、パーソナルモビリティー(Personal Mobility)及び産業用ロボット等の移動体に搭載される。表示システム1は、表示装置10、及びカメラ20を有する。なお、以下では、表示システム1を車両に搭載した例について説明するが、表示システム1は、車両以外の移動体においても適用可能である。なお、車両には、例えば、自動車、原動機付き自転車、軽車両、及び鉄道車両等が含まれる。   As illustrated in FIG. 1A, the display system 1 according to the embodiment is mounted on a moving body such as a vehicle, a ship, an aircraft, a personal mobility, and an industrial robot. The display system 1 includes a display device 10 and a camera 20. In the following, an example in which the display system 1 is mounted on a vehicle will be described, but the display system 1 can also be applied to a moving body other than the vehicle. The vehicle includes, for example, an automobile, a motorbike, a light vehicle, and a railway vehicle.

表示装置10は、例えば、HUD、ヘッドマウントディスプレイ(Head Mounted Display)等の表示装置である。以下では、表示装置10が、虚像を表示するHUDである場合を例として説明する。表示装置10は、例えば、車両301のダッシュボード内に設置される。表示装置10から発せられる画像光である投射光Lが光の透過反射部材としてのフロントガラス302で反射され、視認者である搭乗者300に向かう。ここで、透過反射部材は、例えば、光の一部を透過するとともに、光の一部を反射する部材である。これにより、フロントガラス302に画像が投影され、搭乗者300は、ナビゲーション用の図形、文字、アイコン等のオブジェクト(コンテンツ)を、車両301の外部の環境に重ねて視認することができる。なお、フロントガラス302の内壁面等に透過反射部材としてのコンバイナを設置し、コンバイナによって反射する投射光Lによって運転者に虚像を視認させるように構成してもよい。図1Bは、実施形態に係る表示装置10により画像が投影される範囲の一例を示す図である。表示装置10は、図1Bに示すように、例えば、フロントガラス302における投影範囲303に画像を投影する。   The display device 10 is, for example, a display device such as a HUD or a head mounted display. Below, the case where the display apparatus 10 is HUD which displays a virtual image is demonstrated as an example. The display device 10 is installed in a dashboard of the vehicle 301, for example. The projection light L, which is image light emitted from the display device 10, is reflected by the windshield 302 as a light transmission / reflection member and travels toward the passenger 300 who is a viewer. Here, the transmission / reflection member is, for example, a member that transmits part of light and reflects part of light. As a result, the image is projected onto the windshield 302, and the passenger 300 can visually recognize objects (contents) such as navigation graphics, characters, icons, etc. in an environment outside the vehicle 301. A combiner as a transmission / reflection member may be installed on the inner wall surface or the like of the windshield 302 so that the driver can visually recognize the virtual image by the projection light L reflected by the combiner. FIG. 1B is a diagram illustrating an example of a range in which an image is projected by the display device 10 according to the embodiment. As illustrated in FIG. 1B, the display device 10 projects an image on a projection range 303 on the windshield 302, for example.

カメラ20は、車両301の前方等の画像を撮影するカメラである。カメラ20は、例えば、フロントガラス302の上部に設けられてもよい。また、カメラ20は、自動運転のために前方の車両と車両301との車間距離を測定するためのカメラでもよい。   The camera 20 is a camera that captures an image of the front of the vehicle 301 or the like. The camera 20 may be provided on the top of the windshield 302, for example. The camera 20 may be a camera for measuring the distance between the vehicle ahead and the vehicle 301 for automatic driving.

<ハードウェア構成>
次に、本実施形態に係る表示装置10のハードウェア構成について、図2を用いて説明する。図2は、実施形態に係る表示装置10のハードウェア構成の一例を示す図である。
<Hardware configuration>
Next, the hardware configuration of the display device 10 according to the present embodiment will be described with reference to FIG. FIG. 2 is a diagram illustrating an example of a hardware configuration of the display device 10 according to the embodiment.

表示装置10は、FPGA251、CPU(Central Processing Unit)252、ROM253、RAM254、インターフェース(以下、I/Fという)255、バスライン256、LDドライバ257、MEMSコントローラ258、及び補助記憶装置259を備えている。FPGA251は、LDドライバ257により、光源ユニット220のレーザ光源201R、201G、201Bを動作制御し、MEMSコントローラ258により、光走査装置のMEMS208aを動作制御する。CPU252は、表示装置10の各機能を制御する。ROM253は、CPU252が表示装置10の各機能を制御するために実行するプログラム(画像処理プログラム)等の各種プログラムを記憶している。   The display device 10 includes an FPGA 251, a CPU (Central Processing Unit) 252, a ROM 253, a RAM 254, an interface (hereinafter referred to as I / F) 255, a bus line 256, an LD driver 257, a MEMS controller 258, and an auxiliary storage device 259. Yes. The FPGA 251 controls the operation of the laser light sources 201R, 201G, and 201B of the light source unit 220 by the LD driver 257, and controls the operation of the MEMS 208a of the optical scanning device by the MEMS controller 258. The CPU 252 controls each function of the display device 10. The ROM 253 stores various programs such as a program (image processing program) executed by the CPU 252 to control each function of the display device 10.

RAM254は、プログラムの起動指示があった場合に、ROM253または補助記憶装置259からプログラムを読み出して格納する。CPU252は、RAM254に格納されたプログラムに従って表示装置10に係る機能を実現する。   The RAM 254 reads and stores the program from the ROM 253 or the auxiliary storage device 259 when there is an instruction to start the program. The CPU 252 realizes functions related to the display device 10 according to a program stored in the RAM 254.

I/F255は、外部コントローラ等と通信するためのインターフェースであり、例えば、車両301のCAN(Controller Area Network)を介して、車両ナビゲーション装置、各種センサ装置等に接続される。また、I/F255には、画像をフロントガラス302越しに撮影するカメラ20が接続される。   The I / F 255 is an interface for communicating with an external controller or the like. For example, the I / F 255 is connected to a vehicle navigation device, various sensor devices, or the like via a CAN (Controller Area Network) of the vehicle 301. The I / F 255 is connected to a camera 20 that captures an image through the windshield 302.

表示装置10は、I/F255を介して記録媒体255aの読み取りや書き込みを行うことができる。表示装置10での処理を実現する画像処理プログラムは、記録媒体255aによって提供されてもよい。この場合、画像処理プログラムは、記録媒体255aからI/F255を介して補助記憶装置259にインストールされる。但し、画像処理プログラムのインストールは必ずしも記録媒体255aより行う必要はなく、ネットワークを介して他のコンピュータよりダウンロードするようにしてもよい。補助記憶装置259は、インストールされた画像処理プログラムを格納すると共に、必要なファイルやデータ等を格納する。   The display device 10 can read and write the recording medium 255a via the I / F 255. An image processing program for realizing processing in the display device 10 may be provided by the recording medium 255a. In this case, the image processing program is installed in the auxiliary storage device 259 from the recording medium 255a via the I / F 255. However, it is not always necessary to install the image processing program from the recording medium 255a, and the image processing program may be downloaded from another computer via a network. The auxiliary storage device 259 stores the installed image processing program and also stores necessary files and data.

なお、記録媒体255aの一例としては、フレキシブルディスク、CD−ROM、DVDディスク、SDメモリカード、又はUSB(Universal Serial Bus)メモリ等の可搬型の記録媒体が挙げられる。また、補助記憶装置259の一例としては、HDD(Hard Disk Drive)又はフラッシュメモリ等が挙げられる。記録媒体255a及び補助記憶装置259のいずれについても、コンピュータ読み取り可能な記録媒体に相当する。なお、図2において、CPU252、ROM253、RAM254、I/F255、バスライン256、及び補助記憶装置259を含む部分を、画像処理装置または情報処理装置(コンピュータ)と称することもできる。   An example of the recording medium 255a is a portable recording medium such as a flexible disk, a CD-ROM, a DVD disk, an SD memory card, or a USB (Universal Serial Bus) memory. An example of the auxiliary storage device 259 is an HDD (Hard Disk Drive) or a flash memory. Both the recording medium 255a and the auxiliary storage device 259 correspond to computer-readable recording media. In FIG. 2, a portion including the CPU 252, ROM 253, RAM 254, I / F 255, bus line 256, and auxiliary storage device 259 can also be referred to as an image processing device or an information processing device (computer).

<機能構成>
次に、図3を参照し、実施形態に係る表示装置10の機能構成について説明する。図3は、実施形態に係る表示装置10の機能ブロックの一例を示す図である。
<Functional configuration>
Next, the functional configuration of the display device 10 according to the embodiment will be described with reference to FIG. FIG. 3 is a diagram illustrating an example of functional blocks of the display device 10 according to the embodiment.

表示装置10は、取得部11、制御部12、生成部13、及び表示部14を有する。これら各部は、表示装置10にインストールされた1以上のプログラムが、表示装置10のCPU252に実行させる処理により実現される。   The display device 10 includes an acquisition unit 11, a control unit 12, a generation unit 13, and a display unit 14. Each of these units is realized by processing that one or more programs installed in the display device 10 cause the CPU 252 of the display device 10 to execute.

取得部11は、カメラ20により撮影された車両301の前方等の画像を取得する。   The acquisition unit 11 acquires an image such as the front of the vehicle 301 captured by the camera 20.

制御部12は、車両301の現在位置から、予め設定されている目的地までの経路を案内する。制御部12は、例えば、右折、左折、及び直進等の、当該経路の進行方向を示すオブジェクトを決定し、当該オブジェクトを、当該アブジェクトが道路上に置かれているような態様で表示部14に表示させる。また、制御部12は、車両301の車速(速度)を示す数字等を車両301の前方の背景上に表示する。ここで、表示装置10は、例えば、車両301のECU(Electronic Control Unit)等から、車両301の車速の情報を取得してもよい。   The control unit 12 guides a route from the current position of the vehicle 301 to a preset destination. For example, the control unit 12 determines an object indicating the traveling direction of the route, such as a right turn, a left turn, and a straight turn, and displays the object in a manner such that the object is placed on the road. To display. In addition, the control unit 12 displays a number indicating the vehicle speed (speed) of the vehicle 301 on a background in front of the vehicle 301. Here, the display device 10 may acquire information on the vehicle speed of the vehicle 301 from an ECU (Electronic Control Unit) of the vehicle 301, for example.

生成部13は、制御部12により表示させるオブジェクトが決定されると、当該オブジェクトの周囲の領域に表示させるための画像を、取得部11により取得された画像に応じて生成(決定)する。   When an object to be displayed is determined by the control unit 12, the generation unit 13 generates (determines) an image to be displayed in an area around the object according to the image acquired by the acquisition unit 11.

表示部14は、制御部12により決定されたオブジェクトと、生成部13により生成された当該オブジェクトの周囲の領域の画像とを表示させる。   The display unit 14 displays the object determined by the control unit 12 and the image of the area around the object generated by the generation unit 13.

<処理>
次に、図4を参照し、実施形態に係る表示装置10の処理について説明する。図4は、実施形態に係る表示装置10の処理の一例を示すフローチャートである。なお、図4の処理は、例えば、カメラ20により撮影された動画に含まれる各フレームに対して実行されてもよい。
<Processing>
Next, processing of the display device 10 according to the embodiment will be described with reference to FIG. FIG. 4 is a flowchart illustrating an example of processing of the display device 10 according to the embodiment. Note that the process of FIG. 4 may be executed for each frame included in a moving image shot by the camera 20, for example.

ステップS1において、取得部11は、カメラ20により撮像された車両301の前方等の画像(フレーム)を取得する。続いて、制御部12は、表示対象のオブジェクトを判定する。ここで、制御部12は、例えば、車両301の現在位置から、予め設定されている目的地までの経路を案内するためのオブジェクトを判定する(ステップS2)。   In step S <b> 1, the acquisition unit 11 acquires an image (frame) such as the front of the vehicle 301 captured by the camera 20. Subsequently, the control unit 12 determines an object to be displayed. Here, for example, the control unit 12 determines an object for guiding a route from the current position of the vehicle 301 to a preset destination (step S2).

続いて、生成部13は、取得した画像と、当該オブジェクトとに基づいて、当該オブジェクトの周囲において、カメラ20の画像に応じた画像を表示する領域であるブレンド領域の画像を生成する(ステップS3)。続いて、表示部14は、当該オブジェクト、および当該ブレンド領域を表示し(ステップS4)、処理を終了する。   Subsequently, based on the acquired image and the object, the generation unit 13 generates an image of a blend area that is an area for displaying an image corresponding to the image of the camera 20 around the object (step S3). ). Subsequently, the display unit 14 displays the object and the blend area (step S4), and ends the process.

≪表示用オブジェクトの生成処理≫
次に、図5乃至図6Eを参照し、生成部13による図4のステップS3のブレンド領域の画像を生成する処理の一例について説明する。図5は、実施形態に係るブレンド領域の画像を生成する処理の一例を示すフローチャートである。図6A乃至図6Eは、実施形態に係るブレンド領域を生成する処理について説明する図である。
<< Display object generation process >>
Next, with reference to FIGS. 5 to 6E, an example of a process for generating an image of the blend area in step S3 of FIG. FIG. 5 is a flowchart illustrating an example of processing for generating an image of a blend area according to the embodiment. 6A to 6E are diagrams for describing processing for generating a blend area according to the embodiment.

ステップS101において、生成部13は、表示対象のオブジェクトの周囲の領域であって、当該オブジェクトを拡大した形状のブレンド領域を算出する。ここで、生成部13は、図6Aの例では、当該オブジェクトの領域601の周囲に、当該オブジェクトの領域601を拡大した形状のブレンド領域602を算出している。   In step S <b> 101, the generation unit 13 calculates a blend region that is an area around the object to be displayed and is an enlarged shape of the object. Here, in the example of FIG. 6A, the generation unit 13 calculates a blend region 602 having a shape obtained by enlarging the region 601 of the object around the region 601 of the object.

続いて、生成部13は、算出したブレンド領域の角を滑らかに変形する(ステップS102)。ここで、生成部13は、図6Aの例では、ブレンド領域602の各頂点の部分の輪郭を円弧に置換することにより、各頂点の部分である角を丸く変形したブレンド領域603を算出している。なお、生成部13は、他の公知の手法により、当該角を滑らかにしてもよい。   Subsequently, the generation unit 13 smoothly deforms the corners of the calculated blend area (step S102). Here, in the example of FIG. 6A, the generation unit 13 calculates the blend region 603 in which the corners that are the portions of the vertices are rounded by replacing the contours of the vertex portions of the blend region 602 with arcs. Yes. Note that the generation unit 13 may smooth the corner by another known method.

続いて、生成部13は、ブレンド領域の、車両301の前方の方向の長さを変更する(ステップS103)。生成部13は、図6Bの例では、ブレンド領域603の上下方向(縦方向、車両301の前方方向)の長さを長く変更したブレンド領域604を算出している。ここで、生成部13は、車両301の車速が速い程、当該長さを長くしてもよい。これは、車両301の車速が速い程、当該オブジェクトが搭乗者に対してより目立ち易くなると考えられるためである。   Subsequently, the generation unit 13 changes the length of the blend area in the front direction of the vehicle 301 (step S103). In the example of FIG. 6B, the generation unit 13 calculates the blend region 604 in which the length of the blend region 603 in the vertical direction (vertical direction, forward direction of the vehicle 301) is changed. Here, the generation unit 13 may increase the length as the vehicle speed of the vehicle 301 increases. This is because it is considered that the higher the vehicle speed of the vehicle 301, the more noticeable the object is with respect to the passenger.

また、生成部13は、カメラ20の画像を認識し、車両301が走行している道路が、道路の模様が比較的目立ち易い砂利道等の場合は、車両301の車速が速い程、当該長さを短くしてもよい。カメラ20の画像に基づいて当該オブジェクトの周囲の画像を生成するための遅延により、車両301の車速が速い程、搭乗者に対する実際の道路の模様の移動速度と、当該オブジェクトの周辺に表示する当該画像における道路の模様の移動速度との差は大きくなる。そのため、車両301の車速が速い程、当該オブジェクトの周囲の画像が搭乗者に対してより目立ち易くなると考えられるためである。   In addition, the generation unit 13 recognizes the image of the camera 20, and when the road on which the vehicle 301 is traveling is a gravel road or the like in which the road pattern is relatively conspicuous, the longer the vehicle speed of the vehicle 301, the longer The length may be shortened. Due to the delay for generating an image around the object based on the image of the camera 20, the higher the vehicle speed of the vehicle 301, the faster the moving speed of the actual road pattern with respect to the occupant and the object displayed around the object. The difference from the movement speed of the road pattern in the image becomes large. For this reason, it is considered that as the vehicle speed of the vehicle 301 increases, the image around the object becomes more conspicuous to the passenger.

また、生成部13は、車両301から当該オブジェクトを重畳して表示させる実際の道路等の位置までの距離が遠い程、当該長さを長くしてもよい。これにより、当該距離が遠い程、車両301の前方の方向についての、前記所定のオブジェクトの周囲の領域の長さ(L1)と当該オブジェクトの長さ(L2)との比の値(L1/L2)が大きくなるように変更される。これは、後述するステップS105の処理により当該オブジェクト及びブレンド領域の表面を背景の物体上に載置した場合に、当該距離が遠い程、搭乗者から見えるブレンド領域の表面の面積が小さくなるためである。   Further, the generation unit 13 may increase the length as the distance from the vehicle 301 to a position such as an actual road on which the object is superimposed is displayed. Thus, as the distance increases, the ratio value (L1 / L2) between the length (L1) of the area around the predetermined object and the length (L2) of the object in the forward direction of the vehicle 301 is increased. ) Is increased. This is because, when the surface of the object and the blend area is placed on a background object by the process of step S105 described later, the area of the surface of the blend area that can be seen by the passenger becomes smaller as the distance is longer. is there.

続いて、生成部13は、ブレンド領域の周辺部の画素をぼやかすように設定する(ステップS104)。ここで、生成部13は、例えば、ブレンド領域において、当該オブジェクトからの距離が遠い程、画素の密度をより少なく設定してもよい。また、生成部13は、例えば、ブレンド領域において、当該オブジェクトからの距離が遠い程、HUDで表示する画素の輝度をより低くすることにより、ブレンド領域の透明度がより高くなるように設定してもよい。生成部13は、図6Cの例では、図6Bのブレンド領域604において、当該オブジェクトの領域601に含まれる最も近い座標からの距離が遠い程、画素の密度及び画素の輝度をより低下させている。   Subsequently, the generation unit 13 sets so as to blur pixels around the blend area (step S104). Here, for example, the generation unit 13 may set the pixel density smaller as the distance from the object increases in the blend region. In addition, for example, the generation unit 13 may set the blend region to have higher transparency by lowering the luminance of the pixel displayed in the HUD as the distance from the object increases in the blend region. Good. In the example of FIG. 6C, the generation unit 13 further decreases the pixel density and the pixel luminance as the distance from the nearest coordinates included in the object region 601 increases in the blend region 604 of FIG. 6B. .

続いて、生成部13は、当該オブジェクトとブレンド領域との表面が、車両301の搭乗者から見て、当該オブジェクトが表示される位置の背景の物体上に載置されているように見えるよう、当該オブジェクトとブレンド領域とを変形する(ステップS105)。   Subsequently, the generation unit 13 looks like the surface of the object and the blend area is placed on the background object at the position where the object is displayed as seen from the passenger of the vehicle 301. The object and the blend area are deformed (step S105).

図6Dには、車両301の側面の方向から見た場合の、搭乗者300の目610、フロントガラス302、表示装置10による虚像が表示される領域612(図1Bの投影範囲303)、及び領域612が背景の物体上に重畳する領域612A等の位置が図示されている。また、図6Dには、領域612における当該オブジェクトの領域601が変形された領域611、領域612におけるブレンド領域604が変形されたブレンド領域613が図示されている。また、図6Dには、当該オブジェクトの領域611及びブレンド領域613が背景の道路等の物体上にそれぞれ重畳する領域である領域611A、及び領域613Aが図示されている。図6Dの例では、搭乗者300の目610から当該オブジェクトの領域611及びブレンド領域613までの距離は4m程度である。また、搭乗者300の目610から道路上等の領域611A及び領域613Aまでの距離は20m程度である。   In FIG. 6D, when viewed from the side of the vehicle 301, the eye 610 of the passenger 300, the windshield 302, a region 612 in which a virtual image is displayed by the display device 10 (projection range 303 in FIG. 1B), and a region The position of an area 612A and the like where 612 is superimposed on an object in the background is illustrated. FIG. 6D shows a region 611 in which the region 601 of the object in the region 612 is deformed, and a blend region 613 in which the blend region 604 in the region 612 is deformed. FIG. 6D shows a region 611A and a region 613A, which are regions where the object region 611 and the blend region 613 overlap each other on an object such as a background road. In the example of FIG. 6D, the distance from the eye 610 of the passenger 300 to the area 611 and the blend area 613 of the object is about 4 m. The distance from the eye 610 of the passenger 300 to the area 611A and the area 613A on the road is about 20 m.

生成部13は、ステップS105の処理において、図6Cの領域601を含むブレンド領域604を、図6Dのように、背景の道路等の上に寝かされている形状に変形する。ここで、生成部13は、図6Dの道路上等の領域613Aを鉛直方向で真上から見た場合、領域601及びブレンド領域604が図6Cの形状で表示されるものとして、道路上等の領域613Aを搭乗者300の目610の位置から見た場合の領域613Aの形状を算出する。   In the process of step S105, the generation unit 13 transforms the blend region 604 including the region 601 in FIG. 6C into a shape laid on a background road or the like as illustrated in FIG. 6D. Here, when the region 613A on the road in FIG. 6D is viewed from directly above in the vertical direction, the generation unit 13 assumes that the region 601 and the blend region 604 are displayed in the shape of FIG. The shape of the area 613A when the area 613A is viewed from the position of the eye 610 of the passenger 300 is calculated.

そして、生成部13は、図6Cの領域601、及びブレンド領域604を、図6Eの領域611、及びブレンド領域613のようにそれぞれ変形する。生成部13は、図6Cの領域601、及びブレンド領域604を、上下方向の高さを縮小し、車両301の進行方向である上方向に行く程、横方向の幅をより縮小した形状に変形することにより、図6Eの領域611、及びブレンド領域613をそれぞれ算出している。   Then, the generation unit 13 transforms the region 601 and the blend region 604 in FIG. 6C into a region 611 and a blend region 613 in FIG. 6E, respectively. The generation unit 13 deforms the region 601 and the blend region 604 in FIG. 6C into a shape in which the height in the vertical direction is reduced and the width in the horizontal direction is further reduced as the vehicle 301 travels upward. By doing so, the area 611 and the blend area 613 in FIG. 6E are respectively calculated.

なお、生成部13は、例えば、搭乗者300の目610の車両301の道路からの高さ等の位置を予め設定されている位置とし、車両301の前方の道路を平坦として、搭乗者300の目610の位置から見た場合の道路上等の領域613Aの形状を幾何学的に算出してもよい。なお、生成部13は、搭乗者300の目610の位置等を、車内カメラの画像に基づいて認識してもよい。また、生成部13は、車両301の前方の道路の高さを、ステレオカメラ等の画像に基づいて認識するようしてもよい。   For example, the generation unit 13 sets a position such as the height of the vehicle 301 of the passenger 300 from the road of the vehicle 301 to a preset position, and sets the road in front of the vehicle 301 to be flat. The shape of the region 613A on the road or the like when viewed from the position of the eye 610 may be calculated geometrically. Note that the generation unit 13 may recognize the position of the eye 610 of the passenger 300 based on the image of the in-vehicle camera. The generation unit 13 may recognize the height of the road ahead of the vehicle 301 based on an image from a stereo camera or the like.

続いて、生成部13は、カメラ20の画像に基づいて生成された画像を、変形したブレンド領域に合成し(ステップS106)、処理を終了する。ここで、生成部13は、図6Dに示すように、道路上等の領域613A内の画像を、カメラ20の画像から抽出し、図6Eのブレンド領域613内に合成してもよい。なお、カメラ20が取り付けられている位置は、予め表示装置10に設定されているものとする。なお、生成部13は、カメラ20の位置と搭乗者300の目610の位置が所定の閾値以上離れている場合等は、カメラ20で撮影された道路上等の領域613A内の画像を、搭乗者300の目610の位置から見た領域613Aの画像となるように幾何学的に変形した後、図6Eのブレンド領域613内に合成してもよい。また、生成部13は、カメラ20の画像から抽出した、道路上等の領域613A内の画像の輝度等の平均値の画素の画像を図6Eのブレンド領域613内に合成してもよい。また、生成部13は、車両301から見て道路上等の領域613Aの所定距離だけ前方の領域の画像を図6Eのブレンド領域613内に合成してもよい。この場合、生成部13は、当該所定距離は、カメラ20で画像撮影されてからブレンド領域に表示されるまでの間の遅延時間、及び車両301の車速に応じて設定してもよい。   Subsequently, the generation unit 13 combines the image generated based on the image of the camera 20 with the deformed blend region (step S106), and ends the process. Here, as illustrated in FIG. 6D, the generation unit 13 may extract an image in the area 613A on the road or the like from the image of the camera 20 and synthesize the image in the blend area 613 in FIG. 6E. It is assumed that the position where the camera 20 is attached is set in the display device 10 in advance. When the position of the camera 20 and the eye 610 of the occupant 300 are separated from each other by a predetermined threshold value or more, the generation unit 13 boards the image in the area 613A on the road or the like photographed by the camera 20. The image may be synthesized in the blend region 613 in FIG. 6E after being geometrically deformed so as to be an image of the region 613A viewed from the position of the eye 610 of the person 300. Further, the generation unit 13 may combine an image of pixels having an average value such as luminance of an image in the area 613A on the road or the like extracted from the image of the camera 20 into the blend area 613 in FIG. 6E. Further, the generation unit 13 may combine an image of a region ahead by a predetermined distance of a region 613A on the road or the like as viewed from the vehicle 301 into the blend region 613 in FIG. 6E. In this case, the generation unit 13 may set the predetermined distance according to a delay time from when an image is captured by the camera 20 until the predetermined distance is displayed in the blend area, and the vehicle speed of the vehicle 301.

図7は、オブジェクト、及びブレンド領域の表示例について説明する図である。図7の例では、表示装置10による虚像が表示される領域612において、上述した図3のステップS4の表示部14による処理により、図6Eのオブジェクトの領域611、及びブレンド領域613を、車両301の前方に表示されている。これにより、経路案内用の図形等のオブジェクトと、当該オブジェクトの背景との境界が搭乗者に認識されにくくなり、違和感を低減することができる。   FIG. 7 is a diagram illustrating a display example of objects and blend areas. In the example of FIG. 7, in the region 612 where the virtual image is displayed by the display device 10, the object region 611 and the blend region 613 of FIG. Is displayed in front of. Thereby, it becomes difficult for a passenger to recognize the boundary between an object such as a route guidance graphic and the background of the object, and the sense of incongruity can be reduced.

<実施形態のまとめ>
HUD等により表示されるオブジェクトは、光源からの光で表示されるため光源色であり、当該オブジェクトの背景は太陽光等の反射による物体色である。また、搭乗者の目から当該オブジェクトの虚像または実像までの距離と、搭乗者の目から当該オブジェクトの背景の現実の物体までの距離とは異なる。そのため、当該オブジェクトの表示位置を、背景の現実の物体の位置に幾何的に合わせても、当該オブジェクトが、その背景の現実の環境に存在するように知覚されにくい場合がある。
<Summary of Embodiment>
An object displayed by HUD or the like has a light source color because it is displayed by light from the light source, and a background of the object is an object color by reflection of sunlight or the like. Further, the distance from the passenger's eyes to the virtual or real image of the object is different from the distance from the passenger's eyes to the real object in the background of the object. For this reason, even if the display position of the object is geometrically matched with the position of the actual object in the background, the object may not be easily perceived as existing in the actual environment of the background.

上述した実施形態によれば、所定のオブジェクトを、移動体の外部の環境に重ねて表示する表示装置が、所定のオブジェクトの周囲に、移動体の外部の画像に応じて生成した画像を表示させる。これにより、現実の環境に付加して表示するオブジェクトの違和感を低減させることができる。   According to the above-described embodiment, the display device that displays a predetermined object on the environment outside the moving body displays an image generated according to the image outside the moving body around the predetermined object. . Thereby, the uncomfortable feeling of the object displayed in addition to the actual environment can be reduced.

<その他>
なお、表示装置10の各機能部は、1以上のコンピュータにより構成されるクラウドコンピューティングにより実現されていてもよい。また、表示装置10の各機能部のうち少なくとも1つの機能部を、他の機能部を有する装置とは別体の装置として構成してもよい。この場合、例えば、制御部12を、車載型または携帯型のナビゲーション装置、あるいはクラウド上のサーバ装置が有する構成としてもよい。すなわち、表示装置10には、複数の装置により構成される形態も含まれる。なお、生成部13は、「決定部」の一例である。
<Others>
Each functional unit of the display device 10 may be realized by cloud computing including one or more computers. Moreover, you may comprise at least 1 function part among each function parts of the display apparatus 10 as an apparatus different from the apparatus which has another function part. In this case, for example, the control unit 12 may be included in a vehicle-mounted or portable navigation device or a server device on the cloud. That is, the display device 10 includes a form constituted by a plurality of devices. The generation unit 13 is an example of a “determination unit”.

以上、本発明の実施例について詳述したが、本発明は斯かる特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。   As mentioned above, although the Example of this invention was explained in full detail, this invention is not limited to such specific embodiment, In the range of the summary of this invention described in the claim, various deformation | transformation・ Change is possible.

1 表示システム
10 表示装置
11 取得部
12 制御部
13 生成部
14 表示部
20 カメラ
301 車両
302 フロントガラス
DESCRIPTION OF SYMBOLS 1 Display system 10 Display apparatus 11 Acquisition part 12 Control part 13 Generation part 14 Display part 20 Camera 301 Vehicle 302 Windshield

特開2017−142491号公報JP 2017-142491 A

Claims (9)

所定のオブジェクトを、移動体の外部の環境に重なる位置に表示させる表示装置であって、
前記移動体の外部の画像を取得する取得部と、
前記所定のオブジェクトの周囲の領域の画像を、前記取得部により取得された画像に応じて決定する決定部と、
前記所定のオブジェクトと、前記決定部により決定された、前記所定のオブジェクトの周囲の領域の画像とを表示する表示部と、を有する表示装置。
A display device for displaying a predetermined object at a position overlapping with an environment outside a moving body,
An acquisition unit for acquiring an image outside the moving body;
A determination unit that determines an image of a region around the predetermined object according to an image acquired by the acquisition unit;
And a display unit configured to display the predetermined object and an image of an area around the predetermined object determined by the determination unit.
前記決定部は、前記所定のオブジェクトの周囲の領域の画像の形状を、前記所定のオブジェクトを拡大するとともに角を滑らかにした形状とする、
請求項1に記載の表示装置。
The determining unit sets the shape of the image of the area around the predetermined object to a shape in which the predetermined object is enlarged and the corners are smoothed.
The display device according to claim 1.
前記決定部は、前記所定のオブジェクトの周囲の領域の画像を、前記所定のオブジェクトからの距離に応じて、画素の輝度、及び画素の密度の少なくとも一つが異なるように決定する、
請求項1または2に記載の表示装置。
The determining unit determines an image of an area around the predetermined object so that at least one of pixel luminance and pixel density differs according to a distance from the predetermined object.
The display device according to claim 1.
前記決定部は、前記所定のオブジェクトの周囲の領域の画像を、当該領域の表面が前記所定のオブジェクトの背景の物体に載置された形状とする、
請求項1乃至3のいずれか一項に記載の表示装置。
The determining unit sets an image of a region around the predetermined object to a shape in which a surface of the region is placed on a background object of the predetermined object.
The display apparatus as described in any one of Claims 1 thru | or 3.
前記決定部は、前記移動体の速度に応じて、前記所定のオブジェクトの周囲の領域の、前記移動体の前方方向の長さを変更する、
請求項1乃至4のいずれか一項に記載の表示装置。
The determining unit changes the length of the area around the predetermined object in the forward direction of the moving body according to the speed of the moving body.
The display apparatus as described in any one of Claims 1 thru | or 4.
前記決定部は、前記移動体から前記所定のオブジェクトの背景の物体までの距離に応じて、前記移動体の前方方向の、前記所定のオブジェクトの長さと、前記所定のオブジェクトの周囲の領域の長さの比を変更する、
請求項1乃至5のいずれか一項に記載の表示装置。
The determining unit is configured to determine a length of the predetermined object and a length of a region around the predetermined object in a forward direction of the moving body according to a distance from the moving body to a background object of the predetermined object. Change the ratio,
The display device according to any one of claims 1 to 5.
移動体であって、
前記移動体の外部を撮影するカメラと、透過反射部材と、所定のオブジェクトを前記移動体の外部の環境に重なる位置に表示させる表示装置とを有し、
前記表示装置は、
前記カメラの画像を取得する取得部と、
前記所定のオブジェクトの周囲の領域の画像を、前記取得部により取得された画像に応じて決定する決定部と、
前記所定のオブジェクトと、前記決定部により決定された、前記所定のオブジェクトの周囲の領域の画像とを前記透過反射部材により表示する表示部と、を有する移動体。
A moving object,
A camera that captures an image of the outside of the moving body, a transmission / reflection member, and a display device that displays a predetermined object at a position overlapping the environment outside the moving body;
The display device
An acquisition unit for acquiring an image of the camera;
A determination unit that determines an image of a region around the predetermined object according to an image acquired by the acquisition unit;
And a display unit that displays the predetermined object and an image of an area around the predetermined object determined by the determination unit, using the transmission / reflection member.
所定のオブジェクトを、移動体の外部の環境に重なる位置に表示させる表示装置が、
前記移動体の外部の画像を取得する処理と、
前記所定のオブジェクトの周囲の領域の画像を、前記取得する処理により取得された画像に応じて決定する処理と、
前記所定のオブジェクトと、前記決定する処理により決定された、前記所定のオブジェクトの周囲の領域の画像とを表示する処理と、
を実行する表示方法。
A display device that displays a predetermined object at a position overlapping with the environment outside the moving body,
Processing to acquire an image outside the moving body;
A process of determining an image of an area around the predetermined object according to the image acquired by the process of acquiring;
A process of displaying the predetermined object and an image of an area around the predetermined object determined by the determining process;
Display method to execute.
コンピュータに、
移動体の外部の画像を取得する処理と、
所定のオブジェクトの周囲の領域の画像を、前記取得する処理により取得された画像に応じて決定する処理と、
前記所定のオブジェクトと、前記決定する処理により決定された、前記所定のオブジェクトの周囲の領域の画像とを、前記移動体の外部の環境に重なる位置に表示させる処理と、を実行させるプログラム。
On the computer,
Processing to acquire an image outside the moving body;
A process of determining an image of a region around a predetermined object according to the image acquired by the acquisition process;
A program for executing a process of displaying the predetermined object and an image of an area around the predetermined object determined by the determining process at a position overlapping with an environment outside the moving body.
JP2018053838A 2018-03-22 2018-03-22 Display device, moving object, display method, and program Active JP7183555B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018053838A JP7183555B2 (en) 2018-03-22 2018-03-22 Display device, moving object, display method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018053838A JP7183555B2 (en) 2018-03-22 2018-03-22 Display device, moving object, display method, and program

Publications (2)

Publication Number Publication Date
JP2019168745A true JP2019168745A (en) 2019-10-03
JP7183555B2 JP7183555B2 (en) 2022-12-06

Family

ID=68106800

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018053838A Active JP7183555B2 (en) 2018-03-22 2018-03-22 Display device, moving object, display method, and program

Country Status (1)

Country Link
JP (1) JP7183555B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010105443A (en) * 2008-10-28 2010-05-13 Denso Corp Visual assistive device
WO2011036788A1 (en) * 2009-09-28 2011-03-31 株式会社 東芝 Display device and display method
US20120224060A1 (en) * 2011-02-10 2012-09-06 Integrated Night Vision Systems Inc. Reducing Driver Distraction Using a Heads-Up Display
WO2015136874A1 (en) * 2014-03-13 2015-09-17 パナソニックIpマネジメント株式会社 Display control device, display device, display control program, display control method, and recording medium
JP2016146170A (en) * 2015-01-29 2016-08-12 株式会社デンソー Image generation device and image generation method
JP2017091170A (en) * 2015-11-09 2017-05-25 株式会社デンソー Presentation control device and presentation control method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010105443A (en) * 2008-10-28 2010-05-13 Denso Corp Visual assistive device
WO2011036788A1 (en) * 2009-09-28 2011-03-31 株式会社 東芝 Display device and display method
US20120224060A1 (en) * 2011-02-10 2012-09-06 Integrated Night Vision Systems Inc. Reducing Driver Distraction Using a Heads-Up Display
WO2015136874A1 (en) * 2014-03-13 2015-09-17 パナソニックIpマネジメント株式会社 Display control device, display device, display control program, display control method, and recording medium
JP2016146170A (en) * 2015-01-29 2016-08-12 株式会社デンソー Image generation device and image generation method
JP2017091170A (en) * 2015-11-09 2017-05-25 株式会社デンソー Presentation control device and presentation control method

Also Published As

Publication number Publication date
JP7183555B2 (en) 2022-12-06

Similar Documents

Publication Publication Date Title
JP6695049B2 (en) Display device and display control method
JP6775188B2 (en) Head-up display device and display control method
WO2014174575A1 (en) Vehicular head-up display device
CN110308556B (en) Image forming system, image correcting system, image displaying method, moving object, and non-transitory computer-readable medium
US20210003414A1 (en) Image control apparatus, display apparatus, movable body, and image control method
JP6225379B2 (en) Vehicle information projection system
US10325518B2 (en) Traveling-state display device and traveling-state display method
CN111095078A (en) Method, device and computer-readable storage medium with instructions for controlling the display of an augmented reality head-up display device for a motor vehicle
JP2019116229A (en) Display system
JP6186905B2 (en) In-vehicle display device and program
US20210008981A1 (en) Control device, display device, display system, moving body, control method, and recording medium
JP2005313772A (en) Vehicular head-up display device
JP7183555B2 (en) Display device, moving object, display method, and program
US11798140B2 (en) Head-up display, video correction method, and video correction program
JP2019083385A (en) Head-up display unit
JP7145509B2 (en) VIDEO DISPLAY SYSTEM, VIDEO DISPLAY METHOD, PROGRAM AND MOBILE BODY
JP2023017641A (en) Vehicle display control device, vehicle display device, vehicle display control method, and vehicle display control program
JP2018149884A (en) Head-up display device and display control method
JP7223283B2 (en) IMAGE PROCESSING UNIT AND HEAD-UP DISPLAY DEVICE INCLUDING THE SAME
JP2019172070A (en) Information processing device, movable body, information processing method, and program
JP2019148935A (en) Display control device and head-up display device
WO2021200913A1 (en) Display control device, image display device, and method
JP7415516B2 (en) display control device
US20240083247A1 (en) Display control device, display control method, non-transitory computer-readable medium storing a program
JP2019202698A (en) Image processing apparatus, image processing method, and head-up display system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220628

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220728

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221025

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221107

R151 Written notification of patent or utility model registration

Ref document number: 7183555

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151