JP2021046171A - Display control device and display control method - Google Patents

Display control device and display control method Download PDF

Info

Publication number
JP2021046171A
JP2021046171A JP2019171648A JP2019171648A JP2021046171A JP 2021046171 A JP2021046171 A JP 2021046171A JP 2019171648 A JP2019171648 A JP 2019171648A JP 2019171648 A JP2019171648 A JP 2019171648A JP 2021046171 A JP2021046171 A JP 2021046171A
Authority
JP
Japan
Prior art keywords
distance
virtual image
display control
depth
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019171648A
Other languages
Japanese (ja)
Other versions
JP7257623B2 (en
Inventor
前田 和彦
Kazuhiko Maeda
和彦 前田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2019171648A priority Critical patent/JP7257623B2/en
Publication of JP2021046171A publication Critical patent/JP2021046171A/en
Application granted granted Critical
Publication of JP7257623B2 publication Critical patent/JP7257623B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide a display control device and so on which can shorten a time until a user is allowed to visually recognize a virtual image.SOLUTION: A display control device 50 includes: an acquisition unit 101 for acquiring the detection results of objects in the periphery of a vehicle 300, distance information indicating distances from the vehicle 300 to the objects in the periphery, and a user's line-of-sight direction; a first calculation unit 102 for determining, on the basis of the detection results, a first object on which a virtual image is to be superposed, and calculating a first distance from the vehicle to the first object; a second calculation unit 103 for calculating a second distance from the vehicle to a second object in the line-of-sight direction by using the distance information and the line-of-sight direction; a determination unit 104 for determining a depth position at which the user is allowed to recognize the virtual image, as a third position closer to a second position at the second distance from the vehicle than a first position at the first distance from the vehicle; and a control unit 105 for controlling a display device so that the virtual image is visually recognized by the user at the determined depth position and a position which overlaps the first object.SELECTED DRAWING: Figure 3

Description

本開示は、表示制御装置および表示制御方法に関する。 The present disclosure relates to a display control device and a display control method.

特許文献1には、投影される画像の結像位置の遠近の切り替えを段階的に行うことができる車両用ヘッドアップディスプレイが開示されている。 Patent Document 1 discloses a vehicle head-up display capable of stepwise switching the perspective of the image formation position of the projected image.

特許文献2には、ドライバの眼から虚像までの表示距離を設定し、設定した表示距離において虚像を表示させる制御を行う車載表示装置が開示されている。 Patent Document 2 discloses an in-vehicle display device that sets a display distance from the driver's eyes to a virtual image and controls the display of the virtual image at the set display distance.

特開平9−185012号公報Japanese Unexamined Patent Publication No. 9-185012 特開2017−226292号公報JP-A-2017-226292

本開示は、ユーザに虚像を視認させるまでの時間を短縮することができる表示制御装置などを提供する。 The present disclosure provides a display control device and the like that can shorten the time until the user visually recognizes a virtual image.

本開示の一態様に係る表示制御装置は、移動体に設けられ、スクリーン上に投影された画像をユーザに虚像として視認させる表示装置を制御する表示制御装置であって、前記移動体の周囲のオブジェクトの検出結果と、前記移動体から前記周囲のオブジェクトまでの距離を示す距離情報と、前記ユーザの視線方向とを取得する取得部と、前記検出結果に基づいて、前記周囲のオブジェクトのうち、前記虚像を重畳させる第一オブジェクトを決定し、前記距離情報を用いて前記移動体から前記第一オブジェクトまでの第一距離を算出する第一算出部と、前記距離情報および前記視線方向を用いて、前記移動体から、前記周囲のオブジェクトのうちの前記視線方向における第二オブジェクトまでの第二距離を算出する第二算出部と、前記虚像を前記ユーザに視認させる、奥行き方向における奥行き位置を、前記移動体から前記第一距離離れた第一位置と前記第二距離離れた第二位置との間の第三位置に決定する決定部と、決定された前記奥行き位置、かつ、前記第一オブジェクトに重なる位置において前記虚像が前記ユーザに視認されるように前記表示装置を制御する制御部と、を備える。 The display control device according to one aspect of the present disclosure is a display control device provided on a moving body and controls a display device that allows a user to visually recognize an image projected on a screen as a virtual image, and is a display control device around the moving body. Among the surrounding objects, based on the detection result of the object, the acquisition unit that acquires the distance information indicating the distance from the moving body to the surrounding object, and the line-of-sight direction of the user, and the detection result. The first calculation unit that determines the first object on which the virtual image is superimposed and calculates the first distance from the moving body to the first object using the distance information, and the distance information and the line-of-sight direction are used. The second calculation unit that calculates the second distance from the moving body to the second object in the line-of-sight direction among the surrounding objects, and the depth position in the depth direction that makes the user visually recognize the virtual image. A determination unit that determines a third position between the first position separated from the moving body by the first distance and the second position separated by the second distance, the determined depth position, and the first object. A control unit that controls the display device so that the virtual image can be visually recognized by the user at a position overlapping the above.

なお、上記の包括的又は具体的な態様は、システム、方法、集積回路、コンピュータプログラム又はコンピュータ読み取り可能なCD−ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。 The above-mentioned comprehensive or specific embodiment may be realized by a recording medium such as a system, a method, an integrated circuit, a computer program, or a computer-readable CD-ROM, and the system, a method, an integrated circuit, or a computer program. And any combination of recording media may be realized.

本開示の表示制御装置によれば、ユーザに虚像を視認させるまでの時間を短縮することができる。 According to the display control device of the present disclosure, it is possible to shorten the time until the user visually recognizes the virtual image.

図1は、本実施の形態における映像表示システムの使用例を示す図である。FIG. 1 is a diagram showing a usage example of the video display system according to the present embodiment. 図2は、本実施の形態における表示装置によって光が投射される領域であるD1の一例を示す図である。FIG. 2 is a diagram showing an example of D1 which is a region where light is projected by the display device according to the present embodiment. 図3は、本実施の形態における表示制御装置の機能構成の一例を示すブロック図である。FIG. 3 is a block diagram showing an example of the functional configuration of the display control device according to the present embodiment. 図4は、走行中の車両の一場面を示す図であり、上方から見た平面図である。FIG. 4 is a view showing a scene of a moving vehicle, and is a plan view seen from above. 図5Aは、決定部の奥行き位置を決定する決定処理の第一の例を説明するためのグラフである。FIG. 5A is a graph for explaining a first example of the determination process for determining the depth position of the determination unit. 図5Bは、決定部の奥行き位置を決定する決定処理の第二の例を説明するためのグラフである。FIG. 5B is a graph for explaining a second example of the determination process for determining the depth position of the determination unit. 図5Cは、決定部の奥行き位置を決定する決定処理の第三の例を説明するためのグラフである。FIG. 5C is a graph for explaining a third example of the determination process for determining the depth position of the determination unit. 図6は、ドライバからの虚像I1の見え方を説明するための図である。FIG. 6 is a diagram for explaining how the virtual image I1 is viewed from the driver. 図7は、本実施の形態における表示制御装置の動作を説明するためのフローチャートである。FIG. 7 is a flowchart for explaining the operation of the display control device according to the present embodiment. 図8は、決定部による決定処理の他の一例を示すフローチャートである。FIG. 8 is a flowchart showing another example of the determination process by the determination unit.

(本開示の基礎となった知見)
上述したように、特許文献1および2では、ユーザの視線方向において、ユーザに虚像を視認させる位置を変更することができる、3次元拡張現実ヘッドアップディスプレイ(3D−AR−HUD)と呼ばれる表示装置が開示されている。このような3D−AR−HUDは、例えば車両に搭載され、車両の前方を横切る歩行者がいることを、虚像を表示することで当該車両のユーザ(ドライバ)に通知することができる。このように、3D−AR−HUDでは、ユーザに情報を通知するための虚像を表示することで、ユーザによる車両の運転を支援することができる。
(Knowledge on which this disclosure was based)
As described above, in Patent Documents 1 and 2, a display device called a three-dimensional augmented reality head-up display (3D-AR-HUD) that can change the position at which the user visually recognizes a virtual image in the direction of the user's line of sight Is disclosed. Such a 3D-AR-HUD can be mounted on a vehicle, for example, and can notify the user (driver) of the vehicle by displaying a virtual image that there is a pedestrian crossing the front of the vehicle. As described above, in the 3D-AR-HUD, it is possible to support the user in driving the vehicle by displaying a virtual image for notifying the user of the information.

しかしながら、このような3D−AR−HUDでは、ユーザの視線方向において、当該ユーザが眼の焦点を合わせて注視している位置(以下、焦点位置とも言う)から所定距離以上離れた位置に虚像を表示する場合、ユーザは、眼の焦点を合わせるための焦点移動に時間がかかるため、表示された虚像を視認するまでに多くの時間を要してしまう。このため、ユーザは、リアルタイムに虚像による通知の支援を受けることが難しい。 However, in such a 3D-AR-HUD, a virtual image is displayed at a position separated by a predetermined distance or more from the position where the user focuses his eyes and gazes (hereinafter, also referred to as a focal position) in the direction of the user's line of sight. In the case of display, the user takes a lot of time to visually recognize the displayed virtual image because it takes time to move the focus for focusing the eyes. For this reason, it is difficult for the user to receive support for notification by a virtual image in real time.

このような課題を解決するために、本開示の一態様に係る表示制御装置は、移動体に設けられ、スクリーン上に投影された画像をユーザに虚像として視認させる表示装置を制御する表示制御装置であって、前記移動体の周囲のオブジェクトの検出結果と、前記移動体から前記周囲のオブジェクトまでの距離を示す距離情報と、前記ユーザの視線方向とを取得する取得部と、前記検出結果に基づいて、前記周囲のオブジェクトのうち、前記虚像を重畳させる第一オブジェクトを決定し、前記距離情報を用いて前記移動体から前記第一オブジェクトまでの第一距離を算出する第一算出部と、前記距離情報および前記視線方向を用いて、前記移動体から、前記周囲のオブジェクトのうちの前記視線方向における第二オブジェクトまでの第二距離を算出する第二算出部と、前記虚像を前記ユーザに視認させる、奥行き方向における奥行き位置を、前記移動体から前記第一距離離れた第一位置と前記第二距離離れた第二位置との間の第三位置に決定する決定部と、決定された前記奥行き位置、かつ、前記第一オブジェクトに重なる位置において前記虚像が前記ユーザに視認されるように前記表示装置を制御する制御部と、を備える。 In order to solve such a problem, the display control device according to one aspect of the present disclosure is a display control device provided on a moving body and controlling a display device that allows a user to visually recognize an image projected on a screen as a virtual image. The acquisition unit that acquires the detection result of the object around the moving body, the distance information indicating the distance from the moving body to the surrounding object, and the line-of-sight direction of the user, and the detection result. Based on this, the first calculation unit that determines the first object on which the virtual image is superimposed among the surrounding objects and calculates the first distance from the moving body to the first object using the distance information. Using the distance information and the line-of-sight direction, a second calculation unit that calculates the second distance from the moving body to the second object in the line-of-sight direction among the surrounding objects, and the virtual image to the user. It was determined as a determination unit that determines the depth position in the depth direction to be visually recognized as a third position between the first position separated from the moving body by the first distance and the second position separated by the second distance. It includes a control unit that controls the display device so that the virtual image can be visually recognized by the user at the depth position and the position overlapping the first object.

これによれば、奥行き方向において、虚像を重畳させる第一オブジェクトまでの第一距離に基づく第一位置と、ユーザの視線方向にある第二オブジェクトまでの第二距離に基づく第二位置との間の位置に、虚像をユーザに視認させる奥行き位置を決定する。つまり、第一位置から第二位置に近づいた位置に奥行き位置を決定することができる。このため、ユーザの視線における焦点位置に近い位置に虚像を表示することができ、ユーザは、焦点移動にかかる時間を短縮することができる。よって、ユーザに虚像を視認させるまでの時間を短縮することができる。 According to this, in the depth direction, between the first position based on the first distance to the first object on which the virtual image is superimposed and the second position based on the second distance to the second object in the user's line-of-sight direction. At the position of, the depth position at which the virtual image is visually recognized by the user is determined. That is, the depth position can be determined from the first position to the position closer to the second position. Therefore, the virtual image can be displayed at a position close to the focal position in the user's line of sight, and the user can shorten the time required for the focus movement. Therefore, it is possible to shorten the time until the user visually recognizes the virtual image.

また、前記決定部は、前記第一距離と前記第二距離との差が第一閾値以上である場合、前記第一位置および前記第二位置の間の予め定められた固定位置を前記奥行き位置として決定してもよい。 Further, when the difference between the first distance and the second distance is equal to or greater than the first threshold value, the determination unit sets a predetermined fixed position between the first position and the second position as the depth position. May be determined as.

このため、第一位置が第二位置から第一閾値以上離れている場合、第一位置よりも第二位置に近い位置に虚像を表示することができる。 Therefore, when the first position is separated from the second position by the first threshold value or more, the virtual image can be displayed at a position closer to the second position than the first position.

また、前記決定部は、前記第一距離と前記第二距離との差が第一閾値以上である場合、固定距離だけ前記第一位置よりも前記第二位置に近い位置を前記奥行き位置として決定してもよい。 Further, when the difference between the first distance and the second distance is equal to or greater than the first threshold value, the determination unit determines a position closer to the second position than the first position by a fixed distance as the depth position. You may.

このため、第一位置が第二位置から第一閾値以上離れている場合、第一位置を基準とした位置に虚像を表示することができる。 Therefore, when the first position is separated from the second position by the first threshold value or more, the virtual image can be displayed at the position with reference to the first position.

また、前記決定部は、前記第一距離と前記第二距離との差が第一閾値以上である場合、前記差が大きくなるほど長い距離だけ前記第一位置よりも前記第二位置に近い位置を前記奥行き位置として決定してもよい。 Further, when the difference between the first distance and the second distance is equal to or greater than the first threshold value, the determination unit sets a position closer to the second position than the first position by a longer distance as the difference increases. It may be determined as the depth position.

このため、第一位置が第二位置から第一閾値以上離れている場合、第一位置が第二位置から離れるほど第二位置に近づく距離が大きくなる位置に、虚像を表示することができる。 Therefore, when the first position is separated from the second position by the first threshold value or more, the virtual image can be displayed at a position where the distance closer to the second position increases as the first position moves away from the second position.

また、前記決定部は、前記第一距離と前記第二距離との差が前記第一閾値未満である場合、前記第一位置を前記奥行き位置として決定してもよい。 Further, when the difference between the first distance and the second distance is less than the first threshold value, the determination unit may determine the first position as the depth position.

このため、第一位置が第二位置から第一閾値未満しか離れていない場合、第一位置に虚像を表示することができる。 Therefore, when the first position is less than the first threshold value from the second position, a virtual image can be displayed at the first position.

また、前記第一閾値は、前記第二距離が大きいほど大きい値であってもよい。 Further, the first threshold value may be a larger value as the second distance is larger.

このため、第二位置を基準とした位置に虚像を表示することができる。 Therefore, the virtual image can be displayed at a position based on the second position.

また、前記取得部は、前記検出結果と、前記距離情報と、前記視線方向とを逐次取得し、前記第一算出部は、逐次取得された前記検出結果および前記距離情報に基づいて、前記第一距離を逐次算出し、前記第二算出部は、逐次取得された前記距離情報および前記視線方向に基づいて、前記第二距離を逐次算出し、前記決定部は、逐次算出された前記第一距離および前記第二距離に基づいて、前記奥行き位置を逐次決定し、前記制御部は、逐次決定された前記奥行き位置、かつ、前記第一オブジェクトに重なる位置において前記虚像が前記ユーザに視認されるように前記表示装置を制御してもよい。 Further, the acquisition unit sequentially acquires the detection result, the distance information, and the line-of-sight direction, and the first calculation unit sequentially acquires the detection result and the distance information, and the first calculation unit obtains the detection result and the distance information. One distance is sequentially calculated, the second calculation unit sequentially calculates the second distance based on the sequentially acquired distance information and the line-of-sight direction, and the determination unit sequentially calculates the first. The depth position is sequentially determined based on the distance and the second distance, and the control unit visually recognizes the virtual image at the sequentially determined depth position and the position overlapping the first object. The display device may be controlled as described above.

このため、リアルタイムに虚像を表示させる奥行き位置を制御することができる。 Therefore, it is possible to control the depth position for displaying the virtual image in real time.

また、前記決定部は、第一タイミングで決定した第一奥行き位置と、前記第一タイミングより前の第二タイミングで決定した第二奥行き位置との差が第二閾値以上である場合、前記第一奥行き位置と前記第二奥行き位置との間の位置を、前記第一タイミングの奥行き位置として決定してもよい。 Further, when the difference between the first depth position determined at the first timing and the second depth position determined at the second timing prior to the first timing is equal to or greater than the second threshold value, the determination unit determines the first depth position. The position between the one depth position and the second depth position may be determined as the depth position of the first timing.

このため、奥行き位置の経時的な変化が大きくならないように虚像を表示することができる。 Therefore, the virtual image can be displayed so that the change in the depth position with time does not become large.

なお、表示装置の包括的又は具体的な態様は、システム、方法、集積回路、コンピュータプログラム又はコンピュータ読み取り可能なCD−ROM等の記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラム又は記録媒体の任意な組み合わせで実現されてもよい。 A comprehensive or specific embodiment of the display device may be realized by a recording medium such as a system, a method, an integrated circuit, a computer program, or a computer-readable CD-ROM, and the system, the method, the integrated circuit, or the computer. It may be realized by any combination of programs or recording media.

以下、実施の形態に係る表示制御装置および表示制御方法を、図面を参照しつつ説明する。なお、以下で説明される実施の形態に係る表示装置は、包括的又は具体的な例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置および接続形態、ステップ、並びにステップの順序等は、一例であり、本開示を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。 Hereinafter, the display control device and the display control method according to the embodiment will be described with reference to the drawings. The display device according to the embodiment described below shows a comprehensive or specific example. Numerical values, shapes, materials, components, arrangement positions and connection forms of components, steps, order of steps, etc. shown in the following embodiments are examples, and are not intended to limit the present disclosure. Further, among the components in the following embodiments, the components not described in the independent claims indicating the highest level concept are described as arbitrary components.

(実施の形態)
[1.構成]
図1は、本実施の形態における映像表示システム100の使用例を示す図である。
(Embodiment)
[1. Constitution]
FIG. 1 is a diagram showing a usage example of the video display system 100 according to the present embodiment.

本実施の形態における映像表示システム100は、表示装置10と、第一カメラ20と、第二カメラ30と、距離センサ40と、表示制御装置50とを備える。 The image display system 100 according to the present embodiment includes a display device 10, a first camera 20, a second camera 30, a distance sensor 40, and a display control device 50.

表示装置10は、車載用のヘッドアップディスプレイ(HUD)として構成され、車両300のダッシュボード301の上面付近に取り付けられる。車両300は、移動体の一例である。 The display device 10 is configured as an in-vehicle head-up display (HUD) and is attached near the upper surface of the dashboard 301 of the vehicle 300. The vehicle 300 is an example of a moving body.

この表示装置10は、表示媒体であるウインドシールド(フロントガラス)201の表示領域R1に光を投射する。投射された光はそのウインドシールド201によって反射される。この反射光は、表示装置10のユーザである運転席に座るドライバの目に向かう。ドライバは、目に入ったその反射光を、ウインドシールド201越しに見える実際にある物を背景に、ウインドシールド201の反対側(車外側)に見える虚像I1として捉える。つまり、表示装置10はウインドシールド201を用いて虚像I1を表示する。 The display device 10 projects light onto the display area R1 of the windshield (windshield) 201, which is a display medium. The projected light is reflected by the windshield 201. This reflected light is directed to the eyes of the driver sitting in the driver's seat, who is the user of the display device 10. The driver perceives the reflected light that has entered his eyes as a virtual image I1 that can be seen on the opposite side (outside of the vehicle) of the windshield 201 against the background of an actual object that can be seen through the windshield 201. That is, the display device 10 displays the virtual image I1 using the windshield 201.

第一カメラ20は、ドライバの顔の画像を撮像するカメラである。第一カメラ20は、例えば、ウインドシールド201の上方に車両300の後方に向かう姿勢で配置され、運転席のドライバの顔が位置する領域を撮像対象とする。第一カメラ20は、異なる複数のタイミングでドライバの顔を含む画像を撮像する。具体的には、第一カメラ20は、所定の周期(例えば1/20〔秒〕、1/30〔秒〕、1/60〔秒〕など)で、ドライバの顔を含む画像を撮像する。なお、第一カメラ20は、ドライバの目を含む画像を撮像していればよく、ウインドシールド201の上方に配置されることに限らない。 The first camera 20 is a camera that captures an image of the driver's face. For example, the first camera 20 is arranged above the windshield 201 in a posture toward the rear of the vehicle 300, and the area where the driver's face in the driver's seat is located is targeted for imaging. The first camera 20 captures an image including the driver's face at a plurality of different timings. Specifically, the first camera 20 captures an image including the driver's face at a predetermined cycle (for example, 1/20 [second], 1/30 [second], 1/60 [second], etc.). The first camera 20 need only capture an image including the driver's eyes, and is not limited to being arranged above the windshield 201.

第二カメラ30は、車両300の周囲の画像を撮像するカメラである。第二カメラ30は、具体的には、車両300の前側に前方に向かう姿勢で配置され、車両300の前方の画像を撮像する。第二カメラ30は、異なる複数のタイミングで車両300の前方の画像を撮像する。具体的には、第二カメラ30は、所定の周期(例えば1/20〔秒〕、1/30〔秒〕、1/60〔秒〕など)で、車両300の前方の画像を撮像する。なお、第二カメラ30は、車両300の周囲の画像を撮像すればよく、車両300の前方に限らずに、車両300の右側の画像を撮像してもよいし、車両300の左側の画像を撮像してもよいし、車両300の後方の画像を撮像してもよいし、これらの画像を組み合わせてもよい。 The second camera 30 is a camera that captures an image of the surroundings of the vehicle 300. Specifically, the second camera 30 is arranged in a forward posture toward the front side of the vehicle 300, and captures an image of the front of the vehicle 300. The second camera 30 captures an image of the front of the vehicle 300 at a plurality of different timings. Specifically, the second camera 30 captures an image in front of the vehicle 300 at a predetermined cycle (for example, 1/20 [second], 1/30 [second], 1/60 [second], etc.). The second camera 30 may capture an image of the surroundings of the vehicle 300, and may capture an image of the right side of the vehicle 300, not limited to the front of the vehicle 300, or an image of the left side of the vehicle 300. The image may be taken, the image behind the vehicle 300 may be taken, or these images may be combined.

第一カメラ20および第二カメラ30は、画像として、静止画を撮像してもよいし、動画を撮像してもよい。 The first camera 20 and the second camera 30 may capture a still image or a moving image as an image.

距離センサ40は、車両300の周囲のオブジェクトまでの距離を検出するセンサである。距離センサ40は、例えば、車両300の360度の周囲のオブジェクトまでの距離を検出するLiDAR(Light Detection and Ranging)である。なお、距離センサ40は、LiDARに限らずに、ミリ波センサであってもよいし、ステレオカメラであってもよいし、TOF(Time Of Flight)カメラであってもよいし、。 The distance sensor 40 is a sensor that detects the distance to an object around the vehicle 300. The distance sensor 40 is, for example, a LiDAR (Light Detection and Ranger) that detects the distance to an object around 360 degrees of the vehicle 300. The distance sensor 40 is not limited to LiDAR, and may be a millimeter wave sensor, a stereo camera, or a TOF (Time Of Flight) camera.

表示制御装置50は、第一カメラ20、第二カメラ30および距離センサ40により得られた検出結果、または、検出結果を用いた表示制御装置50による処理結果を用いて、表示装置10に表示させる画像を生成し、生成した画像を虚像として表示装置10に表示させる。表示制御装置50は、プロセッサ、および、プログラムを格納しているメモリにより構成されていてもよいし、専用回路により構成されていてもよい。 The display control device 50 causes the display device 10 to display the detection result obtained by the first camera 20, the second camera 30, and the distance sensor 40, or the processing result by the display control device 50 using the detection result. An image is generated, and the generated image is displayed on the display device 10 as a virtual image. The display control device 50 may be composed of a processor and a memory for storing a program, or may be composed of a dedicated circuit.

表示装置10は、表示制御装置50により出力された画像を、虚像として表示する。 The display device 10 displays the image output by the display control device 50 as a virtual image.

図2は、本実施の形態における表示装置10によって光が投射される領域であるD1の一例を示す図である。 FIG. 2 is a diagram showing an example of D1 which is a region where light is projected by the display device 10 in the present embodiment.

図2が示すように、ダッシュボード301に取り付けられた表示装置10は例えば、光をウインドシールド201の運転席側下寄りに位置する表示領域R1(図中破線で囲まれた領域)に投射する。これにより、運転席に座るドライバから見てウインドシールド201の反対側(車外側)に見える虚像I1が表示される。 As shown in FIG. 2, the display device 10 attached to the dashboard 301 projects, for example, light onto the display area R1 (the area surrounded by the broken line in the figure) located below the driver's seat side of the windshield 201. .. As a result, the virtual image I1 that can be seen on the opposite side (outside of the vehicle) of the windshield 201 when viewed from the driver sitting in the driver's seat is displayed.

図3は、本実施の形態における表示制御装置の機能構成の一例を示すブロック図である。 FIG. 3 is a block diagram showing an example of the functional configuration of the display control device according to the present embodiment.

表示制御装置50は、機能構成として、取得部101と、第一算出部102と、第二算出部103と、決定部104と、制御部105とを備える。 The display control device 50 includes an acquisition unit 101, a first calculation unit 102, a second calculation unit 103, a determination unit 104, and a control unit 105 as functional configurations.

取得部101は、ユーザの視線方向を取得する。取得部101は、具体的には、第一カメラ20において撮像された複数の画像であって、ドライバの目(眼球)が撮像された複数の画像を取得し、取得した複数の画像に対して所定の画像解析(アイトラッキング)を行うことで、ドライバの視線方向を検出する。このように、取得部101は、第一カメラ20により撮像された画像を用いて、ドライバの視線方向を取得する。 The acquisition unit 101 acquires the line-of-sight direction of the user. Specifically, the acquisition unit 101 acquires a plurality of images captured by the first camera 20, and the plurality of images captured by the driver's eyes (eyeballs) are acquired, and the acquired plurality of images are obtained. By performing a predetermined image analysis (eye tracking), the line-of-sight direction of the driver is detected. In this way, the acquisition unit 101 acquires the line-of-sight direction of the driver using the image captured by the first camera 20.

取得部101は、車両300の周囲のオブジェクトの検出結果を取得する。具体的には、取得部101は、第二カメラ30により撮像された画像を取得し、取得した画像を用いて所定の画像解析を行うことで、車両300の周囲のオブジェクトを検出する。より具体的には、取得部101は、車両300の前方(側方または後方)における複数の撮像動画に対して所定の動画解析を行うことで、歩行者、他の車両(自転車、バイクなどを含む)、その他の物体の当該車両に対する相対的な位置(つまり、車両300からの距離および方向)を検出してもよい。あるいは、取得部101は、歩行者、他の車両(自転車、バイクなどを含む)、その他の物体の当該車両300に対する相対的な位置と相対的な動きである運動分布を検出してもよい。 The acquisition unit 101 acquires the detection result of the objects around the vehicle 300. Specifically, the acquisition unit 101 acquires an image captured by the second camera 30 and performs a predetermined image analysis using the acquired image to detect an object around the vehicle 300. More specifically, the acquisition unit 101 performs predetermined video analysis on a plurality of captured videos in front (side or rear) of the vehicle 300 to perform pedestrians, other vehicles (bicycles, motorcycles, etc.). Including), the relative position of other objects with respect to the vehicle (ie, the distance and direction from the vehicle 300) may be detected. Alternatively, the acquisition unit 101 may detect a motion distribution that is a relative position and a relative movement of a pedestrian, another vehicle (including a bicycle, a motorcycle, etc.), and other objects with respect to the vehicle 300.

なお、取得部101は、車両300の走行経路上にある人または物体、あるいは、車両300の走行経路上を車両300の前方において横切ると推定される人または物体に絞り込んでもよい。また、取得部101は、ドライバの視野内に含まれると推定される全ての人または物体(建物、構造物などを含む)を周辺対象物として認識してもよい。 The acquisition unit 101 may be narrowed down to a person or an object on the traveling path of the vehicle 300, or a person or an object presumed to cross the traveling path of the vehicle 300 in front of the vehicle 300. Further, the acquisition unit 101 may recognize all people or objects (including buildings, structures, etc.) presumed to be included in the driver's field of view as peripheral objects.

以上のように、取得部101は、第二カメラ30により撮像された画像を用いて、車両300の周囲のオブジェクトの検出結果を取得する。 As described above, the acquisition unit 101 acquires the detection result of the objects around the vehicle 300 by using the image captured by the second camera 30.

また、取得部101は、距離センサ40から、車両300から周囲のオブジェクトまでの距離を示す距離情報を取得する。距離情報は、車両300の周囲の複数の方向のそれぞれにおける、周囲のオブジェクトまでの距離を示す情報である。つまり、距離情報は、複数の方向にそれぞれ対応する複数の距離を示す情報である。 Further, the acquisition unit 101 acquires distance information indicating the distance from the vehicle 300 to the surrounding objects from the distance sensor 40. The distance information is information indicating the distance to the surrounding objects in each of the plurality of directions around the vehicle 300. That is, the distance information is information indicating a plurality of distances corresponding to each of the plurality of directions.

なお、取得部101は、第一カメラ20により撮像された画像を用いて、ドライバの視線方向を検出する処理を行うとしたが、これに限らない。ドライバの視線方向を検出する処理は、表示制御装置50とは別の装置が行ってもよい。この場合、取得部101は、別の装置により検出されたドライバの視線方向を取得する。 The acquisition unit 101 is supposed to perform a process of detecting the line-of-sight direction of the driver using the image captured by the first camera 20, but the present invention is not limited to this. The process of detecting the line-of-sight direction of the driver may be performed by a device other than the display control device 50. In this case, the acquisition unit 101 acquires the line-of-sight direction of the driver detected by another device.

また、取得部101は、第二カメラ30により撮像された画像を用いて、車両300の周囲のオブジェクトを検出する処理を行うとしたが、これに限らずに、周囲のオブジェクトを検出する処理は、表示制御装置50とは別の装置が行ってもよい。この場合、取得部101は、別の装置による周囲のオブジェクトの検出結果を取得する。 Further, the acquisition unit 101 is supposed to perform a process of detecting objects around the vehicle 300 using the image captured by the second camera 30, but the process of detecting the surrounding objects is not limited to this. , A device other than the display control device 50 may be used. In this case, the acquisition unit 101 acquires the detection result of surrounding objects by another device.

第一算出部102は、取得部101により取得された、周囲のオブジェクトの検出結果に基づいて、周囲のオブジェクトのうち、虚像を重畳させる第一オブジェクトを決定する。第一算出部102は、例えば、車両300の走行経路上を車両300の前方において横切ると推定される人または物体を、虚像を重畳させる第一オブジェクトとして決定してもよい。また、第一算出部102は、例えば、車両300の前方を走行している他の車両を、虚像を重畳させる第一オブジェクトとして決定してもよい。また、第一算出部102は、例えば、カーナビゲーションシステムなどでユーザにより設定された、車両300の移動の目的地の建物を、虚像を重畳させる第一オブジェクトとして決定してもよい。 The first calculation unit 102 determines the first object on which the virtual image is superimposed among the surrounding objects based on the detection result of the surrounding objects acquired by the acquisition unit 101. For example, the first calculation unit 102 may determine a person or an object that is presumed to cross the traveling path of the vehicle 300 in front of the vehicle 300 as the first object on which the virtual image is superimposed. Further, the first calculation unit 102 may determine, for example, another vehicle traveling in front of the vehicle 300 as a first object on which a virtual image is superimposed. Further, the first calculation unit 102 may determine, for example, a building at the destination of movement of the vehicle 300, which is set by the user in a car navigation system or the like, as a first object on which a virtual image is superimposed.

そして、第一算出部102は、取得部101により取得された距離情報を用いて、車両300から第一オブジェクトまでの第一距離を算出する。具体的には、第一算出部102は、第一オブジェクトを決定することで、車両300に対する第一オブジェクトの方向を特定する。次に、第一算出部102は、距離情報が示す複数の方向における複数の距離の中から、特定した第一オブジェクトの方向の距離を特定することで、第一距離を算出する。 Then, the first calculation unit 102 calculates the first distance from the vehicle 300 to the first object by using the distance information acquired by the acquisition unit 101. Specifically, the first calculation unit 102 determines the direction of the first object with respect to the vehicle 300 by determining the first object. Next, the first calculation unit 102 calculates the first distance by specifying the distance in the direction of the specified first object from the plurality of distances in the plurality of directions indicated by the distance information.

第二算出部103は、距離情報および視線方向を用いて、車両300から、周囲のオブジェクトのうちの視線方向における第二オブジェクトまでの第二距離を算出する。つまり、第二算出部103は、ドライバが焦点を合わせて注視していると推測される第二オブジェクトまでの第二距離を算出することで、ドライバの眼の焦点位置を推測している。これは、人は、視線方向におけるオブジェクトを注視していることが多いと考えられ、注視しているオブジェクトに対して眼の焦点を合わせていると考えられるからである。 The second calculation unit 103 calculates the second distance from the vehicle 300 to the second object in the line-of-sight direction among the surrounding objects by using the distance information and the line-of-sight direction. That is, the second calculation unit 103 estimates the focal position of the driver's eye by calculating the second distance to the second object, which is presumed that the driver is focusing and gazing. This is because it is considered that a person is often gazing at an object in the line-of-sight direction, and is considered to be focusing the eye on the object being gazed at.

ここで、図4を用いて具体的に説明する。図4は、走行中の車両の一場面を示す図であり、上方から見た平面図である。図4では、車両300を走行中に、前方右側に他の車両320が走行しており、前方左側に歩行者310が車両300の前方を横切ろうとしている場面が図示されている。 Here, a specific description will be given with reference to FIG. FIG. 4 is a view showing a scene of a moving vehicle, and is a plan view seen from above. FIG. 4 shows a scene in which another vehicle 320 is traveling on the front right side while the vehicle 300 is traveling, and a pedestrian 310 is trying to cross the front of the vehicle 300 on the front left side.

表示制御装置50では、第一算出部102は、例えば、車両300の前方を横切ろうとしている歩行者310を第一オブジェクトとして決定し、距離情報が示す複数の距離うちで、車両300から歩行者310への方向である第一方向D1における距離を、車両300から歩行者310までの第一距離d1として算出する。 In the display control device 50, the first calculation unit 102 determines, for example, a pedestrian 310 who is about to cross the front of the vehicle 300 as the first object, and walks from the vehicle 300 within a plurality of distances indicated by the distance information. The distance in the first direction D1 which is the direction to the person 310 is calculated as the first distance d1 from the vehicle 300 to the pedestrian 310.

ところで、車両300のドライバは、車両320に視線を向けており車両320を注視している。このため、表示制御装置50では、第二算出部103は、車両320を第二オブジェクトとして認識し、距離情報が示す複数の距離のうちで、車両300から第二方向D2における距離を、車両300から車両320までの第二距離d2として算出する。 By the way, the driver of the vehicle 300 is looking at the vehicle 320 and is gazing at the vehicle 320. Therefore, in the display control device 50, the second calculation unit 103 recognizes the vehicle 320 as the second object, and among the plurality of distances indicated by the distance information, the distance from the vehicle 300 in the second direction D2 is determined by the vehicle 300. It is calculated as the second distance d2 from to the vehicle 320.

なお、第一オブジェクトと第二オブジェクトとは、視線方向から見た場合、異なる位置に位置する。つまり、ユーザから第一オブジェクトを見た場合の第一方向D1と、ユーザから第二オブジェクトを見た場合の第二方向D2とは、異なる方向である。 The first object and the second object are located at different positions when viewed from the line-of-sight direction. That is, the first direction D1 when the user sees the first object and the second direction D2 when the user sees the second object are different directions.

決定部104は、虚像I1をユーザに視認させる奥行き方向における奥行き位置を、車両300から第一距離d1離れた第一位置P1と、第二距離d2離れた第二位置P2との間の第三位置P3に決定する。具体的には、決定部104は、第一距離d1と第二距離d2との差が第一閾値Δd1以上である場合、奥行き位置を第三位置P3に決定する。一方で、決定部104は、第一距離d1と第二距離d2との差が第一閾値Δd1未満である場合、第一位置P1を奥行き位置として決定する。 The determination unit 104 sets the depth position in the depth direction so that the user can visually recognize the virtual image I1 between the first position P1 which is the first distance d1 away from the vehicle 300 and the second position P2 which is the second distance d2 away. Determined at position P3. Specifically, when the difference between the first distance d1 and the second distance d2 is equal to or greater than the first threshold value Δd1, the determination unit 104 determines the depth position to the third position P3. On the other hand, when the difference between the first distance d1 and the second distance d2 is less than the first threshold value Δd1, the determination unit 104 determines the first position P1 as the depth position.

なお、第二位置P2は、ドライバの位置P11を中心とする半径が第二距離d2の円c1と、第一方向D1とが交差する位置に決定される。虚像I1は、第一オブジェクトに重畳して表示させるため、第三位置P3は、第一方向D1上の位置に配置される。 The second position P2 is determined at a position where the circle c1 having a radius centered on the driver position P11 and the first direction D1 intersect. Since the virtual image I1 is superimposed on the first object and displayed, the third position P3 is arranged at a position on the first direction D1.

図5Aは、決定部の奥行き位置を決定する決定処理の第一の例を説明するためのグラフである。図5Aのグラフは、第二距離を1つの値に固定した場合の、第一距離と、車両から奥行き位置までの虚像距離との関係を示す。 FIG. 5A is a graph for explaining a first example of the determination process for determining the depth position of the determination unit. The graph of FIG. 5A shows the relationship between the first distance and the virtual image distance from the vehicle to the depth position when the second distance is fixed to one value.

第一の例では、決定部104は、第一距離d1と第二距離d2との差が第一閾値Δd1以上である場合、第一位置P1および第二位置P2の間の予め定められた固定位置を奥行き位置として決定する。例えば、決定部104は、第一距離d1が第二距離d2よりも第一閾値Δd1以上短い距離である場合、つまり、車両300から距離d11までの間に第一オブジェクトが位置する場合、虚像I1を表示する奥行き方向の位置を、車両300から距離d11だけ離れた位置に決定する。なお、距離d11は、例えば、第二距離d2よりも第一閾値Δd1だけ短い距離である。 In the first example, the determination unit 104 determines a predetermined fixation between the first position P1 and the second position P2 when the difference between the first distance d1 and the second distance d2 is equal to or greater than the first threshold value Δd1. Determine the position as the depth position. For example, the determination unit 104 determines the virtual image I1 when the first distance d1 is shorter than the second distance d2 by the first threshold value Δd1 or more, that is, when the first object is located between the vehicle 300 and the distance d11. The position in the depth direction in which is displayed is determined to be a position separated from the vehicle 300 by a distance d11. The distance d11 is, for example, a distance shorter than the second distance d2 by the first threshold value Δd1.

図5Bは、決定部の奥行き位置を決定する決定処理の第二の例を説明するためのグラフである。図5Bのグラフは、図5Aのグラフと同様に、第二距離を1つの値に固定した場合の、第一距離と、車両から奥行き位置までの虚像距離との関係を示す。 FIG. 5B is a graph for explaining a second example of the determination process for determining the depth position of the determination unit. Similar to the graph of FIG. 5A, the graph of FIG. 5B shows the relationship between the first distance and the virtual image distance from the vehicle to the depth position when the second distance is fixed to one value.

第二の例では、決定部104は、第一距離d1と第二距離d2との差が第一閾値Δd1以上である場合、固定距離Δd2だけ第一位置P1よりも第二位置P2に近い位置を奥行き位置として決定する。例えば、決定部104は、第一距離d1が第二距離d2よりも第一閾値Δd1以上短い距離である場合、つまり、車両300から距離d11までの間に第一オブジェクトが位置する場合、虚像I1を表示する奥行き方向の位置を、車両300から、第一距離d1に固定距離Δd2を加算した距離だけ離れた位置に決定する。なお、第一距離d1に固定距離Δd2を加算した距離が、第二距離d2よりも第一閾値Δd1だけ短い距離d11である場合、決定部104は、車両300から距離d11だけ離れた位置を、虚像I1を表示する奥行き方向の位置として決定する。 In the second example, when the difference between the first distance d1 and the second distance d2 is equal to or greater than the first threshold value Δd1, the determination unit 104 is positioned closer to the second position P2 than the first position P1 by the fixed distance Δd2. Is determined as the depth position. For example, the determination unit 104 determines the virtual image I1 when the first distance d1 is shorter than the second distance d2 by the first threshold value Δd1 or more, that is, when the first object is located between the vehicle 300 and the distance d11. Is determined to be a position separated from the vehicle 300 by the distance obtained by adding the fixed distance Δd2 to the first distance d1. When the distance obtained by adding the fixed distance Δd2 to the first distance d1 is the distance d11 shorter than the second distance d2 by the first threshold value Δd1, the determination unit 104 determines the position separated from the vehicle 300 by the distance d11. It is determined as a position in the depth direction in which the virtual image I1 is displayed.

図5Cは、決定部の奥行き位置を決定する決定処理の第三の例を説明するためのグラフである。図5Cのグラフは、図5Aおよび図5Bのグラフと同様に、第二距離を1つの値に固定した場合の、第一距離と、車両から奥行き位置までの虚像距離との関係を示す。 FIG. 5C is a graph for explaining a third example of the determination process for determining the depth position of the determination unit. Similar to the graphs of FIGS. 5A and 5B, the graph of FIG. 5C shows the relationship between the first distance and the virtual image distance from the vehicle to the depth position when the second distance is fixed to one value.

第三の例では、決定部104は、第一距離d1と第二距離d2との差が第一閾値Δd1以上である場合、当該差が大きくなるほど長い距離だけ第一位置P1よりも第二位置P2に近い位置を奥行き位置として決定する。例えば、決定部104は、第一距離d1が第二距離d2よりも第一閾値Δd1以上短い距離である場合、つまり、車両300から距離d11までの間に第一オブジェクトが位置する場合、虚像I1を表示する奥行き方向の位置を、車両300から、第一距離d1に、第一距離d1が短くなるほど大きくなる距離Δd3を加算した距離だけ離れた位置に決定する。 In the third example, when the difference between the first distance d1 and the second distance d2 is equal to or greater than the first threshold value Δd1, the determination unit 104 is positioned at the second position from the first position P1 by a longer distance as the difference increases. The position close to P2 is determined as the depth position. For example, the determination unit 104 determines the virtual image I1 when the first distance d1 is shorter than the second distance d2 by the first threshold value Δd1 or more, that is, when the first object is located between the vehicle 300 and the distance d11. Is determined to be a position separated from the vehicle 300 by the distance obtained by adding the distance Δd3, which increases as the first distance d1 becomes shorter, to the first distance d1.

なお、例えば、第一距離および奥行き位置の関係を示す関係情報は、第二距離毎に異なっており、図示しないメモリは、第二距離毎に異なる複数の関係情報を記憶していてもよい。この場合、決定部104は、第二算出部103により算出された第二距離d2に応じて、算出された第二距離d2に対応する関係情報をメモリから読み出して、読み出した関係情報を用いて奥行き位置を決定する。例えば、複数の関係情報では、第一閾値Δd1は、第二距離が大きいほど大きい値に設定されている。 For example, the relationship information indicating the relationship between the first distance and the depth position is different for each second distance, and a memory (not shown) may store a plurality of different relationship information for each second distance. In this case, the determination unit 104 reads the relationship information corresponding to the calculated second distance d2 from the memory according to the second distance d2 calculated by the second calculation unit 103, and uses the read relationship information. Determine the depth position. For example, in a plurality of relational information, the first threshold value Δd1 is set to a larger value as the second distance is larger.

制御部105は、決定部104により決定された奥行き位置、かつ、第一オブジェクトに重なる位置において虚像I1がユーザに視認されるように表示装置10を制御する。具体的には、制御部105は、虚像I1を表示させるための画像と、虚像I1を表示させる位置を示す位置情報とを表示装置10に出力し、虚像I1を位置情報で示される位置に表示させるように表示装置10を制御する。なお、虚像I1を表示させる位置は、第一オブジェクトと重なる位置、および、奥行き位置を含む。虚像I1は、例えば、図6に示されるように歩行者310に重畳されて表示される。なお、図6は、ドライバからの虚像I1の見え方を説明するための図である。 The control unit 105 controls the display device 10 so that the virtual image I1 can be visually recognized by the user at a depth position determined by the determination unit 104 and at a position overlapping the first object. Specifically, the control unit 105 outputs an image for displaying the virtual image I1 and position information indicating a position for displaying the virtual image I1 to the display device 10, and displays the virtual image I1 at the position indicated by the position information. The display device 10 is controlled so as to cause the display device 10. The position where the virtual image I1 is displayed includes a position where it overlaps with the first object and a depth position. The virtual image I1 is displayed superimposed on the pedestrian 310, for example, as shown in FIG. Note that FIG. 6 is a diagram for explaining how the virtual image I1 is viewed from the driver.

表示装置10は、制御部105により出力された、画像および位置情報に基づいて、画像に基づく虚像I1を、位置情報で示される位置に表示する。これにより、表示装置10は、虚像I1を位置情報で示される位置でユーザに視認させることができる。 The display device 10 displays the virtual image I1 based on the image at the position indicated by the position information based on the image and the position information output by the control unit 105. As a result, the display device 10 allows the user to visually recognize the virtual image I1 at the position indicated by the position information.

[2.動作]
次に、表示制御装置50の動作について説明する。
[2. motion]
Next, the operation of the display control device 50 will be described.

図7は、本実施の形態における表示制御装置の動作を説明するためのフローチャートである。 FIG. 7 is a flowchart for explaining the operation of the display control device according to the present embodiment.

図7に示されるように、表示制御装置50では、まず、取得部101が、車両300の周囲のオブジェクトの検出結果、車両300から周囲のオブジェクトまでの距離を示す距離情報、および、ドライバの視線方向を取得する(S11)。なお、取得部101は、周囲のオブジェクトの検出結果、距離情報および視線方向を同時に取得しなくてもよく、それぞれを異なるタイミングで取得してもよい。 As shown in FIG. 7, in the display control device 50, first, the acquisition unit 101 detects the object around the vehicle 300, the distance information indicating the distance from the vehicle 300 to the surrounding object, and the line of sight of the driver. Acquire the direction (S11). The acquisition unit 101 does not have to acquire the detection result of surrounding objects, the distance information, and the line-of-sight direction at the same time, and may acquire each at different timings.

次に、第一算出部102は、周囲のオブジェクトの検出結果に基づいて、周囲のオブジェクトのうち、虚像I1を重畳させる第一オブジェクトを決定し、距離情報を用いて車両300から第一オブジェクトまでの第一距離を算出する(S12)。 Next, the first calculation unit 102 determines the first object on which the virtual image I1 is superimposed among the surrounding objects based on the detection result of the surrounding objects, and uses the distance information from the vehicle 300 to the first object. The first distance of is calculated (S12).

次に、第二算出部103は、距離情報および視線方向を用いて、車両300から、周囲のオブジェクトのうちの視線方向における第二オブジェクトまでの第二距離を算出する(S13)。 Next, the second calculation unit 103 calculates the second distance from the vehicle 300 to the second object in the line-of-sight direction among the surrounding objects by using the distance information and the line-of-sight direction (S13).

次に、決定部104は、虚像I1をユーザに視認させる奥行き方向における奥行き位置を、算出された第一距離d1および第二距離d2に応じて決定する(S14)。具体的には、決定部104は、第二距離d2に応じた関係情報をメモリから読み出して、第一距離d1が読み出した関係情報で対応付けられている虚像距離を特定し、車両300から、特定した虚像距離だけ離れた位置を奥行き位置として決定する。 Next, the determination unit 104 determines the depth position in the depth direction in which the virtual image I1 is visually recognized by the user according to the calculated first distance d1 and second distance d2 (S14). Specifically, the determination unit 104 reads the relational information corresponding to the second distance d2 from the memory, identifies the virtual image distance associated with the relational information read by the first distance d1, and sets the virtual image distance from the vehicle 300. A position separated by the specified virtual image distance is determined as the depth position.

次に、制御部105は、決定部104により決定された奥行き位置、かつ、第一オブジェクトに重なる位置において虚像I1がユーザに視認されるように表示装置10を制御することで、虚像I1を表示装置10に表示する(S15)。 Next, the control unit 105 displays the virtual image I1 by controlling the display device 10 so that the virtual image I1 can be visually recognized by the user at the depth position determined by the determination unit 104 and the position overlapping the first object. Displayed on the device 10 (S15).

ステップS15が終わると、ステップS11に戻り、ステップS11〜S15の処理が繰り返し行われる。 When step S15 is completed, the process returns to step S11, and the processes of steps S11 to S15 are repeated.

つまり、取得部101は、車両300の周囲のオブジェクトの検出結果、車両300から周囲のオブジェクトまでの距離を示す距離情報、および、ドライバの視線方向を逐次取得する。第一算出部102は、逐次取得された検出結果および距離情報に基づいて、第一距離d1を逐次算出する。第二算出部103は、逐次取得された距離情報および視線方向に基づいて、第二距離d2を逐次算出する。決定部104は、逐次算出された第一距離d1および第二距離d2に基づいて、奥行き位置を逐次決定する。制御部105は、逐次決定された奥行き位置、かつ、第一オブジェクトに重なる位置において虚像I1がユーザに視認されるように表示装置10を制御する。これにより、虚像I1を表示させる奥行き位置をリアルタイムに制御することができる。 That is, the acquisition unit 101 sequentially acquires the detection result of the objects around the vehicle 300, the distance information indicating the distance from the vehicle 300 to the surrounding objects, and the line-of-sight direction of the driver. The first calculation unit 102 sequentially calculates the first distance d1 based on the detection results and the distance information sequentially acquired. The second calculation unit 103 sequentially calculates the second distance d2 based on the sequentially acquired distance information and the line-of-sight direction. The determination unit 104 sequentially determines the depth position based on the sequentially calculated first distance d1 and second distance d2. The control unit 105 controls the display device 10 so that the virtual image I1 can be visually recognized by the user at the sequentially determined depth position and the position overlapping the first object. Thereby, the depth position for displaying the virtual image I1 can be controlled in real time.

この場合、決定部104は、ステップS14の代わりに図8に示す処理を行ってもよい。 In this case, the determination unit 104 may perform the process shown in FIG. 8 instead of step S14.

図8は、決定部による決定処理の他の一例を示すフローチャートである。 FIG. 8 is a flowchart showing another example of the determination process by the determination unit.

決定部104は、ステップS14で説明した処理と同様に、虚像I1をユーザに視認させる奥行き方向における奥行き位置を、算出された第一距離d1および第二距離d2に応じて決定する(S21)。 Similar to the process described in step S14, the determination unit 104 determines the depth position in the depth direction in which the virtual image I1 is visually recognized by the user according to the calculated first distance d1 and second distance d2 (S21).

次に、決定部104は、メモリから前回決定した奥行き位置を読み出して、前回決定した奥行き位置と、ステップS21で決定した奥行き位置との差が第二閾値Δd4以上であるか否かを判定する(S22)。 Next, the determination unit 104 reads the previously determined depth position from the memory, and determines whether or not the difference between the previously determined depth position and the depth position determined in step S21 is the second threshold value Δd4 or more. (S22).

決定部104は、当該差が第二閾値Δd4以上である場合(S22でYes)、前回決定した奥行き位置と、ステップS21で決定した奥行き位置との間の位置を、奥行き位置として決定する補正を行う(S23)。 When the difference is equal to or greater than the second threshold value Δd4 (Yes in S22), the determination unit 104 corrects the position between the previously determined depth position and the depth position determined in step S21 as the depth position. Do (S23).

決定部104は、ステップS23が行われた場合には補正された奥行き位置を制御部105に出力し、かつ、メモリに記憶する。また、決定部104は、ステップS23が行われていない場合には補正されていないステップS21で決定された奥行き位置を制御部105に出力し、かつ、メモリに記憶する(S24)。 When step S23 is performed, the determination unit 104 outputs the corrected depth position to the control unit 105 and stores it in the memory. Further, the determination unit 104 outputs the depth position determined in step S21, which is not corrected when step S23 is not performed, to the control unit 105 and stores it in the memory (S24).

このように、決定部104は、第一タイミングで決定した第一奥行き位置と、第一タイミングより前の第二タイミングで決定した第二奥行き位置との差が第二閾値Δd4以上である場合、第一奥行き位置と第二奥行き位置との間の位置を、第一タイミングの奥行き位置として決定する。このため、奥行き位置の経時的な変化が大きくならないように虚像I1を表示することができる。 As described above, when the difference between the first depth position determined at the first timing and the second depth position determined at the second timing before the first timing is greater than or equal to the second threshold value Δd4, the determination unit 104 determines. The position between the first depth position and the second depth position is determined as the depth position of the first timing. Therefore, the virtual image I1 can be displayed so that the change in the depth position with time does not become large.

[3.効果など]
本実施の形態に係る表示制御装置50は、車両300に設けられ、スクリーン上に投影された画像をユーザに虚像I1として認識させる表示装置10を制御する。表示制御装置50は、取得部101と、第一算出部102と、第二算出部103と、決定部104と、制御部105とを備える。取得部101は、車両300の周囲のオブジェクトの検出結果と、車両から周囲のオブジェクトまでの距離を示す距離情報と、ユーザの視線方向とを取得する。第一算出部102は、検出結果に基づいて、周囲のオブジェクトのうち、虚像I1を重畳させる第一オブジェクトを決定し、距離情報を用いて車両300から第一オブジェクトまでの第一距離d1を算出する。第二算出部103は、距離情報および視線方向を用いて、車両300から、周囲のオブジェクトのうちの視線方向における第二オブジェクトまでの第二距離d2を算出する。決定部104は、虚像I1をユーザに視認させる奥行き方向における奥行き位置を、車両300から第一距離d1離れた第一位置P1と、第二距離d2離れた第二位置P2との間の第三位置P3に決定する。制御部105は、決定された奥行き位置、かつ、第一オブジェクトに重なる位置において虚像I1がユーザに視認されるように表示装置10を制御する。
[3. Effect etc.]
The display control device 50 according to the present embodiment controls the display device 10 provided on the vehicle 300 and causing the user to recognize the image projected on the screen as a virtual image I1. The display control device 50 includes an acquisition unit 101, a first calculation unit 102, a second calculation unit 103, a determination unit 104, and a control unit 105. The acquisition unit 101 acquires the detection result of the objects around the vehicle 300, the distance information indicating the distance from the vehicle to the surrounding objects, and the line-of-sight direction of the user. Based on the detection result, the first calculation unit 102 determines the first object on which the virtual image I1 is superimposed among the surrounding objects, and calculates the first distance d1 from the vehicle 300 to the first object using the distance information. To do. The second calculation unit 103 calculates the second distance d2 from the vehicle 300 to the second object in the line-of-sight direction among the surrounding objects by using the distance information and the line-of-sight direction. The determination unit 104 sets the depth position in the depth direction so that the user can visually recognize the virtual image I1 between the first position P1 which is the first distance d1 away from the vehicle 300 and the second position P2 which is the second distance d2 away. Determined at position P3. The control unit 105 controls the display device 10 so that the virtual image I1 can be visually recognized by the user at a determined depth position and a position overlapping the first object.

これによれば、奥行き方向において、虚像I1を重畳させる第一オブジェクトまでの第一距離d1に基づく第一位置P1と、ユーザの視線方向にある第二オブジェクトまでの第二距離d2に基づく第二位置P2との間の位置に、虚像I1をユーザに視認させる奥行き位置を決定する。つまり、第一位置P1から第二位置P2に近づいた位置に奥行き位置を決定することができる。このため、ユーザの視線における焦点位置に近い位置に虚像I1を表示することができ、ユーザは、焦点移動にかかる時間を短縮することができる。よって、ユーザに虚像I1を視認させるまでの時間を短縮することができる。 According to this, in the depth direction, the first position P1 based on the first distance d1 to the first object on which the virtual image I1 is superimposed and the second based on the second distance d2 to the second object in the user's line-of-sight direction. At a position between the position P2 and the position P2, a depth position for making the virtual image I1 visible to the user is determined. That is, the depth position can be determined at a position closer to the second position P2 from the first position P1. Therefore, the virtual image I1 can be displayed at a position close to the focal position in the line of sight of the user, and the user can shorten the time required for the focus movement. Therefore, it is possible to shorten the time until the user visually recognizes the virtual image I1.

また、本実施の形態に係る表示制御装置50において、決定部104は、第一距離d1と第二距離d2との差が第一閾値Δd1以上である場合、第一位置P1および第二位置P2の間の予め定められた固定位置を奥行き位置として決定する。 Further, in the display control device 50 according to the present embodiment, when the difference between the first distance d1 and the second distance d2 is equal to or greater than the first threshold value Δd1, the determination unit 104 determines the first position P1 and the second position P2. A predetermined fixed position between the two is determined as the depth position.

このため、第一位置P1が第二位置P2から第一閾値Δd1以上離れている場合、第一位置P1よりも第二位置P2に近い位置に虚像I1を表示することができる。 Therefore, when the first position P1 is separated from the second position P2 by the first threshold value Δd1 or more, the virtual image I1 can be displayed at a position closer to the second position P2 than the first position P1.

また、本実施の形態に係る表示制御装置50において、決定部104は、第一距離d1と第二距離d2との差が第一閾値Δd1以上である場合、固定距離Δd2だけ第一位置P1よりも第二位置P2に近い位置を奥行き位置として決定する。 Further, in the display control device 50 according to the present embodiment, when the difference between the first distance d1 and the second distance d2 is equal to or greater than the first threshold value Δd1, the determination unit 104 sets the fixed distance Δd2 from the first position P1. Also determines the position close to the second position P2 as the depth position.

このため、第一位置P1が第二位置P2から第一閾値Δd1以上離れている場合、第一位置P1を基準とした位置に虚像I1を表示することができる。 Therefore, when the first position P1 is separated from the second position P2 by the first threshold value Δd1 or more, the virtual image I1 can be displayed at a position with reference to the first position P1.

また、本実施の形態に係る表示制御装置50において、決定部104は、第一距離d1と第二距離d2との差が第一閾値Δd1以上である場合、当該差が大きくなるほど長い距離だけ第一位置P1よりも第二位置P2に近い位置を奥行き位置として決定する。 Further, in the display control device 50 according to the present embodiment, when the difference between the first distance d1 and the second distance d2 is equal to or greater than the first threshold value Δd1, the determination unit 104 determines that the greater the difference, the longer the distance. A position closer to the second position P2 than the first position P1 is determined as the depth position.

このため、第一位置P1が第二位置P2から第一閾値Δd1以上離れている場合、第一位置P1が第二位置P2から離れるほど第二位置P2に近づく距離が大きくなる位置に、虚像I1を表示することができる。 Therefore, when the first position P1 is separated from the second position P2 by the first threshold value Δd1 or more, the virtual image I1 is located at a position where the distance closer to the second position P2 increases as the first position P1 moves away from the second position P2. Can be displayed.

また、本実施の形態に係る表示制御装置50において、決定部104は、第一距離d1と第二距離d2との差が第一閾値Δd1未満である場合、第一位置P1を奥行き位置として決定する。 Further, in the display control device 50 according to the present embodiment, when the difference between the first distance d1 and the second distance d2 is less than the first threshold value Δd1, the determination unit 104 determines the first position P1 as the depth position. To do.

このため、第一位置P1が第二位置P2から第一閾値Δd1未満しか離れていない場合、第一位置P1に虚像I1を表示することができる。 Therefore, when the first position P1 is separated from the second position P2 by less than the first threshold value Δd1, the virtual image I1 can be displayed at the first position P1.

また、本実施の形態に係る表示制御装置50において、第一閾値Δd1は、第二距離d2が大きいほど大きい値である。このため、第二位置P2を基準とした位置に虚像I1を表示することができる。 Further, in the display control device 50 according to the present embodiment, the first threshold value Δd1 is a larger value as the second distance d2 is larger. Therefore, the virtual image I1 can be displayed at a position based on the second position P2.

[4.変形例]
上記実施の形態に係る表示制御装置50では、決定部104は、第一距離d1が第二距離d2よりも第一閾値Δd1以上短い距離である場合、奥行き位置を第一位置P1と第二位置P2との間の第三位置P3に決定するとしたが、第一距離d1が第二距離d2よりも第一閾値Δd1以上短い距離である場合に限らない。決定部104は、さらに、第一距離d1が第二距離d2よりも第一閾値Δd1以上長い距離である場合、奥行き位置を第一位置P1と第二位置P2との間の第三位置P3に決定してもよい。このように、第一オブジェクトが第二オブジェクトよりも車両300から遠い位置にある場合であっても、虚像I1を表示させる位置を第二オブジェクトの位置を基準とした第二位置P2に近づけるように調整してもよい。また、決定部104は、第一距離d1が第二距離d2よりも第一閾値Δd1以上長い距離である場合のみに、奥行き位置を第一位置P1と第二位置P2との間の第三位置P3に決定してもよい。
[4. Modification example]
In the display control device 50 according to the above embodiment, when the first distance d1 is shorter than the second distance d2 by the first threshold value Δd1 or more, the determination unit 104 sets the depth position to the first position P1 and the second position. Although it is determined that the third position P3 is between P2 and P2, it is not limited to the case where the first distance d1 is shorter than the second distance d2 by the first threshold value Δd1 or more. Further, when the first distance d1 is longer than the second distance d2 by the first threshold value Δd1 or more, the determination unit 104 sets the depth position to the third position P3 between the first position P1 and the second position P2. You may decide. In this way, even when the first object is located farther from the vehicle 300 than the second object, the position where the virtual image I1 is displayed is brought closer to the second position P2 with respect to the position of the second object. You may adjust. Further, the determination unit 104 sets the depth position between the first position P1 and the second position P2 only when the first distance d1 is longer than the second distance d2 by the first threshold value Δd1 or more. It may be decided to P3.

上記実施の形態に係る表示制御装置50では、決定部104は、第一距離d1と第二距離d2との差が第一閾値Δd1以上である場合、第一オブジェクトに重畳させる虚像I1の奥行き位置を、車両300から第一位置P1と第二位置P2との間の第三位置P3に決定するとしたが、これに限らない。決定部104は、上記の決定処理を、第一オブジェクトが車両300に脅威を与えるオブジェクトである場合のみに、行ってもよい。このように、決定部104は、上記の決定処理を第一オブジェクトの種類が特定の種類である場合のみに、行ってもよい。車両300に脅威を与えるオブジェクトとは、例えば、車両300の走行経路上を車両300の前方において横切ると推定される人または物体である。また、決定部104は、上記の決定処理を、第一オブジェクトの位置P1が危険な場所上にある場合のみに、行ってもよい。危険な場所は、例えば、事故が発生する可能性がある道路上の一部の領域、車両300の進行方向上の領域などである。 In the display control device 50 according to the above embodiment, the determination unit 104 determines the depth position of the virtual image I1 superimposed on the first object when the difference between the first distance d1 and the second distance d2 is equal to or greater than the first threshold value Δd1. Is determined to be the third position P3 between the first position P1 and the second position P2 from the vehicle 300, but the present invention is not limited to this. The determination unit 104 may perform the above determination process only when the first object is an object that threatens the vehicle 300. As described above, the determination unit 104 may perform the above determination process only when the type of the first object is a specific type. The object that poses a threat to the vehicle 300 is, for example, a person or an object that is presumed to cross the traveling path of the vehicle 300 in front of the vehicle 300. Further, the determination unit 104 may perform the above determination process only when the position P1 of the first object is on a dangerous place. Dangerous places are, for example, some areas on the road where an accident may occur, areas in the direction of travel of the vehicle 300, and the like.

上記実施の形態に係る表示装置10は、移動体の一例として車両300に設けられるとしたが、これに限らずに、他の乗り物に設けられてもよい。また、移動体は、人であってもよい。移動体が人である場合、表示装置10は、例えば、HMD(Head Mounted Display)であってもよい。この場合、HMDは、映像表示システム100を備える。第一カメラ20は、HMDを装着している人の顔の画像を撮像する。第二カメラ30は、HMDを装着している人の周囲の画像を撮像する。距離センサ40は、HMDを装着している人の周囲のオブジェクトまでの距離を検出する。 Although the display device 10 according to the above embodiment is provided in the vehicle 300 as an example of the moving body, the display device 10 is not limited to this and may be provided in another vehicle. Moreover, the moving body may be a person. When the moving body is a person, the display device 10 may be, for example, an HMD (Head Mounted Display). In this case, the HMD includes a video display system 100. The first camera 20 captures an image of the face of a person wearing the HMD. The second camera 30 captures an image of the surroundings of the person wearing the HMD. The distance sensor 40 detects the distance to an object around the person wearing the HMD.

なお、上記各実施の形態において、各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPUまたはプロセッサなどのプログラム実行部が、ハードディスクまたは半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。ここで、上記各実施の形態の表示制御装置50などを実現するソフトウェアは、次のようなプログラムである。 In each of the above embodiments, each component may be configured by dedicated hardware or may be realized by executing a software program suitable for each component. Each component may be realized by a program execution unit such as a CPU or a processor reading and executing a software program recorded on a recording medium such as a hard disk or a semiconductor memory. Here, the software that realizes the display control device 50 and the like according to each of the above embodiments is the following program.

すなわち、このプログラムは、コンピュータに、移動体に設けられ、スクリーン上に投影された画像をユーザに虚像として視認させる表示装置を制御する表示制御方法であって、前記移動体の周囲のオブジェクトの検出結果を取得し、前記移動体から前記周囲のオブジェクトまでの距離を示す距離情報を取得し、前記ユーザの視線方向を取得し、前記検出結果に基づいて、前記周囲のオブジェクトのうち、前記虚像を重畳させる第一オブジェクトを決定し、前記距離情報を用いて前記移動体から前記第一オブジェクトまでの第一距離を算出し、前記距離情報および前記視線方向を用いて、前記移動体から、前記周囲のオブジェクトのうちの前記視線方向における第二オブジェクトまでの第二距離を算出し、前記虚像を前記ユーザに視認させる奥行き方向における奥行き位置を、前記移動体から前記第一距離離れた第一位置と、前記第二距離離れた第二位置との間の第三位置に決定し、決定された前記奥行き位置、かつ、前記第一オブジェクトに重なる位置において前記虚像が前記ユーザに視認されるように前記表示装置を制御する表示制御方法を実行させる。 That is, this program is a display control method for controlling a display device provided on a moving body on a computer to allow a user to visually recognize an image projected on the screen as a virtual image, and detects objects around the moving body. The result is acquired, the distance information indicating the distance from the moving object to the surrounding object is acquired, the line-of-sight direction of the user is acquired, and the virtual image of the surrounding objects is obtained based on the detection result. The first object to be superposed is determined, the first distance from the moving body to the first object is calculated using the distance information, and the distance information and the line-of-sight direction are used from the moving body to the surroundings. The second distance to the second object in the line-of-sight direction of the object is calculated, and the depth position in the depth direction at which the virtual image is visually recognized by the user is set to the first position separated from the moving body by the first distance. The virtual image is visually recognized by the user at the determined depth position and the position overlapping the first object, which is determined at the third position between the second position and the second position separated by the second distance. Execute the display control method that controls the display device.

以上、本発明の一つまたは複数の態様に係る表示制御装置および表示制御方法について、実施の形態に基づいて説明したが、本発明は、この実施の形態に限定されるものではない。本発明の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施したものや、異なる実施の形態における構成要素を組み合わせて構築される形態も、本発明の一つまたは複数の態様の範囲内に含まれてもよい。 Although the display control device and the display control method according to one or more aspects of the present invention have been described above based on the embodiments, the present invention is not limited to the embodiments. As long as it does not deviate from the gist of the present invention, one or more of the present embodiments may be modified by those skilled in the art, or may be constructed by combining components in different embodiments. It may be included within the scope of the embodiment.

本開示は、ユーザに虚像を視認させるまでの時間を短縮することができる表示制御装置などとして有用である。 The present disclosure is useful as a display control device or the like that can shorten the time until the user visually recognizes a virtual image.

10 表示装置
20 第一カメラ
30 第二カメラ
40 距離センサ
50 表示制御装置
100 映像表示システム
101 取得部
102 第一算出部
103 第二算出部
104 決定部
105 制御部
201 ウインドシールド
301 ダッシュボード
10 Display device 20 First camera 30 Second camera 40 Distance sensor 50 Display control device 100 Video display system 101 Acquisition unit 102 First calculation unit 103 Second calculation unit 104 Decision unit 105 Control unit 201 Windshield 301 Dashboard

Claims (9)

移動体に設けられ、スクリーン上に投影された画像をユーザに虚像として視認させる表示装置を制御する表示制御装置であって、
前記移動体の周囲のオブジェクトの検出結果と、前記移動体から前記周囲のオブジェクトまでの距離を示す距離情報と、前記ユーザの視線方向とを取得する取得部と、
前記検出結果に基づいて、前記周囲のオブジェクトのうち、前記虚像を重畳させる第一オブジェクトを決定し、前記距離情報を用いて前記移動体から前記第一オブジェクトまでの第一距離を算出する第一算出部と、
前記距離情報および前記視線方向を用いて、前記移動体から、前記周囲のオブジェクトのうちの前記視線方向における第二オブジェクトまでの第二距離を算出する第二算出部と、
前記虚像を前記ユーザに視認させる、奥行き方向における奥行き位置を、前記移動体から前記第一距離離れた第一位置と前記第二距離離れた第二位置との間の第三位置に決定する決定部と、
決定された前記奥行き位置、かつ、前記第一オブジェクトに重なる位置において前記虚像が前記ユーザに視認されるように前記表示装置を制御する制御部と、を備える
表示制御装置。
A display control device provided on a moving body that controls a display device that allows a user to visually recognize an image projected on a screen as a virtual image.
An acquisition unit that acquires a detection result of an object around the moving object, distance information indicating a distance from the moving object to the surrounding object, and a line-of-sight direction of the user.
Based on the detection result, the first object on which the virtual image is superimposed is determined among the surrounding objects, and the first distance from the moving object to the first object is calculated using the distance information. Calculation unit and
A second calculation unit that calculates the second distance from the moving object to the second object in the line-of-sight direction among the surrounding objects by using the distance information and the line-of-sight direction.
A determination to determine the depth position in the depth direction for visualizing the virtual image to the user at a third position between the first position separated by the first distance from the moving body and the second position separated by the second distance. Department and
A display control device including a control unit that controls the display device so that the virtual image can be visually recognized by the user at a determined depth position and a position overlapping the first object.
前記決定部は、前記第一距離と前記第二距離との差が第一閾値以上である場合、前記第一位置および前記第二位置の間の予め定められた固定位置を前記奥行き位置として決定する
請求項1に記載の表示制御装置。
When the difference between the first distance and the second distance is equal to or greater than the first threshold value, the determination unit determines a predetermined fixed position between the first position and the second position as the depth position. The display control device according to claim 1.
前記決定部は、前記第一距離と前記第二距離との差が第一閾値以上である場合、固定距離だけ前記第一位置よりも前記第二位置に近い位置を前記奥行き位置として決定する
請求項1に記載の表示制御装置。
When the difference between the first distance and the second distance is equal to or greater than the first threshold value, the determination unit determines a position closer to the second position than the first position by a fixed distance as the depth position. Item 1. The display control device according to item 1.
前記決定部は、前記第一距離と前記第二距離との差が第一閾値以上である場合、前記差が大きくなるほど長い距離だけ前記第一位置よりも前記第二位置に近い位置を前記奥行き位置として決定する
請求項1に記載の表示制御装置。
When the difference between the first distance and the second distance is equal to or greater than the first threshold value, the determination unit sets a position closer to the second position than the first position by a longer distance as the difference increases. The display control device according to claim 1, wherein the position is determined.
前記決定部は、前記第一距離と前記第二距離との差が前記第一閾値未満である場合、前記第一位置を前記奥行き位置として決定する
請求項2から4のいずれか1項に記載の表示制御装置。
The determination unit according to any one of claims 2 to 4, wherein when the difference between the first distance and the second distance is less than the first threshold value, the first position is determined as the depth position. Display control device.
前記第一閾値は、前記第二距離が大きいほど大きい値である
請求項2から5のいずれか1項に記載の表示制御装置。
The display control device according to any one of claims 2 to 5, wherein the first threshold value is a value larger as the second distance is larger.
前記取得部は、前記検出結果と、前記距離情報と、前記視線方向とを逐次取得し、
前記第一算出部は、逐次取得された前記検出結果および前記距離情報に基づいて、前記第一距離を逐次算出し、
前記第二算出部は、逐次取得された前記距離情報および前記視線方向に基づいて、前記第二距離を逐次算出し、
前記決定部は、逐次算出された前記第一距離および前記第二距離に基づいて、前記奥行き位置を逐次決定し、
前記制御部は、逐次決定された前記奥行き位置、かつ、前記第一オブジェクトに重なる位置において前記虚像が前記ユーザに視認されるように前記表示装置を制御する
請求項1から6のいずれか1項に記載の表示制御装置。
The acquisition unit sequentially acquires the detection result, the distance information, and the line-of-sight direction.
The first calculation unit sequentially calculates the first distance based on the detection result and the distance information acquired sequentially.
The second calculation unit sequentially calculates the second distance based on the distance information and the line-of-sight direction that are sequentially acquired.
The determination unit sequentially determines the depth position based on the first distance and the second distance calculated sequentially.
Any one of claims 1 to 6, wherein the control unit controls the display device so that the virtual image can be visually recognized by the user at the depth position determined sequentially and at the position overlapping the first object. The display control device described in.
前記決定部は、第一タイミングで決定した第一奥行き位置と、前記第一タイミングより前の第二タイミングで決定した第二奥行き位置との差が第二閾値以上である場合、前記第一奥行き位置と前記第二奥行き位置との間の位置を、前記第一タイミングの奥行き位置として決定する
請求項7に記載の表示制御装置。
When the difference between the first depth position determined at the first timing and the second depth position determined at the second timing prior to the first timing is equal to or greater than the second threshold value, the determination unit determines the first depth. The display control device according to claim 7, wherein a position between the position and the second depth position is determined as the depth position of the first timing.
移動体に設けられ、スクリーン上に投影された画像をユーザに虚像として視認させる表示装置を制御する表示制御方法であって、
前記移動体の周囲のオブジェクトの検出結果を取得し、
前記移動体から前記周囲のオブジェクトまでの距離を示す距離情報を取得し、
前記ユーザの視線方向を取得し、
前記検出結果に基づいて、前記周囲のオブジェクトのうち、前記虚像を重畳させる第一オブジェクトを決定し、前記距離情報を用いて前記移動体から前記第一オブジェクトまでの第一距離を算出し、
前記距離情報および前記視線方向を用いて、前記移動体から、前記周囲のオブジェクトのうちの前記視線方向における第二オブジェクトまでの第二距離を算出し、
前記虚像を前記ユーザに視認させる奥行き方向における奥行き位置を、前記移動体から前記第一距離離れた第一位置と、前記第二距離離れた第二位置との間の第三位置に決定し、
決定された前記奥行き位置、かつ、前記第一オブジェクトに重なる位置において前記虚像が前記ユーザに視認されるように前記表示装置を制御する
表示制御方法。
It is a display control method for controlling a display device provided on a moving body and allowing a user to visually recognize an image projected on a screen as a virtual image.
The detection result of the object around the moving body is acquired, and the detection result is obtained.
Obtaining distance information indicating the distance from the moving body to the surrounding object,
Acquire the line-of-sight direction of the user and
Based on the detection result, the first object on which the virtual image is superimposed is determined from the surrounding objects, and the first distance from the moving object to the first object is calculated using the distance information.
Using the distance information and the line-of-sight direction, the second distance from the moving object to the second object in the line-of-sight direction among the surrounding objects is calculated.
The depth position in the depth direction at which the virtual image is visually recognized by the user is determined as a third position between the first position separated from the moving body by the first distance and the second position separated by the second distance.
A display control method for controlling the display device so that the virtual image is visually recognized by the user at a determined depth position and a position overlapping the first object.
JP2019171648A 2019-09-20 2019-09-20 Display control device and display control method Active JP7257623B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019171648A JP7257623B2 (en) 2019-09-20 2019-09-20 Display control device and display control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019171648A JP7257623B2 (en) 2019-09-20 2019-09-20 Display control device and display control method

Publications (2)

Publication Number Publication Date
JP2021046171A true JP2021046171A (en) 2021-03-25
JP7257623B2 JP7257623B2 (en) 2023-04-14

Family

ID=74877581

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019171648A Active JP7257623B2 (en) 2019-09-20 2019-09-20 Display control device and display control method

Country Status (1)

Country Link
JP (1) JP7257623B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019147546A (en) * 2019-03-29 2019-09-05 株式会社リコー Information providing device, information providing method, and control program for providing information
JP2019155960A (en) * 2018-03-07 2019-09-19 矢崎総業株式会社 Display projection device for vehicle

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019155960A (en) * 2018-03-07 2019-09-19 矢崎総業株式会社 Display projection device for vehicle
JP2019147546A (en) * 2019-03-29 2019-09-05 株式会社リコー Information providing device, information providing method, and control program for providing information

Also Published As

Publication number Publication date
JP7257623B2 (en) 2023-04-14

Similar Documents

Publication Publication Date Title
EP2914002B1 (en) Virtual see-through instrument cluster with live video
JP6036065B2 (en) Gaze position detection device and gaze position detection method
JP6304628B2 (en) Display device and display method
JP6559253B2 (en) Method for displaying the surroundings of a vehicle
JPWO2017046937A1 (en) Display device for vehicle and display method for vehicle
KR101769177B1 (en) Apparatus and method for eye tracking
US20230249618A1 (en) Display system and display method
US11034305B2 (en) Image processing device, image display system, and image processing method
WO2015129280A1 (en) Image processing device and image processing method
US7599546B2 (en) Image information processing system, image information processing method, image information processing program, and automobile
US11260856B2 (en) Information display device, information display method, and recording medium
JP6494764B2 (en) Display control device, display device, and display control method
JPWO2020105685A1 (en) Display controls, methods, and computer programs
WO2021132555A1 (en) Display control device, head-up display device, and method
JP6065766B2 (en) Information providing apparatus and information providing method
JP6482431B2 (en) Display control device, display device, and display control method
JP2018022349A (en) Information presentation device
JP7257623B2 (en) Display control device and display control method
WO2023048213A1 (en) Display control device, head-up display device, and display control method
WO2022230995A1 (en) Display control device, head-up display device, and display control method
WO2021200914A1 (en) Display control device, head-up display device, and method
JP2016176983A (en) Head-up display device and display method
JP2020121704A (en) Display control device, head-up display device, method and computer program
WO2023003045A1 (en) Display control device, head-up display device, and display control method
JP2014174091A (en) Information providing device and information providing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220301

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230228

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230320

R151 Written notification of patent or utility model registration

Ref document number: 7257623

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

SZ03 Written request for cancellation of trust registration

Free format text: JAPANESE INTERMEDIATE CODE: R313Z03