JP2021046171A - Display control device and display control method - Google Patents
Display control device and display control method Download PDFInfo
- Publication number
- JP2021046171A JP2021046171A JP2019171648A JP2019171648A JP2021046171A JP 2021046171 A JP2021046171 A JP 2021046171A JP 2019171648 A JP2019171648 A JP 2019171648A JP 2019171648 A JP2019171648 A JP 2019171648A JP 2021046171 A JP2021046171 A JP 2021046171A
- Authority
- JP
- Japan
- Prior art keywords
- distance
- virtual image
- display control
- depth
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 31
- 238000004364 calculation method Methods 0.000 claims abstract description 37
- 238000001514 detection method Methods 0.000 claims abstract description 30
- 210000001508 eye Anatomy 0.000 description 10
- 238000010586 diagram Methods 0.000 description 8
- 238000004590 computer program Methods 0.000 description 3
- 238000010191 image analysis Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Abstract
Description
本開示は、表示制御装置および表示制御方法に関する。 The present disclosure relates to a display control device and a display control method.
特許文献1には、投影される画像の結像位置の遠近の切り替えを段階的に行うことができる車両用ヘッドアップディスプレイが開示されている。
特許文献2には、ドライバの眼から虚像までの表示距離を設定し、設定した表示距離において虚像を表示させる制御を行う車載表示装置が開示されている。 Patent Document 2 discloses an in-vehicle display device that sets a display distance from the driver's eyes to a virtual image and controls the display of the virtual image at the set display distance.
本開示は、ユーザに虚像を視認させるまでの時間を短縮することができる表示制御装置などを提供する。 The present disclosure provides a display control device and the like that can shorten the time until the user visually recognizes a virtual image.
本開示の一態様に係る表示制御装置は、移動体に設けられ、スクリーン上に投影された画像をユーザに虚像として視認させる表示装置を制御する表示制御装置であって、前記移動体の周囲のオブジェクトの検出結果と、前記移動体から前記周囲のオブジェクトまでの距離を示す距離情報と、前記ユーザの視線方向とを取得する取得部と、前記検出結果に基づいて、前記周囲のオブジェクトのうち、前記虚像を重畳させる第一オブジェクトを決定し、前記距離情報を用いて前記移動体から前記第一オブジェクトまでの第一距離を算出する第一算出部と、前記距離情報および前記視線方向を用いて、前記移動体から、前記周囲のオブジェクトのうちの前記視線方向における第二オブジェクトまでの第二距離を算出する第二算出部と、前記虚像を前記ユーザに視認させる、奥行き方向における奥行き位置を、前記移動体から前記第一距離離れた第一位置と前記第二距離離れた第二位置との間の第三位置に決定する決定部と、決定された前記奥行き位置、かつ、前記第一オブジェクトに重なる位置において前記虚像が前記ユーザに視認されるように前記表示装置を制御する制御部と、を備える。 The display control device according to one aspect of the present disclosure is a display control device provided on a moving body and controls a display device that allows a user to visually recognize an image projected on a screen as a virtual image, and is a display control device around the moving body. Among the surrounding objects, based on the detection result of the object, the acquisition unit that acquires the distance information indicating the distance from the moving body to the surrounding object, and the line-of-sight direction of the user, and the detection result. The first calculation unit that determines the first object on which the virtual image is superimposed and calculates the first distance from the moving body to the first object using the distance information, and the distance information and the line-of-sight direction are used. The second calculation unit that calculates the second distance from the moving body to the second object in the line-of-sight direction among the surrounding objects, and the depth position in the depth direction that makes the user visually recognize the virtual image. A determination unit that determines a third position between the first position separated from the moving body by the first distance and the second position separated by the second distance, the determined depth position, and the first object. A control unit that controls the display device so that the virtual image can be visually recognized by the user at a position overlapping the above.
なお、上記の包括的又は具体的な態様は、システム、方法、集積回路、コンピュータプログラム又はコンピュータ読み取り可能なCD−ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。 The above-mentioned comprehensive or specific embodiment may be realized by a recording medium such as a system, a method, an integrated circuit, a computer program, or a computer-readable CD-ROM, and the system, a method, an integrated circuit, or a computer program. And any combination of recording media may be realized.
本開示の表示制御装置によれば、ユーザに虚像を視認させるまでの時間を短縮することができる。 According to the display control device of the present disclosure, it is possible to shorten the time until the user visually recognizes the virtual image.
(本開示の基礎となった知見)
上述したように、特許文献1および2では、ユーザの視線方向において、ユーザに虚像を視認させる位置を変更することができる、3次元拡張現実ヘッドアップディスプレイ(3D−AR−HUD)と呼ばれる表示装置が開示されている。このような3D−AR−HUDは、例えば車両に搭載され、車両の前方を横切る歩行者がいることを、虚像を表示することで当該車両のユーザ(ドライバ)に通知することができる。このように、3D−AR−HUDでは、ユーザに情報を通知するための虚像を表示することで、ユーザによる車両の運転を支援することができる。
(Knowledge on which this disclosure was based)
As described above, in
しかしながら、このような3D−AR−HUDでは、ユーザの視線方向において、当該ユーザが眼の焦点を合わせて注視している位置(以下、焦点位置とも言う)から所定距離以上離れた位置に虚像を表示する場合、ユーザは、眼の焦点を合わせるための焦点移動に時間がかかるため、表示された虚像を視認するまでに多くの時間を要してしまう。このため、ユーザは、リアルタイムに虚像による通知の支援を受けることが難しい。 However, in such a 3D-AR-HUD, a virtual image is displayed at a position separated by a predetermined distance or more from the position where the user focuses his eyes and gazes (hereinafter, also referred to as a focal position) in the direction of the user's line of sight. In the case of display, the user takes a lot of time to visually recognize the displayed virtual image because it takes time to move the focus for focusing the eyes. For this reason, it is difficult for the user to receive support for notification by a virtual image in real time.
このような課題を解決するために、本開示の一態様に係る表示制御装置は、移動体に設けられ、スクリーン上に投影された画像をユーザに虚像として視認させる表示装置を制御する表示制御装置であって、前記移動体の周囲のオブジェクトの検出結果と、前記移動体から前記周囲のオブジェクトまでの距離を示す距離情報と、前記ユーザの視線方向とを取得する取得部と、前記検出結果に基づいて、前記周囲のオブジェクトのうち、前記虚像を重畳させる第一オブジェクトを決定し、前記距離情報を用いて前記移動体から前記第一オブジェクトまでの第一距離を算出する第一算出部と、前記距離情報および前記視線方向を用いて、前記移動体から、前記周囲のオブジェクトのうちの前記視線方向における第二オブジェクトまでの第二距離を算出する第二算出部と、前記虚像を前記ユーザに視認させる、奥行き方向における奥行き位置を、前記移動体から前記第一距離離れた第一位置と前記第二距離離れた第二位置との間の第三位置に決定する決定部と、決定された前記奥行き位置、かつ、前記第一オブジェクトに重なる位置において前記虚像が前記ユーザに視認されるように前記表示装置を制御する制御部と、を備える。 In order to solve such a problem, the display control device according to one aspect of the present disclosure is a display control device provided on a moving body and controlling a display device that allows a user to visually recognize an image projected on a screen as a virtual image. The acquisition unit that acquires the detection result of the object around the moving body, the distance information indicating the distance from the moving body to the surrounding object, and the line-of-sight direction of the user, and the detection result. Based on this, the first calculation unit that determines the first object on which the virtual image is superimposed among the surrounding objects and calculates the first distance from the moving body to the first object using the distance information. Using the distance information and the line-of-sight direction, a second calculation unit that calculates the second distance from the moving body to the second object in the line-of-sight direction among the surrounding objects, and the virtual image to the user. It was determined as a determination unit that determines the depth position in the depth direction to be visually recognized as a third position between the first position separated from the moving body by the first distance and the second position separated by the second distance. It includes a control unit that controls the display device so that the virtual image can be visually recognized by the user at the depth position and the position overlapping the first object.
これによれば、奥行き方向において、虚像を重畳させる第一オブジェクトまでの第一距離に基づく第一位置と、ユーザの視線方向にある第二オブジェクトまでの第二距離に基づく第二位置との間の位置に、虚像をユーザに視認させる奥行き位置を決定する。つまり、第一位置から第二位置に近づいた位置に奥行き位置を決定することができる。このため、ユーザの視線における焦点位置に近い位置に虚像を表示することができ、ユーザは、焦点移動にかかる時間を短縮することができる。よって、ユーザに虚像を視認させるまでの時間を短縮することができる。 According to this, in the depth direction, between the first position based on the first distance to the first object on which the virtual image is superimposed and the second position based on the second distance to the second object in the user's line-of-sight direction. At the position of, the depth position at which the virtual image is visually recognized by the user is determined. That is, the depth position can be determined from the first position to the position closer to the second position. Therefore, the virtual image can be displayed at a position close to the focal position in the user's line of sight, and the user can shorten the time required for the focus movement. Therefore, it is possible to shorten the time until the user visually recognizes the virtual image.
また、前記決定部は、前記第一距離と前記第二距離との差が第一閾値以上である場合、前記第一位置および前記第二位置の間の予め定められた固定位置を前記奥行き位置として決定してもよい。 Further, when the difference between the first distance and the second distance is equal to or greater than the first threshold value, the determination unit sets a predetermined fixed position between the first position and the second position as the depth position. May be determined as.
このため、第一位置が第二位置から第一閾値以上離れている場合、第一位置よりも第二位置に近い位置に虚像を表示することができる。 Therefore, when the first position is separated from the second position by the first threshold value or more, the virtual image can be displayed at a position closer to the second position than the first position.
また、前記決定部は、前記第一距離と前記第二距離との差が第一閾値以上である場合、固定距離だけ前記第一位置よりも前記第二位置に近い位置を前記奥行き位置として決定してもよい。 Further, when the difference between the first distance and the second distance is equal to or greater than the first threshold value, the determination unit determines a position closer to the second position than the first position by a fixed distance as the depth position. You may.
このため、第一位置が第二位置から第一閾値以上離れている場合、第一位置を基準とした位置に虚像を表示することができる。 Therefore, when the first position is separated from the second position by the first threshold value or more, the virtual image can be displayed at the position with reference to the first position.
また、前記決定部は、前記第一距離と前記第二距離との差が第一閾値以上である場合、前記差が大きくなるほど長い距離だけ前記第一位置よりも前記第二位置に近い位置を前記奥行き位置として決定してもよい。 Further, when the difference between the first distance and the second distance is equal to or greater than the first threshold value, the determination unit sets a position closer to the second position than the first position by a longer distance as the difference increases. It may be determined as the depth position.
このため、第一位置が第二位置から第一閾値以上離れている場合、第一位置が第二位置から離れるほど第二位置に近づく距離が大きくなる位置に、虚像を表示することができる。 Therefore, when the first position is separated from the second position by the first threshold value or more, the virtual image can be displayed at a position where the distance closer to the second position increases as the first position moves away from the second position.
また、前記決定部は、前記第一距離と前記第二距離との差が前記第一閾値未満である場合、前記第一位置を前記奥行き位置として決定してもよい。 Further, when the difference between the first distance and the second distance is less than the first threshold value, the determination unit may determine the first position as the depth position.
このため、第一位置が第二位置から第一閾値未満しか離れていない場合、第一位置に虚像を表示することができる。 Therefore, when the first position is less than the first threshold value from the second position, a virtual image can be displayed at the first position.
また、前記第一閾値は、前記第二距離が大きいほど大きい値であってもよい。 Further, the first threshold value may be a larger value as the second distance is larger.
このため、第二位置を基準とした位置に虚像を表示することができる。 Therefore, the virtual image can be displayed at a position based on the second position.
また、前記取得部は、前記検出結果と、前記距離情報と、前記視線方向とを逐次取得し、前記第一算出部は、逐次取得された前記検出結果および前記距離情報に基づいて、前記第一距離を逐次算出し、前記第二算出部は、逐次取得された前記距離情報および前記視線方向に基づいて、前記第二距離を逐次算出し、前記決定部は、逐次算出された前記第一距離および前記第二距離に基づいて、前記奥行き位置を逐次決定し、前記制御部は、逐次決定された前記奥行き位置、かつ、前記第一オブジェクトに重なる位置において前記虚像が前記ユーザに視認されるように前記表示装置を制御してもよい。 Further, the acquisition unit sequentially acquires the detection result, the distance information, and the line-of-sight direction, and the first calculation unit sequentially acquires the detection result and the distance information, and the first calculation unit obtains the detection result and the distance information. One distance is sequentially calculated, the second calculation unit sequentially calculates the second distance based on the sequentially acquired distance information and the line-of-sight direction, and the determination unit sequentially calculates the first. The depth position is sequentially determined based on the distance and the second distance, and the control unit visually recognizes the virtual image at the sequentially determined depth position and the position overlapping the first object. The display device may be controlled as described above.
このため、リアルタイムに虚像を表示させる奥行き位置を制御することができる。 Therefore, it is possible to control the depth position for displaying the virtual image in real time.
また、前記決定部は、第一タイミングで決定した第一奥行き位置と、前記第一タイミングより前の第二タイミングで決定した第二奥行き位置との差が第二閾値以上である場合、前記第一奥行き位置と前記第二奥行き位置との間の位置を、前記第一タイミングの奥行き位置として決定してもよい。 Further, when the difference between the first depth position determined at the first timing and the second depth position determined at the second timing prior to the first timing is equal to or greater than the second threshold value, the determination unit determines the first depth position. The position between the one depth position and the second depth position may be determined as the depth position of the first timing.
このため、奥行き位置の経時的な変化が大きくならないように虚像を表示することができる。 Therefore, the virtual image can be displayed so that the change in the depth position with time does not become large.
なお、表示装置の包括的又は具体的な態様は、システム、方法、集積回路、コンピュータプログラム又はコンピュータ読み取り可能なCD−ROM等の記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラム又は記録媒体の任意な組み合わせで実現されてもよい。 A comprehensive or specific embodiment of the display device may be realized by a recording medium such as a system, a method, an integrated circuit, a computer program, or a computer-readable CD-ROM, and the system, the method, the integrated circuit, or the computer. It may be realized by any combination of programs or recording media.
以下、実施の形態に係る表示制御装置および表示制御方法を、図面を参照しつつ説明する。なお、以下で説明される実施の形態に係る表示装置は、包括的又は具体的な例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置および接続形態、ステップ、並びにステップの順序等は、一例であり、本開示を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。 Hereinafter, the display control device and the display control method according to the embodiment will be described with reference to the drawings. The display device according to the embodiment described below shows a comprehensive or specific example. Numerical values, shapes, materials, components, arrangement positions and connection forms of components, steps, order of steps, etc. shown in the following embodiments are examples, and are not intended to limit the present disclosure. Further, among the components in the following embodiments, the components not described in the independent claims indicating the highest level concept are described as arbitrary components.
(実施の形態)
[1.構成]
図1は、本実施の形態における映像表示システム100の使用例を示す図である。
(Embodiment)
[1. Constitution]
FIG. 1 is a diagram showing a usage example of the
本実施の形態における映像表示システム100は、表示装置10と、第一カメラ20と、第二カメラ30と、距離センサ40と、表示制御装置50とを備える。
The
表示装置10は、車載用のヘッドアップディスプレイ(HUD)として構成され、車両300のダッシュボード301の上面付近に取り付けられる。車両300は、移動体の一例である。
The
この表示装置10は、表示媒体であるウインドシールド(フロントガラス)201の表示領域R1に光を投射する。投射された光はそのウインドシールド201によって反射される。この反射光は、表示装置10のユーザである運転席に座るドライバの目に向かう。ドライバは、目に入ったその反射光を、ウインドシールド201越しに見える実際にある物を背景に、ウインドシールド201の反対側(車外側)に見える虚像I1として捉える。つまり、表示装置10はウインドシールド201を用いて虚像I1を表示する。
The
第一カメラ20は、ドライバの顔の画像を撮像するカメラである。第一カメラ20は、例えば、ウインドシールド201の上方に車両300の後方に向かう姿勢で配置され、運転席のドライバの顔が位置する領域を撮像対象とする。第一カメラ20は、異なる複数のタイミングでドライバの顔を含む画像を撮像する。具体的には、第一カメラ20は、所定の周期(例えば1/20〔秒〕、1/30〔秒〕、1/60〔秒〕など)で、ドライバの顔を含む画像を撮像する。なお、第一カメラ20は、ドライバの目を含む画像を撮像していればよく、ウインドシールド201の上方に配置されることに限らない。
The
第二カメラ30は、車両300の周囲の画像を撮像するカメラである。第二カメラ30は、具体的には、車両300の前側に前方に向かう姿勢で配置され、車両300の前方の画像を撮像する。第二カメラ30は、異なる複数のタイミングで車両300の前方の画像を撮像する。具体的には、第二カメラ30は、所定の周期(例えば1/20〔秒〕、1/30〔秒〕、1/60〔秒〕など)で、車両300の前方の画像を撮像する。なお、第二カメラ30は、車両300の周囲の画像を撮像すればよく、車両300の前方に限らずに、車両300の右側の画像を撮像してもよいし、車両300の左側の画像を撮像してもよいし、車両300の後方の画像を撮像してもよいし、これらの画像を組み合わせてもよい。
The
第一カメラ20および第二カメラ30は、画像として、静止画を撮像してもよいし、動画を撮像してもよい。
The
距離センサ40は、車両300の周囲のオブジェクトまでの距離を検出するセンサである。距離センサ40は、例えば、車両300の360度の周囲のオブジェクトまでの距離を検出するLiDAR(Light Detection and Ranging)である。なお、距離センサ40は、LiDARに限らずに、ミリ波センサであってもよいし、ステレオカメラであってもよいし、TOF(Time Of Flight)カメラであってもよいし、。
The
表示制御装置50は、第一カメラ20、第二カメラ30および距離センサ40により得られた検出結果、または、検出結果を用いた表示制御装置50による処理結果を用いて、表示装置10に表示させる画像を生成し、生成した画像を虚像として表示装置10に表示させる。表示制御装置50は、プロセッサ、および、プログラムを格納しているメモリにより構成されていてもよいし、専用回路により構成されていてもよい。
The
表示装置10は、表示制御装置50により出力された画像を、虚像として表示する。
The
図2は、本実施の形態における表示装置10によって光が投射される領域であるD1の一例を示す図である。
FIG. 2 is a diagram showing an example of D1 which is a region where light is projected by the
図2が示すように、ダッシュボード301に取り付けられた表示装置10は例えば、光をウインドシールド201の運転席側下寄りに位置する表示領域R1(図中破線で囲まれた領域)に投射する。これにより、運転席に座るドライバから見てウインドシールド201の反対側(車外側)に見える虚像I1が表示される。
As shown in FIG. 2, the
図3は、本実施の形態における表示制御装置の機能構成の一例を示すブロック図である。 FIG. 3 is a block diagram showing an example of the functional configuration of the display control device according to the present embodiment.
表示制御装置50は、機能構成として、取得部101と、第一算出部102と、第二算出部103と、決定部104と、制御部105とを備える。
The
取得部101は、ユーザの視線方向を取得する。取得部101は、具体的には、第一カメラ20において撮像された複数の画像であって、ドライバの目(眼球)が撮像された複数の画像を取得し、取得した複数の画像に対して所定の画像解析(アイトラッキング)を行うことで、ドライバの視線方向を検出する。このように、取得部101は、第一カメラ20により撮像された画像を用いて、ドライバの視線方向を取得する。
The
取得部101は、車両300の周囲のオブジェクトの検出結果を取得する。具体的には、取得部101は、第二カメラ30により撮像された画像を取得し、取得した画像を用いて所定の画像解析を行うことで、車両300の周囲のオブジェクトを検出する。より具体的には、取得部101は、車両300の前方(側方または後方)における複数の撮像動画に対して所定の動画解析を行うことで、歩行者、他の車両(自転車、バイクなどを含む)、その他の物体の当該車両に対する相対的な位置(つまり、車両300からの距離および方向)を検出してもよい。あるいは、取得部101は、歩行者、他の車両(自転車、バイクなどを含む)、その他の物体の当該車両300に対する相対的な位置と相対的な動きである運動分布を検出してもよい。
The
なお、取得部101は、車両300の走行経路上にある人または物体、あるいは、車両300の走行経路上を車両300の前方において横切ると推定される人または物体に絞り込んでもよい。また、取得部101は、ドライバの視野内に含まれると推定される全ての人または物体(建物、構造物などを含む)を周辺対象物として認識してもよい。
The
以上のように、取得部101は、第二カメラ30により撮像された画像を用いて、車両300の周囲のオブジェクトの検出結果を取得する。
As described above, the
また、取得部101は、距離センサ40から、車両300から周囲のオブジェクトまでの距離を示す距離情報を取得する。距離情報は、車両300の周囲の複数の方向のそれぞれにおける、周囲のオブジェクトまでの距離を示す情報である。つまり、距離情報は、複数の方向にそれぞれ対応する複数の距離を示す情報である。
Further, the
なお、取得部101は、第一カメラ20により撮像された画像を用いて、ドライバの視線方向を検出する処理を行うとしたが、これに限らない。ドライバの視線方向を検出する処理は、表示制御装置50とは別の装置が行ってもよい。この場合、取得部101は、別の装置により検出されたドライバの視線方向を取得する。
The
また、取得部101は、第二カメラ30により撮像された画像を用いて、車両300の周囲のオブジェクトを検出する処理を行うとしたが、これに限らずに、周囲のオブジェクトを検出する処理は、表示制御装置50とは別の装置が行ってもよい。この場合、取得部101は、別の装置による周囲のオブジェクトの検出結果を取得する。
Further, the
第一算出部102は、取得部101により取得された、周囲のオブジェクトの検出結果に基づいて、周囲のオブジェクトのうち、虚像を重畳させる第一オブジェクトを決定する。第一算出部102は、例えば、車両300の走行経路上を車両300の前方において横切ると推定される人または物体を、虚像を重畳させる第一オブジェクトとして決定してもよい。また、第一算出部102は、例えば、車両300の前方を走行している他の車両を、虚像を重畳させる第一オブジェクトとして決定してもよい。また、第一算出部102は、例えば、カーナビゲーションシステムなどでユーザにより設定された、車両300の移動の目的地の建物を、虚像を重畳させる第一オブジェクトとして決定してもよい。
The
そして、第一算出部102は、取得部101により取得された距離情報を用いて、車両300から第一オブジェクトまでの第一距離を算出する。具体的には、第一算出部102は、第一オブジェクトを決定することで、車両300に対する第一オブジェクトの方向を特定する。次に、第一算出部102は、距離情報が示す複数の方向における複数の距離の中から、特定した第一オブジェクトの方向の距離を特定することで、第一距離を算出する。
Then, the
第二算出部103は、距離情報および視線方向を用いて、車両300から、周囲のオブジェクトのうちの視線方向における第二オブジェクトまでの第二距離を算出する。つまり、第二算出部103は、ドライバが焦点を合わせて注視していると推測される第二オブジェクトまでの第二距離を算出することで、ドライバの眼の焦点位置を推測している。これは、人は、視線方向におけるオブジェクトを注視していることが多いと考えられ、注視しているオブジェクトに対して眼の焦点を合わせていると考えられるからである。
The
ここで、図4を用いて具体的に説明する。図4は、走行中の車両の一場面を示す図であり、上方から見た平面図である。図4では、車両300を走行中に、前方右側に他の車両320が走行しており、前方左側に歩行者310が車両300の前方を横切ろうとしている場面が図示されている。
Here, a specific description will be given with reference to FIG. FIG. 4 is a view showing a scene of a moving vehicle, and is a plan view seen from above. FIG. 4 shows a scene in which another vehicle 320 is traveling on the front right side while the
表示制御装置50では、第一算出部102は、例えば、車両300の前方を横切ろうとしている歩行者310を第一オブジェクトとして決定し、距離情報が示す複数の距離うちで、車両300から歩行者310への方向である第一方向D1における距離を、車両300から歩行者310までの第一距離d1として算出する。
In the
ところで、車両300のドライバは、車両320に視線を向けており車両320を注視している。このため、表示制御装置50では、第二算出部103は、車両320を第二オブジェクトとして認識し、距離情報が示す複数の距離のうちで、車両300から第二方向D2における距離を、車両300から車両320までの第二距離d2として算出する。
By the way, the driver of the
なお、第一オブジェクトと第二オブジェクトとは、視線方向から見た場合、異なる位置に位置する。つまり、ユーザから第一オブジェクトを見た場合の第一方向D1と、ユーザから第二オブジェクトを見た場合の第二方向D2とは、異なる方向である。 The first object and the second object are located at different positions when viewed from the line-of-sight direction. That is, the first direction D1 when the user sees the first object and the second direction D2 when the user sees the second object are different directions.
決定部104は、虚像I1をユーザに視認させる奥行き方向における奥行き位置を、車両300から第一距離d1離れた第一位置P1と、第二距離d2離れた第二位置P2との間の第三位置P3に決定する。具体的には、決定部104は、第一距離d1と第二距離d2との差が第一閾値Δd1以上である場合、奥行き位置を第三位置P3に決定する。一方で、決定部104は、第一距離d1と第二距離d2との差が第一閾値Δd1未満である場合、第一位置P1を奥行き位置として決定する。
The
なお、第二位置P2は、ドライバの位置P11を中心とする半径が第二距離d2の円c1と、第一方向D1とが交差する位置に決定される。虚像I1は、第一オブジェクトに重畳して表示させるため、第三位置P3は、第一方向D1上の位置に配置される。 The second position P2 is determined at a position where the circle c1 having a radius centered on the driver position P11 and the first direction D1 intersect. Since the virtual image I1 is superimposed on the first object and displayed, the third position P3 is arranged at a position on the first direction D1.
図5Aは、決定部の奥行き位置を決定する決定処理の第一の例を説明するためのグラフである。図5Aのグラフは、第二距離を1つの値に固定した場合の、第一距離と、車両から奥行き位置までの虚像距離との関係を示す。 FIG. 5A is a graph for explaining a first example of the determination process for determining the depth position of the determination unit. The graph of FIG. 5A shows the relationship between the first distance and the virtual image distance from the vehicle to the depth position when the second distance is fixed to one value.
第一の例では、決定部104は、第一距離d1と第二距離d2との差が第一閾値Δd1以上である場合、第一位置P1および第二位置P2の間の予め定められた固定位置を奥行き位置として決定する。例えば、決定部104は、第一距離d1が第二距離d2よりも第一閾値Δd1以上短い距離である場合、つまり、車両300から距離d11までの間に第一オブジェクトが位置する場合、虚像I1を表示する奥行き方向の位置を、車両300から距離d11だけ離れた位置に決定する。なお、距離d11は、例えば、第二距離d2よりも第一閾値Δd1だけ短い距離である。
In the first example, the
図5Bは、決定部の奥行き位置を決定する決定処理の第二の例を説明するためのグラフである。図5Bのグラフは、図5Aのグラフと同様に、第二距離を1つの値に固定した場合の、第一距離と、車両から奥行き位置までの虚像距離との関係を示す。 FIG. 5B is a graph for explaining a second example of the determination process for determining the depth position of the determination unit. Similar to the graph of FIG. 5A, the graph of FIG. 5B shows the relationship between the first distance and the virtual image distance from the vehicle to the depth position when the second distance is fixed to one value.
第二の例では、決定部104は、第一距離d1と第二距離d2との差が第一閾値Δd1以上である場合、固定距離Δd2だけ第一位置P1よりも第二位置P2に近い位置を奥行き位置として決定する。例えば、決定部104は、第一距離d1が第二距離d2よりも第一閾値Δd1以上短い距離である場合、つまり、車両300から距離d11までの間に第一オブジェクトが位置する場合、虚像I1を表示する奥行き方向の位置を、車両300から、第一距離d1に固定距離Δd2を加算した距離だけ離れた位置に決定する。なお、第一距離d1に固定距離Δd2を加算した距離が、第二距離d2よりも第一閾値Δd1だけ短い距離d11である場合、決定部104は、車両300から距離d11だけ離れた位置を、虚像I1を表示する奥行き方向の位置として決定する。
In the second example, when the difference between the first distance d1 and the second distance d2 is equal to or greater than the first threshold value Δd1, the
図5Cは、決定部の奥行き位置を決定する決定処理の第三の例を説明するためのグラフである。図5Cのグラフは、図5Aおよび図5Bのグラフと同様に、第二距離を1つの値に固定した場合の、第一距離と、車両から奥行き位置までの虚像距離との関係を示す。 FIG. 5C is a graph for explaining a third example of the determination process for determining the depth position of the determination unit. Similar to the graphs of FIGS. 5A and 5B, the graph of FIG. 5C shows the relationship between the first distance and the virtual image distance from the vehicle to the depth position when the second distance is fixed to one value.
第三の例では、決定部104は、第一距離d1と第二距離d2との差が第一閾値Δd1以上である場合、当該差が大きくなるほど長い距離だけ第一位置P1よりも第二位置P2に近い位置を奥行き位置として決定する。例えば、決定部104は、第一距離d1が第二距離d2よりも第一閾値Δd1以上短い距離である場合、つまり、車両300から距離d11までの間に第一オブジェクトが位置する場合、虚像I1を表示する奥行き方向の位置を、車両300から、第一距離d1に、第一距離d1が短くなるほど大きくなる距離Δd3を加算した距離だけ離れた位置に決定する。
In the third example, when the difference between the first distance d1 and the second distance d2 is equal to or greater than the first threshold value Δd1, the
なお、例えば、第一距離および奥行き位置の関係を示す関係情報は、第二距離毎に異なっており、図示しないメモリは、第二距離毎に異なる複数の関係情報を記憶していてもよい。この場合、決定部104は、第二算出部103により算出された第二距離d2に応じて、算出された第二距離d2に対応する関係情報をメモリから読み出して、読み出した関係情報を用いて奥行き位置を決定する。例えば、複数の関係情報では、第一閾値Δd1は、第二距離が大きいほど大きい値に設定されている。
For example, the relationship information indicating the relationship between the first distance and the depth position is different for each second distance, and a memory (not shown) may store a plurality of different relationship information for each second distance. In this case, the
制御部105は、決定部104により決定された奥行き位置、かつ、第一オブジェクトに重なる位置において虚像I1がユーザに視認されるように表示装置10を制御する。具体的には、制御部105は、虚像I1を表示させるための画像と、虚像I1を表示させる位置を示す位置情報とを表示装置10に出力し、虚像I1を位置情報で示される位置に表示させるように表示装置10を制御する。なお、虚像I1を表示させる位置は、第一オブジェクトと重なる位置、および、奥行き位置を含む。虚像I1は、例えば、図6に示されるように歩行者310に重畳されて表示される。なお、図6は、ドライバからの虚像I1の見え方を説明するための図である。
The
表示装置10は、制御部105により出力された、画像および位置情報に基づいて、画像に基づく虚像I1を、位置情報で示される位置に表示する。これにより、表示装置10は、虚像I1を位置情報で示される位置でユーザに視認させることができる。
The
[2.動作]
次に、表示制御装置50の動作について説明する。
[2. motion]
Next, the operation of the
図7は、本実施の形態における表示制御装置の動作を説明するためのフローチャートである。 FIG. 7 is a flowchart for explaining the operation of the display control device according to the present embodiment.
図7に示されるように、表示制御装置50では、まず、取得部101が、車両300の周囲のオブジェクトの検出結果、車両300から周囲のオブジェクトまでの距離を示す距離情報、および、ドライバの視線方向を取得する(S11)。なお、取得部101は、周囲のオブジェクトの検出結果、距離情報および視線方向を同時に取得しなくてもよく、それぞれを異なるタイミングで取得してもよい。
As shown in FIG. 7, in the
次に、第一算出部102は、周囲のオブジェクトの検出結果に基づいて、周囲のオブジェクトのうち、虚像I1を重畳させる第一オブジェクトを決定し、距離情報を用いて車両300から第一オブジェクトまでの第一距離を算出する(S12)。
Next, the
次に、第二算出部103は、距離情報および視線方向を用いて、車両300から、周囲のオブジェクトのうちの視線方向における第二オブジェクトまでの第二距離を算出する(S13)。
Next, the
次に、決定部104は、虚像I1をユーザに視認させる奥行き方向における奥行き位置を、算出された第一距離d1および第二距離d2に応じて決定する(S14)。具体的には、決定部104は、第二距離d2に応じた関係情報をメモリから読み出して、第一距離d1が読み出した関係情報で対応付けられている虚像距離を特定し、車両300から、特定した虚像距離だけ離れた位置を奥行き位置として決定する。
Next, the
次に、制御部105は、決定部104により決定された奥行き位置、かつ、第一オブジェクトに重なる位置において虚像I1がユーザに視認されるように表示装置10を制御することで、虚像I1を表示装置10に表示する(S15)。
Next, the
ステップS15が終わると、ステップS11に戻り、ステップS11〜S15の処理が繰り返し行われる。 When step S15 is completed, the process returns to step S11, and the processes of steps S11 to S15 are repeated.
つまり、取得部101は、車両300の周囲のオブジェクトの検出結果、車両300から周囲のオブジェクトまでの距離を示す距離情報、および、ドライバの視線方向を逐次取得する。第一算出部102は、逐次取得された検出結果および距離情報に基づいて、第一距離d1を逐次算出する。第二算出部103は、逐次取得された距離情報および視線方向に基づいて、第二距離d2を逐次算出する。決定部104は、逐次算出された第一距離d1および第二距離d2に基づいて、奥行き位置を逐次決定する。制御部105は、逐次決定された奥行き位置、かつ、第一オブジェクトに重なる位置において虚像I1がユーザに視認されるように表示装置10を制御する。これにより、虚像I1を表示させる奥行き位置をリアルタイムに制御することができる。
That is, the
この場合、決定部104は、ステップS14の代わりに図8に示す処理を行ってもよい。
In this case, the
図8は、決定部による決定処理の他の一例を示すフローチャートである。 FIG. 8 is a flowchart showing another example of the determination process by the determination unit.
決定部104は、ステップS14で説明した処理と同様に、虚像I1をユーザに視認させる奥行き方向における奥行き位置を、算出された第一距離d1および第二距離d2に応じて決定する(S21)。
Similar to the process described in step S14, the
次に、決定部104は、メモリから前回決定した奥行き位置を読み出して、前回決定した奥行き位置と、ステップS21で決定した奥行き位置との差が第二閾値Δd4以上であるか否かを判定する(S22)。
Next, the
決定部104は、当該差が第二閾値Δd4以上である場合(S22でYes)、前回決定した奥行き位置と、ステップS21で決定した奥行き位置との間の位置を、奥行き位置として決定する補正を行う(S23)。
When the difference is equal to or greater than the second threshold value Δd4 (Yes in S22), the
決定部104は、ステップS23が行われた場合には補正された奥行き位置を制御部105に出力し、かつ、メモリに記憶する。また、決定部104は、ステップS23が行われていない場合には補正されていないステップS21で決定された奥行き位置を制御部105に出力し、かつ、メモリに記憶する(S24)。
When step S23 is performed, the
このように、決定部104は、第一タイミングで決定した第一奥行き位置と、第一タイミングより前の第二タイミングで決定した第二奥行き位置との差が第二閾値Δd4以上である場合、第一奥行き位置と第二奥行き位置との間の位置を、第一タイミングの奥行き位置として決定する。このため、奥行き位置の経時的な変化が大きくならないように虚像I1を表示することができる。
As described above, when the difference between the first depth position determined at the first timing and the second depth position determined at the second timing before the first timing is greater than or equal to the second threshold value Δd4, the
[3.効果など]
本実施の形態に係る表示制御装置50は、車両300に設けられ、スクリーン上に投影された画像をユーザに虚像I1として認識させる表示装置10を制御する。表示制御装置50は、取得部101と、第一算出部102と、第二算出部103と、決定部104と、制御部105とを備える。取得部101は、車両300の周囲のオブジェクトの検出結果と、車両から周囲のオブジェクトまでの距離を示す距離情報と、ユーザの視線方向とを取得する。第一算出部102は、検出結果に基づいて、周囲のオブジェクトのうち、虚像I1を重畳させる第一オブジェクトを決定し、距離情報を用いて車両300から第一オブジェクトまでの第一距離d1を算出する。第二算出部103は、距離情報および視線方向を用いて、車両300から、周囲のオブジェクトのうちの視線方向における第二オブジェクトまでの第二距離d2を算出する。決定部104は、虚像I1をユーザに視認させる奥行き方向における奥行き位置を、車両300から第一距離d1離れた第一位置P1と、第二距離d2離れた第二位置P2との間の第三位置P3に決定する。制御部105は、決定された奥行き位置、かつ、第一オブジェクトに重なる位置において虚像I1がユーザに視認されるように表示装置10を制御する。
[3. Effect etc.]
The
これによれば、奥行き方向において、虚像I1を重畳させる第一オブジェクトまでの第一距離d1に基づく第一位置P1と、ユーザの視線方向にある第二オブジェクトまでの第二距離d2に基づく第二位置P2との間の位置に、虚像I1をユーザに視認させる奥行き位置を決定する。つまり、第一位置P1から第二位置P2に近づいた位置に奥行き位置を決定することができる。このため、ユーザの視線における焦点位置に近い位置に虚像I1を表示することができ、ユーザは、焦点移動にかかる時間を短縮することができる。よって、ユーザに虚像I1を視認させるまでの時間を短縮することができる。 According to this, in the depth direction, the first position P1 based on the first distance d1 to the first object on which the virtual image I1 is superimposed and the second based on the second distance d2 to the second object in the user's line-of-sight direction. At a position between the position P2 and the position P2, a depth position for making the virtual image I1 visible to the user is determined. That is, the depth position can be determined at a position closer to the second position P2 from the first position P1. Therefore, the virtual image I1 can be displayed at a position close to the focal position in the line of sight of the user, and the user can shorten the time required for the focus movement. Therefore, it is possible to shorten the time until the user visually recognizes the virtual image I1.
また、本実施の形態に係る表示制御装置50において、決定部104は、第一距離d1と第二距離d2との差が第一閾値Δd1以上である場合、第一位置P1および第二位置P2の間の予め定められた固定位置を奥行き位置として決定する。
Further, in the
このため、第一位置P1が第二位置P2から第一閾値Δd1以上離れている場合、第一位置P1よりも第二位置P2に近い位置に虚像I1を表示することができる。 Therefore, when the first position P1 is separated from the second position P2 by the first threshold value Δd1 or more, the virtual image I1 can be displayed at a position closer to the second position P2 than the first position P1.
また、本実施の形態に係る表示制御装置50において、決定部104は、第一距離d1と第二距離d2との差が第一閾値Δd1以上である場合、固定距離Δd2だけ第一位置P1よりも第二位置P2に近い位置を奥行き位置として決定する。
Further, in the
このため、第一位置P1が第二位置P2から第一閾値Δd1以上離れている場合、第一位置P1を基準とした位置に虚像I1を表示することができる。 Therefore, when the first position P1 is separated from the second position P2 by the first threshold value Δd1 or more, the virtual image I1 can be displayed at a position with reference to the first position P1.
また、本実施の形態に係る表示制御装置50において、決定部104は、第一距離d1と第二距離d2との差が第一閾値Δd1以上である場合、当該差が大きくなるほど長い距離だけ第一位置P1よりも第二位置P2に近い位置を奥行き位置として決定する。
Further, in the
このため、第一位置P1が第二位置P2から第一閾値Δd1以上離れている場合、第一位置P1が第二位置P2から離れるほど第二位置P2に近づく距離が大きくなる位置に、虚像I1を表示することができる。 Therefore, when the first position P1 is separated from the second position P2 by the first threshold value Δd1 or more, the virtual image I1 is located at a position where the distance closer to the second position P2 increases as the first position P1 moves away from the second position P2. Can be displayed.
また、本実施の形態に係る表示制御装置50において、決定部104は、第一距離d1と第二距離d2との差が第一閾値Δd1未満である場合、第一位置P1を奥行き位置として決定する。
Further, in the
このため、第一位置P1が第二位置P2から第一閾値Δd1未満しか離れていない場合、第一位置P1に虚像I1を表示することができる。 Therefore, when the first position P1 is separated from the second position P2 by less than the first threshold value Δd1, the virtual image I1 can be displayed at the first position P1.
また、本実施の形態に係る表示制御装置50において、第一閾値Δd1は、第二距離d2が大きいほど大きい値である。このため、第二位置P2を基準とした位置に虚像I1を表示することができる。
Further, in the
[4.変形例]
上記実施の形態に係る表示制御装置50では、決定部104は、第一距離d1が第二距離d2よりも第一閾値Δd1以上短い距離である場合、奥行き位置を第一位置P1と第二位置P2との間の第三位置P3に決定するとしたが、第一距離d1が第二距離d2よりも第一閾値Δd1以上短い距離である場合に限らない。決定部104は、さらに、第一距離d1が第二距離d2よりも第一閾値Δd1以上長い距離である場合、奥行き位置を第一位置P1と第二位置P2との間の第三位置P3に決定してもよい。このように、第一オブジェクトが第二オブジェクトよりも車両300から遠い位置にある場合であっても、虚像I1を表示させる位置を第二オブジェクトの位置を基準とした第二位置P2に近づけるように調整してもよい。また、決定部104は、第一距離d1が第二距離d2よりも第一閾値Δd1以上長い距離である場合のみに、奥行き位置を第一位置P1と第二位置P2との間の第三位置P3に決定してもよい。
[4. Modification example]
In the
上記実施の形態に係る表示制御装置50では、決定部104は、第一距離d1と第二距離d2との差が第一閾値Δd1以上である場合、第一オブジェクトに重畳させる虚像I1の奥行き位置を、車両300から第一位置P1と第二位置P2との間の第三位置P3に決定するとしたが、これに限らない。決定部104は、上記の決定処理を、第一オブジェクトが車両300に脅威を与えるオブジェクトである場合のみに、行ってもよい。このように、決定部104は、上記の決定処理を第一オブジェクトの種類が特定の種類である場合のみに、行ってもよい。車両300に脅威を与えるオブジェクトとは、例えば、車両300の走行経路上を車両300の前方において横切ると推定される人または物体である。また、決定部104は、上記の決定処理を、第一オブジェクトの位置P1が危険な場所上にある場合のみに、行ってもよい。危険な場所は、例えば、事故が発生する可能性がある道路上の一部の領域、車両300の進行方向上の領域などである。
In the
上記実施の形態に係る表示装置10は、移動体の一例として車両300に設けられるとしたが、これに限らずに、他の乗り物に設けられてもよい。また、移動体は、人であってもよい。移動体が人である場合、表示装置10は、例えば、HMD(Head Mounted Display)であってもよい。この場合、HMDは、映像表示システム100を備える。第一カメラ20は、HMDを装着している人の顔の画像を撮像する。第二カメラ30は、HMDを装着している人の周囲の画像を撮像する。距離センサ40は、HMDを装着している人の周囲のオブジェクトまでの距離を検出する。
Although the
なお、上記各実施の形態において、各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPUまたはプロセッサなどのプログラム実行部が、ハードディスクまたは半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。ここで、上記各実施の形態の表示制御装置50などを実現するソフトウェアは、次のようなプログラムである。
In each of the above embodiments, each component may be configured by dedicated hardware or may be realized by executing a software program suitable for each component. Each component may be realized by a program execution unit such as a CPU or a processor reading and executing a software program recorded on a recording medium such as a hard disk or a semiconductor memory. Here, the software that realizes the
すなわち、このプログラムは、コンピュータに、移動体に設けられ、スクリーン上に投影された画像をユーザに虚像として視認させる表示装置を制御する表示制御方法であって、前記移動体の周囲のオブジェクトの検出結果を取得し、前記移動体から前記周囲のオブジェクトまでの距離を示す距離情報を取得し、前記ユーザの視線方向を取得し、前記検出結果に基づいて、前記周囲のオブジェクトのうち、前記虚像を重畳させる第一オブジェクトを決定し、前記距離情報を用いて前記移動体から前記第一オブジェクトまでの第一距離を算出し、前記距離情報および前記視線方向を用いて、前記移動体から、前記周囲のオブジェクトのうちの前記視線方向における第二オブジェクトまでの第二距離を算出し、前記虚像を前記ユーザに視認させる奥行き方向における奥行き位置を、前記移動体から前記第一距離離れた第一位置と、前記第二距離離れた第二位置との間の第三位置に決定し、決定された前記奥行き位置、かつ、前記第一オブジェクトに重なる位置において前記虚像が前記ユーザに視認されるように前記表示装置を制御する表示制御方法を実行させる。 That is, this program is a display control method for controlling a display device provided on a moving body on a computer to allow a user to visually recognize an image projected on the screen as a virtual image, and detects objects around the moving body. The result is acquired, the distance information indicating the distance from the moving object to the surrounding object is acquired, the line-of-sight direction of the user is acquired, and the virtual image of the surrounding objects is obtained based on the detection result. The first object to be superposed is determined, the first distance from the moving body to the first object is calculated using the distance information, and the distance information and the line-of-sight direction are used from the moving body to the surroundings. The second distance to the second object in the line-of-sight direction of the object is calculated, and the depth position in the depth direction at which the virtual image is visually recognized by the user is set to the first position separated from the moving body by the first distance. The virtual image is visually recognized by the user at the determined depth position and the position overlapping the first object, which is determined at the third position between the second position and the second position separated by the second distance. Execute the display control method that controls the display device.
以上、本発明の一つまたは複数の態様に係る表示制御装置および表示制御方法について、実施の形態に基づいて説明したが、本発明は、この実施の形態に限定されるものではない。本発明の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施したものや、異なる実施の形態における構成要素を組み合わせて構築される形態も、本発明の一つまたは複数の態様の範囲内に含まれてもよい。 Although the display control device and the display control method according to one or more aspects of the present invention have been described above based on the embodiments, the present invention is not limited to the embodiments. As long as it does not deviate from the gist of the present invention, one or more of the present embodiments may be modified by those skilled in the art, or may be constructed by combining components in different embodiments. It may be included within the scope of the embodiment.
本開示は、ユーザに虚像を視認させるまでの時間を短縮することができる表示制御装置などとして有用である。 The present disclosure is useful as a display control device or the like that can shorten the time until the user visually recognizes a virtual image.
10 表示装置
20 第一カメラ
30 第二カメラ
40 距離センサ
50 表示制御装置
100 映像表示システム
101 取得部
102 第一算出部
103 第二算出部
104 決定部
105 制御部
201 ウインドシールド
301 ダッシュボード
10
Claims (9)
前記移動体の周囲のオブジェクトの検出結果と、前記移動体から前記周囲のオブジェクトまでの距離を示す距離情報と、前記ユーザの視線方向とを取得する取得部と、
前記検出結果に基づいて、前記周囲のオブジェクトのうち、前記虚像を重畳させる第一オブジェクトを決定し、前記距離情報を用いて前記移動体から前記第一オブジェクトまでの第一距離を算出する第一算出部と、
前記距離情報および前記視線方向を用いて、前記移動体から、前記周囲のオブジェクトのうちの前記視線方向における第二オブジェクトまでの第二距離を算出する第二算出部と、
前記虚像を前記ユーザに視認させる、奥行き方向における奥行き位置を、前記移動体から前記第一距離離れた第一位置と前記第二距離離れた第二位置との間の第三位置に決定する決定部と、
決定された前記奥行き位置、かつ、前記第一オブジェクトに重なる位置において前記虚像が前記ユーザに視認されるように前記表示装置を制御する制御部と、を備える
表示制御装置。 A display control device provided on a moving body that controls a display device that allows a user to visually recognize an image projected on a screen as a virtual image.
An acquisition unit that acquires a detection result of an object around the moving object, distance information indicating a distance from the moving object to the surrounding object, and a line-of-sight direction of the user.
Based on the detection result, the first object on which the virtual image is superimposed is determined among the surrounding objects, and the first distance from the moving object to the first object is calculated using the distance information. Calculation unit and
A second calculation unit that calculates the second distance from the moving object to the second object in the line-of-sight direction among the surrounding objects by using the distance information and the line-of-sight direction.
A determination to determine the depth position in the depth direction for visualizing the virtual image to the user at a third position between the first position separated by the first distance from the moving body and the second position separated by the second distance. Department and
A display control device including a control unit that controls the display device so that the virtual image can be visually recognized by the user at a determined depth position and a position overlapping the first object.
請求項1に記載の表示制御装置。 When the difference between the first distance and the second distance is equal to or greater than the first threshold value, the determination unit determines a predetermined fixed position between the first position and the second position as the depth position. The display control device according to claim 1.
請求項1に記載の表示制御装置。 When the difference between the first distance and the second distance is equal to or greater than the first threshold value, the determination unit determines a position closer to the second position than the first position by a fixed distance as the depth position. Item 1. The display control device according to item 1.
請求項1に記載の表示制御装置。 When the difference between the first distance and the second distance is equal to or greater than the first threshold value, the determination unit sets a position closer to the second position than the first position by a longer distance as the difference increases. The display control device according to claim 1, wherein the position is determined.
請求項2から4のいずれか1項に記載の表示制御装置。 The determination unit according to any one of claims 2 to 4, wherein when the difference between the first distance and the second distance is less than the first threshold value, the first position is determined as the depth position. Display control device.
請求項2から5のいずれか1項に記載の表示制御装置。 The display control device according to any one of claims 2 to 5, wherein the first threshold value is a value larger as the second distance is larger.
前記第一算出部は、逐次取得された前記検出結果および前記距離情報に基づいて、前記第一距離を逐次算出し、
前記第二算出部は、逐次取得された前記距離情報および前記視線方向に基づいて、前記第二距離を逐次算出し、
前記決定部は、逐次算出された前記第一距離および前記第二距離に基づいて、前記奥行き位置を逐次決定し、
前記制御部は、逐次決定された前記奥行き位置、かつ、前記第一オブジェクトに重なる位置において前記虚像が前記ユーザに視認されるように前記表示装置を制御する
請求項1から6のいずれか1項に記載の表示制御装置。 The acquisition unit sequentially acquires the detection result, the distance information, and the line-of-sight direction.
The first calculation unit sequentially calculates the first distance based on the detection result and the distance information acquired sequentially.
The second calculation unit sequentially calculates the second distance based on the distance information and the line-of-sight direction that are sequentially acquired.
The determination unit sequentially determines the depth position based on the first distance and the second distance calculated sequentially.
Any one of claims 1 to 6, wherein the control unit controls the display device so that the virtual image can be visually recognized by the user at the depth position determined sequentially and at the position overlapping the first object. The display control device described in.
請求項7に記載の表示制御装置。 When the difference between the first depth position determined at the first timing and the second depth position determined at the second timing prior to the first timing is equal to or greater than the second threshold value, the determination unit determines the first depth. The display control device according to claim 7, wherein a position between the position and the second depth position is determined as the depth position of the first timing.
前記移動体の周囲のオブジェクトの検出結果を取得し、
前記移動体から前記周囲のオブジェクトまでの距離を示す距離情報を取得し、
前記ユーザの視線方向を取得し、
前記検出結果に基づいて、前記周囲のオブジェクトのうち、前記虚像を重畳させる第一オブジェクトを決定し、前記距離情報を用いて前記移動体から前記第一オブジェクトまでの第一距離を算出し、
前記距離情報および前記視線方向を用いて、前記移動体から、前記周囲のオブジェクトのうちの前記視線方向における第二オブジェクトまでの第二距離を算出し、
前記虚像を前記ユーザに視認させる奥行き方向における奥行き位置を、前記移動体から前記第一距離離れた第一位置と、前記第二距離離れた第二位置との間の第三位置に決定し、
決定された前記奥行き位置、かつ、前記第一オブジェクトに重なる位置において前記虚像が前記ユーザに視認されるように前記表示装置を制御する
表示制御方法。 It is a display control method for controlling a display device provided on a moving body and allowing a user to visually recognize an image projected on a screen as a virtual image.
The detection result of the object around the moving body is acquired, and the detection result is obtained.
Obtaining distance information indicating the distance from the moving body to the surrounding object,
Acquire the line-of-sight direction of the user and
Based on the detection result, the first object on which the virtual image is superimposed is determined from the surrounding objects, and the first distance from the moving object to the first object is calculated using the distance information.
Using the distance information and the line-of-sight direction, the second distance from the moving object to the second object in the line-of-sight direction among the surrounding objects is calculated.
The depth position in the depth direction at which the virtual image is visually recognized by the user is determined as a third position between the first position separated from the moving body by the first distance and the second position separated by the second distance.
A display control method for controlling the display device so that the virtual image is visually recognized by the user at a determined depth position and a position overlapping the first object.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019171648A JP7257623B2 (en) | 2019-09-20 | 2019-09-20 | Display control device and display control method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019171648A JP7257623B2 (en) | 2019-09-20 | 2019-09-20 | Display control device and display control method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021046171A true JP2021046171A (en) | 2021-03-25 |
JP7257623B2 JP7257623B2 (en) | 2023-04-14 |
Family
ID=74877581
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019171648A Active JP7257623B2 (en) | 2019-09-20 | 2019-09-20 | Display control device and display control method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7257623B2 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019147546A (en) * | 2019-03-29 | 2019-09-05 | 株式会社リコー | Information providing device, information providing method, and control program for providing information |
JP2019155960A (en) * | 2018-03-07 | 2019-09-19 | 矢崎総業株式会社 | Display projection device for vehicle |
-
2019
- 2019-09-20 JP JP2019171648A patent/JP7257623B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019155960A (en) * | 2018-03-07 | 2019-09-19 | 矢崎総業株式会社 | Display projection device for vehicle |
JP2019147546A (en) * | 2019-03-29 | 2019-09-05 | 株式会社リコー | Information providing device, information providing method, and control program for providing information |
Also Published As
Publication number | Publication date |
---|---|
JP7257623B2 (en) | 2023-04-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2914002B1 (en) | Virtual see-through instrument cluster with live video | |
JP6036065B2 (en) | Gaze position detection device and gaze position detection method | |
JP6304628B2 (en) | Display device and display method | |
JP6559253B2 (en) | Method for displaying the surroundings of a vehicle | |
JPWO2017046937A1 (en) | Display device for vehicle and display method for vehicle | |
KR101769177B1 (en) | Apparatus and method for eye tracking | |
US20230249618A1 (en) | Display system and display method | |
US11034305B2 (en) | Image processing device, image display system, and image processing method | |
WO2015129280A1 (en) | Image processing device and image processing method | |
US7599546B2 (en) | Image information processing system, image information processing method, image information processing program, and automobile | |
US11260856B2 (en) | Information display device, information display method, and recording medium | |
JP6494764B2 (en) | Display control device, display device, and display control method | |
JPWO2020105685A1 (en) | Display controls, methods, and computer programs | |
WO2021132555A1 (en) | Display control device, head-up display device, and method | |
JP6065766B2 (en) | Information providing apparatus and information providing method | |
JP6482431B2 (en) | Display control device, display device, and display control method | |
JP2018022349A (en) | Information presentation device | |
JP7257623B2 (en) | Display control device and display control method | |
WO2023048213A1 (en) | Display control device, head-up display device, and display control method | |
WO2022230995A1 (en) | Display control device, head-up display device, and display control method | |
WO2021200914A1 (en) | Display control device, head-up display device, and method | |
JP2016176983A (en) | Head-up display device and display method | |
JP2020121704A (en) | Display control device, head-up display device, method and computer program | |
WO2023003045A1 (en) | Display control device, head-up display device, and display control method | |
JP2014174091A (en) | Information providing device and information providing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220301 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230126 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230228 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230320 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7257623 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
SZ03 | Written request for cancellation of trust registration |
Free format text: JAPANESE INTERMEDIATE CODE: R313Z03 |