JP2024033934A - Viewpoint position estimation method and viewpoint position estimation device - Google Patents

Viewpoint position estimation method and viewpoint position estimation device Download PDF

Info

Publication number
JP2024033934A
JP2024033934A JP2022137860A JP2022137860A JP2024033934A JP 2024033934 A JP2024033934 A JP 2024033934A JP 2022137860 A JP2022137860 A JP 2022137860A JP 2022137860 A JP2022137860 A JP 2022137860A JP 2024033934 A JP2024033934 A JP 2024033934A
Authority
JP
Japan
Prior art keywords
marks
user
mark
viewpoint position
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022137860A
Other languages
Japanese (ja)
Inventor
敦次 梶
謙二 丸山
博司 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2022137860A priority Critical patent/JP2024033934A/en
Publication of JP2024033934A publication Critical patent/JP2024033934A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Instrument Panels (AREA)

Abstract

【課題】運転者の視点の位置を検出するカメラを備えていない車両において、運転者の視点の位置を推定することが可能な視点位置推定方法及び視点位置推定装置を提供する。【解決手段】視点位置推定方法及び視点位置推定装置は、車両の運転席に着座するユーザからみて、車両の鉛直方向に沿うように、車両の周囲を透過させる表示領域に複数のマークを表示する。車両のダッシュボードによって遮蔽されずにユーザが視認可能な特定マークを識別する識別情報を、ユーザの操作に基づいて生成し、識別情報に基づいて、ユーザの視点の高さを推定する。【選択図】図1The present invention provides a viewpoint position estimating method and a viewpoint position estimation device that are capable of estimating the position of a driver's viewpoint in a vehicle that is not equipped with a camera for detecting the position of the driver's viewpoint. [Solution] A viewpoint position estimation method and a viewpoint position estimation device display a plurality of marks along the vertical direction of the vehicle in a display area that allows the surroundings of the vehicle to be seen, as seen from a user sitting in a driver's seat of the vehicle. . Identification information for identifying a specific mark that is visible to the user without being obscured by the dashboard of the vehicle is generated based on the user's operation, and the height of the user's viewpoint is estimated based on the identification information. [Selection diagram] Figure 1

Description

本発明は、視点位置推定方法及び視点位置推定装置に関する。 The present invention relates to a viewpoint position estimation method and a viewpoint position estimation device.

特許文献1には、車両の運転者がシートに着座したときの運転者の目の位置の高さの実測値と、車両に設置されたヘッドアップディスプレイ上に表示されるあらかじめ定められた重畳表示の基準位置の高さとの偏差に基づいて、当該偏差が少なくなる方向に運転席のシートの高さを調整する技術が開示されている。 Patent Document 1 discloses the actual measured value of the height of the eye position of the driver of the vehicle when the driver is seated on the seat, and a predetermined superimposed display displayed on a head-up display installed in the vehicle. A technique is disclosed for adjusting the height of the driver's seat based on the deviation from the height of the reference position in a direction that reduces the deviation.

特許第5992130号公報Patent No. 5992130

特許文献1に記載された技術によれば、カメラを使用して、運転席に着座したときの運転者の目の位置の高さの実測値を取得している。そのため、運転者の目の位置を検出するカメラを備えていない車両では、偏差が少なくなる方向に運転席のシートの高さを調整することができないという問題がある。 According to the technique described in Patent Document 1, a camera is used to obtain the actual measured value of the height of the driver's eye position when seated in the driver's seat. Therefore, in a vehicle that is not equipped with a camera that detects the position of the driver's eyes, there is a problem in that the height of the driver's seat cannot be adjusted in a direction that reduces the deviation.

本発明は、上記問題に鑑みてなされたものである。その目的とするところは、運転者の視点の位置を検出するカメラを備えていない車両において、運転者の視点の位置を推定することが可能な視点位置推定方法及び視点位置推定装置を提供することにある。 The present invention has been made in view of the above problems. The purpose is to provide a viewpoint position estimation method and a viewpoint position estimation device that are capable of estimating the position of the driver's viewpoint in a vehicle that is not equipped with a camera for detecting the position of the driver's viewpoint. It is in.

上述した課題を解決するために、本発明の一態様に係る視点位置推定方法及び視点位置推定装置は、車両の運転席に着座するユーザからみて、車両の鉛直方向に沿うように、車両の周囲を透過させる表示領域に複数のマークを表示する。車両のダッシュボードによって遮蔽されずにユーザが視認可能な特定マークを識別する識別情報を、ユーザの操作に基づいて生成し、識別情報に基づいて、ユーザの視点の高さを推定する。 In order to solve the above-mentioned problems, a viewpoint position estimation method and a viewpoint position estimation device according to one aspect of the present invention provide a viewpoint position estimation method and a viewpoint position estimation device that detect the surroundings of the vehicle along the vertical direction of the vehicle as seen from a user sitting in the driver's seat of the vehicle. Display multiple marks in a display area that is transparent. Identification information for identifying a specific mark that is visible to the user without being obscured by the dashboard of the vehicle is generated based on the user's operation, and the height of the user's viewpoint is estimated based on the identification information.

本発明によれば、運転者の視点の位置を検出するカメラを備えていない車両において、運転者の視点の位置を推定することができる。 According to the present invention, the position of the driver's viewpoint can be estimated in a vehicle that is not equipped with a camera that detects the position of the driver's viewpoint.

図1は、本発明の一実施形態に係る視点位置推定装置の構成を示すブロック図である。FIG. 1 is a block diagram showing the configuration of a viewpoint position estimation device according to an embodiment of the present invention. 図2は、本発明の一実施形態に係る視点位置推定装置の処理を示すフローチャートである。FIG. 2 is a flowchart showing the processing of the viewpoint position estimation device according to an embodiment of the present invention. 図3は、ユーザの視点、ダッシュボード、表示領域の推定用位置、及び、虚像の間の位置関係を示す模式図である。FIG. 3 is a schematic diagram showing the positional relationship among the user's viewpoint, the dashboard, the estimated position of the display area, and the virtual image. 図4は、表示領域に表示されるマークの第1の例を示す図である。FIG. 4 is a diagram showing a first example of marks displayed in the display area. 図5は、表示領域に表示されるマークの第2の例を示す図である。FIG. 5 is a diagram showing a second example of marks displayed in the display area.

次に、図面を参照して、本発明の実施の形態を詳細に説明する。説明において、同一のものには同一符号を付して重複説明を省略する。 Next, embodiments of the present invention will be described in detail with reference to the drawings. In the description, the same parts are given the same reference numerals and redundant description will be omitted.

[視点位置推定装置の構成]
図1を参照して、本実施形態に係る視点位置推定装置の構成例を説明する。図1に示すように、視点位置推定装置は、一例として車両に搭載される。図1に示すように、視点位置推定装置は、表示部21と、操作部25と、コントローラ100とを備える。
[Configuration of viewpoint position estimation device]
A configuration example of a viewpoint position estimating device according to this embodiment will be described with reference to FIG. 1. As shown in FIG. 1, the viewpoint position estimating device is mounted on a vehicle, for example. As shown in FIG. 1, the viewpoint position estimation device includes a display section 21, an operation section 25, and a controller 100.

表示部21は、コントローラ100と接続され、車両の運転席又はその他の車両の座席から視認可能なように車両の周囲を透過させる表示領域23を有する。表示領域23には、コントローラ100によって生成したAR(Augmented Reality)ガイド(画像)が表示される。したがって、表示領域23には、車両の周囲の風景に重畳してARガイドが表示される。 The display unit 21 is connected to the controller 100 and has a display area 23 that allows the surroundings of the vehicle to be transmitted through so that it can be viewed from the driver's seat of the vehicle or other vehicle seats. In the display area 23, an AR (Augmented Reality) guide (image) generated by the controller 100 is displayed. Therefore, in the display area 23, the AR guide is displayed superimposed on the scenery around the vehicle.

表示部21によって提示されるARガイドは、例えば、車両の目的地までの誘導経路、道路地図、車両の現在位置、車両と目的地との間に点在するユーザの興味のある場所であるPOIなどを表現するものである。 The AR guide presented by the display unit 21 includes, for example, a guide route to the vehicle's destination, a road map, the vehicle's current position, and POIs that are places of interest to the user scattered between the vehicle and the destination. It expresses things such as.

例えば、表示部21は、ヘッドアップディスプレイ装置である。表示領域23は、車両のウィンドシールドWS(フロントガラス)における所定の領域であって、プロジェクターPJから表示領域23にARガイドが投射されてユーザにARガイドが提示されるものであってもよい。その結果、ユーザは、ウィンドシールドWS越しに見える車両の周囲の風景に重畳されたARガイドを視認することになる。 For example, the display unit 21 is a head-up display device. The display area 23 is a predetermined area on the windshield WS (windshield) of the vehicle, and the AR guide may be projected onto the display area 23 from the projector PJ to present the AR guide to the user. As a result, the user visually recognizes the AR guide superimposed on the scenery around the vehicle seen through the windshield WS.

コントローラ100からの指示により、プロジェクターPJから表示領域23にARガイド等を投射する際の光線の角度が変更可能に構成され、ウィンドシールドWSにおいて表示領域23として使用される領域が切り替え可能であるものとする。より具体的には、図3に示すように、通常使用時においてウィンドシールドWS上の領域RAが表示領域23として使用され、視点位置推定時においてウィンドシールドWS上の領域RTが表示領域23として使用されるものとする。図3において、領域RAは通常使用時の表示領域23の位置(通常位置)を示し、領域RTは視点位置推定時の表示領域23の位置(推定用位置)を示している。 The angle of the light beam when projecting the AR guide or the like from the projector PJ onto the display area 23 can be changed according to instructions from the controller 100, and the area used as the display area 23 in the windshield WS can be switched. shall be. More specifically, as shown in FIG. 3, the area RA on the windshield WS is used as the display area 23 during normal use, and the area RT on the windshield WS is used as the display area 23 during viewpoint position estimation. shall be carried out. In FIG. 3, an area RA indicates the position of the display area 23 during normal use (normal position), and an area RT indicates the position of the display area 23 during viewpoint position estimation (estimated position).

表示領域23の通常位置と比べて、表示領域23の推定用位置は低い位置に設定される。これは、推定用位置にある表示領域23に表示されるマークの一部を、意図的にダッシュボードDBによって隠す状態とするためである。より具体的には、表示領域23が領域RAにある場合、プロジェクターPJから投射された光線が、ダッシュボードDBの開口部OPを通過して表示領域23に到達し、表示領域23で反射されてユーザの目に入射するよう、領域RAが設定される。その結果、表示領域23に表示されるマークの全てがユーザによって視認される状態となる。これに対し、表示領域23が領域RTにある場合、プロジェクターPJから投射された光線の一部が、ダッシュボードDBの開口部OPを通過できずにユーザの目に入射しないよう、領域RTが設定される。その結果、表示領域23に表示されるマークの一部がユーザによって視認されない状態となる。後述するように、ユーザの視点の高さを推定するために、表示領域23に表示されるマークの視認可否の情報を用いる。 Compared to the normal position of the display area 23, the estimated position of the display area 23 is set to a lower position. This is to intentionally hide a part of the mark displayed in the display area 23 at the estimation position by the dashboard DB. More specifically, when the display area 23 is in the area RA, the light beam projected from the projector PJ passes through the opening OP of the dashboard DB, reaches the display area 23, and is reflected by the display area 23. An area RA is set so that the light enters the user's eyes. As a result, all of the marks displayed in the display area 23 are visible to the user. On the other hand, when the display area 23 is in the area RT, the area RT is set so that a part of the light beam projected from the projector PJ cannot pass through the opening OP of the dashboard DB and enters the user's eyes. be done. As a result, a portion of the mark displayed in the display area 23 is not visible to the user. As will be described later, information on whether the mark displayed in the display area 23 is visible is used to estimate the height of the user's viewpoint.

なお、表示部21は、推定用位置にある場合に、運転席に着座するユーザからみて車両の鉛直方向に沿うように、表示領域23に複数のマークを表示する。ここで、複数のマークは、ウィンドシールドWS越しに見える車両の周囲の風景に重畳して表示されるARガイドである。例えば、図3に示すように、複数のマークは、車両の前方の空間に浮いているように見える、虚像(マークM1~M5)であってもよい。マークの個数は図3の例に限定されない。 Note that when the display unit 21 is at the estimation position, a plurality of marks are displayed in the display area 23 along the vertical direction of the vehicle as viewed from the user sitting in the driver's seat. Here, the plurality of marks are AR guides that are displayed superimposed on the scenery around the vehicle seen through the windshield WS. For example, as shown in FIG. 3, the plurality of marks may be virtual images (marks M1 to M5) that appear to be floating in the space in front of the vehicle. The number of marks is not limited to the example in FIG. 3.

操作部25は、視点位置推定装置に対するユーザからの各種の指示に対応するユーザの操作を受け付け、コントローラ100に対して各種の指示を特定する情報を送信する。例えば、操作部25は、複数のボタンを備えた入力インターフェイスであってもよいし、タッチインターフェイスを備えたタッチパネルであってもよい。 The operation unit 25 receives user operations corresponding to various user instructions to the viewpoint position estimating device, and transmits information specifying the various instructions to the controller 100. For example, the operation unit 25 may be an input interface with a plurality of buttons, or a touch panel with a touch interface.

より具体的には、絵や記号で表現したアイコンをユーザが操作可能なように表示部21が表示し、表示されたアイコンをユーザがタッチ、ドラッグなどすることで、操作部25はユーザの操作を受け付けるものであってもよい。 More specifically, the display unit 21 displays icons expressed as pictures or symbols so that the user can operate them, and when the user touches or drags the displayed icons, the operation unit 25 allows the user to operate the icons. It may also be one that accepts .

操作部25を介してユーザが行う操作には、種々のものがある。例えば、ユーザの操作は、表示領域23によって表示された複数のマークのうち、ダッシュボードDBによって遮蔽されずにユーザが視認可能な特定マークを識別する操作であってもよい。また、ユーザの操作は、ダッシュボードDBによって遮蔽されずにユーザが視認可能な特定マークの個数を指定する操作であってもよい。さらには、ユーザの操作は、表示領域23によって表示された複数のマークのそれぞれに付された順番を指定する操作であってもよい。指定された個数、又は、指定された順番に基づいて、視認可能な特定マークを識別することができる。なお、マークに付された「順番」は、鉛直方向に沿って低い位置にあるものほど大きな数となるように設定されるものであってもよい。 There are various operations that the user can perform via the operation unit 25. For example, the user's operation may be an operation of identifying a specific mark that is visible to the user without being obscured by the dashboard DB from among the plurality of marks displayed in the display area 23. Further, the user's operation may be an operation of specifying the number of specific marks that are visible to the user without being blocked by the dashboard DB. Furthermore, the user's operation may be an operation of specifying the order in which marks are attached to each of the plurality of marks displayed by the display area 23. Visually recognizable specific marks can be identified based on the specified number or the specified order. Note that the "order" attached to the marks may be set such that the lower the mark is located along the vertical direction, the larger the number.

例えば、ユーザは、視認可能な特定マークの個数を、操作部25のテンキーを介して入力してもよい。また、ユーザは、視認可能な特定マークに付された順番を示す番号を、操作部25のテンキーを介して入力してもよい。 For example, the user may input the number of visible specific marks via the numeric keypad of the operation unit 25. Further, the user may input a number indicating the order attached to the visible specific mark via the numeric keypad of the operation unit 25.

その他、ユーザは、「UP」ボタンを押すことで、指定された個数、又は、指定された順番を増加させてもよい。「DOWN」ボタンを押すことで、指定された個数、又は、指定された順番を減少させてもよい。その後、例えば、「確定」ボタンを押すことで、指定された個数、又は、指定された順番を、最終的に確定した数値として設定してもよい。 In addition, the user may increase the specified number or the specified order by pressing the "UP" button. By pressing the "DOWN" button, the specified number or the specified order may be decreased. After that, for example, by pressing the "confirm" button, the specified number or the specified order may be set as the final determined numerical value.

その他、ユーザの操作は、表示領域23によって表示された複数のマークのうち少なくとも1つ以上のマークを強調マークとして選択する操作であってもよい。ここで、強調マークとは、表示領域23によって表示された複数のマークのうち、輝度又は色を変更して表示するマークを意味する。例えば、「UP」ボタンを押すことで強調マークを増加させてもよい。また、「DOWN」ボタンを押すことで強調マークを減少させてもよい。 In addition, the user's operation may be an operation of selecting at least one mark from among the plurality of marks displayed in the display area 23 as an emphasis mark. Here, the emphasis mark means a mark that is displayed by changing the brightness or color among the plurality of marks displayed in the display area 23. For example, the number of emphasis marks may be increased by pressing the "UP" button. Furthermore, the emphasis mark may be decreased by pressing the "DOWN" button.

強調マークと特定マークが一致した場合に、ユーザは「確定」ボタンを押すことで、視認可能な特定マークを選択してもよい。すなわち、強調マークと特定マークが一致するまで、ユーザは「UP」又は「DOWN」ボタンを押し、強調マークと特定マークを一致させた後に「確定」ボタンを押すことで、ユーザは視認可能な特定マークを選択してもよい。 When the emphasis mark and the specific mark match, the user may select the visible specific mark by pressing the "confirm" button. In other words, the user presses the "UP" or "DOWN" button until the emphasis mark and the specific mark match, and then presses the "Confirm" button after matching the emphasis mark and the specific mark. You may also select a mark.

逆に、非強調マーク(強調マークではないマーク)と特定マークが一致した場合に、ユーザは「確定」ボタンを押すことで、視認可能な特定マークを選択してもよい。すなわち、非強調マークと特定マークが一致するまで、ユーザは「UP」又は「DOWN」ボタンを押し、非強調マークと特定マークを一致させた後に「確定」ボタンを押すことで、ユーザは視認可能な特定マークを選択してもよい。 Conversely, if a non-emphasized mark (a mark that is not an emphasized mark) and a specific mark match, the user may select a visible specific mark by pressing the "Confirm" button. In other words, the user can visually confirm by pressing the "UP" or "DOWN" button until the non-emphasized mark matches the specific mark, and then presses the "Confirm" button after matching the non-emphasized mark and the specific mark. You may also select a specific mark.

コントローラ100は、CPU(Central Processing Unit)、メモリ、記憶装置、入出力部などを備える汎用のコンピュータである。コントローラ100は、図示しないナビゲーション装置と接続されるものであってもよい。例えば、ナビゲーション装置は、車両のルート案内を実行する。 The controller 100 is a general-purpose computer that includes a CPU (Central Processing Unit), a memory, a storage device, an input/output unit, and the like. The controller 100 may be connected to a navigation device (not shown). For example, a navigation device performs route guidance for a vehicle.

コントローラ100には、視点位置推定装置として機能するためのコンピュータプログラムがインストールされている。コンピュータプログラムを実行することにより、コントローラ100は、視点位置推定装置が備える複数の情報処理回路(110、120、130、140)として機能する。なお、コンピュータプログラムは、コンピュータによって読み書き可能な記録媒体に格納されるものであってもよい。 A computer program for functioning as a viewpoint position estimation device is installed in the controller 100. By executing the computer program, the controller 100 functions as a plurality of information processing circuits (110, 120, 130, 140) included in the viewpoint position estimation device. Note that the computer program may be stored in a computer-readable and writable recording medium.

本実施形態では、ソフトウェアによって複数の情報処理回路(110、120、130、140)を実現する例を示す。ただし、以下に示す各情報処理を実行するための専用のハードウェアを用意して、情報処理回路(110、120、130、140)を構成することも可能である。また、複数の情報処理回路(110、120、130、140)を個別のハードウェアにより構成してもよい。さらに、情報処理回路(110、120、130、140)は、ナビゲーション装置、あるいは、車両の制御に用いる制御ユニットと兼用してもよい。 This embodiment shows an example in which a plurality of information processing circuits (110, 120, 130, 140) are realized by software. However, it is also possible to configure the information processing circuits (110, 120, 130, 140) by preparing dedicated hardware for executing each information processing described below. Further, the plurality of information processing circuits (110, 120, 130, 140) may be configured by individual hardware. Furthermore, the information processing circuits (110, 120, 130, 140) may also be used as a navigation device or a control unit used to control a vehicle.

図1に示すように、コントローラ100は、複数の情報処理回路(110、120、130、140)として、画像生成部110、識別情報生成部120、推定部130、出力部140を備える。 As shown in FIG. 1, the controller 100 includes an image generation section 110, an identification information generation section 120, an estimation section 130, and an output section 140 as a plurality of information processing circuits (110, 120, 130, 140).

画像生成部110は、ARガイド(画像)を生成する。例えば、画像生成部110は、運転席から見て表示領域23においてユーザから視認される、車両が走行を予定する経路に重なるARガイドを生成する。 The image generation unit 110 generates an AR guide (image). For example, the image generation unit 110 generates an AR guide that overlaps the route the vehicle is scheduled to travel, which is visible to the user in the display area 23 when viewed from the driver's seat.

また、画像生成部110は、視点位置推定時において表示領域23によって車両の鉛直方向に沿うように表示される複数のマークを生成する。例えば、複数のマークは、車両の前方の空間に浮いているように見えるマークM1~M5である。図3~5では、マークM1~M5は、車両の鉛直方向に沿うように表示される5つの矩形状のマークとして示されている。なお、マークM1~M5のうち、マークM1~M4は、ダッシュボードDBの開口部OPを通過した光線によって形成された、ユーザによって視認可能な特定マークであり、マークM5は、ダッシュボードDBによって遮蔽され、ユーザによって視認不可能なマークである。マークの個数および形状、色などは、図3の例に限定されない。 Furthermore, the image generation unit 110 generates a plurality of marks that are displayed along the vertical direction of the vehicle in the display area 23 when estimating the viewpoint position. For example, the plurality of marks are marks M1 to M5 that appear to be floating in the space in front of the vehicle. In FIGS. 3 to 5, marks M1 to M5 are shown as five rectangular marks displayed along the vertical direction of the vehicle. Note that among the marks M1 to M5, the marks M1 to M4 are specific marks that are visible to the user and are formed by a light beam that has passed through the opening OP of the dashboard DB, and the mark M5 is a mark that is visible to the user. It is a mark that is not visible to the user. The number, shape, color, etc. of marks are not limited to the example shown in FIG. 3.

さらに、画像生成部110は、複数のマークと共に、鉛直方向におけるマークの順番を特定する目盛りMDを生成するものであってもよい。例えば、目盛りMDは、車両の前方の空間に浮いているように見えるマークM1~M5の横に付される、数字の集合である。図4では、マークM1~M5のそれぞれに付された数字の集合として目盛りMDが示されている。目盛りMDは、図4の例に限定されず、例えば、全てのマークの横に数字を付すのではなく、例えば、「5,10,15,・・・」のように、所定の個数のマークごとに1つの数字を付して、目盛りMDを構成してもよい。 Furthermore, the image generation unit 110 may generate a scale MD that specifies the order of the marks in the vertical direction, along with the plurality of marks. For example, the scale MD is a set of numbers placed next to the marks M1 to M5 that appear to be floating in the space in front of the vehicle. In FIG. 4, the scale MD is shown as a set of numbers attached to each of the marks M1 to M5. The scale MD is not limited to the example shown in FIG. 4, and for example, instead of adding numbers next to all marks, a predetermined number of marks, such as "5, 10, 15,..." The scale MD may be configured by assigning one number to each number.

例えば、図4の状態において、ユーザは、ダッシュボードDBによって視認可能なマークであるマークM1~M4を特定するため、数字「4」を指定してもよい。図4において、数字「4」は、視認可能な特定マークの個数、又は、視認可能な特定マークに付された順番を示す番号のうち最大の番号である。これにより、視点位置推定装置は特定マークを識別できる。 For example, in the state of FIG. 4, the user may specify the number "4" to specify the marks M1 to M4 that are visible by the dashboard DB. In FIG. 4, the number "4" is the largest number among the numbers indicating the number of visible specific marks or the order in which the visible specific marks are attached. Thereby, the viewpoint position estimating device can identify the specific mark.

なお、画像生成部110は、ユーザの操作によって選択された強調マークの輝度を、強調マークではないマークとは異なる輝度に設定するものであってもよい。画像生成部110は、ユーザの操作によって選択された強調マークの色を、強調マークではないマーク(非強調マーク)とは異なる色に設定するものであってもよい。図5では、マークM4、M5について、その他のマークM1、M2、M3とは異なる輝度又は色が設定されている様子が示されている。 Note that the image generation unit 110 may set the brightness of the emphasis mark selected by the user's operation to a brightness different from that of a mark that is not an emphasis mark. The image generation unit 110 may set the color of the emphasis mark selected by the user's operation to a color different from that of a mark that is not an emphasis mark (non-emphasis mark). In FIG. 5, marks M4 and M5 are shown to have brightness or color different from those of other marks M1, M2, and M3.

例えば、図5の状態においてユーザが「UP」ボタンを押した場合には、マークM3を非強調マークから強調マークに変化させてもよい。また、ユーザが「DOWN」ボタンを押した場合には、マークM4を強調マークから非強調マークに変化させてもよい。ユーザは、マークM1~M4を非強調マーク、マークM5を強調マークとした状態で、「確定」ボタンを押すことで、視認可能な特定マークを選択してもよい。これにより、視点位置推定装置は特定マークを識別できる。 For example, when the user presses the "UP" button in the state shown in FIG. 5, the mark M3 may be changed from a non-emphasis mark to an emphasis mark. Furthermore, when the user presses the "DOWN" button, the mark M4 may be changed from an emphasis mark to a non-emphasis mark. The user may select a visible specific mark by pressing the "Confirm" button with the marks M1 to M4 set as non-emphasized marks and the mark M5 set as an emphasized mark. Thereby, the viewpoint position estimating device can identify the specific mark.

識別情報生成部120は、操作部25に対するユーザの操作に基づいて、表示領域23によって表示されたマークのうち、ダッシュボードDBによって遮蔽されずにユーザが視認可能な特定マークを識別する識別情報を生成する。 Based on the user's operation on the operation unit 25, the identification information generation unit 120 generates identification information that identifies a specific mark that is visible to the user without being obscured by the dashboard DB, among the marks displayed in the display area 23. generate.

より具体的には、識別情報生成部120は、操作部25を介して指定された、視認可能な特定マークの個数、又は、視認可能な特定マークに付された順番に基づいて、特定マークを識別する識別情報を生成するものであってもよい。また、識別情報生成部120は、「確定」ボタン等が押された際の強調マークを抽出し、当該強調マークを特定マークとするものであってもよい。そして、識別情報生成部120は、当該強調マークを識別する情報を、特定マークを識別する識別情報とするものであってもよい。 More specifically, the identification information generation unit 120 generates specific marks based on the number of visible specific marks specified via the operation unit 25 or the order in which the visible specific marks are attached. It may also be one that generates identification information for identification. Further, the identification information generation unit 120 may extract an emphasis mark when a "confirm" button or the like is pressed, and use the emphasis mark as a specific mark. The identification information generation unit 120 may use the information for identifying the emphasis mark as identification information for identifying a specific mark.

なお、複数のマークは、運転席に着座するユーザからみて車両の鉛直方向に沿うように表示されていることから、識別情報生成部120が生成する識別情報は、数字の範囲を指定するものであってもよい。当該範囲に含まれる数字と同じ「順番」が付されたマークについて、視認可能であると判定するものであってもよい。例えば、図3~5に示す例では、識別情報として、「1~4」あるいは「4」が生成されるものであってもよい。 Note that since the plurality of marks are displayed along the vertical direction of the vehicle as viewed from the user sitting in the driver's seat, the identification information generated by the identification information generation unit 120 does not specify a range of numbers. There may be. Marks to which the same "order" as the numbers included in the range are attached may be determined to be visible. For example, in the examples shown in FIGS. 3 to 5, "1 to 4" or "4" may be generated as the identification information.

推定部130は、識別情報に基づいてユーザの視点の高さを推定する。 The estimation unit 130 estimates the height of the user's viewpoint based on the identification information.

より具体的には、視点位置推定時においてウィンドシールドWS上の領域RTが表示領域23として使用され、表示領域23にARガイド等を投射する際の光線の角度が予め設定されている。そこで、光線の角度とウィンドシールドWSの位置関係から、車両の前方の空間に浮いているように見える、虚像(マークM1~M5)の位置が決定される。 More specifically, when estimating the viewpoint position, the area RT on the windshield WS is used as the display area 23, and the angle of the light beam when projecting the AR guide or the like onto the display area 23 is set in advance. Therefore, the position of the virtual image (marks M1 to M5), which appears to be floating in the space in front of the vehicle, is determined from the angle of the light beam and the positional relationship of the windshield WS.

そこで、推定部130は、識別情報に基づいて、特定マークのうち鉛直方向に最も低い位置にある基準マークと、当該基準マークに対応するウィンドシールドWS上の点(基準点)を特定する。図3に示す例では、推定部130は、特定マークのうち鉛直方向に最も低い位置にあるマークM4と、ウィンドシールドWS上の基準点PBを特定する。 Therefore, based on the identification information, the estimation unit 130 identifies the reference mark located at the lowest position in the vertical direction among the specific marks and the point (reference point) on the windshield WS corresponding to the reference mark. In the example shown in FIG. 3, the estimation unit 130 identifies the mark M4 located at the lowest position in the vertical direction among the specific marks and the reference point PB on the windshield WS.

なお、推定部130は、非特定マーク(特定マークではないマーク)のうち鉛直方向に最も高い位置にあるマークを基準マークとして特定し、当該基準マークに対応するウィンドシールドWS上の点(基準点)を特定するものであってもよい。推定部130は、最も低い位置にある特定マークと最も高い位置にある非特定マークの間の領域に仮想マークを配置し、当該仮想マークを基準マークとして特定してもよい。そして、当該仮想マークに対応するウィンドシールドWS上の点(基準点)を特定するものであってもよい。 Note that the estimating unit 130 identifies the mark at the highest position in the vertical direction among the non-specific marks (marks that are not specific marks) as a reference mark, and determines the point on the windshield WS corresponding to the reference mark (reference point). ). The estimating unit 130 may place a virtual mark in the area between the specific mark at the lowest position and the non-specific mark at the highest position, and specify the virtual mark as the reference mark. Then, a point (reference point) on the windshield WS corresponding to the virtual mark may be specified.

推定部130は、基準マークの位置する点と基準点とを結ぶ直線が、車両の運転席を通り鉛直方向に延びる直線とが交差する点を算出する。そして、推定部130は、当該交差する点の高さを、ユーザの視点の高さとする。 The estimation unit 130 calculates the point where a straight line connecting the point where the reference mark is located and the reference point intersects with a straight line that passes through the driver's seat of the vehicle and extends in the vertical direction. Then, the estimation unit 130 sets the height of the intersecting point as the height of the user's viewpoint.

出力部140は、画像生成部110によって生成されたARガイド、視点位置推定時に使用する複数のマーク、および、目盛りを出力する。出力されたARガイド、複数のマーク、目盛りは、表示領域23に表示される。その他、出力部140は、推定したユーザの視点の高さを出力する。 The output unit 140 outputs the AR guide generated by the image generation unit 110, a plurality of marks used when estimating the viewpoint position, and a scale. The output AR guide, multiple marks, and scales are displayed in the display area 23. In addition, the output unit 140 outputs the estimated height of the user's viewpoint.

[視点位置推定装置の処理手順]
次に、本実施形態に係る視点位置推定装置の処理手順を、図2のフローチャートを参照して説明する。図2は、本発明の一実施形態に係る視点位置推定装置の処理を示すフローチャートである。
[Processing procedure of viewpoint position estimation device]
Next, the processing procedure of the viewpoint position estimating device according to this embodiment will be explained with reference to the flowchart of FIG. 2. FIG. 2 is a flowchart showing the processing of the viewpoint position estimation device according to an embodiment of the present invention.

ステップS101にて、コントローラ100は、表示領域23を推定用位置(領域RT)に移動させる。 In step S101, the controller 100 moves the display area 23 to the estimation position (region RT).

ステップS103にて、表示領域23を介して、複数のマークを表示領域23に表示する。具体的には、画像生成部110は複数のマークを生成し、出力部140は、生成した複数のマークを表示部21に出力する。出力された複数のマークは、表示領域23を介してユーザに提示される。 In step S103, a plurality of marks are displayed in the display area 23 via the display area 23. Specifically, the image generation section 110 generates a plurality of marks, and the output section 140 outputs the generated plurality of marks to the display section 21. The plurality of output marks are presented to the user via the display area 23.

ステップS105にて、識別情報生成部120は、操作部25を介してユーザの操作があったか否かを判定する。 In step S105, the identification information generation unit 120 determines whether or not there has been a user operation via the operation unit 25.

ユーザの操作がないと判定された場合(ステップS105でNOの場合)、ステップS105を繰り返す。 If it is determined that there is no user operation (NO in step S105), step S105 is repeated.

ユーザの操作があったと判定された場合(ステップS105でYESの場合)、ステップS107にて、識別情報生成部120は、操作部25に対するユーザの操作に基づいて、ユーザが視認可能な特定マークを識別する識別情報を生成する。 If it is determined that there has been a user operation (YES in step S105), in step S107, the identification information generation unit 120 creates a specific mark that is visible to the user based on the user's operation on the operation unit 25. Generate identification information for identification.

ステップS109にて、推定部130は、識別情報に基づいてユーザの視点の高さを推定する。 In step S109, the estimation unit 130 estimates the height of the user's viewpoint based on the identification information.

ステップS111にて、コントローラ100は、表示領域23を通常位置(領域RA)に移動させる。 In step S111, the controller 100 moves the display area 23 to the normal position (area RA).

ステップS113にて、画像生成部110はARガイド(画像)を生成する。その際、画像生成部110は、推定したユーザの視点の高さに基づいて、ARガイドの表示位置を設定する。 In step S113, the image generation unit 110 generates an AR guide (image). At this time, the image generation unit 110 sets the display position of the AR guide based on the estimated height of the user's viewpoint.

ステップS115にて、出力部140は、画像生成部110によって生成されたARガイドを出力する。出力されたARガイドは、表示領域23を介してユーザに提示される。その後、視点位置推定装置の処理を終了する。 In step S115, the output unit 140 outputs the AR guide generated by the image generation unit 110. The output AR guide is presented to the user via the display area 23. Thereafter, the processing of the viewpoint position estimating device ends.

[実施形態の効果]
以上詳細に説明したように、本実施形態に係る視点位置推定方法及び視点位置推定装置は、車両の運転席に着座するユーザからみて、車両の鉛直方向に沿うように、車両の周囲を透過させる表示領域に複数のマークを表示する。車両のダッシュボードによって遮蔽されずにユーザが視認可能な特定マークを識別する識別情報を、ユーザの操作に基づいて生成し、識別情報に基づいて、ユーザの視点の高さを推定する。
[Effects of embodiment]
As described in detail above, the viewpoint position estimation method and viewpoint position estimation device according to the present embodiment transmit the surroundings of the vehicle along the vertical direction of the vehicle as viewed from the user seated in the driver's seat of the vehicle. Display multiple marks in the display area. Identification information for identifying a specific mark that is visible to the user without being obscured by the dashboard of the vehicle is generated based on the user's operation, and the height of the user's viewpoint is estimated based on the identification information.

これにより、運転者の視点の位置を検出するカメラを備えていない車両において、運転者の視点の位置を推定することができる。その結果、車両が走行を予定する経路に重ねてARガイドを表示する場合に、運転者の視点の位置を考慮して、ARガイドの表示位置を設定することができる。さらには、車両が走行を予定する経路にARガイドを重畳した際の違和感が低減され、ユーザの利便性の向上につながる。 This makes it possible to estimate the position of the driver's viewpoint in a vehicle that is not equipped with a camera that detects the position of the driver's viewpoint. As a result, when displaying the AR guide over the route on which the vehicle is scheduled to travel, the display position of the AR guide can be set in consideration of the position of the driver's viewpoint. Furthermore, the sense of discomfort when the AR guide is superimposed on the route the vehicle is scheduled to travel is reduced, leading to improved convenience for the user.

また、本実施形態に係る視点位置推定方法及び視点位置推定装置は、ユーザの操作に基づいて、特定マークの個数を含む識別情報を生成するものであってもよい。これにより、特定マークの個数に基づいて、運転者の視点の位置を推定することができる。 Further, the viewpoint position estimation method and viewpoint position estimation device according to the present embodiment may generate identification information including the number of specific marks based on a user's operation. Thereby, the position of the driver's viewpoint can be estimated based on the number of specific marks.

さらに、本実施形態に係る視点位置推定方法及び視点位置推定装置は、マークと共に、鉛直方向におけるマークの順番を特定する目盛りを表示領域に表示し、ユーザの操作に基づいて、順番を含む識別情報を生成するものであってもよい。これにより、特定マークの順番に基づいて、運転者の視点の位置を推定することができる。さらに、マークと共に目盛りが表示されるため、視認可能な特定マークを数える際のユーザの負荷が低減され、ユーザの利便性の向上につながる。 Furthermore, the viewpoint position estimation method and viewpoint position estimation device according to the present embodiment display a scale that specifies the order of the marks in the vertical direction in the display area together with the marks, and based on the user's operation, the identification information including the order is displayed. It may also be something that generates. Thereby, the position of the driver's viewpoint can be estimated based on the order of the specific marks. Furthermore, since the scale is displayed together with the marks, the burden on the user when counting visible specific marks is reduced, leading to improved convenience for the user.

また、本実施形態に係る視点位置推定方法及び視点位置推定装置は、ユーザの操作に基づいて、マークのうち少なくとも1つ以上のマークを強調マークとして選択し、強調マークの色を、強調マークを除くマークの色とは異なる色に設定するものであってもよい。これにより、視認可能な特定マークを指定する際のユーザの負荷が低減される。また、ユーザにより視認可能なマークが正しくシステムに入力されているか否かを、ユーザは表示領域における強調マークの色を介して直感的に判断することができる。その結果、ユーザの利便性の向上につながる。 Further, the viewpoint position estimation method and viewpoint position estimation device according to the present embodiment select at least one or more marks among the marks as an emphasis mark based on the user's operation, and change the color of the emphasis mark to the emphasis mark. The color may be set to a color different from the color of the exclusion mark. This reduces the burden on the user when specifying a visible specific mark. Furthermore, the user can intuitively determine whether or not the mark visible to the user has been correctly input into the system through the color of the highlighted mark in the display area. As a result, user convenience is improved.

さらに、本実施形態に係る視点位置推定方法及び視点位置推定装置は、ユーザの操作に基づいて、マークのうち少なくとも1つ以上のマークを強調マークとして選択し、強調マークの輝度を、強調マークを除くマークの輝度とは異なる輝度に設定するものであってもよい。視認可能な特定マークを指定する際のユーザの負荷が低減される。また、ユーザにより視認可能なマークが正しくシステムに入力されているか否かを、ユーザは表示領域における強調マークの輝度を介して直感的に判断することができる。その結果、ユーザの利便性の向上につながる。 Furthermore, the viewpoint position estimation method and viewpoint position estimation device according to the present embodiment select at least one or more marks as an emphasis mark based on a user's operation, and adjust the brightness of the emphasis mark to The brightness may be set to be different from the brightness of the mark to be excluded. The burden on the user when specifying a visible specific mark is reduced. Furthermore, the user can intuitively determine whether the mark visible to the user has been correctly input into the system through the brightness of the highlighted mark in the display area. As a result, user convenience is improved.

上述の実施形態で示した各機能は、1又は複数の処理回路によって実装されうる。処理回路には、プログラムされたプロセッサや、電気回路などが含まれ、さらには、特定用途向けの集積回路(ASIC)のような装置や、記載された機能を実行するよう配置された回路構成要素なども含まれる。 Each of the functions illustrated in the embodiments described above may be implemented by one or more processing circuits. Processing circuits include programmed processors, electrical circuits, and other devices such as application specific integrated circuits (ASICs) and circuit components arranged to perform the described functions. Also included.

以上、実施形態に沿って本発明の内容を説明したが、本発明はこれらの記載に限定されるものではなく、種々の変形及び改良が可能であることは、当業者には自明である。この開示の一部をなす論述および図面は本発明を限定するものであると理解すべきではない。この開示から当業者には様々な代替実施形態、実施例および運用技術が明らかとなろう。 Although the present invention has been described above in accordance with the embodiments, it is obvious to those skilled in the art that the present invention is not limited to these descriptions and that various modifications and improvements can be made. The discussion and drawings that form part of this disclosure should not be construed as limiting the invention. Various alternative embodiments, implementations, and operational techniques will be apparent to those skilled in the art from this disclosure.

本発明はここでは記載していない様々な実施形態等を含むことは勿論である。したがって、本発明の技術的範囲は上記の説明から妥当な特許請求の範囲に係る発明特定事項によってのみ定められるものである。 It goes without saying that the present invention includes various embodiments not described here. Therefore, the technical scope of the present invention is determined only by the matters specifying the invention in the claims that are reasonable from the above description.

21 表示部
23 表示領域
25 操作部
100 コントローラ
110 画像生成部
120 識別情報生成部
130 推定部
140 出力部
DB ダッシュボード
MD 目盛り
21 Display section 23 Display area 25 Operation section 100 Controller 110 Image generation section 120 Identification information generation section 130 Estimation section 140 Output section DB Dashboard MD Scale

Claims (6)

表示部と操作部とコントローラとを備える装置を制御する視点位置推定方法であって、
前記表示部は、車両の周囲を透過させる表示領域を有し、
前記コントローラは、
前記車両の運転席に着座するユーザからみて前記車両の鉛直方向に沿うように、前記表示領域に複数のマークを表示し、
前記操作部に対する前記ユーザの操作に基づいて、前記マークのうち前記車両のダッシュボードによって遮蔽されずに前記ユーザが視認可能な特定マークを識別する識別情報を生成し、
前記識別情報に基づいて、前記ユーザの視点の高さを推定すること
を特徴とする視点位置推定方法。
A viewpoint position estimation method for controlling a device including a display unit, an operation unit, and a controller, the method comprising:
The display section has a display area that transmits the surroundings of the vehicle,
The controller includes:
displaying a plurality of marks in the display area along the vertical direction of the vehicle as viewed from a user seated in a driver's seat of the vehicle;
generating identification information for identifying a specific mark among the marks that is not obscured by the dashboard of the vehicle and is visible to the user, based on the user's operation on the operating unit;
A viewpoint position estimation method comprising estimating the height of the user's viewpoint based on the identification information.
請求項1に記載の視点位置推定方法であって、
前記コントローラは、
前記操作に基づいて、前記特定マークの個数を含む前記識別情報を生成すること
を特徴とする視点位置推定方法。
The viewpoint position estimation method according to claim 1,
The controller includes:
A viewpoint position estimation method, characterized in that the identification information including the number of the specific marks is generated based on the operation.
請求項1に記載の視点位置推定方法であって、
前記コントローラは、
前記マークと共に、前記鉛直方向における前記マークの順番を特定する目盛りを前記表示領域に表示し、
前記操作に基づいて、前記順番を含む前記識別情報を生成すること
を特徴とする視点位置推定方法。
The viewpoint position estimation method according to claim 1,
The controller includes:
Displaying a scale specifying the order of the marks in the vertical direction in the display area together with the marks;
A viewpoint position estimation method, characterized in that the identification information including the order is generated based on the operation.
請求項1~3のいずれか一項に記載の視点位置推定方法であって、
前記コントローラは、
前記操作に基づいて、前記マークのうち少なくとも1つ以上のマークを強調マークとして選択し、
前記強調マークの色を、前記強調マークを除く前記マークの色とは異なる色に設定すること
を特徴とする視点位置推定方法。
The viewpoint position estimation method according to any one of claims 1 to 3,
The controller includes:
Based on the operation, at least one mark among the marks is selected as an emphasis mark;
A viewpoint position estimation method characterized in that the color of the emphasis mark is set to a color different from the color of the marks other than the emphasis mark.
請求項1~3のいずれか一項に記載の視点位置推定方法であって、
前記コントローラは、
前記操作に基づいて、前記マークのうち少なくとも1つ以上のマークを強調マークとして選択し、
前記強調マークの輝度を、前記強調マークを除く前記マークの輝度とは異なる輝度に設定すること
を特徴とする視点位置推定方法。
The viewpoint position estimation method according to any one of claims 1 to 3,
The controller includes:
selecting at least one or more of the marks as an emphasis mark based on the operation;
A viewpoint position estimation method characterized in that the brightness of the emphasis mark is set to a brightness different from the brightness of the marks other than the emphasis mark.
表示部と操作部とコントローラとを備える視点位置推定装置であって、
前記表示部は、車両の周囲を透過させる表示領域を有し、
前記コントローラは、
前記車両の運転席に着座するユーザからみて前記車両の鉛直方向に沿うように、前記表示領域に複数のマークを表示し、
前記操作部に対する前記ユーザの操作に基づいて、前記マークのうち前記車両のダッシュボードによって遮蔽されずに前記ユーザが視認可能な特定マークを識別する識別情報を生成し、
前記識別情報に基づいて、前記ユーザの視点の高さを推定すること
を特徴とする視点位置推定装置。
A viewpoint position estimation device comprising a display section, an operation section, and a controller,
The display section has a display area that transmits the surroundings of the vehicle,
The controller includes:
displaying a plurality of marks in the display area along the vertical direction of the vehicle as viewed from a user seated in a driver's seat of the vehicle;
generating identification information for identifying a specific mark among the marks that is visible to the user without being obscured by a dashboard of the vehicle, based on the user's operation on the operating unit;
A viewpoint position estimating device that estimates the height of the user's viewpoint based on the identification information.
JP2022137860A 2022-08-31 2022-08-31 Viewpoint position estimation method and viewpoint position estimation device Pending JP2024033934A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022137860A JP2024033934A (en) 2022-08-31 2022-08-31 Viewpoint position estimation method and viewpoint position estimation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022137860A JP2024033934A (en) 2022-08-31 2022-08-31 Viewpoint position estimation method and viewpoint position estimation device

Publications (1)

Publication Number Publication Date
JP2024033934A true JP2024033934A (en) 2024-03-13

Family

ID=90193460

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022137860A Pending JP2024033934A (en) 2022-08-31 2022-08-31 Viewpoint position estimation method and viewpoint position estimation device

Country Status (1)

Country Link
JP (1) JP2024033934A (en)

Similar Documents

Publication Publication Date Title
JP6528139B2 (en) Display control device and display control program
JP4351599B2 (en) Input device
US8947533B2 (en) Parameter determining device, parameter determining system, parameter determining method, and recording medium
US8116937B2 (en) Vehicle display apparatus
WO2015125243A1 (en) Display control device, display control method for display control device, gaze direction detecting system, and callibration control method for gaze direction detecting system
JP3785669B2 (en) Gaze direction measuring device
JP6105533B2 (en) Projection display device for vehicle
KR20180122012A (en) An operating device including a snow tracker unit and a method for calibrating an eye tracker unit of the operating device
JP6331567B2 (en) Display input device for vehicle
JP5968573B2 (en) Gesture guidance device for moving body, gesture guidance system for moving body, and gesture guidance method for moving body
CN110031975B (en) Method and system for calibrating augmented reality glasses in vehicle and augmented reality glasses
JP6558770B2 (en) Projection display device, projection display method, and projection display program
US10691122B2 (en) In-vehicle system
JP6482975B2 (en) Image generating apparatus and image generating method
JP2012035784A (en) Display device for vehicle
JPH0883397A (en) Route guidance device for vehicle
JP2005254851A (en) Command input device
WO2018061603A1 (en) Gestural manipulation system, gestural manipulation method, and program
JP2024033934A (en) Viewpoint position estimation method and viewpoint position estimation device
JP6631572B2 (en) Display control device for vehicle and display unit for vehicle
JP2022152702A (en) Virtual image display device
US20230143429A1 (en) Display controlling device and display controlling method
JP2020107031A (en) Instruction gesture detection apparatus and detection method therefor
US11790615B2 (en) Marking objects for a vehicle using a virtual element
US11900841B2 (en) Display system of vehicle and control method thereof for adjusting projected position of augmented reality contents