JP7521270B2 - Circuit device, electronic device and mobile device - Google Patents

Circuit device, electronic device and mobile device Download PDF

Info

Publication number
JP7521270B2
JP7521270B2 JP2020104224A JP2020104224A JP7521270B2 JP 7521270 B2 JP7521270 B2 JP 7521270B2 JP 2020104224 A JP2020104224 A JP 2020104224A JP 2020104224 A JP2020104224 A JP 2020104224A JP 7521270 B2 JP7521270 B2 JP 7521270B2
Authority
JP
Japan
Prior art keywords
display
warp
circuit device
tracking information
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020104224A
Other languages
Japanese (ja)
Other versions
JP2021111317A (en
Inventor
ウィットマイアー マンフレッド
洋右 谷川
クマー アナンダバイラバサミー アナンド
哲夫 河本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to EP20217661.6A priority Critical patent/EP3848781B1/en
Priority to CN202011594605.XA priority patent/CN113132714B/en
Priority to US17/137,732 priority patent/US11443718B2/en
Publication of JP2021111317A publication Critical patent/JP2021111317A/en
Application granted granted Critical
Publication of JP7521270B2 publication Critical patent/JP7521270B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、回路装置、電子機器及び移動体等に関する。 The present invention relates to circuit devices, electronic devices, mobile objects, etc.

透明スクリーン等に画像を表示することで、ユーザーの視界に情報を重ねて表示するヘッドアップディスプレイが知られている。このようなヘッドアップディスプレイとAR技術を組み合わせることで、前走車又は道路等の実オブジェクトに対して仮想オブジェクトが追従するように、仮想オブジェクトをヘッドアップディスプレイに表示させることができる。ARはAugmented Realityの略である。 Head-up displays are known that display images on a transparent screen or similar, overlaying information on the user's field of vision. By combining such head-up displays with AR technology, it is possible to display virtual objects on the head-up display so that the virtual objects follow real objects, such as a car ahead or a road. AR stands for Augmented Reality.

特許文献1に開示される技術では、低周波帯域の姿勢変化を画像処理により補正し、高周波帯域の姿勢変化を投影光学ユニットで補正する。高周波帯域の姿勢変化を投影光学ユニットで補正することで、車両の姿勢変化が生じる場合において、虚像が実像に対して正しい位置に重畳されるように投影画像の位置が修正される。 In the technology disclosed in Patent Document 1, posture changes in the low frequency band are corrected by image processing, and posture changes in the high frequency band are corrected by a projection optical unit. By correcting posture changes in the high frequency band by the projection optical unit, the position of the projected image is corrected so that the virtual image is superimposed in the correct position on the real image when a posture change occurs in the vehicle.

特開2019-98756号公報JP 2019-98756 A

AR技術を用いるヘッドアップディスプレイでは、センサー出力を取得し、そのセンサー出力を用いて仮想オブジェクトをレンダリングし、レンダリング画像をワープ処理し、ワープ処理後の画像をヘッドアップディスプレイに表示する。このような表示システムにおいて、レンダリングに用いられるセンサー出力のサンプリング時点から、ヘッドアップディスプレイに表示されるまでに時間があるため、その間に生じた車両等の動きは仮想オブジェクトの表示位置に反映されていない。このため、レンダリングされた仮想オブジェクトと、表示時点での実オブジェクトとの間に位置ずれが生じるが、このようなレイテンシーによる位置ずれを出来るだけ小さくすることが望ましいという課題がある。 In a head-up display using AR technology, sensor output is acquired, the sensor output is used to render a virtual object, the rendered image is warped, and the warped image is displayed on the head-up display. In such a display system, there is a time lag between the sampling of the sensor output used for rendering and its display on the head-up display, so any movement of a vehicle or the like that occurs during that time is not reflected in the display position of the virtual object. This results in a positional shift between the rendered virtual object and the real object at the time of display, and there is a challenge in that it is desirable to minimize this positional shift due to latency.

本開示の一態様は、実空間の実オブジェクトに対応する仮想オブジェクトを表示領域に表示するヘッドアップディスプレイの表示制御を行う回路装置であって、前記ヘッドアップディスプレイが搭載される移動体の第1トラッキング情報、前記ヘッドアップディスプレイの観者の第2トラッキング情報、及び前記実オブジェクトの第3トラッキング情報の少なくとも1つであるトラッキング情報と、前記仮想オブジェクトを含むレンダリング画像と、が入力されるインターフェースと、前記トラッキング情報に基づいて、前記レンダリング画像のレンダリング処理レイテンシーを含むレイテンシーを補償するレイテンシー補償パラメーターを、演算するパラメーター演算部と、前記レンダリング画像を前記表示領域の湾曲に応じて座標変換するワープ処理を行い、前記表示領域に表示される表示画像を生成するワープ処理部と、を含み、前記ワープ処理部は、前記ワープ処理において、前記表示領域における前記仮想オブジェクトの位置を前記レイテンシー補償パラメーターに基づいて補償するレイテンシー補償処理を行う回路装置に関係する。 One aspect of the present disclosure is a circuit device that performs display control of a head-up display that displays a virtual object corresponding to a real object in a real space in a display area, the circuit device including an interface to which tracking information, which is at least one of first tracking information of a moving body on which the head-up display is mounted, second tracking information of a viewer of the head-up display, and third tracking information of the real object, and a rendering image including the virtual object are input, a parameter calculation unit that calculates latency compensation parameters that compensate for latency including a rendering processing latency of the rendering image based on the tracking information, and a warp processing unit that performs a warp process that converts the coordinates of the rendering image in accordance with the curvature of the display area to generate a display image to be displayed in the display area, and the warp processing unit relates to a circuit device that performs latency compensation processing that compensates for the position of the virtual object in the display area based on the latency compensation parameters in the warp process.

また本開示の他の態様は、上記に記載の回路装置を含む電子機器に関係する。 Another aspect of the present disclosure relates to an electronic device that includes the circuit device described above.

また本開示の更に他の態様は、上記に記載の回路装置を含む移動体に関係する。 Yet another aspect of the present disclosure relates to a moving object including the circuit device described above.

HUDによるAR表示の例。An example of AR display using a HUD. ピッチ変位又は垂直変位による表示位置ずれの説明図。5A and 5B are explanatory diagrams for explaining a display position shift caused by a pitch displacement or a vertical displacement. 本実施形態のレイテンシー補償を説明する図。5A and 5B are diagrams for explaining latency compensation according to the present embodiment; 従来技術における表示システムの構成例。1 shows an example of the configuration of a display system according to the prior art. 従来技術における表示システムの処理フロー。3 is a process flow of a display system according to the prior art. 本実施形態の回路装置、及び回路装置を含む表示システムの第1構成例。1 shows a first configuration example of a circuit device of the present embodiment and a display system including the circuit device. トラッキング処理部の詳細な処理フロー。4 is a detailed processing flow of a tracking processing unit. 第1構成例における表示システムの処理フロー。4 is a processing flow of the display system in the first configuration example. 本実施形態の回路装置、及び回路装置を含む表示システムの第2構成例。2 shows a second configuration example of the circuit device of the present embodiment and a display system including the circuit device. 第2構成例における表示システムの処理フロー。13 is a process flow of the display system in the second configuration example. 本実施形態におけるワープ処理の説明図。5A to 5C are explanatory diagrams of warp processing in the present embodiment. 移動体等のトラッキング情報と、そのトラッキング情報に基づくレイテンシー補償との対応を示す図。1 is a diagram showing the correspondence between tracking information of a moving object or the like and latency compensation based on the tracking information; 補償手法を実現するレイテンシー補償パラメーターの例。Example of latency compensation parameters to realize the compensation method. トラッキング情報からレイテンシー補償パラメーターを演算する手法を説明する図。1A and 1B are diagrams illustrating a method for calculating latency compensation parameters from tracking information. 電子機器の構成例。Example of electronic device configuration. 移動体の例。An example of a moving object.

以下、本開示の好適な実施形態について詳細に説明する。なお以下に説明する本実施形態は特許請求の範囲に記載された内容を不当に限定するものではなく、本実施形態で説明される構成の全てが必須構成要件であるとは限らない。 A preferred embodiment of the present disclosure will be described in detail below. Note that the present embodiment described below does not unduly limit the content described in the claims, and not all of the configurations described in the present embodiment are necessarily essential components.

1.第1構成例
図1は、HUDによるAR表示の例である。HUDはヘッドアップディスプレイの略語であり、ARは拡張現実の略語である。以下では、自動車30にHUDを搭載した例を主に説明するが、本実施形態のHUDは、飛行機、船舶又は二輪車等の様々な移動体に搭載されてもよい。
1. First Configuration Example Fig. 1 shows an example of AR display using a HUD. HUD is an abbreviation for head-up display, and AR is an abbreviation for augmented reality. In the following, an example in which a HUD is mounted on an automobile 30 will be mainly described, but the HUD of this embodiment may be mounted on various moving bodies such as an airplane, a ship, or a motorcycle.

図1には、ドライバーがHUDを介して見るAR表示を示している。ドライバーは、フロントガラスを通して、前走車10、前走車10が走る道路、及びそれらの周囲の風景を見ている。またドライバーは、HUDがフロントガラスの表示領域40内に投影した虚像を見ており、その虚像は、ドライバーからは、実空間に重なる仮想オブジェクト20として見える。表示領域40は、HUDが虚像を投影可能な範囲を示しており、この表示領域40内において仮想オブジェクト20が表示される。図1における仮想オブジェクト20は、ARの表示オブジェクトであり、前走車10又は道路に対して表示位置が追従するように表示される。即ち、HUDは、ドライバーから見た前走車10又は道路と仮想オブジェクト20との相対的な位置関係が変わらないように、仮想オブジェクト20を表示しようとする。 Figure 1 shows an AR display seen by the driver through the HUD. Through the windshield, the driver sees the vehicle 10 ahead, the road on which the vehicle 10 ahead is driving, and the scenery around them. The driver also sees a virtual image projected by the HUD into a display area 40 on the windshield, which appears to the driver as a virtual object 20 that overlaps with real space. The display area 40 indicates the range in which the HUD can project virtual images, and the virtual object 20 is displayed within this display area 40. The virtual object 20 in Figure 1 is an AR display object, and is displayed so that its display position follows the vehicle 10 ahead or the road. In other words, the HUD attempts to display the virtual object 20 so that the relative positional relationship between the vehicle 10 ahead or the road and the virtual object 20 as seen by the driver does not change.

HUDの表示システムは、Lidar等のセンサーを用いて前走車10等をトラッキングし、そのトラッキング結果に基づいて仮想オブジェクト20をレンダリングし、そのレンダリング画像をワープ処理してHUDに表示させる。このとき、センサーがサンプリングしたタイミングから、仮想オブジェクト20をHUDに表示するタイミングまでの間に、トラッキング処理、レンダリング処理、ワープ処理、又はデータ通信等による遅延がある。このような処理又は通信等によって発生する遅延を、レイテンシーと呼ぶ。 The HUD display system uses sensors such as Lidar to track the vehicle 10 ahead, renders the virtual object 20 based on the tracking results, and warps the rendered image to display it on the HUD. At this time, there is a delay due to tracking processing, rendering processing, warping processing, data communication, etc. between the time when the sensor samples and the time when the virtual object 20 is displayed on the HUD. The delay caused by such processing or communication is called latency.

レイテンシーは、仮想オブジェクト20と前走車10等との位置ずれの原因となる。即ち、表示システムが仮想オブジェクト20をレンダリングしたときの前走車10等の位置と、実際に仮想オブジェクト20がHUDに表示されるときの前走車10等の位置とがずれていることによって、仮想オブジェクト20と前走車10等とがずれて表示されてしまう。例えば、レンダリング処理において、未来の表示タイミングにおける前走車10等の位置を予測したとしても、その予測時点から表示までに時間があるため、予測した前走車10等の位置と、実際に仮想オブジェクト20がHUDに表示されるときの前走車10等の位置とがずれる可能性がある。 Latency causes a misalignment between the virtual object 20 and the vehicle 10 in front, etc. In other words, a misalignment between the position of the vehicle 10 in front, etc. when the display system renders the virtual object 20 and the position of the vehicle 10 in front when the virtual object 20 is actually displayed on the HUD causes the virtual object 20 and the vehicle 10 in front to be displayed misaligned. For example, even if the position of the vehicle 10 in front at a future display timing is predicted in the rendering process, there is a time lag between the prediction and the display, so there is a possibility that the predicted position of the vehicle 10 in front, etc. will be misaligned from the position of the vehicle 10 in front when the virtual object 20 is actually displayed on the HUD.

図2に、一例として、ピッチ変位又は垂直変位による表示位置ずれの説明図を示す。xyzは自動車30に固定された座標系である。z方向は自動車の進行方向であり、x方向とy方向はz方向に直交し且つ互いに直交する。y方向が鉛直方向に一致したとき、x方向は水平方向であり、y方向は垂直方向又は上下方向である。y方向が鉛直方向に一致しないような自動車の姿勢となっているとき、x方向とy方向は水平垂直に一致しないが、以下では便宜的にx方向を水平方向とも呼び、y方向を垂直方向又は上下方向とも呼ぶこととする。図に示す矢印方向を正方向とし、方向の正負を明示したい場合には+x方向、-x方向等と記載する。 As an example, FIG. 2 shows an explanatory diagram of the display position shift due to pitch displacement or vertical displacement. xyz is a coordinate system fixed to the automobile 30. The z direction is the traveling direction of the automobile, and the x and y directions are perpendicular to the z direction and perpendicular to each other. When the y direction coincides with the vertical direction, the x direction is the horizontal direction, and the y direction is the vertical direction or up-down direction. When the automobile is in a position where the y direction does not coincide with the vertical direction, the x and y directions do not coincide horizontally or vertically, but for convenience, the x direction will be referred to as the horizontal direction and the y direction will be referred to as the vertical direction or up-down direction below. The direction of the arrow shown in the figure is the positive direction, and when it is desired to clearly indicate the positive and negative directions, they will be described as +x direction, -x direction, etc.

図2の1段目図は、仮想オブジェクト21と実オブジェクト11との位置ずれがない状態を示している。実オブジェクト11は、実空間に存在するオブジェクトであって、且つAR表示のトラッキング対象となっているオブジェクトのことである。例えば図1の前走車10等が実オブジェクトである。HUDの投影ユニット36がフロントガラス35に虚像を投影し、その虚像が仮想オブジェクト21としてドライバーの目50に見える。 The first diagram in Figure 2 shows a state where there is no positional misalignment between the virtual object 21 and the real object 11. The real object 11 is an object that exists in real space and is the object that is the tracking target for the AR display. For example, the car in front 10 in Figure 1 is an example of a real object. The projection unit 36 of the HUD projects a virtual image onto the windshield 35, and the virtual image is seen by the driver's eyes 50 as the virtual object 21.

図2の2段目図は、フロントガラス35及び投影ユニット36が+y方向にWSMだけシフトしたときの、仮想オブジェクト21と実オブジェクト11との位置ずれを示している。垂直シフトWSMは、自動車30のピッチ回転又は垂直シフトによって生じる。ピッチ回転はx方向に平行な軸を中心とする回転であり、垂直シフトは、y方向における平行移動である。HUDの表示システムが仮想オブジェクト21をレンダリングしたときには1段目図の状態が想定されているが、HUDに表示されるまでの間に時間があるため、その時間内に垂直シフトWSMが生じると、その垂直シフトWSMはレンダリング画像に反映されていないことになる。このため、フロントガラス35等の垂直シフトWSMによって仮想オブジェクト21の表示位置が+y方向にシフトし、実オブジェクト11に対して仮想オブジェクト21が+y方向にずれて見える。例えば、自動車30が道路の凹凸によってピッチ運動を繰り返した場合には、実オブジェクト11に対して仮想オブジェクト21が上下に揺れるように、ずれて見えることになる。 2 shows the positional deviation between the virtual object 21 and the real object 11 when the windshield 35 and the projection unit 36 shift by WSM in the +y direction. The vertical shift WSM occurs due to pitch rotation or vertical shift of the automobile 30. The pitch rotation is a rotation around an axis parallel to the x direction, and the vertical shift is a translation in the y direction. When the display system of the HUD renders the virtual object 21, the state shown in the first diagram is assumed, but since there is a time until it is displayed on the HUD, if a vertical shift WSM occurs during that time, the vertical shift WSM is not reflected in the rendered image. Therefore, the display position of the virtual object 21 is shifted in the +y direction by the vertical shift WSM of the windshield 35, etc., and the virtual object 21 appears to be shifted in the +y direction relative to the real object 11. For example, if the automobile 30 repeats pitch motion due to unevenness in the road, the virtual object 21 appears to be shifted relative to the real object 11, as if it is swaying up and down.

図2の3段目図は、ドライバーの目50が+y方向にDEMだけシフトしたときの、仮想オブジェクト21と実オブジェクト11との位置ずれを示している。フロントガラス35は移動しないが、フロントガラス35に対して目50が+y方向にシフトするため、仮想オブジェクト21の表示位置が-y方向にシフトする。このため、実オブジェクト11に対して仮想オブジェクト21が-y方向にずれて見える。 The third diagram in Figure 2 shows the positional deviation between the virtual object 21 and the real object 11 when the driver's eyes 50 shift in the +y direction by the DEM. The windshield 35 does not move, but the eyes 50 shift in the +y direction relative to the windshield 35, so the display position of the virtual object 21 shifts in the -y direction. As a result, the virtual object 21 appears to be shifted in the -y direction relative to the real object 11.

図2の4段目図は、実オブジェクト11が-y方向にRJMだけシフトしたときの、仮想オブジェクト21と実オブジェクト11との位置ずれを示している。フロントガラス35及び目50は移動しないため仮想オブジェクト21の表示位置はシフトしないが、実オブジェクト11が-y方向にシフトするため、実オブジェクト11に対して仮想オブジェクト21が+y方向にずれて見える。 The fourth diagram in Figure 2 shows the positional deviation between the virtual object 21 and the real object 11 when the real object 11 shifts by RJM in the -y direction. The display position of the virtual object 21 does not shift because the windshield 35 and the eyes 50 do not move, but because the real object 11 shifts in the -y direction, the virtual object 21 appears to be shifted in the +y direction relative to the real object 11.

図3は、本実施形態のレイテンシー補償を説明する図である。図3には、ドライバーから見た仮想オブジェクト21、実オブジェクト11及び仮想オブジェクト21を示している。図3の左図は、ドライバーから見て実オブジェクト11と仮想オブジェクト21の表示位置が一致している状態である。図3の中図に示すように、ドライバーが頭を左上に動かした場合、実オブジェクト11が左上にMVだけシフトする。仮想オブジェクト21の表示位置は変わらないので、実オブジェクト11と仮想オブジェクト21がMVだけずれる。図3の右図に示すように、本実施形態では、レイテンシーによるシフト量MVを補償することで、実オブジェクト11と仮想オブジェクト21の表示位置を一致させる。このようなレイテンシー補償を行うことで、ドライバーが頭を左上に動かしたときに左図から右図の状態に移行し、中図のような位置ずれ状態を避けることができる。詳細については後述するが、本実施形態では表示タイミングにできるだけ近いワープ処理においてレイテンシー補償を行うことで、出来るだけレイテンシーによる位置ずれを小さくする。 3 is a diagram for explaining latency compensation in this embodiment. FIG. 3 shows a virtual object 21, a real object 11, and a virtual object 21 as seen by the driver. The left diagram in FIG. 3 shows a state in which the display positions of the real object 11 and the virtual object 21 match as seen by the driver. As shown in the middle diagram in FIG. 3, when the driver moves his head to the upper left, the real object 11 shifts to the upper left by MV. Since the display position of the virtual object 21 does not change, the real object 11 and the virtual object 21 shift by MV. As shown in the right diagram in FIG. 3, in this embodiment, the display positions of the real object 11 and the virtual object 21 are matched by compensating for the shift amount MV due to latency. By performing such latency compensation, when the driver moves his head to the upper left, the state transitions from the left diagram to the right diagram, and the position shift state as shown in the middle diagram can be avoided. Details will be described later, but in this embodiment, latency compensation is performed in a warp process as close as possible to the display timing, thereby minimizing position shift due to latency as much as possible.

HUDの表示システムにおいて、どのようなレイテンシーが存在するかを考えるために、従来技術における典型的な表示システムと、その表示システムにおいて発生するレイテンシーと、を説明する。 To consider what kind of latency exists in a HUD display system, we will explain a typical display system in the prior art and the latency that occurs in that display system.

図4は、従来技術における表示システム90の構成例である。表示システム90はセンサー65と処理装置60とHUDコントローラー70とHUD80とを含む。 Figure 4 shows an example of the configuration of a display system 90 in the prior art. The display system 90 includes a sensor 65, a processing device 60, a HUD controller 70, and a HUD 80.

センサー65は、自動車、ドライバー又は実オブジェクトの位置、姿勢又はモーションを検出するセンサーである。 Sensor 65 is a sensor that detects the position, posture, or motion of a vehicle, a driver, or a real object.

処理装置270は、センサーインターフェース61とトラッキング処理部62とレンダリング画像生成部63とを含む。センサーインターフェース61は、センサー65の出力信号を受信するインターフェース回路である。トラッキング処理部62は、CPUにより構成され、センサー65の出力信号に基づいて、自動車、ドライバー又は実オブジェクトの位置、姿勢又はモーションをトラッキングする。レンダリング画像生成部63は、GPUにより構成され、自動車、ドライバー又は実オブジェクトのトラッキング情報に基づいて、実オブジェクトに追従して表示されるように仮想オブジェクトをレンダリングする。 The processing device 270 includes a sensor interface 61, a tracking processing unit 62, and a rendering image generation unit 63. The sensor interface 61 is an interface circuit that receives the output signal of a sensor 65. The tracking processing unit 62 is configured with a CPU, and tracks the position, attitude, or motion of the automobile, driver, or real object based on the output signal of the sensor 65. The rendering image generation unit 63 is configured with a GPU, and renders a virtual object so that it is displayed following the real object based on the tracking information of the automobile, driver, or real object.

HUDコントローラー70は、レンダリング画像をワープ処理するワープ処理部71を含む。HUD80は、ワープ処理後の画像を表示するディスプレイ81を含む。ディスプレイ81は、液晶表示装置等の表示装置である。ディスプレイ81に表示された画像が光学系によってフロントガラスに投影されることで、レンダリング画像の仮想オブジェクトが表示される。 The HUD controller 70 includes a warp processing unit 71 that warps the rendering image. The HUD 80 includes a display 81 that displays the image after warping. The display 81 is a display device such as a liquid crystal display device. The image displayed on the display 81 is projected onto the windshield by an optical system, thereby displaying the virtual object of the rendering image.

図5に、表示システム90の処理フローを示す。ここではセンサー65としてIMUとカメラを用いる例を示す。IMUは、カメラのフレームレートに比べて十分速いサンプリングレートでセンシングを行っている。Tck、Tck+1、Tck+2は、カメラの露出タイミングを示している。即ち、カメラによって得られる画像は、タイミングTck等における実オブジェクトの位置を示す。画像信号処理は、カメラの露出終了後に行われる処理であり、イメージセンサーからの信号読み出し、及び現像処理等を含む。 Figure 5 shows the processing flow of the display system 90. Here, an example is shown in which an IMU and a camera are used as the sensor 65. The IMU performs sensing at a sampling rate that is sufficiently faster than the frame rate of the camera. Tck, Tck+1, and Tck+2 indicate the exposure timing of the camera. In other words, the image obtained by the camera indicates the position of the real object at the timing Tck, etc. Image signal processing is processing that is performed after the camera exposure ends, and includes signal reading from the image sensor, development processing, etc.

トラッキング処理部62は、ビジュアル慣性オドメトリにより、画像信号処理後の画像から実オブジェクトの位置をトラッキングする。この段階では、カメラの露出タイミングtckにおける実オブジェクトの位置が検出される。トラッキング処理部62は、ビジュアル慣性オドメトリが終了した後のタイミングtodにおけるIMUの出力信号と、ビジュアル慣性オドメトリの結果とに基づいて、慣性オドメトリにより実オブジェクトの位置をトラッキングする。この処理によって、カメラの露出タイミングtckから慣性オドメトリのタイミングtodまでのレイテンシーが補償され、タイミングtodにおける実オブジェクトの位置が検出されることになる。 The tracking processing unit 62 tracks the position of the real object from the image after image signal processing by visual inertial odometry. At this stage, the position of the real object at the camera exposure timing tck is detected. The tracking processing unit 62 tracks the position of the real object by inertial odometry based on the IMU output signal at timing tod after the visual inertial odometry ends and the result of the visual inertial odometry. This process compensates for the latency from the camera exposure timing tck to the inertial odometry timing tod, and the position of the real object at timing tod is detected.

レンダリング画像生成部63は、慣性オドメトリにより検出された実オブジェクトに対応させた位置に、仮想オブジェクトをレンダリングし、そのレンダリング画像をワープ処理部71に出力する。このとき、レンダリング画像生成部63を構成するGPUからHUDコントローラー70へのデータ通信時間が発生する。ワープ処理部71は、レンダリング画像に対するワープ処理を行い、ワープ処理後の画像がHUD80に表示される。第1ライン~最終ラインはディスプレイ81の水平走査ラインであり、1ラインずつ走査される。このため1フレームの画像表示には、第1ライン~最終ラインを走査する時間が必要であるが、ここでは第1ラインの表示を行うタイミングを代表として表示タイミングtdpとする。 The rendering image generation unit 63 renders a virtual object at a position corresponding to the real object detected by inertial odometry, and outputs the rendering image to the warp processing unit 71. At this time, a data communication time occurs from the GPU constituting the rendering image generation unit 63 to the HUD controller 70. The warp processing unit 71 performs warp processing on the rendering image, and the image after warp processing is displayed on the HUD 80. The first line to the last line are horizontal scanning lines of the display 81, and are scanned one line at a time. Therefore, the time required to scan the first line to the last line is required to display one frame of image, but here, the timing of displaying the first line is representatively referred to as display timing tdp.

HUD80に表示される仮想オブジェクトは、タイミングtodにおける実オブジェクトの位置に対応している。このため、タイミングtodから表示タイミングtdpまでのレイテンシーが存在しており、この期間における自動車、ドライバー又は実オブジェクトのモーションによって実オブジェクトと仮想オブジェクトにずれが発生する可能性がある。 The virtual object displayed on the HUD 80 corresponds to the position of the real object at the timing tod. For this reason, there is a latency between the timing tod and the display timing tdp, and the motion of the car, driver, or real object during this period may cause a misalignment between the real object and the virtual object.

以上のように、表示タイミングtdpより前に検出されたトラッキング情報を用いてレンダリングされた仮想オブジェクトを表示することで、トラッキング情報を検出したタイミングから表示タイミングtdpまでのレイテンシーによって表示位置ずれが生じるという課題がある。 As described above, by displaying a virtual object rendered using tracking information detected before the display timing tdp, there is an issue that a display position shift occurs due to the latency between the timing at which the tracking information is detected and the display timing tdp.

上記特許文献1では、画像データ等の通信時間よりも姿勢データの計測時間を短くし、その姿勢データを用いて投影光学ユニットが高周波領域での補正を行うことで、通信時間による実像と投影画像との位置ずれを抑制する。しかし、投影光学ユニットを制御するためのデータ処理時間、及び構成部材の作動時間が必要であることから、その時間によって生じる位置ずれは依然として残る。 In the above-mentioned Patent Document 1, the measurement time of the posture data is made shorter than the communication time of the image data, etc., and the projection optical unit uses the posture data to perform correction in the high frequency range, thereby suppressing the positional deviation between the real image and the projected image caused by the communication time. However, because data processing time is required to control the projection optical unit and the operation time of the components is required, the positional deviation caused by these times still remains.

図6は、本実施形態における回路装置160、及び回路装置160を含む表示システムの第1構成例を示す。図6に示す表示システムは、センサー500と処理装置150と回路装置160とHUD400とを含み、センサー500の出力信号に基づいて、実オブジェクトに対応した仮想オブジェクトをHUD400に表示させる。 Figure 6 shows a first configuration example of a circuit device 160 in this embodiment and a display system including the circuit device 160. The display system shown in Figure 6 includes a sensor 500, a processing device 150, the circuit device 160, and a HUD 400, and displays a virtual object corresponding to a real object on the HUD 400 based on the output signal of the sensor 500.

センサー500は、移動体、観者又は実オブジェクトの位置、姿勢又はモーションを検出するセンサーである。具体的には、センサー500は、実オブジェクトの2次元情報又は3次元情報を取得する第1センサー、移動体のモーションを検出する第2センサー、及び観者の視点又は視線方向を検出する第3センサーの少なくとも1つを含む。センサー500は移動体に設けられており、例えばLidar、IMU、カメラ、アイトラキングセンサー又はヘッドトラッキングセンサー等を含む。この例では、Lidar又はカメラが第1センサーに対応し、IMUが第2センサーに対応し、アイトラキングセンサー又はヘッドトラッキングセンサーが第3センサーに対応する。Lidarは、Light Detection and Rangingの略であり、zマップのような3次元情報を取得するセンサーである。IMUは、Inertial Measurement Unitの略であり、一軸又は複数軸のモーションを検出するセンサーである。IMUは、例えば加速度センサー、ジャイロセンサー、又はそれらの組み合わせによって構成される。カメラは、2次元情報である画像を撮像するセンサーである。アイトラキングセンサーは、観者の目の位置、視線方向又はそれら両方を検出するセンサーである。ヘッドトラッキングセンサーは、観者の頭部の位置、姿勢又はそれら両方を検出するセンサーである。 The sensor 500 is a sensor that detects the position, posture, or motion of a moving body, a viewer, or a real object. Specifically, the sensor 500 includes at least one of a first sensor that acquires two-dimensional or three-dimensional information of a real object, a second sensor that detects the motion of the moving body, and a third sensor that detects the viewpoint or line of sight of a viewer. The sensor 500 is provided on the moving body and includes, for example, a Lidar, an IMU, a camera, an eye tracking sensor, or a head tracking sensor. In this example, the Lidar or the camera corresponds to the first sensor, the IMU corresponds to the second sensor, and the eye tracking sensor or the head tracking sensor corresponds to the third sensor. Lidar stands for Light Detection and Ranging, and is a sensor that acquires three-dimensional information such as a z map. The IMU stands for Inertial Measurement Unit, and is a sensor that detects motion on one axis or multiple axes. The IMU is composed of, for example, an acceleration sensor, a gyro sensor, or a combination thereof. The camera is a sensor that captures an image that is two-dimensional information. An eye tracking sensor is a sensor that detects the position, gaze direction, or both of the viewer's eyes. A head tracking sensor is a sensor that detects the position, posture, or both of the viewer's head.

移動体は、HUD400、観者及びセンサー500を載せて実空間内を移動する物体であり、例えば自動車、二輪車、飛行機又は船舶等である。観者は、HUD400に投影される虚像を見るユーザーであり、移動体の操縦者又は搭乗者である。実オブジェクトは、実空間内に存在する物体である。実オブジェクトは、移動体、観者又は実オブジェクトの位置又は姿勢が変動したときに、観者から見たHUD表示領域内における実オブジェクトの位置又は姿勢が変動するような物体であればよい。 The moving body is an object that moves in real space carrying the HUD 400, the viewer, and the sensor 500, such as an automobile, motorcycle, airplane, or ship. The viewer is a user who sees the virtual image projected on the HUD 400, and is the operator or passenger of the moving body. The real object is an object that exists in real space. The real object may be any object in which the position or orientation of the real object changes in the HUD display area as seen by the viewer when the position or orientation of the moving body, the viewer, or the real object changes.

センサー500は、レンダリング用のトラッキング情報を求めるためのレンダリング用センサー510と、レイテンシー補償パラメーターを求めるためのレイテンシー補償用センサー520と、を含む。レンダリング用センサー510は、例えばLidar、IMU、及びカメラを含む。レイテンシー補償用センサー520は、例えばIMU及びヘッドトラッキングセンサーを含む。なお、レンダリング用センサー510とレイテンシー補償用センサー520が含むセンサーの種類は、上記に限定されず、移動体、観者又は実オブジェクトの位置、姿勢又はモーションを検出するセンサーであればよい。レイテンシー補償用センサー520とレンダリング用センサー510は別のセンサーであって、同種のセンサーを含む場合であっても、その同種のセンサーがレイテンシー補償用センサー520とレンダリング用センサー510に個別に設けられる。 The sensor 500 includes a rendering sensor 510 for obtaining tracking information for rendering, and a latency compensation sensor 520 for obtaining latency compensation parameters. The rendering sensor 510 includes, for example, a Lidar, an IMU, and a camera. The latency compensation sensor 520 includes, for example, an IMU and a head tracking sensor. The types of sensors included in the rendering sensor 510 and the latency compensation sensor 520 are not limited to those described above, and may be any sensor that detects the position, posture, or motion of a moving body, a viewer, or a real object. The latency compensation sensor 520 and the rendering sensor 510 are different sensors, and even if they include the same type of sensor, the same type of sensor is provided separately in the latency compensation sensor 520 and the rendering sensor 510.

処理装置150は、例えばSoCにより構成され、インターフェース151とトラッキング処理部110とレンダリング画像生成部120とを含む。SoCはSystem on Chipの略である。 The processing device 150 is configured, for example, by a SoC, and includes an interface 151, a tracking processing unit 110, and a rendering image generating unit 120. SoC is an abbreviation for System on Chip.

インターフェース151は、レンダリング用センサー510の出力信号を処理装置150に入力するためのインターフェースである。インターフェース151は、例えばレンダリング用センサー510の出力信号を受信する受信回路である。或いは、インターフェース151は、レンダリング用センサー510の出力信号が入力される端子であってもよい。その場合、端子に入力されたレンダリング用センサー510の出力信号が、トラッキング処理部110を構成するプロセッサーに入力され、そのプロセッサーがレンダリング用センサー510の出力信号を受信処理する。 The interface 151 is an interface for inputting the output signal of the rendering sensor 510 to the processing device 150. The interface 151 is, for example, a receiving circuit that receives the output signal of the rendering sensor 510. Alternatively, the interface 151 may be a terminal to which the output signal of the rendering sensor 510 is input. In this case, the output signal of the rendering sensor 510 input to the terminal is input to a processor constituting the tracking processing unit 110, and the processor receives and processes the output signal of the rendering sensor 510.

トラッキング処理部110は、センサー500の出力信号に基づいて、移動体、観者又は実オブジェクトの位置、姿勢又はモーションをトラッキングし、その結果をトラッキング情報として出力する。例えば、トラッキング処理部110は、Lidarからの2次元測距情報又はカメラからの2次元画像に基づいて、実オブジェクトをトラッキングする。またトラッキング処理部110は、IMUからの加速度又は角速度の情報に基づいて、自動車をトラッキングする。またトラッキング処理部110は、アイトラキングセンサーからの目の位置又は視線方向の情報に基づいて、ドライバーの目をトラッキングする。 The tracking processing unit 110 tracks the position, posture, or motion of a moving body, viewer, or real object based on the output signal of the sensor 500, and outputs the result as tracking information. For example, the tracking processing unit 110 tracks a real object based on two-dimensional distance measurement information from a Lidar or two-dimensional images from a camera. The tracking processing unit 110 also tracks a car based on acceleration or angular velocity information from an IMU. The tracking processing unit 110 also tracks the driver's eyes based on eye position or gaze direction information from an eye tracking sensor.

トラッキング情報は、移動体、観者又は実オブジェクトの位置、姿勢又はモーションを示す情報であれば、どのような形態の情報であってもよい。例えば、トラッキング情報は、実空間における位置を示す座標、姿勢を示す角度、平行移動を示すベクトル、又は回転を示す角速度等である。或いは、トラッキング情報は、上記実空間における座標等を画像上における座標、角度、ベクトル又は角速度等に換算した情報であってもよい。トラッキング情報は、移動体の第1トラッキング情報、観者の第2トラッキング情報、及び実オブジェクトの第3トラッキング情報を含む。但し、トラッキング情報は、第1~第3トラッキング情報のうち少なくとも1つを含んでいればよく、例えば観者の第2トラッキング情報が省略されてもよい。 The tracking information may be in any form as long as it indicates the position, attitude, or motion of a moving body, a viewer, or a real object. For example, the tracking information may be coordinates indicating a position in real space, an angle indicating an attitude, a vector indicating a parallel translation, or an angular velocity indicating a rotation. Alternatively, the tracking information may be information obtained by converting the coordinates in the real space into coordinates, angles, vectors, or angular velocities on an image. The tracking information includes first tracking information of a moving body, second tracking information of a viewer, and third tracking information of a real object. However, it is sufficient that the tracking information includes at least one of the first to third tracking information, and for example, the second tracking information of the viewer may be omitted.

レンダリング画像生成部120は、移動体、観者又は実オブジェクトのトラッキング情報に基づいて仮想オブジェクトをレンダリングし、仮想オブジェクトを含むレンダリング画像を出力する。具体的には、レンダリング画像生成部120は、HUD400の表示領域において実オブジェクトの見える位置を求め、その実オブジェクトの位置に対応した位置に仮想オブジェクトをレンダリングする。レンダリング画像生成部120は、レンダリング画像と共に、トラッキング処理部110が取得したトラッキング情報を、回路装置160に出力する。 The rendering image generation unit 120 renders a virtual object based on tracking information of a moving body, a viewer, or a real object, and outputs a rendering image including the virtual object. Specifically, the rendering image generation unit 120 determines the position at which the real object is visible in the display area of the HUD 400, and renders the virtual object at a position corresponding to the position of the real object. The rendering image generation unit 120 outputs the tracking information acquired by the tracking processing unit 110 together with the rendering image to the circuit device 160.

トラッキング処理部110及びレンダリング画像生成部120は、CPU又はGPU等のプロセッサーにより構成される。CPUはCentral Processing Unitの略である。GPUはGraphical Processing Unitの略である。トラッキング処理部110及びレンダリング画像生成部120は、1つのプロセッサーで実現されてもよいし、それぞれ個別のプロセッサーで実現されてもよい。 The tracking processing unit 110 and the rendering image generation unit 120 are configured with a processor such as a CPU or a GPU. CPU stands for Central Processing Unit. GPU stands for Graphical Processing Unit. The tracking processing unit 110 and the rendering image generation unit 120 may be realized by a single processor, or each may be realized by a separate processor.

回路装置160は、いわゆるHUDコントローラーであり、HUD400に表示させる画像の歪み補正、及び表示タイミング制御等を行う。回路装置160は、例えば集積回路装置により構成され、インターフェース161とワープ処理部130とパラメーター演算部140と記憶部145とを含む。 The circuit device 160 is a so-called HUD controller, and performs distortion correction of the image displayed on the HUD 400, display timing control, etc. The circuit device 160 is configured, for example, by an integrated circuit device, and includes an interface 161, a warp processing unit 130, a parameter calculation unit 140, and a memory unit 145.

インターフェース161は、レンダリング画像とトラッキング情報とを回路装置160に入力するためのインターフェースである。具体的には、処理装置150から送信されるレンダリング画像及びトラッキング情報がインターフェース161に入力される。また、レイテンシー補償用センサー520の出力信号がトラッキング情報としてインターフェース161に入力される。インターフェース161は、例えばレンダリング画像、トラッキング情報及びレイテンシー補償用センサー520の出力信号を受信する受信回路である。或いは、インターフェース161は、レンダリング画像及びトラッキング情報を受信する受信回路と、レイテンシー補償用センサー520の出力信号が入力される端子と、であってもよい。その場合、端子に入力されたレイテンシー補償用センサー520の出力信号が、パラメーター演算部140に入力され、パラメーター演算部140がレイテンシー補償用センサー520の出力信号を受信処理する。 The interface 161 is an interface for inputting the rendering image and tracking information to the circuit device 160. Specifically, the rendering image and tracking information transmitted from the processing device 150 are input to the interface 161. In addition, the output signal of the latency compensation sensor 520 is input to the interface 161 as tracking information. The interface 161 is, for example, a receiving circuit that receives the rendering image, tracking information, and the output signal of the latency compensation sensor 520. Alternatively, the interface 161 may be a receiving circuit that receives the rendering image and tracking information, and a terminal to which the output signal of the latency compensation sensor 520 is input. In that case, the output signal of the latency compensation sensor 520 input to the terminal is input to the parameter calculation unit 140, and the parameter calculation unit 140 receives and processes the output signal of the latency compensation sensor 520.

記憶部145は、RAM又は不揮発性メモリー等の半導体メモリーであり、レンダリング補償前のワープパラメーターを記憶する。RAMはRandom Access Memoryの略である。上述したように、ワープパラメーターはマトリックス又はテーブルである。ワープパラメーターは、フォワードマップパラメーター又はインバースマップパラメーターのいずれであってもよい。フォワードマップパラメーターは、入力画像の各画素と、その各画素に対応した移動先座標とを対応付けるパラメーター、或いは、入力画像の各画素と、その各画素に対応した移動先座標への相対移動量とを対応付けるパラメーターである。インバースマップパラメーターは、出力画像の各画素と、その各画素に対応した参照元座標とを対応付けるパラメーター、或いは、出力画像の各画素と、その各画素に対応した参照元座標からの相対移動量とを対応付けるパラメーターである。 The storage unit 145 is a semiconductor memory such as a RAM or a non-volatile memory, and stores the warp parameters before rendering compensation. RAM is an abbreviation for Random Access Memory. As described above, the warp parameters are a matrix or a table. The warp parameters may be either forward map parameters or inverse map parameters. The forward map parameters are parameters that associate each pixel of the input image with the destination coordinates corresponding to each pixel, or parameters that associate each pixel of the input image with the relative movement amount to the destination coordinates corresponding to each pixel. The inverse map parameters are parameters that associate each pixel of the output image with the reference source coordinates corresponding to each pixel, or parameters that associate each pixel of the output image with the relative movement amount from the reference source coordinates corresponding to each pixel.

パラメーター演算部140は、処理装置150からレンダリング画像と共に送信されたトラッキング情報と、レイテンシー補償用センサー520の出力信号とに基づいてレイテンシー補償パラメーターを求める。パラメーター演算部140は、パラメーター演算部140は、記憶部145から読み出したワープパラメーターをレイテンシー補償パラメーターに基づいて補正し、補正後ワープパラメーターを出力する。ここで用いられるトラッキング情報は、レンダリング処理に用いられるトラッキング情報よりも後にサンプリングされたものである。レイテンシーを最小限にする観点から、パラメーター演算の直前又はできるだけ近いタイミングで取得されたトラッキング情報を用いることが、望ましい。 The parameter calculation unit 140 determines latency compensation parameters based on the tracking information transmitted from the processing unit 150 together with the rendering image and the output signal of the latency compensation sensor 520. The parameter calculation unit 140 corrects the warp parameters read from the storage unit 145 based on the latency compensation parameters, and outputs the corrected warp parameters. The tracking information used here is sampled later than the tracking information used in the rendering process. From the viewpoint of minimizing latency, it is desirable to use tracking information obtained immediately before or as close as possible to the parameter calculation.

レイテンシー補償パラメーターは、レンダリング画像における仮想オブジェクトの位置と、表示タイミングにおける仮想オブジェクトの位置との差を補償するパラメーターである。レイテンシー補償パラメーターは、画像データ上におけるシフト量又は回転角度を示す。より具体的には、レイテンシー補償パラメーターは、ワープ処理前の歪んでいない画像におけるシフト量又は回転角度を示す。 The latency compensation parameter is a parameter that compensates for the difference between the position of a virtual object in a rendered image and the position of the virtual object at the display timing. The latency compensation parameter indicates the amount of shift or the angle of rotation on the image data. More specifically, the latency compensation parameter indicates the amount of shift or the angle of rotation in an undistorted image before warping processing.

ワープパラメーターは、ワープ処理における座標変換のパラメーターであり、ワープ処理における入力画像の座標と出力画像の座標とを対応付けるパラメーターである。ワープパラメーターは、例えば入力画像と出力画像の間の座標変換を表したマトリックス又はテーブルである。 Warp parameters are parameters for coordinate transformation in warping processing, and are parameters that associate the coordinates of the input image with the coordinates of the output image in warping processing. Warp parameters are, for example, a matrix or table that represents the coordinate transformation between the input image and the output image.

ワープ処理部130は、湾曲したスクリーンにレンダリング画像が投影されたときに歪んでいない画像となるように、レンダリング画像をワープ処理する。具体的には、ワープ処理部130は、パラメーター演算部140が出力した補正後ワープパラメーターを用いてレンダリング画像を座標変換することで、表示画像を生成する。この座標変換は、スクリーンの湾曲による画像歪みをキャンセルするような座標変換である。表示画像は、HUD400の表示パネルに表示される画像であり、その表示パネルに表示された表示画像が投影ユニットによってスクリーンに投影されることで、歪みのない虚像として表示される。 The warp processing unit 130 warps the rendering image so that the rendering image is not distorted when it is projected onto a curved screen. Specifically, the warp processing unit 130 generates a display image by performing coordinate transformation on the rendering image using the corrected warp parameters output by the parameter calculation unit 140. This coordinate transformation is a coordinate transformation that cancels image distortion caused by the curvature of the screen. The display image is an image displayed on the display panel of the HUD 400, and is displayed as an undistorted virtual image by projecting the display image displayed on the display panel onto the screen by the projection unit.

ワープ処理部130及びパラメーター演算部140はロジック回路により構成され、例えば自動配置配線されたゲートアレイ又は自動配線されたスタンダードセルアレイ等により構成される。 The warp processing unit 130 and the parameter calculation unit 140 are composed of logic circuits, for example, an automatically placed and wired gate array or an automatically wired standard cell array.

HUD400はディスプレイ410を含み、表示画像をディスプレイ410に表示させる。ディスプレイ410は、液晶表示装置等の表示装置である。HUD400は、スクリーンに虚像を投影するための不図示の光学系を含み、その光学系は、表示パネルに表示された表示画像を虚像としてスクリーンに投影することで、仮想オブジェクトを実空間に重ねて表示する。スクリーンは移動体のウィンドスクリーン等である。或いは、HUD400は専用のスクリーンを含み、そのスクリーンに虚像が投影されてもよい。 HUD 400 includes a display 410, and displays a display image on display 410. Display 410 is a display device such as a liquid crystal display device. HUD 400 includes an optical system (not shown) for projecting a virtual image onto a screen, and the optical system projects the display image displayed on the display panel onto the screen as a virtual image, thereby superimposing a virtual object onto real space. The screen is a windscreen of a moving object, or the like. Alternatively, HUD 400 may include a dedicated screen onto which a virtual image is projected.

図7に、トラッキング処理部110の詳細な処理フローを示し、図8に、第1構成例における表示システムの処理フローを示す。なお、図7に示すトラッキング処理は一例であって、実オブジェクト等をトラッキングする手法はこれに限定されない。また、トラッキング処理に用いられるセンサーも、採用する手法に応じて選択されればよい。 Figure 7 shows a detailed processing flow of the tracking processing unit 110, and Figure 8 shows a processing flow of the display system in the first configuration example. Note that the tracking process shown in Figure 7 is just one example, and the method for tracking real objects, etc. is not limited to this. In addition, the sensor used in the tracking process may be selected depending on the method to be adopted.

図8に示すセンサーの基本的な動作は図5で説明した通りである。但し図8では、IMU1及びカメラがレンダリング用センサー510であり、IMU2がレイテンシー補償用センサー520である。 The basic operation of the sensor shown in FIG. 8 is as described in FIG. 5. However, in FIG. 8, IMU1 and the camera are the rendering sensor 510, and IMU2 is the latency compensation sensor 520.

トラッキング処理部110は、タイミングtckにおいてカメラが撮像した画像IMG(tck)と、タイミングtckにおいてIMU1がサンプリングした移動体のモーション情報MTI(tck)とに基づいて、ビジュアル慣性オドメトリ処理111を行い、タイミングtckにおける実オブジェクトと移動体の位置及び姿勢Pr(tck)を推定する。 The tracking processing unit 110 performs visual inertial odometry processing 111 based on the image IMG(tck) captured by the camera at the timing tck and the motion information MTI(tck) of the moving object sampled by the IMU1 at the timing tck, and estimates the position and orientation Pr(tck) of the real object and the moving object at the timing tck.

トラッキング処理部110は、位置及び姿勢Pr(tck)と、タイミングtnow1においてIMU1がサンプリングした移動体のモーション情報MTI(tnow1)とに基づいて、慣性オドメトリ処理112を行い、タイミングtnow1における実オブジェクトと移動体の位置及び姿勢Pc(tck,tnow1)を推定する。tnow1は、tckより後であり、且つ慣性オドメトリ処理112の開始前である。より望ましくは、tnow1は、ビジュアル慣性オドメトリ処理111の終了後、且つ慣性オドメトリ処理112の開始前である。 The tracking processing unit 110 performs inertial odometry processing 112 based on the position and orientation Pr(tck) and the motion information MTI(tnow1) of the moving body sampled by the IMU1 at the timing tnow1, and estimates the position and orientation Pc(tck, tnow1) of the real object and the moving body at the timing tnow1. tnow1 is after tck and before the start of the inertial odometry processing 112. More preferably, tnow1 is after the end of the visual inertial odometry processing 111 and before the start of the inertial odometry processing 112.

トラッキング処理部110は、位置及び姿勢Pc(tck,tnow1)に基づいて予測処理113を行い、tnow1より後のタイミングtfutureにおける実オブジェクトと移動体の位置及び姿勢Pp(tck,tnow1,tfuture)を予測する。図8では、tfuture=tdpとし、位置及び姿勢Pp(tck,tnow1,tdp)を予測する例を示す。tdpはHUDの表示タイミングである。予測処理113は、例えば、時系列に得られる位置及び姿勢Pcの微分値に基づいて、未来の位置及び姿勢Ppを予測する。 The tracking processing unit 110 performs prediction processing 113 based on the position and orientation Pc (tck, tnow1) to predict the position and orientation Pp (tck, tnow1, tfuture) of the real object and the moving body at a timing tfuture after tnow1. Figure 8 shows an example where tfuture = tdp and the position and orientation Pp (tck, tnow1, tdp) is predicted. tdp is the display timing of the HUD. The prediction processing 113 predicts the future position and orientation Pp, for example, based on the differential value of the position and orientation Pc obtained in time series.

レンダリング画像生成部120は、位置及び姿勢Pp(tck,tnow1,tdp)に基づいて仮想オブジェクトをレンダリングし、レンダリング画像を出力する。仮に、このレンダリング画像をそのままHUD400に表示させたとすると、位置及び姿勢Ppが示す実オブジェクトの位置に対応して仮想オブジェクトが表示されることになる。 The rendering image generation unit 120 renders a virtual object based on the position and orientation Pp (tck, tnow1, tdp) and outputs a rendering image. If this rendering image were displayed as is on the HUD 400, the virtual object would be displayed corresponding to the position of the real object indicated by the position and orientation Pp.

ここで、予測された位置及び姿勢Pp(tck,tnow1,tdp)は、tck、tnow1における情報を用いて予測されたものであり、tdpにおける実際のセンサー出力に基づく位置ではない。即ち、tnow1とtdpの間に生じた実際の動きが、予測処理113により予測された動きと異なった場合には、仮想オブジェクトと実オブジェクトの間にレイテンシーによる位置ずれが生じ得る。即ち、図8の例で補償対象となるレイテンシーは、tnow1とtdpの間の処理時間によるレイテンシーである。なお補償対象となるレイテンシーは、これに限定されない。例えば慣性オドメトリと予測処理を省略し、Pr(tck)を用いてレンダリング処理を行った場合、tckとtdpの間の処理時間によるレイテンシーが補償対象となる。 Here, the predicted position and orientation Pp (tck, tnow1, tdp) is predicted using information at tck and tnow1, and is not a position based on the actual sensor output at tdp. In other words, if the actual movement that occurs between tnow1 and tdp differs from the movement predicted by the prediction process 113, a position shift due to latency may occur between the virtual object and the real object. In other words, the latency to be compensated for in the example of FIG. 8 is the latency due to the processing time between tnow1 and tdp. Note that the latency to be compensated for is not limited to this. For example, if the inertial odometry and prediction process are omitted and the rendering process is performed using Pr(tck), the latency due to the processing time between tck and tdp is compensated for.

本実施形態では、上記のレイテンシーによる位置ずれを以下のようにして補償する。トラッキング処理部110は、タイミングtck+1においてカメラが撮像した画像IMG(tck+1)と、タイミングtck+1においてIMUがサンプリングした移動体のモーション情報MTI(tck+1)とに基づいて、ビジュアル慣性オドメトリ処理111を行い、タイミングtck+1における実オブジェクトと移動体の位置及び姿勢Pr(tck+1)を推定する。tck+1は、tckの次のカメラ露出タイミングである。 In this embodiment, the position shift due to the above latency is compensated for as follows. The tracking processing unit 110 performs visual inertial odometry processing 111 based on the image IMG(tck+1) captured by the camera at timing tck+1 and the motion information MTI(tck+1) of the moving body sampled by the IMU at timing tck+1, and estimates the position and orientation Pr(tck+1) of the real object and the moving body at timing tck+1. tck+1 is the next camera exposure timing after tck.

レンダリング画像生成部120は、位置及び姿勢Pp(tck,tnow1,tdp)に基づいてレンダリングしたレンダリング画像と共に、位置及び姿勢Pp(tck,tnow1,tdp)及び位置及び姿勢Pr(tck+1)を回路装置160に出力する。 The rendering image generation unit 120 outputs the position and orientation Pp (tck, tnow1, tdp) and the position and orientation Pr (tck+1) to the circuit device 160 along with the rendering image rendered based on the position and orientation Pp (tck, tnow1, tdp).

パラメーター演算部140は、インターフェース161を介して入力される位置及び姿勢Pr(tck+1)と、タイミングtnow2においてIMU2がサンプリングした移動体のモーション情報MTI’(tnow2)とに基づいて、慣性オドメトリ処理を行い、タイミングtnow2における実オブジェクトと移動体の位置及び姿勢Pc’(tck+1,tnow2)を推定する。 The parameter calculation unit 140 performs inertial odometry processing based on the position and orientation Pr(tck+1) input via the interface 161 and the motion information MTI'(tnow2) of the moving body sampled by the IMU2 at the timing tnow2, and estimates the position and orientation Pc'(tck+1, tnow2) of the real object and the moving body at the timing tnow2.

パラメーター演算部140は、位置及び姿勢Pc’(tck+1,tnow2)に基づいて予測処理を行い、tdpにおける実オブジェクトと移動体の位置及び姿勢Pp’(tck+1,tnow2,tdp)を予測する。 The parameter calculation unit 140 performs prediction processing based on the position and orientation Pc'(tck+1, tnow2) and predicts the position and orientation Pp'(tck+1, tnow2, tdp) of the real object and the moving body at tdp.

パラメーター演算部140は、位置及び姿勢Pp(tck,tnow1,tdp)と位置及び姿勢Pp’(tck+1,tnow2,tdp)に基づいてレイテンシー補償パラメーターを求める。具体的には、パラメーター演算部140は、位置及び姿勢Pp(tck,tnow1,tdp)と位置及び姿勢Pp’(tck+1,tnow2,tdp)の差による仮想オブジェクトの位置ずれをキャンセルするようなレイテンシー補償パラメーターを求める。パラメーター演算部140は、レイテンシー補償パラメーターを用いてワープパラメーターを補正し、補正後ワープパラメーターを出力する。 The parameter calculation unit 140 calculates a latency compensation parameter based on the position and orientation Pp (tck, tnow1, tdp) and the position and orientation Pp' (tck+1, tnow2, tdp). Specifically, the parameter calculation unit 140 calculates a latency compensation parameter that cancels the position shift of the virtual object due to the difference between the position and orientation Pp (tck, tnow1, tdp) and the position and orientation Pp' (tck+1, tnow2, tdp). The parameter calculation unit 140 corrects the warp parameter using the latency compensation parameter and outputs the corrected warp parameter.

ワープ処理部130は、補正後ワープパラメーターを用いてレンダリング画像をワープ処理し、表示画像を生成する。ワープ処理部130は、HUD400の表示パネルにおける第1ラインから最終ラインまでの走査タイミングに応じて、第1ラインから最終ラインのワープ処理を順次に行い、そのワープ処理後の各ラインのデータを走査タイミングに合わせて順次にHUD400に出力する。図8では、第1ラインの表示タイミングをtdpとしたが、tdpは、第1ラインから最終ラインを表示するまでのフレーム期間における任意のタイミングであってよい。 The warp processing unit 130 warps the rendering image using the corrected warp parameters to generate a display image. The warp processing unit 130 sequentially performs warp processing on the first line to the final line according to the scanning timing of the first line to the final line on the display panel of the HUD 400, and outputs the data of each line after the warp processing to the HUD 400 sequentially in accordance with the scanning timing. In FIG. 8, the display timing of the first line is set to tdp, but tdp may be any timing during the frame period from displaying the first line to the final line.

本実施形態によれば、ワープ処理部130は、ワープ処理において、表示領域における仮想オブジェクトの位置をレイテンシー補償パラメーターに基づいて補償するレイテンシー補償処理を行う。 According to this embodiment, the warp processing unit 130 performs latency compensation processing in the warp processing, which compensates for the position of a virtual object in the display area based on a latency compensation parameter.

このようにすれば、tnow1とtdpの間のレンダリング処理等によるレイテンシーによって発生する仮想オブジェクトの位置ずれが、レイテンシー補償パラメーターに基づいて補償される。表示の直前に行われるワープ処理においてレイテンシー補償を行うことで、残存するレイテンシーを最小限にできるため、実オブジェクトに対する仮想オブジェクトの追従性が高いAR表示を実現できる。また特許文献1のような光学的な補償機構を用いず、本実施形態では画像データ処理によってレイテンシー補償を行うので、投影ユニット等の構成を変更することなくレイテンシー補償を実現できる。またワープ処理において一体としてレイテンシー補償を行うので、正確な歪み補正とレイテンシー補償とを実現できる。 In this way, the positional deviation of the virtual object caused by the latency due to the rendering process between tnow1 and tdp is compensated for based on the latency compensation parameters. By performing latency compensation in the warp process performed immediately before display, the remaining latency can be minimized, making it possible to realize AR display in which the virtual object has high tracking ability with respect to the real object. Furthermore, in this embodiment, latency compensation is performed by image data processing rather than using an optical compensation mechanism as in Patent Document 1, so latency compensation can be realized without changing the configuration of the projection unit, etc. Furthermore, since latency compensation is performed as an integrated part in the warp process, accurate distortion correction and latency compensation can be realized.

また本実施形態では、インターフェース161には、第1タイミングにおけるトラッキング情報に基づいて生成されたレンダリング画像と、第1タイミングにおけるトラッキング情報と、が入力される。パラメーター演算部140は、第1タイミングより後で且つ画像の表示タイミングtdpより前の第2タイミングにおけるトラッキング情報と、第1タイミングにおけるトラッキング情報とに基づいて、レイテンシー補償パラメーターを演算する。図8の例では、tnow1が第1タイミングに相当し、tnow2が第2タイミングに相当する。 In this embodiment, the interface 161 receives a rendering image generated based on the tracking information at the first timing and the tracking information at the first timing. The parameter calculation unit 140 calculates a latency compensation parameter based on the tracking information at the first timing and the tracking information at the second timing, which is after the first timing and before the image display timing tdp. In the example of FIG. 8, tnow1 corresponds to the first timing, and tnow2 corresponds to the second timing.

このようにすれば、第1タイミングと表示タイミングの間のレイテンシーが、第2タイミングと表示タイミングの間のレイテンシーに短縮されるので、レイテンシーによる位置ずれが削減される。図8の例を用いて説明すると、ワープパラメーターを補正するレイテンシー補償パラメーターは、tnow1より後のtnow2においてIMU2がサンプリングしたモーション情報が反映されている。このレイテンシー補償パラメーターによって仮想オブジェクトの表示位置が補正されることで、tnow1とtdpの間のレイテンシーが、tnow2とtdpの間のレイテンシーに短縮されることになる。ワープ処理はHUD表示の直前に行われる処理であることから、tnow2はtdpに近いタイミングとなっており、可能な限りレイテンシーを小さくして、レイテンシーによる仮想オブジェクトの表示位置ずれを小さくできる。 In this way, the latency between the first timing and the display timing is shortened to the latency between the second timing and the display timing, reducing positional deviation due to latency. To explain using the example of Figure 8, the latency compensation parameter that corrects the warp parameter reflects the motion information sampled by IMU2 at tnow2, which is after tnow1. By correcting the display position of the virtual object using this latency compensation parameter, the latency between tnow1 and tdp is shortened to the latency between tnow2 and tdp. Since the warp process is performed immediately before the HUD display, tnow2 is set close to tdp, making the latency as small as possible and reducing the display position deviation of the virtual object due to latency.

また本実施形態では、パラメーター演算部140は、表示領域の湾曲に応じた座標変換のワープパラメーターをレイテンシー補償パラメーターに基づいて補正することで、補正後ワープパラメーターを出力する。ワープ処理部130は、補正後ワープパラメーターを用いてワープ処理を行うことで、レイテンシー補償処理を行う。 In this embodiment, the parameter calculation unit 140 corrects the warp parameters of the coordinate transformation corresponding to the curvature of the display area based on the latency compensation parameters, thereby outputting the corrected warp parameters. The warp processing unit 130 performs the latency compensation process by performing the warp process using the corrected warp parameters.

このように、レイテンシー補償パラメーターに基づく補正後ワープパラメーターを用いてワープ処理を行うことで、ワープ処理においてレイテンシー補償を行うことができる。例えば、レイテンシー補償の画像処理をワープ処理とは別に行う構成も考えられるが、レイテンシー補償の画像処理の分だけ処理負荷が重くなり、またレイテンシー補償後にワープ処理を行うことによって、ワープ処理のレイテンシーが残存してしまう。本実施形態では、レイテンシー補償とワープ処理が一体になることで、処理負荷の増加を抑えつつ、レイテンシーを最小限にできる。 In this way, by performing warp processing using corrected warp parameters based on the latency compensation parameters, latency compensation can be performed in the warp processing. For example, a configuration in which image processing for latency compensation is performed separately from warp processing is conceivable, but the processing load increases by the amount of image processing for latency compensation, and performing warp processing after latency compensation results in the latency of the warp processing remaining. In this embodiment, latency compensation and warp processing are integrated, making it possible to minimize latency while suppressing an increase in processing load.

また本実施形態では、トラッキング情報は、移動体の進行方向に垂直な第1軸変位及び第2軸変位の少なくとも1つを含む変位を示す情報である。進行方向はz方向に対応し、第1軸はx方向の軸に対応し、第2軸はy方向の軸に対応する。パラメーター演算部140は、上記変位により生じる仮想オブジェクトの位置の誤差を補正することで補正後ワープパラメーターを出力する。 In this embodiment, the tracking information is information indicating a displacement including at least one of a first axis displacement and a second axis displacement perpendicular to the moving direction of the moving body. The moving direction corresponds to the z direction, the first axis corresponds to the x direction, and the second axis corresponds to the y direction. The parameter calculation unit 140 outputs the corrected warp parameters by correcting the error in the position of the virtual object caused by the above displacement.

レイテンシー補償では、短期間に生じる位置又は姿勢の変化を補償するが、短期間に生じる位置又は姿勢の変化としては移動体又は観者の揺れの影響が大きいと考えられる。移動体又は観者が揺れた場合、観者が表示領域を通して見る実オブジェクトはシフト変位すると考えられる。本実施形態によれば、移動体の進行方向に垂直な第1軸変位及び第2軸変位により生じる仮想オブジェクトの位置の誤差が補正されるので、移動体又は観者の揺れによる表示位置ずれを補償できる。 Latency compensation compensates for changes in position or orientation that occur over a short period of time, but it is believed that the shaking of the moving body or the viewer has a large impact on changes in position or orientation that occur over a short period of time. When the moving body or the viewer shakes, it is believed that the real object that the viewer sees through the display area shifts. According to this embodiment, the error in the position of the virtual object caused by the first axis displacement and second axis displacement perpendicular to the moving direction of the moving body is corrected, so that the display position deviation caused by the shaking of the moving body or the viewer can be compensated for.

また本実施形態では、移動体の進行方向に垂直な第1軸変位及び第2軸変位のうち、移動体の上下方向における変位が第2軸変位である。このとき、トラッキング情報は、移動体のピッチ変位によるHUD400又は観者の第2軸変位を示す情報を含む。パラメーター演算部140は、上記第2軸変位により生じる仮想オブジェクトの位置の誤差を補正することで補正後ワープパラメーターを出力する。 In this embodiment, of the first axis displacement and the second axis displacement perpendicular to the moving body's direction of travel, the displacement in the up-down direction of the moving body is the second axis displacement. At this time, the tracking information includes information indicating the second axis displacement of the HUD 400 or the viewer caused by the pitch displacement of the moving body. The parameter calculation unit 140 outputs the corrected warp parameters by correcting the error in the position of the virtual object caused by the second axis displacement.

上述した移動体の揺れとしてピッチ変位が想定されるが、移動体のピッチ変位はHUDのスクリーン又は観者の第2軸変位を生じさせる。このHUDのスクリーン又は観者の第2軸変位は、観者が表示領域を通して見る実オブジェクトに第2軸方向のシフト変位を生じさせる。本実施形態によれば、HUDのスクリーン又は観者の第2軸変位により生じる仮想オブジェクトの位置の誤差が補正されるので、移動体のピッチ変位による表示位置ずれを補償できる。 The above-mentioned shaking of the moving body is assumed to be a pitch displacement, and the pitch displacement of the moving body causes a second-axis displacement of the HUD screen or the viewer. This second-axis displacement of the HUD screen or the viewer causes a shift displacement in the second axis direction in the real object that the viewer sees through the display area. According to this embodiment, the error in the position of the virtual object caused by the second-axis displacement of the HUD screen or the viewer is corrected, so that the display position deviation caused by the pitch displacement of the moving body can be compensated for.

また本実施形態では、ワープ処理部130は、ワープ処理において、表示領域における仮想オブジェクトの回転及びスケールの少なくとも1つをレイテンシー補償パラメーターに基づいて補償するレイテンシー補償処理を行う。 In addition, in this embodiment, the warp processing unit 130 performs latency compensation processing in the warp processing, which compensates for at least one of the rotation and scale of the virtual object in the display area based on the latency compensation parameters.

このように、シフト変位のレイテンシー補償だけでなく、回転又はスケールのレイテンシー補償を行ってもよい。スケールは、仮想オブジェクトを縮小又はズームすることである。本実施形態によれば、レイテンシーによる仮想オブジェクトの回転誤差、スケール誤差又はその両方が補償されるので、より追従性が高いAR表示を実現できる。 In this way, latency compensation may be performed not only for shift displacement, but also for rotation or scale. Scaling refers to shrinking or zooming a virtual object. According to this embodiment, rotation error, scale error, or both of the virtual object due to latency are compensated for, making it possible to realize AR display with higher tracking performance.

また本実施形態では、インターフェース161には、レンダリング用センサー510の出力信号に基づくトラッキング処理により生成されたレンダリング用トラッキング情報と、レンダリング用トラッキング情報に基づいて生成されたレンダリング画像と、レンダリング用センサー510とは別のレイテンシー補償用センサー520の出力信号であるレイテンシー補償用トラッキング情報と、が入力される。パラメーター演算部140は、レンダリング用トラッキング情報とレイテンシー補償用トラッキング情報に基づいて、レイテンシー補償パラメーターを演算する。図8の例において、Pp(tck,tnow1,tdp)がレンダリング用トラッキング情報に対応する。またパラメーター演算部140は、レイテンシー補償用トラッキング情報であるレイテンシー補償用センサー520の出力信号に基づいてPp’(tck+1,tnow2,tdp)を求め、Pp(tck,tnow1,tdp)とPp’(tck+1,tnow2,tdp)からレイテンシー補償パラメーターを演算する。 In this embodiment, the interface 161 receives the rendering tracking information generated by the tracking process based on the output signal of the rendering sensor 510, the rendering image generated based on the rendering tracking information, and the latency compensation tracking information, which is the output signal of the latency compensation sensor 520, which is different from the rendering sensor 510. The parameter calculation unit 140 calculates the latency compensation parameter based on the rendering tracking information and the latency compensation tracking information. In the example of FIG. 8, Pp (tck, tnow1, tdp) corresponds to the rendering tracking information. The parameter calculation unit 140 also obtains Pp' (tck+1, tnow2, tdp) based on the output signal of the latency compensation sensor 520, which is the latency compensation tracking information, and calculates the latency compensation parameter from Pp (tck, tnow1, tdp) and Pp' (tck+1, tnow2, tdp).

このようにすれば、パラメーター演算部140が任意のタイミングでレイテンシー補償用センサー520の出力信号を取得できるので、表示タイミングtdpに出来るだけ近いタイミングのレイテンシー補償用センサー520の出力信号を取得し、レイテンシー補償パラメーターを演算できる。 In this way, the parameter calculation unit 140 can obtain the output signal of the latency compensation sensor 520 at any timing, and can obtain the output signal of the latency compensation sensor 520 at a timing as close as possible to the display timing tdp, and calculate the latency compensation parameters.

2.第2構成例
図9は、本実施形態における回路装置160、及び回路装置160を含む表示システムの第2構成例を示す。なお、既に説明した構成要素には同一の符号を付し、その構成要素についての説明を適宜に省略する。
9 shows a second configuration example of the circuit device 160 according to the present embodiment and a display system including the circuit device 160. Note that components already described are given the same reference numerals, and descriptions of those components will be omitted as appropriate.

図9では、トラッキング処理部110がトラッキング情報を回路装置160に出力し、レンダリング画像生成部120がレンダリング画像を回路装置160に出力する。回路装置160のインターフェース161は、レンダリング画像生成部120からのレンダリング画像と、トラッキング処理部110からのトラッキング情報とを受信する。 In FIG. 9, the tracking processing unit 110 outputs tracking information to the circuit device 160, and the rendering image generation unit 120 outputs a rendering image to the circuit device 160. The interface 161 of the circuit device 160 receives the rendering image from the rendering image generation unit 120 and the tracking information from the tracking processing unit 110.

図10に、第2構成例における表示システムの処理フローを示す。なお、図10に示す処理フローは一例であって、例えばトラッキング手法は図10に限定されない。また、トラッキングに用いるセンサーも、採用するトラッキング手法に応じて選択されればよい。 Figure 10 shows the processing flow of the display system in the second configuration example. Note that the processing flow shown in Figure 10 is just an example, and the tracking method is not limited to that shown in Figure 10. In addition, the sensor used for tracking may be selected according to the tracking method to be adopted.

トラッキング処理部110が位置及び姿勢Pp(tck,tnow1,tdp)を予測する処理、レンダリング画像生成部120がレンダリング画像を生成する処理、及びトラッキング処理部110が位置及び姿勢Pr(tck+1)を求める処理は、第1構成例と同様である。 The process in which the tracking processing unit 110 predicts the position and orientation Pp (tck, tnow1, tdp), the process in which the rendering image generating unit 120 generates the rendering image, and the process in which the tracking processing unit 110 determines the position and orientation Pr (tck+1) are the same as in the first configuration example.

第2構成例では、トラッキング処理部110は、位置及び姿勢Pr(tck+1)と、タイミングtnow2においてIMUがサンプリングした移動体のモーション情報MTI(tnow2)とに基づいて、慣性オドメトリ処理112を行い、タイミングtnow2における実オブジェクトと移動体の位置及び姿勢Pc(tck+1,tnow2)を推定する。 In the second configuration example, the tracking processing unit 110 performs inertial odometry processing 112 based on the position and orientation Pr(tck+1) and the motion information MTI(tnow2) of the moving body sampled by the IMU at timing tnow2, and estimates the position and orientation Pc(tck+1, tnow2) of the real object and the moving body at timing tnow2.

トラッキング処理部110は、位置及び姿勢Pc(tck+1,tnow2)に基づいて予測処理113を行い、tdpにおける実オブジェクトと移動体の位置及び姿勢Pp(tck+1,tnow2,tdp)を予測する。 The tracking processing unit 110 performs prediction processing 113 based on the position and orientation Pc(tck+1, tnow2) and predicts the position and orientation Pp(tck+1, tnow2, tdp) of the real object and the moving body at tdp.

パラメーター演算部140は、位置及び姿勢Pp(tck,tnow1,tdp)と位置及び姿勢Pp(tck+1,tnow2,tdp)に基づいてレイテンシー補償パラメーターを求める。具体的には、パラメーター演算部140は、位置及び姿勢Pp(tck,tnow1,tdp)と位置及び姿勢Pp(tck+1,tnow2,tdp)の差による仮想オブジェクトの位置ずれをキャンセルするようなレイテンシー補償パラメーターを求める。パラメーター演算部140は、レイテンシー補償パラメーターを用いてワープパラメーターを補正し、補正後ワープパラメーターを出力する。 The parameter calculation unit 140 calculates a latency compensation parameter based on the position and orientation Pp(tck, tnow1, tdp) and the position and orientation Pp(tck+1, tnow2, tdp). Specifically, the parameter calculation unit 140 calculates a latency compensation parameter that cancels the position shift of the virtual object due to the difference between the position and orientation Pp(tck, tnow1, tdp) and the position and orientation Pp(tck+1, tnow2, tdp). The parameter calculation unit 140 corrects the warp parameter using the latency compensation parameter and outputs the corrected warp parameter.

ワープ処理部130は、補正後ワープパラメーターを用いてレンダリング画像をワープ処理し、表示画像を生成する。 The warp processing unit 130 warps the rendering image using the corrected warp parameters to generate a display image.

3.ワープ処理
以下、インバースワープを例にワープ処理の詳細を説明する。但し、ワープ処理はフォワードワープ又はインバースワープのいずれであってもよく、ワープ処理部130はフォワードワープエンジン又はインバースワープエンジンのいずれであってもよい。フォワードワープとは、ワープエンジンに対する入力画像の各画素を、出力画像における任意の位置に移動させる変換である。フォワードワープエンジンとは、フォワードワープの機能を有するワープエンジンである。インバースワープとは、ワープエンジンの出力画像の各画素を、入力画像における任意の位置の画素から求める変換である。インバースワープエンジンとは、インバースワープの機能を有するワープエンジンである。
3. Warp Processing Warp processing will be described in detail below, taking inverse warp as an example. However, the warp processing may be either forward warp or inverse warp, and the warp processing unit 130 may be either a forward warp engine or an inverse warp engine. Forward warp is a transformation that moves each pixel of an input image to a warp engine to an arbitrary position in an output image. A forward warp engine is a warp engine that has a forward warp function. Inverse warp is a transformation that obtains each pixel of an output image of a warp engine from a pixel at an arbitrary position in an input image. An inverse warp engine is a warp engine that has an inverse warp function.

図11は、本実施形態におけるワープ処理の説明図である。入力画像はレンダリング画像である。出力画像は、HUDの液晶表示パネル等に表示される表示画像である。(xsrc,ysrc)は入力画像における水平方向の位置と垂直方向の位置を示す。(xdst,ydst)は出力画像における水平方向の位置と垂直方向の位置を示す。 Figure 11 is an explanatory diagram of the warp process in this embodiment. The input image is a rendering image. The output image is a display image that is displayed on the liquid crystal display panel of the HUD or the like. (xsrc, ysrc) indicate the horizontal and vertical positions in the input image. (xdst, ydst) indicate the horizontal and vertical positions in the output image.

レイテンシー補償パラメーターを用いたワープパラメーターの補正をg()で表すと、レイテンシー補償画像における位置は下式(1)のように表される。
(xlat,ylat)=g(xsrc,ysrc) ・・・(1)
If the correction of the warp parameters using the latency compensation parameters is represented as g( ), the position in the latency compensation image is expressed as the following equation (1).
(xlat,ylat)=g(xsrc,ysrc)...(1)

スクリーンの湾曲に応じたワープパラメーターによる歪み補正をf()と表すと、出力画像における位置は下式(2)のように表される。
(xdst,ydst)=f(xlat,ylat) ・・・(2)
If the distortion correction using the warp parameters according to the curvature of the screen is expressed as f( ), the position in the output image is expressed by the following equation (2).
(xdst,ydst)=f(xlat,ylat)...(2)

上式(1)(2)より、入力画像と出力画像の間の座標変換は下式(3)のように表される。
(xdst,ydst)=f・g(xsrc,ysrc) ・・・(3)
From the above equations (1) and (2), the coordinate transformation between the input image and the output image is expressed as the following equation (3).
(xdst, ydst) = f・g(xsrc, ysrc) (3)

インバースワープは上式(3)の逆変換を用いるので、下式(4)のようになる。
(xsrc,ysrc)=g-1・f-1(xdst,ydst) ・・・(4)
Inverse warping uses the inverse transformation of equation (3) above, resulting in equation (4) below.
(xsrc, ysrc) = g -1・f -1 (xdst, ydst) ... (4)

本実施形態では、パラメーター演算部140が、レイテンシー補償パラメーターg-1を求め、g-1・f-1を演算することでワープパラメーターf-1を補正し、補正後ワープパラメーターg-1・f-1を出力する。ワープ処理部130は、補正後ワープパラメーターg-1・f-1を用いて上式(4)のワープ処理を行うことで、出力画像を生成する。 In this embodiment, the parameter calculation unit 140 obtains a latency compensation parameter g −1 , corrects the warp parameter f −1 by calculating g −1 ·f −1 , and outputs the corrected warp parameter g −1 ·f −1 . The warp processing unit 130 performs the warp processing of the above formula (4) using the corrected warp parameter g −1 ·f −1 to generate an output image.

図12は、移動体等のトラッキング情報と、そのトラッキング情報に基づくレイテンシー補償との対応を示す図である。ここでは、トラッキング情報として6軸のモーション情報が得られるとする。 Figure 12 shows the correspondence between tracking information of a moving object, etc., and latency compensation based on that tracking information. Here, it is assumed that six-axis motion information is obtained as tracking information.

ヨー変位Δαは、垂直方向であるy方向に平行な軸を回転軸とする回転変位である。ヨー変位Δαは、観者がスクリーンを通してみた実オブジェクトに、水平シフトを生じさせる。水平シフトは、水平方向であるx方向のシフトである。このため、レイテンシー補償の手法は水平シフトとなる。 The yaw displacement Δα is a rotational displacement about an axis parallel to the vertical y direction. The yaw displacement Δα causes a horizontal shift in the real object seen by the viewer through the screen. The horizontal shift is a shift in the horizontal x direction. For this reason, the latency compensation technique is a horizontal shift.

ピッチ変位Δβは、水平方向であるx方向に平行な軸を回転軸とする回転変位である。ピッチ変位Δβは、観者がスクリーンを通してみた実オブジェクトに、垂直シフトを生じさせる。垂直シフトは、垂直方向であるy方向のシフトである。このため、レイテンシー補償の手法は垂直シフトとなる。 The pitch displacement Δβ is a rotational displacement about an axis parallel to the horizontal x-direction. The pitch displacement Δβ causes a vertical shift in the real object seen by the viewer through the screen. The vertical shift is a shift in the vertical y-direction. For this reason, the latency compensation technique is a vertical shift.

ロール変位Δγは、移動体の前後方向であるz方向に平行な軸を回転軸とする回転変位である。ロール変位Δγは、観者がスクリーンを通してみた実オブジェクトに、回転を生じさせる。このため、レイテンシー補償の手法は回転となる。 The roll displacement Δγ is a rotational displacement with an axis parallel to the z-direction, which is the forward and backward direction of the moving object, as the axis of rotation. The roll displacement Δγ causes a rotation in the real object seen by the viewer through the screen. For this reason, the latency compensation method is rotation.

水平シフトΔxは、x方向のシフトであり、観者がスクリーンを通してみた実オブジェクトに、水平シフトを生じさせる。このため、レイテンシー補償の手法は水平シフトとなる。 The horizontal shift Δx is a shift in the x direction, which causes a horizontal shift in the real object that the viewer sees through the screen. Therefore, the latency compensation technique is a horizontal shift.

垂直シフトΔyは、y方向のシフトであり、観者がスクリーンを通してみた実オブジェクトに、垂直シフトを生じさせる。このため、レイテンシー補償の手法は垂直シフトとなる。 The vertical shift Δy is a shift in the y direction, which causes a vertical shift in the real object that the viewer sees through the screen. Therefore, the latency compensation technique is a vertical shift.

前後シフトΔzは、z方向のシフトであり、観者がスクリーンを通してみた実オブジェクトに、縮小又は拡大を生じさせる。このため、レイテンシー補償の手法は縮小又はズームとなる。 The fore-aft shift Δz is a shift in the z-direction, which causes a shrinking or enlargement of the real object seen by the viewer through the screen. Hence, the latency compensation technique is a shrinking or zooming.

図13に、上記補償手法を実現するレイテンシー補償パラメーターの例を示す。図13に示す式の右辺のマトリックスが図11で説明したg-1に対応する。m13は水平シフトを示し、m23は垂直シフトを示す。m12は水平スキューを示す。水平スキューは、矩形を平行四辺形に歪ませるような変換であるが、ここでは回転の近似として用いている。m11は水平スケールを示し、m22は垂直スケールを示す。m11とm22は縮小又はズームに相当する。 FIG. 13 shows an example of latency compensation parameters that realize the compensation method. The matrix on the right side of the equation shown in FIG. 13 corresponds to g −1 described in FIG. 11. m13 indicates a horizontal shift, and m23 indicates a vertical shift. m12 indicates a horizontal skew. The horizontal skew is a transformation that distorts a rectangle into a parallelogram, but is used here as an approximation of rotation. m11 indicates a horizontal scale, and m22 indicates a vertical scale. m11 and m22 correspond to reduction or zoom.

例えば垂直シフトのみ発生した場合を考えると、m11=m22=1、m12=m13=0である。このとき、図13の式は下式(5)となる。
(xsrc,ysrc)=(xlat,ylat+m23) ・・・(5)
For example, when only a vertical shift occurs, m11=m22=1, and m12=m13=0. In this case, the equation in FIG.
(xsrc, ysrc) = (xlat, ylat+m23) ... (5)

図11において、歪み補正の逆変換f-1()は(xdst,ydst)を(xlat,ylat)に移動させる。上式(5)は、この移動量を、m23だけ垂直方向にシフトさせることに相当し、そのシフトによってレイテンシー補償が実現されている。 11, the inverse transformation f −1 ( ) of the distortion correction moves (xdst, ydst) to (xlat, ylat). The above equation (5) corresponds to shifting this amount by m23 in the vertical direction, and latency compensation is realized by this shift.

図14は、トラッキング情報からレイテンシー補償パラメーターを演算する手法を説明する図である。 Figure 14 illustrates a method for calculating latency compensation parameters from tracking information.

ヨー、ロール及びピッチの回転中心、観者の頭部、HUDスクリーン、及び実オブジェクトの幾何学的な位置関係から、移動体、観者又は実オブジェクトに生じた変位を、スクリーン上のシフト量又は回転角度に換算できる。そして、そのシフト量又は回転角度から図13の右辺のマトリックスを決定できる。 The displacement of the moving body, the viewer, or the real object can be converted into a shift amount or rotation angle on the screen based on the geometric positional relationship between the centers of rotation of the yaw, roll, and pitch, the viewer's head, the HUD screen, and the real object. Then, the matrix on the right side of Figure 13 can be determined from the shift amount or rotation angle.

図14では、図13において垂直シフトを示すm23を例に、トラッキング情報からレイテンシー補償パラメーターを求める手法を説明する。ここでは、トラッキング情報として、移動体32のピッチ変位Δβ及び垂直シフトΔymと、観者52の垂直シフトΔypとを用いる例を説明する。 In FIG. 14, a method for obtaining latency compensation parameters from tracking information is explained using m23, which indicates a vertical shift in FIG. 13, as an example. Here, an example is explained in which the pitch displacement Δβ and vertical shift Δym of the moving object 32 and the vertical shift Δyp of the viewer 52 are used as tracking information.

ピッチの回転中心PTCとスクリーン34との距離をDCFとすると、移動体32のピッチ変位Δβは、スクリーン34をDCF×Δβだけ垂直シフトさせる。また移動体32の垂直シフトΔymは、スクリーン34をΔymだけ垂直シフトさせる。これらを合計すると、スクリーン34の垂直シフト量はDCF×Δβ+Δymである。観者52の頭部と実オブジェクト12が動かないと仮定すると、例えばスクリーン34が+(DCF×Δβ+Δym)だけ上がったとき、観者から見たスクリーン34上の実オブジェクト12の位置は、スクリーン34に対して相対的に-(DCF×Δβ+Δym)だけ下がって見える。従って、この場合のレイテンシー補償パラメーターはm23=-(DCF×Δβ+Δym)となる。 If the distance between the pitch rotation center PTC and the screen 34 is DCF, then the pitch displacement Δβ of the moving body 32 shifts the screen 34 vertically by DCF×Δβ. Also, the vertical shift Δym of the moving body 32 shifts the screen 34 vertically by Δym. Adding these together, the vertical shift amount of the screen 34 is DCF×Δβ+Δym. If we assume that the head of the viewer 52 and the real object 12 do not move, for example, when the screen 34 is raised by +(DCF×Δβ+Δym), the position of the real object 12 on the screen 34 as seen by the viewer appears to be lowered by -(DCF×Δβ+Δym) relative to the screen 34. Therefore, the latency compensation parameter in this case is m23=-(DCF×Δβ+Δym).

観者52の頭部と実オブジェクト12との距離をDPTとし、スクリーン34と実オブジェクト12との距離をDFTとする。スクリーン34と実オブジェクト12が動かないと仮定すると、例えば観者が+Δypだけ上がったとき、観者52から見たスクリーン34上の実オブジェクト12の位置は、スクリーン34に対して相対的に+(DFT/DPT)×Δypだけ上がって見える。実オブジェクト12が十分遠くにあると仮定すれば、DFT/DPT=1と近似できるので、実オブジェクト12の垂直シフト量はΔypである。従って、この場合のレイテンシー補償パラメーターはm23=Δypとなる。 Let DPT be the distance between the head of the viewer 52 and the real object 12, and DFT be the distance between the screen 34 and the real object 12. Assuming that the screen 34 and the real object 12 do not move, for example, when the viewer moves up by +Δyp, the position of the real object 12 on the screen 34 as seen by the viewer 52 appears to move up by +(DFT/DPT)×Δyp relative to the screen 34. If we assume that the real object 12 is sufficiently far away, we can approximate DFT/DPT=1, so the vertical shift amount of the real object 12 is Δyp. Therefore, the latency compensation parameter in this case is m23=Δyp.

本実施形態によれば、回路装置160は記憶部145を含み、記憶部145は、表示画像における座標と、その座標の移動先を示す移動量とを対応づけるテーブルをワープパラメーターとして記憶する。パラメーター演算部140は、テーブルの移動量をレイテンシー補償パラメーターに基づいてシフトし、移動量がシフトされたテーブルを補償後ワープパラメーターとして出力する。 According to this embodiment, the circuit device 160 includes a storage unit 145, which stores a table that associates coordinates in a display image with a movement amount indicating the movement destination of the coordinates as a warp parameter. The parameter calculation unit 140 shifts the movement amount of the table based on the latency compensation parameter, and outputs the table with the shifted movement amount as a compensated warp parameter.

図11の例では、f-1()がテーブルとして記憶部145に記憶される。図13及び上式(5)で説明した例では、(xdst,ydst)を(xlat,ylat)に移動させるテーブルの移動量が、例えばm23だけ垂直方向にシフトされる。即ち、(xdst,ydst)を(xlat,ylat+m23)に移動させるテーブルに補正される。 In the example of Fig. 11, f -1 () is stored as a table in the storage unit 145. In the example described in Fig. 13 and the above formula (5), the amount of movement of the table that moves (xdst, ydst) to (xlat, ylat) is shifted vertically by, for example, m23. That is, the table is corrected to move (xdst, ydst) to (xlat, ylat + m23).

或いは、記憶部145は、表示画像における座標を、移動先の座標に変換する変換式のパラメーターをワープパラメーターとして記憶してもよい。パラメーター演算部140は、移動先の座標をレイテンシー補償パラメーターに基づいてシフトし、移動先の座標がシフトされた変換式のパラメーターを補償後ワープパラメーターとして出力する。 Alternatively, the storage unit 145 may store, as warp parameters, parameters of a transformation equation that converts coordinates in the display image into destination coordinates. The parameter calculation unit 140 shifts the destination coordinates based on the latency compensation parameters, and outputs, as compensated warp parameters, the parameters of the transformation equation in which the destination coordinates have been shifted.

変換式は例えば多項式であり、その多項式の係数が変換式のパラメーターとして記憶部145に記憶される。図11の例では、f-1()を示す変換式のパラメーターが記憶部145に記憶される。図13及び上式(5)で説明した例では、(xdst,ydst)を(xlat,ylat)に移動させる変換式の移動量が、例えばm23だけ垂直方向にシフトされる。即ち、(xdst,ydst)を(xlat,ylat+m23)に移動させる変換式に補正される。 The conversion equation is, for example, a polynomial, and the coefficients of the polynomial are stored in the storage unit 145 as parameters of the conversion equation. In the example of Fig. 11, the parameters of the conversion equation indicating f -1 () are stored in the storage unit 145. In the example described in Fig. 13 and the above formula (5), the amount of movement of the conversion equation that moves (xdst, ydst) to (xlat, ylat) is shifted vertically by, for example, m23. That is, the conversion equation is corrected to one that moves (xdst, ydst) to (xlat, ylat+m23).

4.電子機器、移動体
図15は、本実施形態の回路装置160を含む電子機器300の構成例である。電子機器300は、処理装置150、回路装置160、記憶装置350、操作装置360、通信装置370、ヘッドアップディスプレイ400、センサー500を含む。
15 shows an example of the configuration of an electronic device 300 including the circuit device 160 of the present embodiment. The electronic device 300 includes a processing device 150, a circuit device 160, a storage device 350, an operation device 360, a communication device 370, a head-up display 400, and a sensor 500.

処理装置150は、仮想オブジェクトをレンダリングしたレンダリング画像を回路装置160に出力する。また処理装置150は、記憶装置350に記憶された画像データ、又は通信装置370が受信した画像データと、仮想オブジェクトとを合成したレンダリング画像を、回路装置160に出力してもよい。回路装置160は、レンダリング画像に対するワープ処理と共にレイテンシー補償を行う。また回路装置160は表示タイミング制御等を行う。ヘッドアップディスプレイ400は、回路装置160から転送された画像データと、回路装置160による表示タイミング制御に基づいて、表示パネルを駆動し、表示パネルに画像を表示させる。表示パネルは、例えば液晶表示パネル、或いはEL表示パネル等である。ヘッドアップディスプレイ400は、表示パネルに表示された画像を投影光学ユニットによりスクリーンに投影する。記憶装置350は、例えばメモリー、或いはハードディスクドライブ、或いは光学ディスクドライブ等である。操作装置360は、電子機器300をユーザーが操作するための装置であり、例えばボタンや、或いはタッチパネルや、或いはキーボード等である。通信装置370は、例えば有線通信を行う装置、或いは無線通信を行う装置である。有線通信は、例えばLAN、又はUSB等である。無線通信は、例えば無線LANや、無線近接通信等である。 The processing device 150 outputs a rendering image obtained by rendering a virtual object to the circuit device 160. The processing device 150 may also output a rendering image obtained by combining image data stored in the storage device 350 or image data received by the communication device 370 with a virtual object to the circuit device 160. The circuit device 160 performs latency compensation along with warping processing on the rendering image. The circuit device 160 also performs display timing control, etc. The head-up display 400 drives the display panel based on the image data transferred from the circuit device 160 and the display timing control by the circuit device 160, and displays an image on the display panel. The display panel is, for example, a liquid crystal display panel or an EL display panel. The head-up display 400 projects the image displayed on the display panel onto a screen by a projection optical unit. The storage device 350 is, for example, a memory, a hard disk drive, an optical disk drive, etc. The operation device 360 is a device for a user to operate the electronic device 300, and is, for example, a button, a touch panel, or a keyboard. The communication device 370 is, for example, a device that performs wired communication or wireless communication. Examples of wired communication include a LAN or a USB. Examples of wireless communication include a wireless LAN or wireless proximity communication.

本実施形態の回路装置を含む電子機器としては、車載用の電子機器、工場設備等の表示端末、ロボットに搭載された表示装置、又は情報処理装置等の種々の機器を想定できる。車載用の電子機器は、例えばメーターパネル等である。情報処理装置は例えばPC等である。 Electronic devices including the circuit device of this embodiment can be various devices such as electronic devices for vehicles, display terminals for factory equipment, display devices mounted on robots, and information processing devices. An example of an electronic device for vehicles is a meter panel. An example of an information processing device is a PC.

図16は、本実施形態の回路装置160を含む移動体の例である。移動体は、制御装置208、ヘッドアップディスプレイ400、センサー500を含む。制御装置208は、処理装置150、回路装置160を含む。制御装置208はECU(Electronic Control Unit)であり、ECUに処理装置150と回路装置160が組み込まれる。なお回路装置160はヘッドアップディスプレイ400に組み込まれてもよい。本実施形態の回路装置160は、例えば、車、飛行機、バイク、自転車、或いは船舶等の種々の移動体に組み込むことができる。移動体は、例えばエンジンやモーター等の駆動機構、ハンドルや舵等の操舵機構、各種の電子機器を備えて、地上や空や海上を移動する機器又は装置である。図16は移動体の具体例としての自動車206を概略的に示している。自動車206は車体207と車輪209を有する。上記のECUは、ドライバーによる操作に基づいて、エンジン、ブレーキ又は操舵等を制御することで自動車206の走行を制御する。ヘッドアップディスプレイ400は透明スクリーンを有し、その透明スクリーンは運転席とフロントガラスの間に設置される。或いは、ヘッドアップディスプレイは、フロントガラスを透明スクリーンとして用い、フロントガラスに画像を投影してもよい。ヘッドアップディスプレイ400は、AR表示を行うと共に、例えば自動車206のメーターパネルとして機能してもよい。 Figure 16 is an example of a moving body including the circuit device 160 of this embodiment. The moving body includes a control device 208, a head-up display 400, and a sensor 500. The control device 208 includes a processing device 150 and a circuit device 160. The control device 208 is an ECU (Electronic Control Unit), and the processing device 150 and the circuit device 160 are incorporated into the ECU. The circuit device 160 may be incorporated into the head-up display 400. The circuit device 160 of this embodiment can be incorporated into various moving bodies such as cars, airplanes, motorcycles, bicycles, or ships. The moving body is, for example, a device or equipment that is equipped with a driving mechanism such as an engine or a motor, a steering mechanism such as a handle or a rudder, and various electronic devices and moves on the ground, in the air, or on the sea. Figure 16 shows a schematic diagram of an automobile 206 as a specific example of a moving body. The automobile 206 has a body 207 and wheels 209. The ECU controls the running of the automobile 206 by controlling the engine, brakes, steering, etc. based on the operation by the driver. The head-up display 400 has a transparent screen, and the transparent screen is installed between the driver's seat and the windshield. Alternatively, the head-up display may use the windshield as a transparent screen and project an image onto the windshield. The head-up display 400 may perform AR display and may also function as, for example, a meter panel of the automobile 206.

以上に説明した本実施形態の回路装置は、実空間の実オブジェクトに対応する仮想オブジェクトを表示領域に表示するヘッドアップディスプレイの表示制御を行う。回路装置は、インターフェースとパラメーター演算部とワープ処理部とを含む。インターフェースには、ヘッドアップディスプレイが搭載される移動体の第1トラッキング情報、ヘッドアップディスプレイの観者の第2トラッキング情報、及び実オブジェクトの第3トラッキング情報の少なくとも1つであるトラッキング情報と、仮想オブジェクトを含むレンダリング画像と、が入力される。パラメーター演算部は、トラッキング情報に基づいて、レンダリング画像のレンダリング処理レイテンシーを含むレイテンシーを補償するレイテンシー補償パラメーターを、演算する。ワープ処理部は、レンダリング画像を表示領域の湾曲に応じて座標変換するワープ処理を行い、表示領域に表示される表示画像を生成する。ワープ処理部は、ワープ処理において、表示領域における仮想オブジェクトの位置をレイテンシー補償パラメーターに基づいて補償するレイテンシー補償処理を行う。 The circuit device of the present embodiment described above performs display control of a head-up display that displays a virtual object corresponding to a real object in a real space in a display area. The circuit device includes an interface, a parameter calculation unit, and a warp processing unit. The interface receives tracking information, which is at least one of first tracking information of a moving object on which the head-up display is mounted, second tracking information of a viewer of the head-up display, and third tracking information of a real object, and a rendered image including a virtual object. The parameter calculation unit calculates a latency compensation parameter that compensates for latency including a rendering processing latency of the rendered image based on the tracking information. The warp processing unit performs a warp process that converts the coordinates of the rendered image in accordance with the curvature of the display area, and generates a display image that is displayed in the display area. In the warp process, the warp processing unit performs a latency compensation process that compensates for the position of the virtual object in the display area based on the latency compensation parameter.

このようにすれば、レンダリング処理レイテンシーを含むレイテンシーによって発生する仮想オブジェクトの位置ずれが、レイテンシー補償パラメーターに基づいて補償される。表示の直前に行われるワープ処理においてレイテンシー補償を行うことで、残存するレイテンシーを最小限にできるため、実オブジェクトに対する仮想オブジェクトの追従性が高いAR表示を実現できる。 In this way, positional deviations of virtual objects caused by latency, including rendering process latency, are compensated for based on the latency compensation parameters. By performing latency compensation in the warp process performed immediately before display, the remaining latency can be minimized, making it possible to realize AR display in which virtual objects closely track real objects.

また本実施形態では、インターフェースには、第1タイミングにおけるトラッキング情報に基づいて生成されたレンダリング画像と、第1タイミングにおけるトラッキング情報と、が入力されてもよい。パラメーター演算部は、第1タイミングより後で且つ表示画像の表示タイミングより前の第2タイミングにおけるトラッキング情報と、第1タイミングにおけるトラッキング情報とに基づいて、レイテンシー補償パラメーターを演算してもよい。 In the present embodiment, a rendering image generated based on the tracking information at the first timing and the tracking information at the first timing may be input to the interface. The parameter calculation unit may calculate a latency compensation parameter based on the tracking information at the first timing and the tracking information at a second timing that is after the first timing and before the display timing of the display image.

このようにすれば、第1タイミングと表示タイミングの間のレイテンシーが、第1タイミングより後の第2タイミングと表示タイミングの間のレイテンシーに短縮されるので、レイテンシーによる位置ずれが削減される。 In this way, the latency between the first timing and the display timing is reduced to the latency between the second timing, which is after the first timing, and the display timing, thereby reducing positional deviations due to latency.

また本実施形態では、パラメーター演算部は、表示領域の湾曲に応じた座標変換のワープパラメーターをレイテンシー補償パラメーターに基づいて補正することで、補正後ワープパラメーターを出力してもよい。ワープ処理部は、補正後ワープパラメーターを用いてワープ処理を行うことで、レイテンシー補償処理を行ってもよい。 In addition, in this embodiment, the parameter calculation unit may output corrected warp parameters by correcting warp parameters of coordinate transformation according to the curvature of the display area based on the latency compensation parameters. The warp processing unit may perform latency compensation processing by performing warp processing using the corrected warp parameters.

このように、レイテンシー補償パラメーターに基づく補正後ワープパラメーターを用いてワープ処理を行うことで、ワープ処理においてレイテンシー補償を行うことができる。 In this way, by performing warp processing using corrected warp parameters based on the latency compensation parameters, latency compensation can be performed in the warp processing.

また本実施形態では、トラッキング情報は、移動体の進行方向に垂直な第1軸変位及び第2軸変位の少なくとも1つを含む変位を示す情報であってもよい。パラメーター演算部は、変位により生じる仮想オブジェクトの位置の誤差を補正することで補正後ワープパラメーターを出力してもよい。 In the present embodiment, the tracking information may be information indicating a displacement including at least one of a first axis displacement and a second axis displacement perpendicular to the traveling direction of the moving body. The parameter calculation unit may output a corrected warp parameter by correcting an error in the position of the virtual object caused by the displacement.

レイテンシー補償では、短期間に生じる位置又は姿勢の変化を補償するが、短期間に生じる位置又は姿勢の変化としては移動体又は観者の揺れの影響が大きいと考えられる。移動体又は観者が揺れた場合、観者が表示領域を通して見る実オブジェクトはシフト変位すると考えられる。本実施形態によれば、移動体の進行方向に垂直な第1軸変位及び第2軸変位により生じる仮想オブジェクトの位置の誤差が補正されるので、移動体又は観者の揺れによる表示位置ずれを補償できる。 Latency compensation compensates for changes in position or orientation that occur over a short period of time, but it is believed that the shaking of the moving body or the viewer has a large impact on changes in position or orientation that occur over a short period of time. When the moving body or the viewer shakes, it is believed that the real object that the viewer sees through the display area shifts. According to this embodiment, the error in the position of the virtual object caused by the first axis displacement and second axis displacement perpendicular to the moving direction of the moving body is corrected, so that the display position deviation caused by the shaking of the moving body or the viewer can be compensated for.

また本実施形態では、移動体の進行方向に垂直な第1軸変位及び第2軸変位のうち、移動体の上下方向における変位が第2軸変位であってもよい。このとき、トラッキング情報は、移動体のピッチ変位によるヘッドアップディスプレイ又は観者の第2軸変位を示す情報であってもよい。パラメーター演算部は、第2軸変位により生じる仮想オブジェクトの位置の誤差を補正することで補正後ワープパラメーターを出力してもよい。 In the present embodiment, of the first axis displacement and the second axis displacement perpendicular to the traveling direction of the moving body, the displacement in the up-down direction of the moving body may be the second axis displacement. In this case, the tracking information may be information indicating the second axis displacement of the head-up display or the viewer caused by the pitch displacement of the moving body. The parameter calculation unit may output the corrected warp parameters by correcting the error in the position of the virtual object caused by the second axis displacement.

上述した移動体の揺れとしてピッチ変位が想定されるが、移動体のピッチ変位はヘッドアップディスプレイのスクリーン又は観者の第2軸変位を生じさせる。このヘッドアップディスプレイのスクリーン又は観者の第2軸変位は、観者が表示領域を通して見る実オブジェクトに第2軸方向のシフト変位を生じさせる。本実施形態によれば、ヘッドアップディスプレイのスクリーン又は観者の第2軸変位により生じる仮想オブジェクトの位置の誤差が補正されるので、移動体のピッチ変位による表示位置ずれを補償できる。 The above-mentioned shaking of the moving body is assumed to be a pitch displacement, and the pitch displacement of the moving body causes a second-axis displacement of the screen of the head-up display or the viewer. This second-axis displacement of the screen of the head-up display or the viewer causes a shift displacement in the second axis direction in the real object that the viewer sees through the display area. According to this embodiment, the error in the position of the virtual object caused by the second-axis displacement of the screen of the head-up display or the viewer is corrected, so that the display position deviation caused by the pitch displacement of the moving body can be compensated for.

また本実施形態では、回路装置は、表示画像における座標と、座標の移動先を示す移動量とを対応づけるテーブルをワープパラメーターとして記憶する記憶部を含んでもよい。パラメーター演算部は、テーブルの移動量をレイテンシー補償パラメーターに基づいてシフトし、移動量がシフトされたテーブルを補正後ワープパラメーターとして出力してもよい。 In this embodiment, the circuit device may also include a storage unit that stores, as warp parameters, a table that associates coordinates in a display image with a movement amount indicating the destination of the coordinates. The parameter calculation unit may shift the movement amount of the table based on the latency compensation parameter, and output the table with the shifted movement amount as a corrected warp parameter.

このようにすれば、テーブルの移動量がレイテンシー補償パラメーターに基づいてシフトされ、その補正されたテーブルによりワープ処理が行われることで、レイテンシー補償が実現される。 In this way, the amount of movement of the table is shifted based on the latency compensation parameters, and the warp process is performed using the corrected table, thereby achieving latency compensation.

また本実施形態では、回路装置は、表示画像における座標を、移動先の座標に変換する変換式のパラメーターをワープパラメーターとして記憶する記憶部を含んでもよい。パラメーター演算部は、移動先の座標をレイテンシー補償パラメーターに基づいてシフトし、移動先の座標がシフトされた変換式のパラメーターを補正後ワープパラメーターとして出力してもよい。 In this embodiment, the circuit device may also include a storage unit that stores, as warp parameters, parameters of a transformation equation that converts coordinates in the display image into destination coordinates. The parameter calculation unit may shift the destination coordinates based on the latency compensation parameters, and output, as corrected warp parameters, the parameters of the transformation equation in which the destination coordinates have been shifted.

このようにすれば、変換式の移動先の座標がレイテンシー補償パラメーターに基づいてシフトされ、その補正された変換式によりワープ処理が行われることで、レイテンシー補償が実現される。 In this way, the destination coordinates of the transformation formula are shifted based on the latency compensation parameters, and the warp process is performed using the corrected transformation formula, thereby achieving latency compensation.

また本実施形態では、ワープ処理部は、ワープ処理において、表示領域における仮想オブジェクトの回転及びスケールの少なくとも1つをレイテンシー補償パラメーターに基づいて補償するレイテンシー補償処理を行ってもよい。 In addition, in this embodiment, the warp processing unit may perform latency compensation processing in the warp processing, which compensates for at least one of the rotation and scale of the virtual object in the display area based on a latency compensation parameter.

このように、シフト変位のレイテンシー補償だけでなく、回転又はスケールのレイテンシー補償を行ってもよい。スケールは、仮想オブジェクトを縮小又はズームすることである。本実施形態によれば、レイテンシーによる仮想オブジェクトの回転誤差、スケール誤差又はその両方が補償されるので、より追従性が高いAR表示を実現できる。 In this way, latency compensation may be performed not only for shift displacement, but also for rotation or scale. Scaling refers to shrinking or zooming a virtual object. According to this embodiment, rotation error, scale error, or both of the virtual object due to latency are compensated for, making it possible to realize AR display with higher tracking performance.

また本実施形態では、インターフェースには、レンダリング用センサーの出力信号に基づくトラッキング処理により生成されたレンダリング用トラッキング情報と、レンダリング用トラッキング情報に基づいて生成されたレンダリング画像と、レンダリング用センサーとは別のレイテンシー補償用センサーの出力信号であるレイテンシー補償用トラッキング情報と、が入力されてもよい。パラメーター演算部は、レンダリング用トラッキング情報とレイテンシー補償用トラッキング情報に基づいて、レイテンシー補償パラメーターを演算してもよい。 In addition, in this embodiment, the interface may receive rendering tracking information generated by a tracking process based on the output signal of the rendering sensor, a rendering image generated based on the rendering tracking information, and latency compensation tracking information, which is an output signal of a latency compensation sensor separate from the rendering sensor. The parameter calculation unit may calculate a latency compensation parameter based on the rendering tracking information and the latency compensation tracking information.

このようにすれば、パラメーター演算部が任意のタイミングでレイテンシー補償用センサーの出力信号を取得できるので、表示タイミングに出来るだけ近いタイミングのレイテンシー補償用センサーの出力信号を取得し、レイテンシー補償パラメーターを演算できる。 In this way, the parameter calculation unit can obtain the output signal of the latency compensation sensor at any timing, so it can obtain the output signal of the latency compensation sensor at a timing as close as possible to the display timing and calculate the latency compensation parameters.

また本実施形態の電子機器は、上記のいずれかに記載の回路装置を含む。 The electronic device of this embodiment also includes any of the circuit devices described above.

また本実施形態の移動体は、上記のいずれかに記載の回路装置を含む。 The moving body of this embodiment also includes any of the circuit devices described above.

なお、上記のように本実施形態について詳細に説明したが、本開示の新規事項及び効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。従って、このような変形例はすべて本開示の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義又は同義な異なる用語と共に記載された用語は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。また本実施形態及び変形例の全ての組み合わせも、本開示の範囲に含まれる。またセンサー、ヘッドアップディスプレイ、処理装置、ヘッドアップディスプレイコントローラー、表示システム、電子機器及び移動体等の構成及び動作等も、本実施形態で説明したものに限定されず、種々の変形実施が可能である。 Although the present embodiment has been described in detail above, it will be readily apparent to those skilled in the art that many modifications are possible that do not substantially deviate from the novel matters and effects of the present disclosure. Therefore, all such modifications are intended to be included in the scope of the present disclosure. For example, a term described at least once in the specification or drawings together with a different term having a broader or similar meaning may be replaced with that different term anywhere in the specification or drawings. All combinations of the present embodiment and modifications are also included in the scope of the present disclosure. The configurations and operations of the sensor, head-up display, processing device, head-up display controller, display system, electronic device, and mobile object are not limited to those described in the present embodiment, and various modifications are possible.

10…前走車、11,12…実オブジェクト、20,21…仮想オブジェクト、30…自動車、32…移動体、34…スクリーン、35…フロントガラス、36…投影ユニット、40…表示領域、50…目、52…観者、110…トラッキング処理部、111…ビジュアル慣性オドメトリ処理、112…慣性オドメトリ処理、113…予測処理、120…レンダリング画像生成部、130…ワープ処理部、140…パラメーター演算部、145…記憶部、150…処理装置、151…インターフェース、160…HUDコントローラー、161…インターフェース、206…自動車、208…制御装置、270…処理装置、300…電子機器、350…記憶装置、360…操作装置、370…通信装置、400…ヘッドアップディスプレイ、410…ディスプレイ、500…センサー、510…レンダリング用センサー、520…レイテンシー補償用センサー 10...vehicle in front, 11, 12...real object, 20, 21...virtual object, 30...car, 32...moving object, 34...screen, 35...windshield, 36...projection unit, 40...display area, 50...eye, 52...viewer, 110...tracking processing unit, 111...visual inertial odometry processing, 112...inertial odometry processing, 113...prediction processing, 120...rendering image generation unit, 130...warp processing unit, 140...parameter calculation Calculation unit, 145...Memory unit, 150...Processing device, 151...Interface, 160...HUD controller, 161...Interface, 206...Automobile, 208...Control device, 270...Processing device, 300...Electronic device, 350...Storage device, 360...Operation device, 370...Communication device, 400...Head-up display, 410...Display, 500...Sensor, 510...Rendering sensor, 520...Latency compensation sensor

Claims (10)

実空間の実オブジェクトに対応する仮想オブジェクトを表示領域に表示するヘッドアップディスプレイの表示制御を行う回路装置であって、
前記ヘッドアップディスプレイが搭載される移動体の第1トラッキング情報、前記ヘッドアップディスプレイの観者の第2トラッキング情報、及び前記実オブジェクトの第3トラッキング情報の少なくとも1つであるトラッキング情報と、前記仮想オブジェクトを含むレンダリング画像と、が入力されるインターフェースと、
前記トラッキング情報に基づいて、前記レンダリング画像のレンダリング処理レイテンシーを含むレイテンシーを補償するレイテンシー補償パラメーターを、演算するパラメーター演算部と、
前記レンダリング画像に対して、前記表示領域の湾曲による画像歪みを補正する座標変換を行うワープ処理を行い、前記表示領域に表示される表示画像を生成するワープ処理部と、
を含み、
前記パラメーター演算部は、
前記座標変換のワープパラメーターを前記レイテンシー補償パラメーターに基づいて補正することで、補正後ワープパラメーターを出力し、
前記ワープ処理部は、
前記補正後ワープパラメーターを用いて前記座標変換を行うことで、前記表示領域における前記仮想オブジェクトの位置を補償するレイテンシー補償処理を行うことを特徴とする回路装置。
A circuit device for controlling a head-up display that displays a virtual object corresponding to a real object in a real space in a display area,
an interface into which tracking information, which is at least one of first tracking information of a moving object on which the head-up display is mounted, second tracking information of a viewer of the head-up display, and third tracking information of the real object, and a rendering image including the virtual object are input;
a parameter calculation unit that calculates a latency compensation parameter that compensates for a latency including a rendering process latency of the rendering image based on the tracking information;
a warp processing unit that performs a warp process on the rendering image by performing a coordinate transformation to correct image distortion due to curvature of the display area, and generates a display image to be displayed in the display area;
Including,
The parameter calculation unit is
correcting a warp parameter of the coordinate transformation based on the latency compensation parameter to output a corrected warp parameter;
The warp processing unit includes:
A circuit device comprising: a circuit device that performs a latency compensation process for compensating for a position of the virtual object in the display area by performing the coordinate transformation using the corrected warp parameters .
請求項に記載の回路装置において、
前記表示画像における座標と、前記座標の移動先を示す移動量とを対応づけるテーブルをワープパラメーターとして記憶する記憶部を含み、
前記パラメーター演算部は、
前記テーブルの前記移動量を前記レイテンシー補償パラメーターに基づいてシフトし、前記移動量がシフトされた前記テーブルを前記補正後ワープパラメーターとして出力することを特徴とする回路装置。
2. The circuit device according to claim 1 ,
a storage unit that stores a table that associates coordinates in the display image with amounts of movement that indicate destinations of the coordinates as warp parameters;
The parameter calculation unit includes:
A circuit device comprising: a circuit for shifting the movement amount of the table based on the latency compensation parameter; and outputting the table with the shifted movement amount as the corrected warp parameter.
請求項に記載の回路装置において、
前記表示画像における座標を、移動先の座標に変換する変換式のパラメーターをワープパラメーターとして記憶する記憶部を含み、
前記パラメーター演算部は、
前記移動先の座標を前記レイテンシー補償パラメーターに基づいてシフトし、前記移動先の座標がシフトされた前記変換式のパラメーターを前記補正後ワープパラメーターとして出力することを特徴とする回路装置。
2. The circuit device according to claim 1 ,
a storage unit that stores parameters of a transformation equation for transforming coordinates in the display image into coordinates of a destination as warp parameters;
The parameter calculation unit is
A circuit device comprising: a circuit for shifting the destination coordinates based on the latency compensation parameters; and outputting the transformation equation parameters with the destination coordinates shifted as the corrected warp parameters.
請求項1乃至3のいずれか一項に記載の回路装置において、
前記インターフェースには、第1タイミングにおける前記トラッキング情報に基づいて生成された前記レンダリング画像と、前記第1タイミングにおける前記トラッキング情報と、が入力され、
前記パラメーター演算部は、
前記第1タイミングより後で且つ前記表示画像の表示タイミングより前の第2タイミングにおける前記トラッキング情報と、前記第1タイミングにおける前記トラッキング情報とに基づいて、前記レイテンシー補償パラメーターを演算することを特徴とする回路装置。
4. The circuit device according to claim 1,
the rendering image generated based on the tracking information at a first timing and the tracking information at the first timing are input to the interface;
The parameter calculation unit is
A circuit device characterized in that the latency compensation parameter is calculated based on the tracking information at a second timing that is later than the first timing and earlier than the display timing of the display image, and the tracking information at the first timing.
請求項1乃至4のいずれか一項に記載の回路装置において、
前記トラッキング情報は、
前記移動体の進行方向に垂直な第1軸変位及び第2軸変位の少なくとも1つを含む変位を示す情報であり、
前記パラメーター演算部は、
前記変位により生じる前記仮想オブジェクトの位置の誤差を補正することで前記補正後ワープパラメーターを出力することを特徴とする回路装置。
5. The circuit device according to claim 1 ,
The tracking information is
information indicating a displacement including at least one of a first axial displacement and a second axial displacement perpendicular to a traveling direction of the moving body,
The parameter calculation unit is
A circuit device that outputs the corrected warp parameters by correcting an error in the position of the virtual object caused by the displacement.
請求項1乃至4のいずれか一項に記載の回路装置において、
前記移動体の進行方向に垂直な第1軸変位及び第2軸変位のうち、前記移動体の上下方向における変位が前記第2軸変位であるとき、
前記トラッキング情報は、
前記移動体のピッチ変位による前記ヘッドアップディスプレイ又は前記観者の前記第2軸変位を示す情報であり、
前記パラメーター演算部は、
前記第2軸変位により生じる前記仮想オブジェクトの位置の誤差を補正することで前記補正後ワープパラメーターを出力することを特徴とする回路装置。
5. The circuit device according to claim 1 ,
When the displacement in the up-down direction of the moving body is the second axis displacement, out of the first axis displacement and the second axis displacement perpendicular to the traveling direction of the moving body,
The tracking information is
information indicating a second axis displacement of the head-up display or the viewer due to a pitch displacement of the moving object;
The parameter calculation unit is
A circuit device comprising: a first circuit portion for correcting a position error of the virtual object caused by the second axis displacement, and outputting the corrected warp parameters.
請求項1乃至のいずれか一項に記載の回路装置において、
前記ワープ処理部は、
前記ワープ処理において、前記表示領域における前記仮想オブジェクトの回転及びスケールの少なくとも1つを前記レイテンシー補償パラメーターに基づいて補償する前記レイテンシー補償処理を行うことを特徴とする回路装置。
7. The circuit device according to claim 1,
The warp processing unit includes:
The circuit device is characterized in that, in the warp process, a latency compensation process is performed in which at least one of a rotation and a scale of the virtual object in the display area is compensated for based on the latency compensation parameter.
請求項1乃至のいずれか一項に記載の回路装置において、
前記インターフェースには、レンダリング用センサーの出力信号に基づくトラッキング処理により生成されたレンダリング用トラッキング情報と、前記レンダリング用トラッキング情報に基づいて生成された前記レンダリング画像と、前記レンダリング用センサーとは別のレイテンシー補償用センサーの出力信号であるレイテンシー補償用トラッキング情報と、が入力され、
前記パラメーター演算部は、
前記レンダリング用トラッキング情報と前記レイテンシー補償用トラッキング情報に基づいて、前記レイテンシー補償パラメーターを演算することを特徴とする回路装置。
8. The circuit device according to claim 1,
the interface receives, as input, rendering tracking information generated by a tracking process based on an output signal of a rendering sensor, the rendering image generated based on the rendering tracking information, and latency compensation tracking information which is an output signal of a latency compensation sensor separate from the rendering sensor;
The parameter calculation unit is
A circuit device for calculating the latency compensation parameter based on the rendering tracking information and the latency compensation tracking information.
請求項1乃至のいずれか一項に記載の回路装置を含むことを特徴とする電子機器。 An electronic device comprising the circuit device according to claim 1 . 請求項1乃至のいずれか一項に記載の回路装置を含むことを特徴とする移動体。
A moving object comprising the circuit device according to any one of claims 1 to 8 .
JP2020104224A 2019-12-31 2020-06-17 Circuit device, electronic device and mobile device Active JP7521270B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP20217661.6A EP3848781B1 (en) 2019-12-31 2020-12-29 Circuit device, electronic apparatus, and mobile body
CN202011594605.XA CN113132714B (en) 2019-12-31 2020-12-29 Circuit device, electronic apparatus, and moving object
US17/137,732 US11443718B2 (en) 2019-12-31 2020-12-30 Circuit device, electronic apparatus, and mobile body for generating latency compensated display

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201962955793P 2019-12-31 2019-12-31
US62/955793 2019-12-31

Publications (2)

Publication Number Publication Date
JP2021111317A JP2021111317A (en) 2021-08-02
JP7521270B2 true JP7521270B2 (en) 2024-07-24

Family

ID=77060056

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020104224A Active JP7521270B2 (en) 2019-12-31 2020-06-17 Circuit device, electronic device and mobile device

Country Status (1)

Country Link
JP (1) JP7521270B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117975545B (en) * 2023-11-24 2024-08-30 陕西东泽瑞科技开发有限公司 Communication module calling system and method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010156608A (en) 2008-12-26 2010-07-15 Toshiba Corp Automotive display system and display method
US20170169612A1 (en) 2015-12-15 2017-06-15 N.S. International, LTD Augmented reality alignment system and method
US20190056592A1 (en) 2017-08-15 2019-02-21 Imagination Technologies Limited Low Latency Distortion Unit for Head Mounted Displays
WO2019181263A1 (en) 2018-03-20 2019-09-26 ソニー株式会社 Information processing device, information processing method, and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010156608A (en) 2008-12-26 2010-07-15 Toshiba Corp Automotive display system and display method
US20170169612A1 (en) 2015-12-15 2017-06-15 N.S. International, LTD Augmented reality alignment system and method
US20190056592A1 (en) 2017-08-15 2019-02-21 Imagination Technologies Limited Low Latency Distortion Unit for Head Mounted Displays
WO2019181263A1 (en) 2018-03-20 2019-09-26 ソニー株式会社 Information processing device, information processing method, and program

Also Published As

Publication number Publication date
JP2021111317A (en) 2021-08-02

Similar Documents

Publication Publication Date Title
US10223835B2 (en) Augmented reality alignment system and method
EP3846009B1 (en) Display system, electronic apparatus, mobile body, and display method
JP7515229B2 (en) VIDEO DISPLAY SYSTEM, VIDEO DISPLAY METHOD, AND PROGRAM
CN110308556B (en) Image forming system, image correcting system, image displaying method, moving object, and non-transitory computer-readable medium
JP6724885B2 (en) Virtual image display
JPWO2006087993A1 (en) Perimeter monitoring device and perimeter monitoring method
CN113132714B (en) Circuit device, electronic apparatus, and moving object
US11112604B2 (en) Head-up display
US20240265488A1 (en) Circuit Apparatus, Display System, And Image Processing Method
JP7521270B2 (en) Circuit device, electronic device and mobile device
JP7480602B2 (en) Display system, electronic device, mobile object, and display method
EP3805708A1 (en) Position adjusting device, and projection system provided with same
US20210407466A1 (en) Display system
JP7145509B2 (en) VIDEO DISPLAY SYSTEM, VIDEO DISPLAY METHOD, PROGRAM AND MOBILE BODY
JP5047912B2 (en) In-vehicle image processing apparatus and image processing method thereof
JP2022185224A (en) Circuit device, display system and electronic apparatus
US20240321154A1 (en) Circuit Device, Display System, And Electronic Apparatus
US20230098787A1 (en) Display system
KR102425571B1 (en) Method and apparatus for stabilization of drone-projected image

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230418

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240403

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240611

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240624

R150 Certificate of patent or registration of utility model

Ref document number: 7521270

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150