JP7145509B2 - VIDEO DISPLAY SYSTEM, VIDEO DISPLAY METHOD, PROGRAM AND MOBILE BODY - Google Patents

VIDEO DISPLAY SYSTEM, VIDEO DISPLAY METHOD, PROGRAM AND MOBILE BODY Download PDF

Info

Publication number
JP7145509B2
JP7145509B2 JP2019061489A JP2019061489A JP7145509B2 JP 7145509 B2 JP7145509 B2 JP 7145509B2 JP 2019061489 A JP2019061489 A JP 2019061489A JP 2019061489 A JP2019061489 A JP 2019061489A JP 7145509 B2 JP7145509 B2 JP 7145509B2
Authority
JP
Japan
Prior art keywords
image
display
unit
vibration
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019061489A
Other languages
Japanese (ja)
Other versions
JP2020160340A (en
Inventor
吉輝 三野
勝長 辻
文人 犬飼
祥平 林
俊也 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2019061489A priority Critical patent/JP7145509B2/en
Publication of JP2020160340A publication Critical patent/JP2020160340A/en
Application granted granted Critical
Publication of JP7145509B2 publication Critical patent/JP7145509B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本開示は、映像表示システム、映像表示方法、プログラム、及び映像表示システムを備える移動体に関する。 TECHNICAL FIELD The present disclosure relates to a video display system, a video display method, a program, and a moving body provided with the video display system.

映像表示システム等の一例として、例えばヘッドアップディスプレイ装置がある(例えば特許文献1)。特許文献1に開示されるヘッドアップディスプレイ装置は、表示器から出力された表示光を車両のフロントガラスに照射することで、ユーザに、表示器の表示画像の虚像を車両の前方の実景と重ねて視認させることができる。 As an example of a video display system, for example, there is a head-up display device (for example, Patent Literature 1). The head-up display device disclosed in Patent Literature 1 irradiates the windshield of a vehicle with display light output from a display device, thereby allowing the user to superimpose a virtual image of an image displayed on the display device on the actual scene in front of the vehicle. can be visually recognized.

特許文献1に開示されるヘッドアップディスプレイ装置は、車両振動入力部と、表示制御部と、を備えている。車両振動入力部には、車両の振動情報が入力される。表示制御部は、振動情報に基づいて表示画像を補正することで、虚像の表示位置を補正する。より詳細には、表示制御部は、表示画像を第1のレイヤーに描画した後、第1のレイヤーに描画された表示画像の表示位置を、車両の振動を相殺する方向に移動させる。なお、第1のレイヤーは、表示器の表示面に対応して仮想的に設けられた面である。この結果、車両が振動しても、虚像の表示位置が、実景中の対象物に対して所定の位置関係を保つように補正される。 The head-up display device disclosed in Patent Literature 1 includes a vehicle vibration input section and a display control section. Vehicle vibration information is input to the vehicle vibration input unit. The display control unit corrects the display position of the virtual image by correcting the display image based on the vibration information. More specifically, after drawing the display image on the first layer, the display control unit moves the display position of the display image drawn on the first layer in a direction that cancels out the vibration of the vehicle. Note that the first layer is a surface provided virtually corresponding to the display surface of the display. As a result, even if the vehicle vibrates, the display position of the virtual image is corrected so as to maintain a predetermined positional relationship with respect to the object in the real scene.

特開2017-13590号公報JP 2017-13590 A

しかしながら、特許文献1に開示されるヘッドアップディスプレイ装置では、振動情報に基づく表示画像の表示位置の補正が、表示画像を描画する描画処理段階において実行されるため、表示部の表示遅延(例えば数フレーム分の遅延)が発生し易い。 However, in the head-up display device disclosed in Patent Document 1, the correction of the display position of the display image based on the vibration information is executed in the drawing processing stage of drawing the display image, so the display delay of the display unit (for example, several frame delay) is likely to occur.

本開示は、上述の事情を鑑みてなされたもので、表示画像の表示遅延を低減することができる映像表示システム、映像表示方法、プログラム、及び、移動体を提供することを目的とする。 The present disclosure has been made in view of the circumstances described above, and an object thereof is to provide a video display system, a video display method, a program, and a moving object that can reduce display delay of a display image.

本開示の一態様に係る映像表示システム等は、表示デバイスにより表示される表示画像の虚像を、移動体の前方の実景と重ねて視認者に視認可能にさせる映像表示システムであって、経時的に動かない領域である第1領域と、経時的に動く領域である第2領域とからなる画像を描画し、前記第1領域を示す信号と前記第2領域を示す信号とをこの順に出力する描画部と、前記描画部から前記第1領域を取得している期間に、前記移動体の振動量を示す振動情報を取得し、前記描画部から取得中の前記第2領域に対して、前記振動情報に基づき、前記振動補正処理を実行し、前記振動補正処理が実行された前記第2領域と前記描画部から取得した前記第1領域とをこの順に合成して、前記表示画像として、前記表示デバイスに出力する表示デバイス出力部とを備える。 A video display system or the like according to an aspect of the present disclosure is a video display system that allows a viewer to visually recognize a virtual image of a display image displayed by a display device by superimposing it on a real scene in front of a moving object, wherein An image consisting of a first area that is an area that does not move over time and a second area that is an area that moves over time is drawn, and a signal indicating the first area and a signal indicating the second area are output in this order. a drawing unit, and during a period in which the first region is being acquired from the drawing unit, vibration information indicating the vibration amount of the moving body is acquired, and for the second region being acquired from the drawing unit, the Based on the vibration information, the vibration correction processing is executed, and the second region subjected to the vibration correction processing and the first region obtained from the drawing unit are combined in this order to form the display image. and a display device output unit for outputting to a display device.

なお、これらのうちの一部の具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータで読み取り可能なCD-ROMなどの記録媒体を用いて実現されてもよく、システム、方法、集積回路、コンピュータプログラム及び記録媒体の任意な組み合わせを用いて実現されてもよい。 In addition, some specific aspects of these may be realized using a system, method, integrated circuit, computer program, or a recording medium such as a computer-readable CD-ROM. It may be implemented using any combination of integrated circuits, computer programs and storage media.

本開示によれば、表示画像の表示遅延を低減することができる映像表示システム等を実現できる。 Advantageous Effects of Invention According to the present disclosure, it is possible to realize a video display system or the like capable of reducing display delay of a display image.

図1は、実施の形態に係る映像表示システムを含む移動体の概念図である。FIG. 1 is a conceptual diagram of a moving object including a video display system according to an embodiment. 図2は、図1に示す移動体に含まれるHUD装置の構成を示す概念図である。FIG. 2 is a conceptual diagram showing the configuration of the HUD device included in the moving object shown in FIG. 図3は、図2に示すHUD装置を用いた場合のユーザの視野を示す概念図である。FIG. 3 is a conceptual diagram showing a user's field of view when using the HUD device shown in FIG. 図4は、図2に示す表示デバイスの詳細構成の一例を示すブロック図である。4 is a block diagram showing an example of a detailed configuration of the display device shown in FIG. 2. FIG. 図5は、実施の形態に係る映像表示システムの詳細構成の一例を示すブロック図である。FIG. 5 is a block diagram showing an example of the detailed configuration of the video display system according to the embodiment. 図6Aは、実施の形態に係る表示デバイス出力部が出力する表示画像の映像フォーマットを示す図である。6A is a diagram showing a video format of a display image output by the display device output unit according to the embodiment; FIG. 図6Bは、本実施の形態に係る描画部が出力する描画画像の映像フォーマットを示す図である。FIG. 6B is a diagram showing a video format of a drawn image output by the drawing unit according to the embodiment. 図7は、実施の形態に係る描画部の詳細構成の一例を示すブロック図である。7 is a block diagram illustrating an example of a detailed configuration of a drawing unit according to the embodiment; FIG. 図8は、実施の形態に係る表示デバイス出力部の詳細構成の一例を示すブロック図である。8 is a block diagram illustrating an example of a detailed configuration of a display device output unit according to the embodiment; FIG. 図9は、実施の形態に係る振動補正処理の詳細例を説明するための図である。FIG. 9 is a diagram for explaining a detailed example of vibration correction processing according to the embodiment. 図10は、実施の形態に係る合成処理の詳細例を説明するための図である。FIG. 10 is a diagram for explaining a detailed example of composition processing according to the embodiment. 図11は、実施の形態における映像表示システムが実行する動作処理を示すフローチャートである。FIG. 11 is a flow chart showing operation processing executed by the video display system according to the embodiment. 図12は、本実施の形態に係る描画部及び表示デバイス出力部が出力する映像フォーマットとタイミングとの一例を示す図である。FIG. 12 is a diagram showing an example of video formats and timings output by the drawing unit and the display device output unit according to the present embodiment. 図13は、比較例を示す図である。FIG. 13 is a diagram showing a comparative example. 図14は、実施の形態に係る効果の説明図である。FIG. 14 is an explanatory diagram of an effect according to the embodiment.

本開示の一態様に係る映像表示システムは、表示デバイスにより表示される表示画像の虚像を、移動体の前方の実景と重ねて視認者に視認可能にさせる映像表示システムであって、経時的に動かない領域である第1領域と、経時的に動く領域である第2領域とからなる画像を描画し、前記第1領域を示す信号と前記第2領域を示す信号とをこの順に出力する描画部と、前記描画部から前記第1領域を取得している期間に、前記移動体の振動量を示す振動情報を取得し、前記描画部から取得中の前記第2領域に対して、前記振動情報に基づき、前記第2領域の虚像の表示位置の補正を行う振動補正処理を実行し、前記振動補正処理が実行された前記第2領域と前記描画部から取得した前記第1領域とをこの順に合成して、前記表示画像として、前記表示デバイスに出力する表示デバイス出力部とを備える。 A video display system according to one aspect of the present disclosure is a video display system that allows a viewer to visually recognize a virtual image of a display image displayed by a display device by superimposing it on a real scene in front of a moving body. An image composed of a first area that does not move and a second area that moves with time is drawn, and a signal indicating the first area and a signal indicating the second area are output in this order. and acquiring vibration information indicating a vibration amount of the moving body during the period in which the first region is acquired from the drawing unit, and applying the vibration to the second region being acquired from the drawing unit. Based on the information, vibration correction processing for correcting the display position of the virtual image of the second region is executed, and the second region subjected to the vibration correction processing and the first region acquired from the drawing unit are combined into this a display device output unit that combines the images in order and outputs them to the display device as the display image.

この構成により、移動体の振動量を示す振動情報に応じた虚像の表示位置の補正を、描画部よりも後段にあってより表示デバイスに近い表示デバイス出力部で行うので、虚像に対応する画像の表示遅延を低減することができる。さらに、描画部に第1領域を示す信号と第2領域を示す信号をこの順に出力させるので、表示デバイス出力部は、第1領域を示す信号を取得している期間中に振動情報を取得できる。これにより、表示デバイス出力部は、第2領域の虚像の表示位置の補正を行う補正処理を実行するために用いる補正量を、第2領域を示す信号と第1信号を示す信号をこの順で描画部に出力させる場合と比較して、振動情報からより迅速に決定できる。よって、振動情報を取得してから第2領域の虚像の表示位置の補正を行う補正処理を実行するまでの遅延をより少なくできるので、虚像に対応する画像の表示遅延をより低減することができる。 With this configuration, correction of the display position of the virtual image according to the vibration information indicating the amount of vibration of the moving object is performed by the display device output unit located after the drawing unit and closer to the display device. display delay can be reduced. Furthermore, since the drawing unit outputs the signal indicating the first area and the signal indicating the second area in this order, the display device output unit can acquire the vibration information while acquiring the signal indicating the first area. . As a result, the display device output unit outputs the signal indicating the second area and the signal indicating the first signal in this order as the correction amount used for executing the correction processing for correcting the display position of the virtual image in the second area. It can be determined more quickly from the vibration information as compared with the case of outputting it to the drawing unit. Therefore, the delay from obtaining the vibration information to executing the correction process for correcting the display position of the virtual image in the second area can be further reduced, so that the display delay of the image corresponding to the virtual image can be further reduced. .

ここで、例えば、前記表示デバイス出力部は、前記振動補正処理が実行された前記第2領域と前記描画部から取得した前記第1領域とをこの順に合成した画像に、前記振動補正処理とは異なる歪み補正処理をさらに実行して、前記表示画像として、前記表示デバイスに出力するとしてもよい。 Here, for example, the display device output unit outputs an image obtained by synthesizing the second region on which the vibration correction processing has been performed and the first region acquired from the drawing unit in this order, and the vibration correction processing is A different distortion correction process may be further performed and output as the display image to the display device.

この構成によれば、表示デバイス出力部は、振動補正処理と歪み補正処理とを行うことができ、別の処理部を用いる場合と比較して処理効率を向上することができる。 According to this configuration, the display device output section can perform the vibration correction process and the distortion correction process, and the processing efficiency can be improved as compared with the case where separate processing sections are used.

また、例えば、前記表示デバイス出力部は、前記振動補正処理が実行された前記第2領域と前記描画部から取得した前記第1領域とをこの順に合成した画像に、前記振動補正処理とは異なる歪み補正処理をさらに実行して、前記表示画像として、前記表示デバイスに出力するとしてもよい。 Further, for example, the display device output unit may combine the second region on which the vibration correction processing has been performed and the first region acquired from the drawing unit in this order, and may generate an image in which the vibration correction processing is different from the vibration correction processing. A distortion correction process may be further performed and output to the display device as the display image.

また、本開示の一態様に係る移動体は、上記態様のいずれかに記載の映像表示システムを備える。 Further, a mobile object according to an aspect of the present disclosure includes the image display system according to any one of the above aspects.

この構成によれば、上記の効果を奏する映像表示システムを移動体で実施することができる。 According to this configuration, it is possible to implement the image display system having the above effects on a moving body.

また、本開示の一態様に係る映像表示方法は、表示デバイスにより表示される表示画像の虚像を、移動体の前方の実景と重ねて視認者に視認可能にさせる映像表示システムを用いた映像表示方法であって、経時的に動かない領域である第1領域と、経時的に動く領域である第2領域とからなる画像を描画し、前記第1領域を示す信号と前記第2領域を示す信号とをこの順に出力する描画ステップと、前記第1領域を示す信号を取得している期間に、前記移動体の振動量を示す振動情報を取得し、前記期間に続く期間において取得中の前記第2領域に対して、前記振動情報に基づき、前記第2領域の虚像の表示位置の補正を行う振動補正処理を実行し、前記振動補正処理が実行された前記第2領域と前記期間に取得した前記第1領域とをこの順に合成して、前記表示画像として、前記表示デバイスに出力する出力ステップとを含む。 Further, a video display method according to an aspect of the present disclosure provides video display using a video display system that allows a viewer to visually recognize a virtual image of a display image displayed by a display device by superimposing it on a real scene in front of a moving object. A method of rendering an image consisting of a first region, which is a region that does not move over time, and a second region, that is a region that moves over time, and showing a signal indicative of the first region and the second region. a drawing step of outputting signals in this order; obtaining vibration information indicating a vibration amount of the moving object during a period in which the signal indicating the first region is obtained; and obtaining the vibration information in a period following the period. Vibration correction processing for correcting the display position of the virtual image of the second region is performed on the second region based on the vibration information, and the second region and the period in which the vibration correction processing is performed are acquired. and an output step of synthesizing the obtained first regions in this order and outputting them as the display image to the display device.

また、本開示の一態様に係るプログラムは、コンピュータに、上記態様に記載の映像表示方法を実行させるためのプログラムである。 Further, a program according to one aspect of the present disclosure is a program for causing a computer to execute the video display method described in the aspect above.

なお、これらのうちの一部の具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータで読み取り可能なCD-ROM等の記録媒体を用いて実現されてもよく、システム、方法、集積回路、コンピュータプログラムまたは記録媒体の任意な組み合わせを用いて実現されてもよい。 It should be noted that some specific aspects of these may be implemented using a system, method, integrated circuit, computer program, or a recording medium such as a computer-readable CD-ROM. It may be implemented using any combination of integrated circuits, computer programs or storage media.

以下、本開示の一態様に係る映像表示装置等について、図面を参照しながら具体的に説明する。なお、以下で説明する実施の形態は、いずれも本開示の一具体例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置などは、一例であり、本開示を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。また全ての実施の形態において、各々の内容を組み合わせることもできる。 Hereinafter, a video display device and the like according to one aspect of the present disclosure will be specifically described with reference to the drawings. It should be noted that each of the embodiments described below is a specific example of the present disclosure. Numerical values, shapes, materials, components, arrangement positions of components, and the like shown in the following embodiments are examples, and are not intended to limit the present disclosure. In addition, among the constituent elements in the following embodiments, constituent elements that are not described in independent claims representing the highest concept will be described as arbitrary constituent elements. Moreover, each content can also be combined in all the embodiments.

(実施の形態)
(1)概要
図1は、実施の形態に係る映像表示システム10を含む移動体100の概念図である。図2は、図1に示す移動体100に含まれるHUD装置10Aの構成を示す概念図である。図3は、図2に示すHUD装置10Aを用いた場合のユーザ200の視野を示す概念図である。
(Embodiment)
(1) Overview FIG. 1 is a conceptual diagram of a moving object 100 including a video display system 10 according to an embodiment. FIG. 2 is a conceptual diagram showing the configuration of the HUD device 10A included in the moving object 100 shown in FIG. FIG. 3 is a conceptual diagram showing the field of view of the user 200 when using the HUD device 10A shown in FIG.

以下、移動体100は、自動車であるとして説明するが、自動車以外であってもよい。すなわち、移動体100は、自動車に限らず、例えば、二輪車、電車、航空機、建設機械、または船舶等であってもよい。 Although the moving body 100 is described below as being an automobile, it may be something other than an automobile. That is, the mobile object 100 is not limited to an automobile, and may be, for example, a two-wheeled vehicle, a train, an aircraft, a construction machine, a ship, or the like.

HUD(Head-Up Display)装置10Aは、表示デバイスにより表示される表示画像の虚像を、移動体100の前方の実景と重ねて視認者に視認可能にさせる。本実施の形態では、HUD装置10Aは、図2に示すように、本体部1と映像表示システム10とで構成されている。 A HUD (Head-Up Display) device 10A superimposes a virtual image of a display image displayed by a display device on a real scene in front of the moving object 100 so that the viewer can see it. In this embodiment, the HUD device 10A is composed of a main body 1 and an image display system 10, as shown in FIG.

映像表示システム10は、図1及び図2に示すように、例えば移動体100に含まれ、移動体100に設けられるHUD装置10Aを構成する。なお、映像表示システム10は、本体部1の一部または全部を含んでもよい。映像表示システム10が本体部1の全部を含む場合には、映像表示システム10はHUD装置10Aと称することもできる。 The image display system 10 is included in, for example, a moving body 100 and constitutes a HUD device 10A provided in the moving body 100, as shown in FIGS. Note that the image display system 10 may include part or all of the main unit 1 . When the image display system 10 includes the entire body section 1, the image display system 10 can also be called a HUD device 10A.

本体部1は、移動体100のウインドシールド101に下方から表示画像を投影するように、移動体100の車室内に配置されている。図1に示される例では、本体部1は、ウインドシールド101の下方のダッシュボード102内に配置されている。本体部1からウインドシールド101に表示画像が投影されると、例えば運転者などのユーザ200は、ウインドシールド101に投影された表示画像を、移動体100の前方(移動体の外)に設定された対象空間400内に表示された虚像300として視認する。 The main body 1 is arranged in the vehicle interior of the moving body 100 so as to project a display image onto the windshield 101 of the moving body 100 from below. In the example shown in FIG. 1 , the main body 1 is arranged inside the dashboard 102 below the windshield 101 . When the display image is projected onto the windshield 101 from the main unit 1, the user 200 such as the driver sets the display image projected onto the windshield 101 to the front of the moving body 100 (outside the moving body). It is viewed as a virtual image 300 displayed in the target space 400 .

ここでいう「虚像」は、本体部1から出射される表示画像の光がウインドシールド101等の反射物にて発散するとき、その発散光線によって、実際に物体があるように結ばれる像を意味する。また、ウインドシールド101は、表示画像が投影される投影対象物である。 The term "virtual image" as used herein means an image formed by the divergent rays of light that appears to be an actual object when the light of the display image emitted from the main unit 1 diverges from a reflecting object such as the windshield 101. do. Also, the windshield 101 is a projection target onto which a display image is projected.

そのため、移動体100を運転しているユーザ200は、図3に示すように、移動体100の前方に広がる実景に重ねて、本体部1にて投影される虚像300を見ることができる。したがって、HUD装置10Aによれば、種々の運転支援情報を虚像300として実景と重ねて表示して、ユーザ200に視認させることができる。運転支援情報は、例えば、車速情報、ナビゲーション情報、歩行者情報、前方車両情報、車線逸脱情報、及び車両コンディション情報等である。これにより、ユーザ200は、ウインドシールド101の前方に視線を向けた状態から僅かな視線移動だけで、運転支援情報を視覚的に取得することができる。 Therefore, the user 200 driving the moving object 100 can see the virtual image 300 projected by the main unit 1 superimposed on the real scene spreading in front of the moving object 100, as shown in FIG. Therefore, according to the HUD device 10A, it is possible to display various types of driving support information as the virtual image 300 superimposed on the real scene so that the user 200 can visually recognize it. Driving support information includes, for example, vehicle speed information, navigation information, pedestrian information, forward vehicle information, lane deviation information, and vehicle condition information. As a result, the user 200 can visually acquire the driving support information only by slightly moving the line of sight from the state in which the line of sight is directed forward of the windshield 101 .

対象空間400に表示される虚像300は、例えば、ナビゲーション情報として移動体100の進行方向を示す情報であり、路面600上に右折または左折を示す矢印である。この種の虚像300は、拡張現実(Augmented Reality)技術を用いて表示される画像であって、ユーザ200から見た実景(路面600、建物、周辺車両、及び歩行者等)における特定の位置に重畳して表示される。 The virtual image 300 displayed in the target space 400 is, for example, information indicating the traveling direction of the mobile object 100 as navigation information, and is an arrow indicating a right turn or left turn on the road surface 600 . This kind of virtual image 300 is an image displayed using an augmented reality technology, and is located at a specific position in the real scene (road surface 600, buildings, surrounding vehicles, pedestrians, etc.) seen by the user 200. It is superimposed and displayed.

対象空間400に表示される虚像300は、図1に示すように、HUD装置10Aの本体部1の光軸500に交差する仮想面501上に形成される。光軸500は、移動体100の前方の対象空間400において、移動体100の前方の路面600に沿っている。虚像300が形成される仮想面501は、路面600に対して略垂直である。例えば、路面600が水平面である場合には、虚像300は鉛直面に沿って表示される。 A virtual image 300 displayed in the target space 400 is formed on a virtual plane 501 that intersects the optical axis 500 of the main body 1 of the HUD device 10A, as shown in FIG. The optical axis 500 is along the road surface 600 in front of the moving body 100 in the target space 400 in front of the moving body 100 . A virtual plane 501 on which the virtual image 300 is formed is substantially perpendicular to the road surface 600 . For example, if the road surface 600 is horizontal, the virtual image 300 is displayed along the vertical plane.

本実施の形態では、本体部1は、図2に示すように、表示器20及び表示制御部21で構成される表示デバイス2と、投影部3とを備える。 In the present embodiment, the main body 1 includes a display device 2 including a display 20 and a display control section 21, and a projection section 3, as shown in FIG.

表示制御部21は、投影部3と表示器20とを制御する。表示器20は、表示面20aを有し、表示面20aに表示画像700を表示する。表示器20は、表示画像700を示す表示光を投影部3の第1ミラー31に向けて出射する。 The display control section 21 controls the projection section 3 and the display device 20 . The display device 20 has a display surface 20a and displays a display image 700 on the display surface 20a. The display device 20 emits display light indicating the display image 700 toward the first mirror 31 of the projection unit 3 .

投影部3は、表示器20の表示光により、例えば図1に示すように、表示画像700に対応する虚像300を対象空間400に投影する投影処理を実行する。 The projection unit 3 performs a projection process of projecting a virtual image 300 corresponding to a display image 700 onto a target space 400 using the display light of the display device 20, as shown in FIG. 1, for example.

このような本体部1が移動体100に搭載された状態では、例えば、路面600の状況、及び移動体100の加減速等に起因した振動により、本体部1の姿勢が移動体100の姿勢と共に変化する。例えば、移動体100が前傾姿勢になれば本体部1も前傾姿勢となり、移動体100が後傾姿勢になれば本体部1も後傾姿勢になる。そのため、本体部1の姿勢が変化すると、虚像300と実景との相対的な配置関係が変化することになる。つまり、本体部1の姿勢が変化した場合に、虚像300は、ユーザ200から見た実景において本来重畳すべき特定の位置からずれた位置に表示されることになる。なお、移動体100の姿勢を変化させる振動としては、移動体100の加減速に起因する振動の他、移動体100が凸凹道を走行したときに移動体100の上下動を生じさせる振動なども挙げられる。 When the main body 1 is mounted on the moving body 100, the attitude of the main body 1 changes along with the attitude of the moving body 100 due to vibrations caused by, for example, the condition of the road surface 600 and the acceleration/deceleration of the moving body 100. Change. For example, if the moving body 100 is tilted forward, the main body 1 is also tilted forward, and if the body 100 is tilted backward, the main body 1 is also tilted backward. Therefore, when the posture of the main body 1 changes, the relative arrangement relationship between the virtual image 300 and the real scene changes. In other words, when the posture of the main body 1 changes, the virtual image 300 is displayed at a position shifted from the specific position where it should be superimposed in the actual scene seen by the user 200 . Note that the vibration that changes the posture of the moving body 100 includes not only vibration caused by acceleration and deceleration of the moving body 100, but also vibration that causes vertical movement of the moving body 100 when the moving body 100 runs on an uneven road. mentioned.

そこで、映像表示システム10では、移動体100の姿勢変化に応じて、虚像300の表示位置を補正する。これにより、映像表示システム10は、例えば移動体100に姿勢変化が生じても、虚像300を、ユーザ200から見た実景において本来重畳すべき特定の位置に重畳して表示することができる。 Therefore, in the video display system 10 , the display position of the virtual image 300 is corrected according to the posture change of the moving object 100 . As a result, the video display system 10 can superimpose and display the virtual image 300 at a specific position where the virtual image 300 should be superimposed in the actual scene viewed from the user 200 even if the posture of the moving object 100 changes.

なお、移動体100の姿勢を変化させる振動のうち、移動体100が凸凹道を走行したときに移動体100の上下動を生じさせる振動は、移動体100の加減速に起因する振動と比較して、より短い時間(周期)の振動である。そのため、虚像300の表示位置の補正処理にリアルタイム性が要求される。 Of the vibrations that change the posture of the moving body 100, the vibration that causes vertical movement of the moving body 100 when the moving body 100 runs on an uneven road is less than the vibration caused by the acceleration/deceleration of the moving body 100. is a shorter time (period) oscillation. Therefore, the correction processing of the display position of the virtual image 300 is required to be performed in real time.

映像表示システム10では、表示デバイス2への出力処理段階により近い処理段階において、移動体100の振動量を示す振動情報を取得して補正処理を実行する。つまり、映像表示システム10では、振動情報を取得してから虚像の表示位置の補正を行う補正処理を実行するまでの時間を短くする。これにより、虚像300の表示位置の補正処理の遅延をより短くでき、虚像300の表示位置の補正処理にリアルタイム性が要求される場合でも、対応することができる。 In the image display system 10, at a processing stage closer to the output processing stage to the display device 2, vibration information indicating the vibration amount of the moving body 100 is acquired and correction processing is executed. That is, in the image display system 10, the time from acquisition of vibration information to execution of correction processing for correcting the display position of the virtual image is shortened. As a result, the delay in the processing for correcting the display position of the virtual image 300 can be shortened, and even when the processing for correcting the display position of the virtual image 300 requires real-time performance, it is possible to respond.

(2)構成
[本体部1の構成]
本体部1は、例えば図1に示すように、移動体100のダッシュボード102内に固定される。本体部1は、例えば筐体にて構成されるが、筐体でなく、例えば、フレームまたは板材等であってもよい。本体部1は、上述したが、図2に示すように、表示器20及び表示制御部21からなる表示デバイス2と、投影部3とを備える。
(2) Configuration [Configuration of main unit 1]
The main body 1 is fixed inside a dashboard 102 of a mobile body 100, as shown in FIG. 1, for example. The main body 1 is composed of, for example, a housing, but it may be a frame, a plate, or the like instead of the housing. As described above, the main unit 1 includes the display device 2 including the display device 20 and the display control unit 21 and the projection unit 3 as shown in FIG.

投影部3は、表示器20の表示光を、対象空間400に投影する投影処理を実行する。本実施の形態では、投影部3は、図1に示すように、ウインドシールド101に表示画像700を示す表示光を投影することで、表示画像700に対応する虚像300を対象空間400に投影する。 The projection unit 3 executes projection processing for projecting the display light of the display device 20 onto the target space 400 . In the present embodiment, as shown in FIG. 1, the projection unit 3 projects display light representing a display image 700 onto the windshield 101, thereby projecting a virtual image 300 corresponding to the display image 700 onto the target space 400. .

本実施の形態では、投影部3は、図2に示すように、第1ミラー31と、第2ミラー32と、を有している。第1ミラー31は、例えば凸面鏡であり、第2ミラー32は、例えば凹面鏡である。第1ミラー31及び第2ミラー32は、表示器20の表示光の光路上に、第1ミラー31、第2ミラー32の順で配置されている。より詳細には、第1ミラー31は、表示器20の表示光が入射するように、表示器20の表示面20aの前方に配置されている。第1ミラー31は、表示器20の表示光を、第2ミラー32に向けて反射する。第2ミラー32は、例えば第1ミラー31の前方下側の位置など、第1ミラー31で反射された表示器20の表示光が入射するような位置に配置されている。第2ミラー32は、第1ミラー31で反射された表示器20の表示光を、上方すなわちウインドシールド101に向けて反射する。 In this embodiment, the projection unit 3 has a first mirror 31 and a second mirror 32, as shown in FIG. The first mirror 31 is, for example, a convex mirror, and the second mirror 32 is, for example, a concave mirror. The first mirror 31 and the second mirror 32 are arranged in the order of the first mirror 31 and the second mirror 32 on the optical path of the display light of the display 20 . More specifically, the first mirror 31 is arranged in front of the display surface 20a of the display 20 so that the display light of the display 20 is incident thereon. The first mirror 31 reflects the display light of the display 20 toward the second mirror 32 . The second mirror 32 is arranged at a position such as a position in front and below the first mirror 31 where the display light of the display 20 reflected by the first mirror 31 is incident. The second mirror 32 reflects the display light of the display 20 reflected by the first mirror 31 upward, that is, toward the windshield 101 .

この構成により、投影部3は、表示器20の表示面20aに表示された表示画像700を、適当な大きさに拡大または縮小して、投影画像としてウインドシールド101に投影する。この結果、対象空間400に虚像300が表示される。つまり、移動体100を運転しているユーザ200の視野内では、HUD装置10Aから投影された表示画像700の虚像300が、移動体100の前方に広がる実景に重ねて表示される。 With this configuration, the projection unit 3 enlarges or reduces the display image 700 displayed on the display surface 20a of the display device 20 to an appropriate size and projects it onto the windshield 101 as a projection image. As a result, the virtual image 300 is displayed in the target space 400 . That is, the virtual image 300 of the display image 700 projected from the HUD device 10A is superimposed on the real scene spreading in front of the mobile body 100 within the visual field of the user 200 driving the mobile body 100 .

図4は、図2に示す表示デバイス2の詳細構成の一例を示すブロック図である。 FIG. 4 is a block diagram showing an example of the detailed configuration of the display device 2 shown in FIG. 2. As shown in FIG.

表示デバイス2は、図2及び図4に示すように、表示器20と表示制御部21と備え、表示面20aに表示画像700を表示する表示処理を実行し、表示した表示画像700を投影部3に向けて照射する。図3に示す例では、表示画像700は、例えば、移動体100が走行する路面上に表示される矢印を表す領域と、移動体100の速度が表示される数字を表す領域とを含む移動体100の目的地までの走行経路を案内するための画像である。そして、虚像300は、例えば矢印を示す虚像300aと例えば速度を示す虚像300bとを含む(図3参照)。 As shown in FIGS. 2 and 4, the display device 2 includes a display device 20 and a display control unit 21, executes display processing for displaying a display image 700 on the display surface 20a, and projects the displayed display image 700 to a projection unit. Aim at 3. In the example shown in FIG. 3, the display image 700 includes, for example, an area representing an arrow displayed on the road surface on which the moving object 100 travels, and an area representing numbers displaying the speed of the moving object 100. It is an image for guiding a driving route to 100 destinations. The virtual image 300 includes a virtual image 300a representing, for example, an arrow and a virtual image 300b representing, for example, velocity (see FIG. 3).

表示器20は、図4に示すように、液晶パネル201と光源装置202とを備え、表示面20aに表示した表示画像700を示す表示光を投影部3の第1ミラー31に向けて出射する。 As shown in FIG. 4, the display device 20 includes a liquid crystal panel 201 and a light source device 202, and emits display light indicating a display image 700 displayed on the display surface 20a toward the first mirror 31 of the projection unit 3. .

液晶パネル201は、映像表示システム10で形成された表示画像700を表示する。液晶パネル201は、例えばLCD(Liquid Crystal Display)である。液晶パネル201は、光源装置202の前方に配置されている。液晶パネル201の前面(すなわち光源装置202とは反対側の表面)が、表示面20aを構成する。表示面20aに表示画像700が表示される。 The liquid crystal panel 201 displays a display image 700 formed by the video display system 10 . The liquid crystal panel 201 is, for example, an LCD (Liquid Crystal Display). The liquid crystal panel 201 is arranged in front of the light source device 202 . The front surface of the liquid crystal panel 201 (that is, the surface opposite to the light source device 202) constitutes the display surface 20a. A display image 700 is displayed on the display surface 20a.

光源装置202は、発光ダイオードまたはレーザダイオード等の固体発光素子を用いて、液晶パネル201の背面の略全域に光を照射する。光源装置202は、液晶パネル201に表示された表示画像700を液晶パネル201の前方に照らし出す。このように、光源装置202は、液晶パネル201のバックライトとして用いられる。 The light source device 202 irradiates substantially the entire rear surface of the liquid crystal panel 201 with light using solid-state light-emitting elements such as light-emitting diodes or laser diodes. The light source device 202 illuminates a display image 700 displayed on the liquid crystal panel 201 in front of the liquid crystal panel 201 . Thus, the light source device 202 is used as a backlight for the liquid crystal panel 201 .

表示制御部21は、映像表示システム10から出力された表示画像700に基づいて、液晶パネル201を駆動することで、表示面20aに表示画像700を表示させる。また、表示制御部21は、光源装置202を点灯させて、液晶パネル201に表示された表示画像700を液晶パネル201の前方に照らし出す。このとき液晶パネル201の前方に照らし出された光は、液晶パネル201に表示された表示画像700を反映した光である。したがって、液晶パネル201に表示された画像は、光源装置202の表示光によって、液晶パネル201の前方に投影される。 The display control unit 21 drives the liquid crystal panel 201 based on the display image 700 output from the video display system 10 to display the display image 700 on the display surface 20a. The display control unit 21 also turns on the light source device 202 to illuminate the display image 700 displayed on the liquid crystal panel 201 in front of the liquid crystal panel 201 . The light illuminated in front of the liquid crystal panel 201 at this time is the light reflecting the display image 700 displayed on the liquid crystal panel 201 . Therefore, the image displayed on the liquid crystal panel 201 is projected in front of the liquid crystal panel 201 by the display light from the light source device 202 .

なお、表示制御部21は、例えば、CPU(Central Processing Unit)及びメモリを主構成とするマイクロコンピュータにて構成されている。言い換えれば、表示制御部21は、CPU及びメモリを有するコンピュータにて実現されており、CPUがメモリに格納されているプログラムを実行することにより、コンピュータが表示制御部21として機能する。プログラムは、表示制御部21のメモリに予め記録されているが、インターネット等の電気通信回線を通じて、またはメモリカード等の記録媒体に記録されて提供されてもよい。 The display control unit 21 is composed of, for example, a microcomputer mainly composed of a CPU (Central Processing Unit) and a memory. In other words, the display control unit 21 is realized by a computer having a CPU and memory, and the computer functions as the display control unit 21 by the CPU executing a program stored in the memory. The program is pre-recorded in the memory of the display control unit 21, but may be provided through an electric communication line such as the Internet or recorded in a recording medium such as a memory card.

[映像表示システム10の構成]
図5は、本実施の形態に係る映像表示システム10の詳細構成の一例を示すブロック図である。
[Configuration of video display system 10]
FIG. 5 is a block diagram showing an example of the detailed configuration of the image display system 10 according to this embodiment.

映像表示システム10は、運転支援情報を取得する。以下では、映像表示システム10は、移動体100に搭載されたナビゲーション装置からナビゲーション情報を取得するとして説明する。 The video display system 10 acquires driving assistance information. In the following description, the video display system 10 acquires navigation information from a navigation device mounted on the mobile object 100. FIG.

ここで、ナビゲーション情報は、例えば、移動体100が向かう目的地までの走行経路、及び、直近の交差点までの距離などの情報である。そして、映像表示システム10は、取得したナビゲーション情報に基づいて、移動体100が走行経路上の直近の交差点に一定距離まで接近したと判定すると、上記の交差点での進行方向を案内するための矢印画像を含む表示画像700を形成する。その際、表示画像700の矢印画像は、その虚像300aが対象空間400内の既定位置(例えば上記の交差点に沿って重なる位置)401に表示されるように形成される。映像表示システム10は、形成した表示画像700を表示デバイス2に出力する。 Here, the navigation information is, for example, information such as the travel route to the destination to which the mobile object 100 is headed and the distance to the nearest intersection. Then, when the image display system 10 determines that the moving object 100 has approached the nearest intersection on the travel route within a certain distance based on the acquired navigation information, the image display system 10 displays an arrow for guiding the traveling direction at the intersection. A display image 700 containing an image is formed. At that time, the arrow image of the display image 700 is formed so that the virtual image 300a thereof is displayed at a predetermined position 401 within the target space 400 (for example, a position overlapping along the intersection). The video display system 10 outputs the formed display image 700 to the display device 2 .

本実施の形態では、映像表示システム10は、図5に示すように、描画部11と、表示デバイス出力部12とを備える。 In this embodiment, the video display system 10 includes a drawing section 11 and a display device output section 12, as shown in FIG.

<描画部11>
図6Aは、本実施の形態に係る表示デバイス出力部12が出力する表示画像700の映像フォーマットを示す図である。図6Bは、本実施の形態に係る描画部11が出力する描画画像701の映像フォーマットを示す図である。
<Drawing unit 11>
FIG. 6A is a diagram showing the video format of display image 700 output by display device output unit 12 according to the present embodiment. FIG. 6B is a diagram showing the video format of the drawn image 701 output by the drawing unit 11 according to this embodiment.

描画部11は、経時的に動かない領域である第1領域(ST領域)と、経時的に動く領域である第2領域(AR領域)とからなる画像を描画し、第1領域(ST領域)を示す信号と第2領域(AR領域)を示す信号とをこの順に出力する。 The drawing unit 11 draws an image composed of a first region (ST region) that is a region that does not move over time and a second region (AR region) that is a region that moves over time. ) and a signal indicating the second area (AR area) are output in this order.

以下、第1領域をST領域(Graphical Area of Static Information)と称し、第2領域をAR領域(Graphical Area of Augmented Reality)として説明する。ST領域は、移動体100のメータ、速度、燃料系などの各種インフォメーションすなわち移動体100の基本情報を示すための領域であり、経時的に動かない領域である。換言すると、ST領域は、その虚像が実景中の特定の対象物に対して所定の位置関係を持たない領域である。このため、ST領域は、図6Aに示すように、表示画像700では下方の特定の位置に表示されるが、振動により位置がずれてもユーザ200に違和感を生じさせない領域である。 Hereinafter, the first area will be referred to as an ST area (Graphical Area of Static Information), and the second area will be referred to as an AR area (Graphical Area of Augmented Reality). The ST area is an area for showing various types of information such as the meter, speed, fuel system, etc. of the moving body 100, that is, basic information about the moving body 100, and is an area that does not move over time. In other words, the ST area is an area whose virtual image does not have a predetermined positional relationship with respect to a specific object in the real scene. Therefore, as shown in FIG. 6A, the ST area is displayed at a specific lower position in the display image 700, but is an area that does not cause discomfort to the user 200 even if the position shifts due to vibration.

AR領域は、例えば、移動体100の前方にある物体との衝突を警告するための画像、目的地までの走行経路を案内するために走行路面上に表示される矢印などの画像、走行車線の逸脱を抑制するために表示される画像などのリアルタイムコンテンツを示す領域である。つまり、AR領域は、リアルタイムコンテンツを重畳表示させる領域であり経時的に動く領域である。換言すると、AR領域は、その虚像が実景中の特定の対象物に対して所定の位置関係を持つ領域である。このため、AR領域は、図6Aに示すように、表示画像700では上方の特定の位置であって特定の対象物に重畳する特定の位置に表示され、振動により位置がずれるとユーザ200に違和感を生じさせる領域である。 The AR area includes, for example, an image to warn of a collision with an object in front of the mobile object 100, an image such as an arrow displayed on the road surface to guide the travel route to the destination, and an image of the travel lane. A region that shows real-time content, such as images that are displayed to suppress deviations. In other words, the AR area is an area where real-time content is superimposed and displayed, and is an area that moves over time. In other words, the AR area is an area whose virtual image has a predetermined positional relationship with respect to a specific object in the real scene. Therefore, as shown in FIG. 6A, the AR area is displayed at a specific position above the display image 700 and superimposed on the specific object, and if the position shifts due to vibration, the user 200 feels uncomfortable. This is the area where the

本実施の形態では、図6Aに示すように、表示画像700は、表示デバイス出力部12により、AR領域を示す信号とST領域を示す信号とがこの順に構成される映像フォーマットで出力される。一方、描画画像701は、描画部11により、ST領域を示す信号とAR領域を示す信号とがこの順に構成される映像フォーマットで出力される。つまり、描画部11は、描画画像701を、表示デバイス出力部12が表示デバイス2に対して出力する映像フォーマットと逆の映像フォーマットで、表示デバイス出力部12に対して出力する。 In the present embodiment, as shown in FIG. 6A, the display image 700 is output by the display device output unit 12 in a video format in which a signal indicating the AR area and a signal indicating the ST area are configured in this order. On the other hand, the drawn image 701 is output by the drawing unit 11 in a video format in which a signal indicating the ST area and a signal indicating the AR area are configured in this order. That is, the drawing unit 11 outputs the drawn image 701 to the display device output unit 12 in a video format opposite to the video format output by the display device output unit 12 to the display device 2 .

図7は、本実施の形態に係る描画部11の詳細構成の一例を示すブロック図である。 FIG. 7 is a block diagram showing an example of the detailed configuration of the drawing unit 11 according to this embodiment.

また、本実施の形態では、描画部11は、図7に示すように、描画部本体111と、描画バッファ112とを備える。 In addition, in the present embodiment, the rendering unit 11 includes a rendering unit body 111 and a rendering buffer 112, as shown in FIG.

描画部本体111は、まず、対象空間400に対応した3次元仮想空間内で、移動体100の基本情報を示すST領域を下方に位置させ、映像表示システム10が取得したリアルタイムコンテンツを示すAR領域を上方に位置させた3次元画像を描画する。ここで、リアルタイムコンテンツは、例えば、映像表示システム10が取得した上記のナビゲーション情報に基づく交差点での進行方向を案内するための矢印とする。移動体100の基本情報とは、例えば移動体100の速度とする。次に、描画部本体111は、描画した3次元画像を、3次元仮想空間内の所定の射影面に射影することで2次元画像に変換し、この2次元画像を描画画像とする。このように、描画部本体111は、ST領域を下方、AR領域を上方に位置させた描画画像を描画する。 The drawing unit main body 111 first positions the ST area indicating the basic information of the moving body 100 below in the three-dimensional virtual space corresponding to the target space 400, and then lowers the AR area indicating the real-time content acquired by the video display system 10. is positioned above the three-dimensional image. Here, the real-time content is, for example, an arrow for guiding the direction of travel at an intersection based on the navigation information obtained by the video display system 10 . The basic information of the moving body 100 is, for example, the speed of the moving body 100 . Next, the drawing unit main body 111 converts the drawn three-dimensional image into a two-dimensional image by projecting it onto a predetermined projection plane in the three-dimensional virtual space, and uses this two-dimensional image as a drawn image. In this way, the rendering unit main body 111 renders a rendered image with the ST area positioned below and the AR area positioned above.

そして、描画部本体111は、描画バッファ112に、描画した描画画像ではなく、描画した描画画像におけるST領域を上方、AR領域を下方に位置させることで形成した描画画像701を一時的に保存する。 Then, the drawing unit main body 111 temporarily stores in the drawing buffer 112 not the drawn image but the drawn image 701 formed by positioning the ST area in the drawn image above and the AR area below. .

描画バッファ112は、描画部本体111で形成された描画画像701を一時的に保存する。そして、描画バッファ112は、描画画像701を、図6Bに示す映像フォーマットに従って表示デバイス出力部12に出力する。より具体的には、描画バッファ112は、描画画像701を、図6Bに示す映像フォーマットに従い、まずST領域を示す信号を表示デバイス出力部12に出力し、続いてAR領域を示す信号を表示デバイス出力部12に出力する。 The rendering buffer 112 temporarily stores a rendered image 701 formed by the rendering unit body 111 . The drawing buffer 112 then outputs the drawing image 701 to the display device output unit 12 according to the video format shown in FIG. 6B. More specifically, the drawing buffer 112 first outputs a signal indicating the ST region to the display device output unit 12, and then outputs a signal indicating the AR region to the display device according to the video format shown in FIG. 6B. Output to the output unit 12 .

<表示デバイス出力部12>
表示デバイス出力部12は、描画部11から取得した描画画像701に対して各種の処理を実行し、これにより得た表示画像700を表示デバイス2に出力する。
<Display device output unit 12>
The display device output unit 12 executes various processes on the drawn image 701 acquired from the drawing unit 11 and outputs the display image 700 obtained by this processing to the display device 2 .

より具体的には、表示デバイス出力部12は、描画部11から第1領域を取得している期間に、移動体100の振動量を示す振動情報を取得する。また、表示デバイス出力部12は、第1領域に続いて描画部11から取得中の第2領域に対して、振動情報に基づき、第2領域の虚像の表示位置の補正を行う振動補正処理を実行する。そして、表示デバイス出力部12は、振動補正処理を実行した第2領域と描画部11から取得した第1領域とをこの順に合成して、表示画像700として、表示デバイス2に出力する。 More specifically, the display device output unit 12 acquires vibration information indicating the amount of vibration of the moving body 100 while acquiring the first area from the drawing unit 11 . Further, the display device output unit 12 performs vibration correction processing for correcting the display position of the virtual image of the second region based on the vibration information for the second region being acquired from the drawing unit 11 subsequent to the first region. Run. Then, the display device output unit 12 synthesizes the second area subjected to the vibration correction process and the first area acquired from the drawing unit 11 in this order, and outputs the result to the display device 2 as the display image 700 .

図8は、本実施の形態に係る表示デバイス出力部12の詳細構成の一例を示すブロック図である。 FIG. 8 is a block diagram showing an example of the detailed configuration of the display device output section 12 according to this embodiment.

本実施の形態では、表示デバイス出力部12は、図8に示すように、分割部121と、振動補正部122と、合成部123と、歪補正部124と、を備えている。 In this embodiment, the display device output unit 12 includes a dividing unit 121, a vibration correcting unit 122, a synthesizing unit 123, and a distortion correcting unit 124, as shown in FIG.

分割部121は、描画部11で形成された描画画像701を分割して、振動補正部122または合成部123に出力する。より具体的には、分割部121は、描画部11から出力された信号のうち、第2領域を示す信号を振動補正部122に出力し、第1領域を示す信号を合成部123に出力する。換言すると、分割部121は、描画部11からST領域を示す信号を取得しているときには、当該ST領域を示す信号を振動補正部122に出力し、AR領域を示す信号を取得しているときには、当該AR領域を示す信号を合成部123に出力する。本実施の形態では、分割部121は、描画画像701を示す信号を取得する際、まずST領域を示す信号を取得して、続いてAR領域を示す信号を取得する。 The dividing unit 121 divides the drawn image 701 formed by the drawing unit 11 and outputs the divided images to the vibration correcting unit 122 or the synthesizing unit 123 . More specifically, among the signals output from the drawing unit 11 , the dividing unit 121 outputs a signal indicating the second region to the vibration correcting unit 122 and outputs a signal indicating the first region to the synthesizing unit 123 . . In other words, the dividing unit 121 outputs the signal indicating the ST region to the vibration correcting unit 122 when acquiring the signal indicating the ST region from the drawing unit 11, and outputs the signal indicating the AR region to the vibration correcting unit 122 when acquiring the signal indicating the AR region. , outputs a signal indicating the AR region to the synthesizing unit 123 . In the present embodiment, when obtaining the signal indicating the drawn image 701, the dividing unit 121 first obtains the signal indicating the ST region and then obtains the signal indicating the AR region.

振動補正部122は、分割部121から出力された画像に、振動補正処理を実行する。より具体的には、振動補正部122は、振動情報に基づき、第2領域の虚像の表示位置の補正を行う振動補正処理を実行する。より詳細には、まず、分割部121が描画部11からST領域を示す信号を取得し、合成部123に出力している期間中に、振動補正部122は、移動体100の振動量を示す振動情報を、振動検出部4から取得する。続いて、振動補正部122は、分割部121からAR領域を示す信号を取得中に、当該振動情報に基づき、AR領域を示す信号に対して、AR領域の虚像の表示位置の補正を行う振動補正処理を実行する。 The vibration correction unit 122 performs vibration correction processing on the image output from the dividing unit 121 . More specifically, the vibration correction unit 122 executes vibration correction processing for correcting the display position of the virtual image of the second area based on the vibration information. More specifically, first, while the division unit 121 acquires a signal indicating the ST region from the rendering unit 11 and outputs the signal to the synthesis unit 123, the vibration correction unit 122 indicates the vibration amount of the moving body 100. Vibration information is acquired from the vibration detection unit 4 . Subsequently, while the signal indicating the AR region is being acquired from the dividing unit 121, the vibration correction unit 122 corrects the display position of the virtual image of the AR region with respect to the signal indicating the AR region based on the vibration information. Execute correction processing.

換言すると、振動補正部122は、分割部121がST領域を示す信号を合成部123に出力している際に取得した振動情報に基づいて、移動体100の振動による実景と分割部121から出力されたAR領域の虚像のずれを相殺するように、分割部121から出力されたAR領域の虚像の表示位置を補正する振動補正処理を実行する。 In other words, based on the vibration information acquired while the dividing unit 121 is outputting the signal indicating the ST region to the synthesizing unit 123, the vibration correcting unit 122 combines the actual scene due to the vibration of the moving body 100 with the output from the dividing unit 121. Vibration correction processing is performed to correct the display position of the virtual image in the AR area output from the dividing unit 121 so as to cancel the deviation of the virtual image in the AR area.

このように、振動補正部122は、振動補正処理を、描画部11よりも後段にあってより表示デバイス2に近い処理段階で実行する。また、振動補正部122は、分割部121がST領域を示す信号を取得し、合成部123に出力している期間中に取得した振動情報を用いて、AR領域を示す信号に対して振動補正処理を実行することができる。このような振動補正処理により、移動体100に振動による姿勢変化が生じても、例えば図3に示す対象空間400において、虚像300が、ユーザ200から見た実景における本来重畳すべき特定の位置に表示される。 In this way, the vibration correction unit 122 executes the vibration correction process at a stage after the drawing unit 11 and closer to the display device 2 . Further, the vibration correction unit 122 acquires the signal indicating the ST region by the dividing unit 121, and uses the vibration information obtained during the period when the signal indicating the ST region is output to the combining unit 123 to correct the vibration of the signal indicating the AR region. Processing can be performed. With such vibration correction processing, even if the posture of the moving body 100 changes due to vibration, the virtual image 300 is placed at a specific position where it should be superimposed on the actual scene viewed from the user 200, for example, in the target space 400 shown in FIG. Is displayed.

ここで、振動補正処理の詳細例について図9を用いて説明する。 Here, a detailed example of vibration correction processing will be described with reference to FIG.

図9は、本実施の形態に係る振動補正処理の詳細例を説明するための図である。なお、図9では、振動補正処理が実行される前の描画画像701のうちAR領域を示す画像であるAR領域画像702とそのAR領域画像702中の矢印部分710との参照符号には、Xが付されている。また、振動補正処理が実行された後のAR領域画像702及び矢印部分710の参照符号には、Yが付されている。 FIG. 9 is a diagram for explaining a detailed example of vibration correction processing according to the present embodiment. Note that in FIG. 9, the reference numerals of the AR area image 702, which is an image indicating the AR area in the drawing image 701 before the vibration correction process is executed, and the arrow part 710 in the AR area image 702, are denoted by X is attached. Also, Y is attached to the reference numerals of the AR area image 702 and the arrow portion 710 after the vibration correction processing is executed.

振動補正部122は、分割部121から出力されたAR領域画像702に対し、移動体100の振動による姿勢変化で生じる実景と虚像とのずれを補正する振動補正処理を実行する。振動補正部122は、例えば図9に示すバッファ1220を用いて振動補正処理を実行する。 The vibration correction unit 122 performs vibration correction processing on the AR area image 702 output from the division unit 121 to correct the deviation between the real scene and the virtual image caused by the posture change due to the vibration of the moving body 100 . The vibration correction unit 122 executes vibration correction processing using, for example, a buffer 1220 shown in FIG.

バッファ1220は、分割部121から出力されたAR領域画像702を一時的に保存する。バッファ1220は、バッファ1220からAR領域画像702を読み出すときの読出開始位置P1を変更可能である。例えば、読出開始位置P1をAR領域画像702Xの左上角部(基準位置)に設定すると、バッファ1220からは、AR領域画像702Xの左上角部を基準にして1画面分の画像が読み出される。すなわち、バッファ1220から、構図がずれない状態でAR領域画像702Xが読み出される。 A buffer 1220 temporarily stores the AR area image 702 output from the dividing unit 121 . The buffer 1220 can change the reading start position P1 when reading the AR area image 702 from the buffer 1220 . For example, when the reading start position P1 is set to the upper left corner (reference position) of the AR area image 702X, one screen of image is read from the buffer 1220 with the upper left corner of the AR area image 702X as a reference. In other words, the AR area image 702X is read out from the buffer 1220 while the composition is not shifted.

一方、読出開始位置P1がAR領域画像702Xの左上角部よりも上にずれた位置P1aに変更されると、バッファ1220からは、読出開始位置P1aを基準にして一画面分の画像が読み出される。この場合、バッファ1220から、読出開始位置P1aが上方にずれた分、構図が下方にずれた状態で、AR領域画像702Xが読み出される。この結果、AR領域画像702Yが表示面20aに表示されると、AR領域画像702Y中の矢印部分710が下方にずれて表示される。逆に、読出開始位置P1がAR領域画像702の左上角部よりも下にずれた位置に設定されると、AR領域画像702が表示面20aに表示されたとき、AR領域画像702Y中の矢印部分710Yが上方にずれて表示される。 On the other hand, when the reading start position P1 is changed to a position P1a that is shifted above the upper left corner of the AR area image 702X, an image for one screen is read from the buffer 1220 with reference to the reading start position P1a. . In this case, the AR area image 702X is read from the buffer 1220 with the composition shifted downward by the amount that the read start position P1a is shifted upward. As a result, when the AR area image 702Y is displayed on the display surface 20a, the arrow portion 710 in the AR area image 702Y is displayed shifted downward. Conversely, if the reading start position P1 is set to a position below the upper left corner of the AR area image 702, when the AR area image 702 is displayed on the display surface 20a, the arrow in the AR area image 702Y A portion 710Y is displayed shifted upward.

振動補正部122は、振動検出部4から取得した振動情報に基づいて、移動体100の振動による姿勢変化のピッチ角を検出し、このピッチ角による虚像300と実景とのずれを相殺するように、読出開始位置P1を変化させる。例えば、図3に示す例で説明すると、ピッチ角が移動体100を後傾姿勢にする場合、AR領域画像702に対応する虚像300aが対象空間400内の既定位置401よりも下方に表示されるように読出開始位置P1がAR領域画像702の左上角部よりも上方の位置P1aに変更される。このように、読出開始位置P1aからAR領域画像702が読み出されることで、振動補正処理が実行される。すなわち、補正後のAR領域画像702Yが表示デバイス2に表示されたとき、AR領域画像702Y中の矢印部分710Yの表示位置は、補正前のAR領域画像702X中の矢印部分710Xの表示位置よりも下方に補正される。このようにして、移動体100の振動による虚像300と実景とのずれが補正される。 The vibration correction unit 122 detects the pitch angle of the posture change due to the vibration of the moving body 100 based on the vibration information acquired from the vibration detection unit 4, and cancels the deviation between the virtual image 300 and the real scene due to the pitch angle. , to change the read start position P1. For example, in the example shown in FIG. 3, when the pitch angle causes the moving body 100 to tilt backward, the virtual image 300a corresponding to the AR area image 702 is displayed below the default position 401 in the target space 400. As shown, the readout start position P1 is changed to a position P1a above the upper left corner of the AR area image 702 . In this way, the vibration correction process is executed by reading the AR area image 702 from the reading start position P1a. That is, when the AR area image 702Y after correction is displayed on the display device 2, the display position of the arrow portion 710Y in the AR area image 702Y is higher than the display position of the arrow portion 710X in the AR area image 702X before correction. corrected downwards. In this way, the deviation between the virtual image 300 and the real scene caused by the vibration of the moving body 100 is corrected.

なお、読出開始位置P1がAR領域画像702の左上角部からずれた位置に変更されると、AR領域画像702の構図がずれるため、AR領域画像702において画像がない部分702sが生じるが、その画像無し部分702sは、例えば黒色画像として表示してもよい。 If the reading start position P1 is changed to a position shifted from the upper left corner of the AR area image 702, the composition of the AR area image 702 is shifted, and a portion 702s having no image is generated in the AR area image 702. The no-image portion 702s may be displayed as a black image, for example.

このように、振動補正処理は、描画部11よりも後段で表示デバイス2の前段で実行される。このため、表示デバイス2での表示遅延を抑制できる。 In this way, the vibration correction process is performed after the drawing unit 11 and before the display device 2 . Therefore, display delay in the display device 2 can be suppressed.

なお、上記の説明では、移動体100の振動による姿勢変化は、移動体100のピッチ方向の変化であったが、移動体100のヨー方向の変化でもよい。この場合、読出開始位置P1は、移動体100のヨー角に応じて左右に変動される。そして、AR領域画像702を表示デバイス2に表示したとき、AR領域画像702中の矢印部分710の表示位置が、補正前のAR領域画像702中の矢印部分710よりも左右方向にずれた位置に補正される。また、移動体100の振動による姿勢変化は、ロール方向の変化であってもよい。この場合は、読出開始位置P1に対して、ロール角に応じて回転させるようにAR領域画像702が読み出される。そして、AR領域画像702が表示デバイス2に表示されたとき、AR領域画像702中の矢印部分710は、補正前のAR領域画像702中の矢印部分710に対して回転した位置に補正される。なお、ヨー方向とは、移動体100の上下方向の軸線周りの方向であり、ヨー角とは、ヨー方向の回転角である。ロール方向とは、移動体100の前後方向の軸線周りの角度であり、ロール角とは、ロール方向の回転角である。 In the above description, the posture change due to the vibration of the moving body 100 is the change in the pitch direction of the moving body 100, but it may be the change in the yaw direction of the moving body 100. FIG. In this case, the readout start position P1 is shifted left and right according to the yaw angle of the moving body 100. FIG. When the AR area image 702 is displayed on the display device 2, the display position of the arrow portion 710 in the AR area image 702 is shifted in the horizontal direction from the arrow portion 710 in the AR area image 702 before correction. corrected. Further, the posture change due to the vibration of the moving body 100 may be a change in the roll direction. In this case, the AR area image 702 is read so as to be rotated according to the roll angle with respect to the read start position P1. Then, when the AR area image 702 is displayed on the display device 2, the arrow portion 710 in the AR area image 702 is corrected to a position rotated with respect to the arrow portion 710 in the AR area image 702 before correction. The yaw direction is the direction around the vertical axis of the moving body 100, and the yaw angle is the rotation angle in the yaw direction. The roll direction is the angle around the longitudinal axis of the moving body 100, and the roll angle is the rotation angle in the roll direction.

合成部123は、描画部11から出力された画像と、振動補正部122で振動補正処理が行われた画像とを合成する。より具体的には、合成部123は、振動補正処理が実行された第2領域と描画部11から取得した第1領域とをこの順に合成する。換言すると、合成部123は、振動補正部122で振動補正処理が行われたAR領域を示す信号と、分割部121から取得したST領域を示す信号とをこの順に合成し、表示画像700を形成する。 The synthesizing unit 123 synthesizes the image output from the drawing unit 11 and the image on which vibration correction processing has been performed by the vibration correcting unit 122 . More specifically, the synthesizing unit 123 synthesizes the second area on which the vibration correction processing has been performed and the first area obtained from the drawing unit 11 in this order. In other words, the synthesizing unit 123 synthesizes, in this order, the signal indicating the AR region subjected to the vibration correction processing in the vibration correcting unit 122 and the signal indicating the ST region acquired from the dividing unit 121 to form the display image 700. do.

ここで、合成処理の詳細例について図10を用いて説明する。 Here, a detailed example of the synthesizing process will be described with reference to FIG. 10 .

図10は、本実施の形態に係る合成処理の詳細例を説明するための図である。なお、図10の(a)には、参考として、振動補正処理が実行される直前のAR領域画像702XとAR領域画像702X中の矢印部分710Xが示されている。図10の(b)には、振動補正処理が実行された後すなわち合成処理が実行される直前のAR領域画像702Yと矢印部分710Yが示されている。図10の(c)には、分割部121から出力され、合成処理が実行される前のST領域を示す画像であるST領域画像703とST領域画像703中の速度部分711が示されている。 FIG. 10 is a diagram for explaining a detailed example of the combining processing according to this embodiment. For reference, FIG. 10A shows an AR area image 702X immediately before the vibration correction process is performed and an arrow portion 710X in the AR area image 702X. FIG. 10(b) shows an AR area image 702Y and an arrow portion 710Y after the vibration correction process is executed, that is, immediately before the synthesis process is executed. FIG. 10(c) shows an ST region image 703, which is an image representing the ST region output from the dividing unit 121 and before the synthesis processing is performed, and a velocity portion 711 in the ST region image 703. .

合成部123は、振動補正処理が実行された例えば図10の(b)に示すAR領域画像702Yと、分割部121から出力された図10の(c)に示すST領域画像703とをこの順に合成する。この結果、合成部123は、図10の(d)に示す表示画像700を形成する。 The synthesizing unit 123 combines, in this order, the AR area image 702Y shown in FIG. Synthesize. As a result, the synthesizing unit 123 forms a display image 700 shown in (d) of FIG.

また、合成部123は、形成した表示画像700に、表示画像700の各部の色を調整する色調補正処理を実行してもよい。より詳細には、合成部123は、形成した表示画像700の各部の色を、定められた色となるように補正してもよい。合成部123は、例えば、表示画像700において、白色と定められた部分に赤味がかっている場合は、その赤味がかかった部分を白色に補正する。そして、合成部123は、色調補正した表示画像700を歪補正部124に出力する。 Further, the synthesizing unit 123 may perform color tone correction processing for adjusting the color of each portion of the display image 700 on the formed display image 700 . More specifically, the synthesizing unit 123 may correct the color of each portion of the formed display image 700 so as to have a predetermined color. For example, if a portion defined as white in the display image 700 is reddish, the synthesizing unit 123 corrects the reddish portion to white. The synthesizing unit 123 then outputs the color-tone-corrected display image 700 to the distortion correcting unit 124 .

なお、合成部123は、描画部11から出力された画像、及び、振動補正部122で振動補正処理が行われた画像を、合成処理のために一時的に保存するバッファ(不図示)を有している。この場合、合成部123は、色調補正した表示画像700を当該バッファに一時的に保存して、歪補正部124に出力するとしてもよい。 Note that the synthesizing unit 123 has a buffer (not shown) that temporarily stores the image output from the drawing unit 11 and the image on which vibration correction processing has been performed by the vibration correcting unit 122 for synthesizing processing. is doing. In this case, the synthesizing unit 123 may temporarily store the color tone-corrected display image 700 in the buffer and output it to the distortion correcting unit 124 .

歪補正部124は、合成部123で色調補正された表示画像700に、歪み補正処理を実行する。歪補正部124は、歪み補正処理した表示画像700を表示デバイス2に出力する。 The distortion correction unit 124 performs distortion correction processing on the display image 700 that has undergone color tone correction in the composition unit 123 . The distortion correction unit 124 outputs the display image 700 subjected to the distortion correction process to the display device 2 .

より具体的には、歪補正部124は、振動補正処理が実行された第2領域と描画部11から取得した第1領域とをこの順に合成した画像に、振動補正処理とは異なる歪み補正処理をさらに実行して、表示画像700として、表示デバイス2に出力する。つまり、歪補正部124は、合成部123により合成されて、出力された画像に、振動補正処理とは異なる歪み補正処理を実行して、表示画像700として、表示デバイス2に出力する。 More specifically, the distortion correction unit 124 applies distortion correction processing different from the vibration correction processing to an image obtained by synthesizing the second region on which the vibration correction processing has been performed and the first region acquired from the drawing unit 11 in this order. is further executed and output to the display device 2 as a display image 700 . That is, the distortion correction unit 124 performs distortion correction processing different from the vibration correction processing on the output image synthesized by the synthesis unit 123 , and outputs the image as the display image 700 to the display device 2 .

歪補正部124は、例えばウインドシールド101及び投影部3での反射で虚像300に生じる歪みがなくなるように、合成部123により出力された表示画像700を補正する。そして、歪補正部124は歪み補正処理を実行した表示画像700を表示デバイス2に出力する。 The distortion correcting unit 124 corrects the display image 700 output by the synthesizing unit 123 so that the virtual image 300 is not distorted due to reflection on the windshield 101 and the projection unit 3, for example. Then, the distortion correction unit 124 outputs the display image 700 subjected to the distortion correction process to the display device 2 .

なお、歪補正部124は、合成部123で色調補正された表示画像700毎に歪み補正処理を実行してもよいが、これに限らない。歪補正部124は、ラインバッファを有し、ラインバッファから表示画像700における数行分の画像領域である小領域画像に読み出して、歪み補正処理を実行してもよい。この場合、歪補正部124は、歪み補正処理の後、小領域画像のうちの1行分の画像ずつ表示デバイス2に出力する。これにより、ラインバッファから表示デバイス2への画像出力の遅延をさらに抑制でき、この結果、表示デバイス2での表示遅延をさらに抑制できる。 Note that the distortion correction unit 124 may perform distortion correction processing for each display image 700 color-tone-corrected by the synthesis unit 123, but the present invention is not limited to this. The distortion correction unit 124 may have a line buffer, and may read a small area image, which is an image area corresponding to several lines in the display image 700, from the line buffer to perform distortion correction processing. In this case, the distortion correction unit 124 outputs the image of each line of the small region image to the display device 2 after the distortion correction processing. As a result, the delay in image output from the line buffer to the display device 2 can be further suppressed, and as a result, the display delay on the display device 2 can be further suppressed.

また、描画部11及び表示デバイス出力部12はそれぞれ、例えば、CPU及びメモリを主構成とするマイクロコンピュータにて構成されてもよい。この場合、描画部11及び表示デバイス出力部12はそれぞれ、CPU及びメモリを有するコンピュータにて実現されており、CPUがメモリに格納されているプログラムを実行することにより、コンピュータが描画部11及び表示デバイス出力部12として機能する。描画部11のプログラムは描画部11のメモリに予め記録され、表示デバイス出力部12のプログラムは表示デバイス出力部12のメモリに予め記録されているが、インターネット等の電気通信回線を通じて、またはメモリカード等の記録媒体に記録されて提供されてもよい。 Moreover, the drawing unit 11 and the display device output unit 12 may each be configured by a microcomputer having a CPU and a memory as main components. In this case, the drawing unit 11 and the display device output unit 12 are implemented by a computer having a CPU and a memory, respectively. It functions as the device output section 12 . The program for the drawing unit 11 is pre-recorded in the memory of the drawing unit 11, and the program for the display device output unit 12 is pre-recorded in the memory of the display device output unit 12. However, the program can be downloaded via an electric communication line such as the Internet or via a memory card. It may be provided by being recorded on a recording medium such as.

[振動検出部4]
振動検出部4は、移動体100の振動量を検出して、振動情報として出力する。振動検出部4は、移動体100に加わる振動を検出するセンサであり、例えばジャイロセンサ(角速度センサ)であるが、これに限定されず、例えば加速度センサでもよい。振動検出部4は、移動体100に加わる振動の情報として、例えば移動体100の振動で変化する移動体100のピッチ角を検出する。
[Vibration detector 4]
The vibration detector 4 detects the amount of vibration of the moving body 100 and outputs it as vibration information. The vibration detection unit 4 is a sensor that detects vibration applied to the moving body 100, and is, for example, a gyro sensor (angular velocity sensor), but is not limited to this, and may be, for example, an acceleration sensor. The vibration detection unit 4 detects the pitch angle of the moving body 100 that changes due to the vibration of the moving body 100, for example, as information on the vibration applied to the moving body 100. FIG.

なお、振動検出部4は、本体部1に設けられ、本体部1に加わる振動を検出することで、移動体100に加わる振動を検出してもよい。本体部1は移動体100に固定されているため、本体部1に加わる振動は、移動体100に加わる振動と同じであるからである。 Note that the vibration detection unit 4 may be provided in the main body 1 and detect the vibration applied to the moving body 100 by detecting the vibration applied to the main body 1 . This is because the main body 1 is fixed to the moving body 100 , and therefore the vibration applied to the main body 1 is the same as the vibration applied to the moving body 100 .

(3)動作
以上のように構成される映像表示システム10が実行する動作処理について説明する。
(3) Operation Operation processing executed by the video display system 10 configured as described above will be described.

図11は、本実施の形態における映像表示システム10が実行する動作処理を示すフローチャートである。図12は、本実施の形態に係る描画部11及び表示デバイス出力部12が出力する映像フォーマットとタイミングとの一例を示す図である。なお、図12の(a)には、描画部11により出力される描画画像701の映像フォーマットが示されている。図12の(b)には、表示デバイス出力部12により出力される表示画像700の映像フォーマットが示されている。 FIG. 11 is a flow chart showing operation processing executed by video display system 10 according to the present embodiment. FIG. 12 is a diagram showing an example of video formats and timings output by the drawing unit 11 and the display device output unit 12 according to this embodiment. Note that FIG. 12A shows the video format of the drawn image 701 output by the drawing unit 11 . (b) of FIG. 12 shows the video format of the display image 700 output by the display device output unit 12 .

まず、映像表示システム10において、描画部11は、ST領域とAR領域とからなる画像を描画し、ST領域を示す信号とAR領域を示す信号とをこの順に出力する(ステップS10)。より具体的には、描画部11は、図12の(a)に示される映像フォーマットに従い、描画画像701として、ST領域を示す信号(ST領域画像703)とAR領域を示す信号(AR領域画像702X)とをこの順に表示デバイス出力部12に出力する。 First, in the video display system 10, the drawing unit 11 draws an image consisting of the ST area and the AR area, and outputs a signal indicating the ST area and a signal indicating the AR area in this order (step S10). More specifically, according to the video format shown in FIG. 702X) are output to the display device output unit 12 in this order.

次に、表示デバイス出力部12は、ST領域を示す信号を取得している第1期間に、移動体100の振動量を示す振動情報を取得する。また、表示デバイス出力部12は、第1期間に続く第2期間において取得中のAR領域に対して、振動情報に基づき、AR領域の虚像の表示位置の補正を行う振動補正処理を実行し、振動補正処理が実行されたAR領域と第1期間に取得したST領域とをこの順に合成して、表示画像として、表示デバイス2に出力する(ステップS20)。 Next, the display device output unit 12 acquires vibration information indicating the vibration amount of the moving body 100 during the first period in which the signal indicating the ST region is being obtained. Further, the display device output unit 12 performs vibration correction processing for correcting the display position of the virtual image in the AR region based on the vibration information for the AR region being acquired in the second period following the first period, The AR area on which the vibration correction process has been performed and the ST area obtained in the first period are synthesized in this order, and output as a display image to the display device 2 (step S20).

より具体的には、表示デバイス出力部12は、図12に示されるように、描画部11がST領域を示す信号を出力している際に移動体100の振動量を示す振動情報を取得する。続いて、表示デバイス出力部12は、取得した振動情報から補正量(振動補正量)を算出して、描画部11が、ST領域を示す信号ST領域に続いて出力しているAR領域を示す信号に対して振動補正処理を実行する。換言すると、表示デバイス出力部12は、描画部11よりも後段で、かつ、表示デバイス2の前段において、描画部11によりST領域を示す信号が出力されている期間とAR領域を示す信号が出力され始めたときまでに補正量を決定して、描画部11から出力されたAR領域を示す信号に振動補正処理を実行する。 More specifically, as shown in FIG. 12, the display device output unit 12 acquires vibration information indicating the amount of vibration of the moving body 100 while the drawing unit 11 is outputting a signal indicating the ST region. . Subsequently, the display device output unit 12 calculates the correction amount (vibration correction amount) from the acquired vibration information, and the drawing unit 11 outputs the signal ST region indicating the ST region, followed by the AR region. Perform vibration correction processing on the signal. In other words, the display device output unit 12 outputs the signal indicating the AR region and the period during which the signal indicating the ST region is output by the drawing unit 11 at the stage after the drawing unit 11 and before the display device 2. The amount of correction is determined by the time the vibration starts, and vibration correction processing is performed on the signal indicating the AR region output from the drawing unit 11 .

表示デバイス出力部12は、振動補正処理等の実行後、図12の(b)に示される映像フォーマットに従い、表示画像700として、AR領域を示す信号(AR領域画像702Y)とST領域を示す信号(ST領域画像703)とをこの順に表示デバイス2に出力する。 After executing vibration correction processing, etc., the display device output unit 12 outputs a signal indicating the AR area (AR area image 702Y) and a signal indicating the ST area as the display image 700 according to the video format shown in FIG. (ST area image 703) are output to the display device 2 in this order.

このように、映像表示システム10は、振動情報を取得してからAR領域の虚像の表示位置の補正を行う補正処理を実行するまでの遅延をより少なくできる。このため、映像表示システム10は、描画部11にAR領域を示す信号とST領域を示す信号とをこの順に表示デバイス出力部12に出力させる場合と比較して、結果的に、振動情報からより迅速に補正量を決定して振動補正処理を実行することができる。よって、映像表示システム10は、虚像に対応する画像の表示遅延をより低減することができる。 In this way, the image display system 10 can reduce the delay from acquisition of vibration information to execution of correction processing for correcting the display position of the virtual image in the AR area. For this reason, the image display system 10 results in more vibration information than when the drawing unit 11 outputs the signal indicating the AR region and the signal indicating the ST region to the display device output unit 12 in this order. It is possible to quickly determine the correction amount and execute the vibration correction process. Therefore, the video display system 10 can further reduce the display delay of the image corresponding to the virtual image.

(4)効果等
比較例を用いて、本実施の形態における効果について説明する。
(4) Effect, etc. The effect of this embodiment will be described using a comparative example.

図13は比較例を示す図であり、図14は本実施の形態に係る効果の説明図である。なお、図13の(a)及び図14の(a)には、描画部11により出力される映像フォーマットが示されている。図13の(b)及び図14の(b)には、表示デバイス出力部12により出力される映像フォーマットが示されている。また、図13の(b)及び図14の(b)に示すように、表示デバイス出力部12は、振動情報取得した時刻後に、遅延量が経過した時刻を中心に読出開始位置をずらす振動補正処理を行った表示画像700を出力する。また、図13及び図14に示す遅延量には、ハード遅延量が含まれている。 FIG. 13 is a diagram showing a comparative example, and FIG. 14 is an explanatory diagram of the effects of this embodiment. Note that (a) of FIG. 13 and (a) of FIG. 14 show the video format output by the drawing unit 11 . (b) of FIG. 13 and (b) of FIG. 14 show video formats output by the display device output unit 12. FIG. Further, as shown in FIGS. 13B and 14B, the display device output unit 12 performs vibration correction by shifting the readout start position around the time when the delay amount has passed after the time when the vibration information is acquired. A display image 700 that has been processed is output. Further, the delay amounts shown in FIGS. 13 and 14 include hardware delay amounts.

図13の(a)に示すように、比較例では、図14の(a)に示す本実施の形態に対して、描画部11が出力する映像フォーマットが逆になっている。すなわち、比較例に係る描画部11は、出力画像700ZすなわちAR領域とST領域とをこの順に時系列で形成して出力する。なお、HUD装置10Aでは、AR領域が上方に位置し、ST領域が下方に位置する表示画像が表示されることが多いため、比較例のようにAR領域とST領域とがこの順となる映像フォーマットで出力される。これに対して、本実施の形態では、描画部11にST領域とAR領域とがこの順となる映像フォーマットを出力させる。 As shown in (a) of FIG. 13, in the comparative example, the video format output by the rendering unit 11 is reversed with respect to the present embodiment shown in (a) of FIG. That is, the drawing unit 11 according to the comparative example forms and outputs the output image 700Z, that is, the AR area and the ST area in this order in time series. In addition, in the HUD device 10A, a display image in which the AR area is positioned at the top and the ST area is positioned at the bottom is often displayed. output in the format On the other hand, in the present embodiment, the drawing unit 11 is caused to output a video format in which the ST area and the AR area are in this order.

また、比較例及び本実施の形態に係る表示デバイス出力部12は共に、AR領域が入力される直前に取得した振動情報を用いて、振動補正処理を実行する。比較例に係る表示デバイス出力部12は、AR領域を示す信号が入力される直前として、描画部11から出力画像700Zが入力される前の例えば時刻t0に、振動情報を取得する。また、比較例に係る表示デバイス出力部12は、AR領域の補正量(振動補正量)を決定してから、AR領域の振動補正処理を行い、振動補正処理が実行されたAR領域を例えば時刻t4から表示デバイス2に出力する。 Further, both the display device output unit 12 according to the comparative example and the present embodiment execute vibration correction processing using vibration information acquired immediately before the AR region is input. The display device output unit 12 according to the comparative example acquires the vibration information immediately before the signal indicating the AR region is input, for example, at time t0 before the output image 700Z is input from the drawing unit 11 . Further, the display device output unit 12 according to the comparative example determines the correction amount (vibration correction amount) of the AR area, performs the vibration correction process of the AR area, and outputs the AR area in which the vibration correction process has been performed to, for example, the time Output to the display device 2 from t4.

したがって、比較例では、振動情報を取得してから振動補正処理を行い表示デバイス2に表示画像700を出力するまでに比較的大きな遅延量が発生する。すなわち、比較例では、リアルタイム性が求められるコンテンツの性能制約が発生する。 Therefore, in the comparative example, a relatively large amount of delay occurs from the acquisition of the vibration information to the execution of the vibration correction process and the output of the display image 700 to the display device 2 . In other words, in the comparative example, there is a performance constraint on content that requires real-time performance.

一方、図14の(a)に示すように、本実施の形態に係る描画部11が出力する映像フォーマットでは、比較例に係る映像フォーマットと逆になっており、描画画像701としてST領域とAR領域とがこの順に時系列で出力される。本実施の形態に係る表示デバイス出力部12は、AR領域を示す信号が入力される直前として、描画部11から描画画像701が入力されている期間のうちST領域を示す信号が入力されている期間中の例えば時刻t2に、振動情報を取得する。そして、本実施の形態に係る表示デバイス出力部12は、AR領域の補正量(振動補正量)を決定してから、AR領域の振動補正処理を行い、振動補正処理が実行されたAR領域を例えば時刻t3から表示デバイス2に出力する。 On the other hand, as shown in (a) of FIG. 14, the video format output by the rendering unit 11 according to the present embodiment is the opposite of the video format according to the comparative example, and the rendered image 701 is the ST region and the AR region. regions are output in this order in chronological order. The display device output unit 12 according to the present embodiment receives the signal indicating the ST region during the period in which the drawn image 701 is being input from the drawing unit 11 immediately before the signal indicating the AR region is input. Vibration information is acquired, for example, at time t2 during the period. Then, the display device output unit 12 according to the present embodiment determines the correction amount (vibration correction amount) of the AR area, performs the vibration correction process of the AR area, and outputs the AR area on which the vibration correction process has been executed. For example, it is output to the display device 2 from time t3.

このように、本実施の形態に係る表示デバイス出力部12は、描画部11からAR領域を示す信号とST領域を示す信号をこの順に出力される比較例の場合と比較して、AR領域の虚像の表示位置の補正を行う補正処理を実行するために用いる補正量を、振動情報からより迅速に決定できる。よって、本実施の形態に係る映像表示システムは、振動情報を取得してから第2領域の虚像の表示位置の補正を行う補正処理を実行するまでの遅延をより少なくできるので、虚像に対応する画像の表示遅延をより低減することができる。 As described above, the display device output unit 12 according to the present embodiment outputs a signal indicating the AR region and a signal indicating the ST region from the drawing unit 11 in this order, compared to the comparative example. The correction amount used for executing correction processing for correcting the display position of the virtual image can be determined more quickly from the vibration information. Therefore, the image display system according to the present embodiment can reduce the delay from acquisition of vibration information to execution of correction processing for correcting the display position of the virtual image in the second region. The image display delay can be further reduced.

(5)変形例
上記の実施の形態は、本開示の様々な実施の形態の一つに過ぎない。上記の実施の形態は、本開示の目的を達成できれば、設計等に応じて種々の変更が可能である。さらに、上記の実施の形態に係る態様は、単体の映像表示システム10で具現化されることに限らない。例えば、映像表示システム10を備える移動体100、映像表示システム10を用いた映像表示方法で、上記の実施の形態に係る態様が具現化されてもよい。また、上記の映像表示方法をコンピュータに実行させるためのプログラム、このプログラムを記憶した記録媒体等で、上記の実施の形態に係る態様が具現化されてもよい。以下に説明する変形例は、適宜組み合わせて適用可能である。
(5) Modifications The embodiment described above is merely one of various embodiments of the present disclosure. The above-described embodiment can be modified in various ways according to design and the like, as long as the object of the present disclosure can be achieved. Furthermore, the aspect according to the above-described embodiment is not limited to being embodied in the video display system 10 as a single unit. For example, the mobile body 100 including the image display system 10 and the image display method using the image display system 10 may embody the aspect according to the above embodiment. Further, the mode according to the above-described embodiment may be embodied by a program for causing a computer to execute the above-described image display method, a recording medium storing this program, and the like. Modifications described below can be applied in combination as appropriate.

例えば、投影部3は、少なくとも光学素子を有していればよく、第1ミラー31及び第2ミラー32の2つのミラーを有することは必須でなく、ミラーを1つのみ、または3つ以上有していてもよい。さらに、投影部3は、例えばレンズ等、ミラー以外の光学部品を有していてもよい。 For example, the projection unit 3 only needs to have at least an optical element, it is not essential to have two mirrors, the first mirror 31 and the second mirror 32, and it has only one mirror or three or more mirrors. You may have Furthermore, the projection unit 3 may have optical components other than mirrors, such as lenses.

また、HUD装置10Aは、移動体100の進行方向の前方に設定された対象空間400に虚像300を投影する構成に限らず、例えば、移動体100の進行方向の側方、後方、または上方等に虚像300を投影してもよい。 Further, the HUD device 10A is not limited to a configuration in which the virtual image 300 is projected onto the target space 400 set in front of the traveling direction of the moving body 100. You may project the virtual image 300 to .

また、さらに、映像表示システム10は、HUD装置10Aまたは移動体100に限らず、例えば、アミューズメント施設で用いられてもよい。また、映像表示システム10は、ヘッドマウントディスプレイ(HMD:Head Mounted Display)等のウェアラブル端末、医療設備、または据置型の装置に用いられてもよい。また、映像表示システム10は、例えば、電子ビューファインダ等として、デジタルカメラ等の機器に組み込まれて使用されてもよい。 Moreover, the video display system 10 is not limited to the HUD device 10A or the mobile object 100, and may be used in an amusement facility, for example. The video display system 10 may also be used in wearable terminals such as a head mounted display (HMD), medical equipment, or stationary devices. Further, the video display system 10 may be used as an electronic viewfinder or the like by being incorporated in a device such as a digital camera.

また、本実施の形態では、描画部11及び表示デバイス出力部12は、互いに異なるCPU及びメモリで構成されるとして説明したが、1つのCPU及び1つのメモリを、描画部11及び表示デバイス出力部12で共用してもよい。 Further, in the present embodiment, the rendering unit 11 and the display device output unit 12 are configured by mutually different CPUs and memories. 12 may be shared.

また、描画部11は、CPUで構成される代わりに、GPU(Graphics Processing Unit)で構成されてもよい。また、表示デバイス出力部12は、CPUで構成される代わりに、FPGA(field-programmable gate array)で構成されてもよい。 Also, the drawing unit 11 may be configured with a GPU (Graphics Processing Unit) instead of being configured with a CPU. Also, the display device output unit 12 may be configured with an FPGA (field-programmable gate array) instead of the CPU.

また、上記の実施の形態では、表示器20は、液晶パネル201を備えた構成であったが、このような構成に限定されない。表示器20は、表示器20の表示面20aの背面からレーザ光を走査して表示画像700を形成するように構成されてもよい。 Further, in the above-described embodiment, the display device 20 is configured to include the liquid crystal panel 201, but is not limited to such a configuration. The display 20 may be configured to scan the display surface 20 a of the display 20 from behind with a laser beam to form the display image 700 .

本開示は、虚像300の表示位置の補正処理にリアルタイム性が要求されるHUD装置及びこのようなHUD装置を備える移動体などに用いられる映像表示システム、映像表示方法、及びプログラムに利用できる。 INDUSTRIAL APPLICABILITY The present disclosure can be used for a video display system, a video display method, and a program used for a HUD device that requires real-time performance in correction processing of the display position of the virtual image 300, and a moving body equipped with such a HUD device.

1 本体部
2 表示デバイス
3 投影部
4 振動検出部
10 映像表示システム
10A HUD装置
11 描画部
12 表示デバイス出力部
20 表示器
20a 表示面
21 表示制御部
31 第1ミラー
32 第2ミラー
100 移動体
101 ウインドシールド
102 ダッシュボード
111 描画部本体
112 描画バッファ
121 分割部
122 振動補正部
123 合成部
124 歪補正部
200 ユーザ
201 液晶パネル
202 光源装置
300、300a、300b 虚像
400 対象空間
500 光軸
501 仮想面
600 路面
700 表示画像
701 描画画像
702、702X、702Y AR領域画像
702s 部分
703 ST領域画像
710、710X、710Y 矢印部分
711 速度部分
1220 バッファ
Reference Signs List 1 main unit 2 display device 3 projection unit 4 vibration detection unit 10 video display system 10A HUD device 11 drawing unit 12 display device output unit 20 display device 20a display surface 21 display control unit 31 first mirror 32 second mirror 100 moving body 101 Windshield 102 Dashboard 111 Rendering unit body 112 Rendering buffer 121 Divider 122 Vibration correction unit 123 Synthesis unit 124 Distortion correction unit 200 User 201 Liquid crystal panel 202 Light source device 300, 300a, 300b Virtual image 400 Object space 500 Optical axis 501 Virtual surface 600 Road surface 700 Display image 701 Drawing image 702, 702X, 702Y AR area image 702s Part 703 ST area image 710, 710X, 710Y Arrow part 711 Speed part 1220 Buffer

Claims (6)

表示デバイスにより表示される表示画像の虚像を、移動体の前方の実景と重ねて視認者に視認可能にさせる映像表示システムであって、
経時的に動かない領域である第1領域と、経時的に動く領域である第2領域とからなる画像を描画し、前記第1領域を示す信号と前記第2領域を示す信号とをこの順に出力する描画部と、
前記描画部から前記第1領域を取得している期間に、前記移動体の振動量を示す振動情報を取得し、前記描画部から取得中の前記第2領域に対して、前記振動情報に基づき、前記第2領域の虚像の表示位置の補正を行う振動補正処理を実行し、前記振動補正処理が実行された前記第2領域と前記描画部から取得した前記第1領域とをこの順に合成して、前記表示画像として、前記表示デバイスに出力する表示デバイス出力部とを備える、
映像表示システム。
A video display system in which a virtual image of a display image displayed by a display device is superimposed on a real scene in front of a moving body so as to be visible to a viewer,
An image consisting of a first area that is an area that does not move with time and a second area that is an area that moves with time is drawn, and a signal indicating the first area and a signal indicating the second area are generated in this order. a drawing unit to output;
Vibration information indicating the amount of vibration of the moving object is acquired while the first region is being acquired from the rendering unit, and the second region being acquired from the rendering unit is processed based on the vibration information. , performing vibration correction processing for correcting the display position of the virtual image of the second region, and synthesizing the second region subjected to the vibration correction processing and the first region acquired from the drawing unit in this order. and a display device output unit for outputting to the display device as the display image,
video display system.
前記表示デバイス出力部は、前記振動補正処理が実行された前記第2領域と前記描画部から取得した前記第1領域とをこの順に合成した画像に、前記振動補正処理とは異なる歪み補正処理をさらに実行して、前記表示画像として、前記表示デバイスに出力する
請求項1に記載の映像表示システム。
The display device output unit applies distortion correction processing different from the vibration correction processing to an image obtained by synthesizing the second region subjected to the vibration correction processing and the first region acquired from the drawing unit in this order. 2. The video display system according to claim 1, further executing and outputting to said display device as said display image.
前記表示デバイス出力部は、
前記振動情報に基づき、前記振動補正処理を実行する振動補正部と、
前記振動補正処理が実行された前記第2領域と前記描画部から取得した前記第1領域とをこの順に合成する合成部と、
前記描画部から出力された信号のうち、前記第2領域を示す信号を前記振動補正部に出力し、前記第1領域を示す信号を前記合成部に出力する分割部と、
前記合成部により合成された画像に、前記振動補正処理とは異なる歪み補正処理を実行して、前記表示画像として、前記表示デバイスに出力する歪補正部とを備える、
請求項2に記載の映像表示システム。
The display device output unit
a vibration correction unit that executes the vibration correction process based on the vibration information;
a synthesizing unit that synthesizes the second region on which the vibration correction processing has been performed and the first region obtained from the drawing unit in this order;
a dividing unit that outputs a signal indicating the second region to the vibration correcting unit and outputs a signal indicating the first region to the synthesizing unit, among the signals output from the drawing unit;
a distortion correction unit that performs distortion correction processing different from the vibration correction processing on the image synthesized by the synthesis unit and outputs the display image to the display device;
3. The image display system according to claim 2.
請求項1~3のいずれか1項に記載の映像表示システムを備える、
移動体。
Equipped with the video display system according to any one of claims 1 to 3,
Mobile.
表示デバイスにより表示される表示画像の虚像を、移動体の前方の実景と重ねて視認者に視認可能にさせる映像表示システムを用いた映像表示方法であって、
経時的に動かない領域である第1領域と、経時的に動く領域である第2領域とからなる画像を描画し、前記第1領域を示す信号と前記第2領域を示す信号とをこの順に出力する描画ステップと、
前記第1領域を示す信号を取得している期間に、前記移動体の振動量を示す振動情報を取得し、前記期間に続く期間において取得中の前記第2領域に対して、前記振動情報に基づき、前記第2領域の虚像の表示位置の補正を行う振動補正処理を実行し、前記振動補正処理が実行された前記第2領域と前記期間に取得した前記第1領域とをこの順に合成して、前記表示画像として、前記表示デバイスに出力する出力ステップとを含む、
映像表示方法。
A video display method using a video display system in which a virtual image of a display image displayed by a display device is superimposed on a real scene in front of a moving body and visible to a viewer,
An image consisting of a first area that is an area that does not move with time and a second area that is an area that moves with time is drawn, and a signal indicating the first area and a signal indicating the second area are generated in this order. a drawing step to output;
Vibration information indicating the amount of vibration of the moving body is obtained during a period in which the signal indicating the first region is being obtained, and the vibration information is obtained for the second region being obtained in a period following the period. Based on this, vibration correction processing for correcting the display position of the virtual image of the second region is performed, and the second region subjected to the vibration correction processing and the first region acquired during the period are synthesized in this order. and an output step of outputting to the display device as the display image,
Image display method.
コンピュータに、
請求項5に記載の映像表示方法を実行させるためのプログラム。
to the computer,
A program for executing the video display method according to claim 5.
JP2019061489A 2019-03-27 2019-03-27 VIDEO DISPLAY SYSTEM, VIDEO DISPLAY METHOD, PROGRAM AND MOBILE BODY Active JP7145509B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019061489A JP7145509B2 (en) 2019-03-27 2019-03-27 VIDEO DISPLAY SYSTEM, VIDEO DISPLAY METHOD, PROGRAM AND MOBILE BODY

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019061489A JP7145509B2 (en) 2019-03-27 2019-03-27 VIDEO DISPLAY SYSTEM, VIDEO DISPLAY METHOD, PROGRAM AND MOBILE BODY

Publications (2)

Publication Number Publication Date
JP2020160340A JP2020160340A (en) 2020-10-01
JP7145509B2 true JP7145509B2 (en) 2022-10-03

Family

ID=72643202

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019061489A Active JP7145509B2 (en) 2019-03-27 2019-03-27 VIDEO DISPLAY SYSTEM, VIDEO DISPLAY METHOD, PROGRAM AND MOBILE BODY

Country Status (1)

Country Link
JP (1) JP7145509B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114915772B (en) * 2022-07-13 2022-11-01 沃飞长空科技(成都)有限公司 Method and system for enhancing visual field of aircraft, aircraft and storage medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006142897A (en) 2004-11-17 2006-06-08 Nissan Motor Co Ltd Display device for vehicle, and controlling method of display device for vehicle
US20120050139A1 (en) 2010-08-27 2012-03-01 Empire Technology Development Llc Head up display
JP2017013590A (en) 2015-06-30 2017-01-19 日本精機株式会社 Head-up display device
JP2017094882A (en) 2015-11-23 2017-06-01 アイシン・エィ・ダブリュ株式会社 Virtual image generation system, virtual image generation method and computer program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006142897A (en) 2004-11-17 2006-06-08 Nissan Motor Co Ltd Display device for vehicle, and controlling method of display device for vehicle
US20120050139A1 (en) 2010-08-27 2012-03-01 Empire Technology Development Llc Head up display
JP2017013590A (en) 2015-06-30 2017-01-19 日本精機株式会社 Head-up display device
JP2017094882A (en) 2015-11-23 2017-06-01 アイシン・エィ・ダブリュ株式会社 Virtual image generation system, virtual image generation method and computer program

Also Published As

Publication number Publication date
JP2020160340A (en) 2020-10-01

Similar Documents

Publication Publication Date Title
JP7194906B2 (en) Video display system, video display method, program, and moving body provided with video display system
JP6731644B2 (en) Display position correction device, display device including display position correction device, and moving body including display device
US11004424B2 (en) Image display system, image display method, movable object including the image display system, and non-transitory computer-readable medium
JP6443236B2 (en) Virtual image presentation system, image projection apparatus, and virtual image presentation method
JP6443122B2 (en) Vehicle display device
JP6899082B2 (en) Head-up display
WO2018207566A1 (en) Display device and display control method
JP6724886B2 (en) Virtual image display
JP6724885B2 (en) Virtual image display
JP7040485B2 (en) Display control device and display control program
JP7145509B2 (en) VIDEO DISPLAY SYSTEM, VIDEO DISPLAY METHOD, PROGRAM AND MOBILE BODY
JP2019164318A (en) Video display system, video display method, program, and movable body including video display system
JP2021075219A (en) Display control device and display control program
WO2018030320A1 (en) Vehicle display device
US20200047686A1 (en) Display device, display control method, and storage medium
JP2020158014A (en) Head-up display device, display control device, and display control program
WO2020059441A1 (en) Display control device, display control program, and computer-readable non-transitory recording medium
JP2023066556A (en) head-up display device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211008

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220729

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220823

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220912

R151 Written notification of patent or utility model registration

Ref document number: 7145509

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

SZ03 Written request for cancellation of trust registration

Free format text: JAPANESE INTERMEDIATE CODE: R313Z03