JP6971590B2 - Image processing equipment, image processing methods and programs - Google Patents

Image processing equipment, image processing methods and programs Download PDF

Info

Publication number
JP6971590B2
JP6971590B2 JP2017037737A JP2017037737A JP6971590B2 JP 6971590 B2 JP6971590 B2 JP 6971590B2 JP 2017037737 A JP2017037737 A JP 2017037737A JP 2017037737 A JP2017037737 A JP 2017037737A JP 6971590 B2 JP6971590 B2 JP 6971590B2
Authority
JP
Japan
Prior art keywords
image
display
unit
optical system
movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017037737A
Other languages
Japanese (ja)
Other versions
JP2018141943A (en
Inventor
光 内舘
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017037737A priority Critical patent/JP6971590B2/en
Priority to US15/880,333 priority patent/US10726814B2/en
Priority to CN201810078565.XA priority patent/CN108363486B/en
Publication of JP2018141943A publication Critical patent/JP2018141943A/en
Application granted granted Critical
Publication of JP6971590B2 publication Critical patent/JP6971590B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は、撮像部により撮像された画像を補正する技術に関する。 The present invention relates to a technique for correcting an image captured by an imaging unit.

近年、現実世界と仮想世界をリアルタイムにシームレスに融合させる技術として複合現実感、いわゆるMR(Mixed Reality)技術が知られている。MR技術の1つに、ビデオシースルーHMD(Head Mounted Display)を利用するものが知られている。この技術では、HMD使用者(ユーザ)の瞳位置から観察される被写体と略一致する被写体をビデオカメラなどで撮像し、その撮像画像にCG(Computer Graphics)を重畳表示した画像をユーザが観察できるようにする。 In recent years, mixed reality, so-called MR (Mixed Reality) technology, has been known as a technology for seamlessly fusing the real world and the virtual world in real time. As one of the MR techniques, a technique using a video see-through HMD (Head Mounted Display) is known. With this technology, a subject that substantially matches the subject observed from the pupil position of the HMD user (user) is imaged with a video camera or the like, and the user can observe an image in which CG (Computer Graphics) is superimposed and displayed on the captured image. To do so.

この技術を用いるシステムにおいては、ビデオカメラで撮影した撮像映像に対し描画するCGをレンダリングし、生成されたCGを撮像映像に重畳した表示映像を、画像表示装置としてのHMDの内部パネルに表示するのが一般的である。その際、上記一連の処理を行う演算時間が必ず発生するため撮影した映像の時間と表示される映像の時間との間に遅延(レイテンシ)が生じることとなる。このため、ユーザが頭を動かした場合、頭を動かした瞬間にHMDを通して観察する映像の視野に変化はないが、映像の遅延だけ時間が経過したのち視野の方向が頭の向きに応じて動き出すことになる。このような映像の遅延は、ユーザにとっては違和感となる。 In a system using this technology, a CG to be drawn is rendered for an image captured by a video camera, and a display image in which the generated CG is superimposed on the image is displayed on the internal panel of the HMD as an image display device. Is common. At that time, since the calculation time for performing the above series of processing always occurs, a delay (latency) occurs between the time of the captured image and the time of the displayed image. Therefore, when the user moves his / her head, the field of view of the image observed through the HMD does not change at the moment when the user moves his / her head, but the direction of the field of view starts to move according to the direction of the head after a delay of the image has elapsed. It will be. Such a delay in the image makes the user feel uncomfortable.

この問題に対して、遅延時間とHMDの動作予測値を用いて、ユーザが観察すべき現実世界と表示映像とのずれを補正する技術が提案されている。特許文献1には、フレームメモリに記憶された広画角の撮像映像から、回転角センサで検出されたユーザの頭部情報に基づいて、ユーザが見るべき表示画像をフレームメモリから切り出し、ディスプレイに表示するHMDが開示されている。 To solve this problem, a technique has been proposed in which the deviation between the real world to be observed by the user and the displayed image is corrected by using the delay time and the operation predicted value of the HMD. In Patent Document 1, a display image to be viewed by the user is cut out from the frame memory from the captured image of a wide angle of view stored in the frame memory based on the head information of the user detected by the rotation angle sensor, and displayed on the display. The HMD to be displayed is disclosed.

特開平8−191419号公報Japanese Unexamined Patent Publication No. 8-191419

しかしながら、特許文献1の技術は、画像表示装置が撮像光学系および表示光学系を有するものではない。そのため、画像表示装置が撮像光学系および表示光学系を有する場合に、それぞれの光学系の画像補正の影響は考慮されていなかった。そこで、本発明は、ユーザが観察すべき現実世界とのずれが軽減されるように表示映像を補正する際、撮像光学系および表示光学系を有する画像表示装置を用いた場合にも、それぞれの光学系の画像補正が適切に行われるようにすることを目的とする。 However, in the technique of Patent Document 1, the image display device does not have an image pickup optical system and a display optical system. Therefore, when the image display device has an image pickup optical system and a display optical system, the influence of the image correction of each optical system is not taken into consideration. Therefore, according to the present invention, when correcting the display image so as to reduce the deviation from the real world to be observed by the user, even when an image display device having an image pickup optical system and a display optical system is used, each of them is used. The purpose is to ensure that the image correction of the optical system is properly performed.

上記課題を解決するために、本発明によれば、撮像光学系を有し現実空間の画像を撮像する撮像部と、画像表示装置の動きを検知する検知部と、表示光学系を有し表示画像を表示する表示部と、を備える画像表示装置に接続された画像処理装置に、前記撮像光学系の光学特性に基づいて、前記撮像部により撮像された撮像画像を補正する第1の補正手段と、前記現実空間の情報に基づいて仮想画像の描画位置を決定し、該描画位置に基づいて当該仮想画像を生成する生成手段と、前記仮想画像の描画位置を決定し、該描画位置に基づいて当該仮想画像生成するのに要した処理時間を計測する計測手段と、前記計測された処理時間と前記画像表示装置の動きとに基づいて、前記生成された仮想画像に対して、変形または移動の少なくとも一方の処理を行うことにより前記仮想画像を修正する修正手段と、前記修正された仮想画像と前記補正された撮像画像とを合成して表示画像を生成する合成手段と、前記表示光学系の光学特性に基づいて、前記生成された表示画像を補正する第2の補正手段と、を備えることを特徴とする。 In order to solve the above problems, according to the present invention, an image pickup unit having an image pickup optical system for capturing an image in a real space, a detection unit for detecting the movement of an image display device, and a display optical system are provided for display. A first correction means for correcting an image captured by an image pickup unit based on the optical characteristics of the image pickup optical system on an image processing device connected to an image display device including a display unit for displaying an image. And, the drawing position of the virtual image is determined based on the information in the real space, the generation means for generating the virtual image based on the drawing position, and the drawing position of the virtual image are determined, and based on the drawing position. Based on the measuring means for measuring the processing time required to generate the virtual image, the measured processing time, and the movement of the image display device, the generated virtual image is deformed or modified. A correction means for modifying the virtual image by performing at least one process of movement, a synthesis means for combining the modified virtual image and the corrected captured image to generate a display image, and the display optics. It is characterized by comprising a second correction means for correcting the generated display image based on the optical characteristics of the system.

以上の構成によれば、本発明では、ユーザが観察すべき現実世界とのずれが軽減されるように表示映像を補正する際、撮像光学系および表示光学系を有する画像表示装置を用いた場合にも、それぞれの光学系の画像補正が適切に行われるようになる。 According to the above configuration, in the present invention, when the display image is corrected so as to reduce the deviation from the real world to be observed by the user, a case where an image display device having an image pickup optical system and a display optical system is used. In addition, the image correction of each optical system will be appropriately performed.

第1の実施形態に係る画像処理システムの構成を示すブロック図。The block diagram which shows the structure of the image processing system which concerns on 1st Embodiment. 第1の実施形態においてユーザの頭部動作を説明する図。The figure explaining the head movement of a user in 1st Embodiment. 第1の実施形態に係る画像変換部の構成を示すブロック図。The block diagram which shows the structure of the image conversion part which concerns on 1st Embodiment. 第1の実施形態に係る変形移動計算部の処理のフローチャート。The flowchart of the process of the deformation movement calculation unit which concerns on 1st Embodiment. 第1の実施形態に係る画像変換部による効果を説明する図。The figure explaining the effect by the image conversion part which concerns on 1st Embodiment. 第2の実施形態に係る画像処理システムの構成を示すブロック図。The block diagram which shows the structure of the image processing system which concerns on 2nd Embodiment. 第2の実施形態の変形例に係る画像処理システムの構成を示すブロック図。The block diagram which shows the structure of the image processing system which concerns on the modification of 2nd Embodiment. 第3の実施形態に係る画像処理システムの構成を示すブロック図。The block diagram which shows the structure of the image processing system which concerns on 3rd Embodiment. 第3の実施形態に係る画像変換部による効果を説明する図。The figure explaining the effect by the image conversion part which concerns on 3rd Embodiment. 第4の実施形態に係る画像処理システムの構成を示すブロック図。The block diagram which shows the structure of the image processing system which concerns on 4th Embodiment.

[第1の実施形態]
以下、本発明の第1の実施形態の詳細について図面を参照しつつ説明する。図1は、第1の実施形態における画像処理システムの機能構成を示すブロック図である。同図において、本実施形態の画像処理システムは、頭部装着型の画像表示装置としてのヘッドマウントディスプレイ(以下、HMD)1と画像処理装置14とが接続された構成である。HMD1および画像処理装置14はそれぞれ、CPU、ROM、RAM、HDD等のハードウェア構成を備え、CPUがROMやHD等に格納されたプログラムを実行することにより、各機能構成やフローチャートの処理が実現される。RAMは、CPUがプログラムを展開して実行するワークエリアとして機能する記憶領域を有する。ROMは、CPUが実行するプログラム等を格納する記憶領域を有する。HDDは、CPUが処理を実行する際に要する各種のプログラム、閾値に関するデータ等を含む各種のデータを格納する記憶領域を有する。
[First Embodiment]
Hereinafter, the details of the first embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing a functional configuration of an image processing system according to the first embodiment. In the figure, the image processing system of the present embodiment has a configuration in which a head-mounted display (hereinafter, HMD) 1 as a head-mounted image display device and an image processing device 14 are connected. The HMD 1 and the image processing device 14 each have a hardware configuration such as a CPU, ROM, RAM, and HDD, and the CPU executes a program stored in the ROM, HD, or the like to realize each functional configuration and processing of a flowchart. Will be done. The RAM has a storage area that functions as a work area in which the CPU develops and executes a program. The ROM has a storage area for storing a program or the like executed by the CPU. The HDD has a storage area for storing various data including various programs required for the CPU to execute a process, data related to a threshold value, and the like.

HMD1は、撮像部11、表示部12、および動作検知部13を備えている。撮像部11は、撮像光学系111と撮像センサ112を含み、現実世界を撮像した撮像映像を生成する。撮像部11に搭載される撮像光学系111の内部は、撮像レンズなどである。撮像センサ112は、撮像光学系111より形成された被写体像を光電変換するCMOSセンサなどの撮像素子である。このように、撮像部11は現実世界の光を撮像レンズを介して撮像素子へと結像させることで光を電気信号へと変換し、撮像映像として取得する。 The HMD 1 includes an image pickup unit 11, a display unit 12, and an motion detection unit 13. The image pickup unit 11 includes an image pickup optical system 111 and an image pickup sensor 112, and generates an image pickup image of the real world. The inside of the image pickup optical system 111 mounted on the image pickup unit 11 is an image pickup lens or the like. The image pickup sensor 112 is an image pickup element such as a CMOS sensor that photoelectrically converts a subject image formed by the image pickup optical system 111. In this way, the image pickup unit 11 forms an image of the light in the real world on the image pickup element via the image pickup lens, converts the light into an electric signal, and acquires the light as an image pickup image.

表示部12は、表示光学系121と表示パネル122とを含み、ユーザは表示パネル122に表示される表示映像を、表示光学系121を通して観察する。表示部12に搭載される表示光学系121はレンズや複数の反射面を有するプリズム型の光学素子等によって構成されており、表示パネル122の映像を光学的に拡大させることでHMDとして最適な表示映像をユーザに提示する。 The display unit 12 includes the display optical system 121 and the display panel 122, and the user observes the display image displayed on the display panel 122 through the display optical system 121. The display optical system 121 mounted on the display unit 12 is composed of a lens, a prism-type optical element having a plurality of reflective surfaces, and the like, and by optically magnifying the image of the display panel 122, an optimum display as an HMD is displayed. Present the video to the user.

動作検知部13は、HMD1を装着したユーザの頭部の位置姿勢(位置や方向や姿勢)を検出することでHMD1の動きを検知する。動作検知部13は、加速度センサ、角速度センサなどを用いて構成される。 The motion detection unit 13 detects the motion of the HMD 1 by detecting the position and posture (position, direction, and posture) of the head of the user wearing the HMD 1. The motion detection unit 13 is configured by using an acceleration sensor, an angular velocity sensor, or the like.

図2に、ユーザの頭部動作を概念的に説明する概念図を示す。本実施形態では、HMD1を装着したユーザの視線方向をRoll軸(R)、視線方向に対して水平方向をPitch軸(P)、視線方向に対して垂直方向をYaw軸(Y)と定義する。そして、それぞれの軸に対して回転した場合をそれぞれRoll(ロール)、Pitch(ピッチ)、Yaw(ヨー)と定義する。すなわち、Rollはユーザが頭部を傾ける場合、Pitchはユーザがうなずく場合、Yawはユーザが首を横に振る場合となる。動作検知部13は、これらRoll軸、Pitch軸、Yaw軸方向の加速度や回転の角速度などのデータを出力する。 FIG. 2 shows a conceptual diagram for conceptually explaining the user's head movement. In the present embodiment, the line-of-sight direction of the user wearing the HMD1 is defined as the Roll axis (R), the horizontal direction with respect to the line-of-sight direction is defined as the Pitch axis (P), and the direction perpendicular to the line-of-sight direction is defined as the Yaw axis (Y). .. Then, the case of rotation with respect to each axis is defined as Roll, Pitch, and Yaw, respectively. That is, Roll is when the user tilts his head, Pitch is when the user nods, and Yaw is when the user shakes his head. The motion detection unit 13 outputs data such as acceleration in the Roll axis, Pitch axis, and Yaw axis direction and angular velocity of rotation.

画像処理装置14は、撮像光学系の画像補正を行う撮像光学系補正部141と、表示光学系の画像補正を行う表示光学系補正部142を備える。また、撮像光学補正された映像に対し動作検知部13で検知したHMD1の動きに応じて生じる映像遅延による影響がないように画像を変換する画像変換部143を備える。画像変換部143は、前述のように画像を変換することにより、表示部12に表示すべき画像を生成する生成部として機能する。なお、本実施形態では、撮像部11により撮像された画像をそのまま表示画像として表示する形態であるが、例えば撮像された画像を拡大した画像を表示画像としてユーザに観察させるようにしてもよい。 The image processing device 14 includes an image pickup optical system correction unit 141 that performs image correction of the image pickup optical system, and a display optical system correction unit 142 that performs image correction of the display optical system. Further, the image conversion unit 143 is provided to convert an image so as not to be affected by the image delay caused by the movement of the HMD 1 detected by the motion detection unit 13 with respect to the image image-corrected image. The image conversion unit 143 functions as a generation unit that generates an image to be displayed on the display unit 12 by converting the image as described above. In the present embodiment, the image captured by the image pickup unit 11 is displayed as it is as a display image, but for example, an enlarged image of the captured image may be observed by the user as a display image.

なお、画像処理装置14の各機能の一部または全部をHMD1が備えるようにしてもよい。 The HMD 1 may include a part or all of each function of the image processing device 14.

一般的に光学系を介して得られる画像は、光学系の光軸中心付近と周辺付近で結像倍率が異なったり、光の波長によって結像倍率が異なるため歪曲収差や倍率色収差、周辺光量低下といった画質への影響を受ける。撮像光学系補正部141や表示光学系補正部142は、光学系を介して発生する画質への影響を補正するための画像補正を行う機能を有している。画像補正の内容としては、シェーディング補正や歪曲収差補正などがある。撮像光学系補正部141においては、撮像光学系111で発生した光学特性を補正し、表示光学系補正部142においては、表示光学系121で発生する光学特性を予め補正する。 Generally, an image obtained via an optical system has different image magnifications near the center and the periphery of the optical axis of the optical system, and the image magnification differs depending on the wavelength of light, resulting in distortion, chromatic aberration of magnification, and reduction in peripheral illumination. It is affected by the image quality. The image pickup optical system correction unit 141 and the display optical system correction unit 142 have a function of performing image correction for correcting the influence on the image quality generated via the optical system. The contents of the image correction include shading correction and distortion correction. The image pickup optical system correction unit 141 corrects the optical characteristics generated by the image pickup optical system 111, and the display optical system correction unit 142 corrects the optical characteristics generated by the display optical system 121 in advance.

なお、図1においては、撮像部11および表示部12はそれぞれ1つである前提として説明したが、本実施形態はこれに限らない。撮像部11、表示部12はともに複数から構成されてもよいし、どちらかが複数という構成でもよい。例えば、HMDのような頭部装着型の画像表示装置は、撮像部11と表示部12がそれぞれ両眼に合わせて2つより構成されていることが一般的である。 Although it has been described in FIG. 1 on the premise that the image pickup unit 11 and the display unit 12 are each one, the present embodiment is not limited to this. Both the image pickup unit 11 and the display unit 12 may be configured to be plural, or either of them may be configured to be plural. For example, in a head-mounted image display device such as an HMD, the image pickup unit 11 and the display unit 12 are generally composed of two for each eye.

次に、画像変換部143の詳細について説明する。図3に、本実施形態に係る画像変換部143の機能構成を示す。遅延量保存部31は、撮影した映像の時間と表示される映像の時間との間に発生する遅延量を保存する。この遅延量は固定値としてもよいし、システム的に変動する遅延量を外部より取得、保存するようにしてもよい。 Next, the details of the image conversion unit 143 will be described. FIG. 3 shows the functional configuration of the image conversion unit 143 according to the present embodiment. The delay amount storage unit 31 stores the delay amount generated between the time of the captured image and the time of the displayed image. This delay amount may be a fixed value, or the delay amount that fluctuates systematically may be acquired and stored from the outside.

変形移動計算部32は、動作検知部13より入力される頭部動作情報と遅延量保存部31に保存されている遅延量とに基づいて、撮像映像の移動量と変形量を計算する機能部である。変形移動計算部32の動作について、図4のフローチャートを用いて以下で詳細に説明する。 The deformation movement calculation unit 32 is a functional unit that calculates the movement amount and the deformation amount of the captured image based on the head motion information input from the motion detection unit 13 and the delay amount stored in the delay amount storage unit 31. Is. The operation of the deformation movement calculation unit 32 will be described in detail below with reference to the flowchart of FIG.

はじめに、変形移動計算部32は、動作検知部13より頭部動作情報Qを取得する(ST401)。前述のとおり、この頭部動作情報Qは加速度センサ、角速度センサなどのセンサを用いて計測されるセンサデータであり、頭部の動き(首ふりや移動)を数値化したデータとなっている。次に、変形移動計算部32は、遅延量保存部31より遅延量Dtを取得する(ST402)。 First, the deformation movement calculation unit 32 acquires the head motion information Q from the motion detection unit 13 (ST401). As described above, the head motion information Q is sensor data measured by using sensors such as an acceleration sensor and an angular velocity sensor, and is data obtained by quantifying the movement of the head (swing or movement of the head). Next, the deformation movement calculation unit 32 acquires the delay amount Dt from the delay amount storage unit 31 (ST402).

この後、変形移動計算部32は頭部動作情報Qから頭部の縦ふりもしくは横ふりを判定する処理を行う(ST403)。頭部の縦ふりもしくは横ふりを判定する方法としては、例えば、Yawの角速度とPitchの角速度から判定する方法がある。本実施形態において、変形移動計算部32は、Yawの角速度Yωが一定値以上の場合は頭部の横ふり、Pitchの角速度Pωが一定値以上の場合は頭部の縦ふりと判定する。頭部の縦ふりもしくは横ふりと判定された場合は、変形移動計算部32は、画像の水平シフト量(Hd)と垂直シフト量(Vd)を算出する(ST404)。また、頭部の縦ふり、横ふりではないと判定された場合、変形移動計算部32は、画像の水平シフト量(Hd)と垂直シフト量(Vd)をそれぞれ0に設定する(ST405)。 After that, the deformation movement calculation unit 32 performs a process of determining vertical or horizontal swing of the head from the head motion information Q (ST403). As a method of determining the vertical or horizontal swing of the head, for example, there is a method of determining from the angular velocity of Yaw and the angular velocity of Pitch. In the present embodiment, the deformation movement calculation unit 32 determines that the head swings when the angular velocity Y ω of Yaw is equal to or more than a certain value, and that the head swings when the angular velocity P ω of Pitch exceeds a certain value. .. When it is determined that the head is shaken vertically or horizontally, the deformation movement calculation unit 32 calculates the horizontal shift amount (Hd) and the vertical shift amount (Vd) of the image (ST404). Further, when it is determined that the head is not shaken vertically or horizontally, the deformation movement calculation unit 32 sets the horizontal shift amount (Hd) and the vertical shift amount (Vd) of the image to 0, respectively (ST405).

次に、変形移動計算部32は、頭部動作情報Qから頭部の傾きを判定する処理を行う(ST406)。頭部の傾きを判定する方法としては、例えば、Rollの角速度から判定する方法がある。本実施形態において、変形移動計算部32は、Rollの角速度Rωが一定値以上の場合は頭部を傾けたと判定する。頭部の傾きと判定された場合は、変形移動計算部32は、画像の回転角(Θd)を算出する(ST407)。また、頭部の傾きではないと判定された場合、変形移動計算部32は、画像の回転角(Θd)を0に設定する(ST408)。 Next, the deformation movement calculation unit 32 performs a process of determining the inclination of the head from the head motion information Q (ST406). As a method of determining the inclination of the head, for example, there is a method of determining from the angular velocity of Roll. In the present embodiment, the deformation movement calculation unit 32 determines that the head is tilted when the angular velocity R ω of Roll is equal to or more than a certain value. When it is determined that the head is tilted, the deformation movement calculation unit 32 calculates the rotation angle (Θd) of the image (ST407). If it is determined that the head is not tilted, the deformation movement calculation unit 32 sets the rotation angle (Θd) of the image to 0 (ST408).

次に、変形移動計算部32は、頭部動作情報Qから頭部の前後移動を判定する処理を行う(ST409)。頭部の前後移動を判定する方法としては、例えば、Roll軸方向の加速度情報から判定する方法がある。本実施形態において、変形移動計算部32は、Roll軸方向の加速度Rが一定値以上の場合は頭部が前後移動をしたと判定する。頭部の前後移動と判定された場合は、変形移動計算部32は、画像の拡大率(Ed)を算出する(ST410)。また、頭部の前後移動ではないと判定された場合、変形移動計算部32は、画像の拡大率(Ed)を0に設定する(ST411)。 Next, the deformation movement calculation unit 32 performs a process of determining the front-back movement of the head from the head movement information Q (ST409). As a method of determining the back-and-forth movement of the head, for example, there is a method of determining from the acceleration information in the Roll axis direction. In the present embodiment, the deformation movement calculation unit 32 determines that the head has moved back and forth when the acceleration Ra in the Roll axis direction is equal to or higher than a certain value. When it is determined that the head moves back and forth, the deformation movement calculation unit 32 calculates the enlargement ratio (Ed) of the image (ST410). Further, when it is determined that the head does not move back and forth, the deformation movement calculation unit 32 sets the enlargement ratio (Ed) of the image to 0 (ST411).

最後に、変形移動計算部32は、計算した画像の水平シフト量Hd、垂直シフト量Vd、回転角Θd、拡大率Edを変形移動実行部33へ送信する(ST412)。このようにして、変形移動計算部32は、動作検知部13より入力される頭部動作情報と、遅延量保存部31に保存されている遅延量とに基づいて、撮像映像の移動量と変形量を計算する。 Finally, the deformation movement calculation unit 32 transmits the calculated horizontal shift amount Hd, vertical shift amount Vd, rotation angle Θd, and enlargement ratio Ed to the deformation movement execution unit 33 (ST412). In this way, the deformation movement calculation unit 32 moves and deforms the captured image based on the head motion information input from the motion detection unit 13 and the delay amount stored in the delay amount storage unit 31. Calculate the amount.

なお、移動量と変形量の計算の順番については、特に限定されない。先に頭部の前後移動による倍率を計算した後、頭部の縦ふり/横ふりによるシフト量を計算するといった構成としてもよい。また、移動量や変形量の計算手段についても、頭部動作情報Qと、遅延量Dtより予測可能な範囲でユーザに違和感のないように画像変換するようにしてもよい。 The order of calculation of the movement amount and the deformation amount is not particularly limited. The configuration may be such that the magnification due to the forward / backward movement of the head is calculated first, and then the shift amount due to the vertical / horizontal swing of the head is calculated. Further, the means for calculating the movement amount and the deformation amount may also be image-converted so that the user does not feel uncomfortable within a range predictable from the head motion information Q and the delay amount Dt.

変形移動実行部33は、変形移動計算部32より入力された画像変換パラメータを用いて撮像光学系補正部141から入力される撮像映像の画像変換を行う機能部である。画像変換は、移動、変形の少なくとも一方であり、例えば水平垂直シフトや、画像の回転・拡大縮小などである。画像変換の方法としては、フレームバッファ/ラインバッファを用いて画像変換アルゴリズム(バイリニアやバイキュービックなど)を用いて計算する方法や、映像の同期信号をずらすことで疑似的に映像をずらす方法などがある。このような画像変換により、レイテンシにより生じる体験映像と現実世界との差分による違和感を緩和することが可能となる。 The deformation movement execution unit 33 is a functional unit that performs image conversion of the captured image input from the image pickup optical system correction unit 141 using the image conversion parameters input from the deformation movement calculation unit 32. Image conversion is at least one of movement and deformation, such as horizontal / vertical shift, rotation / enlargement / reduction of an image, and the like. Image conversion methods include a method of calculating using an image conversion algorithm (bilinear, bicubic, etc.) using a frame buffer / line buffer, and a method of pseudo-shifting the video by shifting the video synchronization signal. be. By such image conversion, it is possible to alleviate the discomfort caused by the difference between the experience image and the real world caused by the latency.

図5は、本実施形態に係る画像変換部143による効果を説明するための図である。図5は、HMD1を装着したユーザが、(a)頭部動作なしの場合、(b)頭部をYaw動作した場合、(c)頭部をPitch動作した場合、(d)頭部をRoll動作した場合、(e)頭部を前後移動した場合を示している。また、図5(a)〜(e)において、上から順に、表示部12を介してユーザが見る映像、HMD使用中のユーザを頭上から見た様子、HMD使用中のユーザを横から見た様子、HMD使用中のユーザを正面から見た様子を示している。 FIG. 5 is a diagram for explaining the effect of the image conversion unit 143 according to the present embodiment. FIG. 5 shows that when the user wearing the HMD1 has (a) no head movement, (b) Yaw movement of the head, (c) Pitch movement of the head, and (d) Roll of the head. When it operates, it shows the case where (e) the head is moved back and forth. Further, in FIGS. 5A to 5E, in order from the top, the image seen by the user through the display unit 12, the state of the user using the HMD seen from above, and the user using the HMD seen from the side. The state, the state which the user who is using HMD is seen from the front is shown.

図5(a)に示すように、頭部動作なしの場合、撮像光学系111により生じる撮像画角Aθの範囲内の映像が、解像度HxVの範囲内に表示されていることがわかる。また、図5(b)に示すように、頭部をYaw動作した場合、変形移動計算部32は前述のST404の動作にある通り頭部動作情報Qに含まれるYawの角速度Yωと遅延量DtからYaw角Yθを求める。そして、Yaw角Yθと基準となる距離Lとの関係から、画像の水平シフト量Hdが求められる。変形移動実行部33は、この水平シフト量Hdに基づき画像を水平方向にずらすことで、ユーザの視線方向に合った画像をユーザに提示できるようにする。また、図5(c)に示すように、頭部をPitch動作した場合も、Yaw動作と同様に、変形移動計算部32は画像の垂直シフト量Vdを計算し、変形移動実行部33が画像を垂直方向にずらす。これにより、ユーザの視線方向に合った画像をユーザに提示できるようになる。 As shown in FIG. 5A, it can be seen that when there is no head movement, the image within the range of the image pickup angle of view A θ generated by the image pickup optical system 111 is displayed within the range of the resolution HxV. Further, as shown in FIG. 5B, when the head is operated Yaw, the deformation movement calculation unit 32 has the angular velocity Y ω and the delay amount of Yaw included in the head operation information Q as described in the operation of ST404 described above. Obtain the Yaw angle Y θ from Dt. Then, the horizontal shift amount Hd of the image can be obtained from the relationship between the Yaw angle Y θ and the reference distance L. The deformation movement execution unit 33 shifts the image in the horizontal direction based on the horizontal shift amount Hd so that the user can be presented with an image that matches the line-of-sight direction of the user. Further, as shown in FIG. 5C, even when the head is Pitch-operated, the deformation movement calculation unit 32 calculates the vertical shift amount Vd of the image, and the deformation movement execution unit 33 calculates the image, as in the Yaw operation. Is moved vertically. This makes it possible to present the user with an image that matches the line-of-sight direction of the user.

図5(d)に示すように、頭部をRoll動作した場合、変形移動計算部32は前述のST407の動作にある通り頭部動作情報Qに含まれるRollの角速度Rωと遅延量DtからRoll角Rθを求める。そして、Roll角Rθから画像の回転角Θdが求められる。変形移動実行部33は、この回転角Θdに基づき画像を回転させることで、ユーザの視線に合った画像をユーザに提示するようにする。 As shown in FIG. 5D, when the head is moved in Roll, the deformation movement calculation unit 32 is based on the angular velocity R ω of Roll and the delay amount Dt included in the head movement information Q as described in the operation of ST407 described above. Find the Roll angle R θ . Then, the rotation angle Θd of the image is obtained from the Roll angle R θ. The deformation movement execution unit 33 rotates the image based on the rotation angle Θd so as to present the image matching the user's line of sight to the user.

図5(e)に示すように、頭部を前後移動した場合、変形移動計算部32は前述のST410の動作にある通り頭部動作情報Qに含まれるRoll軸方向の加速度Rと遅延量DtからRoll軸方向の移動量Rを求める。Roll軸方向の移動量Rと撮像画角Aθの関係から画像の拡大率Edが求められる。変形移動実行部33は、この拡大率Edに基づき画像を拡大、縮小させることで、ユーザの前後動作に合った画像をユーザに提示できるようにする。以上のように、画像変換部143が、動作検知部13の動作に基づいて、表示映像に対して補正処理を実行することによって映像遅延による違和感を低減させることができる。 As shown in FIG. 5 (e), when the head is moved back and forth, the deformation movement calculation unit 32 has an acceleration R a and a delay amount in the Roll axis direction included in the head motion information Q as described in the operation of ST410 described above. calculating the moving amount R M of Roll axis from dt. Magnification Ed of the Roll axis direction of the moving amount R M and the image from the relationship of imaging angle A theta is determined. The transformation / movement execution unit 33 enlarges / reduces the image based on the enlargement ratio Ed so that the user can be presented with an image that matches the user's back-and-forth movement. As described above, the image conversion unit 143 can reduce the discomfort due to the image delay by executing the correction process on the displayed image based on the operation of the motion detection unit 13.

次に、本実施形態の画像処理システムの特徴である、撮像光学系補正部141より後でかつ表示光学系補正部142の前に画像変換部143の処理を実行することの効果について説明する。例えば、撮像光学系補正部141より前に画像変換部143が実行されたとする。画像変換部143より出力される画像は動作検知部13の情報に応じて画像変換がされている。すなわち、撮像光学系111により生じる撮像光学特性も画像変換により移動、変形された状態となる。通常、撮像光学系補正部141で実行される補正処理は撮像光学特性の情報を予め保存しておき、予め保存されている情報に基づき補正処理を行う。つまり、画像変換部143より出力される画像に対して撮像光学系補正部141を実行すると、意図した撮像光学補正がなされず場合によっては画質を悪化させてしまう。 Next, the effect of executing the processing of the image conversion unit 143 after the image pickup optical system correction unit 141 and before the display optical system correction unit 142, which is a feature of the image processing system of the present embodiment, will be described. For example, it is assumed that the image conversion unit 143 is executed before the image pickup optical system correction unit 141. The image output from the image conversion unit 143 is image-converted according to the information of the motion detection unit 13. That is, the image pickup optical characteristics generated by the image pickup optical system 111 are also moved and deformed by the image conversion. Normally, in the correction process executed by the image pickup optical system correction unit 141, information on the image pickup optical characteristics is stored in advance, and the correction process is performed based on the information stored in advance. That is, when the image pickup optical system correction unit 141 is executed for the image output from the image conversion unit 143, the intended image pickup optical correction is not performed, and the image quality may be deteriorated in some cases.

また、表示光学系補正部142より後で画像変換部143が実行された場合も同様である。表示光学系補正部142は、表示光学系121を介して観察した場合に発生する表示光学特性を予め補正することを行う。表示光学系補正を行った後の画像に対して、画像変換部143を実行すると、予め画像補正してある表示光学特性についても移動、変形された状態となるため、意図した通り表示光学補正がなされず画質を悪化させるおそれがある。 The same applies when the image conversion unit 143 is executed after the display optical system correction unit 142. The display optical system correction unit 142 corrects in advance the display optical characteristics that occur when observing through the display optical system 121. When the image conversion unit 143 is executed for the image after the display optical system correction, the display optical characteristics that have been image-corrected in advance are also moved and deformed, so that the display optical correction is performed as intended. It may not be done and the image quality may deteriorate.

これに対し、本実施形態では、撮像光学系と表示光学系とを有する画像表示装置(HMD)を含む画像処理システムにおいて、撮像光学系補正部141より後でかつ表示光学系補正部142の前に画像変換部143の処理を実行する。そのため、それぞれの光学系の画像補正が適切に行われるようになり、それぞれの光学補正の違和感を生じさせることなく、撮像映像の遅延による表示映像のずれを抑制させることが可能となる。 On the other hand, in the present embodiment, in an image processing system including an image display device (HMD) having an image pickup optical system and a display optical system, the image processing system is after the image pickup optical system correction unit 141 and before the display optical system correction unit 142. The processing of the image conversion unit 143 is executed. Therefore, the image correction of each optical system can be appropriately performed, and it is possible to suppress the deviation of the displayed image due to the delay of the captured image without causing a sense of discomfort in each optical correction.

[第2の実施形態]
次に、本発明の第2の実施形態について説明する。本実施形態に係る画像処理システムは、現実世界を撮像した撮像映像に対して遅延が一定ではない処理を行う場合に対応するものである。なお、第1の実施形態において既に説明をした構成については同一の符号を付し、その説明は省略する。
[Second Embodiment]
Next, a second embodiment of the present invention will be described. The image processing system according to the present embodiment corresponds to a case where the delay is not constant with respect to the captured image captured in the real world. The configurations already described in the first embodiment are designated by the same reference numerals, and the description thereof will be omitted.

図6は、本実施形態に係る画像処理システムの構成を示すブロック図である。本実施形態に係る画像処理システムが、第1の実施形態と異なる点は、映像の遅延量を計測する遅延量計測装置61とCG重畳装置62を備えていることである。また、遅延量計測装置61で計測した遅延量情報とCG重畳装置62からの表示映像を用いて、画像変換部143が画像補正の処理を実行するという点である。なお、遅延量計測装置61、CG重畳装置62は画像処理装置14と一体の装置として構成されていてもよいし、図6のように別体の装置として構成されていてもよい。 FIG. 6 is a block diagram showing a configuration of an image processing system according to the present embodiment. The image processing system according to the present embodiment is different from the first embodiment in that it includes a delay amount measuring device 61 for measuring a delay amount of an image and a CG superimposing device 62. Further, the image conversion unit 143 executes the image correction process by using the delay amount information measured by the delay amount measuring device 61 and the display image from the CG superimposing device 62. The delay amount measuring device 61 and the CG superimposing device 62 may be configured as an integrated device with the image processing device 14, or may be configured as a separate device as shown in FIG.

遅延量計測装置61は、遅延量計測部611を有し、撮像光学系補正部141より入力される撮像映像と後述するCG重畳部622より入力される表示映像との時間差を計測する機能部である。その時間差を計測する方法としては、内部カウンタを用意しておき撮像映像と表示映像それぞれの垂直同期信号の入力されるタイミングの差を計測する方法がある。また、撮像映像にメタデータとしてタイムスタンプ情報を埋め込んでおき、撮像映像のタイムスタンプ情報と表示映像のタイムスタンプ情報が一致するまでの時間差を計測するといった方法もある。映像の遅延時間を計測することができれば、特定の方法に限定されない。このように、遅延量計測装置61によって、映像伝送や処理負荷に応じて遅延時間が変動するような場合においても正確な遅延量Dtを画像変換部143へ通知することができる。 The delay amount measuring device 61 has a delay amount measuring unit 611, and is a functional unit that measures the time difference between the captured image input from the image pickup optical system correction unit 141 and the display image input from the CG superimposing unit 622 described later. be. As a method of measuring the time difference, there is a method of preparing an internal counter and measuring the difference in the input timing of the vertical synchronization signals of the captured image and the displayed image. Another method is to embed the time stamp information as metadata in the captured image and measure the time difference until the time stamp information of the captured image and the time stamp information of the displayed image match. As long as the delay time of the video can be measured, the method is not limited to a specific method. In this way, the delay amount measuring device 61 can notify the image conversion unit 143 of the accurate delay amount Dt even when the delay time fluctuates depending on the video transmission and the processing load.

次に、CG重畳装置62の構成について説明する。CG重畳装置62は、CG重畳位置解析部621とCG重畳部622とにより構成される。CG重畳位置解析部621は、入力される撮像映像内を画像解析してCGの描画位置を算出する演算を行い、CG重畳位置情報をCG重畳部622へと出力する。CGの描画位置を特定するためには、例えば2次元コードのような物理指標(以下、MRマーカー)を現実空間に配置し、撮像映像の画像解析によりMRマーカーを検知する方法などがある。また、撮像映像からの画像解析による方法ではなく、HMD1を使用する空間上に光学式センサなどを取り付けることによって、HMD1の位置を特定しHMD1の位置に応じてCGの描画位置などを計算する方法もある。これらの方法により、CG重畳位置解析部621は現実空間を撮影した撮像映像に対して、CGをどの位置に描画すべきかの情報であるCG描画位置情報を計算する。CGの描画位置の計算は、CPUなどを用いて計算が行われるが、現実空間にMRマーカーを多数配置して画像解析を行う場合はMRマーカー検出のための計算処理が複数回発生するため処理時間が一定でない場合がある。このような場合、入力に対する映像の遅延量が動的に変動する可能性がある。 Next, the configuration of the CG superimposing device 62 will be described. The CG superimposition device 62 is composed of a CG superimposition position analysis unit 621 and a CG superimposition unit 622. The CG superimposition position analysis unit 621 performs an operation to calculate the drawing position of the CG by analyzing the image in the input captured image, and outputs the CG superimposition position information to the CG superimposition unit 622. In order to specify the drawing position of CG, for example, there is a method of arranging a physical index (hereinafter, MR marker) such as a two-dimensional code in the real space and detecting the MR marker by image analysis of the captured image. Further, instead of the method by image analysis from the captured image, a method of specifying the position of the HMD1 and calculating the drawing position of the CG according to the position of the HMD1 by mounting an optical sensor or the like in the space where the HMD1 is used. There is also. By these methods, the CG superimposition position analysis unit 621 calculates the CG drawing position information which is the information on the position where the CG should be drawn with respect to the captured image captured in the real space. The calculation of the drawing position of the CG is performed using a CPU or the like, but when a large number of MR markers are arranged in the real space and image analysis is performed, the calculation process for detecting the MR marker is performed multiple times. The time may not be constant. In such a case, the amount of delay of the video with respect to the input may change dynamically.

CG重畳部622は、CG重畳位置解析部621で計算されたCG重畳位置情報を用いて、撮像映像に仮想画像(CGデータ)を重畳した表示映像を生成する。CGデータは、例えばCADソフトなどを用いて作成された3DCADデータや、グラフィックデザインソフトなどを用いて作成された3DCGデータなどが該当する。CG重畳部622は、CG重畳位置情報に基づき、予め用意してあるCGデータをレンダリングして撮像映像に重畳する。これにより、現実空間には存在しないCGデータが映像内に描画された映像(合成画像)を作り出すことができる。このとき、CGデータのレンダリングはGPU(Graphic Processing Unit)などを用いて計算が行われるが、CGデータの内容によってはレンダリング処理が重くなり処理時間が一定でない場合がある。このような場合においても、入力に対する映像の遅延量が動的に変動する可能性がある。 The CG superimposition unit 622 generates a display image in which a virtual image (CG data) is superposed on the captured image by using the CG superimposition position information calculated by the CG superimposition position analysis unit 621. The CG data corresponds to, for example, 3D CAD data created by using CAD software or the like, 3DCG data created by using graphic design software or the like, and the like. The CG superimposition unit 622 renders the CG data prepared in advance and superimposes it on the captured image based on the CG superimposition position information. This makes it possible to create an image (composite image) in which CG data that does not exist in the real space is drawn in the image. At this time, the rendering of the CG data is calculated using a GPU (Graphic Processing Unit) or the like, but the rendering process may become heavy and the processing time may not be constant depending on the content of the CG data. Even in such a case, the amount of delay of the video with respect to the input may change dynamically.

すなわち、CG重畳装置62は映像が入力されてから出力されるまでの時間差が一定でない場合が多い。そのような場合においても、遅延量計測装置61はCG重畳装置62で発生する映像遅延量をリアルタイムに計測することができる。 That is, in the CG superimposing device 62, the time difference from the input of the video to the output is often not constant. Even in such a case, the delay amount measuring device 61 can measure the video delay amount generated by the CG superimposing device 62 in real time.

画像変換部143は、遅延量Dtに応じてレイテンシを推定、決定し、映像の変形、移動を実行する。本実施形態においては、映像の遅延量Dtは動的に変化するが、遅延量計測部611から遅延量Dtを入力させることで、リアルタイムに遅延が変化する場合においても撮像映像の遅延による表示映像のずれを抑制することができる。これによって、映像遅延による違和感を低減させることが可能となる。 The image conversion unit 143 estimates and determines the latency according to the delay amount Dt, and executes deformation and movement of the image. In the present embodiment, the delay amount Dt of the image changes dynamically, but by inputting the delay amount Dt from the delay amount measuring unit 611, the display image due to the delay of the captured image even when the delay changes in real time. It is possible to suppress the deviation of. This makes it possible to reduce the sense of discomfort due to video delay.

ここで、図7を用いて、本実施形態の変形例についても説明する。図7は、本実施形態の変形例に係る画像処理システムの構成を示すブロック図である。図7の画像処理システムでは、図6記載のCG重畳装置62に代わり、無線装置71を備えている。無線装置71は、不図示の外部装置に対して映像を無線伝送する無線伝送部(送信部)711と、不図示の外部装置より処理された映像を無線受信する無線受信部(受信部)712とにより構成される。 Here, a modified example of the present embodiment will also be described with reference to FIG. 7. FIG. 7 is a block diagram showing a configuration of an image processing system according to a modified example of the present embodiment. The image processing system of FIG. 7 includes a wireless device 71 instead of the CG superimposing device 62 shown in FIG. The wireless device 71 includes a wireless transmission unit (transmission unit) 711 that wirelessly transmits video to an external device (not shown) and a wireless reception unit (reception unit) 712 that wirelessly receives video processed by an external device (not shown). It is composed of.

無線伝送部711および無線受信部712ともに、無線の電波状況によっては通信のスループットが低下し映像伝送が困難になる場合が想定される。通信のスループットが低下すると、映像の遅延が発生したり映像のフレームが抜けたりするため、映像の遅延量が動的に変動する可能性がある。 In both the wireless transmission unit 711 and the wireless reception unit 712, it is assumed that the communication throughput may decrease and video transmission may become difficult depending on the radio wave condition of the radio. When the communication throughput decreases, video delays occur or video frames are dropped, so the amount of video delay may change dynamically.

このように、無線装置71のような無線伝送を介するシステムでリアルタイムに遅延量が変動する場合であっても、撮像映像の遅延による表示映像のずれを抑制させることが可能となる。 As described above, even when the delay amount fluctuates in real time in a system via wireless transmission such as the wireless device 71, it is possible to suppress the deviation of the displayed image due to the delay of the captured image.

以上、本実施形態によれば、画像処理システムが撮像映像に対して遅延が一定ではない処理を行う場合にも、その遅延量を計測し、その遅延量に応じて映像の補正を行うことにより、撮像映像の遅延による表示映像のずれを抑制することができる。 As described above, according to the present embodiment, even when the image processing system performs processing in which the delay is not constant for the captured image, the delay amount is measured and the image is corrected according to the delay amount. , It is possible to suppress the deviation of the displayed image due to the delay of the captured image.

なお、本実施形態においては、CG重畳装置62や無線装置71の処理では、遅延量が動的に変動するものとして説明をしたが、CG重畳装置62や無線装置71の処理が必ずしも、遅延が一定でない処理となるわけではない。そのため、第1の実施形態の構成に、遅延量計測装置61は追加せず、CG重畳装置62や無線装置71のみを追加するような構成であってもよく、これらも本発明の範疇に含まれるものである。 In the present embodiment, it has been described that the delay amount dynamically fluctuates in the processing of the CG superimposing device 62 and the wireless device 71, but the processing of the CG superimposing device 62 and the wireless device 71 does not necessarily have a delay. It is not a constant process. Therefore, the delay amount measuring device 61 may not be added to the configuration of the first embodiment, but only the CG superimposing device 62 and the wireless device 71 may be added, and these are also included in the scope of the present invention. It is something that can be done.

[第3の実施形態]
次に、本発明の第3の実施形態について説明する。本実施形態に係る画像処理システムは、現実世界を撮像した撮像映像に対し遅延が一定ではない処理であるCG生成を行い、生成したCGのみを画像変換部143で変換するものである。なお、第1、第2の実施形態において既に説明をした構成については同一の符号を付し、その説明は省略する。
[Third Embodiment]
Next, a third embodiment of the present invention will be described. The image processing system according to the present embodiment performs CG generation, which is a process in which the delay is not constant with respect to the captured image captured in the real world, and only the generated CG is converted by the image conversion unit 143. The configurations already described in the first and second embodiments are designated by the same reference numerals, and the description thereof will be omitted.

図8は、本実施形態に係る画像処理システムの構成を示すブロック図である。本実施形態に係る画像処理システムが、第2の実施形態と異なる点は、撮像映像にCGを重畳するのではなくCG生成装置82はCGの生成と転送のみを行い撮像映像との合成は映像合成部144で行う点である。この構成とするメリットとしては、撮像映像に関しては遅延量変動の影響を受けないため最小の遅延でユーザに映像表示をすることができる。しかしながら、一方でCG映像に関してはCG生成装置82の影響により映像合成部144で合成する時点では撮像映像に対してCG映像は遅延量を含んだ状態の映像表示となる。そのため、本実施形態ではCGデータのみを画像変換部143で処理することによって、CG合成後の表示映像における違和感を抑制する。 FIG. 8 is a block diagram showing a configuration of an image processing system according to the present embodiment. The difference between the image processing system according to the present embodiment and the second embodiment is that the CG generation device 82 does not superimpose the CG on the captured image, but only generates and transfers the CG, and the composition with the captured image is an image. This is a point performed by the synthesis unit 144. The merit of this configuration is that the captured image is not affected by the fluctuation of the delay amount, so that the image can be displayed to the user with the minimum delay. However, on the other hand, with respect to the CG image, at the time of compositing by the image compositing unit 144 due to the influence of the CG generation device 82, the CG image is displayed in a state including a delay amount with respect to the captured image. Therefore, in the present embodiment, only the CG data is processed by the image conversion unit 143 to suppress a sense of discomfort in the displayed image after the CG composition.

図9は、本実施形態に係る画像変換部143による効果を説明する図である。図9には、(a)HMD1を装着したユーザが頭部動作なしの場合、(b)頭部をYaw動作した場合について示している。また、図9(a)、(b)それぞれにおいて、上から順に、表示部12を介してユーザが見る映像、HMD使用中のユーザを頭上から見た様子、HMD使用中のユーザを横から見た様子、HMD使用中のユーザを正面から見た様子を示している。 FIG. 9 is a diagram illustrating the effect of the image conversion unit 143 according to the present embodiment. FIG. 9 shows (a) a case where the user wearing the HMD1 does not move the head, and (b) a case where the user moves the head Yaw. Further, in each of FIGS. 9A and 9B, in order from the top, an image viewed by the user through the display unit 12, a state in which the user using the HMD is viewed from above, and a user in use of the HMD are viewed from the side. It shows how the user who is using the HMD is seen from the front.

図9(a)に示すように、頭部動作なしの場合、現実世界にはないCGデータ90が重畳された表示映像が観察される。一方、図9(b)に示すように、頭部をYaw動作した場合、現実世界の撮像映像は遅延量がない状態で表示され、重畳するCGデータは遅延量を含んだ状態で表示されてしまう。そのため、単純に撮像映像にCGデータを重畳すると、図中の位置91にCGデータが重畳されてしまい、現実世界とCGデータとの間に違和感が発生してしまう。 As shown in FIG. 9A, when there is no head movement, a display image on which CG data 90, which does not exist in the real world, is superimposed is observed. On the other hand, as shown in FIG. 9B, when the head is Yaw-operated, the captured image in the real world is displayed without a delay amount, and the superimposed CG data is displayed with a delay amount included. It ends up. Therefore, if the CG data is simply superimposed on the captured image, the CG data is superimposed on the position 91 in the figure, which causes a sense of discomfort between the real world and the CG data.

そこで、本実施形態において、変形移動計算部32は頭部動作情報Qに含まれるYawの角速度Yωと遅延量DtからYaw角Yθを求める。さらに、Yaw角Yθと基準となる距離Lとの関係から、画像の水平シフト量Hdを求める。変形移動実行部33は、この水平シフト量Hdに基づき、CGデータを水平方向にずらしたのちに撮像映像と合成することで、違和感のない映像提供を行うことができる。 Therefore, in the present embodiment, the deformation movement calculation unit 32 obtains the Yaw angle Y θ from the angular velocity Y ω of Yaw and the delay amount Dt included in the head motion information Q. Further, the horizontal shift amount Hd of the image is obtained from the relationship between the Yaw angle Y θ and the reference distance L. Based on this horizontal shift amount Hd, the deformation movement execution unit 33 can provide a comfortable image by shifting the CG data in the horizontal direction and then synthesizing it with the captured image.

以上のように、本実施形態では、生成したCGのみを画像変換部143で変換する構成においても、遅延量に応じて映像の補正を行うことにより、撮像映像の遅延による表示映像のずれを抑制することができる。 As described above, in the present embodiment, even in the configuration in which only the generated CG is converted by the image conversion unit 143, the image is corrected according to the delay amount to suppress the deviation of the displayed image due to the delay of the captured image. can do.

[第4の実施形態]
次に、本発明の第4の実施形態について説明する。本実施形態に係る画像処理システムは、撮像映像に対し遅延が一定ではない処理であるCG生成を行い、生成したCGを画像変換部143で変換し、さらに撮像光学系補正部141より出力された撮像映像を画像変換部145で変換するものである。なお、第1〜第3の実施形態において既に説明をした構成については同一の符号を付し、その説明は省略する。
[Fourth Embodiment]
Next, a fourth embodiment of the present invention will be described. The image processing system according to the present embodiment performs CG generation, which is a process in which the delay is not constant for the captured image, converts the generated CG by the image conversion unit 143, and further outputs the generated CG from the image pickup optical system correction unit 141. The captured image is converted by the image conversion unit 145. The configurations already described in the first to third embodiments are designated by the same reference numerals, and the description thereof will be omitted.

図10は、本実施形態に係る画像処理システムの構成を示すブロック図である。本実施形態に係る画像処理システムが、第3の実施形態と異なる点は、撮像映像とCGデータともに画像変換部143もしくは145により画像変換を行う点である。画像変換部145は、画像変換部143と同様の機能を有しており、前述した通り画像の変換機能を有している。この構成にすることによって、撮像部11から入力される映像情報を表示部12で観察される表示映像とのハードウェア上で発生する遅延量を画像変換部145において補正することができる。そのため、本実施形態では、現実世界にCGデータを重畳した映像を最小の遅延量で観察することができる。 FIG. 10 is a block diagram showing a configuration of an image processing system according to the present embodiment. The image processing system according to the present embodiment differs from the third embodiment in that both the captured image and the CG data are image-converted by the image conversion unit 143 or 145. The image conversion unit 145 has the same function as the image conversion unit 143, and has an image conversion function as described above. With this configuration, the image conversion unit 145 can correct the amount of delay that occurs on the hardware of the video information input from the image pickup unit 11 with the display image observed by the display unit 12. Therefore, in the present embodiment, it is possible to observe an image in which CG data is superimposed on the real world with the minimum delay amount.

[その他の実施形態]
また、本発明は、実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。また、本発明は、複数の機器から構成されるシステムに適用しても、1つの機器からなる装置に適用してもよい。本発明は上記実施形態に限定されるものではなく、本発明の趣旨に基づき種々の変形(各実施形態の有機的な組合せを含む)が可能であり、それらを本発明の範囲から除外するものではない。即ち、上述した各実施形態及びその変形例を組み合わせた構成も全て本発明に含まれるものである。
[Other embodiments]
Further, in the present invention, software (program) that realizes the functions of the embodiment is supplied to the system or device via a network or various storage media, and the computer (or CPU, MPU, etc.) of the system or device provides the program. This is a process to read and execute. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions. Further, the present invention may be applied to a system composed of a plurality of devices or a device composed of one device. The present invention is not limited to the above embodiments, and various modifications (including organic combinations of each embodiment) are possible based on the gist of the present invention, and these are excluded from the scope of the present invention. is not it. That is, all the configurations in which each of the above-described embodiments and modifications thereof are combined are also included in the present invention.

14 画像処理装置
141 撮像光学系補正部
142 表示光学系補正部
143 画像変換部
14 Image processing device 141 Image pickup optical system correction unit 142 Display optical system correction unit 143 Image conversion unit

Claims (5)

撮像光学系を有し現実空間の画像を撮像する撮像部と、画像表示装置の動きを検知する検知部と、表示光学系を有し表示画像を表示する表示部と、を備える画像表示装置に接続された画像処理装置であって、
前記撮像光学系の光学特性に基づいて、前記撮像部により撮像された撮像画像を補正する第1の補正手段と、
前記現実空間の情報に基づいて仮想画像の描画位置を決定し、該描画位置に基づいて当該仮想画像を生成する生成手段と、
前記仮想画像の描画位置を決定し、該描画位置に基づいて当該仮想画像生成するのに要した処理時間を計測する計測手段と、
前記計測された処理時間と前記画像表示装置の動きとに基づいて、前記生成された仮想画像に対して、変形または移動の少なくとも一方の処理を行うことにより前記仮想画像を修正する修正手段と、
前記修正された仮想画像と前記補正された撮像画像とを合成して表示画像を生成する合成手段と、
前記表示光学系の光学特性に基づいて、前記生成された表示画像を補正する第2の補正手段と、
を備えることを特徴とする画像処理装置。
An image display device having an image pickup optical system for capturing an image in a real space, a detection unit for detecting the movement of the image display device, and a display unit having a display optical system for displaying a display image. A connected image processing device
A first correction means for correcting an image captured by the image pickup unit based on the optical characteristics of the image pickup optical system, and a correction means.
A generation means for determining a drawing position of a virtual image based on the information in the real space and generating the virtual image based on the drawing position.
A measuring means for determining the drawing position of the virtual image and measuring the processing time required to generate the virtual image based on the drawing position.
A correction means for modifying the virtual image by performing at least one processing of deformation or movement on the generated virtual image based on the measured processing time and the movement of the image display device.
A compositing means for generating a display image by compositing the modified virtual image and the corrected captured image, and
A second correction means for correcting the generated display image based on the optical characteristics of the display optical system, and
An image processing device characterized by comprising.
前記検知部は、前記画像表示装置の動きとしてロール、ピッチ、ヨーそれぞれにおける位置姿勢の変化を検知することを特徴とする請求項1に記載の画像処理装置。 The image processing device according to claim 1, wherein the detection unit detects changes in position and posture in each of roll, pitch, and yaw as the movement of the image display device. 前記画像表示装置は、ユーザの頭部に装着されて使用されることを特徴とする請求項1または2に記載の画像処理装置。 The image processing device according to claim 1 or 2, wherein the image display device is attached to a user's head and used. 撮像光学系を有し現実空間の画像を撮像する撮像部と、画像表示装置の動きを検知する検知部と、表示光学系を有し表示画像を表示する表示部と、を備える画像表示装置に接続された画像処理装置における画像処理方法であって、
前記撮像光学系の光学特性に基づいて、前記撮像部により撮像された撮像画像を補正するステップと、
前記現実空間の情報に基づいて仮想画像の描画位置を決定し、該描画位置に基づいて当該仮想画像を生成するステップと、
前記仮想画像の描画位置を決定し、該描画位置に基づいて当該仮想画像生成するのに要した処理時間を計測するステップと、
前記計測された処理時間と前記画像表示装置の動きとに基づいて、前記生成された仮想画像に対して、変形または移動の少なくとも一方の処理を行うことにより前記仮想画像を修正するステップと、
前記修正された仮想画像と前記補正された撮像画像とを合成して表示画像を生成するステップと、
前記表示光学系の光学特性に基づいて、前記生成された表示画像を補正するステップと、
を備えることを特徴とする画像処理方法。
An image display device including an image pickup unit having an image pickup optical system to capture an image in a real space, a detection unit to detect the movement of the image display device, and a display unit having a display optical system to display a display image. An image processing method in a connected image processing device.
A step of correcting an image captured by the image pickup unit based on the optical characteristics of the image pickup optical system, and a step of correcting the image captured by the image pickup unit.
A step of determining a drawing position of a virtual image based on the information in the real space and generating the virtual image based on the drawing position.
A step of determining the drawing position of the virtual image and measuring the processing time required to generate the virtual image based on the drawing position.
A step of modifying the virtual image by performing at least one processing of deformation or movement on the generated virtual image based on the measured processing time and the movement of the image display device.
A step of combining the modified virtual image and the corrected captured image to generate a display image, and
A step of correcting the generated display image based on the optical characteristics of the display optical system, and
An image processing method characterized by comprising.
コンピュータを、請求項1から3のいずれか1項に記載の画像処理装置として機能させるためのプログラム。 A program for operating a computer as the image processing device according to any one of claims 1 to 3.
JP2017037737A 2017-01-27 2017-02-28 Image processing equipment, image processing methods and programs Active JP6971590B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017037737A JP6971590B2 (en) 2017-02-28 2017-02-28 Image processing equipment, image processing methods and programs
US15/880,333 US10726814B2 (en) 2017-01-27 2018-01-25 Image display apparatus, image processing apparatus, image display method, image processing method, and storage medium
CN201810078565.XA CN108363486B (en) 2017-01-27 2018-01-26 Image display device and method, image processing device and method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017037737A JP6971590B2 (en) 2017-02-28 2017-02-28 Image processing equipment, image processing methods and programs

Publications (2)

Publication Number Publication Date
JP2018141943A JP2018141943A (en) 2018-09-13
JP6971590B2 true JP6971590B2 (en) 2021-11-24

Family

ID=63528158

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017037737A Active JP6971590B2 (en) 2017-01-27 2017-02-28 Image processing equipment, image processing methods and programs

Country Status (1)

Country Link
JP (1) JP6971590B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11048465B2 (en) 2018-09-18 2021-06-29 Canon Kabushiki Kaisha Imaging display device, wearable device, and imaging display system
JP7418075B2 (en) * 2018-09-18 2024-01-19 キヤノン株式会社 Imaging display devices, wearable devices, and imaging display systems
JP7175715B2 (en) * 2018-10-31 2022-11-21 キヤノン株式会社 Information processing device, information processing method and program
JP2023088667A (en) * 2021-12-15 2023-06-27 キヤノン株式会社 Image processing apparatus and method, and program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008216343A (en) * 2007-02-28 2008-09-18 Canon Inc Image display apparatus, program and storage medium
JP2010092360A (en) * 2008-10-09 2010-04-22 Canon Inc Image processing system, image processing device, aberration correcting method, and program
JP2015231106A (en) * 2014-06-04 2015-12-21 三菱電機株式会社 Device and system for head-mounted display
JP2016082462A (en) * 2014-10-20 2016-05-16 セイコーエプソン株式会社 Head-mounted display device, control method therefor, and computer program

Also Published As

Publication number Publication date
JP2018141943A (en) 2018-09-13

Similar Documents

Publication Publication Date Title
JP5388534B2 (en) Image processing apparatus and method, head-mounted display, program, and recording medium
JP5113426B2 (en) Head-mounted display device and control method thereof
JP5725975B2 (en) Imaging apparatus and imaging method
JP6971590B2 (en) Image processing equipment, image processing methods and programs
US10726814B2 (en) Image display apparatus, image processing apparatus, image display method, image processing method, and storage medium
JP5409107B2 (en) Display control program, information processing apparatus, display control method, and information processing system
JP7358448B2 (en) Image generation device, head mounted display, and image generation method
JP6218787B2 (en) Imaging apparatus, information processing apparatus, display apparatus, information processing system, image data transmission method, and image display method
JP2011139158A (en) Image processor and image processing method
JP7150134B2 (en) Head-mounted display and image display method
JP6708444B2 (en) Image processing apparatus and image processing method
JP6278668B2 (en) Compound eye imaging device
JP6904684B2 (en) Image processing equipment, image processing methods, and programs
JP7142762B2 (en) Display device and image display method
JP6711670B2 (en) Information processing device, image display device, image display system, and information processing method
JP5202448B2 (en) Image processing system and method
JP6257260B2 (en) Imaging apparatus and control method thereof
JP6012396B2 (en) Image processing apparatus, image processing method, and program.
JP2014199508A (en) Image processing apparatus, image processing method, and program
JP2009025919A (en) Image processor and image processing method
JP7066414B2 (en) Image processing equipment, display system, image processing method and program
JP2017215688A (en) Image processor and image processing method
JP2020106655A (en) Information processor, information processing method and program
JP2014049895A (en) Image processing method
WO2018084051A1 (en) Information processing device, head-mounted display, information processing system, and information processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210409

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210720

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210916

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211005

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211102

R151 Written notification of patent or utility model registration

Ref document number: 6971590

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151