JP6971590B2 - Image processing equipment, image processing methods and programs - Google Patents
Image processing equipment, image processing methods and programs Download PDFInfo
- Publication number
- JP6971590B2 JP6971590B2 JP2017037737A JP2017037737A JP6971590B2 JP 6971590 B2 JP6971590 B2 JP 6971590B2 JP 2017037737 A JP2017037737 A JP 2017037737A JP 2017037737 A JP2017037737 A JP 2017037737A JP 6971590 B2 JP6971590 B2 JP 6971590B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- display
- unit
- optical system
- movement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 54
- 238000003672 processing method Methods 0.000 title claims 3
- 230000003287 optical effect Effects 0.000 claims description 80
- 230000033001 locomotion Effects 0.000 claims description 76
- 238000012937 correction Methods 0.000 claims description 35
- 238000001514 detection method Methods 0.000 claims description 14
- 210000003128 head Anatomy 0.000 description 48
- 238000000034 method Methods 0.000 description 39
- 238000006243 chemical reaction Methods 0.000 description 38
- 238000004364 calculation method Methods 0.000 description 29
- 230000008569 process Effects 0.000 description 16
- 238000010586 diagram Methods 0.000 description 14
- 238000003702 image correction Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 8
- 230000004886 head movement Effects 0.000 description 7
- 101100347655 Saccharomyces cerevisiae (strain ATCC 204508 / S288c) NAB3 gene Proteins 0.000 description 6
- 230000001133 acceleration Effects 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000010191 image analysis Methods 0.000 description 3
- 239000003550 marker Substances 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 238000003705 background correction Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Controls And Circuits For Display Device (AREA)
Description
本発明は、撮像部により撮像された画像を補正する技術に関する。 The present invention relates to a technique for correcting an image captured by an imaging unit.
近年、現実世界と仮想世界をリアルタイムにシームレスに融合させる技術として複合現実感、いわゆるMR(Mixed Reality)技術が知られている。MR技術の1つに、ビデオシースルーHMD(Head Mounted Display)を利用するものが知られている。この技術では、HMD使用者(ユーザ)の瞳位置から観察される被写体と略一致する被写体をビデオカメラなどで撮像し、その撮像画像にCG(Computer Graphics)を重畳表示した画像をユーザが観察できるようにする。 In recent years, mixed reality, so-called MR (Mixed Reality) technology, has been known as a technology for seamlessly fusing the real world and the virtual world in real time. As one of the MR techniques, a technique using a video see-through HMD (Head Mounted Display) is known. With this technology, a subject that substantially matches the subject observed from the pupil position of the HMD user (user) is imaged with a video camera or the like, and the user can observe an image in which CG (Computer Graphics) is superimposed and displayed on the captured image. To do so.
この技術を用いるシステムにおいては、ビデオカメラで撮影した撮像映像に対し描画するCGをレンダリングし、生成されたCGを撮像映像に重畳した表示映像を、画像表示装置としてのHMDの内部パネルに表示するのが一般的である。その際、上記一連の処理を行う演算時間が必ず発生するため撮影した映像の時間と表示される映像の時間との間に遅延(レイテンシ)が生じることとなる。このため、ユーザが頭を動かした場合、頭を動かした瞬間にHMDを通して観察する映像の視野に変化はないが、映像の遅延だけ時間が経過したのち視野の方向が頭の向きに応じて動き出すことになる。このような映像の遅延は、ユーザにとっては違和感となる。 In a system using this technology, a CG to be drawn is rendered for an image captured by a video camera, and a display image in which the generated CG is superimposed on the image is displayed on the internal panel of the HMD as an image display device. Is common. At that time, since the calculation time for performing the above series of processing always occurs, a delay (latency) occurs between the time of the captured image and the time of the displayed image. Therefore, when the user moves his / her head, the field of view of the image observed through the HMD does not change at the moment when the user moves his / her head, but the direction of the field of view starts to move according to the direction of the head after a delay of the image has elapsed. It will be. Such a delay in the image makes the user feel uncomfortable.
この問題に対して、遅延時間とHMDの動作予測値を用いて、ユーザが観察すべき現実世界と表示映像とのずれを補正する技術が提案されている。特許文献1には、フレームメモリに記憶された広画角の撮像映像から、回転角センサで検出されたユーザの頭部情報に基づいて、ユーザが見るべき表示画像をフレームメモリから切り出し、ディスプレイに表示するHMDが開示されている。
To solve this problem, a technique has been proposed in which the deviation between the real world to be observed by the user and the displayed image is corrected by using the delay time and the operation predicted value of the HMD. In
しかしながら、特許文献1の技術は、画像表示装置が撮像光学系および表示光学系を有するものではない。そのため、画像表示装置が撮像光学系および表示光学系を有する場合に、それぞれの光学系の画像補正の影響は考慮されていなかった。そこで、本発明は、ユーザが観察すべき現実世界とのずれが軽減されるように表示映像を補正する際、撮像光学系および表示光学系を有する画像表示装置を用いた場合にも、それぞれの光学系の画像補正が適切に行われるようにすることを目的とする。
However, in the technique of
上記課題を解決するために、本発明によれば、撮像光学系を有し現実空間の画像を撮像する撮像部と、画像表示装置の動きを検知する検知部と、表示光学系を有し表示画像を表示する表示部と、を備える画像表示装置に接続された画像処理装置に、前記撮像光学系の光学特性に基づいて、前記撮像部により撮像された撮像画像を補正する第1の補正手段と、前記現実空間の情報に基づいて仮想画像の描画位置を決定し、該描画位置に基づいて当該仮想画像を生成する生成手段と、前記仮想画像の描画位置を決定し、該描画位置に基づいて当該仮想画像を生成するのに要した処理時間を計測する計測手段と、前記計測された処理時間と前記画像表示装置の動きとに基づいて、前記生成された仮想画像に対して、変形または移動の少なくとも一方の処理を行うことにより前記仮想画像を修正する修正手段と、前記修正された仮想画像と前記補正された撮像画像とを合成して表示画像を生成する合成手段と、前記表示光学系の光学特性に基づいて、前記生成された表示画像を補正する第2の補正手段と、を備えることを特徴とする。 In order to solve the above problems, according to the present invention, an image pickup unit having an image pickup optical system for capturing an image in a real space, a detection unit for detecting the movement of an image display device, and a display optical system are provided for display. A first correction means for correcting an image captured by an image pickup unit based on the optical characteristics of the image pickup optical system on an image processing device connected to an image display device including a display unit for displaying an image. And, the drawing position of the virtual image is determined based on the information in the real space, the generation means for generating the virtual image based on the drawing position, and the drawing position of the virtual image are determined, and based on the drawing position. Based on the measuring means for measuring the processing time required to generate the virtual image, the measured processing time, and the movement of the image display device, the generated virtual image is deformed or modified. A correction means for modifying the virtual image by performing at least one process of movement, a synthesis means for combining the modified virtual image and the corrected captured image to generate a display image, and the display optics. It is characterized by comprising a second correction means for correcting the generated display image based on the optical characteristics of the system.
以上の構成によれば、本発明では、ユーザが観察すべき現実世界とのずれが軽減されるように表示映像を補正する際、撮像光学系および表示光学系を有する画像表示装置を用いた場合にも、それぞれの光学系の画像補正が適切に行われるようになる。 According to the above configuration, in the present invention, when the display image is corrected so as to reduce the deviation from the real world to be observed by the user, a case where an image display device having an image pickup optical system and a display optical system is used. In addition, the image correction of each optical system will be appropriately performed.
[第1の実施形態]
以下、本発明の第1の実施形態の詳細について図面を参照しつつ説明する。図1は、第1の実施形態における画像処理システムの機能構成を示すブロック図である。同図において、本実施形態の画像処理システムは、頭部装着型の画像表示装置としてのヘッドマウントディスプレイ(以下、HMD)1と画像処理装置14とが接続された構成である。HMD1および画像処理装置14はそれぞれ、CPU、ROM、RAM、HDD等のハードウェア構成を備え、CPUがROMやHD等に格納されたプログラムを実行することにより、各機能構成やフローチャートの処理が実現される。RAMは、CPUがプログラムを展開して実行するワークエリアとして機能する記憶領域を有する。ROMは、CPUが実行するプログラム等を格納する記憶領域を有する。HDDは、CPUが処理を実行する際に要する各種のプログラム、閾値に関するデータ等を含む各種のデータを格納する記憶領域を有する。
[First Embodiment]
Hereinafter, the details of the first embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing a functional configuration of an image processing system according to the first embodiment. In the figure, the image processing system of the present embodiment has a configuration in which a head-mounted display (hereinafter, HMD) 1 as a head-mounted image display device and an
HMD1は、撮像部11、表示部12、および動作検知部13を備えている。撮像部11は、撮像光学系111と撮像センサ112を含み、現実世界を撮像した撮像映像を生成する。撮像部11に搭載される撮像光学系111の内部は、撮像レンズなどである。撮像センサ112は、撮像光学系111より形成された被写体像を光電変換するCMOSセンサなどの撮像素子である。このように、撮像部11は現実世界の光を撮像レンズを介して撮像素子へと結像させることで光を電気信号へと変換し、撮像映像として取得する。
The HMD 1 includes an
表示部12は、表示光学系121と表示パネル122とを含み、ユーザは表示パネル122に表示される表示映像を、表示光学系121を通して観察する。表示部12に搭載される表示光学系121はレンズや複数の反射面を有するプリズム型の光学素子等によって構成されており、表示パネル122の映像を光学的に拡大させることでHMDとして最適な表示映像をユーザに提示する。
The
動作検知部13は、HMD1を装着したユーザの頭部の位置姿勢(位置や方向や姿勢)を検出することでHMD1の動きを検知する。動作検知部13は、加速度センサ、角速度センサなどを用いて構成される。
The
図2に、ユーザの頭部動作を概念的に説明する概念図を示す。本実施形態では、HMD1を装着したユーザの視線方向をRoll軸(R)、視線方向に対して水平方向をPitch軸(P)、視線方向に対して垂直方向をYaw軸(Y)と定義する。そして、それぞれの軸に対して回転した場合をそれぞれRoll(ロール)、Pitch(ピッチ)、Yaw(ヨー)と定義する。すなわち、Rollはユーザが頭部を傾ける場合、Pitchはユーザがうなずく場合、Yawはユーザが首を横に振る場合となる。動作検知部13は、これらRoll軸、Pitch軸、Yaw軸方向の加速度や回転の角速度などのデータを出力する。
FIG. 2 shows a conceptual diagram for conceptually explaining the user's head movement. In the present embodiment, the line-of-sight direction of the user wearing the HMD1 is defined as the Roll axis (R), the horizontal direction with respect to the line-of-sight direction is defined as the Pitch axis (P), and the direction perpendicular to the line-of-sight direction is defined as the Yaw axis (Y). .. Then, the case of rotation with respect to each axis is defined as Roll, Pitch, and Yaw, respectively. That is, Roll is when the user tilts his head, Pitch is when the user nods, and Yaw is when the user shakes his head. The
画像処理装置14は、撮像光学系の画像補正を行う撮像光学系補正部141と、表示光学系の画像補正を行う表示光学系補正部142を備える。また、撮像光学補正された映像に対し動作検知部13で検知したHMD1の動きに応じて生じる映像遅延による影響がないように画像を変換する画像変換部143を備える。画像変換部143は、前述のように画像を変換することにより、表示部12に表示すべき画像を生成する生成部として機能する。なお、本実施形態では、撮像部11により撮像された画像をそのまま表示画像として表示する形態であるが、例えば撮像された画像を拡大した画像を表示画像としてユーザに観察させるようにしてもよい。
The
なお、画像処理装置14の各機能の一部または全部をHMD1が備えるようにしてもよい。
The
一般的に光学系を介して得られる画像は、光学系の光軸中心付近と周辺付近で結像倍率が異なったり、光の波長によって結像倍率が異なるため歪曲収差や倍率色収差、周辺光量低下といった画質への影響を受ける。撮像光学系補正部141や表示光学系補正部142は、光学系を介して発生する画質への影響を補正するための画像補正を行う機能を有している。画像補正の内容としては、シェーディング補正や歪曲収差補正などがある。撮像光学系補正部141においては、撮像光学系111で発生した光学特性を補正し、表示光学系補正部142においては、表示光学系121で発生する光学特性を予め補正する。
Generally, an image obtained via an optical system has different image magnifications near the center and the periphery of the optical axis of the optical system, and the image magnification differs depending on the wavelength of light, resulting in distortion, chromatic aberration of magnification, and reduction in peripheral illumination. It is affected by the image quality. The image pickup optical
なお、図1においては、撮像部11および表示部12はそれぞれ1つである前提として説明したが、本実施形態はこれに限らない。撮像部11、表示部12はともに複数から構成されてもよいし、どちらかが複数という構成でもよい。例えば、HMDのような頭部装着型の画像表示装置は、撮像部11と表示部12がそれぞれ両眼に合わせて2つより構成されていることが一般的である。
Although it has been described in FIG. 1 on the premise that the
次に、画像変換部143の詳細について説明する。図3に、本実施形態に係る画像変換部143の機能構成を示す。遅延量保存部31は、撮影した映像の時間と表示される映像の時間との間に発生する遅延量を保存する。この遅延量は固定値としてもよいし、システム的に変動する遅延量を外部より取得、保存するようにしてもよい。
Next, the details of the
変形移動計算部32は、動作検知部13より入力される頭部動作情報と遅延量保存部31に保存されている遅延量とに基づいて、撮像映像の移動量と変形量を計算する機能部である。変形移動計算部32の動作について、図4のフローチャートを用いて以下で詳細に説明する。
The deformation
はじめに、変形移動計算部32は、動作検知部13より頭部動作情報Qを取得する(ST401)。前述のとおり、この頭部動作情報Qは加速度センサ、角速度センサなどのセンサを用いて計測されるセンサデータであり、頭部の動き(首ふりや移動)を数値化したデータとなっている。次に、変形移動計算部32は、遅延量保存部31より遅延量Dtを取得する(ST402)。
First, the deformation
この後、変形移動計算部32は頭部動作情報Qから頭部の縦ふりもしくは横ふりを判定する処理を行う(ST403)。頭部の縦ふりもしくは横ふりを判定する方法としては、例えば、Yawの角速度とPitchの角速度から判定する方法がある。本実施形態において、変形移動計算部32は、Yawの角速度Yωが一定値以上の場合は頭部の横ふり、Pitchの角速度Pωが一定値以上の場合は頭部の縦ふりと判定する。頭部の縦ふりもしくは横ふりと判定された場合は、変形移動計算部32は、画像の水平シフト量(Hd)と垂直シフト量(Vd)を算出する(ST404)。また、頭部の縦ふり、横ふりではないと判定された場合、変形移動計算部32は、画像の水平シフト量(Hd)と垂直シフト量(Vd)をそれぞれ0に設定する(ST405)。
After that, the deformation
次に、変形移動計算部32は、頭部動作情報Qから頭部の傾きを判定する処理を行う(ST406)。頭部の傾きを判定する方法としては、例えば、Rollの角速度から判定する方法がある。本実施形態において、変形移動計算部32は、Rollの角速度Rωが一定値以上の場合は頭部を傾けたと判定する。頭部の傾きと判定された場合は、変形移動計算部32は、画像の回転角(Θd)を算出する(ST407)。また、頭部の傾きではないと判定された場合、変形移動計算部32は、画像の回転角(Θd)を0に設定する(ST408)。
Next, the deformation
次に、変形移動計算部32は、頭部動作情報Qから頭部の前後移動を判定する処理を行う(ST409)。頭部の前後移動を判定する方法としては、例えば、Roll軸方向の加速度情報から判定する方法がある。本実施形態において、変形移動計算部32は、Roll軸方向の加速度Raが一定値以上の場合は頭部が前後移動をしたと判定する。頭部の前後移動と判定された場合は、変形移動計算部32は、画像の拡大率(Ed)を算出する(ST410)。また、頭部の前後移動ではないと判定された場合、変形移動計算部32は、画像の拡大率(Ed)を0に設定する(ST411)。
Next, the deformation
最後に、変形移動計算部32は、計算した画像の水平シフト量Hd、垂直シフト量Vd、回転角Θd、拡大率Edを変形移動実行部33へ送信する(ST412)。このようにして、変形移動計算部32は、動作検知部13より入力される頭部動作情報と、遅延量保存部31に保存されている遅延量とに基づいて、撮像映像の移動量と変形量を計算する。
Finally, the deformation
なお、移動量と変形量の計算の順番については、特に限定されない。先に頭部の前後移動による倍率を計算した後、頭部の縦ふり/横ふりによるシフト量を計算するといった構成としてもよい。また、移動量や変形量の計算手段についても、頭部動作情報Qと、遅延量Dtより予測可能な範囲でユーザに違和感のないように画像変換するようにしてもよい。 The order of calculation of the movement amount and the deformation amount is not particularly limited. The configuration may be such that the magnification due to the forward / backward movement of the head is calculated first, and then the shift amount due to the vertical / horizontal swing of the head is calculated. Further, the means for calculating the movement amount and the deformation amount may also be image-converted so that the user does not feel uncomfortable within a range predictable from the head motion information Q and the delay amount Dt.
変形移動実行部33は、変形移動計算部32より入力された画像変換パラメータを用いて撮像光学系補正部141から入力される撮像映像の画像変換を行う機能部である。画像変換は、移動、変形の少なくとも一方であり、例えば水平垂直シフトや、画像の回転・拡大縮小などである。画像変換の方法としては、フレームバッファ/ラインバッファを用いて画像変換アルゴリズム(バイリニアやバイキュービックなど)を用いて計算する方法や、映像の同期信号をずらすことで疑似的に映像をずらす方法などがある。このような画像変換により、レイテンシにより生じる体験映像と現実世界との差分による違和感を緩和することが可能となる。
The deformation
図5は、本実施形態に係る画像変換部143による効果を説明するための図である。図5は、HMD1を装着したユーザが、(a)頭部動作なしの場合、(b)頭部をYaw動作した場合、(c)頭部をPitch動作した場合、(d)頭部をRoll動作した場合、(e)頭部を前後移動した場合を示している。また、図5(a)〜(e)において、上から順に、表示部12を介してユーザが見る映像、HMD使用中のユーザを頭上から見た様子、HMD使用中のユーザを横から見た様子、HMD使用中のユーザを正面から見た様子を示している。
FIG. 5 is a diagram for explaining the effect of the
図5(a)に示すように、頭部動作なしの場合、撮像光学系111により生じる撮像画角Aθの範囲内の映像が、解像度HxVの範囲内に表示されていることがわかる。また、図5(b)に示すように、頭部をYaw動作した場合、変形移動計算部32は前述のST404の動作にある通り頭部動作情報Qに含まれるYawの角速度Yωと遅延量DtからYaw角Yθを求める。そして、Yaw角Yθと基準となる距離Lとの関係から、画像の水平シフト量Hdが求められる。変形移動実行部33は、この水平シフト量Hdに基づき画像を水平方向にずらすことで、ユーザの視線方向に合った画像をユーザに提示できるようにする。また、図5(c)に示すように、頭部をPitch動作した場合も、Yaw動作と同様に、変形移動計算部32は画像の垂直シフト量Vdを計算し、変形移動実行部33が画像を垂直方向にずらす。これにより、ユーザの視線方向に合った画像をユーザに提示できるようになる。
As shown in FIG. 5A, it can be seen that when there is no head movement, the image within the range of the image pickup angle of view A θ generated by the image pickup
図5(d)に示すように、頭部をRoll動作した場合、変形移動計算部32は前述のST407の動作にある通り頭部動作情報Qに含まれるRollの角速度Rωと遅延量DtからRoll角Rθを求める。そして、Roll角Rθから画像の回転角Θdが求められる。変形移動実行部33は、この回転角Θdに基づき画像を回転させることで、ユーザの視線に合った画像をユーザに提示するようにする。
As shown in FIG. 5D, when the head is moved in Roll, the deformation
図5(e)に示すように、頭部を前後移動した場合、変形移動計算部32は前述のST410の動作にある通り頭部動作情報Qに含まれるRoll軸方向の加速度Raと遅延量DtからRoll軸方向の移動量RMを求める。Roll軸方向の移動量RMと撮像画角Aθの関係から画像の拡大率Edが求められる。変形移動実行部33は、この拡大率Edに基づき画像を拡大、縮小させることで、ユーザの前後動作に合った画像をユーザに提示できるようにする。以上のように、画像変換部143が、動作検知部13の動作に基づいて、表示映像に対して補正処理を実行することによって映像遅延による違和感を低減させることができる。
As shown in FIG. 5 (e), when the head is moved back and forth, the deformation
次に、本実施形態の画像処理システムの特徴である、撮像光学系補正部141より後でかつ表示光学系補正部142の前に画像変換部143の処理を実行することの効果について説明する。例えば、撮像光学系補正部141より前に画像変換部143が実行されたとする。画像変換部143より出力される画像は動作検知部13の情報に応じて画像変換がされている。すなわち、撮像光学系111により生じる撮像光学特性も画像変換により移動、変形された状態となる。通常、撮像光学系補正部141で実行される補正処理は撮像光学特性の情報を予め保存しておき、予め保存されている情報に基づき補正処理を行う。つまり、画像変換部143より出力される画像に対して撮像光学系補正部141を実行すると、意図した撮像光学補正がなされず場合によっては画質を悪化させてしまう。
Next, the effect of executing the processing of the
また、表示光学系補正部142より後で画像変換部143が実行された場合も同様である。表示光学系補正部142は、表示光学系121を介して観察した場合に発生する表示光学特性を予め補正することを行う。表示光学系補正を行った後の画像に対して、画像変換部143を実行すると、予め画像補正してある表示光学特性についても移動、変形された状態となるため、意図した通り表示光学補正がなされず画質を悪化させるおそれがある。
The same applies when the
これに対し、本実施形態では、撮像光学系と表示光学系とを有する画像表示装置(HMD)を含む画像処理システムにおいて、撮像光学系補正部141より後でかつ表示光学系補正部142の前に画像変換部143の処理を実行する。そのため、それぞれの光学系の画像補正が適切に行われるようになり、それぞれの光学補正の違和感を生じさせることなく、撮像映像の遅延による表示映像のずれを抑制させることが可能となる。
On the other hand, in the present embodiment, in an image processing system including an image display device (HMD) having an image pickup optical system and a display optical system, the image processing system is after the image pickup optical
[第2の実施形態]
次に、本発明の第2の実施形態について説明する。本実施形態に係る画像処理システムは、現実世界を撮像した撮像映像に対して遅延が一定ではない処理を行う場合に対応するものである。なお、第1の実施形態において既に説明をした構成については同一の符号を付し、その説明は省略する。
[Second Embodiment]
Next, a second embodiment of the present invention will be described. The image processing system according to the present embodiment corresponds to a case where the delay is not constant with respect to the captured image captured in the real world. The configurations already described in the first embodiment are designated by the same reference numerals, and the description thereof will be omitted.
図6は、本実施形態に係る画像処理システムの構成を示すブロック図である。本実施形態に係る画像処理システムが、第1の実施形態と異なる点は、映像の遅延量を計測する遅延量計測装置61とCG重畳装置62を備えていることである。また、遅延量計測装置61で計測した遅延量情報とCG重畳装置62からの表示映像を用いて、画像変換部143が画像補正の処理を実行するという点である。なお、遅延量計測装置61、CG重畳装置62は画像処理装置14と一体の装置として構成されていてもよいし、図6のように別体の装置として構成されていてもよい。
FIG. 6 is a block diagram showing a configuration of an image processing system according to the present embodiment. The image processing system according to the present embodiment is different from the first embodiment in that it includes a delay
遅延量計測装置61は、遅延量計測部611を有し、撮像光学系補正部141より入力される撮像映像と後述するCG重畳部622より入力される表示映像との時間差を計測する機能部である。その時間差を計測する方法としては、内部カウンタを用意しておき撮像映像と表示映像それぞれの垂直同期信号の入力されるタイミングの差を計測する方法がある。また、撮像映像にメタデータとしてタイムスタンプ情報を埋め込んでおき、撮像映像のタイムスタンプ情報と表示映像のタイムスタンプ情報が一致するまでの時間差を計測するといった方法もある。映像の遅延時間を計測することができれば、特定の方法に限定されない。このように、遅延量計測装置61によって、映像伝送や処理負荷に応じて遅延時間が変動するような場合においても正確な遅延量Dtを画像変換部143へ通知することができる。
The delay
次に、CG重畳装置62の構成について説明する。CG重畳装置62は、CG重畳位置解析部621とCG重畳部622とにより構成される。CG重畳位置解析部621は、入力される撮像映像内を画像解析してCGの描画位置を算出する演算を行い、CG重畳位置情報をCG重畳部622へと出力する。CGの描画位置を特定するためには、例えば2次元コードのような物理指標(以下、MRマーカー)を現実空間に配置し、撮像映像の画像解析によりMRマーカーを検知する方法などがある。また、撮像映像からの画像解析による方法ではなく、HMD1を使用する空間上に光学式センサなどを取り付けることによって、HMD1の位置を特定しHMD1の位置に応じてCGの描画位置などを計算する方法もある。これらの方法により、CG重畳位置解析部621は現実空間を撮影した撮像映像に対して、CGをどの位置に描画すべきかの情報であるCG描画位置情報を計算する。CGの描画位置の計算は、CPUなどを用いて計算が行われるが、現実空間にMRマーカーを多数配置して画像解析を行う場合はMRマーカー検出のための計算処理が複数回発生するため処理時間が一定でない場合がある。このような場合、入力に対する映像の遅延量が動的に変動する可能性がある。
Next, the configuration of the
CG重畳部622は、CG重畳位置解析部621で計算されたCG重畳位置情報を用いて、撮像映像に仮想画像(CGデータ)を重畳した表示映像を生成する。CGデータは、例えばCADソフトなどを用いて作成された3DCADデータや、グラフィックデザインソフトなどを用いて作成された3DCGデータなどが該当する。CG重畳部622は、CG重畳位置情報に基づき、予め用意してあるCGデータをレンダリングして撮像映像に重畳する。これにより、現実空間には存在しないCGデータが映像内に描画された映像(合成画像)を作り出すことができる。このとき、CGデータのレンダリングはGPU(Graphic Processing Unit)などを用いて計算が行われるが、CGデータの内容によってはレンダリング処理が重くなり処理時間が一定でない場合がある。このような場合においても、入力に対する映像の遅延量が動的に変動する可能性がある。
The
すなわち、CG重畳装置62は映像が入力されてから出力されるまでの時間差が一定でない場合が多い。そのような場合においても、遅延量計測装置61はCG重畳装置62で発生する映像遅延量をリアルタイムに計測することができる。
That is, in the
画像変換部143は、遅延量Dtに応じてレイテンシを推定、決定し、映像の変形、移動を実行する。本実施形態においては、映像の遅延量Dtは動的に変化するが、遅延量計測部611から遅延量Dtを入力させることで、リアルタイムに遅延が変化する場合においても撮像映像の遅延による表示映像のずれを抑制することができる。これによって、映像遅延による違和感を低減させることが可能となる。
The
ここで、図7を用いて、本実施形態の変形例についても説明する。図7は、本実施形態の変形例に係る画像処理システムの構成を示すブロック図である。図7の画像処理システムでは、図6記載のCG重畳装置62に代わり、無線装置71を備えている。無線装置71は、不図示の外部装置に対して映像を無線伝送する無線伝送部(送信部)711と、不図示の外部装置より処理された映像を無線受信する無線受信部(受信部)712とにより構成される。
Here, a modified example of the present embodiment will also be described with reference to FIG. 7. FIG. 7 is a block diagram showing a configuration of an image processing system according to a modified example of the present embodiment. The image processing system of FIG. 7 includes a
無線伝送部711および無線受信部712ともに、無線の電波状況によっては通信のスループットが低下し映像伝送が困難になる場合が想定される。通信のスループットが低下すると、映像の遅延が発生したり映像のフレームが抜けたりするため、映像の遅延量が動的に変動する可能性がある。
In both the
このように、無線装置71のような無線伝送を介するシステムでリアルタイムに遅延量が変動する場合であっても、撮像映像の遅延による表示映像のずれを抑制させることが可能となる。
As described above, even when the delay amount fluctuates in real time in a system via wireless transmission such as the
以上、本実施形態によれば、画像処理システムが撮像映像に対して遅延が一定ではない処理を行う場合にも、その遅延量を計測し、その遅延量に応じて映像の補正を行うことにより、撮像映像の遅延による表示映像のずれを抑制することができる。 As described above, according to the present embodiment, even when the image processing system performs processing in which the delay is not constant for the captured image, the delay amount is measured and the image is corrected according to the delay amount. , It is possible to suppress the deviation of the displayed image due to the delay of the captured image.
なお、本実施形態においては、CG重畳装置62や無線装置71の処理では、遅延量が動的に変動するものとして説明をしたが、CG重畳装置62や無線装置71の処理が必ずしも、遅延が一定でない処理となるわけではない。そのため、第1の実施形態の構成に、遅延量計測装置61は追加せず、CG重畳装置62や無線装置71のみを追加するような構成であってもよく、これらも本発明の範疇に含まれるものである。
In the present embodiment, it has been described that the delay amount dynamically fluctuates in the processing of the
[第3の実施形態]
次に、本発明の第3の実施形態について説明する。本実施形態に係る画像処理システムは、現実世界を撮像した撮像映像に対し遅延が一定ではない処理であるCG生成を行い、生成したCGのみを画像変換部143で変換するものである。なお、第1、第2の実施形態において既に説明をした構成については同一の符号を付し、その説明は省略する。
[Third Embodiment]
Next, a third embodiment of the present invention will be described. The image processing system according to the present embodiment performs CG generation, which is a process in which the delay is not constant with respect to the captured image captured in the real world, and only the generated CG is converted by the
図8は、本実施形態に係る画像処理システムの構成を示すブロック図である。本実施形態に係る画像処理システムが、第2の実施形態と異なる点は、撮像映像にCGを重畳するのではなくCG生成装置82はCGの生成と転送のみを行い撮像映像との合成は映像合成部144で行う点である。この構成とするメリットとしては、撮像映像に関しては遅延量変動の影響を受けないため最小の遅延でユーザに映像表示をすることができる。しかしながら、一方でCG映像に関してはCG生成装置82の影響により映像合成部144で合成する時点では撮像映像に対してCG映像は遅延量を含んだ状態の映像表示となる。そのため、本実施形態ではCGデータのみを画像変換部143で処理することによって、CG合成後の表示映像における違和感を抑制する。
FIG. 8 is a block diagram showing a configuration of an image processing system according to the present embodiment. The difference between the image processing system according to the present embodiment and the second embodiment is that the CG generation device 82 does not superimpose the CG on the captured image, but only generates and transfers the CG, and the composition with the captured image is an image. This is a point performed by the
図9は、本実施形態に係る画像変換部143による効果を説明する図である。図9には、(a)HMD1を装着したユーザが頭部動作なしの場合、(b)頭部をYaw動作した場合について示している。また、図9(a)、(b)それぞれにおいて、上から順に、表示部12を介してユーザが見る映像、HMD使用中のユーザを頭上から見た様子、HMD使用中のユーザを横から見た様子、HMD使用中のユーザを正面から見た様子を示している。
FIG. 9 is a diagram illustrating the effect of the
図9(a)に示すように、頭部動作なしの場合、現実世界にはないCGデータ90が重畳された表示映像が観察される。一方、図9(b)に示すように、頭部をYaw動作した場合、現実世界の撮像映像は遅延量がない状態で表示され、重畳するCGデータは遅延量を含んだ状態で表示されてしまう。そのため、単純に撮像映像にCGデータを重畳すると、図中の位置91にCGデータが重畳されてしまい、現実世界とCGデータとの間に違和感が発生してしまう。
As shown in FIG. 9A, when there is no head movement, a display image on which CG data 90, which does not exist in the real world, is superimposed is observed. On the other hand, as shown in FIG. 9B, when the head is Yaw-operated, the captured image in the real world is displayed without a delay amount, and the superimposed CG data is displayed with a delay amount included. It ends up. Therefore, if the CG data is simply superimposed on the captured image, the CG data is superimposed on the
そこで、本実施形態において、変形移動計算部32は頭部動作情報Qに含まれるYawの角速度Yωと遅延量DtからYaw角Yθを求める。さらに、Yaw角Yθと基準となる距離Lとの関係から、画像の水平シフト量Hdを求める。変形移動実行部33は、この水平シフト量Hdに基づき、CGデータを水平方向にずらしたのちに撮像映像と合成することで、違和感のない映像提供を行うことができる。
Therefore, in the present embodiment, the deformation
以上のように、本実施形態では、生成したCGのみを画像変換部143で変換する構成においても、遅延量に応じて映像の補正を行うことにより、撮像映像の遅延による表示映像のずれを抑制することができる。
As described above, in the present embodiment, even in the configuration in which only the generated CG is converted by the
[第4の実施形態]
次に、本発明の第4の実施形態について説明する。本実施形態に係る画像処理システムは、撮像映像に対し遅延が一定ではない処理であるCG生成を行い、生成したCGを画像変換部143で変換し、さらに撮像光学系補正部141より出力された撮像映像を画像変換部145で変換するものである。なお、第1〜第3の実施形態において既に説明をした構成については同一の符号を付し、その説明は省略する。
[Fourth Embodiment]
Next, a fourth embodiment of the present invention will be described. The image processing system according to the present embodiment performs CG generation, which is a process in which the delay is not constant for the captured image, converts the generated CG by the
図10は、本実施形態に係る画像処理システムの構成を示すブロック図である。本実施形態に係る画像処理システムが、第3の実施形態と異なる点は、撮像映像とCGデータともに画像変換部143もしくは145により画像変換を行う点である。画像変換部145は、画像変換部143と同様の機能を有しており、前述した通り画像の変換機能を有している。この構成にすることによって、撮像部11から入力される映像情報を表示部12で観察される表示映像とのハードウェア上で発生する遅延量を画像変換部145において補正することができる。そのため、本実施形態では、現実世界にCGデータを重畳した映像を最小の遅延量で観察することができる。
FIG. 10 is a block diagram showing a configuration of an image processing system according to the present embodiment. The image processing system according to the present embodiment differs from the third embodiment in that both the captured image and the CG data are image-converted by the
[その他の実施形態]
また、本発明は、実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。また、本発明は、複数の機器から構成されるシステムに適用しても、1つの機器からなる装置に適用してもよい。本発明は上記実施形態に限定されるものではなく、本発明の趣旨に基づき種々の変形(各実施形態の有機的な組合せを含む)が可能であり、それらを本発明の範囲から除外するものではない。即ち、上述した各実施形態及びその変形例を組み合わせた構成も全て本発明に含まれるものである。
[Other embodiments]
Further, in the present invention, software (program) that realizes the functions of the embodiment is supplied to the system or device via a network or various storage media, and the computer (or CPU, MPU, etc.) of the system or device provides the program. This is a process to read and execute. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions. Further, the present invention may be applied to a system composed of a plurality of devices or a device composed of one device. The present invention is not limited to the above embodiments, and various modifications (including organic combinations of each embodiment) are possible based on the gist of the present invention, and these are excluded from the scope of the present invention. is not it. That is, all the configurations in which each of the above-described embodiments and modifications thereof are combined are also included in the present invention.
14 画像処理装置
141 撮像光学系補正部
142 表示光学系補正部
143 画像変換部
14
Claims (5)
前記撮像光学系の光学特性に基づいて、前記撮像部により撮像された撮像画像を補正する第1の補正手段と、
前記現実空間の情報に基づいて仮想画像の描画位置を決定し、該描画位置に基づいて当該仮想画像を生成する生成手段と、
前記仮想画像の描画位置を決定し、該描画位置に基づいて当該仮想画像を生成するのに要した処理時間を計測する計測手段と、
前記計測された処理時間と前記画像表示装置の動きとに基づいて、前記生成された仮想画像に対して、変形または移動の少なくとも一方の処理を行うことにより前記仮想画像を修正する修正手段と、
前記修正された仮想画像と前記補正された撮像画像とを合成して表示画像を生成する合成手段と、
前記表示光学系の光学特性に基づいて、前記生成された表示画像を補正する第2の補正手段と、
を備えることを特徴とする画像処理装置。 An image display device having an image pickup optical system for capturing an image in a real space, a detection unit for detecting the movement of the image display device, and a display unit having a display optical system for displaying a display image. A connected image processing device
A first correction means for correcting an image captured by the image pickup unit based on the optical characteristics of the image pickup optical system, and a correction means.
A generation means for determining a drawing position of a virtual image based on the information in the real space and generating the virtual image based on the drawing position.
A measuring means for determining the drawing position of the virtual image and measuring the processing time required to generate the virtual image based on the drawing position.
A correction means for modifying the virtual image by performing at least one processing of deformation or movement on the generated virtual image based on the measured processing time and the movement of the image display device.
A compositing means for generating a display image by compositing the modified virtual image and the corrected captured image, and
A second correction means for correcting the generated display image based on the optical characteristics of the display optical system, and
An image processing device characterized by comprising.
前記撮像光学系の光学特性に基づいて、前記撮像部により撮像された撮像画像を補正するステップと、
前記現実空間の情報に基づいて仮想画像の描画位置を決定し、該描画位置に基づいて当該仮想画像を生成するステップと、
前記仮想画像の描画位置を決定し、該描画位置に基づいて当該仮想画像を生成するのに要した処理時間を計測するステップと、
前記計測された処理時間と前記画像表示装置の動きとに基づいて、前記生成された仮想画像に対して、変形または移動の少なくとも一方の処理を行うことにより前記仮想画像を修正するステップと、
前記修正された仮想画像と前記補正された撮像画像とを合成して表示画像を生成するステップと、
前記表示光学系の光学特性に基づいて、前記生成された表示画像を補正するステップと、
を備えることを特徴とする画像処理方法。 An image display device including an image pickup unit having an image pickup optical system to capture an image in a real space, a detection unit to detect the movement of the image display device, and a display unit having a display optical system to display a display image. An image processing method in a connected image processing device.
A step of correcting an image captured by the image pickup unit based on the optical characteristics of the image pickup optical system, and a step of correcting the image captured by the image pickup unit.
A step of determining a drawing position of a virtual image based on the information in the real space and generating the virtual image based on the drawing position.
A step of determining the drawing position of the virtual image and measuring the processing time required to generate the virtual image based on the drawing position.
A step of modifying the virtual image by performing at least one processing of deformation or movement on the generated virtual image based on the measured processing time and the movement of the image display device.
A step of combining the modified virtual image and the corrected captured image to generate a display image, and
A step of correcting the generated display image based on the optical characteristics of the display optical system, and
An image processing method characterized by comprising.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017037737A JP6971590B2 (en) | 2017-02-28 | 2017-02-28 | Image processing equipment, image processing methods and programs |
US15/880,333 US10726814B2 (en) | 2017-01-27 | 2018-01-25 | Image display apparatus, image processing apparatus, image display method, image processing method, and storage medium |
CN201810078565.XA CN108363486B (en) | 2017-01-27 | 2018-01-26 | Image display device and method, image processing device and method, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017037737A JP6971590B2 (en) | 2017-02-28 | 2017-02-28 | Image processing equipment, image processing methods and programs |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018141943A JP2018141943A (en) | 2018-09-13 |
JP6971590B2 true JP6971590B2 (en) | 2021-11-24 |
Family
ID=63528158
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017037737A Active JP6971590B2 (en) | 2017-01-27 | 2017-02-28 | Image processing equipment, image processing methods and programs |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6971590B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11048465B2 (en) | 2018-09-18 | 2021-06-29 | Canon Kabushiki Kaisha | Imaging display device, wearable device, and imaging display system |
JP7418075B2 (en) * | 2018-09-18 | 2024-01-19 | キヤノン株式会社 | Imaging display devices, wearable devices, and imaging display systems |
JP7175715B2 (en) * | 2018-10-31 | 2022-11-21 | キヤノン株式会社 | Information processing device, information processing method and program |
JP2023088667A (en) * | 2021-12-15 | 2023-06-27 | キヤノン株式会社 | Image processing apparatus and method, and program |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008216343A (en) * | 2007-02-28 | 2008-09-18 | Canon Inc | Image display apparatus, program and storage medium |
JP2010092360A (en) * | 2008-10-09 | 2010-04-22 | Canon Inc | Image processing system, image processing device, aberration correcting method, and program |
JP2015231106A (en) * | 2014-06-04 | 2015-12-21 | 三菱電機株式会社 | Device and system for head-mounted display |
JP2016082462A (en) * | 2014-10-20 | 2016-05-16 | セイコーエプソン株式会社 | Head-mounted display device, control method therefor, and computer program |
-
2017
- 2017-02-28 JP JP2017037737A patent/JP6971590B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018141943A (en) | 2018-09-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5388534B2 (en) | Image processing apparatus and method, head-mounted display, program, and recording medium | |
JP5113426B2 (en) | Head-mounted display device and control method thereof | |
JP5725975B2 (en) | Imaging apparatus and imaging method | |
JP6971590B2 (en) | Image processing equipment, image processing methods and programs | |
US10726814B2 (en) | Image display apparatus, image processing apparatus, image display method, image processing method, and storage medium | |
JP5409107B2 (en) | Display control program, information processing apparatus, display control method, and information processing system | |
JP7358448B2 (en) | Image generation device, head mounted display, and image generation method | |
JP6218787B2 (en) | Imaging apparatus, information processing apparatus, display apparatus, information processing system, image data transmission method, and image display method | |
JP2011139158A (en) | Image processor and image processing method | |
JP7150134B2 (en) | Head-mounted display and image display method | |
JP6708444B2 (en) | Image processing apparatus and image processing method | |
JP6278668B2 (en) | Compound eye imaging device | |
JP6904684B2 (en) | Image processing equipment, image processing methods, and programs | |
JP7142762B2 (en) | Display device and image display method | |
JP6711670B2 (en) | Information processing device, image display device, image display system, and information processing method | |
JP5202448B2 (en) | Image processing system and method | |
JP6257260B2 (en) | Imaging apparatus and control method thereof | |
JP6012396B2 (en) | Image processing apparatus, image processing method, and program. | |
JP2014199508A (en) | Image processing apparatus, image processing method, and program | |
JP2009025919A (en) | Image processor and image processing method | |
JP7066414B2 (en) | Image processing equipment, display system, image processing method and program | |
JP2017215688A (en) | Image processor and image processing method | |
JP2020106655A (en) | Information processor, information processing method and program | |
JP2014049895A (en) | Image processing method | |
WO2018084051A1 (en) | Information processing device, head-mounted display, information processing system, and information processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200221 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210201 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210209 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210409 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210720 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210916 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211005 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211102 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6971590 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |