JP7402660B2 - Head-mounted display device, control method for head-mounted display device - Google Patents

Head-mounted display device, control method for head-mounted display device Download PDF

Info

Publication number
JP7402660B2
JP7402660B2 JP2019200226A JP2019200226A JP7402660B2 JP 7402660 B2 JP7402660 B2 JP 7402660B2 JP 2019200226 A JP2019200226 A JP 2019200226A JP 2019200226 A JP2019200226 A JP 2019200226A JP 7402660 B2 JP7402660 B2 JP 7402660B2
Authority
JP
Japan
Prior art keywords
internal temperature
interest
correction
head
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019200226A
Other languages
Japanese (ja)
Other versions
JP2021072601A (en
Inventor
将人 小川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019200226A priority Critical patent/JP7402660B2/en
Publication of JP2021072601A publication Critical patent/JP2021072601A/en
Application granted granted Critical
Publication of JP7402660B2 publication Critical patent/JP7402660B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は、頭部装着型表示装置の制御技術に関するものである。 The present invention relates to a control technique for a head-mounted display device.

近年、現実空間と仮想空間との繋ぎ目のない結合を目的とした、複合現実感(MR:Mixed Reality)に関する研究が盛んに行われている。これらの技術の一つとして、ビデオシースルー方式のヘッドマウントディスプレイ(HMD)を用いる技術が知られている。これは、ビデオカメラなどの撮像装置が撮像した現実空間の映像上に、撮像装置の位置姿勢に応じて生成したコンピュータグラフィックス(CG)の映像を重畳表示し、それをHMDのディスプレイなどの表示装置を通じて観察するものである。 In recent years, research on mixed reality (MR), which aims to seamlessly connect real space and virtual space, has been actively conducted. As one of these techniques, a technique using a video see-through head mounted display (HMD) is known. This technology superimposes and displays computer graphics (CG) images generated according to the position and orientation of the imaging device on images of real space captured by an imaging device such as a video camera, and displays them on an HMD display, etc. It is observed through a device.

現実空間の映像上にCGをズレなく重畳表示するためには、HMDの位置姿勢を高精度に推定する必要がある。また、現実空間の映像とCGとの前後関係を正しく反映させて重畳表示するためには、現実空間の映像に映る被写体までの距離を正確に推定する必要がある。そして、この推定には、ステレオカメラを用いる。 In order to superimpose and display CG on images in real space without any deviation, it is necessary to estimate the position and orientation of the HMD with high precision. In addition, in order to correctly reflect the context of the real space image and CG and display them in a superimposed manner, it is necessary to accurately estimate the distance to the object shown in the real space image. A stereo camera is used for this estimation.

推定の前処理として、カメラの歪曲を取り除く歪曲補正処理、および、二つのカメラの撮像画像を仮想的に並列化するレクティファイ処理(非特許文献1)を行う。このレクティファイ処理は、二つのカメラの撮像画像を、共通画像平面に投影する処理である。この共通画像平面は、二つのカメラの主点位置を結ぶ基線軸に平行な軸を含む平面である。この共通画像平面に投影した二つのカメラの撮像画像は、撮像画像上で水平方向、および鉛直方向が一致する。 As pre-processing for estimation, distortion correction processing that removes camera distortion and rectify processing (non-patent document 1) that virtually parallelizes images captured by two cameras are performed. This rectify processing is a process of projecting images captured by two cameras onto a common image plane. This common image plane is a plane including an axis parallel to the baseline axis connecting the principal point positions of the two cameras. The captured images of the two cameras projected onto this common image plane match in the horizontal direction and the vertical direction on the captured images.

そして、歪曲補正処理およびレクティファイ処理を行うためには、ステレオカメラの内部パラメータ(主点位置、焦点距離、歪曲補正値)及び外部パラメータ(ステレオカメラ間の相対位置姿勢)を高精度に推定する必要がある。高精度に推定した内部パラメータおよび外部パラメータを用いて、歪曲補正(カメラの光軸も同時に補正)テーブルを作成し、ステレオカメラの撮像画像を補正することで、高精度な推定が実現できる。 In order to perform distortion correction processing and rectify processing, it is necessary to estimate with high precision the internal parameters (principal point position, focal length, distortion correction value) and external parameters (relative position and orientation between stereo cameras) of the stereo cameras. There is. Highly accurate estimation can be achieved by creating a distortion correction table (correcting the optical axis of the camera at the same time) using highly accurately estimated internal and external parameters and correcting images captured by the stereo camera.

特開2012-147281号公報JP2012-147281A 特開2010-26994号公報Japanese Patent Application Publication No. 2010-26994

A.Fusiello et al. ”A CompactAlgorithm for rectification of stereo paires”,Machine Vision and Applications,2000.A. Fusiello et al. “A Compact Algorithm for rectification of stereo pairs”, Machine Vision and Applications, 2000.

ところが、高精度に内部パラメータおよび外部パラメータを推定しても、HMDの使用時間の経過と共に該HMD本体の温度が上昇すると、熱によりカメラ内部のモールド部品や金属部品が膨張し、その結果、内部パラメータが変化してしまう。また、ステレオカメラを取り付けたベース材料も同様に熱による変形の影響を受け、外部パラメータも変化してしまう。つまり、HMD本体の温度が上昇すると、推定したパラメータの値と実際のパラメータの値との間の誤差が大きくなり、その結果、現実空間の映像とCGとの間のズレが大きくなったり、現実空間の映像とCGとの前後関係のズレが大きくなったりする問題がある。 However, even if the internal and external parameters are estimated with high accuracy, as the temperature of the HMD increases over time, the molded parts and metal parts inside the camera expand due to the heat, and as a result, the internal Parameters change. Furthermore, the base material to which the stereo camera is attached is similarly affected by thermal deformation, causing external parameters to change as well. In other words, when the temperature of the HMD body increases, the error between the estimated parameter value and the actual parameter value increases, and as a result, the discrepancy between the real space image and the CG increases, or the There is a problem that the difference in the context between the spatial image and the CG becomes large.

特許文献1には、温度毎に作成した補正パラメータ(具体的には多項式の係数)を切り替えて使用することで、カメラの温度変化による歪曲の変化を補正する方法が開示されている。しかし、補正パラメータを用いた補正では、イメージセンサ内の座標位置ごとの補正値を都度、計算する必要があり、処理の負荷が大きい。更に、レクティファイ処理まで含めて計算しようとすると、処理の負荷が膨大になる、という問題がある。 Patent Document 1 discloses a method of correcting changes in distortion due to changes in camera temperature by switching and using correction parameters (specifically polynomial coefficients) created for each temperature. However, correction using correction parameters requires calculating a correction value for each coordinate position within the image sensor each time, resulting in a large processing load. Furthermore, there is a problem in that the processing load becomes enormous if calculations including rectify processing are attempted.

特許文献2には、補正パラメータではなく、温度毎に作成した補正テーブル(具体的にはイメージセンサ内の座標位置に基づいて決定される補正値のテーブル)を切り替えて使用して補正する方法が開示されている。この方法では、単純にテーブルの値に従ってマッピング処理を行うだけなので、処理の負荷を最小にできる。しかし、補正パラメータと比べ、多くのメモリ容量が必要になる。そのため、温度毎に細かく補正テーブルを持つことが困難である。また、補正テーブルを切り替える際に、映像に明確な変化が見られてしまい、違和感がある。特に、ステレオカメラなど複数のカメラを用いる場合など、カメラ毎にバラバラに変化が起こると、違和感が増すという問題があった。本発明では、頭部装着型表示装置における画像補正において、該画像補正に用いる補正パラメータの更新による違和感を軽減させるための技術を提供する。 Patent Document 2 describes a method of performing correction by switching and using a correction table created for each temperature (specifically, a table of correction values determined based on the coordinate position within the image sensor) instead of using correction parameters. Disclosed. In this method, the mapping process is simply performed according to the values in the table, so the processing load can be minimized. However, compared to the correction parameters, a larger memory capacity is required. Therefore, it is difficult to have a detailed correction table for each temperature. Furthermore, when switching the correction table, a clear change can be seen in the video, which feels strange. In particular, when a plurality of cameras such as a stereo camera are used, there is a problem in that the sense of discomfort increases when changes occur in each camera separately. The present invention provides a technique for reducing discomfort caused by updating correction parameters used for image correction in image correction in a head-mounted display device.

本発明の一様態は、複数の撮像部のそれぞれについて、該撮像部による撮像画像を、該撮像部に対して設定されている補正パラメータを用いて補正する補正手段と、
設定条件が満たされていれば、着目撮像部に対して設定されている補正パラメータを、該着目撮像部の内部温度に対応する補正パラメータに更新する制御手段と
を備え
前記制御手段は、前記着目撮像部の内部温度が、該着目撮像部に対して設定されている補正パラメータに対応する内部温度範囲から外れている場合に前記設定条件が満たされていれば、該着目撮像部に対して設定されている補正パラメータを、該着目撮像部の内部温度に対応する補正パラメータに更新し、
前記制御手段は、前記着目撮像部の内部温度が、該着目撮像部に対して設定されている補正パラメータに対応する内部温度範囲から外れている場合であっても、前記設定条件が満たされていなければ、前記更新は行わない
ことを特徴とする。
One aspect of the present invention is a correction unit that corrects, for each of the plurality of imaging units, an image captured by the imaging unit using a correction parameter set for the imaging unit;
and a control means for updating the correction parameters set for the imaging section of interest to correction parameters corresponding to the internal temperature of the imaging section of interest, if the setting conditions are met ;
If the setting condition is satisfied when the internal temperature of the imaging section of interest is out of the internal temperature range corresponding to the correction parameter set for the imaging section of interest, the control means updating the correction parameters set for the imaging unit of interest to correction parameters corresponding to the internal temperature of the imaging unit of interest;
The control means is configured to control whether the setting condition is satisfied even when the internal temperature of the imaging unit of interest is outside an internal temperature range corresponding to a correction parameter set for the imaging unit of interest. If not, the above update will not be performed.
It is characterized by

本発明の構成によれば、頭部装着型表示装置における画像補正において、該画像補正に用いる補正パラメータの更新による違和感を軽減させることができる。 According to the configuration of the present invention, in image correction in a head-mounted display device, it is possible to reduce discomfort caused by updating correction parameters used for image correction.

MRシステムの構成例を示すブロック図。FIG. 1 is a block diagram showing a configuration example of an MR system. HMD110および情報処理装置100の動作を示すフローチャート。2 is a flowchart showing operations of HMD 110 and information processing device 100. 撮像画像に対するレクティファイ処理の結果の一例を示す図。The figure which shows an example of the result of the rectify process with respect to a captured image. 各内部温度範囲に対応する歪曲補正値の一例を示す図。FIG. 7 is a diagram showing an example of distortion correction values corresponding to each internal temperature range. 撮像部111、温度取得部112、決定部113、歪曲補正部116を、右眼に対応する構成、左眼に対応する構成、に分けて示した構成を示すブロック図。FIG. 2 is a block diagram illustrating a configuration in which an imaging unit 111, a temperature acquisition unit 112, a determination unit 113, and a distortion correction unit 116 are divided into a configuration corresponding to the right eye and a configuration corresponding to the left eye.

以下、添付図面を参照して実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る発明を限定するものでない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。 Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. Note that the following embodiments do not limit the claimed invention. Although a plurality of features are described in the embodiments, not all of these features are essential to the invention, and the plurality of features may be arbitrarily combined. Furthermore, in the accompanying drawings, the same or similar components are designated by the same reference numerals, and redundant description will be omitted.

[第1の実施形態]
先ず、本実施形態に係るMRシステムの構成例について、図1のブロック図を用いて説明する。図1に示す如く、本実施形態に係るMRシステムは、頭部装着型表示装置の一例であるHMD110と、該HMD110において表示される画像を生成する情報処理装置100と、を有する。HMD110と情報処理装置100との間は有線及び/又は無線のネットワークを介して互いにデータ通信が可能なように構成されている。
[First embodiment]
First, a configuration example of an MR system according to the present embodiment will be described using the block diagram of FIG. 1. As shown in FIG. 1, the MR system according to this embodiment includes an HMD 110 that is an example of a head-mounted display device, and an information processing device 100 that generates images displayed on the HMD 110. The HMD 110 and the information processing device 100 are configured to be capable of data communication with each other via a wired and/or wireless network.

先ず、HMD110について説明する。撮像部111は、ステレオカメラもしくは3眼以上の多眼カメラであり、現実空間を撮像することで、互いに視差の付いた複数の撮像画像(現実空間の画像)を取得する。本実施形態では、撮像部111はスレテオカメラであるものとして説明する。つまり本実施形態では、撮像部111は、左眼用のカメラと、右眼用のカメラと、を有する。 First, the HMD 110 will be explained. The imaging unit 111 is a stereo camera or a multi-lens camera with three or more eyes, and acquires a plurality of captured images (images of the real space) with parallax mutually by capturing images of the real space. In this embodiment, the imaging unit 111 will be described as a stereo camera. That is, in this embodiment, the imaging unit 111 includes a left eye camera and a right eye camera.

歪曲補正部116は、撮像部111が有するそれぞれのカメラからの撮像画像を、該カメラに対して設定されている補正パラメータを用いて補正し、補正後の撮像画像を情報処理装置100に送信する。歪曲補正部116は歪曲補正処理を行うが、歪曲補正処理は、撮像画像の歪曲の補正だけではなく、該撮像画像を撮像したカメラの光軸も同時に補正するレクティファイ処理を含む。 The distortion correction unit 116 corrects the captured images from each camera included in the imaging unit 111 using correction parameters set for the cameras, and transmits the corrected captured images to the information processing device 100. . The distortion correction unit 116 performs distortion correction processing, which includes rectify processing that not only corrects the distortion of the captured image but also corrects the optical axis of the camera that captured the captured image.

撮像画像に対するレクティファイ処理の結果の一例を図3に示す。撮像画像301は、撮像部111において左側のカメラ(左眼用のカメラ)による撮像画像であり、撮像画像302は、撮像部111において右側のカメラ(右眼用のカメラ)による撮像画像である。撮像画像301および撮像画像302は共に、歪曲、主点位置、焦点距離、回転等のズレを含んでいる。撮像画像303は、撮像画像301に対してレクティファイ処理を適用することで得られる撮像画像である。撮像画像304は、撮像画像302に対してレクティファイ処理を適用することで得られる撮像画像である。撮像画像303および撮像画像304のそれぞれでは、撮像画像301および撮像画像302に含まれていた上記の各種のズレが補正されている。 FIG. 3 shows an example of the results of rectify processing on a captured image. The captured image 301 is an image captured by the left camera (camera for the left eye) in the imaging unit 111, and the captured image 302 is an image captured by the right camera (camera for the right eye) in the imaging unit 111. Both the captured image 301 and the captured image 302 include distortion, deviations in principal point position, focal length, rotation, etc. The captured image 303 is a captured image obtained by applying rectify processing to the captured image 301. The captured image 304 is a captured image obtained by applying rectify processing to the captured image 302. In each of the captured image 303 and the captured image 304, the above various deviations included in the captured image 301 and the captured image 302 are corrected.

温度取得部112は、撮像部111が有するそれぞれのカメラについて、該カメラの内部温度を、測定により取得する。なお、カメラの内部温度を取得する方法は、特定の取得方法に限らない。 The temperature acquisition unit 112 acquires the internal temperature of each camera included in the imaging unit 111 by measurement. Note that the method for acquiring the internal temperature of the camera is not limited to a specific acquisition method.

格納部114には、カメラのイメージセンサ内の座標位置に基づいて決定される「撮像画像の歪曲を補正するための歪曲補正値が登録されているテーブル(補正パラメータ)」が、内部温度範囲ごとに格納されている。つまり、格納部114には、内部温度範囲R1(内部温度がT1以上T2未満の範囲)に対応する補正パラメータ、内部温度範囲R2(内部温度がT2以上T3未満の範囲)に対応する補正パラメータ、…というように、各内部温度範囲に対応する補正パラメータが格納されている。 The storage unit 114 stores a table in which distortion correction values (correction parameters) for correcting the distortion of captured images are registered, which are determined based on the coordinate position within the image sensor of the camera, for each internal temperature range. is stored in. That is, the storage unit 114 includes a correction parameter corresponding to the internal temperature range R1 (a range in which the internal temperature is greater than or equal to T1 and less than T2), a correction parameter corresponding to the internal temperature range R2 (a range in which the internal temperature is greater than or equal to T2 and less than T3), ..., correction parameters corresponding to each internal temperature range are stored.

決定部113は、撮像部111が有するそれぞれのカメラについて、該カメラについて温度取得部112が取得した内部温度を含む内部温度範囲に対応する補正パラメータを格納部114から取得する。 For each camera included in the imaging unit 111, the determining unit 113 acquires from the storage unit 114 a correction parameter corresponding to an internal temperature range including the internal temperature acquired by the temperature acquiring unit 112 for the camera.

図4は、各内部温度範囲に対応する歪曲補正値の一例を示す図である。図4において横軸はカメラの内部温度、縦軸は歪曲補正値である。図4の例では、内部温度がd1未満の範囲に対しては、歪曲補正値としてv1が登録されている。また、内部温度がd1以上かつd2未満の範囲に対しては、歪曲補正値としてv2が登録されている。また、内部温度がd2以上の範囲に対しては、歪曲補正値としてv3が登録されている。よって、決定部113は、温度取得部112から取得した内部温度がd1未満の場合、歪曲補正値としてv1を取得する。また、決定部113は、温度取得部112から取得した内部温度がd1以上且つd2未満の場合、歪曲補正値としてv2を取得する。また、決定部113は、温度取得部112から取得した内部温度がd2以上の場合、歪曲補正値としてv3を取得する。 FIG. 4 is a diagram showing an example of distortion correction values corresponding to each internal temperature range. In FIG. 4, the horizontal axis represents the internal temperature of the camera, and the vertical axis represents the distortion correction value. In the example of FIG. 4, v1 is registered as the distortion correction value for a range where the internal temperature is less than d1. Further, v2 is registered as the distortion correction value for a range where the internal temperature is d1 or more and less than d2. Further, v3 is registered as a distortion correction value for a range where the internal temperature is d2 or higher. Therefore, when the internal temperature acquired from the temperature acquisition unit 112 is less than d1, the determination unit 113 acquires v1 as the distortion correction value. Furthermore, when the internal temperature acquired from the temperature acquisition unit 112 is greater than or equal to d1 and less than d2, the determination unit 113 acquires v2 as the distortion correction value. Furthermore, when the internal temperature acquired from the temperature acquisition unit 112 is equal to or higher than d2, the determination unit 113 acquires v3 as the distortion correction value.

このように、内部温度の変化に対して歪曲補正値は連続的に変化するのではなく、不連続的に変化する。例えば、内部温度がds(<d1)からde(d1<e<d2)に変化すると、歪曲補正値=v1を用いて歪曲補正されていた画像は歪曲補正値=v2を用いて歪曲補正されることになる。その結果、歪曲補正値が変化する前後で画像に明確な変化が見られ、違和感が発生する。また、テーブルのデータ量を節約するべく、歪曲補正値をv1~v3の3つから、v1,v2の2つに減らすと、違和感は更に増すことになる。 In this way, the distortion correction value does not change continuously in response to changes in internal temperature, but changes discontinuously. For example, when the internal temperature changes from ds (< d1) to de (d1 < e < d2), the image that was distorted using distortion correction value = v1 will be distorted using distortion correction value = v2. It turns out. As a result, a clear change is seen in the image before and after the distortion correction value changes, creating a sense of discomfort. Moreover, if the distortion correction values are reduced from three, v1 to v3, to two, v1 and v2, in order to save the amount of data in the table, the sense of discomfort will further increase.

そこで本実施形態では、着目カメラ(着目撮像部)の内部温度が、該着目カメラに対して設定されている補正パラメータに対応する内部温度範囲から外れている場合、設定条件が満たされていれば、該着目カメラに対して設定されている補正パラメータを、該着目カメラの内部温度に対応する補正パラメータに更新する。なお、初期状態では、それぞれのカメラにはデフォルトの補正パラメータが設定されている。 Therefore, in this embodiment, if the internal temperature of the camera of interest (imaging unit of interest) is outside the internal temperature range corresponding to the correction parameter set for the camera of interest, if the setting conditions are met, , updates the correction parameters set for the camera of interest to correction parameters corresponding to the internal temperature of the camera of interest. Note that in the initial state, default correction parameters are set for each camera.

適用制御部115は、撮像部111が有するそれぞれのカメラについて、該カメラについて温度取得部112が取得した内部温度が、該カメラに対して設定されている補正パラメータに対応する内部温度範囲から外れているか、を判断する。そして、適用制御部115は、撮像部111が有するカメラのうち1つでも「外れている」と判断したカメラがあった場合には、次に、設定条件が満たされているか否かを判断する。そして適用制御部115は、設定条件が満たされていると判断した場合には、「外れている」と判断したカメラについて、該カメラに対して設定されている補正パラメータを、該カメラについて決定部113が格納部114から取得した補正パラメータに更新する。 The application control unit 115 determines, for each camera included in the imaging unit 111, that the internal temperature acquired by the temperature acquisition unit 112 for the camera is out of the internal temperature range corresponding to the correction parameter set for the camera. Determine if there are any. Then, if at least one of the cameras included in the imaging unit 111 is determined to be “out of place,” the application control unit 115 then determines whether or not the setting conditions are met. . If the application control unit 115 determines that the setting conditions are satisfied, the application control unit 115 transfers the correction parameters set for the camera to the determination unit 115 for the camera determined to be “off”. 113 updates the correction parameters to the correction parameters acquired from the storage unit 114.

例えば、着目カメラの内部温度が温度d1よりも低く、且つ着目カメラの歪曲補正値としてv1が設定されているとする。その後、MRシステムを稼働させ続けた結果、着目カメラの内部温度が温度d1よりも高く温度d2よりも低い温度になった場合には、決定部113は、着目カメラの歪曲補正値としてv2を取得する。適用制御部115は、設定条件が満たされた場合に限り、着目カメラに対して設定されている歪曲補正値v1を、現在の着目カメラの内部温度に応じた歪曲補正値v2に更新する。一方、適用制御部115は、設定条件が満たされなかった場合には、着目カメラに対して設定されている歪曲補正値v1を、着目カメラの現在の内部温度に応じた歪曲補正値v2に更新しない。 For example, assume that the internal temperature of the camera of interest is lower than the temperature d1, and v1 is set as the distortion correction value of the camera of interest. After that, as a result of continuing to operate the MR system, if the internal temperature of the camera of interest becomes higher than temperature d1 and lower than temperature d2, the determining unit 113 acquires v2 as the distortion correction value of the camera of interest. do. The application control unit 115 updates the distortion correction value v1 set for the camera of interest to the distortion correction value v2 according to the current internal temperature of the camera of interest only when the setting conditions are met. On the other hand, if the setting conditions are not met, the application control unit 115 updates the distortion correction value v1 set for the camera of interest to a distortion correction value v2 according to the current internal temperature of the camera of interest. do not.

本実施形態では、設定条件は、「撮像部111が有する全てのカメラについて、該カメラについて温度取得部112が取得した内部温度が、該カメラに対して設定されている補正パラメータに対応する内部温度範囲から外れている」という条件であるとする。 In this embodiment, the setting condition is ``For all cameras included in the imaging unit 111, the internal temperature acquired by the temperature acquisition unit 112 for the camera is an internal temperature corresponding to the correction parameter set for the camera. Assume that the condition is ``out of range''.

図1の撮像部111、温度取得部112、決定部113、歪曲補正部116を、右眼に対応する構成、左眼に対応する構成、に分けて示した構成を図5に示す。撮像部111a、温度取得部112a、決定部113a、歪曲補正部116aは左眼用の構成、撮像部111b、温度取得部112b、決定部113b、歪曲補正部116bは右眼用の構成、である。 FIG. 5 shows a configuration in which the imaging unit 111, temperature acquisition unit 112, determination unit 113, and distortion correction unit 116 in FIG. 1 are divided into a configuration corresponding to the right eye and a configuration corresponding to the left eye. The imaging unit 111a, temperature acquisition unit 112a, determination unit 113a, and distortion correction unit 116a are configured for the left eye, and the imaging unit 111b, temperature acquisition unit 112b, determination unit 113b, and distortion correction unit 116b are configured for the right eye. .

図5の構成において、温度取得部112aが取得した内部温度が、撮像部111a(左眼用のカメラ)に対して設定されている補正パラメータに対応する内部温度範囲から外れており、且つ温度取得部112bが取得した内部温度が、撮像部111b(右眼用のカメラ)に対して設定されている補正パラメータに対応する内部温度範囲から外れている、という設定情報が満たされたとする。この場合、適用制御部115は、撮像部111aに対して設定されている補正パラメータを決定部113aが取得した補正パラメータに更新し、撮像部111bに対して設定されている補正パラメータを決定部113bが取得した補正パラメータに更新する。このように、撮像部111aに対して設定されている補正パラメータおよび撮像部111bに対して設定されている補正パラメータの更新を、条件を付けて制御することで、撮像部111aと撮像部111bとでバラバラに撮像画像の変化が起きる、という違和感を軽減することができる。 In the configuration of FIG. 5, the internal temperature acquired by the temperature acquisition unit 112a is outside the internal temperature range corresponding to the correction parameter set for the imaging unit 111a (left eye camera), and the temperature acquisition unit 112a Assume that the setting information that the internal temperature acquired by the unit 112b is outside the internal temperature range corresponding to the correction parameter set for the imaging unit 111b (right eye camera) is satisfied. In this case, the application control unit 115 updates the correction parameters set for the imaging unit 111a to the correction parameters acquired by the determination unit 113a, and updates the correction parameters set for the imaging unit 111b to the determination unit 113b. Update to the correction parameters obtained by. In this way, by controlling the update of the correction parameters set for the imaging unit 111a and the correction parameters set for the imaging unit 111b with conditions, the imaging unit 111a and the imaging unit 111b can be updated. It is possible to reduce the sense of discomfort that occurs when the captured image changes randomly.

次に、情報処理装置100について説明する。情報処理装置100は、PC(パーソナルコンピュータ)やスマートフォン、タブレット型端末装置などのコンピュータ装置である。 Next, the information processing device 100 will be explained. The information processing device 100 is a computer device such as a PC (personal computer), a smartphone, or a tablet terminal device.

処理部101は、撮像部111が有する左眼用のカメラおよび右眼用のカメラのそれぞれの位置姿勢を取得する。それぞれのカメラの位置姿勢を取得する方法には様々な方法があり、特定の取得方法に限らない。例えば、HMD110に取り付けられているセンサ(ジャイロセンサ、磁気センサ、超音波センサ等)により測定されるHMD110の位置姿勢に基づいてそれぞれのカメラの位置姿勢を求めても良い。また、カメラによる撮像画像中の特徴を用いて該カメラの位置姿勢を推定しても良い。 The processing unit 101 acquires the positions and orientations of the left eye camera and the right eye camera included in the imaging unit 111. There are various methods for acquiring the position and orientation of each camera, and the acquisition method is not limited to a specific one. For example, the position and orientation of each camera may be determined based on the position and orientation of the HMD 110 measured by a sensor (gyro sensor, magnetic sensor, ultrasonic sensor, etc.) attached to the HMD 110. Alternatively, the position and orientation of the camera may be estimated using features in an image captured by the camera.

そして処理部101は、左眼用のカメラについて取得した位置姿勢を有する視点から見た仮想物体の画像(左眼用仮想物体画像)、右眼用のカメラについて取得した位置姿勢を有する視点から見た仮想物体の画像(右眼用仮想物体画像)、を生成する。そして処理部101は、左眼用のカメラに対応する撮像画像(歪曲補正部116による補正後)と左眼用仮想物体画像との合成画像(左眼用合成画像)を生成する。また処理部101は、右眼用のカメラに対応する撮像画像(歪曲補正部116による補正後)と右眼用仮想物体画像との合成画像(右眼用合成画像)、を生成する。生成された何れの合成画像も、仮想空間と現実空間とが融合された複合現実空間の画像である。 The processing unit 101 then displays an image of the virtual object seen from a viewpoint having the position and orientation acquired for the camera for the left eye (virtual object image for left eye), and an image of the virtual object seen from the viewpoint having the position and orientation acquired for the camera for the right eye. An image of the virtual object (virtual object image for right eye) is generated. The processing unit 101 then generates a composite image (left-eye composite image) of the image captured by the left-eye camera (after correction by the distortion correction unit 116) and the left-eye virtual object image. The processing unit 101 also generates a composite image (right-eye composite image) of the captured image corresponding to the right-eye camera (after correction by the distortion correction unit 116) and the right-eye virtual object image. All of the generated composite images are images of a mixed reality space in which virtual space and real space are fused.

なお、処理部101は、撮像画像上に仮想物体の画像をズレなく重畳表示するための、HMD110(カメラ)の位置姿勢を高精度に推定する処理を行う。また処理部101は、現実空間中の被写体と仮想物体との間の前後関係を正しく反映させて重畳表示するための、現実空間における被写体までの距離を高精度に推定する処理なども行う。更に処理部101は、ユーザの腕の三次元形状とHMD110からの距離を推定し、ハンドマスキング処理なども行う。そして処理部101は、それぞれのカメラについて生成した合成画像(左眼用合成画像および右眼用合成画像)をHMD110の表示部117に対して出力する。 Note that the processing unit 101 performs a process of estimating the position and orientation of the HMD 110 (camera) with high precision in order to superimpose and display the image of the virtual object on the captured image without deviation. The processing unit 101 also performs processing for estimating the distance to the object in the real space with high accuracy in order to accurately reflect the front-back relationship between the object in the real space and the virtual object and display them in a superimposed manner. Furthermore, the processing unit 101 estimates the three-dimensional shape of the user's arm and the distance from the HMD 110, and performs hand masking processing and the like. The processing unit 101 then outputs the composite images (the left eye composite image and the right eye composite image) generated for each camera to the display unit 117 of the HMD 110.

表示部117は、本実施形態では左眼用の表示画面と右眼用の表示画面とを有しており、左眼用の表示画面には左眼用合成画像を表示し、右眼用の表示画面には右眼用合成画像を表示する。 In this embodiment, the display unit 117 has a display screen for the left eye and a display screen for the right eye, and displays a composite image for the left eye on the display screen for the left eye, and a display screen for the right eye. A composite image for the right eye is displayed on the display screen.

図2は、HMD110および情報処理装置100の動作を示すフローチャートである。ステップS201では、撮像部111は、現実空間を撮像することで、互いに視差の付いた複数の撮像画像(現実空間の画像)を取得する。ステップS202では、温度取得部112は、撮像部111が有するそれぞれのカメラについて、該カメラの内部温度を、測定により取得する。ステップS201における処理と、ステップS202における処理と、は並行して行っても良い。 FIG. 2 is a flowchart showing the operations of the HMD 110 and the information processing device 100. In step S201, the imaging unit 111 acquires a plurality of captured images (images of the real space) with parallax mutually by capturing images of the real space. In step S202, the temperature acquisition unit 112 acquires the internal temperature of each camera included in the imaging unit 111 by measurement. The processing in step S201 and the processing in step S202 may be performed in parallel.

ステップS203では、決定部113は、撮像部111が有するカメラのうち、ステップS202で取得した内部温度と前回のステップS202で取得した内部温度との差が閾値以上となるカメラがあった場合、該カメラの内部温度が変化したと判断する。 In step S203, if there is a camera among the cameras included in the imaging unit 111 in which the difference between the internal temperature acquired in step S202 and the internal temperature acquired in the previous step S202 is equal to or greater than the threshold value, the determining unit 113 determines that It is determined that the internal temperature of the camera has changed.

内部温度が変化したと判断したカメラが1以上有った場合には、処理はステップS204に進み、内部温度が変化したと判断したカメラが1つも無かった場合には、処理はステップS207に進む。 If there is one or more cameras determined that the internal temperature has changed, the process proceeds to step S204, and if there is no camera determined that the internal temperature has changed, the process proceeds to step S207. .

ステップS204では、決定部113は、内部温度が変化したと判断したカメラについて、該カメラの内部温度を含む内部温度範囲に対応する補正パラメータを格納部114から取得する。 In step S204, the determining unit 113 acquires, from the storage unit 114, a correction parameter corresponding to the internal temperature range including the internal temperature of the camera for which the internal temperature has been determined to have changed.

ステップS205では、適用制御部115は、設定条件が満たされているか否かを判断する。この判断の結果、設定条件が満たされている場合には、処理はステップS206に進み、条件が満たされていない場合には、処理はステップS207に進む。 In step S205, the application control unit 115 determines whether the setting conditions are satisfied. As a result of this determination, if the setting conditions are met, the process proceeds to step S206, and if the conditions are not met, the process proceeds to step S207.

ステップS206では適用制御部115は、内部温度が変化したと判断したカメラについて、該カメラに対して設定されている補正パラメータを、該カメラについてステップS204において決定部113が格納部114から取得した補正パラメータに更新する。 In step S206, the application control unit 115 applies the correction parameters set for the camera for which it is determined that the internal temperature has changed to the correction parameters that the determination unit 113 acquired from the storage unit 114 in step S204 for the camera. Update to parameters.

ステップS207では、歪曲補正部116は、撮像部111が有するそれぞれのカメラからの撮像画像を、該カメラに対して設定されている補正パラメータを用いて補正する。そして歪曲補正部116は、撮像部111が有するそれぞれのカメラについて補正した撮像画像を、情報処理装置100に対して送信する。 In step S207, the distortion correction unit 116 corrects the captured images from each camera included in the imaging unit 111 using the correction parameters set for the cameras. The distortion correction unit 116 then transmits the captured images corrected for each camera included in the imaging unit 111 to the information processing device 100.

ステップS208では、処理部101は、左眼用仮想物体画像および右眼用仮想物体画像を生成する。そして処理部101は、左眼用のカメラの補正後の撮像画像と左眼用仮想物体画像との合成画像(左眼用合成画像)、右眼用のカメラの補正後の撮像画像と右眼用仮想物体画像との合成画像(右眼用合成画像)、を生成する。そして処理部101は、それぞれのカメラについて生成した合成画像(左眼用合成画像および右眼用合成画像)をHMD110の表示部117に対して出力する。これにより、表示部117の左眼用の表示画面には左眼用合成画像が表示され、右眼用の表示画面には右眼用合成画像が表示される。 In step S208, the processing unit 101 generates a left eye virtual object image and a right eye virtual object image. The processing unit 101 then generates a composite image of the corrected image taken by the left eye camera and the left eye virtual object image (left eye combined image), a combined image of the corrected image taken by the right eye camera, and the right eye virtual object image. A composite image with the virtual object image for the right eye (composite image for the right eye) is generated. The processing unit 101 then outputs the composite images (the left eye composite image and the right eye composite image) generated for each camera to the display unit 117 of the HMD 110. As a result, the left-eye composite image is displayed on the left-eye display screen of the display unit 117, and the right-eye composite image is displayed on the right-eye display screen.

なお、本実施形態では、HMD110と情報処理装置100とは別個の装置としているが、HMD110と情報処理装置100とを一体化させて、情報処理装置100の機能を有するHMD110としても良い。その場合、HMD110は、自身で撮像した撮像画像と、自身で生成した仮想物体の画像と、の合成画像を生成し、該合成画像を表示部117に表示させることになる。また、情報処理装置100の一部の機能をHMD110に搭載させるようにしても良い。 Note that in this embodiment, the HMD 110 and the information processing device 100 are separate devices, but the HMD 110 and the information processing device 100 may be integrated to form the HMD 110 having the functions of the information processing device 100. In that case, the HMD 110 generates a composite image of the image captured by itself and the image of the virtual object generated by itself, and causes the display unit 117 to display the composite image. Further, some functions of the information processing device 100 may be installed in the HMD 110.

また、歪曲補正部116で用いる補正パラメータは、多項式の係数を用いる補正パラメータであっても良く、様々な補正パラメータが考えられる。また、補正パラメータを用いて行う補正の目的は歪曲の補正や光軸の補正に限らず、これに加えて若しくは代えて他の補正対象を補正しても良い。 Further, the correction parameters used by the distortion correction section 116 may be correction parameters using polynomial coefficients, and various correction parameters can be considered. Further, the purpose of correction performed using correction parameters is not limited to distortion correction or optical axis correction, and other correction targets may be corrected in addition to or in place of these.

また、本実施形態では、補正対象はイメージセンサからの撮像画像に対してデブロッキング処理を施した撮像画像としたが、補正対象はこれに限らず、例えば、イメージセンサからの撮像画像(デブロッキング処理前の撮像画像)を補正対象としても良い。 Furthermore, in this embodiment, the correction target is a captured image obtained by performing deblocking processing on the captured image from the image sensor, but the correction target is not limited to this, and for example, the captured image from the image sensor (deblocking The captured image (before processing) may also be the correction target.

なお、図1に示した機能部のうち、歪曲補正部116、適用制御部115、決定部113、処理部101はハードウェアで実装しても良いし、コンピュータプログラムで実装しても良い。後者の場合、このコンピュータプログラムはHMD110のプロセッサによって実行され、その結果、対応する機能部の機能が実現される。 Note that among the functional units shown in FIG. 1, the distortion correction unit 116, the application control unit 115, the determining unit 113, and the processing unit 101 may be implemented by hardware or by a computer program. In the latter case, this computer program is executed by the processor of HMD 110, and as a result, the functions of the corresponding functional units are realized.

[変形例1]
変形例1を含む以下の各変形例では、第1の実施形態との差分について説明し、以下で特に触れない限りは、第1の実施形態と同様であるものとする。変形例1では、設定条件は「ユーザがHMD110の表示部117を覗いていない」である。この場合、ユーザが表示部117を覗いているか否かを検出するべく、HMD110に近接センサ等の近接判定部を設ける。例えば、近接判定部は、ユーザがHMD110を自身の頭部に装着した場合には、ユーザの眼が表示部117に近接している(ユーザがHMD110の表示部117を覗いている)ことを適用制御部115に通知する。また例えば、近接判定部は、ユーザがHMD110を自身の頭部に装着していない場合には、ユーザの眼が表示部117に近接していない(ユーザがHMD110の表示部117を覗いていない)ことを適用制御部115に通知する。
[Modification 1]
In each of the following modified examples including Modified Example 1, differences from the first embodiment will be explained, and unless otherwise mentioned below, it is assumed that the modified examples are the same as the first embodiment. In Modification 1, the setting condition is "the user is not looking into the display section 117 of the HMD 110". In this case, in order to detect whether the user is looking into the display section 117, the HMD 110 is provided with a proximity determination section such as a proximity sensor. For example, when the user wears the HMD 110 on his or her head, the proximity determination unit applies the fact that the user's eyes are close to the display unit 117 (the user is looking into the display unit 117 of the HMD 110). The control unit 115 is notified. For example, the proximity determination unit determines that when the user is not wearing the HMD 110 on his or her head, the user's eyes are not close to the display unit 117 (the user is not looking into the display unit 117 of the HMD 110). The application control unit 115 is notified of this fact.

適用制御部115は、近接判定部からの通知が「ユーザが表示部117を覗いていない」である場合には、設定条件が満たされたと判断する。一方、適用制御部115は、近接判定部からの通知が「ユーザが表示部117を覗いている」である場合には、設定条件は満たされていないと判断する。このような構成によれば、補正パラメータの切り替えによる画像の変化をユーザが視認することを防ぐことができる。 The application control unit 115 determines that the setting condition is satisfied when the notification from the proximity determination unit is “the user is not looking at the display unit 117”. On the other hand, if the notification from the proximity determination unit is "the user is looking at the display unit 117", the application control unit 115 determines that the setting condition is not satisfied. According to such a configuration, it is possible to prevent the user from visually recognizing changes in the image due to switching of the correction parameters.

[変形例2]
変形例2では、設定条件は「ユーザがHMD110の表示部117を瞬きした状態で覗いている」である。この場合、ユーザが表示部117のどこを見ているのかを検出するべく、HMD110に、目の動きを判定する視線センサ等の視線判定部を設ける。視線判定部は、表示部117の表示画面においてユーザが注視している位置を適用制御部115に通知する。
[Modification 2]
In the second modification, the setting condition is "the user is looking at the display section 117 of the HMD 110 in a blinking state". In this case, in order to detect where the user is looking on the display unit 117, the HMD 110 is provided with a line-of-sight determination unit such as a line-of-sight sensor that determines eye movement. The line of sight determination unit notifies the application control unit 115 of the position that the user is gazing at on the display screen of the display unit 117.

適用制御部115は、視線判定部からユーザの注視位置が通知されている間は、ユーザは瞬きしていないと判断し、その結果、設定条件は満たされていないと判断する。一方、適用制御部115は、視線判定部からユーザの注視位置が通知されなかった場合、ユーザは瞬きしていると判断し、その結果、設定条件は満たされていると判断する。このような構成によれば、補正パラメータの切り替えによる画像の変化をユーザが視認することを防ぐことができる。 The application control unit 115 determines that the user is not blinking while the gaze position of the user is notified from the line of sight determination unit, and as a result, determines that the setting condition is not satisfied. On the other hand, if the gaze position of the user is not notified from the line-of-sight determination unit, the application control unit 115 determines that the user is blinking, and as a result, determines that the setting condition is satisfied. According to such a configuration, it is possible to prevent the user from visually recognizing changes in the image due to switching of the correction parameters.

[その他の変形例]
なお、上述した各機能部のうち、決定部113、適用制御部115、歪曲補正部116については、その代わりとして、機械学習された学習済みモデルを代わりに用いて処理しても良い。その場合には、例えば、その処理部への入力データと出力データとの組合せを学習データとして複数個準備し、それらから機械学習によって知識を獲得し、獲得した知識に基づいて入力データに対する出力データを結果として出力する学習済みモデルを生成する。学習済みモデルは、例えばニューラルネットワークモデルで構成可能である。そして、その学習済みモデルは、上記の決定部113、適用制御部115、歪曲補正部116と同等の処理をするためのプログラムとして、CPUあるいはGPUなどと協働で動作することにより、前記処理部の処理を行う。なお、上記学習済みモデルは、必要に応じて一定の処理後に更新しても良い。
[Other variations]
Note that among the above-mentioned functional units, the determination unit 113, the application control unit 115, and the distortion correction unit 116 may be processed by using a learned model that has been machine learned instead. In that case, for example, multiple combinations of input data and output data to the processing unit are prepared as learning data, knowledge is acquired from them through machine learning, and output data for the input data is determined based on the acquired knowledge. Generate a trained model that outputs as a result. The learned model can be configured, for example, by a neural network model. Then, the trained model is processed by the processing unit as a program for performing the same processing as the determination unit 113, application control unit 115, and distortion correction unit 116 by operating in cooperation with the CPU or GPU. Process. Note that the learned model may be updated after certain processing as necessary.

なお、上記の説明において使用した具体的な数値は、具体的な説明を行うために使用したものであって、上記の実施形態や変形例がこれらの数値に限定されることを意図したものではない。また、以上説明した実施形態や変形例の一部若しくは全部を適宜組み合わせても構わない。また、以上説明した実施形態や変形例の一部若しくは全部を選択的に用いても構わない。 The specific numerical values used in the above explanation are for the purpose of providing a specific explanation, and are not intended to limit the above embodiments and modified examples to these numerical values. do not have. Furthermore, some or all of the embodiments and modifications described above may be combined as appropriate. Furthermore, some or all of the embodiments and modifications described above may be selectively used.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention provides a system or device with a program that implements one or more functions of the embodiments described above via a network or a storage medium, and one or more processors in a computer of the system or device reads and executes the program. This can also be achieved by processing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。 The invention is not limited to the embodiments described above, and various changes and modifications can be made without departing from the spirit and scope of the invention. Therefore, the following claims are hereby appended to disclose the scope of the invention.

100:情報処理装置 101:処理部 110:HMD 111:撮像部 112:温度取得部 113:決定部 114:格納部 115:適用制御部 116:歪曲補正部 117:表示部 100: Information processing device 101: Processing unit 110: HMD 111: Imaging unit 112: Temperature acquisition unit 113: Determination unit 114: Storage unit 115: Application control unit 116: Distortion correction unit 117: Display unit

Claims (8)

複数の撮像部のそれぞれについて、該撮像部による撮像画像を、該撮像部に対して設定されている補正パラメータを用いて補正する補正手段と、
設定条件が満たされていれば、着目撮像部に対して設定されている補正パラメータを、該着目撮像部の内部温度に対応する補正パラメータに更新する制御手段と
を備え
前記制御手段は、前記着目撮像部の内部温度が、該着目撮像部に対して設定されている補正パラメータに対応する内部温度範囲から外れている場合に前記設定条件が満たされていれば、該着目撮像部に対して設定されている補正パラメータを、該着目撮像部の内部温度に対応する補正パラメータに更新し、
前記制御手段は、前記着目撮像部の内部温度が、該着目撮像部に対して設定されている補正パラメータに対応する内部温度範囲から外れている場合であっても、前記設定条件が満たされていなければ、前記更新は行わない
ことを特徴とする頭部装着型表示装置。
For each of the plurality of image capture units, a correction unit that corrects an image captured by the image capture unit using a correction parameter set for the image capture unit;
and a control means for updating the correction parameters set for the imaging section of interest to correction parameters corresponding to the internal temperature of the imaging section of interest, if the setting conditions are met ;
If the setting condition is satisfied when the internal temperature of the imaging section of interest is out of the internal temperature range corresponding to the correction parameter set for the imaging section of interest, the control means updating the correction parameters set for the imaging unit of interest to correction parameters corresponding to the internal temperature of the imaging unit of interest;
The control means is configured to control whether the setting condition is satisfied even when the internal temperature of the imaging unit of interest is outside an internal temperature range corresponding to a correction parameter set for the imaging unit of interest. If not, the above update will not be performed.
A head-mounted display device characterized by:
前記設定条件は、前記複数の撮像部のそれぞれの内部温度が、該撮像部に対して設定されている補正パラメータに対応する内部温度範囲から外れている、という条件であることを特徴とする請求項1に記載の頭部装着型表示装置。 The setting condition is characterized in that the internal temperature of each of the plurality of imaging units is outside an internal temperature range corresponding to a correction parameter set for the imaging unit. Item 1. The head-mounted display device according to item 1. 前記設定条件は、前記頭部装着型表示装置が有する表示部にユーザの眼が近接していない、という条件であることを特徴とする請求項1に記載の頭部装着型表示装置。 2. The head-mounted display device according to claim 1, wherein the setting condition is that the user's eyes are not close to a display unit included in the head-mounted display device. 前記設定条件は、前記頭部装着型表示装置を装着しているユーザが瞬きしている、という条件であることを特徴とする請求項1に記載の頭部装着型表示装置。 The head-mounted display device according to claim 1, wherein the setting condition is that the user wearing the head-mounted display device is blinking. 更に、
内部温度範囲ごとに、該内部温度範囲に対応する補正パラメータが登録されているテーブルを格納する格納手段を備えることを特徴とする請求項1乃至の何れか1項に記載の頭部装着型表示装置。
Furthermore,
The head-mounted type according to any one of claims 1 to 4 , further comprising storage means for storing, for each internal temperature range, a table in which correction parameters corresponding to the internal temperature range are registered. Display device.
更に、
前記頭部装着型表示装置の位置姿勢に基づいて生成された仮想物体の画像と、前記補正手段により補正された撮像画像と、の合成画像である複合現実空間の画像を表示する表示手段を備えることを特徴とする請求項1乃至の何れか1項に記載の頭部装着型表示装置。
Furthermore,
Display means for displaying an image in a mixed reality space that is a composite image of an image of a virtual object generated based on the position and orientation of the head-mounted display device and a captured image corrected by the correction means. The head-mounted display device according to any one of claims 1 to 5 .
頭部装着型表示装置の制御方法であって、
前記頭部装着型表示装置の補正手段が、複数の撮像部のそれぞれについて、該撮像部による撮像画像を、該撮像部に対して設定されている補正パラメータを用いて補正する補正工程と、
前記頭部装着型表示装置の制御手段が、設定条件が満たされていれば、着目撮像部に対して設定されている補正パラメータを、該着目撮像部の内部温度に対応する補正パラメータに更新する制御工程と
を備え
前記制御工程では、前記着目撮像部の内部温度が、該着目撮像部に対して設定されている補正パラメータに対応する内部温度範囲から外れている場合に前記設定条件が満たされていれば、該着目撮像部に対して設定されている補正パラメータを、該着目撮像部の内部温度に対応する補正パラメータに更新し、
前記制御工程では、前記着目撮像部の内部温度が、該着目撮像部に対して設定されている補正パラメータに対応する内部温度範囲から外れている場合であっても、前記設定条件が満たされていなければ、前記更新は行わない
ことを特徴とする頭部装着型表示装置の制御方法。
A method for controlling a head-mounted display device, the method comprising:
a correction step in which the correction means of the head-mounted display device corrects, for each of the plurality of imaging units, an image captured by the imaging unit using a correction parameter set for the imaging unit;
If the setting condition is satisfied, the control means of the head-mounted display device updates a correction parameter set for the imaging section of interest to a correction parameter corresponding to an internal temperature of the imaging section of interest. Equipped with a control process and
In the control step, if the setting condition is satisfied when the internal temperature of the imaging unit of interest is out of the internal temperature range corresponding to the correction parameter set for the imaging unit of interest, updating the correction parameters set for the imaging unit of interest to correction parameters corresponding to the internal temperature of the imaging unit of interest;
In the control step, even if the internal temperature of the imaging unit of interest is outside an internal temperature range corresponding to a correction parameter set for the imaging unit of interest, the setting condition is satisfied. If not, the above update will not be performed.
A method for controlling a head-mounted display device, characterized in that:
頭部装着型表示装置のコンピュータに、請求項7に記載の制御方法の各工程を実行させるためのコンピュータプログラム。A computer program for causing a computer of a head-mounted display device to execute each step of the control method according to claim 7.
JP2019200226A 2019-11-01 2019-11-01 Head-mounted display device, control method for head-mounted display device Active JP7402660B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019200226A JP7402660B2 (en) 2019-11-01 2019-11-01 Head-mounted display device, control method for head-mounted display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019200226A JP7402660B2 (en) 2019-11-01 2019-11-01 Head-mounted display device, control method for head-mounted display device

Publications (2)

Publication Number Publication Date
JP2021072601A JP2021072601A (en) 2021-05-06
JP7402660B2 true JP7402660B2 (en) 2023-12-21

Family

ID=75713518

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019200226A Active JP7402660B2 (en) 2019-11-01 2019-11-01 Head-mounted display device, control method for head-mounted display device

Country Status (1)

Country Link
JP (1) JP7402660B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012147281A (en) 2011-01-13 2012-08-02 Ricoh Co Ltd Image processing apparatus
JP2019062397A (en) 2017-09-26 2019-04-18 キヤノン株式会社 Image processing apparatus, image processing system and image processing method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012147281A (en) 2011-01-13 2012-08-02 Ricoh Co Ltd Image processing apparatus
JP2019062397A (en) 2017-09-26 2019-04-18 キヤノン株式会社 Image processing apparatus, image processing system and image processing method

Also Published As

Publication number Publication date
JP2021072601A (en) 2021-05-06

Similar Documents

Publication Publication Date Title
JP5967597B2 (en) Image display device and image display method
CN110050250B (en) Display synchronized image warping
US10115235B2 (en) Method for controlling head mounted display, and system for implemeting the method
JP6454851B2 (en) 3D gaze point location algorithm
US10546429B2 (en) Augmented reality mirror system
CN114945853A (en) Compensation for distortion in head mounted display systems
US11445170B2 (en) Eyeball camera system and methods for display system calibration
US12010288B2 (en) Information processing device, information processing method, and program
US20180096534A1 (en) Computer program, object tracking method, and display device
JP2018067115A (en) Program, tracking method and tracking device
US11582441B2 (en) Head mounted display apparatus
WO2020003860A1 (en) Information processing device, information processing method, and program
US20210185293A1 (en) Depth data adjustment based on non-visual pose data
JP2016105279A (en) Device and method for processing visual data, and related computer program product
JP6509101B2 (en) Image display apparatus, program and method for displaying an object on a spectacle-like optical see-through type binocular display
US11443719B2 (en) Information processing apparatus and information processing method
JP6500570B2 (en) Image display apparatus and image display method
US20230047470A1 (en) Information processing apparatus, information processing method, and computer-readable recording medium
JP7402660B2 (en) Head-mounted display device, control method for head-mounted display device
JP2018063567A (en) Image processing device, image processing method and program
CN108881892B (en) Anti-dizziness method and system for desktop virtual reality system
KR20150081975A (en) Apparatus for pose estimation of wearable display device using hybrid sensors
JP2020106655A (en) Information processor, information processing method and program
US12061737B2 (en) Image processing apparatus, image processing method, and storage device
CN108171739A (en) Binocular vision solid matching method based on movable information

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221024

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230726

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230731

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230905

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231211

R151 Written notification of patent or utility model registration

Ref document number: 7402660

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151