JP6735557B2 - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP6735557B2
JP6735557B2 JP2015250498A JP2015250498A JP6735557B2 JP 6735557 B2 JP6735557 B2 JP 6735557B2 JP 2015250498 A JP2015250498 A JP 2015250498A JP 2015250498 A JP2015250498 A JP 2015250498A JP 6735557 B2 JP6735557 B2 JP 6735557B2
Authority
JP
Japan
Prior art keywords
color temperature
image
captured image
color
captured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015250498A
Other languages
Japanese (ja)
Other versions
JP2016167797A (en
JP2016167797A5 (en
Inventor
中島 里志
里志 中島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to US15/051,873 priority Critical patent/US10122980B2/en
Publication of JP2016167797A publication Critical patent/JP2016167797A/en
Priority to US16/149,670 priority patent/US10455208B2/en
Publication of JP2016167797A5 publication Critical patent/JP2016167797A5/ja
Priority to US16/572,010 priority patent/US11128851B2/en
Application granted granted Critical
Publication of JP6735557B2 publication Critical patent/JP6735557B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Color Television Image Signal Generators (AREA)
  • Processing Of Color Television Signals (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)
  • Studio Devices (AREA)

Description

本発明は、複数のカメラ間におけるカラーバランス調整技術に関するものである。 The present invention relates to a technique for adjusting color balance between a plurality of cameras.

近年、現実世界と仮想世界とをリアルタイムにシームレスに融合させる技術として複合現実感、いわゆるMR(Mixed Reality)技術が知られている。MR技術の1つに、ビデオシースルーHMD(Head Mounted Display)を利用して、HMD装着者の瞳位置から観察される被写体と略一致する被写体をビデオカメラなどで撮像し、その撮像画像にCG(Computer Graphics)を重畳表示した画像をHMD装着者が観察できる技術が知られている。 In recent years, mixed reality, so-called MR (Mixed Reality) technology is known as a technology for seamlessly fusing the real world and the virtual world in real time. As one of the MR technologies, a video see-through HMD (Head Mounted Display) is used to image a subject that substantially matches the subject observed from the pupil position of the HMD wearer with a video camera or the like, and the captured image is CG ( A technique is known in which an HMD wearer can observe an image in which Computer Graphics) are displayed in a superimposed manner.

特許文献1には、ビデオシースルー型HMDを用いたMRシステムとして、HMD使用者の視界領域を撮像する第一のカメラと、HMDの位置姿勢を検出するための画像を撮像する第二のカメラと、を備えた、HMDを用いる技術が開示されている。 Patent Document 1 discloses, as an MR system using a video see-through HMD, a first camera that captures a field of view of an HMD user, and a second camera that captures an image for detecting the position and orientation of the HMD. , Using HMD, is disclosed.

特許文献2には、ビデオシースルー型HMDを用いたMRシステムとして、右目用と左目用の複数のカメラ間で、撮像した輝度情報から左右の撮像画像で明るさや色味を一致させる技術が開示されている。 Patent Document 2 discloses, as an MR system using a video see-through HMD, a technique of matching brightness and tint between left and right picked-up images based on picked-up luminance information between a plurality of right-eye and left-eye cameras. ing.

特開2004−205711号公報JP, 2004-205711, A 特許第4522307号Patent No. 4522307

しかしながら、上記の特許文献に開示されている技術には以下のような問題点があった。 However, the techniques disclosed in the above patent documents have the following problems.

特許文献2には、複数のカメラで撮像した複数の異なる輝度情報から輝度の平均化処理などによって得られる共通の輝度値を使って統一的なWB(ホワイトバランス)補正制御を行うことが開示されている。しかし、特許文献2に開示されている技術では、複数のカメラ間で特性や設定等が許容範囲を超えるような場合には、該複数のカメラ間で色味があった統一的なWB補正制御を行うことができなかった。 Patent Document 2 discloses performing unified WB (white balance) correction control using a common luminance value obtained by averaging luminance from a plurality of different luminance information captured by a plurality of cameras. ing. However, in the technique disclosed in Patent Document 2, if the characteristics, settings, etc. of a plurality of cameras exceed an allowable range, a unified WB correction control with a tint between the plurality of cameras is provided. Could not be done.

特許文献1についても同様で、特許文献1に開示されているような異なる種類のカメラ(撮像素子)を備えた構成では、異なる撮像素子であったり、異なる用途のため用途に応じた輝度調整処理がなされていたり、などの理由で複数カメラ間で共通の輝度値を持つことができず、統一的なWB補正制御ができないという問題がある。 The same applies to Patent Document 1, and in a configuration including different types of cameras (imaging devices) as disclosed in Patent Document 1, a different image sensor or a brightness adjustment process according to the application for different applications is performed. However, there is a problem in that it is not possible to have a common brightness value among a plurality of cameras due to such reasons as described above, and it is not possible to perform unified WB correction control.

本発明はこのような問題に鑑みてなされたものであり、複数のカメラ間で色味があった統一的なカラーバランス調整を行うための技術を提供する。 The present invention has been made in view of such a problem, and provides a technique for performing uniform color balance adjustment in which a plurality of cameras have different colors.

本発明の一様態は、第1の撮像装置によって撮像された第1の撮像画像と前記第1の撮像装置と異なる第2の撮像装置によって撮像された第2の撮像画像と、のそれぞれにおける色温度を取得する取得手段と、
前記取得手段が取得した色温度の一部もしくは全部の平均色温度を、前記第1の撮像装置と前記第2の撮像装置とで共通の色温度として決定する決定手段と、
前記決定手段が決定した色温度に基づいて、前記第1の撮像画像及び前記第2の撮像画像におけるカラーバランス調整を制御する制御手段と
を備えることを特徴とする。
According to one aspect of the present invention, colors in each of a first captured image captured by a first imaging device and a second captured image captured by a second imaging device different from the first imaging device. An acquisition means for acquiring the temperature,
Determination means for determining an average color temperature of a part or all of the color temperatures acquired by the acquisition means as a color temperature common to the first image pickup device and the second image pickup device;
Control means for controlling color balance adjustment in the first captured image and the second captured image based on the color temperature determined by the determination means.

本発明の構成によれば、複数のカメラ間で色味があった統一的なカラーバランス調整を行うことができる。 According to the configuration of the present invention, it is possible to perform uniform color balance adjustment that has a tint among a plurality of cameras.

頭部装着型表示装置200が行う処理のフローチャート。9 is a flowchart of processing performed by the head-mounted display device 200. MRシステムの構成例を示す図。The figure which shows the structural example of MR system. 頭部装着型表示装置200内の主要な構成例を示す図。The figure which shows the main structural examples in the head-mounted display device 200. 頭部装着型表示装置200の構成を説明する図。The figure explaining the structure of the head mounted display device 200. FIG. 画像処理部113のより詳細な構成例を示すブロック図。3 is a block diagram showing a more detailed configuration example of the image processing unit 113. FIG. 画像中の自然特徴及びその特徴点を示す図。The figure which shows the natural feature and its feature point in an image. ステップS101〜S104、S161〜S164の処理のフローチャート。The flowchart of the process of step S101-S104, S161-S164. 色温度検出テーブルの構成例を示す図。The figure which shows the structural example of a color temperature detection table. 色温度における色味を示す図。The figure which shows the tint in color temperature. ステップS190で参照するテーブルの構成例を示す図。The figure which shows the structural example of the table referred in step S190. 第1の実施形態の変形例1における頭部装着型表示装置200の構成例を示す図。The figure which shows the structural example of the head mounted display apparatus 200 in the modification 1 of 1st Embodiment. 第2の実施形態における頭部装着型表示装置200の構成例を示す図。The figure which shows the structural example of the head mounted display apparatus 200 in 2nd Embodiment. 頭部装着型表示装置200が行う処理のフローチャート。9 is a flowchart of processing performed by the head-mounted display device 200. 色温度の検出精度がばらつく現象と優先カメラを決定する方法を説明する図。FIG. 6 is a diagram illustrating a phenomenon in which the detection accuracy of color temperature varies and a method of determining a priority camera. 図14(b)に色温度検出テーブル1501、1502を重ねたものである。The color temperature detection tables 1501 and 1502 are overlaid on FIG.

以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載した構成の具体的な実施例の1つである。 Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings. In addition, the embodiment described below shows an example of the case where the present invention is specifically implemented, and is one of the specific examples of the configurations described in the claims.

[第1の実施形態]
以下では、次のような画像処理装置の一例について説明する。この画像処理装置は、第1の撮像装置によって撮像された第1の撮像画像と第1の撮像装置と異なる第2の撮像装置によって撮像された第2の撮像画像とのそれぞれにおける色温度を取得する。そして、この画像処理装置は、該取得した色温度に基づいて、第1の撮像装置と第2の撮像装置とで共通の色温度を決定し、該決定した色温度に基づいて、第1の撮像画像及び第2の撮像画像におけるカラーバランス調整を制御する。この一例では、画像処理装置が、HMD等の頭部装着型表示装置である場合について説明するが、このような構成を有する画像処理装置の適用先は頭部装着型表示装置に限るものではなく、例えば、1つの画面上に、ストライプ状に左眼用と右眼用の画像を表示する立体表示装置に適用しても構わない。
[First Embodiment]
Hereinafter, an example of the following image processing device will be described. The image processing apparatus acquires color temperatures of a first captured image captured by the first image capturing apparatus and a second captured image captured by a second image capturing apparatus different from the first image capturing apparatus. To do. Then, the image processing device determines a common color temperature between the first image pickup device and the second image pickup device based on the acquired color temperature, and based on the determined color temperature, the first color temperature is determined. The color balance adjustment in the captured image and the second captured image is controlled. In this example, the case where the image processing device is a head-mounted display device such as an HMD will be described. However, the application destination of the image processing device having such a configuration is not limited to the head-mounted display device. For example, the present invention may be applied to a stereoscopic display device that displays a left-eye image and a right-eye image in a stripe shape on one screen.

先ず、本実施形態に係る頭部装着型表示装置を含むMRシステムの構成例について、図2を用いて説明する。図2に示す如くMRシステムは、ユーザの眼前に現実空間と仮想空間(仮想物体)とが融合した空間である複合現実空間の画像を提供する頭部装着型表示装置200、複合現実空間の画像を生成して頭部装着型表示装置200に提供するコンピュータ装置250、頭部装着型表示装置200とコンピュータ装置250とを繋ぐケーブル240を有する。なお、ケーブル240は有線の通信経路として示しているが、代わりに無線の通信経路を用いても構わない。 First, a configuration example of an MR system including the head-mounted display device according to this embodiment will be described with reference to FIG. As shown in FIG. 2, the MR system is a head-mounted display device 200 that provides an image of a mixed reality space, which is a space in which a real space and a virtual space (virtual object) are fused in front of the user, an image of the mixed reality space. And a cable 240 connecting the head-mounted display device 200 and the computer device 250. Although the cable 240 is shown as a wired communication path, a wireless communication path may be used instead.

次に、頭部装着型表示装置200の構成についてより詳細に説明する。頭部装着型表示装置200は、頭部装着型表示装置200の位置姿勢を求めるために使用される画像を撮像するサブカメラ(右目用サブカメラ21R及び左目用サブカメラ21L)、複合現実空間の画像を生成する際に仮想空間の画像と合成する現実空間の画像を撮像するメインカメラ(右目用メインカメラ20R及び左目用メインカメラ20L)を有する、所謂ビデオシースルー型の頭部装着型表示装置である。 Next, the configuration of the head-mounted display device 200 will be described in more detail. The head-mounted display device 200 includes a sub camera (a right-eye sub camera 21R and a left-eye sub camera 21L) that captures an image used to determine the position and orientation of the head-mounted display device 200, and a mixed reality space. A so-called video see-through head-mounted display device having a main camera (a right-eye main camera 20R and a left-eye main camera 20L) that captures an image of a real space to be combined with an image of a virtual space when an image is generated. is there.

サブカメラは、現実空間中に配されているマーカ210を撮像するためのカメラであり、コンピュータ装置250は、サブカメラにより撮像されたマーカ210の画像を用いて周知の処理を実行することで頭部装着型表示装置200の位置姿勢を計算することができる。より厳密には、左目用サブカメラ21Lによる撮像画像を用いて左目用メインカメラ20Lの位置姿勢を計算すると共に、右目用サブカメラ21Rによる撮像画像を用いて右目用メインカメラ20Rの位置姿勢を計算(導出)する。そしてコンピュータ装置250は、メインカメラの位置姿勢に基づいて該メインカメラの位置姿勢から見た仮想空間の画像を生成し、該生成した仮想空間の画像とメインカメラによる現実空間の撮像画像と合成することで、複合現実空間の画像を生成する。より厳密には、左目用メインカメラ20Lの位置姿勢に基づいて該左目用メインカメラ20Lの位置姿勢から見た仮想空間の画像を生成し、該生成した仮想空間の画像と左目用メインカメラ20Lによる現実空間の撮像画像と合成することで、ユーザの左目に対して提供する複合現実空間の画像を生成する。また、右目用メインカメラ20Rの位置姿勢に基づいて該右目用メインカメラ20Rの位置姿勢から見た仮想空間の画像を生成し、該生成した仮想空間の画像と右目用メインカメラ20Rによる現実空間の撮像画像と合成することで、ユーザの右目に対して提供する複合現実空間の画像を生成する。そしてコンピュータ装置250は、該生成した複合現実空間の画像(右目用の複合現実空間の画像及び左目用の複合現実空間の画像)を、頭部装着型表示装置200に対して送出する。 The sub-camera is a camera for capturing an image of the marker 210 arranged in the physical space, and the computer device 250 executes a known process by using the image of the marker 210 captured by the sub-camera. The position and orientation of the component-mounted display device 200 can be calculated. More precisely, the position and orientation of the left-eye main camera 20L are calculated using the image captured by the left-eye sub camera 21L, and the position and orientation of the right-eye main camera 20R are calculated using the image captured by the right-eye sub camera 21R. (Derive). Then, the computer device 250 generates an image of the virtual space viewed from the position and orientation of the main camera based on the position and orientation of the main camera, and combines the generated image of the virtual space and the captured image of the real space by the main camera. By doing so, an image of the mixed reality space is generated. More precisely, an image of a virtual space viewed from the position and orientation of the left-eye main camera 20L is generated based on the position and orientation of the left-eye main camera 20L, and the generated virtual space image and the left-eye main camera 20L are used. An image of the mixed reality space to be provided to the user's left eye is generated by combining the image with the captured image of the real space. Further, an image of the virtual space viewed from the position and orientation of the right-eye main camera 20R is generated based on the position and orientation of the right-eye main camera 20R, and the generated virtual space image and the real-space of the right-eye main camera 20R are displayed. An image of the mixed reality space provided to the right eye of the user is generated by combining the captured image. Then, the computer device 250 sends the generated mixed reality space image (the image of the mixed reality space for the right eye and the image of the mixed reality space for the left eye) to the head-mounted display device 200.

このように、メインカメラとサブカメラとは、その用途が異なる。図2に示す如く、メインカメラは、ユーザに提供する現実空間の画像を撮像する(ユーザの視界領域を撮像する)ことを目的としているため、使用する撮像センサは左右方向の画角が広くてノイズが少ない、色域が広いなどの特徴を持ったタイプ(仮にXタイプと定義する)の撮像センサを使用する。本実施形態では、Xタイプとして、ローリングシャッター方式のタイプを用いる。一方、サブカメラは、位置姿勢を求めるために使用される画像を撮像することを目的としているため、マーカがある上下方向の画角が広くて、像流れと呼ばれるマーカの動体歪みが発生しないグローバルシャッター方式のタイプ(仮にYタイプと定義する)の撮像センサを使用する。 Thus, the main camera and the sub camera have different uses. As shown in FIG. 2, since the main camera is intended to capture an image of the physical space provided to the user (image of the user's visual field), the image sensor used has a wide horizontal angle of view. An image sensor of a type (tentatively defined as X type) having characteristics such as low noise and wide color gamut is used. In this embodiment, a rolling shutter type is used as the X type. On the other hand, since the sub camera aims to capture an image used for obtaining the position and orientation, the sub camera has a wide angle of view in the vertical direction where the marker is present, and a dynamic body distortion of the marker called image drift does not occur. An image sensor of the shutter type (tentatively defined as Y type) is used.

なお、サブカメラの数は、撮像範囲を広げてマーカの撮像可能性を高めるために2つ以上であっても良いし、検出精度は低くなるがコストを下げるため、または逆により左右方向にも画角の広い高性能カメラであれば1つだけでも良い。 The number of sub-cameras may be two or more in order to widen the imaging range and increase the imaging possibility of the marker, or to reduce the detection accuracy but reduce the cost, or vice versa. Only one high-performance camera with a wide angle of view may be used.

頭部装着型表示装置200内の主要な構成例を図3に示す。右目用、左目用とで対の構成となるため、図3では片方のみ図示している。頭部装着型表示装置200は、右目用、左目用の小型の液晶ディスプレイなどからなる表示素子121と、それらに表示された右目用、左目用の画像を拡大表示するための自由曲面プリズムなどの表示光学系320と、頭部装着型表示装置200装着者の瞳300の位置から観察される被写体と略一致する被写体を撮像するためのメインカメラ20と、瞳300の位置とメインカメラ20の位置を略一致させるための撮像光学系310と、を有する。不図示のサブカメラは、頭部装着型表示装置200装着者の顔中心に対してメインカメラ20より外側に配置している。 FIG. 3 shows a main configuration example of the head-mounted display device 200. Since there is a pair of configurations for the right eye and the left eye, only one is shown in FIG. The head-mounted display device 200 includes a display element 121 such as a small liquid crystal display for the right eye and a left eye, and a free-form surface prism for enlarging and displaying the images for the right eye and the left eye displayed on them. The display optical system 320, the main camera 20 for taking an image of a subject that substantially matches the subject observed from the position of the pupil 300 of the wearer of the head-mounted display device 200, the position of the pupil 300, and the position of the main camera 20. And an image pickup optical system 310 for making them substantially coincide with each other. The sub camera (not shown) is arranged outside the main camera 20 with respect to the face center of the wearer of the head-mounted display device 200.

次に、頭部装着型表示装置200のハードウェア構成例について、図4(a)のブロック図を用いて説明する。 Next, a hardware configuration example of the head-mounted display device 200 will be described with reference to the block diagram of FIG.

右目メイン撮像ユニット100Rは、右目用メインカメラ20R、右目用メインカメラ20Rの光学系、右目用メインカメラ20R用の様々な処理回路、を含む撮像ユニットである。 The right-eye main image pickup unit 100R is an image pickup unit including a right-eye main camera 20R, an optical system of the right-eye main camera 20R, and various processing circuits for the right-eye main camera 20R.

左目メイン撮像ユニット100Lは、左目用メインカメラ20L、左目用メインカメラ20Lの光学系、左目用メインカメラ20L用の様々な処理回路、を含む撮像ユニットである。 The left-eye main image pickup unit 100L is an image pickup unit including a left-eye main camera 20L, an optical system of the left-eye main camera 20L, and various processing circuits for the left-eye main camera 20L.

右サブ撮像ユニット110Rは、右目用サブカメラ21R、右目用サブカメラ21Rの光学系、右目用サブカメラ21R用の様々な処理回路、を含む撮像ユニットである。 The right sub imaging unit 110R is an imaging unit that includes the right eye sub camera 21R, the optical system of the right eye sub camera 21R, and various processing circuits for the right eye sub camera 21R.

左サブ撮像ユニット110Lは、左目用サブカメラ21L、左目用サブカメラ21Lの光学系、左目用サブカメラ21L用の様々な処理回路、を含む撮像ユニットである。 The left sub imaging unit 110L is an imaging unit including the left eye sub camera 21L, the optical system of the left eye sub camera 21L, and various processing circuits for the left eye sub camera 21L.

右目用表示ユニット120Rは、頭部装着型表示装置200を装着したユーザの右目の眼前に位置するように頭部装着型表示装置200に取り付けられたものであり、コンピュータ装置250側で生成された右目用の複合現実空間の画像を表示するものである。 The right-eye display unit 120R is attached to the head-mounted display device 200 so as to be positioned in front of the right eye of the user who wears the head-mounted display device 200, and is generated on the computer device 250 side. The image of the mixed reality space for the right eye is displayed.

左目用表示ユニット120Lは、頭部装着型表示装置200を装着したユーザの左目の眼前に位置するように頭部装着型表示装置200に取り付けられたものであり、コンピュータ装置250側で生成された左目用の複合現実空間の画像を表示するものである。 The left-eye display unit 120L is attached to the head-mounted display device 200 so as to be positioned in front of the left eye of the user who wears the head-mounted display device 200, and is generated on the computer device 250 side. The image of the mixed reality space for the left eye is displayed.

MPU130は、頭部装着型表示装置200内のメモリ131に格納されているコンピュータプログラムやデータを用いて処理を実行することで、バス190に接続されている上記の各機能部の動作制御を行うと共に、頭部装着型表示装置200全体の動作制御を行う。 The MPU 130 executes processing using a computer program or data stored in the memory 131 in the head-mounted display device 200 to control the operation of each of the above functional units connected to the bus 190. At the same time, operation control of the entire head-mounted display device 200 is performed.

メモリ131は、MPU130が行うものとして後述する各処理をMPU130に実行させるためのコンピュータプログラムやデータ、以下の説明において既知の情報として説明する情報、を格納するためのメモリ、MPU130が各種の処理を実行する際に用いるワークエリアを有するメモリ、等、様々なメモリを含むものである。 The memory 131 is a memory for storing a computer program or data for causing the MPU 130 to execute each process described later as what the MPU 130 executes, information described as known information in the following description, and the MPU 130 executes various processes. It includes various memories such as a memory having a work area used for execution.

右目メイン撮像ユニット100R、左目メイン撮像ユニット100L、右サブ撮像ユニット110R、左サブ撮像ユニット110L、のそれぞれに適用可能な撮像ユニットの構成例を図4(b)に示す。 FIG. 4B shows a configuration example of imaging units applicable to each of the right-eye main imaging unit 100R, the left-eye main imaging unit 100L, the right sub-imaging unit 110R, and the left sub-imaging unit 110L.

撮像素子111はCCDイメージセンサ等、外界の光をアナログ電気信号に変換して出力するものであり、TG(タイミングジェネレータ)115、TG115からの信号を受けて垂直方向の信号を生成するV−Dr(Vドライバ)116、からの信号に応じて駆動される。 The image sensor 111 is a device such as a CCD image sensor that converts external light into an analog electric signal and outputs the analog electric signal. The image sensor 111 receives a signal from the TG (timing generator) 115 and the TG 115 and generates a vertical signal V-Dr. It is driven according to a signal from the (V driver) 116.

A/D変換部112は、撮像素子111から出力されたアナログ電気信号をディジタル電気信号に変換する。 The A/D converter 112 converts the analog electric signal output from the image sensor 111 into a digital electric signal.

画像処理部113は、A/D変換部112により変換されたディジタル電気信号に対して様々な画像処理を施すことで画像処理済みの撮像画像を生成して出力する。この画像処理には、後述するカラーバランスの調整処理も含まれている。 The image processing unit 113 performs various image processing on the digital electric signal converted by the A/D conversion unit 112 to generate and output a captured image that has been subjected to image processing. This image processing also includes color balance adjustment processing, which will be described later.

撮像画像出力部114は、画像処理部113により画像処理が施された撮像画像を適当な画像フォーマットでもってコンピュータ装置250に対して出力するものである。なお、撮像画像出力部114による出力先はコンピュータ装置250に限るものではない。 The picked-up image output unit 114 outputs the picked-up image subjected to the image processing by the image processing unit 113 to the computer device 250 in an appropriate image format. The output destination of the captured image output unit 114 is not limited to the computer device 250.

右目用表示ユニット120R、左目用表示ユニット120L、のそれぞれに適用可能な表示ユニットの構成例を図4(c)に示す。 FIG. 4C shows a configuration example of display units applicable to each of the right-eye display unit 120R and the left-eye display unit 120L.

表示画像入力部123は、コンピュータ装置250から出力された複合現実空間の画像を受け、該受けた複合現実空間の画像を表示駆動部122に転送する。 The display image input unit 123 receives the image of the mixed reality space output from the computer device 250, and transfers the received image of the mixed reality space to the display drive unit 122.

表示駆動部122は、表示素子121を駆動して、表示画像入力部123から転送された複合現実空間の画像を表示させる。 The display drive unit 122 drives the display element 121 to display the image of the mixed reality space transferred from the display image input unit 123.

表示素子121は、p−SiTFTやLCOSなどの表示素子であって、表示駆動部122によって駆動され、表示画像入力部123がコンピュータ装置250から受けた複合現実空間の画像を表示する。 The display element 121 is a display element such as p-SiTFT or LCOS, and is driven by the display driving unit 122 to display the image in the mixed reality space received by the display image input unit 123 from the computer device 250.

なお、上記の通り、コンピュータ装置250は、サブカメラによる撮像画像を用いてメインカメラの位置姿勢を算出するのであるが、より詳しくは、撮像画像から画像解析によりマーカを検出し、該検出したマーカの大きさや形、塗りつぶしのパターンなどの情報を取得する。そしてコンピュータ装置250は、マーカ検出により取得したこれらの情報から、マーカと頭部装着型表示装置200との間の相対的な位置関係、頭部装着型表示装置200を装着しているユーザがマーカを観察している方向、に関する三次元位置姿勢情報を算出する。このように、複数のマーカを使用し、指標配置情報として各マーカの位置関係をあらかじめ定義しておくことによって、それらの相対的位置関係から、マーカを観察している方向を算出することが可能となる。したがって、内部の塗りつぶしパターンによって方向まで識別が可能なマーカではなく、例えば、カラーマーカや、LEDなどの発光素子のような方向性の情報を持たない一次元の情報を持つマーカを利用することも可能となる。また、図2で示すようなマーカ210ではなく、図6のように例えばドア600、テーブル605、窓610の輪郭線のような画像中の自然特徴や、画像中の特定の色などを抽出し、それらを用いて三次元位置姿勢情報を算出することも可能である。650、655は「×」マークでドア600の特徴点の一部を示している。同一種類のマーカを複数用いたり、数種類のマーカを同時に用いたり、マーカ情報と画像中の特徴点の情報を組み合わせて用いることによって、より高い精度の三次元位置姿勢情報を生成できる。 As described above, the computer device 250 calculates the position and orientation of the main camera using the image captured by the sub camera. More specifically, the marker is detected from the captured image by image analysis and the detected marker is detected. Acquire information such as the size and shape of, and the fill pattern. Then, the computer device 250 uses the information obtained by the marker detection to determine the relative positional relationship between the marker and the head-mounted display device 200, and the user who wears the head-mounted display device 200. 3D position/orientation information regarding the direction in which is observed. In this way, by using a plurality of markers and defining the positional relationship of each marker in advance as the marker placement information, it is possible to calculate the direction in which the marker is observed from the relative positional relationship. Becomes Therefore, it is possible to use a marker having one-dimensional information that does not have directional information, such as a color marker or a light emitting element such as an LED, instead of a marker that can identify the direction by an internal filling pattern. It will be possible. Further, instead of the marker 210 as shown in FIG. 2, natural features in the image such as the outlines of the door 600, the table 605, and the window 610 as shown in FIG. 6 and a specific color in the image are extracted. It is also possible to calculate three-dimensional position and orientation information using them. Reference numerals 650 and 655 denote "x" marks, which indicate some of the characteristic points of the door 600. By using a plurality of markers of the same type, using several types of markers at the same time, or combining the marker information and the information of the feature points in the image, it is possible to generate more accurate three-dimensional position/orientation information.

以上の構成により、観察者は頭部装着型表示装置200を自身の頭部に装着することで、現実空間と仮想空間とがリアルタイムにシームレスに融合した複合現実空間を体験することができる。 With the above configuration, the observer can experience the mixed reality space in which the real space and the virtual space are seamlessly fused in real time by mounting the head-mounted display device 200 on his/her head.

次に、画像処理部113のより詳細な構成例を図5のブロック図を用いて説明する。 Next, a more detailed configuration example of the image processing unit 113 will be described with reference to the block diagram of FIG.

色補間部501は、A/D変換部112から出力されたディジタル電気信号が表す画像(各画素がR,G,Bの何れかであって、例えばベイヤーパターンの画像)において隣接する画素(隣接する画素は互いに色が異なる画素)から補間法などによって、撮像画像を構成する各画素におけるR,G,Bのそれぞれの画素値を求める(復元する)。 The color interpolating unit 501 includes adjacent pixels (adjacent pixels) in an image represented by the digital electric signal output from the A/D conversion unit 112 (each pixel is one of R, G, and B, for example, a Bayer pattern image). Pixels having different colors from each other are obtained (restored) from the R, G, and B pixel values of each pixel forming the captured image by an interpolation method or the like.

WB検波部505は、色補間部501により生成された撮像画像全体若しくはその部分領域(例えば撮像画像の中央位置を中心とする規定サイズの部分領域)を対象領域とし、該対象領域内の平均画素値(Rの平均画素値、Gの平均画素値、Bの平均画素値)を求める。対象領域内のRの平均画素値は、対象領域に含まれている全ての画素のR成分の画素値の合計値を求め、該合計値を対象領域に含まれている画素の数で割った結果である。これは、Gの平均画素値、Bの平均画素値を求める場合も同様である。そしてWB検波部505は、対象領域について求めた、R,G,Bのそれぞれの平均画素値をMPU130に対して送出する。 The WB detection unit 505 sets the entire captured image generated by the color interpolation unit 501 or a partial region thereof (for example, a partial region of a specified size centered on the center position of the captured image) as a target region, and an average pixel in the target region. Values (average pixel value of R, average pixel value of G, average pixel value of B) are obtained. For the average pixel value of R in the target area, the total value of the pixel values of the R components of all the pixels included in the target area is calculated, and the total value is divided by the number of pixels included in the target area. The result. This is the same when obtaining the average pixel value of G and the average pixel value of B. Then, the WB detection unit 505 sends the average pixel value of each of R, G, and B obtained for the target area to the MPU 130.

WB補正部502は、MPU130がRの平均画素値及びBの平均画素値に基づいて決定した、R用のWB補正値、G用のWB補正値、B用のWB補正値、を受け、色補間部501により生成された撮像画像に対して、これらのWB補正値に応じたゲイン補正等の処理を施すことで、無彩色のカラーバランスを調整し、これにより撮像画像に対するWB補正を実現する。 The WB correction unit 502 receives the WB correction value for R, the WB correction value for G, and the WB correction value for B, which the MPU 130 has determined based on the average pixel value of R and the average pixel value of B, and receives the color. By performing processing such as gain correction according to these WB correction values on the captured image generated by the interpolation unit 501, the achromatic color balance is adjusted, and thereby the WB correction for the captured image is realized. ..

色補正部503は、WB補正部502によりカラーバランスが調整された撮像画像の色味を補正し、ガンマ補正部504は、色補正部503により色味が補正された撮像画像の明るさの階調を補正する。 The color correction unit 503 corrects the tint of the captured image whose color balance is adjusted by the WB correction unit 502, and the gamma correction unit 504 is the brightness level of the captured image whose color tint is corrected by the color correction unit 503. Correct the key.

次に、頭部装着型表示装置200(主に画像処理部113及びMPU130)が行う処理について、同処理のフローチャートを示す図1を用いて説明する。 Next, a process performed by the head-mounted display device 200 (mainly the image processing unit 113 and the MPU 130) will be described using FIG. 1 showing a flowchart of the process.

<ステップS101>
右目メイン撮像ユニット100R及びMPU130は図7(a)のフローチャートに従った処理を行うことで、該右目メイン撮像ユニット100Rによる撮像画像全体若しくはその部分領域における色温度を取得する。
<Step S101>
The right-eye main image pickup unit 100R and the MPU 130 obtain the color temperature of the entire image captured by the right-eye main image pickup unit 100R or a partial region thereof by performing the processing according to the flowchart of FIG. 7A.

<ステップS102>
左目メイン撮像ユニット100L及びMPU130は図7(a)のフローチャートに従った処理を行うことで、該左目メイン撮像ユニット100Lによる撮像画像全体若しくはその部分領域における色温度を取得する。
<Step S102>
The left-eye main image pickup unit 100L and the MPU 130 obtain the color temperature of the entire image captured by the left-eye main image pickup unit 100L or a partial region thereof by performing the process according to the flowchart of FIG. 7A.

<ステップS103>
右サブ撮像ユニット110R及びMPU130は図7(a)のフローチャートに従った処理を行うことで、該右サブ撮像ユニット110Rによる撮像画像全体若しくはその部分領域における色温度を取得する。
<Step S103>
The right sub-imaging unit 110R and the MPU 130 obtain the color temperature of the entire image captured by the right sub-imaging unit 110R or a partial region thereof by performing the processing according to the flowchart of FIG. 7A.

<ステップS104>
左サブ撮像ユニット110L及びMPU130は図7(a)のフローチャートに従った処理を行うことで、該左サブ撮像ユニット110Lによる撮像画像全体若しくはその部分領域における色温度を取得する。
<Step S104>
The left sub-imaging unit 110L and the MPU 130 obtain the color temperature of the entire image captured by the left sub-imaging unit 110L or a partial region thereof by performing the process according to the flowchart of FIG. 7A.

以下では、ステップS101において図7(a)のフローチャートに従った処理を実行した場合について説明する。この場合、右目メイン撮像ユニット100R内の機能部及びMPU130によって図7(a)のフローチャートに従った処理が実行される。なお、ステップS102において図7(a)のフローチャートに従った処理を実行する場合、左目メイン撮像ユニット100L内の機能部及びMPU130によって図7(a)のフローチャートに従った処理が実行されることになる。また、ステップS103において図7(a)のフローチャートに従った処理を実行する場合、右サブ撮像ユニット110R内の機能部及びMPU130によって図7(a)のフローチャートに従った処理が実行されることになる。また、ステップS104において図7(a)のフローチャートに従った処理を実行する場合、左サブ撮像ユニット110L内の機能部及びMPU130によって図7(a)のフローチャートに従った処理が実行されることになる。 Hereinafter, a case will be described in which the process according to the flowchart of FIG. 7A is executed in step S101. In this case, the functional unit in the right-eye main image pickup unit 100R and the MPU 130 execute the process according to the flowchart of FIG. In addition, when performing the processing according to the flowchart of FIG. 7A in step S102, the processing according to the flowchart of FIG. 7A is performed by the functional unit in the left-eye main imaging unit 100L and the MPU 130. Become. Further, when the process according to the flowchart of FIG. 7A is executed in step S103, the functional unit in the right sub imaging unit 110R and the MPU 130 execute the process according to the flowchart of FIG. 7A. Become. Further, when the processing according to the flowchart of FIG. 7A is executed in step S104, the processing according to the flowchart of FIG. 7A is executed by the functional unit in the left sub imaging unit 110L and the MPU 130. Become.

<ステップS180>
WB検波部505は、色補間部501により生成された撮像画像全体若しくはその部分領域を対象領域とし、該対象領域内の平均画素値(Rの平均画素値、Gの平均画素値、Bの平均画素値)を求める。そしてWB検波部505は、対象領域について求めた、R,G,Bのそれぞれの平均画素値をMPU130に対して送出する。
<Step S180>
The WB detection unit 505 sets the entire captured image generated by the color interpolation unit 501 or a partial region thereof as a target region, and average pixel values (average pixel value of R, average pixel value of G, average of B) in the target region. Pixel value). Then, the WB detection unit 505 sends the average pixel value of each of R, G, and B obtained for the target area to the MPU 130.

<ステップS181>
MPU130は、WB検波部505から受けたBの平均画素値及びRの平均画素値を用いて、WB比として(Bの平均画素値/Rの平均画素値)を求める。
<Step S181>
The MPU 130 obtains (average pixel value of B/average pixel value of R) as a WB ratio using the average pixel value of B and the average pixel value of R received from the WB detection unit 505.

<ステップS182>
MPU130は、撮像ユニット毎に予め作成されている色温度検出テーブルを用いて、ステップS181で求めたWB比に対応する色温度を取得する。色温度検出テーブルの構成例を図8に示す。図8において横軸はWB比、縦軸は色温度を示している。800は、メインカメラで使用している撮像センサ(Xタイプ)に対応した、WB比と色温度との対応関係を表した色温度検出テーブルを表しており、801は、サブカメラで使用している撮像センサ(Yタイプ)に対応した、WB比と色温度との対応関係を表した色温度検出テーブルを表している。色温度変換テーブルについては、撮像センサの同タイプの左右の個体差に比べ、撮像センサの各タイプによる特性差の方が大きいため、左右の個体差は無視できるとしてタイプ別による色温度検出テーブルのみが登録されているものとした。つまり、ステップS101とステップS102とでは共通の色温度検出テーブル800を使ってそれぞれ色温度を取得し、ステップS103とステップS104とでは共通の色温度検出テーブル801を使ってそれぞれ色温度を取得する。
<Step S182>
The MPU 130 acquires the color temperature corresponding to the WB ratio obtained in step S181 using the color temperature detection table created in advance for each imaging unit. FIG. 8 shows a configuration example of the color temperature detection table. In FIG. 8, the horizontal axis represents the WB ratio and the vertical axis represents the color temperature. Reference numeral 800 represents a color temperature detection table showing the correspondence relationship between the WB ratio and the color temperature corresponding to the image sensor (X type) used in the main camera, and 801 is used in the sub camera. The color temperature detection table showing the correspondence relationship between the WB ratio and the color temperature corresponding to the existing image sensor (Y type) is shown. Regarding the color temperature conversion table, the characteristic difference between each type of image sensor is larger than the individual difference between the same type of image sensor. Is assumed to be registered. That is, in steps S101 and S102, the common color temperature detection table 800 is used to acquire the color temperatures, respectively, and in steps S103 and S104, the common color temperature detection table 801 is used to acquire the color temperatures.

このように、ステップS101〜S104において図7(a)のフローチャートに従った処理を実行することで、右目メイン撮像ユニット100Rによる撮像画像若しくはその部分領域における色温度T1、左目メイン撮像ユニット100Lによる撮像画像若しくはその部分領域における色温度T2、右サブ撮像ユニット110Rによる撮像画像若しくはその部分領域における色温度T3、左サブ撮像ユニット110Lによる撮像画像若しくはその部分領域における色温度T4、を取得することができる。 As described above, by executing the processing according to the flowchart of FIG. 7A in steps S101 to S104, the image captured by the right-eye main imaging unit 100R or the color temperature T1 in the partial area thereof, and the image captured by the left-eye main imaging unit 100L. It is possible to obtain the color temperature T2 in the image or the partial area thereof, the image temperature captured by the right sub imaging unit 110R or the color temperature T3 in the partial area thereof, and the image captured by the left sub imaging unit 110L or the color temperature T4 in the partial area thereof. ..

<ステップS110>
MPU130は、T1,T2,T3,T4間で最大の差(色温度差)ΔTを求める。これは、先ず、Tmax=MAX(T1,T2,T3,T4)、Tmin=MIN(T1,T2,T3,T4)を求める。ここで、MAX(x1,x2,…,xn)はx1〜xnのうち最大の値を返す関数、MIN(x1,x2,…,xn)はx1〜xnのうち最小の値を返す関数である。そしてΔT=Tmax−Tminを計算する。
<Step S110>
The MPU 130 obtains the maximum difference (color temperature difference) ΔT among T1, T2, T3, and T4. This first obtains Tmax=MAX (T1, T2, T3, T4) and Tmin=MIN (T1, T2, T3, T4). Here, MAX (x1, x2,..., Xn) is a function that returns the maximum value of x1 to xn, and MIN (x1, x2,..., xn) is a function that returns the minimum value of x1 to xn. .. Then, ΔT=Tmax−Tmin is calculated.

例えば、T1=3500K、T2=3550K、T3=3650K、T4=3900Kである場合(色温度の単位Kはケルビンのことである)、色温度Tmax=MAX(T1、T2、T3、T4)=3900K、色温度Tmin=MIN(T1、T2、T3、T4)=3500K、となるので、色温度差ΔT=400Kとなる。 For example, when T1=3500K, T2=3550K, T3=3650K, T4=3900K (the unit K of color temperature is Kelvin), color temperature Tmax=MAX(T1, T2, T3, T4)=3900K. , And the color temperature Tmin=MIN(T1, T2, T3, T4)=3500K, the color temperature difference ΔT=400K.

なお、このようにそれぞれの撮像ユニットによる撮像画像から取得した色温度がばらつく原因について説明する。まず、図2に示したように、撮像ユニット(20R,20L,21R,21L)の取り付け位置が異なることによって環境光の光線入力が異なることで、撮像ユニット間で実際の色温度に差が発生する場合がある。特にサブカメラは、メインカメラより左右外側に配置したり、更に上下方向にも画角が広かったり、画像中心の向きも上下方向にずらしたりなどしてメインカメラとは異なる環境光を集光してしまうことがある。これは、天井ライトによる光や、天井ライトによる光が壁に反射した間接照明光、または窓から入ってくる太陽光など、様々な環境光が混じっていて場所や向きによって撮像ユニットに入ってくる光が異なる場合があるためである。また、色温度がばらつく別の原因としては、撮像ユニットにおけるセンサの個体差もある。 The cause of variations in the color temperature acquired from the images picked up by the image pickup units in this way will be described. First, as shown in FIG. 2, since the light input of the ambient light is different due to the different mounting positions of the image pickup units (20R, 20L, 21R, 21L), a difference occurs in the actual color temperature between the image pickup units. There is a case. Especially, the sub camera collects the ambient light different from the main camera by arranging it on the left and right outside of the main camera, widening the angle of view in the vertical direction, and shifting the center of the image in the vertical direction. It may happen. This is a mixture of various ambient lights such as light from ceiling lights, indirect illumination light in which light from ceiling lights is reflected on a wall, or sunlight entering from windows, and enters the imaging unit depending on the location and direction. This is because the light may be different. Another cause of variation in color temperature is the individual difference of the sensors in the image pickup unit.

<ステップS120>
MPU130は、ステップS110で求めた色温度差ΔTが許容範囲ΔTerror内(許容範囲内)であるか否かを判断する。例えば、色温度差ΔTの絶対値が許容範囲ΔTerror以下であるか否かを判断する。
<Step S120>
The MPU 130 determines whether or not the color temperature difference ΔT obtained in step S110 is within the allowable range ΔTerror (within the allowable range). For example, it is determined whether or not the absolute value of the color temperature difference ΔT is less than or equal to the allowable range ΔTerror.

許容範囲ΔTerrorは、例えば、500Kなどという値である。この許容範囲ΔTerrorの値は、撮像ユニットにおける撮像センサの個体差、撮像ユニットの取り付け位置による環境光の光線入り込み具合などによって生じる検出誤差から予め設定しておくものである。なお、この許容範囲ΔTerrorの値は、固定値に限るものではなく、全ての撮像ユニットの平均色温度か、またはある特定の撮像ユニットの色温度に応じて許容される誤差が異なるとして変動値であっても構わない。 The allowable range ΔTerror is a value such as 500K. The value of the permissible range ΔTerror is set in advance from a detection error caused by an individual difference of the image pickup sensor in the image pickup unit, a degree of entry of ambient light by a mounting position of the image pickup unit, and the like. The value of the permissible range ΔTerror is not limited to a fixed value, but may be a variable value because the allowable error varies depending on the average color temperature of all the image pickup units or the color temperature of a specific image pickup unit. It doesn't matter.

この判断の結果、色温度差ΔTが許容範囲ΔTerror内である場合には、処理はステップS130に進み、色温度差ΔTが許容範囲ΔTerror内ではない場合には、処理はステップS140に進む。 As a result of this determination, if the color temperature difference ΔT is within the allowable range ΔTerror, the process proceeds to step S130. If the color temperature difference ΔT is not within the allowable range ΔTerror, the process proceeds to step S140.

<ステップS130>
MPU130は、T1,T2,T3,T4の平均色温度Taveを、右目メイン撮像ユニット100R、左目メイン撮像ユニット100L、右サブ撮像ユニット110R、左サブ撮像ユニット110Lで共通の色温度として決定する。平均色温度Taveは以下の式に従って計算することができる。
<Step S130>
The MPU 130 determines the average color temperature Tave of T1, T2, T3, T4 as a color temperature common to the right-eye main imaging unit 100R, the left-eye main imaging unit 100L, the right sub imaging unit 110R, and the left sub imaging unit 110L. The average color temperature Tave can be calculated according to the following formula.

Tave=AVE(T1、T2、T3、T4)
ここで、AVE(x1,x2,…,xn)はx1〜xnの平均値を返す関数である。例えば、T1=3500K、T2=3550K、T3=3650K、T4=3900Kである場合、平均色温度Tave=3650Kとなる。
Tave=AVE (T1, T2, T3, T4)
Here, AVE(x1, x2,..., Xn) is a function that returns the average value of x1 to xn. For example, when T1=3500K, T2=3550K, T3=3650K, and T4=3900K, the average color temperature Tave=3650K.

<ステップS140>
MPU130は、色温度差ΔTが許容範囲ΔTerrorを超えてしまい、全撮像ユニットの色温度を同等に扱うのが難しいとして、T1,T2,T3,T4のうち規定の基準に従って1つを、右目メイン撮像ユニット100R、左目メイン撮像ユニット100L、右サブ撮像ユニット110R、左サブ撮像ユニット110Lで共通の色温度として選択する。本実施形態では、標準色温度を予め決めておき、T1,T2,T3,T4のうち標準色温度に最も近い色温度を、右目メイン撮像ユニット100R、左目メイン撮像ユニット100L、右サブ撮像ユニット110R、左サブ撮像ユニット110Lで共通の色温度として選択する。例えば、標準光源がD55として標準色温度を5500Kとし、T1=3500K、T2=3550K、T3=3650K、T4=3900Kである場合、T1,T2,T3,T4のうち標準色温度に最も近い色温度はT4(3900K)であるため、T4が、右目メイン撮像ユニット100R、左目メイン撮像ユニット100L、右サブ撮像ユニット110R、左サブ撮像ユニット110Lで共通の色温度として選択される。
<Step S140>
The MPU 130 determines that the color temperature difference ΔT exceeds the allowable range ΔTerror, and it is difficult to treat the color temperatures of all the image pickup units equally, so that one of the T1, T2, T3, and T4 is set according to the standard for the right eye. The color temperature common to the image pickup unit 100R, the left-eye main image pickup unit 100L, the right sub image pickup unit 110R, and the left sub image pickup unit 110L is selected. In the present embodiment, the standard color temperature is determined in advance, and the color temperature closest to the standard color temperature among T1, T2, T3, and T4 is selected as the right eye main imaging unit 100R, the left eye main imaging unit 100L, and the right sub imaging unit 110R. , The left sub imaging unit 110L is selected as a common color temperature. For example, when the standard light source is D55, the standard color temperature is 5500K, and T1=3500K, T2=3550K, T3=3650K, and T4=3900K, the color temperature closest to the standard color temperature among T1, T2, T3, and T4. Is T4 (3900K), T4 is selected as a color temperature common to the right-eye main imaging unit 100R, the left-eye main imaging unit 100L, the right sub-imaging unit 110R, and the left sub-imaging unit 110L.

ここで、標準色温度に最も近い色温度を選択する理由について説明する。まず、標準環境光を設ける理由は、複数ある色温度の中でどの色温度でもWB精度を最高に保つ設計が難しいため、頭部装着型表示装置200を使用する時の環境光でよく使われるであろう色温度を設定し、その色温度でWB精度が最も高くなる設計をするためである。そして、この標準色温度5500Kの時のWB補正した時のカラーバランスが設計上の基準となるため、どのような色温度の環境でもWB補正後この標準色温度5500Kの時のWB具合に全て近づけることを意味する。 Here, the reason why the color temperature closest to the standard color temperature is selected will be described. First, the reason for providing standard ambient light is that it is often used for ambient light when the head-mounted display device 200 is used, because it is difficult to maintain the WB accuracy at any color temperature among a plurality of color temperatures. This is to set a color temperature that will probably be, and to design for the highest WB accuracy at that color temperature. Since the color balance when the WB correction is performed at the standard color temperature of 5500K serves as a design reference, after the WB correction, the WB state at the standard color temperature of 5500K is brought close to all in any color temperature environment. Means that.

例えば、T1=3500K、T2=3550K、T3=3650K、T4=3900Kであるとすると、何れの色温度も標準色温度5500Kより暖色系の値が出ており、ステップS130で算出した平均色温度Tave=3650Kからも赤よりの黄色であることがわかる。図9に色温度における色味を図示した。ここで、平均色温度Tave=3650Kが実際の環境光として正しい値であれば、WB補正後は、狙い通り標準色温度5500Kの時のWB具合にぴったりと一致する。しかし、もし検出した平均色温度Tave=3650Kが実際の環境光より赤よりにズレた値であった場合、これでWB補正すると過補正したことになり、結果、寒色系の青系にズレたWB具合になってしまう。この時、実際の環境光は暖色系なのに、WB補正した画像が寒色系になってしまうと、人間の視覚特性としてその補正誤差が大きいと認識される問題が発生する。よって、このようなWB補正の過補正を発生させないように、色温度差が大きい場合は標準色温度5500Kに近い色温度を選択してWB補正することで、標準色温度5500Kの時のWB具合に近く実際の環境光である暖色系側のずれた値とさせることができる。以上の理由により、WB補正において過補正して寒色系になる時より、標準色温度5500Kの時のWB具合のずれ量が例え大きくなっても実際の環境光である暖色系側であればその方が補正誤差が小さいと認識されるため、ステップS140ではこの効果を狙う処理となっている。なお、ステップS140の効果と理由を、検出色温度が暖色系である場合で説明したものの、逆に検出色温度が標準色温度5500より高い寒色系の場合であっても、同様の理由で過補正による問題を回避することができる。 For example, assuming that T1=3500K, T2=3550K, T3=3650K, and T4=3900K, all of the color temperatures have warmer-color-based values than the standard color temperature of 5500K, and the average color temperature Tave calculated in step S130. It can be seen from =3650K that the color is more yellow than red. FIG. 9 illustrates the tint at the color temperature. Here, if the average color temperature Tave=3650K is a correct value as the actual ambient light, after the WB correction, it exactly matches the WB condition at the standard color temperature of 5500K as intended. However, if the detected average color temperature Tave=3650K is a value that is deviated from red in comparison with the actual ambient light, WB correction with this is overcorrected, and as a result, it is deviated to a cold blue system. It becomes WB condition. At this time, when the WB-corrected image becomes a cold color system even though the actual ambient light is a warm color system, there is a problem that the correction error is recognized as a large human visual characteristic. Therefore, in order to prevent such overcorrection of WB correction, when the color temperature difference is large, a WB correction is performed by selecting a color temperature close to the standard color temperature of 5500K and performing WB correction. It can be set to a value that is close to the actual color of the ambient light and that is offset on the warm color side. For the above reason, even if the deviation amount of the WB condition at the standard color temperature of 5500K is larger than when the WB correction is overcorrected to become a cold color system, if the warm color system is the actual ambient light, Since it is recognized that the correction error is smaller, the processing aiming at this effect is performed in step S140. Although the effect and reason of step S140 have been described in the case where the detected color temperature is the warm color system, conversely, even in the case of the cold color system in which the detected color temperature is higher than the standard color temperature of 5500 K , the same reason is applied. Problems due to overcorrection can be avoided.

<ステップS150>
MPU130は、ステップS130において決定された色温度若しくはステップS140において選択された色温度を、右目メイン撮像ユニット100R、左目メイン撮像ユニット100L、右サブ撮像ユニット110R、左サブ撮像ユニット110Lで共通の色温度(共通色温度)として設定する。
<Step S150>
The MPU 130 uses the color temperature determined in step S130 or the color temperature selected in step S140 as the common color temperature for the right-eye main imaging unit 100R, the left-eye main imaging unit 100L, the right sub-imaging unit 110R, and the left sub-imaging unit 110L. Set as (common color temperature).

ここで、全撮像ユニットで共通の色温度を設定して統一的なWB補正する理由について説明する。前述したように、複数の撮像ユニットの色温度が異なる理由が、撮像ユニットの配置によって異なる環境光が検出されてしまったり、撮像センサの個体差などによる検出誤差の場合、もし共通の色温度を使用せず、それぞれの撮像ユニットにおいて検出された色温度でWB補正してしまうと、各撮像ユニットの撮像画像で異なる色味になってしまう問題が発生する。特に、AWBと呼ばれる短い一定時間間隔で自動でWB検出するようなWB制御ではなく、ワンプッシュと呼ばれるユーザ任意のタイミングでWB検出するような場合だと、頭部装着型表示装置200を装着したユーザがWB検出した場所から移動してしまうと、撮像ユニット間で色味が異なって大きな違和感を該ユーザに与える問題が発生してしまう。以上のような理由から、全撮像ユニットで共通の色温度を使用して統一的なWB補正することが必要となる。また、全撮像ユニットで統一的なWB補正するのに色温度を用いた理由は、撮像センサのタイプが異なるなど各撮像ユニットで輝度値の特性が大きく違っている場合に対応するためである。つまり、環境光の検波で撮像ユニット毎に特性が異なる輝度値から各々逆特性をかけて環境光の色温度を算出することで、この色温度が撮像ユニット間で共通で使用できる指標となる。 Here, the reason why the common color temperature is set for all the image pickup units and the unified WB correction is performed will be described. As described above, the reason why the color temperatures of the plurality of image pickup units are different is that if different ambient light is detected due to the arrangement of the image pickup units, or if there is a detection error due to individual differences in the image pickup sensors, a common color temperature is set. If the WB correction is performed using the color temperature detected in each image pickup unit without using it, there arises a problem that the image picked up by each image pickup unit has a different tint. In particular, the head-mounted display device 200 is mounted in a case where WB detection is performed at a user's arbitrary timing called one push, instead of WB control called AWB that automatically detects WB at short fixed time intervals. When the user moves from the place where the WB is detected, there is a problem that the tint is different between the image pickup units and a great discomfort is given to the user. For the above reasons, it is necessary to perform uniform WB correction by using a common color temperature for all imaging units. Further, the reason why the color temperature is used for the uniform WB correction in all the image pickup units is to cope with the case where the characteristics of the luminance value are largely different among the image pickup units such as the type of the image pickup sensor. That is, by calculating the color temperature of the ambient light by applying the inverse characteristic to the luminance value having different characteristics for each image pickup unit in the detection of the ambient light, this color temperature becomes an index that can be commonly used by the image pickup units.

<ステップS161>
MPU130は、図7(b)のフローチャートに従った処理を行うことで、共通色温度を用いて、右目メイン撮像ユニット100Rによる撮像画像に対するWB補正で用いるWB補正値を求め、該求めたWB補正値を右目メイン撮像ユニット100Rに対して送出する。
<Step S161>
The MPU 130 performs the process according to the flowchart of FIG. 7B to obtain the WB correction value used in the WB correction for the image captured by the right-eye main image pickup unit 100R using the common color temperature, and the obtained WB correction The value is sent to the right-eye main imaging unit 100R.

<ステップS162>
MPU130は、図7(b)のフローチャートに従った処理を行うことで、共通色温度を用いて、左目メイン撮像ユニット100Lによる撮像画像に対するWB補正で用いるWB補正値を求め、該求めたWB補正値を左目メイン撮像ユニット100Lに対して送出する。
<Step S162>
The MPU 130 performs the process according to the flowchart of FIG. 7B to obtain the WB correction value used in the WB correction for the image captured by the left-eye main image pickup unit 100L by using the common color temperature, and the obtained WB correction The value is sent to the left-eye main imaging unit 100L.

<ステップS163>
MPU130は、図7(b)のフローチャートに従った処理を行うことで、共通色温度を用いて、右サブ撮像ユニット110Rによる撮像画像に対するWB補正で用いるWB補正値を求め、該求めたWB補正値を右サブ撮像ユニット110Rに対して送出する。
<Step S163>
The MPU 130 performs the process according to the flowchart of FIG. 7B to obtain the WB correction value used in the WB correction for the image captured by the right sub imaging unit 110R using the common color temperature, and the obtained WB correction The value is sent to the right sub imaging unit 110R.

<ステップS164>
MPU130は、図7(b)のフローチャートに従った処理を行うことで、共通色温度を用いて、左サブ撮像ユニット110Lによる撮像画像に対するWB補正で用いるWB補正値を求め、該求めたWB補正値を左サブ撮像ユニット110Lに対して送出する。
<Step S164>
The MPU 130 performs the process according to the flowchart of FIG. 7B to obtain the WB correction value used in the WB correction for the image captured by the left sub imaging unit 110L using the common color temperature, and the obtained WB correction The value is sent to the left sub imaging unit 110L.

以下では、ステップS161において図7(b)のフローチャートに従った処理を実行した場合について説明する。この場合、MPU130は、右目メイン撮像ユニット100R用のWB補正値を求めて該右目メイン撮像ユニット100Rに対して送出する。なお、ステップS162において図7(b)のフローチャートに従った処理を実行する場合、MPU130は、左目メイン撮像ユニット100L用のWB補正値を求めて該左目メイン撮像ユニット100Lに対して送出する。また、ステップS163において図7(b)のフローチャートに従った処理を実行する場合、MPU130は、右サブ撮像ユニット110R用のWB補正値を求めて該右サブ撮像ユニット110Rに対して送出する。また、ステップS164において図7(b)のフローチャートに従った処理を実行する場合、MPU130は、左サブ撮像ユニット110L用のWB補正値を求めて該左サブ撮像ユニット110Lに対して送出する
<ステップS190>
MPU130は、共通色温度から、R用のWB補正値、G用のWB補正値、B用のWB補正値を求める。その際、MPU130は、図10に例示するテーブルを参照する。図10において横軸は色温度を示しており、縦軸は補正ゲイン値(WB補正値)を示している。図10(a)のテーブルは、メインカメラで使用している撮像センサ(Xタイプ)に対応したテーブルで、図10(b)のテーブルは、サブカメラで使用している撮像センサ(Yタイプ)に対応したテーブルである。然るに、ステップS161,S162で図7(b)のフローチャートに従った処理を実行する場合は、図10(a)のテーブルを参照することになり、ステップS163,S164で図7(b)のフローチャートに従った処理を実行する場合は、図10(b)のテーブルを参照することになる。
Hereinafter, a case will be described where the process according to the flowchart of FIG. 7B is executed in step S161. In this case, the MPU 130 obtains a WB correction value for the right-eye main imaging unit 100R and sends it to the right-eye main imaging unit 100R. When executing the processing according to the flowchart of FIG. 7B in step S162, the MPU 130 obtains the WB correction value for the left-eye main imaging unit 100L and sends it to the left-eye main imaging unit 100L. Further, when the process according to the flowchart of FIG. 7B is executed in step S163, the MPU 130 obtains the WB correction value for the right sub imaging unit 110R and sends it to the right sub imaging unit 110R. Further, when executing the processing according to the flowchart of FIG. 7B in step S164, the MPU 130 obtains the WB correction value for the left sub imaging unit 110L and sends it to the left sub imaging unit 110L. S190>
The MPU 130 obtains a WB correction value for R, a WB correction value for G, and a WB correction value for B from the common color temperature. At that time, the MPU 130 refers to the table illustrated in FIG. In FIG. 10, the horizontal axis represents the color temperature and the vertical axis represents the correction gain value (WB correction value). The table in FIG. 10A corresponds to the image sensor (X type) used in the main camera, and the table in FIG. 10B is the image sensor (Y type) used in the sub camera. Is a table corresponding to. However, when executing the processing according to the flowchart of FIG. 7B in steps S161 and S162, the table of FIG. 10A is referred to, and the flowchart of FIG. 7B is executed in steps S163 and S164. When executing the processing according to, the table of FIG. 10B is referred to.

図10(a)、(b)において、RGBの補正ゲイン値は、Gを基準として、横軸色温度に対するR/G(1010、1050)とB/G(1020、1060)となっている。然るに、例えば、色温度T=3650Kの場合、撮像センサ(Xタイプ)での補正ゲイン値は、図10(a)のテーブルより(R、G、B)=(0.9252、1.0、1.9633)となり、撮像センサ(Yタイプ)での補正ゲイン値は、図10(b)のテーブルより(R、G、B)=(0.7857、1.0、1.5678)と算出される。 In FIGS. 10A and 10B, the RGB correction gain values are R/G (1010, 1050) and B/G (1020, 1060) with respect to the horizontal axis color temperature with G as a reference. Therefore, for example, when the color temperature T=3650K, the correction gain value in the image sensor (X type) is (R, G, B)=(0.9252, 1.0, from the table of FIG. 10A). 1.9633), and the correction gain value in the image sensor (Y type) is calculated as (R, G, B)=(0.7857, 1.0, 1.5678) from the table of FIG. To be done.

このようにして、図10(a)若しくは図10(b)のテーブルを参照して、共通色温度に対応するR/G,B/Gを特定し、G=1.0としたときのR,Bの値を特定する。そしてこのようにして特定したR,G,Bの値はそれぞれR用のWB補正値、G用のWB補正値、B用のWB補正値となる。 In this way, R/G and B/G corresponding to the common color temperature are specified with reference to the table of FIG. 10A or FIG. 10B, and R when G=1.0 is specified. , B values are specified. The values of R, G, and B thus specified become the WB correction value for R, the WB correction value for G, and the WB correction value for B, respectively.

<ステップS192>
MPU130は、ステップS190で求めたR用のWB補正値、G用のWB補正値、B用のWB補正値、を右目メイン撮像ユニット100R内の画像処理部113が有するWB補正部502に対して送出する。これにより該WB補正部502は、MPU130から受けたR用のWB補正値、G用のWB補正値、B用のWB補正値、を受け、色補間部501により生成された撮像画像に対して、これらのWB補正値に応じたゲイン補正等の処理を施すことで、無彩色のカラーバランスを調整し、これにより撮像画像に対するWB補正を実現する。
<Step S192>
The MPU 130 outputs the R WB correction value, the G WB correction value, and the B WB correction value obtained in step S190 to the WB correction unit 502 included in the image processing unit 113 in the right-eye main imaging unit 100R. Send out. Thus, the WB correction unit 502 receives the WB correction value for R, the WB correction value for G, and the WB correction value for B received from the MPU 130, and with respect to the captured image generated by the color interpolation unit 501. By performing processing such as gain correction according to these WB correction values, the achromatic color balance is adjusted, and thereby WB correction for the captured image is realized.

このように、本実施形態に係るWB制御の処理によって、メインカメラ及びサブカメラのそれぞれによる撮像画像に対して統一的なWB補正を行うことができる。 In this way, the WB control process according to the present embodiment makes it possible to perform unified WB correction on the images captured by the main camera and the sub cameras.

なお、本実施形態では、ステップS180では、R,G,Bのそれぞれの平均画素値を求めてMPU130に対して送出しているが、ステップS181では、Bの平均画素値及びRの平均画素値を用いて処理を行っており、Gの平均画素値は使用していないため、Gの平均画素値は求めなくても構わない。 In the present embodiment, in step S180, the average pixel value of each of R, G, and B is calculated and sent to the MPU 130, but in step S181, the average pixel value of B and the average pixel value of R are calculated. Since the processing is performed using, and the average pixel value of G is not used, the average pixel value of G does not have to be obtained.

また、本実施形態では、画像の色成分がR成分,G成分,B成分である場合について説明したが、他の色成分であってもよく、例えば、Lab色空間における色成分を対象としても本実施形態を同様に適用することができる。 Further, in the present embodiment, the case where the color components of the image are the R component, the G component, and the B component has been described, but other color components may be used. For example, the color components in the Lab color space may be the target. This embodiment can be similarly applied.

また、本実施形態では、メインカメラ及びサブカメラのそれぞれによる撮像画像に対してWB補正を行うようにしたが、ユーザの目に提供される画像、即ちメインカメラによる撮像画像についてはWB補正し、ユーザの目には提供されない画像、即ちサブカメラによる撮像画像ついてはWB補正しないようにしても構わない。 Further, in the present embodiment, the WB correction is performed on the image captured by each of the main camera and the sub camera, but the image provided to the user's eyes, that is, the image captured by the main camera is WB corrected, WB correction may not be performed on an image that is not provided to the user's eyes, that is, an image captured by the sub camera.

<変形例1>
第1の実施形態では、頭部装着型表示装置200は、頭部装着型表示装置200を頭部に装着するユーザの視界領域を撮像するための2台のメインカメラ(右目用カメラ及び左目用カメラ)と、位置姿勢を検出するために使用する画像を撮像する1つ以上のサブカメラと、の合計3眼以上のカメラを有するものとした。しかし、図11に示す如く、右目メイン撮像ユニット100Rの用途及び右サブ撮像ユニット110Rの用途を兼ねるカメラ22Rと、左目メイン撮像ユニット100Lの用途及び左サブ撮像ユニット110Lの用途を兼ねるカメラ22Lと、の2つのカメラを有するようにしても構わない。
<Modification 1>
In the first embodiment, the head-mounted display device 200 includes two main cameras (a right-eye camera and a left-eye camera) for capturing a visual field of a user who wears the head-mounted display device 200 on his/her head. Camera) and one or more sub-cameras that capture images used to detect the position and orientation, and have a total of three or more cameras. However, as shown in FIG. 11, a camera 22R that also serves as the right eye main imaging unit 100R and a right sub imaging unit 110R, and a camera 22L that serves as both the left eye main imaging unit 100L and the left sub imaging unit 110L, It is also possible to have two cameras.

この場合、カメラ22Rによる撮像画像は、頭部装着型表示装置200を装着するユーザの右目に提示される複合現実空間の画像を生成する際に仮想空間の画像と合成される画像として使用されると共に、カメラ22Rの位置姿勢を検出するためにも使用される。また、カメラ22Lによる撮像画像は、頭部装着型表示装置200を装着するユーザの左目に提示される複合現実空間の画像を生成する際に仮想空間の画像と合成される画像として使用されると共に、カメラ22Lの位置姿勢を検出するためにも使用される。 In this case, the image captured by the camera 22R is used as an image to be combined with the image in the virtual space when generating the image in the mixed reality space presented to the right eye of the user wearing the head-mounted display device 200. It is also used to detect the position and orientation of the camera 22R. The image captured by the camera 22L is used as an image to be combined with the image in the virtual space when generating an image in the mixed reality space presented to the left eye of the user wearing the head-mounted display device 200. , Is also used to detect the position and orientation of the camera 22L.

そしてこのような頭部装着型表示装置200の場合、カメラ22Rとカメラ22Lとで共通の色温度を、上記の処理と同様の処理によって取得し、該取得した共通の色温度からカメラ22R用のWB補正値及びカメラ22L用のWB補正値を求め、カメラ22Rによる撮像画像をカメラ22R用のWB補正値を用いてWB補正すると共に、カメラ22Lによる撮像画像をカメラ22L用のWB補正値を用いてWB補正することができる。 In the case of such a head-mounted display device 200, the color temperature common to the cameras 22R and 22L is acquired by the same process as the above process, and the color temperature for the camera 22R is acquired from the acquired common color temperature. The WB correction value and the WB correction value for the camera 22L are obtained, and the image captured by the camera 22R is WB corrected using the WB correction value for the camera 22R, and the image captured by the camera 22L is used the WB correction value for the camera 22L. WB correction can be performed.

<変形例2>
第1の実施形態では、頭部装着型表示装置200は、頭部装着型表示装置200を頭部に装着するユーザの視界領域を撮像するための2台のメインカメラ(右目用カメラ及び左目用カメラ)と、位置姿勢を検出するために使用する画像を撮像するための2台のサブカメラ(右サブカメラ及び左サブカメラ)と、の合計4眼のカメラを有するものとして、平均化演算するなど異なる撮像センサのタイプが混合した構成で色温度を算出した。しかし、撮像センサが同タイプとなる組合せ同士で分けて共通の色温度を算出して、その算出されたタイプ毎に分けた共通の色温度を用いてそれぞれタイプ毎のカメラに対して共通のWB補正するようにしても構わない。つまり、撮像センサのタイプ毎に独立して、同タイプの撮像センサを持った複数カメラ間で本実施形態のWB補正制御を行うとしても構わない。
<Modification 2>
In the first embodiment, the head-mounted display device 200 includes two main cameras (a right-eye camera and a left-eye camera) for capturing a visual field of a user who wears the head-mounted display device 200 on his/her head. (Camera) and two sub-cameras (right sub-camera and left sub-camera) for capturing an image used for detecting the position and orientation, and the averaging operation is performed assuming that the camera has a total of four eyes. The color temperature was calculated with a configuration in which different image sensor types are mixed. However, the common color temperature is calculated by dividing the combinations of the image sensors of the same type, and the calculated common color temperature for each type is used to make a common WB for each type of camera. It may be corrected. That is, the WB correction control of the present embodiment may be performed independently for each type of image sensor and between a plurality of cameras having the same type of image sensor.

<変形例3>
第1の実施形態では、色温度差ΔTが許容範囲ΔTerror内である場合には、処理はステップS130に進み、色温度差ΔTが許容範囲ΔTerror内ではない場合には、処理はステップS140に進む、とした。しかし、色温度差ΔTが許容範囲ΔTerror内である場合には、処理はステップS140に進み、色温度差ΔTが許容範囲ΔTerror内ではない場合には、処理はステップS130に進むようにしても構わない。このようにすることで、WB補正における誤差が小さくなる場合等において有効となる。
<Modification 3>
In the first embodiment, if the color temperature difference ΔT is within the allowable range ΔTerror, the process proceeds to step S130. If the color temperature difference ΔT is not within the allowable range ΔTerror, the process proceeds to step S140. , And. However, if the color temperature difference ΔT is within the allowable range ΔTerror, the process proceeds to step S140, and if the color temperature difference ΔT is not within the allowable range ΔTerror, the process may proceed to step S130. By doing so, it is effective when the error in the WB correction becomes small.

<変形例4>
第1の実施形態では、ステップS140において、T1,T2,T3,T4のうち標準色温度に最も近い色温度を、右目メイン撮像ユニット100R、左目メイン撮像ユニット100L、右サブ撮像ユニット110R、左サブ撮像ユニット110Lで共通の色温度として選択していた。しかし、ステップS140では、何らかの望ましい色温度を選択できればよいのであるから、それぞれの撮像ユニットで共通の色温度を決定する方法には様々な方法が考えられる。
<Modification 4>
In the first embodiment, in step S140, the color temperature closest to the standard color temperature among T1, T2, T3, and T4 is set to the right eye main imaging unit 100R, the left eye main imaging unit 100L, the right sub imaging unit 110R, the left sub imaging unit. The common color temperature is selected for the imaging unit 110L. However, in step S140, it suffices that any desired color temperature can be selected. Therefore, various methods are conceivable as the method of determining the color temperature common to each image pickup unit.

例えば、T1,T2,T3,T4のうち、これらの中央値に最も近い色温度を選択するようにしても構わない。すなわち、T1,T2,T3,T4から求まる統計量に基づいて何れか1つを選択するようにしても構わない。また、頭部装着型表示装置200に対して予め定めた規定値となる色温度を選択するようにしても構わない。 For example, among T1, T2, T3, and T4, the color temperature closest to the median of these may be selected. That is, any one may be selected based on the statistic obtained from T1, T2, T3, T4. Further, the color temperature having a predetermined value may be selected for the head-mounted display device 200.

<変形例5>
第1の実施形態では、ステップS130において、T1,T2,T3,T4の全て(全部)の平均色温度Taveを、右目メイン撮像ユニット100R、左目メイン撮像ユニット100L、右サブ撮像ユニット110R、左サブ撮像ユニット110Lで共通の色温度として決定していた。しかし、T1,T2,T3,T4の全てではなく、その一部の平均色温度をTaveとしても構わない。例えば、T1,T2,T3,T4の全ての平均値を求め、T1,T2,T3,T4のうち、該平均値との差が最も大きい色温度を除いた残りの色温度についてその平均値をTaveとしても構わない。
<Modification 5>
In the first embodiment, in step S130, the average color temperature Tave of all (all) of T1, T2, T3, and T4 is set to the right eye main imaging unit 100R, the left eye main imaging unit 100L, the right sub imaging unit 110R, the left sub imaging unit. The color temperature is determined to be common to the imaging unit 110L. However, not all of T1, T2, T3, and T4, but an average color temperature of a part thereof may be set to Tave. For example, the average value of all T1, T2, T3, T4 is calculated, and the average value of the remaining color temperatures of T1, T2, T3, T4 excluding the color temperature having the largest difference from the average value is calculated. It may be Tave.

[第2の実施形態]
第1の実施形態では、頭部装着型表示装置200が、撮像センサのタイプが異なる撮像ユニット群を有するものとして説明したが、撮像センサが同タイプの撮像ユニット群を有する場合であっても構わない。このような構成の場合、撮像センサの個体差による撮像ユニット間の色温度検出結果の違いが主な問題となる。そのため、本実施形態では、撮像センサの個体差による撮像ユニット間のWB補正誤差を低減するためのWB補正制御を行う。
[Second Embodiment]
In the first embodiment, the head-mounted display device 200 has been described as having the image pickup unit groups having different types of image pickup sensors, but the image pickup sensor may have the same type of image pickup unit group. Absent. In such a configuration, the difference in the color temperature detection result between the image pickup units due to the individual difference of the image pickup sensor is a major problem. Therefore, in the present embodiment, WB correction control is performed to reduce the WB correction error between the image pickup units due to the individual difference of the image pickup sensor.

以下では第1の実施形態との差分について重点的に説明し、以下で特に触れない限りは、第1の実施形態と同様であるものとする。 The differences from the first embodiment will be mainly described below, and the same as in the first embodiment unless otherwise stated below.

本実施形態に係る頭部装着型表示装置200は、図12に示す如く、右目メイン撮像ユニット100Rの用途及び右サブ撮像ユニット110Rの用途を兼ねるカメラ23Rと、左目メイン撮像ユニット100Lの用途及び左サブ撮像ユニット110Lの用途を兼ねるカメラ23Lと、の2つのカメラを有し、且つ何れのカメラも撮像センサが同じタイプ(Yタイプ)である。 As shown in FIG. 12, the head-mounted display device 200 according to the present embodiment has a camera 23R that also serves as a right-eye main imaging unit 100R and a right sub-imaging unit 110R, and a left-eye main imaging unit 100L and a left eye. It has two cameras, a camera 23L which also serves as the application of the sub-imaging unit 110L, and both cameras are of the same type (Y type) as the image sensor.

このような頭部装着型表示装置200においては、図1のフローチャートに従った処理の代わりに、図13のフローチャートに従った処理が行われる。図13において図1に示した処理ステップと同じ処理ステップには同じステップ番号を付しており、該処理ステップに係る説明は省略若しくは簡単に行う。 In such a head-mounted display device 200, the process according to the flowchart of FIG. 13 is performed instead of the process according to the flowchart of FIG. In FIG. 13, the same process steps as those shown in FIG. 1 are designated by the same step numbers, and the description of the process steps will be omitted or briefly given.

<ステップS201>
カメラ23R及びMPU130は図7(a)のフローチャートに従った処理を行うことで、該カメラ23Rによる撮像画像全体若しくはその部分領域における色温度T1を取得する。
<Step S201>
The camera 23R and the MPU 130 obtain the color temperature T1 of the entire image captured by the camera 23R or a partial region thereof by performing the process according to the flowchart of FIG. 7A.

<ステップS202>
カメラ23L及びMPU130は図7(a)のフローチャートに従った処理を行うことで、該カメラ23Lによる撮像画像全体若しくはその部分領域における色温度T2を取得する。
<Step S202>
The camera 23L and the MPU 130 obtain the color temperature T2 of the entire image captured by the camera 23L or a partial region thereof by performing the process according to the flowchart of FIG. 7A.

ステップS110では、第1の実施形態では、4つの色温度(T1,T2,T3,T4)を対象としていたのに対し、本実施形態ではT1,T2の2つのであるため、ΔTを、単にΔT=|T2−T1|を計算することで求める。例えば、カメラ23Rの色温度T1=3600K、カメラ23Lの色温度T2=3950Kとなった場合、色温度差ΔTは350Kとなる。このように、左右のカメラ間で色温度に差が生じる原因は、撮像センサの性能ばらつきや、撮像センサとカメラレンズとのアライメント(メカ公差)などによるカメラの個体差である。 In step S110, in the first embodiment, four color temperatures (T1, T2, T3, T4) were targeted, whereas in the present embodiment, there are two color temperatures T1 and T2, so ΔT is simply It is obtained by calculating ΔT=|T2-T1|. For example, when the color temperature T1 of the camera 23R is 3600K and the color temperature T2 of the camera 23L is T2 = 3950K, the color temperature difference ΔT is 350K. As described above, the causes of the difference in color temperature between the left and right cameras are individual differences among the cameras due to variations in the performance of the image sensor and alignment (mechanical tolerance) between the image sensor and the camera lens.

ステップS120において、色温度差ΔTが許容範囲ΔTerror内である場合には、第1の実施形態と同様に、処理はステップS130に進むのであるが、色温度差ΔTが許容範囲ΔTerror内ではない場合には、処理はステップS240に進む。 If the color temperature difference ΔT is within the allowable range ΔTerr at step S120, the process proceeds to step S130 as in the first embodiment, but if the color temperature difference ΔT is not within the allowable range ΔTerror. Processing proceeds to step S240.

<ステップS240>
MPU130は、カメラ23R及びカメラ23Lのうち、より色温度の検出精度が高いと考えられる優先カメラとして予め定められている一方のカメラについて取得した色温度を、選択する。
<Step S240>
The MPU 130 selects the color temperature acquired for one of the cameras 23R and 23L, which is predetermined as a priority camera that is considered to have higher color temperature detection accuracy.

ここで、色温度の検出精度がばらつく現象と優先カメラを決定する方法について図14を用いて説明する。図14(a)は、撮像センサ(Yタイプ)の色温度検出テーブルを設計するために作成したデータを示した図である。1401〜1403はそれぞれ、環境光の色温度を2500〜9500Kまで変化させた時に撮像センサ(Yタイプ)を有するカメラ1個体でWB検波(ステップS180における処理)して得たRの平均画素値(平均輝度値)、Gの平均画素値、Bの平均画素値の推移を示す曲線である。ここで、Yタイプの撮像センサが搭載された他のカメラを用いて同様のデータを作成した時、図14(a)と全く同じにはならず、少しずれた特性となる。これがカメラの個体差である。 Here, a phenomenon in which the detection accuracy of color temperature varies and a method of determining a priority camera will be described with reference to FIG. FIG. 14A is a diagram showing data created to design the color temperature detection table of the image sensor (Y type). 1401 to 1403 are average pixel values of R obtained by WB detection (processing in step S180) by one camera having an image sensor (Y type) when the color temperature of ambient light is changed from 2500 to 9500K ( It is a curve showing the transition of the average brightness value), the average pixel value of G, and the average pixel value of B. Here, when similar data is created using another camera equipped with a Y-type image sensor, the data does not become exactly the same as in FIG. This is the individual difference of the camera.

図14(b)は、WB比を横軸にとり、縦軸に色温度をとった、色温度検出テーブル801を示しており、カメラの個体差を加味するため、複数のカメラ(何れも搭載している撮像センサはYタイプ)のそれぞれについて作成した図14(a)のデータから作成したものである。例えば、それぞれのカメラにおけるR,Bの平均画素値から、カメラ全体におけるR,Bの平均画素値を算出し、色温度毎にWB比(カメラ全体におけるBの平均画素値/カメラ全体におけるRの平均画素値)を算出すれば、色温度検出テーブル801を作成することができる。もちろん、色温度検出テーブル801を作成する方法はこれ以外の方法も考えられる。図中のエラーバーは、測定したデータのうちWB比の最大値と最小値となったバラつき範囲を示した。 FIG. 14B shows a color temperature detection table 801 in which the WB ratio is plotted on the horizontal axis and the color temperature is plotted on the vertical axis. In order to take into account individual differences among cameras, a plurality of cameras (all mounted) are shown. The image sensor is prepared from the data of FIG. 14A created for each Y type). For example, the average pixel value of R and B in the entire camera is calculated from the average pixel value of R and B in each camera, and the WB ratio (average pixel value of B in the entire camera/R of the entire camera) is calculated for each color temperature. The color temperature detection table 801 can be created by calculating the average pixel value. Of course, other methods can be considered as the method of creating the color temperature detection table 801. The error bar in the figure indicates the range of variation of the maximum and minimum WB ratios in the measured data.

本実施形態では、カメラ23R、23Lのそれぞれについて色温度を取得する場合には、この色温度検出テーブル801を使用する。このとき、カメラ23R、23Lではこのエラーバーの範囲でWB比がばらつくため、例えばある色温度でカメラ23Rが最大、カメラ23Lが最小となるばらつきをもつカメラ組合せの場合は、それぞれのカメラについて取得される色温度の差が最悪となる。なお、この問題を根本的に解決する方法として、カメラ組立時に全数で測定をして個体ごとに正確に調整された色温度検出テーブルを設定することが考えられが、色温度を振った測定には大きな工数がかかるので、組立時に全数測定することは現実的ではない。しかし、カメラ組立時にある特定の環境光の色温度だけで、例えば標準色温度5500Kの1条件だけで測定することは現実的である。そこで、測定した組立カメラが代表的な色温度検出テーブル801から+/−どちらの方向にどの程度ずれているかある程度推定することはできる。 In this embodiment, the color temperature detection table 801 is used when acquiring the color temperature of each of the cameras 23R and 23L. At this time, the WB ratios of the cameras 23R and 23L vary within this error bar range. Therefore, for example, in the case of a camera combination having a variation in which the camera 23R is the maximum and the camera 23L is the minimum at a certain color temperature, acquisition is made for each camera. The difference in color temperature is the worst. As a method to fundamentally solve this problem, it is conceivable to set the color temperature detection table that is accurately adjusted for each individual by measuring the total number when assembling the camera. Since it takes a lot of man-hours, it is not realistic to measure all of them at the time of assembly. However, it is realistic to measure the color temperature of a specific ambient light when assembling the camera, for example, under only one condition of the standard color temperature of 5500K. Therefore, it is possible to estimate to some extent how much the measured assembled camera deviates from the representative color temperature detection table 801 in the +/− direction.

図15は、図14(b)に、全範囲の色温度を振った時のカメラ23Rの正確な色温度検出テーブル1501、全範囲の色温度を振った時のカメラ23Lの正確な色温度検出テーブル1502を重ねたものである。上記の通り、全範囲の色温度を振って色温度検出テーブル1501、1502を作成することは大変な手間であるが、本例の標準色温度5500KにおけるWB比を得ることは、全範囲の色温度を振って色温度検出テーブル1501、1502を作成することに比べれば手間ではない。そこで、標準色温度を5500Kとした場合、色温度=5500Kにおけるカメラ23R、23LのそれぞれのWB比を求めておき、色温度検出テーブル801において5500Kに対応するWB比により近いWB比を求めたカメラを、上記の優先カメラとして決定する。図15の場合は、色温度検出テーブル1501において5500Kに対応するWB比の方が、色温度検出テーブル1502において5500Kに対応するWB比よりも、色温度検出テーブル801において5500Kに対応するWB比により近いため、カメラ23Rが上記の優先カメラとして決定される。 FIG. 15 is an accurate color temperature detection table 1501 of the camera 23R when the color temperature of the entire range is shaken, and an accurate color temperature detection of the camera 23L when the color temperature of the entire range is shaken, as shown in FIG. The table 1502 is stacked. As described above, it is troublesome to create the color temperature detection tables 1501 and 1502 by shaking the color temperature of the entire range, but to obtain the WB ratio at the standard color temperature of 5500K in this example is to obtain the color range of the entire range. It is less troublesome than creating the color temperature detection tables 1501 and 1502 by changing the temperature. Therefore, when the standard color temperature is set to 5500K, the WB ratio of each of the cameras 23R and 23L at the color temperature=5500K is obtained, and the WB ratio closer to the WB ratio corresponding to 5500K in the color temperature detection table 801 is obtained. Is determined as the above-mentioned priority camera. In the case of FIG. 15, the WB ratio corresponding to 5500K in the color temperature detection table 1501 is smaller than the WB ratio corresponding to 5500K in the color temperature detection table 1502 by the WB ratio corresponding to 5500K in the color temperature detection table 801. Since it is close, the camera 23R is determined as the priority camera.

なお、以上説明した、カメラ23R、23Lのうち優先カメラを決定する工程は、頭部装着型表示装置200の出荷前に行われ、その決定した優先カメラを示す情報は頭部装着型表示装置200内のメモリ131に登録されることになる。 The process of determining the priority camera of the cameras 23R and 23L described above is performed before the head-mounted display device 200 is shipped, and the information indicating the determined priority camera is the head-mounted display device 200. It will be registered in the internal memory 131.

また、上記の説明は、標準色温度を5500Kとした場合についてのものであるが、標準色温度として用いる色温度が変われば、優先カメラとして決定する対象も変わりうる。然るに、頭部装着型表示装置200の使用環境を想定して、どのような色温度を標準色温度とするのかを決定しておけば、それに応じた望ましいカメラを優先カメラとして決定することができる。 Further, the above description is for the case where the standard color temperature is 5500K, but if the color temperature used as the standard color temperature changes, the target to be determined as the priority camera may also change. However, if the color temperature to be used as the standard color temperature is determined in consideration of the environment in which the head-mounted display device 200 is used, a desirable camera corresponding to the color temperature can be determined as the priority camera. ..

また、単に、標準色温度において、色温度検出テーブル801のWB比に最も近いカメラを優先カメラとするのではなく、標準色温度近辺やそれ以上の色温度において平均的に色温度検出テーブル801のWB比に最も近いカメラを優先カメラとして決定しても構わない。すなわち、頭部装着型表示装置200の使用環境における色温度を想定した場合に、その想定した色温度で望ましい(上記の例では色温度検出テーブル801により近い)WB比が得られるカメラを優先カメラとして決定することができるのであれば、その決定方法には様々な方法が考えられる。 Further, instead of simply setting the camera closest to the WB ratio of the color temperature detection table 801 in the standard color temperature as the priority camera, the average of the color temperature detection table 801 in the vicinity of the standard color temperature or higher is displayed. The camera closest to the WB ratio may be determined as the priority camera. That is, when the color temperature in the environment in which the head-mounted display device 200 is used is assumed, a camera that can obtain a desired WB ratio at the assumed color temperature (closer to the color temperature detection table 801 in the above example) is the priority camera. If it can be determined as, there are various possible methods for the determination.

これにより、代表的な色温度検出テーブル801からのずれが大きいカメラであっても、それよりはよいカメラと組合せて頭部装着型表示装置200を組み立てることで、比較的安定したWB制御を達成することが可能となる。 As a result, even if the camera has a large deviation from the typical color temperature detection table 801, by assembling the head-mounted display device 200 in combination with a better camera, relatively stable WB control is achieved. It becomes possible to do.

そしてステップS150では、MPU130は、ステップS130において決定された色温度若しくはステップS240において選択された色温度を、カメラ23R、23Lで共通の色温度(共通色温度)として設定する。 Then, in step S150, the MPU 130 sets the color temperature determined in step S130 or the color temperature selected in step S240 as the color temperature common to the cameras 23R and 23L (common color temperature).

<ステップS261>
MPU130は、図7(b)のフローチャートに従った処理を行うことで、共通色温度を用いて、カメラ23Rによる撮像画像に対するWB補正で用いるWB補正値を求め、該求めたWB補正値をカメラ23Rに対して送出する。
<Step S261>
The MPU 130 performs the process according to the flowchart of FIG. 7B to obtain the WB correction value used in the WB correction for the image captured by the camera 23R using the common color temperature, and the obtained WB correction value is used in the camera. Send to 23R.

<ステップS262>
MPU130は、図7(b)のフローチャートに従った処理を行うことで、共通色温度を用いて、カメラ23Lによる撮像画像に対するWB補正で用いるWB補正値を求め、該求めたWB補正値をカメラ23Lに対して送出する。
<Step S262>
The MPU 130 performs the process according to the flowchart of FIG. 7B to obtain the WB correction value used in the WB correction for the image captured by the camera 23L using the common color temperature, and the obtained WB correction value is used in the camera. Send to 23L.

このように、本実施形態によれば、撮像センサの個体差によるカメラ間のWB補正誤差を低減するためのWB制御が可能となる。 As described above, according to the present embodiment, it is possible to perform the WB control for reducing the WB correction error between the cameras due to the individual difference of the image sensor.

<変形例1>
第2の実施形態では、頭部装着型表示装置200が同じタイプの撮像センサを有するものとしていたが、タイプが同じ撮像センサやタイプが異なる撮像センサを有する頭部装着型表示装置200である場合には、同タイプの撮像センサを有するカメラ間では第2の実施形態のWB制御を使い、異なるタイプの撮像センサを有するカメラ間では第1の実施形態のWB制御を使うなど、第1,2の実施形態を組み合わせて使用しても構わない。
<Modification 1>
In the second embodiment, the head-mounted display device 200 has the same type of image sensor, but the head-mounted display device 200 has the same type of image sensor or a different type of image sensor. For example, the WB control of the second embodiment is used between cameras having the same type of image sensor and the WB control of the first embodiment is used between cameras having different types of image sensors. The above embodiments may be used in combination.

(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program. It can also be realized by the processing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

130:MPU 100R:右目メイン撮像ユニット 100L:左目メイン撮像ユニット 110R:右サブ撮像ユニット 110L:左サブ撮像ユニット 130: MPU 100R: Right eye main imaging unit 100L: Left eye main imaging unit 110R: Right sub imaging unit 110L: Left sub imaging unit

Claims (17)

第1の撮像装置によって撮像された第1の撮像画像と前記第1の撮像装置と異なる第2の撮像装置によって撮像された第2の撮像画像と、のそれぞれにおける色温度を取得する取得手段と、
前記取得手段が取得した色温度の一部もしくは全部の平均色温度を、前記第1の撮像装置と前記第2の撮像装置とで共通の色温度として決定する決定手段と、
前記決定手段が決定した色温度に基づいて、前記第1の撮像画像及び前記第2の撮像画像におけるカラーバランス調整を制御する制御手段と
を備えることを特徴とする画像処理装置。
An acquisition unit that acquires the color temperature of each of the first captured image captured by the first imaging device and the second captured image captured by the second imaging device different from the first imaging device. ,
Determination means for determining an average color temperature of a part or all of the color temperatures acquired by the acquisition means as a color temperature common to the first image pickup device and the second image pickup device;
An image processing apparatus comprising: a control unit that controls color balance adjustment in the first captured image and the second captured image based on the color temperature determined by the determination unit.
前記決定手段は、
前記第1の撮像画像及び前記第2の撮像画像のそれぞれについて前記取得手段が取得した色温度のうち最大の色温度と最小の色温度との差分を求め、該差分が許容範囲内であるかに基づいて、前記共通の色温度を決定することを特徴とする請求項1に記載の画像処理装置。
The determining means is
For each of the first captured image and the second captured image, the difference between the maximum color temperature and the minimum color temperature of the color temperatures acquired by the acquisition unit is calculated, and whether the difference is within an allowable range. The image processing apparatus according to claim 1, wherein the common color temperature is determined based on the.
前記決定手段による前記共通の色温度の決定の処理は、前記差分が許容範囲内である場合と許容範囲内でない場合とで異なることを特徴とする請求項に記載の画像処理装置。 The image processing apparatus according to claim 2 , wherein a process of determining the common color temperature by the determining unit is different depending on whether the difference is within an allowable range or not. 前記決定手段は、
前記差分が許容範囲内である場合には、前記第1の撮像画像及び前記第2の撮像画像のそれぞれについて前記取得手段が取得した色温度の一部もしくは全部の平均色温度を前記共通の色温度として決定し、
前記差分が許容範囲内でない場合には、前記第1の撮像画像及び前記第2の撮像画像のそれぞれについて前記取得手段が取得した色温度の一部もしくは全部の色温度のうち標準色温度として予め設定した色温度に最も近い色温度を前記共通の色温度として決定することを特徴とする請求項に記載の画像処理装置。
The determining means is
When the difference is within the allowable range, an average color temperature of a part or all of the color temperatures acquired by the acquisition unit for each of the first captured image and the second captured image is set to the common color. Decided as temperature,
If the difference is not within the allowable range, a part of the color temperature acquired by the acquisition unit for each of the first captured image and the second captured image is partially or entirely set as a standard color temperature in advance. The image processing apparatus according to claim 3 , wherein the color temperature closest to the set color temperature is determined as the common color temperature.
前記決定手段は、
前記差分が許容範囲内である場合には、前記第1の撮像画像及び前記第2の撮像画像のそれぞれについて前記取得手段が取得した色温度の一部もしくは全部の平均色温度を前記共通の色温度として決定し、
前記差分が許容範囲内でない場合には、前記第1の撮像画像及び前記第2の撮像画像のそれぞれについて前記取得手段が取得した色温度から求めた1つの色温度を前記共通の色温度として決定する
ことを特徴とする請求項に記載の画像処理装置。
The determining means is
When the difference is within the allowable range, an average color temperature of a part or all of the color temperatures acquired by the acquisition unit for each of the first captured image and the second captured image is set to the common color. Decided as temperature,
If the difference is not within the allowable range, one color temperature obtained from the color temperatures acquired by the acquisition unit for each of the first captured image and the second captured image is determined as the common color temperature. The image processing device according to claim 3 , wherein
前記第1の撮像画像及び前記第2の撮像画像のそれぞれについて前記取得手段が取得した色温度から求めた1つの色温度は、前記第1の撮像画像及び前記第2の撮像画像のそれぞれについて前記取得手段が取得した色温度の統計量に基づいて決まる色温度であることを特徴とする請求項に記載の画像処理装置。 One color temperature obtained from the color temperature acquired by the acquisition unit for each of the first captured image and the second captured image is the same for each of the first captured image and the second captured image. The image processing apparatus according to claim 5 , wherein the color temperature is determined based on the color temperature statistic acquired by the acquisition unit. 前記決定手段は、
前記差分が許容範囲内である場合には、前記取得手段が取得した色温度の一部もしくは全部の平均色温度を前記共通の色温度として決定し、
前記差分が許容範囲内でない場合には、前記第1の撮像装置と前記第2の撮像装置のうち予め決定された撮像装置によって撮像された撮像画像について前記取得手段が取得した色温度を前記共通の色温度として決定する
ことを特徴とする請求項に記載の画像処理装置。
The determining means is
If the difference is within the allowable range, the average color temperature of a part or all of the color temperature acquired by the acquisition unit is determined as the common color temperature,
When the difference is not within the allowable range, the color temperature acquired by the acquisition unit is the same as the color temperature acquired by the acquisition unit with respect to the imaged image captured by a predetermined image capturing device of the first image capturing device and the second image capturing device. The image processing apparatus according to claim 3 , wherein the color temperature is determined as
前記第1の撮像画像及び前記第2の撮像画像のそれぞれについて前記取得手段が取得した色温度の一部の平均色温度は、前記第1の撮像画像及び前記第2の撮像画像のそれぞれについて前記取得手段が取得した色温度から該色温度の平均色温度から差が最も大きい色温度を除いた残りの色温度の平均色温度であることを特徴とする請求項に記載の画像処理装置。 The average color temperature of a part of the color temperatures acquired by the acquisition unit for each of the first captured image and the second captured image is the average color temperature for each of the first captured image and the second captured image. The image processing apparatus according to claim 4 , wherein the color temperature acquired by the acquisition unit is the average color temperature of the remaining color temperatures obtained by removing the color temperature having the largest difference from the average color temperature of the color temperatures. 前記取得手段は、前記第1の撮像画像及び前記第2の撮像画像のそれぞれについて、該撮像画像の色成分ごとの平均画素値を求め、該平均画素値を用いて該撮像画像における色温度を取得することを特徴とする請求項1乃至の何れか1項に記載の画像処理装置。 The acquisition unit obtains an average pixel value for each color component of the captured image for each of the first captured image and the second captured image, and uses the average pixel value to determine a color temperature in the captured image. the image processing apparatus according to any one of claims 1 to 8, characterized in that to obtain. 前記取得手段は、前記第1の撮像画像及び前記第2の撮像画像のそれぞれについて、該撮像画像のR成分の平均画素値、B成分の平均画素値を求め、(B成分の平均画素値)/(R成分の平均画素値)に対応する色温度を取得することを特徴とする請求項に記載の画像処理装置。 The acquisition unit obtains the average pixel value of the R component and the average pixel value of the B component of the captured image for each of the first captured image and the second captured image, and (average pixel value of the B component). The image processing apparatus according to claim 9 , wherein the color temperature corresponding to /(average pixel value of R component) is acquired. 前記画像処理装置は、前記第1の撮像装置と前記第2の撮像装置と表示装置とを有する頭部装着型表示装置であることを特徴とする請求項1乃至10の何れか1項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 10, characterized in that said a first head-mounted display device having the imaging device and the second imaging device display and Image processing device. 更に、前記第1の撮像装置の位置姿勢を導出する導出手段と、
前記導出された前記第1の撮像装置の位置姿勢に基づいて生成される仮想物体を前記第1の撮像画像と合成する合成手段を備えることを特徴とする請求項1乃至11の何れか1項に記載の画像処理装置。
Further, a derivation unit that derives the position and orientation of the first image pickup device,
Any one of claims 1 to 11, characterized in that it comprises a synthesizing means for synthesizing the first captured image a virtual object to be produced on the basis of the position and orientation of said derived first imaging device The image processing device according to 1.
前記導出手段は、前記第2の撮像画像に基づいて前記第1の撮像装置の位置姿勢を導出することを特徴とする請求項12に記載の画像処理装置。 The image processing apparatus according to claim 12 , wherein the deriving unit derives the position and orientation of the first imaging device based on the second captured image. 前記第1の撮像装置のセンサの種類は、前記第2の撮像装置のセンサの種類と異なることを特徴とする請求項1乃至13の何れか1項に記載の画像処理装置。 The type of sensor of the first imaging apparatus, an image processing apparatus according to any one of claims 1 to 13, characterized in that different from the types of sensors of said second imaging device. 前記第1の撮像装置のセンサはローリングシャッター方式であり、前記第2の撮像装置のセンサはグローバルシャッター方式であることを特徴とする請求項14に記載の画像処理装置。 15. The image processing apparatus according to claim 14 , wherein the sensor of the first imaging device is a rolling shutter system, and the sensor of the second imaging device is a global shutter system. 第1の撮像装置によって撮像された第1の撮像画像と前記第1の撮像装置と異なる第2の撮像装置によって撮像された第2の撮像画像と、のそれぞれにおける色温度を取得し、
前記取得した色温度の一部もしくは全部の平均色温度を、前記第1の撮像装置と前記第2の撮像装置とで共通の色温度として決定し、
前記決定した色温度に基づいて、前記第1の撮像画像及び前記第2の撮像画像におけるカラーバランス調整を制御する
ことを特徴とする画像処理方法。
The color temperature in each of the first captured image captured by the first captured image and the second captured image captured by the second captured image different from the first captured image is acquired,
An average color temperature of a part or all of the acquired color temperatures is determined as a common color temperature between the first imaging device and the second imaging device,
An image processing method, comprising: controlling color balance adjustment in the first captured image and the second captured image based on the determined color temperature.
コンピュータを、請求項1乃至15の何れか1項に記載の画像処理装置の各手段として機能させるためのコンピュータプログラム。 A computer program for a computer to function as each means of the image processing apparatus according to any one of claims 1 to 15.
JP2015250498A 2015-03-02 2015-12-22 Image processing apparatus and image processing method Active JP6735557B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US15/051,873 US10122980B2 (en) 2015-03-02 2016-02-24 Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
US16/149,670 US10455208B2 (en) 2015-03-02 2018-10-02 Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
US16/572,010 US11128851B2 (en) 2015-03-02 2019-09-16 Image processing apparatus, image processing method, and non-transitory computer-readable storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015040687 2015-03-02
JP2015040687 2015-03-02

Publications (3)

Publication Number Publication Date
JP2016167797A JP2016167797A (en) 2016-09-15
JP2016167797A5 JP2016167797A5 (en) 2019-02-07
JP6735557B2 true JP6735557B2 (en) 2020-08-05

Family

ID=56897937

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015250498A Active JP6735557B2 (en) 2015-03-02 2015-12-22 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP6735557B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111226435B (en) 2017-10-25 2022-06-10 富士胶片株式会社 Information processing device, imaging system, information processing method, imaging method, and recording medium
EP4091013A4 (en) 2020-01-15 2023-07-12 Magic Leap, Inc. Compensation for deformation in head mounted display systems
CN113573037A (en) * 2021-06-24 2021-10-29 维沃移动通信(杭州)有限公司 Image processing method and device and electronic equipment

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000106647A (en) * 1998-09-28 2000-04-11 Sony Corp Image pickup method and image pickup system
JP3973820B2 (en) * 2000-03-22 2007-09-12 株式会社リコー White balance adjustment device, color imaging device
JP3607654B2 (en) * 2001-09-14 2005-01-05 株式会社東芝 Illumination light color estimation method and imaging device for obtaining white balance
JP2004205711A (en) * 2002-12-24 2004-07-22 Canon Inc Display device
JP4269776B2 (en) * 2003-05-21 2009-05-27 株式会社ニコン Electronic camera and program
JP2006262083A (en) * 2005-03-17 2006-09-28 Matsushita Electric Ind Co Ltd White balance controller
JP5180570B2 (en) * 2007-12-11 2013-04-10 キヤノン株式会社 Camera control device, camera control method, camera system, and program
JP2010004464A (en) * 2008-06-23 2010-01-07 Canon Inc White balance control device, and white balance control method
JP2012095176A (en) * 2010-10-28 2012-05-17 Sony Corp Imaging apparatus, imaging method and program
JP6049343B2 (en) * 2012-08-01 2016-12-21 キヤノン株式会社 Image processing apparatus, image processing method, and program
JP6178590B2 (en) * 2013-03-04 2017-08-09 キヤノン株式会社 Image processing apparatus, image processing method, program, and storage medium

Also Published As

Publication number Publication date
JP2016167797A (en) 2016-09-15

Similar Documents

Publication Publication Date Title
US11128851B2 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
US9264689B2 (en) Systems and methods for color compensation in multi-view video
JP5356952B2 (en) Display device
US8300086B2 (en) Image processing for supporting a stereoscopic presentation
US8208008B2 (en) Apparatus, method, and program for displaying stereoscopic images
US10694167B1 (en) Camera array including camera modules
US20080199070A1 (en) Three-dimensional image display apparatus and method for enhancing stereoscopic effect of image
TWI688254B (en) Stereoscopic display device and parameter calibration method thereof
WO2012005445A2 (en) Camera system for three-dimensional thermal imaging
US20100194902A1 (en) Method for high dynamic range imaging
JP5831024B2 (en) Image processing apparatus, image processing method, and program
CN102263985B (en) Quality evaluation method, device and system of stereographic projection device
JP6735557B2 (en) Image processing apparatus and image processing method
JP2023525191A (en) Displays that use light sensors to generate environmentally consistent artificial reality content
TWI788739B (en) 3D display device, 3D image display method
JP2014501086A (en) Stereo image acquisition system and method
US20120257088A1 (en) Image processing apparatus and method thereof
CN105376478A (en) Imaging device, shooting system and shooting method
TWI589150B (en) Three-dimensional auto-focusing method and the system thereof
US20140015938A1 (en) Lens system for 3d video taking
TW202029056A (en) Disparity estimation from a wide angle image
US20150271472A1 (en) System and method for stereoscopic photography
JP6732440B2 (en) Image processing apparatus, image processing method, and program thereof
JP2006013851A (en) Imaging display device, and imaging display method
US20140168381A1 (en) Stereoscopic image signal processing device and stereoscopic image capture device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181219

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181219

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200615

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200714

R151 Written notification of patent or utility model registration

Ref document number: 6735557

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151