JP2023177556A - Imaging apparatus and control method for the same - Google Patents

Imaging apparatus and control method for the same Download PDF

Info

Publication number
JP2023177556A
JP2023177556A JP2022090289A JP2022090289A JP2023177556A JP 2023177556 A JP2023177556 A JP 2023177556A JP 2022090289 A JP2022090289 A JP 2022090289A JP 2022090289 A JP2022090289 A JP 2022090289A JP 2023177556 A JP2023177556 A JP 2023177556A
Authority
JP
Japan
Prior art keywords
unit
imaging
image
time stamp
exposure
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022090289A
Other languages
Japanese (ja)
Inventor
光 内舘
Hikaru Uchidate
佳樹 梶田
Yoshiki Kajita
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2022090289A priority Critical patent/JP2023177556A/en
Publication of JP2023177556A publication Critical patent/JP2023177556A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

To make it possible to achieve a stable frame rate on top of synchronizing a plurality of imaging units or synchronizing the imaging units and a sensing unit.SOLUTION: An imaging apparatus has a first imaging unit that takes an image by exposure during a first exposure period, a second imaging unit that takes an image by exposure during a second exposure period, a first timestamp generation unit for generating a first timestamp indicating an exposure timing within the first exposure period of the first imaging unit, and a second timestamp generation unit for generating a second timestamp indicating an exposure timing within the second exposure period of the second imaging unit.SELECTED DRAWING: Figure 5

Description

本開示は、撮像装置および撮像装置の制御方法に関する。 The present disclosure relates to an imaging device and a method of controlling the imaging device.

近年、現実世界と仮想世界をリアルタイムにシームレスに融合させる技術として複合現実感、いわゆるMR(Mixed Reality)技術が知られている。MR技術の1つに、ビデオシースルーHMD(Head Mounted Display)を利用して、HMD使用者の瞳位置から観察される被写体と略一致する被写体をビデオカメラなどで撮像する技術が知られている。その技術では、その撮像画像にCG(Computer Graphics)を重畳表示した画像をHMD使用者が観察できる。 In recent years, mixed reality, or so-called MR (Mixed Reality) technology, has become known as a technology that seamlessly fuses the real world and the virtual world in real time. BACKGROUND ART As one of the MR techniques, a technique is known in which a video see-through HMD (Head Mounted Display) is used to image an object that substantially matches the object observed from the pupil position of the HMD user using a video camera or the like. With this technology, an HMD user can observe an image in which CG (computer graphics) is superimposed on the captured image.

このような技術では、複数の撮像画像や各種センサ情報を用いた演算処理を行うことによりHMDの位置姿勢を求めることによって、HMD使用者の体験する空間の位置情報を取得する。HMD使用者の位置情報を正確に取得することができれば、適切な空間にCGを描画することが可能となり、HMD使用者はMR体験に没入することができる。 In such technology, the position and orientation of the HMD is determined by performing arithmetic processing using a plurality of captured images and various sensor information, thereby obtaining position information of the space experienced by the HMD user. If the position information of the HMD user can be accurately acquired, CG can be drawn in an appropriate space, and the HMD user can be immersed in the MR experience.

位置情報を正確に求めるためには、複数の撮像手段や各種センサは、可能な限り、同期した状態で動作させることが望ましい。これに対し、特許文献1には、複数の撮像手段に対して露光時間の重心を一致させることで、同期させる技術が記載されている。また、特許文献2には、複数の撮像手段と各種センサまで含めて同期させる技術が記載されている。 In order to accurately obtain positional information, it is desirable to operate the plurality of imaging means and various sensors in a synchronized state as much as possible. On the other hand, Patent Document 1 describes a technique for synchronizing a plurality of imaging means by aligning the centers of gravity of their exposure times. Further, Patent Document 2 describes a technique for synchronizing a plurality of imaging means and various sensors.

特開2006-5608号公報Japanese Patent Application Publication No. 2006-5608 特開2021-117057号公報JP 2021-117057 Publication

しかしながら、特許文献1および2に記載された技術では、複数の撮像画像や各種センサをフレーム単位では同期することができるが、同期させるためにフレームレートが変動して一定とはならず、HMD使用者にとって違和感のあるMR映像となってしまう。 However, although the technologies described in Patent Documents 1 and 2 can synchronize multiple captured images and various sensors on a frame-by-frame basis, the frame rate fluctuates and is not constant due to synchronization. This results in an MR image that feels strange to the user.

本開示の目的は、複数の撮像部または撮像部とセンシング部を同期させた上で、安定したフレームレートを実現できるようにすることである。 An object of the present disclosure is to enable a stable frame rate to be achieved by synchronizing a plurality of imaging units or an imaging unit and a sensing unit.

撮像装置は、第1の露光期間における露光により撮像を行う第1の撮像部と、第2の露光期間における露光により撮像を行う第2の撮像部と、前記第1の撮像部の前記第1の露光期間内の露光タイミングを示す第1のタイムスタンプを生成する第1のタイムスタンプ生成部と、前記第2の撮像部の前記第2の露光期間内の露光タイミングを示す第2のタイムスタンプを生成する第2のタイムスタンプ生成部とを有する。 The imaging device includes a first imaging unit that performs imaging by exposure in a first exposure period, a second imaging unit that performs imaging by exposure in a second exposure period, and the first imaging unit of the first imaging unit. a first timestamp generating section that generates a first timestamp indicating an exposure timing within the exposure period of the second imaging section; and a second timestamp indicating the exposure timing within the second exposure period of the second imaging section. and a second timestamp generation unit that generates.

本開示によれば、複数の撮像部または撮像部とセンシング部を同期させた上で、安定したフレームレートを実現することができる。 According to the present disclosure, a stable frame rate can be achieved by synchronizing a plurality of imaging units or an imaging unit and a sensing unit.

画像表示システムの構成例を示す図である。1 is a diagram showing a configuration example of an image display system. HMDと画像処理装置の機能構成例を示す図である。It is a diagram showing an example of functional configuration of an HMD and an image processing device. 撮像部の処理を示すタイミングチャートである。5 is a timing chart showing processing of an imaging unit. HMDの制御方法を示すフローチャートである。It is a flowchart which shows the control method of HMD. HMDの制御方法を示すタイミングチャートである。It is a timing chart which shows the control method of HMD. HMDと画像処理装置の機能構成例を示す図である。It is a diagram showing an example of functional configuration of an HMD and an image processing device. HMDの制御方法を示すタイミングチャートである。It is a timing chart which shows the control method of HMD.

以下に、好ましい実施形態を、図面に基づいて詳細に説明する。
(第1の実施形態)
図1は、第1の実施形態による画像表示システム100の構成例を示す図である。画像表示システム100は、頭部搭載型表示装置(Head Mounted Display:以下、HMD)101と、表示装置102と、操作部104と、画像処理装置103を有する。画像処理装置103には、表示装置102と操作部104が接続されている。画像処理装置103は、操作部104の使用者の操作情報を入力し、表示装置102に画像および情報を表示する。
Below, preferred embodiments will be described in detail based on the drawings.
(First embodiment)
FIG. 1 is a diagram showing a configuration example of an image display system 100 according to the first embodiment. The image display system 100 includes a head mounted display (hereinafter referred to as HMD) 101 , a display device 102 , an operation unit 104 , and an image processing device 103 . A display device 102 and an operation unit 104 are connected to the image processing device 103 . The image processing device 103 inputs operation information of the user through the operation unit 104 and displays images and information on the display device 102 .

HMD101は、使用者の頭部に装着され、画像処理装置103で生成した画像を表示する。HMD101は、小規模ネットワークにより無線接続された画像処理装置103と通信を行う。小規模ネットワークは、例えば、WLAN(Wireless Local Area Network)やWPAN(Wireless Personal Area Network)である。HMD101と画像処理装置103の間の通信は、無線通信に限らず、有線通信方式を利用してもよい。また、画像処理装置103とHMD101を別々のハードウェア構成としているが、画像処理装置103の持つ機能をすべてHMD101内に実装して、一体化することも可能である。 The HMD 101 is worn on the user's head and displays images generated by the image processing device 103. The HMD 101 communicates with an image processing device 103 that is wirelessly connected via a small-scale network. The small-scale network is, for example, WLAN (Wireless Local Area Network) or WPAN (Wireless Personal Area Network). Communication between the HMD 101 and the image processing device 103 is not limited to wireless communication, and a wired communication method may be used. Further, although the image processing device 103 and the HMD 101 have separate hardware configurations, it is also possible to implement all the functions of the image processing device 103 within the HMD 101 and integrate them.

図2は、図1に示したHMD101と画像処理装置103の機能構成例を示すブロック図である。HMD101は、撮像部201,202と、表示部203と、センシング部204と、動作算出部205と、撮像処理部206と、演算部207と、画像合成部208と、同期化部220と、タイムスタンプ管理部221を有する。 FIG. 2 is a block diagram showing an example of the functional configuration of the HMD 101 and image processing device 103 shown in FIG. 1. The HMD 101 includes imaging units 201 and 202, a display unit 203, a sensing unit 204, a motion calculation unit 205, an imaging processing unit 206, a calculation unit 207, an image synthesis unit 208, a synchronization unit 220, and a timer. It has a stamp management section 221.

撮像部201および202は、それぞれ、外界を撮像するための対物光学系とイメージセンサを有する。表示部203は、画像をHMD101の使用者に提示するための接眼光学系とディスプレイを有する。センシング部204は、HMD101の動作をセンシングする。動作算出部205は、センシング部204のセンシング結果から、HMD101の動きを算出する。撮像処理部206は、撮像部201および202からの撮像画像を画像処理する。演算部207は、演算を行う。画像合成部208は、撮像画像とCG画像を合成する。同期化部220は、撮像部201,202およびセンシング部204を同期化させる。タイムスタンプ管理部221は、タイムスタンプを管理する。 The imaging units 201 and 202 each have an objective optical system and an image sensor for imaging the outside world. The display unit 203 includes an eyepiece optical system and a display for presenting images to the user of the HMD 101. The sensing unit 204 senses the operation of the HMD 101. The motion calculation unit 205 calculates the motion of the HMD 101 from the sensing result of the sensing unit 204. The imaging processing unit 206 performs image processing on the captured images from the imaging units 201 and 202. The calculation unit 207 performs calculations. The image composition unit 208 composes the captured image and the CG image. The synchronization unit 220 synchronizes the imaging units 201 and 202 and the sensing unit 204. The time stamp management unit 221 manages time stamps.

画像処理装置103は、位置姿勢計算部209と、CG生成部210と、コンテンツDB(データベース)211を有する。位置姿勢計算部209は、撮像画像とHMD101の動きから、HMD101の位置姿勢を計算する。コンテンツDB211は、CGデータを格納する。CG生成部210は、位置姿勢計算部209により計算された位置姿勢の情報を基に、コンテンツDB211よりCGデータを読み込んだ後、CG画像を生成する。 The image processing device 103 includes a position/orientation calculation section 209, a CG generation section 210, and a content DB (database) 211. The position and orientation calculation unit 209 calculates the position and orientation of the HMD 101 from the captured image and the movement of the HMD 101. The content DB 211 stores CG data. The CG generation unit 210 reads CG data from the content DB 211 based on the position and orientation information calculated by the position and orientation calculation unit 209, and then generates a CG image.

次に、図2を用いて、使用者がMR映像を体験する方法について説明する。撮像部201および202は、それぞれ、外界を撮像する。撮像部201および202は、画素数、画質、ノイズ、センササイズ、消費電力、コスト等の様々な要因を鑑み、ローリングシャッタ方式の撮像素子とグローバルシャッタ方式の撮像素子を使い分けたり、用途に応じてそれらを組み合わせて使用することができる。例えば、撮像部201は、仮想空間の画像と合成する撮像画像を撮像する場合には、より高画質な画像が取得可能なローリングシャッタ方式の撮像素子を用いる。撮像部202は、HMD101の位置姿勢を計算するために外界を撮像する場合には、像流れのないグローバルシャッタ方式の撮像素子を用いる。像流れとは、走査方向のライン毎に順次、露光処理が開始されるローリングシャッタ方式の動作原理に起因して発生する現象である。 Next, a method for a user to experience MR images will be described using FIG. 2. Imaging units 201 and 202 each image the outside world. The imaging units 201 and 202 may be configured to use a rolling shutter type image sensor or a global shutter type image sensor depending on the purpose, taking into account various factors such as the number of pixels, image quality, noise, sensor size, power consumption, and cost. They can be used in combination. For example, when capturing an image to be combined with an image in the virtual space, the imaging unit 201 uses a rolling shutter type imaging element that can obtain a higher quality image. When capturing an image of the outside world in order to calculate the position and orientation of the HMD 101, the imaging unit 202 uses a global shutter type imaging element without image drift. Image drift is a phenomenon that occurs due to the operating principle of a rolling shutter method in which exposure processing is started sequentially for each line in the scanning direction.

図3は、ローリングシャッタ方式の撮像部201とグローバルシャッタ方式の撮像部202の処理例を示すタイミングチャートである。図3の横軸は、時間を示す。撮像部201がローリングシャッタ方式の撮像素子を用い、撮像部202がローリングシャッタ方式の撮像素子を用いる例を説明する。 FIG. 3 is a timing chart showing a processing example of the rolling shutter type imaging unit 201 and the global shutter type imaging unit 202. The horizontal axis in FIG. 3 indicates time. An example will be described in which the imaging unit 201 uses a rolling shutter type imaging element and the imaging unit 202 uses a rolling shutter type imaging element.

撮像部201の露光(ローリング)は、ローリングシャッタ方式の撮像素子で撮像される各ラインの露光時間を示している。ローリングシャッタ方式の撮像部201では、各ラインの露光のタイミングに時間的なズレが生じることにより、露光時間中に撮像部201や被写体が動いた際に、被写体が流れるように変形して記録される現象が発生する。この現象が像流れである。 Exposure (rolling) of the imaging unit 201 indicates the exposure time of each line imaged by a rolling shutter type imaging element. In the rolling shutter type imaging unit 201, because there is a time lag in the exposure timing of each line, when the imaging unit 201 or the subject moves during the exposure time, the subject may be deformed and recorded in a flowing manner. A phenomenon occurs. This phenomenon is image drift.

撮像部202の露光(グローバル)は、グローバルシャッタ方式の撮像素子で撮像される各ラインの露光時間を示している。グローバルシャッタ方式の撮像部202では、同時に全ラインの露光処理が行われるため、各ラインの露光タイミングに時間的なズレが生じず、像流れは発生しない。本実施形態では、撮像部201はローリングシャッタ方式の撮像素子を用い、撮像部202はグローバルシャッタ方式の撮像素子を用いるものとして説明する。 Exposure (global) of the imaging unit 202 indicates the exposure time of each line imaged by a global shutter type imaging device. In the global shutter type imaging unit 202, exposure processing for all lines is performed at the same time, so there is no time lag in the exposure timing of each line, and image blur does not occur. In this embodiment, the imaging unit 201 uses a rolling shutter type imaging device, and the imaging unit 202 uses a global shutter type imaging device.

図2において、撮像部201および202は、外界を撮像した撮像画像を、タイムスタンプ管理部221に出力する。タイムスタンプ管理部221は、撮像画像を入力すると、タイムスタンプを発行する。これについての詳細な動作は後述する。 In FIG. 2, imaging units 201 and 202 output captured images of the outside world to a time stamp management unit 221. The time stamp management unit 221 issues a time stamp when a captured image is input. The detailed operation regarding this will be described later.

撮像処理部206は、撮像部201および202により撮像された撮像画像に対して、画像処理を実行する。撮像処理部206で行われる画像処理とは、AE(Auto Exposure)制御、デモザイク処理、シェーディング補正、ノイズリダクション、歪み補正等である。撮像処理部206は、撮像部201および202により撮像された撮像画像に対して、画像処理を行うことにより、画像の高画質化を図る。その後、撮像処理部206は、撮像部202により撮像された撮像画像を画像処理した画像を、画像処理後のCGの描画位置を特定するために、位置姿勢計算部209に出力する。また、撮像処理部206は、撮像部201により撮像された撮像画像を画像処理した画像を、CG画像と合成するために、画像合成部208に出力する。 The imaging processing unit 206 performs image processing on the captured images captured by the imaging units 201 and 202. The image processing performed by the imaging processing unit 206 includes AE (Auto Exposure) control, demosaic processing, shading correction, noise reduction, distortion correction, and the like. The imaging processing unit 206 performs image processing on the captured images captured by the imaging units 201 and 202 to improve the quality of the images. Thereafter, the imaging processing unit 206 outputs an image obtained by processing the captured image captured by the imaging unit 202 to the position and orientation calculation unit 209 in order to specify the CG drawing position after the image processing. Further, the imaging processing unit 206 outputs an image obtained by processing the captured image captured by the imaging unit 201 to the image combining unit 208 in order to combine it with a CG image.

センシング部204は、HMD101の動作をセンシングする。センシング部204のセンサは、IMU(Inertial Measurement Unit)や加速度センサ、角速度センサなどである。本実施形態においては、センシング部204は、例えば、IMUである。動作算出部205は、IMUから出力されるセンシングデータから、HMD101の移動、傾き、回転等を算出し、それらを位置姿勢計算部209に出力する。 The sensing unit 204 senses the operation of the HMD 101. The sensor of the sensing unit 204 is an IMU (Inertial Measurement Unit), an acceleration sensor, an angular velocity sensor, or the like. In this embodiment, the sensing unit 204 is, for example, an IMU. The motion calculation unit 205 calculates the movement, tilt, rotation, etc. of the HMD 101 from the sensing data output from the IMU, and outputs them to the position and orientation calculation unit 209.

位置姿勢計算部209は、画像処理後の撮像部202の撮像画像と動作算出部205の算出結果から、現実世界を示す世界座標系とHMD101を通して観察した画像を示すカメラ座標系との関係を計算する。そして、位置姿勢計算部209は、その関係を基に、現実世界に対してHMD101がどのような位置姿勢であるかを計算する。位置姿勢の計算方法は、例えば、現実世界に基準となるマーカー等を置いておき、ステレオカメラ構成とした撮像部202で画像を取得し、画像内のマーカーの位置関係から、HMD101の位置姿勢を計算する方法がある。または、現実世界の静止物体の特徴量を画像から算出し、特徴量の時間変化からHMD101の自己位置推定と環境地図作成を行う方法などがある。本実施形態においては、位置姿勢の計算方法については特に限定されない。位置姿勢計算部209は、このようにして計算された位置姿勢の情報をCG生成部210に出力する。 The position and orientation calculation unit 209 calculates the relationship between the world coordinate system representing the real world and the camera coordinate system representing the image observed through the HMD 101 from the captured image of the imaging unit 202 after image processing and the calculation result of the motion calculation unit 205. do. Then, the position/orientation calculation unit 209 calculates the position/orientation of the HMD 101 with respect to the real world based on this relationship. To calculate the position and orientation, for example, a marker or the like is placed as a reference in the real world, an image is acquired by the imaging unit 202 having a stereo camera configuration, and the position and orientation of the HMD 101 is calculated from the positional relationship of the markers in the image. There is a way to calculate it. Alternatively, there is a method of calculating the feature amount of a stationary object in the real world from an image, and estimating the self-position of the HMD 101 and creating an environment map based on the temporal change in the feature amount. In this embodiment, the method of calculating the position and orientation is not particularly limited. The position and orientation calculation unit 209 outputs information on the position and orientation calculated in this manner to the CG generation unit 210.

CG生成部210は、位置姿勢計算部209の位置姿勢の情報を基に、撮像画像のどの位置、どの向きにCGを重畳するかを計算する。また、CG生成部210は、コンテンツDB211からCGデータを読み込むことで、CGのレンダリングを行う。これにより、CG生成部210は、撮像部202により撮像された撮像画像の向いている方向に合わせたCG画像を生成し、CG画像を画像合成部208に出力する。 The CG generation unit 210 calculates in which position and in which direction of the captured image the CG is to be superimposed, based on the position and orientation information from the position and orientation calculation unit 209 . Further, the CG generation unit 210 performs CG rendering by reading CG data from the content DB 211. Thereby, the CG generation unit 210 generates a CG image that matches the direction in which the captured image captured by the imaging unit 202 is facing, and outputs the CG image to the image composition unit 208.

画像合成部208は、画像処理後の撮像部201の撮像画像とCG生成部210から得られるCG画像とを合成することによりMR画像を生成し、MR画像を表示部203に提示(表示)する。MR画像を表示部203に表示することで、HMD101の使用者は、外界には存在しない物体をCGとして視認し、MR体験をすることができる。 The image synthesis unit 208 generates an MR image by synthesizing the image captured by the imaging unit 201 after image processing and the CG image obtained from the CG generation unit 210, and presents (displays) the MR image on the display unit 203. . By displaying the MR image on the display unit 203, the user of the HMD 101 can visually recognize objects that do not exist in the outside world as CG and have an MR experience.

このとき、前述したように、CG生成部210が生成するCG画像は、画像合成後の撮像部202の撮像画像を基に生成されている。一方、画像合成部208が合成する撮像画像は、画像処理後の撮像部201の撮像画像である。すわなち、撮像部201と撮像部202で撮像される時間的なタイミングが異なる場合、画像合成部208が画像合成をした場合に、違和感のあるMR画像が生成されてしまうことになる。 At this time, as described above, the CG image generated by the CG generation unit 210 is generated based on the image captured by the image capture unit 202 after image synthesis. On the other hand, the captured image synthesized by the image synthesizing unit 208 is the captured image of the imaging unit 201 after image processing. That is, if the temporal timings at which images are captured by the imaging unit 201 and the imaging unit 202 are different, an MR image that looks strange will be generated when the image synthesis unit 208 performs image synthesis.

そこで、図3のタイミングチャートを用いて、複数の撮像部201および202の露光重心を一致させる方法について説明する。撮像部201および202の露光重心を一致させることができれば、撮像部201および202で撮像される時間的なタイミングのずれは発生しないことになる。 Therefore, a method of aligning the exposure centers of gravity of the plurality of imaging units 201 and 202 will be described using the timing chart of FIG. 3. If the exposure centers of gravity of the imaging units 201 and 202 can be made to coincide with each other, there will be no difference in the temporal timing when images are captured by the imaging units 201 and 202.

図3は、同期化部220から2つの撮像部201および202への外部同期入力を変化させ、撮像部201および202の露光重心が一致させるように動作させた様子を示している。図3では、撮像部201の撮像露光のタイミングチャートと、撮像部202の撮像露光のタイミングチャートを示している。 FIG. 3 shows an operation in which the external synchronization input from the synchronization unit 220 to the two imaging units 201 and 202 is changed so that the exposure centers of gravity of the imaging units 201 and 202 are made to coincide. FIG. 3 shows a timing chart of imaging exposure of the imaging unit 201 and a timing chart of imaging exposure of the imaging unit 202.

撮像部201は、同期化部220から外部同期入力が行われると、設定されたシャッタスピード(例えばFrame0の場合には1/120s)に応じて変化する露光開始待ち時間A1_f0を経て、露光を開始する。このとき、撮像部201は、ローリングシャッタ方式の撮像素子を用いるため、順次、ラインごとに露光を開始する。そして、撮像部201は、設定されたシャッタスピード時間分露光されると、順次、ラインごとに露光を終了する。そして、撮像部201は、露光が終了すると、画像データをラスタ順に出力する。撮像部201は、画像データを出力する場合、画像データとは別に、フレームの先頭を示すVsyncと、ラインの先頭を示すHsyncなどの同期信号も合わせて出力する。撮像処理部206は、画像データを入力する場合には、このVsyncとHsyncなどの同期信号を基準に、画像データとして取得する。 When an external synchronization input is received from the synchronization unit 220, the imaging unit 201 starts exposure after an exposure start waiting time A1_f0 that changes according to the set shutter speed (for example, 1/120 s in the case of Frame 0). do. At this time, since the imaging unit 201 uses a rolling shutter type imaging device, it sequentially starts exposure for each line. Then, when the imaging unit 201 has been exposed for the set shutter speed time, it sequentially ends the exposure for each line. Then, when the exposure is completed, the imaging unit 201 outputs the image data in raster order. When outputting image data, the imaging unit 201 also outputs synchronization signals, such as Vsync indicating the beginning of a frame and Hsync indicating the beginning of a line, in addition to the image data. When inputting image data, the imaging processing unit 206 acquires it as image data based on synchronization signals such as Vsync and Hsync.

撮像部202は、撮像部201と同様に、同期化部220から外部同期入力が行われると、設定されたシャッタスピード(例えばFrame0の場合には1/120s)に応じて変化する露光開始待ち時間A2_f0を経て、露光を開始する。このとき、撮像部202は、グローバルシャッタ方式の撮像素子を用いるため、全ライン同時に露光を開始する。そして、撮像部202は、設定されたシャッタスピード時間分露光されると、全ライン同時に露光を終了する。そして、撮像部202は、露光が終了すると、画像データをラスタ順に出力する。 Similar to the imaging unit 201, when an external synchronization input is performed from the synchronization unit 220, the imaging unit 202 sets an exposure start waiting time that changes depending on the set shutter speed (for example, 1/120 s in the case of Frame 0). Exposure is started after passing through A2_f0. At this time, since the imaging unit 202 uses a global shutter type imaging element, it starts exposing all lines at the same time. When the imaging unit 202 has been exposed for the set shutter speed time, it ends the exposure for all lines at the same time. Then, when the exposure is completed, the imaging unit 202 outputs the image data in raster order.

前述したように、撮像部201は、ローリングシャッタ方式の撮像素子を用い、撮像部202は、グローバルシャッタ方式の撮像素子を用いている。そのため、撮像部201と撮像部202の露光重心を一致させるには、撮像部201と撮像部202のシャッタスピード設定を鑑み、相対的に撮像部201と撮像部202の露光開始時間をずらす必要がある。そこで、図3では、撮像部202への外部同期入力を、撮像部201への外部同期入力とはタイミングを変えることで、上記の露光重心の一致を実現している。このように、複数の撮像部201および202における露光重心を一致させるように、同期化部220は、外部同期入力タイミングを撮像部201および202ごとに変化させる。 As described above, the imaging unit 201 uses a rolling shutter type imaging element, and the imaging unit 202 uses a global shutter type imaging element. Therefore, in order to match the exposure centers of gravity of the imaging units 201 and 202, it is necessary to relatively shift the exposure start times of the imaging units 201 and 202, taking into consideration the shutter speed settings of the imaging units 201 and 202. be. Therefore, in FIG. 3, by changing the timing of the external synchronization input to the imaging unit 202 and the external synchronization input to the imaging unit 201, the above-mentioned coincidence of the exposure center of gravity is achieved. In this way, the synchronization unit 220 changes the external synchronization input timing for each of the imaging units 201 and 202 so that the exposure centers of gravity in the plurality of imaging units 201 and 202 coincide.

しかしながら、上記の方法によると、撮像部201および202のシャッタスピードによって外部同期入力タイミングが変化する。外部同期入力されてから画像データ出力までの時間は一定であるため、外部同期入力タイミングが一定ではないと、フレーム間の画像データ出力時間(フレームレート)が変動することになる。撮像部201および202から出力される撮像画像のフレームレートが変動すると、表示部203に表示される画像の更新のフレームレートも変動することになり、使用者はMR体験を快適に体験することができないという課題が存在する。 However, according to the above method, the external synchronization input timing changes depending on the shutter speed of the imaging units 201 and 202. Since the time from external synchronization input to image data output is constant, if the external synchronization input timing is not constant, the image data output time (frame rate) between frames will vary. When the frame rate of the captured images output from the imaging units 201 and 202 changes, the frame rate of updating the image displayed on the display unit 203 also changes, making it difficult for the user to comfortably experience the MR experience. There is a problem that cannot be done.

そこで、本実施形態では、HMD101は、同期化部220とタイムスタンプ管理部221により、外部同期入力を複数の撮像部201および202で共通化する。そして、HMD101は、撮像部201および202の露光重心のずれを、タイムスタンプ情報として、画像データと紐づけることで、上記の課題の解決を図る。 Therefore, in the present embodiment, the HMD 101 uses the synchronization unit 220 and the time stamp management unit 221 to share external synchronization input between the plurality of imaging units 201 and 202. Then, the HMD 101 attempts to solve the above problem by associating the shift of the exposure center of gravity of the imaging units 201 and 202 with the image data as time stamp information.

次に、本実施形態の同期化部220を説明する。図2に示すように、同期化部220は、撮像部201と撮像部202を同期化するために、外部同期信号を生成する。同期化部220は、画像合成部208から垂直同期信号Vsyncが入力されると、一定のオフセット時間を経た後に、外部同期信号を生成する。これは、撮像部201および202の撮像レートと表示部203の更新レートの周期を同一とすることで、MR映像を低遅延かつ滑らかに提供することが可能となるためである。しかしながら、外部同期信号の生成方法は、これに特に限定されない。同期化部220は、内部でタイミング信号を自動生成し、そのタイミング信号を外部同期信号として出力する方法や、特定の撮像部201または202の垂直同期信号Vsyncをトリガに、外部同期信号を生成して出力する方法などを使用してもよい。 Next, the synchronization unit 220 of this embodiment will be explained. As shown in FIG. 2, the synchronization unit 220 generates an external synchronization signal to synchronize the imaging unit 201 and the imaging unit 202. When the synchronization unit 220 receives the vertical synchronization signal Vsync from the image synthesis unit 208, it generates an external synchronization signal after a certain offset time has elapsed. This is because by setting the imaging rates of the imaging units 201 and 202 and the update rate of the display unit 203 to have the same cycle, it is possible to provide MR images smoothly with low delay. However, the method of generating the external synchronization signal is not particularly limited to this. The synchronization unit 220 automatically generates a timing signal internally and outputs the timing signal as an external synchronization signal, or generates an external synchronization signal using a vertical synchronization signal Vsync of a specific imaging unit 201 or 202 as a trigger. You may also use a method such as outputting the

次に、図4および図5を用いて、本実施形態のタイムスタンプ管理部221の説明を行う。図4は、タイムスタンプ管理部221の処理例を示すフローチャートである。タイムスタンプ管理部221は、内部にタイムカウンタTcntを持っている。 Next, the time stamp management unit 221 of this embodiment will be explained using FIGS. 4 and 5. FIG. 4 is a flowchart illustrating an example of processing by the timestamp management unit 221. The time stamp management unit 221 has an internal time counter Tcnt.

ステップS401では、タイムスタンプ管理部221は、タイムカウンタTcntの動作を開始させる。タイムカウンタTcntは、その他の動作に影響されることなく、基準となる時間のカウントを開始する。なお、タイムスタンプ管理部221は、内部のカウンタの値をタイムカウンタTcntの値としてもよいし、外部装置から入力される基準信号を基にタイムカウンタTcntの値を生成してもよい。 In step S401, the time stamp management unit 221 starts the operation of the time counter Tcnt. The time counter Tcnt starts counting the reference time without being affected by other operations. Note that the time stamp management unit 221 may use the value of an internal counter as the value of the time counter Tcnt, or may generate the value of the time counter Tcnt based on a reference signal input from an external device.

ステップS402では、タイムスタンプ管理部221は、同期化部220が出力する外部同期信号を入力したか否かを判定する。タイムスタンプ管理部221は、同期化部220が出力する外部同期信号を入力していない場合には、ステップS402に戻り、同期化部220が出力する外部同期信号を入力した場合には、ステップS403に進む。 In step S402, the time stamp management unit 221 determines whether the external synchronization signal output by the synchronization unit 220 has been input. The time stamp management unit 221 returns to step S402 when the external synchronization signal output from the synchronization unit 220 is not input, and returns to step S403 when the external synchronization signal output from the synchronization unit 220 is input. Proceed to.

ステップS403では、タイムスタンプ管理部221は、同期化部220から外部同期信号が入力された時点でのタイムカウンタTcntの値を外部同期時間T(n)として保持する。同期化部220は、この外部同期信号を、撮像部201および202にも出力する。撮像部201および202は、外部同期時間T(n)と同じ時間から露光の準備状態に入る。 In step S403, the time stamp management unit 221 holds the value of the time counter Tcnt at the time when the external synchronization signal is input from the synchronization unit 220 as the external synchronization time T(n). The synchronization unit 220 also outputs this external synchronization signal to the imaging units 201 and 202. The imaging units 201 and 202 enter an exposure preparation state from the same time as the external synchronization time T(n).

ステップS404では、タイムスタンプ管理部221は、撮像部201および202に設定されている露光時間パラメータを取得する。露光時間パラメータは、撮像部201および202に対してレジスタ設定されるシャッタスピードの値や露光モード設定などである。これにより、タイムスタンプ管理部221は、撮像部201および202の各々における露光時間に関する情報を取得することが可能となる。 In step S404, the time stamp management unit 221 obtains the exposure time parameters set in the imaging units 201 and 202. The exposure time parameters include shutter speed values, exposure mode settings, etc. that are set in registers for the imaging units 201 and 202. This allows the time stamp management unit 221 to acquire information regarding the exposure time in each of the imaging units 201 and 202.

ステップS405では、タイムスタンプ管理部221は、上記の撮像部201および202の露光時間パラメータから、撮像部201の露光重心のオフセット値Toffset1と、撮像部202の露光重心のオフセット値Toffset2を特定する。オフセット値Toffset1およびToffset2は、それぞれ、外部同期時間T(n)から、撮像部201および202の露光の重心までの時間を示す値であり、撮像部201および202の特性と設定されるシャッタスピードによって一意に決まる値である。オフセット値Toffset1は、例えば、Toffset1(n)=A1_f(n)+B1_f(n)で表すことができる。オフセット値Toffset2は、例えば、Toffset2(n)=A2_f(n)+B2_f(n)で表すことができる。A1_f(n)およびA2_f(n)は、それぞれ、例えば図5のA1_f0およびA2_f0のように、外部同期信号の入力から露光を開始するまでの時間である。B1_f(n)およびB2_f(n)は、それぞれ、例えば図5のB1_f0およびB2_f0のように、露光が開始されてから露光重心に到達するまでの時間である。nは、フレーム番号を示す。時間A1_f(n)、A2_f(n)、B1_f(n)およびB2_f(n)は、ともに撮像部201または202の特性と設定されるシャッタスピードによって決まる。そのため、時間A1_f(n)、A2_f(n)、B1_f(n)およびB2_f(n)は、演算部207が毎フレーム設定するシャッタスピードに応じて求めてもよいし、設定されるシャッタスピードの候補をテーブル化して参照することにより取得してもよい。このように、タイムスタンプ管理部221は、撮像部201および202の露光時間パラメータから、撮像部201の露光重心のオフセット値Toffsetと、撮像部202の露光重心のオフセット値Toffset2を特定する。その特定方法は、特に限定されない。 In step S405, the time stamp management unit 221 specifies an offset value Toffset1 of the exposure center of gravity of the imaging unit 201 and an offset value Toffset2 of the exposure center of gravity of the imaging unit 202 from the exposure time parameters of the imaging units 201 and 202 described above. The offset values Toffset1 and Toffset2 are values indicating the time from the external synchronization time T(n) to the center of gravity of exposure of the imaging units 201 and 202, respectively, and vary depending on the characteristics of the imaging units 201 and 202 and the set shutter speed. This is a uniquely determined value. The offset value Toffset1 can be expressed as, for example, Toffset1(n)=A1_f(n)+B1_f(n). The offset value Toffset2 can be expressed as, for example, Toffset2(n)=A2_f(n)+B2_f(n). A1_f(n) and A2_f(n) are the times from the input of the external synchronization signal to the start of exposure, respectively, like A1_f0 and A2_f0 in FIG. 5, for example. B1_f(n) and B2_f(n) are the times from the start of exposure to the time when the exposure center of gravity is reached, as shown in B1_f0 and B2_f0 in FIG. 5, respectively, for example. n indicates a frame number. The times A1_f(n), A2_f(n), B1_f(n), and B2_f(n) are all determined by the characteristics of the imaging unit 201 or 202 and the set shutter speed. Therefore, the times A1_f(n), A2_f(n), B1_f(n), and B2_f(n) may be calculated according to the shutter speed set for each frame by the calculation unit 207, or may be calculated based on the shutter speed candidates to be set. It may also be obtained by creating a table and referring to it. In this manner, the time stamp management unit 221 identifies the offset value Toffset of the exposure center of gravity of the imaging unit 201 and the offset value Toffset2 of the exposure center of gravity of the imaging unit 202 from the exposure time parameters of the imaging units 201 and 202. The identification method is not particularly limited.

ステップS406では、タイムスタンプ管理部221は、撮像部201のタイムスタンプS1(n)と撮像部202のタイムスタンプS2(n)を発行し、タイムスタンプS1(n)およびS2(n)を保持する。タイムスタンプ管理部221は、S1(n)=T(n)+Toffset1(n)によりタイムスタンプS1(n)を算出し、S2(n)=T(n)+Toffset2(n)によりタイムスタンプS2(n)を算出する。タイムスタンプS1(n)およびS2(n)は、それぞれ、撮像部201および202の露光重心時間を示す。 In step S406, the timestamp management unit 221 issues the timestamp S1(n) of the imaging unit 201 and the timestamp S2(n) of the imaging unit 202, and holds the timestamps S1(n) and S2(n). . The timestamp management unit 221 calculates the timestamp S1(n) using S1(n)=T(n)+Toffset1(n), and calculates the timestamp S2(n) using S2(n)=T(n)+Toffset2(n). ) is calculated. Time stamps S1(n) and S2(n) indicate the exposure gravity center times of the imaging units 201 and 202, respectively.

ステップS407では、タイムスタンプ管理部221は、撮像部201または202から垂直同期信号Vsyncを入力したか否かを判定する。タイムスタンプ管理部221は、撮像部201または202から垂直同期信号Vsyncを入力していない場合には、ステップS407に戻り、撮像部201または202から垂直同期信号Vsyncを入力した場合には、ステップS408に進む。 In step S407, the time stamp management unit 221 determines whether the vertical synchronization signal Vsync has been input from the imaging unit 201 or 202. If the time stamp management unit 221 has not received the vertical synchronization signal Vsync from the imaging unit 201 or 202, the process returns to step S407, and if the vertical synchronization signal Vsync has been input from the imaging unit 201 or 202, it returns to step S408. Proceed to.

ステップS408では、タイムスタンプ管理部221は、撮像部201から垂直同期信号Vsyncを入力した場合には、撮像部201のタイムスタンプS1(n)と、撮像部201から入力した画像データD1(n)とを対応付けて出力する。また、タイムスタンプ管理部221は、撮像部202から垂直同期信号Vsyncを入力した場合には、撮像部202のタイムスタンプS2(n)と、撮像部202から入力した画像データD2(n)とを対応付けて出力する。これにより、タイムスタンプ管理部221は、1フレーム単位の画像処理を完了し、ステップS402に戻る。 In step S408, when the vertical synchronization signal Vsync is input from the imaging unit 201, the time stamp management unit 221 calculates the timestamp S1(n) of the imaging unit 201 and the image data D1(n) input from the imaging unit 201. Output in association with. Further, when the vertical synchronization signal Vsync is input from the imaging unit 202, the timestamp management unit 221 stores the timestamp S2(n) of the imaging unit 202 and the image data D2(n) input from the imaging unit 202. Output in correspondence. Thereby, the time stamp management unit 221 completes the image processing in units of one frame, and returns to step S402.

以後、タイムスタンプ管理部221は、次のフレームも同様の処理を繰り返すことによって、フレームごとの画像データD1(n)およびD2と、露光重心を示したタイムスタンプS1(n)およびS2(n)とをそれぞれ対応付けて出力することができる。 Thereafter, the time stamp management unit 221 repeats the same process for the next frame to obtain the image data D1(n) and D2 for each frame and the time stamps S1(n) and S2(n) indicating the exposure center of gravity. and can be output in association with each other.

図5は、本実施形態によるHMD101の制御方法の例を示すタイミングチャートである。タイムスタンプ管理部221は、図4のフローチャートの処理を行っている。以下、図5を用いて、図4で説明したフローチャートの処理の説明を補足する。 FIG. 5 is a timing chart showing an example of a method for controlling the HMD 101 according to this embodiment. The time stamp management unit 221 performs the processing shown in the flowchart of FIG. Hereinafter, the explanation of the process of the flowchart explained in FIG. 4 will be supplemented with reference to FIG. 5.

時刻E0は、同期化部220が外部同期信号を撮像部201,202とセンシング部204とタイムスタンプ管理部221に出力した時刻である。撮像部201と撮像部202とセンシング部204とタイムスタンプ管理部221は、共通の外部同期信号を入力する。タイムスタンプ管理部221は、時刻E0におけるタイムカウンタTcntの値を外部同期時間T0として保持する。 Time E0 is the time when the synchronization unit 220 outputs an external synchronization signal to the imaging units 201 and 202, the sensing unit 204, and the time stamp management unit 221. The imaging unit 201, the imaging unit 202, the sensing unit 204, and the time stamp management unit 221 input a common external synchronization signal. The timestamp management unit 221 holds the value of the time counter Tcnt at time E0 as external synchronization time T0.

時刻T0では、撮像部201のシャッタスピード設定は1/120sであり、撮像部201はローリングシャッタ方式の撮像素子を用いている。時間A1_f0は、撮像部201が外部同期信号を入力してから露光を開始するまでの時間である。時間B1_f0は、撮像部201の露光が開始されてから露光重心に到達するまでの時間である。時間A1_f0およびB1_f0は、撮像部201の特性と設定されるシャッタスピードによって一意に決まる値である。タイムスタンプ管理部221は、S1(0)=T0+A1_f0+B1_f0により、タイムスタンプS1(0)を算出する。 At time T0, the shutter speed setting of the imaging unit 201 is 1/120 s, and the imaging unit 201 uses a rolling shutter type imaging element. The time A1_f0 is the time from when the imaging unit 201 inputs the external synchronization signal until it starts exposure. The time B1_f0 is the time from the start of exposure of the imaging unit 201 until reaching the exposure center of gravity. The times A1_f0 and B1_f0 are values uniquely determined by the characteristics of the imaging unit 201 and the set shutter speed. The timestamp management unit 221 calculates the timestamp S1(0) by S1(0)=T0+A1_f0+B1_f0.

時刻R0は、撮像部201が垂直同期信号Vsyncを出力する時刻であり、撮像部201が画像データD1(0)の出力を開始する時刻である。時刻R0では、タイムスタンプ管理部221は、タイムスタンプS1(0)と画像データD1(0)とを対応付けて出力する。 Time R0 is the time when the imaging unit 201 outputs the vertical synchronization signal Vsync, and is the time when the imaging unit 201 starts outputting the image data D1(0). At time R0, the time stamp management unit 221 outputs the time stamp S1(0) and the image data D1(0) in association with each other.

また、時刻T0では、撮像部202のシャッタスピード設定は1/120sであり、撮像部202はグローバルシャッタ方式の撮像素子を用いている。時間A2_f0は、撮像部202が外部同期信号を入力してから露光を開始するまでの時間である。時間B2_f0は、撮像部202の露光が開始されてから露光重心に到達するまでの時間である。時間A2_f0およびB2_f0は、撮像部202の特性と設定されるシャッタスピードによって一意に決まる値である。タイムスタンプ管理部221は、S2(0)=T0+A2_f0+B2_f0により、タイムスタンプS2(0)を算出する。 Further, at time T0, the shutter speed setting of the imaging unit 202 is 1/120 s, and the imaging unit 202 uses a global shutter type imaging element. Time A2_f0 is the time from when the imaging unit 202 inputs the external synchronization signal until it starts exposure. The time B2_f0 is the time from the start of exposure of the imaging unit 202 to the time when the exposure center of gravity is reached. The times A2_f0 and B2_f0 are values uniquely determined by the characteristics of the imaging unit 202 and the set shutter speed. The time stamp management unit 221 calculates the time stamp S2(0) by S2(0)=T0+A2_f0+B2_f0.

時刻R1は、撮像部202が垂直同期信号Vsyncを出力する時刻であり、撮像部202が画像データD2(0)の出力を開始する時刻である。時刻R1では、タイムスタンプ管理部221は、タイムスタンプS2(0)と画像データD2(0)とを対応付けて出力する。 Time R1 is the time when the imaging unit 202 outputs the vertical synchronization signal Vsync, and is the time when the imaging unit 202 starts outputting the image data D2(0). At time R1, the time stamp management unit 221 outputs the time stamp S2(0) and the image data D2(0) in association with each other.

撮像部201は、ローリングシャッタ方式の撮像素子を用いている。撮像部202は、グローバルシャッタ方式の撮像素子を用いている。そのため、撮像部201および202のシャッタスピードが相互に同一であるにもかかわらず、時間B1_f0およびB2_f0が相互に異なることがわかる。 The imaging unit 201 uses a rolling shutter type imaging element. The imaging unit 202 uses a global shutter type imaging element. Therefore, it can be seen that although the shutter speeds of the imaging units 201 and 202 are the same, the times B1_f0 and B2_f0 are different from each other.

次に、本実施形態による効果を説明する。上記のように、タイムスタンプ管理部221は、撮像部201および202の共通の外部同期信号を入力し、設定値に応じてタイムスタンプS1(n)およびS2(n)を生成する。時間差ΔT(n)は、タイムスタンプS1(n)とタイムスタンプS2(n)との差分であり、撮像部201および202の露光重心のずれ時間である。 Next, the effects of this embodiment will be explained. As described above, the time stamp management unit 221 receives the common external synchronization signal of the imaging units 201 and 202, and generates the time stamps S1(n) and S2(n) according to the set values. The time difference ΔT(n) is the difference between the time stamp S1(n) and the time stamp S2(n), and is the shift time of the exposure center of gravity of the imaging units 201 and 202.

CG生成部210が生成するCG画像は、画像処理後の撮像部202の撮像画像を基に生成されている。一方、画像合成部208に入力される撮像画像は、画像処理後の撮像部201の撮像画像である。すわなち、撮像部201と撮像部202で露光される時間的なタイミングが異なる場合、画像合成部208が画像合成をすると、違和感のあるMR画像が生成されてしまう。本実施形態では、HMD101は、時間差ΔT(n)をタイムスタンプS1(n)およびS2(n)から求め、時間差ΔT(n)を考慮して、CG画像を生成する。 The CG image generated by the CG generation unit 210 is generated based on the image captured by the image capture unit 202 after image processing. On the other hand, the captured image input to the image combining unit 208 is the captured image of the imaging unit 201 after image processing. That is, if the temporal timing of exposure in the imaging unit 201 and the imaging unit 202 is different, when the image combining unit 208 performs image combining, an MR image that looks strange will be generated. In this embodiment, the HMD 101 calculates the time difference ΔT(n) from the time stamps S1(n) and S2(n), and generates a CG image by taking the time difference ΔT(n) into consideration.

図5において、撮像部201のFrame0におけるタイムスタンプ値は、S1(0)である。撮像部202のFrame0におけるタイムスタンプ値は、S2(0)である。時間差ΔT0は、撮像部201の露光重心と撮像部202の露光重心の時間差である。例えば、撮像処理部206は、ΔT0=|S1(0)-S2(0)|により時間差ΔT0を算出し、時間差ΔT0と画像処理後の撮像部202の撮像画像を位置姿勢計算部209に出力する。 In FIG. 5, the timestamp value in Frame 0 of the imaging unit 201 is S1(0). The timestamp value in Frame 0 of the imaging unit 202 is S2(0). The time difference ΔT0 is the time difference between the exposure center of gravity of the imaging section 201 and the exposure center of gravity of the imaging section 202. For example, the imaging processing unit 206 calculates the time difference ΔT0 by ΔT0=|S1(0)−S2(0)|, and outputs the time difference ΔT0 and the captured image of the imaging unit 202 after image processing to the position and orientation calculation unit 209. .

位置姿勢計算部209は、時間差ΔT0と、画像処理後の撮像部202の撮像画像と、動作算出部205の算出結果とを基に、撮像部201と撮像部202の露光重心のずれ分を考慮したHMD101の位置姿勢を計算する。前述した通り、位置姿勢計算部209は、現実世界を示す世界座標系とHMD101を通して観察した画像を示すカメラ座標系との関係を計算し、現実世界に対してHMD101がどのような位置姿勢であるかを計算する。位置姿勢計算部209は、時間差ΔTと動作算出部205の算出結果を用いることにより、HMD101の動きを考慮して、時間差ΔT0の時間誤差を補正することができる。具体的には、位置姿勢計算部209は、動作算出部205の算出結果を基に、HMD101の移動、傾き、回転、加速度、角速度等の状態を知ることができる。すなわち、位置姿勢計算部209は、HMD101の現実世界上での変化と時間差ΔT0とを基に、撮像部201の撮像画像が表すカメラ座標と撮像部202の撮像画像が表すカメラ座標の差分量がわかるので、これを考慮して、HMD101の位置姿勢を計算する。位置姿勢計算部209は、HMD101の位置姿勢の情報をCG生成部210に出力する。 The position/orientation calculation unit 209 considers the deviation of the exposure center of gravity between the imaging unit 201 and the imaging unit 202 based on the time difference ΔT0, the captured image of the imaging unit 202 after image processing, and the calculation result of the motion calculation unit 205. The position and orientation of the HMD 101 is calculated. As described above, the position and orientation calculation unit 209 calculates the relationship between the world coordinate system representing the real world and the camera coordinate system representing the image observed through the HMD 101, and calculates the position and orientation of the HMD 101 with respect to the real world. Calculate. By using the time difference ΔT and the calculation result of the motion calculation unit 205, the position and orientation calculation unit 209 can correct the time error of the time difference ΔT0 in consideration of the movement of the HMD 101. Specifically, the position and orientation calculation unit 209 can know the state of movement, tilt, rotation, acceleration, angular velocity, etc. of the HMD 101 based on the calculation results of the motion calculation unit 205. That is, the position and orientation calculation unit 209 calculates the amount of difference between the camera coordinates represented by the captured image of the imaging unit 201 and the camera coordinates represented by the captured image of the imaging unit 202, based on the change in the HMD 101 in the real world and the time difference ΔT0. Since this is known, the position and orientation of the HMD 101 is calculated taking this into consideration. The position and orientation calculation unit 209 outputs information on the position and orientation of the HMD 101 to the CG generation unit 210.

CG生成部210は、位置姿勢計算部209により計算されたHMD101の位置姿勢の情報を基に、コンテンツDB211からCGデータを読み込み、撮像部202により撮像された撮像画像の向いている方向に合わせたCG画像を生成する。そして、CG生成部210は、そのCG画像を画像合成部208に出力する。 The CG generation unit 210 reads CG data from the content DB 211 based on the information on the position and orientation of the HMD 101 calculated by the position and orientation calculation unit 209, and adjusts it to the direction in which the captured image captured by the imaging unit 202 is facing. Generate a CG image. Then, the CG generation unit 210 outputs the CG image to the image composition unit 208.

画像合成部208は、撮像処理部206から画像処理後の撮像部201の撮像画像を入力し、CG生成部210からCG画像を入力する。画像合成部208は、画像処理後の撮像部201の撮像画像とCG画像とを合成することによりMR画像を生成し、MR画像を表示部203に表示する。MR画像を表示部203に表示することで、HMD101の使用者は、外界には存在しない物体をCGとして視認し、MR体験をすることができる。 The image synthesizing unit 208 receives an image captured by the imaging unit 201 after image processing from the imaging processing unit 206, and receives a CG image from the CG generation unit 210. The image combining unit 208 generates an MR image by combining the image captured by the imaging unit 201 after image processing and the CG image, and displays the MR image on the display unit 203. By displaying the MR image on the display unit 203, the user of the HMD 101 can visually recognize objects that do not exist in the outside world as CG and have an MR experience.

以上のように、位置姿勢計算部209は、時間差ΔT0と動作算出部205の算出結果を用いて、HMD101の位置姿勢を計算する。これにより、位置姿勢計算部209は、HMD101の動きを考慮して、時間差ΔT0の時間誤差を補正した上で、HMD101の位置姿勢を計算することができる。このようにすることで、撮像部201および202の露光重心が不一致であっても、画像合成部208は、正確な位置で、画像処理後の撮像部201の撮像画像とCG画像とを合成することができる。 As described above, the position and orientation calculation unit 209 calculates the position and orientation of the HMD 101 using the time difference ΔT0 and the calculation result of the motion calculation unit 205. Thereby, the position and orientation calculation unit 209 can calculate the position and orientation of the HMD 101 after correcting the time error of the time difference ΔT0 in consideration of the movement of the HMD 101. In this way, even if the exposure centers of gravity of the imaging units 201 and 202 do not match, the image combining unit 208 combines the image captured by the imaging unit 201 after image processing and the CG image at the correct position. be able to.

HMD101は、複数の撮像部201および202の特性と設定されたシャッタスピードの値を基に、撮像部201および202の露光重心のずれの時間差ΔT0を正確に求めることができる。これにより、HMD101は、同期化部220により、複数の撮像部201および202とセンシング部204とを同期化させた上で、安定したフレームレートを実現することができる。 The HMD 101 can accurately determine the time difference ΔT0 between the exposure centers of the imaging units 201 and 202 based on the characteristics of the plurality of imaging units 201 and 202 and the set shutter speed value. Thereby, the HMD 101 can achieve a stable frame rate by synchronizing the plurality of imaging units 201 and 202 and the sensing unit 204 using the synchronization unit 220.

以上のように、撮像装置は、HMD101と、画像処理装置103を有する。HMD101は、表示部203を有する頭部装着型装置である。 As described above, the imaging device includes the HMD 101 and the image processing device 103. HMD 101 is a head-mounted device that has a display section 203.

撮像部201は、第1の露光期間における露光により撮像を行う。第1の露光期間は、例えば、図5のB1_f0+C1_f0である。撮像部202は、第2の露光期間における露光により撮像を行う。第2の露光期間は、例えば、図5のB2_f0+C2_f0である。タイムスタンプ管理部221は、タイムスタンプ生成部であり、撮像部201の第1の露光期間内の露光タイミングを示す第1のタイムスタンプを生成する。第1のタイムスタンプは、例えば、図5のS1(0)である。また、タイムスタンプ管理部221は、撮像部202の第2の露光期間内の露光タイミングを示す第2のタイムスタンプを生成する。第2のタイムスタンプは、例えば、図5のS2(0)である。 The imaging unit 201 performs imaging by exposure during the first exposure period. The first exposure period is, for example, B1_f0+C1_f0 in FIG. 5. The imaging unit 202 performs imaging by exposure during the second exposure period. The second exposure period is, for example, B2_f0+C2_f0 in FIG. 5. The time stamp management unit 221 is a time stamp generation unit, and generates a first time stamp indicating the exposure timing of the imaging unit 201 within the first exposure period. The first timestamp is, for example, S1(0) in FIG. Furthermore, the time stamp management unit 221 generates a second time stamp indicating the exposure timing of the imaging unit 202 within the second exposure period. The second timestamp is, for example, S2(0) in FIG.

具体的には、タイムスタンプ管理部221は、撮像部201の第1の露光期間の重心または中心を示す第1のタイムスタンプを生成する。また、タイムスタンプ管理部221は、撮像部202の露光期間の重心または中心を示す第2のタイムスタンプを生成する。 Specifically, the time stamp management unit 221 generates a first time stamp indicating the center of gravity or the center of the first exposure period of the imaging unit 201. Furthermore, the time stamp management unit 221 generates a second time stamp indicating the center of gravity or the center of the exposure period of the imaging unit 202.

撮像部201は、第1のシャッタ方式で撮像する。撮像部202は、第1のシャッタ方式とは異なる第2のシャッタ方式で撮像する。第1のシャッタ方式は、例えば、ローリングシャッタ方式である。第2のシャッタ方式は、例えば、グローバルシャッタ方式である。 The imaging unit 201 captures images using the first shutter method. The imaging unit 202 captures images using a second shutter method that is different from the first shutter method. The first shutter method is, for example, a rolling shutter method. The second shutter method is, for example, a global shutter method.

図5のframe1では、撮像部201の第1の露光期間は、例えば、B1_f1+C1_f1である。撮像部202の第2の露光期間は、例えば、B2_f1+C2_f1である。この場合、第1の露光期間の長さと第2の露光期間の長さは異なる。 In frame 1 of FIG. 5, the first exposure period of the imaging unit 201 is, for example, B1_f1+C1_f1. The second exposure period of the imaging unit 202 is, for example, B2_f1+C2_f1. In this case, the length of the first exposure period and the length of the second exposure period are different.

センシング部204は、センサデータを取得する。例えば、センシング部204は、HMD101の動きを示すセンサデータを取得する。 The sensing unit 204 acquires sensor data. For example, the sensing unit 204 acquires sensor data indicating the movement of the HMD 101.

画像合成部208と位置姿勢計算部209とCG生成部210は、画像処理部であり、撮像部201により撮像された画像と、撮像部202により撮像された画像と、第1のタイムスタンプと、第2のタイムスタンプとを基に、画像処理を行う。 The image synthesis unit 208, the position and orientation calculation unit 209, and the CG generation unit 210 are image processing units, and process an image captured by the imaging unit 201, an image captured by the imaging unit 202, a first time stamp, Image processing is performed based on the second time stamp.

位置姿勢計算部209とCG生成部210は、撮像部202により撮像された画像と、第1のタイムスタンプと、第2のタイムスタンプと、センサデータとを基に、コンピュータグラフィックス画像を生成する。画像合成部208は、撮像部201により撮像された画像と、上記のコンピュータグラフィックス画像とを基に、画像合成を行う。 The position and orientation calculation unit 209 and the CG generation unit 210 generate a computer graphics image based on the image captured by the imaging unit 202, the first time stamp, the second time stamp, and sensor data. . The image synthesis unit 208 performs image synthesis based on the image captured by the imaging unit 201 and the computer graphics image described above.

なお、撮像部201は、垂直同期信号Vsyncを基に、第1の露光期間における露光を行ってもよい。その場合、同期化部220は、撮像部201の垂直同期信号Vsyncを基に、外部同期信号を生成する。撮像部202は、同期化部220により生成された外部同期信号を基に、第2の露光期間における露光を行う。 Note that the imaging unit 201 may perform exposure in the first exposure period based on the vertical synchronization signal Vsync. In that case, the synchronization unit 220 generates an external synchronization signal based on the vertical synchronization signal Vsync of the imaging unit 201. The imaging unit 202 performs exposure in the second exposure period based on the external synchronization signal generated by the synchronization unit 220.

以上のように、本実施形態によれば、HMD101と画像処理装置103は、撮像部201と撮像部202とセンシング部204を同期させた上で、安定したフレームレートを実現することができる。 As described above, according to the present embodiment, the HMD 101 and the image processing device 103 can synchronize the imaging unit 201, the imaging unit 202, and the sensing unit 204, and then realize a stable frame rate.

(第2の実施形態)
以下、図6を参照して、第2の実施形態を説明する。図6は、第2の実施形態によるHMD101と画像処理装置103の機能構成例を示すブロック図である。図6のHMD101は、図2のHMD101に対して、画像変形部601を追加したものである。図6の画像処理装置103は、図2の画像処理装置103と同様である。以下、第2の実施形態が第1の実施形態と異なる点を説明する。
(Second embodiment)
The second embodiment will be described below with reference to FIG. FIG. 6 is a block diagram showing an example of the functional configuration of the HMD 101 and the image processing device 103 according to the second embodiment. The HMD 101 in FIG. 6 is the HMD 101 in FIG. 2 with an image modification unit 601 added thereto. The image processing device 103 in FIG. 6 is similar to the image processing device 103 in FIG. Hereinafter, the differences between the second embodiment and the first embodiment will be explained.

CG生成部210は、コンテンツDBから読み出すCGデータの描画負荷状況により、スループットが変動し、レイテンシが増加する場合がある。その場合、画像合成部208は、CG生成部210からCG画像を入力するタイミングが遅れるため、CG画像の位置が撮像画像の位置とは一致せず、違和感のあるMR画像となる場合がある。 The throughput of the CG generation unit 210 may vary depending on the drawing load status of CG data read from the content DB, and the latency may increase. In this case, since the timing at which the image synthesis unit 208 receives the CG image from the CG generation unit 210 is delayed, the position of the CG image may not match the position of the captured image, resulting in an unnatural MR image.

そこで、画像変形部601は、動作算出部205の算出結果に基づいて、CG生成部210により生成されたCG画像を変形する。撮像部201で撮像された画像は、HMD101の動作に追従して変化しているので、画像変形部601は、CG画像の遅れを補正するように、CG画像を画像変形させる。画像変形の方法は、例えば、ホモグラフィ変換などの画像変形方法である。画像変形部601は、変形したCG画像を画像合成部208に出力する。 Therefore, the image modification section 601 transforms the CG image generated by the CG generation section 210 based on the calculation result of the motion calculation section 205. Since the image captured by the imaging unit 201 changes in accordance with the operation of the HMD 101, the image transformation unit 601 transforms the CG image so as to correct the delay of the CG image. The image transformation method is, for example, an image transformation method such as homography transformation. The image transformation unit 601 outputs the transformed CG image to the image composition unit 208.

画像合成部208は、撮像処理部206から画像処理後の撮像部201の撮像画像を入力し、画像変形部601から変形されたCG画像を入力する。画像合成部208は、画像処理後の撮像部201の撮像画像と、変形されたCG画像とを合成することによりMR画像を生成し、MR画像を表示部203に提示(表示)する。 The image synthesizing unit 208 inputs the image captured by the image capturing unit 201 after image processing from the image capturing processing unit 206, and inputs the transformed CG image from the image transforming unit 601. The image combining unit 208 generates an MR image by combining the image taken by the imaging unit 201 after image processing and the deformed CG image, and presents (displays) the MR image on the display unit 203.

これにより、HMD101は、CG生成部210でのCG画像生成でレイテンシが増えたとしても、HMD101の使用者にとって違和感の少ないMR画像を表示部203に表示することができる。 Thereby, the HMD 101 can display on the display unit 203 an MR image that is less uncomfortable for the user of the HMD 101, even if the latency increases due to CG image generation in the CG generation unit 210.

動作算出部205は、センシング部204から出力されるセンサデータを基に、HMD101の移動、傾き、回転等を算出する。画像変形部601は、動作算出部205の算出結果を基に、CG画像を変形する。画像合成部208は、画像処理後の撮像部201の撮像画像と変形されたCG画像を合成する。そのため、HMD101は、撮像部201および202とセンシング部204のデータ取得タイミングを正確に把握することが必要となる。そこで、タイムスタンプ管理部221は、センシング部204が出力するセンサデータに対して、タイムスタンプを対応付けて出力する。以下、その詳細を説明する。 The motion calculation unit 205 calculates the movement, tilt, rotation, etc. of the HMD 101 based on the sensor data output from the sensing unit 204. The image modification unit 601 transforms the CG image based on the calculation result of the motion calculation unit 205. The image synthesis unit 208 synthesizes the image captured by the image capture unit 201 after image processing and the transformed CG image. Therefore, the HMD 101 needs to accurately grasp the data acquisition timing of the imaging units 201 and 202 and the sensing unit 204. Therefore, the time stamp management unit 221 outputs the sensor data output by the sensing unit 204 in association with a time stamp. The details will be explained below.

図7は、第2の実施形態によるHMD101の制御方法の例を示すタイミングチャートである。図7のタイミングチャートを用いて、第2の実施形態における動作を説明する。図7の撮像部201および202のタイミングチャートは、図5の撮像部201および202のタイミングチャートと同じである。以下、図7のセンシング部204のタイミングチャートを主に説明する。 FIG. 7 is a timing chart showing an example of a method for controlling the HMD 101 according to the second embodiment. The operation in the second embodiment will be explained using the timing chart in FIG. The timing chart of the imaging units 201 and 202 in FIG. 7 is the same as the timing chart of the imaging units 201 and 202 in FIG. 5. The timing chart of the sensing unit 204 in FIG. 7 will be mainly described below.

時刻E0は、同期化部220が外部同期信号を撮像部201,202とセンシング部204とタイムスタンプ管理部221に出力した時刻である。撮像部201と撮像部202とセンシング部204とタイムスタンプ管理部221は、共通の外部同期信号を入力する。タイムスタンプ管理部221は、時刻E0におけるタイムカウンタTcntの値を外部同期時間T0として保持する。 Time E0 is the time when the synchronization unit 220 outputs an external synchronization signal to the imaging units 201 and 202, the sensing unit 204, and the time stamp management unit 221. The imaging unit 201, the imaging unit 202, the sensing unit 204, and the time stamp management unit 221 input a common external synchronization signal. The timestamp management unit 221 holds the value of the time counter Tcnt at time E0 as external synchronization time T0.

センシング部204は、設定に基づき、サンプリングタイミングで、センサデータをサンプリングする。時刻E0からサンプリングタイミングまでの時間は、センシング部204の設定により一意に決まる値であり、A3_f0+B3_f0である。タイムスタンプ管理部221は、S3(0)=T0+A3_f0+B3_f0により、タイムスタンプS3(0)を算出する。サンプリングタイミングから時間C3_f0の後、センシング部204は、サンプリングしたセンサデータD3(0)の出力を開始する。タイムスタンプ管理部221は、タイムスタンプS3(0)とセンサデータD3(0)とを対応付けて動作算出部205に出力する。 The sensing unit 204 samples sensor data at sampling timing based on the settings. The time from time E0 to the sampling timing is a value uniquely determined by the settings of the sensing unit 204, and is A3_f0+B3_f0. The time stamp management unit 221 calculates the time stamp S3(0) by S3(0)=T0+A3_f0+B3_f0. After a time C3_f0 from the sampling timing, the sensing unit 204 starts outputting the sampled sensor data D3(0). The timestamp management unit 221 associates the timestamp S3(0) and the sensor data D3(0) and outputs them to the motion calculation unit 205.

動作算出部205は、撮像部201のタイムスタンプS1(0)と、撮像部202のタイムスタンプS2(0)と、センシング部204のタイムスタンプS3(0)を基に、センサデータの取得タイミングのずれ量ΔT0_13およびΔT0_23を算出する。 The operation calculation unit 205 calculates the sensor data acquisition timing based on the time stamp S1(0) of the imaging unit 201, the time stamp S2(0) of the imaging unit 202, and the time stamp S3(0) of the sensing unit 204. The deviation amounts ΔT0_13 and ΔT0_23 are calculated.

例えば、動作算出部205は、ΔT0_13=|S1(0)-S3(0)|により、撮像部201の露光重心とセンシング部204のデータ取得タイミングとのずれ量ΔT0_13を算出する。また、動作算出部205は、ΔT0_23=|S2(0)-S3(0)|により、撮像部202の露光重心とセンシング部204のデータ取得タイミングとのずれ量ΔT0_23を算出する。動作算出部205は、ずれ量ΔT0_13およびΔT0_23を画像変形部601に出力する。 For example, the operation calculation unit 205 calculates the deviation amount ΔT0_13 between the exposure center of gravity of the imaging unit 201 and the data acquisition timing of the sensing unit 204 using ΔT0_13=|S1(0)−S3(0)|. Further, the operation calculation unit 205 calculates the amount of deviation ΔT0_23 between the exposure center of gravity of the imaging unit 202 and the data acquisition timing of the sensing unit 204 using ΔT0_23=|S2(0)−S3(0)|. The motion calculation unit 205 outputs the deviation amounts ΔT0_13 and ΔT0_23 to the image modification unit 601.

画像変形部601は、ずれ量ΔT0_13およびΔT0_23を基に、撮像画像に対するCG画像の遅れを補正するように、CG生成部210により生成されたCG画像を変形する。 The image modification unit 601 transforms the CG image generated by the CG generation unit 210 based on the deviation amounts ΔT0_13 and ΔT0_23 so as to correct the delay of the CG image with respect to the captured image.

画像合成部208は、撮像処理部206から画像処理後の撮像部201の撮像画像を入力し、画像変形部601から変形されたCG画像を入力する。画像合成部208は、画像処理後の撮像部201の撮像画像と、変形されたCG画像とを合成することによりMR画像を生成し、MR画像を表示部203に表示する。これにより、表示部203は、HMD101の使用者にとって違和感の少ない画像を提示(表示)することができる。 The image synthesizing unit 208 inputs the image captured by the image capturing unit 201 after image processing from the image capturing processing unit 206, and inputs the transformed CG image from the image transforming unit 601. The image combining unit 208 generates an MR image by combining the image taken by the imaging unit 201 after image processing and the transformed CG image, and displays the MR image on the display unit 203. Thereby, the display unit 203 can present (display) an image that is less uncomfortable for the user of the HMD 101.

以上のように、センシング部204は、サンプリング時間におけるサンプリングによりセンサデータを取得する。タイムスタンプ管理部221は、センシング部204のサンプリング時間を示す第3のタイムスタンプを生成する。第3のタイムスタンプは、例えば、図7のS3(0)である。 As described above, the sensing unit 204 acquires sensor data by sampling at the sampling time. The time stamp management unit 221 generates a third time stamp indicating the sampling time of the sensing unit 204. The third timestamp is, for example, S3(0) in FIG.

位置姿勢計算部209とCG生成部210は、撮像部202により撮像された画像と、第1のタイムスタンプと、第2のタイムスタンプと、センサデータとを基に、コンピュータグラフィックス画像を生成する。第1のタイムスタンプは、例えば、図7のS1(0)である。第2のタイムスタンプは、例えば、図7のS2(0)である。 The position and orientation calculation unit 209 and the CG generation unit 210 generate a computer graphics image based on the image captured by the imaging unit 202, the first time stamp, the second time stamp, and sensor data. . The first timestamp is, for example, S1(0) in FIG. The second timestamp is, for example, S2(0) in FIG.

画像変形部601は、第1のタイムスタンプと、第2のタイムスタンプと、第3のタイムスタンプとを基に、上記のコンピュータグラフィックス画像を変形する。画像合成部208は、撮像部201により撮像された画像と、画像変形部601により変形されたコンピュータグラフィックス画像とを基に、画像合成を行う。 The image modification unit 601 transforms the computer graphics image based on the first time stamp, the second time stamp, and the third time stamp. The image synthesis unit 208 performs image synthesis based on the image captured by the imaging unit 201 and the computer graphics image transformed by the image transformation unit 601.

以上のように、本実施形態によれば、HMD101と画像処理装置103は、撮像部201と撮像部202とセンシング部204を同期させた上で、安定したフレームレートを実現することができる。 As described above, according to the present embodiment, the HMD 101 and the image processing device 103 can synchronize the imaging unit 201, the imaging unit 202, and the sensing unit 204, and then realize a stable frame rate.

(その他の実施形態)
本開示は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present disclosure provides a system or device with a program that implements one or more functions of the above-described embodiments via a network or a storage medium, and one or more processors in a computer of the system or device reads and executes the program. This can also be achieved by processing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

以上、実施形態について説明したが、本開示はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形および変更が可能である。 Although the embodiments have been described above, the present disclosure is not limited to these embodiments, and various modifications and changes can be made within the scope of the gist.

本実施形態の開示は、以下の構成および方法を含む。
(構成1)
第1の露光期間における露光により撮像を行う第1の撮像部と、
第2の露光期間における露光により撮像を行う第2の撮像部と、
前記第1の撮像部の前記第1の露光期間内の露光タイミングを示す第1のタイムスタンプを生成する第1のタイムスタンプ生成部と、
前記第2の撮像部の前記第2の露光期間内の露光タイミングを示す第2のタイムスタンプを生成する第2のタイムスタンプ生成部と
を有することを特徴とする撮像装置。
(構成2)
前記第1のタイムスタンプ生成部は、前記第1の撮像部の前記第1の露光期間の重心または中心を示す第1のタイムスタンプを生成し、
前記第2のタイムスタンプ生成部は、前記第2の撮像部の前記第2の露光期間の重心または中心を示す第2のタイムスタンプを生成することを特徴とする構成1に記載の撮像装置。
(構成3)
前記第1の撮像部は、第1のシャッタ方式で撮像し、
前記第2の撮像部は、前記第1のシャッタ方式とは異なる第2のシャッタ方式で撮像することを特徴とする構成1または2に記載の撮像装置。
(構成4)
前記第1のシャッタ方式は、ローリングシャッタ方式であり、
前記第2のシャッタ方式は、グローバルシャッタ方式であることを特徴とする構成3に記載の撮像装置。
(構成5)
前記第1の露光期間の長さと前記第2の露光期間の長さは異なることを特徴とする構成1~4のいずれか1項に記載の撮像装置。
(構成6)
センサデータを取得するセンシング部をさらに有することを特徴とする構成1~5のいずれか1項に記載の撮像装置。
(構成7)
前記センシング部は、前記撮像装置の動きを示すセンサデータを取得することを特徴とする構成6に記載の撮像装置。
(構成8)
前記第1の撮像部により撮像された画像と、前記第2の撮像部により撮像された画像と、前記第1のタイムスタンプと、前記第2のタイムスタンプとを基に、画像処理を行う画像処理部をさらに有することを特徴とする構成1~7のいずれか1項に記載の撮像装置。
(構成9)
前記第2の撮像部により撮像された画像と、前記第1のタイムスタンプと、前記第2のタイムスタンプと、前記センサデータとを基に、コンピュータグラフィックス画像を生成する生成部と、
前記第1の撮像部により撮像された画像と、前記コンピュータグラフィックス画像とを基に、画像合成を行う画像合成部とをさらに有することを構成6または7に記載の撮像装置。
(構成10)
前記センシング部は、サンプリング時間におけるサンプリングによりセンサデータを取得し、
前記センシング部の前記サンプリング時間を示す第3のタイムスタンプを生成する第3のタイムスタンプ生成部をさらに有することを特徴とする構成6または7に記載の撮像装置。
(構成11)
前記第2の撮像部により撮像された画像と、前記第1のタイムスタンプと、前記第2のタイムスタンプと、前記センサデータとを基に、コンピュータグラフィックス画像を生成する生成部と、
前記第1のタイムスタンプと、前記第2のタイムスタンプと、前記第3のタイムスタンプとを基に、前記コンピュータグラフィックス画像を変形する画像変形部と、
前記第1の撮像部により撮像された画像と、前記画像変形部により変形されたコンピュータグラフィックス画像とを基に、画像合成を行う画像合成部とをさらに有することを構成10に記載の撮像装置。
(構成12)
前記第1の撮像部は、第1の同期信号を基に、前記第1の露光期間における露光を行い、
前記第2の撮像部は、第2の同期信号を基に、前記第2の露光期間における露光を行い、
前記撮像装置は、前記第1の同期信号を基に、前記第2の同期信号を生成する同期化部をさらに有することを特徴とする構成1~11のいずれか1項に記載の撮像装置。
(構成13)
前記撮像装置は、表示部を有する頭部装着型装置であることを特徴とする構成1~12のいずれか1項に記載の撮像装置。
(構成14)
露光期間における露光により撮像を行う撮像部と、
サンプリング時間におけるサンプリングによりセンサデータを取得するセンシング部と、
前記撮像部の前記露光期間内の露光タイミングを示す第1のタイムスタンプを生成する第1のタイムスタンプ生成部と、
前記センシング部の前記サンプリング時間を示す第2のタイムスタンプを生成する第2のタイムスタンプ生成部と
を有することを特徴とする撮像装置。
(構成15)
前記第1のタイムスタンプ生成部は、前記撮像部の前記露光期間の重心または中心を示す第1のタイムスタンプを生成することを特徴とする構成14に記載の撮像装置。
(構成16)
前記センシング部は、前記撮像装置の動きを示すセンサデータを取得することを特徴とする構成14または15に記載の撮像装置。
(構成17)
前記撮像装置は、表示部を有する頭部装着型装置であることを特徴とする構成14~16のいずれか1項に記載の撮像装置。
(方法1)
第1の露光期間における露光により撮像を行う第1の撮像部と、
第2の露光期間における露光により撮像を行う第2の撮像部とを有する撮像装置の制御方法であって、
前記第1の撮像部の前記第1の露光期間内の露光タイミングを示す第1のタイムスタンプを生成する第1のタイムスタンプ生成ステップと、
前記第2の撮像部の前記第2の露光期間内の露光タイミングを示す第2のタイムスタンプを生成する第2のタイムスタンプ生成ステップと
を有することを特徴とする撮像装置の制御方法。
(方法2)
露光期間における露光により撮像を行う撮像部と、
サンプリング時間におけるサンプリングによりセンサデータを取得するセンシング部とを有する撮像装置の制御方法であって、
前記撮像部の前記露光期間内の露光タイミングを示す第1のタイムスタンプを生成する第1のタイムスタンプ生成ステップと、
前記センシング部の前記サンプリング時間を示す第2のタイムスタンプを生成する第2のタイムスタンプ生成ステップと
を有することを特徴とする撮像装置の制御方法。
The disclosure of this embodiment includes the following configuration and method.
(Configuration 1)
a first imaging unit that performs imaging by exposure during a first exposure period;
a second imaging unit that performs imaging by exposure in a second exposure period;
a first time stamp generation unit that generates a first time stamp indicating an exposure timing within the first exposure period of the first imaging unit;
An imaging device comprising: a second time stamp generation section that generates a second time stamp indicating exposure timing within the second exposure period of the second imaging section.
(Configuration 2)
The first time stamp generation unit generates a first time stamp indicating a center of gravity or a center of the first exposure period of the first imaging unit,
The imaging device according to configuration 1, wherein the second time stamp generation unit generates a second time stamp indicating a center of gravity or a center of the second exposure period of the second imaging unit.
(Configuration 3)
The first imaging unit captures an image using a first shutter method,
The imaging device according to configuration 1 or 2, wherein the second imaging unit takes an image using a second shutter method different from the first shutter method.
(Configuration 4)
The first shutter method is a rolling shutter method,
The imaging device according to configuration 3, wherein the second shutter method is a global shutter method.
(Configuration 5)
5. The imaging device according to any one of configurations 1 to 4, wherein the length of the first exposure period and the length of the second exposure period are different.
(Configuration 6)
The imaging device according to any one of configurations 1 to 5, further comprising a sensing unit that acquires sensor data.
(Configuration 7)
The imaging device according to configuration 6, wherein the sensing unit acquires sensor data indicating movement of the imaging device.
(Configuration 8)
An image on which image processing is performed based on an image captured by the first imaging unit, an image captured by the second imaging unit, the first time stamp, and the second time stamp. 8. The imaging device according to any one of configurations 1 to 7, further comprising a processing section.
(Configuration 9)
a generation unit that generates a computer graphics image based on the image captured by the second imaging unit, the first time stamp, the second time stamp, and the sensor data;
8. The imaging device according to configuration 6 or 7, further comprising an image synthesis section that performs image synthesis based on the image captured by the first imaging section and the computer graphics image.
(Configuration 10)
The sensing unit acquires sensor data by sampling at a sampling time,
8. The imaging device according to configuration 6 or 7, further comprising a third time stamp generation section that generates a third time stamp indicating the sampling time of the sensing section.
(Configuration 11)
a generation unit that generates a computer graphics image based on the image captured by the second imaging unit, the first time stamp, the second time stamp, and the sensor data;
an image transformation unit that transforms the computer graphics image based on the first time stamp, the second time stamp, and the third time stamp;
The imaging device according to configuration 10, further comprising an image synthesis unit that performs image synthesis based on the image captured by the first imaging unit and the computer graphics image transformed by the image transformation unit. .
(Configuration 12)
The first imaging unit performs exposure in the first exposure period based on a first synchronization signal,
The second imaging unit performs exposure in the second exposure period based on a second synchronization signal,
The imaging device according to any one of configurations 1 to 11, wherein the imaging device further includes a synchronization unit that generates the second synchronization signal based on the first synchronization signal.
(Configuration 13)
The imaging device according to any one of configurations 1 to 12, wherein the imaging device is a head-mounted device having a display section.
(Configuration 14)
an imaging unit that captures an image by exposure during an exposure period;
a sensing unit that acquires sensor data by sampling at a sampling time;
a first time stamp generation unit that generates a first time stamp indicating an exposure timing within the exposure period of the imaging unit;
An imaging device comprising: a second time stamp generation section that generates a second time stamp indicating the sampling time of the sensing section.
(Configuration 15)
15. The imaging device according to configuration 14, wherein the first time stamp generation unit generates a first time stamp indicating a center of gravity or a center of the exposure period of the imaging unit.
(Configuration 16)
16. The imaging device according to configuration 14 or 15, wherein the sensing unit acquires sensor data indicating movement of the imaging device.
(Configuration 17)
17. The imaging device according to any one of configurations 14 to 16, wherein the imaging device is a head-mounted device having a display section.
(Method 1)
a first imaging unit that performs imaging by exposure during a first exposure period;
A method for controlling an imaging device including a second imaging unit that performs imaging by exposure in a second exposure period,
a first timestamp generation step of generating a first timestamp indicating an exposure timing within the first exposure period of the first imaging unit;
A method for controlling an imaging device, comprising: a second timestamp generation step of generating a second timestamp indicating an exposure timing of the second imaging unit within the second exposure period.
(Method 2)
an imaging unit that captures an image by exposure during an exposure period;
A method for controlling an imaging device including a sensing unit that acquires sensor data by sampling at a sampling time, the method comprising:
a first time stamp generation step of generating a first time stamp indicating an exposure timing of the imaging unit within the exposure period;
a second time stamp generation step of generating a second time stamp indicating the sampling time of the sensing unit.

101 HMD、102 表示装置、103 画像処理装置、104 操作部、201 撮像部、202 撮像部、203 表示部、204 センシング部、205 動作算出部、206 撮像処理部、207 演算部、208 画像合成部、209 位置姿勢計算部、210 CG生成部、211 コンテンツDB、220 同期化部、221 タイムスタンプ管理部、601 画像変形部 Reference Signs List 101 HMD, 102 display device, 103 image processing device, 104 operation unit, 201 imaging unit, 202 imaging unit, 203 display unit, 204 sensing unit, 205 motion calculation unit, 206 imaging processing unit, 207 calculation unit, 208 image composition unit , 209 position and orientation calculation unit, 210 CG generation unit, 211 content DB, 220 synchronization unit, 221 time stamp management unit, 601 image transformation unit

Claims (19)

第1の露光期間における露光により撮像を行う第1の撮像部と、
第2の露光期間における露光により撮像を行う第2の撮像部と、
前記第1の撮像部の前記第1の露光期間内の露光タイミングを示す第1のタイムスタンプを生成する第1のタイムスタンプ生成部と、
前記第2の撮像部の前記第2の露光期間内の露光タイミングを示す第2のタイムスタンプを生成する第2のタイムスタンプ生成部と
を有することを特徴とする撮像装置。
a first imaging unit that performs imaging by exposure during a first exposure period;
a second imaging unit that performs imaging by exposure in a second exposure period;
a first time stamp generation unit that generates a first time stamp indicating an exposure timing within the first exposure period of the first imaging unit;
An imaging device comprising: a second time stamp generation section that generates a second time stamp indicating exposure timing within the second exposure period of the second imaging section.
前記第1のタイムスタンプ生成部は、前記第1の撮像部の前記第1の露光期間の重心または中心を示す第1のタイムスタンプを生成し、
前記第2のタイムスタンプ生成部は、前記第2の撮像部の前記第2の露光期間の重心または中心を示す第2のタイムスタンプを生成することを特徴とする請求項1に記載の撮像装置。
The first time stamp generation unit generates a first time stamp indicating a center of gravity or a center of the first exposure period of the first imaging unit,
The imaging device according to claim 1, wherein the second time stamp generation unit generates a second time stamp indicating a center of gravity or a center of the second exposure period of the second imaging unit. .
前記第1の撮像部は、第1のシャッタ方式で撮像し、
前記第2の撮像部は、前記第1のシャッタ方式とは異なる第2のシャッタ方式で撮像することを特徴とする請求項1に記載の撮像装置。
The first imaging unit captures an image using a first shutter method,
The imaging device according to claim 1, wherein the second imaging unit takes an image using a second shutter method different from the first shutter method.
前記第1のシャッタ方式は、ローリングシャッタ方式であり、
前記第2のシャッタ方式は、グローバルシャッタ方式であることを特徴とする請求項3に記載の撮像装置。
The first shutter method is a rolling shutter method,
The imaging device according to claim 3, wherein the second shutter method is a global shutter method.
前記第1の露光期間の長さと前記第2の露光期間の長さは異なることを特徴とする請求項1に記載の撮像装置。 The imaging device according to claim 1, wherein the length of the first exposure period and the length of the second exposure period are different. センサデータを取得するセンシング部をさらに有することを特徴とする請求項1に記載の撮像装置。 The imaging device according to claim 1, further comprising a sensing unit that acquires sensor data. 前記センシング部は、前記撮像装置の動きを示すセンサデータを取得することを特徴とする請求項6に記載の撮像装置。 The imaging device according to claim 6, wherein the sensing unit acquires sensor data indicating movement of the imaging device. 前記第1の撮像部により撮像された画像と、前記第2の撮像部により撮像された画像と、前記第1のタイムスタンプと、前記第2のタイムスタンプとを基に、画像処理を行う画像処理部をさらに有することを特徴とする請求項1に記載の撮像装置。 An image on which image processing is performed based on an image captured by the first imaging unit, an image captured by the second imaging unit, the first time stamp, and the second time stamp. The imaging device according to claim 1, further comprising a processing section. 前記第2の撮像部により撮像された画像と、前記第1のタイムスタンプと、前記第2のタイムスタンプと、前記センサデータとを基に、コンピュータグラフィックス画像を生成する生成部と、
前記第1の撮像部により撮像された画像と、前記コンピュータグラフィックス画像とを基に、画像合成を行う画像合成部とをさらに有することを請求項6に記載の撮像装置。
a generation unit that generates a computer graphics image based on the image captured by the second imaging unit, the first time stamp, the second time stamp, and the sensor data;
7. The imaging device according to claim 6, further comprising an image synthesis section that performs image synthesis based on the image captured by the first imaging section and the computer graphics image.
前記センシング部は、サンプリング時間におけるサンプリングによりセンサデータを取得し、
前記センシング部の前記サンプリング時間を示す第3のタイムスタンプを生成する第3のタイムスタンプ生成部をさらに有することを特徴とする請求項6に記載の撮像装置。
The sensing unit acquires sensor data by sampling at a sampling time,
The imaging device according to claim 6, further comprising a third time stamp generation section that generates a third time stamp indicating the sampling time of the sensing section.
前記第2の撮像部により撮像された画像と、前記第1のタイムスタンプと、前記第2のタイムスタンプと、前記センサデータとを基に、コンピュータグラフィックス画像を生成する生成部と、
前記第1のタイムスタンプと、前記第2のタイムスタンプと、前記第3のタイムスタンプとを基に、前記コンピュータグラフィックス画像を変形する画像変形部と、
前記第1の撮像部により撮像された画像と、前記画像変形部により変形されたコンピュータグラフィックス画像とを基に、画像合成を行う画像合成部とをさらに有することを請求項10に記載の撮像装置。
a generation unit that generates a computer graphics image based on the image captured by the second imaging unit, the first time stamp, the second time stamp, and the sensor data;
an image transformation unit that transforms the computer graphics image based on the first time stamp, the second time stamp, and the third time stamp;
The imaging device according to claim 10, further comprising an image synthesis unit that performs image synthesis based on the image captured by the first imaging unit and the computer graphics image transformed by the image transformation unit. Device.
前記第1の撮像部は、第1の同期信号を基に、前記第1の露光期間における露光を行い、
前記第2の撮像部は、第2の同期信号を基に、前記第2の露光期間における露光を行い、
前記撮像装置は、前記第1の同期信号を基に、前記第2の同期信号を生成する同期化部をさらに有することを特徴とする請求項1に記載の撮像装置。
The first imaging unit performs exposure in the first exposure period based on a first synchronization signal,
The second imaging unit performs exposure in the second exposure period based on a second synchronization signal,
The imaging device according to claim 1, further comprising a synchronization unit that generates the second synchronization signal based on the first synchronization signal.
前記撮像装置は、表示部を有する頭部装着型装置であることを特徴とする請求項1に記載の撮像装置。 The imaging device according to claim 1, wherein the imaging device is a head-mounted device having a display section. 露光期間における露光により撮像を行う撮像部と、
サンプリング時間におけるサンプリングによりセンサデータを取得するセンシング部と、
前記撮像部の前記露光期間内の露光タイミングを示す第1のタイムスタンプを生成する第1のタイムスタンプ生成部と、
前記センシング部の前記サンプリング時間を示す第2のタイムスタンプを生成する第2のタイムスタンプ生成部と
を有することを特徴とする撮像装置。
an imaging unit that captures an image by exposure during an exposure period;
a sensing unit that acquires sensor data by sampling at a sampling time;
a first time stamp generation unit that generates a first time stamp indicating an exposure timing within the exposure period of the imaging unit;
An imaging device comprising: a second time stamp generation section that generates a second time stamp indicating the sampling time of the sensing section.
前記第1のタイムスタンプ生成部は、前記撮像部の前記露光期間の重心または中心を示す第1のタイムスタンプを生成することを特徴とする請求項14に記載の撮像装置。 The imaging device according to claim 14, wherein the first time stamp generation unit generates a first time stamp indicating a center of gravity or a center of the exposure period of the imaging unit. 前記センシング部は、前記撮像装置の動きを示すセンサデータを取得することを特徴とする請求項14に記載の撮像装置。 The imaging device according to claim 14, wherein the sensing unit acquires sensor data indicating movement of the imaging device. 前記撮像装置は、表示部を有する頭部装着型装置であることを特徴とする請求項14に記載の撮像装置。 The imaging device according to claim 14, wherein the imaging device is a head-mounted device having a display section. 第1の露光期間における露光により撮像を行う第1の撮像部と、
第2の露光期間における露光により撮像を行う第2の撮像部とを有する撮像装置の制御方法であって、
前記第1の撮像部の前記第1の露光期間内の露光タイミングを示す第1のタイムスタンプを生成する第1のタイムスタンプ生成ステップと、
前記第2の撮像部の前記第2の露光期間内の露光タイミングを示す第2のタイムスタンプを生成する第2のタイムスタンプ生成ステップと
を有することを特徴とする撮像装置の制御方法。
a first imaging unit that performs imaging by exposure during a first exposure period;
A method for controlling an imaging device including a second imaging unit that performs imaging by exposure in a second exposure period,
a first timestamp generation step of generating a first timestamp indicating an exposure timing within the first exposure period of the first imaging unit;
A method for controlling an imaging device, comprising: a second timestamp generation step of generating a second timestamp indicating an exposure timing of the second imaging unit within the second exposure period.
露光期間における露光により撮像を行う撮像部と、
サンプリング時間におけるサンプリングによりセンサデータを取得するセンシング部とを有する撮像装置の制御方法であって、
前記撮像部の前記露光期間内の露光タイミングを示す第1のタイムスタンプを生成する第1のタイムスタンプ生成ステップと、
前記センシング部の前記サンプリング時間を示す第2のタイムスタンプを生成する第2のタイムスタンプ生成ステップと
を有することを特徴とする撮像装置の制御方法。
an imaging unit that captures an image by exposure during an exposure period;
A method for controlling an imaging device including a sensing unit that acquires sensor data by sampling at a sampling time, the method comprising:
a first time stamp generation step of generating a first time stamp indicating an exposure timing of the imaging unit within the exposure period;
a second time stamp generation step of generating a second time stamp indicating the sampling time of the sensing unit.
JP2022090289A 2022-06-02 2022-06-02 Imaging apparatus and control method for the same Pending JP2023177556A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022090289A JP2023177556A (en) 2022-06-02 2022-06-02 Imaging apparatus and control method for the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022090289A JP2023177556A (en) 2022-06-02 2022-06-02 Imaging apparatus and control method for the same

Publications (1)

Publication Number Publication Date
JP2023177556A true JP2023177556A (en) 2023-12-14

Family

ID=89123906

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022090289A Pending JP2023177556A (en) 2022-06-02 2022-06-02 Imaging apparatus and control method for the same

Country Status (1)

Country Link
JP (1) JP2023177556A (en)

Similar Documents

Publication Publication Date Title
RU2638776C1 (en) Image generating device and method
JP6702323B2 (en) Camera module, solid-state imaging device, electronic device, and imaging method
JP4857196B2 (en) Head-mounted display device and control method thereof
EP3572916B1 (en) Apparatus, system, and method for accelerating positional tracking of head-mounted displays
JP2004213355A (en) Information processing method
TW201301203A (en) Panorama processing
JP6218787B2 (en) Imaging apparatus, information processing apparatus, display apparatus, information processing system, image data transmission method, and image display method
JP2019012965A (en) Video control method, video control device, and video control program
JP6723720B2 (en) Display system, information processing method and program
CN110969706B (en) Augmented reality device, image processing method, system and storage medium thereof
JP6949475B2 (en) Image processing equipment, image processing methods and programs
JP7271215B2 (en) SYNCHRONIZATION CONTROL DEVICE, SYNCHRONIZATION CONTROL METHOD, AND PROGRAM
JP2011035638A (en) Virtual reality space video production system
JP2023177556A (en) Imaging apparatus and control method for the same
JP2016192137A (en) Information processing device, information processing method and program
JP2023055773A (en) Synchronization control device, synchronization control method, and program
WO2023108016A1 (en) Augmented reality using a split architecture
WO2019073925A1 (en) Image generation device and image generation method
CN115345771A (en) Automatic driving simulation test image processing method and device
JP2020106655A (en) Information processor, information processing method and program
JP7357554B2 (en) Synchronous control device, control method of synchronous control device, system
CN111949114A (en) Image processing method and device and terminal
JP2015201734A (en) Image processing system, control method of the same, and program
EP4333420A1 (en) Information processing device, information processing method, and program
JP6702779B2 (en) Data distribution device, image display system, and data distribution method