JP2023177556A - Imaging apparatus and control method for the same - Google Patents
Imaging apparatus and control method for the same Download PDFInfo
- Publication number
- JP2023177556A JP2023177556A JP2022090289A JP2022090289A JP2023177556A JP 2023177556 A JP2023177556 A JP 2023177556A JP 2022090289 A JP2022090289 A JP 2022090289A JP 2022090289 A JP2022090289 A JP 2022090289A JP 2023177556 A JP2023177556 A JP 2023177556A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- imaging
- image
- time stamp
- exposure
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 340
- 238000000034 method Methods 0.000 title claims description 57
- 238000012545 processing Methods 0.000 claims description 70
- 230000005484 gravity Effects 0.000 claims description 33
- 238000005070 sampling Methods 0.000 claims description 24
- 230000015572 biosynthetic process Effects 0.000 claims description 21
- 238000003786 synthesis reaction Methods 0.000 claims description 21
- 238000005096 rolling process Methods 0.000 claims description 17
- 230000009466 transformation Effects 0.000 claims description 9
- 238000004364 calculation method Methods 0.000 description 52
- 230000004048 modification Effects 0.000 description 7
- 238000012986 modification Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 230000002194 synthesizing effect Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 4
- 230000002123 temporal effect Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000011426 transformation method Methods 0.000 description 2
- 230000001131 transforming effect Effects 0.000 description 2
- 238000003705 background correction Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Landscapes
- Studio Devices (AREA)
Abstract
Description
本開示は、撮像装置および撮像装置の制御方法に関する。 The present disclosure relates to an imaging device and a method of controlling the imaging device.
近年、現実世界と仮想世界をリアルタイムにシームレスに融合させる技術として複合現実感、いわゆるMR(Mixed Reality)技術が知られている。MR技術の1つに、ビデオシースルーHMD(Head Mounted Display)を利用して、HMD使用者の瞳位置から観察される被写体と略一致する被写体をビデオカメラなどで撮像する技術が知られている。その技術では、その撮像画像にCG(Computer Graphics)を重畳表示した画像をHMD使用者が観察できる。 In recent years, mixed reality, or so-called MR (Mixed Reality) technology, has become known as a technology that seamlessly fuses the real world and the virtual world in real time. BACKGROUND ART As one of the MR techniques, a technique is known in which a video see-through HMD (Head Mounted Display) is used to image an object that substantially matches the object observed from the pupil position of the HMD user using a video camera or the like. With this technology, an HMD user can observe an image in which CG (computer graphics) is superimposed on the captured image.
このような技術では、複数の撮像画像や各種センサ情報を用いた演算処理を行うことによりHMDの位置姿勢を求めることによって、HMD使用者の体験する空間の位置情報を取得する。HMD使用者の位置情報を正確に取得することができれば、適切な空間にCGを描画することが可能となり、HMD使用者はMR体験に没入することができる。 In such technology, the position and orientation of the HMD is determined by performing arithmetic processing using a plurality of captured images and various sensor information, thereby obtaining position information of the space experienced by the HMD user. If the position information of the HMD user can be accurately acquired, CG can be drawn in an appropriate space, and the HMD user can be immersed in the MR experience.
位置情報を正確に求めるためには、複数の撮像手段や各種センサは、可能な限り、同期した状態で動作させることが望ましい。これに対し、特許文献1には、複数の撮像手段に対して露光時間の重心を一致させることで、同期させる技術が記載されている。また、特許文献2には、複数の撮像手段と各種センサまで含めて同期させる技術が記載されている。
In order to accurately obtain positional information, it is desirable to operate the plurality of imaging means and various sensors in a synchronized state as much as possible. On the other hand,
しかしながら、特許文献1および2に記載された技術では、複数の撮像画像や各種センサをフレーム単位では同期することができるが、同期させるためにフレームレートが変動して一定とはならず、HMD使用者にとって違和感のあるMR映像となってしまう。
However, although the technologies described in
本開示の目的は、複数の撮像部または撮像部とセンシング部を同期させた上で、安定したフレームレートを実現できるようにすることである。 An object of the present disclosure is to enable a stable frame rate to be achieved by synchronizing a plurality of imaging units or an imaging unit and a sensing unit.
撮像装置は、第1の露光期間における露光により撮像を行う第1の撮像部と、第2の露光期間における露光により撮像を行う第2の撮像部と、前記第1の撮像部の前記第1の露光期間内の露光タイミングを示す第1のタイムスタンプを生成する第1のタイムスタンプ生成部と、前記第2の撮像部の前記第2の露光期間内の露光タイミングを示す第2のタイムスタンプを生成する第2のタイムスタンプ生成部とを有する。 The imaging device includes a first imaging unit that performs imaging by exposure in a first exposure period, a second imaging unit that performs imaging by exposure in a second exposure period, and the first imaging unit of the first imaging unit. a first timestamp generating section that generates a first timestamp indicating an exposure timing within the exposure period of the second imaging section; and a second timestamp indicating the exposure timing within the second exposure period of the second imaging section. and a second timestamp generation unit that generates.
本開示によれば、複数の撮像部または撮像部とセンシング部を同期させた上で、安定したフレームレートを実現することができる。 According to the present disclosure, a stable frame rate can be achieved by synchronizing a plurality of imaging units or an imaging unit and a sensing unit.
以下に、好ましい実施形態を、図面に基づいて詳細に説明する。
(第1の実施形態)
図1は、第1の実施形態による画像表示システム100の構成例を示す図である。画像表示システム100は、頭部搭載型表示装置(Head Mounted Display:以下、HMD)101と、表示装置102と、操作部104と、画像処理装置103を有する。画像処理装置103には、表示装置102と操作部104が接続されている。画像処理装置103は、操作部104の使用者の操作情報を入力し、表示装置102に画像および情報を表示する。
Below, preferred embodiments will be described in detail based on the drawings.
(First embodiment)
FIG. 1 is a diagram showing a configuration example of an
HMD101は、使用者の頭部に装着され、画像処理装置103で生成した画像を表示する。HMD101は、小規模ネットワークにより無線接続された画像処理装置103と通信を行う。小規模ネットワークは、例えば、WLAN(Wireless Local Area Network)やWPAN(Wireless Personal Area Network)である。HMD101と画像処理装置103の間の通信は、無線通信に限らず、有線通信方式を利用してもよい。また、画像処理装置103とHMD101を別々のハードウェア構成としているが、画像処理装置103の持つ機能をすべてHMD101内に実装して、一体化することも可能である。
The HMD 101 is worn on the user's head and displays images generated by the
図2は、図1に示したHMD101と画像処理装置103の機能構成例を示すブロック図である。HMD101は、撮像部201,202と、表示部203と、センシング部204と、動作算出部205と、撮像処理部206と、演算部207と、画像合成部208と、同期化部220と、タイムスタンプ管理部221を有する。
FIG. 2 is a block diagram showing an example of the functional configuration of the
撮像部201および202は、それぞれ、外界を撮像するための対物光学系とイメージセンサを有する。表示部203は、画像をHMD101の使用者に提示するための接眼光学系とディスプレイを有する。センシング部204は、HMD101の動作をセンシングする。動作算出部205は、センシング部204のセンシング結果から、HMD101の動きを算出する。撮像処理部206は、撮像部201および202からの撮像画像を画像処理する。演算部207は、演算を行う。画像合成部208は、撮像画像とCG画像を合成する。同期化部220は、撮像部201,202およびセンシング部204を同期化させる。タイムスタンプ管理部221は、タイムスタンプを管理する。
The
画像処理装置103は、位置姿勢計算部209と、CG生成部210と、コンテンツDB(データベース)211を有する。位置姿勢計算部209は、撮像画像とHMD101の動きから、HMD101の位置姿勢を計算する。コンテンツDB211は、CGデータを格納する。CG生成部210は、位置姿勢計算部209により計算された位置姿勢の情報を基に、コンテンツDB211よりCGデータを読み込んだ後、CG画像を生成する。
The
次に、図2を用いて、使用者がMR映像を体験する方法について説明する。撮像部201および202は、それぞれ、外界を撮像する。撮像部201および202は、画素数、画質、ノイズ、センササイズ、消費電力、コスト等の様々な要因を鑑み、ローリングシャッタ方式の撮像素子とグローバルシャッタ方式の撮像素子を使い分けたり、用途に応じてそれらを組み合わせて使用することができる。例えば、撮像部201は、仮想空間の画像と合成する撮像画像を撮像する場合には、より高画質な画像が取得可能なローリングシャッタ方式の撮像素子を用いる。撮像部202は、HMD101の位置姿勢を計算するために外界を撮像する場合には、像流れのないグローバルシャッタ方式の撮像素子を用いる。像流れとは、走査方向のライン毎に順次、露光処理が開始されるローリングシャッタ方式の動作原理に起因して発生する現象である。
Next, a method for a user to experience MR images will be described using FIG. 2.
図3は、ローリングシャッタ方式の撮像部201とグローバルシャッタ方式の撮像部202の処理例を示すタイミングチャートである。図3の横軸は、時間を示す。撮像部201がローリングシャッタ方式の撮像素子を用い、撮像部202がローリングシャッタ方式の撮像素子を用いる例を説明する。
FIG. 3 is a timing chart showing a processing example of the rolling shutter
撮像部201の露光(ローリング)は、ローリングシャッタ方式の撮像素子で撮像される各ラインの露光時間を示している。ローリングシャッタ方式の撮像部201では、各ラインの露光のタイミングに時間的なズレが生じることにより、露光時間中に撮像部201や被写体が動いた際に、被写体が流れるように変形して記録される現象が発生する。この現象が像流れである。
Exposure (rolling) of the
撮像部202の露光(グローバル)は、グローバルシャッタ方式の撮像素子で撮像される各ラインの露光時間を示している。グローバルシャッタ方式の撮像部202では、同時に全ラインの露光処理が行われるため、各ラインの露光タイミングに時間的なズレが生じず、像流れは発生しない。本実施形態では、撮像部201はローリングシャッタ方式の撮像素子を用い、撮像部202はグローバルシャッタ方式の撮像素子を用いるものとして説明する。
Exposure (global) of the
図2において、撮像部201および202は、外界を撮像した撮像画像を、タイムスタンプ管理部221に出力する。タイムスタンプ管理部221は、撮像画像を入力すると、タイムスタンプを発行する。これについての詳細な動作は後述する。
In FIG. 2,
撮像処理部206は、撮像部201および202により撮像された撮像画像に対して、画像処理を実行する。撮像処理部206で行われる画像処理とは、AE(Auto Exposure)制御、デモザイク処理、シェーディング補正、ノイズリダクション、歪み補正等である。撮像処理部206は、撮像部201および202により撮像された撮像画像に対して、画像処理を行うことにより、画像の高画質化を図る。その後、撮像処理部206は、撮像部202により撮像された撮像画像を画像処理した画像を、画像処理後のCGの描画位置を特定するために、位置姿勢計算部209に出力する。また、撮像処理部206は、撮像部201により撮像された撮像画像を画像処理した画像を、CG画像と合成するために、画像合成部208に出力する。
The
センシング部204は、HMD101の動作をセンシングする。センシング部204のセンサは、IMU(Inertial Measurement Unit)や加速度センサ、角速度センサなどである。本実施形態においては、センシング部204は、例えば、IMUである。動作算出部205は、IMUから出力されるセンシングデータから、HMD101の移動、傾き、回転等を算出し、それらを位置姿勢計算部209に出力する。
The
位置姿勢計算部209は、画像処理後の撮像部202の撮像画像と動作算出部205の算出結果から、現実世界を示す世界座標系とHMD101を通して観察した画像を示すカメラ座標系との関係を計算する。そして、位置姿勢計算部209は、その関係を基に、現実世界に対してHMD101がどのような位置姿勢であるかを計算する。位置姿勢の計算方法は、例えば、現実世界に基準となるマーカー等を置いておき、ステレオカメラ構成とした撮像部202で画像を取得し、画像内のマーカーの位置関係から、HMD101の位置姿勢を計算する方法がある。または、現実世界の静止物体の特徴量を画像から算出し、特徴量の時間変化からHMD101の自己位置推定と環境地図作成を行う方法などがある。本実施形態においては、位置姿勢の計算方法については特に限定されない。位置姿勢計算部209は、このようにして計算された位置姿勢の情報をCG生成部210に出力する。
The position and
CG生成部210は、位置姿勢計算部209の位置姿勢の情報を基に、撮像画像のどの位置、どの向きにCGを重畳するかを計算する。また、CG生成部210は、コンテンツDB211からCGデータを読み込むことで、CGのレンダリングを行う。これにより、CG生成部210は、撮像部202により撮像された撮像画像の向いている方向に合わせたCG画像を生成し、CG画像を画像合成部208に出力する。
The
画像合成部208は、画像処理後の撮像部201の撮像画像とCG生成部210から得られるCG画像とを合成することによりMR画像を生成し、MR画像を表示部203に提示(表示)する。MR画像を表示部203に表示することで、HMD101の使用者は、外界には存在しない物体をCGとして視認し、MR体験をすることができる。
The
このとき、前述したように、CG生成部210が生成するCG画像は、画像合成後の撮像部202の撮像画像を基に生成されている。一方、画像合成部208が合成する撮像画像は、画像処理後の撮像部201の撮像画像である。すわなち、撮像部201と撮像部202で撮像される時間的なタイミングが異なる場合、画像合成部208が画像合成をした場合に、違和感のあるMR画像が生成されてしまうことになる。
At this time, as described above, the CG image generated by the
そこで、図3のタイミングチャートを用いて、複数の撮像部201および202の露光重心を一致させる方法について説明する。撮像部201および202の露光重心を一致させることができれば、撮像部201および202で撮像される時間的なタイミングのずれは発生しないことになる。
Therefore, a method of aligning the exposure centers of gravity of the plurality of
図3は、同期化部220から2つの撮像部201および202への外部同期入力を変化させ、撮像部201および202の露光重心が一致させるように動作させた様子を示している。図3では、撮像部201の撮像露光のタイミングチャートと、撮像部202の撮像露光のタイミングチャートを示している。
FIG. 3 shows an operation in which the external synchronization input from the
撮像部201は、同期化部220から外部同期入力が行われると、設定されたシャッタスピード(例えばFrame0の場合には1/120s)に応じて変化する露光開始待ち時間A1_f0を経て、露光を開始する。このとき、撮像部201は、ローリングシャッタ方式の撮像素子を用いるため、順次、ラインごとに露光を開始する。そして、撮像部201は、設定されたシャッタスピード時間分露光されると、順次、ラインごとに露光を終了する。そして、撮像部201は、露光が終了すると、画像データをラスタ順に出力する。撮像部201は、画像データを出力する場合、画像データとは別に、フレームの先頭を示すVsyncと、ラインの先頭を示すHsyncなどの同期信号も合わせて出力する。撮像処理部206は、画像データを入力する場合には、このVsyncとHsyncなどの同期信号を基準に、画像データとして取得する。
When an external synchronization input is received from the
撮像部202は、撮像部201と同様に、同期化部220から外部同期入力が行われると、設定されたシャッタスピード(例えばFrame0の場合には1/120s)に応じて変化する露光開始待ち時間A2_f0を経て、露光を開始する。このとき、撮像部202は、グローバルシャッタ方式の撮像素子を用いるため、全ライン同時に露光を開始する。そして、撮像部202は、設定されたシャッタスピード時間分露光されると、全ライン同時に露光を終了する。そして、撮像部202は、露光が終了すると、画像データをラスタ順に出力する。
Similar to the
前述したように、撮像部201は、ローリングシャッタ方式の撮像素子を用い、撮像部202は、グローバルシャッタ方式の撮像素子を用いている。そのため、撮像部201と撮像部202の露光重心を一致させるには、撮像部201と撮像部202のシャッタスピード設定を鑑み、相対的に撮像部201と撮像部202の露光開始時間をずらす必要がある。そこで、図3では、撮像部202への外部同期入力を、撮像部201への外部同期入力とはタイミングを変えることで、上記の露光重心の一致を実現している。このように、複数の撮像部201および202における露光重心を一致させるように、同期化部220は、外部同期入力タイミングを撮像部201および202ごとに変化させる。
As described above, the
しかしながら、上記の方法によると、撮像部201および202のシャッタスピードによって外部同期入力タイミングが変化する。外部同期入力されてから画像データ出力までの時間は一定であるため、外部同期入力タイミングが一定ではないと、フレーム間の画像データ出力時間(フレームレート)が変動することになる。撮像部201および202から出力される撮像画像のフレームレートが変動すると、表示部203に表示される画像の更新のフレームレートも変動することになり、使用者はMR体験を快適に体験することができないという課題が存在する。
However, according to the above method, the external synchronization input timing changes depending on the shutter speed of the
そこで、本実施形態では、HMD101は、同期化部220とタイムスタンプ管理部221により、外部同期入力を複数の撮像部201および202で共通化する。そして、HMD101は、撮像部201および202の露光重心のずれを、タイムスタンプ情報として、画像データと紐づけることで、上記の課題の解決を図る。
Therefore, in the present embodiment, the
次に、本実施形態の同期化部220を説明する。図2に示すように、同期化部220は、撮像部201と撮像部202を同期化するために、外部同期信号を生成する。同期化部220は、画像合成部208から垂直同期信号Vsyncが入力されると、一定のオフセット時間を経た後に、外部同期信号を生成する。これは、撮像部201および202の撮像レートと表示部203の更新レートの周期を同一とすることで、MR映像を低遅延かつ滑らかに提供することが可能となるためである。しかしながら、外部同期信号の生成方法は、これに特に限定されない。同期化部220は、内部でタイミング信号を自動生成し、そのタイミング信号を外部同期信号として出力する方法や、特定の撮像部201または202の垂直同期信号Vsyncをトリガに、外部同期信号を生成して出力する方法などを使用してもよい。
Next, the
次に、図4および図5を用いて、本実施形態のタイムスタンプ管理部221の説明を行う。図4は、タイムスタンプ管理部221の処理例を示すフローチャートである。タイムスタンプ管理部221は、内部にタイムカウンタTcntを持っている。
Next, the time
ステップS401では、タイムスタンプ管理部221は、タイムカウンタTcntの動作を開始させる。タイムカウンタTcntは、その他の動作に影響されることなく、基準となる時間のカウントを開始する。なお、タイムスタンプ管理部221は、内部のカウンタの値をタイムカウンタTcntの値としてもよいし、外部装置から入力される基準信号を基にタイムカウンタTcntの値を生成してもよい。
In step S401, the time
ステップS402では、タイムスタンプ管理部221は、同期化部220が出力する外部同期信号を入力したか否かを判定する。タイムスタンプ管理部221は、同期化部220が出力する外部同期信号を入力していない場合には、ステップS402に戻り、同期化部220が出力する外部同期信号を入力した場合には、ステップS403に進む。
In step S402, the time
ステップS403では、タイムスタンプ管理部221は、同期化部220から外部同期信号が入力された時点でのタイムカウンタTcntの値を外部同期時間T(n)として保持する。同期化部220は、この外部同期信号を、撮像部201および202にも出力する。撮像部201および202は、外部同期時間T(n)と同じ時間から露光の準備状態に入る。
In step S403, the time
ステップS404では、タイムスタンプ管理部221は、撮像部201および202に設定されている露光時間パラメータを取得する。露光時間パラメータは、撮像部201および202に対してレジスタ設定されるシャッタスピードの値や露光モード設定などである。これにより、タイムスタンプ管理部221は、撮像部201および202の各々における露光時間に関する情報を取得することが可能となる。
In step S404, the time
ステップS405では、タイムスタンプ管理部221は、上記の撮像部201および202の露光時間パラメータから、撮像部201の露光重心のオフセット値Toffset1と、撮像部202の露光重心のオフセット値Toffset2を特定する。オフセット値Toffset1およびToffset2は、それぞれ、外部同期時間T(n)から、撮像部201および202の露光の重心までの時間を示す値であり、撮像部201および202の特性と設定されるシャッタスピードによって一意に決まる値である。オフセット値Toffset1は、例えば、Toffset1(n)=A1_f(n)+B1_f(n)で表すことができる。オフセット値Toffset2は、例えば、Toffset2(n)=A2_f(n)+B2_f(n)で表すことができる。A1_f(n)およびA2_f(n)は、それぞれ、例えば図5のA1_f0およびA2_f0のように、外部同期信号の入力から露光を開始するまでの時間である。B1_f(n)およびB2_f(n)は、それぞれ、例えば図5のB1_f0およびB2_f0のように、露光が開始されてから露光重心に到達するまでの時間である。nは、フレーム番号を示す。時間A1_f(n)、A2_f(n)、B1_f(n)およびB2_f(n)は、ともに撮像部201または202の特性と設定されるシャッタスピードによって決まる。そのため、時間A1_f(n)、A2_f(n)、B1_f(n)およびB2_f(n)は、演算部207が毎フレーム設定するシャッタスピードに応じて求めてもよいし、設定されるシャッタスピードの候補をテーブル化して参照することにより取得してもよい。このように、タイムスタンプ管理部221は、撮像部201および202の露光時間パラメータから、撮像部201の露光重心のオフセット値Toffsetと、撮像部202の露光重心のオフセット値Toffset2を特定する。その特定方法は、特に限定されない。
In step S405, the time
ステップS406では、タイムスタンプ管理部221は、撮像部201のタイムスタンプS1(n)と撮像部202のタイムスタンプS2(n)を発行し、タイムスタンプS1(n)およびS2(n)を保持する。タイムスタンプ管理部221は、S1(n)=T(n)+Toffset1(n)によりタイムスタンプS1(n)を算出し、S2(n)=T(n)+Toffset2(n)によりタイムスタンプS2(n)を算出する。タイムスタンプS1(n)およびS2(n)は、それぞれ、撮像部201および202の露光重心時間を示す。
In step S406, the
ステップS407では、タイムスタンプ管理部221は、撮像部201または202から垂直同期信号Vsyncを入力したか否かを判定する。タイムスタンプ管理部221は、撮像部201または202から垂直同期信号Vsyncを入力していない場合には、ステップS407に戻り、撮像部201または202から垂直同期信号Vsyncを入力した場合には、ステップS408に進む。
In step S407, the time
ステップS408では、タイムスタンプ管理部221は、撮像部201から垂直同期信号Vsyncを入力した場合には、撮像部201のタイムスタンプS1(n)と、撮像部201から入力した画像データD1(n)とを対応付けて出力する。また、タイムスタンプ管理部221は、撮像部202から垂直同期信号Vsyncを入力した場合には、撮像部202のタイムスタンプS2(n)と、撮像部202から入力した画像データD2(n)とを対応付けて出力する。これにより、タイムスタンプ管理部221は、1フレーム単位の画像処理を完了し、ステップS402に戻る。
In step S408, when the vertical synchronization signal Vsync is input from the
以後、タイムスタンプ管理部221は、次のフレームも同様の処理を繰り返すことによって、フレームごとの画像データD1(n)およびD2と、露光重心を示したタイムスタンプS1(n)およびS2(n)とをそれぞれ対応付けて出力することができる。
Thereafter, the time
図5は、本実施形態によるHMD101の制御方法の例を示すタイミングチャートである。タイムスタンプ管理部221は、図4のフローチャートの処理を行っている。以下、図5を用いて、図4で説明したフローチャートの処理の説明を補足する。
FIG. 5 is a timing chart showing an example of a method for controlling the
時刻E0は、同期化部220が外部同期信号を撮像部201,202とセンシング部204とタイムスタンプ管理部221に出力した時刻である。撮像部201と撮像部202とセンシング部204とタイムスタンプ管理部221は、共通の外部同期信号を入力する。タイムスタンプ管理部221は、時刻E0におけるタイムカウンタTcntの値を外部同期時間T0として保持する。
Time E0 is the time when the
時刻T0では、撮像部201のシャッタスピード設定は1/120sであり、撮像部201はローリングシャッタ方式の撮像素子を用いている。時間A1_f0は、撮像部201が外部同期信号を入力してから露光を開始するまでの時間である。時間B1_f0は、撮像部201の露光が開始されてから露光重心に到達するまでの時間である。時間A1_f0およびB1_f0は、撮像部201の特性と設定されるシャッタスピードによって一意に決まる値である。タイムスタンプ管理部221は、S1(0)=T0+A1_f0+B1_f0により、タイムスタンプS1(0)を算出する。
At time T0, the shutter speed setting of the
時刻R0は、撮像部201が垂直同期信号Vsyncを出力する時刻であり、撮像部201が画像データD1(0)の出力を開始する時刻である。時刻R0では、タイムスタンプ管理部221は、タイムスタンプS1(0)と画像データD1(0)とを対応付けて出力する。
Time R0 is the time when the
また、時刻T0では、撮像部202のシャッタスピード設定は1/120sであり、撮像部202はグローバルシャッタ方式の撮像素子を用いている。時間A2_f0は、撮像部202が外部同期信号を入力してから露光を開始するまでの時間である。時間B2_f0は、撮像部202の露光が開始されてから露光重心に到達するまでの時間である。時間A2_f0およびB2_f0は、撮像部202の特性と設定されるシャッタスピードによって一意に決まる値である。タイムスタンプ管理部221は、S2(0)=T0+A2_f0+B2_f0により、タイムスタンプS2(0)を算出する。
Further, at time T0, the shutter speed setting of the
時刻R1は、撮像部202が垂直同期信号Vsyncを出力する時刻であり、撮像部202が画像データD2(0)の出力を開始する時刻である。時刻R1では、タイムスタンプ管理部221は、タイムスタンプS2(0)と画像データD2(0)とを対応付けて出力する。
Time R1 is the time when the
撮像部201は、ローリングシャッタ方式の撮像素子を用いている。撮像部202は、グローバルシャッタ方式の撮像素子を用いている。そのため、撮像部201および202のシャッタスピードが相互に同一であるにもかかわらず、時間B1_f0およびB2_f0が相互に異なることがわかる。
The
次に、本実施形態による効果を説明する。上記のように、タイムスタンプ管理部221は、撮像部201および202の共通の外部同期信号を入力し、設定値に応じてタイムスタンプS1(n)およびS2(n)を生成する。時間差ΔT(n)は、タイムスタンプS1(n)とタイムスタンプS2(n)との差分であり、撮像部201および202の露光重心のずれ時間である。
Next, the effects of this embodiment will be explained. As described above, the time
CG生成部210が生成するCG画像は、画像処理後の撮像部202の撮像画像を基に生成されている。一方、画像合成部208に入力される撮像画像は、画像処理後の撮像部201の撮像画像である。すわなち、撮像部201と撮像部202で露光される時間的なタイミングが異なる場合、画像合成部208が画像合成をすると、違和感のあるMR画像が生成されてしまう。本実施形態では、HMD101は、時間差ΔT(n)をタイムスタンプS1(n)およびS2(n)から求め、時間差ΔT(n)を考慮して、CG画像を生成する。
The CG image generated by the
図5において、撮像部201のFrame0におけるタイムスタンプ値は、S1(0)である。撮像部202のFrame0におけるタイムスタンプ値は、S2(0)である。時間差ΔT0は、撮像部201の露光重心と撮像部202の露光重心の時間差である。例えば、撮像処理部206は、ΔT0=|S1(0)-S2(0)|により時間差ΔT0を算出し、時間差ΔT0と画像処理後の撮像部202の撮像画像を位置姿勢計算部209に出力する。
In FIG. 5, the timestamp value in
位置姿勢計算部209は、時間差ΔT0と、画像処理後の撮像部202の撮像画像と、動作算出部205の算出結果とを基に、撮像部201と撮像部202の露光重心のずれ分を考慮したHMD101の位置姿勢を計算する。前述した通り、位置姿勢計算部209は、現実世界を示す世界座標系とHMD101を通して観察した画像を示すカメラ座標系との関係を計算し、現実世界に対してHMD101がどのような位置姿勢であるかを計算する。位置姿勢計算部209は、時間差ΔTと動作算出部205の算出結果を用いることにより、HMD101の動きを考慮して、時間差ΔT0の時間誤差を補正することができる。具体的には、位置姿勢計算部209は、動作算出部205の算出結果を基に、HMD101の移動、傾き、回転、加速度、角速度等の状態を知ることができる。すなわち、位置姿勢計算部209は、HMD101の現実世界上での変化と時間差ΔT0とを基に、撮像部201の撮像画像が表すカメラ座標と撮像部202の撮像画像が表すカメラ座標の差分量がわかるので、これを考慮して、HMD101の位置姿勢を計算する。位置姿勢計算部209は、HMD101の位置姿勢の情報をCG生成部210に出力する。
The position/
CG生成部210は、位置姿勢計算部209により計算されたHMD101の位置姿勢の情報を基に、コンテンツDB211からCGデータを読み込み、撮像部202により撮像された撮像画像の向いている方向に合わせたCG画像を生成する。そして、CG生成部210は、そのCG画像を画像合成部208に出力する。
The
画像合成部208は、撮像処理部206から画像処理後の撮像部201の撮像画像を入力し、CG生成部210からCG画像を入力する。画像合成部208は、画像処理後の撮像部201の撮像画像とCG画像とを合成することによりMR画像を生成し、MR画像を表示部203に表示する。MR画像を表示部203に表示することで、HMD101の使用者は、外界には存在しない物体をCGとして視認し、MR体験をすることができる。
The
以上のように、位置姿勢計算部209は、時間差ΔT0と動作算出部205の算出結果を用いて、HMD101の位置姿勢を計算する。これにより、位置姿勢計算部209は、HMD101の動きを考慮して、時間差ΔT0の時間誤差を補正した上で、HMD101の位置姿勢を計算することができる。このようにすることで、撮像部201および202の露光重心が不一致であっても、画像合成部208は、正確な位置で、画像処理後の撮像部201の撮像画像とCG画像とを合成することができる。
As described above, the position and
HMD101は、複数の撮像部201および202の特性と設定されたシャッタスピードの値を基に、撮像部201および202の露光重心のずれの時間差ΔT0を正確に求めることができる。これにより、HMD101は、同期化部220により、複数の撮像部201および202とセンシング部204とを同期化させた上で、安定したフレームレートを実現することができる。
The
以上のように、撮像装置は、HMD101と、画像処理装置103を有する。HMD101は、表示部203を有する頭部装着型装置である。
As described above, the imaging device includes the
撮像部201は、第1の露光期間における露光により撮像を行う。第1の露光期間は、例えば、図5のB1_f0+C1_f0である。撮像部202は、第2の露光期間における露光により撮像を行う。第2の露光期間は、例えば、図5のB2_f0+C2_f0である。タイムスタンプ管理部221は、タイムスタンプ生成部であり、撮像部201の第1の露光期間内の露光タイミングを示す第1のタイムスタンプを生成する。第1のタイムスタンプは、例えば、図5のS1(0)である。また、タイムスタンプ管理部221は、撮像部202の第2の露光期間内の露光タイミングを示す第2のタイムスタンプを生成する。第2のタイムスタンプは、例えば、図5のS2(0)である。
The
具体的には、タイムスタンプ管理部221は、撮像部201の第1の露光期間の重心または中心を示す第1のタイムスタンプを生成する。また、タイムスタンプ管理部221は、撮像部202の露光期間の重心または中心を示す第2のタイムスタンプを生成する。
Specifically, the time
撮像部201は、第1のシャッタ方式で撮像する。撮像部202は、第1のシャッタ方式とは異なる第2のシャッタ方式で撮像する。第1のシャッタ方式は、例えば、ローリングシャッタ方式である。第2のシャッタ方式は、例えば、グローバルシャッタ方式である。
The
図5のframe1では、撮像部201の第1の露光期間は、例えば、B1_f1+C1_f1である。撮像部202の第2の露光期間は、例えば、B2_f1+C2_f1である。この場合、第1の露光期間の長さと第2の露光期間の長さは異なる。
In
センシング部204は、センサデータを取得する。例えば、センシング部204は、HMD101の動きを示すセンサデータを取得する。
The
画像合成部208と位置姿勢計算部209とCG生成部210は、画像処理部であり、撮像部201により撮像された画像と、撮像部202により撮像された画像と、第1のタイムスタンプと、第2のタイムスタンプとを基に、画像処理を行う。
The
位置姿勢計算部209とCG生成部210は、撮像部202により撮像された画像と、第1のタイムスタンプと、第2のタイムスタンプと、センサデータとを基に、コンピュータグラフィックス画像を生成する。画像合成部208は、撮像部201により撮像された画像と、上記のコンピュータグラフィックス画像とを基に、画像合成を行う。
The position and
なお、撮像部201は、垂直同期信号Vsyncを基に、第1の露光期間における露光を行ってもよい。その場合、同期化部220は、撮像部201の垂直同期信号Vsyncを基に、外部同期信号を生成する。撮像部202は、同期化部220により生成された外部同期信号を基に、第2の露光期間における露光を行う。
Note that the
以上のように、本実施形態によれば、HMD101と画像処理装置103は、撮像部201と撮像部202とセンシング部204を同期させた上で、安定したフレームレートを実現することができる。
As described above, according to the present embodiment, the
(第2の実施形態)
以下、図6を参照して、第2の実施形態を説明する。図6は、第2の実施形態によるHMD101と画像処理装置103の機能構成例を示すブロック図である。図6のHMD101は、図2のHMD101に対して、画像変形部601を追加したものである。図6の画像処理装置103は、図2の画像処理装置103と同様である。以下、第2の実施形態が第1の実施形態と異なる点を説明する。
(Second embodiment)
The second embodiment will be described below with reference to FIG. FIG. 6 is a block diagram showing an example of the functional configuration of the
CG生成部210は、コンテンツDBから読み出すCGデータの描画負荷状況により、スループットが変動し、レイテンシが増加する場合がある。その場合、画像合成部208は、CG生成部210からCG画像を入力するタイミングが遅れるため、CG画像の位置が撮像画像の位置とは一致せず、違和感のあるMR画像となる場合がある。
The throughput of the
そこで、画像変形部601は、動作算出部205の算出結果に基づいて、CG生成部210により生成されたCG画像を変形する。撮像部201で撮像された画像は、HMD101の動作に追従して変化しているので、画像変形部601は、CG画像の遅れを補正するように、CG画像を画像変形させる。画像変形の方法は、例えば、ホモグラフィ変換などの画像変形方法である。画像変形部601は、変形したCG画像を画像合成部208に出力する。
Therefore, the
画像合成部208は、撮像処理部206から画像処理後の撮像部201の撮像画像を入力し、画像変形部601から変形されたCG画像を入力する。画像合成部208は、画像処理後の撮像部201の撮像画像と、変形されたCG画像とを合成することによりMR画像を生成し、MR画像を表示部203に提示(表示)する。
The
これにより、HMD101は、CG生成部210でのCG画像生成でレイテンシが増えたとしても、HMD101の使用者にとって違和感の少ないMR画像を表示部203に表示することができる。
Thereby, the
動作算出部205は、センシング部204から出力されるセンサデータを基に、HMD101の移動、傾き、回転等を算出する。画像変形部601は、動作算出部205の算出結果を基に、CG画像を変形する。画像合成部208は、画像処理後の撮像部201の撮像画像と変形されたCG画像を合成する。そのため、HMD101は、撮像部201および202とセンシング部204のデータ取得タイミングを正確に把握することが必要となる。そこで、タイムスタンプ管理部221は、センシング部204が出力するセンサデータに対して、タイムスタンプを対応付けて出力する。以下、その詳細を説明する。
The
図7は、第2の実施形態によるHMD101の制御方法の例を示すタイミングチャートである。図7のタイミングチャートを用いて、第2の実施形態における動作を説明する。図7の撮像部201および202のタイミングチャートは、図5の撮像部201および202のタイミングチャートと同じである。以下、図7のセンシング部204のタイミングチャートを主に説明する。
FIG. 7 is a timing chart showing an example of a method for controlling the
時刻E0は、同期化部220が外部同期信号を撮像部201,202とセンシング部204とタイムスタンプ管理部221に出力した時刻である。撮像部201と撮像部202とセンシング部204とタイムスタンプ管理部221は、共通の外部同期信号を入力する。タイムスタンプ管理部221は、時刻E0におけるタイムカウンタTcntの値を外部同期時間T0として保持する。
Time E0 is the time when the
センシング部204は、設定に基づき、サンプリングタイミングで、センサデータをサンプリングする。時刻E0からサンプリングタイミングまでの時間は、センシング部204の設定により一意に決まる値であり、A3_f0+B3_f0である。タイムスタンプ管理部221は、S3(0)=T0+A3_f0+B3_f0により、タイムスタンプS3(0)を算出する。サンプリングタイミングから時間C3_f0の後、センシング部204は、サンプリングしたセンサデータD3(0)の出力を開始する。タイムスタンプ管理部221は、タイムスタンプS3(0)とセンサデータD3(0)とを対応付けて動作算出部205に出力する。
The
動作算出部205は、撮像部201のタイムスタンプS1(0)と、撮像部202のタイムスタンプS2(0)と、センシング部204のタイムスタンプS3(0)を基に、センサデータの取得タイミングのずれ量ΔT0_13およびΔT0_23を算出する。
The
例えば、動作算出部205は、ΔT0_13=|S1(0)-S3(0)|により、撮像部201の露光重心とセンシング部204のデータ取得タイミングとのずれ量ΔT0_13を算出する。また、動作算出部205は、ΔT0_23=|S2(0)-S3(0)|により、撮像部202の露光重心とセンシング部204のデータ取得タイミングとのずれ量ΔT0_23を算出する。動作算出部205は、ずれ量ΔT0_13およびΔT0_23を画像変形部601に出力する。
For example, the
画像変形部601は、ずれ量ΔT0_13およびΔT0_23を基に、撮像画像に対するCG画像の遅れを補正するように、CG生成部210により生成されたCG画像を変形する。
The
画像合成部208は、撮像処理部206から画像処理後の撮像部201の撮像画像を入力し、画像変形部601から変形されたCG画像を入力する。画像合成部208は、画像処理後の撮像部201の撮像画像と、変形されたCG画像とを合成することによりMR画像を生成し、MR画像を表示部203に表示する。これにより、表示部203は、HMD101の使用者にとって違和感の少ない画像を提示(表示)することができる。
The
以上のように、センシング部204は、サンプリング時間におけるサンプリングによりセンサデータを取得する。タイムスタンプ管理部221は、センシング部204のサンプリング時間を示す第3のタイムスタンプを生成する。第3のタイムスタンプは、例えば、図7のS3(0)である。
As described above, the
位置姿勢計算部209とCG生成部210は、撮像部202により撮像された画像と、第1のタイムスタンプと、第2のタイムスタンプと、センサデータとを基に、コンピュータグラフィックス画像を生成する。第1のタイムスタンプは、例えば、図7のS1(0)である。第2のタイムスタンプは、例えば、図7のS2(0)である。
The position and
画像変形部601は、第1のタイムスタンプと、第2のタイムスタンプと、第3のタイムスタンプとを基に、上記のコンピュータグラフィックス画像を変形する。画像合成部208は、撮像部201により撮像された画像と、画像変形部601により変形されたコンピュータグラフィックス画像とを基に、画像合成を行う。
The
以上のように、本実施形態によれば、HMD101と画像処理装置103は、撮像部201と撮像部202とセンシング部204を同期させた上で、安定したフレームレートを実現することができる。
As described above, according to the present embodiment, the
(その他の実施形態)
本開示は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present disclosure provides a system or device with a program that implements one or more functions of the above-described embodiments via a network or a storage medium, and one or more processors in a computer of the system or device reads and executes the program. This can also be achieved by processing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
以上、実施形態について説明したが、本開示はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形および変更が可能である。 Although the embodiments have been described above, the present disclosure is not limited to these embodiments, and various modifications and changes can be made within the scope of the gist.
本実施形態の開示は、以下の構成および方法を含む。
(構成1)
第1の露光期間における露光により撮像を行う第1の撮像部と、
第2の露光期間における露光により撮像を行う第2の撮像部と、
前記第1の撮像部の前記第1の露光期間内の露光タイミングを示す第1のタイムスタンプを生成する第1のタイムスタンプ生成部と、
前記第2の撮像部の前記第2の露光期間内の露光タイミングを示す第2のタイムスタンプを生成する第2のタイムスタンプ生成部と
を有することを特徴とする撮像装置。
(構成2)
前記第1のタイムスタンプ生成部は、前記第1の撮像部の前記第1の露光期間の重心または中心を示す第1のタイムスタンプを生成し、
前記第2のタイムスタンプ生成部は、前記第2の撮像部の前記第2の露光期間の重心または中心を示す第2のタイムスタンプを生成することを特徴とする構成1に記載の撮像装置。
(構成3)
前記第1の撮像部は、第1のシャッタ方式で撮像し、
前記第2の撮像部は、前記第1のシャッタ方式とは異なる第2のシャッタ方式で撮像することを特徴とする構成1または2に記載の撮像装置。
(構成4)
前記第1のシャッタ方式は、ローリングシャッタ方式であり、
前記第2のシャッタ方式は、グローバルシャッタ方式であることを特徴とする構成3に記載の撮像装置。
(構成5)
前記第1の露光期間の長さと前記第2の露光期間の長さは異なることを特徴とする構成1~4のいずれか1項に記載の撮像装置。
(構成6)
センサデータを取得するセンシング部をさらに有することを特徴とする構成1~5のいずれか1項に記載の撮像装置。
(構成7)
前記センシング部は、前記撮像装置の動きを示すセンサデータを取得することを特徴とする構成6に記載の撮像装置。
(構成8)
前記第1の撮像部により撮像された画像と、前記第2の撮像部により撮像された画像と、前記第1のタイムスタンプと、前記第2のタイムスタンプとを基に、画像処理を行う画像処理部をさらに有することを特徴とする構成1~7のいずれか1項に記載の撮像装置。
(構成9)
前記第2の撮像部により撮像された画像と、前記第1のタイムスタンプと、前記第2のタイムスタンプと、前記センサデータとを基に、コンピュータグラフィックス画像を生成する生成部と、
前記第1の撮像部により撮像された画像と、前記コンピュータグラフィックス画像とを基に、画像合成を行う画像合成部とをさらに有することを構成6または7に記載の撮像装置。
(構成10)
前記センシング部は、サンプリング時間におけるサンプリングによりセンサデータを取得し、
前記センシング部の前記サンプリング時間を示す第3のタイムスタンプを生成する第3のタイムスタンプ生成部をさらに有することを特徴とする構成6または7に記載の撮像装置。
(構成11)
前記第2の撮像部により撮像された画像と、前記第1のタイムスタンプと、前記第2のタイムスタンプと、前記センサデータとを基に、コンピュータグラフィックス画像を生成する生成部と、
前記第1のタイムスタンプと、前記第2のタイムスタンプと、前記第3のタイムスタンプとを基に、前記コンピュータグラフィックス画像を変形する画像変形部と、
前記第1の撮像部により撮像された画像と、前記画像変形部により変形されたコンピュータグラフィックス画像とを基に、画像合成を行う画像合成部とをさらに有することを構成10に記載の撮像装置。
(構成12)
前記第1の撮像部は、第1の同期信号を基に、前記第1の露光期間における露光を行い、
前記第2の撮像部は、第2の同期信号を基に、前記第2の露光期間における露光を行い、
前記撮像装置は、前記第1の同期信号を基に、前記第2の同期信号を生成する同期化部をさらに有することを特徴とする構成1~11のいずれか1項に記載の撮像装置。
(構成13)
前記撮像装置は、表示部を有する頭部装着型装置であることを特徴とする構成1~12のいずれか1項に記載の撮像装置。
(構成14)
露光期間における露光により撮像を行う撮像部と、
サンプリング時間におけるサンプリングによりセンサデータを取得するセンシング部と、
前記撮像部の前記露光期間内の露光タイミングを示す第1のタイムスタンプを生成する第1のタイムスタンプ生成部と、
前記センシング部の前記サンプリング時間を示す第2のタイムスタンプを生成する第2のタイムスタンプ生成部と
を有することを特徴とする撮像装置。
(構成15)
前記第1のタイムスタンプ生成部は、前記撮像部の前記露光期間の重心または中心を示す第1のタイムスタンプを生成することを特徴とする構成14に記載の撮像装置。
(構成16)
前記センシング部は、前記撮像装置の動きを示すセンサデータを取得することを特徴とする構成14または15に記載の撮像装置。
(構成17)
前記撮像装置は、表示部を有する頭部装着型装置であることを特徴とする構成14~16のいずれか1項に記載の撮像装置。
(方法1)
第1の露光期間における露光により撮像を行う第1の撮像部と、
第2の露光期間における露光により撮像を行う第2の撮像部とを有する撮像装置の制御方法であって、
前記第1の撮像部の前記第1の露光期間内の露光タイミングを示す第1のタイムスタンプを生成する第1のタイムスタンプ生成ステップと、
前記第2の撮像部の前記第2の露光期間内の露光タイミングを示す第2のタイムスタンプを生成する第2のタイムスタンプ生成ステップと
を有することを特徴とする撮像装置の制御方法。
(方法2)
露光期間における露光により撮像を行う撮像部と、
サンプリング時間におけるサンプリングによりセンサデータを取得するセンシング部とを有する撮像装置の制御方法であって、
前記撮像部の前記露光期間内の露光タイミングを示す第1のタイムスタンプを生成する第1のタイムスタンプ生成ステップと、
前記センシング部の前記サンプリング時間を示す第2のタイムスタンプを生成する第2のタイムスタンプ生成ステップと
を有することを特徴とする撮像装置の制御方法。
The disclosure of this embodiment includes the following configuration and method.
(Configuration 1)
a first imaging unit that performs imaging by exposure during a first exposure period;
a second imaging unit that performs imaging by exposure in a second exposure period;
a first time stamp generation unit that generates a first time stamp indicating an exposure timing within the first exposure period of the first imaging unit;
An imaging device comprising: a second time stamp generation section that generates a second time stamp indicating exposure timing within the second exposure period of the second imaging section.
(Configuration 2)
The first time stamp generation unit generates a first time stamp indicating a center of gravity or a center of the first exposure period of the first imaging unit,
The imaging device according to
(Configuration 3)
The first imaging unit captures an image using a first shutter method,
The imaging device according to
(Configuration 4)
The first shutter method is a rolling shutter method,
The imaging device according to configuration 3, wherein the second shutter method is a global shutter method.
(Configuration 5)
5. The imaging device according to any one of
(Configuration 6)
The imaging device according to any one of
(Configuration 7)
The imaging device according to configuration 6, wherein the sensing unit acquires sensor data indicating movement of the imaging device.
(Configuration 8)
An image on which image processing is performed based on an image captured by the first imaging unit, an image captured by the second imaging unit, the first time stamp, and the second time stamp. 8. The imaging device according to any one of
(Configuration 9)
a generation unit that generates a computer graphics image based on the image captured by the second imaging unit, the first time stamp, the second time stamp, and the sensor data;
8. The imaging device according to configuration 6 or 7, further comprising an image synthesis section that performs image synthesis based on the image captured by the first imaging section and the computer graphics image.
(Configuration 10)
The sensing unit acquires sensor data by sampling at a sampling time,
8. The imaging device according to configuration 6 or 7, further comprising a third time stamp generation section that generates a third time stamp indicating the sampling time of the sensing section.
(Configuration 11)
a generation unit that generates a computer graphics image based on the image captured by the second imaging unit, the first time stamp, the second time stamp, and the sensor data;
an image transformation unit that transforms the computer graphics image based on the first time stamp, the second time stamp, and the third time stamp;
The imaging device according to configuration 10, further comprising an image synthesis unit that performs image synthesis based on the image captured by the first imaging unit and the computer graphics image transformed by the image transformation unit. .
(Configuration 12)
The first imaging unit performs exposure in the first exposure period based on a first synchronization signal,
The second imaging unit performs exposure in the second exposure period based on a second synchronization signal,
The imaging device according to any one of
(Configuration 13)
The imaging device according to any one of
(Configuration 14)
an imaging unit that captures an image by exposure during an exposure period;
a sensing unit that acquires sensor data by sampling at a sampling time;
a first time stamp generation unit that generates a first time stamp indicating an exposure timing within the exposure period of the imaging unit;
An imaging device comprising: a second time stamp generation section that generates a second time stamp indicating the sampling time of the sensing section.
(Configuration 15)
15. The imaging device according to configuration 14, wherein the first time stamp generation unit generates a first time stamp indicating a center of gravity or a center of the exposure period of the imaging unit.
(Configuration 16)
16. The imaging device according to configuration 14 or 15, wherein the sensing unit acquires sensor data indicating movement of the imaging device.
(Configuration 17)
17. The imaging device according to any one of configurations 14 to 16, wherein the imaging device is a head-mounted device having a display section.
(Method 1)
a first imaging unit that performs imaging by exposure during a first exposure period;
A method for controlling an imaging device including a second imaging unit that performs imaging by exposure in a second exposure period,
a first timestamp generation step of generating a first timestamp indicating an exposure timing within the first exposure period of the first imaging unit;
A method for controlling an imaging device, comprising: a second timestamp generation step of generating a second timestamp indicating an exposure timing of the second imaging unit within the second exposure period.
(Method 2)
an imaging unit that captures an image by exposure during an exposure period;
A method for controlling an imaging device including a sensing unit that acquires sensor data by sampling at a sampling time, the method comprising:
a first time stamp generation step of generating a first time stamp indicating an exposure timing of the imaging unit within the exposure period;
a second time stamp generation step of generating a second time stamp indicating the sampling time of the sensing unit.
101 HMD、102 表示装置、103 画像処理装置、104 操作部、201 撮像部、202 撮像部、203 表示部、204 センシング部、205 動作算出部、206 撮像処理部、207 演算部、208 画像合成部、209 位置姿勢計算部、210 CG生成部、211 コンテンツDB、220 同期化部、221 タイムスタンプ管理部、601 画像変形部
Claims (19)
第2の露光期間における露光により撮像を行う第2の撮像部と、
前記第1の撮像部の前記第1の露光期間内の露光タイミングを示す第1のタイムスタンプを生成する第1のタイムスタンプ生成部と、
前記第2の撮像部の前記第2の露光期間内の露光タイミングを示す第2のタイムスタンプを生成する第2のタイムスタンプ生成部と
を有することを特徴とする撮像装置。 a first imaging unit that performs imaging by exposure during a first exposure period;
a second imaging unit that performs imaging by exposure in a second exposure period;
a first time stamp generation unit that generates a first time stamp indicating an exposure timing within the first exposure period of the first imaging unit;
An imaging device comprising: a second time stamp generation section that generates a second time stamp indicating exposure timing within the second exposure period of the second imaging section.
前記第2のタイムスタンプ生成部は、前記第2の撮像部の前記第2の露光期間の重心または中心を示す第2のタイムスタンプを生成することを特徴とする請求項1に記載の撮像装置。 The first time stamp generation unit generates a first time stamp indicating a center of gravity or a center of the first exposure period of the first imaging unit,
The imaging device according to claim 1, wherein the second time stamp generation unit generates a second time stamp indicating a center of gravity or a center of the second exposure period of the second imaging unit. .
前記第2の撮像部は、前記第1のシャッタ方式とは異なる第2のシャッタ方式で撮像することを特徴とする請求項1に記載の撮像装置。 The first imaging unit captures an image using a first shutter method,
The imaging device according to claim 1, wherein the second imaging unit takes an image using a second shutter method different from the first shutter method.
前記第2のシャッタ方式は、グローバルシャッタ方式であることを特徴とする請求項3に記載の撮像装置。 The first shutter method is a rolling shutter method,
The imaging device according to claim 3, wherein the second shutter method is a global shutter method.
前記第1の撮像部により撮像された画像と、前記コンピュータグラフィックス画像とを基に、画像合成を行う画像合成部とをさらに有することを請求項6に記載の撮像装置。 a generation unit that generates a computer graphics image based on the image captured by the second imaging unit, the first time stamp, the second time stamp, and the sensor data;
7. The imaging device according to claim 6, further comprising an image synthesis section that performs image synthesis based on the image captured by the first imaging section and the computer graphics image.
前記センシング部の前記サンプリング時間を示す第3のタイムスタンプを生成する第3のタイムスタンプ生成部をさらに有することを特徴とする請求項6に記載の撮像装置。 The sensing unit acquires sensor data by sampling at a sampling time,
The imaging device according to claim 6, further comprising a third time stamp generation section that generates a third time stamp indicating the sampling time of the sensing section.
前記第1のタイムスタンプと、前記第2のタイムスタンプと、前記第3のタイムスタンプとを基に、前記コンピュータグラフィックス画像を変形する画像変形部と、
前記第1の撮像部により撮像された画像と、前記画像変形部により変形されたコンピュータグラフィックス画像とを基に、画像合成を行う画像合成部とをさらに有することを請求項10に記載の撮像装置。 a generation unit that generates a computer graphics image based on the image captured by the second imaging unit, the first time stamp, the second time stamp, and the sensor data;
an image transformation unit that transforms the computer graphics image based on the first time stamp, the second time stamp, and the third time stamp;
The imaging device according to claim 10, further comprising an image synthesis unit that performs image synthesis based on the image captured by the first imaging unit and the computer graphics image transformed by the image transformation unit. Device.
前記第2の撮像部は、第2の同期信号を基に、前記第2の露光期間における露光を行い、
前記撮像装置は、前記第1の同期信号を基に、前記第2の同期信号を生成する同期化部をさらに有することを特徴とする請求項1に記載の撮像装置。 The first imaging unit performs exposure in the first exposure period based on a first synchronization signal,
The second imaging unit performs exposure in the second exposure period based on a second synchronization signal,
The imaging device according to claim 1, further comprising a synchronization unit that generates the second synchronization signal based on the first synchronization signal.
サンプリング時間におけるサンプリングによりセンサデータを取得するセンシング部と、
前記撮像部の前記露光期間内の露光タイミングを示す第1のタイムスタンプを生成する第1のタイムスタンプ生成部と、
前記センシング部の前記サンプリング時間を示す第2のタイムスタンプを生成する第2のタイムスタンプ生成部と
を有することを特徴とする撮像装置。 an imaging unit that captures an image by exposure during an exposure period;
a sensing unit that acquires sensor data by sampling at a sampling time;
a first time stamp generation unit that generates a first time stamp indicating an exposure timing within the exposure period of the imaging unit;
An imaging device comprising: a second time stamp generation section that generates a second time stamp indicating the sampling time of the sensing section.
第2の露光期間における露光により撮像を行う第2の撮像部とを有する撮像装置の制御方法であって、
前記第1の撮像部の前記第1の露光期間内の露光タイミングを示す第1のタイムスタンプを生成する第1のタイムスタンプ生成ステップと、
前記第2の撮像部の前記第2の露光期間内の露光タイミングを示す第2のタイムスタンプを生成する第2のタイムスタンプ生成ステップと
を有することを特徴とする撮像装置の制御方法。 a first imaging unit that performs imaging by exposure during a first exposure period;
A method for controlling an imaging device including a second imaging unit that performs imaging by exposure in a second exposure period,
a first timestamp generation step of generating a first timestamp indicating an exposure timing within the first exposure period of the first imaging unit;
A method for controlling an imaging device, comprising: a second timestamp generation step of generating a second timestamp indicating an exposure timing of the second imaging unit within the second exposure period.
サンプリング時間におけるサンプリングによりセンサデータを取得するセンシング部とを有する撮像装置の制御方法であって、
前記撮像部の前記露光期間内の露光タイミングを示す第1のタイムスタンプを生成する第1のタイムスタンプ生成ステップと、
前記センシング部の前記サンプリング時間を示す第2のタイムスタンプを生成する第2のタイムスタンプ生成ステップと
を有することを特徴とする撮像装置の制御方法。 an imaging unit that captures an image by exposure during an exposure period;
A method for controlling an imaging device including a sensing unit that acquires sensor data by sampling at a sampling time, the method comprising:
a first time stamp generation step of generating a first time stamp indicating an exposure timing of the imaging unit within the exposure period;
a second time stamp generation step of generating a second time stamp indicating the sampling time of the sensing unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022090289A JP2023177556A (en) | 2022-06-02 | 2022-06-02 | Imaging apparatus and control method for the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022090289A JP2023177556A (en) | 2022-06-02 | 2022-06-02 | Imaging apparatus and control method for the same |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023177556A true JP2023177556A (en) | 2023-12-14 |
Family
ID=89123906
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022090289A Pending JP2023177556A (en) | 2022-06-02 | 2022-06-02 | Imaging apparatus and control method for the same |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023177556A (en) |
-
2022
- 2022-06-02 JP JP2022090289A patent/JP2023177556A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
RU2638776C1 (en) | Image generating device and method | |
JP6702323B2 (en) | Camera module, solid-state imaging device, electronic device, and imaging method | |
JP4857196B2 (en) | Head-mounted display device and control method thereof | |
EP3572916B1 (en) | Apparatus, system, and method for accelerating positional tracking of head-mounted displays | |
JP2004213355A (en) | Information processing method | |
TW201301203A (en) | Panorama processing | |
JP6218787B2 (en) | Imaging apparatus, information processing apparatus, display apparatus, information processing system, image data transmission method, and image display method | |
JP2019012965A (en) | Video control method, video control device, and video control program | |
JP6723720B2 (en) | Display system, information processing method and program | |
CN110969706B (en) | Augmented reality device, image processing method, system and storage medium thereof | |
JP6949475B2 (en) | Image processing equipment, image processing methods and programs | |
JP7271215B2 (en) | SYNCHRONIZATION CONTROL DEVICE, SYNCHRONIZATION CONTROL METHOD, AND PROGRAM | |
JP2011035638A (en) | Virtual reality space video production system | |
JP2023177556A (en) | Imaging apparatus and control method for the same | |
JP2016192137A (en) | Information processing device, information processing method and program | |
JP2023055773A (en) | Synchronization control device, synchronization control method, and program | |
WO2023108016A1 (en) | Augmented reality using a split architecture | |
WO2019073925A1 (en) | Image generation device and image generation method | |
CN115345771A (en) | Automatic driving simulation test image processing method and device | |
JP2020106655A (en) | Information processor, information processing method and program | |
JP7357554B2 (en) | Synchronous control device, control method of synchronous control device, system | |
CN111949114A (en) | Image processing method and device and terminal | |
JP2015201734A (en) | Image processing system, control method of the same, and program | |
EP4333420A1 (en) | Information processing device, information processing method, and program | |
JP6702779B2 (en) | Data distribution device, image display system, and data distribution method |