JP7357554B2 - 同期制御装置、同期制御装置の制御方法、システム - Google Patents

同期制御装置、同期制御装置の制御方法、システム Download PDF

Info

Publication number
JP7357554B2
JP7357554B2 JP2020009447A JP2020009447A JP7357554B2 JP 7357554 B2 JP7357554 B2 JP 7357554B2 JP 2020009447 A JP2020009447 A JP 2020009447A JP 2020009447 A JP2020009447 A JP 2020009447A JP 7357554 B2 JP7357554 B2 JP 7357554B2
Authority
JP
Japan
Prior art keywords
imaging unit
synchronization
time
synchronization signal
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020009447A
Other languages
English (en)
Other versions
JP2021117057A5 (ja
JP2021117057A (ja
Inventor
佳樹 梶田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2020009447A priority Critical patent/JP7357554B2/ja
Priority to US17/153,373 priority patent/US11526010B2/en
Publication of JP2021117057A publication Critical patent/JP2021117057A/ja
Publication of JP2021117057A5 publication Critical patent/JP2021117057A5/ja
Application granted granted Critical
Publication of JP7357554B2 publication Critical patent/JP7357554B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/665Control of cameras or camera modules involving internal camera communication with the image sensor, e.g. synchronising or multiplexing SSIS control signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Studio Devices (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

本発明は、複合現実感提示技術に関するものである。
近年、現実世界と仮想世界とをリアルタイムかつシームレスに融合させる技術として複合現実感、いわゆるMR(Mixed Reality)技術が知られている。MR技術の一つとして、ビデオシースルー型HMD(Head Mounted Display:以下、必要に応じて「HMD」と称する)を利用したMRシステムがある。MRシステムでは、HMD装着者の瞳位置から観察される被写体と略一致する被写体をHMD内臓の撮像ユニットで撮像し、その撮像画像にCG(Computer Graphics)を重畳表示した画像をHMD装着者に提示することによりMR空間を体験させることができる。
MRシステムでは、撮像画像や各種センサ情報を用いた演算処理を行うことによりHMDの位置姿勢を求めるが、撮像ユニットや各種センサは可能な限り同期した状態で動作させることが望ましい。例えば、複数の撮像ユニットに対して共通の駆動信号・同期信号を供給することにより同期をとる技術が以下の特許文献1に開示されている。また、露光時間の長さが異なる複数の撮像ユニットに対し、露光時間の重心を合わせることにより同期をとる技術が以下の特許文献2に開示されている。
特開2000-341719号公報 特開2006-005608号公報
しかしながら、上記従来の技術では次のような課題があった。特許文献1および特許文献2に代表される構成では、撮像ユニット間の同期に限定されている。MRシステムのように、撮像部に加えて各種センサを扱うシステムにおいては、撮像ユニットと各種センサが非同期で動作すると、十分な演算精度が得られない可能性があり、その場合、撮像画像とCGとの間における位置ズレが生じる可能性がある。本発明では、撮像部および姿勢センサを同期をとって動作させるための技術を提供する。
本発明の一様態は、同期制御装置であって、
第1の撮像部からの画像出力の開始タイミングを示す開始信号の検出タイミングと同期タイミングの基準との間の時間、第2の撮像部が第1同期信号を受けてから露光を開始するまでに要する時間、前記第2の撮像部の1フレーム分の露光時間、に基づく第1オフセットを設定する第1設定手段と、
前記開始信号の検出タイミングと同期タイミングの基準との間の時間、センサが第2同期信号を受けてから計測を開始するまでに要する時間、に基づく第2オフセットを設定する第2設定手段と、
前記開始信号を検知すると、前記開始信号の検出タイミングから前記第1オフセット後に前記第1同期信号を生成し、該生成した第1同期信号を前記第2の撮像部に供給する第1供給手段と、
前記開始信号を検知すると、前記開始信号の検出タイミングから前記第2オフセット後に前記第2同期信号を生成し、該生成した第2同期信号を前記センサに供給する第2供給手段と
を備えることを特徴とする。
本発明の構成によれば、撮像部および姿勢センサを同期をとって動作させることができる。
MRシステムの構成例を示す図。 撮像画像と仮想空間の画像とから合成画像を生成する処理を説明する図。 撮像部および姿勢センサの動作タイミングを説明する図。 外部同期入力による撮像部と姿勢センサの同期について説明する図。 HMD101および画像処理装置104のそれぞれの機能構成例を示すブロック図。 (a)は、生成部506が撮像部502に供給する同期信号の生成例を示す図、(b)は、撮像部1への外部同期入力を基準とした場合の、撮像部2への外部同期入力の生成について示す図。 撮像部501、撮像部502、姿勢センサ503の同期動作を説明する図。 HMD101による撮像部501、撮像部502、姿勢センサ503の同期動作制御のフローチャート。 HMD101および画像処理装置104のそれぞれの機能構成例を示す図。 撮像部502や姿勢センサ503に供給する同期信号を生成する生成処理を説明する図。 撮像部2や姿勢センサに供給する同期信号を生成する生成処理を説明する図。 撮像部2や姿勢センサに供給する同期信号を生成する生成処理を説明する図。 撮像部2や姿勢センサに供給する同期信号を生成する生成処理を説明する図。 HMD101による撮像部501、撮像部502、姿勢センサ503の同期動作制御のフローチャート。 (a)は、HMD101のハードウェア構成例を示すブロック図、(b)は、コンピュータ装置のハードウェア構成例を示すブロック図。
以下、添付図面を参照して実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。
[第1の実施形態]
先ず、本実施形態に係るMRシステムの構成例について図1を用いて説明する。図1に示す如く、本実施形態に係るMRシステムは、頭部装着型表示装置の一例であるHMD101と、HMD101に表示する複合現実空間(現実空間と仮想空間とを融合した空間)の画像を生成するコンピュータ装置103と、HMD101とコンピュータ装置103とを仲介するコントローラ102と、を有する。
先ず、HMD101について説明する。HMD101は、現実空間を撮像する撮像部と、自装置の位置姿勢を計測(計測処理)するセンサと、画像処理装置104から送信された複合現実空間の画像を表示する表示部と、を有する。HMD101は、これらの複数のデバイスの同期制御装置としても機能する。HMD101は、撮像部によって撮像された撮像画像と、センサによって計測された自装置の位置姿勢と、をコントローラ102に送信する。またHMD101は、該撮像画像および該位置姿勢に基づいてコンピュータ装置103が生成した複合現実空間の画像をコントローラ102から受信して表示部に表示する。これによりHMD101を頭部に装着したユーザの眼前には複合現実空間の画像が提示されることになる。
HMD101は、コントローラ102から供給された電源で動作しても良いし、自装置が有するバッテリーから供給された電源で動作しても良い。つまり、HMD101に電源を供給する方法は特定の方法に限らない。
図1では、HMD101とコントローラ102との間を有線で接続している。しかし、HMD101とコントローラ102との間の接続形態は有線に限らず、無線であっても良いし、無線と有線との組み合わせであっても良い。つまり、HMD101とコントローラ102との間の接続形態は特定の接続形態に限らない。
次に、コントローラ102について説明する。コントローラ102は、HMD101から送信された撮像画像に対して様々な画像処理(解像度変換、色空間変換、HMD101が有する撮像部の光学系の歪み補正、符号化等)を行う。そしてコントローラ102は、画像処理済みの撮像画像と、HMD101から送信された位置姿勢と、をコンピュータ装置103に送信する。また、コントローラ102は、コンピュータ装置103から送信された複合現実空間の画像に対して同様の画像処理を行ってHMD101に送信する。
次に、コンピュータ装置103について説明する。コンピュータ装置103は、コントローラ102から受信した撮像画像および位置姿勢に基づいてHMD101の位置姿勢(HMD101が有する撮像部の位置姿勢)を求め、該求めた位置姿勢を有する視点から見た仮想空間の画像を生成する。そしてコンピュータ装置103は、仮想空間の画像と、コントローラ102を介してHMD101から送信された撮像画像と、の合成画像(複合現実空間の画像)を生成し、該生成した合成画像をコントローラ102に対して送信する。
ここで、撮像画像と仮想空間の画像とから合成画像を生成する処理について、図2を用いて説明する。撮像画像201には、現実空間中に人工的に配したマーカ202(図2では説明を簡単にするためにマーカの数を1としているが、実際には複数含まれることになる)が含まれている。コンピュータ装置103は、撮像画像201からマーカ202を抽出し、該抽出したマーカ202およびコントローラ102から受信した位置姿勢に基づいてHMD101の位置姿勢を求める。そしてコンピュータ装置103は、該求めた位置姿勢を有する視点から見た仮想空間の画像203を生成する。該画像203には仮想物体204が含まれている。そしてコンピュータ装置103は、撮像画像201と仮想空間の画像203とを合成した合成画像である複合現実空間の画像205を生成し、該生成した画像205をHMD101に対して送信する。なお、撮像画像と仮想空間の画像とを合成する際、3次元空間上の奥行きに関する情報や仮想物体の透明度に関する情報を利用することで、現実物体と仮想物体との前後関係を考慮した合成画像や仮想物体を半透明状態で合成した合成画像を生成することができる。
図1では、コンピュータ装置103とコントローラ102とを別個の装置としているが、コンピュータ装置103とコントローラ102とを一体化させても良い。本実施形態では、コンピュータ装置103とコントローラ102とを一体化させた形態について説明する。以下では、コンピュータ装置103とコントローラ102とを一体化させた装置を画像処理装置104とする。
HMDの撮像部には、画素数、画質、ノイズ、センササイズ、消費電力、コスト等の様々な要因を鑑み、ローリングシャッター方式の撮像素子とグローバルシャッター方式の撮像素子を使い分けたり、用途に応じてそれらを組み合わせて使用することができる。例えば、仮想空間の画像と合成する撮像画像の撮像には、より高画質な画像が取得可能なローリングシャッター方式の撮像素子を用い、マーカの撮像には、像流れのないグローバルシャッター方式の撮像素子を用いる構成が挙げられる。像流れとは、走査方向のライン毎に順次露光処理が開始されるローリングシャッター方式の動作原理に起因して発生する現象である。具体的には、図3に示すように、各ラインの露光のタイミングに時間的なズレが生じることにより、露光時間中に撮像部や被写体が動いた際に被写体が流れるように変形して記録される現象として知られている。図3において横軸は時間を示しており、「露光時間(ローリング)」は、ローリングシャッター方式の撮像素子で撮像される各ラインの露光時間を示している。「露光時間(グローバル)」は、グローバルシャッター方式の撮像素子で撮像される各ラインの露光時間を示している。グローバルシャッター方式の場合には、全ライン同時に露光処理が行われるため、各ラインの露光タイミングに時間的なズレが生じず、像流れは発生しない。
図3に示す如く、撮像部が外部同期入力(外部同期入力信号)を受けると、露光開始までの処理時間tExp_Ready後に各画素の露光が開始され、撮像部に設定された露光時間tExpの間、各画素の露光が行われる。各ラインの露光終了からtImg_Out後に、撮像部から同期信号(同期出力、同期出力信号)と画像信号(画像出力)の出力が開始される。図3に示すように、グローバルシャッター方式の撮像部の場合は、外部同期入力が入力される時間tSync_Inから露光開始時間tExp_Startまでの時間、露光中心時間tExp_Center、露光終了時間tExp_Endは撮像素子ごとの固有の値として一意に決定する。一方で、ローリングシャッター方式の撮像部の場合は、どのラインの露光時間を基準とするかによって、先頭ラインと最終ラインの露光開始タイミングの差分ΔtExp_Startに相当する範囲で露光開始時間、露光中心時間、露光終了時間は異なる値を取り得る。
HMDの位置姿勢を計測するセンサ(姿勢センサ)についても同様に、外部同期入力を受けると、計測開始までの処理時間tSens_Ready後に位置姿勢の計測(データ取得)が開始され、計測終了から時間tSens_Out後に、位置姿勢の出力(データ出力)が開始される。
図4は、外部同期入力による撮像部と姿勢センサの同期について説明する図である。図4では、ローリングシャッター方式の撮像部1、グローバルシャッター方式の撮像部2、姿勢センサに対して、時間tSync_Inに共通の外部同期入力を与えることにより、デバイス間の同期を行っている。図3で説明したように、撮像部1、撮像部2、姿勢センサはそれぞれ固有の処理時間を有しているため、外部同期入力に対して、実際に撮像部で露光が行われる時間や、姿勢センサで計測が行われる時間にはズレが生じる。例えば、撮像部1または撮像部2の露光中心時間を基準に考えた場合、姿勢センサによる位置姿勢の計測時間はtSens_Measに、撮像部1の露光中心時間はtExp_Center_CAM1に、撮像部2の露光中心時間はtExp_Center_CAM2となり、一致していない。
ここで、仮想空間の画像と合成する撮像画像の取得に撮像部1を用い、マーカの撮像に撮像部2を用いる構成について考える。仮想空間の画像は、撮像部2で取得したマーカの撮像画像と姿勢センサで取得した位置姿勢とに基づいて生成されるため、両者の取得タイミングのズレによる誤差の影響が生じることとなる。さらに、撮像部1で取得した撮像画像の取得タイミング自体も、撮像部2による撮像画像の取得タイミングや姿勢センサによる位置姿勢の取得タイミングと異なるため、撮像画像に重畳された仮想空間の画像の位置精度への影響はさらに大きくなる。このことからMRシステムにおいては、撮像部1の露光タイミング、撮像部2の露光タイミング、姿勢センサによる位置姿勢の取得タイミング、がより高い精度で一致するようにそれぞれの同期動作を行うことが好ましいと言える。
次に、HMD101および画像処理装置104のそれぞれの機能構成例について、図5のブロック図を用いて説明する。先ず、HMD101について説明する。撮像部501は、仮想空間の画像と合成する現実空間の画像を撮像するためのもので、左眼用の撮像部と右眼用の撮像部とを有する。左眼用の撮像部は、HMD101の装着者の左眼に対応する現実空間の動画像を撮像し、該左眼用の撮像部からは該動画像における各フレームの画像(撮像画像)が出力される。右眼用の撮像部は、HMD101の装着者の右眼に対応する現実空間の動画像を撮像し、該右眼用の撮像部からは該動画像における各フレームの画像(撮像画像)が出力される。つまり撮像部501は、HMD101の装着者の左眼、右眼のそれぞれの位置と略一致した視差を有するステレオ画像としての撮像画像を取得する。なお、MRシステム用のHMDにおいては、撮像部の撮像範囲の中心光軸が、HMDの装着者の視線方向に略一致するように配置されることが好ましい。
左眼用の撮像部および右眼用の撮像部のそれぞれは、光学系と撮像デバイスとを有する。外界から入光した光は光学系を介して撮像デバイスに入光し、該撮像デバイスは該入光した光に応じた画像を撮像画像として出力する。撮像部501の撮像デバイスとしては、ローリングシャッター方式の撮像素子が使用される。撮像部501は定期的に撮像画像を出力するとともに、該撮像画像の出力開始タイミング(画像出力タイミング)を示す同期信号も出力する。
撮像部502は、現実空間中に配されるマーカを撮像するための複数の撮像部を有し、視差を有するステレオ画像としての撮像画像を取得する。それぞれの撮像部は、現実空間の動画像を撮像し、該動画像における各フレームの画像(撮像画像)を出力する。撮像部502が有するそれぞれの撮像部は、光学系と撮像デバイスとを有する。外界から入光した光は光学系を介して撮像デバイスに入光し、該撮像デバイスは該入光した光に応じた画像を撮像画像として出力する。撮像部502の撮像デバイスとしては、グローバルシャッター方式の撮像素子が使用される。撮像部502が有する複数の撮像部は、生成部506から同期信号を受けるたびに露光を開始し、1フレーム分の露光時間が経過すると露光を終了する。
姿勢センサ503は、生成部506から同期信号を受けるたびに、自装置の位置姿勢を計測し、該計測した位置姿勢を出力する。姿勢センサ503は、磁気センサ、超音波センサ、加速度センサ、角速度センサなどにより実装される。
表示部504は右眼用の表示部と左眼用の表示部とを有する。I/F508を介して画像処理装置104から受信した左眼用の複合現実空間の画像は左眼用の表示部に表示され、I/F508を介して画像処理装置104から受信した右眼用の複合現実空間の画像は右眼用の表示部に表示される。左眼用の表示部および右眼用の表示部は何れも、表示光学系と表示素子とを有する。表示光学系は、自由曲面プリズムなどの偏心光学系のみならず、通常の共軸光学系や、ズーム機構を有する光学系を使用してもよい。表示素子は、例えば、小型の液晶ディスプレイや有機ELディスプレイ、MEMSによる網膜スキャンタイプのデバイスなどが使用される。表示素子に表示された画像からの光は、表示光学系を介してHMD101の装着者の目に入光する。
検出部505は、撮像部501から出力される同期信号(撮像部501からの画像出力の開始タイミングを示す信号)を検出し、該同期信号を検出すると、その旨を生成部506に通知する。
生成部506は検出部505から通知を受けると、検出部505が検出した同期信号に基づいて、撮像部502および姿勢センサ503に供給する同期信号を生成し、該生成した同期信号を撮像部502および姿勢センサ503に供給する。設定部507は、HMD101の動作において用いられる各種のパラメータの設定を行う。
撮像部501から出力された撮像画像、撮像部502から出力された撮像画像、姿勢センサ503から出力された位置姿勢、は何れも、I/F508を介して画像処理装置104に対して送信される。
次に、画像処理装置104について説明する。画像処理装置104は、HMD101から送信された撮像画像および位置姿勢を、I/F509を介して受信する。処理部510は、I/F509を介してHMD101から受信した撮像画像に対して各種の画像処理を施す。
生成部511は、処理部510が画像処理を行った左眼用の撮像画像と右眼用の撮像画像とからマーカを抽出(認識)する。そして生成部511は、該マーカと、I/F509を介してHMD101から受信した位置姿勢と、に基づいて、左眼用の撮像部および右眼用の撮像部のそれぞれの位置姿勢を求める。画像中のマーカと該画像を撮像した撮像部と共にHMDに備わっているセンサが計測した位置姿勢とに基づいて該撮像部の位置姿勢を求めるための処理については周知であるため、この技術に関する説明は省略する。
コンテンツDB(データベース)512には、仮想空間の画像を描画するために必要な各種のデータ(仮想空間データ)が保存されている。仮想空間データには、例えば、仮想空間を構成する各仮想物体を規定するデータ(例えば、仮想物体の幾何形状、色、質感、配置位置姿勢等を規定するデータ)が含まれている。また、仮想空間データには、例えば、仮想空間中に配置される光源を規定するデータ(例えば、光源の種類や位置姿勢等を規定するデータ)が含まれている。
合成部513は、コンテンツDB512に保存されている仮想空間データを用いて仮想空間を構築する。そして合成部513は、生成部511が求めた左眼用の撮像部の位置姿勢を有する視点から見た仮想空間の画像Lを生成する。また合成部513は、生成部511が求めた右眼用の撮像部の位置姿勢を有する視点から見た仮想空間の画像Rを生成する。そして合成部513は、仮想空間の画像Lと左眼用の撮像部による撮像画像とを合成した合成画像Lを、左眼用の複合現実空間の画像Lとして生成する。また合成部513は、仮想空間の画像Rと右眼用の撮像部による撮像画像とを合成した合成画像Rを、右眼用の複合現実空間の画像Rとして生成する。
処理部514は、合成部513が生成した複合現実空間の画像Lおよび複合現実空間の画像Rのそれぞれに対して各種の画像処理を施す。そして処理部514は、画像処理を施した複合現実空間の画像L及び複合現実空間の画像Rを、I/F509を介してHMD101に対して送信する。設定部515は、画像処理装置104の動作において用いられる各種のパラメータの設定を行う。
次に、生成部506が撮像部502に供給する同期信号の生成例について、図6(a)を用いて説明する。以降の説明では、「撮像部1」は撮像部501に対応しており、「撮像部2」は撮像部502に対応しているものとする。図6において横軸は時間である。
検出部505は、撮像部1からの同期信号(同期出力)を検出すると、その旨を生成部506に通知する。生成部506は、該通知を受けると、同期信号の検出タイミングからオフセット601後に「撮像部2の露光開始を制御するための同期信号(外部同期入力)」を生成する。ここで、同期信号の検出タイミングから「撮像部1の該検出タイミングの次のフレームの露光時間における中心時間(露光中心時間)」までの時間をt61、撮像部2に固有の「露光開始までの処理時間」をt62、撮像部2の1フレーム分の露光時間をt63とする。このとき、オフセット601は以下の式に従って求めることができる。
オフセット601=t61-t62-t63/2
このようなオフセット601は設定部515が予め求めて設定しているものとする。なお、設定部515は、オフセット601を定期的もしくは不定期的に求めて設定するようにしてもよい。そして生成部506は、このようにして生成された「撮像部2の露光開始を制御するための同期信号」を、撮像部2に対して供給する。
撮像部2は、このようにして生成された「撮像部2の露光開始を制御するための同期信号」を受けると露光を開始する。その露光時間の中心時間は、撮像部1の露光時間における中心時間と一致するので、結果として撮像部1と撮像部2とは同期して露光することになる。つまり生成部506は、撮像部1の露光時間の中心時間と撮像部2の露光時間の中心時間とが一致するように、撮像部2に供給する同期信号を生成する。
したがって、同期動作を行わせたいデバイス群の中に外部同期入力の機能を持たないデバイスが含まれていたとしても、該デバイスを同期動作の基準とすることによって、デバイス間の同期動作を実現できるというメリットがある。
図6(b)は、撮像部1への外部同期入力を基準とした場合の、撮像部2への外部同期入力の生成について示している。HMD101は、撮像部1への外部同期入力を検出すると、オフセット601’後に撮像部2への外部同期入力を生成する。ここで、撮像部1への外部同期入力の検出タイミングから「撮像部1の該検出タイミングの次のフレームの露光時間における中心時間」までの時間をt64とすると、オフセット601’は以下の式に従って求めることができる。
オフセット601’=t64-t62-t63/2
以上の説明では、同期動作における同期タイミングを撮像部1の露光時間における中心時間としたが、本実施形態における同期タイミングの設定はその限りではなく、露光時間中の任意のタイミングとすることが可能である。また、以降の説明では、図6(a)の撮像部1からの同期信号を基準とした場合の同期動作について説明を行うが、図6(b)の撮像部1への外部同期入力を基準とした場合でも同様に同期動作の実現が可能である。
本実施形態に係る撮像部501、撮像部502、姿勢センサ503の同期動作について、図7を用いて説明する。図7において横軸は時間である。
検出部505は、撮像部1からの同期信号(同期出力)を検出すると、その旨を生成部506に通知する。生成部506は、該通知を受けると、同期信号の検出タイミングからオフセット701後に「撮像部2の露光開始を制御するための同期信号(外部同期入力)」を生成する。オフセット701は、上記のオフセット601と同様にして設定部515によって設定されたものである。撮像部2は、このようにして生成された「撮像部2の露光開始を制御するための同期信号」を受けると露光を開始し、該露光により撮像された各ラインのデータを、自装置の同期出力に応じて出力する。
また、生成部506は、上記の通知を受けると、同期信号の検出タイミングからオフセット702後に「姿勢センサ503による位置姿勢の計測開始を制御するための同期信号(外部同期入力)」を生成する。オフセット702は、上記の時間t61と、「姿勢センサ503が外部同期入力を受けてから位置姿勢の計測を開始するまでの処理時間tSens_Ready」と、を用いて以下の式に従って求めることができる。
オフセット702=t61-tSens_Ready
このようなオフセット702は設定部515が予め求めて設定しているものとする。そして生成部506は、このようにして生成された「姿勢センサ503による位置姿勢の計測開始を制御するための同期信号」を姿勢センサ503に供給する。姿勢センサ503は、このようにして生成された「姿勢センサ503による位置姿勢の計測開始を制御するための同期信号」を受けると、位置姿勢の計測(データ取得)を開始する。つまり生成部506は撮像部1の露光時間の中心時間と撮像部2の露光時間の中心時間と姿勢センサ503によるデータ取得のタイミング(計測タイミング)とが一致するように、撮像部2に供給する同期信号及び姿勢センサ503に供給する同期信号を生成する。
本実施形態に係るHMD101による撮像部501、撮像部502、姿勢センサ503の同期動作制御について、図8のフローチャートに従って説明する。検出部505が、撮像部501からの同期信号(同期出力)を検出すると、その旨を生成部506に通知し、処理はステップS801を介してステップS802に進む。一方、検出部505が、撮像部501からの同期信号(同期出力)を検出していない場合には、処理はステップS801で待機する。
ステップS802では、生成部506は、検出部505からの通知を受けると、同期信号の検出タイミングからオフセット701後に「撮像部502に供給する同期信号」を生成し、該生成した同期信号を撮像部502に供給する。さらに生成部506は、同期信号の検出タイミングからオフセット702後に「姿勢センサ503に供給する同期信号」を生成し、該生成した同期信号を姿勢センサ503に供給する。
このように、本実施形態では、撮像部501からの同期信号、あるいは撮像部501への外部同期入力の検出タイミングに基づいて、撮像部501、撮像部502、姿勢センサ503の同期動作を実現することが可能となる。デバイス毎の処理時間等を考慮することで、露光時間中の任意のタイミングに各デバイスの撮像およびデータ取得タイミングを一致させることができる。そのため、撮像画像と仮想空間の画像との間における位置ズレのない、よりリアリティの高いMR体験を可能にする。また、撮像部501が外部同期入力機能を持たない場合においても、同期動作を実現することが可能であり、デバイス選定の幅を拡げることができるというメリットもある。
[第2の実施形態]
本実施形態を含む以降の各実施形態では、第1の実施形態との差分について説明し、以下で特に触れない限りは、第1の実施形態と同様であるものとする。第1の実施形態では、撮像部501からの同期信号の検出タイミングを基準に、デバイス毎の処理時間等を考慮した各デバイスへの同期信号の生成を行う構成について説明した。本実施形態では、撮像部501や撮像部502の露光時間の設定変更や同期タイミングの設定変更が行われる場合におけるデバイス間の同期動作を行う構成について説明する。
まず、HMD101および画像処理装置104のそれぞれの機能構成例について、図9のブロック図を用いて説明する。生成部506は、同期制御部901からの制御に基づき、撮像部502に供給する同期信号および姿勢センサ503に供給する同期信号を生成する。
同期制御部901は、設定部515による撮像部501や撮像部502の露光時間の設定変更に応じて、生成部506による同期信号の生成を制御する。また同期制御部901は、撮像部502や姿勢センサ503に供給する同期信号の生成タイミングを撮像部501の露光時間内のどの時間(どのラインに対する時間)と同期させるのかの設定変更に応じて、生成部506による同期信号の生成を制御する。
次に、ローリングシャッター方式の撮像素子により撮像される撮像画像のライン毎の露光時間のズレを考慮して、撮像部502や姿勢センサ503に供給する同期信号を生成する生成処理について、図10を用いて説明する。
検出部505は、撮像部1からの同期信号(同期出力)を検出すると、その旨を生成部506に通知する。生成部506は、該通知を受けると、同期制御部901による制御の元、該同期信号の検出タイミングに応じて、撮像部2に供給する同期信号および姿勢センサ503に供給する同期信号を生成する。
ここで、撮像部1の露光時間と撮像部2の露光時間とが等しく、かつ設定部515により「同期タイミングの基準を撮像部1による撮像画像の先頭ラインの露光開始時間」と設定したとする。この場合、生成部506は、同期信号の検出タイミングからオフセット1001後に「撮像部2の露光開始を制御するための同期信号(外部同期入力)」を生成する。オフセット1001は、同期信号の検出タイミングから「撮像部1による撮像画像の先頭ラインの露光開始時間」までの時間から時間t62を減算した結果として求めることができる。また生成部506は、同期信号の検出タイミングからオフセット1004後に「姿勢センサによる位置姿勢の計測開始を制御するための同期信号(外部同期入力)」を生成する。オフセット1004は、同期信号の検出タイミングから「撮像部1による撮像画像の先頭ラインの露光開始時間」までの時間から処理時間tSens_Readyを減算した結果として求めることができる。
また、撮像部1の露光時間と撮像部2の露光時間とが等しく、かつ設定部515により「同期タイミングの基準を撮像部1による撮像画像の中央ラインの露光中心時間」と設定したとする。この場合、生成部506は、同期信号の検出タイミングからオフセット1002後に「撮像部2の露光開始を制御するための同期信号(外部同期入力)」を生成する。オフセット1002は、同期信号の検出タイミングから「撮像部1による撮像画像の中央ラインの露光開始時間」までの時間から時間t62を減算した結果として求めることができる。また生成部506は、同期信号の検出タイミングからオフセット1005後に「姿勢センサによる位置姿勢の計測開始を制御するための同期信号(外部同期入力)」を生成する。オフセット1005は、同期信号の検出タイミングから「撮像部1による撮像画像の中央ラインの露光開始時間」までの時間から処理時間tSens_Readyを減算した結果として求めることができる。
また、撮像部1の露光時間と撮像部2の露光時間とが等しく、かつ設定部515により「同期タイミングの基準を撮像部1による撮像画像の最終ラインの露光終了時間」と設定したとする。この場合、生成部506は、同期信号の検出タイミングからオフセット1003後に「撮像部2の露光開始を制御するための同期信号(外部同期入力)」を生成する。オフセット1003は、同期信号の検出タイミングから「撮像部1による撮像画像の最終ラインの露光開始時間」までの時間から時間t62を減算した結果として求めることができる。また生成部506は、同期信号の検出タイミングからオフセット1006後に「姿勢センサによる位置姿勢の計測開始を制御するための同期信号(外部同期入力)」を生成する。オフセット1006は、同期信号の検出タイミングから「撮像部1による撮像画像の最終ラインの露光開始時間」までの時間から処理時間tSens_Readyを減算した結果として求めることができる。
このように、同期制御部901は、撮像部2や姿勢センサに供給する同期信号が同期タイミングの基準に応じたオフセットに基づいて生成されるように、同期タイミングの基準に応じたオフセットを生成部506に供給している。
その他、最終ラインの露光開始時間や先頭ラインの露光終了時間といった任意のタイミングに対しても、設定部515による各種設定内容に基づき、撮像部2や姿勢センサに対するオフセットを調整することにより、同期動作を行うことが可能である。
次に、ローリングシャッター方式の撮像素子により撮像される撮像画像において中央ラインの露光中心時間を同期タイミングの基準にして、撮像部2や姿勢センサに供給する同期信号を生成する生成処理について、図11を用いて説明する。
検出部505が、撮像部1から(N-1)フレーム目の撮像画像(フレーム(N-1))に対応する同期信号が出力されたことを検出すると、生成部506は、オフセット1101後に「撮像部2の露光開始(フレームN撮像用)を制御するための同期信号(外部同期入力)」を生成して撮像部2に供給する。オフセット1101は、図10を用いて説明した算出方法(「同期タイミングの基準を撮像部1による撮像画像の中央ラインの露光中心時間」とした場合におけるオフセット算出方法)で求めることができる。また、生成部506は、検出部505が、撮像部1からフレーム(N-1)に対応する同期信号が出力されたことを検出すると、オフセット1104後に「姿勢センサによる位置姿勢の計測開始(フレームN用)を制御するための同期信号(外部同期入力)」を生成して姿勢センサに供給する。オフセット1104は、図10を用いて説明した算出方法(「同期タイミングの基準を撮像部1による撮像画像の中央ラインの露光中心時間」とした場合におけるオフセット算出方法)で求めることができる。
ここで、検出部505がフレーム(N-1)に対応する同期信号を検出してからフレームNに対応する同期信号を検出するまでの間に、設定部515が撮像部2の露光時間を変更する設定(設定変更2)を行ったとする。
このとき、検出部505が、撮像部1からフレームNに対応する同期信号が出力されたことを検出すると、生成部506は、オフセット1102後に「撮像部2の露光開始(フレーム(N+1)撮像用)を制御するための同期信号(外部同期入力)」を生成して撮像部2に供給する。オフセット1102は、オフセット1101と同様の方法でもって求めることができる。また、生成部506は、検出部505が、撮像部1からフレームNに対応する同期信号が出力されたことを検出すると、オフセット1104後に「姿勢センサによる位置姿勢の計測開始(フレーム(N+1)用)を制御するための同期信号(外部同期入力)」を生成して姿勢センサに供給する。
また、検出部505がフレームNに対応する同期信号を検出してからフレーム(N+1)に対応する同期信号を検出するまでの間に、設定部515が撮像部1の露光時間を変更する設定(設定変更1)を行ったとする。
このとき、検出部505が、撮像部1からフレーム(N+1)に対応する同期信号が出力されたことを検出すると、生成部506は、オフセット1103後に「撮像部2の露光開始(フレーム(N+2)撮像用)を制御するための同期信号(外部同期入力)」を生成して撮像部2に供給する。オフセット1103は、オフセット1101と同様の方法でもって求めることができる。また、生成部506は、検出部505が、撮像部1からフレーム(N+1)に対応する同期信号が出力されたことを検出すると、オフセット1105後に「姿勢センサによる位置姿勢の計測開始(フレーム(N+2)用)を制御するための同期信号(外部同期入力)」を生成して姿勢センサに供給する。オフセット1105は、オフセット1104と同様の方法でもって求めることができる。
以降は、設定部515による設定変更は行われていないので、オフセットの切り替えは発生しない。このように、同期制御部901は、撮像部2や姿勢センサに供給する同期信号が、設定部515による撮像部の露光時間の設定変更に応じたオフセットに基づいて生成されるように、該オフセットを求めて生成部506に供給している。
以上の処理を行うことにより、設定変更が行われた際にも、撮像部1の露光中心時間と、撮像部2の露光中心時間と、姿勢センサのデータ取得タイミングと、が一致した同期動作を実現することが可能となる。
次に、ローリングシャッター方式の撮像素子により撮像される撮像画像において先頭ラインの露光開始時間を同期タイミングの基準にして、撮像部2や姿勢センサに供給する同期信号を生成する生成処理について、図12を用いて説明する。
検出部505が、撮像部1からフレーム(N-1)に対応する同期信号が出力されたことを検出すると、生成部506は、オフセット1201後に「撮像部2の露光開始(フレームN撮像用)を制御するための同期信号(外部同期入力)」を生成して撮像部2に供給する。オフセット1201は、図10を用いて説明した算出方法(「同期タイミングの基準を撮像部1による撮像画像の先頭ラインの露光開始時間」とした場合におけるオフセット算出方法)で求めることができる。また、生成部506は、検出部505が、撮像部1からフレーム(N-1)に対応する同期信号が出力されたことを検出すると、オフセット1203後に「姿勢センサによる位置姿勢の計測開始(フレームN用)を制御するための同期信号(外部同期入力)」を生成して姿勢センサに供給する。オフセット1203は、図10を用いて説明した算出方法(「同期タイミングの基準を撮像部1による撮像画像の先頭ラインの露光開始時間」とした場合におけるオフセット算出方法)で求めることができる。
ここで、検出部505がフレーム(N-1)に対応する同期信号を検出してからフレームNに対応する同期信号を検出するまでの間に、設定部515が撮像部2の露光時間を変更する設定(設定変更2)を行ったとする。
設定変更2が行われても、撮像部1の露光開始時間と、撮像部2の外部同期入力から露光開始時間までの処理時間と、の関係は変わらないため、オフセットの変更は不要である。
よって、検出部505が、撮像部1からフレームNに対応する同期信号が出力されたことを検出すると、生成部506は、オフセット1201後に「撮像部2の露光開始(フレーム(N+1)撮像用)を制御するための同期信号(外部同期入力)」を生成して撮像部2に供給する。また、生成部506は、検出部505が、撮像部1からフレームNに対応する同期信号が出力されたことを検出すると、オフセット1203後に「姿勢センサによる位置姿勢の計測開始(フレーム(N+1)用)を制御するための同期信号(外部同期入力)」を生成して姿勢センサに供給する。
また、検出部505がフレームNに対応する同期信号を検出してからフレーム(N+1)に対応する同期信号を検出するまでの間に、設定部515が撮像部1の露光時間を変更する設定(設定変更1)を行ったとする。
このとき、検出部505が、撮像部1からフレーム(N+1)に対応する同期信号が出力されたことを検出すると、生成部506は、オフセット1202後に「撮像部2の露光開始(フレーム(N+2)撮像用)を制御するための同期信号(外部同期入力)」を生成して撮像部2に供給する。オフセット1202は、オフセット1201と同様の方法でもって求めることができる。また、生成部506は、検出部505が、撮像部1からフレーム(N+1)に対応する同期信号が出力されたことを検出すると、オフセット1204後に「姿勢センサによる位置姿勢の計測開始(フレーム(N+2)用)を制御するための同期信号(外部同期入力)」を生成して姿勢センサに供給する。オフセット1204は、オフセット1203と同様の方法でもって求めることができる。
以降は、設定部515による設定変更は行われていないので、オフセットの切り替えは発生しない。このように、同期制御部901は、撮像部2や姿勢センサに供給する同期信号が、設定部515による撮像部の露光時間の設定変更に応じたオフセットに基づいて生成されるように、該オフセットを生成部506に供給している。
以上の処理を行うことで、設定変更が行われた際にも、撮像部1による撮像画像の先頭ラインの露光開始時間と、撮像部2による撮像画像の先頭ラインの露光開始時間と、姿勢センサのデータ取得タイミングと、が一致した同期動作を実現することが可能となる。
また、ここで注目すべきは、同期タイミングを露光開始時間に設定した場合、撮像部1の露光時間の設定変更1が行われた時のみ、撮像部2および姿勢センサへの外部同期入力を生成するためのオフセットの変更が行われるという点である。これは、先頭ラインの時のみに限らず、任意ラインの露光開始時間に同期タイミングを設定した時も同様である。このことを利用することにより、設定変更が行われた際のオフセット変更処理を簡易化し、HMD101の処理負荷や回路規模を削減することも可能になる。
次に、ローリングシャッター方式の撮像素子により撮像される撮像画像において中央ラインの露光終了時間を同期タイミングの基準にして、撮像部2や姿勢センサに供給する同期信号を生成する生成処理について、図13を用いて説明する。
検出部505が、撮像部1からフレーム(N-1)に対応する同期信号が出力されたことを検出すると、生成部506は、オフセット1301後に「撮像部2の露光開始(フレームN撮像用)を制御するための同期信号(外部同期入力)」を生成して撮像部2に供給する。オフセット1301は、「撮像部1の同期信号の検出タイミングから撮像部1による撮像画像において中央ラインの露光終了時間までの時間」から「撮像部2の露光時間」および「時間t62」を引いた結果として求めることができる。また、生成部506は、検出部505が、撮像部1からフレーム(N-1)に対応する同期信号が出力されたことを検出すると、オフセット1303後に「姿勢センサによる位置姿勢の計測開始(フレームN用)を制御するための同期信号(外部同期入力)」を生成して姿勢センサに供給する。オフセット1303は、「撮像部1の同期信号の検出タイミングから撮像部1による撮像画像において中央ラインの露光終了時間までの時間」から「処理時間tSens_Ready」を引いた結果として求めることができる。
ここで、検出部505がフレーム(N-1)に対応する同期信号を検出してからフレームNに対応する同期信号を検出するまでの間に、設定部515が撮像部2の露光時間を変更する設定(設定変更2)を行ったとする。
このとき、検出部505が、撮像部1からフレームNに対応する同期信号が出力されたことを検出すると、生成部506は、オフセット1302後に「撮像部2の露光開始(フレーム(N+1)撮像用)を制御するための同期信号(外部同期入力)」を生成して撮像部2に供給する。オフセット1302はオフセット1301と同様にして求めることができる。また、生成部506は、検出部505が、撮像部1からフレームNに対応する同期信号が出力されたことを検出すると、オフセット1303後に「姿勢センサによる位置姿勢の計測開始(フレーム(N+1)用)を制御するための同期信号(外部同期入力)」を生成して姿勢センサに供給する。
また、検出部505がフレームNに対応する同期信号を検出してからフレーム(N+1)に対応する同期信号を検出するまでの間に、設定部515が撮像部1の露光時間を変更する設定(設定変更1)を行ったとする。
このとき、検出部505が、撮像部1からフレーム(N+1)に対応する同期信号が出力されたことを検出すると、生成部506は、オフセット1302後に「撮像部2の露光開始(フレーム(N+2)撮像用)を制御するための同期信号(外部同期入力)」を生成して撮像部2に供給する。また、生成部506は、検出部505が、撮像部1からフレーム(N+1)に対応する同期信号が出力されたことを検出すると、オフセット1303後に「姿勢センサによる位置姿勢の計測開始(フレーム(N+2)用)を制御するための同期信号(外部同期入力)」を生成して姿勢センサに供給する。
以降は、設定部515による設定変更は行われていないので、オフセットの切り替えは発生しない。このように、同期制御部901は、撮像部2や姿勢センサに供給する同期信号が、設定部515による撮像部の露光時間の設定変更に応じたオフセットに基づいて生成されるように、該オフセットを生成部506に供給している。
以上の処理を行うことで、設定変更が行われた際にも、撮像部1による撮像画像の中央ラインの露光終了時間と、撮像部2による撮像画像の中央ラインの露光終了時間と、姿勢センサのデータ取得タイミングと、が一致した同期動作を実現することが可能となる。
ここで注目すべきは、同期タイミングを露光終了時間に設定した場合、撮像部2への露光時間の設定変更2が行われた時のみ、撮像部2への外部同期入力を生成するためのオフセットの変更が行われるという点である。加えて、同期タイミングを露光終了時間に設定した場合、姿勢センサへの外部同期入力を生成するためのオフセットの変更は行われない。これは、中央ラインの時のみに限らず、任意ラインの露光終了時間に同期タイミングを設定した時も同様である。このことを利用することにより、設定変更が行われた際のオフセット変更処理を簡易化し、HMD101の処理負荷や回路規模を削減することも可能になる。
さらに、同期タイミングを露光終了時間に設定した場合、撮像部2の同期出力および画像出力と、姿勢センサのデータ出力の周期が、撮像部1の同期出力および画像出力の周期と同期して一定になるというメリットがある。これは、中央ラインの時のみに限らず、任意ラインの露光終了時間に同期タイミングを設定した時も同様である。
例えば、図11および図12においては、撮像部1への設定変更1および撮像部2への設定変更2が行われた際に、撮像部2の同期出力および画像出力や姿勢センサのデータ出力の周期が変動していることが確認できる。撮像画像の出力が一定周期でない場合、後段の撮像画像処理部として、そのような出力周期に対応したIC(Integrated Circuit)を選択する必要が生じたりする。また、別途フレームメモリ等を追加して、画像周期を一定に調整する必要が生じたりする。一方で図13のように、撮像画像の出力が一定周期の場合には、後段の撮像画像処理部の選択肢の幅を拡げ、さらに周期調整のためのフレームメモリが不要となる。
本実施形態に係るHMD101による撮像部501、撮像部502、姿勢センサ503の同期動作制御について、図14のフローチャートに従って説明する。ステップS1401では、同期制御部901は、上記のような設定変更が設定部515によりなされたか否かを判断する。
この判断の結果、上記のような設定変更が設定部515によりなされた場合には、処理はステップS1402に進む。一方、上記のような設定変更が設定部515によりなされていない場合には、処理はステップS1407に進む。
ステップS1402では、同期制御部901は、どの撮像部による撮像画像のどのラインを同期タイミングの基準とするのかの設定を、設定部515から取得する。ステップS1403では、同期制御部901は、露光時間内におけるどの時間を同期タイミングの基準とするのかの設定を、設定部515から取得する。
ステップS1404では、同期制御部901は、撮像部1の設定(少なくともオフセットを求めるために必要な撮像部1に係るパラメータを含む)を、設定部515から取得する。図13で説明したように、同期タイミングの基準ラインに変更がなく、基準露光時間が露光終了時間の場合には、撮像部1の露光時間設定はオフセットの決定に影響しないため、ステップS1404における取得処理は省略してもよい。
ステップS1405では、同期制御部901は、撮像部2の設定(少なくともオフセットを求めるために必要な撮像部2に係るパラメータを含む)を、設定部515から取得する。図12で説明したように、同期タイミングの基準ラインに変更がなく、基準開始時間が露光開始時間の場合には、撮像部2の露光時間設定はオフセットの決定に影響しないため、ステップS1405における取得処理は省略してもよい。
ステップS1406では、同期制御部901は、ステップS1402~S1406で取得した情報に基づいて上記の処理を行うことで、撮像部2に対応するオフセットおよび姿勢センサに対応するオフセットを求める。
ステップS1407では、検出部505は、撮像部501からの同期信号(同期出力)を検出したか否かを判断する。この判断の結果、撮像部501からの同期信号(同期出力)を検出した場合には、処理はステップS1408に進む。一方、撮像部501からの同期信号(同期出力)を検出していない場合には、処理はステップS1401に進む。
ステップS1408では、生成部506は、撮像部501からの同期信号(同期出力)を受けた旨の通知を検出部505から受けると、同期信号の検出タイミングから、撮像部2に対応するオフセット後に「撮像部502に供給する同期信号」を生成し、該生成した同期信号を撮像部502に供給する。さらに生成部506は、同期信号の検出タイミングから、姿勢センサ503に対応するオフセット後に「姿勢センサ503に供給する同期信号」を生成し、該生成した同期信号を姿勢センサ503に供給する。
このように、本実施形態でも、撮像部501、撮像部502、姿勢センサ503の同期動作を実現することが可能となる。さらに、撮像部501や撮像部502の露光時間の設定変更や同期タイミングの設定変更にも対応することができる。露光時間中の任意のタイミングに各デバイスの撮像およびデータ取得タイミングを一致させることにより、撮像画像と仮想空間の画像との間における位置ズレのない、よりリアリティの高いMR体験を可能にする。
[第3の実施形態]
図5,9に示したHMD101および画像処理装置104における各機能部はハードウェアで実装しても良いし、一部の機能部をソフトウェア(コンピュータプログラム)で実装しても良い。
後者の場合、HMD101においては、撮像部501、撮像部502、姿勢センサ503、表示部504、I/F508についてはハードウェアで実装し、残りの機能部についてはソフトウェアで実装しても良い。この場合、このソフトウェアは、HMD101が有するメモリに格納され、HMD101が有するプロセッサが該ソフトウェアを実行することで、対応する機能部の機能を実現させることができる。
このようなHMD101のハードウェア構成例について、図15(a)のブロック図を用いて説明する。プロセッサ1510は、RAM1520に格納されているコンピュータプログラムやデータを用いて各種の処理を実行する。これによりプロセッサ1510は、HMD101全体の動作制御を行うとともに、HMD101が行うものとして上述した各処理を実行もしくは制御する。
RAM1520は、不揮発性メモリ1530からロードされたコンピュータプログラムやデータを格納するためのエリアや、I/F1570を介して画像処理装置104から受信したデータを格納するためのエリアを有する。さらにRAM1520は、プロセッサ1510が各種の処理を実行する際に用いるワークエリアを有する。このようにRAM1520は、各種のエリアを適宜提供することができる。
不揮発性メモリ1530は、上記のHMD101の動作をプロセッサ1510に実行もしくは制御させるためのコンピュータプログラムやデータが保存されている。不揮発性メモリ1530に保存されているコンピュータプログラムには、図5,9に示したHMD101の機能部(撮像部501、撮像部502、姿勢センサ503、表示部504、I/F508は除く)の機能をCPU1501に実行させるためのコンピュータプログラムが含まれている。不揮発性メモリ1530に保存されているコンピュータプログラムやデータは、プロセッサ1510による制御に従って適宜RAM1520にロードされ、プロセッサ1510による処理対象となる。
撮像部1540は、上記の撮像部501および撮像部502を含む。姿勢センサ1550は、上記の姿勢センサ503を含む。表示部1560は、上記の表示部504を含む。I/F1570は、上記のI/F508を含む。プロセッサ1510、RAM1520、不揮発性メモリ1530、撮像部1540、姿勢センサ1550、表示部1560、I/F1570は何れも、バス1580に接続されている。なお、図15(a)に示した構成は、HMD101に適用可能な構成の一例であり、適宜変更/変形が可能である。
また、画像処理装置104については、I/F509、コンテンツDB512を除く各機能部に対応するソフトウェアを実行可能なコンピュータ装置であれば、該画像処理装置104に適用可能である。画像処理装置104に適用可能なコンピュータ装置のハードウェア構成例について、図15(b)のブロック図を用いて説明する。
CPU1501は、RAM1502やROM1503に格納されているコンピュータプログラムやデータを用いて各種の処理を実行する。これによりCPU1501は、コンピュータ装置全体の動作制御を行うと共に、コンピュータ装置を適用した画像処理装置104が行うものとして上述した各処理を実行若しくは制御する。
RAM1502は、ROM1503や外部記憶装置1506からロードされたコンピュータプログラムやデータを格納するためのエリアや、I/F1507を介してHMD101から受信したデータを格納するためのエリアを有する。またRAM1502は、CPU1501が各種の処理を実行する際に用いるワークエリアを有する。このようにRAM1502は各種のエリアを適宜提供することができる。ROM1503には、コンピュータ装置の設定データや起動プログラムなどが格納されている。
操作部1504は、キーボード、マウス、タッチパネルなどのユーザインターフェスであり、ユーザが操作することで各種の指示をCPU1501に対して入力することができる。
表示部1505は、液晶画面やタッチパネル画面などにより構成されており、CPU1501による処理結果を画像や文字などでもって表示することができる。なお、表示部1505は、画像や文字を投影するプロジェクタなどの投影装置であっても良い。
外部記憶装置1506は、ハードディスクドライブ装置などの大容量情報記憶装置である。外部記憶装置1506には、OS(オペレーティングシステム)が保存されている。また、外部記憶装置1506には、図5,9に示した画像処理装置104の各機能部(I/F509、コンテンツDB512は除く)の機能をCPU1501に実行させるためのコンピュータプログラムやデータが保存されている。また外部記憶装置1506には、上記のコンテンツDB512も保存されている。
外部記憶装置1506に保存されているコンピュータプログラムやデータは、CPU1501による制御に従って適宜RAM1502にロードされ、CPU1501による処理対象となる。
I/F1507は、HMD101とのデータ通信を行うための通信インターフェースであり、上記のI/F509として機能する。つまり本コンピュータ装置は、I/F1507を介してHMD101との間のデータ通信を行う。
CPU1501、RAM1502、ROM1503、操作部1504、表示部1505、外部記憶装置1506、I/F1507は何れも、バス1508に接続されている。なお、図15(b)に示した構成は、画像処理装置104に適用可能な構成の一例であり、適宜変更/変形が可能である。
[第4の実施形態]
上記の各実施形態では、撮像部の位置姿勢を求めるために、現実空間中に人工的に配したマーカを用いた。しかし、マーカに加えて若しくは代えて、現実空間中に元来存在する自然特徴(例えば、椅子や机等の家具の角、風景を構成する建物や車等の角)を用いて撮像部の位置姿勢を求めても良い。
また、図5,9に示したMRシステムの構成は一例であり、例えば、HMD101が行うものとして上述した各処理を複数の装置で分担して実行しても良いし、画像処理装置104が行うものとして上述した各処理を複数の装置で分担して実行しても良い。
また、頭部装着型表示装置の代わりに、スマートフォンなどの「1つ以上の撮像部、姿勢センサ、表示部を有する携帯デバイス」を用いても良い。また、頭部装着型表示装置に加えてこのような携帯デバイスをMRシステムに加えても良い。このような場合、画像処理装置104は頭部装着型表示装置の位置姿勢に応じた複合現実空間の画像を生成して該頭部装着型表示装置に配信し、携帯デバイスの位置姿勢に応じた複合現実空間の画像を生成して該携帯デバイスに配信する。複合現実空間の画像の生成方法は上記の実施形態の通りである。また例えば、スマートフォンでは、撮像部で撮像した画像から検出された特徴量(自然特徴、QRコード(登録商標)等)に基づいて、AR(拡張現実)情報を映像に重畳して表示するアプリケーションが存在する。このとき、姿勢センサによって検知されるスマートフォン自体の姿勢情報を、ARの表示形態に反映させる場合もある。このような場合、スマートフォンが同期制御装置となって、上記の各実施形態のように、撮像部の露光時間に合わせて他のデバイスを同させることで、精度の高い同期処理を実現することができる。
また、HMD101と画像処理装置104とを一体化させても良いし、頭部装着型表示装置の代わりに、上記の携帯デバイスと画像処理装置104とを一体化させても良い。
また、上記の実施形態では、姿勢センサ503はHMD101が有しているものとして説明したが、これに限らず、例えば、HMD101の装着者の周囲に設置した客観カメラの撮像画像から必要な情報を得る構成でもよい。
また、上記の各実施形態において使用した数値、演算方法、処理の実行タイミング等は、具体的な説明を行うために一例として挙げたものであり、各実施形態がこれらの一例に限定されることを意図したものではない。
また、以上説明した各実施形態の一部若しくは全部を適宜組み合わせて使用しても構わない。また、以上説明した各実施形態の一部若しくは全部を選択的に使用しても構わない。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。
101:HMD 104:画像処理装置

Claims (14)

  1. 同期制御装置であって、
    第1の撮像部からの画像出力の開始タイミングを示す開始信号の検出タイミングと同期タイミングの基準との間の時間、第2の撮像部が第1同期信号を受けてから露光を開始するまでに要する時間、前記第2の撮像部の1フレーム分の露光時間、に基づく第1オフセットを設定する第1設定手段と、
    前記開始信号の検出タイミングと同期タイミングの基準との間の時間、センサが第2同期信号を受けてから計測を開始するまでに要する時間、に基づく第2オフセットを設定する第2設定手段と、
    前記開始信号を検知すると、前記開始信号の検出タイミングから前記第1オフセット後に前記第1同期信号を生成し、該生成した第1同期信号を前記第2の撮像部に供給する第1供給手段と、
    前記開始信号を検知すると、前記開始信号の検出タイミングから前記第2オフセット後に前記第2同期信号を生成し、該生成した第2同期信号を前記センサに供給する第2供給手段と
    を備えることを特徴とする同期制御装置。
  2. 前記第1の撮像部は第1のシャッター方式で撮像を行い、前記第2の撮像部は、前記第1のシャッター方式とは異なる第2のシャッター方式で撮像を行うことを特徴とする請求項1に記載の同期制御装置。
  3. 前記第1の撮像部は、同期信号の入力機能を有していないデバイスであることを特徴とする請求項1に記載の同期制御装置。
  4. 前記第1設定手段は、前記第1の撮像部の露光時間もしくは前記第2の撮像部の露光時間が変更されると、変更後の露光時間に基づいて前記第1オフセットを求めることを特徴とする請求項1に記載の同期制御装置。
  5. 前記開始信号の検出タイミングと同期タイミングの基準との間の時間をt61、前記第2の撮像部が前記第1同期信号を受けてから露光を開始するまでに要する時間をt62、前記第2の撮像部の1フレーム分の露光時間をt63とすると、前記第1設定手段は、(t61-t62-t63/2)を前記第1オフセットとして設定することを特徴とする請求項1に記載の同期制御装置。
  6. 前記第2設定手段は、前記第1の撮像部の露光時間もしくは前記第2の撮像部の露光時間が変更されると、変更後の露光時間に基づいて前記第2オフセットを求めることを特徴とする請求項1に記載の同期制御装置。
  7. 前記開始信号の検出タイミングと同期タイミングの基準との間の時間をt61、前記センサが前記第2同期信号を受けてから計測を開始するまでに要する時間をt64とすると、前記第2設定手段は、(t61-t64)を前記第2オフセットとして設定することを特徴とする請求項1に記載の同期制御装置。
  8. 更に、
    前記第2の撮像部により撮像された撮像画像および前記センサにより計測された位置姿勢に基づいて生成された仮想空間の画像と、前記第1の撮像部により撮像された撮像画像と、の合成画像を取得する取得手段と、
    前記合成画像を表示する表示手段と
    を備えることを特徴とする請求項1ないしの何れか1項に記載の同期制御装置。
  9. 前記同期タイミングの基準は、前記第1の撮像部による撮像画像の先頭ラインの露光開始時間前記第1の撮像部による撮像画像の中央ラインの露光中心時間、前記第1の撮像部による撮像画像の最終ラインの露光終了時間、のいずれかであることを特徴とする請求項1,3,5の何れか1項に記載の同期制御装置。
  10. 前記同期制御装置は、前記第1の撮像部、前記第2の撮像部、前記センサを有する頭部装着型表示装置であることを特徴とする請求項1ないしの何れか1項に記載の同期制御装置。
  11. 前記第1のシャッター方式はローリングシャッター方式であり、前記第2のシャッター方式はグローバルシャッター方式であることを特徴とする請求項2に記載の同期制御装置。
  12. 同期制御装置の制御方法であって、
    前記同期制御装置の第1設定手段が、第1の撮像部からの画像出力の開始タイミングを示す開始信号の検出タイミングと同期タイミングの基準との間の時間、第2の撮像部が第1同期信号を受けてから露光を開始するまでに要する時間、前記第2の撮像部の1フレーム分の露光時間、に基づく第1オフセットを設定する第1設定工程と、
    前記同期制御装置の第2設定手段が、前記開始信号の検出タイミングと同期タイミングの基準との間の時間、センサが第2同期信号を受けてから計測を開始するまでに要する時間、に基づく第2オフセットを設定する第2設定工程と、
    前記同期制御装置の第1供給手段が、前記開始信号を検知すると、前記開始信号の検出タイミングから前記第1オフセット後に前記第1同期信号を生成し、該生成した第1同期信号を前記第2の撮像部に供給する第1供給工程と、
    前記同期制御装置の第2供給手段が、前記開始信号を検知すると、前記開始信号の検出のタイミングから前記第2オフセット後に前記第2同期信号を生成し、該生成した第2同期信号を前記センサに供給する第2供給工程と
    を備えることを特徴とする同期制御装置の制御方法。
  13. 同期制御装置と、画像処理装置と、を有するシステムであって、
    前記同期制御装置は、
    第1の撮像部からの画像出力の開始タイミングを示す開始信号の検出タイミングと同期タイミングの基準との間の時間、第2の撮像部が第1同期信号を受けてから露光を開始するまでに要する時間、前記第2の撮像部の1フレーム分の露光時間、に基づく第1オフセットを設定する第1設定手段と、
    前記開始信号の検出タイミングと同期タイミングの基準との間の時間、センサが第2同期信号を受けてから計測を開始するまでに要する時間、に基づく第2オフセットを設定する第2設定手段と、
    前記開始信号を検知すると、前記開始信号の検出タイミングから前記第1オフセット後に前記第1同期信号を生成し、該生成した第1同期信号を前記第2の撮像部に供給する第1供給手段と、
    前記開始信号を検知すると、前記開始信号の検出タイミングから前記第2オフセット後に前記第2同期信号を生成し、該生成した第2同期信号を前記センサに供給する第2供給手段と
    を備え、
    前記画像処理装置は、
    前記第1の撮像部により撮像された撮像画像と、前記第1同期信号を受けたことに応じて前記第2の撮像部が撮像した撮像画像と、前記第2同期信号を受けたことに応じて前記センサが計測した位置姿勢と、を前記同期制御装置から取得する取得手段と、
    前記第2の撮像部が撮像した撮像画像と前記センサが計測した位置姿勢とに基づいて仮想空間の画像を生成し、該生成した仮想空間の画像と前記第1の撮像部が撮像した撮像画像との合成画像を生成する手段と、
    前記合成画像を前記同期制御装置に出力する手段と
    を備える
    ことを特徴とするシステム。
  14. 前記同期制御装置は、前記第1の撮像部、前記第2の撮像部、前記センサ、前記合成画像を表示する表示部、を有する頭部装着型表示装置であることを特徴とする請求項13に記載のシステム
JP2020009447A 2020-01-23 2020-01-23 同期制御装置、同期制御装置の制御方法、システム Active JP7357554B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020009447A JP7357554B2 (ja) 2020-01-23 2020-01-23 同期制御装置、同期制御装置の制御方法、システム
US17/153,373 US11526010B2 (en) 2020-01-23 2021-01-20 Head mounted display device, method of controlling head mounted display device, system, synchronous control apparatus, and method of controlling synchronous control apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020009447A JP7357554B2 (ja) 2020-01-23 2020-01-23 同期制御装置、同期制御装置の制御方法、システム

Publications (3)

Publication Number Publication Date
JP2021117057A JP2021117057A (ja) 2021-08-10
JP2021117057A5 JP2021117057A5 (ja) 2023-01-24
JP7357554B2 true JP7357554B2 (ja) 2023-10-06

Family

ID=76969977

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020009447A Active JP7357554B2 (ja) 2020-01-23 2020-01-23 同期制御装置、同期制御装置の制御方法、システム

Country Status (2)

Country Link
US (1) US11526010B2 (ja)
JP (1) JP7357554B2 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018148512A (ja) 2017-03-09 2018-09-20 キヤノン株式会社 撮像装置と撮像装置の制御方法、及びプログラム
JP2018151163A (ja) 2017-03-09 2018-09-27 キヤノン株式会社 計測装置、処理装置および物品製造方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3830689B2 (ja) 1999-05-25 2006-10-04 三菱電機株式会社 ステレオカメラ
JP2006005608A (ja) 2004-06-17 2006-01-05 Hitachi Ltd 撮像装置
WO2020132243A1 (en) * 2018-12-21 2020-06-25 Magic Leap, Inc. Multi-camera cross reality device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018148512A (ja) 2017-03-09 2018-09-20 キヤノン株式会社 撮像装置と撮像装置の制御方法、及びプログラム
JP2018151163A (ja) 2017-03-09 2018-09-27 キヤノン株式会社 計測装置、処理装置および物品製造方法

Also Published As

Publication number Publication date
US11526010B2 (en) 2022-12-13
JP2021117057A (ja) 2021-08-10
US20210231950A1 (en) 2021-07-29

Similar Documents

Publication Publication Date Title
KR102517876B1 (ko) 증강 현실 데이터를 레코딩하기 위한 기술
RU2638776C1 (ru) Устройство генерирования изображения и способ
US9196093B2 (en) Information presentation device, digital camera, head mount display, projector, information presentation method and non-transitory computer readable medium
US9684169B2 (en) Image processing apparatus and image processing method for viewpoint determination
JP4689639B2 (ja) 画像処理システム
US11200646B2 (en) Compensation for deformation in head mounted display systems
JP7349793B2 (ja) 画像処理装置および画像処理方法、プログラム
JP2018511098A (ja) 複合現実システム
CN102959616A (zh) 自然交互的交互真实性增强
JP2008299669A (ja) 頭部装着型表示装置、及びその制御方法
JP2010153983A (ja) 投影型映像表示装置および該方法
JP2011010126A (ja) 画像処理装置、画像処理方法
JP7271215B2 (ja) 同期制御装置、同期制御方法、及びプログラム
JP2011035638A (ja) 仮想現実空間映像制作システム
JP2017079400A (ja) 表示システム、情報処理方法及びプログラム
US20190310475A1 (en) Image display apparatus and image display method
US20240031551A1 (en) Image capturing apparatus for capturing a plurality of eyeball images, image capturing method for image capturing apparatus, and storage medium
JP6949475B2 (ja) 画像処理装置、画像処理方法およびプログラム
EP3665656A1 (en) Three-dimensional video processing
JP6515512B2 (ja) 表示装置、表示装置のキャリブレーション方法、およびキャリブレーションプログラム
US11749141B2 (en) Information processing apparatus, information processing method, and recording medium
JP7357554B2 (ja) 同期制御装置、同期制御装置の制御方法、システム
WO2013133057A1 (ja) 画像処理装置および方法、並びにプログラム
JP2023091627A (ja) 表示装置、表示装置の制御方法、システム及びプログラム
JP6124862B2 (ja) ポインティング・ジェスチャに応じたアクションをする方法、会議支援システム、およびコンピュータ・プログラム

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230116

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230116

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230821

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230828

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230926

R151 Written notification of patent or utility model registration

Ref document number: 7357554

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151