JP2014077933A - Image projector, image projection method, and program - Google Patents
Image projector, image projection method, and program Download PDFInfo
- Publication number
- JP2014077933A JP2014077933A JP2012226355A JP2012226355A JP2014077933A JP 2014077933 A JP2014077933 A JP 2014077933A JP 2012226355 A JP2012226355 A JP 2012226355A JP 2012226355 A JP2012226355 A JP 2012226355A JP 2014077933 A JP2014077933 A JP 2014077933A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- detection
- image
- determination
- projected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 34
- 238000003384 imaging method Methods 0.000 claims description 38
- 238000002156 mixing Methods 0.000 claims description 4
- 238000001514 detection method Methods 0.000 abstract description 184
- 239000000203 mixture Substances 0.000 description 21
- 230000001360 synchronised effect Effects 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 230000003111 delayed effect Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 239000003086 colorant Substances 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Images
Landscapes
- Projection Apparatus (AREA)
- Transforming Electric Information Into Light Information (AREA)
Abstract
Description
本発明は、一つの画像データから分割され、投影される複数の画像データ間の同期をとる技術に関するものである。 The present invention relates to a technique for synchronizing a plurality of image data divided and projected from one image data.
近年、複数のプロジェクタによって投影された画像を組み合わせ、1つの画面を構成するマルチプロジェクタシステムの実用化が進んでいる。また、マルチプロジェクタシステムでは、複数のプロジェクタから投影される画像を組み合わせる際、画像間の境界が視認されないようにするために、各画像の端部を重ね合わせるように投影する方式が開発されている。 In recent years, a multi-projector system in which images projected by a plurality of projectors are combined to form one screen has been put into practical use. In addition, in a multi-projector system, when images projected from a plurality of projectors are combined, a method of projecting the edges of the images so as to overlap each other has been developed so that the boundary between the images is not visually recognized. .
マルチプロジェクタシステムでは、複数のプロジェクタで1つの画面を作成するため、或る1つの画面を形成する部分画像を各プロジェクタが投影するタイミングを合わせる必要がある。このタイミングを合わせるための技術が特許文献1及び2に開示されている。
In a multi-projector system, since a single screen is created by a plurality of projectors, it is necessary to match the timing at which each projector projects a partial image forming a certain screen. Techniques for matching this timing are disclosed in
特許文献1に開示される技術は、以下の通りである。即ち、マスタコンピュータは、マスタ側の垂直同期信号を各スレーブコンピュータに出力する。スレーブコンピュータは、スレーブ側の垂直同期信号とマスタ側の垂直同期信号との時間差を観測し、その時間差を解消するように、水平/垂直スキャンレート、ピクセルクロックレートを変更するという技術である。
The technique disclosed in
特許文献2に開示される技術は、以下の通りである。即ち、複数の画像表示装置は、現在時刻を取得し、予め設定された起点時刻と現在時刻とから算出される設定時刻に表示更新周期の開始タイミングを合わせるという技術である。
The technique disclosed in
しかしながら、上述した技術には、以下に示すような課題がある。即ち、特許文献1に開示される技術では、マスタ側の垂直同期信号とスレーブ側の垂直同期信号とを比較する同期制御部で時間差を解消したとしても、同期信号の伝達自体に遅延があるため、出力結果が同期した結果となるとは限らない。また、特許文献2に開示される技術では、全てのプロジェクタ間で同一の基準時刻が必須となる。
However, the above-described technique has the following problems. That is, in the technique disclosed in
そこで、本発明の目的は、投影される複数の画像データ間の同期を容易にとることにある。 Therefore, an object of the present invention is to easily synchronize a plurality of projected image data.
本発明の画像投影装置は、一つの画像データを複数の画像データに分割する分割手段と、前記複数の画像データにおける所定の領域に所定の情報を付加する付加手段と、前記複数の画像データ間で前記所定の領域が重ね合わされた状態で、前記所定の情報が付加された前記複数の画像データを投影する投影手段と、前記投影手段により投影された前記複数の画像データを撮像する撮像手段と、前記撮像手段により撮像された前記所定の領域に該当する画像データに基づいて、前記複数の画像データ間の同期判定を行う判定手段と、前記判定手段による判定結果に基づいて、前記投影手段によって前記複数の画像データが投影されるタイミングを調整する調整手段とを有することを特徴とする。 An image projection apparatus according to the present invention includes a dividing unit that divides one image data into a plurality of image data, an adding unit that adds predetermined information to a predetermined area in the plurality of image data, and a plurality of image data. And projecting means for projecting the plurality of image data to which the predetermined information is added in a state where the predetermined area is overlaid; and imaging means for capturing the plurality of image data projected by the projecting means; A determination unit that performs synchronization determination between the plurality of image data based on the image data corresponding to the predetermined region imaged by the imaging unit, and a projection unit that determines based on a determination result by the determination unit. Adjusting means for adjusting a timing at which the plurality of image data are projected.
本発明によれば、投影される複数の画像データ間の同期を容易にとることが可能となる。 According to the present invention, it is possible to easily synchronize a plurality of projected image data.
以下、本発明を適用した好適な実施形態を、添付図面を参照しながら詳細に説明する。ここでは、1つの入力画像データを2つのプロジェクタ夫々によって投影される画像データに分割し、2つのプロジェクタによって投影される各画像データの端部を重ね合わせて表示する例について説明する。 DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments to which the invention is applied will be described in detail with reference to the accompanying drawings. Here, an example will be described in which one input image data is divided into image data projected by two projectors, and ends of the respective image data projected by the two projectors are superimposed and displayed.
図1は、本発明の実施形態に係るマルチプロジェクタシステムの主要部の構成を示す図である。図1に示すように、本実施形態に係るマルチプロジェクタシステムは、画像分割部101、検出記号決定部102、検出記号付加部103、出力タイミング調整部104、画像投影部105及び出力タイミング検出部106を備える。なお、本実施形態に係るマルチプロジェクタシステムは、画像投影装置の例となる構成である。
FIG. 1 is a diagram showing a configuration of main parts of a multi-projector system according to an embodiment of the present invention. As shown in FIG. 1, the multi-projector system according to the present embodiment includes an
画像分割部101は、1つの入力画像データを2つのプロジェクタ夫々によって投影される画像データに分割する。検出記号決定部102は、投影される各画像データに付加する検出記号を決定する。検出記号付加部103は、検出記号決定部102により決定された検出記号を、投影される各画像データに付加する。出力タイミング調整部104は、検出記号が付加された各画像データの出力タイミングをプロジェクタ毎に調整する。画像投影部105は、検出記号が付加された画像データを投影する。出力タイミング検出部106は、投影された画像データ上での検出記号を重ね合わせた結果を取得し、複数のプロジェクタ間の出力タイミング情報を検出する。
The
本実施形態において、2つのプロジェクタによって投影される画像データは、投影後にそれぞれの端部が重ね合わせて表示されるエッジブレンド処理が施された画像データである。エッジブレンド処理自体は、公知の技術であり、近年複数のプロジェクタで1つの画像を表示する際に用いられる技術である。 In the present embodiment, the image data projected by the two projectors is image data that has been subjected to edge blending processing in which the respective end portions are superimposed and displayed after projection. The edge blending process itself is a known technique, and is a technique used in recent years when displaying one image with a plurality of projectors.
画像分割部101は、入力画像データ107を入力とし、入力画像データ107を2つの画像データに分割し、分割した各画像データに対してエッジブレンド処理を施すことにより、2つのエッジブレンド処理済み画像データ108を出力する。また、画像分割部101は、エッジブレンド処理により重なり合う領域を示す重なり領域情報109を検出記号決定部102に対して出力する。
The
図2(a)は、入力画像データ107の例を示している。図2(b)は、2つのエッジブレンド処理済み画像データ108の例を示している。即ち、図2(b)の202及び204は、2つのプロジェクタによって投影されるエッジブレンド処理済み画像データである。図2(b)の203及び205は、エッジブレンド処理済み画像データのうち、エッジブレンド処理が施された領域(以下、エッジブレンド処理領域と称す)である。図2(c)は、重なり領域情報109の一例を示している。図2(c)に示すように、重なり領域情報109は、出力領域206及び208と重なり領域207及び209とから構成される。検出記号決定部102は、2つのエッジブレンド処理済み画像データ108に対して付加する検出記号を決定する処理を行う。
FIG. 2A shows an example of the
ここで、図3は、本発明の実施形態で用いる検出記号の一例を示す図である。図3(a)は、2つのプロジェクタから投影される画像データのエッジブレンド処理領域に重ね合わせる検出記号301、302を示している。図3(a)に示すように、エッジブレンド処理領域に重ね合わせる検出記号301、302は、時刻の変化に伴ってその位置が変化する。検出記号301、302の位置の変化速度は、検出記号301、302が移動する垂直方向のライン数と、検出記号301、302の変化が何フレームに1回起きるかとで定義される。図3(a)では、1フレーム毎に検出記号301、302を変化させているが、数フレーム毎に変化させてもよい。
Here, FIG. 3 is a diagram illustrating an example of detection symbols used in the embodiment of the present invention. FIG. 3A shows
図3(b)及び図3(c)は、2つのプロジェクタから投影されるエッジブレンド処理済み画像データのエッジブレンド処理領域同士を重ね合わせた際の検出記号の重なり方を示している。即ち、図3(b)は、2つのプロジェクタから投影された画像データ同士の同期がとれている場合の検出記号の重なり方を示している。画像データ同士の同期がとれている場合、検出記号同士がずれなく重なり合うことで、重ね合わせた結果の色を持つ重畳後の検出記号303のみが観測される。図3(c)は、2つのプロジェクタから投影される画像データ同士の同期がとれていない場合の検出記号の重なり方を示している。画像データ同士の同期がとれていない場合、検出記号同士を重ね合わせた結果にずれが生じ、重ね合わせた結果の色を持つ重畳後の検出記号305と、重ね合わせる前の検出記号の色と重ね合わせた後の検出記号の色とがある割合で混ざった色の検出記号304及び検出記号306が観測される。
FIGS. 3B and 3C show how the detection symbols overlap when the edge blend processing regions of the edge blend processed image data projected from the two projectors are overlapped. That is, FIG. 3B shows how the detection symbols overlap when the image data projected from the two projectors is synchronized. When the image data are synchronized with each other, the detected symbols overlap with each other without deviation, so that only the detected
検出記号の決定の際には、検出記号決定部102は、画像分割部101より重なり領域情報109を入力し、重なり領域情報109に含まれる重なり領域の形状より、各画像データに重畳させる検出記号110を決定する。そして、検出記号決定部102は、検出記号付加部103に対して検出記号110を出力する。
When determining the detection symbol, the detection
また、検出記号決定部102は、出力タイミング検出部106に対して同期判定情報112を出力する。同期判定情報112は、同期がとれているかどうかの判定をするための情報であって、同期がとれていない場合には、どれだけ同期がずれているかを判定するための情報である。
In addition, the detection
また、検出記号決定部102は、出力タイミング検出部106から同期判定結果113を入力し、同期判定結果113に応じて、検出記号付加部103に対して出力する検出記号110を変更する。
The detection
検出記号付加部103は、エッジブレンド処理済み画像データ108に対して、検出記号決定部102より入力した検出記号110を付加し、検出記号付加済み画像データ111を出力する。検出記号の付加処理は、OSD等のグラフィックスを画像データに対して重ね合わせる処理と同様の透過合成処理となる。
The detection
出力タイミング調整部104は、検出記号付加済み画像データ111を入力し、出力タイミング検出部106から入力するタイミング調整量114に応じて出力タイミングを調整し、出力タイミング調整済み画像データ115を出力する。出力タイミングの調整は、複数の検出記号付加済み画像データ111それぞれに対して独立に行われる。
The output
画像投影部105は、出力タイミング調整済み画像データ115を入力し、投影画像データ116を出力する。本実施形態では、画像投影部105は、液晶プロジェクタとする。また、それぞれの液晶プロジェクタは、同一の出力フレームレートを持つものとする。
The
出力タイミング検出部106は、投影画像データ116から検出記号重なり情報117を取得する。検出記号重なり情報117の取得は、検出記号同士の重なり合った領域を撮像することにより行われる。撮像期間は、検出記号の変化が生じる最少のフレーム数とする。例えば、検出記号を1フレーム毎に変化させている場合は撮像期間を1フレームとし、検出記号を3フレーム毎に変化させている場合は撮像期間を3フレームとする。
The output
また、出力タイミング検出部106は、取得した検出記号重なり情報117より、同期がとれているか否かを判定する。この判定は、検出記号重なり情報117と検出記号決定部102から入力する同期判定情報112とを比較することにより行われる。
Further, the output
また、出力タイミング検出部106は、同期がとれているか否かの判定結果である同期判定結果113を検出記号決定部102に対して出力する。また、出力タイミング検出部106は、同期がとれているか否かの判定より出力タイミングの調整が必要となった場合、タイミング調整量114を出力タイミング調整部104に対して出力する。タイミング調整量114は、同期判定を行った際に併せて算出される、複数のプロジェクタの出力間の相対的なずれより決定される。
Further, the output
ここで、同期がとれているか否かの判定方法を、図4〜図9を用いて説明する。図4は、一方のプロジェクタから投影される画像データ1のタイミング、他方のプロジェクタから投影される画像データ2のタイミング、及び、撮像タイミングを示す図である。図5は、画像データ1上の検出記号、画像データ2上の検出記号、重畳後の検出記号、及び、撮像される検出記号を示す図である。
Here, a method for determining whether or not synchronization is established will be described with reference to FIGS. FIG. 4 is a diagram illustrating the timing of the
図4において、401は、画像データ1の(N−1)フレーム目が投影される期間を示している。同様に、402は、画像データ1のNフレーム目が投影される期間を示している。403は、画像データ1の(N+1)フレーム目が投影される期間を示している。404は、画像データ2の(N−1)フレーム目が投影される期間を示している。405は、画像データ2のNフレーム目が投影される期間を示している。406は、画像データ2の(N+1)フレーム目が投影される期間を示している。407は、撮像期間を示している。撮像期間407内の408は、画像データ1の(N−1)フレームと画像データ2の(N−1)フレームとの撮像期間を示している。撮像期間407内の409は、画像データ1のNフレームと画像データ2のNフレームとの撮像期間を示している。撮像期間407内の410は、画像データ1の(N+1)フレームと画像データ2の(N+1)フレームとの撮像期間を示している。
In FIG. 4, 401 indicates a period during which the (N-1) th frame of the
501は、期間401に投影される画像データ1の(N−1)フレーム目のエッジブレンド処理領域を示している。502は、期間401に投影される画像データ1の(N−1)フレーム目の検出記号を示している。同様に、503は、期間402に投影される画像データ1のNフレーム目のエッジブレンド処理領域を示している。504は、期間402に投影される画像データ1のNフレーム目の検出記号を示している。505は、期間404に投影される画像データ2の(N−1)フレーム目のエッジブレンド処理領域を示している。506は、期間404に投影される画像データ2の(N−1)フレーム目の検出記号を示している。507は、期間405に投影される画像データ2のNフレーム目のエッジブレンド処理領域を示している。508は、期間405に投影される画像データ2のNフレーム目の検出記号を示している。509は、期間408の重畳後のエッジブレンド処理領域を示している。510は、期間408における重畳後の検出記号を示している。同様に、511は、期間409の重畳後のエッジブレンド処理領域を示している。512、513及び514は、期間409における重畳後の検出記号を示している。515は、期間410の重畳後のエッジブレンド処理領域を示している。516は、期間410における重畳後の検出記号を示している。517は、撮像期間407に撮像されるエッジブレンド処理領域を示している。518、519及び520は、撮像期間407に撮像される重畳後の検出記号を示している。撮像期間407に撮像される検出記号は、期間408、期間409及び期間410における重畳後の検出記号をそれぞれの期間の長さで重みづけして合成されたものとなる。重畳後の検出記号518の領域は、撮像期間407内で常に同じであるため、検出記号510、512及び516と同一の色が検出される。重畳後の検出記号519の領域は、期間408においては検出記号510であり、期間409においては検出記号513であり、期間410においては無であるため、それらを期間の長さで重みづけして足し合わせた色となる。重畳後の検出記号520の領域は、期間408においては無であり、期間409おいては検出記号514であり、期間410においては検出記号516であるため、それらを期間の長さで重みづけして足し合わせた色となる。出力タイミング検出部106は、撮像される検出記号518、519及び520の各領域のサイズ及び色により、画像データ1を投影するプロジェクタと画像データ2を投影するプロジェクタとの同期関係を検出することができる。
ここで、同期関係検出時の計算方法について説明する。ここでの計算では、検出記号502及び504の持つ色をA、検出記号506及び508の持つ色をB、重畳後の検出記号510、512及び516の持つ、AとBとを重ね合わせた後の色をC、撮像される検出記号519の持つ色をD、撮像される検出記号520の持つ色をEとする。また、撮像期間407に対する期間408、期間409及び期間410の割合をそれぞれ10%、40%及び50%とする。即ち、この例では、画像データ2の出力タイミングが画像データ1の出力タイミングに対して、1フレーム期間の40%の時間遅れていることになる。
Here, a calculation method at the time of detecting the synchronization relationship will be described. In this calculation, the color of the
図6(a)は、色Dの持つ色の成分を示している。図6(b)は、色Eの持つ色の成分を示している。出力タイミング検出部106は、画像データ1に重畳する検出記号の色A、画像データ2に重畳する検出記号の色B、及び、重畳後の検出記号の色Cを認識している。従って、出力タイミング検出部106は、色D及び色Eを検出した後、その成分を逆算することができ、図6(a)及び図6(b)に示した成分を算出する。この算出結果のうち、重畳前の検出記号の色A及び色Bの成分の割合が、画像データ1と画像データ2との相対的な前後関係を示す数値となる。この例では、検出記号の変化方向である下側の色Eに画像データ1に付加した検出記号の色である色Aが40%含まれている。つまり、画像データ1の出力は、画像データ2の出力に対して相対的に撮像期間の40%の時間だけ進んでいると算出できる。この例では、撮像期間は1フレームであるため、出力タイミング検出部106は、画像データ1は画像データ2に対して1フレームの40%の時間分、即ち、0.4フレーム分進んでいると判定する。
FIG. 6A shows the color components of the color D. FIG. 6B shows the color components of the color E. The output
図7〜図9は、画像データ1と画像データ2とが1フレーム以上ずれている例を示している。図7は、画像データ1、画像データ2及び撮像タイミングを示している。図8は、画像データ1上の検出記号、画像データ2上の検出記号、重畳後の検出記号、及び、撮像される検出記号を示している。
7 to 9 show examples in which the
821は、撮像期間707に撮像されるエッジブレンド処理領域を示しており、822〜826は、撮像される重畳後の検出記号を示している。ここでも図4〜図6と同様に、撮像した重畳後の検出記号からの同期ずれの計算方法について説明する。ここでの計算では、検出記号802及び804の持つ色をA、検出記号806及び808の持つ色をBとする。また、重畳後の検出記号810、814及び818の持つ、AとBとを重ね合わせた後の色をCとする。また、撮像される検出記号823の持つ色をD、撮像される検出記号824の持つ色をE、撮像される検出記号825の持つ色をF、撮像される検出記号826の持つ色をGとする。
また、撮像期間707に対する期間708、期間709及び期間710の割合をそれぞれ10%、50%及び40%とする。即ち、図7〜図9に示す例では、画像データ1の出力タイミングが画像データ2の出力タイミングに対して、1フレーム分と1フレーム期間の50%の時間遅れていることになる。
The ratios of the
図9(a)は、色Dの持つ色の成分を示している。図9(b)は、色Eの持つ色の成分を示している。図9(c)は、色Fの持つ色の成分を示している。図9(d)は、色Gの持つ色の成分を示している。この成分のうち、重畳前の検出記号の色A及び色Bの成分の割合の総和が、画像データ1と画像データ2との相対的な前後関係を示す数値となる。この例では、検出記号の変化方向である下側の色Fに画像データ2に付加した検出記号の色である色Bが60%、色Gに色Bが90%含まれている。つまり、画像データ2の出力は、画像データ1の出力に対して相対的に撮像期間の150%に相当する時間だけ進んでいると算出できる。この例においても、撮像期間は1フレームであるので、出力タイミング検出部106は、画像データ2が画像データ1に対して1フレームの150%の時間分、即ち、1.5フレーム分進んでいると判定される。
FIG. 9A shows the color components of the color D. FIG. 9B shows the color components of the color E. FIG. 9C shows the color components of the color F. FIG. 9D shows the color components of the color G. Among these components, the sum of the ratios of the color A and color B components of the detection symbol before superimposition is a numerical value indicating the relative front-rear relationship between the
以上が、出力タイミング検出部106によって行われる同期がとれているか否かの判定方法となる。また、同期がとれていると判定する基準は、相対的な差がある閾値以下であるときという判定方法にしてもよい。これは、実現したい同期の精度により決めればよい。
The above is the determination method for determining whether or not synchronization is performed by the output
次に、図10を参照しながら、本実施形態に係るマルチプロジェクタシステムの処理について説明する。図10に示すフローチャートは、大きく2つのフェーズに分かれる。1つは、ステップS1001〜S1005までの検出記号の変化タイミング調整フェーズであり、もう1つは、ステップS1006〜S1011までの出力タイミング調整フェーズである。なお、図10に示す処理は、本実施形態に係るマルチプロジェクタシステムの内部に備えられるCPUがROM等の記録媒体から必要なプログラムやデータを読み出し、RAMに展開して実行することにより実現する処理である。 Next, processing of the multi-projector system according to the present embodiment will be described with reference to FIG. The flowchart shown in FIG. 10 is roughly divided into two phases. One is a detection symbol change timing adjustment phase from steps S1001 to S1005, and the other is an output timing adjustment phase from steps S1006 to S1011. Note that the processing shown in FIG. 10 is realized by a CPU provided in the multi-projector system according to the present embodiment reading out a necessary program or data from a recording medium such as a ROM, developing it in the RAM, and executing it. It is.
検出記号の変化タイミング調整フェーズでは、複数のプロジェクタ間の出力タイミングを調整する前の状態で検出記号を重ね合わせた結果、図3(b)に示すように、検出記号同士がちょうど重なって見えるように、検出記号の変化速度を調整する(遅くする)。これにより、初期の検出記号の変化速度で複数のプロジェクタのうちのどのプロジェクタの出力タイミングが相対的に遅れているかの判別がつかなくなることを回避する。また、出力タイミング調整フェーズでは、プロジェクタからの出力タイミングの調整と検出記号の変化速度の変更とを繰り返すことにより、複数のプロジェクタ間の同期を調整する。 In the detection symbol change timing adjustment phase, as shown in FIG. 3B, the detection symbols appear to overlap each other as a result of overlapping the detection symbols in a state before adjusting the output timing between the plurality of projectors. Next, the change speed of the detection symbol is adjusted (slowed down). Thereby, it is avoided that it becomes impossible to determine which of the plurality of projectors the output timing of the projector is relatively delayed at the initial change speed of the detected symbol. Further, in the output timing adjustment phase, the synchronization between the plurality of projectors is adjusted by repeating the adjustment of the output timing from the projector and the change of the detection symbol change speed.
ステップS1001において、検出記号決定部102は、付加する検出記号と初期変化速度とを決定する。初期の検出記号の決定に際しては、重なり領域情報109に含まれる重なり領域207及び重なり領域209が用いられる。検出記号決定部102は、重なり領域207及び重なり領域209のサイズより、各プロジェクタの出力画像データに付加する検出記号のサイズ、色及び検出記号の初期の検出記号の変化速度を決定する。その結果、検出記号決定部102は、複数のプロジェクタのそれぞれの出力に対して付加する検出記号を検出記号301及び検出記号302のように決定する。初期の検出記号の変化速度は、必ずしも1フレーム毎に変化しなくてもよい。
In step S1001, the detection
ステップS1002において、出力タイミング検出部106は、出力タイミングの検出を行う。出力タイミングの検出方法は、上述したとおり、投影画像データ116内において検出記号が重なり合った領域から検出記号重なり情報117を取得することにより行われる。
In step S1002, the output
ステップS1003において、出力タイミング検出部106は、出力タイミングの検出結果から同期判定を行う。同期判定は、ステップS1002で得られた検出結果と、検出記号決定部102から入力する同期判定情報112とに基づいて行われる。同期判定情報112は、検出記号決定部102によって決定された検出記号301及び検出記号302と検出記号の変化速度情報とである。出力タイミング検出部106は、検出記号301及び検出記号302より、同期がとれている場合の重畳結果が重畳後の検出記号303となることを計算する。そして、上述した判定方法により、同期ずれがあるか否かの判定と同期ずれがある場合には相対的なずれの量の算出とが行われる。
In step S1003, the output
ステップS1004において、検出記号決定部102は、同期ずれがあったか否かを判定する。同期ずれがあった場合、処理はステップS1005に移行する。一方、同期ずれがなかった場合、処理はステップS1006に移行する。
In step S1004, the detected
ステップS1005において、検出記号決定部102は、出力タイミング検出部106より入力した同期判定結果113を用いて、画像データに付加する検出記号の変更を行う。同期判定結果113には、2つの画像データの相対的な速度差が含まれる。本ステップS1005では、撮像期間に対しての相対的な速度差が同期ずれありと判定される閾値よりも小さくなるように、検出記号の変化速度を小さくする。以上のステップS1001〜S1005により、検出記号の変化タイミング調整フェーズが完了する。
In step S <b> 1005, the detection
ステップS1006において、検出記号決定部102は、目標の同期精度に到達しているか否かを判定する。なお、ステップS1006の直前の状態は、同期ずれがない状態となっている。本ステップ1006では、同期ずれがないと判定したときの閾値が目標の同期精度以下であるか否かが判定される。同期ずれがないと判定したときの閾値が目標の同期精度以下である場合、処理が終了する。一方、同期ずれがないと判定したときの閾値が目標の同期精度よりも大きい場合、処理はステップS1007に移行する。
In step S1006, the detected
ステップS1007において、検出記号決定部102は、出力タイミング検出部106より入力した同期判定結果113を用いて、画像データに付加する検出記号の変更を行う。本ステップS1007では、検出記号決定部102は、ステップS1005とは逆に、検出記号の変化速度を大きくする。検出記号決定部102は、変化速度を大きくすると同時に、同期ずれありと判定する閾値を小さくする。本ステップ1007が繰り返されることにより、検出記号の変化速度が徐々に大きくなり、閾値が徐々に小さくなる。検出記号決定部102は、検出記号の変更を行った後、変更後の検出記号を検出記号付加部103に出力する。また、検出記号決定部102は、同期判定情報112を出力タイミング検出部106に出力する。
In step S <b> 1007, the detection
ステップS1008において、出力タイミング検出部106は、出力タイミングを検出する。本ステップS1008は、ステップS1002と同様の処理である。ステップS1009において、出力タイミング検出部106は、出力タイミングの検出結果から同期判定を行う。ステップS1009では、ステップS1003の処理に加え、同期判定により同期ずれがあると判定された場合、相対的なずれの量がタイミング調整量114として出力タイミング調整部104に対して出力される。
In step S1008, the output
ステップS1010において、出力タイミング検出部106は、同期ずれがあったか否かを判定する。同期ずれがあった場合、処理はステップS1011に移行する。一方、同期ずれがなかった場合、処理はステップS1006に戻る。
In step S1010, the output
ステップS1011において、出力タイミング調整部104は、出力タイミングの調整を行う。出力タイミング調整部104は、出力タイミング検出部106からタイミング調整量114を入力する。基本的には、タイミング調整量分、相対的に進んでいる方の画像データの出力を遅らせることでタイミングの調整が行われる。画像データの出力を遅らせる方法は、内部にラインバッファやフレームバッファを保持し、調整量分の期間、バッファに保持することで行われる。但し、本ステップを複数回行うことにより、遅延させすぎていることにより相対的に遅れていると判定されてしまった場合、タイミング調整量分、遅延量を減らすことでタイミングの調整が行われる。
In step S1011, the output
以上のステップS1006〜S1011により、出力タイミング調整フェーズが完了する。このフェーズの完了により、複数のプロジェクタ間の出力の同期が実現される。 The output timing adjustment phase is completed through steps S1006 to S1011 described above. By completing this phase, output synchronization among a plurality of projectors is realized.
上述した実施形態によれば、複数のプロジェクタで1つの画面を構成するマルチプロジェクタシステムにおいて、各プロジェクタからの投影画像データ間の投影タイミングの同期を容易にとることができる。 According to the above-described embodiment, in a multi-projector system in which a plurality of projectors form one screen, it is possible to easily synchronize the projection timing between projection image data from each projector.
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。 The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.
101:画像分割部、102:検出記号決定部、103:検出記号付加部、104:出力タイミング調整部、105:画像投影部、106:出力タイミング検出部、107:入力画像データ、116:投影画像データ、117:検出記号重なり情報 101: Image division unit, 102: Detection symbol determination unit, 103: Detection symbol addition unit, 104: Output timing adjustment unit, 105: Image projection unit, 106: Output timing detection unit, 107: Input image data, 116: Projection image Data, 117: Detection symbol overlap information
Claims (6)
前記複数の画像データにおける所定の領域に所定の情報を付加する付加手段と、
前記複数の画像データ間で前記所定の領域が重ね合わされた状態で、前記所定の情報が付加された前記複数の画像データを投影する投影手段と、
前記投影手段により投影された前記複数の画像データを撮像する撮像手段と、
前記撮像手段により撮像された前記所定の領域に該当する画像データに基づいて、前記複数の画像データ間の同期判定を行う判定手段と、
前記判定手段による判定結果に基づいて、前記投影手段によって前記複数の画像データが投影されるタイミングを調整する調整手段とを有することを特徴とする画像投影装置。 A dividing means for dividing one image data into a plurality of image data;
Adding means for adding predetermined information to a predetermined area in the plurality of image data;
Projecting means for projecting the plurality of image data to which the predetermined information is added in a state in which the predetermined region is overlapped between the plurality of image data;
Imaging means for imaging the plurality of image data projected by the projection means;
Determination means for performing synchronization determination between the plurality of image data based on image data corresponding to the predetermined area imaged by the imaging means;
An image projecting apparatus comprising: an adjusting unit configured to adjust a timing at which the plurality of image data is projected by the projecting unit based on a determination result by the determining unit.
一つの画像データを複数の画像データに分割する分割ステップと、
前記複数の画像データにおける所定の領域に所定の情報を付加する付加ステップと、
前記複数の画像データ間で前記所定の領域が重ね合わされた状態で、前記所定の情報が付加された前記複数の画像データを投影する投影ステップと、
前記投影ステップにより投影された前記複数の画像データを撮像する撮像ステップと、
前記撮像ステップにより撮像された前記所定の領域に該当する画像データに基づいて、前記複数の画像データ間の同期判定を行う判定ステップと、
前記判定ステップによる判定結果に基づいて、前記投影ステップによって前記複数の画像データが投影されるタイミングを調整する調整ステップとを有することを特徴とする画像投影方法。 An image projection method executed by an image projection apparatus,
A division step of dividing one image data into a plurality of image data;
An adding step of adding predetermined information to a predetermined area in the plurality of image data;
A projecting step of projecting the plurality of image data to which the predetermined information is added in a state in which the predetermined region is overlapped between the plurality of image data;
An imaging step of imaging the plurality of image data projected by the projecting step;
A determination step of performing a synchronization determination between the plurality of image data based on the image data corresponding to the predetermined region imaged in the imaging step;
An image projection method comprising: an adjustment step of adjusting a timing at which the plurality of image data is projected by the projection step based on a determination result by the determination step.
前記複数の画像データにおける所定の領域に所定の情報を付加する付加ステップと、
前記複数の画像データ間で前記所定の領域が重ね合わされた状態で、前記所定の情報が付加された前記複数の画像データを投影する投影ステップと、
前記投影ステップにより投影された前記複数の画像データを撮像する撮像ステップと、
前記撮像ステップにより撮像された前記所定の領域に該当する画像データに基づいて、前記複数の画像データ間の同期判定を行う判定ステップと、
前記判定ステップによる判定結果に基づいて、前記投影ステップによって前記複数の画像データが投影されるタイミングを調整する調整ステップとをコンピュータに実行させるためのプログラム。 A division step of dividing one image data into a plurality of image data;
An adding step of adding predetermined information to a predetermined area in the plurality of image data;
A projecting step of projecting the plurality of image data to which the predetermined information is added in a state in which the predetermined region is overlapped between the plurality of image data;
An imaging step of imaging the plurality of image data projected by the projecting step;
A determination step of performing a synchronization determination between the plurality of image data based on the image data corresponding to the predetermined region imaged in the imaging step;
A program for causing a computer to execute an adjustment step of adjusting a timing at which the plurality of image data is projected by the projection step based on a determination result of the determination step.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012226355A JP6120519B2 (en) | 2012-10-11 | 2012-10-11 | Image projection apparatus, image projection method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012226355A JP6120519B2 (en) | 2012-10-11 | 2012-10-11 | Image projection apparatus, image projection method, and program |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2014077933A true JP2014077933A (en) | 2014-05-01 |
JP2014077933A5 JP2014077933A5 (en) | 2015-11-05 |
JP6120519B2 JP6120519B2 (en) | 2017-04-26 |
Family
ID=50783270
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012226355A Active JP6120519B2 (en) | 2012-10-11 | 2012-10-11 | Image projection apparatus, image projection method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6120519B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018168528A1 (en) * | 2017-03-17 | 2018-09-20 | ソニー株式会社 | Image processing device and method |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001222269A (en) * | 2000-02-10 | 2001-08-17 | Olympus Optical Co Ltd | Multidisplay device |
JP2004072623A (en) * | 2002-08-08 | 2004-03-04 | Astro Design Inc | Adjustment method of video image projecting position in video image projection system |
JP2007043275A (en) * | 2005-08-01 | 2007-02-15 | Seiko Epson Corp | Method for adjusting position of projected image |
JP2009122412A (en) * | 2007-11-15 | 2009-06-04 | Seiko Epson Corp | Image display system and image display device |
JP2011172107A (en) * | 2010-02-19 | 2011-09-01 | Nec Corp | Multi-display system, method of adjusting multi-display, and program |
-
2012
- 2012-10-11 JP JP2012226355A patent/JP6120519B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001222269A (en) * | 2000-02-10 | 2001-08-17 | Olympus Optical Co Ltd | Multidisplay device |
JP2004072623A (en) * | 2002-08-08 | 2004-03-04 | Astro Design Inc | Adjustment method of video image projecting position in video image projection system |
JP2007043275A (en) * | 2005-08-01 | 2007-02-15 | Seiko Epson Corp | Method for adjusting position of projected image |
JP2009122412A (en) * | 2007-11-15 | 2009-06-04 | Seiko Epson Corp | Image display system and image display device |
JP2011172107A (en) * | 2010-02-19 | 2011-09-01 | Nec Corp | Multi-display system, method of adjusting multi-display, and program |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018168528A1 (en) * | 2017-03-17 | 2018-09-20 | ソニー株式会社 | Image processing device and method |
CN110383829A (en) * | 2017-03-17 | 2019-10-25 | 索尼公司 | Image processing equipment and method |
US11184590B2 (en) | 2017-03-17 | 2021-11-23 | Sony Corporation | Image processing apparatus and method |
CN110383829B (en) * | 2017-03-17 | 2021-12-24 | 索尼公司 | Image processing apparatus and method |
Also Published As
Publication number | Publication date |
---|---|
JP6120519B2 (en) | 2017-04-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7564501B2 (en) | Projection system, projector, method of controlling projectors and program therefor | |
US20120242780A1 (en) | Image processing apparatus and method, and program | |
JP2001166766A (en) | Dot clock adjusting method for image display device and dot clock adjusting device | |
WO2011039852A1 (en) | Video display device and video display method | |
JP5546593B2 (en) | Image display apparatus and control method thereof | |
JP2010041538A (en) | Device and method for processing image signal | |
JP6659117B2 (en) | Image processing apparatus, image processing method, and program | |
JP4932517B2 (en) | Image display device and frequency adjustment method thereof | |
JP2014146938A (en) | Projection apparatus, control method, program, and projection system | |
JP2022186702A (en) | Projection adjustment program, projection adjustment method, and projection adjustment system | |
JP2007158398A (en) | Shift amount detector and multiprojection device | |
JP6120519B2 (en) | Image projection apparatus, image projection method, and program | |
JP2012089986A (en) | Image processing device and method, and image display device and method | |
JP5187790B2 (en) | Video display device | |
EP3065126B1 (en) | Image processing device, image processing method, and program | |
US20190215500A1 (en) | Projection control apparatus and projection control method | |
JP2018037765A (en) | Image signal processor | |
JP4872424B2 (en) | Image processing apparatus, image processing method, and program | |
TW201251461A (en) | Image processing device and interpolated frame generation method | |
JP2012175271A5 (en) | ||
KR101724430B1 (en) | Synchronization apparatus and method for led imaging apparatus | |
JP2006041614A (en) | Image processing apparatus, image processing method, program, and recording medium | |
JP6140933B2 (en) | Display device and control method thereof | |
JP5888899B2 (en) | Video processing apparatus, video processing method, and program | |
JP2017220810A (en) | Image processing device, method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150916 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150916 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160715 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160726 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160920 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170228 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170328 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6120519 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |