JP2014077933A - Image projector, image projection method, and program - Google Patents

Image projector, image projection method, and program Download PDF

Info

Publication number
JP2014077933A
JP2014077933A JP2012226355A JP2012226355A JP2014077933A JP 2014077933 A JP2014077933 A JP 2014077933A JP 2012226355 A JP2012226355 A JP 2012226355A JP 2012226355 A JP2012226355 A JP 2012226355A JP 2014077933 A JP2014077933 A JP 2014077933A
Authority
JP
Japan
Prior art keywords
image data
detection
image
determination
projected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012226355A
Other languages
Japanese (ja)
Other versions
JP2014077933A5 (en
JP6120519B2 (en
Inventor
Hidenori Ito
秀憲 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012226355A priority Critical patent/JP6120519B2/en
Publication of JP2014077933A publication Critical patent/JP2014077933A/en
Publication of JP2014077933A5 publication Critical patent/JP2014077933A5/ja
Application granted granted Critical
Publication of JP6120519B2 publication Critical patent/JP6120519B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

PROBLEM TO BE SOLVED: To easily synchronize projected plural pieces of image data.SOLUTION: An image division part 101 divides one piece of image data into plural pieces of image data. A detection signal addition part 103 adds prescribed information to prescribed areas in the plural pieces of image data. An image projection part 105 projects the plural pieces of image data having the prescribed information added thereto in a state in which the prescribed areas are superimposed among the plural pieces of image data. An output timing detection part 106 images the projected plural pieces of image data, and performs synchronization determination among the plural pieces of image data on the basis of the imaged image data corresponding to the prescribed areas. The output timing adjustment part 104 adjusts a timing for projecting the plural pieces of image data on the basis of the determination result.

Description

本発明は、一つの画像データから分割され、投影される複数の画像データ間の同期をとる技術に関するものである。   The present invention relates to a technique for synchronizing a plurality of image data divided and projected from one image data.

近年、複数のプロジェクタによって投影された画像を組み合わせ、1つの画面を構成するマルチプロジェクタシステムの実用化が進んでいる。また、マルチプロジェクタシステムでは、複数のプロジェクタから投影される画像を組み合わせる際、画像間の境界が視認されないようにするために、各画像の端部を重ね合わせるように投影する方式が開発されている。   In recent years, a multi-projector system in which images projected by a plurality of projectors are combined to form one screen has been put into practical use. In addition, in a multi-projector system, when images projected from a plurality of projectors are combined, a method of projecting the edges of the images so as to overlap each other has been developed so that the boundary between the images is not visually recognized. .

マルチプロジェクタシステムでは、複数のプロジェクタで1つの画面を作成するため、或る1つの画面を形成する部分画像を各プロジェクタが投影するタイミングを合わせる必要がある。このタイミングを合わせるための技術が特許文献1及び2に開示されている。   In a multi-projector system, since a single screen is created by a plurality of projectors, it is necessary to match the timing at which each projector projects a partial image forming a certain screen. Techniques for matching this timing are disclosed in Patent Documents 1 and 2.

特許文献1に開示される技術は、以下の通りである。即ち、マスタコンピュータは、マスタ側の垂直同期信号を各スレーブコンピュータに出力する。スレーブコンピュータは、スレーブ側の垂直同期信号とマスタ側の垂直同期信号との時間差を観測し、その時間差を解消するように、水平/垂直スキャンレート、ピクセルクロックレートを変更するという技術である。   The technique disclosed in Patent Document 1 is as follows. That is, the master computer outputs the master side vertical synchronization signal to each slave computer. The slave computer is a technique of observing the time difference between the vertical synchronization signal on the slave side and the vertical synchronization signal on the master side and changing the horizontal / vertical scan rate and the pixel clock rate so as to eliminate the time difference.

特許文献2に開示される技術は、以下の通りである。即ち、複数の画像表示装置は、現在時刻を取得し、予め設定された起点時刻と現在時刻とから算出される設定時刻に表示更新周期の開始タイミングを合わせるという技術である。   The technique disclosed in Patent Document 2 is as follows. That is, the plurality of image display devices is a technique of acquiring the current time and matching the start timing of the display update cycle with the set time calculated from the preset start time and the current time.

特開2004−85730号公報JP 2004-85730 A 特開2008−197383号公報JP 2008-197383 A

しかしながら、上述した技術には、以下に示すような課題がある。即ち、特許文献1に開示される技術では、マスタ側の垂直同期信号とスレーブ側の垂直同期信号とを比較する同期制御部で時間差を解消したとしても、同期信号の伝達自体に遅延があるため、出力結果が同期した結果となるとは限らない。また、特許文献2に開示される技術では、全てのプロジェクタ間で同一の基準時刻が必須となる。   However, the above-described technique has the following problems. That is, in the technique disclosed in Patent Document 1, even if the time difference is eliminated by the synchronization control unit that compares the vertical synchronization signal on the master side and the vertical synchronization signal on the slave side, there is a delay in the transmission of the synchronization signal itself. The output result is not always a synchronized result. In the technique disclosed in Patent Document 2, the same reference time is essential for all projectors.

そこで、本発明の目的は、投影される複数の画像データ間の同期を容易にとることにある。   Therefore, an object of the present invention is to easily synchronize a plurality of projected image data.

本発明の画像投影装置は、一つの画像データを複数の画像データに分割する分割手段と、前記複数の画像データにおける所定の領域に所定の情報を付加する付加手段と、前記複数の画像データ間で前記所定の領域が重ね合わされた状態で、前記所定の情報が付加された前記複数の画像データを投影する投影手段と、前記投影手段により投影された前記複数の画像データを撮像する撮像手段と、前記撮像手段により撮像された前記所定の領域に該当する画像データに基づいて、前記複数の画像データ間の同期判定を行う判定手段と、前記判定手段による判定結果に基づいて、前記投影手段によって前記複数の画像データが投影されるタイミングを調整する調整手段とを有することを特徴とする。   An image projection apparatus according to the present invention includes a dividing unit that divides one image data into a plurality of image data, an adding unit that adds predetermined information to a predetermined area in the plurality of image data, and a plurality of image data. And projecting means for projecting the plurality of image data to which the predetermined information is added in a state where the predetermined area is overlaid; and imaging means for capturing the plurality of image data projected by the projecting means; A determination unit that performs synchronization determination between the plurality of image data based on the image data corresponding to the predetermined region imaged by the imaging unit, and a projection unit that determines based on a determination result by the determination unit. Adjusting means for adjusting a timing at which the plurality of image data are projected.

本発明によれば、投影される複数の画像データ間の同期を容易にとることが可能となる。   According to the present invention, it is possible to easily synchronize a plurality of projected image data.

本発明の実施形態に係るマルチプロジェクタシステムの主要部の構成を示す図である。It is a figure which shows the structure of the principal part of the multi projector system which concerns on embodiment of this invention. 入力画像データ、エッジブレンド処理済み画像データ、及び、重なり領域情報の例を示す図である。It is a figure which shows the example of input image data, edge blend processed image data, and overlap area information. 本発明の実施形態で用いる検出記号の例を示す図である。It is a figure which shows the example of the detection symbol used by embodiment of this invention. 画像データ1、2の投影期間、及び、撮像タイミングの例を示す図である。It is a figure which shows the example of the projection period of image data 1 and 2, and an imaging timing. 画像データ1上の検出記号、画像データ2上の検出記号、重畳後の検出記号、及び、撮像される検出記号を示す図である。It is a figure which shows the detection symbol on the image data 1, the detection symbol on the image data 2, the detection symbol after superimposition, and the detection symbol imaged. 各色の持つ色の成分の例を示す図である。It is a figure which shows the example of the component of the color which each color has. 画像データ1、画像データ2及び撮像タイミングを示す図である。It is a figure which shows the image data 1, the image data 2, and an imaging timing. 画像データ1上の検出記号、画像データ2上の検出記号、重畳後の検出記号、及び、撮像される検出記号を示す図である。It is a figure which shows the detection symbol on the image data 1, the detection symbol on the image data 2, the detection symbol after superimposition, and the detection symbol imaged. 各色の持つ色の成分の例を示す図である。It is a figure which shows the example of the component of the color which each color has. 本発明の実施形態に係るマルチプロジェクタシステムの処理を示すフローチャートである。It is a flowchart which shows the process of the multi projector system which concerns on embodiment of this invention.

以下、本発明を適用した好適な実施形態を、添付図面を参照しながら詳細に説明する。ここでは、1つの入力画像データを2つのプロジェクタ夫々によって投影される画像データに分割し、2つのプロジェクタによって投影される各画像データの端部を重ね合わせて表示する例について説明する。   DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments to which the invention is applied will be described in detail with reference to the accompanying drawings. Here, an example will be described in which one input image data is divided into image data projected by two projectors, and ends of the respective image data projected by the two projectors are superimposed and displayed.

図1は、本発明の実施形態に係るマルチプロジェクタシステムの主要部の構成を示す図である。図1に示すように、本実施形態に係るマルチプロジェクタシステムは、画像分割部101、検出記号決定部102、検出記号付加部103、出力タイミング調整部104、画像投影部105及び出力タイミング検出部106を備える。なお、本実施形態に係るマルチプロジェクタシステムは、画像投影装置の例となる構成である。   FIG. 1 is a diagram showing a configuration of main parts of a multi-projector system according to an embodiment of the present invention. As shown in FIG. 1, the multi-projector system according to the present embodiment includes an image dividing unit 101, a detection symbol determination unit 102, a detection symbol addition unit 103, an output timing adjustment unit 104, an image projection unit 105, and an output timing detection unit 106. Is provided. Note that the multi-projector system according to the present embodiment is an example of an image projection apparatus.

画像分割部101は、1つの入力画像データを2つのプロジェクタ夫々によって投影される画像データに分割する。検出記号決定部102は、投影される各画像データに付加する検出記号を決定する。検出記号付加部103は、検出記号決定部102により決定された検出記号を、投影される各画像データに付加する。出力タイミング調整部104は、検出記号が付加された各画像データの出力タイミングをプロジェクタ毎に調整する。画像投影部105は、検出記号が付加された画像データを投影する。出力タイミング検出部106は、投影された画像データ上での検出記号を重ね合わせた結果を取得し、複数のプロジェクタ間の出力タイミング情報を検出する。   The image dividing unit 101 divides one input image data into image data projected by two projectors. The detection symbol determination unit 102 determines a detection symbol to be added to each image data to be projected. The detection symbol adding unit 103 adds the detection symbol determined by the detection symbol determination unit 102 to each image data to be projected. The output timing adjustment unit 104 adjusts the output timing of each image data to which the detection symbol is added for each projector. The image projection unit 105 projects the image data to which the detection symbol is added. The output timing detection unit 106 obtains a result of superimposing detection symbols on the projected image data, and detects output timing information between a plurality of projectors.

本実施形態において、2つのプロジェクタによって投影される画像データは、投影後にそれぞれの端部が重ね合わせて表示されるエッジブレンド処理が施された画像データである。エッジブレンド処理自体は、公知の技術であり、近年複数のプロジェクタで1つの画像を表示する際に用いられる技術である。   In the present embodiment, the image data projected by the two projectors is image data that has been subjected to edge blending processing in which the respective end portions are superimposed and displayed after projection. The edge blending process itself is a known technique, and is a technique used in recent years when displaying one image with a plurality of projectors.

画像分割部101は、入力画像データ107を入力とし、入力画像データ107を2つの画像データに分割し、分割した各画像データに対してエッジブレンド処理を施すことにより、2つのエッジブレンド処理済み画像データ108を出力する。また、画像分割部101は、エッジブレンド処理により重なり合う領域を示す重なり領域情報109を検出記号決定部102に対して出力する。   The image dividing unit 101 receives the input image data 107, divides the input image data 107 into two image data, and performs edge blend processing on each of the divided image data to thereby obtain two edge blend processed images. Data 108 is output. Further, the image dividing unit 101 outputs overlapping area information 109 indicating an overlapping area by the edge blending process to the detection symbol determining unit 102.

図2(a)は、入力画像データ107の例を示している。図2(b)は、2つのエッジブレンド処理済み画像データ108の例を示している。即ち、図2(b)の202及び204は、2つのプロジェクタによって投影されるエッジブレンド処理済み画像データである。図2(b)の203及び205は、エッジブレンド処理済み画像データのうち、エッジブレンド処理が施された領域(以下、エッジブレンド処理領域と称す)である。図2(c)は、重なり領域情報109の一例を示している。図2(c)に示すように、重なり領域情報109は、出力領域206及び208と重なり領域207及び209とから構成される。検出記号決定部102は、2つのエッジブレンド処理済み画像データ108に対して付加する検出記号を決定する処理を行う。   FIG. 2A shows an example of the input image data 107. FIG. 2B shows an example of two edge blend processed image data 108. That is, 202 and 204 in FIG. 2B are edge blended image data projected by two projectors. Reference numerals 203 and 205 in FIG. 2B denote areas on which edge blend processing has been performed (hereinafter referred to as edge blend processing regions) in the edge blend processed image data. FIG. 2C shows an example of the overlapping area information 109. As shown in FIG. 2C, the overlapping area information 109 is composed of output areas 206 and 208 and overlapping areas 207 and 209. The detection symbol determination unit 102 performs processing for determining detection symbols to be added to the two edge blend processed image data 108.

ここで、図3は、本発明の実施形態で用いる検出記号の一例を示す図である。図3(a)は、2つのプロジェクタから投影される画像データのエッジブレンド処理領域に重ね合わせる検出記号301、302を示している。図3(a)に示すように、エッジブレンド処理領域に重ね合わせる検出記号301、302は、時刻の変化に伴ってその位置が変化する。検出記号301、302の位置の変化速度は、検出記号301、302が移動する垂直方向のライン数と、検出記号301、302の変化が何フレームに1回起きるかとで定義される。図3(a)では、1フレーム毎に検出記号301、302を変化させているが、数フレーム毎に変化させてもよい。   Here, FIG. 3 is a diagram illustrating an example of detection symbols used in the embodiment of the present invention. FIG. 3A shows detection symbols 301 and 302 that are superimposed on the edge blend processing region of image data projected from two projectors. As shown in FIG. 3A, the positions of the detection symbols 301 and 302 to be superimposed on the edge blend processing region change with time. The change speed of the position of the detection symbols 301 and 302 is defined by the number of vertical lines along which the detection symbols 301 and 302 move and the number of frames in which the change of the detection symbols 301 and 302 occurs. In FIG. 3A, the detection symbols 301 and 302 are changed every frame, but may be changed every several frames.

図3(b)及び図3(c)は、2つのプロジェクタから投影されるエッジブレンド処理済み画像データのエッジブレンド処理領域同士を重ね合わせた際の検出記号の重なり方を示している。即ち、図3(b)は、2つのプロジェクタから投影された画像データ同士の同期がとれている場合の検出記号の重なり方を示している。画像データ同士の同期がとれている場合、検出記号同士がずれなく重なり合うことで、重ね合わせた結果の色を持つ重畳後の検出記号303のみが観測される。図3(c)は、2つのプロジェクタから投影される画像データ同士の同期がとれていない場合の検出記号の重なり方を示している。画像データ同士の同期がとれていない場合、検出記号同士を重ね合わせた結果にずれが生じ、重ね合わせた結果の色を持つ重畳後の検出記号305と、重ね合わせる前の検出記号の色と重ね合わせた後の検出記号の色とがある割合で混ざった色の検出記号304及び検出記号306が観測される。   FIGS. 3B and 3C show how the detection symbols overlap when the edge blend processing regions of the edge blend processed image data projected from the two projectors are overlapped. That is, FIG. 3B shows how the detection symbols overlap when the image data projected from the two projectors is synchronized. When the image data are synchronized with each other, the detected symbols overlap with each other without deviation, so that only the detected symbol 303 after superposition having the color resulting from the superposition is observed. FIG. 3C shows how the detection symbols overlap when the image data projected from the two projectors is not synchronized. If the image data is not synchronized, the result of superimposing the detection symbols is shifted, and the detection symbol 305 after superimposition having the color resulting from the superimposition is superimposed on the color of the detection symbol before superimposition. A detection symbol 304 and a detection symbol 306 having a color mixed with the color of the detection symbol after being combined are observed.

検出記号の決定の際には、検出記号決定部102は、画像分割部101より重なり領域情報109を入力し、重なり領域情報109に含まれる重なり領域の形状より、各画像データに重畳させる検出記号110を決定する。そして、検出記号決定部102は、検出記号付加部103に対して検出記号110を出力する。   When determining the detection symbol, the detection symbol determination unit 102 receives the overlap region information 109 from the image division unit 101, and detects the detection symbol to be superimposed on each image data based on the shape of the overlap region included in the overlap region information 109. 110 is determined. Then, the detection symbol determination unit 102 outputs the detection symbol 110 to the detection symbol addition unit 103.

また、検出記号決定部102は、出力タイミング検出部106に対して同期判定情報112を出力する。同期判定情報112は、同期がとれているかどうかの判定をするための情報であって、同期がとれていない場合には、どれだけ同期がずれているかを判定するための情報である。   In addition, the detection symbol determination unit 102 outputs synchronization determination information 112 to the output timing detection unit 106. The synchronization determination information 112 is information for determining whether or not synchronization is achieved, and is information for determining how much the synchronization is shifted when synchronization is not achieved.

また、検出記号決定部102は、出力タイミング検出部106から同期判定結果113を入力し、同期判定結果113に応じて、検出記号付加部103に対して出力する検出記号110を変更する。   The detection symbol determination unit 102 receives the synchronization determination result 113 from the output timing detection unit 106 and changes the detection symbol 110 output to the detection symbol addition unit 103 according to the synchronization determination result 113.

検出記号付加部103は、エッジブレンド処理済み画像データ108に対して、検出記号決定部102より入力した検出記号110を付加し、検出記号付加済み画像データ111を出力する。検出記号の付加処理は、OSD等のグラフィックスを画像データに対して重ね合わせる処理と同様の透過合成処理となる。   The detection symbol addition unit 103 adds the detection symbol 110 input from the detection symbol determination unit 102 to the edge blended image data 108 and outputs the detection symbol-added image data 111. The detection symbol adding process is a transparent synthesis process similar to the process of superimposing graphics such as OSD on image data.

出力タイミング調整部104は、検出記号付加済み画像データ111を入力し、出力タイミング検出部106から入力するタイミング調整量114に応じて出力タイミングを調整し、出力タイミング調整済み画像データ115を出力する。出力タイミングの調整は、複数の検出記号付加済み画像データ111それぞれに対して独立に行われる。   The output timing adjustment unit 104 receives the detection symbol-added image data 111, adjusts the output timing according to the timing adjustment amount 114 input from the output timing detection unit 106, and outputs the output timing adjusted image data 115. The adjustment of the output timing is performed independently for each of the plurality of detection symbol-added image data 111.

画像投影部105は、出力タイミング調整済み画像データ115を入力し、投影画像データ116を出力する。本実施形態では、画像投影部105は、液晶プロジェクタとする。また、それぞれの液晶プロジェクタは、同一の出力フレームレートを持つものとする。   The image projection unit 105 receives the output timing adjusted image data 115 and outputs the projection image data 116. In the present embodiment, the image projection unit 105 is a liquid crystal projector. Each liquid crystal projector has the same output frame rate.

出力タイミング検出部106は、投影画像データ116から検出記号重なり情報117を取得する。検出記号重なり情報117の取得は、検出記号同士の重なり合った領域を撮像することにより行われる。撮像期間は、検出記号の変化が生じる最少のフレーム数とする。例えば、検出記号を1フレーム毎に変化させている場合は撮像期間を1フレームとし、検出記号を3フレーム毎に変化させている場合は撮像期間を3フレームとする。   The output timing detection unit 106 acquires detected symbol overlap information 117 from the projection image data 116. The detection symbol overlap information 117 is acquired by imaging an area where detection symbols overlap. The imaging period is the minimum number of frames in which the detection symbol changes. For example, when the detection symbol is changed every frame, the imaging period is 1 frame, and when the detection symbol is changed every 3 frames, the imaging period is 3 frames.

また、出力タイミング検出部106は、取得した検出記号重なり情報117より、同期がとれているか否かを判定する。この判定は、検出記号重なり情報117と検出記号決定部102から入力する同期判定情報112とを比較することにより行われる。   Further, the output timing detection unit 106 determines whether or not synchronization is established from the acquired detected symbol overlap information 117. This determination is performed by comparing the detected symbol overlap information 117 and the synchronization determination information 112 input from the detected symbol determination unit 102.

また、出力タイミング検出部106は、同期がとれているか否かの判定結果である同期判定結果113を検出記号決定部102に対して出力する。また、出力タイミング検出部106は、同期がとれているか否かの判定より出力タイミングの調整が必要となった場合、タイミング調整量114を出力タイミング調整部104に対して出力する。タイミング調整量114は、同期判定を行った際に併せて算出される、複数のプロジェクタの出力間の相対的なずれより決定される。   Further, the output timing detection unit 106 outputs a synchronization determination result 113, which is a determination result of whether or not synchronization is established, to the detected symbol determination unit 102. Further, the output timing detection unit 106 outputs the timing adjustment amount 114 to the output timing adjustment unit 104 when it is necessary to adjust the output timing based on the determination of whether or not synchronization is established. The timing adjustment amount 114 is determined from the relative deviation between the outputs of a plurality of projectors, which is calculated together with the synchronization determination.

ここで、同期がとれているか否かの判定方法を、図4〜図9を用いて説明する。図4は、一方のプロジェクタから投影される画像データ1のタイミング、他方のプロジェクタから投影される画像データ2のタイミング、及び、撮像タイミングを示す図である。図5は、画像データ1上の検出記号、画像データ2上の検出記号、重畳後の検出記号、及び、撮像される検出記号を示す図である。   Here, a method for determining whether or not synchronization is established will be described with reference to FIGS. FIG. 4 is a diagram illustrating the timing of the image data 1 projected from one projector, the timing of the image data 2 projected from the other projector, and the imaging timing. FIG. 5 is a diagram showing detection symbols on the image data 1, detection symbols on the image data 2, detection symbols after superimposition, and detection symbols to be imaged.

図4において、401は、画像データ1の(N−1)フレーム目が投影される期間を示している。同様に、402は、画像データ1のNフレーム目が投影される期間を示している。403は、画像データ1の(N+1)フレーム目が投影される期間を示している。404は、画像データ2の(N−1)フレーム目が投影される期間を示している。405は、画像データ2のNフレーム目が投影される期間を示している。406は、画像データ2の(N+1)フレーム目が投影される期間を示している。407は、撮像期間を示している。撮像期間407内の408は、画像データ1の(N−1)フレームと画像データ2の(N−1)フレームとの撮像期間を示している。撮像期間407内の409は、画像データ1のNフレームと画像データ2のNフレームとの撮像期間を示している。撮像期間407内の410は、画像データ1の(N+1)フレームと画像データ2の(N+1)フレームとの撮像期間を示している。   In FIG. 4, 401 indicates a period during which the (N-1) th frame of the image data 1 is projected. Similarly, reference numeral 402 denotes a period during which the Nth frame of the image data 1 is projected. Reference numeral 403 denotes a period during which the (N + 1) th frame of the image data 1 is projected. Reference numeral 404 denotes a period during which the (N−1) th frame of the image data 2 is projected. Reference numeral 405 denotes a period during which the Nth frame of the image data 2 is projected. Reference numeral 406 denotes a period during which the (N + 1) th frame of the image data 2 is projected. Reference numeral 407 denotes an imaging period. Reference numeral 408 in the imaging period 407 indicates an imaging period of the (N−1) frame of the image data 1 and the (N−1) frame of the image data 2. Reference numeral 409 in the imaging period 407 indicates an imaging period of N frames of the image data 1 and N frames of the image data 2. Reference numeral 410 in the imaging period 407 indicates the imaging period of the (N + 1) frame of the image data 1 and the (N + 1) frame of the image data 2.

501は、期間401に投影される画像データ1の(N−1)フレーム目のエッジブレンド処理領域を示している。502は、期間401に投影される画像データ1の(N−1)フレーム目の検出記号を示している。同様に、503は、期間402に投影される画像データ1のNフレーム目のエッジブレンド処理領域を示している。504は、期間402に投影される画像データ1のNフレーム目の検出記号を示している。505は、期間404に投影される画像データ2の(N−1)フレーム目のエッジブレンド処理領域を示している。506は、期間404に投影される画像データ2の(N−1)フレーム目の検出記号を示している。507は、期間405に投影される画像データ2のNフレーム目のエッジブレンド処理領域を示している。508は、期間405に投影される画像データ2のNフレーム目の検出記号を示している。509は、期間408の重畳後のエッジブレンド処理領域を示している。510は、期間408における重畳後の検出記号を示している。同様に、511は、期間409の重畳後のエッジブレンド処理領域を示している。512、513及び514は、期間409における重畳後の検出記号を示している。515は、期間410の重畳後のエッジブレンド処理領域を示している。516は、期間410における重畳後の検出記号を示している。517は、撮像期間407に撮像されるエッジブレンド処理領域を示している。518、519及び520は、撮像期間407に撮像される重畳後の検出記号を示している。撮像期間407に撮像される検出記号は、期間408、期間409及び期間410における重畳後の検出記号をそれぞれの期間の長さで重みづけして合成されたものとなる。重畳後の検出記号518の領域は、撮像期間407内で常に同じであるため、検出記号510、512及び516と同一の色が検出される。重畳後の検出記号519の領域は、期間408においては検出記号510であり、期間409においては検出記号513であり、期間410においては無であるため、それらを期間の長さで重みづけして足し合わせた色となる。重畳後の検出記号520の領域は、期間408においては無であり、期間409おいては検出記号514であり、期間410においては検出記号516であるため、それらを期間の長さで重みづけして足し合わせた色となる。出力タイミング検出部106は、撮像される検出記号518、519及び520の各領域のサイズ及び色により、画像データ1を投影するプロジェクタと画像データ2を投影するプロジェクタとの同期関係を検出することができる。   Reference numeral 501 denotes an edge blend processing area of the (N−1) th frame of the image data 1 projected in the period 401. Reference numeral 502 denotes a detection symbol of the (N−1) th frame of the image data 1 projected in the period 401. Similarly, reference numeral 503 denotes an edge blend processing area of the Nth frame of the image data 1 projected in the period 402. Reference numeral 504 denotes a detection symbol of the Nth frame of the image data 1 projected in the period 402. Reference numeral 505 denotes an edge blend processing region of the (N−1) th frame of the image data 2 projected in the period 404. Reference numeral 506 denotes a detection symbol of the (N−1) th frame of the image data 2 projected in the period 404. Reference numeral 507 denotes an edge blend processing area of the Nth frame of the image data 2 projected in the period 405. Reference numeral 508 denotes a detection symbol of the Nth frame of the image data 2 projected in the period 405. Reference numeral 509 denotes an edge blend processing region after the period 408 is superimposed. Reference numeral 510 denotes a detection symbol after superposition in the period 408. Similarly, reference numeral 511 denotes an edge blend processing region after the period 409 is superimposed. Reference numerals 512, 513, and 514 denote detection symbols after superposition in the period 409. Reference numeral 515 denotes an edge blend processing region after the period 410 is superimposed. Reference numeral 516 denotes a detection symbol after superposition in the period 410. Reference numeral 517 denotes an edge blend processing area that is imaged in the imaging period 407. Reference numerals 518, 519, and 520 indicate detection symbols after superposition that are imaged in the imaging period 407. The detection symbols imaged in the imaging period 407 are synthesized by weighting the detection symbols after superimposition in the periods 408, 409, and 410 by the length of each period. Since the region of the detection symbol 518 after superposition is always the same within the imaging period 407, the same color as the detection symbols 510, 512, and 516 is detected. The region of the detection symbol 519 after superimposition is the detection symbol 510 in the period 408, the detection symbol 513 in the period 409, and none in the period 410, so that they are weighted by the length of the period. The color is the sum of the colors. The region of the detection symbol 520 after the superimposition is not in the period 408, is the detection symbol 514 in the period 409, and is the detection symbol 516 in the period 410, so that they are weighted by the length of the period. And add the colors. The output timing detection unit 106 can detect the synchronization relationship between the projector that projects the image data 1 and the projector that projects the image data 2 based on the size and color of each area of the detection symbols 518, 519, and 520 to be imaged. it can.

ここで、同期関係検出時の計算方法について説明する。ここでの計算では、検出記号502及び504の持つ色をA、検出記号506及び508の持つ色をB、重畳後の検出記号510、512及び516の持つ、AとBとを重ね合わせた後の色をC、撮像される検出記号519の持つ色をD、撮像される検出記号520の持つ色をEとする。また、撮像期間407に対する期間408、期間409及び期間410の割合をそれぞれ10%、40%及び50%とする。即ち、この例では、画像データ2の出力タイミングが画像データ1の出力タイミングに対して、1フレーム期間の40%の時間遅れていることになる。   Here, a calculation method at the time of detecting the synchronization relationship will be described. In this calculation, the color of the detection symbols 502 and 504 is A, the color of the detection symbols 506 and 508 is B, and A and B of the detection symbols 510, 512, and 516 after superposition are superimposed. The color of the detected symbol 519 to be imaged is D, and the color of the detected symbol 520 to be imaged is E. Further, the ratios of the period 408, the period 409, and the period 410 to the imaging period 407 are 10%, 40%, and 50%, respectively. That is, in this example, the output timing of the image data 2 is delayed by 40% of one frame period with respect to the output timing of the image data 1.

図6(a)は、色Dの持つ色の成分を示している。図6(b)は、色Eの持つ色の成分を示している。出力タイミング検出部106は、画像データ1に重畳する検出記号の色A、画像データ2に重畳する検出記号の色B、及び、重畳後の検出記号の色Cを認識している。従って、出力タイミング検出部106は、色D及び色Eを検出した後、その成分を逆算することができ、図6(a)及び図6(b)に示した成分を算出する。この算出結果のうち、重畳前の検出記号の色A及び色Bの成分の割合が、画像データ1と画像データ2との相対的な前後関係を示す数値となる。この例では、検出記号の変化方向である下側の色Eに画像データ1に付加した検出記号の色である色Aが40%含まれている。つまり、画像データ1の出力は、画像データ2の出力に対して相対的に撮像期間の40%の時間だけ進んでいると算出できる。この例では、撮像期間は1フレームであるため、出力タイミング検出部106は、画像データ1は画像データ2に対して1フレームの40%の時間分、即ち、0.4フレーム分進んでいると判定する。   FIG. 6A shows the color components of the color D. FIG. 6B shows the color components of the color E. The output timing detection unit 106 recognizes the color A of the detection symbol superimposed on the image data 1, the color B of the detection symbol superimposed on the image data 2, and the color C of the detection symbol after superimposition. Therefore, after detecting the color D and the color E, the output timing detection unit 106 can reversely calculate the components, and calculates the components shown in FIGS. 6A and 6B. Among the calculation results, the ratio of the color A and color B components of the detection symbol before superimposition is a numerical value indicating the relative front-rear relationship between the image data 1 and the image data 2. In this example, 40% of the color A which is the color of the detection symbol added to the image data 1 is included in the lower color E which is the change direction of the detection symbol. In other words, it can be calculated that the output of the image data 1 is advanced by 40% of the imaging period relative to the output of the image data 2. In this example, since the imaging period is one frame, the output timing detection unit 106 determines that the image data 1 is advanced by 40% of one frame relative to the image data 2, that is, 0.4 frames. judge.

図7〜図9は、画像データ1と画像データ2とが1フレーム以上ずれている例を示している。図7は、画像データ1、画像データ2及び撮像タイミングを示している。図8は、画像データ1上の検出記号、画像データ2上の検出記号、重畳後の検出記号、及び、撮像される検出記号を示している。   7 to 9 show examples in which the image data 1 and the image data 2 are shifted by one frame or more. FIG. 7 shows image data 1, image data 2, and imaging timing. FIG. 8 shows detection symbols on the image data 1, detection symbols on the image data 2, detection symbols after superimposition, and detection symbols to be imaged.

821は、撮像期間707に撮像されるエッジブレンド処理領域を示しており、822〜826は、撮像される重畳後の検出記号を示している。ここでも図4〜図6と同様に、撮像した重畳後の検出記号からの同期ずれの計算方法について説明する。ここでの計算では、検出記号802及び804の持つ色をA、検出記号806及び808の持つ色をBとする。また、重畳後の検出記号810、814及び818の持つ、AとBとを重ね合わせた後の色をCとする。また、撮像される検出記号823の持つ色をD、撮像される検出記号824の持つ色をE、撮像される検出記号825の持つ色をF、撮像される検出記号826の持つ色をGとする。   Reference numeral 821 denotes an edge blend processing area imaged in the imaging period 707, and reference numerals 822 to 826 denote superposed detection symbols to be imaged. Here, as in FIGS. 4 to 6, a method of calculating the synchronization deviation from the detected detection symbol after superimposition will be described. In this calculation, the color of the detection symbols 802 and 804 is A, and the color of the detection symbols 806 and 808 is B. A color after superimposing A and B of the detection symbols 810, 814, and 818 after superposition is C. Further, the color of the detection symbol 823 to be imaged is D, the color of the detection symbol 824 to be imaged is E, the color of the detection symbol 825 to be imaged is F, and the color of the detection symbol 826 to be imaged is G. To do.

また、撮像期間707に対する期間708、期間709及び期間710の割合をそれぞれ10%、50%及び40%とする。即ち、図7〜図9に示す例では、画像データ1の出力タイミングが画像データ2の出力タイミングに対して、1フレーム分と1フレーム期間の50%の時間遅れていることになる。   The ratios of the period 708, the period 709, and the period 710 with respect to the imaging period 707 are 10%, 50%, and 40%, respectively. That is, in the examples shown in FIGS. 7 to 9, the output timing of the image data 1 is delayed by one frame and 50% of one frame period with respect to the output timing of the image data 2.

図9(a)は、色Dの持つ色の成分を示している。図9(b)は、色Eの持つ色の成分を示している。図9(c)は、色Fの持つ色の成分を示している。図9(d)は、色Gの持つ色の成分を示している。この成分のうち、重畳前の検出記号の色A及び色Bの成分の割合の総和が、画像データ1と画像データ2との相対的な前後関係を示す数値となる。この例では、検出記号の変化方向である下側の色Fに画像データ2に付加した検出記号の色である色Bが60%、色Gに色Bが90%含まれている。つまり、画像データ2の出力は、画像データ1の出力に対して相対的に撮像期間の150%に相当する時間だけ進んでいると算出できる。この例においても、撮像期間は1フレームであるので、出力タイミング検出部106は、画像データ2が画像データ1に対して1フレームの150%の時間分、即ち、1.5フレーム分進んでいると判定される。   FIG. 9A shows the color components of the color D. FIG. 9B shows the color components of the color E. FIG. 9C shows the color components of the color F. FIG. 9D shows the color components of the color G. Among these components, the sum of the ratios of the color A and color B components of the detection symbol before superimposition is a numerical value indicating the relative front-rear relationship between the image data 1 and the image data 2. In this example, 60% of the color B that is the color of the detection symbol added to the image data 2 is included in the lower color F that is the change direction of the detection symbol, and 90% of the color B is included in the color G. That is, it can be calculated that the output of the image data 2 is advanced by a time corresponding to 150% of the imaging period relative to the output of the image data 1. Also in this example, since the imaging period is one frame, the output timing detection unit 106 advances the image data 2 by 150% of one frame relative to the image data 1, that is, 1.5 frames. It is determined.

以上が、出力タイミング検出部106によって行われる同期がとれているか否かの判定方法となる。また、同期がとれていると判定する基準は、相対的な差がある閾値以下であるときという判定方法にしてもよい。これは、実現したい同期の精度により決めればよい。   The above is the determination method for determining whether or not synchronization is performed by the output timing detection unit 106. Further, the criterion for determining that synchronization is established may be a determination method in which the relative difference is equal to or less than a certain threshold value. This may be determined according to the accuracy of synchronization desired to be realized.

次に、図10を参照しながら、本実施形態に係るマルチプロジェクタシステムの処理について説明する。図10に示すフローチャートは、大きく2つのフェーズに分かれる。1つは、ステップS1001〜S1005までの検出記号の変化タイミング調整フェーズであり、もう1つは、ステップS1006〜S1011までの出力タイミング調整フェーズである。なお、図10に示す処理は、本実施形態に係るマルチプロジェクタシステムの内部に備えられるCPUがROM等の記録媒体から必要なプログラムやデータを読み出し、RAMに展開して実行することにより実現する処理である。   Next, processing of the multi-projector system according to the present embodiment will be described with reference to FIG. The flowchart shown in FIG. 10 is roughly divided into two phases. One is a detection symbol change timing adjustment phase from steps S1001 to S1005, and the other is an output timing adjustment phase from steps S1006 to S1011. Note that the processing shown in FIG. 10 is realized by a CPU provided in the multi-projector system according to the present embodiment reading out a necessary program or data from a recording medium such as a ROM, developing it in the RAM, and executing it. It is.

検出記号の変化タイミング調整フェーズでは、複数のプロジェクタ間の出力タイミングを調整する前の状態で検出記号を重ね合わせた結果、図3(b)に示すように、検出記号同士がちょうど重なって見えるように、検出記号の変化速度を調整する(遅くする)。これにより、初期の検出記号の変化速度で複数のプロジェクタのうちのどのプロジェクタの出力タイミングが相対的に遅れているかの判別がつかなくなることを回避する。また、出力タイミング調整フェーズでは、プロジェクタからの出力タイミングの調整と検出記号の変化速度の変更とを繰り返すことにより、複数のプロジェクタ間の同期を調整する。   In the detection symbol change timing adjustment phase, as shown in FIG. 3B, the detection symbols appear to overlap each other as a result of overlapping the detection symbols in a state before adjusting the output timing between the plurality of projectors. Next, the change speed of the detection symbol is adjusted (slowed down). Thereby, it is avoided that it becomes impossible to determine which of the plurality of projectors the output timing of the projector is relatively delayed at the initial change speed of the detected symbol. Further, in the output timing adjustment phase, the synchronization between the plurality of projectors is adjusted by repeating the adjustment of the output timing from the projector and the change of the detection symbol change speed.

ステップS1001において、検出記号決定部102は、付加する検出記号と初期変化速度とを決定する。初期の検出記号の決定に際しては、重なり領域情報109に含まれる重なり領域207及び重なり領域209が用いられる。検出記号決定部102は、重なり領域207及び重なり領域209のサイズより、各プロジェクタの出力画像データに付加する検出記号のサイズ、色及び検出記号の初期の検出記号の変化速度を決定する。その結果、検出記号決定部102は、複数のプロジェクタのそれぞれの出力に対して付加する検出記号を検出記号301及び検出記号302のように決定する。初期の検出記号の変化速度は、必ずしも1フレーム毎に変化しなくてもよい。   In step S1001, the detection symbol determination unit 102 determines a detection symbol to be added and an initial change speed. In determining the initial detection symbol, the overlapping region 207 and the overlapping region 209 included in the overlapping region information 109 are used. The detection symbol determination unit 102 determines the size and color of the detection symbol added to the output image data of each projector and the change rate of the initial detection symbol of the detection symbol based on the sizes of the overlapping region 207 and the overlapping region 209. As a result, the detection symbol determination unit 102 determines detection symbols to be added to the outputs of the plurality of projectors as the detection symbol 301 and the detection symbol 302. The change speed of the initial detection symbol does not necessarily change every frame.

ステップS1002において、出力タイミング検出部106は、出力タイミングの検出を行う。出力タイミングの検出方法は、上述したとおり、投影画像データ116内において検出記号が重なり合った領域から検出記号重なり情報117を取得することにより行われる。   In step S1002, the output timing detection unit 106 detects the output timing. As described above, the output timing detection method is performed by acquiring the detection symbol overlap information 117 from the region where the detection symbols overlap in the projection image data 116.

ステップS1003において、出力タイミング検出部106は、出力タイミングの検出結果から同期判定を行う。同期判定は、ステップS1002で得られた検出結果と、検出記号決定部102から入力する同期判定情報112とに基づいて行われる。同期判定情報112は、検出記号決定部102によって決定された検出記号301及び検出記号302と検出記号の変化速度情報とである。出力タイミング検出部106は、検出記号301及び検出記号302より、同期がとれている場合の重畳結果が重畳後の検出記号303となることを計算する。そして、上述した判定方法により、同期ずれがあるか否かの判定と同期ずれがある場合には相対的なずれの量の算出とが行われる。   In step S1003, the output timing detection unit 106 performs synchronization determination from the output timing detection result. The synchronization determination is performed based on the detection result obtained in step S1002 and the synchronization determination information 112 input from the detected symbol determination unit 102. The synchronization determination information 112 is the detection symbol 301 and the detection symbol 302 determined by the detection symbol determination unit 102 and the change rate information of the detection symbol. Based on the detection symbol 301 and the detection symbol 302, the output timing detection unit 106 calculates that the result of superimposition when synchronization is obtained becomes the detection symbol 303 after superimposition. Then, according to the determination method described above, it is determined whether or not there is a synchronization shift, and if there is a synchronization shift, a relative shift amount is calculated.

ステップS1004において、検出記号決定部102は、同期ずれがあったか否かを判定する。同期ずれがあった場合、処理はステップS1005に移行する。一方、同期ずれがなかった場合、処理はステップS1006に移行する。   In step S1004, the detected symbol determination unit 102 determines whether or not there is a synchronization loss. If there is a synchronization error, the process proceeds to step S1005. On the other hand, if there is no synchronization loss, the process proceeds to step S1006.

ステップS1005において、検出記号決定部102は、出力タイミング検出部106より入力した同期判定結果113を用いて、画像データに付加する検出記号の変更を行う。同期判定結果113には、2つの画像データの相対的な速度差が含まれる。本ステップS1005では、撮像期間に対しての相対的な速度差が同期ずれありと判定される閾値よりも小さくなるように、検出記号の変化速度を小さくする。以上のステップS1001〜S1005により、検出記号の変化タイミング調整フェーズが完了する。   In step S <b> 1005, the detection symbol determination unit 102 changes the detection symbol to be added to the image data using the synchronization determination result 113 input from the output timing detection unit 106. The synchronization determination result 113 includes a relative speed difference between the two image data. In step S1005, the change speed of the detected symbol is reduced so that the relative speed difference with respect to the imaging period is smaller than the threshold value for determining that there is a synchronization shift. Through the steps S1001 to S1005, the detection symbol change timing adjustment phase is completed.

ステップS1006において、検出記号決定部102は、目標の同期精度に到達しているか否かを判定する。なお、ステップS1006の直前の状態は、同期ずれがない状態となっている。本ステップ1006では、同期ずれがないと判定したときの閾値が目標の同期精度以下であるか否かが判定される。同期ずれがないと判定したときの閾値が目標の同期精度以下である場合、処理が終了する。一方、同期ずれがないと判定したときの閾値が目標の同期精度よりも大きい場合、処理はステップS1007に移行する。   In step S1006, the detected symbol determination unit 102 determines whether or not the target synchronization accuracy has been reached. Note that the state immediately before step S1006 is a state in which there is no synchronization shift. In this step 1006, it is determined whether or not the threshold when it is determined that there is no synchronization deviation is equal to or less than the target synchronization accuracy. If the threshold value when it is determined that there is no synchronization shift is equal to or less than the target synchronization accuracy, the process ends. On the other hand, if the threshold value when it is determined that there is no synchronization deviation is larger than the target synchronization accuracy, the process proceeds to step S1007.

ステップS1007において、検出記号決定部102は、出力タイミング検出部106より入力した同期判定結果113を用いて、画像データに付加する検出記号の変更を行う。本ステップS1007では、検出記号決定部102は、ステップS1005とは逆に、検出記号の変化速度を大きくする。検出記号決定部102は、変化速度を大きくすると同時に、同期ずれありと判定する閾値を小さくする。本ステップ1007が繰り返されることにより、検出記号の変化速度が徐々に大きくなり、閾値が徐々に小さくなる。検出記号決定部102は、検出記号の変更を行った後、変更後の検出記号を検出記号付加部103に出力する。また、検出記号決定部102は、同期判定情報112を出力タイミング検出部106に出力する。   In step S <b> 1007, the detection symbol determination unit 102 changes the detection symbol to be added to the image data using the synchronization determination result 113 input from the output timing detection unit 106. In step S1007, the detection symbol determination unit 102 increases the change rate of the detection symbol, contrary to step S1005. The detection symbol determination unit 102 increases the rate of change and simultaneously decreases the threshold value for determining that there is a synchronization shift. By repeating this step 1007, the detection symbol change rate gradually increases and the threshold value gradually decreases. The detection symbol determination unit 102 changes the detection symbol, and then outputs the detection symbol after the change to the detection symbol addition unit 103. Further, the detection symbol determination unit 102 outputs the synchronization determination information 112 to the output timing detection unit 106.

ステップS1008において、出力タイミング検出部106は、出力タイミングを検出する。本ステップS1008は、ステップS1002と同様の処理である。ステップS1009において、出力タイミング検出部106は、出力タイミングの検出結果から同期判定を行う。ステップS1009では、ステップS1003の処理に加え、同期判定により同期ずれがあると判定された場合、相対的なずれの量がタイミング調整量114として出力タイミング調整部104に対して出力される。   In step S1008, the output timing detection unit 106 detects the output timing. This step S1008 is the same processing as step S1002. In step S1009, the output timing detection unit 106 performs synchronization determination from the output timing detection result. In step S1009, in addition to the processing in step S1003, when it is determined by synchronization determination that there is a synchronization shift, the relative shift amount is output to the output timing adjustment unit 104 as the timing adjustment amount 114.

ステップS1010において、出力タイミング検出部106は、同期ずれがあったか否かを判定する。同期ずれがあった場合、処理はステップS1011に移行する。一方、同期ずれがなかった場合、処理はステップS1006に戻る。   In step S1010, the output timing detection unit 106 determines whether or not there is a synchronization error. If there is a synchronization loss, the process proceeds to step S1011. On the other hand, if there is no synchronization loss, the process returns to step S1006.

ステップS1011において、出力タイミング調整部104は、出力タイミングの調整を行う。出力タイミング調整部104は、出力タイミング検出部106からタイミング調整量114を入力する。基本的には、タイミング調整量分、相対的に進んでいる方の画像データの出力を遅らせることでタイミングの調整が行われる。画像データの出力を遅らせる方法は、内部にラインバッファやフレームバッファを保持し、調整量分の期間、バッファに保持することで行われる。但し、本ステップを複数回行うことにより、遅延させすぎていることにより相対的に遅れていると判定されてしまった場合、タイミング調整量分、遅延量を減らすことでタイミングの調整が行われる。   In step S1011, the output timing adjustment unit 104 adjusts the output timing. The output timing adjustment unit 104 receives the timing adjustment amount 114 from the output timing detection unit 106. Basically, the timing adjustment is performed by delaying the output of the relatively advanced image data by the timing adjustment amount. A method of delaying the output of image data is performed by holding a line buffer or a frame buffer inside and holding it in the buffer for a period corresponding to the adjustment amount. However, if it is determined that the delay is excessively delayed by performing this step a plurality of times, the timing is adjusted by reducing the delay amount by the timing adjustment amount.

以上のステップS1006〜S1011により、出力タイミング調整フェーズが完了する。このフェーズの完了により、複数のプロジェクタ間の出力の同期が実現される。   The output timing adjustment phase is completed through steps S1006 to S1011 described above. By completing this phase, output synchronization among a plurality of projectors is realized.

上述した実施形態によれば、複数のプロジェクタで1つの画面を構成するマルチプロジェクタシステムにおいて、各プロジェクタからの投影画像データ間の投影タイミングの同期を容易にとることができる。   According to the above-described embodiment, in a multi-projector system in which a plurality of projectors form one screen, it is possible to easily synchronize the projection timing between projection image data from each projector.

また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。   The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

101:画像分割部、102:検出記号決定部、103:検出記号付加部、104:出力タイミング調整部、105:画像投影部、106:出力タイミング検出部、107:入力画像データ、116:投影画像データ、117:検出記号重なり情報   101: Image division unit, 102: Detection symbol determination unit, 103: Detection symbol addition unit, 104: Output timing adjustment unit, 105: Image projection unit, 106: Output timing detection unit, 107: Input image data, 116: Projection image Data, 117: Detection symbol overlap information

Claims (6)

一つの画像データを複数の画像データに分割する分割手段と、
前記複数の画像データにおける所定の領域に所定の情報を付加する付加手段と、
前記複数の画像データ間で前記所定の領域が重ね合わされた状態で、前記所定の情報が付加された前記複数の画像データを投影する投影手段と、
前記投影手段により投影された前記複数の画像データを撮像する撮像手段と、
前記撮像手段により撮像された前記所定の領域に該当する画像データに基づいて、前記複数の画像データ間の同期判定を行う判定手段と、
前記判定手段による判定結果に基づいて、前記投影手段によって前記複数の画像データが投影されるタイミングを調整する調整手段とを有することを特徴とする画像投影装置。
A dividing means for dividing one image data into a plurality of image data;
Adding means for adding predetermined information to a predetermined area in the plurality of image data;
Projecting means for projecting the plurality of image data to which the predetermined information is added in a state in which the predetermined region is overlapped between the plurality of image data;
Imaging means for imaging the plurality of image data projected by the projection means;
Determination means for performing synchronization determination between the plurality of image data based on image data corresponding to the predetermined area imaged by the imaging means;
An image projecting apparatus comprising: an adjusting unit configured to adjust a timing at which the plurality of image data is projected by the projecting unit based on a determination result by the determining unit.
前記判定手段は、前記複数の画像データ間に同期ずれがあると判定した場合、前記所定の領域に該当する画像データに基づいて、前記複数の画像データ間の同期ずれの量を算出し、前記調整手段は、当該同期ずれの量に基づいて、前記投影手段によって前記複数の画像データが投影されるタイミングを調整することを特徴とする請求項1に記載の画像投影装置。   When the determination unit determines that there is a synchronization shift between the plurality of image data, the determination unit calculates an amount of synchronization shift between the plurality of image data based on the image data corresponding to the predetermined region, The image projecting apparatus according to claim 1, wherein the adjusting unit adjusts a timing at which the plurality of image data is projected by the projecting unit based on the amount of synchronization deviation. 前記判定手段は、前記所定の領域に該当する画像データの色に基づいて、前記複数の画像データ間の同期ずれの量を算出することを特徴とする請求項2に記載の画像投影装置。   The image projection apparatus according to claim 2, wherein the determination unit calculates an amount of synchronization deviation between the plurality of image data based on a color of the image data corresponding to the predetermined region. 前記所定の領域は、前記複数の画像データのうち、エッジブレンド処理が施された領域であることを特徴とする請求項1乃至3の何れか1項に記載の画像投影装置。   4. The image projection apparatus according to claim 1, wherein the predetermined region is a region subjected to edge blending processing among the plurality of image data. 5. 画像投影装置によって実行される画像投影方法であって、
一つの画像データを複数の画像データに分割する分割ステップと、
前記複数の画像データにおける所定の領域に所定の情報を付加する付加ステップと、
前記複数の画像データ間で前記所定の領域が重ね合わされた状態で、前記所定の情報が付加された前記複数の画像データを投影する投影ステップと、
前記投影ステップにより投影された前記複数の画像データを撮像する撮像ステップと、
前記撮像ステップにより撮像された前記所定の領域に該当する画像データに基づいて、前記複数の画像データ間の同期判定を行う判定ステップと、
前記判定ステップによる判定結果に基づいて、前記投影ステップによって前記複数の画像データが投影されるタイミングを調整する調整ステップとを有することを特徴とする画像投影方法。
An image projection method executed by an image projection apparatus,
A division step of dividing one image data into a plurality of image data;
An adding step of adding predetermined information to a predetermined area in the plurality of image data;
A projecting step of projecting the plurality of image data to which the predetermined information is added in a state in which the predetermined region is overlapped between the plurality of image data;
An imaging step of imaging the plurality of image data projected by the projecting step;
A determination step of performing a synchronization determination between the plurality of image data based on the image data corresponding to the predetermined region imaged in the imaging step;
An image projection method comprising: an adjustment step of adjusting a timing at which the plurality of image data is projected by the projection step based on a determination result by the determination step.
一つの画像データを複数の画像データに分割する分割ステップと、
前記複数の画像データにおける所定の領域に所定の情報を付加する付加ステップと、
前記複数の画像データ間で前記所定の領域が重ね合わされた状態で、前記所定の情報が付加された前記複数の画像データを投影する投影ステップと、
前記投影ステップにより投影された前記複数の画像データを撮像する撮像ステップと、
前記撮像ステップにより撮像された前記所定の領域に該当する画像データに基づいて、前記複数の画像データ間の同期判定を行う判定ステップと、
前記判定ステップによる判定結果に基づいて、前記投影ステップによって前記複数の画像データが投影されるタイミングを調整する調整ステップとをコンピュータに実行させるためのプログラム。
A division step of dividing one image data into a plurality of image data;
An adding step of adding predetermined information to a predetermined area in the plurality of image data;
A projecting step of projecting the plurality of image data to which the predetermined information is added in a state in which the predetermined region is overlapped between the plurality of image data;
An imaging step of imaging the plurality of image data projected by the projecting step;
A determination step of performing a synchronization determination between the plurality of image data based on the image data corresponding to the predetermined region imaged in the imaging step;
A program for causing a computer to execute an adjustment step of adjusting a timing at which the plurality of image data is projected by the projection step based on a determination result of the determination step.
JP2012226355A 2012-10-11 2012-10-11 Image projection apparatus, image projection method, and program Active JP6120519B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012226355A JP6120519B2 (en) 2012-10-11 2012-10-11 Image projection apparatus, image projection method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012226355A JP6120519B2 (en) 2012-10-11 2012-10-11 Image projection apparatus, image projection method, and program

Publications (3)

Publication Number Publication Date
JP2014077933A true JP2014077933A (en) 2014-05-01
JP2014077933A5 JP2014077933A5 (en) 2015-11-05
JP6120519B2 JP6120519B2 (en) 2017-04-26

Family

ID=50783270

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012226355A Active JP6120519B2 (en) 2012-10-11 2012-10-11 Image projection apparatus, image projection method, and program

Country Status (1)

Country Link
JP (1) JP6120519B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018168528A1 (en) * 2017-03-17 2018-09-20 ソニー株式会社 Image processing device and method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001222269A (en) * 2000-02-10 2001-08-17 Olympus Optical Co Ltd Multidisplay device
JP2004072623A (en) * 2002-08-08 2004-03-04 Astro Design Inc Adjustment method of video image projecting position in video image projection system
JP2007043275A (en) * 2005-08-01 2007-02-15 Seiko Epson Corp Method for adjusting position of projected image
JP2009122412A (en) * 2007-11-15 2009-06-04 Seiko Epson Corp Image display system and image display device
JP2011172107A (en) * 2010-02-19 2011-09-01 Nec Corp Multi-display system, method of adjusting multi-display, and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001222269A (en) * 2000-02-10 2001-08-17 Olympus Optical Co Ltd Multidisplay device
JP2004072623A (en) * 2002-08-08 2004-03-04 Astro Design Inc Adjustment method of video image projecting position in video image projection system
JP2007043275A (en) * 2005-08-01 2007-02-15 Seiko Epson Corp Method for adjusting position of projected image
JP2009122412A (en) * 2007-11-15 2009-06-04 Seiko Epson Corp Image display system and image display device
JP2011172107A (en) * 2010-02-19 2011-09-01 Nec Corp Multi-display system, method of adjusting multi-display, and program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018168528A1 (en) * 2017-03-17 2018-09-20 ソニー株式会社 Image processing device and method
CN110383829A (en) * 2017-03-17 2019-10-25 索尼公司 Image processing equipment and method
US11184590B2 (en) 2017-03-17 2021-11-23 Sony Corporation Image processing apparatus and method
CN110383829B (en) * 2017-03-17 2021-12-24 索尼公司 Image processing apparatus and method

Also Published As

Publication number Publication date
JP6120519B2 (en) 2017-04-26

Similar Documents

Publication Publication Date Title
US7564501B2 (en) Projection system, projector, method of controlling projectors and program therefor
US20120242780A1 (en) Image processing apparatus and method, and program
JP2001166766A (en) Dot clock adjusting method for image display device and dot clock adjusting device
WO2011039852A1 (en) Video display device and video display method
JP5546593B2 (en) Image display apparatus and control method thereof
JP2010041538A (en) Device and method for processing image signal
JP6659117B2 (en) Image processing apparatus, image processing method, and program
JP4932517B2 (en) Image display device and frequency adjustment method thereof
JP2014146938A (en) Projection apparatus, control method, program, and projection system
JP2022186702A (en) Projection adjustment program, projection adjustment method, and projection adjustment system
JP2007158398A (en) Shift amount detector and multiprojection device
JP6120519B2 (en) Image projection apparatus, image projection method, and program
JP2012089986A (en) Image processing device and method, and image display device and method
JP5187790B2 (en) Video display device
EP3065126B1 (en) Image processing device, image processing method, and program
US20190215500A1 (en) Projection control apparatus and projection control method
JP2018037765A (en) Image signal processor
JP4872424B2 (en) Image processing apparatus, image processing method, and program
TW201251461A (en) Image processing device and interpolated frame generation method
JP2012175271A5 (en)
KR101724430B1 (en) Synchronization apparatus and method for led imaging apparatus
JP2006041614A (en) Image processing apparatus, image processing method, program, and recording medium
JP6140933B2 (en) Display device and control method thereof
JP5888899B2 (en) Video processing apparatus, video processing method, and program
JP2017220810A (en) Image processing device, method, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150916

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150916

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160715

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160726

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160920

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170228

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170328

R151 Written notification of patent or utility model registration

Ref document number: 6120519

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151