JP2020127162A - Projection type video display system - Google Patents

Projection type video display system Download PDF

Info

Publication number
JP2020127162A
JP2020127162A JP2019019388A JP2019019388A JP2020127162A JP 2020127162 A JP2020127162 A JP 2020127162A JP 2019019388 A JP2019019388 A JP 2019019388A JP 2019019388 A JP2019019388 A JP 2019019388A JP 2020127162 A JP2020127162 A JP 2020127162A
Authority
JP
Japan
Prior art keywords
image
projectors
unit
projected
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019019388A
Other languages
Japanese (ja)
Inventor
田中 和彦
Kazuhiko Tanaka
和彦 田中
中嶋 満雄
Mitsuo Nakajima
満雄 中嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Maxell Ltd
Original Assignee
Maxell Holdings Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Maxell Holdings Ltd filed Critical Maxell Holdings Ltd
Priority to JP2019019388A priority Critical patent/JP2020127162A/en
Priority to PCT/JP2019/049517 priority patent/WO2020162051A1/en
Publication of JP2020127162A publication Critical patent/JP2020127162A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/74Projection arrangements for image reproduction, e.g. using eidophor

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Hardware Design (AREA)
  • Theoretical Computer Science (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Projection Apparatus (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

To automatically detect and correct distortion of a video while projecting a video content to eliminate periodic video correction after installation of a projector.SOLUTION: In a projection type video display system 10, a geometric correction circuit 25 included in each of projectors 11 to 14 corrects a geometric distortion of a video to be projected based on a geometric parameter. A camera video analysis unit 33 included in a personal computer 16 calculates the respective coordinates of the four corners of a video photographed by a camera 15 and projected by each of the projectors 11 to 14, compares the calculated coordinates with a threshold set in advance, and when the coordinates exceeds the threshold, determines that displacement with time occurs. A geometric correction circuit 25, when the camera video analysis unit 33 determines that the displacement with time occurs, corrects the videos projected by the projectors 11 to 14.SELECTED DRAWING: Figure 2

Description

本発明は、投射型映像表示システムに関し、特に、複数台のプロジェクタを用いた映像投影における映像の歪み補正に有効な技術に関する。 The present invention relates to a projection type image display system, and more particularly to a technique effective for correcting image distortion in image projection using a plurality of projectors.

近年、大画面の映像表示を行うプロジェクタでは、高輝度化の要求が高まっている。表示映像を高輝度化する投影技術としては、例えば複数台のプロジェクタを用いて重畳投影する、いわゆるスタック投影がある。 2. Description of the Related Art In recent years, there is an increasing demand for higher brightness in projectors that display large-screen images. As a projection technique for increasing the brightness of a display image, for example, there is so-called stack projection in which a plurality of projectors are used to perform superimposed projection.

このスタック投影を行う場合には、プロジェクタの設置に複数のプロジェクタ映像をピクセル精度にて重ね合わせる作業が必要である。この作業は、例えば各々のプロジェクタから投影される調整用パターン映像をカメラなどによって撮影し、撮影した映像に基づいて幾何学補正する。 When this stack projection is performed, it is necessary to install a plurality of projector images with pixel accuracy in order to install the projector. In this work, for example, an adjustment pattern image projected from each projector is photographed by a camera or the like, and geometric correction is performed based on the photographed image.

なお、この種の複数台のプロジェクタを用いた投影映像を補正する技術としては、複数のプロジェクタを用いて投影領域の少なくとも一部を重畳させた投影領域を形成する場合に、その投影領域の形状をコンテンツ画像の形状に対応させるものがある(例えば特許文献1参照)。 Note that, as a technique for correcting a projected image using a plurality of projectors of this type, when forming a projection area in which at least a part of the projection area is overlapped using the plurality of projectors, the shape of the projection area There is one that corresponds to the shape of the content image (for example, see Patent Document 1).

特開2018−125819号公報Japanese Unexamined Patent Publication No. 2018-125819

前述したプロジェクタのスタック投影では、プロジェクタの設置時にピクセル単位にて映像を重ね合わせても、時間の経過とともに重ね合わせた映像がずれてしまう、経時ずれが発生してしまう恐れがある。 In the stack projection of the projector described above, even if the images are superposed on a pixel-by-pixel basis when the projector is installed, there is a possibility that the superposed images may shift over time or a temporal shift may occur.

経時ずれが発生する要因としては、振動などによってプロジェクタが移動する、いわゆる設置ずれ、あるいはスクリーンの設置位置ずれなどがある。この経時ずれを補正するには、定期的に再度調整用パターンを投影して幾何学補正を行わなければならず、その都度時間および工数が必要となる。 Factors that cause the time shift include so-called installation shifts in which the projector moves due to vibrations or the like, or screen placement position shifts. In order to correct this time-dependent shift, it is necessary to periodically project the adjustment pattern again to perform geometric correction, which requires time and man-hours each time.

また、定期的な補正を行っていても、補正する間隔が長くなった場合には、映像を投射した際に映像ずれが発生していることが考えられる。その場合には、ずれた映像が投射され続けることになり、映像の鮮明度が低下してしまうという問題がある。 Further, even if the correction is performed periodically, if the correction interval becomes long, it is considered that the image shift occurs when the image is projected. In that case, there is a problem that the shifted image continues to be projected, and the sharpness of the image decreases.

本発明の目的は、映像コンテンツを投影している際に映像の歪みを自動的に検出補正して、プロジェクタの設置後の定期的な映像補正などを不要とすることのできる技術を提供することにある。 An object of the present invention is to provide a technique capable of automatically detecting and correcting image distortion when projecting image content, and eliminating the need for periodic image correction after the projector is installed. It is in.

本発明の前記ならびにその他の目的と新規な特徴については、本明細書の記述および添付図面から明らかになるであろう。 The above and other objects and novel features of the present invention will be apparent from the description of the present specification and the accompanying drawings.

本願において開示される発明のうち、代表的なものの概要を簡単に説明すれば、次のとおりである。 The following is a brief description of the outline of the typical invention disclosed in the present application.

すなわち、代表的な投射型映像表示システムは、複数のプロジェクタ、コンピュータ、および撮像部を備える。複数のプロジェクタは、映像を投影する。コンピュータは、複数のプロジェクタに映像データを出力する。撮像部は、複数のプロジェクタが映像投射面(に投影する映像を撮影する。 That is, a typical projection-type image display system includes a plurality of projectors, a computer, and an imaging unit. The plurality of projectors project an image. The computer outputs the video data to the plurality of projectors. The imaging unit captures an image projected by the plurality of projectors on the image projection surface (.

複数のプロジェクタは、幾何補正部および映像投射部を有する。幾何補正部は、投影される映像の幾何学的歪みを幾何パラメータに基づいて補正する。映像投射部は、映像投射面に映像を投影する。 The plurality of projectors have a geometric correction unit and a video projection unit. The geometric correction unit corrects the geometric distortion of the projected image based on the geometric parameter. The image projection unit projects an image on the image projection surface.

コンピュータは、映像解析部および制御部を有する。映像解析部は、撮像部が撮影した映像を解析して、複数のプロジェクタが投影する映像にずれが生じる経時ずれが発生しているか否かを判定する。制御部は、複数のプロジェクタを制御する。 The computer has a video analysis unit and a control unit. The video analysis unit analyzes the video captured by the imaging unit, and determines whether or not there is a temporal shift that causes a shift in the images projected by the plurality of projectors. The control unit controls the plurality of projectors.

そして、映像解析部は、撮像部が撮影した各々のプロジェクタが投影する映像の4つのコーナ部の座標をそれぞれ算出し、算出した座標とあらかじめ設定されているしきい値とを比較して、座標がしきい値を超えている場合に経時ずれが発生していると判定する。 Then, the video analysis unit calculates the coordinates of the four corners of the video projected by each projector captured by the imaging unit, compares the calculated coordinates with a preset threshold, and calculates the coordinates. Is above the threshold value, it is determined that a time lag has occurred.

幾何補正部は、映像解析部が経時ずれが発生していると判定した際に各々のプロジェクタが投影する映像を補正する。 The geometric correction unit corrects the image projected by each projector when the image analysis unit determines that the time shift has occurred.

また、制御部は、撮像部が各々のプロジェクタの映像を撮影する際に、座標算出の対象となるプロジェクタの映像のみを投影させ、対象ではないプロジェクタのコーナを減光させる。 Further, when the image capturing unit captures the image of each projector, the control unit projects only the image of the projector that is the target of coordinate calculation, and dims the corners of the projector that is not the target.

本願において開示される発明のうち、代表的なものによって得られる効果を簡単に説明すれば以下のとおりである。 The effects obtained by the typical ones of the inventions disclosed in the present application will be briefly described as follows.

プロジェクタ設置後における定期的な投影映像の補正を不要にすることができる。 It is possible to eliminate the need to periodically correct the projected image after the projector is installed.

実施の形態1による投射型映像表示システムにおける外観の一例を示す説明図である。FIG. 3 is an explanatory diagram showing an example of an external appearance of the projection type video display system according to the first embodiment. 図1の投射型映像表示システムにおける構成の一例を示す説明図である。It is explanatory drawing which shows an example of a structure in the projection type video display system of FIG. 図1のプロジェクタが投影する映像の一例を示す説明図である。It is explanatory drawing which shows an example of the image which the projector of FIG. 1 projects. 図1のプロジェクタがスタック投影した際の映像の一例を示す説明図である。It is explanatory drawing which shows an example of the image|video when the projector of FIG. 1 carries out stack projection. 図2の投射型映像表示システムによる全体処理の概要の一例を示すフローチャートである。3 is a flowchart showing an example of an outline of overall processing by the projection type video display system of FIG. 2. 図5のステップS101の処理である初期調整における処理の一例を示すフローチャートである。6 is a flowchart showing an example of processing in initial adjustment which is the processing of step S101 in FIG. 図1のプロジェクタによる全白画像の投影映像の一例を示す説明図である。It is explanatory drawing which shows an example of the projection image of the all-white image by the projector of FIG. 初期調整による表示領域における算出の一例を示す説明図である。It is explanatory drawing which shows an example of calculation in the display area by initial adjustment. 図5のステップS103の処理である経時ずれ検出における処理の一例を示すフローチャートである。6 is a flowchart showing an example of a process in time lapse detection which is the process of step S103 of FIG. 図9の経時ずれ検出の一例を示す説明図である。It is explanatory drawing which shows an example of the time-dependent shift detection of FIG. 図2の投射型映像表示システムによる経時ずれ補正におけるコーナ部の座標算出の一例を示す説明図である。FIG. 3 is an explanatory diagram showing an example of calculation of coordinates of a corner portion in correction of a time lapse by the projection type image display system of FIG. 2. 図11の座標算出例を用いた経時ずれ補正における処理の一例を示すフローチャートである。12 is a flowchart showing an example of a process in time deviation correction using the coordinate calculation example of FIG. 11. 実施の形態2による経時ずれ補正におけるコーナ部の座標算出の一例を示す説明図である。FIG. 9 is an explanatory diagram showing an example of calculation of coordinates of a corner portion in correction of time-dependent shift according to the second embodiment. 図13の座標算出例を用いた経時ずれ補正における処理の一例を示すフローチャートである。14 is a flowchart showing an example of a process in time deviation correction using the coordinate calculation example of FIG. 13. 実施の形態3によるコーナ部の座標算出における一例を示す説明図である。FIG. 11 is an explanatory diagram showing an example of calculating a coordinate of a corner portion according to the third embodiment. 図15の他の例を示す説明図である。It is explanatory drawing which shows the other example of FIG. 実施の形態4による経時ずれ補正におけるコーナ部の座標算出の一例を示す説明図である。FIG. 16 is an explanatory diagram showing an example of calculating coordinates of a corner portion in correction of time-dependent deviation according to the fourth embodiment. 実施の形態5による投射型映像表示システムにおける全体処理の概要の一例を示すフローチャートである。16 is a flowchart showing an example of an overview of overall processing in the projection type video display system according to the fifth embodiment. 経時ずれが発生した画像コンテンツの一例を示す説明図である。It is explanatory drawing which shows an example of the image content in which the time-dependent shift occurred. 実施の形態6による投射型映像表示システムにおける構成の一例を示す説明図である。FIG. 16 is an explanatory diagram showing an example of a configuration of a projection type video display system according to a sixth embodiment. 実施の形態7による投射型映像表示システムにおける構成の一例を示す説明図である。FIG. 16 is an explanatory diagram showing an example of a configuration of a projection type video display system according to a seventh embodiment. 実施の形態8による投射型映像表示システムにおける構成の一例を示す説明図である。FIG. 16 is an explanatory diagram showing an example of a configuration of a projection type video display system according to an eighth embodiment.

実施の形態を説明するための全図において、同一の部材には原則として同一の符号を付し、その繰り返しの説明は省略する。 In all the drawings for explaining the embodiments, the same members are denoted by the same reference symbols in principle and the repeated description thereof will be omitted.

以下、実施の形態を詳細に説明する。 Hereinafter, embodiments will be described in detail.

(実施の形態1)
〈投射型映像表示システムの外観例〉
図1は、本実施の形態1による投射型映像表示システム10における外観の一例を示す説明図である。
(Embodiment 1)
<Example of appearance of projection type video display system>
FIG. 1 is an explanatory diagram showing an example of the external appearance of a projection-type image display system 10 according to the first embodiment.

投射型映像表示システム10は、図1に示すように、プロジェクタ11〜14、カメラ15、およびパーソナルコンピュータ16から構成されている。この投射型映像表示システム10は、プロジェクタ11〜14から投射される映像を重ね合わせることにより、高輝度化を実現するスタック投影を行う。 As shown in FIG. 1, the projection type image display system 10 includes projectors 11 to 14, a camera 15, and a personal computer 16. The projection-type image display system 10 performs stack projection for realizing high brightness by superimposing images projected from the projectors 11 to 14.

プロジェクタ11〜14は、外部から入力される映像データを投影対象である壁面またはスクリーン50などの映像投射面に照射する。撮像部であるカメラ15は、スクリーン50に投影された映像を撮影する。 The projectors 11 to 14 irradiate image data input from the outside onto a wall surface or an image projection surface such as the screen 50, which is a projection target. The camera 15, which is an image capturing unit, captures an image projected on the screen 50.

コンピュータであるパーソナルコンピュータ16には、プロジェクタ11〜14およびカメラ15がそれぞれ接続されている。パーソナルコンピュータ16は、プロジェクタ11〜14に映像データをそれぞれ出力する。 The projectors 11 to 14 and the camera 15 are connected to a personal computer 16 which is a computer. The personal computer 16 outputs the video data to the projectors 11 to 14, respectively.

ここで、図1では、4台のプロジェクタ11〜14から投射される映像を重畳投影する例を示しているが、スタック投影するプロジェクタの数については、特に制限なく、2台以上であればよい。 Here, FIG. 1 shows an example in which images projected from the four projectors 11 to 14 are superimposed and projected, but the number of projectors to perform stack projection is not particularly limited as long as it is two or more. ..

〈投射型映像表示システムの構成例〉
図2は、図1の投射型映像表示システム10における構成の一例を示す説明図である。
<Configuration example of projection type video display system>
FIG. 2 is an explanatory diagram showing an example of the configuration of the projection type video display system 10 of FIG.

プロジェクタ11は、映像インタフェース20、マーカ生成回路21、マスク生成回路22、パターン生成回路23、映像演算回路24、幾何補正回路25、幾何補正パラメータ格納部26、光学系27、通信インタフェース28、および制御回路29から構成されている。 The projector 11 includes a video interface 20, a marker generation circuit 21, a mask generation circuit 22, a pattern generation circuit 23, a video calculation circuit 24, a geometric correction circuit 25, a geometric correction parameter storage unit 26, an optical system 27, a communication interface 28, and control. It is composed of a circuit 29.

なお、図2において、プロジェクタ12〜14の構成については、プロジェクタ11と同様であるので説明は省略する。これらプロジェクタ11〜14は、カメラ15が撮影した映像からスタック投影における映像のずれを調整する調整機能を有する。 Note that, in FIG. 2, the configuration of the projectors 12 to 14 is the same as that of the projector 11, and thus the description thereof is omitted. Each of these projectors 11 to 14 has an adjusting function of adjusting the deviation of the image captured by the camera 15 in the stack projection.

映像インタフェース20は、パーソナルコンピュータ16から出力される映像データを伝送するインタフェースであり、例えばHDMI(High Definition Multimedia Interface)端子を介してパーソナルコンピュータ16に接続される。 The video interface 20 is an interface for transmitting video data output from the personal computer 16, and is connected to the personal computer 16 via, for example, an HDMI (High Definition Multimedia Interface) terminal.

マーカ生成部であるマーカ生成回路21は、制御回路29の制御に基づいて、マーカあるいは額縁状の白枠などを生成する。マーカあるいは白枠は、スタック投影における映像のずれを調整用として用いられる。マーカは、投射する映像のコーナ部などに表示される。白枠は、投射する映像の周辺部に表示される。 The marker generation circuit 21, which is a marker generation unit, generates a marker, a frame-shaped white frame, or the like under the control of the control circuit 29. The marker or the white frame is used for adjusting the shift of the image in the stack projection. The marker is displayed at the corner of the projected image. The white frame is displayed around the projected image.

マスク生成部であるマスク生成回路22は、マスクを生成する。マスクは、スクリーン50に投影される映像のコーナ部の明暗度を調整する。パターン生成回路23は、補正用パターンを生成する。 The mask generation circuit 22, which is a mask generation unit, generates a mask. The mask adjusts the brightness of the corner portion of the image projected on the screen 50. The pattern generation circuit 23 generates a correction pattern.

映像演算回路24は、マーカ生成回路21が生成するマーカを投影映像に合成させる合成表示、マスク生成回路22が生成するマスクを投影映像に合成させる合成表示、あるいはパターン生成回路23が生成する全白画像または全黒画像などの補正用パターンの表示などを行う。 The video calculation circuit 24 synthesizes the marker generated by the marker generation circuit 21 on the projected image, synthesizes the mask generated by the mask generation circuit 22 on the projected image, or displays all white generated by the pattern generation circuit 23. The correction pattern such as an image or an all-black image is displayed.

これらマーカ生成回路21、マスク生成回路22、パターン生成回路23、および映像演算回路24は、制御回路29の制御に基づいて、それぞれ動作する。幾何補正部である幾何補正回路25は、投射される映像の幾何学的歪みを幾何パラメータに基づいて、幾何補正して投影画像を補正する。 The marker generation circuit 21, the mask generation circuit 22, the pattern generation circuit 23, and the video calculation circuit 24 operate under the control of the control circuit 29. The geometric correction circuit 25, which is a geometric correction unit, corrects the projected image by geometrically correcting the geometric distortion of the projected image based on the geometric parameter.

幾何補正パラメータ格納部26は、例えばフラッシュメモリなどに例示される不揮発性メモリであり、後述するパラメータ算出部34が算出する幾何パラメータを格納する。幾何補正回路25は、幾何補正パラメータ格納部26に格納される幾何パラメータに基づいて、投射される映像の幾何学的歪みを幾何補正する。通信インタフェース28は、プロジェクタ11〜14と通信するインタフェースである。 The geometric correction parameter storage unit 26 is a non-volatile memory such as a flash memory, for example, and stores geometric parameters calculated by a parameter calculation unit 34, which will be described later. The geometric correction circuit 25 geometrically corrects the geometric distortion of the projected image based on the geometric parameters stored in the geometric correction parameter storage unit 26. The communication interface 28 is an interface for communicating with the projectors 11-14.

映像投射部である光学系27は、幾何補正回路25によって幾何変換された映像データを光に変換して投影する。光学系27は、例えば映像をスクリーン50に投射する投射レンズ、投射する映像を生成する表示素子、および投射用の照明光を発生する光源部などから構成される。 The optical system 27, which is a video projection unit, converts the video data geometrically converted by the geometric correction circuit 25 into light and projects the light. The optical system 27 includes, for example, a projection lens that projects an image on the screen 50, a display element that generates the projected image, and a light source unit that generates illumination light for projection.

表示素子は、例えばDMD(Digital Micromirror Device)(登録商標)パネルなどが用いられる。 As the display device, for example, a DMD (Digital Micromirror Device) (registered trademark) panel or the like is used.

表示素子については、DMDパネルに限定されるものではなく、例えば透過型液晶パネルあるいは反射型液晶パネルなどであってもよい。制御回路29は、プロジェクタ11における動作を制御する。 The display element is not limited to the DMD panel, and may be, for example, a transmissive liquid crystal panel or a reflective liquid crystal panel. The control circuit 29 controls the operation of the projector 11.

パーソナルコンピュータ16は、カメラ入力部30、投影映像選択部31、映像送出部32、カメラ映像解析部33、パラメータ算出部34、通信制御部35、投影映像生成部36、投影映像解析部37、記憶部38、およびシーケンス制御部39から構成されている。 The personal computer 16 includes a camera input unit 30, a projection video selection unit 31, a video transmission unit 32, a camera video analysis unit 33, a parameter calculation unit 34, a communication control unit 35, a projection video generation unit 36, a projection video analysis unit 37, and a storage. It is composed of a unit 38 and a sequence control unit 39.

カメラ入力部30は、例えばUSB(Universal Serial Bus)端子を介してカメラ15が撮影した画像データを取得する。投影映像選択部31は、投影画像の補正に用いる補正用パターンを決定してプロジェクタ11〜14の制御回路29にそれぞれ送信する。 The camera input unit 30 acquires image data captured by the camera 15 via, for example, a USB (Universal Serial Bus) terminal. The projected image selection unit 31 determines a correction pattern used for correcting the projected image and transmits the correction pattern to the control circuits 29 of the projectors 11 to 14, respectively.

映像送出部32は、投影映像生成部36が生成した映像データをプロジェクタ11〜14に送信する。 The video transmission unit 32 transmits the video data generated by the projection video generation unit 36 to the projectors 11-14.

映像解析部であるカメラ映像解析部33は、カメラ15が撮影した映像を解析して投影映像のコーナ部を検出する。パラメータ算出部34は、投射される映像の幾何学的歪みを補正する幾何パラメータを算出する。 The camera image analysis unit 33, which is an image analysis unit, analyzes the image captured by the camera 15 and detects the corner portion of the projected image. The parameter calculator 34 calculates a geometric parameter that corrects the geometric distortion of the projected image.

通信制御部35は、プロジェクタ11〜14が有する制御回路29との通信を行う。投影映像生成部36は、記憶部38に格納されている映像コンテンツをデコードする。デコードされた映像コンテンツは、投影映像生成部36に出力される。 The communication control unit 35 communicates with the control circuit 29 included in the projectors 11-14. The projection video generation unit 36 decodes the video content stored in the storage unit 38. The decoded video content is output to the projection video generation unit 36.

投影映像解析部37は、映像送出部32が送信する映像データすなわちプロジェクタが投影している映像を解析して、投影映像のコーナ部を検出できるか否かを判定する。記憶部38は、例えばハードディスクドライブ(HDD)あるいはフラッシュメモリに例示される不揮発性メモリなどからなり、スクリーン50に投影する映像コンテンツなどが格納される。制御部となるシーケンス制御部39は、投影画像の補正処理における動作を制御する。 The projected image analysis unit 37 analyzes the image data transmitted by the image transmission unit 32, that is, the image projected by the projector, and determines whether or not the corner portion of the projected image can be detected. The storage unit 38 is composed of, for example, a hard disk drive (HDD) or a non-volatile memory such as a flash memory, and stores video contents to be projected on the screen 50 and the like. The sequence control unit 39 serving as a control unit controls the operation in the correction process of the projected image.

〈スタック投影の映像例〉
図3は、図1のプロジェクタ11〜14が幾何補正を行わずに「A」という映像を投影したときにスクリーン50上に表示される映像の一例を示す説明図である。図4は、図1のプロジェクタ11〜14がスタック投影した際の映像の一例を示す説明図である。
<Example of stack projection image>
FIG. 3 is an explanatory diagram showing an example of an image displayed on the screen 50 when the projectors 11 to 14 in FIG. 1 project an image “A” without performing geometric correction. FIG. 4 is an explanatory diagram showing an example of an image when the projectors 11 to 14 of FIG. 1 perform stack projection.

図3(a)は、プロジェクタ11が投射した「A」の映像がスクリーン50上に表示された様子、図3(b)は、プロジェクタ12が投射した「A」の映像、図3(c)は、プロジェクタ13が投射した「A」の映像、および図3(d)は、プロジェクタ14が投射した「A」の映像のスクリーン50上の様子をそれぞれ示している。 3A shows a state in which the image of "A" projected by the projector 11 is displayed on the screen 50, and FIG. 3B shows the image of "A" projected by the projector 12, FIG. 3C. 3A and 3B show the state of the "A" image projected by the projector 13 and the state of the "A" image projected by the projector 14 on the screen 50, respectively.

各々のプロジェクタ11〜14は、設置されている位置がそれぞれ異なっているため、歪の無い同一の映像を投影した場合であっても、図3(a)〜図3(d)に示すように、その設置位置に応じてスクリーン50に投影される映像に歪が生じてしまう。 Since the projectors 11 to 14 are installed at different positions, as shown in FIGS. 3A to 3D, even when the same image without distortion is projected. The image projected on the screen 50 is distorted according to the installation position.

この歪みを補正せずに、そのままスクリーン50に表示させた場合には、図4(a)に示すように、それぞれの歪みによってスクリーン50に表示される「A」の文字がずれて不鮮明に表示される。 If the distortion is not corrected and is displayed on the screen 50 as it is, as shown in FIG. 4A, the character “A” displayed on the screen 50 is misaligned and displayed unclearly as shown in FIG. 4A. To be done.

投射型映像表示システム10では、補正前、すなわち図4(a)に示す各プロジェクタの表示領域から矩形領域を決定して、決定した矩形領域に合致するように幾何変換して映像を重ね合わせる。また、投射型映像表示システム10は、時間の経過とともに重ね合わせた映像がずれてしまう、経時ずれについても自動的に補正する機能を有している。 In the projection type image display system 10, a rectangular area is determined before correction, that is, from the display area of each projector shown in FIG. 4A, and geometric conversion is performed so as to match the determined rectangular area, and the images are superimposed. The projection-type image display system 10 also has a function of automatically correcting a time-dependent shift in which superimposed images shift with time.

これにより、図4(b)に示すように、各プロジェクタ11〜14から投影される「A」の映像のずれが減少し、経時ずれが発生する環境下であっても鮮明な映像をスクリーン50に表示させることができる。 As a result, as shown in FIG. 4B, the deviation of the image of “A” projected from each of the projectors 11 to 14 is reduced, and a clear image can be displayed on the screen 50 even in an environment where a time-dependent deviation occurs. Can be displayed on.

〈投射型映像表示システムの動作例〉
続いて、投射型映像表示システム10による動作について説明する。
<Operation example of projection type video display system>
Next, the operation of the projection type image display system 10 will be described.

図5は、図2の投射型映像表示システム10による全体処理の概要の一例を示すフローチャートである。 FIG. 5 is a flowchart showing an example of the outline of the overall processing by the projection type video display system 10 of FIG.

なお、図5における各ステップの処理は、後述するように各機能ブロックが実行するものであるが、ソフトウェアによってその機能を実現する構成であってもよい。その場合には、パーソナルコンピュータ16やプロジェクタ11〜14の図示しないプログラム格納メモリなどに記憶されているプログラム形式のソフトウェアを、シーケンス制御部39および制御回路29などがそれぞれ実行することにより実現される。 The processing of each step in FIG. 5 is executed by each functional block as described later, but the function may be realized by software. In that case, it is realized by the sequence control unit 39, the control circuit 29, and the like executing software in a program format stored in a program storage memory (not shown) of the personal computer 16 or the projectors 11 to 14, respectively.

まず、初期調整を行う(ステップS101)。この初期調整は、投射型映像表示システム10を最初の設置する時にのみ行われる調整である。このステップS101の処理では、各々のプロジェクタ11〜14を設置した後、スクリーン50に表示される投影映像のずれを調整する。 First, initial adjustment is performed (step S101). This initial adjustment is performed only when the projection type image display system 10 is initially installed. In the process of step S101, after the projectors 11 to 14 are installed, the deviation of the projected image displayed on the screen 50 is adjusted.

その後、プロジェクタ11〜14による映像コンテンツの投影が開始される(ステップS102)。そして、映像コンテンツが投影されている際、経時ずれの発生を検出する経時ずれ検出処理を実行する(ステップS103)。 Then, the projection of the video content by the projectors 11 to 14 is started (step S102). Then, when the video content is projected, a time-lapse shift detection process for detecting the occurrence of time-lapse shift is executed (step S103).

経時ずれ検出処理において、経時ずれが発生したことを検出すると(ステップS104)、投射型映像表示システム10による経時ずれを補正する経時ずれ補正処理が行われる(ステップS105)。 When it is detected in the time shift detection process that a time shift has occurred (step S104), a time shift correction process for correcting the time shift by the projection-type image display system 10 is performed (step S105).

ステップS104の処理にて、経時ずれが発生したことを検出しない場合、あるいはステップS105の処理による経時ずれ補正処理が終了すると、再びステップS102の処理に戻る。 In the process of step S104, when it is not detected that a time-lapse shift has occurred, or when the time-lapse shift correction process of the process of step S105 ends, the process returns to step S102.

〈初期調整について〉
続いて、初期調整について、図6を用いて説明する。
<About initial adjustment>
Next, the initial adjustment will be described with reference to FIG.

図6は、図5のステップS101の処理である初期調整における処理の一例を示すフローチャートである。 FIG. 6 is a flowchart showing an example of processing in the initial adjustment which is the processing of step S101 in FIG.

まず、シーケンス制御部39は、投影映像選択部31に保持している変数であるターゲットプロジェクタ番号を0に設定する(ステップS201)。続いて、シーケンス制御部39は、ターゲットプロジェクタ番号に従って、通信制御部35を経由して、ターゲットプロジェクタ(例えばプロジェクタ11)の制御回路29に全白映像を投影するコマンドを発行する(ステップS202)。 First, the sequence control unit 39 sets the target projector number, which is a variable held in the projected image selection unit 31, to 0 (step S201). Subsequently, the sequence control unit 39 issues a command for projecting an all-white image to the control circuit 29 of the target projector (for example, the projector 11) via the communication control unit 35 according to the target projector number (step S202).

シーケンス制御部39からコマンドを受け取った制御回路29は、パターン生成回路23を制御して全白映像を生成させる。パターン生成回路23が生成した全白映像は、映像演算回路24および幾何補正回路25を経由して光学系27によって投影される。 The control circuit 29 receiving the command from the sequence control unit 39 controls the pattern generation circuit 23 to generate an all-white image. The all-white image generated by the pattern generation circuit 23 is projected by the optical system 27 via the image calculation circuit 24 and the geometric correction circuit 25.

その後、シーケンス制御部39は、ターゲットプロジェクタ番号に従って、通信制御部35を経由して、ターゲットプロジェクタ以外のプロジェクタ(例えばプロジェクタ12〜14)の制御回路29に全黒映像を投影するコマンドを発行する(ステップS203)。 After that, the sequence control unit 39 issues a command for projecting an all-black image to the control circuit 29 of the projector (eg, projectors 12 to 14) other than the target projector via the communication control unit 35 according to the target projector number ( Step S203).

ステップS203の処理にて、コマンドを受け取った制御回路29は、パターン生成回路23に全黒映像を生成させる。パターン生成回路23が生成した全黒映像は、映像演算回路24および幾何補正回路25を経由して光学系27によって投影される。 Upon receiving the command in the process of step S203, the control circuit 29 causes the pattern generation circuit 23 to generate an all-black image. The all-black image generated by the pattern generation circuit 23 is projected by the optical system 27 via the image calculation circuit 24 and the geometric correction circuit 25.

ステップS203の処理が終了すると、シーケンス制御部39は、あらかじめ規定されている待ち時間分待つ(ステップS204)。待ち時間は、例えば各プロジェクタにコマンドを発行してから、実際に投影映像が反映されるまでの時間+マージンに基づいて規定する。 When the process of step S203 ends, the sequence control unit 39 waits for a waiting time defined in advance (step S204). The waiting time is defined on the basis of, for example, a time +margin from when a command is issued to each projector to when the projected image is actually reflected.

そして、シーケンス制御部39は、カメラ入力部30を経由して、カメラ15に対して撮影コマンドを発行する。このコマンドを受け取ると、カメラ15は、スクリーンを撮影する(ステップS205)。 Then, the sequence control unit 39 issues a shooting command to the camera 15 via the camera input unit 30. Upon receiving this command, the camera 15 shoots a screen (step S205).

カメラ15は、撮影した映像をカメラ入力部30に送信する。カメラ入力部30は、入力された映像を該カメラ入力部30に設けられた図示しない内部バッファに格納し、該映像の格納が終了した際に、撮影完了信号をシーケンス制御部39に送信する。 The camera 15 transmits the captured image to the camera input unit 30. The camera input unit 30 stores the input video in an internal buffer (not shown) provided in the camera input unit 30, and when the storage of the video is completed, transmits a shooting completion signal to the sequence control unit 39.

シーケンス制御部39は、カメラ入力部30から撮影完了信号を受け取ると、カメラ映像解析部33に映像解析指示コマンドを発行する。カメラ映像解析部33は、シーケンス制御部39からコマンドを受信すると、カメラ入力部30の内部バッファから撮影画像を受け取り、受け取ったカメラ画像の含まれている投影映像の表示領域の4つのコーナ部の座標を算出する(ステップS206)。 When the sequence control unit 39 receives the shooting completion signal from the camera input unit 30, the sequence control unit 39 issues a video analysis instruction command to the camera video analysis unit 33. Upon receiving the command from the sequence control unit 39, the camera image analysis unit 33 receives the captured image from the internal buffer of the camera input unit 30 and detects the four corners of the display region of the projected image including the received camera image. The coordinates are calculated (step S206).

投影映像におけるコーナ部の座標の算出が終了すると、カメラ映像解析部33は、シーケンス制御部39に算出が終了したことを通知する。シーケンス制御部39は、算出終了の通知を受け取ると、算出された4隅の座標をターゲットプロジェクタ番号ごとに格納する。 When the calculation of the coordinates of the corner portion in the projected image is completed, the camera image analysis unit 33 notifies the sequence control unit 39 that the calculation is completed. When the sequence control unit 39 receives the calculation end notification, the sequence control unit 39 stores the calculated coordinates of the four corners for each target projector number.

算出した座標は、例えばカメラ映像解析部33が有する図示しない格納領域に格納してもよいし、あるいは記憶部38に算出した座標を格納するようにしてもよい。 The calculated coordinates may be stored in, for example, a storage area (not shown) included in the camera image analysis unit 33, or the calculated coordinates may be stored in the storage unit 38.

ステップS206の処理が終了すると、シーケンス制御部39は、投影映像選択部31に保持されている変数であるターゲットプロジェクタ番号を1増やす(ステップS207)。 When the process of step S206 ends, the sequence control unit 39 increments the target projector number, which is a variable held in the projection image selection unit 31, by 1 (step S207).

シーケンス制御部39は、ターゲットプロジェクタ番号がプロジェクタ台数よりも小さければ(ステップS208)、ループの先頭に戻ってステップS202から処理を繰り返す。また、全プロジェクタの処理が完了していれば(ステップS208)、幾何パラメータ算出処理を実行する(ステップS209)。 If the target projector number is smaller than the number of projectors (step S208), the sequence control unit 39 returns to the beginning of the loop and repeats the processing from step S202. If the processing for all projectors is completed (step S208), the geometric parameter calculation processing is executed (step S209).

ステップS209の処理では、シーケンス制御部39がパラメータ算出部34に対して、幾何変換パラメータ算出コマンドを発行する。パラメータ算出部34は、シーケンス制御部39からコマンドを受信すると、カメラ映像解析部33が有する図示しない格納領域にターゲットプロジェクタごとに格納されているコーナ部の座標を読み出し、各プロジェクタ11〜14に対応した幾何変換行列を算出する。 In the process of step S209, the sequence control unit 39 issues a geometric transformation parameter calculation command to the parameter calculation unit 34. Upon receiving the command from the sequence control unit 39, the parameter calculation unit 34 reads the coordinates of the corner unit stored for each target projector in a storage area (not shown) of the camera image analysis unit 33, and corresponds to each of the projectors 11 to 14. The calculated geometric transformation matrix is calculated.

全ての幾何変換行列が求められると、カメラ映像解析部33は、シーケンス制御部39に完了を通知する。シーケンス制御部39は、完了通知を受け取ると、各プロジェクタ11〜14の制御回路29に幾何変換行列を送信する。 When all the geometric transformation matrices are obtained, the camera image analysis unit 33 notifies the sequence control unit 39 of the completion. Upon receiving the completion notification, the sequence control unit 39 transmits the geometric transformation matrix to the control circuit 29 of each of the projectors 11-14.

プロジェクタ11〜14の制御回路29は、幾何変換行列を受信すると、受信した幾何変換行列を幾何補正パラメータ格納部26に格納し、幾何補正回路25に対して、幾何補正パラメータ格納部26に格納されたパラメータ、すなわち幾何変換行列を用いて幾何変換を実行させる。また、制御回路29は、映像演算回路24が映像インタフェース20から出力される信号を出力するように設定する。 Upon receiving the geometric transformation matrix, the control circuits 29 of the projectors 11 to 14 store the received geometric transformation matrix in the geometric correction parameter storage unit 26, and the geometric correction parameter storage unit 26 stores it in the geometric correction parameter storage unit 26. The geometric transformation is executed using the parameter, that is, the geometric transformation matrix. Further, the control circuit 29 sets the video calculation circuit 24 so as to output the signal output from the video interface 20.

これらの設定を行うことにより、各プロジェクタ11〜14は、映像インタフェース20から入力された映像に対して、幾何補正パラメータ格納部26に格納されている幾何変換パラメータに基づいた幾何変換を実施し、変換後の映像を投影する。 By performing these settings, each of the projectors 11 to 14 performs geometric conversion on the video input from the video interface 20, based on the geometric conversion parameter stored in the geometric correction parameter storage unit 26, Project the converted image.

投影映像生成部36は、シーケンス制御部39からコンテンツ再生の指示を受け取ると、あらかじめ設定されているコンテンツ名に基づいて、映像コンテンツを記憶部38から読み出し、読み出した映像コンテンツに対してデコード処理を行い、映像データを生成する。 When the projection video generation unit 36 receives the content reproduction instruction from the sequence control unit 39, the projection video generation unit 36 reads the video content from the storage unit 38 based on the preset content name, and decodes the read video content. And generate video data.

投影映像生成部36は、生成した映像データを通信制御部35を経由して、各プロジェクタ11〜14に送出する。投影映像生成部36は、コンテンツに応じたフレーム周期、例えば30フレーム/秒ごとに、上記処理を実行して映像を更新することによって動画再生を実現する。さらに、各フレームの処理が完了するごとにフレーム同期信号をシーケンス制御部39に送出する。 The projection video generation unit 36 sends the generated video data to each of the projectors 11 to 14 via the communication control unit 35. The projection image generation unit 36 realizes moving image reproduction by executing the above processing and updating the image at a frame cycle corresponding to the content, for example, every 30 frames/second. Further, a frame synchronization signal is sent to the sequence controller 39 each time the processing of each frame is completed.

ここで、パラメータ算出部34による幾何変換行列の算出処理について説明する。 Here, the calculation processing of the geometric conversion matrix by the parameter calculation unit 34 will be described.

プロジェクタによる映像投射やカメラ15による撮影では、透視変換と呼ばれる変換に基づいて画像が変形されることになる。透視変換を行うことによって、実世界と同様に近くにある物体は大きく、遠くにある物体は小さく表示される。 When projecting an image with a projector or shooting with the camera 15, an image is transformed based on a transformation called perspective transformation. By performing perspective transformation, near objects are displayed large and objects far away are displayed small as in the real world.

透視変換によって、ある座標系の点(xi,yi)が、別の座標系の点(xo,yo)に変換されるとき、両者の間には式1の関係が成り立っている。 When a point (xi, yi) in one coordinate system is converted into a point (xo, yo) in another coordinate system by perspective transformation, the relationship of Equation 1 holds between them.

Figure 2020127162
Figure 2020127162

この式は同次座標で書かれており、xoとyoは、以下に示す式2、式3によって求めることができる。 This equation is written in homogeneous coordinates, and xo and yo can be obtained by the following equations 2 and 3.

Figure 2020127162
Figure 2020127162

式1の中の3×3行列が透視変換を規定する変換行列である。この変換行列は、行列の要素であるa00〜a21までの8個の変数を求めることにより特定することができる。8個の未知数を求めるには、8本の方程式が必要であり、そのためには、(xi,yi)と(xo,yo)との組を4つ知ることができればよい。 The 3×3 matrix in Expression 1 is a transformation matrix that defines the perspective transformation. This conversion matrix can be specified by obtaining eight variables a00 to a21 that are elements of the matrix. Eight equations are required to obtain eight unknowns, and for that purpose, it is sufficient to know four pairs of (xi, yi) and (xo, yo).

すなわち、透視変換前の映像上の4点の座標が、それぞれどの座標に変換されるかが判れば変換行列を求めることが可能である。ここでは、これを用いて、幾何変換行列を算出する。 That is, it is possible to obtain the conversion matrix by knowing to which coordinates the coordinates of the four points on the image before the perspective conversion are respectively converted. Here, this is used to calculate the geometric transformation matrix.

〈座標算出例〉
続いて、幾何変換行列による補正後の映像における4つのコーナ部の座標を算出例について説明する。なお、ここでは、説明を簡単にするために、2つのプロジェクタ11,12から映像が投影されるものとする。
<Coordinate calculation example>
Next, an example of calculating the coordinates of the four corners in the video after correction by the geometric transformation matrix will be described. In addition, here, for simplicity of description, it is assumed that images are projected from the two projectors 11 and 12.

図7は、図1のプロジェクタ11,12による全白画像の投影映像の一例を示す説明図である。 FIG. 7 is an explanatory diagram showing an example of a projected image of an all-white image by the projectors 11 and 12 of FIG.

図7(a)は、プロジェクタ11がスクリーン50に投影した全白画像51の形状を示したものであり、カメラ15によってプロジェクタ11がスクリーン50に投影した全白画像51を撮影したものである。 FIG. 7A shows the shape of the all-white image 51 projected by the projector 11 on the screen 50, and shows the all-white image 51 projected by the projector 11 on the screen 50 by the camera 15.

同様に、図7(b)は、プロジェクタ12がスクリーン50に投影した全白画像52の形状を示したものであり、カメラ15によってプロジェクタ12がスクリーン50に投影した全白画像52を撮影したものである。 Similarly, FIG. 7B shows the shape of the all-white image 52 projected by the projector 12 on the screen 50. The all-white image 52 projected by the projector 12 on the screen 50 is photographed by the camera 15. Is.

ここで、全白画像51の4つのコーナ部の頂点を、図7(a)に示すように、それぞれ点A0,B0,C0,D0とし、全白画像52の4つのコーナ部の頂点を、図7(b)に示すように、それぞれ点A1,B1,C1,D1とする。 Here, the vertices of the four corner portions of the all-white image 51 are points A0, B0, C0, and D0, respectively, as shown in FIG. 7A, and the vertices of the four corner portions of the all-white image 52 are As shown in FIG. 7B, points A1, B1, C1, and D1 are set, respectively.

これら図7の全白画像51,52を用いて補正後の映像53の4つのコーナ部の頂点である点Am,Bm,Cm,Dmを求めることによって補正後の映像53の表示領域を決定する。 The display area of the corrected image 53 is determined by obtaining the points Am, Bm, Cm, and Dm that are the vertices of the four corners of the corrected image 53 using the all-white images 51 and 52 of FIG. ..

〈表示領域の算出例〉
図8は、初期調整による表示領域における算出の一例を示す説明図である。
<Display area calculation example>
FIG. 8 is an explanatory diagram showing an example of calculation in the display area by initial adjustment.

この図8では、図7(a)の全白画像51および図7(b)の全白画像52をそれぞれ点線にて示しており、補正後の映像53を実線にて示している。 In FIG. 8, the all-white image 51 of FIG. 7A and the all-white image 52 of FIG. 7B are shown by dotted lines, and the corrected image 53 is shown by solid lines.

まず、図8のスクリーン50の左下方のコーナ部を原点として、全白画像51の点A0,D0および全白画像52の点A1,D1のX座標をそれぞれ求める。求めた点A0,D0および点A1,D1のX座標のうち、最大値となる点のX座標をそれぞれ点Amおよび点DmのX座標として設定する。 First, the X-coordinates of points A0 and D0 of the all-white image 51 and points A1 and D1 of the all-white image 52 are obtained with the corner portion at the lower left corner of the screen 50 of FIG. 8 as the origin. Among the obtained X coordinates of the points A0 and D0 and the points A1 and D1, the X coordinate of the point having the maximum value is set as the X coordinate of the point Am and the point Dm, respectively.

同様に、全白画像51の点B0,C0および全白画像52の点B1,C1のX座標をそれぞれ求め、求めた点B0,C0および点B1,C1のX座標のうち、最小値となる点のX座標をそれぞれ点Bmおよび点CmのX座標として設定する。 Similarly, the X-coordinates of the points B0 and C0 of the all-white image 51 and the points B1 and C1 of the all-white image 52 are obtained, respectively, which is the minimum value among the obtained X-coordinates of the points B0 and C0 and the points B1 and C1. The X coordinate of the point is set as the X coordinate of the point Bm and the point Cm, respectively.

続いて、全白画像51の点A0,B0および全白画像52の点A1,B1のY座標をそれぞれ求め、求めた点A0,B0および点A1,B1のY座標のうち、最大値となる点のY座標をそれぞれ点Amおよび点BmのY座標として設定する。 Subsequently, the Y coordinates of the points A0 and B0 of the all-white image 51 and the points A1 and B1 of the all-white image 52 are obtained, respectively, which is the maximum value among the Y coordinates of the obtained points A0 and B0 and the points A1 and B1. The Y coordinates of the points are set as the Y coordinates of the points Am and Bm, respectively.

同様に、全白画像51の点D0,C0および全白画像52の点D1,C1のY座標をそれぞれ求め、求めた点D0,C0および点D1,C1のY座標のうち、最大値となる点のY座標をそれぞれ点Dmおよび点CmのY座標として設定する。 Similarly, the Y coordinates of the points D0 and C0 of the all-white image 51 and the points D1 and C1 of the all-white image 52 are obtained, respectively, which is the maximum value among the obtained Y coordinates of the points D0 and C0 and the points D1 and C1. The Y coordinate of the point is set as the Y coordinate of the point Dm and the point Cm, respectively.

このようにして求めた点Am,Bm,Cm,Dmをコーナ部とする矩形領域を補正後の映像53の表示領域とする。 The rectangular area having the corners of the points Am, Bm, Cm, and Dm obtained in this way is used as the display area of the corrected image 53.

〈経時ずれ検出例〉
続いて、投射型映像表示システム10による経時ずれ検出の動作について説明する。
<Example of detection of time lag>
Next, the operation of detecting the time shift by the projection type image display system 10 will be described.

図9は、図5のステップS103の処理である経時ずれ検出における処理の一例を示すフローチャートである。 FIG. 9 is a flowchart showing an example of the process in the time shift detection which is the process of step S103 of FIG.

この図9に示す処理は、図2のカメラ映像解析部33が主体となって行うものである。シーケンス制御部39は、投影映像生成部36から出力されるフレーム同期信号ごとに図9に示す処理を実行するものとする。フレーム同期信号は、例えば30フレーム/毎に出力される。 The process shown in FIG. 9 is performed mainly by the camera image analysis unit 33 in FIG. The sequence control unit 39 is assumed to execute the processing shown in FIG. 9 for each frame synchronization signal output from the projection image generation unit 36. The frame synchronization signal is output, for example, every 30 frames.

まず、カメラ映像のフレーム重畳処理を行う(ステップS301)。ステップS301の処理において、シーケンス制御部39は、投影映像生成部36から出力されるフレーム同期信号を受信すると、カメラ入力部30に対して撮影要求を発行し、カメラ15による撮影が行われる。 First, frame superimposition processing of camera images is performed (step S301). In the process of step S301, when the sequence control unit 39 receives the frame synchronization signal output from the projection image generation unit 36, the sequence control unit 39 issues a shooting request to the camera input unit 30 and the camera 15 shoots.

カメラ15が撮影した映像は、カメラ入力部30の図示しないバッファなどに格納される。カメラ15の撮影が終了すると、該カメラ15から撮影完了信号が出力される。カメラ15からの撮影完了信号を受け取ると、シーケンス制御部39は、カメラ映像解析部33に映像格納コマンドを発行する。 The image captured by the camera 15 is stored in a buffer (not shown) of the camera input unit 30. When the camera 15 finishes shooting, the camera 15 outputs a shooting completion signal. Upon receiving the shooting completion signal from the camera 15, the sequence control unit 39 issues a video storage command to the camera video analysis unit 33.

カメラ映像解析部33は、映像格納コマンドを受信すると、カメラ入力部30のバッファから撮影映像を受け取り、該カメラ映像解析部33が有する内部バッファに映像を格納する。 Upon receiving the video storage command, the camera video analysis unit 33 receives the captured video from the buffer of the camera input unit 30 and stores the video in the internal buffer of the camera video analysis unit 33.

この内部バッファは、N個分の画像を格納することができ、直近Nフレーム分の撮影画像が格納される。ここで、Nの値は、あらかじめ規定されており、例えばN=30程度である。 The internal buffer can store N images, and the latest N frames of captured images are stored. Here, the value of N is defined in advance and is, for example, about N=30.

カメラ映像解析部33は、N枚分の画像の重畳処理を行う。重畳方法は、例えば比較明合成などである。この比較明合成は、画素位置ごとにN枚の画像の中から最大の値の画素を選択して合成する。 The camera image analysis unit 33 performs a superimposing process on N images. The superimposing method is, for example, comparative light composition. In this comparative bright combination, the pixel having the maximum value is selected from N images for each pixel position and combined.

続いて、プロジェクタ画像をNフレーム重畳する(ステップS302)。ステップS302の処理において、シーケンス制御部39は、投影映像解析部37に対して映像格納コマンドを発行する。 Then, N frames of the projector image are superimposed (step S302). In the process of step S302, the sequence control unit 39 issues a video storage command to the projection video analysis unit 37.

投影映像解析部37は、映像格納コマンドを受信すると、投影映像生成部36から投影画像を受け取り、投影映像解析部37の内部バッファに受け取った映像を格納する。この内部バッファは、N個分の画像を格納可能となっており、直近Nフレーム分の投影画像が格納される。 Upon receiving the image storage command, the projected image analysis unit 37 receives the projected image from the projected image generation unit 36 and stores the received image in the internal buffer of the projected image analysis unit 37. This internal buffer can store N images, and the latest N frames of projected images are stored.

Nの値はあらかじめ規定されており、例えばN=30程度である。投影映像解析部37は、N枚分の画像の重畳処理を行う。重畳方法は、ステップS301の処理と同様に、比較明合成である。 The value of N is defined in advance and is, for example, about N=30. The projected image analysis unit 37 performs a superimposing process on N images. The superimposing method is the comparative bright combination, as in the process of step S301.

そして、投影映像解析部37は、生成した重畳映像を解析して、映像の4つのコーナ部を検出することのできる映像であるか否かを判定する(ステップS303)。コーナ部を検出することのできる映像であると判定すると、投影映像解析部37は、重畳映像を解析して映像の4隅の座標を算出する(ステップS304)。 Then, the projected image analysis unit 37 analyzes the generated superimposed image and determines whether or not the image is one in which four corners of the image can be detected (step S303). If it is determined that the video is a video in which the corner portion can be detected, the projection video analysis unit 37 analyzes the superimposed video to calculate the coordinates of the four corners of the video (step S304).

また、ステップS303の処理において、コーナ部を検出することのできる映像でないと判定した際には、ステップS301の処理に戻る。 When it is determined in the process of step S303 that the image is not a corner-detectable image, the process returns to step S301.

続いて、投影映像解析部37は、算出した映像の4つのコーナ部の座標を、過去の算出結果と比較し、座標のずれがあらかじめ規定したしきい値を超えているか否かを判定する(ステップS305)。 Subsequently, the projection image analysis unit 37 compares the calculated coordinates of the four corners of the image with the past calculation results, and determines whether or not the coordinate deviation exceeds a predetermined threshold value ( Step S305).

座標のずれがしきい値を超えていないと判定した場合、投影映像解析部37は、経時ずれが発生していないと判定し、ステップS301の処理に戻る。また、座標のずれがしきい値を超えていると判定した場合、投影映像解析部37は、経時ずれが発生していると判定し、経時ずれを検出する(ステップS306)。経時ずれを検出した場合には、図5のステップS105の処理である経時ずれ補正が行われる。 If it is determined that the coordinate shift does not exceed the threshold value, the projected image analysis unit 37 determines that no temporal shift has occurred, and the process returns to step S301. If it is determined that the coordinate shift exceeds the threshold value, the projected image analysis unit 37 determines that a temporal shift has occurred, and detects the temporal shift (step S306). When the time-dependent deviation is detected, the time-dependent deviation correction which is the process of step S105 of FIG. 5 is performed.

また、ステップS305の処理において、投影映像解析部37は、算出した最新の4つのコーナ部の座標を次回以降に比較するために該投影映像解析部37が有する図示しないメモリなどに格納する。 Further, in the process of step S305, the projection video analysis unit 37 stores the calculated latest coordinates of the four corners in a memory or the like (not shown) included in the projection video analysis unit 37 in order to compare the coordinates of the latest four corners.

以上により、経時ずれ検出の処理が終了となる。 With the above, the process for detecting the time shift is completed.

図10は、図9の経時ずれ検出の一例を示す説明図である。 FIG. 10 is an explanatory diagram showing an example of detection of time-dependent shift in FIG. 9.

図10(a)は、2つのプロジェクタから投影される2つの映像に経時ずれが発生していない場合を示したものであり、図10(b)は、2つのプロジェクタから投影される2つの映像に経時ずれが発生している場合を示したものである。 FIG. 10A shows a case where two images projected from two projectors have no time lag, and FIG. 10B shows two images projected from two projectors. The figure shows the case where there is a time lag in.

まず、2つのプロジェクタから投影される2つの映像に経時ずれが発生していないときには、2つのプロジェクタからの投影映像が重なって表示される。 First, when the two images projected from the two projectors have no time lag, the projected images from the two projectors are displayed in an overlapping manner.

よって、2つのプロジェクタからの投影映像が表示される矩形領域、言い換えれば映像表示領域の4つのコーナ部の点は、図10(a)に示すように、図6の初期調整にて求めた点Am,Bm,Cm,Dmと一致することになる。 Therefore, as shown in FIG. 10A, the rectangular area where the projected images from the two projectors are displayed, in other words, the points at the four corners of the image display area are the points obtained by the initial adjustment in FIG. It will coincide with Am, Bm, Cm, and Dm.

一方、2つのプロジェクタからの投影映像に経時ずれが発生すると、それぞれのプロジェクタの映像表示領域がずれるために、各々の映像表示領域の4つのコーナ部の点が、図10(b)に示すように、図6の初期調整にて求めた点Am,Bm,Cm,Dmと一致しない。 On the other hand, when the projected images from the two projectors deviate over time, the image display areas of the respective projectors deviate, so that the four corner points of each image display area are as shown in FIG. In addition, the points Am, Bm, Cm, and Dm obtained by the initial adjustment in FIG. 6 do not match.

よって、2つのプロジェクタから投影された矩形領域のコーナ部の点と初期調整にて求めたコーナ部との座標とを比較して、該座標が一致している場合には、経時ずれが発生していないと判断することができる。また、座標が一致していない場合には、経時ずれが発生したと判定することができる。 Therefore, the coordinates of the corner portion of the rectangular area projected from the two projectors are compared with the coordinates of the corner portion obtained in the initial adjustment, and when the coordinates are the same, a time lag occurs. You can determine that you have not. Further, when the coordinates do not match, it can be determined that a time lapse has occurred.

〈経時ずれ補正について〉
続いて、経時ずれを検出した際の経時ずれ補正について説明する。
<About time lapse correction>
Next, a description will be given of the correction of time deviation when detecting the time deviation.

まず、各々のプロジェクタの全点灯時における4つのコーナ部の座標をそれぞれ求める。すべてのプロジェクタの座標が求まると、図6の初期調整と同様に幾何補正パラメータを算出する。 First, the coordinates of the four corner portions when all of the projectors are fully lit are obtained. When the coordinates of all the projectors are obtained, the geometric correction parameters are calculated as in the initial adjustment shown in FIG.

この経時ずれの補正は、動画コンテンツが投影されている際に行われるので、視聴者にできるだけ違和感を与えずに各プロジェクタの全点灯時におけるコーナ部の座標を求めることが重要となる。 Since the correction of the time lag is performed while the moving image content is being projected, it is important to obtain the coordinates of the corner portion when all the projectors are fully lit, without giving the viewer a feeling of strangeness.

続いて、前述した経時ずれ補正におけるプロジェクタの全点灯時におけるコーナ部の座標を求める方法について具体的に説明する。 Next, a method of obtaining the coordinates of the corner portion when the projector is fully lit in the above-described time deviation correction will be specifically described.

図11は、図2の投射型映像表示システム10による経時ずれ補正におけるコーナ部の座標算出の一例を示す説明図である。 FIG. 11 is an explanatory diagram showing an example of the calculation of the coordinates of the corner portion in the correction of the time lapse by the projection type image display system 10 of FIG.

なお、図11は、説明を簡単にするために2つのプロジェクタ11,12による座標の算出例を示している。 It should be noted that FIG. 11 shows an example of calculation of coordinates by the two projectors 11 and 12 for simplification of description.

図11に示す座標の算出方法は、座標算出の対象となるターゲットプロジェクタを点灯状態とし、それ以外、すなわち対象外のプロジェクタを消灯させるものである。 In the coordinate calculation method shown in FIG. 11, the target projector that is the target of the coordinate calculation is turned on, and the other projectors, that is, the non-target projectors are turned off.

プロジェクタ11における4つのコーナ部の座標をそれぞれ求める。この場合、図11(a)の左側に示すように、まず、座標算出の対象となるプロジェクタ11による映像投影を行う。このとき、図11(a)の右側に示すように、対象外のプロジェクタ12は、消灯させる。この状態にて、プロジェクタ11における4つのコーナ部の座標をそれぞれ求める。 The coordinates of the four corners of the projector 11 are obtained respectively. In this case, as shown on the left side of FIG. 11A, first, image projection is performed by the projector 11 that is the target of coordinate calculation. At this time, as shown on the right side of FIG. 11A, the non-target projector 12 is turned off. In this state, the coordinates of the four corner portions of the projector 11 are obtained.

続いて、プロジェクタ12の4つのコーナ部の座標を求める。この場合、図11(b)の左側に示すように、該プロジェクタ11を消灯させるとともに、図11(b)の右側に示すようにプロジェクタ12を点灯させる。この状態にて、プロジェクタ12における4つのコーナ部の座標をそれぞれ求める。 Then, the coordinates of the four corners of the projector 12 are obtained. In this case, the projector 11 is turned off as shown on the left side of FIG. 11B, and the projector 12 is turned on as shown on the right side of FIG. 11B. In this state, the coordinates of the four corners of the projector 12 are obtained.

なお、4つのプロジェクタの場合には、順次対象となるプロジェクタを点灯し、それ以外の非対象のすべてのプロジェクタを消灯することによって、4つのプロジェクタにおけるコーナ部の座標を求める。 In the case of four projectors, the target projectors are sequentially turned on and all other non-target projectors are turned off to obtain the coordinates of the corners of the four projectors.

これにより、視聴者に違和感を与えることなく、動画コンテンツを投影中に経時ずれを補正することができる。 With this, it is possible to correct the time lag during the projection of the moving image content without giving the viewer a feeling of strangeness.

ここでは、非対象のプロジェクタを消灯させていたが、非対象のプロジェクタを消灯させるのではなく、座標の算出に影響が出ない程度の映像となるように輝度を低下させるようにしてもよい。 Although the non-target projector is turned off here, the non-target projector may be turned off, and the brightness may be reduced so that the image does not affect the calculation of the coordinates.

図12は、図11の座標算出例を用いた経時ずれ補正における処理の一例を示すフローチャートである。 FIG. 12 is a flowchart showing an example of processing in the time shift correction using the coordinate calculation example of FIG. 11.

まず、シーケンス制御部39は、投影映像選択部31に保持している変数であるターゲットプロジェクタ番号を0に設定する(ステップS401)。続いて、ターゲットではないプロジェクタを消灯する(ステップS402)。 First, the sequence control unit 39 sets the target projector number, which is a variable held in the projected image selection unit 31, to 0 (step S401). Then, the projector that is not the target is turned off (step S402).

ステップS402の処理において、シーケンス制御部39は、ターゲットプロジェクタ番号に従って、通信制御部35を経由して、ターゲットではないプロジェクタ(例えばプロジェクタ12〜14)の制御回路29に映像を消灯するコマンドを発行する。 In the process of step S402, the sequence control unit 39 issues a command to turn off the image to the control circuit 29 of the projector (for example, the projectors 12 to 14) that is not the target via the communication control unit 35 according to the target projector number. ..

シーケンス制御部39からコマンドを受け取った制御回路29は、光学系27を制御して消灯させる。これによって、ターゲットではないプロジェクタ12〜14は消灯され、ターゲットプロジェクタ(例えばプロジェクタ11)の映像のみがスクリーン50に投影される。 The control circuit 29 which receives the command from the sequence control unit 39 controls the optical system 27 to turn off the light. As a result, the projectors 12 to 14 that are not targets are turned off, and only the image of the target projector (for example, the projector 11) is projected on the screen 50.

以降、図12のステップS403〜S408の処理は、図6のステップS204〜S209の処理と同様であるので、説明は省略する。そして、このように算出した幾何補正パラメータを用いて、前述した図8のように経時ずれを補正する。 After that, the processes of steps S403 to S408 of FIG. 12 are the same as the processes of steps S204 to S209 of FIG. 6, so description thereof will be omitted. Then, using the geometrical correction parameters calculated in this way, the temporal shift is corrected as shown in FIG.

以上により、経時ずれを定期的に自動的に補正することができるので、ユーザによるプロジェクタ11〜14設置後の再調整を不要とすることができる。これにより、利便性を向上させることができる。 As described above, since the time lag can be automatically corrected periodically, it is possible to eliminate the need for the user to readjust after installing the projectors 11 to 14. Thereby, convenience can be improved.

また、動画コンテンツの投影中に経時ずれを自動的に補正するので、画像のずれた動画コンテンツが投影されつつけることを低減することが可能となる。その結果、視聴者に高品質の映像を提供することができる。 In addition, since the time lapse is automatically corrected during the projection of the moving image content, it is possible to reduce the continuous projection of the moving image content with the shifted image. As a result, the viewer can be provided with high-quality video.

(実施の形態2)
〈座標算出例〉
図13は、本実施の形態2による経時ずれ補正におけるコーナ部の座標算出の一例を示す説明図である。
(Embodiment 2)
<Coordinate calculation example>
FIG. 13 is an explanatory diagram showing an example of the calculation of the coordinates of the corner portion in the correction of the time lapse according to the second embodiment.

なお、図13についても、説明を簡単にするために2つのプロジェクタ11,12による座標の算出例を示している。また、投射型映像表示システム10の構成については、図2の投射型映像表示システム10と同様であるので、説明は省略する。 Note that FIG. 13 also shows an example of calculating coordinates by the two projectors 11 and 12 for the sake of simplicity. The configuration of the projection type video display system 10 is the same as that of the projection type video display system 10 of FIG.

図13に示す座標の算出方法は、座標算出の対象となるプロジェクタを点灯状態とし、それ以外である対象外のプロジェクタにおける投影映像のコーナ部の輝度を低下させるものである。 The coordinate calculation method shown in FIG. 13 is to turn on the projector that is the target of coordinate calculation and reduce the brightness of the corner portion of the projected image in the other projectors that are not the target.

まず、図13(a)の左側に示すように、座標算出の対象となるプロジェクタ11を点灯させるとともに、図13(a)の右側に示すように、対象外のプロジェクタ12においては、投影映像のコーナ部の輝度を低下させる。この状態にて、プロジェクタ11の投影映像における4つのコーナ部の座標をそれぞれ求める。 First, as shown on the left side of FIG. 13A, the projector 11 that is the target of coordinate calculation is turned on, and as shown on the right side of FIG. Reduces the brightness of the corners. In this state, the coordinates of the four corners in the projected image of the projector 11 are obtained.

プロジェクタ11の4つのコーナ部の座標が求められると、図13(b)の右側に示すように、低下させていたプロジェクタ12のコーナ部の輝度を規定に戻すとともに、図13(b)の左側に示すように、プロジェクタ11における投影映像のコーナ部の輝度を低下させる。この状態にて、プロジェクタ12における4つのコーナ部の座標をそれぞれ求める。 When the coordinates of the four corners of the projector 11 are obtained, as shown on the right side of FIG. 13B, the lowered brightness of the corners of the projector 12 is returned to the standard, and the left side of FIG. As shown in, the brightness of the corner portion of the projected image on the projector 11 is reduced. In this state, the coordinates of the four corners of the projector 12 are obtained.

これにより、座標算出時には、コーナ部のみ輝度が低下し、その他の領域の輝度は低減しないので、投影映像の違和感をより少なくしながら、コーナ部の座標算出を行うことができる。 As a result, at the time of coordinate calculation, the luminance of only the corner portion is reduced and the luminance of the other regions is not reduced. Therefore, the coordinate calculation of the corner portion can be performed while further reducing the discomfort of the projected image.

ここでは、非対象のプロジェクタが投影するコーナ部の輝度を低下させていたが、投影映像のコーナ部にグラデーションがかかるように該プロジェクタを制御してもよい。また、輝度を低下させるコーナ部は、コーナ部が容易に検出される形状であればよい。 Here, the brightness of the corner portion projected by the non-target projector is reduced, but the projector may be controlled so that the corner portion of the projected image is gradationally applied. Further, the corner portion that reduces the brightness may have a shape that allows the corner portion to be easily detected.

図14は、図13の座標算出例を用いた経時ずれ補正における処理の一例を示すフローチャートである。 FIG. 14 is a flowchart showing an example of processing in the time shift correction using the coordinate calculation example of FIG.

まず、シーケンス制御部39は、投影映像選択部31に保持している変数であるターゲットプロジェクタ番号を0に設定する(ステップS501)。続いて、非対象のプロジェクタが投影するコーナ部の輝度を低下させる(ステップS502)。 First, the sequence control unit 39 sets the target projector number, which is a variable held in the projected image selection unit 31, to 0 (step S501). Then, the brightness of the corner portion projected by the non-target projector is reduced (step S502).

このステップS502の処理において、シーケンス制御部39は、ターゲットプロジェクタ番号に従って、通信制御部35を経由して、ターゲットではないプロジェクタ(例えばプロジェクタ12〜14)の制御回路29に投影映像のコーナ部の輝度を低下させるコマンドを発行する。 In the process of step S502, the sequence control unit 39 causes the control circuit 29 of the projector (for example, the projectors 12 to 14) that is not the target to control the brightness of the corner portion of the projected image via the communication control unit 35 according to the target projector number. Issue a command to lower the

シーケンス制御部39からコマンドを受け取った制御回路29は、マスク生成回路22を制御して投影映像のコーナ部の輝度を低下させるマスクを生成させる。映像演算回路24は、マスク生成回路22が生成したマスクを投影映像に合成して光学系27によって投影される。 The control circuit 29, which has received the command from the sequence control unit 39, controls the mask generation circuit 22 to generate a mask that reduces the brightness of the corner portion of the projected image. The image calculation circuit 24 synthesizes the mask generated by the mask generation circuit 22 into a projected image, and the image is projected by the optical system 27.

これによって、ターゲットではないプロジェクタ12〜14の投影映像のコーナ部の輝度が低下するので、輝度が低下していないターゲットプロジェクタ(例えばプロジェクタ11)の投影映像のコーナ部の座標を精度よく算出することができる。 As a result, the luminance of the corner portion of the projected image of the projectors 12 to 14, which is not the target, decreases, so that the coordinates of the corner portion of the projected image of the target projector (for example, the projector 11) whose luminance does not decrease can be calculated accurately. You can

以降、図14のステップS503〜S508の処理は、図6のステップS204〜S209の処理と同様であるので、説明は省略する。そして、このように算出した幾何補正パラメータを用いて、前述した図8のように経時ずれを補正する。 After that, the processes of steps S503 to S508 of FIG. 14 are the same as the processes of steps S204 to S209 of FIG. 6, so description thereof will be omitted. Then, using the geometrical correction parameters calculated in this way, the temporal shift is corrected as shown in FIG.

以上により、投影映像の違和感をより軽減しながら、経時ずれの補正を行うことができる。 As described above, it is possible to correct the temporal shift while further reducing the discomfort of the projected image.

(実施の形態3)
〈座標算出例〉
図15は、本実施の形態3によるコーナ部の座標算出における一例を示す説明図である。
(Embodiment 3)
<Coordinate calculation example>
FIG. 15 is an explanatory diagram showing an example of the coordinate calculation of the corner portion according to the third embodiment.

図15では、図13に示した座標算出方法において、検出対象のプロジェクタによってコーナ部にマーカを表示させる例を示している。投射型映像表示システム10の構成については、図2の投射型映像表示システム10と同様であるので、説明は省略する。 In the coordinate calculation method shown in FIG. 13, FIG. 15 shows an example in which a marker is displayed on the corner section by the projector to be detected. The configuration of the projection type image display system 10 is the same as that of the projection type image display system 10 of FIG.

この場合、図15(a)の左側に示すように、座標算出の対象となるプロジェクタ11を点灯させるとともに該プロジェクタ11にて投影映像における4つのコーナ部にマーカ60をそれぞれ重畳表示させる。 In this case, as shown on the left side of FIG. 15A, the projector 11 that is the target of coordinate calculation is turned on, and the projector 11 causes the markers 60 to be displayed in a superimposed manner on the four corners of the projected image.

また、対象外のプロジェクタ12においては、図15(a)の右側に示すように、投影映像のコーナ部の輝度を低下させる。この状態にて、プロジェクタ11の投影映像における4つのコーナ部の座標をそれぞれ求める。マーカ60を表示させることにより、プロジェクタ11の4つのコーナ部の座標をより精度よく、より短時間で検出することができる。 Further, in the non-target projector 12, as shown on the right side of FIG. 15A, the brightness of the corner portion of the projected image is reduced. In this state, the coordinates of the four corners in the projected image of the projector 11 are obtained. By displaying the marker 60, the coordinates of the four corners of the projector 11 can be detected more accurately and in a shorter time.

プロジェクタ11の4つのコーナ部の座標が求められると、図15(b)の左側に示すように、投影映像のコーナ部の輝度を低下させる。また、プロジェクタ12は、図15(b)の右側に示すように、コーナ部の輝度を規定に戻すとともに、各々のコーナ部にマーカ61を表示させる。これによって、プロジェクタ12の4つのコーナ部の座標をより精度よく、より短時間にて検出することができる。 When the coordinates of the four corners of the projector 11 are obtained, the brightness of the corners of the projected image is reduced as shown on the left side of FIG. Further, the projector 12 restores the brightness of the corners to the normal level and displays the markers 61 on the respective corners, as shown on the right side of FIG. This makes it possible to detect the coordinates of the four corners of the projector 12 more accurately and in a shorter time.

マーカ60,61は、マーカ生成回路21によって生成される。そして、映像演算回路24が、マーカ生成回路21が生成したマーカを投影される映像コンテンツに合成する、マーカ60,61が合成された映像コンテンツは、光学系27によって投影される。 The markers 60 and 61 are generated by the marker generation circuit 21. The video calculation circuit 24 combines the marker generated by the marker generation circuit 21 with the projected video content. The video content combined with the markers 60 and 61 is projected by the optical system 27.

マーカ60,61は、四角形や丸などのコーナ部が精度よく検出することのできる形状であればよく、制限はない。 The markers 60 and 61 are not limited as long as they have a shape such that a corner portion such as a quadrangle or a circle can be accurately detected.

また、マーカ60,61は、表示されている映像コンテンツの色相に近い色とするようにしてもよい。例えば、マーカ60,61付近の映像が草原などの場合には、該マーカ60,61の表示色を草原の色に近い緑色などとし、青空などの場合には、マーカ60,61を青空に近い青色などによって表示する。これによって、マーカ60、61を目立たなくすることができ、視聴者の違和感を軽減することができる。 Further, the markers 60 and 61 may have colors close to the hue of the displayed video content. For example, when the image near the markers 60 and 61 is grassland, the display color of the markers 60 and 61 is green, which is close to the color of grassland, and when the image is blue sky, the markers 60 and 61 are close to blue sky. Display in blue, etc. Thereby, the markers 60 and 61 can be made inconspicuous, and the viewer's discomfort can be reduced.

〈座標算出の他の例〉
図16は、図15の他の例を示す説明図である。
<Other examples of coordinate calculation>
FIG. 16 is an explanatory diagram showing another example of FIG.

この図16では、コーナ部にマーカ60,61を重畳表示させるのではなく、プロジェクタが投影する映像の表示領域の外周部に白色の枠を重畳表示する例を示している。なお、図16の外周部の黒色の線は図面を見やすくするためのものであり、実際には存在しない。 FIG. 16 shows an example in which the markers 60 and 61 are not displayed in a superimposed manner on the corners, but a white frame is displayed in a superimposed manner on the outer peripheral portion of the display area of the image projected by the projector. It should be noted that the black line on the outer peripheral portion of FIG. 16 is for making the drawing easier to see and does not actually exist.

まず、図16(a)に示すように、プロジェクタ11の投影映像における外周部に額縁状の枠60aを重畳表示させて、4つのコーナ部の座標をそれぞれ求める。その後、図16(b)に示すように、プロジェクタ12の投影映像における外周部に額縁状の枠61aを重畳表示させて、4つのコーナ部の座標をそれぞれ求める。 First, as shown in FIG. 16A, a frame-shaped frame 60a is superimposed and displayed on the outer peripheral portion of the projected image of the projector 11, and the coordinates of the four corner portions are obtained respectively. After that, as shown in FIG. 16B, a frame-shaped frame 61a is superimposed and displayed on the outer peripheral portion in the projected image of the projector 12, and the coordinates of the four corner portions are obtained.

これによっても、プロジェクタ11,12の4つのコーナ部の座標をより精度よく,より短時間にて検出することができる。 This also enables the coordinates of the four corners of the projectors 11 and 12 to be detected more accurately and in a shorter time.

以上により、動画コンテンツを視聴中における視聴者の違和感を低減しながら、より精度よく、より短時間で経時ずれを補正することができる。 As described above, it is possible to correct the time lag with higher accuracy and in a shorter time while reducing the discomfort of the viewer while watching the moving image content.

(実施の形態4)
〈座標算出例〉
図17は、本実施の形態4による経時ずれ補正におけるコーナ部の座標算出の一例を示す説明図である。投射型映像表示システム10の構成については、図2の投射型映像表示システム10と同様であるので、説明は省略する。
(Embodiment 4)
<Coordinate calculation example>
FIG. 17 is an explanatory diagram showing an example of the calculation of the coordinates of the corner portion in the time lapse correction according to the fourth embodiment. The configuration of the projection type image display system 10 is the same as that of the projection type image display system 10 of FIG.

なお、図17についても、説明を簡単にするために2つのプロジェクタ11,12による座標の算出例を示している。 Note that FIG. 17 also shows an example of calculating coordinates by the two projectors 11 and 12 for the sake of simplicity.

図17に示す座標の算出方法は、対象外のプロジェクタにおける投影映像のコーナ部の輝度を低下させる図13の処理に加えて、対象のプロジェクタにおいて、輝度が低下したコーナ部の輝度を上げる処理を行うものである。 The coordinate calculation method shown in FIG. 17 includes a process of increasing the brightness of the corner part of the target projector whose brightness has decreased, in addition to the process of FIG. 13 of decreasing the brightness of the corner part of the projected image on the non-target projector. It is something to do.

まず、図17(a)の左側に示すように、座標算出の対象となるプロジェクタ11を点灯させるとともに、図17(b)の右側に示すように、対象外のプロジェクタ12においては、投影映像のコーナ部の輝度を低下させる。 First, as shown on the left side of FIG. 17A, the projector 11 that is the target of coordinate calculation is turned on, and as shown on the right side of FIG. Reduces the brightness of the corners.

このとき、プロジェクタ11は、輝度が低下したプロジェクタ12の投影映像のコーナ部の輝度を増加させる。この際、プロジェクタ11では、コーナ部が明確に検出できる程度の輝度まで増加させる。 At this time, the projector 11 increases the brightness of the corner portion of the projected image of the projector 12 whose brightness has decreased. At this time, the projector 11 increases the brightness to such an extent that the corner portion can be clearly detected.

これによって、コーナ部の輝度低下を補うことができるので、違和感の少ない投影映像を視聴者などに提供することができる。この状態にて、プロジェクタ11の投影映像における4つのコーナ部の座標をそれぞれ求める。 With this, it is possible to compensate for the decrease in the brightness of the corner portion, and thus it is possible to provide a viewer or the like with a projected image with less discomfort. In this state, the coordinates of the four corners in the projected image of the projector 11 are obtained.

プロジェクタ11の4つのコーナ部の座標が求められると、図17(b)の左側に示すように、プロジェクタ11における投影映像のコーナ部の輝度を低下させるとともに、図17(b)の右側に示すように、低下させていたプロジェクタ12のコーナ部の輝度を規定よりも明るくなるように増加させる。この場合も、プロジェクタ12は、コーナ部が明確に検出できる程度の輝度まで増加させる。 When the coordinates of the four corners of the projector 11 are obtained, as shown on the left side of FIG. 17(b), the brightness of the corners of the projected image on the projector 11 is reduced and at the right side of FIG. 17(b). As described above, the lowered brightness of the corner portion of the projector 12 is increased to be brighter than the specified value. Also in this case, the projector 12 increases the brightness to such an extent that the corner portion can be clearly detected.

この状態にて、プロジェクタ12における4つのコーナ部の座標をそれぞれ求める。これによっても、コーナ部の輝度低下を補うことができるので、より違和感の少ない投影映像を視聴者などに提供することができる。 In this state, the coordinates of the four corners of the projector 12 are obtained. This also makes it possible to compensate for the decrease in the brightness of the corner portion, and thus it is possible to provide a viewer with a projected image with less discomfort.

この場合、図17に示すコーナ部の輝度の増加は、シーケンス制御部39がマスク生成回路22を制御して投影映像のコーナ部の輝度を低下させるマスクおよびコーナ部の輝度を増加させるマスクを生成させる。 In this case, in order to increase the brightness of the corner portion shown in FIG. 17, the sequence control unit 39 controls the mask generation circuit 22 to generate a mask for decreasing the brightness of the corner portion of the projected image and a mask for increasing the brightness of the corner portion. Let

これにより、求めた各プロジェクタの投影映像のコーナ部の座標から算出した幾何補正パラメータを用いて、前述した図8のように経時ずれを補正する。 As a result, the temporal shift is corrected as shown in FIG. 8 using the geometric correction parameters calculated from the obtained coordinates of the corners of the projected image of each projector.

投影映像のコンテンツによっては、映像の周辺部の明るく表示されるものがある。このようなコンテンツを表示している場合には、図17に示すようにコーナ部の輝度を上げると画素の輝度値の上限を超えるオーバフローとなってしまい、表示される映像が飽和してしまう場合がある。 Depending on the content of the projected image, there is one that is brightly displayed around the image. When such a content is displayed, if the brightness of the corner portion is increased as shown in FIG. 17, the overflow exceeds the upper limit of the brightness value of the pixel, and the displayed image is saturated. There is.

よって、投影映像解析部37は、投影するコンテンツ映像の周辺が明るい場合に、座標算出時にコーナ部の輝度を上げると、画素の輝度値がオーバフローするか否かを判断する。この処理は、フレーム毎に行われる。 Therefore, when the surroundings of the projected content video are bright, the projection video analysis unit 37 determines whether the brightness value of the pixel overflows if the brightness of the corner portion is increased during the coordinate calculation. This process is performed for each frame.

オーバフローが発生すると判断すると、投影映像解析部37は、シーケンス制御部39に対して、座標の算出処理におけるコーナ部の輝度の増加を停止する制御信号を出力する。シーケンス制御部39は、制御信号を受け取ると、当該フレームによるコーナ部の輝度の増加を中止し、 座標の算出処理を取りやめる。 When determining that an overflow occurs, the projected image analysis unit 37 outputs to the sequence control unit 39 a control signal for stopping the increase in the brightness of the corner portion in the coordinate calculation process. When the sequence control unit 39 receives the control signal, the sequence control unit 39 stops increasing the brightness of the corner portion by the frame and cancels the coordinate calculation process.

シーケンス制御部39は、投影映像解析部37からオーバフローが発生しない映像コンテンツであると判断したことを示す制御信号を受け取ると、コーナ部の輝度の増加を再開して 座標の算出処理を実行する。 When the sequence control unit 39 receives from the projection image analysis unit 37 a control signal indicating that the video content is determined not to cause an overflow, the sequence control unit 39 restarts the increase in the brightness of the corner portion and executes the coordinate calculation process.

以上により、経時ずれ補正において、視聴者に、より違和感のない動画コンテンツを提供することができる。 As described above, in the temporal shift correction, the viewer can be provided with moving image content that is more comfortable.

(実施の形態5)
〈経時ずれの補正例〉
図9に示したように経時ずれ検出処理では、カメラ映像を重畳してずれを検出する。そのため、例えば設置されているプロジェクタが前方向にずれた場合には、ずれたプロジェクタの投影映像が小さくなるだけであり、そのずれを検出できることができない。
(Embodiment 5)
<Example of correction of time lag>
As shown in FIG. 9, in the temporal shift detection process, camera images are superimposed to detect the shift. Therefore, for example, when the installed projector is displaced in the forward direction, the projected image of the displaced projector is only reduced, and the displacement cannot be detected.

そこで、本実施の形態5においては、プロジェクタが前方向にずれた場合であっても、経時ずれの補正を行うことのできる技術について説明する。 Therefore, in the fifth embodiment, a technique capable of correcting the temporal shift even when the projector shifts in the forward direction will be described.

図18は、本実施の形態5による投射型映像表示システム10における全体処理の概要の一例を示すフローチャートである。図19は、経時ずれが発生した画像コンテンツの一例を示す説明図である。 FIG. 18 is a flowchart showing an example of the outline of the overall processing in the projection type video display system 10 according to the fifth embodiment. FIG. 19 is an explanatory diagram showing an example of image content in which a time lag has occurred.

図19(a)に示す映像コンテンツは、経時ずれが発生していない場合を示しており、図19(b)に示す映像コンテンツは、2つのプロジェクタ11,12のうち、例えばプロジェクタ11が前方向にずれる経時ずれが発生している場合の例を示している。 The video content shown in FIG. 19A shows a case in which no time lag has occurred, and the video content shown in FIG. 19B shows that the projector 11 out of the two projectors 11 and 12 is in the forward direction. An example of a case in which there is a time lag that shifts to

図19(b)に示したプロジェクタ11が前方向にずれて経時ずれが発生した場合には、前述したように前方にずれたプロジェクタ11の映像表示領域が小さくあるだけである。よって、図9に示す経時ずれ検出の処理の場合、Nフレームを重畳して撮影したカメラ映像から4つのコーナ部の検出しているため、経時ずれを検出することができない。 When the projector 11 shown in FIG. 19B shifts in the forward direction and a time shift occurs, as described above, the image display area of the projector 11 that shifts forward is only small. Therefore, in the case of the processing for detecting the time-dependent shift shown in FIG. 9, since the four corners are detected from the camera image captured by superimposing N frames, the time-dependent shift cannot be detected.

そこで、図18のフローチャートに示すように、初期調整の処理において、ステップS606の処理を追加することにより、プロジェクタが前方向にずれることによる経時ずれの発生を低減する。 Therefore, as shown in the flowchart of FIG. 18, in the initial adjustment process, the process of step S606 is added to reduce the occurrence of a time-dependent shift due to the forward shift of the projector.

ここで、図18のフローチャートにおけるステップS601〜ステップS605の処理は、図5のステップS101〜S105の処理と同様であるので、説明は省略する。 Here, the processing of steps S601 to S605 in the flowchart of FIG. 18 is the same as the processing of steps S101 to S105 of FIG. 5, so description thereof will be omitted.

ステップS606の処理では、ステップS604の検出処理にて経時ずれが発生したことが検出されなかった場合、図2のシーケンス制御部39が、予め設定された時間が経過したか否かの判断を行う。設定される時間は、例えば24時間程度である。 In the process of step S606, if it is not detected in the detection process of step S604 that a time-dependent shift has occurred, the sequence control unit 39 of FIG. 2 determines whether or not a preset time has elapsed. .. The set time is, for example, about 24 hours.

設定時間を経過している場合、シーケンス制御部39は、ステップS601の処理である初期調整を実行して、幾何補正パラメータを算出して投影映像のずれを補正する。この初期調整は、図6に示す処理である。 If the set time has elapsed, the sequence control unit 39 executes the initial adjustment, which is the process of step S601, calculates the geometric correction parameter, and corrects the deviation of the projected image. This initial adjustment is the process shown in FIG.

これにより、プロジェクタが前方にずれる経時ずれであっても、補正することがきるので、良好な動画コンテンツを提供することができる。 As a result, even if the projector is displaced forward with time, it can be corrected, so that good moving image content can be provided.

(実施の形態6)
〈投射型映像表示システムの構成例〉
図20は、本実施の形態6による投射型映像表示システム10における構成の一例を示す説明図である。
(Embodiment 6)
<Configuration example of projection type video display system>
FIG. 20 is an explanatory diagram showing an example of the configuration of the projection-type image display system 10 according to the sixth embodiment.

図20に示す投射型映像表示システム10は、図2と同様に、プロジェクタ11〜14、カメラ15、およびパーソナルコンピュータ16から構成されている。 The projection-type image display system 10 shown in FIG. 20 includes projectors 11 to 14, a camera 15, and a personal computer 16, as in FIG.

図2の投射型映像表示システム10では、初期調整の処理および経時ずれ補正の処理をプロジェクタ11〜14にて実行したが、図20に示す投射型映像表示システム10では、初期調整の処理および経時ずれ補正の処理を実行する機能をパーソナルコンピュータ16に持たせた例を示している。 In the projection type image display system 10 of FIG. 2, the initial adjustment process and the temporal deviation correction process are executed by the projectors 11 to 14. However, in the projection type image display system 10 shown in FIG. An example is shown in which the personal computer 16 is provided with a function of executing the process of the deviation correction.

プロジェクタ11〜14は、映像インタフェース20、光学系27、通信インタフェース28、および制御回路29からそれぞれ構成されている。これら映像インタフェース20、光学系27、通信インタフェース28、および制御回路29における動作については、図2と同様であるので、説明は省略する。 The projectors 11 to 14 each include a video interface 20, an optical system 27, a communication interface 28, and a control circuit 29. The operations of the video interface 20, the optical system 27, the communication interface 28, and the control circuit 29 are the same as those in FIG.

パーソナルコンピュータ16は、カメラ入力部30、投影映像選択部31、映像送出部32、カメラ映像解析部33、パラメータ算出部34、通信制御部35、投影映像生成部36、投影映像解析部37、記憶部38、およびシーケンス制御部39からなる図2のパーソナルコンピュータ16と同様の構成に、初期調整の処理および経時ずれ補正の処理を実行する機能ブロックであるマーカ重畳部41、マスク生成処理部42、パターン生成処理部43、映像演算処理部44、幾何補正処理部45、ならびに幾何補正パラメータ格納部46が新たに設けられている。 The personal computer 16 includes a camera input unit 30, a projection video selection unit 31, a video transmission unit 32, a camera video analysis unit 33, a parameter calculation unit 34, a communication control unit 35, a projection video generation unit 36, a projection video analysis unit 37, and a storage. The personal computer 16 of FIG. 2 including the unit 38 and the sequence control unit 39 has the same configuration as the personal computer 16 of FIG. A pattern generation processing unit 43, a video calculation processing unit 44, a geometric correction processing unit 45, and a geometric correction parameter storage unit 46 are newly provided.

パーソナルコンピュータ16に新たに設けられたマーカ重畳部41、マスク生成処理部42、パターン生成処理部43、映像演算処理部44、幾何補正処理部45、および幾何補正パラメータ格納部46の動作については、図2のマーカ生成回路21、マスク生成回路22、パターン生成回路23、映像演算回路24、幾何補正回路25、および幾何補正パラメータ格納部26と同様であるので、説明は省略する。 Regarding the operation of the marker superimposing unit 41, the mask generation processing unit 42, the pattern generation processing unit 43, the video calculation processing unit 44, the geometric correction processing unit 45, and the geometric correction parameter storage unit 46, which are newly provided in the personal computer 16, The description is omitted because it is the same as the marker generation circuit 21, the mask generation circuit 22, the pattern generation circuit 23, the video calculation circuit 24, the geometric correction circuit 25, and the geometric correction parameter storage unit 26 of FIG. 2.

また、カメラ入力部30、投影映像選択部31、映像送出部32、カメラ映像解析部33、パラメータ算出部34、通信制御部35、投影映像生成部36、投影映像解析部37、記憶部38、およびシーケンス制御部39における動作についても、図2と同様であるので、説明は省略する。 Further, the camera input unit 30, the projected image selection unit 31, the image transmission unit 32, the camera image analysis unit 33, the parameter calculation unit 34, the communication control unit 35, the projected image generation unit 36, the projected image analysis unit 37, the storage unit 38, Also, the operation of the sequence control unit 39 is similar to that of FIG.

このように、初期調整の処理および経時ずれ補正の処理を実行する機能ブロックをパーソナルコンピュータ16に設けることにより、各プロジェクタ11〜14の小型化および低コスト化を実現することができる。 As described above, by providing the personal computer 16 with the functional blocks that execute the initial adjustment process and the time lag correction process, the projectors 11 to 14 can be downsized and the cost can be reduced.

(実施の形態7)
〈投射型映像表示システムの構成例〉
本実施の形態7においては、図2のパーソナルコンピュータ16およびカメラ15を不要とする構成について説明する。
(Embodiment 7)
<Configuration example of projection type video display system>
In the seventh embodiment, a configuration in which the personal computer 16 and the camera 15 of FIG. 2 are unnecessary will be described.

図21は、本実施の形態7による投射型映像表示システム10における構成の一例を示す説明図である。 FIG. 21 is an explanatory diagram showing an example of the configuration of the projection-type image display system 10 according to the seventh embodiment.

図21に示す投射型映像表示システム10は、プロジェクタ11〜14および携帯端末90から構成されており、該携帯端末90がカメラ15およびパーソナルコンピュータ16の機能を実行する。 The projection type image display system 10 shown in FIG. 21 includes projectors 11 to 14 and a mobile terminal 90, and the mobile terminal 90 executes the functions of the camera 15 and the personal computer 16.

プロジェクタ11〜14の構成については、図2の通信インタフェース28の代わりに通信インタフェース28aが設けられている。その他の映像インタフェース20、マーカ生成回路21、マスク生成回路22、パターン生成回路23、映像演算回路24、幾何補正回路25、幾何補正パラメータ格納部26、光学系27、および制御回路29の接続構成については、図2と同様であるので、説明は省略する。 Regarding the configuration of the projectors 11 to 14, a communication interface 28a is provided instead of the communication interface 28 of FIG. Other connection configurations of the video interface 20, the marker generation circuit 21, the mask generation circuit 22, the pattern generation circuit 23, the video calculation circuit 24, the geometric correction circuit 25, the geometric correction parameter storage unit 26, the optical system 27, and the control circuit 29. Is the same as that in FIG. 2, and the description thereof will be omitted.

通信インタフェース28aは、無線LAN(Local Area Network)やBluetooth(登録商標)などによる無線通信などを行う。映像インタフェース20は、図示しないパーソナルコンピュータが接続される。パーソナルコンピュータは、視聴者に対して表示する投影映像である映像コンテンツのデータを出力する。 The communication interface 28a performs wireless communication such as wireless LAN (Local Area Network) or Bluetooth (registered trademark). A personal computer (not shown) is connected to the video interface 20. The personal computer outputs video content data that is a projected video to be displayed to the viewer.

携帯端末90は、スマートフォンあるいはタブレットなどの電子携帯機器である。携帯端末90は、カメラ80、カメラ入力部81、カメラ映像解析部82、パラメータ算出部83、記憶部84、シーケンス制御部85、表示部86、および通信制御部87から構成されている。 The mobile terminal 90 is an electronic mobile device such as a smartphone or a tablet. The mobile terminal 90 includes a camera 80, a camera input unit 81, a camera image analysis unit 82, a parameter calculation unit 83, a storage unit 84, a sequence control unit 85, a display unit 86, and a communication control unit 87.

これらカメラ入力部81、カメラ映像解析部82、パラメータ算出部83、記憶部84、シーケンス制御部85、表示部86、および通信制御部87は、内部バス88によって相互に接続されている。 The camera input unit 81, camera image analysis unit 82, parameter calculation unit 83, storage unit 84, sequence control unit 85, display unit 86, and communication control unit 87 are interconnected by an internal bus 88.

通信制御部87は、例えば3G(Generation)や4Gなどの通信規格による無線通信および無線LAN(Local Area Network)やBluetooth(登録商標)などによる無線通信などを行う。表示部86は、例えば液晶ディスプレイであり、各種の情報を表示する。 The communication control unit 87 performs, for example, wireless communication according to a communication standard such as 3G (Generation) or 4G and wireless communication according to a wireless LAN (Local Area Network) or Bluetooth (registered trademark). The display unit 86 is, for example, a liquid crystal display, and displays various kinds of information.

ここで、映像コンテンツのデータは、前述したパーソナルコンピュータからではなく、携帯端末90から送信するようにしてもよい。その場合には、通信制御部87が、プロジェクタ11〜14が有する無線通信インタフェース46に対して無線通信によって送信する。 Here, the data of the video content may be transmitted from the mobile terminal 90 instead of the above-mentioned personal computer. In that case, the communication control unit 87 transmits to the wireless communication interface 46 of the projectors 11 to 14 by wireless communication.

カメラ80、カメラ入力部81、カメラ映像解析部82、パラメータ算出部83、記憶部84、シーケンス制御部85、表示部86、および通信制御部87については、図2のカメラ15、カメラ入力部30、カメラ映像解析部33、パラメータ算出部34、記憶部38、およびシーケンス制御部39と同様であるので、説明は省略する。 Regarding the camera 80, the camera input unit 81, the camera image analysis unit 82, the parameter calculation unit 83, the storage unit 84, the sequence control unit 85, the display unit 86, and the communication control unit 87, the camera 15, the camera input unit 30 in FIG. The camera image analysis unit 33, the parameter calculation unit 34, the storage unit 38, and the sequence control unit 39 are the same as those in FIG.

このように、投射型映像表示システム10をプロジェクタ11〜14および携帯端末90から構成することによって、システムの小型化を実現することができる。 As described above, by configuring the projection-type image display system 10 with the projectors 11 to 14 and the portable terminal 90, the system can be downsized.

(実施の形態8)
〈投射型映像表示システムの構成例〉
図22は、本実施の形態8による投射型映像表示システム10における構成の一例を示す説明図である。
(Embodiment 8)
<Configuration example of projection type video display system>
FIG. 22 is an explanatory diagram showing an example of the configuration of the projection-type image display system 10 according to the eighth embodiment.

図22に示す投射型映像表示システム10は、プロジェクタ11〜14およびパーソナルコンピュータ16から構成されている。 The projection-type image display system 10 shown in FIG. 22 includes projectors 11 to 14 and a personal computer 16.

図22の投射型映像表示システム10が、図2の投射型映像表示システム10と異なる点は、プロジェクタ11にカメラ95が内蔵されたところである。その他の構成および動作については、図2と同様であるので、説明を省略する。 The projection-type image display system 10 of FIG. 22 is different from the projection-type image display system 10 of FIG. 2 in that a camera 95 is built in the projector 11. Other configurations and operations are the same as those in FIG. 2, and therefore description thereof will be omitted.

このように、プロジェクタ11にカメラ95を内蔵することにより、カメラの取り付け作業などを不要にすることができるので、利便性をより向上することができる。また、投射型映像表示システム10における設置時間についても短縮することができる。 As described above, by incorporating the camera 95 in the projector 11, it is possible to eliminate the work of attaching the camera and the like, so that the convenience can be further improved. Further, the installation time in the projection type image display system 10 can be shortened.

以上、本発明者によってなされた発明を実施の形態に基づき具体的に説明したが、本発明は前記実施の形態に限定されるものではなく、その要旨を逸脱しない範囲で種々変更可能であることはいうまでもない。 Although the invention made by the present inventor has been specifically described based on the embodiment, the invention is not limited to the embodiment, and various modifications can be made without departing from the scope of the invention. Needless to say.

10 投射型映像表示システム
11 プロジェクタ
12 プロジェクタ
13 プロジェクタ
14 プロジェクタ
15 カメラ
16 パーソナルコンピュータ
20 映像インタフェース
21 マーカ生成回路
22 マスク生成回路
23 パターン生成回路
24 映像演算回路
25 幾何補正回路
26 幾何補正パラメータ格納部
27 光学系
28 通信インタフェース
29 制御回路
30 カメラ入力部
31 投影映像選択部
32 映像送出部
33 カメラ映像解析部
34 パラメータ算出部
35 通信制御部
36 投影映像生成部
37 投影映像解析部
38 記憶部
39 シーケンス制御部
41 マーカ重畳部
42 マスク生成処理部
43 パターン生成処理部
44 映像演算処理部
45 幾何補正処理部
46 幾何補正パラメータ格納部
80 カメラ
81 カメラ入力部
82 カメラ映像解析部
83 パラメータ算出部
84 記憶部
85 シーケンス制御部
86 表示部
87 通信制御部
88 内部バス
90 携帯端末
95 カメラ
10 Projection Type Video Display System 11 Projector 12 Projector 13 Projector 14 Projector 15 Camera 16 Personal Computer 20 Video Interface 21 Marker Generation Circuit 22 Mask Generation Circuit 23 Pattern Generation Circuit 24 Video Operation Circuit 25 Geometrical Correction Circuit 26 Geometrical Correction Parameter Storage 27 Optical System 28 Communication interface 29 Control circuit 30 Camera input unit 31 Projected image selection unit 32 Image transmission unit 33 Camera image analysis unit 34 Parameter calculation unit 35 Communication control unit 36 Projected image generation unit 37 Projected image analysis unit 38 Storage unit 39 Sequence control unit 41 marker superimposing unit 42 mask generation processing unit 43 pattern generation processing unit 44 video calculation processing unit 45 geometric correction processing unit 46 geometric correction parameter storage unit 80 camera 81 camera input unit 82 camera video analysis unit 83 parameter calculation unit 84 storage unit 85 sequence Control unit 86 Display unit 87 Communication control unit 88 Internal bus 90 Mobile terminal 95 Camera

Claims (10)

複数の映像を重ね合わせて表示する投射型映像表示システムであって、
前記映像を投影する複数のプロジェクタと、
複数の前記プロジェクタに映像データを出力するコンピュータと、
複数の前記プロジェクタが映像投射面に投影する前記映像を撮影する撮像部と、
を備え、
複数の前記プロジェクタは、
投影される前記映像の幾何学的歪みを幾何パラメータに基づいて補正する幾何補正部と、
前記映像投射面に前記映像を投影する映像投射部と、
を有し、
前記コンピュータは、
前記撮像部が撮影した前記映像を解析して、複数の前記プロジェクタが投影する映像にずれが生じる経時ずれが発生しているか否かを判定する映像解析部と、
複数の前記プロジェクタを制御する制御部と、
を有し、
前記映像解析部は、前記撮像部が撮影した各々の前記プロジェクタが投影する前記映像を全て重畳した映像の4つのコーナ部の座標をそれぞれ算出し、算出した前記座標とあらかじめ設定されているしきい値とを比較して、前記座標が前記しきい値を超えている場合に経時ずれが発生していると判定し、
前記幾何補正部は、前記映像解析部が経時ずれが発生していると判定した際に各々の前記プロジェクタが投影する前記映像を補正する、投射型映像表示システム。
A projection type image display system for displaying a plurality of images in an overlapping manner,
A plurality of projectors for projecting the image,
A computer that outputs video data to the plurality of projectors;
An imaging unit that captures the video projected by the plurality of projectors onto a video projection surface;
Equipped with
A plurality of said projectors,
A geometric correction unit that corrects the geometric distortion of the projected image based on a geometric parameter;
An image projection unit that projects the image on the image projection surface,
Have
The computer is
An image analysis unit that analyzes the image captured by the image capturing unit and determines whether there is a time-dependent shift that causes a shift in the images projected by the plurality of projectors,
A control unit for controlling the plurality of projectors;
Have
The image analysis unit calculates coordinates of four corners of an image obtained by superimposing all of the images projected by each of the projectors captured by the imaging unit, and the calculated coordinates and preset thresholds. By comparing with the value, it is determined that a time lapse has occurred when the coordinates exceed the threshold value,
The projection type image display system, wherein the geometric correction unit corrects the image projected by each of the projectors when the image analysis unit determines that a time lag has occurred.
請求項1記載の投射型映像表示システムにおいて、
前記制御部は、前記撮像部が各々の前記プロジェクタの前記映像を撮影する際に、座標算出の対象ではないプロジェクタの投影映像の一部の輝度を低減させる、投射型映像表示システム。
The projection type image display system according to claim 1,
The projection-type image display system, wherein the control unit reduces the brightness of a part of the projection image of the projector that is not the target of coordinate calculation when the imaging unit captures the image of the projector.
請求項1記載の投射型映像表示システムにおいて、
前記制御部は、前記撮像部が各々の前記プロジェクタの前記映像を撮影する際に、座標算出の対象となるプロジェクタの映像のみを投影させ、対象ではないプロジェクタを消灯させる、投射型映像表示システム。
The projection type image display system according to claim 1,
The projection-type video display system, wherein the control unit projects only the video of the projector that is the target of coordinate calculation and turns off the projector that is not the target when the imaging unit captures the video of each of the projectors.
請求項1記載の投射型映像表示システムにおいて、
複数の前記プロジェクタは、
前記映像のコーナ部の座標の算出を補助するマーカを生成するマーカ生成部と、
前記マーカ生成部が生成する前記マーカを前記映像の4つのコーナ部に重畳させる映像演算部と、
を有し、
前記撮像部は、前記マーカが重畳表示された前記映像を前記プロジェクタ毎にそれぞれ撮影し、
前記映像解析部は、前記撮像部が撮影した前記マーカが重畳表示された前記映像から前記コーナ部の座標を算出する、投射型映像表示システム。
The projection type image display system according to claim 1,
A plurality of said projectors,
A marker generation unit that generates a marker for assisting the calculation of the coordinates of the corner portion of the image,
An image calculation unit that superimposes the markers generated by the marker generation unit on four corners of the image,
Have
The image capturing unit captures the image on which the marker is superimposed and displayed for each of the projectors,
The projection image display system, wherein the image analysis unit calculates coordinates of the corner from the image on which the marker captured by the image capturing unit is superimposed and displayed.
請求項4記載の投射型映像表示システムにおいて、
前記マーカ生成部は、投影される前記映像に近似する色のマーカを生成する、投射型映像表示システム。
The projection type image display system according to claim 4,
The projection type image display system, wherein the marker generation unit generates a marker of a color similar to the projected image.
請求項1記載の投射型映像表示システムにおいて、
複数の前記プロジェクタは、
前記映像のコーナ部の算出を補助するマーカを生成するマーカ生成部と、
前記マーカ生成部が生成する前記マーカを前記映像の4つのコーナ部に重畳させる映像演算部と、
を有し、
前記マーカ生成部が生成する前記マーカは、前記映像の外周部を取り囲む額縁状の枠であり、
前記撮像部は、前記マーカが重畳表示された前記映像を前記プロジェクタ毎にそれぞれ撮影し、
前記映像解析部は、前記撮像部が撮影した前記マーカが重畳表示された前記映像から前記コーナ部の座標を算出する、投射型映像表示システム。
The projection type image display system according to claim 1,
A plurality of said projectors,
A marker generation unit that generates a marker for assisting the calculation of the corner portion of the image,
An image calculation unit that superimposes the markers generated by the marker generation unit on four corners of the image,
Have
The marker generated by the marker generation unit is a frame-shaped frame surrounding the outer peripheral portion of the image,
The image capturing unit captures the image on which the marker is superimposed and displayed for each of the projectors,
The projection image display system, wherein the image analysis unit calculates coordinates of the corner from the image on which the marker captured by the image capturing unit is superimposed and displayed.
請求項1記載の投射型映像表示システムにおいて、
複数の前記プロジェクタは、
前記映像の輝度を増加または減少させるマスクを生成するマスク生成部と、
前記マスク生成部が生成する前記マスクを、投影される映像の4つのコーナ部に重畳させる映像演算部と、
を有し、
前記撮像部は、前記マスクによってコーナ部の輝度が増加または減少した前記映像を前記プロジェクタ毎にそれぞれ撮影し、
前記映像解析部は、前記撮像部が撮影した前記映像から前記コーナ部の座標を算出する、投射型映像表示システム。
The projection type image display system according to claim 1,
A plurality of said projectors,
A mask generation unit that generates a mask that increases or decreases the brightness of the image;
An image calculation unit that superimposes the mask generated by the mask generation unit on four corners of a projected image;
Have
The image capturing unit captures the image in which the brightness of the corner portion is increased or decreased by the mask for each of the projectors,
The projection type video display system, wherein the video analysis unit calculates coordinates of the corner from the video captured by the imaging unit.
複数の映像を重ね合わせて表示する投射型映像表示システムであって、
前記映像を投影する複数のプロジェクタと、
複数の前記プロジェクタに映像データを出力するコンピュータと、
複数の前記プロジェクタが映像投射面に投影する前記映像を撮影する撮像部と、
を備え、
複数の前記プロジェクタは、
投影される前記映像の幾何学的歪みを幾何パラメータに基づいて補正する幾何補正部と、
前記映像投射面に前記映像を投影する映像投射部と、
前記撮像部が撮影した前記映像を解析して、複数の前記プロジェクタが投影する映像にずれが生じる経時ずれが発生しているか否かを判定する映像解析部と、
を有し、
前記映像解析部は、前記撮像部が撮影した各々の前記プロジェクタが投影する前記映像の4つのコーナ部の座標をそれぞれ算出し、算出した前記座標とあらかじめ設定されているしきい値とを比較して、前記座標が前記しきい値を超えている場合に経時ずれが発生していると判定し、
前記幾何補正部は、前記映像解析部が経時ずれが発生していると判定した際に各々の前記プロジェクタが投影する前記映像を補正する、投射型映像表示システム。
A projection type image display system for displaying a plurality of images in an overlapping manner,
A plurality of projectors for projecting the image,
A computer that outputs video data to the plurality of projectors;
An imaging unit that captures the video projected by the plurality of projectors onto a video projection surface;
Equipped with
A plurality of said projectors,
A geometric correction unit that corrects the geometric distortion of the projected image based on a geometric parameter;
An image projection unit that projects the image on the image projection surface,
An image analysis unit that analyzes the image captured by the image capturing unit and determines whether there is a time-dependent shift that causes a shift in the images projected by the plurality of projectors,
Have
The video analysis unit calculates coordinates of four corners of the video projected by each of the projectors captured by the imaging unit, and compares the calculated coordinates with a preset threshold value. Then, if the coordinates exceed the threshold value, it is determined that a time lag has occurred,
The projection type image display system, wherein the geometric correction unit corrects the image projected by each of the projectors when the image analysis unit determines that a time lag has occurred.
複数の映像を重ね合わせて表示する投射型映像表示システムであって、
前記映像を投影する複数のプロジェクタと、
複数の前記プロジェクタに映像データを出力するコンピュータと、
を備え、
複数の前記プロジェクタのうち、1つの前記プロジェクタは、映像投射面に投影される前記映像を撮影する撮像部を有し、
複数の前記プロジェクタは、
投影される前記映像の幾何学的歪みを幾何パラメータに基づいて補正する幾何補正部と、
前記映像投射面に前記映像を投影する映像投射部と、
を有し、
前記コンピュータは、前記撮像部が撮影した前記映像を解析して、複数の前記プロジェクタが投影する映像にずれが生じる経時ずれが発生しているか否かを判定する映像解析部を有し、
前記映像解析部は、前記撮像部が撮影した各々の前記プロジェクタが投影する前記映像の4つのコーナ部の座標をそれぞれ算出し、算出した前記座標とあらかじめ設定されているしきい値とを比較して、前記座標が前記しきい値を超えている場合に経時ずれが発生していると判定し、
前記幾何補正部は、前記映像解析部が経時ずれが発生していると判定した際に各々の前記プロジェクタが投影する前記映像を補正する、投射型映像表示システム。
A projection type image display system for displaying a plurality of images in an overlapping manner,
A plurality of projectors for projecting the image,
A computer that outputs video data to the plurality of projectors;
Equipped with
One of the plurality of projectors has an imaging unit that captures the image projected on the image projection surface,
A plurality of said projectors,
A geometric correction unit that corrects the geometric distortion of the projected image based on a geometric parameter;
An image projection unit that projects the image on the image projection surface,
Have
The computer has an image analysis unit that analyzes the image captured by the image capturing unit and determines whether or not there is a time-dependent shift that causes a shift in the images projected by the plurality of projectors,
The video analysis unit calculates coordinates of four corners of the video projected by each of the projectors captured by the imaging unit, and compares the calculated coordinates with a preset threshold value. Then, if the coordinates exceed the threshold value, it is determined that a time lag has occurred,
The projection type image display system, wherein the geometric correction unit corrects the image projected by each of the projectors when the image analysis unit determines that a time lag has occurred.
複数の映像を重ね合わせて表示する投射型映像表示システムであって、
前記映像を投影する複数のプロジェクタと、
複数の前記プロジェクタが投影する映像にずれが生じる経時ずれを検出して補正する携帯端末と、
を備え、
複数の前記プロジェクタは、
投影される前記映像の幾何学的歪みを幾何パラメータに基づいて補正する幾何補正部と、
映像投射面に前記映像を投影する映像投射部と、
を有し、
前記携帯端末は、
複数の前記プロジェクタが前記映像投射面に投影する前記映像を撮影する撮像部と、
前記撮像部が撮影した前記映像を解析して、複数の前記プロジェクタが投影する前記映像に前記経時ずれが発生しているか否かを判定する映像解析部と、
を有し、
前記映像解析部は、前記撮像部が撮影した各々の前記プロジェクタが投影する前記映像の4つのコーナ部の座標をそれぞれ算出し、算出した前記座標とあらかじめ設定されているしきい値とを比較して、前記座標が前記しきい値を超えている場合に経時ずれが発生していると判定し、
前記幾何補正部は、前記映像解析部が経時ずれが発生していると判定した際に各々の前記プロジェクタが投影する前記映像を補正する、投射型映像表示システム。
A projection type image display system for displaying a plurality of images in an overlapping manner,
A plurality of projectors for projecting the image,
A mobile terminal that detects and corrects a time-dependent shift that causes a shift in images projected by the plurality of projectors;
Equipped with
A plurality of said projectors,
A geometric correction unit that corrects the geometric distortion of the projected image based on a geometric parameter;
An image projection unit that projects the image on an image projection surface,
Have
The mobile terminal is
An imaging unit that captures the image projected by the plurality of projectors onto the image projection surface;
An image analysis unit that analyzes the image captured by the image capturing unit and determines whether or not the time lapse has occurred in the images projected by the plurality of projectors,
Have
The video analysis unit calculates coordinates of four corners of the video projected by each of the projectors captured by the imaging unit, and compares the calculated coordinates with a preset threshold value. Then, if the coordinates exceed the threshold value, it is determined that a time lag has occurred,
The projection type image display system, wherein the geometric correction unit corrects the image projected by each of the projectors when the image analysis unit determines that a time lag has occurred.
JP2019019388A 2019-02-06 2019-02-06 Projection type video display system Pending JP2020127162A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019019388A JP2020127162A (en) 2019-02-06 2019-02-06 Projection type video display system
PCT/JP2019/049517 WO2020162051A1 (en) 2019-02-06 2019-12-18 Projection type video display system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019019388A JP2020127162A (en) 2019-02-06 2019-02-06 Projection type video display system

Publications (1)

Publication Number Publication Date
JP2020127162A true JP2020127162A (en) 2020-08-20

Family

ID=71947602

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019019388A Pending JP2020127162A (en) 2019-02-06 2019-02-06 Projection type video display system

Country Status (2)

Country Link
JP (1) JP2020127162A (en)
WO (1) WO2020162051A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11800070B2 (en) 2020-12-24 2023-10-24 Seiko Epson Corporation Control method for projector, projector, and image projection system

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4578341B2 (en) * 2005-07-01 2010-11-10 シャープ株式会社 Image projection method, projector, and computer program
JP2011228832A (en) * 2010-04-16 2011-11-10 Seiko Epson Corp Image processing device, image display system, and image processing method
JP5641820B2 (en) * 2010-08-25 2014-12-17 キヤノン株式会社 Projection type display system and projection type display device
JP5970879B2 (en) * 2012-03-14 2016-08-17 株式会社リコー Projection system, projection method, program, and recording medium
JP2017009909A (en) * 2015-06-25 2017-01-12 日立マクセル株式会社 Projection type video display system, projection type video display device, and projection correction method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11800070B2 (en) 2020-12-24 2023-10-24 Seiko Epson Corporation Control method for projector, projector, and image projection system

Also Published As

Publication number Publication date
WO2020162051A1 (en) 2020-08-13

Similar Documents

Publication Publication Date Title
US9906761B2 (en) Projector, its control method, and image projection system
US9554105B2 (en) Projection type image display apparatus and control method therefor
JP6645687B2 (en) Display device and control method
JP5796286B2 (en) Projector and projector control method
JP6793483B2 (en) Display devices, electronic devices and their control methods
US20170244941A1 (en) Projector and control method thereof
US9568812B2 (en) Image projection apparatus and control method thereof
JP2019161397A (en) Control device, program, and control method
JP2016014713A (en) Image projection device, image projection method, and control program of image projection device
JP5262743B2 (en) Projection display apparatus, control method therefor, and control program therefor
JP6794092B2 (en) Display device
JP2018125819A (en) Control device, control method, program, and storage medium
WO2017179111A1 (en) Display system and information processing method
JP2011188404A (en) Image processing apparatus in multi-projection system, method of processing image in multi-projection system, and multi-projection system
WO2020162051A1 (en) Projection type video display system
JP2015192310A (en) Projection system, portable equipment, program, and control method of portable equipment
JP6700955B2 (en) Projection apparatus and projection method
JP2018142856A (en) Projector, and method for controlling projector
JP6345316B2 (en) Projector, control method therefor, program, and storage medium
JP2020150481A (en) Information processing device, projection system, information processing method, and program
JP2015109560A (en) Display system, display control device, and method
JP2019047355A (en) projector
JP2014137386A (en) Projector, control method therefor, and image projection system
JP2019149633A (en) Projector, control device, image projection system, control method, and program
JP2012095181A (en) Projector, and method of controlling projector

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20211022