JP2021114685A - Controller, projection control method, projection system, program, and storage medium - Google Patents

Controller, projection control method, projection system, program, and storage medium Download PDF

Info

Publication number
JP2021114685A
JP2021114685A JP2020006085A JP2020006085A JP2021114685A JP 2021114685 A JP2021114685 A JP 2021114685A JP 2020006085 A JP2020006085 A JP 2020006085A JP 2020006085 A JP2020006085 A JP 2020006085A JP 2021114685 A JP2021114685 A JP 2021114685A
Authority
JP
Japan
Prior art keywords
image
marker
projection
basic pattern
captured image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020006085A
Other languages
Japanese (ja)
Inventor
達人 川合
Tatsuto Kawai
達人 川合
賢太 刀川
Kenta Tachikawa
賢太 刀川
正治 山岸
Seiji Yamagishi
正治 山岸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2020006085A priority Critical patent/JP2021114685A/en
Publication of JP2021114685A publication Critical patent/JP2021114685A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

To correct a positional deviation of a projection image by easily detecting a marker from the projection image even when the projection image is a moving image.SOLUTION: A controller includes: acquisition means for acquiring a photographed image obtained by photographing a projection image of an input image on which a marker including a plurality of basic patterns is superposed; detection means for generating an averaged image or added image by shifting and superposing the photographed image or copy image thereof on the photographed image itself so that a first basic pattern of the photographed image overlaps with a second basic pattern differing from the first basic pattern and removing a low frequency component from the averaged image or added image to detect the marker's position; and output means for outputting correction information for correcting a positional deviation of the projection image, on the basis of the detected marker.SELECTED DRAWING: Figure 2

Description

本発明は、投影装置の投影位置を補正する制御装置、投影制御方法、投影システム、プログラム、および記憶媒体に関する。 The present invention relates to a control device for correcting a projection position of a projection device, a projection control method, a projection system, a program, and a storage medium.

近年、複数のプロジェクタで投影するマルチ投影システムが増加している。マルチ投影では、複数台の投影位置を事前に調整しても、画像投影中に外的要因(ゆれ、温度、経時)などにより、投影位置にずれが生じる可能性がある。これに対し、投影位置のずれを画像投影中に調整する技術が提案されている(例えば、特許文献1)。 In recent years, the number of multi-projection systems that project with a plurality of projectors has increased. In multi-projection, even if the projection positions of a plurality of units are adjusted in advance, the projection positions may shift due to external factors (shaking, temperature, aging) during image projection. On the other hand, a technique for adjusting the deviation of the projection position during image projection has been proposed (for example, Patent Document 1).

特開2001−51346号公報Japanese Unexamined Patent Publication No. 2001-51346

投影位置のずれは、例えば、投影画像に重畳して表示させた位置調整用のマーカーを用いて補正することができる。位置調整用のマーカーが表示された投影面を、撮像装置で撮像することで、撮像画像に対する投影位置が特定可能となる。画像投影中に投影位置を調整するには、マーカーがユーザに視認されないようにそのコントラストを低くする必要があり、撮像画像からマーカーを検出するには工夫が必要である。特許文献1では、投影コンテンツに正負それぞれのマーカーを重畳した投影画像を撮影し、それぞれの画像間の差分を取ることでマーカーを検出する技術が開示されている。しかしながら、この方法は投影画像が静止画像ではよく機能するが、投影画像が動画像では、重畳表示されたマーカーの検出は困難な場合がある。 The deviation of the projection position can be corrected by using, for example, a position adjustment marker superimposed on the projected image and displayed. By imaging the projection surface on which the position adjustment marker is displayed with the imaging device, the projection position with respect to the captured image can be specified. In order to adjust the projection position during image projection, it is necessary to lower the contrast of the marker so that it is not visible to the user, and it is necessary to devise to detect the marker from the captured image. Patent Document 1 discloses a technique of detecting a marker by taking a projected image in which positive and negative markers are superimposed on the projected content and taking a difference between the respective images. However, although this method works well when the projected image is a still image, it may be difficult to detect the superimposed marker when the projected image is a moving image.

そこで、本発明は、静止画像の場合でも動画像の場合でも、投影画像からマーカーを容易に検出し、投影画像の位置ずれを補正することを目的とする。 Therefore, an object of the present invention is to easily detect a marker from a projected image and correct a misalignment of the projected image regardless of whether it is a still image or a moving image.

上記目的を達成するために、本発明の第1の態様は、
複数の基本パターンを含むマーカーが重畳された入力画像の投影画像を撮像した撮像画像を取得する取得手段と、
前記撮像画像の第1の基本パターンに、前記第1の基本パターンとは異なる第2の基本パターンが重なるように、前記撮像画像またはその複製画像を、位置をずらせて前記撮像画像自身に重ね合わせて平均化画像または加算画像を生成し、前記平均化画像または加算画像から低周波数成分を除去することで前記マーカーの位置を検出する検出手段と、
検出した前記マーカーの位置に基づいて、前記投影画像の位置ずれを補正するための補正情報を出力する出力手段と
を有することを特徴とする制御装置である。
In order to achieve the above object, the first aspect of the present invention is
An acquisition means for acquiring a captured image obtained by capturing a projected image of an input image on which markers including a plurality of basic patterns are superimposed, and
The captured image or a duplicate image thereof is superposed on the captured image itself by shifting the position so that the first basic pattern of the captured image is overlapped with a second basic pattern different from the first basic pattern. A detection means for detecting the position of the marker by generating an averaged image or an added image and removing a low frequency component from the averaged image or the added image.
The control device is characterized by having an output means for outputting correction information for correcting the positional deviation of the projected image based on the detected position of the marker.

本発明の第2の態様は、
複数の基本パターンを含むマーカーが重畳された入力画像の投影画像を撮像した撮像画像を取得する取得ステップと、
前記撮像画像の第1の基本パターンに、前記第1の基本パターンとは異なる第2の基本パターンが重なるように、前記撮像画像またはその複製画像を、位置をずらせて前記撮像画像自身に重ね合わせて平均化画像または加算画像を生成し、前記平均化画像または加算
画像から低周波数成分を除去することで前記マーカーの位置を検出する検出ステップと、
検出した前記マーカーに基づいて、前記投影画像の位置ずれを補正するための補正情報を出力する出力ステップと
を有することを特徴とする投影制御方法である。
A second aspect of the present invention is
An acquisition step of acquiring a captured image obtained by capturing a projected image of an input image on which markers including a plurality of basic patterns are superimposed, and
The captured image or a duplicate image thereof is superposed on the captured image itself by shifting the position so that the first basic pattern of the captured image is overlapped with a second basic pattern different from the first basic pattern. A detection step of generating an averaged image or an added image and detecting the position of the marker by removing a low frequency component from the averaged image or the added image.
The projection control method is characterized by having an output step for outputting correction information for correcting the positional deviation of the projected image based on the detected marker.

本発明の第3の態様は、
投影装置と、前記投影装置を制御する制御装置と、前記投影装置による投影面を撮像する撮像装置と、を備える投影システムであって、
前記制御装置は、
複数の基本パターンを含むマーカーが重畳された入力画像の投影画像を撮像した撮像画像を取得する取得手段と、
前記撮像画像の第1の基本パターンに、前記第1の基本パターンとは異なる第2の基本パターンが重なるように、前記撮像画像またはその複製画像を、位置をずらせて前記撮像画像自身に重ね合わせて平均化画像または加算画像を生成し、前記平均化画像または加算画像から低周波数成分を除去することで前記マーカーの位置を検出する検出手段と、
検出した前記マーカーに基づいて、前記投影画像の位置ずれを補正するための補正情報を出力する出力手段と、を有する
ことを特徴とする投影システムである。
A third aspect of the present invention is
A projection system including a projection device, a control device for controlling the projection device, and an imaging device for imaging a projection surface by the projection device.
The control device is
An acquisition means for acquiring a captured image obtained by capturing a projected image of an input image on which markers including a plurality of basic patterns are superimposed, and
The captured image or a duplicate image thereof is superposed on the captured image itself by shifting the position so that the first basic pattern of the captured image is overlapped with a second basic pattern different from the first basic pattern. A detection means for detecting the position of the marker by generating an averaged image or an added image and removing a low frequency component from the averaged image or the added image.
The projection system is characterized by having an output means for outputting correction information for correcting the positional deviation of the projected image based on the detected marker.

本発明によれば、静止画像の場合でも動画像の場合でも、投影画像からマーカーを容易に検出し、投影画像の位置ずれを補正することができる。 According to the present invention, it is possible to easily detect a marker from a projected image and correct a misalignment of the projected image regardless of whether it is a still image or a moving image.

画像投影システムの構成を例示する図である。It is a figure which illustrates the structure of the image projection system. 投影装置および制御装置の機能構成を例示する図である。It is a figure which illustrates the functional structure of the projection device and the control device. 幾何変形について説明する図である。It is a figure explaining the geometrical deformation. マーカー画像およびマーカーが重畳される前後の画像を例示する図である。It is a figure which illustrates the marker image and the image before and after superimposing the marker. マーカー領域内のマーカーを構成する基本パターンの例を示す図である。It is a figure which shows the example of the basic pattern which constitutes a marker in a marker area. マーカー重畳に関する指示信号について説明する図である。It is a figure explaining the instruction signal about marker superimposition. 位置ずれ補正処理を例示するフローチャートである。It is a flowchart which illustrates the position shift correction processing. 変形量算出部の処理について説明する図である。It is a figure explaining the process of the deformation amount calculation part. マーカー抽出画像の生成処理を例示するフローチャートである。It is a flowchart which illustrates the generation process of a marker extraction image. 撮像装置が取得する撮像画像を例示する図である。It is a figure which illustrates the captured image acquired by the image pickup apparatus. 複製画像をずらして撮像画像に重ねた平均画像を例示する図である。It is a figure which illustrates the average image which superposed on the captured image by shifting the duplicated image. マーカーの抽出処理について説明する図である。It is a figure explaining the extraction process of a marker. マーカー抽出画像を例示する図である。It is a figure which illustrates the marker extraction image. 初期投影位置で投影したテストパターンの撮像画像を例示する図である。It is a figure which illustrates the captured image of the test pattern projected at the initial projection position. 投影位置がずれた場合の撮像画像内の投影領域を例示する図である。It is a figure which illustrates the projection area in the captured image when the projection position shifts.

以下、図面を参照して本発明の実施形態を詳細に説明するが、本発明は以下の実施の形態に限定されるものではない。また、投影画像は動画像としているが、これに限定されるものではない。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings, but the present invention is not limited to the following embodiments. Further, the projected image is a moving image, but the projection image is not limited to this.

なお、本実施形態において説明される各機能ブロックは、それぞれ個別のハードウェアでなくてもよい。すなわち、複数の機能ブロックの機能は、1つのハードウェアにより実行されても良い。また、複数のハードウェアの連係動作により1つの機能ブロック、または複数の機能ブロックの機能が実行されても良い。また、各機能ブロックは、CPUがメモリ上に展開したコンピュータプログラムにより実行されても良い。 It should be noted that each functional block described in this embodiment does not have to be individual hardware. That is, the functions of the plurality of functional blocks may be executed by one hardware. Further, the functions of one functional block or a plurality of functional blocks may be executed by the linked operation of a plurality of hardware. Further, each functional block may be executed by a computer program expanded on the memory by the CPU.

複数のプロジェクタで投影するマルチ投影システムでは、例えば、複数の投影画像を投影面上に並べて投影し解像度を高めるブレンド投影、複数の投影画像を投影面上の略同一の位置に重ねて投影し輝度を向上させるスタック投影などが知られている。 In a multi-projection system that projects with multiple projectors, for example, blended projection in which multiple projected images are projected side by side on the projection surface to increase the resolution, and multiple projected images are projected on the projection surface at substantially the same position for brightness. Stack projection and the like are known to improve.

これらの技術は、高解像度及び高輝度が必要になるプロジェクションマッピングや、パブリックビューイング等で実施されている。イベントが開催される前に、複数台の投影位置の調整を行ったとしても、イベント中での画像投影中に外的要因(ゆれ、温度、経時)などにより、投影位置にずれが生じる可能性がある。 These techniques are implemented in projection mapping, public viewing, etc., which require high resolution and high brightness. Even if the projection positions of multiple units are adjusted before the event is held, the projection positions may shift due to external factors (shaking, temperature, aging) during image projection during the event. There is.

イベントが開催される前に投影位置の調整を行う場合は、イベントを鑑賞するユーザの感興を妨げる懸念がないので、イベントの画像投影とは全く別個に、明確なコントラストを有する位置調整用のマーカーを投影して調整作業を行うことができる。位置調整用のマーカーとは、投影画像に重畳し撮像装置で投影面を撮像することで撮像装置に対する投影位置が特定可能なものである。 If the projection position is adjusted before the event is held, there is no concern that it will hinder the impression of the user who watches the event, so a position adjustment marker with a clear contrast completely separate from the image projection of the event. Can be projected to perform adjustment work. The position adjustment marker is a marker that can specify the projection position with respect to the imaging device by superimposing it on the projected image and imaging the projection surface with the imaging device.

しかし、イベント中での画像投影中に投影位置を調整する場合、マーカーは、ユーザに視認されないようにするため、コントラストを下げることが望ましい。マーカーのコントラストを下げると、動きの激しい動画像では、マーカー以外の情報が撮像画像に残ってしまい、マーカーの検出は困難な場合がある。本発明によれば、動画像の場合でも、投影画像からマーカーを容易に検出し、投影画像の位置ずれを補正することができる。 However, when adjusting the projection position during image projection during an event, it is desirable to reduce the contrast of the markers so that they are not visible to the user. When the contrast of the marker is lowered, information other than the marker remains in the captured image in a moving image with a lot of movement, and it may be difficult to detect the marker. According to the present invention, even in the case of a moving image, a marker can be easily detected from the projected image and the misalignment of the projected image can be corrected.

<実施形態>
(システム構成)
図1は、実施形態に係る画像投影システム(投影システム)の構成を例示する図である。
<Embodiment>
(System configuration)
FIG. 1 is a diagram illustrating a configuration of an image projection system (projection system) according to an embodiment.

図1に示すように、実施形態に係る画像投影システムは、映像再生装置100、投影装置A101、投影装置B102、制御装置103、撮像装置104、スクリーン105を有する。 As shown in FIG. 1, the image projection system according to the embodiment includes a video reproduction device 100, a projection device A101, a projection device B102, a control device 103, an image pickup device 104, and a screen 105.

映像再生装置100は、投影装置A101に映像信号ID0を出力し、投影装置B102に映像信号ID1を出力する。映像信号ID0および映像信号ID1は、それぞれ投影装置A101および投影装置B102が有するパネル解像度の信号である。例えば、投影装置のパネル解像度が4K解像度(3840×2160)であれば、映像再生装置100は、3840×2160の解像度の映像信号を出力する。以下の説明では、入力映像信号の色空間は、RGBの8bit信号(0〜255階調)で表現される空間として説明する。 The video reproduction device 100 outputs the video signal ID 0 to the projection device A101 and outputs the video signal ID 1 to the projection device B102. The video signal ID 0 and the video signal ID 1 are panel resolution signals of the projection device A101 and the projection device B102, respectively. For example, if the panel resolution of the projection device is 4K resolution (3840 x 2160), the video reproduction device 100 outputs a video signal having a resolution of 3840 x 2160. In the following description, the color space of the input video signal will be described as a space represented by an RGB 8-bit signal (0 to 255 gradations).

投影装置A101は、映像再生装置100から出力された映像信号ID0をスクリーン105に投影する。制御装置103は、制御信号として変形パラメータPARAM_A(補正情報)を出力し、投影装置A101がスクリーン105に投影する映像信号ID0を制御する。 The projection device A101 projects the video signal ID 0 output from the video reproduction device 100 onto the screen 105. The control device 103 outputs the deformation parameter PARAM_A (correction information) as a control signal, and controls the video signal ID0 projected by the projection device A101 on the screen 105.

投影装置B102は、映像再生装置100から出力された映像信号ID1をスクリーン105に投影する。制御装置103は、制御信号として変形パラメータPARAM_B(補正情報)を出力し、投影装置A101がスクリーン105に投影する映像信号ID1を制御する。 The projection device B102 projects the video signal ID1 output from the video reproduction device 100 onto the screen 105. The control device 103 outputs the deformation parameter PARAM_B (correction information) as a control signal, and controls the video signal ID1 projected by the projection device A101 on the screen 105.

投影装置A101およびB102は、投影制御装置および画像処理装置として機能する
制御装置103と相互に通信可能に接続される。制御装置103はスマートフォンやタブレットなど、その他の情報処理装置を用いても良い。装置間の通信は、例えば、TCP/IPを通信プロトコルとするローカルエリアネットワーク(LAN)を用いることができる。以下の説明では、単位時間当たりに投影する画像の枚数は60枚であると想定する。
The projection devices A101 and B102 are communicably connected to a control device 103 that functions as a projection control device and an image processing device. The control device 103 may use other information processing devices such as smartphones and tablets. For communication between devices, for example, a local area network (LAN) using TCP / IP as a communication protocol can be used. In the following description, it is assumed that the number of images projected per unit time is 60.

制御装置103は、投影装置A101および投影装置B102で、投影画像の位置ずれを調整(補正)するためのマーカーを入力画像に重畳させるタイミングを制御する。マーカーを重畳させるタイミングは、投影装置A101に出力される変形パラメータPARAM_Aおよび投影装置Bに出力される変形パラメータPARAM_Bに含まれる。また、制御装置103は、撮像装置104を制御し、スクリーン105に表示される投影画像および投影画像の周辺部を撮像する。撮像装置104は、制御装置103が生成する撮像指示信号SIGに基づいて、投影画像および周辺部を撮像する。撮像装置104は、撮像した撮像画像PICを制御装置103に出力する。 The control device 103 controls the timing at which the projection device A101 and the projection device B102 superimpose the marker for adjusting (correcting) the positional deviation of the projected image on the input image. The timing of superimposing the markers is included in the deformation parameter PARAM_A output to the projection device A101 and the deformation parameter PARAM_B output to the projection device B. Further, the control device 103 controls the image pickup device 104 to take an image of the projected image displayed on the screen 105 and the peripheral portion of the projected image. The image pickup device 104 captures a projected image and a peripheral portion based on the image pickup instruction signal SIG generated by the control device 103. The image pickup device 104 outputs the captured image pickup image PIC to the control device 103.

撮像装置104は、例えば、デジタルカメラ、ウェブカメラ、ネットワークカメラである。撮像装置104は、制御装置103または投影装置A101、投影装置B102に内蔵されたカメラであってもよい。撮像装置104は、投影装置A101および投影装置B102の投影領域全体を撮像範囲として含むように設置され、撮像範囲が変わらないように固定されているものとする。制御装置103は、撮像装置104として外部装置を用いる場合、直接またはLANを介して、撮像装置104と通信可能に接続される。制御装置103は、撮像装置104に予め定められたコマンドを送信することにより、撮像装置104の動作を制御することができる。例えば、撮像装置104は、制御装置103からの要求に応じて撮影し、撮像した画像データを制御装置103に送信することができる。 The image pickup device 104 is, for example, a digital camera, a webcam, or a network camera. The image pickup device 104 may be a camera built in the control device 103, the projection device A101, or the projection device B102. It is assumed that the image pickup apparatus 104 is installed so as to include the entire projection region of the projection apparatus A101 and the projection apparatus B102 as an imaging range, and is fixed so that the imaging range does not change. When an external device is used as the image pickup device 104, the control device 103 is communicably connected to the image pickup device 104 directly or via a LAN. The control device 103 can control the operation of the image pickup device 104 by transmitting a predetermined command to the image pickup device 104. For example, the image pickup device 104 can take a picture in response to a request from the control device 103 and transmit the captured image data to the control device 103.

スクリーン105は、投影装置A101および投影装置B102が画像を投影する投影面である。図1は、投影装置A101および投影装置B102がスクリーン105上で略同じ座標位置に画像を投影することで輝度を高めるスタック投影の例を示す。 The screen 105 is a projection surface on which the projection device A101 and the projection device B102 project an image. FIG. 1 shows an example of stack projection in which the projection device A101 and the projection device B102 project an image at substantially the same coordinate position on the screen 105 to increase the brightness.

(ハードウェア構成)
図1に示す制御装置103の装置構成について説明する。制御装置103は、プロジェクタ120による投影対象物130への投影を制御するためのコンピュータまたはワークステーション等である。制御装置103は、CPUやDSP等のプロセッサ、読み込み専用メモリ(ROM)、ランダムアクセスメモリ(RAM)等の主記憶部、EPROM、ハードディスクドライブ(HDD)、リムーバブルメディア等の補助記憶部を有する。また、制御装置103は、カメラ110およびプロジェクタ120等の他の装置と通信するための通信部を有する。
(Hardware configuration)
The device configuration of the control device 103 shown in FIG. 1 will be described. The control device 103 is a computer, workstation, or the like for controlling the projection of the projector 120 onto the projection object 130. The control device 103 has a processor such as a CPU and a DSP, a main storage unit such as a read-only memory (ROM) and a random access memory (RAM), and an auxiliary storage unit such as an EPROM, a hard disk drive (HDD), and a removable media. Further, the control device 103 has a communication unit for communicating with other devices such as the camera 110 and the projector 120.

なお、補助記憶部には、オペレーティングシステム(OS)、各種プログラム、各種テーブル等が格納される。プロセッサは、補助記憶部に格納されたプログラムを主記憶部の作業領域にロードして実行し、プログラムの実行を通じて、制御装置103が有する少なくとも一部の機能ブロックの機能を実現することができる。ただし、一部または全部の機能はASICやFPGAのようなハードウェア回路によって実現されてもよい。また、制御装置103は、単一の物理的構成によって実現される場合に限られず、互いに連携する複数台のコンピュータによって構成されてもよい。また、制御装置103は、複数の投影装置のうちのいずれかと一体に構成されてもよい。 The auxiliary storage unit stores an operating system (OS), various programs, various tables, and the like. The processor loads and executes the program stored in the auxiliary storage unit in the work area of the main storage unit, and can realize the function of at least a part of the functional blocks of the control device 103 through the execution of the program. However, some or all of the functions may be realized by hardware circuits such as ASICs and FPGAs. Further, the control device 103 is not limited to the case where it is realized by a single physical configuration, and may be configured by a plurality of computers that cooperate with each other. Further, the control device 103 may be integrally configured with any one of the plurality of projection devices.

(機能構成)
次に、図2を用いて投影装置A101および制御装置103が有する機能部および各機能部の動作について詳細に説明する。投影装置B102は、投影装置A101と同様の構成であるため、説明は省略する。
(Functional configuration)
Next, the functional units of the projection device A101 and the control device 103 and the operation of each functional unit will be described in detail with reference to FIG. Since the projection device B102 has the same configuration as the projection device A101, the description thereof will be omitted.

投影装置A101は、画像処理部201、幾何変形部202、マーカー重畳部203、パネル制御部204、パネル部205、光源制御部206、光源部207を有する。 The projection device A101 includes an image processing unit 201, a geometric deformation unit 202, a marker superimposing unit 203, a panel control unit 204, a panel unit 205, a light source control unit 206, and a light source unit 207.

画像処理部201は、ノイズリダクション処理、エッジ強調処理、色補正処理、階調補正処理などの、一般的な高画質化処理を施すブロックである。画像処理部201は、入力された映像信号ID0に対して上記の画像処理を施し、画像IDTとして幾何変形部202に出力する。 The image processing unit 201 is a block that performs general high image quality processing such as noise reduction processing, edge enhancement processing, color correction processing, and gradation correction processing. The image processing unit 201 performs the above image processing on the input video signal ID 0 and outputs the image IDT to the geometric deformation unit 202.

幾何変形部202は、投影面の法線方向と投影方向(一般的には投影光学系の光軸)とのずれによって投影画像に生じる台形歪みを相殺するように、元画像を幾何学的変換(幾何変形)する補正(幾何補正)をする。図2の例では、元画像として画像処理部201からの画像IDTが用いられる。画像の幾何学的変換は射影変換によって実現できるため、幾何変形は、幾何補正の補正量である射影変換のパラメータを決定することで実現される。例えば、制御装置103の変形量算出部303は、矩形上の元画像の各頂点の移動量と移動方向に基づいて射影変換のパラメータを決定し、幾何変形部202に与えることができる。 The geometric transformation unit 202 geometrically transforms the original image so as to cancel the trapezoidal distortion that occurs in the projected image due to the deviation between the normal direction of the projection surface and the projection direction (generally, the optical axis of the projection optical system). (Geometric transformation) Make correction (Geometric correction). In the example of FIG. 2, the image IDT from the image processing unit 201 is used as the original image. Since the geometric transformation of the image can be realized by the projective transformation, the geometric transformation is realized by determining the parameters of the projective transformation, which is the correction amount of the geometric correction. For example, the deformation amount calculation unit 303 of the control device 103 can determine the parameters of the projective transformation based on the movement amount and the movement direction of each vertex of the original image on the rectangle and give it to the geometric deformation unit 202.

ここで、図3を用いて幾何変形について説明する。図3に例示したように、元画像300上の任意の点の座標を(xs,ys)とすると、任意の点に対応する射影変換による変形後の画像310上の座標(xd,yd)は以下の式1で表わされる。

Figure 2021114685
Here, the geometric deformation will be described with reference to FIG. As illustrated in FIG. 3, assuming that the coordinates of an arbitrary point on the original image 300 are (xs, ys), the coordinates (xd, yd) on the image 310 after being transformed by the projective transformation corresponding to the arbitrary point are It is expressed by the following equation 1.
Figure 2021114685

式1において、Mは3×3行列で、元画像300から変形後の画像310への射影変換行列である。行列Mは、一般的に元画像300の4隅座標と変形後の画像310の4隅座標を用いて連立方程式を解くことで求められる。xso、ysoは、図3の実線で示す元画像300の左上の頂点の座標である。xdo、ydoは、図3の一点鎖線で示す変形後の画像310において、変形前の元画像300の頂点(xso,yso)に対応する頂点の座標値である。 In Equation 1, M is a 3 × 3 matrix, which is a projective transformation matrix from the original image 300 to the transformed image 310. The matrix M is generally obtained by solving simultaneous equations using the four-corner coordinates of the original image 300 and the four-corner coordinates of the deformed image 310. xso and yso are the coordinates of the upper left apex of the original image 300 shown by the solid line in FIG. xdo and ydo are the coordinate values of the vertices corresponding to the vertices (xso, yso) of the original image 300 before deformation in the deformed image 310 shown by the alternate long and short dash line in FIG.

行列Mの逆行列M−1およびオフセット(xso,yso)、(xdo,ydo)から式1は、以下の式2に変形できる。

Figure 2021114685
変形量算出部303は、変形パラメータPARAM(補正情報)として逆行列M−1およびオフセット(xso,yso)、(xdo,ydo)を幾何変形部202に与える。幾何変形部202は、式2を用いて変形後の座標値(xd、yd)に対応する元画像300の座標(xs、ys)を求める。 From the inverse matrix M -1 of the matrix M and the offsets (xso, yso), (xdo, ydo), Equation 1 can be transformed into Equation 2 below.
Figure 2021114685
The deformation amount calculation unit 303 gives the inverse matrix M- 1 and offsets (xso, yso) and (xdo, ydo) to the geometric deformation unit 202 as deformation parameters PARAM (correction information). The geometric deformation unit 202 obtains the coordinates (xs, ys) of the original image 300 corresponding to the coordinate values (xd, yd) after the deformation using Equation 2.

式2で得られる元画像300の座標(xs,ys)がいずれも整数であれば、幾何変形部202は、元画像300の座標(xs,ys)の画素値をそのまま幾何変形後の画像の座標(xd,yd)の画素値とすることができる。 If the coordinates (xs, ys) of the original image 300 obtained by the equation 2 are all integers, the geometric transformation unit 202 uses the pixel values of the coordinates (xs, ys) of the original image 300 as they are in the image after geometric transformation. It can be a pixel value of coordinates (xd, yd).

一方、式2で得られる元画像300の座標が整数にならない場合、幾何変形部202は、元画像300の座標(xs,ys)に相当する画素値を、複数の周辺画素の値を用いた補間演算により求めることができる。幾何変形部202は、補間演算として、例えばバイキュービックなどの公知の補間演算を用いることができる。 On the other hand, when the coordinates of the original image 300 obtained by the equation 2 are not integers, the geometric deformation unit 202 uses the pixel values corresponding to the coordinates (xs, ys) of the original image 300 as the values of a plurality of peripheral pixels. It can be obtained by interpolation calculation. The geometric deformation unit 202 can use a known interpolation calculation such as bicubic as the interpolation calculation.

式2で得られる座標が元画像300の領域内に存在するような、幾何変形後の画像310内の領域は、有効画素領域と呼ばれる。幾何変形後の画像310における有効画素領域以外の座標については、式2で得られる座標(xs、ys)は、元画像300の領域外となる。すなわち、有効画素領域以外の座標では、xs<xso、ys<yso、xs>xeo、ys>yeoのうちの少なくともいずれかが成り立つ。この場合、補間に用いる参照画素が元画像300に存在しないため、幾何変形部202は、幾何変形後の画像310の座標(xd,yd)の画素値を、黒(255階調の0)またはユーザが設定した背景色とする。 The region in the image 310 after geometric deformation such that the coordinates obtained by the equation 2 exist in the region of the original image 300 is called an effective pixel region. Regarding the coordinates other than the effective pixel area in the image 310 after the geometric deformation, the coordinates (xs, ys) obtained by the equation 2 are outside the area of the original image 300. That is, at coordinates other than the effective pixel region, at least one of xs <xso, ys <yso, xs> xeo, and ys> eo holds. In this case, since the reference pixel used for interpolation does not exist in the original image 300, the geometric transformation unit 202 sets the pixel value of the coordinates (xd, yd) of the image 310 after the geometric transformation to black (0 of 255 gradations) or The background color set by the user.

このようにして、幾何変形部202は、式2を用いて幾何変形後の画像310における各座標の画素値を求め、幾何変形後の画像310を生成することができる。幾何変形により生成された画像KSDTとして、マーカー重畳部203に出力される。 In this way, the geometrically deformed unit 202 can obtain the pixel values of each coordinate in the image 310 after geometrically deformed using Equation 2 and generate the image 310 after geometrically deformed. It is output to the marker superimposition unit 203 as an image KSDT generated by geometric deformation.

マーカー重畳部203は、マーカー制御部301が出力するマーカー重畳に関する指示信号TIM1に基づいて、画像KSDTに投影位置検出用マーカー(以下、マーカーとも称される)を付与する。 The marker superimposition unit 203 adds a projection position detection marker (hereinafter, also referred to as a marker) to the image KSDT based on the instruction signal TIM1 regarding the marker superimposition output by the marker control unit 301.

図4を用いて原画像にマーカーが重畳された画像について説明する。図4(A)は、マーカーが重畳される前の原画像400である。図4(B)は、マーカー画像410であり、4つのマーカー領域411a〜マーカー領域411d(単にマーカー領域411とも称する)が示される。図4(C)は、原画像420にマーカーが重畳されたマーカー合成画像である。図4(C)には、マーカー領域411に対応する4つのマーカー領域421a〜マーカー領域421d(単にマーカー領域421とも称する)が示される。 An image in which a marker is superimposed on the original image will be described with reference to FIG. FIG. 4A is an original image 400 before the markers are superimposed. FIG. 4B is a marker image 410, showing four marker regions 411a to 411d (also simply referred to as marker regions 411). FIG. 4C is a marker composite image in which a marker is superimposed on the original image 420. FIG. 4C shows four marker regions 421a to 421d (also simply referred to as marker regions 421) corresponding to the marker region 411.

図4(B)の例では、マーカー画像410は、黒の背景色(例えば、階調値0)の上に複数の白(例えば、階調値255)の矩形パターンを重畳させた画像である。図4(B)に示されるように、黒の矩形パターンを中心として上下左右に白の矩形パターンを配置した十字型のユニットは、以下基本パターンと称される。マーカー画像410に含まれる各マーカー領域411には、中心に1つの基本パターンが配置される。さらに、各マーカー
領域411内には、中心の基本パターンから異なる4方向に所定の距離だけ離れた位置に4つの基本パターンが配置される。マーカー領域411内における各基本パターンの位置関係については、図5の説明で詳述する。
In the example of FIG. 4B, the marker image 410 is an image in which a plurality of white (for example, gradation value 255) rectangular patterns are superimposed on a black background color (for example, gradation value 0). .. As shown in FIG. 4B, a cross-shaped unit in which white rectangular patterns are arranged vertically and horizontally around a black rectangular pattern is hereinafter referred to as a basic pattern. One basic pattern is arranged in the center of each marker area 411 included in the marker image 410. Further, in each marker area 411, four basic patterns are arranged at positions separated from the central basic pattern by a predetermined distance in four different directions. The positional relationship of each basic pattern in the marker region 411 will be described in detail in the description of FIG.

本実施形態において、「マーカー」は、マーカー領域411に含まれる複数の基本パターンである。また、「マーカーの位置」は、マーカー領域411の中心の基本パターンの位置であり、以下の説明では、基本パターンの中心の座標であるものとする。 In this embodiment, the "marker" is a plurality of basic patterns included in the marker region 411. Further, the "marker position" is the position of the basic pattern at the center of the marker area 411, and in the following description, it is assumed to be the coordinates of the center of the basic pattern.

図4(B)の例では、1つのマーカー画像410は、4つのマーカー領域411を含む。なお、マーカーの階調値は、撮像装置104によってマーカーを検出できる階調値であれば、前述の0または255には限られない。また、マーカー領域411は、図4(B)に例示するように、右上、左上、右下、左下の4個所とは限らない。マーカー領域411は、図4(B)とは異なる位置にあってもよく、4個所よりも多くの個所にあってもよい。なお、以下の説明では白の矩形パターンおよび黒の矩形パターンは、それぞれ5画素角の正方形であるものとする。 In the example of FIG. 4B, one marker image 410 includes four marker regions 411. The gradation value of the marker is not limited to 0 or 255 as long as the marker can be detected by the imaging device 104. Further, as illustrated in FIG. 4B, the marker region 411 is not limited to the four locations of the upper right, the upper left, the lower right, and the lower left. The marker region 411 may be located at a position different from that shown in FIG. 4 (B), or may be located at more than four locations. In the following description, it is assumed that the white rectangular pattern and the black rectangular pattern are squares having a 5-pixel angle, respectively.

図5に、マーカー領域411内のマーカーを構成する複数の基本パターンの配置例を示す。図5(A)は、図4(B)の右上のマーカー領域411aを拡大した画像を示す。図5(B)は、図4(B)の左上のマーカー領域411bを拡大した画像を示す。マーカー重畳部203は、図5に示すように、複数の基本パターンがマーカー領域411に含まれるように画像KSDTにマーカーを重畳させる。図5の例では、各マーカー領域411は、中心に配置された基本パターン、および中心の基本パターンの周囲に配置される4つの基本パターンを含む。 FIG. 5 shows an arrangement example of a plurality of basic patterns constituting the marker in the marker area 411. FIG. 5 (A) shows an enlarged image of the marker region 411a on the upper right of FIG. 4 (B). FIG. 5 (B) shows an enlarged image of the marker region 411b on the upper left of FIG. 4 (B). As shown in FIG. 5, the marker superimposing unit 203 superimposes the marker on the image KSDT so that a plurality of basic patterns are included in the marker area 411. In the example of FIG. 5, each marker region 411 includes a centrally arranged basic pattern and four basic patterns arranged around the central basic pattern.

図5(A)に示すマーカー領域411aは、中心に配置される基本パターンと、マーカー領域411aの中心から左右方向(水平方向)または上下方向(垂直方向)にずらした位置に配置される4つの基本パターンとを含む。Dxm−は、中心に位置する基本パターンと、左方向に位置する基本パターンとの間の距離である。図5の例では、基本パターン間の距離は、基本パターンの中心間の距離とする。Dxm+は、中心に位置する基本パターンと、右方向に位置する基本パターンとの間の距離である。Dym−は、中心に位置する基本パターンと、下方向に位置する基本パターンとの間の距離である。Dym+は、中心に位置する基本パターンと、上方向に位置する基本パターンとの間の距離である。 The marker area 411a shown in FIG. 5A has a basic pattern arranged at the center and four positions shifted from the center of the marker area 411a in the horizontal direction (horizontal direction) or the vertical direction (vertical direction). Includes basic patterns. Dxm− is the distance between the centrally located basic pattern and the leftwardly located basic pattern. In the example of FIG. 5, the distance between the basic patterns is the distance between the centers of the basic patterns. Dxm + is the distance between the basic pattern located in the center and the basic pattern located in the right direction. Dym− is the distance between the centrally located basic pattern and the downwardly located basic pattern. Dym + is the distance between the centrally located basic pattern and the upwardly located basic pattern.

図5(B)に示すマーカー領域411bは、中心に配置される基本マーカーと、マーカー領域411bの中心から斜め上方向または斜め下方向にずらした位置に配置される4つの基本パターンとを含む。Dxym−+は、中心に位置する基本パターンと、斜め左上方向に位置する基本パターンとの距離である。Dxym+−は、中心に位置する基本パターンと、斜め右下方向に位置する基本パターンとの間の距離である。Dxym++は、中心に位置する基本パターンと、斜め右上方向に位置する基本パターンとの間の距離である。Dxym−−は、中心に位置する基本パターンと、斜め左下方向に位置する基本パターンとの間の距離である。 The marker area 411b shown in FIG. 5B includes a basic marker arranged at the center and four basic patterns arranged at positions shifted obliquely upward or diagonally downward from the center of the marker area 411b. Dxym− + is the distance between the basic pattern located at the center and the basic pattern located diagonally to the upper left. Dxym + − is the distance between the basic pattern located at the center and the basic pattern located diagonally to the lower right. Dxym ++ is the distance between the basic pattern located at the center and the basic pattern located diagonally to the upper right. Dxym −− is the distance between the basic pattern located at the center and the basic pattern located diagonally to the lower left.

図4(B)のマーカー画像410において、左下のマーカー領域411cは、図5(A)に示すマーカー領域411aのマーカーのDxm−とDxm+、Dym−とDym+のそれぞれの距離を入れ替えた領域として生成することができる。すなわち、マーカー領域411cは、マーカー領域411aのマーカーを上下と左右に反転させた領域である。また、マーカー画像410の右下のマーカー領域411dは、図5(B)に示すマーカー領域411bのマーカーのDxym−−とDxym++、Dxym−+とDxym+−のそれぞれの距離を入れ替えた領域として生成することができる。すなわち、マーカー領域411dは、マーカー領域411bのマーカーを上下と左右に反転させた領域である。 In the marker image 410 of FIG. 4B, the lower left marker region 411c is generated as a region in which the distances of the markers Dxm− and Dxm + and Dym− and Dym + of the marker region 411a shown in FIG. 5A are interchanged. can do. That is, the marker region 411c is a region in which the markers in the marker region 411a are inverted vertically and horizontally. Further, the marker region 411d at the lower right of the marker image 410 is generated as a region in which the distances of the markers Dxym−− and Dxym ++ and Dxym− + and Dxym + − of the markers of the marker region 411b shown in FIG. 5B are interchanged. be able to. That is, the marker region 411d is a region in which the markers in the marker region 411b are inverted vertically and horizontally.

マーカー領域411の中心に位置する基本パターンと他の基本パターンとの距離について、例えば、Dxm−は50画素、Dxm+は40画素とすることができるが、この値に限定されるものではない。Dxm−およびDxm+は、絶対値が画像KSDTの左右方向(水平方向)の画素数より十分小さい値であればよく、例えば、画像KSDTの水平方向の画素数1/10あるいはそれ以下に設定することができる。 Regarding the distance between the basic pattern located at the center of the marker region 411 and other basic patterns, for example, Dxm− can be 50 pixels and Dxm + can be 40 pixels, but the distance is not limited to this value. The absolute values of Dxm- and Dxm + may be values that are sufficiently smaller than the number of pixels in the horizontal direction (horizontal direction) of the image KSDT, and are set to, for example, 1/10 or less of the number of pixels in the horizontal direction of the image KSDT. Can be done.

また、例えば、Dym−は50画素、Dym+は40画素とすることができるが、この値に限定されるものではない。Dym−およびDym+は、絶対値が画像KSDTの垂直方向の画素数より十分小さい値であればよく、例えば、画像KSDTの垂直方向の画素数1/10あるいはそれ以下に設定することができる。 Further, for example, Dym− can be 50 pixels and Dym + can be 40 pixels, but the value is not limited to this value. The absolute values of Dym− and Dym + may be values that are sufficiently smaller than the number of pixels in the vertical direction of the image KSDT, and can be set to, for example, 1/10 or less of the number of pixels in the vertical direction of the image KSDT.

投影面の撮像画像からマーカー(の位置)を検出するためにはDxm−、Dxm+、Dym−、Dym+はいずれも1つの基本パターンの大きさ(縦または横の長さ)以上の値にすることが好ましい。1つの基本パターンの大きさは、例えば白および黒の矩形パターンが5画素角の正方形である場合には、縦横の長さがそれぞれ15画素であり、各基本パ
ターン間の距離は15画素以上とすればよい。マーカーの検出方法の詳細は後述する。
In order to detect the marker (position) from the captured image of the projection surface, Dxm-, Dxm +, Dym-, and Dym + must all have a value equal to or larger than the size (length or width) of one basic pattern. Is preferable. The size of one basic pattern is, for example, when the white and black rectangular patterns are squares with 5 pixel squares, the vertical and horizontal lengths are 15 pixels each, and the distance between each basic pattern is 15 pixels or more. do it. Details of the marker detection method will be described later.

また、例えば、Dxym−+およびDxym++は左右方向50画素上下方向50画素の対角距離、Dxym+−およびDxym−−は左右方向40画素上下方向40画素の対角距離とすることができるが、この値に限定されるものではない。これら距離は、画像KSDTの水平方向および垂直方向の画素数より十分小さい値であればよく、例えば、画像KSDTの水平方向および垂直方向の画素数の平均値の1/10あるいはそれ以下に設定することができる。 Further, for example, Dxym− + and Dxym ++ can be a diagonal distance of 50 pixels in the horizontal direction and 50 pixels in the vertical direction, and Dxym + − and Dxym−− can be a diagonal distance of 40 pixels in the horizontal direction and 40 pixels in the vertical direction. It is not limited to the value. These distances may be values sufficiently smaller than the number of pixels in the horizontal and vertical directions of the image KSDT, and are set to, for example, 1/10 or less than the average value of the number of pixels in the horizontal and vertical directions of the image KSDT. be able to.

投影面の撮像画像からマーカーを検出するためにはDxym−+、Dxym++、Dxym+−、Dxym−−はいずれも1つの基本パターンの対角方向の大きさ以上の値にすることが好ましい。1つの基本パターンの対角方向の大きさは、例えば白および黒の矩形パターンが5画素角の正方形である場合、左右方向15画素上下方向15画素の対角距離となり、各基本パターン間の距離は左右方向15画素上下方向15画素の対角距離以上とすればよい。マーカーの検出方法の詳細は後述する。 In order to detect the marker from the captured image of the projection surface, it is preferable that Dxym− +, Dxym ++, Dxym + −, and Dxym−− are all values equal to or larger than the diagonal size of one basic pattern. The diagonal size of one basic pattern is, for example, when the white and black rectangular patterns are squares with 5 pixel angles, the diagonal distance is 15 pixels in the left-right direction and 15 pixels in the vertical direction, and the distance between each basic pattern. May be equal to or greater than the diagonal distance of 15 pixels in the left-right direction and 15 pixels in the up-down direction. Details of the marker detection method will be described later.

図5では、マーカー領域411の中心に位置する基本パターンと、4つの基本パターンとのそれぞれの距離が異なる例を示したがこの限りではない。マーカー領域411中心に位置する基本パターンと4つの基本パターンとのそれぞれの距離は同じになるように配置しても良い。 FIG. 5 shows an example in which the distances between the basic pattern located at the center of the marker region 411 and the four basic patterns are different, but the present invention is not limited to this. The distance between the basic pattern located at the center of the marker area 411 and the four basic patterns may be the same.

図5では、各マーカー領域411の中心に位置する基本パターンに対し、他の基本パターンが位置する方向は、マーカー領域411a(上下左右の方向)とマーカー領域411b(斜め方向)とで異なる例を示したがこの限りではない。各マーカー領域411において、中心に位置する基本パターンに対し、他の基本パターンが同じ方向に配置されるようにしてもよい。 In FIG. 5, with respect to the basic pattern located at the center of each marker area 411, the direction in which the other basic patterns are located differs between the marker area 411a (up / down / left / right direction) and the marker area 411b (diagonal direction). Although shown, this is not the case. In each marker area 411, other basic patterns may be arranged in the same direction with respect to the centrally located basic pattern.

すなわち、それぞれのマーカー領域411において、中心に位置する基本パターンと他の基本パターンとの距離は、それぞれ異なる距離になるようにマーカーを生成してもよく、同じ距離になるようにマーカーを生成してもよい。また、各マーカー領域411同士で、中心に位置する基本パターンと他の基本パターンとの距離および方向のいずれかまたは両方が同じになるようにマーカーを生成してもよい。 That is, in each marker area 411, the markers may be generated so that the distances between the centrally located basic pattern and the other basic patterns are different from each other, or the markers are generated so as to be the same distance. You may. Further, the markers may be generated so that the distance and direction of the centrally located basic pattern and the other basic patterns are the same between the marker regions 411.

なお、マーカーの説明に用いる図は、実際の画素数の比に忠実に描かれたものではない。視認性を考慮して、基本パターンやマーカー領域は、画面全体に対して拡大した状態で表示される。 The figure used to explain the marker is not drawn faithfully to the actual ratio of the number of pixels. In consideration of visibility, the basic pattern and the marker area are displayed in an enlarged state with respect to the entire screen.

図2のマーカー重畳部203の説明に戻る。マーカー重畳部203は、幾何変形部202からの画像KSDTから特徴量を算出することができる。例えば、マーカー重畳部203は、画像KSDT全体のAPL(Average Picture Level)を取得する。また、マーカー重畳部203は、画像KSDTを決められた画素数四方のブロックに分割し、ブロック毎のAPL(以下、ブロックAPLと呼ぶ)を取得することができる。マーカー重畳部203は、前フレームと現フレームのブロックAPLの差分値などを統計量として取得することができる。また、マーカー重畳部203は、画像KSDT全体のヒストグラム、および予め定められた閾値以下の画素値となる画素数などを取得できるようにしても良い。 Returning to the description of the marker superimposing portion 203 of FIG. The marker superimposing unit 203 can calculate the feature amount from the image KSDT from the geometric deformation unit 202. For example, the marker superimposing unit 203 acquires the APL (Average Picture Level) of the entire image KSDT. Further, the marker superimposing unit 203 can divide the image KSDT into blocks having a predetermined number of pixels on each side, and can acquire an APL for each block (hereinafter, referred to as a block APL). The marker superimposition unit 203 can acquire the difference value of the block APL of the previous frame and the current frame as a statistic. Further, the marker superimposing unit 203 may be able to acquire a histogram of the entire image KSDT, the number of pixels having a pixel value equal to or less than a predetermined threshold value, and the like.

マーカー重畳後の画像MDTは、下記式3により算出される。マーカー重畳部203は、式3の処理を実行することで、幾何変形部202からの画像KSDT(R、G、B)に対しマーカー画像MARK(R、G、B)を重畳する。
MDT(R)=KSDT(R)+MARK(R)
MDT(G)=KSDT(G)+MARK(G) ・・・ (式3)
MDT(B)=KSDT(B)+MARK(B)
(MDT>255となる場合は、255とする)
The image MDT after the marker superimposition is calculated by the following formula 3. The marker superimposing unit 203 superimposes the marker image MARK (R, G, B) on the image KSDT (R, G, B) from the geometric deformation unit 202 by executing the process of the formula 3.
MDT (R) = KSDT (R) + MARK (R)
MDT (G) = KSDT (G) + MARK (G) ... (Equation 3)
MDT (B) = KSDT (B) + MARK (B)
(If MDT> 255, set it to 255)

重畳するマーカーの画素値は、なるべくユーザに視認されにくい階調値であることが好ましい。また、マーカーを重畳する元画像の特徴量に基づいて、重畳するマーカーの画素値を制御してもよい。すなわち、元画像内の画素値がより大きく明るい領域ほど、重畳するマーカーの画素値を大きくすることで、マーカーは視認されにくくなる。例えば、元画像内の画素値が所定の閾値より大きく明るい領域ではマーカーの画素値を255階調で32とし、所定の閾値より小さく暗い領域ではマーカーの画素値を255階調で8としてマーカーを重畳する。このように制御することで、マーカーはユーザから視認されにくくなる。 It is preferable that the pixel value of the superimposed marker is a gradation value that is difficult for the user to see. Further, the pixel value of the superimposed marker may be controlled based on the feature amount of the original image on which the marker is superimposed. That is, the larger the pixel value in the original image and the brighter the region, the more difficult it is for the marker to be visually recognized by increasing the pixel value of the superimposed marker. For example, in a bright region where the pixel value in the original image is larger than a predetermined threshold value, the pixel value of the marker is set to 32 at 255 gradations, and in a dark region smaller than the predetermined threshold value, the pixel value of the marker is set to 8 at 255 gradations. Superimpose. By controlling in this way, the marker is less likely to be visually recognized by the user.

マーカーの画素値を設定するための元画像の特徴量は、画素値に限られず、マーカーが重畳されるブロックにおける画像KSDTのブロックAPL、ヒストグラムなど、マーカーを重畳する領域の色または明るさが判別できる特徴量であってもよい。 The feature amount of the original image for setting the pixel value of the marker is not limited to the pixel value, and the color or brightness of the area on which the marker is superimposed, such as the block APL and histogram of the image KSDT in the block on which the marker is superimposed, is determined. It may be a feature amount that can be produced.

マーカー重畳部203は、前フレームと現フレームとのブロックAPLの差分値を計算し、差分値が予め定められた閾値よりも大きい領域を、画像KSDT内で動きがより大きい領域と判断してマーカーを重畳してもよい。動きが大きい領域ほどマーカーを検出しやすいため、ブロックAPLの差分値が閾値よりも大きい領域にマーカーを重畳させることで、マーカーの数は減らすことが可能となる。マーカーの数が減ることで、マーカーはユーザから視認されにくくなる。なお、動きを検出するため特徴量は、前フレームと現フレームとのブロックAPLの差分値に限られず、ヒストグラムなど動画像の領域ごとの動きを表すことができる特徴量であればよい。 The marker superimposition unit 203 calculates the difference value of the block APL between the previous frame and the current frame, determines that the region where the difference value is larger than the predetermined threshold value is the region where the movement is larger in the image KSDT, and the marker. May be superimposed. Since the marker is more easily detected in the region where the movement is large, the number of markers can be reduced by superimposing the marker on the region where the difference value of the block APL is larger than the threshold value. By reducing the number of markers, the markers are less visible to the user. In order to detect the movement, the feature amount is not limited to the difference value of the block APL between the previous frame and the current frame, and may be any feature amount that can represent the movement of each region of the moving image such as a histogram.

マーカー重畳部203は、マーカーを重畳した画像MDTを、パネル制御部204および光源制御部206に出力する。 The marker superimposition unit 203 outputs the image MDT on which the markers are superposed to the panel control unit 204 and the light source control unit 206.

パネル制御部204は、マーカー重畳部203が出力したマーカー重畳後の画像MDTに基づいて、パネル部205での透過率を変調するための電圧信号PDを生成する。 The panel control unit 204 generates a voltage signal PD for modulating the transmittance in the panel unit 205 based on the image MDT after the marker superimposition output by the marker superimposition unit 203.

パネル部205は、光源部207が照射する光を、パネル制御部204から入力される電圧信号PDに基づく透過率で透過させることで、投影画像PDTをスクリーン105へ画像光として出力する。 The panel unit 205 outputs the projected image PDT to the screen 105 as image light by transmitting the light emitted by the light source unit 207 with a transmittance based on the voltage signal PD input from the panel control unit 204.

光源制御部206は、マーカー重畳後の画像MDTの画像情報、不図示の操作部を介したユーザ指定などに基づいて、光源部207に制御信号CONを送信し、光源部207のオン/オフおよび光量を制御する。例えば、光源制御部206は、マーカー重畳後の画像MDTが明るい画像の場合には光源を明るく制御し、画像MDTが暗い画像の場合には光源を暗くするように制御する。光源の光量は、マーカー重畳部203でマーカーが重畳された後の画像MDTの画像情報を用いて制御量を決定する例を示したが、これに限られない。幾何変形またはマーカー重畳による輝度変動を抑制するために、光源の光量は、画像処理部201からの画像IDTに基づいて制御量が決定されるようにしてもよい。 The light source control unit 206 transmits a control signal CON to the light source unit 207 based on the image information of the image MDT after the marker superimposition, the user designation via the operation unit (not shown), and the like, and turns the light source unit 207 on / off. Control the amount of light. For example, the light source control unit 206 controls the light source to be bright when the image MDT after superimposing the marker is a bright image, and to darken the light source when the image MDT is a dark image. The amount of light of the light source is not limited to the control amount, although the control amount is determined by using the image information of the image MDT after the marker is superposed by the marker superimposing unit 203. In order to suppress the luminance fluctuation due to geometric deformation or marker superimposition, the control amount of the light amount of the light source may be determined based on the image IDT from the image processing unit 201.

光源部207は、例えば、ハロゲンランプ、キセノンランプ、高圧水銀ランプなどであり、制御信号CONに基づいてパネル部205に光を照射する。 The light source unit 207 is, for example, a halogen lamp, a xenon lamp, a high-pressure mercury lamp, or the like, and irradiates the panel unit 205 with light based on the control signal CON.

図2に戻り、制御装置103の動作について説明する。制御装置103は、マーカー制
御部301、マーカー抽出部302、変形量算出部303を有する。
Returning to FIG. 2, the operation of the control device 103 will be described. The control device 103 includes a marker control unit 301, a marker extraction unit 302, and a deformation amount calculation unit 303.

マーカー制御部301は、マーカー重畳部203にマーカー重畳に関する指示をする指示信号TIM1を送信し、撮像装置104に投影面の撮像を指示する撮像指示TIM2を送信する。指示信号TIM1は、マーカー重畳を開始するタイミングを示す開始指示、およびマーカー重畳を終了するタイミングを示す終了指示を含む。撮像指示TIM2は、投影面の撮像を開始するスタートタイミング、および投影面の撮像を終了するエンドタイミングを示す指示を含む。撮像指示TIM2は、撮像装置104が有する撮像素子への露光時間、撮像感度、絞り値などを制御するための撮像パラメータを含んでもよい。 The marker control unit 301 transmits an instruction signal TIM1 instructing the marker superimposition unit 203 to superimpose the marker, and transmits an imaging instruction TIM2 instructing the image pickup apparatus 104 to image the projection surface. The instruction signal TIM1 includes a start instruction indicating the timing for starting the marker superimposition and an end instruction indicating the timing for ending the marker superimposition. The imaging instruction TIM2 includes an instruction indicating a start timing for starting the imaging of the projection surface and an end timing for ending the imaging of the projection surface. The image pickup instruction TIM2 may include an image pickup parameter for controlling the exposure time to the image sensor, the image pickup sensitivity, the aperture value, and the like included in the image pickup apparatus 104.

図6を用いて、マーカーを重畳する時間的タイミングを制御する指示信号TIM1について説明する。図6は、映像信号の同期タイミングを表すVsyncと、幾何変形部202から出力される画像KSDTと、マーカー重畳に関する指示をする指示信号TIM1とのタイミングの関係を示す。幾何変形部202からの画像KSDTは、Vsyncに同期して処理される。 The instruction signal TIM1 that controls the temporal timing of superimposing the markers will be described with reference to FIG. FIG. 6 shows the timing relationship between Vsync, which represents the synchronization timing of the video signal, the image KSDT output from the geometric deformation unit 202, and the instruction signal TIM1 that gives an instruction regarding marker superimposition. The image KSDT from the geometric deformation unit 202 is processed in synchronization with Vsync.

マーカー重畳部203は、指示信号TIM1がLowの時はマーカーを重畳せず、Highの時はマーカーを重畳するように動作する。図6の例では、画像KSDTは、T1、T2、T5の間は、マーカーを重畳しないため、図4(A)のようにマーカーが表示されていない画像がマーカー重畳処理後の画像MDTとして出力される。また、画像KSDTは、T3、T4の間は、マーカーを重畳するため、図4(C)のようにマーカーが重畳された画像がマーカー重畳処理後の画像MDTとして出力される。 The marker superimposing unit 203 operates so as not to superimpose the marker when the instruction signal TIM1 is Low, and to superimpose the marker when the instruction signal TIM1 is High. In the example of FIG. 6, since the image KSDT does not superimpose the marker between T1, T2, and T5, the image in which the marker is not displayed as shown in FIG. 4A is output as the image MDT after the marker superimposition processing. Will be done. Further, since the image KSDT superimposes the markers between T3 and T4, the image on which the markers are superposed is output as the image MDT after the marker superimposition processing as shown in FIG. 4C.

マーカー抽出部302は、撮像装置104から撮像画像PICを取得し、撮像画像PIC上から、マーカー重畳部203で重畳されたマーカーを抽出し、マーカーの位置を検出する。マーカー抽出部302は、抽出処理結果であるマーカー抽出画像MARKERを変形量算出部303に送信する。マーカー抽出部302が生成するマーカー抽出画像MARKERの生成方法については後述する。 The marker extraction unit 302 acquires the captured image PIC from the imaging device 104, extracts the marker superimposed by the marker superimposing unit 203 from the captured image PIC, and detects the position of the marker. The marker extraction unit 302 transmits the marker extraction image MARKER, which is the extraction processing result, to the deformation amount calculation unit 303. The method of generating the marker extraction image MARKER generated by the marker extraction unit 302 will be described later.

変形量算出部303は、マーカー抽出画像MARKERに基づいて、目標投影領域TAGT_POSIに投影装置A101および投影装置B102の投影領域を重ね合わせるために用いられる変形パラメータPARAMを算出する。変形量算出部303は、、算出した変形パラメータPARAMを幾何変形部202に送信する。目標投影領域TAGT_POSIは、投影装置A101およびB102の投影領域を重ね合わせるための基準位置を示す。目標投影領域TAGT_POSIに投影装置A101および投影装置B102の投影領域を重ねることで、スタック投影が実現される。目標投影領域TAGT_POSIは、ユーザが撮像画像PIC上で予め指定した投影領域の4頂点の撮像画像PIC上での座標値としても良い。また、目標投影領域TAGT_POSIは、予めユーザにより選択されたいずれかの投影装置の投影領域の4頂点の撮像画像PIC上での座標値として指定されてもよい。 The deformation amount calculation unit 303 calculates the deformation parameter PARAM used for superimposing the projection areas of the projection device A101 and the projection device B102 on the target projection area TAGT_POSI based on the marker extracted image MARKER. The deformation amount calculation unit 303 transmits the calculated deformation parameter PARAM to the geometric deformation unit 202. The target projection area TAGT_POSI indicates a reference position for superimposing the projection areas of the projection devices A101 and B102. Stack projection is realized by superimposing the projection areas of the projection device A101 and the projection device B102 on the target projection area TAGT_POSI. The target projection area TAGT_POSI may be a coordinate value on the captured image PIC of the four vertices of the projection region specified in advance on the captured image PIC by the user. Further, the target projection area TAGT_POSI may be designated as coordinate values on the captured image PIC of the four vertices of the projection area of any projection device selected in advance by the user.

撮像装置104は、マーカー制御部301より入力された撮像指示TIM2に基づき、投影装置A101および投影装置B102の投影領域全体を撮像し、取得した撮像画像PICをマーカー抽出部302に送信することができる。 The imaging device 104 can image the entire projection area of the projection device A101 and the projection device B102 based on the imaging instruction TIM2 input from the marker control unit 301, and transmit the acquired image PIC to the marker extraction unit 302. ..

(位置ずれ補正処理)
図7を用いて、位置ずれ補正処理について説明する。図7は、マーカー制御部301がマーカーの重畳表示の開始を指示する指示信号TIM1をマーカー重畳部203に送信し、変形量算出部303が変形量を示す変形パラメータPARAMを幾何変形部202に送信するまでの処理を示す。なお、図7の説明において、投影装置A101および投影装置
B102は、単に投影装置とも称される。
(Position deviation correction processing)
The misalignment correction process will be described with reference to FIG. 7. In FIG. 7, the marker control unit 301 transmits an instruction signal TIM1 instructing the start of the marker superimposition display to the marker superimposition unit 203, and the deformation amount calculation unit 303 transmits the deformation parameter PARAM indicating the deformation amount to the geometric deformation unit 202. The processing up to this is shown. In the description of FIG. 7, the projection device A101 and the projection device B102 are also simply referred to as projection devices.

S501では、マーカー制御部301は、ユーザからリモコンなどの操作部(不図示)を介して、投影面の位置ずれ補正の指示があったか否かを判定する。ユーザから位置ずれ補正の指示があった場合(S501:Yes)、処理はS502に進む。ユーザから位置ずれ補正の指示がない場合(S501:No)、処理はS501に戻り、投影装置は投影を続行する。 In S501, the marker control unit 301 determines whether or not the user has instructed the position deviation correction of the projection surface via an operation unit (not shown) such as a remote controller. When the user gives an instruction to correct the misalignment (S501: Yes), the process proceeds to S502. If there is no instruction for misalignment correction from the user (S501: No), the process returns to S501, and the projection device continues projection.

S501の処理は、制御装置103による位置ずれ補正処理の開始条件であるが、開始条件はユーザからの指示に限られない。例えば、投影装置が投影装置自体の物理位置の変化を検出するセンサを搭載し、マーカー制御部301は、センサから投影装置の物理位置の変化量を取得し、変化量が予め定められた閾値以上になったことを契機として位置ずれ補正処理を開始してもよい。センサは、投影装置の物理的な動きを検出することができればよく、例えば、加速度センサ、速度センサ、ジャイロセンサが挙げられる。 The process of S501 is a start condition of the position shift correction process by the control device 103, but the start condition is not limited to the instruction from the user. For example, the projection device is equipped with a sensor that detects a change in the physical position of the projection device itself, and the marker control unit 301 acquires the amount of change in the physical position of the projection device from the sensor, and the amount of change is equal to or greater than a predetermined threshold value. The misalignment correction process may be started when the result becomes. The sensor only needs to be able to detect the physical movement of the projection device, and examples thereof include an acceleration sensor, a speed sensor, and a gyro sensor.

また、マーカー制御部301は、開始条件として、ユーザが操作部により予め入力した位置ずれ補正の実行間隔に基づき、入力された実行間隔で、位置ずれ補正処理を開始してもよい。 Further, as a start condition, the marker control unit 301 may start the position shift correction process at the input execution interval based on the position shift correction execution interval previously input by the user by the operation unit.

また、マーカー制御部301は、開始条件として、ユーザがマーカーを視認しづらいシーンであると判定された場合に、位置ずれ補正処理を開始してもよい。ユーザがマーカーを視認しづらいシーンであるか否かは、マーカー重畳部203が幾何変形部202からの画像KSDTの特徴量を算出し、算出した特徴量に基づいて判定することができる。マーカー制御部301は、マーカー重畳部203から判定結果を受信して、位置ずれ補正処理を開始するか否かを判定することができる。 Further, the marker control unit 301 may start the misalignment correction process as a start condition when it is determined that the scene is difficult for the user to visually recognize the marker. Whether or not the scene is difficult for the user to visually recognize the marker can be determined by the marker superimposing unit 203 calculating the feature amount of the image KSDT from the geometric deformation unit 202 and based on the calculated feature amount. The marker control unit 301 can receive the determination result from the marker superimposition unit 203 and determine whether or not to start the misalignment correction process.

人間の視覚認知能力は、暗部に比べ、明部の微小変化に比較的鈍感であるため、明るいシーンでマーカーを重畳することが望ましい。具体的には、マーカー重畳部203は、画像KSDTの所定の領域ごとにブロックAPLを取得し、所定の閾値以下のブロックAPLが存在しない場合に、ユーザがマーカーを視認しづらい明るいシーンであると判定してもよい。 Since human visual cognitive ability is relatively insensitive to minute changes in bright areas as compared to dark areas, it is desirable to superimpose markers in bright scenes. Specifically, the marker superimposing unit 203 acquires a block APL for each predetermined area of the image KSDT, and when there is no block APL below a predetermined threshold value, it is a bright scene in which it is difficult for the user to visually recognize the marker. You may judge.

S502では、変形量算出部303は、目標投影領域TAGT_POSIが指定されているか否かを判定する。目標投影領域TAGT_POSIが指定されている場合(S502:Yes)、処理はS504に進む。目標投影領域TAGT_POSIが指定されていない場合(S502:No)、処理はS503に進む。 In S502, the deformation amount calculation unit 303 determines whether or not the target projection region TAGT_POSI is specified. When the target projection area TAGT_POSI is specified (S502: Yes), the process proceeds to S504. If the target projection area TAGT_POSI is not specified (S502: No), the process proceeds to S503.

S503では、変形量算出部303は、目標投影領域TAGT_POSIを指定する。目標投影領域TAGT_POSIは、不図示の操作部を介して、ユーザに指定させることができる。例えば、目標投影領域TAGT_POSIは、撮像装置104から取得した撮像画像PIC上で、4頂点をユーザに指定させることができる。 In S503, the deformation amount calculation unit 303 specifies the target projection region TAGT_POSI. The target projection area TAGT_POSI can be specified by the user via an operation unit (not shown). For example, in the target projection area TAGT_POSI, four vertices can be specified by the user on the captured image PIC acquired from the imaging device 104.

また、目標投影領域TAGT_POSIは、リモコン等の操作部からの指示に基づいて、投影画像上で4頂点が指定されるようにしてもよい。具体的には、マーカー重畳部203は、目標投影領域TAGT_POSIの4頂点を指定させるUIを含む画像MDTを生成する。投影装置は、4頂点を指定させるUIを含む画像MDTに基づいて投影画像を投影する。ユーザは、投影画像を見ながらUIの位置を調整する。目標投影領域TAGT_POSIの4頂点を指定させるUIは、投影装置A101と投影装置B102のどちらが投影してもよい。変形量算出部303は、投影面の撮像画像PICを撮像装置104から取得し、合成された目標投影位置指定用のUIを検出し、撮像画像PIC上での座標を、
目標投影領域TAGT_POSIの4頂点として指定することができる。目標投影領域TAGT_POSIの指定が完了後、処理はS504に進む。
Further, the target projection area TAGT_POSI may be designated with four vertices on the projected image based on an instruction from an operation unit such as a remote controller. Specifically, the marker superimposing unit 203 generates an image MDT including a UI for designating the four vertices of the target projection area TAGT_POSI. The projection device projects a projected image based on an image MDT that includes a UI that specifies four vertices. The user adjusts the position of the UI while looking at the projected image. The UI for designating the four vertices of the target projection area TAGT_POSI may be projected by either the projection device A101 or the projection device B102. The deformation amount calculation unit 303 acquires the captured image PIC of the projection surface from the imaging device 104, detects the synthesized UI for specifying the target projection position, and obtains the coordinates on the captured image PIC.
It can be specified as the four vertices of the target projection area TAGT_POSI. After the designation of the target projection area TAGT_POSI is completed, the process proceeds to S504.

S504では、マーカー制御部301は、マーカー重畳部203に対し、マーカーの重畳を指示する指示信号TIM1を送信する。マーカー重畳の指示信号TIM1を受信したマーカー重畳部203は、幾何変形部202からの画像KSDTにマーカーを重畳した画像MDTを生成し、パネル制御部204に出力する。スクリーン105には、マーカーが重畳された画像が投影される。マーカー制御部301がマーカー重畳部203に指示信号TIM1を送信後、処理はS505に進む。 In S504, the marker control unit 301 transmits an instruction signal TIM1 instructing the marker superposition unit 203 to superimpose the markers. Upon receiving the marker superimposition instruction signal TIM1, the marker superimposition unit 203 generates an image MDT in which the marker is superposed on the image KSDT from the geometric deformation unit 202, and outputs the image MDT to the panel control unit 204. An image on which the marker is superimposed is projected on the screen 105. After the marker control unit 301 transmits the instruction signal TIM1 to the marker superimposition unit 203, the process proceeds to S505.

なお、マーカー重畳を指示する指示信号TIM1を受信したマーカー重畳部203は、投影画像の動きがより大きいと判定した場合に、画像KSDTにマーカーを重畳した画像MDTを生成してもよい。例えば、マーカー重畳部203は、画像KSDTの前フレームと現フレームから計算した特徴量の差分値が予め定められた閾値以上である場合に、投影画像の動きがより大きいと判定することができる。 The marker superimposing unit 203 that has received the instruction signal TIM1 instructing the marker superimposition may generate an image MDT in which the marker is superposed on the image KSDT when it is determined that the movement of the projected image is larger. For example, the marker superimposing unit 203 can determine that the motion of the projected image is larger when the difference value of the feature amount calculated from the previous frame and the current frame of the image KSDT is equal to or more than a predetermined threshold value.

マーカー重畳部203は、投影画像の動きがより大きいと判定してマーカーを重畳した画像MDTを生成した場合、指示信号TIM1の応答として、マーカー制御部301にマーカーを重畳したことを示す信号を送信する。マーカー制御部301は、マーカーを重畳したことを示す信号を受信した場合はS505に進み、マーカーを重畳したことを示す信号を受信しなかった場合はS511に進むようにしてもよい。 When the marker superimposing unit 203 determines that the movement of the projected image is larger and generates an image MDT on which the marker is superimposed, the marker superimposing unit 203 transmits a signal indicating that the marker is superimposed on the marker control unit 301 as a response of the instruction signal TIM1. do. The marker control unit 301 may proceed to S505 when it receives a signal indicating that the markers are superimposed, and proceeds to S511 when it does not receive a signal indicating that the markers are superimposed.

S505では、マーカー制御部301は、撮像装置104に撮像指示TIM2を送信する。撮像指示TIM2は、撮像装置104の露光時間の設定値を含むものとする。 In S505, the marker control unit 301 transmits the image pickup instruction TIM2 to the image pickup apparatus 104. The image pickup instruction TIM2 is assumed to include a set value of the exposure time of the image pickup apparatus 104.

なお、マーカー制御部301は、マーカー重畳部203がマーカーの重畳を指示する指示信号TIM1を受信してから、マーカーを重畳した画像が投影されるまでの遅延時間だけ、撮像装置104への撮像指示TIM2の送信を遅らせてもよい。マーカー制御部301が撮像装置104に撮像指示TIM2を送信した後、処理はS506に進む。 The marker control unit 301 gives an image pickup instruction to the image pickup apparatus 104 for a delay time from the time when the marker superimposition unit 203 receives the instruction signal TIM1 instructing the marker superimposition to the time when the image on which the marker is superposed is projected. The transmission of TIM2 may be delayed. After the marker control unit 301 transmits the image pickup instruction TIM2 to the image pickup apparatus 104, the process proceeds to S506.

S506では、マーカー抽出部302は、撮像指示TIM2を受信した撮像装置104によって撮像された、投影面の撮像画像PICを取得する。撮像装置104の露光時間の設定値は、撮像指示TIM2に含めるようにしてもよく、投影される投影画像PDTのフレームレートを基に、マーカーを重畳したフレームの投影画像PDTが確実に撮影できるよう予め決定されてもよい。マーカー制御部301が、撮像装置104から撮像画像PICを取得した後、処理はS507に進む。 In S506, the marker extraction unit 302 acquires the captured image PIC of the projection surface captured by the imaging device 104 that has received the imaging instruction TIM2. The set value of the exposure time of the imaging device 104 may be included in the imaging instruction TIM2, so that the projected image PDT of the frame on which the marker is superimposed can be reliably captured based on the frame rate of the projected projected image PDT. It may be determined in advance. After the marker control unit 301 acquires the captured image PIC from the imaging device 104, the process proceeds to S507.

S507では、マーカー制御部301は、マーカー重畳部203に対し、マーカー重畳の終了を指示する指示信号TIM1を送信する。マーカー重畳部203は、撮像装置104による撮像処理の間のみ投影画像へマーカーを重畳することができる。このため、投影画像にマーカーが重畳される時間は低減され、ユーザは、マーカーを認知しにくくなる。 In S507, the marker control unit 301 transmits an instruction signal TIM1 instructing the end of marker superimposition to the marker superimposition unit 203. The marker superimposing unit 203 can superimpose the marker on the projected image only during the imaging process by the imaging device 104. Therefore, the time for the marker to be superimposed on the projected image is reduced, and it becomes difficult for the user to recognize the marker.

マーカー重畳の終了を指示する指示信号TIM1を受信したマーカー重畳部203は、幾何変形部202からの画像KSDTをそのまま画像MDTとして、パネル制御部204へ出力する。この場合、スクリーン105には、マーカーが重畳されていない画像が投影される。マーカー制御部301は、マーカー重畳部203にマーカー重畳の終了を指示する指示信号TIM1を送信後、処理はS508に進む。 Upon receiving the instruction signal TIM1 instructing the end of marker superimposition, the marker superimposition unit 203 outputs the image KSDT from the geometric deformation unit 202 as an image MDT to the panel control unit 204 as it is. In this case, an image on which the markers are not superimposed is projected on the screen 105. After the marker control unit 301 transmits the instruction signal TIM1 instructing the marker superimposition unit 203 to end the marker superimposition, the process proceeds to S508.

なお、S504でマーカー重畳部203に送信する指示信号TIM1は、S507でマーカー重畳部203に送信するマーカー重畳の終了に関する指示を含んでもよい。具体的
には、指示信号TIM1は、撮像装置104に設定される露光時間、マーカー重畳指示TIM1、および撮像指示TIM2の送受信に要する時間の合計時間を、マーカーを重畳する時間として含む。マーカー制御部301は、マーカーを重畳する時間に基づいて、マーカー重畳部203にマーカー重畳の終了に関する指示を送信することができる。S504で送信される指示信号TIM1がマーカー重畳の終了に関する指示を含む場合、S507の処理は不要とすることができる。
The instruction signal TIM1 transmitted to the marker superimposition unit 203 in S504 may include an instruction regarding the end of marker superimposition transmitted to the marker superimposition unit 203 in S507. Specifically, the instruction signal TIM1 includes the total time required for transmitting and receiving the exposure time set in the image pickup apparatus 104, the marker superimposition instruction TIM1, and the image pickup instruction TIM2 as the time for superimposing the markers. The marker control unit 301 can transmit an instruction regarding the end of marker superimposition to the marker superimposition unit 203 based on the time for superimposing the markers. When the instruction signal TIM1 transmitted in S504 includes an instruction regarding the end of marker superposition, the processing of S507 can be omitted.

S508では、マーカー抽出部302は、マーカー成分のみを抽出した画像であるマーカー抽出画像MARKERを生成する。マーカー抽出部302は、まず、撮像画像PICを複製し、複製した複数枚の複製画像CDTを所定の方向に所定の距離だけずらしながら、撮像画像PICと重ね合わせることで平均化画像AVERAGEを生成する。次に、マーカー抽出部302は、平均化画像AVERAGEから低周波数成分を除去し、高周波成分を抽出することにより、マーカー抽出画像MARKERを生成する。マーカー抽出部302は、生成したマーカー抽出画像MARKERを、変形量算出部303に送信する。マーカー抽出画像MARKERの生成方法の詳細については後述する。マーカー抽出部302がマーカー抽出画像MARKERを変形量算出部303に送信した後、処理はS509に進む。 In S508, the marker extraction unit 302 generates a marker extraction image MARKER, which is an image in which only the marker components are extracted. The marker extraction unit 302 first duplicates the captured image PIC, shifts the duplicated duplicated image CDTs in a predetermined direction by a predetermined distance, and superimposes the captured image PIC on the captured image PIC to generate an averaged image AVERAGE. .. Next, the marker extraction unit 302 removes the low frequency component from the averaged image AVERAGE and extracts the high frequency component to generate the marker extraction image MARKER. The marker extraction unit 302 transmits the generated marker extraction image MARKER to the deformation amount calculation unit 303. Details of the method for generating the marker-extracted image MARKER will be described later. After the marker extraction unit 302 transmits the marker extraction image MARKER to the deformation amount calculation unit 303, the process proceeds to S509.

S509では、変形量算出部303は、マーカー抽出画像MARKERを用いて投影装置の投影領域と目標投影領域TAGT_POSIとの位置ずれの量(変化量)を算出する。変形量算出部303は、算出した変化量に基づいて、位置ずれを補正するか否かを判定する。変形量算出部303は、例えば、変化量が所定の閾値より大きいか否かに応じて、位置ずれを補正するか否かを判定することができる。変形量算出部303は、位置ずれを補正すると判定した場合(S509:Yes)、処理はS510に進み、位置ずれを補正しないと判定した場合(S509:No)、処理はS511に進む。 In S509, the deformation amount calculation unit 303 calculates the amount (change amount) of the positional deviation between the projection area of the projection device and the target projection area TAGT_POSI using the marker extraction image MARKER. The deformation amount calculation unit 303 determines whether or not to correct the positional deviation based on the calculated change amount. The deformation amount calculation unit 303 can determine, for example, whether or not to correct the positional deviation depending on whether or not the amount of change is larger than a predetermined threshold value. When the deformation amount calculation unit 303 determines that the misalignment is corrected (S509: Yes), the process proceeds to S510, and when it is determined that the misalignment is not corrected (S509: No), the process proceeds to S511.

[位置ずれ判定処理]
ここで、図8を用いて、位置ずれがあったか否かを変形量算出部303が判定する処理について詳細に説明する。図8(A)は、マーカー重畳部203が画像KSDTに重畳する元のマーカー画像600のうち、4つのマーカー領域内で中心に位置する基本パターンを示している。また、背景の黒色部分は白色で示している。マーカー画像600の4頂点の座標は(xp_i、yp_i)(i=1〜4)、重畳するマーカーそれぞれの重心位置の座標は(xm_i、ym_i)(i=1〜4)でそれぞれ示される。なお、図8の説明において、マーカー画像600およびパネル部205の解像度は同じであり、マーカー画像600のおよびパネル部205の4頂点の座標は(xp_i、yp_i)で一致するものとする。
[Position deviation judgment processing]
Here, with reference to FIG. 8, the process of determining whether or not there is a positional deviation by the deformation amount calculation unit 303 will be described in detail. FIG. 8A shows a basic pattern located at the center of the four marker regions of the original marker image 600 superposed on the image KSDT by the marker superimposing portion 203. The black part of the background is shown in white. The coordinates of the four vertices of the marker image 600 are indicated by (xp_i, yp_i) (i = 1 to 4), and the coordinates of the center of gravity of each of the superimposed markers are indicated by (xm_i, ym_i) (i = 1 to 4). In the description of FIG. 8, it is assumed that the resolutions of the marker image 600 and the panel unit 205 are the same, and the coordinates of the four vertices of the marker image 600 and the panel unit 205 are the same at (xp_i, yp_i).

図8(B)はマーカー抽出画像MARKERを示しており、撮像範囲610に対して、投影領域611と予め指定された目標投影領域TAGT_POSIをそれぞれ示している。抽出されたマーカーそれぞれの重心位置の座標は(xmc_i、ymc_i)(i=1〜4)で示している。目標投影領域TAGT_POSIは、マーカー抽出画像MARKER上の座標(xtc_i,ytc_i)(i=1〜4)を順に結ぶことによって図8(B)のように示すことが可能である。 FIG. 8B shows a marker-extracted image MARKER, which shows a projection region 611 and a predetermined target projection region TAGT_POSI for the imaging range 610, respectively. The coordinates of the position of the center of gravity of each of the extracted markers are indicated by (xmc_i, ymc_i) (i = 1 to 4). The target projection area TAGT_POSI can be shown as shown in FIG. 8 (B) by sequentially connecting the coordinates (xtc_i, ytk_i) (i = 1 to 4) on the marker extraction image MARKER.

まず、変形量算出部303は、S508で算出したマーカー抽出画像MARKERおよびマーカー画像600を用いて、マーカー抽出画像MARKERの座標とパネル部205における座標との対応を表す射影変換行列Hを算出する。射影変換行列Hは、重畳するマーカーの重心位置座標(xm_i、ym_i)とマーカー抽出部302による抽出したマーカーの重心位置座標(xmc_i、ymc_i)より計算される。射影変換行列Hは、マーカー抽出画像MARKERと元のマーカー画像600との任意の点の座標の関係性を
示す3×3の行列であり、例えば式4のように表される。尚、撮像画像からマーカーの重心位置座標(xmc_i、ymc_i)を求める方法は後述する。

Figure 2021114685
First, the deformation amount calculation unit 303 calculates the projection transformation matrix H representing the correspondence between the coordinates of the marker extraction image MARKER and the coordinates in the panel unit 205 by using the marker extraction image MARKER and the marker image 600 calculated in S508. The projective transformation matrix H is calculated from the center-of-gravity position coordinates (xm_i, ym_i) of the superimposed markers and the center-of-gravity position coordinates (xmc_i, ymc_i) of the markers extracted by the marker extraction unit 302. The projective transformation matrix H is a 3 × 3 matrix showing the relationship between the coordinates of the marker extracted image MARKER and the original marker image 600 at arbitrary points, and is represented by, for example, Equation 4. The method of obtaining the center of gravity position coordinates (xmc_i, ymc_i) of the marker from the captured image will be described later.
Figure 2021114685

図8(C)は、マーカー画像600と、目標投影領域TAGT_POSIをマーカー画像600上に射影した目標投影領域TAGT_POSI_pとの位置関係を説明する図である。変形量算出部303は、目標投影領域TAGT_POSIの4頂点座標(xtc_i,ytc_i)を、射影変換行列Hを用いた下記の式5に代入し、マーカー画像600の座標系に射影した4頂点座標(xt_i、yt_i)(i=1〜4)を算出する。

Figure 2021114685
FIG. 8C is a diagram for explaining the positional relationship between the marker image 600 and the target projection area TAGT_POSI_p in which the target projection area TAGT_POSI is projected onto the marker image 600. The deformation amount calculation unit 303 substitutes the four-vertical coordinates (xtc_i, ytc_i) of the target projection area TAGT_POSI into the following equation 5 using the projective transformation matrix H, and projects the four-vertical coordinates (projected on the coordinate system of the marker image 600). xx_i, yt_i) (i = 1 to 4) are calculated.
Figure 2021114685

変形量算出部303は、算出した座標(xt_i、yt_i)とマーカー画像の4頂点座標(xp_i、yp_i)とを比較し、各座標が一致している場合には位置ずれがないと判定する。また、変形量算出部303は、算出した座標(xt_i、yt_i)とマーカー画像の4頂点座標(xp_i、yp_i)とを比較し、一致しない座標が存在する場合には位置ずれがあると判定する。 The deformation amount calculation unit 303 compares the calculated coordinates (xt_i, yt_i) with the four vertex coordinates (xp_i, yp_i) of the marker image, and determines that there is no positional deviation when the coordinates match. Further, the deformation amount calculation unit 303 compares the calculated coordinates (xt_i, yt_i) with the coordinates of the four vertices (xp_i, yp_i) of the marker image, and determines that there is a positional deviation if there are coordinates that do not match. ..

なお、S509では、変形量算出部303は、目標投影領域TAGT_POSI_pの座標(xt_i、yt_i)とマーカー画像の4頂点座標(xp_i、yp_i)とが一致している場合に、位置ずれはないと判定する例を示したが、これに限られない。S509での判定基準は、位置ずれ補正の要否を判定できる基準であればよい。 In S509, the deformation amount calculation unit 303 determines that there is no positional deviation when the coordinates (xt_i, yt_i) of the target projection area TAGT_POSI_p and the coordinates (xp_i, yp_i) of the four vertices of the marker image match. An example of this is shown, but it is not limited to this. The determination standard in S509 may be any standard that can determine the necessity of misalignment correction.

例えば、算出した座標(xt_i、yt_i)とマーカー画像の4頂点座標(xp_i、yp_i)との位置ずれ量は、二つの対応点間のユークリッド距離であると定義する。変形量算出部303は、投影領域の4頂点の座標と目標投影領域の4頂点の座標とのずれ量の総和が閾値以下である場合に、位置ずれ補正はしないと判定してもよい。 For example, the amount of misalignment between the calculated coordinates (xt_i, yt_i) and the four vertex coordinates (xp_i, yp_i) of the marker image is defined as the Euclidean distance between the two corresponding points. The deformation amount calculation unit 303 may determine that the misalignment correction is not performed when the sum of the deviation amounts between the coordinates of the four vertices in the projection area and the coordinates of the four vertices in the target projection area is equal to or less than the threshold value.

また、変形量算出部303は、算出した各頂点の座標と対応する目標投影領域の座標とのずれが予め定められた閾値以下である場合に、位置ずれ補正はしないと判定してもよい。 Further, the deformation amount calculation unit 303 may determine that the misalignment correction is not performed when the deviation between the calculated coordinates of each vertex and the coordinates of the corresponding target projection area is equal to or less than a predetermined threshold value.

また、変形量算出部303は、算出した各頂点の座標と目標投影領域の4頂点の座標それぞれとのずれ量が閾値以下である場合に、位置ずれ補正はしないと判定してもよい。この場合、1つの頂点でも目標投影領域の4頂点のそれぞれとの座標のずれが閾値を超えた場合に、位置ずれ補正はしないと判定するようにしてもよい。 Further, the deformation amount calculation unit 303 may determine that the positional deviation correction is not performed when the deviation amount between the calculated coordinates of each vertex and the coordinates of each of the four vertices in the target projection area is equal to or less than the threshold value. In this case, if the deviation of the coordinates of even one vertex from each of the four vertices in the target projection area exceeds the threshold value, it may be determined that the displacement correction is not performed.

続いて、図8を用いて、変形量算出部303がマーカー抽出画像MARKERから撮像画像PIC上のマーカーの重心座標(xmc_i、ymc_i)を算出する方法を説明する。なお、マーカーの重心座標(xmc_i、ymc_i)は、マーカーの中心の座標である場合を例として説明する。また、座標系の原点は撮像範囲610の左上の頂点とし、水平方向(x軸方向)の右側および垂直方向(y軸正方)の下側を正の向きとして説明する。 Subsequently, with reference to FIG. 8, a method in which the deformation amount calculation unit 303 calculates the barycentric coordinates (xmc_i, ymc_i) of the marker on the captured image PIC from the marker extracted image MARKER will be described. The coordinates of the center of gravity of the marker (xmc_i, ymc_i) will be described as an example of the coordinates of the center of the marker. Further, the origin of the coordinate system will be the upper left apex of the imaging range 610, and the right side in the horizontal direction (x-axis direction) and the lower side in the vertical direction (y-axis square) will be described as positive directions.

変形量算出部303は、基本パターンを中心とした所定の画素数LEN四方のマーカー
領域をテンプレートTとし、マーカー抽出画像MARKERとテンプレートTとの相関係数が最も高くなる領域を網羅的に探索する。変形量算出部303は、図8(A)に示す各基本パターンを含む4つのマーカー領域(テンプレートT)と相関が高い4箇所の領域を抽出する。テンプレートTは基本パターンを中心とした所定の画素数LEN四方の画像であるため、変形量算出部303は、抽出した領域の中心の座標を抽出したマーカーの重心座標(xmc_i、ymc_i)とする。
The deformation amount calculation unit 303 uses the marker region of a predetermined number of pixels LEN square centering on the basic pattern as the template T, and comprehensively searches for the region where the correlation coefficient between the marker extracted image MARKER and the template T is the highest. .. The deformation amount calculation unit 303 extracts four regions having a high correlation with the four marker regions (template T) including each basic pattern shown in FIG. 8 (A). Since the template T is an image of a predetermined number of pixels LEN square centered on the basic pattern, the deformation amount calculation unit 303 uses the coordinates of the center of the extracted region as the coordinates of the center of the extracted marker (xmc_i, ymc_i).

変形量算出部303は、図8(B)に示すように、抽出した4つのマーカー座標(xmc_i、ymc_i)の中心座標(xmc_ave、ymc_ave)を算出する。xmc_aveはxmc_i(i=1〜4)の合計値を計算し、マーカーの数で除算した値であり、ymc_aveはymc_i(i=1〜4)の合計値を計算し、マーカーの数で除算した値である。変形量算出部303は、抽出したマーカー座標(xmc_i、ymc_i)と4つのマーカーの中心座標(xmc_ave、ymc_ave)との大小関係に基づいて、撮像画像内のマーカーとマーカー画像600内のマーカーとを対応付ける。 As shown in FIG. 8B, the deformation amount calculation unit 303 calculates the center coordinates (xmc_ave, ymc_ave) of the four extracted marker coordinates (xmc_i, ymc_i). xmc_ave is the value obtained by calculating the total value of xmc_i (i = 1 to 4) and dividing by the number of markers, and ymc_ave is the value obtained by calculating the total value of ymc_i (i = 1 to 4) and dividing by the number of markers. The value. The deformation amount calculation unit 303 sets the markers in the captured image and the markers in the marker image 600 based on the magnitude relationship between the extracted marker coordinates (xmc_i, ymc_i) and the center coordinates (xmc_ave, ymc_ave) of the four markers. Correspond.

変形量算出部303は、抽出したマーカーのx座標xmc_iがxmc_aveより小さく、y座標ymc_iがymc_aveより小さい場合、このマーカーの重心座標(xmc_1、ymc_1)は(xm_1、ym_1)に対応すると判断する。 When the x-coordinate xmc_i of the extracted marker is smaller than xmc_ave and the y-coordinate ymc_i is smaller than ymc_ave, the deformation amount calculation unit 303 determines that the barycentric coordinates (xmc_1, ymc_1) of this marker correspond to (xm_1, ym_1).

また、変形量算出部303は、抽出したマーカーのx座標xmc_iがxmc_aveより大きく、y座標ymc_iがymc_aveよりも小さい場合、このマーカーの重心座標(xmc_2、ymc_2)は(xm_2、ym_2)に対応すると判断する。 Further, when the x-coordinate xmc_i of the extracted marker is larger than xmc_ave and the y-coordinate ymc_i is smaller than ymc_ave, the deformation amount calculation unit 303 determines that the coordinates of the center of gravity (xmc_2, ymc_2) of this marker correspond to (xm_2, ym_2). to decide.

また、変形量算出部303は、抽出したマーカーのx座標xmc_iがxmc_aveより大きく、y座標ymc_iがymc_aveより大きい場合、このマーカーの重心座標(xmc_3、ymc_3)は(xm_3、ym_3)に対応すると判断する。 Further, the deformation amount calculation unit 303 determines that the barycentric coordinates (xmc_3, ymc_3) of the extracted marker correspond to (xm_3, ym_3) when the x-coordinate xmc_i of the extracted marker is larger than xmc_ave and the y-coordinate ymc_i is larger than ymc_ave. do.

また、変形量算出部303は抽出したマーカーのx座標xmc_iがxmc_aveより小さく、y座標ymc_iがymc_aveより大きい場合、このマーカーの重心座標(xmc_4、ymc_4)は(xm_4、ym_4)に対応すると判断する。 Further, when the x-coordinate xmc_i of the extracted marker is smaller than xmc_ave and the y-coordinate ymc_i is larger than ymc_ave, the deformation amount calculation unit 303 determines that the barycentric coordinates (xmc_4, ymc_4) of this marker correspond to (xm_4, ym_4). ..

なお、図8では、同じ形状の基本パターンを用いる例を示すが、これに限られない。例えば、図4(B)のマーカー画像410においてマーカー領域411ごとにそれぞれ一意に決まる、異なる形状の基本パターンを用いることができる。この場合、抽出したマーカーの重心座標(xmc_i、ymc_i)は、元のマーカーの中心座標(xm_i、ym_i)との対応を一意に特定することが可能である。 Note that FIG. 8 shows an example in which a basic pattern having the same shape is used, but the present invention is not limited to this. For example, in the marker image 410 of FIG. 4B, basic patterns having different shapes that are uniquely determined for each marker region 411 can be used. In this case, the coordinates of the center of gravity (xmc_i, ymc_i) of the extracted marker can uniquely specify the correspondence with the center coordinates (xm_i, ym_i) of the original marker.

図7に戻って、S510では、変形量算出部303は、変形パラメータPARAMを計算し、幾何変形部202へ送信する。S510の処理は、S509において、投影領域が目標投影領域TAGT_POSIからずれていると判定された場合に実行される。 Returning to FIG. 7, in S510, the deformation amount calculation unit 303 calculates the deformation parameter PARAM and transmits it to the geometric deformation unit 202. The process of S510 is executed when it is determined in S509 that the projection area deviates from the target projection area TAGT_POSI.

変形パラメータPARAMは、射影変換行列M_Pとオフセット(xt_1、yt_1)、(xp_1、yp_1)を含む。射影変換行列M_Pは、3×3で表される元画像から位置ずれを補正した変形後の画像へ射影変換行列であり、以下の式6を満たす。

Figure 2021114685
The transformation parameter PARAM includes a projective transformation matrix M_P and offsets (xt_1, yt_1), (xp_1, yp_1). The projective transformation matrix M_P is a projective transformation matrix from the original image represented by 3 × 3 to the deformed image in which the positional deviation is corrected, and satisfies the following equation 6.
Figure 2021114685

幾何変形部202は、変形量算出部303から受信した変形パラメータPARAMに基づいて、画像処理部201からの画像IDTを変形し画像KSDTを生成する。幾何変形部202は、生成した画像KSDTを、マーカー重畳部203に送信する。 The geometric deformation unit 202 deforms the image IDT from the image processing unit 201 based on the deformation parameter PARAM received from the deformation amount calculation unit 303 to generate an image KSDT. The geometric deformation unit 202 transmits the generated image KSDT to the marker superimposition unit 203.

幾何変形部202は、受信した変形パラメータPARAMを用いて画像IDTを幾何変形するため、スクリーン105に投影される投影画像の投影領域は、目標投影位置TAGT_POSIと一致する。変形量算出部303が幾何変形部202に変形パラメータPARAMを送信した後、処理はS511に進む。 Since the geometric deformation unit 202 geometrically deforms the image IDT using the received deformation parameter PARAM, the projection area of the projected image projected on the screen 105 coincides with the target projection position TAGT_POSI. After the deformation amount calculation unit 303 transmits the deformation parameter PARAM to the geometric deformation unit 202, the process proceeds to S511.

なお、S510では、変形量算出部303が変形パラメータPARAMを計算し、幾何変形部202が投影画像の投影位置を補正する例について説明したが、これに限られない。レンズシフトまたはズームなどにより投影領域を光学的に移動させることができる投影装置を用いる場合、変形量算出部303は、レンズシフトまたはズームの制御量を算出して、投影位置を補正するようにしてもよい。例えば、4頂点のそれぞれにおいて投影中心方向への幾何変形をする場合、各頂点の変形量の最小値まではレンズシフトまたはズームによって補正し、残りを幾何変形により補正してもよい。 In S510, an example in which the deformation amount calculation unit 303 calculates the deformation parameter PARAM and the geometric deformation unit 202 corrects the projection position of the projected image has been described, but the present invention is not limited to this. When a projection device capable of optically moving the projection area by lens shift or zoom is used, the deformation amount calculation unit 303 calculates the control amount of the lens shift or zoom to correct the projection position. May be good. For example, when geometrically deforming each of the four vertices in the projection center direction, the minimum value of the deformation amount of each vertex may be corrected by lens shift or zoom, and the rest may be corrected by geometrical deformation.

S511では、マーカー制御部301は、図7に示す位置ずれ補正処理の終了条件が満たされているか否かを判定する。マーカー制御部301は、例えば、リモコン操作によるユーザからの終了指示があった場合に、終了条件が満たされていると判定することができる。ユーザからの終了指示が無いと判定された場合(S511:No)、処理はS501に戻り、ユーザの終了指示があったと判定された場合(S511:Yes)、図7に示す位置ずれ補正処理は終了する。 In S511, the marker control unit 301 determines whether or not the end condition of the misalignment correction process shown in FIG. 7 is satisfied. The marker control unit 301 can determine that the end condition is satisfied when, for example, the user gives an end instruction by operating the remote controller. When it is determined that there is no end instruction from the user (S511: No), the process returns to S501, and when it is determined that there is an end instruction from the user (S511: Yes), the misalignment correction process shown in FIG. 7 is performed. finish.

[マーカー抽出画像生成処理]
続いて、図9〜図13を用いて、マーカー抽出部302がS508で撮像画像からマーカー抽出画像MARKERを生成する方法をより詳細に説明する。図9は、図7に示す位置ずれ補正処理のS508の処理の詳細を例示するフローチャートである。S508の処理は、撮像画像PICからマーカー抽出画像MARKERを生成する処理である。
[Marker extraction image generation process]
Subsequently, with reference to FIGS. 9 to 13, a method in which the marker extraction unit 302 generates the marker extraction image MARKER from the captured image in S508 will be described in more detail. FIG. 9 is a flowchart illustrating the details of the process of S508 of the position shift correction process shown in FIG. 7. The process of S508 is a process of generating a marker-extracted image MARKER from the captured image PIC.

図10は、撮像装置104が取得する撮像画像PICを例示する図である。図11は、撮像画像の複製画像を、撮像画像に重ね合わせた平均画像を例示する図である。図12は、マーカーの抽出処理について説明する図である。図13は、マーカー抽出画像を例示する図である。 FIG. 10 is a diagram illustrating an captured image PIC acquired by the imaging device 104. FIG. 11 is a diagram illustrating an average image in which a duplicate image of a captured image is superimposed on a captured image. FIG. 12 is a diagram illustrating a marker extraction process. FIG. 13 is a diagram illustrating a marker extracted image.

まず、図10を用いて、撮像画像PICについて説明する。撮像範囲610と投影領域611との間の黒い部分は、投影装置A101および投影装置B102の投影範囲外を示す。 First, the captured image PIC will be described with reference to FIG. The black portion between the imaging range 610 and the projection area 611 indicates outside the projection range of the projection device A101 and the projection device B102.

投影領域611の横幅Wcおよび縦幅Hcは、それぞれ図4(A)に示す原画像400の横幅Wおよび縦幅Hに対応する。投影領域611の横幅Wcおよび縦幅Hcは、原画像400にマーカーが付与されたマーカー合成画像420が投影面(スクリーン105)に投影され、撮像された撮像画像上のサイズである。原画像の画素と撮像画像上の画素とは等倍に対応するものとし、WcはWと同じく3840画素、HcはHと同じく2160画素とする。 The horizontal width Wc and the vertical width Hc of the projection area 611 correspond to the horizontal width W and the vertical width H of the original image 400 shown in FIG. 4 (A), respectively. The width Wc and the height Hc of the projection area 611 are the sizes on the captured image obtained by projecting the marker composite image 420 with the marker attached to the original image 400 onto the projection surface (screen 105). It is assumed that the pixels of the original image and the pixels on the captured image correspond to the same magnification, Wc is 3840 pixels like W, and Hc is 2160 pixels like H.

Dxmc−およびDxmc+は、マーカー領域内の中心に位置する基本パターンと左右に位置する基本パターンとの間の撮像画像上での左右方向(水平方向)の距離を示す。DymcおよびDymc+は、マーカー領域内の中心に位置する基本パターンと上下に位置する基本パターンとの間の撮像画像上での垂直方向の距離を示す。 Dxmc− and Dxmc + indicate the distance in the left-right direction (horizontal direction) on the captured image between the basic pattern located at the center in the marker region and the basic pattern located on the left and right. Dymc and Dymc + indicate the vertical distance on the captured image between the centrally located basic pattern and the vertically located basic pattern in the marker region.

Dxmc−、Dxmc+、Dymc−、Dymc+は、それぞれ図5(A)のDxm−、Dxm+、Dym−、Dym+に対応する。Dxmc−、Dxmc+、Dymc−、Dymc+は、原画像400にマーカーが付与されたマーカー合成画像420が投影面(スクリーン105)にに投影され、撮像された撮像画像上のサイズである。 Dxmc−, Dxmc +, Dymc−, and Dymc + correspond to Dxm−, Dxm +, Dym−, and Dym + in FIG. 5 (A), respectively. Dxmc−, Dxmc +, Dymc−, and Dymc + are the sizes on the captured image obtained by projecting the marker composite image 420 with the marker attached to the original image 400 onto the projection surface (screen 105).

原画像の画素と撮像画像上の画素とは等倍に対応するものとし、例えば、Dymc−およびDxmc−は50画素、Dymc+およびDymc+は40画素とすることができる。 The pixels of the original image and the pixels on the captured image correspond to the same size. For example, Dymc− and Dxmc− may have 50 pixels, and Dymc + and Dxmc + may have 40 pixels.

図9のS5081では、マーカー抽出部302は、撮像画像PICを複製した複製画像CDTを生成する。マーカー抽出部302は、1つのマーカー領域421内において、中心に位置する基本パターンの周囲に位置する基本パターンの数だけ、複製画像CDTを生成する。例えば、図4(C)のマーカー領域421aでは、中心の基本パターンと、中心の基本パターンから左右にDxm、上下にDymだけ位置のずれた4つの基本パターンでマーカーが構成されている。このため、マーカー抽出部302は、4枚の複製画像CDTを生成する。 In S5081 of FIG. 9, the marker extraction unit 302 generates a duplicate image CDT that duplicates the captured image PIC. The marker extraction unit 302 generates duplicate image CDTs in one marker area 421 for the number of basic patterns located around the central basic pattern. For example, in the marker region 421a of FIG. 4C, a marker is composed of a central basic pattern and four basic patterns whose positions are shifted by Dxm to the left and right and by Dym up and down from the central basic pattern. Therefore, the marker extraction unit 302 generates four duplicate image CDTs.

S5082では、マーカー抽出部302は、4つの複製画像CDTを、所定の方向に所定の距離だけずらして、元の撮像画像PICに重ね合わせた平均画像を生成する。マーカー抽出部302は、例えば、4つの複製画像CDTを、それぞれDxmc+、Dxmc−、Dymc+、Dymc−だけ位置をずらして元の撮像画像PICに重ね合わせた平均画像を生成する。 In S5082, the marker extraction unit 302 shifts the four duplicate image CDTs in a predetermined direction by a predetermined distance to generate an average image superimposed on the original captured image PIC. For example, the marker extraction unit 302 shifts the positions of the four duplicate image CDTs by Dxmc +, Dxmc−, Dymc +, and Dymc−, respectively, and superimposes them on the original captured image PIC to generate an average image.

ここで、図11を用いて、マーカー抽出部302が4つの複製画像CDTを、元の撮像画像PICに対してDxmc+、Dxmc−、Dymc+、Dymc−だけ位置をずらして重ね合わせた平均画像について説明する。撮像範囲610内の非投影領域は白で示される。 Here, with reference to FIG. 11, the average image in which the marker extraction unit 302 superimposes the four duplicate image CDTs with respect to the original captured image PIC by shifting the positions by Dxmc +, Dxmc−, Dymc +, and Dymc− will be described. do. The non-projected area within the imaging range 610 is shown in white.

図11の例では、マーカー抽出部302は、右上のマーカー領域421aの中心の基本パターンに対し、周囲に位置する4つの基本パターンが重なるように、4つの複製画像CDTを、それぞれずらして撮像画像PICに合成する。なお、中心の基本パターンは、撮像画像PIC上の基本パターンであり、それぞれ異なる複製画像CDT上に含まれる、周囲の4つの基本パターンが、撮像画像PIC上の中心の基本パターンに重ねられる。例えば、マーカー抽出部302は、中心の基本パターンと左側に位置する基本パターンとを重ねる場合、複製画像CDTを右方向にDxmc−だけずらした画像を生成し、撮像画像PICに合成する。同様に、マーカー抽出部302は、中心の基本パターンと右側に位置する基本パターンとを重ねる場合、複製画像CDTを左方向にDxmc+だけずらした画像を生成し、撮像画像PICに合成する。同様に、マーカー抽出部302は、中心の基本パターンと上側に位置する基本パターンとを重ねる場合、複製画像CDTを下方向にDymc+だけずらした画像を生成し、撮像画像PICに合成する。同様に、マーカー抽出部302は、中心の基本パターンと下側に位置する基本パターンを重ねる場合、複製画像CDTを上方向にDymc−だけずらした画像を生成し、撮像画像PICに合成する。 In the example of FIG. 11, the marker extraction unit 302 shifts each of the four duplicate image CDTs so that the four basic patterns located around the basic pattern at the center of the marker region 421a on the upper right overlap with the captured image. Synthesize with PIC. The central basic pattern is a basic pattern on the captured image PIC, and four surrounding basic patterns included on different duplicate image CDTs are superimposed on the central basic pattern on the captured image PIC. For example, when the central basic pattern and the basic pattern located on the left side are overlapped with each other, the marker extraction unit 302 generates an image in which the duplicate image CDT is shifted to the right by Dxmc− and synthesizes it with the captured image PIC. Similarly, when the central basic pattern and the basic pattern located on the right side are overlapped with each other, the marker extraction unit 302 generates an image in which the duplicate image CDT is shifted to the left by Dxmc + and synthesizes it with the captured image PIC. Similarly, when the central basic pattern and the basic pattern located on the upper side are overlapped with each other, the marker extraction unit 302 generates an image in which the duplicate image CDT is shifted downward by Dymc + and synthesizes it with the captured image PIC. Similarly, when the central basic pattern and the basic pattern located on the lower side are overlapped with each other, the marker extraction unit 302 generates an image in which the duplicate image CDT is shifted upward by Dymc − and synthesizes it with the captured image PIC.

右方向にずらした複製画像をCDT_R、左方向にずらした複製画像CDT_L、上方向にずらした複製画像をCDT_U、下方向にずらした複製画像をCDT_Dとすると、合成後の平均画像PIC_Nは、以下の式7で求められる。
PIC_N(R) = {PIC(R)+CDT_R(R)+CDT_L(R)+
CDT_U(R)+CDT_D(R)}/5
PIC_N(G) = {PIC(G)+CDT_R(G)+CDT_L(G)+
CDT_U(G)+CDT_D(G)}/5
PIC_N(B) = {PIC(B)+CDT_R(B)+CDT_L(B)+
CDT_U(B)+CDT_D(B)}/5
…(式7)
Assuming that the duplicate image shifted to the right is CDT_R, the duplicate image shifted to the left is CDT_L, the duplicate image shifted upward is CDT_U, and the duplicate image shifted downward is CDT_D, the average image PIC_N after synthesis is as follows. It is calculated by the formula 7 of.
PIC_N (R) = {PIC (R) + CDT_R (R) + CDT_L (R) +
CDT_U (R) + CDT_D (R)} / 5
PIC_N (G) = {PIC (G) + CDT_R (G) + CDT_L (G) +
CDT_U (G) + CDT_D (G)} / 5
PIC_N (B) = {PIC (B) + CDT_R (B) + CDT_L (B) +
CDT_U (B) + CDT_D (B)} / 5
… (Equation 7)

このように、複製画像CDTをずらして元の撮像画像PICに次々に重ねて平均化することによって、マーカー抽出部302は、中心の基本パターンをぼやけさせることなく、他の基本パターンおよび原画像部分をぼやけさせることができる。図11の例では、マーカー抽出部302は、撮像画像の右上のマーカー領域421aの中心に位置する基本パターンに対して、合成後の平均画像PIC_Nを生成する。マーカー抽出部302は、同様に撮像画像内の他のマーカー領域421b〜マーカー領域421dの中心に位置する基本パターンに対して、合成後の平均画像PIC_Nを生成することができる。この場合、マーカー抽出部302は、4枚の合成後の平均画像PIC_Nを生成することができる。 In this way, by shifting the duplicated image CDT and superimposing it on the original captured image PIC one after another and averaging it, the marker extraction unit 302 can use the other basic pattern and the original image portion without blurring the central basic pattern. Can be blurred. In the example of FIG. 11, the marker extraction unit 302 generates the average image PIC_N after synthesis for the basic pattern located at the center of the marker region 421a on the upper right of the captured image. Similarly, the marker extraction unit 302 can generate the average image PIC_N after synthesis for the basic pattern located at the center of the other marker regions 421b to 421d in the captured image. In this case, the marker extraction unit 302 can generate the average image PIC_N after combining four images.

以上の処理により、マーカー抽出部302は、抽出した基本パターンの空間周波数特性に変化なく、原画像領域の空間周波数特性のみを低下させた画像PIC_Nを取得することができる。 By the above processing, the marker extraction unit 302 can acquire the image PIC_N in which only the spatial frequency characteristic of the original image region is lowered without changing the spatial frequency characteristic of the extracted basic pattern.

なお、図11では、原画像の画素と撮像画像上の画素とは等倍である前提で説明した。すなわち、図11に例示する平均画像PIC_Nは、原画像での基本パターン間の距離だけ複製画像CDTをずらして生成されるがこの限りではない。原画像の画素と撮像画像上の画素とが等倍でない場合には、図14および図15において説明するように撮像画像上の画素数を求め、平均画像PIC_Nは、求めた撮像画像上の画素数を用いて生成されてもよい。また、撮像画像には歪みがないことを前提として説明したがこの限りではない。撮像画像に歪みがある場合には、歪みを補正した状態でマーカーを抽出し、歪みを元に戻すことで、撮像画像からマーカーを抽出することが可能となる。 Note that FIG. 11 has been described on the premise that the pixels of the original image and the pixels on the captured image have the same magnification. That is, the average image PIC_N illustrated in FIG. 11 is generated by shifting the duplicate image CDT by the distance between the basic patterns in the original image, but this is not the case. When the pixels of the original image and the pixels on the captured image are not the same size, the number of pixels on the captured image is calculated as described in FIGS. 14 and 15, and the average image PIC_N is the pixels on the obtained captured image. It may be generated using numbers. Further, the description has been made on the premise that the captured image has no distortion, but the present invention is not limited to this. When the captured image has distortion, the marker can be extracted from the captured image by extracting the marker with the distortion corrected and restoring the distortion.

S5083では、マーカー抽出部302は、平均化された画像PIC_Nにおいて、撮像画像PIC外となる領域をクロップする(切り出す)ことで、元の撮像画像PICに相当する領域を切り出した平均化画像AVERAGEを取得する。画像PIC_Nは4枚生成されるため、平均化画像AVERAGEも4枚生成される。 In S5083, the marker extraction unit 302 crops (cuts out) a region outside the captured image PIC in the averaged image PIC_N to cut out an averaged image AVERAGE that cuts out a region corresponding to the original captured image PIC. get. Since four images PIC_N are generated, four averaged images AVERAGE are also generated.

S5084では、マーカー抽出部302は、平均化画像AVERAGEから、低い空間周波数成分を除去することで、マーカー領域421の中心に位置する基本パターンで構成されるマーカー抽出画像MARKER_miniを抽出する。マーカー抽出部302は、4つのマーカー領域421a〜マーカー領域421dに対応して4つの異なるマーカー抽出画像MARKER_miniを抽出する。右上のマーカー領域421aに対応するマーカー抽出画像はMARKER_mini_1、左上のマーカー領域421bに対応するマーカー抽出画像はMARKER_mini_2とする。また、右下のマーカー領域421dに対応するマーカー抽出画像はMARKER_mini_3、左下のマーカー領域421cに対応するマーカー抽出画像はMARKER_mini_4とする。 In S5084, the marker extraction unit 302 extracts the marker extraction image MARKER_mini composed of the basic pattern located at the center of the marker region 421 by removing the low spatial frequency component from the averaged image AVERAGE. The marker extraction unit 302 extracts four different marker extraction images MARKER_mini corresponding to the four marker regions 421a to 421d. The marker extraction image corresponding to the upper right marker area 421a is MARKER_mini_1, and the marker extraction image corresponding to the upper left marker area 421b is MARKER_mini_1. Further, the marker extraction image corresponding to the lower right marker area 421d is MARKER_mini_3, and the marker extraction image corresponding to the lower left marker area 421c is MARKER_mini_4.

ここで、図12を用いて、マーカー抽出部302が、平均化画像AVERAGEからマーカー抽出画像MARKER_miniを抽出する処理について説明する。具体的には、撮像画像内の右上のマーカー領域421aに対応するマーカー抽出画像MARKER_mini_1を抽出する処理について説明する。図12は、撮像画像内の右上のマーカー領域421aで抽出したい基本パターンを含む平均化画像AVERAGEの右上の部分を示す。 Here, a process in which the marker extraction unit 302 extracts the marker extraction image MARKER_mini from the averaged image AVERAGE will be described with reference to FIG. Specifically, the process of extracting the marker extraction image MARKER_mini_1 corresponding to the marker region 421a on the upper right in the captured image will be described. FIG. 12 shows the upper right part of the averaged image AVERAGE including the basic pattern to be extracted in the upper right marker region 421a in the captured image.

画像801aは、S5083で切り出された平均化画像AVERAGEの右上四分の一
の部分を示す。基本パターン801bは、マーカー領域421aの中心に位置する基本パターンを示す。グラフ801cは、基本パターン801bの中心を通る水平方向の画素値の変化を示すグラフである。
Image 801a shows the upper right quarter portion of the averaged image AVERAGE cut out in S5083. The basic pattern 801b indicates a basic pattern located at the center of the marker region 421a. Graph 801c is a graph showing changes in pixel values in the horizontal direction passing through the center of the basic pattern 801b.

マーカー抽出部302は、画像801aにガウシアンフィルタを適用し、画像801aの高周波数成分を除去した画像802aを取得する。基本パターン802bは、画像801aの基本パターン801bにガウシアンフィルタを適用した後の基本パターンを示す。グラフ802cは、基本パターン802bの中心を通る水平方向の画素値の変化を示すグラフである。 The marker extraction unit 302 applies a Gaussian filter to the image 801a to acquire the image 802a from which the high frequency component of the image 801a has been removed. The basic pattern 802b shows a basic pattern after applying a Gaussian filter to the basic pattern 801b of the image 801a. The graph 802c is a graph showing the change of the pixel value in the horizontal direction passing through the center of the basic pattern 802b.

なお、ガウシアンフィルタのフィルタサイズは、平均化画像AVERAGE上での基本パターンの大きさに基づいて決定することができる。例えば、フィルタサイズは、平均化画像AVERAGE上での基本パターン801bの水平方向の長さLEN_MARKERを取得し、LEN_MARKERに所定の倍率を乗算して決定してもよい。所定の倍率は、大きさLEN_MARKERの4倍とするが、4倍以外の他の数値であってもよい。具体的には、所定の倍率は、大きさLEN_MARKERの2倍以上であることが望ましく、さらには、4倍以上であることが望ましい。垂直方向のフィルタサイズについても、水平方向のフィルタサイズと同様に決定できる。なお、フィルタサイズは、基本パターンのサイズに応じて決定された値に限られず、予め実験的に求めた値が用いられてもよい。 The filter size of the Gaussian filter can be determined based on the size of the basic pattern on the averaged image AVERAGE. For example, the filter size may be determined by acquiring the horizontal length LEN_MARKER of the basic pattern 801b on the averaged image AVERAGE and multiplying LEN_MARKER by a predetermined magnification. The predetermined magnification is 4 times the magnitude LEN_MARKER, but may be a numerical value other than 4 times. Specifically, the predetermined magnification is preferably 2 times or more of the size LEN_MARKER, and further preferably 4 times or more. The vertical filter size can be determined in the same manner as the horizontal filter size. The filter size is not limited to the value determined according to the size of the basic pattern, and a value obtained experimentally in advance may be used.

基本パターン802aの水平方向の長さLEN_MARKERは、以下の値から推定することが可能である。
・投影装置の水平方向の解像度PJ_X
・撮像画像PIC上での投影領域の水平方向の長さPJ_CAM_X
・マーカー重畳部203が重畳する基本パターンの水平方向の長さMARKER_X
The horizontal length LEN_MARKER of the basic pattern 802a can be estimated from the following values.
-Horizontal resolution of the projection device PJ_X
-The horizontal length of the projected area on the captured image PIC PJ_CAM_X
-Horizontal length of the basic pattern on which the marker superimposing portion 203 is superposed MARKER_X

投影装置A101のパネル部205の1画素の撮像画像PIC上での表示画素数は、PJ_CAM_X/PJ_Xにより計算することができる。したがって、基本パターン802aの水平方向の長さLEN_MARKERは、以下の式8で求めることができる。
LEN_MARKER=MARKER_X×PJ_CAM_X/PJ_X …(式8)
The number of display pixels on the captured image PIC of one pixel of the panel unit 205 of the projection device A101 can be calculated by PJ_CAM_X / PJ_X. Therefore, the horizontal length LEN_MARKER of the basic pattern 802a can be obtained by the following equation 8.
LEN_MARKER = MARKER_X × PJ_CAM_X / PJ_X ... (Equation 8)

撮像画像PIC上での投影領域の水平方向の長さPJ_CAM_Xは、次のようにして求めることができる。まず、マーカー抽出部302は、投影装置A101が全ての画素で最大画素値の画像(全白画像)を投影しているときの撮像画像と、全ての画素で最低画素値の画像(全黒画像)を投影しているときの撮像画像を取得する。マーカー抽出部302は、これらの撮像画像の差分画像を計算し、画素値が所定の閾値以上である領域を投影領域と判定する。マーカー抽出部302は、投影領域と判定した領域の水平方向の画素数をPJ_CAM_Xとすることができる。 The horizontal length PJ_CAM_X of the projected region on the captured image PIC can be obtained as follows. First, the marker extraction unit 302 includes an image captured when the projection device A101 projects an image having a maximum pixel value (all white image) on all pixels, and an image having a minimum pixel value on all pixels (all black image). ) Is projected, and the captured image is acquired. The marker extraction unit 302 calculates the difference images of these captured images, and determines that the region where the pixel value is equal to or greater than a predetermined threshold value is the projection region. The marker extraction unit 302 can set the number of pixels in the horizontal direction of the region determined to be the projection region to PJ_CAM_X.

画像803aは、画像801aと、画像801aに対しガウシアンフィルタを適用した画像802aとの差分画像を表すマーカー抽出画像MARKER_mini_1である。基本パターン803bは、画像801aと画像802aとの差分画像を生成すること処理により抽出された基本パターンである。グラフ803cは、基本パターン803bが位置する水平方向の画素値の変化を示すグラフである。 The image 803a is a marker extraction image MARKER_mini_1 representing a difference image between the image 801a and the image 802a to which the Gaussian filter is applied to the image 801a. The basic pattern 803b is a basic pattern extracted by a process of generating a difference image between the image 801a and the image 802a. The graph 803c is a graph showing the change in the pixel value in the horizontal direction in which the basic pattern 803b is located.

平均化画像AVERAGEの一部である画像801aにおいて、基本パターン801bはほとんどぼやけていないが、他の基本パターンおよび原画像部分はぼやけた状態である。したがって、基本パターン801b以外の他の基本パターンおよび原画像部分は、ガウシアンフィルタを適用した画像802aにおいても画像801aからの変化が少ない。 In the image 801a which is a part of the averaged image AVERAGE, the basic pattern 801b is hardly blurred, but the other basic patterns and the original image portion are in a blurred state. Therefore, the basic pattern other than the basic pattern 801b and the original image portion have little change from the image 801a even in the image 802a to which the Gaussian filter is applied.

一方、画像801aの基本パターン801b付近は、高周波成分を有しているため、ガウシアンフィルタを適用することにより、802bに示すようにぼやけた状態となる。よって、マーカー抽出部302は、画像801aと画像802aとの差分画像を生成することにより、基本パターン801bに対応する抽出像803bのみを抽出することができる。マーカー抽出部302は、上記の通り、撮像画像PICから空間周波数の低周波数成分を除去することにより、マーカー(基本パターン801b)のみを抽出したマーカー抽出画像MARKER_mini_1を生成することができる。マーカー抽出部302は、マーカー抽出画像MARKER_mini_1と同様にして、マーカー抽出画像MARKER_mini_2〜4を生成することができる。 On the other hand, since the vicinity of the basic pattern 801b of the image 801a has a high frequency component, by applying the Gaussian filter, it becomes a blurred state as shown in 802b. Therefore, the marker extraction unit 302 can extract only the extracted image 803b corresponding to the basic pattern 801b by generating the difference image between the image 801a and the image 802a. As described above, the marker extraction unit 302 can generate the marker extraction image MARKER_mini_1 in which only the marker (basic pattern 801b) is extracted by removing the low frequency component of the spatial frequency from the captured image PIC. The marker extraction unit 302 can generate the marker extraction images MARKER_mini_2-4 in the same manner as the marker extraction image MARKER_mini_1.

S5085では、マーカー抽出部302は、生成したマーカー抽出画像MARKER_mini_i(i=1〜4)を比較明合成で統合して、1つのマーカー抽出画像MARKERを生成する。 In S5085, the marker extraction unit 302 integrates the generated marker extraction images MARKER_mini_i (i = 1 to 4) by comparative bright synthesis to generate one marker extraction image MARKER.

図13は、マーカー抽出部302が抽出したマーカー抽出画像MARKERを示す。撮像画像PIC上の投影領域611は、実際にはマーカー抽出画像MARKERには明確に表れないが、参考のため示したものである。なお、S5085におけるマーカー抽出画像MARKER_mini_i(i=1〜4)の合成方法は、比較明合成に限られない。マーカー抽出部302は、4つのマーカー情報が1つの画像に表現できればよく、例えば、マーカー抽出画像MARKER_mini_i(i=1〜4)の加算または加算平均などにより合成してもよい。 FIG. 13 shows a marker extraction image MARKER extracted by the marker extraction unit 302. The projection area 611 on the captured image PIC does not actually appear clearly in the marker-extracted image MARKER, but is shown for reference. The method for synthesizing the marker-extracted image MARKER_mini_i (i = 1 to 4) in S5085 is not limited to comparative bright synthesis. The marker extraction unit 302 may be combined by adding or averaging the marker extraction images MARKER_mini_i (i = 1 to 4), as long as the four marker information can be expressed in one image.

以上で、図9に示すS508の処理の詳細説明を終える。なお、上記の実施形態では、撮像画像内のマーカー領域421において、中心に位置する基本パターンと、周囲に位置する他の基本パターンとのそれぞれの距離は、マーカー画像410内の対応する距離と等倍である前提で説明をした。しかし、撮像画像での距離とマーカー画像410内での対応する距離は、実使用において等倍である場合よりも等倍でない場合のほうが多い。以下では、撮像画像内のマーカー領域内の中心に位置する基本パターンと、周囲に位置する他の基本パターンとの間の距離を事前に撮像画像から取得する方法について説明する。 This completes the detailed description of the process of S508 shown in FIG. In the above embodiment, in the marker region 421 in the captured image, the respective distances between the basic pattern located at the center and the other basic patterns located in the periphery are equal to the corresponding distances in the marker image 410. I explained on the premise that it is double. However, the distance in the captured image and the corresponding distance in the marker image 410 are more often not the same in actual use than in the actual use. In the following, a method of acquiring the distance between the central pattern located in the center of the marker region in the captured image and other basic patterns located in the periphery from the captured image in advance will be described.

[基本パターン間の距離の取得方法]
マーカー抽出部302は、撮像画像内の各基本パターン間の距離を、例えば、ユーザがリモコン等の操作により、スタック投影を構成するために各投影装置の投影位置を調整し、各投影装置が初期投影位置であるときに取得する。マーカー抽出部302は、図14で説明する専用のテストパターンを投影、撮像した撮像画像を使用して、撮像画像内の各基本パターン間の距離を取得する。テストパターンは、マーカーが描画された画像である。
[How to get the distance between basic patterns]
The marker extraction unit 302 adjusts the distance between each basic pattern in the captured image by, for example, the user by operating a remote controller or the like to adjust the projection position of each projection device in order to configure the stack projection, and each projection device is initially set. Acquired when it is the projection position. The marker extraction unit 302 projects the dedicated test pattern described with reference to FIG. 14 and acquires the distance between each basic pattern in the captured image by using the captured image. The test pattern is an image in which a marker is drawn.

マーカー抽出部302は、ユーザの感興を妨げる懸念がないタイミングで、撮像画像内の各基本パターン間の距離を取得する処理を実行することが好ましい。このようなタイミングでテストパターンを投影することで、より明確なコントラストを有するテストパターンの投影が可能となる。なお、テストパターンは、空間周波数が低周波である背景画像にマーカーが重畳された画像であってもよい。この場合、テストパターンの背景画像に重畳されるマーカーは、画像KSDTに重畳されるマーカーよりもコントラストが高いマーカーとしてもよい。 It is preferable that the marker extraction unit 302 executes a process of acquiring the distance between each basic pattern in the captured image at a timing that does not hinder the user's impression. By projecting the test pattern at such a timing, it is possible to project the test pattern having a clearer contrast. The test pattern may be an image in which a marker is superimposed on a background image having a low spatial frequency. In this case, the marker superimposed on the background image of the test pattern may be a marker having a higher contrast than the marker superimposed on the image KSDT.

図14は、撮像画像内の各基本パターン間の距離を取得するためのテストパターンを投影して撮像した撮像画像PIC0を示す。610は撮像範囲であり、611は投影領域を示す。また、テストパターンは、マーカー領域612a〜マーカー領域612d(単にマーカー領域612とも称する)を含む。図14で使用するテストパターンは、図4(B)に示したマーカー画像と同じであるが、図4(B)で説明した手法とは異なり、入力画像
には重畳せず、そのままスクリーン105に投影される。テストパターンは、例えば、黒地の部分が最低諧調値(=0階調値)、白いドットの部分が最大諧調値(=255階調値)に設定された画像である。この場合、撮像画像PIC0には、位置検出用マーカー(基本パターン)がより高いコントラストで記録されている。テストパターンは、黒地の部分が最低諧調値、白いドットの部分が最大諧調値であるものに限られない。テストパターンは、空間周波数がより低周波である背景画像上に、コントラストがより高い基本パターンが重畳された画像であってもよい。
FIG. 14 shows a captured image PIC0 captured by projecting a test pattern for acquiring a distance between each basic pattern in the captured image. 610 is the imaging range and 611 is the projection area. The test pattern also includes marker regions 612a to 612d (also simply referred to as marker regions 612). The test pattern used in FIG. 14 is the same as the marker image shown in FIG. 4 (B), but unlike the method described in FIG. 4 (B), it is not superimposed on the input image and is displayed on the screen 105 as it is. Be projected. The test pattern is, for example, an image in which the black background portion is set to the minimum gradation value (= 0 gradation value) and the white dot portion is set to the maximum gradation value (= 255 gradation value). In this case, the position detection marker (basic pattern) is recorded in the captured image PIC0 with higher contrast. The test pattern is not limited to the one in which the black background is the lowest gradation value and the white dot part is the maximum gradation value. The test pattern may be an image in which a basic pattern having a higher contrast is superimposed on a background image having a lower spatial frequency.

マーカー抽出部302は、撮像画像PIC0を用いて、マーカー領域612aの中央に位置する基本パターンA0と、左側に位置する基本パターンB0との間の距離を求める。例えば、マーカー抽出部302は、マーカー画像に含まれる基本パターンの数(図14の例では20個)の基本パターンを、例えばパターンマッチングにより検出する。 The marker extraction unit 302 uses the captured image PIC0 to obtain the distance between the basic pattern A0 located in the center of the marker region 612a and the basic pattern B0 located on the left side. For example, the marker extraction unit 302 detects the number of basic patterns (20 in the example of FIG. 14) included in the marker image by, for example, pattern matching.

マーカー抽出部302は、撮像画像内の各基本パターンの位置関係からマーカー領域612を判別する。各マーカー領域612内の中心に位置するマーカーを識別する。一例として、マーカー抽出部302は、右上のマーカー領域612a内の中央に位置する基本パターンA0を識別し、同じマーカー領域612a内の基本パターンB0との距離を求めればよい。基本パターン間の距離は、各基本パターンの重心間の距離である。マーカー抽出部302は、基本パターン間の距離として、重心間の距離を求めればよい。マーカー抽出部302は、マーカー領域612a内の基本パターンB0以外の基本パターンと、基本パターンA0との距離も同様にして求めることができる。 The marker extraction unit 302 determines the marker region 612 from the positional relationship of each basic pattern in the captured image. Identify a centrally located marker within each marker area 612. As an example, the marker extraction unit 302 may identify the basic pattern A0 located in the center of the upper right marker area 612a and obtain the distance from the basic pattern B0 in the same marker area 612a. The distance between the basic patterns is the distance between the centers of gravity of each basic pattern. The marker extraction unit 302 may obtain the distance between the centers of gravity as the distance between the basic patterns. The marker extraction unit 302 can also obtain the distance between the basic pattern A0 and the basic pattern other than the basic pattern B0 in the marker area 612a in the same manner.

マーカー抽出部302は、求めた各基本パターン間の距離を、投影装置に搭載された不図示のRAMに記録し、図7のS508において撮像画像からマーカー抽出画像MARKERを生成する処理で使用することができる。マーカー抽出部302は、以上のように、撮像画像から各基本パターン間の距離を取得することができる。 The marker extraction unit 302 records the obtained distance between the basic patterns in a RAM (not shown) mounted on the projection device, and uses it in the process of generating the marker extraction image MARKER from the captured image in S508 of FIG. Can be done. As described above, the marker extraction unit 302 can acquire the distance between each basic pattern from the captured image.

次に、図15を用いて、初期投影位置において求めた撮像画像内の各基本パターン間の距離が、映像信号投影時に投影位置ずれを起こした後も有用であることを説明する。図15は、投影位置がずれた場合の撮像画像内の投影領域の様子を例示する図である。具体的には、映像信号投影中の投影位置ずれによって、投影画像全幅の左端に対し、投影画像全幅の右端の部分が下方に5画素ずれた状態での投影領域の様子が示される。 Next, with reference to FIG. 15, it will be described that the distance between each basic pattern in the captured image obtained at the initial projection position is useful even after the projection position shift occurs at the time of projecting the video signal. FIG. 15 is a diagram illustrating the state of the projected region in the captured image when the projected position is deviated. Specifically, the state of the projection region in a state where the right end portion of the full width of the projected image is shifted downward by 5 pixels with respect to the left end of the full width of the projected image due to the deviation of the projection position during projection of the video signal is shown.

マーカー画像の水平方向の幅Wは、例えば3840画素であるものとする。また、映像信号投影中の投影位置ずれdHは、5画素であるものとして説明する。マーカー画像内での基本パターンAおよび基本パターンB間の距離Pは、50画素とする。投影位置ずれ量dHが基本パターンAおよび基本パターンBに影響を与える位置ずれ量dPは式9で求めることができる。
dP = dH × P / W …(式9)
dPは、式9を用いて算出すると約0.065画素となる。
The horizontal width W of the marker image is assumed to be, for example, 3840 pixels. Further, the projection position deviation dH during the projection of the video signal will be described as having 5 pixels. The distance P between the basic pattern A and the basic pattern B in the marker image is 50 pixels. The displacement amount dP in which the projected displacement amount dH affects the basic pattern A and the basic pattern B can be obtained by Equation 9.
dP = dH x P / W ... (Equation 9)
The dP is about 0.065 pixels when calculated using Equation 9.

投影装置の投影位置がずれた場合に、初期設置位置において求めた基本パターン間の距離をS508でそのまま用いても、撮像画像内の基本パターン間の重なりのずれは、0.065画素に抑えられる。このため、複製画像CDTの一つを、投影装置の初期設置位置において求めた基本パターン間の距離だけずらして撮像画像PICに重ねて、平均化画像AVERAGEを生成しても、抽出対象である基本パターンはほとんどぼやけない。一方で、抽出対象以外の他の基本パターンおよび原画像部分は、ぼかすことができるため、抽出対象の基本パターンは、撮像画像から問題なく検出することができる。 When the projection position of the projection device shifts, even if the distance between the basic patterns obtained at the initial installation position is used as it is in S508, the shift of the overlap between the basic patterns in the captured image can be suppressed to 0.065 pixels. .. Therefore, even if one of the duplicate image CDTs is superimposed on the captured image PIC by shifting the distance between the basic patterns obtained at the initial installation position of the projection device to generate the averaged image AVERAGE, the basics to be extracted are the basics. The pattern is almost unblurred. On the other hand, since the basic pattern other than the extraction target and the original image portion can be blurred, the basic pattern of the extraction target can be detected from the captured image without any problem.

また、重なって平均化された抽出対象の基本パターンの重心位置の誤差は0.065画
素に抑えられるため、マーカーによる投影位置ずれは、0.065画素の精度で検出することができる。
Further, since the error of the center of gravity position of the basic pattern to be extracted that is overlapped and averaged is suppressed to 0.065 pixels, the projection position deviation due to the marker can be detected with an accuracy of 0.065 pixels.

また、マーカー画像上の複数の基本パターン間の距離を50画素よりも大きく設定すれば、重なりのずれは大きくなる。投影位置のずれを0.5画素以下の精度で検出するためには、マーカー画像上の複数の基本パターン間の距離Pは、マーカー画像の水平方向幅Wの1/10以下に抑えればよい。すなわち、マーカー画像の水平方向幅Wが3840画素の場合、基本パターン間の距離Pは384画素以下にすればよい。 Further, if the distance between the plurality of basic patterns on the marker image is set to be larger than 50 pixels, the overlap deviation becomes large. In order to detect the deviation of the projection position with an accuracy of 0.5 pixel or less, the distance P between the plurality of basic patterns on the marker image may be suppressed to 1/10 or less of the horizontal width W of the marker image. .. That is, when the horizontal width W of the marker image is 3840 pixels, the distance P between the basic patterns may be 384 pixels or less.

[撮像画像の歪みの補正方法]
本実施形態では、撮像画像PIC内の投影画像が、原画像420と相似形である例を示した。この場合、撮像画像PIC上の基本パターンAと隣り合う基本パターンBとは、お互いに合同な図形であり、重ね合わせることができる。しかし、スクリーン105に対して撮像装置104が傾きをもって斜めに配置されている場合、撮像画像PICの投影画像は、マーカーが付与された原画像420と相似形ではなくなり台形に変形する。撮像画像PIC上の基本パターンAと隣り合う基本パターンBとは、無視できない程度に合同図形ではなくなる。この状態では、複製画像CDTを全体的に距離Pだけずらして元の撮像画像PICに重ねようとしても、2つの基本パターンは、合同ではないため重なり合わなくなる。その結果、平均化画像AVERAGE内の基本パターンAの位置にある基本パターンはぼやけてしまい、基本パターンの位置は、検出が困難となる。
[Method of correcting distortion of captured image]
In this embodiment, an example is shown in which the projected image in the captured image PIC has a similar figure to the original image 420. In this case, the basic pattern A on the captured image PIC and the adjacent basic pattern B are shapes that are congruent with each other and can be superimposed. However, when the image pickup device 104 is arranged at an angle with respect to the screen 105, the projected image of the captured image PIC is not similar to the original image 420 to which the marker is attached, but is deformed into a trapezoidal shape. The basic pattern A adjacent to the basic pattern A on the captured image PIC is not a congruent figure to the extent that it cannot be ignored. In this state, even if the duplicated image CDT is shifted by the distance P as a whole and overlapped with the original captured image PIC, the two basic patterns are not congruent and therefore do not overlap. As a result, the basic pattern at the position of the basic pattern A in the averaged image AVERAGE becomes blurred, and the position of the basic pattern becomes difficult to detect.

撮像画像PICの変形による問題を解決するためには、マーカー抽出部302は、S5081の処理の前に、基本パターンAと基本パターンBとがほぼ同じ形になるように、後述の射影変換行列で撮像画像PICの歪みを補正すればよい。補正された撮像画像PICは、変換撮像画像PIC’(補正画像)とする。マーカー抽出部302は、変換撮像画像PIC’に対して、図9に示すS5081からS5085の処理を行い、変換マーカー画像MARKER’(補正マーカー)を抽出する。マーカー抽出部302は、変換マーカー画像MARKER’を、撮像画像PICを変換した射影変換行列の逆行列で変換することにより、歪みを元に戻したマーカー抽出画像MARKERを得ることができる。その後、S509以降の処理が実行されればよい。 In order to solve the problem due to the deformation of the captured image PIC, the marker extraction unit 302 uses a projective transformation matrix described later so that the basic pattern A and the basic pattern B have substantially the same shape before the processing of S5081. The distortion of the captured image PIC may be corrected. The corrected image PIC is a converted image PIC'(corrected image). The marker extraction unit 302 performs the processing of S5081 to S5085 shown in FIG. 9 on the converted image PIC'and extracts the converted marker image MARKER' (correction marker). The marker extraction unit 302 can obtain the marker extraction image MARKER whose distortion is restored by converting the conversion marker image MARKER'with the inverse matrix of the projection transformation matrix obtained by converting the captured image PIC. After that, the processing after S509 may be executed.

マーカー抽出部302は、変形した撮像画像PICの変換に用いる射影変換行列として、初期投影位置調整時に求めた射影変換行列Hを用いることができる。初期投影位置の調整に用いた射影変換行列Hは、パネル部205におけるパネル座標とマーカー抽出画像MARKERの座標との対応を表す射影変換行列である。 The marker extraction unit 302 can use the projection transformation matrix H obtained at the time of initial projection position adjustment as the projection transformation matrix used for converting the deformed captured image PIC. The projection transformation matrix H used for adjusting the initial projection position is a projection transformation matrix representing the correspondence between the panel coordinates in the panel unit 205 and the coordinates of the marker extracted image MARKER.

初期設置位置において投影装置がスクリーンに対して正対していないことにより、投影面は歪みを生じる。しかしながら、この歪みによる基本パターンAと基本パターンBの形状の違いは、撮像画像を射影変換行列Hで射影変換してからマーカーを抽出することによって補正することができる。このため、投影位置ずれが増大した場合でも、撮像画像からのマーカーを抽出が可能となる。 The projection plane is distorted because the projection device does not face the screen in the initial installation position. However, the difference in shape between the basic pattern A and the basic pattern B due to this distortion can be corrected by projecting the captured image with the projective transformation matrix H and then extracting the marker. Therefore, even if the projection position shift increases, the marker can be extracted from the captured image.

以上より、初期投影位置において求めた撮像画像内の各基本パターン間の距離を用いることは、映像信号投影時に投影位置ずれを起こした後でも有用であることが分がる。 From the above, it can be seen that it is useful to use the distance between each basic pattern in the captured image obtained at the initial projection position even after the projection position shift occurs at the time of projecting the video signal.

[基本パターンの重ね合わせ]
本実施形態では、撮像画像PICを複製した複製画像CDTを生成し、この複製画像CDTをずらして元の撮像画像PICに次々に重ねて平均化する処理を行ったが、これに限らない。必ずしも明示的に複製画像CDTを生成しなくても、画像データの処理として、撮像画像PICの各画素の画素値に、それぞれの画素から一定の画素数だけ離れた画素の
画素値を累積して平均化することにより同等の結果を得る画像処理を行うことができる。また、平均化は必ずしも行わなくてもよい。次々に重ねて累積した画素値が、処理系のビット幅制限でオーバーフローする等の誤りを生じることがなければ、平均化せず累積値のままの加算画像として処理してもかまわない。このように、中心の基本パターンに周囲の基本パターンが重なるように、前記撮像画像またはその複製画像を、位置をずらせて前記撮像画像自身に重ね合わせて平均化画像または加算画像を生成する処理、または同等の結果を得る画像処理が行われればよい。
[Superposition of basic patterns]
In the present embodiment, a duplicated image CDT that duplicates the captured image PIC is generated, and the duplicated image CDT is shifted and averaged by superimposing the duplicated image PIC on the original captured image PIC one after another, but the present invention is not limited to this. Even if the duplicate image CDT is not necessarily explicitly generated, as the processing of the image data, the pixel values of the pixels separated from each pixel by a certain number of pixels are accumulated in the pixel values of each pixel of the captured image PIC. Image processing that obtains the same result can be performed by averaging. Moreover, averaging does not necessarily have to be performed. As long as the pixel values accumulated one after another do not cause an error such as overflow due to the bit width limitation of the processing system, they may be processed as an added image with the accumulated values as they are without averaging. In this way, a process of shifting the position of the captured image or a duplicated image thereof so that the surrounding basic pattern overlaps the central basic pattern and superimposing the captured image itself on the captured image itself to generate an averaged image or an additive image. Alternatively, image processing may be performed to obtain the same result.

[マーカー成分を抽出するためのフィルタ]
なお、本実施形態では、マーカー成分を抽出するための周波数フィルタとしてガウシアンフィルタを用いる例を示したが、これに限られない。マーカー成分を抽出するためのフィルタは、マーカーが重畳された画像の低周波数成分を低減することができればよく、その他の周波数フィルタ、アルゴリズム、パラメータであってもよい。また、撮像画像PICの空間周波数成分の分布をフーリエ変換により取得し、低周波数成分を除去した後に逆フーリエ変換によって画像を再構成することで、マーカーの空間周波数成分が抽出されてもよい。また、撮像画像PICに対し、直接ハイパスフィルタを適用することにより、マーカーのみのマーカー抽出画像MARKERが生成されてもよい。
[Filter for extracting marker components]
In the present embodiment, an example in which a Gaussian filter is used as a frequency filter for extracting a marker component is shown, but the present invention is not limited to this. The filter for extracting the marker component may be any other frequency filter, algorithm, or parameter as long as it can reduce the low frequency component of the image on which the marker is superimposed. Further, the spatial frequency component of the marker may be extracted by acquiring the distribution of the spatial frequency component of the captured image PIC by Fourier transform, removing the low frequency component, and then reconstructing the image by inverse Fourier transform. In addition, a marker-extracted image MARKER containing only markers may be generated by directly applying a high-pass filter to the captured image PIC.

[目標投影領域]
本実施形態ではS503において、撮像画像PIC上で指定された4頂点を目標投影領域TAGT_POSIの4頂点とする例を説明したが、目標投影領域TAGT_POSIは、ユーザが指定した投影装置の投影領域としてもよい。例えば、ユーザは、制御装置103に搭載された不図示の操作部を介して、マルチ投影を構成する投影装置のうち任意の一台を指定する。目標投影領域TAGT_POSIは、ユーザに指定された投影装置の投影領域の撮像画像PIC上における4頂点座標とすればよい。指定された投影装置の投影領域の撮像画像PIC上における4頂点座標は、予めS504からS509を実行することで生成することが可能である。
[Target projection area]
In the present embodiment, in S503, an example in which the four vertices designated on the captured image PIC are set as the four vertices of the target projection area TAGT_POSI has been described, but the target projection area TAGT_POSI can also be used as the projection area of the projection device designated by the user. good. For example, the user designates any one of the projection devices constituting the multi-projection through an operation unit (not shown) mounted on the control device 103. The target projection area TAGT_POSI may be the coordinates of four vertices on the captured image PIC of the projection area of the projection device designated by the user. The coordinates of the four vertices on the captured image PIC of the projection area of the designated projection device can be generated by executing S504 to S509 in advance.

[その他]
なお、本実施形態では、2台の投影装置がスクリーン105上の同じ座標位置に投影することで輝度を高めるスタック投影を例にとって説明をしたが、2台には限られない。投影装置の台数が3台以上の場合でも、本実施形態に記載の各部が同様の動作を行うことにより、同様に効果を得ることができる。さらに、投影装置が1台の場合でも、画像の投影を妨げずに予め定められた目標投影領域への投影の位置調整が可能となる。
[others]
In the present embodiment, a stack projection in which the brightness is increased by projecting the two projection devices at the same coordinate position on the screen 105 has been described as an example, but the description is not limited to the two. Even when the number of projection devices is three or more, the same effect can be obtained by performing the same operation of each part described in the present embodiment. Further, even when there is only one projection device, it is possible to adjust the position of the projection onto a predetermined target projection area without interfering with the projection of the image.

<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<Other Embodiments>
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

103:制御装置 301:マーカー制御部 302:マーカー抽出部
303:変形量算出部
103: Control device 301: Marker control unit 302: Marker extraction unit 303: Deformation amount calculation unit

Claims (18)

複数の基本パターンを含むマーカーが重畳された入力画像の投影画像を撮像した撮像画像を取得する取得手段と、
前記撮像画像の第1の基本パターンに、前記第1の基本パターンとは異なる第2の基本パターンが重なるように、前記撮像画像またはその複製画像を、位置をずらせて前記撮像画像自身に重ね合わせて平均化画像または加算画像を生成し、前記平均化画像または加算画像から低周波数成分を除去することで前記マーカーの位置を検出する検出手段と、
検出した前記マーカーの位置に基づいて、前記投影画像の位置ずれを補正するための補正情報を出力する出力手段と
を有することを特徴とする制御装置。
An acquisition means for acquiring a captured image obtained by capturing a projected image of an input image on which markers including a plurality of basic patterns are superimposed, and
The captured image or a duplicate image thereof is superposed on the captured image itself by shifting the position so that the first basic pattern of the captured image is overlapped with a second basic pattern different from the first basic pattern. A detection means for detecting the position of the marker by generating an averaged image or an added image and removing a low frequency component from the averaged image or the added image.
A control device including an output means for outputting correction information for correcting a positional deviation of the projected image based on the detected position of the marker.
前記マーカーは、前記第1の基本パターンと、前記第1の基本パターンから異なる方向に配置される複数の前記第2の基本パターンを含む
ことを特徴とする請求項1に記載の制御装置。
The control device according to claim 1, wherein the marker includes the first basic pattern and a plurality of the second basic patterns arranged in different directions from the first basic pattern.
前記検出手段は、前記投影画像の水平方向および垂直方向の長さのうちの少なくともいずれかに基づいて、前記第1の基本パターンと前記第2の基本パターンとの間の距離を設定し、設定された前記距離に基づいて、前記撮像画像またはその複製画像を、位置をずらせて前記撮像画像自身に重ね合わせる
ことを特徴とする請求項1または2に記載の制御装置。
The detection means sets and sets the distance between the first basic pattern and the second basic pattern based on at least one of the horizontal and vertical lengths of the projected image. The control device according to claim 1 or 2, wherein the captured image or a duplicated image thereof is superposed on the captured image itself by shifting the position based on the distance.
前記検出手段は、前記マーカーが描画されたテストパターンを投影し撮像した画像における前記第1の基本パターンと前記第2の基本パターンとの間の距離に基づいて、前記撮像画像またはその複製画像を、位置をずらせて前記撮像画像自身に重ね合わせる
ことを特徴とする請求項1または2に記載の制御装置。
The detection means obtains the captured image or a duplicate image thereof based on the distance between the first basic pattern and the second basic pattern in the image captured by projecting the test pattern on which the marker is drawn. The control device according to claim 1 or 2, wherein the image is superposed on the captured image itself by shifting the position.
前記テストパターンは、空間周波数が低周波である背景画像に前記マーカーが重畳された画像であり、前記背景画像には、前記入力画像に重畳される前記マーカーよりもコントラストの高い前記マーカーが重畳される
ことを特徴とする請求項4に記載の制御装置。
The test pattern is an image in which the marker is superimposed on a background image having a low spatial frequency, and the marker having a higher contrast than the marker superimposed on the input image is superimposed on the background image. The control device according to claim 4, wherein the control device is characterized by the above.
前記検出手段は、投影面の法線方向と投影方向とのずれによって生じる前記投影画像の歪みを補正した補正画像を生成し、前記補正画像から歪みが補正された補正マーカーの位置を検出し、前記補正マーカーの歪みを元に戻すことで前記マーカーの位置を検出する
ことを特徴とする請求項1から5のいずれか1項に記載の制御装置。
The detection means generates a corrected image that corrects the distortion of the projected image caused by the deviation between the normal direction of the projection surface and the projection direction, detects the position of the correction marker whose distortion is corrected from the corrected image, and detects the position of the correction marker. The control device according to any one of claims 1 to 5, wherein the position of the marker is detected by restoring the distortion of the correction marker.
前記検出手段は、前記投影画像の歪みを補正する射影変換行列を、前記入力画像に重畳される前記マーカーの座標、および前記撮像画像で検出された前記マーカーの座標から生成する
ことを特徴とする請求項6に記載の制御装置。
The detection means is characterized in that a projection transformation matrix for correcting distortion of the projected image is generated from the coordinates of the marker superimposed on the input image and the coordinates of the marker detected in the captured image. The control device according to claim 6.
前記取得手段は、前記入力画像に対する前記マーカーの重畳を開始するタイミングおよび終了するタイミングを指示する
ことを特徴とする請求項1から7のいずれか1項に記載の制御装置。
The control device according to any one of claims 1 to 7, wherein the acquisition means instructs a timing to start and a timing to end the superposition of the marker on the input image.
前記取得手段は、前記撮像画像の撮像を開始するタイミングおよび終了するタイミングを指示する
ことを特徴とする請求項1から8のいずれか1項に記載の制御装置。
The control device according to any one of claims 1 to 8, wherein the acquisition means instructs a timing to start and a timing to end the acquisition of the captured image.
前記入力画像を投影する目標投影領域をユーザに指定させる入力手段をさらに有する
ことを特徴とする請求項1から9のいずれか1項に記載の制御装置。
The control device according to any one of claims 1 to 9, further comprising an input means for causing the user to specify a target projection area for projecting the input image.
前記検出手段は、ガウシアンフィルタ、ハイパスフィルタ、フーリエ変換のうちすくなくともいずれか1つを用いて前記平均化画像または加算画像から低周波数成分を除去することを特徴とする請求項1から10のいずれか1項に記載の制御装置。 Any one of claims 1 to 10, wherein the detection means uses at least one of a Gaussian filter, a high-pass filter, and a Fourier transform to remove low-frequency components from the averaged image or the additive image. The control device according to item 1. 前記入力画像に複数の前記マーカーが重畳された場合に、複数の前記マーカーのうち第1のマーカーに含まれる前記複数の基本パターンは、第2のマーカーに含まれる前記複数の基本パターンを前記第1の基本パターンを中心として上下と左右に反転させたものである
ことを特徴とする請求項1から11のいずれか1項に記載の制御装置。
When a plurality of the markers are superimposed on the input image, the plurality of basic patterns included in the first marker among the plurality of markers may be the first of the plurality of basic patterns included in the second marker. The control device according to any one of claims 1 to 11, wherein the basic pattern of 1 is inverted vertically and horizontally.
複数の基本パターンを含むマーカーが重畳された入力画像の投影画像を撮像した撮像画像を取得する取得ステップと、
前記撮像画像の第1の基本パターンに、前記第1の基本パターンとは異なる第2の基本パターンが重なるように、前記撮像画像またはその複製画像を、位置をずらせて前記撮像画像自身に重ね合わせて平均化画像または加算画像を生成し、前記平均化画像または加算画像から低周波数成分を除去することで前記マーカーの位置を検出する検出ステップと、
検出した前記マーカーに基づいて、前記投影画像の位置ずれを補正するための補正情報を出力する出力ステップと
を有することを特徴とする投影制御方法。
An acquisition step of acquiring a captured image obtained by capturing a projected image of an input image on which markers including a plurality of basic patterns are superimposed, and
The captured image or a duplicate image thereof is superposed on the captured image itself by shifting the position so that the first basic pattern of the captured image is overlapped with a second basic pattern different from the first basic pattern. A detection step of generating an averaged image or an added image and detecting the position of the marker by removing a low frequency component from the averaged image or the added image.
A projection control method comprising: an output step for outputting correction information for correcting a positional deviation of the projected image based on the detected marker.
投影装置と、前記投影装置を制御する制御装置と、前記投影装置による投影面を撮像する撮像装置と、を備える投影システムであって、
前記制御装置は、
複数の基本パターンを含むマーカーが重畳された入力画像の投影画像を撮像した撮像画像を取得する取得手段と、
前記撮像画像の第1の基本パターンに、前記第1の基本パターンとは異なる第2の基本パターンが重なるように、前記撮像画像またはその複製画像を、位置をずらせて前記撮像画像自身に重ね合わせて平均化画像または加算画像を生成し、前記平均化画像または加算画像から低周波数成分を除去することで前記マーカーの位置を検出する検出手段と、
検出した前記マーカーに基づいて、前記投影画像の位置ずれを補正するための補正情報を出力する出力手段と、を有する
ことを特徴とする投影システム。
A projection system including a projection device, a control device for controlling the projection device, and an imaging device for imaging a projection surface by the projection device.
The control device is
An acquisition means for acquiring a captured image obtained by capturing a projected image of an input image on which markers including a plurality of basic patterns are superimposed, and
The captured image or a duplicate image thereof is superposed on the captured image itself by shifting the position so that the first basic pattern of the captured image is overlapped with a second basic pattern different from the first basic pattern. A detection means for detecting the position of the marker by generating an averaged image or an added image and removing a low frequency component from the averaged image or the added image.
A projection system comprising: an output means for outputting correction information for correcting a positional deviation of the projected image based on the detected marker.
前記投影装置は、前記入力画像に前記マーカーを重畳させる重畳手段を有し、
前記取得手段は、前記重畳手段に対して前記入力画像に対する前記マーカーの重畳を開始するタイミングを指示し、前記重畳手段から前記入力画像に前記マーカーを重畳させたことを示す応答を受信した場合に、前記撮像装置に対して前記撮像画像の撮像を開始するタイミングを指示する
ことを特徴とする請求項14に記載の投影システム。
The projection device has a superimposing means for superimposing the marker on the input image.
When the acquisition means instructs the superimposing means to start superimposing the marker on the input image and receives a response from the superimposing means indicating that the marker is superposed on the input image. The projection system according to claim 14, further comprising instructing the image pickup apparatus of a timing at which the image pickup image is to be started.
前記投影装置は、前記入力画像の投影領域を光学的に移動させる補正手段を有し、
前記出力手段は、前記補正手段に対して前記投影領域を移動させるための制御量を算出し、前記補正手段に送信する
ことを特徴とする請求項14または15に記載の投影システム。
The projection device has a correction means for optically moving the projection area of the input image.
The projection system according to claim 14 or 15, wherein the output means calculates a control amount for moving the projection region with respect to the correction means and transmits the control amount to the correction means.
コンピュータを、請求項1から12のいずれか1項に記載の制御装置の各手段として機能させるためのプログラム。 A program for causing a computer to function as each means of the control device according to any one of claims 1 to 12. コンピュータを、請求項1から12のいずれか1項に記載の制御装置の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記憶媒体。 A computer-readable storage medium containing a program for causing the computer to function as each means of the control device according to any one of claims 1 to 12.
JP2020006085A 2020-01-17 2020-01-17 Controller, projection control method, projection system, program, and storage medium Pending JP2021114685A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020006085A JP2021114685A (en) 2020-01-17 2020-01-17 Controller, projection control method, projection system, program, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020006085A JP2021114685A (en) 2020-01-17 2020-01-17 Controller, projection control method, projection system, program, and storage medium

Publications (1)

Publication Number Publication Date
JP2021114685A true JP2021114685A (en) 2021-08-05

Family

ID=77077670

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020006085A Pending JP2021114685A (en) 2020-01-17 2020-01-17 Controller, projection control method, projection system, program, and storage medium

Country Status (1)

Country Link
JP (1) JP2021114685A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023078091A1 (en) * 2021-11-03 2023-05-11 深圳光峰科技股份有限公司 Projection image superposition method and apparatus, electronic device and storage medium
WO2024023889A1 (en) * 2022-07-25 2024-02-01 株式会社コーセー Simulation system and method of simulation
WO2024025130A1 (en) * 2022-07-27 2024-02-01 삼성전자주식회사 Electronic apparatus for projecting image, and control method therefor

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023078091A1 (en) * 2021-11-03 2023-05-11 深圳光峰科技股份有限公司 Projection image superposition method and apparatus, electronic device and storage medium
WO2024023889A1 (en) * 2022-07-25 2024-02-01 株式会社コーセー Simulation system and method of simulation
WO2024025130A1 (en) * 2022-07-27 2024-02-01 삼성전자주식회사 Electronic apparatus for projecting image, and control method therefor

Similar Documents

Publication Publication Date Title
US10958883B2 (en) Projection control apparatus, projection apparatus, projection control method, and storage medium storing program
TWI253006B (en) Image processing system, projector, information storage medium, and image processing method
JP5521855B2 (en) Projection image area detection device
US7911500B2 (en) Image processing device, computer readable recording medium, and image processing method
JP2021114685A (en) Controller, projection control method, projection system, program, and storage medium
US7839543B2 (en) Document imager, document stillness detection method, and computer program product
US8290271B2 (en) Method, medium and apparatus correcting projected image
WO2005002240A1 (en) Method for calculating display characteristic correction data, program for calculating display characteristic correction data, and device for calculating display characteristic correction data
JP2012151670A (en) Image projection system and semiconductor integrated circuit
WO2019167455A1 (en) Information processing device, calculation method for information processing device, program
JP5633320B2 (en) Drawing image sharing device
JP2010050540A (en) Projection display apparatus, and display method
JP2010050542A (en) Projection display apparatus, and display method
US20200128219A1 (en) Image processing device and method
US11074715B2 (en) Image processing apparatus and method
JP2019220887A (en) Image processing system, image processing method, and program
KR101225063B1 (en) Unobtrusive calibration method for projected image compensation and apparatus for the same
JP5262743B2 (en) Projection display apparatus, control method therefor, and control program therefor
JP2007271771A (en) Image display system and control method therefor
WO2013088657A1 (en) Projecting projector device, optical anti-glare method, and optical anti-glare program
CN114979600A (en) Laser projection apparatus and projected image correction method
JP2018182539A (en) Video processing apparatus, video processing method, and program
KR20150000911A (en) Auto mapping method and apparatus of screen and image
US20090103811A1 (en) Document camera and its method to make an element distinguished from others on a projected image
JP2021081680A (en) Projection controller, projection system, and method for controlling projection