JP2015076657A - Projection system and method - Google Patents

Projection system and method Download PDF

Info

Publication number
JP2015076657A
JP2015076657A JP2013210024A JP2013210024A JP2015076657A JP 2015076657 A JP2015076657 A JP 2015076657A JP 2013210024 A JP2013210024 A JP 2013210024A JP 2013210024 A JP2013210024 A JP 2013210024A JP 2015076657 A JP2015076657 A JP 2015076657A
Authority
JP
Japan
Prior art keywords
image
feature point
projection
unit
editing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013210024A
Other languages
Japanese (ja)
Inventor
喜章 西川
Yoshiaki Nishikawa
喜章 西川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2013210024A priority Critical patent/JP2015076657A/en
Publication of JP2015076657A publication Critical patent/JP2015076657A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

PROBLEM TO BE SOLVED: To suppress the degree of influences of the design of a building structure on a projection image.SOLUTION: A projection system comprises: an image-capturing unit 415 for reading the state of the wall surface of a building structure; a captured image feature point extraction unit 420 for detecting, from the read wall surface image, a first feature point of the image; an image editing unit 105 for editing the image on the basis of the first feature point; a captured-image feature point information 1 storage unit 413 for storing the image-edited image and the first feature point in correlation with each other; a feature point information comparison unit 422 for comparing the positions of the first feature point stored in correlation with the image and a second feature point read by the image-capturing means again and detected by the feature point detection means; an image data adhesion unit 411 for automatically editing the image so that the first feature point of the image to be projected overlaps the second feature point detected again; and an image projection unit 128 for protecting the edited image onto the wall surface of the building structure.

Description

本発明は、プロジェクションシステム及び方法に関し、特に、凹凸のある建造物の壁面に画像を投射する技術に関する。   The present invention relates to a projection system and method, and more particularly to a technique for projecting an image onto a wall surface of an uneven building.

近年、プロジェクタを用いて巨大なスクリーンに画像を投影するプロジェクションシステムが注目を浴びている。さらに単なる巨大平面スクリーンへの投影ではなく、屋外のビルディング等の建造物の壁面のような複雑な面にプロジェクタを用いて画像を投影するようなことも考え出されている。   In recent years, a projection system that projects an image on a huge screen using a projector has been attracting attention. Furthermore, it has been devised to project an image using a projector on a complicated surface such as a wall of a building such as an outdoor building, instead of simply projecting onto a giant flat screen.

一例を挙げると、例えば、特許文献1の「マルチプロジェクションシステムにおける幾何補正方法」がある。この文献によれば、プロジェクタからスクリーン上にテストパターン画像を表示し、そのテストパターン画像をデジタルカメラで撮像する。そして、その画像からプロジェクタの投影位置を算出し、テストパターン撮像画像中の複数の特徴点をパターンマッチング等の手法により検出する。その検出した特徴点の位置に基づいて投影位置のパラメータを算出して、プロジェクタの投影位置を補正する。   As an example, there is a “geometric correction method in a multi-projection system” of Patent Document 1, for example. According to this document, a test pattern image is displayed on a screen from a projector, and the test pattern image is captured by a digital camera. Then, the projection position of the projector is calculated from the image, and a plurality of feature points in the test pattern captured image are detected by a technique such as pattern matching. A projection position parameter is calculated based on the detected feature point position, and the projection position of the projector is corrected.

例えば、屋外のビルディングのような建造物の壁面にマルチプロジェクションシステムにおいて画像を投影する場合、今までの技術では、プロジェクタからスクリーン上にテストパターン画像を表示し、そのテストパターン画像をデジタルカメラで撮像する。次に、撮像した画像からプロジェクタの投影位置を算出し、テストパターン撮像画像中の複数の特徴点をパターンマッチング等の手法により検出する。そして、その検出した特徴点の位置に基づいて投影位置の表面のでこぼこを検出して、プロジェクタの投影位置を補正させる。   For example, when projecting an image on the wall of a building such as an outdoor building using a multi-projection system, the conventional technology displays a test pattern image on the screen from the projector and captures the test pattern image with a digital camera. To do. Next, the projection position of the projector is calculated from the captured image, and a plurality of feature points in the test pattern captured image are detected by a technique such as pattern matching. Then, a bump on the surface of the projection position is detected based on the detected position of the feature point, and the projection position of the projector is corrected.

しかしながら、屋外のビルディングのような建造物の壁面に画像を投影する場合においては、実質、窓枠、柱とか継ぎ目といった各種部位の形を示すライン状の模様がある。上記従来技術においては、それらの模様と投影画像とが合成されてしまい投影画像が見辛くなってしまうという問題があった。   However, in the case of projecting an image on the wall of a building such as an outdoor building, there is a line pattern indicating the shape of various parts such as a substantial frame, a window frame, a pillar, and a joint. In the prior art described above, there is a problem that these patterns and the projected image are synthesized and the projected image becomes difficult to see.

特許文献1は、プロジェクタ投影面の状態を検知し、その検知結果を元に投影画像を補正しようとするという点で、本願と関連があると考えられる。しかしながら、窓枠、柱とか継ぎ目といった各種部位の形を示すライン状の模様と、投影画像とが合成されてしまい投影画像が見辛くなってしまうという問題は解消できていない。   Patent Document 1 is considered to be related to the present application in that it detects the state of the projector projection surface and attempts to correct the projection image based on the detection result. However, the problem that the projection image is difficult to see because the line-shaped pattern indicating the shapes of various parts such as window frames, columns, and joints and the projection image cannot be solved.

屋外のビルディングのような建造物の壁面に画像を投影する場合の投影画像の見辛さは、建造物の模様が投影が像に対して影響を与えることに起因するものであると考えられる。   The difficulty in viewing the projected image when projecting an image on the wall of a building such as an outdoor building is considered to be due to the fact that the pattern of the building affects the projection on the image.

本発明は、上記実情に鑑みてなされたものであって、建造物の模様が投影画像に対する影響度を押さえることを目的とする。   The present invention has been made in view of the above circumstances, and an object of the present invention is to suppress the influence of a building pattern on a projected image.

上記目的を達成するために本発明は、第1の態様として、建造物の壁面の状態を読み取る撮像手段と、読み取った壁面画像からその画像の第1の特徴点を検出する特徴点検出手段と、前記第1の特徴点に基づいて画像を編集する第1の画像編集手段と、画像編集した画像と前記第1の特徴点を関連付けて格納する特徴点格納手段と、画像に関連付けて格納されている第1の特徴点と、再度前記撮像手段で読み取り、特徴点検出手段で検出した第2の特徴点の位置を比較する特徴点比較手段と、投影しようとする画像の第1の特徴点が再度検出した第2の特徴点に重なるように画像を自動的に編集する第2の画像編集手段と、建造物の壁面に編集された画像を投影する画像投影手段と、を備えたことを特徴とするプロジェクションシステムを提供する。   In order to achieve the above object, the present invention provides, as a first aspect, an imaging unit that reads a state of a wall surface of a building, and a feature point detection unit that detects a first feature point of the image from the read wall surface image. A first image editing unit that edits an image based on the first feature point, a feature point storage unit that stores the image edited image and the first feature point in association with each other, and stores the image in association with the image. A first feature point that is read again by the imaging unit and the position of the second feature point that is detected by the feature point detection unit is compared with the first feature point of the image to be projected Comprising: a second image editing means for automatically editing the image so as to overlap the second feature point detected again; and an image projecting means for projecting the edited image on the wall surface of the building. Providing a characteristic projection system To.

本発明によれば、建造物の模様が投影画像に対する影響度を押さえることが可能となる。   According to the present invention, it is possible to suppress the influence of the building pattern on the projected image.

本発明を適用可能な一般的なプロジェクションシステムの構成を示すブロック図である。It is a block diagram which shows the structure of the general projection system which can apply this invention. マルチプロジェクションシステムについて説明するための図である。It is a figure for demonstrating a multi-projection system. マルチプロジェクションシステムで投影される画像の一例を示す図である。It is a figure which shows an example of the image projected with a multi-projection system. 本発明の実施形態に係るプロジェクションシステムの構成を示すブロック図である。It is a block diagram which shows the structure of the projection system which concerns on embodiment of this invention. 本実施形態における情報処理を説明するための図である。It is a figure for demonstrating the information processing in this embodiment. 本実施形態における画像ファイルフォーマットの一例を示す図である。It is a figure which shows an example of the image file format in this embodiment. 本実施形態における吸着処理を説明するための図(その1)である。It is a figure (the 1) for demonstrating the adsorption | suction process in this embodiment. 本実施形態の画像データ吸着部の構成を示すブロック図である。It is a block diagram which shows the structure of the image data adsorption | suction part of this embodiment. 本実施形態における吸着処理を説明するための図(その2)である。It is FIG. (2) for demonstrating the adsorption | suction process in this embodiment. 本実施形態の投影面特徴点検知処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the projection surface feature point detection process of this embodiment. 本実施形態の投影画像編集・送信処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the projection image edit / transmission process of this embodiment. 本実施形態の受信画像投影処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the received image projection process of this embodiment.

建造物の壁面のような投射面には、実質、窓枠、柱とか継ぎ目といった各種部位の形を示すライン状の模様がある。従来技術には、それらの模様と投影画像と合成されてしまうと、投影画像が見辛くなってしまうという問題がある。   A projection surface such as a wall surface of a building has a line-like pattern indicating the shape of various parts such as a substantial body, a window frame, a pillar, and a joint. The prior art has a problem that it becomes difficult to see the projected image if these patterns and the projected image are combined.

以下に開示されるマルチプロジェクションシステムは、屋外のビルディングのような建造物の壁面の窓枠、柱とか継ぎ目といった各種部位の形を示すライン状の模様を予め検知する。そして、それを壁面である投影面の特徴点情報に変換する。また、投影すべき画像を作成、編集する際に、その特徴点情報を画像編集画面に合成表示し、投影面である建造物の壁面の窓枠、柱とか継ぎ目といった各種部位の形を示すライン状の模様を意識して画像作成、編集を行う。さらに、その壁面の特徴点情報は画像ファイルと関連付けて格納もする。   The multi-projection system disclosed below detects in advance a line-shaped pattern indicating the shape of various parts such as a window frame, a pillar, or a joint of a wall surface of a building such as an outdoor building. Then, it is converted into feature point information on the projection surface, which is a wall surface. Also, when creating and editing an image to be projected, the feature point information is synthesized and displayed on the image editing screen, and lines indicating the shape of various parts such as window frames, columns, and joints on the wall surface of the building that is the projection surface Create and edit images with the pattern in mind. Further, the feature point information of the wall surface is also stored in association with the image file.

そのため、プロジェクタ投影現場で複数のプロジェクタのそれぞれの位置が変わったとしても、再度新たに読み込んだ投影面の特徴点情報と画像ファイルに関連付けて格納されている特徴点情報との差分を検知し、画像を補正することができる。マルチプロジェクションシステムにおいて、屋外のビルディングのような建造物の壁面に画像を投影する場合においても、窓枠、柱とか継ぎ目といった各種部位の形を示すライン状の模様と投影画像と合成されたとしても投影画像が見辛くならなくすることができる。   Therefore, even if the position of each of the plurality of projectors changes at the projector projection site, the difference between the feature point information of the newly read projection plane and the feature point information stored in association with the image file is detected, The image can be corrected. Even when an image is projected onto the wall of a building such as an outdoor building in a multi-projection system, even if the projected image is combined with a line pattern indicating the shape of various parts such as window frames, pillars, and joints. The projected image can be made difficult to see.

<本実施形態の概略機能構成>
以下、本発明の実施形態を図面を参照しながら説明する。図1は、一般的なプロジェクションシステムのブロック図である。
<Schematic functional configuration of this embodiment>
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram of a general projection system.

大きく構成される装置としては、無線機能、有線によるネットワーク機能を搭載したPC(パーソナルコンピュータ)100、そのPC100と無線、或いは有線で接続することができるプロジェクタ120がある。図1のスクリーン129は、プロジェクタ120から投影される映像を映し出すスクリーンである。PC100は、プロジェクタ120を介して内部の画像データをスクリーン129に投影するために画像データを圧縮しプロジェクタ120に送信することができる画像データ送信部102を備えている。また、プロジェクタ120は、PC100から送信されてきた圧縮画像データを受信し伸長することができる画像データ受信部121を備えている。   As a largely configured device, there is a PC (personal computer) 100 having a wireless function and a wired network function, and a projector 120 that can be connected to the PC 100 by wireless or wired. A screen 129 in FIG. 1 is a screen that displays an image projected from the projector 120. The PC 100 includes an image data transmission unit 102 that can compress image data and transmit the image data to the projector 120 in order to project the internal image data onto the screen 129 via the projector 120. In addition, the projector 120 includes an image data receiving unit 121 that can receive and expand the compressed image data transmitted from the PC 100.

次にまずはPC100について、構成ブロックを説明する。HDD110は画像データ等を格納しておくことができるハードディスクドライブである。HDDドライバー111は本PC100上で動作可能なアプリケーションソフトによってコールされるドライバーソフトによりHDD110を制御し、格納されているファイルのリード/ライトを行う手段である。HDD110よりHDDドライバー111を介して読み出されたファイルはバッファメモリ112に順次格納され、その後、ファイル展開部103によりファイル展開されラスター画像としてフレームメモリ104へ格納される。フレームメモリ104はラスター画像に展開された画像データの作成、編集を行う為のメモリである。図1の105は画像編集部である。画像編集部105は、フレームメモリ104に展開された画像データを編集することができる手段である。この画像編集部105によって編集された画像データは、再度フレームメモリ104に格納される。フレームメモリ104に格納されている画像データは、バッファメモリ112を介して、HDDドライバー111によりデバイスタイミングを調整しながら不揮発性メモリであるHDD110に格納することができる。   Next, constituent blocks of the PC 100 will be described. The HDD 110 is a hard disk drive that can store image data and the like. The HDD driver 111 is means for controlling the HDD 110 by driver software called by application software operable on the PC 100 to read / write a stored file. Files read from the HDD 110 via the HDD driver 111 are sequentially stored in the buffer memory 112, and then are expanded by the file expansion unit 103 and stored in the frame memory 104 as raster images. The frame memory 104 is a memory for creating and editing image data expanded into a raster image. Reference numeral 105 in FIG. 1 denotes an image editing unit. The image editing unit 105 is a unit that can edit the image data expanded in the frame memory 104. The image data edited by the image editing unit 105 is stored in the frame memory 104 again. The image data stored in the frame memory 104 can be stored in the HDD 110 that is a nonvolatile memory through the buffer memory 112 while adjusting the device timing by the HDD driver 111.

又、画像抽出部113は、フレームメモリ104に展開されている画像データを出力装置であるディスプレイに表示するために、画像データのフレームサイズ情報とディスプレイ116の表示可能サイズから画像データの画像表示領域を切り出すための手段である。切り出された画像データは、Video RAM114に展開され、この展開された画像データがディスプレイドライバー115を介して、画像表示信号に変換され、ディスプレイ116で表示される。   In addition, the image extraction unit 113 displays an image display area of the image data from the frame size information of the image data and the displayable size of the display 116 in order to display the image data expanded in the frame memory 104 on a display as an output device. It is a means for cutting out. The clipped image data is developed in the Video RAM 114, and the developed image data is converted into an image display signal via the display driver 115 and displayed on the display 116.

又、図1の102は、前記の画像データ送信部である。画像データ送信部102は、PC100のディスプレイ画面をプロジェクタに表示させるために、Video RAM114に展開された画像データをプロジェクタに無線LAN、或いは有線LANにより送信する手段である。図1の106はデータ圧縮部である。データ圧縮部106は、送信データを圧縮処理し送信サイズを縮小するための手段である。これにより比較的低速な無線LAN、或いは有線LANでのデータ送信を効率的に行うことができる。図1の107は、送信バッファである。送信バッファ107は、無線送信部108の無線送信タイミングと同期させるためのテンポラリメモリである。無線送信部108は、データ送信I/F109を介して無線LAN、或いは有線LANのプロトコルに則り画像データを送信する手段である。データ送信I/F109は、無線LANの場合は無線アンテナ素子、有線LANの場合はLANケーブルのコネクタジャックのことである。   Reference numeral 102 in FIG. 1 denotes the image data transmission unit. The image data transmission unit 102 is means for transmitting the image data expanded in the Video RAM 114 to the projector via a wireless LAN or a wired LAN in order to display the display screen of the PC 100 on the projector. Reference numeral 106 in FIG. 1 denotes a data compression unit. The data compression unit 106 is a means for compressing transmission data and reducing the transmission size. As a result, it is possible to efficiently perform data transmission via a relatively low speed wireless LAN or wired LAN. Reference numeral 107 in FIG. 1 denotes a transmission buffer. The transmission buffer 107 is a temporary memory for synchronizing with the wireless transmission timing of the wireless transmission unit 108. The wireless transmission unit 108 is means for transmitting image data according to a wireless LAN or wired LAN protocol via the data transmission I / F 109. The data transmission I / F 109 is a wireless antenna element in the case of a wireless LAN and a connector jack of a LAN cable in the case of a wired LAN.

PC100内の画像データの流れとしては、まずHDD110に格納されているファイルが読み出され、フレームメモリ104に展開される。展開された画像データは、画像編集部105で画像編集され、画像抽出部113によって切り出された画像領域をディスプレイ116に表示するのと同時に画像データ送信部102によって圧縮処理が施され、無線信号としてプロジェクタ側に送信されることになる。   As a flow of image data in the PC 100, first, a file stored in the HDD 110 is read and developed in the frame memory 104. The developed image data is subjected to image editing by the image editing unit 105, and the image area cut out by the image extracting unit 113 is displayed on the display 116. At the same time, the image data transmitting unit 102 performs compression processing to obtain a radio signal. It is transmitted to the projector side.

次に一般的なプロジェクタ側の構成について説明する。図1の121は画像データ受信部である。PC100からの送信画像データを受信する画像データ受信部121は、データ受信I/F122、無線受信部123、受信バッファ124、データ伸長部125から構成される。データ受信I/F122は、無線LANの場合は無線アンテナ素子、有線LANの場合はLANケーブルのコネクタジャックのことである。無線受信部123は、PC100からの送信データをデータ受信I/F122を介して通信プロトコルに則り受信する手段である。図1の124の受信バッファは、無線受信部123で受信したデータを格納するテンポラリメモリである。図1の125は送信側から圧縮されて送信されてきたデータを伸長する手段である。図1の126は投影バッファであり、このバッファに格納された画像が本プロジェクタから投影される画像そのものとなる。図1の127は、投影制御部である。投影制御部127は、プロジェクタのメカ部を制御し投影バッファ126の画像を投影する手段である。図1の128は、投影制御部127によって制御されるプロジェクタのメカ構成、例えば、液晶パネル、ランプ、レンズ、ファン等のことである。プロジェクタの光学メカの種類としては、例えば、CRTに表示された画像を光学系を使って拡大し投影するCRTプロジェクタ、液晶パネルに光を透過させて投射する液晶プロジェクタ、DMD(デジタル・マイクロミラー・デバイス)を用いたDLPプロジェクタ、又、反射型液晶素子を使用したLCOSプロジェクタ等がある。   Next, a general projector side configuration will be described. Reference numeral 121 in FIG. 1 denotes an image data receiving unit. An image data receiving unit 121 that receives transmission image data from the PC 100 includes a data reception I / F 122, a wireless reception unit 123, a reception buffer 124, and a data decompression unit 125. The data reception I / F 122 is a wireless antenna element in the case of a wireless LAN, and a connector jack of a LAN cable in the case of a wired LAN. The wireless reception unit 123 is means for receiving transmission data from the PC 100 in accordance with a communication protocol via the data reception I / F 122. A reception buffer 124 in FIG. 1 is a temporary memory that stores data received by the wireless reception unit 123. Reference numeral 125 in FIG. 1 denotes means for decompressing data that has been compressed and transmitted from the transmission side. Reference numeral 126 in FIG. 1 denotes a projection buffer, and the image stored in this buffer is the image itself projected from the projector. Reference numeral 127 in FIG. 1 denotes a projection control unit. The projection control unit 127 is a unit that controls the mechanical unit of the projector and projects the image in the projection buffer 126. 1 denotes a mechanical configuration of the projector controlled by the projection control unit 127, such as a liquid crystal panel, a lamp, a lens, and a fan. Examples of the optical mechanism of the projector include, for example, a CRT projector that enlarges and projects an image displayed on a CRT using an optical system, a liquid crystal projector that transmits light through a liquid crystal panel, and a DMD (digital micromirror). DLP projector using a device), LCOS projector using a reflective liquid crystal element, and the like.

PC100からの送信データ(圧縮画像データ)は、このデータ受信I/F122を介して、無線受信部123で受信され、受信バッファ124に格納される。格納された圧縮画像データは、順次受信バッファ124から読み出され、データ伸長部125によって伸長処理が施される。伸長された画像データは、投影バッファ126に格納され、この格納された画像データが投影制御部127によって、画像投影部128を介してスクリーン129に投影される。   Transmission data (compressed image data) from the PC 100 is received by the wireless reception unit 123 via the data reception I / F 122 and stored in the reception buffer 124. The stored compressed image data is sequentially read from the reception buffer 124 and subjected to decompression processing by the data decompression unit 125. The decompressed image data is stored in the projection buffer 126, and the stored image data is projected onto the screen 129 by the projection control unit 127 via the image projection unit 128.

次にマルチプロジェクションシステムについて説明する。マルチプロジェクションシステムとは、図2(1)で示すように、複数台のプロジェクタを使用して、巨大なスクリーンに投影する技術である。図2(1)では4台のプロジェクタを使用した例である。左上のプロジェクタがスクリーン上の左上の領域、右上のプロジェクタがスクリーン上の右上の領域、左下のプロジェクタがスクリーン上の左下の領域、右下のプロジェクタがスクリーン上の右下の領域にそれぞれ画像を投影する。(図2(1)は図が分かりにくくなるので、左上のプロジェクタの投影光しか書いていないが、実際には4台のプロジェクタ同時に投影光を出力している)。理論的には、マルチプロジェクションシステムにおいて、プロジェクタの台数を増やせば、いくらでも大きな画像を投影することができる。但し、そのための大きなスクリーンを用意することが困難である。   Next, the multi-projection system will be described. The multi-projection system is a technique for projecting onto a huge screen using a plurality of projectors as shown in FIG. FIG. 2A shows an example in which four projectors are used. The upper left projector projects an image on the upper left area of the screen, the upper right projector projects an image on the upper right area of the screen, the lower left projector projects an image on the lower left area of the screen, and the lower right projector projects an image on the lower right area of the screen. To do. (Since FIG. 2 (1) is difficult to understand, only the projection light of the upper left projector is written, but actually the projection light is output simultaneously from four projectors). Theoretically, in a multi-projection system, if the number of projectors is increased, any number of large images can be projected. However, it is difficult to prepare a large screen for that purpose.

近年、プレゼンテーションとして大きな画像を投影するために、単なるスクリーンではなくて、元々ある屋外の建造物の壁面に、本マルチプロジェクションシステムを使用して画像を投影することが行われている。例えば図2(2)に屋外のビルディングのような建造物の壁面に画像を投影している例を示す。こちらも例では、4台のプロジェクタを使用し2×2に並べた形態のマルチプロジェクションである。ビルディングのような元々ある建造物の壁面を使用することで、巨大なスクリーンを用意する必要が無いので適切な建造物があれば比較的簡単に投影することができる。   In recent years, in order to project a large image as a presentation, an image is projected using the present multi-projection system on a wall surface of an outdoor building, which is not a simple screen. For example, FIG. 2B shows an example in which an image is projected on the wall of a building such as an outdoor building. In this example as well, the multi-projection is in the form of 2 × 2 using four projectors. By using the wall of an original building such as a building, it is not necessary to prepare a huge screen, so it can be projected relatively easily if there is an appropriate building.

しかしながら、建造物の壁面といものはスクリーンと異なり、建造物の窓枠であったり、柱であったり、各階の接続部があったりして(例えば、図3(1)参照)、それらの形状が投影画像に目視上、合成されてしまい見辛くなってしまうことがある。図2(2)は、4台のプロジェクタの投影面(点線)と建造物の模様(実線)が合成された一例である。また、図3(2)に見辛くなった投影画像の例を示す。   However, unlike the screen, the wall of a building is a window frame of a building, a pillar, or a connecting portion on each floor (for example, see FIG. 3 (1)), and their shapes. May be visually combined with the projected image, making it difficult to see. FIG. 2B is an example in which the projection planes (dotted lines) of four projectors and the pattern of the building (solid lines) are combined. FIG. 3B shows an example of a projection image that is difficult to see.

本実施形態にて開示される技術的思想は、このマルチプロジェクションシステムにおいて、屋外の建造物に画像を投影する場合に上記のように建造物の色々な模様が投影画像に影響してしまい見辛くなっていることに対して、建造物の模様が投影画像に対する影響度を押さえることを目的としている。   The technical idea disclosed in the present embodiment is difficult to see in this multi-projection system when various images of a building affect the projected image as described above when projecting an image on an outdoor building. The purpose of this is to suppress the influence of the structure of the building on the projected image.

<本実施形態の詳細な機能構成>
図4に、本実施形態のマルチプロジェクションシステムのブロック図を示し、本実施形態の構成を説明する。前記一般的なマルチプロジェクションシステムの説明と共通な部分は省略する。まず、図4で追加されたブロック毎の説明を行う。図4の415は画像撮像部である。画像撮像部415は、投影面を光学的に撮像しデジタルデータに変換することができるデジタルカメラである。図4の416は撮像制御部である。撮像制御部416は、画像撮像部415を制御して投影面のデジタル画像を読み取る手段である。
<Detailed functional configuration of this embodiment>
FIG. 4 shows a block diagram of the multi-projection system of this embodiment, and the configuration of this embodiment will be described. A description common to the description of the general multi-projection system is omitted. First, description will be given for each block added in FIG. Reference numeral 415 in FIG. 4 denotes an image capturing unit. The image capturing unit 415 is a digital camera that can optically capture a projection surface and convert it into digital data. Reference numeral 416 in FIG. 4 denotes an imaging control unit. The imaging control unit 416 is means for controlling the image imaging unit 415 to read a digital image on the projection surface.

図4の417は撮像画像2値化部である。撮像画像2値化部417は、撮像制御部416が画像撮像部415を介して読み込んだデジタル画像を2値化する手段である。この2値化処理とは、この場合、投影面の画像を白か黒に変換し、画像をより単純化する処理である。この時、2値化するためのスレッシュホールドレベルを設定することで白レベル黒レベルの割合を調整することができる。   Reference numeral 417 in FIG. 4 denotes a captured image binarization unit. The captured image binarization unit 417 is a unit that binarizes the digital image read by the imaging control unit 416 via the image imaging unit 415. In this case, the binarization processing is processing for converting the image on the projection surface into white or black and further simplifying the image. At this time, the ratio of the white level to the black level can be adjusted by setting a threshold level for binarization.

図4の418は撮像画像細線化部である。撮像画像細線化部418は撮像画像2値化部417によって2値化された画像を細線化する手段である。細線化とは、ある幅を持った線分画像の中心ラインを検知し、幅1ピクセルの線分化する処理である。図4の419は撮像画像ベクトル化部である。撮像画像ベクトル化部419は、撮像画像細線化部418で細線化された画像を線分の集合体と捉え、その線分の両端を投影面の左下を基準点(0、0)とする相対アドレス(x、y)で示される。   Reference numeral 418 in FIG. 4 denotes a captured image thinning unit. The captured image thinning unit 418 is means for thinning the image binarized by the captured image binarization unit 417. Thinning is a process of detecting a center line of a line segment image having a certain width and performing line segmentation with a width of 1 pixel. Reference numeral 419 in FIG. 4 denotes a captured image vectorization unit. The captured image vectorization unit 419 regards the image thinned by the captured image thinning unit 418 as an assembly of line segments, and sets both ends of the line segments as relative to the lower left of the projection plane as a reference point (0, 0). It is indicated by an address (x, y).

図4の420は撮像画像特徴点抽出部である。撮像画像特徴点抽出部420は、撮像画像ベクトル化部419で特定した線分のベクトルデータから線分と線分の交点を検知、及び投影フレームと線分の交点を検知する手段である。これらの線分と線分の交点、及び投影フレームと線分の交点を投影面の撮像画像特徴点とする。   Reference numeral 420 in FIG. 4 denotes a captured image feature point extraction unit. The captured image feature point extraction unit 420 is a unit that detects the intersection of the line segment and the line segment from the vector data of the line segment specified by the captured image vectorization unit 419, and detects the intersection of the projection frame and the line segment. The intersections of these line segments and line segments, and the intersections of the projection frame and line segments are taken as the captured image feature points on the projection plane.

図4の413は撮像画像特徴点情報1格納部である。撮像画像特徴点情報1格納部413は、撮像画像特徴点抽出部420で検知した撮像画像特徴点を格納するメモリである。メモリに格納しておくことで、後段処理において特徴点を読み出したいタイミングでこの撮像画像特徴点情報1格納部413から特徴点を読み出し利用することができる。   Reference numeral 413 in FIG. 4 denotes a captured image feature point information 1 storage unit. The captured image feature point information 1 storage unit 413 is a memory that stores the captured image feature points detected by the captured image feature point extraction unit 420. By storing in the memory, the feature points can be read out from the captured image feature point information 1 storage unit 413 and used at the timing when the feature points are to be read out in the subsequent processing.

図4の414は撮像画像特徴点情報1送信部である。撮像画像特徴点情報1送信部414は、撮像画像特徴点情報1格納部413に格納されている投影面の撮像画像特徴点情報をPC100側に送信する手段である。PC100では、後述するが、このデータ送信により投影面の撮像画像特徴点情報を使用して処理を行うことができる。図4の121はデータ送受信I/Fである。図1の121ではデータ受信のみであったが、本実施形態にかかる図4の121ではデータを送信することもできるようになっている。図4の109は、データ送受信I/Fである。こちらも図1の109ではデータ送信のみであったが、本実施形態にかかる図4の109ではデータを受信することもできるようになっている。   Reference numeral 414 in FIG. 4 denotes a captured image feature point information 1 transmission unit. The captured image feature point information 1 transmission unit 414 is means for transmitting the captured image feature point information of the projection plane stored in the captured image feature point information 1 storage unit 413 to the PC 100 side. As will be described later, the PC 100 can perform processing using the captured image feature point information of the projection plane by this data transmission. Reference numeral 121 in FIG. 4 denotes a data transmission / reception I / F. Although only data reception is performed in 121 of FIG. 1, data can be transmitted in 121 of FIG. 4 according to the present embodiment. Reference numeral 109 in FIG. 4 denotes a data transmission / reception I / F. Also here, only data transmission was performed in 109 of FIG. 1, but data can also be received in 109 of FIG. 4 according to the present embodiment.

図4の402は撮像画像特徴点情報1受信部である。撮像画像特徴点情報1受信部402は、プロジェクタ部120の撮像画像特徴点情報1送信部414からデータ送受信部I/F122を介して送信された投影面の撮像画像特徴点情報を受信する手段である。受信した投影面の撮像画像特徴点情報は撮像画像特徴点情報1格納部403に格納される。   Reference numeral 402 in FIG. 4 denotes a captured image feature point information 1 receiving unit. The captured image feature point information 1 receiving unit 402 is a means for receiving the captured image feature point information of the projection plane transmitted from the captured image feature point information 1 transmitting unit 414 of the projector unit 120 via the data transmitting / receiving unit I / F 122. is there. The received captured image feature point information of the projection plane is stored in the captured image feature point information 1 storage unit 403.

格納された投影面の撮像画像特徴点情報は特徴点設定部400に読み出され、特徴点設定部400は、それらの特徴点情報からフレームメモリ104に展開されている画像データに合成表示する。これにより画像データを編集しているユーザは特徴点が合成表示された画像データをその合成表示された特徴点を意識しながら編集することができる。編集が完了した画像ファイルは前記図1での説明同様に圧縮されてプロジェクタ側に送信されるが、この時、特徴点情報2書込み部401により、送信される画像データと関連付けられるように、その画像データのヘッダ部に前記特徴点情報を付加される。これにより、プロジェクタ側には、特徴点を意識して編集された画像ファイルとその関係付けられた特徴点を一つのファイルデータとして送信されることになる。   The stored captured image feature point information of the projection plane is read out by the feature point setting unit 400, and the feature point setting unit 400 combines and displays the image data developed in the frame memory 104 from the feature point information. Thus, the user who is editing the image data can edit the image data on which the feature points are synthesized and displayed while being aware of the synthesized and displayed feature points. The image file that has been edited is compressed and transmitted to the projector side in the same manner as described above with reference to FIG. 1. At this time, the feature point information 2 writing unit 401 associates the image file with the image data to be transmitted. The feature point information is added to the header portion of the image data. As a result, the image file edited in consideration of the feature points and the associated feature points are transmitted to the projector side as one file data.

PC100側から送信されてた画像データとその特徴点情報2は、データ送受信I/F122で受信され、画像データ(圧縮画像)は、図1で説明したように圧縮画像無線受信部123、受信バッファ124、画像データ伸長部125を介して、伸長され、作業メモリ412に格納される。一方、特徴点情報2は、特徴点情報2読取部410で読み取られ、特徴点情報2格納部421に格納し、特徴点情報比較部422で特徴点情報1と特徴点情報2を比較し、その比較結果が画像データ吸着部411の内部処理のためのパラメータとなる。画像データ吸着部411では、前記撮像画像特徴点情報1格納部413に格納されている投影面の特徴点情報1と、特徴点情報2読取部410で読み取られた投影画像と関連付けられた特徴点情報2との差分を演算し、作業メモリ412に格納されている画像データを主走査方向、副走査方向の縮小/拡大処理、画像領域の移動処理を行い撮像画像特徴点情報1格納部413でリアルタイムで読み込まれた投影面の特徴点に画像を合わせ込む処理を行う。これにより投影面の特徴にあった投影画像に編集され、見た目違和感の無い画像を投影することができる。   The image data transmitted from the PC 100 side and its feature point information 2 are received by the data transmission / reception I / F 122, and the image data (compressed image) is received by the compressed image wireless reception unit 123, the reception buffer as described in FIG. 124, the image data is expanded via the image data expansion unit 125 and stored in the work memory 412. On the other hand, the feature point information 2 is read by the feature point information 2 reading unit 410, stored in the feature point information 2 storage unit 421, and the feature point information comparison unit 422 compares the feature point information 1 and the feature point information 2, The comparison result is a parameter for internal processing of the image data adsorption unit 411. In the image data adsorption unit 411, the feature point information 1 of the projection plane stored in the captured image feature point information 1 storage unit 413 and the feature point associated with the projection image read by the feature point information 2 reading unit 410. The difference with the information 2 is calculated, the image data stored in the work memory 412 is subjected to reduction / enlargement processing in the main scanning direction and sub-scanning direction, and image region movement processing, and the captured image feature point information 1 storage unit 413 A process of matching the image with the feature points of the projection plane read in real time is performed. As a result, it is possible to project an image that is edited into a projection image that matches the characteristics of the projection surface and that does not appear to be strange.

<本実施形態における情報処理>
本実施形態のマルチプロジェクションシステムには3つの処理がある。3つの処理とは、第1に投影面特徴点検知処理(図10)、第2に投影画像編集・送信処理(図11)、第3に受信画像投影処理(図12)である。以下、この3つの処理について説明する。第1の投影面特徴点検知処理について、図10のフローチャートを用いて説明する。第1の投影面特徴点検知処理は、投影する面の特徴点を検知する処理である。
<Information processing in this embodiment>
There are three processes in the multi-projection system of this embodiment. The three processes are a projection plane feature point detection process (FIG. 10), a projection image editing / transmission process (FIG. 11), and a reception image projection process (FIG. 12). Hereinafter, these three processes will be described. The first projection plane feature point detection process will be described with reference to the flowchart of FIG. The first projection surface feature point detection process is a process of detecting a feature point of the surface to be projected.

(フロー1000)
まず画像投影部128より投影面全面に白画像を投影する。白画像を投影面全面に投影することにより、投影フレーム領域を認識すると共に、投影面の細かい模様を飛ばす効果がある。
(Flow 1000)
First, the image projection unit 128 projects a white image on the entire projection surface. Projecting a white image on the entire projection surface has an effect of recognizing a projection frame region and skipping a fine pattern on the projection surface.

(フロー1001)
この白画像を投影面全面に投影した状態で、画像撮像部415で全面白画像となっている領域を画像撮像部415により撮像する。本フローにより読み取った画像の一例を図5(1)に示す。図5(1)は、マルチプロジェクションシステムで使用する複数台のプロジェクタの内、1台のプロジェクタから撮像した画像である。(他のプロジェクタの撮像画像は省略する)。白画像を投影しているものの投影面が前記例えば図2(2)のような建造物の壁面であった場合、壁面の窓枠、柱、継ぎ目等の画像が撮像される。
(Flow 1001)
In a state where the white image is projected on the entire projection surface, the image capturing unit 415 captures an area that is the entire white image by the image capturing unit 415. An example of an image read by this flow is shown in FIG. FIG. 5A is an image captured from one projector among a plurality of projectors used in the multi-projection system. (Images taken by other projectors are omitted). When the projection surface of a white image is projected, for example, on the wall surface of a building as shown in FIG. 2B, images of the window frame, pillars, seams, etc. on the wall surface are captured.

(フロー1002)
次に撮像画像2値化部417により画像撮像部415で撮像した投影面の画像の2値化処理を行う。この2値化により、画像撮像部415で撮像した画像の濃淡が無くなり、白黒画像にすることができる。又、比較的濃度の淡い画像部が2値化時のスレッシュホールドレベルの調整で白画像に飛ばすことができる。この2値化スレッシュホールドレベルは、より良い2値化画像とするために撮影者が目視しながら設定することも可能である。2値化された画像の一例を図5(2)に示す。
(Flow 1002)
Next, the captured image binarization unit 417 performs binarization processing on the image of the projection plane imaged by the image imaging unit 415. By this binarization, the density of the image captured by the image capturing unit 415 is eliminated, and a black and white image can be obtained. Further, an image portion having a relatively low density can be skipped to a white image by adjusting a threshold level at the time of binarization. This binarized threshold level can also be set while the photographer is viewing in order to obtain a better binarized image. An example of the binarized image is shown in FIG.

(フロー1003)
次に撮像画像細線化部418により画像撮像部この2値化された投影面の画像の細線化を行う。この細線化により、ある幅を持った線分画像の中心ラインを検知し、幅1ピクセルの線分にする。この細線化の一例を図5(3)に示す。
(Flow 1003)
Next, the imaged image thinning unit 418 thins the image of the binarized projection plane. By this thinning, the center line of the line segment image having a certain width is detected, and the line segment is 1 pixel wide. An example of this thinning is shown in FIG.

(フロー1004)
次に撮像画像ベクトル化部419により細線化された画像を線分の集合体と捉え、その線分の両端を投影面の左下を基準点(0、0)とする相対アドレス(x、y)で示す。図5(4)で示すように線分の両端のアドレスを求める。左下隅のアドレス9が基準点となる。
(Flow 1004)
Next, the image thinned by the captured image vectorization unit 419 is regarded as an assembly of line segments, and relative addresses (x, y) with both ends of the line segments as reference points (0, 0) at the lower left of the projection plane It shows with. As shown in FIG. 5 (4), addresses at both ends of the line segment are obtained. The address 9 in the lower left corner is the reference point.

(フロー1005)
次に撮像画像特徴点抽出部420により、撮像画像ベクトル化部419で特定した線分のベクトルデータ(アドレス)から線分と線分の交点を検知、及び投影フレームと線分の交点を検知する。これらの線分と線分の交点、及び投影フレームと線分の交点を投影面の撮像画像特徴点とする。図5(5)で示すように線分と線分の交点、及び投影フレームと線分の交点が特徴点となる。
(Flow 1005)
Next, the captured image feature point extraction unit 420 detects the intersection of the line segment and the line segment from the vector data (address) of the line segment specified by the captured image vectorization unit 419, and detects the intersection of the projection frame and the line segment. . The intersections of these line segments and line segments, and the intersections of the projection frame and line segments are taken as the captured image feature points on the projection plane. As shown in FIG. 5 (5), the intersection between the line segment and the line segment, and the intersection point between the projection frame and the line segment are feature points.

(フロー1006)
次に撮像画像特徴点情報1格納部413により、撮像画像特徴点抽出部420で検知した撮像画像特徴点を格納する。メモリに格納しておき、第3の受信画像投影処理において特徴点を読み出したいタイミングでこの撮像画像特徴点情報1格納部413から特徴点を読み出し利用する。
(Flow 1006)
Next, the captured image feature point information 1 storage unit 413 stores the captured image feature point detected by the captured image feature point extraction unit 420. The feature points are stored in the memory, and the feature points are read from the captured image feature point information 1 storage unit 413 and used at the timing when the feature points are desired to be read in the third received image projection processing.

(フロー1007)
次に撮像画像特徴点情報1送信部414により、撮像画像特徴点情報1格納部413に格納されている投影面の撮像画像特徴点情報をPC100側に送信する。PC100では、このデータ送信により投影面の撮像画像特徴点情報を使用して画像編集処理を行う。
(Flow 1007)
Next, the captured image feature point information 1 transmission unit 414 transmits the captured image feature point information of the projection plane stored in the captured image feature point information 1 storage unit 413 to the PC 100 side. The PC 100 performs image editing processing using the captured image feature point information of the projection plane by this data transmission.

ここまでのフローは、プロジェクタから実際に画像データを投影する前の準備段階である。ここまでのフローでプロジェクタで投影面である建造物の壁面の模様の特徴点を検知し、その特徴点を接続しているPCに送信することができる。次にこの特徴点を受信するPC側のフローについて図11のフローチャートを用いて説明する。処理としては、第2の投影画像編集・送信処理である。   The flow up to this point is a preparation stage before actually projecting image data from the projector. With the flow so far, the feature point of the pattern on the wall surface of the building that is the projection surface can be detected by the projector, and the feature point can be transmitted to the connected PC. Next, the flow on the PC side that receives this feature point will be described with reference to the flowchart of FIG. The processing is second projection image editing / transmission processing.

(フロー1100)
マルチプロジェクションシステムで投影する画像ファイルを編集するためにHDD110から元画像ファイルを読み込む。但し、画像ファイルを新規作成の場合は、HDD110から読み込まず最初から作成する。この読み込んだファイル、或いは作成したファイルは、フレームメモリ104に展開される。
(Flow 1100)
An original image file is read from the HDD 110 to edit an image file to be projected by the multi-projection system. However, when a new image file is created, it is created from the beginning without being read from the HDD 110. This read file or created file is expanded in the frame memory 104.

(フロー1101)
次に撮像画像特徴点情報1格納部403に格納されているプロジェクタ側から送信されてきた投影面の特徴点情報を特徴点設定部400に読み出す。
(Flow 1101)
Next, the feature point information of the projection plane transmitted from the projector side stored in the captured image feature point information 1 storage unit 403 is read out to the feature point setting unit 400.

(フロー1102)
次に特徴点設定部400は、フレームメモリに展開されている画像データに、読み出した特徴点情報1(特徴点のアドレス)を基にその特徴点を合成表示する(実際の画像データに合成するわけではない。表示上合成するという意味である)。図5(6)がHDD110から読み込んだ画像ファイルとそれに合成表示した特徴点の一例である。(○が特徴点である)。
(Flow 1102)
Next, the feature point setting unit 400 synthesizes and displays the feature point on the image data developed in the frame memory based on the read feature point information 1 (feature point address) (synthesizes to the actual image data). It does n’t mean it ’s composed on the display). FIG. 5 (6) is an example of an image file read from the HDD 110 and feature points synthesized and displayed thereon. (○ is a feature point).

(フロー1103)
次に読み込んだ画像ファイルをそれに合成表示された特徴点に基づいて編集する。読み込んだ画像は特徴点に無関係に描画されているが、この合成表示された特徴点に基づいて編集することで、特徴点に画像の重要な部分が重ならないように編集することが可能である。画像の重要な部分が特徴点に重なっているということはプロジェクタにて画像投影後、投影面の模様と画像の重要な部分が重なってしまうことになる。
(Flow 1103)
Next, the read image file is edited based on the feature points synthesized and displayed on it. The read image is drawn regardless of the feature points, but by editing based on the synthesized and displayed feature points, it is possible to edit the feature points so that important parts of the image do not overlap. . The fact that the important part of the image overlaps the feature point means that after the image is projected by the projector, the pattern on the projection surface and the important part of the image overlap.

(フロー1104)
編集が一通り終わると次に、プロジェクタにて画像投影するために編集画像を表示合成されている特徴点情報と共にプロジェクタ側へ送信する。画像圧縮処理された画像データとそのヘッダ情報に特徴点を書き込むことで画像データと特徴点を関連付けることができる。図6が画像ファイルフォーマットの一例である。SOF:StartOfFile、SOH:StartOfHeader、HD:HeaderData、EOH:EndOfHeader、SOD:StartOfData、Data:画像データ、EOD:EndOfData、EOF:EndOfFileで構成されたファイルフォーマットである。この中のHD部分に画像データと関連付けられた特徴点情報(特徴点のアドレス)が格納されている。
(Flow 1104)
When the editing is completed, the edited image is transmitted to the projector side together with the feature point information that is displayed and synthesized in order to project the image by the projector. The image data and the feature point can be associated by writing the feature point in the image data subjected to the image compression process and the header information thereof. FIG. 6 shows an example of the image file format. SOF: StartOfFile, SOH: StartOfHeader, HD: HeaderData, EOH: EndOfHeader, SOD: StartOfData, Data: Image data, EOD: EndOfData, EOF: EndOfFile format. In the HD portion, feature point information (feature point address) associated with image data is stored.

ここでのフローは、投影面の特徴点を意識しながら画像編集した画像データをその特徴点情報と関連付けた状態で、画像投影のためにプロジェクタ側に送信するまでのフローである。次にこの画像ファイルを受信するプロジェクタ側のフローについて図12のフローチャートを用いて説明する。処理としては、第3の受信画像投影処理である。   The flow here is a flow from transmitting image data to the projector side for image projection in a state in which the image data edited while being aware of the feature points on the projection plane is associated with the feature point information. Next, the flow on the projector side that receives this image file will be described with reference to the flowchart of FIG. The process is a third received image projection process.

(フロー1200)
画像投影部128より投影面全面に白画像を投影する。白画像を投影面全面に投影することにより、投影フレーム領域を認識すると共に、投影面の細かい模様を飛ばす効果がある。
(Flow 1200)
The image projection unit 128 projects a white image on the entire projection surface. Projecting a white image on the entire projection surface has an effect of recognizing a projection frame region and skipping a fine pattern on the projection surface.

(フロー1201)
この白画像を投影面全面に投影した状態で、画像撮像部415で全面白画像となっている領域を画像撮像部415により撮像する。本フローにより読み取った画像の一例を図5(1)に示す。図5(1)は、マルチプロジェクションシステムで使用する複数台のプロジェクタの内、1台のプロジェクタから撮像した画像である。(他のプロジェクタの撮像画像は省略する)。白画像を投影しているものの投影面が前記例えば図2(2)のような建造物の壁面であった場合、壁面の窓枠、柱、継ぎ目等の画像が撮像される。
(Flow 1201)
In a state where the white image is projected on the entire projection surface, the image capturing unit 415 captures an area that is the entire white image by the image capturing unit 415. An example of an image read by this flow is shown in FIG. FIG. 5A is an image captured from one projector among a plurality of projectors used in the multi-projection system. (Images taken by other projectors are omitted). When the projection surface of a white image is projected, for example, on the wall surface of a building as shown in FIG. 2B, images of the window frame, pillars, seams, etc. on the wall surface are captured.

(フロー1202)
次に撮像画像2値化部417により画像撮像部415で撮像した投影面の画像の2値化処理を行う。この2値化により、画像撮像部415で撮像した画像の濃淡が無くなり、白黒画像にすることができる。又、比較的濃度の淡い画像部が2値化時のスレッシュホールドレベルの調整で白画像に飛ばすことができる。この2値化スレッシュホールドレベルは、より良い2値化画像とするために撮影者が目視しながら設定することも可能である。2値化された画像の一例を図5(2)に示す。
(Flow 1202)
Next, the captured image binarization unit 417 performs binarization processing on the image of the projection plane imaged by the image imaging unit 415. By this binarization, the density of the image captured by the image capturing unit 415 is eliminated, and a black and white image can be obtained. Further, an image portion having a relatively low density can be skipped to a white image by adjusting a threshold level at the time of binarization. This binarized threshold level can also be set while the photographer is viewing in order to obtain a better binarized image. An example of the binarized image is shown in FIG.

(フロー1203)
次に撮像画像細線化部418により画像撮像部この2値化された投影面の画像の細線化を行う。この細線化により、ある幅を持った線分画像の中心ラインを検知し、幅1ピクセルの線分にする。この細線化の一例を図5(3)に示す。
(Flow 1203)
Next, the imaged image thinning unit 418 thins the image of the binarized projection plane. By this thinning, the center line of the line segment image having a certain width is detected, and the line segment is 1 pixel wide. An example of this thinning is shown in FIG.

(フロー1204)
次に撮像画像ベクトル化部419により細線化された画像を線分の集合体と捉え、その線分の両端を投影面の左下を基準点(0、0)とする相対アドレス(x、y)で示す。図5(4)で示すように線分の両端のアドレスを求める。左下隅のアドレス9が基準点となる。
(Flow 1204)
Next, the image thinned by the captured image vectorization unit 419 is regarded as an assembly of line segments, and relative addresses (x, y) with both ends of the line segments as reference points (0, 0) at the lower left of the projection plane It shows with. As shown in FIG. 5 (4), addresses at both ends of the line segment are obtained. The address 9 in the lower left corner is the reference point.

(フロー1205)
次に撮像画像特徴点抽出部420により、撮像画像ベクトル化部419で特定した線分のベクトルデータ(アドレス)から線分と線分の交点を検知、及び投影フレームと線分の交点を検知する。これらの線分と線分の交点、及び投影フレームと線分の交点を投影面の撮像画像特徴点とする。図5(5)で示すように線分と線分の交点、及び投影フレームと線分の交点が特徴点となる。
(Flow 1205)
Next, the captured image feature point extraction unit 420 detects the intersection of the line segment and the line segment from the vector data (address) of the line segment specified by the captured image vectorization unit 419, and detects the intersection of the projection frame and the line segment. . The intersections of these line segments and line segments, and the intersections of the projection frame and line segments are taken as the captured image feature points on the projection plane. As shown in FIG. 5 (5), the intersection between the line segment and the line segment, and the intersection point between the projection frame and the line segment are feature points.

(フロー1206)
特徴点を順次読み出し、検知した特徴点が残っていればフロー1207へ、残っていなければフロー1210の処理を行う。
(Flow 1206)
The feature points are sequentially read, and if the detected feature points remain, the process proceeds to flow 1207, and if not, the process of flow 1210 is performed.

(フロー1207)
次にフロー1205までで再度抽出した投影面の特徴点情報1と、第2の投影画像編集・送信処理のフロー1104でPC側からプロジェクタ側へ送信されてきた特徴点情報2とを比較し、その差分情報を求める。
(Flow 1207)
Next, the feature point information 1 of the projection surface extracted again up to the flow 1205 is compared with the feature point information 2 transmitted from the PC side to the projector side in the flow 1104 of the second projection image editing / transmission process. Find the difference information.

(フロー1208)
その結果、それらに予め規定された値以上の差分無かった場合と予め規定されて値以上の差分があった場合を判断し、その判断結果に基づいて後段処理を切り替える。規定以上の差分が無かった場合はフロー1209を実施し、規定以上の差分があった場合にはフロー1206を実施する。
(Flow 1208)
As a result, it is determined whether or not there is a difference greater than or equal to a value defined in advance, and when there is a difference greater than or equal to a value defined in advance, and the subsequent process is switched based on the determination result. When there is no difference greater than the standard, the flow 1209 is performed, and when there is a difference greater than the standard, the flow 1206 is performed.

(フロー1209)
フロー1208で、規定以上の差分が無かった場合の処理である。規定以上の差分が無いということで、フロー1205までで再度抽出した投影面の特徴点と、第2の投影画像編集・送信処理のフロー1104でPC側からプロジェクタ側へ送信されてきた特徴点が、予め規定された物理的な距離よりも近い関係にあり、フロー1205までで再度抽出した投影面の特徴点に、第2の投影画像編集・送信処理のフロー1104でPC側からプロジェクタ側へ送信されてきた特徴点を重ね合わせるように画像編集を行う。具体的には、画像領域の吸着処理を実施する。吸着処理については後段にて説明する。
(Flow 1209)
This is a process when there is no difference greater than or equal to the specified value in the flow 1208. Since there is no difference greater than the standard, the feature points of the projection plane extracted again up to the flow 1205 and the feature points transmitted from the PC side to the projector side in the flow 1104 of the second projection image editing / transmission process are shown. , Which is closer than a predetermined physical distance, and is transmitted from the PC side to the projector side in the flow 1104 of the second projection image editing / transmission process to the feature points of the projection plane extracted again up to the flow 1205 Image editing is performed so as to superimpose the feature points. Specifically, an image area suction process is performed. The adsorption process will be described later.

(フロー1210)
フロー1206にて、全ての特徴点の処理処理が終わるとフロー1210の処理を実施する。フロー1210は前段にて特徴点の吸着処理を実施された投影画像を画像投影部128からスクリーンへ投影する。
(Flow 1210)
When the processing for all the feature points is completed in the flow 1206, the processing of the flow 1210 is performed. A flow 1210 projects the projection image on which the feature point suction processing has been performed in the previous stage from the image projection unit 128 onto the screen.

<吸着処理>
次に画像の吸着処理について説明する。本実施形態では、ある領域にある画像をはめ込む処理を吸着処理と呼んでいる。図7(1)に示すような、ある領域a、b、c、dに、ある画像e、f、g、hをはめ込む処理である。但し、点aと点eの関係で示すように吸着すべき点aから点eの距離がL以下であった場合、吸着し、それ以上であった場合は吸着しないような処理としている。点bと点f、点cと点g、点dと点hも同様の処理を行う。領域a、b、c、dに画像e、f、g、hを吸着した結果が図7(2)である。
<Adsorption treatment>
Next, image adsorption processing will be described. In the present embodiment, processing for fitting an image in a certain area is called adsorption processing. As shown in FIG. 7 (1), this is a process of fitting certain images e, f, g, and h into certain regions a, b, c, and d. However, as shown by the relationship between the point a and the point e, the processing is performed so as to attract when the distance from the point a to the point e is L or less, and not when it is more than that. Similar processing is performed for point b and point f, point c and point g, and point d and point h. FIG. 7B shows the result of adsorbing the images e, f, g, and h in the areas a, b, c, and d.

この吸着処理を行うためのブロック図を図8に示す。特徴点演算部801は、前記画像データに関連付けてPC側から送られてくる画像データの特徴点と、実際に撮像手段で撮像された投影面の画像を画像処理で検出した特徴点との差分を演算し検知する手段である。この特徴点演算部801で検知されたそれぞれの特徴点の差分情報から図8で示すような主走査縮小/拡大処理、副走査縮小/拡大処理、画像移動処理を行う。   A block diagram for performing this adsorption processing is shown in FIG. The feature point calculation unit 801 is the difference between the feature point of the image data transmitted from the PC side in association with the image data and the feature point detected by image processing on the image of the projection plane actually captured by the imaging unit. Is a means for calculating and detecting. A main scanning reduction / enlargement process, a sub-scanning reduction / enlargement process, and an image movement process as shown in FIG. 8 are performed from the difference information of each feature point detected by the feature point calculation unit 801.

主走査縮小/拡大処理802は、図9(1)に示すようにはめ込む領域の主走査の長さ(点b−点a)と画像の主走査の長さ(点f−点e)の差分から画像の主走査方向の変倍率を演算し、その変倍率に応じて画像の主走査方向の縮小/拡大処理を行う(変倍率が1未満であれば縮小処理、1以上であれば拡大処理を行う)。   In the main scanning reduction / enlargement processing 802, as shown in FIG. 9A, the difference between the main scanning length (point b-point a) and the main scanning length of the image (point f-point e) is shown. Is used to calculate a scaling factor in the main scanning direction of the image, and performs reduction / enlargement processing in the main scanning direction of the image according to the scaling factor (reduction processing if the scaling factor is less than 1, enlargement processing if the scaling factor is 1 or more) I do).

副走査縮小/拡大処理803は、図9(2)に示すようにはめ込む領域の副走査の長さ(点c−点a)と画像の主走査の長さ(点g−点e)の差分から画像の副走査方向の変倍率を演算し、その変倍率に応じて画像の副走査方向の縮小/拡大処理を行う。本例の場合、画像領域を矩形としているため、点b−点aの値と点d−点cの値は同じであるので、どちらかの演算をすれば良い。   In the sub-scanning reduction / enlargement processing 803, as shown in FIG. 9B, the difference between the sub-scanning length (point c-point a) and the main scanning length (point g-point e) of the image to be inserted. Then, a scaling factor in the sub-scanning direction of the image is calculated, and reduction / enlargement processing in the sub-scanning direction of the image is performed according to the scaling factor. In this example, since the image area is rectangular, the value of point b-point a and the value of point d-point c are the same, so either calculation may be performed.

画像移動処理804は、主走査縮小/拡大処理と副走査縮小/拡大処理後のはめ込む領域と画像のサイズが等しくなった画像の位置を合わせるために、図9(3)で示すように、点aと点e、点bと点f、点cと点g、点dと点hが重なるように画像をはめ込む領域へ移動する。   As shown in FIG. 9 (3), the image moving process 804 is performed in order to align the inlaid area after the main scanning reduction / enlargement process and the sub-scanning reduction / enlargement process with the position of the image having the same image size. Move to the area where the image is to be fitted so that point a and point e, point b and point f, point c and point g, point d and point h overlap.

このような処理によって、屋外のビルディングのような建造物の壁面に画像を投影する場合においても、窓枠、柱とか継ぎ目といった各種部位の形を示すライン状の模様を予め検知し、それを壁面である投影面の特徴点情報に変換することができ、投影すべき画像を作成、編集する際に、その特徴点情報を画像編集画面に合成表示し、投影面である建造物の壁面の窓枠、柱とか継ぎ目といった各種部位の形を示すライン状の模様を意識して画像作成、編集を行うことができる。   Even when an image is projected onto the wall surface of a building such as an outdoor building by such processing, a line pattern indicating the shape of various parts such as a window frame, a pillar, or a joint is detected in advance, and this is detected on the wall surface. When creating and editing an image to be projected, the feature point information can be synthesized and displayed on the image editing screen, and the window on the wall of the building as the projection plane It is possible to create and edit an image while conscious of a line pattern indicating the shape of various parts such as a frame, a column, and a joint.

さらにその壁面の特徴点情報は画像ファイルと関連付けて格納することができ、プロジェクタ投影現場で複数のプロジェクタのそれぞれの位置が変わったとしても、再度新たに読み込んだ投影面の特徴点情報と画像ファイルに関連付けて格納されている特徴点情報との差分を検知し補正し、建造物の壁面の窓枠、柱とか継ぎ目といった各種部位の形を示すライン状の模様に投影画像をはめ込むことがができる。   Furthermore, the feature point information of the wall surface can be stored in association with the image file. Even if the position of each of the plurality of projectors changes at the projector projection site, the feature point information and image file of the newly read projection surface are read again. Detects and corrects the difference with the feature point information stored in association with the projected image, and can fit the projected image into a line-shaped pattern showing the shape of various parts such as window frames, pillars, and joints on the wall of the building .

<作用及び効果>
上記実施形態の作用と効果について、以下で説明する。
上記実施形態で開示された技術的思想には、大規模な建造物の壁面の窓枠、柱や継ぎ目等の特徴的な模様に、投影する画像を自動的に合わせ込むことができ、非常に見やすい画像を投影することができるという効果がある。すなわち、建造物の模様が投影画像に対する影響度を押さえることが可能になる。
<Action and effect>
The operation and effect of the above embodiment will be described below.
The technical idea disclosed in the above embodiment can automatically fit the projected image into a characteristic pattern such as a window frame, a pillar, or a seam on the wall surface of a large-scale building. There is an effect that an easy-to-see image can be projected. That is, it is possible to suppress the influence of the building pattern on the projected image.

また、撮像手段によって建造物の壁面の状態を読み取る際に、画像投影手段が全面白画像を投影することによって、建造物の壁面のヒビ、しみや汚れ等の細かい模様を露光によって飛ばしてしまうことができるという効果がある。   Also, when reading the state of the wall surface of the building by the image pickup means, the image projection means projects a white image on the entire surface, and thus fine patterns such as cracks, stains and dirt on the wall surface of the building are blown off by exposure. There is an effect that can be.

また、特徴点検出手段が、撮像手段から読み込まれた建造物の壁面模様を線分化手段により線分化し、その複数の線分の交点を特徴点とすることにより、建造物の壁面の窓枠、柱や継ぎ目等の特徴的な模様の特徴を細かく検出することができるという効果がある。   Further, the feature point detection means linearizes the wall pattern of the building read from the imaging means by the line segmentation means, and uses the intersection of the plurality of line segments as a feature point, thereby making the window frame of the wall surface of the building There is an effect that it is possible to finely detect characteristic features such as pillars and joints.

また、第1の編集手段が、編集している画像に第1の特徴点を合成表示うる特徴点合成表示手段を備え、その特徴点に基づいて画像を編集することができることにより、特徴点を目視しながら画像を編集することができ、非常に編集作業を簡単化することができるという効果がある。   In addition, the first editing means includes feature point synthesis display means for synthesizing and displaying the first feature point on the image being edited, and the image can be edited based on the feature point. The image can be edited while being visually observed, and the editing work can be greatly simplified.

また、特徴点比較手段が、画像ファイルの画像フレーム内の相対アドレスで示された第1の特徴点と、その画像ファイルを画像投影する際に前記撮像手段により読み込まれ特徴点検出手段により検出された投影面内の相対アドレスで示された第2の特徴点を比較することにより、投影面にマッチした投影画像に編集加工することができるという効果がある。   The feature point comparison means reads the first feature point indicated by the relative address in the image frame of the image file and the image point when the image file is projected and is detected by the feature point detection means. By comparing the second feature points indicated by the relative addresses in the projection plane, it is possible to edit the projection image that matches the projection plane.

また、第2の編集手段が、ある特定の画像領域を縮小処理できる画像縮小手段、拡大処理できる画像拡大手段、移動処理できる画像移動手段を備え、前記特徴点比較手段により、第1の特徴点と第2の特徴点の距離が予め規定された長さよりも短い場合に、第1の特徴点が第2の特徴点に重なるように画像データを縮小処理、拡大処理、或いは移動処理することができることにより、一番近い特徴点同士を正確に重ね合わせることができるという効果がある。   The second editing means includes an image reduction means capable of reducing a specific image area, an image enlargement means capable of enlargement processing, and an image moving means capable of movement processing. The first feature point is obtained by the feature point comparison means. When the distance between the first feature point and the second feature point is shorter than a predetermined length, the image data may be reduced, enlarged, or moved so that the first feature point overlaps the second feature point. By doing so, there is an effect that the closest feature points can be accurately superimposed.

104 フレームメモリ
105 画像編集部
128 画像投影部
400 特徴点設定部
403 撮像画像特徴点情報1格納部(PC側)
411 画像データ吸着部
413 撮像画像特徴点情報1格納部(プロジェクタ側)
420 撮像画像特徴点抽出部
422 特徴点情報比較部
801 特徴点差分演算部
802 主走査縮小/拡大処理
803 副走査縮小/拡大処理
804 画像移動処理
104 frame memory 105 image editing unit 128 image projecting unit 400 feature point setting unit 403 captured image feature point information 1 storage unit (PC side)
411 Image data adsorption unit 413 Captured image feature point information 1 storage unit (projector side)
420 Captured Image Feature Point Extraction Unit 422 Feature Point Information Comparison Unit 801 Feature Point Difference Calculation Unit 802 Main Scanning Reduction / Enlargement Processing 803 Subscanning Reduction / Enlargement Processing 804 Image Movement Processing

特許第4637845号公報Japanese Patent No. 4637845

Claims (7)

建造物の壁面の状態を読み取る撮像手段と、
読み取った壁面画像からその画像の第1の特徴点を検出する特徴点検出手段と、
前記第1の特徴点に基づいて画像を編集する第1の画像編集手段と、
画像編集した画像と前記第1の特徴点を関連付けて格納する特徴点格納手段と、
画像に関連付けて格納されている第1の特徴点と、再度前記撮像手段で読み取り、前記特徴点検出手段で検出した第2の特徴点の位置を比較する特徴点比較手段と、
投影しようとする画像の第1の特徴点が再度検出した第2の特徴点に重なるように画像を自動的に編集する第2の画像編集手段と、
建造物の壁面に編集された画像を投影する画像投影手段と、
を備えたことを特徴とするプロジェクションシステム。
Imaging means for reading the state of the wall surface of the building;
Feature point detecting means for detecting a first feature point of the image from the read wall surface image;
First image editing means for editing an image based on the first feature point;
Feature point storage means for storing the image edited image and the first feature point in association with each other;
A first feature point stored in association with an image and a feature point comparison unit that compares the position of the second feature point read by the imaging unit and detected by the feature point detection unit;
Second image editing means for automatically editing the image so that the first feature point of the image to be projected overlaps the second feature point detected again;
Image projection means for projecting the edited image on the wall of the building;
A projection system characterized by comprising:
前記画像投影手段は、前記撮像手段によって建造物の壁面の状態を読み取る際に、全面白画像を投影することを特徴とする請求項1に記載のプロジェクションシステム。   The projection system according to claim 1, wherein the image projecting unit projects a white image on the entire surface when the imaging unit reads the state of the wall surface of the building. 前記特徴点検出手段は、前記撮像手段から読み込まれた建造物の壁面模様を線分化手段により線分化し、その複数の線分の交点を特徴点とすることを特徴とする請求項1又は2に記載のプロジェクションシステム。   3. The feature point detecting means, wherein the wall surface pattern of the building read from the imaging means is line-divided by a line dividing means, and an intersection of the plurality of line segments is used as a feature point. The projection system described in 1. 前記第1の画像編集手段は、編集している画像に前記第1の特徴点を合成表示する特徴点合成表示手段を備え、その特徴点に基づいて画像を編集することができることを特徴とする請求項1から3のいずれか1項に記載のプロジェクションシステム。   The first image editing means includes feature point synthesis display means for synthesizing and displaying the first feature point on the image being edited, and the image can be edited based on the feature point. The projection system according to any one of claims 1 to 3. 前記特徴点比較手段は、画像ファイルの画像フレーム内の相対アドレスで示された第1の特徴点と、その画像ファイルを画像投影する際に前記撮像手段により読み込まれ前記特徴点検出手段により検出された投影面内の相対アドレスで示された第2の特徴点とを比較することを特徴とする請求項1から4のいずれか1項に記載のプロジェクションシステム。   The feature point comparison unit reads the first feature point indicated by the relative address in the image frame of the image file and the image point when the image file is projected and is detected by the feature point detection unit. 5. The projection system according to claim 1, wherein the second feature point indicated by the relative address in the projection plane is compared. 6. 前記第2の画像編集手段は、ある特定の画像領域を縮小処理する画像縮小手段と、拡大処理する画像拡大手段と、移動処理する画像移動手段とを備え、第1の特徴点と第2の特徴点の距離が予め規定された長さよりも短いと判断される場合に、第1の特徴点が第2の特徴点に重なるように画像データを縮小処理、拡大処理、或いは移動処理することを特徴とする請求項1から5のいずれか1項に記載のプロジェクションシステム。   The second image editing means includes an image reduction means for reducing a specific image area, an image enlargement means for enlargement processing, and an image movement means for movement processing, and includes a first feature point and a second feature point. When it is determined that the distance between the feature points is shorter than a predetermined length, the image data is reduced, enlarged, or moved so that the first feature points overlap the second feature points. The projection system according to claim 1, wherein the projection system is characterized in that: 建造物の壁面の状態を読み取る撮像ステップと、
読み取った壁面画像からその画像の第1の特徴点を検出する特徴点検出ステップと、
前記第1の特徴点に基づいて画像を編集する第1の画像編集ステップと、
画像編集した画像と前記第1の特徴点を関連付けて格納する特徴点格納ステップと、
画像に関連付けて格納されている第1の特徴点と、再度前記撮像ステップで読み取り、前記特徴点検出ステップで検出した第2の特徴点の位置を比較する特徴点比較ステップと、
投影しようとする画像の第1の特徴点が再度検出した第2の特徴点に重なるように画像を自動的に編集する第2の画像編集ステップと、
建造物の壁面に編集された画像を投影する画像投影ステップと、
を含むことを特徴とするプロジェクション方法。
An imaging step for reading the state of the wall of the building;
A feature point detecting step of detecting a first feature point of the image from the read wall surface image;
A first image editing step of editing an image based on the first feature point;
A feature point storing step of storing the image edited image and the first feature point in association with each other;
A first feature point stored in association with an image, and a feature point comparison step that compares the position of the second feature point read in the imaging step and detected in the feature point detection step;
A second image editing step of automatically editing the image so that the first feature point of the image to be projected overlaps the second feature point detected again;
An image projection step of projecting the edited image on the wall of the building;
A projection method comprising:
JP2013210024A 2013-10-07 2013-10-07 Projection system and method Pending JP2015076657A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013210024A JP2015076657A (en) 2013-10-07 2013-10-07 Projection system and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013210024A JP2015076657A (en) 2013-10-07 2013-10-07 Projection system and method

Publications (1)

Publication Number Publication Date
JP2015076657A true JP2015076657A (en) 2015-04-20

Family

ID=53001231

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013210024A Pending JP2015076657A (en) 2013-10-07 2013-10-07 Projection system and method

Country Status (1)

Country Link
JP (1) JP2015076657A (en)

Similar Documents

Publication Publication Date Title
US8003927B2 (en) Image projection apparatus which projects an image corrected according to a projection surface
US7412113B2 (en) Captured image projection apparatus and captured image correction method
KR100656780B1 (en) Display image generation equipment having the resolution conversion function, an image pick-up and projection device, an image pick-up and projection system, the related image generation method and the recording medium for recording the related program
JP4341629B2 (en) Imaging apparatus, image processing method, and program
KR101899877B1 (en) Apparatus and method for improving quality of enlarged image
US10585344B1 (en) Camera system with a plurality of image sensors
JP2012242821A (en) Display image generation method
US20070223909A1 (en) Camera phone, method of controlling the camera phone, and photography support method used for the camera phone
US9521383B2 (en) Image processing apparatus, projector, and image processing method
WO2014036741A1 (en) Image processing method and image processing device
JP2002057879A (en) Apparatus and method for image processing, and computer readable recording medium
JP4735166B2 (en) Image display apparatus and program
JP2007266694A (en) Image processing apparatus, and program
JP2018125819A (en) Control device, control method, program, and storage medium
JP5987557B2 (en) Image display device
JP2004239967A (en) Projector
JP6399764B2 (en) Projection apparatus, image processing apparatus, control method therefor, and program
JP2015076657A (en) Projection system and method
JP2012220709A (en) Projection type image display apparatus and control method for the same
JP2005303941A (en) Correction reference designation device and correction reference designation method
JP5656496B2 (en) Display device and display method
WO2021077279A1 (en) Image processing method and device, and imaging system and storage medium
JP2011041041A (en) Imaging apparatus, imaging method and program
JP2020191589A (en) Projection device, projection method, program, and storage medium
JP2020053710A (en) Information processing apparatus, projection device, control method of projection device, and program