JP2014107572A - Image data processing device and image data processing program - Google Patents

Image data processing device and image data processing program Download PDF

Info

Publication number
JP2014107572A
JP2014107572A JP2012256450A JP2012256450A JP2014107572A JP 2014107572 A JP2014107572 A JP 2014107572A JP 2012256450 A JP2012256450 A JP 2012256450A JP 2012256450 A JP2012256450 A JP 2012256450A JP 2014107572 A JP2014107572 A JP 2014107572A
Authority
JP
Japan
Prior art keywords
projection
description
image data
reference position
range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012256450A
Other languages
Japanese (ja)
Inventor
Masaru Matsubara
優 松原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2012256450A priority Critical patent/JP2014107572A/en
Publication of JP2014107572A publication Critical patent/JP2014107572A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Projection Apparatus (AREA)
  • Processing Or Creating Images (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

PROBLEM TO BE SOLVED: To synthesize a projection image and a comment and the like without allowing deterioration in the legibility of the synthesized image.SOLUTION: In the state of defining a specific position of a projection image 50 projected to a projected body as a first projection reference position 56, a specific position of a description image 70 described on the projected body, the position existing in the projection image, as first description reference positions 74,76, a position equivalent to the first projection reference position in a synthesized image 80 as a second projection reference position 52, and a position equivalent to the first description reference position in the synthesized image as a second description reference position 62, the projection image is synthesized with a description image in a state where: a relative position of the second description reference position to the second projection reference position is the same as a relative position of the first description reference position to the first projection reference position; or a relative position of the second description reference position to the first description reference position can be recognized. This enables appropriate synthesis of a projection image with a description image without allowing deterioration in legibility of the synthesized image.

Description

本発明は、画像データを処理するための画像データ処理装置および画像データ処理プログラムに関する。   The present invention relates to an image data processing apparatus and an image data processing program for processing image data.

会議,プレゼンテーション等では、一般的にホワイトボード等の被投影体にプロジェクタを用いて画像を投影し、投影される画像を参照しながら、説明等が行われる。この際、ホワイトボードには、投影された画像に対してコメント等が記載される。このため、ホワイトボードに記載されたコメント等の内容を反映した資料を作成するべく、ホワイトボードに投影された画像と、ホワイトボードに記載されたコメント等との合成が望まれる。このため、下記特許文献に記載の画像データ処理装置では、カメラによりコメント等の記載を撮像し、その記載画像のデータと被投影体に投影された投影画像に対応するデータとを合成するための処理が行われている。   In meetings, presentations, etc., an image is generally projected onto a projection object such as a whiteboard using a projector, and explanations are given while referring to the projected image. At this time, a comment or the like is written on the projected image on the whiteboard. For this reason, in order to create a material reflecting the content of comments and the like written on the whiteboard, it is desired to combine the image projected on the whiteboard and the comments and the like written on the whiteboard. For this reason, in the image data processing device described in the following patent document, a description of a comment or the like is captured by a camera, and the data of the description image and the data corresponding to the projection image projected on the projection object are combined. Processing is in progress.

特開2011−33936号公報JP 2011-33936 A

上記特許文献に記載の画像データ処理装置によれば、ホワイトボードに投影された投影画像と、ホワイトボードに記載されたコメント等との合成を行うことが可能となる。しかしながら、投影画像とコメントとが合成される際に、コメントの投影画像に対する相対的な位置が変更される場合があり、そのような場合には、合成された画像での投影画像とコメントとの位置関係が、ホワイトボード上での投影画像とコメントとの位置関係と異なる。投影画像とコメントとの位置関係の変化は、画像とコメントとの関連性を損なうため、合成された画像による判読性が低下する虞がある。本発明は、そのような事情に鑑みてなされたものであり、合成された画像の判読性を低下させることなく、投影画像とコメント等とを適切に合成することが可能な技術を提供する。   According to the image data processing device described in the above-mentioned patent document, it is possible to synthesize a projected image projected on a whiteboard and a comment or the like written on the whiteboard. However, when the projection image and the comment are combined, the relative position of the comment with respect to the projection image may be changed. In such a case, the projection image and the comment in the combined image may be changed. The positional relationship is different from the positional relationship between the projected image on the whiteboard and the comment. Since the change in the positional relationship between the projected image and the comment impairs the relevance between the image and the comment, the readability of the synthesized image may be reduced. The present invention has been made in view of such circumstances, and provides a technique capable of appropriately combining a projection image and a comment or the like without degrading the legibility of the combined image.

上記課題を解決するために、本発明に記載の画像データ処理装置は、画像データを記憶する画像データ記憶部と、前記画像データ記憶部に記憶された画像データに基づく投影画像を被投影体に投影する画像投影部と、前記投影画像が投影された前記被投影体に記載された記載画像を撮像し、前記記載画像の記載画像データを取得する撮像部と、を備える画像データ処理装置であって、前記撮像部により取得された前記記載画像データに基づいて、前記被投影体内の、前記投影画像が投影されている投影範囲に、前記記載画像が記載されている記載範囲の少なくとも一部が入っていないか否かを判断する判断手段と、前記判断手段によって、前記投影範囲に、前記記載範囲の少なくとも一部が入っていないと判断された場合に、前記投影画像に対応する投影画像データと前記記載画像データとを合成した合成画像データを生成するデータ合成手段と、前記データ合成手段によって合成された前記合成画像データを出力する合成データ出力手段と、を備え、前記被投影体に投影された前記投影画像内の特定の位置を第1投影基準位置と、前記被投影体に記載された前記記載画像内の特定の位置であって、前記被投影体に投影された前記投影画像内に存在する位置を第1記載基準位置と、前記合成画像データに基づく画像での、前記第1投影基準位置に相当する位置を第2投影基準位置と、前記合成画像データに基づく画像での、前記第1記載基準位置に相当する位置を第2記載基準位置と、それぞれ、定義した場合において、前記データ合成手段は、前記第2投影基準位置に対する前記第2記載基準位置の相対的な位置が、前記第1投影基準位置に対する前記第1記載基準位置の相対的な位置と同じとなる状態、若しくは、前記第2記載基準位置の前記第1記載基準位置に対する相対的な位置を認識可能な状態で、前記合成画像データを生成することを特徴とする。   In order to solve the above problems, an image data processing apparatus according to the present invention includes an image data storage unit that stores image data, and a projection image based on the image data stored in the image data storage unit. An image data processing apparatus comprising: an image projecting unit to project; and an image capturing unit that captures a description image described in the projection object onto which the projection image is projected and acquires description image data of the description image. Then, based on the description image data acquired by the imaging unit, at least a part of the description range in which the description image is described in the projection range in the projection target where the projection image is projected. A determination means for determining whether or not the image is not included; and when the determination means determines that the projection range does not include at least a part of the description range, Data combining means for generating combined image data obtained by combining the corresponding projection image data and the described image data, and combined data output means for outputting the combined image data combined by the data combining means, A specific position in the projection image projected onto the projection object is a first projection reference position and a specific position in the description image described on the projection object, and is projected onto the projection object. In addition, a position corresponding to the first projection reference position in the image based on the composite image data is a position that exists in the projection image, a second reference reference position, and the composite image data. In the case where the position corresponding to the first description reference position in the image based on the second description reference position is defined as the second description reference position, the data synthesis means 2. A state where the relative position of the second described reference position is the same as the relative position of the first described reference position with respect to the first projection reference position, or the first described reference position of the second described reference position The composite image data is generated in a state where a relative position with respect to can be recognized.

また、上記課題を解決するために、本発明に記載の画像データ処理プログラムは、画像データを記憶する画像データ記憶部と、前記画像データ記憶部に記憶された画像データに基づく投影画像を被投影体に投影する画像投影部と、前記投影画像が投影された前記被投影体に記載された記載画像を撮像し、前記記載画像の記載画像データを取得する撮像部と、を備える画像データ処理装置のコンピュータが読み取り可能な画像データ処理プログラムであって、前記撮像部により取得された前記記載画像データに基づいて、前記被投影体内の、前記投影画像が投影されている投影範囲に、前記記載画像が記載されている記載範囲の少なくとも一部が入っていないか否かを判断する判断手段と、前記判断手段によって、前記投影範囲に、前記記載範囲の少なくとも一部が入っていないと判断された場合に、前記投影画像に対応する投影画像データと前記記載画像データとを合成した合成画像データを生成するデータ合成手段と、前記データ合成手段によって合成された前記合成画像データを出力する合成データ出力手段と、して前記コンピュータを機能させ、前記被投影体に投影された前記投影画像内の特定の位置を第1投影基準位置と、前記被投影体に記載された前記記載画像内の特定の位置であって、前記被投影体に投影された前記投影画像内に存在する位置を第1記載基準位置と、前記合成画像データに基づく画像での、前記第1投影基準位置に相当する位置を第2投影基準位置と、前記合成画像データに基づく画像での、前記第1記載基準位置に相当する位置を第2記載基準位置と、それぞれ、定義した場合において、前記データ合成手段は、前記第2投影基準位置に対する前記第2記載基準位置の相対的な位置が、前記第1投影基準位置に対する前記第1記載基準位置の相対的な位置と同じとなる状態、若しくは、前記第2記載基準位置の前記第1記載基準位置に対する相対的な位置を認識可能な状態で、前記合成画像データを生成することを特徴とする。   In order to solve the above-described problem, an image data processing program according to the present invention includes an image data storage unit that stores image data, and a projection image based on the image data stored in the image data storage unit. An image data processing apparatus comprising: an image projecting unit that projects onto a body; and an imaging unit that captures a description image described on the projection object onto which the projection image is projected and acquires description image data of the description image The computer-readable image data processing program, wherein the description image is included in a projection range in the projection target in which the projection image is projected based on the description image data acquired by the imaging unit. A determination means for determining whether or not at least a part of the description range described is not included, and the determination means includes the description range in the projection range. When it is determined that at least a part of the data is not included, a data synthesis unit that generates synthesized image data obtained by synthesizing the projection image data corresponding to the projection image and the described image data, and a synthesis by the data synthesis unit A combined data output means for outputting the combined image data, the computer functioning, a specific position in the projection image projected on the projection object as a first projection reference position, and the projection target A specific position in the description image described on the body, and a position existing in the projection image projected on the projection object in the image based on the first description reference position and the composite image data , A position corresponding to the first projection reference position is a second projection reference position, and a position corresponding to the first description reference position in an image based on the composite image data is a second description reference position. In the case where each is defined, the data synthesizing unit is configured such that the relative position of the second described reference position with respect to the second projection reference position is relative to the first projection reference position. The synthesized image data is generated in a state that is the same as the current position, or in a state where the relative position of the second described reference position with respect to the first described reference position can be recognized.

このように構成された画像データ処理装置および画像データ処理プログラムでは、第2投影基準位置に対する第2記載基準位置の相対的な位置が、第1投影基準位置に対する第1記載基準位置の相対的な位置と同じとなる状態で、投影画像データと記載画像データとが合成される。つまり、合成された画像での投影画像の特定の位置と記載画像の特定の位置との位置関係が、被投影体上での投影画像の特定の位置と記載画像の特定の位置との位置関係と同じとなっている。これにより、ホワイトボード上での投影画像と記載画像との位置関係を維持した状態で、投影画像と記載画像とを合成することが可能となる。また、第2記載基準位置の第1記載基準位置に対する相対的な位置を認識可能な状態で、投影画像データと記載画像データとが合成される。つまり、合成された画像において、ホワイトボード上での記載画像の特定の位置と、合成画像での記載画像の特定の位置とを認識することが可能となる。これにより、合成画像において、合成前の記載画像の特定の位置を認識することが可能となる。したがって、本発明の画像データ処理装置および画像データ処理プログラムによれば、合成された画像の判読性を低下させることなく、投影画像と記載画像とを適切に合成することが可能となる。   In the image data processing apparatus and the image data processing program configured as described above, the relative position of the second described reference position with respect to the second projection reference position is the relative position of the first described reference position with respect to the first projection reference position. The projection image data and the description image data are synthesized in the same state as the position. That is, the positional relationship between the specific position of the projection image and the specific position of the description image in the synthesized image is the positional relationship between the specific position of the projection image and the specific position of the description image on the projection object. It is the same. Thereby, it is possible to synthesize the projection image and the description image while maintaining the positional relationship between the projection image and the description image on the whiteboard. Further, the projection image data and the description image data are synthesized in a state where the relative position of the second description reference position to the first description reference position can be recognized. That is, in the synthesized image, it is possible to recognize a specific position of the description image on the whiteboard and a specific position of the description image in the composite image. As a result, it is possible to recognize a specific position of the description image before composition in the composite image. Therefore, according to the image data processing apparatus and the image data processing program of the present invention, it is possible to appropriately synthesize the projected image and the description image without degrading the legibility of the synthesized image.

プロジェクタ10のブロック図である。1 is a block diagram of a projector 10. FIG. プロジェクタ10の動作フローチャートを示す図である。FIG. 4 is a diagram showing an operation flowchart of the projector 10. プロジェクタ10の動作フローチャートを示す図である。FIG. 4 is a diagram showing an operation flowchart of the projector 10. プロジェクタ10の動作フローチャートを示す図である。FIG. 4 is a diagram showing an operation flowchart of the projector 10. プロジェクタ10の動作フローチャートを示す図である。FIG. 4 is a diagram showing an operation flowchart of the projector 10. プロジェクタ10の動作フローチャートを示す図である。FIG. 4 is a diagram showing an operation flowchart of the projector 10. プロジェクタ10の動作フローチャートを示す図である。FIG. 4 is a diagram showing an operation flowchart of the projector 10. プロジェクタ10の動作フローチャートを示す図である。FIG. 3 is a diagram showing an operation flowchart of the projector 10 プロジェクタ10の動作フローチャートを示す図である。FIG. 3 is a diagram showing an operation flowchart of the projector 10 プロジェクタ10によって投影された投影画像と、ユーザによって記載された記載画像とを示す図である。It is a figure which shows the projection image projected by the projector, and the description image described by the user. 投影画像と記載画像とを拡大合成手法に従って合成した画像を示す図である。It is a figure which shows the image which synthesize | combined the projection image and the description image according to the expansion synthesis method. 投影画像と記載画像とを拡大合成手法に従って合成し、さらに、収縮させた画像を示す図である。It is a figure which shows the image which synthesize | combined the projection image and the description image according to the expansion synthesis | combination method, and was further contracted. 投影画像と記載画像とを収縮合成手法に従って合成した画像を示す図である。It is a figure which shows the image which synthesize | combined the projection image and the description image according to the shrinkage | contraction synthesis | combination method. 投影画像と記載画像とを移動合成手法に従って合成した画像を示す図である。It is a figure which shows the image which synthesize | combined the projection image and the description image according to the movement synthetic | combination method. 投影画像と記載画像とを改行合成手法に従って合成した画像を示す図である。It is a figure which shows the image which synthesize | combined the projection image and the description image according to the newline composition method. 投影画像と2つの記載画像とを拡大合成手法に従って合成した画像を示す図である。It is a figure which shows the image which synthesize | combined the projection image and two description images according to the expansion synthesis method. 投影画像と記載画像とを収縮合成手法に従って合成するとともに、投影画像と記載画像とを移動合成手法に従って合成した画像を示す図である。It is a figure which shows the image which synthesize | combined the projection image and the description image according to the shrinkage | contraction synthesis | combination method, and was synthesize | combined the projection image and the description image according to the movement synthesis method.

<プロジェクタの構成>
図1に、本願に係る実施形態として例示されるプロジェクタ10のブロック図を示す。プロジェクタ10は、CPU(Central Processing Unitの略)12、記憶部14、液晶パネル16、光源ランプ18、投影レンズ20、カメラ22、USB用I/F24を主に備えている。これらの構成要素は、入出力ポート26を介して互いに通信可能とされている。
<Configuration of projector>
FIG. 1 shows a block diagram of a projector 10 exemplified as an embodiment according to the present application. The projector 10 mainly includes a CPU (abbreviation of Central Processing Unit) 12, a storage unit 14, a liquid crystal panel 16, a light source lamp 18, a projection lens 20, a camera 22, and a USB I / F 24. These components can communicate with each other via the input / output port 26.

液晶パネル16は、プロジェクタ10に内蔵されており、画像を表示する。光源ランプ18は、画像が表示された液晶パネル16に向かって光を透過させる。投影レンズ20は、液晶パネル16を介して透過された光を、ホワイトボード,スクリーン等の被投影体に向かって拡大投影する。このような構成により、プロジェクタ10は、画像を被投影体上に投影する。   The liquid crystal panel 16 is built in the projector 10 and displays an image. The light source lamp 18 transmits light toward the liquid crystal panel 16 on which an image is displayed. The projection lens 20 enlarges and projects the light transmitted through the liquid crystal panel 16 toward a projection object such as a white board or a screen. With such a configuration, the projector 10 projects an image on the projection target.

カメラ22は、被投影体に向かって配設されており、被投影体上に記載された文字等の記載画像を撮像する。また、USB用I/F24には、USBメモリ,PC(Personal computerの略)等を接続することが可能とされている。これにより、プロジェクタ10は、USBメモリ,PC等から画像データを得ることが可能である。   The camera 22 is disposed toward the projection target, and captures a description image such as characters written on the projection target. The USB I / F 24 can be connected to a USB memory, a PC (abbreviation of personal computer), and the like. Thereby, the projector 10 can obtain image data from a USB memory, a PC, or the like.

記憶部14は、画像データ処理プログラム28を記憶する。画像データ処理プログラム28は、被投影体に投影される画像に対応する画像データと、カメラ22の撮像により得られた撮像データとを合成するための処理を、CPU12に実行させるためのプログラムである。   The storage unit 14 stores an image data processing program 28. The image data processing program 28 is a program for causing the CPU 12 to execute processing for synthesizing image data corresponding to an image projected on the projection object and imaging data obtained by imaging by the camera 22. .

また、記憶部14は、データ記憶領域30を備える。データ記憶領域30は、USB用I/F24を介して、USBメモリ,PC等から取得した画像データ、カメラ22の撮像により得られた撮像データなどを記憶する領域である。   In addition, the storage unit 14 includes a data storage area 30. The data storage area 30 is an area for storing image data acquired from a USB memory, a PC, or the like via the USB I / F 24, imaging data obtained by imaging by the camera 22, and the like.

CPU12は、記憶部14内の画像データ処理プログラム28に従って処理を実行する。以降、画像データ処理プログラム28を実行するCPU12のことを、単にプログラム名でも記載する場合がある。例えば、「画像データ処理プログラム28が」という記載は、「画像データ処理プログラム28を実行するCPU12が」ということを意味する場合がある。なお、記憶部14は、RAM(Random Access Memoryの略)、ROM(Read Only Memoryの略)、フラッシュメモリー、HDD(ハードディスクの略)、CPU12が備えるバッファなどが組み合わされて構成されている。   The CPU 12 executes processing according to the image data processing program 28 in the storage unit 14. Hereinafter, the CPU 12 that executes the image data processing program 28 may be simply described as a program name. For example, the description “the image data processing program 28 is” may mean “the CPU 12 that executes the image data processing program 28”. The storage unit 14 is configured by combining a RAM (abbreviation of random access memory), a ROM (abbreviation of read only memory), a flash memory, an HDD (abbreviation of hard disk), a buffer provided in the CPU 12, and the like.

<プロジェクタの動作>
会議,プレゼンテーションでは、一般的にホワイトボード等の被投影体にプロジェクタ10を用いて画像を投影し、投影される画像を参照しながら、説明等が行われる。この際、ホワイトボードには、投影画像に対してコメント等の手書き情報が記載される。このため、ホワイトボードに記載された手書き情報の内容を反映した資料を作成するべく、ホワイトボードに投影された画像と、ホワイトボードに記載された手書き情報との合成が望まれる。
<Projector operation>
In conferences and presentations, an image is generally projected onto a projection object such as a whiteboard using the projector 10, and explanations are made while referring to the projected image. At this time, handwritten information such as comments is written on the whiteboard on the projected image. For this reason, in order to create a document reflecting the contents of the handwritten information written on the whiteboard, it is desired to combine the image projected on the whiteboard and the handwritten information written on the whiteboard.

ユーザは、合成すべき投影画像の投影範囲を示すマーキングを行う。ホワイトボード等に投影された画像は、通常、矩形である。ユーザは、その矩形の画像の対角する1対の角、具体的には、図10に示すように、画像の左上に位置する第1角部52と右下に位置する第2角部54とに、2個のマグネットボタン56,57を貼着する。プロジェクタ10は、マグネットボタン56,57の貼着位置から投影画像の投影範囲50を特定する。   The user performs marking indicating the projection range of the projection image to be synthesized. An image projected on a whiteboard or the like is usually rectangular. The user makes a pair of opposite corners of the rectangular image, specifically, as shown in FIG. 10, the first corner portion 52 located at the upper left of the image and the second corner portion 54 located at the lower right. At the same time, two magnet buttons 56 and 57 are attached. The projector 10 specifies the projection range 50 of the projection image from the attachment positions of the magnet buttons 56 and 57.

また、合成すべき手書き情報の記載範囲が、投影範囲と同じ手法、つまり、マグネットボタンの貼着により特定される。具体的には、図10に示すように、ユーザは、手書き情報としての記号60の左上に位置する第3角部62と右下に位置する第4角部64とに、2個のマグネットボタン66,67を貼着する。そして、プロジェクタ10は、マグネットボタン66,67の貼着位置から記号60の記載範囲70を特定する。   Further, the description range of the handwritten information to be synthesized is specified by the same method as the projection range, that is, by sticking the magnet button. Specifically, as shown in FIG. 10, the user has two magnet buttons on the third corner 62 located at the upper left of the symbol 60 as handwritten information and the fourth corner 64 located at the lower right. 66 and 67 are pasted. Then, the projector 10 specifies the description range 70 of the symbol 60 from the attachment position of the magnet buttons 66 and 67.

上記手法により、投影範囲50と記載範囲70とが特定されると、プロジェクタ10は、投影範囲50に記載範囲70の少なくとも一部が入っていないか否かを判断する。つまり、プロジェクタ10は、投影範囲50から記載範囲70の少なくとも一部がはみ出しているか否かを判断する。記載範囲70がはみ出していないと判断された場合、つまり、記載範囲70の全てが投影範囲50に入っている場合には、投影範囲50内の記載範囲70の相対的な位置を維持した状態で、投影画像の画像データと手書き情報の撮像データとの合成が行われる。   When the projection range 50 and the description range 70 are specified by the above method, the projector 10 determines whether or not at least a part of the description range 70 is not included in the projection range 50. That is, the projector 10 determines whether or not at least a part of the description range 70 protrudes from the projection range 50. When it is determined that the description range 70 does not protrude, that is, when the entire description range 70 is within the projection range 50, the relative position of the description range 70 within the projection range 50 is maintained. Then, the image data of the projection image and the imaging data of the handwritten information are combined.

一方、記載範囲70がはみ出していると判断された場合には、記載範囲70の全てが投影範囲50に入るように、撮像データ若しくは画像データが処理される。プロジェクタ10では、撮像データ若しくは画像データの処理手法として、5種類の処理手法が用意されており、それら5種類の処理手法から、ユーザは選択することが可能となっている。   On the other hand, when it is determined that the description range 70 protrudes, the imaging data or the image data is processed so that the entire description range 70 falls within the projection range 50. In the projector 10, five types of processing methods are prepared as processing methods for imaging data or image data, and the user can select from these five types of processing methods.

詳しくは、5種類の処理手法に応じて、記載範囲70を特定するためのマグネットボタンも5種類用意されている。具体的には、四角形状のマグネットボタン66,67(図11参照)、三角形状のマグネットボタン72,73(図12参照)、星形状のマグネットボタン74,75(図13参照)、五角形状のマグネットボタン76,77(図14参照)、六角形状のマグネットボタン78,79(図15参照)が用意されている。そして、5種類のマグネットボタン66,67,72,73,74,75,76,77,78,79のうちのユーザに選択されたものが、ホワイトボードに貼着されることで、貼着されたマグネットボタンに応じた処理手法が採用される。これにより、ユーザは、簡便な方法により処理手法を選択することが可能となる。なお、プロジェクタ10では、上記5種類のマグネットボタン66,67,72,73,74,75,76,77,78,79以外のマグネットボタン(図示省略)も用意されており、そのマグネットボタンがホワイトボードに貼着された場合には、プロジェクタ10に予め設定された手法が採用される。以下に、5種類の処理手法について説明する。   Specifically, five types of magnet buttons for specifying the description range 70 are prepared according to the five types of processing methods. Specifically, quadrangular magnet buttons 66 and 67 (see FIG. 11), triangular magnet buttons 72 and 73 (see FIG. 12), star-shaped magnet buttons 74 and 75 (see FIG. 13), and pentagon-shaped magnet buttons 72 and 73 (see FIG. 12). Magnet buttons 76 and 77 (see FIG. 14) and hexagonal magnet buttons 78 and 79 (see FIG. 15) are prepared. And what was selected by the user among five types of magnet buttons 66, 67, 72, 73, 74, 75, 76, 77, 78, 79 is stuck on the whiteboard. The processing method according to the magnet button is adopted. Thereby, the user can select a processing method by a simple method. In the projector 10, magnet buttons (not shown) other than the above five types of magnet buttons 66, 67, 72, 73, 74, 75, 76, 77, 78, 79 are also prepared. When pasted on the board, a method preset in the projector 10 is employed. Hereinafter, five types of processing methods will be described.

1つ目の処理手法は、画像データに余白データを付加することで、合成された画像での投影範囲50を拡張させる手法である。詳しくは、図11に示すように、プロジェクタ10は、投影範囲50からはみ出している記載範囲70の一部に相当する箇所を含むように、画像データに余白データを付加する。これにより、合成画像80(右側に示される図)での投影範囲50は、第1角部52を基準として、記載範囲70に向かう方向に拡張される。そして、プロジェクタ10は、投影範囲50の第1角部52と記載範囲70の第3角部62との位置関係を維持した状態で、処理された画像データと撮像データとを合成する。   The first processing method is a method of extending the projection range 50 in the synthesized image by adding margin data to the image data. Specifically, as illustrated in FIG. 11, the projector 10 adds margin data to the image data so as to include a portion corresponding to a part of the description range 70 that protrudes from the projection range 50. Thereby, the projection range 50 in the composite image 80 (the figure shown on the right side) is expanded in the direction toward the description range 70 with the first corner 52 as a reference. Then, the projector 10 combines the processed image data and the imaging data in a state where the positional relationship between the first corner portion 52 of the projection range 50 and the third corner portion 62 of the description range 70 is maintained.

投影範囲50の拡張後にデータの合成が行われる手法では、投影範囲50の第1角部52を基準として、投影範囲50が拡張されるため、投影範囲50を区画する第1角部52と、記載範囲70を区画する第3角部62との位置関係は、合成の前後において変化していない。つまり、ホワイトボード上でのマグネットボタン66のマグネットボタン56に対する相対的な位置と、合成画像80での第3角部62の第1角部52に対する相対的な位置とは、変化していない。これにより、投影画像と手書き情報との関連性を損なうことなく、投影画像と手書き情報との合成を行うことが可能となる。なお、拡張合成に従った手法に対応するマグネットボタンは、四角形状のマグネットボタン66,67である。   In the method in which data is synthesized after the projection range 50 is expanded, the projection range 50 is expanded on the basis of the first corner 52 of the projection range 50. Therefore, the first corner 52 that defines the projection range 50; The positional relationship with the third corner 62 that defines the description range 70 does not change before and after the synthesis. That is, the relative position of the magnet button 66 with respect to the magnet button 56 on the whiteboard and the relative position of the third corner 62 with respect to the first corner 52 in the composite image 80 are not changed. Thereby, it becomes possible to synthesize the projected image and the handwritten information without impairing the relevance between the projected image and the handwritten information. The magnet buttons corresponding to the method according to the extended synthesis are the square magnet buttons 66 and 67.

2つ目の処理手法は、上記拡張合成に従った手法で合成されたデータの画素数を減少させる手法である。詳しくは、拡張合成に従った手法では、画像データへの余白データの付加により、合成されたデータの画素数が、合成前の画像データの画素数より多くなっている。このため、プロジェクタ10は、合成されたデータの画素数を減少させるための処理を行う。例えば、図11での拡張合成に従った手法では、投影範囲50は、幅方向に拡張されている。このため、プロジェクタ10は、合成されたデータでの幅方向の画素数を、拡張処理前の画像データでの幅方向の画素数とするように、合成されたデータを処理する。これにより、合成画像80の画素数が少なくなり、合成画像80は、図12に示すように、収縮する。その結果、データ量の削減を図ることが可能となる。なお、拡張合成後に画素数を減少させる手法に対応するマグネットボタンは、三角形状のマグネットボタン72,73である。   The second processing method is a method of reducing the number of pixels of data synthesized by the method according to the above-described extended synthesis. Specifically, in the method according to the extended synthesis, the number of pixels of the synthesized data is larger than the number of pixels of the image data before synthesis by adding margin data to the image data. For this reason, the projector 10 performs a process for reducing the number of pixels of the synthesized data. For example, in the method according to the extension synthesis in FIG. 11, the projection range 50 is extended in the width direction. For this reason, the projector 10 processes the combined data so that the number of pixels in the width direction in the combined data becomes the number of pixels in the width direction in the image data before the expansion processing. As a result, the number of pixels of the composite image 80 is reduced, and the composite image 80 contracts as shown in FIG. As a result, the data amount can be reduced. Note that the magnet buttons corresponding to the method of reducing the number of pixels after the extended synthesis are triangular magnet buttons 72 and 73.

3つ目の処理手法は、撮像データの画素数を減少させることで、合成された画像での記載範囲70を収縮させる手法である。詳しくは、図13に示すように、プロジェクタ10は、投影範囲50からはみ出している記載範囲70の一部が投影範囲50に入るように、撮像データの画素数を減少させる。これにより、合成画像80(右側に示される図)での記載範囲70は、第3角部62を基準として、投影範囲50に向かう方向に収縮する。そして、プロジェクタ10は、投影範囲50の第1角部52と記載範囲70の第3角部62との位置関係を維持した状態で、画像データと処理された撮像データとを合成する。   The third processing method is a method of shrinking the description range 70 in the synthesized image by reducing the number of pixels of the imaging data. Specifically, as shown in FIG. 13, the projector 10 reduces the number of pixels of the imaging data so that a part of the description range 70 that protrudes from the projection range 50 enters the projection range 50. Thereby, the description range 70 in the composite image 80 (the figure shown on the right side) contracts in the direction toward the projection range 50 with the third corner 62 as a reference. Then, the projector 10 combines the image data and the processed imaging data while maintaining the positional relationship between the first corner 52 of the projection range 50 and the third corner 62 of the description range 70.

記載範囲70の収縮後にデータの合成が行われる手法では、記載範囲70の第3角部62を基準として、記載範囲70が収縮されるため、投影範囲50を区画する第1角部52と、記載範囲70を区画する第3角部62との位置関係は、合成の前後において変化していない。つまり、ホワイトボード上でのマグネットボタン74のマグネットボタン56に対する相対的な位置と、合成画像80での第3角部62の第1角部52に対する相対的な位置とは、変化していない。これにより、投影画像と手書き情報との関連性を損なうことなく、投影画像と手書き情報との合成を行うことが可能となる。なお、収縮合成に従った手法に対応するマグネットボタンは、星形状のマグネットボタン74,75である。   In the method in which data is synthesized after the description range 70 is contracted, the description range 70 is contracted with reference to the third corner 62 of the description range 70, and therefore, the first corner 52 that defines the projection range 50; The positional relationship with the third corner 62 that defines the description range 70 does not change before and after the synthesis. That is, the relative position of the magnet button 74 with respect to the magnet button 56 on the whiteboard and the relative position of the third corner portion 62 with respect to the first corner portion 52 in the composite image 80 are not changed. Thereby, it becomes possible to synthesize the projected image and the handwritten information without impairing the relevance between the projected image and the handwritten information. The magnet buttons corresponding to the method according to the contraction synthesis are the star-shaped magnet buttons 74 and 75.

また、収縮合成に従った手法での記載範囲70の収縮率が高くなり過ぎると、記載内容が解らなくなる虞がある。このため、収縮合成に従った手法での記載範囲70の収縮率が所定の収縮率を超える場合には、収縮合成に従った手法と異なる採用を採用することが可能である。これにより、記載範囲70の収縮により、記載内容が解らないといった事態を回避することが可能となる。なお、収縮合成に従った手法により、記載範囲70に記載された手書き情報が収縮され、その収縮された手書き情報の大きさが、所定の大きさより小さくなった場合において、収縮合成に従った手法と異なる手法を採用してもよい。   In addition, if the shrinkage rate in the description range 70 using a method according to shrinkage synthesis becomes too high, there is a possibility that the written content cannot be understood. For this reason, when the shrinkage rate of the description range 70 in the method according to the shrinkage synthesis exceeds a predetermined shrinkage rate, it is possible to adopt a different method from the method according to the shrinkage synthesis. Thereby, it is possible to avoid a situation in which the description content is not understood due to the contraction of the description range 70. Note that, when the handwritten information described in the description range 70 is contracted by the method according to the contraction synthesis, and the size of the contracted handwritten information becomes smaller than a predetermined size, the method according to the contraction synthesis Different methods may be used.

4つ目の処理手法は、記載範囲70の投影範囲50に対する相対的な位置を移動させる手法である。詳しくは、プロジェクタ10は、画像データに基づいて投影範囲50内の空白部を検出し、その空白部に記載範囲70を移動させるように、撮像データを処理する。そして、処理された撮像データと画像データとを合成する。さらに、合成されたデータに、記載範囲70の移動前後を結ぶ破線のデータを付加する。詳しくは、図14に示すように、プロジェクタ10は、マグネットボタン76の貼着位置に相当する合成画像80での位置と、合成画像80での記載範囲70の第3角部62とを結ぶ破線82のデータを、合成されたデータに付加する。この破線82によって、移動後の手書き情報の位置と移動前の手書き情報の位置とを関連付けることが可能となり、データの合成前に手書き情報が投影画像の何処に記載されていたかを認識することが可能となる。なお、移動合成に従った手法に対応するマグネットボタンは、五角形状のマグネットボタン76,77である。   The fourth processing method is a method of moving the relative position of the description range 70 with respect to the projection range 50. Specifically, the projector 10 detects the blank portion in the projection range 50 based on the image data, and processes the imaging data so as to move the description range 70 to the blank portion. Then, the processed imaging data and image data are synthesized. Furthermore, the broken line data connecting before and after the movement of the description range 70 is added to the synthesized data. Specifically, as shown in FIG. 14, the projector 10 is a broken line that connects the position in the composite image 80 corresponding to the attachment position of the magnet button 76 and the third corner 62 of the description range 70 in the composite image 80. 82 data is added to the synthesized data. This broken line 82 makes it possible to associate the position of the handwritten information after the movement with the position of the handwritten information before the movement, and recognizes where the handwritten information was written in the projected image before combining the data. It becomes possible. The magnet buttons corresponding to the method according to the movement composition are pentagonal magnet buttons 76 and 77.

5つ目の処理手法は、手書き情報が文字列であった場合に、文字列を改行させる手法である。詳しくは、図15に示すように、プロジェクタ10は、投影範囲50の外に存在する記載範囲70を、文字列の1行毎に、投影範囲50の内側に存在する文字と外側に存在する文字とに、改行指定範囲86を用いて分割する。そして、文字列の1行毎に、投影範囲50の外に存在する改行指定範囲86が、投影範囲50内に存在する改行指定範囲86の下に位置するように、撮像データを処理する。ただし、文字列の改行は、第3角部62を基準として行われる。つまり、プロジェクタ10は、第3角部62を含む改行指定範囲86の位置を維持し、その維持された改行指定範囲86の下方に、他の改行指定範囲86を順次、改行する。そして、投影範囲50の第1角部52と記載範囲70の第3角部62との位置関係を維持した状態で、画像データと処理された撮像データとを合成する。   The fifth processing method is a method for causing a line break in a character string when the handwritten information is a character string. Specifically, as shown in FIG. 15, the projector 10 sets the description range 70 existing outside the projection range 50 to characters existing inside and outside the projection range 50 for each line of the character string. And a line feed designation range 86. Then, for each line of the character string, the imaging data is processed so that the line feed designation range 86 existing outside the projection range 50 is positioned below the line feed designation range 86 existing within the projection range 50. However, the line feed of the character string is performed with the third corner 62 as a reference. In other words, the projector 10 maintains the position of the line feed designation range 86 including the third corner 62, and sequentially makes another line feed designation range 86 below the maintained line feed designation range 86. Then, the image data and the processed imaging data are combined while maintaining the positional relationship between the first corner 52 of the projection range 50 and the third corner 62 of the description range 70.

文字列の改行された撮像データと画像データとの合成が行われる手法では、記載範囲70の第3角部62を基準として、文字列が改行されるため、投影範囲50を区画する第1角部52と、記載範囲70を区画する第3角部62との位置関係は、合成の前後において変化していない。つまり、ホワイトボード上でのマグネットボタン78のマグネットボタン56に対する相対的な位置と、合成画像80での第3角部62の第1角部52に対する相対的な位置とは、変化していない。これにより、投影画像と手書き情報との関連性を損なうことなく、投影画像と手書き情報との合成を行うことが可能となる。なお、改行合成に従った手法に対応するマグネットボタンは、六角形状のマグネットボタン78,79である。   In the technique in which imaging data and image data in which a character string is broken are combined, the character string is broken with reference to the third corner portion 62 of the description range 70. Therefore, the first corner that defines the projection range 50 is used. The positional relationship between the portion 52 and the third corner portion 62 that divides the description range 70 does not change before and after the synthesis. That is, the relative position of the magnet button 78 with respect to the magnet button 56 on the whiteboard and the relative position of the third corner 62 with respect to the first corner 52 in the composite image 80 are not changed. Thereby, it becomes possible to synthesize the projected image and the handwritten information without impairing the relevance between the projected image and the handwritten information. The magnet buttons corresponding to the method according to the line feed composition are hexagonal magnet buttons 78 and 79.

<画像データ処理プログラム>
上記画像データと撮像データとの合成処理は、画像データ処理プログラム28がCPU12によって実行されることで行われる。以下に、図2乃至図9を用いて、投影画像と手書き情報との合成を行うためのフローを説明する。
<Image data processing program>
The composition process of the image data and the imaging data is performed by the image data processing program 28 being executed by the CPU 12. Hereinafter, a flow for synthesizing the projection image and the handwritten information will be described with reference to FIGS. 2 to 9.

まず、図2に示すメインフローのS100において、CPU12は、ホワイトボードに投影された投影画像と、ホワイトボードに記載された手書き情報との合成が要求されたか否かを判断する。具体的には、プロジェクタ10には、投影画像と手書き情報との合成処理を開始するための合成開始ボタン(図示省略)が設けられており、CPU12は、合成開始ボタンが操作されたか否かを判断する。合成開始ボタンが操作されていない場合(S100:NO)、つまり、投影画像と手書き情報との合成が要求されていない場合にはS100の処理が繰り返される。   First, in S100 of the main flow shown in FIG. 2, the CPU 12 determines whether or not the composition of the projected image projected on the whiteboard and the handwritten information written on the whiteboard is requested. Specifically, the projector 10 is provided with a synthesis start button (not shown) for starting the synthesis process of the projection image and the handwritten information, and the CPU 12 determines whether or not the synthesis start button has been operated. to decide. When the synthesis start button is not operated (S100: NO), that is, when the synthesis of the projection image and the handwritten information is not requested, the process of S100 is repeated.

一方、投影画像と手書き情報との合成が要求されている場合(S100:YES)にはS102に進む。S102において、CPU12は、光源ランプ18を消灯し、ホワイトボードへの投影画像の投影を中止する。そして、S104に進む。   On the other hand, when the composition of the projection image and the handwritten information is requested (S100: YES), the process proceeds to S102. In S102, the CPU 12 turns off the light source lamp 18 and stops projecting the projection image on the whiteboard. Then, the process proceeds to S104.

S104において、CPU12は、カメラ22に撮像指令を送信する。これにより、カメラ22は、ホワイトボードに記載された手書き情報を撮像する。そして、S106に進む。S106において、CPU12は、ホワイトボードに投影された投影画像の投影範囲を特定するためのマーカーと、ホワイトボードに記載された手書き情報の記載範囲を特定するためのマーカーとを認識できたか否かを判断する。   In S <b> 104, the CPU 12 transmits an imaging command to the camera 22. Thereby, the camera 22 images the handwritten information written on the whiteboard. Then, the process proceeds to S106. In S <b> 106, the CPU 12 determines whether the marker for specifying the projection range of the projection image projected on the whiteboard and the marker for specifying the description range of the handwritten information described on the whiteboard have been recognized. to decide.

具体的には、CPU12は、マグネットボタン56,57,66,67,72,73,74,75,76,77,78,79がホワイトボードに貼着されているか否かを、カメラ22による撮像データに基づいて判断する。この判断では、マグネットボタンの形状,色等を利用して、撮像データの中でのマグネットボタンの画像データの存在の有無が判断される。マグネットボタンが認識できない場合(S106:NO)にはS108に進む。S108において、CPU12は、エラー発生を示すための画像をホワイトボードに投影する。そして、メインフローを終了する。   Specifically, the CPU 12 captures whether or not the magnet buttons 56, 57, 66, 67, 72, 73, 74, 75, 76, 77, 78, and 79 are attached to the whiteboard by the camera 22. Judgment based on data. In this determination, the presence / absence of the magnet button image data in the imaging data is determined using the shape, color, etc. of the magnet button. If the magnet button cannot be recognized (S106: NO), the process proceeds to S108. In S108, the CPU 12 projects an image for indicating an error occurrence on the whiteboard. Then, the main flow ends.

一方、マグネットボタンが認識できた場合(S106:YES)にはS110に進む。S110において、CPU12は、図3に示す合成処理フローに従った処理を行う。合成処理フローでは、S120において、CPU12は、マグネットボタン66,67,72,73,74,75,76,77,78,79の貼着位置から記号60の記載範囲70を特定する。そして、S122に進む。   On the other hand, if the magnet button can be recognized (S106: YES), the process proceeds to S110. In S110, the CPU 12 performs processing in accordance with the synthesis processing flow shown in FIG. In the composition processing flow, in S120, the CPU 12 specifies the description range 70 of the symbol 60 from the attaching position of the magnet buttons 66, 67, 72, 73, 74, 75, 76, 77, 78, 79. Then, the process proceeds to S122.

S122において、CPU12は、マグネットボタン56,57の貼着位置から投影画像の投影範囲50を特定する。そして、S124に進む。S124において、CPU12は、記載範囲70が投影範囲50外に存在するか否かを判断する。つまり、記載範囲70の少なくとも一部が投影範囲50に入っていないか否かを判断する。記載範囲70が投影範囲50外に存在しない場合(S124:NO)にはS126に進む。S126において、CPU12は、記載範囲70の投影範囲50内での相対的な位置を維持した状態で、撮像データと画像データとを合成する。そして、合成処理フローを終了し、メインフローに戻る。   In S <b> 122, the CPU 12 specifies the projection range 50 of the projection image from the attachment positions of the magnet buttons 56 and 57. Then, the process proceeds to S124. In S <b> 124, the CPU 12 determines whether the description range 70 exists outside the projection range 50. That is, it is determined whether or not at least a part of the description range 70 is not within the projection range 50. When the description range 70 does not exist outside the projection range 50 (S124: NO), the process proceeds to S126. In S <b> 126, the CPU 12 combines the imaging data and the image data in a state where the relative position of the description range 70 within the projection range 50 is maintained. Then, the synthesis process flow is terminated, and the process returns to the main flow.

一方、記載範囲70が投影範囲50外に存在する場合(S124:YES)にはS128に進む。S128において、CPU12は、記載範囲70を特定するためのマグネットボタンが、ユーザ指定に対応したマグネットボタンであるか否かを判断する。具体的には、CPU12は、撮像データに基づいて、ホワイトボードにマグネットボタン66,67,72,73,74,75,76,77,78,79が貼着されているか否かを判断する。ホワイトボードにマグネットボタン66,67,72,73,74,75,76,77,78,79が貼着されている場合(S128:YES)にはS130に進む。S130において、CPU12は、図4に示すマーカー判定フローに従った処理を行う。   On the other hand, when the description range 70 exists outside the projection range 50 (S124: YES), the process proceeds to S128. In S128, the CPU 12 determines whether or not the magnet button for specifying the description range 70 is a magnet button corresponding to the user designation. Specifically, the CPU 12 determines whether or not the magnet buttons 66, 67, 72, 73, 74, 75, 76, 77, 78, and 79 are attached to the whiteboard based on the imaging data. If magnet buttons 66, 67, 72, 73, 74, 75, 76, 77, 78, 79 are stuck on the whiteboard (S128: YES), the process proceeds to S130. In S130, the CPU 12 performs a process according to the marker determination flow shown in FIG.

マーカー判定フローでは、S140において、CPU12は、拡張合成に従った手法が指定されているか否かを判断する。具体的には、ホワイトボードにマグネットボタン66,67,72,73が貼着されているか否かを判断する。ホワイトボードにマグネットボタン66,67,72,73が貼着されている場合(S140:YES)にはS142に進む。S142において、CPU12は、図5に示す拡張合成フローに従った処理を行う。   In the marker determination flow, in S140, the CPU 12 determines whether or not a method according to extended synthesis is designated. Specifically, it is determined whether or not the magnet buttons 66, 67, 72, 73 are attached to the whiteboard. When the magnet buttons 66, 67, 72, 73 are stuck on the whiteboard (S140: YES), the process proceeds to S142. In S142, the CPU 12 performs a process according to the extended synthesis flow shown in FIG.

拡張合成フローでは、S160において、CPU12は、上述したように、画像データに余白データを付与し、投影範囲50を拡張させる。そして、S162に進む。S162において、CPU12は、投影範囲50の第1角部52と記載範囲70の第3角部62との位置関係を維持した状態で、撮像データと投影範囲50が拡張された画像データとを合成する。これにより、図11に示すような合成画像80(右側に示される図)が得られる。そして、S164に進む。S164において、CPU12は、マーカーにより収縮指示がされているか否かを判断する。   In the extended synthesis flow, in S160, the CPU 12 adds margin data to the image data and extends the projection range 50 as described above. Then, the process proceeds to S162. In S <b> 162, the CPU 12 combines the imaging data and the image data in which the projection range 50 is extended while maintaining the positional relationship between the first corner 52 of the projection range 50 and the third corner 62 of the description range 70. To do. Thereby, a composite image 80 (shown on the right side) as shown in FIG. 11 is obtained. Then, the process proceeds to S164. In S164, the CPU 12 determines whether or not a contraction instruction is given by the marker.

具体的には、CPU12は、ホワイトボードにマグネットボタン72,73が貼着されているか否かを判断する。ホワイトボードにマグネットボタン72,73が貼着されていない場合、つまり、収縮指示がされていない場合(S164:NO)には、拡張合成フローを終了し、マーカー判定フローに戻る。   Specifically, the CPU 12 determines whether or not the magnet buttons 72 and 73 are attached to the whiteboard. When the magnet buttons 72 and 73 are not attached to the whiteboard, that is, when the shrinkage instruction is not given (S164: NO), the extended synthesis flow is terminated and the process returns to the marker determination flow.

一方、ホワイトボードにマグネットボタン72,73が貼着されている場合、つまり、収縮指示がされている場合(S164:YES)にはS166に進む。S166において、CPU12は、合成されたデータを、上述したように、合成された画像の画素数が合成前の画像の画素数となるように、処理する。これにより、合成画像80の画素数が少なくなり、図12に示すように、合成画像80が収縮する。そして、拡張合成フローを終了し、マーカー判定フローに戻る。   On the other hand, if the magnet buttons 72 and 73 are adhered to the whiteboard, that is, if the shrinkage instruction is given (S164: YES), the process proceeds to S166. In S166, the CPU 12 processes the combined data so that the number of pixels of the combined image becomes the number of pixels of the image before combining as described above. As a result, the number of pixels of the composite image 80 decreases, and the composite image 80 contracts as shown in FIG. Then, the extended synthesis flow is terminated, and the flow returns to the marker determination flow.

一方、マーカー判定フローのS140において、拡張合成に従った手法が指定されていない場合(S140:NO)にはS144に進む。S144において、CPU12は、収縮合成に従った手法が指定されているか否かを判断する。具体的には、ホワイトボードに貼着されたマグネットボタン74,75が貼着されているか否かを判断する。ホワイトボードにマグネットボタン74,75が貼着されている場合(S144:YES)にはS146に進む。S146において、CPU12は、図6に示す収縮合成フローに従った処理を行う。   On the other hand, in S140 of the marker determination flow, when the method according to the extended synthesis is not designated (S140: NO), the process proceeds to S144. In S144, the CPU 12 determines whether or not a method according to contraction synthesis is designated. Specifically, it is determined whether or not the magnet buttons 74 and 75 attached to the whiteboard are attached. If the magnet buttons 74 and 75 are attached to the whiteboard (S144: YES), the process proceeds to S146. In S146, the CPU 12 performs processing according to the contraction synthesis flow shown in FIG.

収縮合成フローでは、S170において、CPU12は、ホワイトボードに記載された手書き情報のグループを検出する。詳しくは、手書き情報は、ホワイドボードの複数の部分に分離して記載されている場合があり、そのような場合には、複数の個別の記載範囲が存在する。このため、S170において、CPU12は、1以上の記載範囲を手書き情報のグループとして検出する。そして、S172に進む。   In the shrinkage synthesis flow, in S170, the CPU 12 detects a group of handwritten information written on the whiteboard. Specifically, handwritten information may be separately described in a plurality of parts of the wide board, and in such a case, there are a plurality of individual description ranges. For this reason, in S170, CPU12 detects one or more description ranges as a group of handwritten information. Then, the process proceeds to S172.

S172において、CPU12は、手書き情報のグループのうちの投影範囲50の外に存在する記載範囲70を収縮するように、撮像データを処理する。詳しくは、1以上の記載範囲70のうちの投影範囲50の外に存在する記載範囲70を抽出する。そして、抽出した記載範囲70の撮像データに対して、上述したように、画素数を減少させる処理を行う。これにより、記載範囲70が投影範囲50内に納まるように収縮する。そして、S174に進む。   In S172, the CPU 12 processes the imaging data so as to contract the description range 70 that exists outside the projection range 50 in the group of handwritten information. Specifically, the description range 70 that exists outside the projection range 50 out of the one or more description ranges 70 is extracted. Then, as described above, processing for reducing the number of pixels is performed on the extracted imaging data in the description range 70. As a result, the description range 70 contracts so as to be within the projection range 50. Then, the process proceeds to S174.

S174において、CPU12は、投影範囲50の第1角部52と記載範囲70の第3角部62との位置関係を維持した状態で、画像データと記載範囲70が収縮された撮像データとを合成する。これにより、図13に示すような合成画像80(右側に示される図)が得られる。そして、収縮合成フローを終了し、マーカー判定フローに戻る。   In S174, the CPU 12 combines the image data and the imaging data in which the description range 70 is contracted while maintaining the positional relationship between the first corner 52 of the projection range 50 and the third corner 62 of the description range 70. To do. Thereby, a composite image 80 (shown on the right side) as shown in FIG. 13 is obtained. Then, the contraction synthesis flow is terminated, and the flow returns to the marker determination flow.

一方、マーカー判定フローのS144において、収縮合成に従った処理が採用されていない場合(S144:NO)にはS148に進む。S148において、CPU12は、移動合成に従った手法が指定されているか否かを判断する。具体的には、ホワイトボードにマグネットボタン76,77が貼着されているか否かを判断する。ホワイトボードにマグネットボタン76,77が貼着されている場合(S148:YES)にはS150に進む。S150において、CPU12は、図7に示す移動合成フローに従った処理を行う。   On the other hand, in S144 of the marker determination flow, if the process according to contraction synthesis is not employed (S144: NO), the process proceeds to S148. In S <b> 148, the CPU 12 determines whether or not a technique according to move synthesis is designated. Specifically, it is determined whether or not magnet buttons 76 and 77 are attached to the whiteboard. When the magnet buttons 76 and 77 are stuck on the whiteboard (S148: YES), the process proceeds to S150. In S150, the CPU 12 performs processing in accordance with the movement synthesis flow shown in FIG.

移動合成フローでは、S180において、CPU12は、画像データに基づいて、投影画像の空白部を検出する。そして、S182に進む。S182において、CPU12は、ホワイトボードに記載された手書き情報のグループを検出する。そして、S184に進む。S184において、CPU12は、手書き情報のグループのうちの投影範囲50の外に存在する記載範囲70を画像の空白部に移動するように、撮像データを処理する。詳しくは、1以上の記載範囲70のうちの投影範囲50の外に存在する記載範囲70を抽出する。そして、抽出された記載範囲70が画像の空白部に移動するように、撮像データを処理する。そして、S186に進む。   In the movement synthesis flow, in S180, the CPU 12 detects a blank portion of the projection image based on the image data. Then, the process proceeds to S182. In S182, the CPU 12 detects a group of handwritten information written on the whiteboard. Then, the process proceeds to S184. In S <b> 184, the CPU 12 processes the imaging data so as to move the description range 70 existing outside the projection range 50 in the group of handwritten information to the blank portion of the image. Specifically, the description range 70 that exists outside the projection range 50 out of the one or more description ranges 70 is extracted. Then, the imaging data is processed so that the extracted description range 70 moves to the blank portion of the image. Then, the process proceeds to S186.

S186において、CPU12は、画像データと処理された撮像データとを合成する。そして、S188に進む。S188において、CPU12は、上述したように、合成されたデータに、記載範囲70の移動前後を結ぶ破線のデータを付加する。そして、移動合成フローを終了し、マーカー判定フローに戻る。   In S186, the CPU 12 synthesizes the image data and the processed imaging data. Then, the process proceeds to S188. In S188, as described above, the CPU 12 adds, to the synthesized data, broken line data connecting before and after the movement of the description range 70. Then, the move synthesis flow is terminated, and the flow returns to the marker determination flow.

一方、マーカー判定フローのS148において、移動合成に従った手法が指定されていない場合(S148:NO)にはS152に進む。S152において、CPU12は、図8に示す改行合成フローに従った処理を行う。   On the other hand, in S148 of the marker determination flow, when the method according to the move synthesis is not designated (S148: NO), the process proceeds to S152. In S152, the CPU 12 performs processing according to the line feed composition flow shown in FIG.

改行合成フローでは、S190において、CPU12は、ホワイトボードに記載された手書き情報のグループを検出する。そして、S192に進む。S192において、CPU12は、手書き情報のグループ、つまり、1以上の記載範囲70のうちの少なくとも1つが投影範囲50の外に存在するか否かを判断する。1以上の記載範囲70の少なくとも1つが投影範囲50の外に存在する場合(S192:YES)には、S194に進む。   In the line feed composition flow, in S190, the CPU 12 detects a group of handwritten information written on the whiteboard. Then, the process proceeds to S192. In S <b> 192, the CPU 12 determines whether or not at least one of the handwritten information group, that is, at least one of the one or more description ranges 70 exists outside the projection range 50. When at least one of the one or more description ranges 70 exists outside the projection range 50 (S192: YES), the process proceeds to S194.

S194において、CPU12は、投影範囲50の外に存在する手書き情報が文字列であるか否かを判断する。この判断では、撮像データの中での文字データの存在の有無が判断される。投影範囲50の外に存在する手書き情報が文字列である場合(S194:YES)には、S196に進む。S196において、CPU12は、図15に示すように、投影範囲50の外に存在する記載範囲70を、文字列の1行毎に、投影範囲50の内側に存在する文字と外側に存在する文字とに、改行指定範囲86を用いて分割する。そして、S198に進む。   In S194, the CPU 12 determines whether or not the handwritten information existing outside the projection range 50 is a character string. In this determination, the presence / absence of character data in the imaging data is determined. When the handwritten information existing outside the projection range 50 is a character string (S194: YES), the process proceeds to S196. In S196, as shown in FIG. 15, the CPU 12 converts the description range 70 existing outside the projection range 50 into a character existing outside the projection range 50 and a character existing outside the projection range 50 for each line of the character string. In addition, the line break is divided using the line feed designation range 86. Then, the process proceeds to S198.

S198において、CPU12は、文字列の1行毎に、投影範囲50の外に存在する改行指定範囲86が、投影範囲50内に存在する改行指定範囲86の下に位置するように、撮像データを処理する。この際、第3角部62を基準として、文字列の改行が行われる。そして、S200に進む。   In S <b> 198, the CPU 12 captures the imaging data so that the line feed designation range 86 existing outside the projection range 50 is positioned below the line feed designation range 86 existing within the projection range 50 for each line of the character string. To process. At this time, a line feed of the character string is performed with the third corner 62 as a reference. Then, the process proceeds to S200.

S200において、CPU12は、投影範囲50の第1角部52と記載範囲70の第3角部62との位置関係を維持した状態で、画像データと処理された撮像データとを合成する。これにより、図15に示すような合成画像80(右下側に示される図)が得られる。そして、改行合成フローを終了し、マーカー判定フローに戻る。   In S <b> 200, the CPU 12 combines the image data and the processed imaging data while maintaining the positional relationship between the first corner 52 of the projection range 50 and the third corner 62 of the description range 70. Thereby, a composite image 80 (shown on the lower right side) as shown in FIG. 15 is obtained. Then, the line feed composition flow is terminated, and the flow returns to the marker determination flow.

なお、S192で1以上の記載範囲70の少なくとも1つが投影範囲50の外に存在しない場合(S192:NO)及び、S194で投影範囲50の外に存在する手書き情報が文字列でない場合(S194:NO)には、改行合成フローを終了し、マーカー判定フローに戻る。   When at least one of the one or more description ranges 70 does not exist outside the projection range 50 in S192 (S192: NO), and when the handwritten information existing outside the projection range 50 is not a character string in S194 (S194: NO) ends the line feed composition flow and returns to the marker determination flow.

また、合成処理フローのS128において、ホワイトボードにマグネットボタン66,67,72,73,74,75,76,77,78,79が貼着されていない場合、つまり、記載範囲70を特定するためのマグネットボタンが、ユーザ指定に対応したマグネットボタンでない場合(S128:NO)にはS132に進む。S132において、CPU12は、図9に示す合成処理自動判定フローに従った処理を行う。   In S128 of the composition processing flow, when the magnet buttons 66, 67, 72, 73, 74, 75, 76, 77, 78, 79 are not attached to the whiteboard, that is, to specify the description range 70. If the magnet button is not a magnet button corresponding to the user designation (S128: NO), the process proceeds to S132. In S <b> 132, the CPU 12 performs a process according to the synthesis process automatic determination flow shown in FIG. 9.

合成処理自動判定フローでは、S210において、CPU12は、ホワイトボードに記載された手書き情報のグループを検出する。そして、S212に進む。S212において、CPU12は、手書き情報のグループのうちの投影範囲50の外に存在する記載範囲70を収縮合成に従った手法で収縮させた場合に、その収縮率が所定の収縮率以下であるか否かを判断する。   In the composition processing automatic determination flow, in S210, the CPU 12 detects a group of handwritten information written on the whiteboard. Then, the process proceeds to S212. In S212, when the CPU 12 contracts the description range 70 that exists outside the projection range 50 in the group of handwritten information by a method according to contraction synthesis, is the contraction rate equal to or less than a predetermined contraction rate? Judge whether or not.

記載範囲70を収縮させた場合の収縮率が所定の収縮率以下である場合(S212:YES)にはS214に進む。S214では、上記S172と同じ処理が行われる。そして、S216に進む。S216では、S174と同じ処理が行われる。そして、合成処理自動判定フローを終了し、合成処理フローに戻る。   When the contraction rate when the description range 70 is contracted is equal to or less than the predetermined contraction rate (S212: YES), the process proceeds to S214. In S214, the same processing as S172 is performed. Then, the process proceeds to S216. In S216, the same processing as S174 is performed. Then, the synthesis process automatic determination flow is terminated, and the process returns to the synthesis process flow.

一方、記載範囲70を収縮させた場合の収縮率が所定の収縮率を超えている場合(S212:NO)にはS218に進む。S218では、上記S180と同じ処理が行われる。そして、S220に進む。S220では、S184と同じ処理が行われる。そして、S222に進む。S222では、S186と同じ処理が行われる。そして、S224に進む。S224では、S188と同じ処理が行われる。そして、合成処理自動判定フローを終了し、合成処理フローに戻る。   On the other hand, when the contraction rate when the description range 70 is contracted exceeds the predetermined contraction rate (S212: NO), the process proceeds to S218. In S218, the same process as in S180 is performed. Then, the process proceeds to S220. In S220, the same process as S184 is performed. Then, the process proceeds to S222. In S222, the same processing as S186 is performed. Then, the process proceeds to S224. In S224, the same processing as S188 is performed. Then, the synthesis process automatic determination flow is terminated, and the process returns to the synthesis process flow.

合成処理フローにおいて、画像データと撮像データとの合成処理が終了すると、合成処理フローを終了し、メインフローに戻る。メインフローでは、合成処理フローの終了後にS112に進む。S112において、CPU12は、画像データと撮像データとの合成処理が成功したか否かを判断する。   In the compositing process flow, when the compositing process between the image data and the imaged data ends, the compositing process flow ends and the process returns to the main flow. In the main flow, the process proceeds to S112 after the synthesis processing flow ends. In S <b> 112, the CPU 12 determines whether or not the composition process of the image data and the imaging data has succeeded.

画像データと撮像データとの合成処理が成功した場合(S112:YES)にはS114に進む。S114において、CPU12は、合成したデータに基づく画像をホワイトボードに投影する。そして、メインフローを終了する。一方、画像データと撮像データとの合成処理が成功しなかった場合(S112:NO)にはS108に進む。S108において、CPU12は、エラー発生を示すための画像をホワイトボードに投影する。そして、メインフローを終了する。   If the image data and imaging data have been successfully combined (S112: YES), the process proceeds to S114. In S114, the CPU 12 projects an image based on the combined data on the whiteboard. Then, the main flow ends. On the other hand, when the composition processing of the image data and the imaging data is not successful (S112: NO), the process proceeds to S108. In S108, the CPU 12 projects an image for indicating an error occurrence on the whiteboard. Then, the main flow ends.

<変形例>
本実施形態に係るプロジェクタ10では、投影範囲50及び記載範囲70は、マグネットボタンの形状によって特定されているが、マグネットボタンに印刷された模様等によって、投影範囲50及び記載範囲70を特定することが可能である。なお、マグネットボタンの形状,模様等は、三角形等の単純な形状ではなく複雑な形状とすることが可能である。マグネットボタンの形状,模様等を複雑な形状にすることで、手書き画像や投影画像の一部と、マグネットボタンとの誤認の可能性を低くすることが可能となる。また、マグネットボタンによる投影範囲等の特定に限られず、種々の手段により投影範囲等を特定することが可能である。具体的には、例えば、投影範囲50及び記載範囲70は、ホワイトボードに記載された線等の描画によって特定されてもよい。
<Modification>
In the projector 10 according to the present embodiment, the projection range 50 and the description range 70 are specified by the shape of the magnet button, but the projection range 50 and the description range 70 are specified by a pattern or the like printed on the magnet button. Is possible. It should be noted that the shape, pattern, etc. of the magnet button can be a complicated shape rather than a simple shape such as a triangle. By making the shape, pattern, and the like of the magnet button complex, it is possible to reduce the possibility of misidentification between a handwritten image or a part of the projected image and the magnet button. In addition, the projection range and the like can be specified by various means without being limited to the specification of the projection range and the like by the magnet button. Specifically, for example, the projection range 50 and the description range 70 may be specified by drawing a line or the like described on a whiteboard.

また、本実施形態に係るプロジェクタ10では、投影画像に対応するデータとして、データ記憶領域30に記憶されている画像データが用いられているが、ホワイトボードに投影された投影画像をカメラ22により撮像し、その撮像データを投影画像に対応するデータとして用いることが可能である。   In the projector 10 according to the present embodiment, image data stored in the data storage area 30 is used as data corresponding to the projection image. However, the camera 22 captures the projection image projected on the whiteboard. In addition, the captured image data can be used as data corresponding to the projection image.

また、本実施形態に係るプロジェクタ10では、合成されたデータに基づく画像は、ホワイトボードに投影されているが、種々の手段により、合成されたデータを出力することが可能である。具体的には、例えば、プリンタ等により、合成されたデータに基づく画像を印刷してもよく、合成されたデータに基づく画像をパネル等に表示することも可能である。また、他の装置に、合成されたデータを送信することで、出力してもよい。   In the projector 10 according to the present embodiment, the image based on the synthesized data is projected on the whiteboard, but the synthesized data can be output by various means. Specifically, for example, an image based on the combined data may be printed by a printer or the like, and an image based on the combined data can be displayed on a panel or the like. Alternatively, the synthesized data may be transmitted to another device and output.

また、本実施形態に係るプロジェクタ10では、1の記載範囲70が投影範囲50の外にある場合について説明しているが、複数の記載範囲70が投影範囲50の外にある場合にも、上記手法を採用することが可能である。具体的には、例えば、図16に示すように、2の記載範囲70が投影範囲50の外にあり、2の記載範囲70と投影範囲50とを、拡張合成に従った手法により合成する場合には、2の記載範囲70が投影範囲50内に納まるように、画像データを処理する必要がある。詳しくは、1の記載範囲70が投影範囲50の右方向にはみ出しており、別の1の記載範囲70が投影範囲50の下方にはみ出している。このため、投影範囲50を、第1角部52を基準として、右方向および下方向に拡張させる。ちなみに、投影範囲50は、2の記載範囲70が投影範囲50に納まるように拡張させる必要がある。   Further, in the projector 10 according to the present embodiment, the case where one description range 70 is outside the projection range 50 has been described, but the above description also applies when a plurality of description ranges 70 are outside the projection range 50. It is possible to adopt a technique. Specifically, for example, as illustrated in FIG. 16, when the two description ranges 70 are outside the projection range 50, the two description ranges 70 and the projection range 50 are synthesized by a technique according to extended synthesis. Therefore, it is necessary to process the image data so that the two described ranges 70 are within the projection range 50. Specifically, one description range 70 protrudes to the right of the projection range 50, and another one description range 70 protrudes below the projection range 50. Therefore, the projection range 50 is expanded rightward and downward with the first corner portion 52 as a reference. Incidentally, the projection range 50 needs to be expanded so that the two description ranges 70 are included in the projection range 50.

また、例えば、複数の記載範囲70が投影範囲50の外にある場合には、複数の記載範囲70のうちの1の記載範囲70と投影範囲50とを、所定の合成手法により合成し、複数の記載範囲70のうちの別の1の記載範囲70と投影範囲50とを、その所定の合成手法と異なる合成手法により合成することが可能である。具体的には、例えば、図17に示すように、2の記載範囲70が投影範囲50の外にある場合には、2の記載範囲70のうちの一方の記載範囲(図でマグネットボタン74,75により特定される記載範囲)に対応する撮像データと、画像データとを、収縮合成に従った手法により合成し、2の記載範囲70のうちの他方の記載範囲(図でマグネットボタン76,77により特定される記載範囲)に対応する撮像データと、画像データとを、移動合成に従った手法により合成してもよい。   Further, for example, when a plurality of description ranges 70 are outside the projection range 50, one description range 70 of the plurality of description ranges 70 and the projection range 50 are synthesized by a predetermined synthesis method. It is possible to synthesize another description range 70 of the description range 70 and the projection range 50 by a synthesis method different from the predetermined synthesis method. Specifically, for example, as illustrated in FIG. 17, when the two described ranges 70 are outside the projection range 50, one of the two described ranges 70 (the magnet button 74, The imaging data corresponding to the description range specified by 75 and the image data are synthesized by a method according to contraction synthesis, and the other description range (magnet buttons 76 and 77 in the figure) of the two description ranges 70 is combined. The imaging data corresponding to the description range specified by (1) and the image data may be synthesized by a technique according to the movement synthesis.

また、本実施形態のプロジェクタ10では、画像データ処理プログラム28に基づいて実行するCPU12が、各種の処理を行う場合を説明した。しかし、この形態に限られない。画像データ処理プログラム28に基づいて実行するCPU12が、他のシステム、ハード構成に対して、各種の処理を行わせる指示を出す形態であってもよい。   In the projector 10 of the present embodiment, the case where the CPU 12 executed based on the image data processing program 28 performs various processes has been described. However, it is not limited to this form. The CPU 12 executed on the basis of the image data processing program 28 may issue an instruction for performing various processes to other systems and hardware configurations.

また、本明細書または図面に説明した技術要素は、単独であるいは各種の組み合わせによって技術的有用性を発揮するものであり、出願時請求項記載の組み合わせに限定されるものではない。また、本明細書または図面に例示した技術は複数目的を同時に達成するものであり、そのうちの一つの目的を達成すること自体で技術的有用性を持つものである。   In addition, the technical elements described in the present specification or the drawings exhibit technical usefulness alone or in various combinations, and are not limited to the combinations described in the claims at the time of filing. In addition, the technology illustrated in the present specification or the drawings achieves a plurality of objects at the same time, and has technical utility by achieving one of the objects.

プロジェクタ10は画像データ処理装置の一例である。CPU12はコンピュータの一例である。記憶部14は、画像データ記憶部の一例である。液晶パネル16と光源ランプ18と投影レンズ20とによって構成されるものは、画像投影部の一例である。カメラ22は、撮像部の一例である。画像データ処理プログラム28は画像データ処理プログラムの一例である。ホワイトボードは被投影体の一例である。マグネットボタン66,67,72,73,74,75,76,77,78,79は外縁表示部の一例である。記号60は記載画像の一例である。破線82は記号の一例である。ホワイトボード上でのマグネットボタン56が貼着された位置は第1投影基準位置の一例である。ホワイトボード上でのマグネットボタン66,72,74,76,78が貼着された位置は第1記載基準位置の一例である。合成画像80での第1角部52の位置は第2投影基準位置の一例である。合成画像80での第3角部62の位置は第2記載基準位置の一例である。S120を実行するCPU12は、記載範囲特定手段の一例である。S124を実行するCPU12は、判断手段の一例である。S132,S142,S146,S150,S152を実行するCPU12は、データ合成手段の一例である。S114を実行するCPU12は、合成データ出力手段の一例である。S140,S144,S148を実行するCPU12は、合成手法決定手段の一例である。S142を実行するCPU12は、拡張合成手段の一例である。S146を実行するCPU12は、収縮合成手段の一例である。S150を実行するCPU12は、移動合成手段の一例である。S152を実行するCPU12は、改行合成手段の一例である。画像データは投影画像データの一例である。撮像データは記載画像データの一例である。   The projector 10 is an example of an image data processing device. The CPU 12 is an example of a computer. The storage unit 14 is an example of an image data storage unit. What is constituted by the liquid crystal panel 16, the light source lamp 18, and the projection lens 20 is an example of an image projection unit. The camera 22 is an example of an imaging unit. The image data processing program 28 is an example of an image data processing program. A whiteboard is an example of a projection target. The magnet buttons 66, 67, 72, 73, 74, 75, 76, 77, 78, 79 are examples of the outer edge display portion. Symbol 60 is an example of a description image. A broken line 82 is an example of a symbol. The position where the magnet button 56 is pasted on the whiteboard is an example of the first projection reference position. The position where the magnet buttons 66, 72, 74, 76, 78 are pasted on the whiteboard is an example of the first reference position. The position of the first corner 52 in the composite image 80 is an example of a second projection reference position. The position of the third corner 62 in the composite image 80 is an example of a second description reference position. The CPU 12 that executes S120 is an example of a description range specifying unit. The CPU 12 that executes S124 is an example of a determination unit. The CPU 12 that executes S132, S142, S146, S150, and S152 is an example of a data synthesizing unit. The CPU 12 that executes S114 is an example of a combined data output unit. The CPU 12 that executes S140, S144, and S148 is an example of a synthesis method determination unit. The CPU 12 that executes S142 is an example of an extended synthesis unit. The CPU 12 that executes S146 is an example of contraction synthesis means. The CPU 12 that executes S150 is an example of a movement synthesis unit. The CPU 12 that executes S152 is an example of a line feed composition unit. Image data is an example of projection image data. The imaging data is an example of description image data.

なお、各プログラムは一つのプログラムモジュールから構成されるものであってもよいし、複数のプログラムモジュールから構成されるものであってもよい。また、各一例は置換可能な他の構成であってもよく、本発明の範疇である。画像データ処理プログラム28に基づく処理を実行するコンピュータ(CPU12)であってもよいし、オペレーティングシステムや他のアプリケーション、プログラムなど、画像データ処理プログラム以外のプログラムに基づく処理を実行するコンピュータであってもよいし、コンピュータの指示に従って動作するハード構成であってもよいし、コンピュータとハード構成とが連動した構成であってもよい。もちろん、複数のプログラムに基づく処理を連動させて処理を実行するコンピュータであってもよいし、複数のプログラムに基づく処理を連動させて処理を実行するコンピュータの指示に従って動作するハード構成であってもよい。   Each program may be composed of a single program module, or may be composed of a plurality of program modules. In addition, each example may have another replaceable configuration and is within the scope of the present invention. It may be a computer (CPU 12) that executes processing based on the image data processing program 28, or may be a computer that executes processing based on programs other than the image data processing program, such as an operating system, other applications, and programs. It may be a hardware configuration that operates according to instructions from the computer, or may be a configuration in which the computer and the hardware configuration are linked. Of course, it may be a computer that executes processes by linking processes based on a plurality of programs, or may have a hardware configuration that operates according to instructions from a computer that executes processes by linking processes based on a plurality of programs. Good.

10:プロジェクタ、12:CPU、14:記憶部、16:液晶パネル、18:光源ランプ、20:投影レンズ、22:カメラ   10: projector, 12: CPU, 14: storage unit, 16: liquid crystal panel, 18: light source lamp, 20: projection lens, 22: camera

Claims (13)

画像データを記憶する画像データ記憶部と、
前記画像データ記憶部に記憶された画像データに基づく投影画像を被投影体に投影する画像投影部と、
前記投影画像が投影された前記被投影体に記載された記載画像を撮像し、前記記載画像の記載画像データを取得する撮像部と、
を備える画像データ処理装置であって、
前記撮像部により取得された前記記載画像データに基づいて、前記被投影体内の、前記投影画像が投影されている投影範囲に、前記記載画像が記載されている記載範囲の少なくとも一部が入っていないか否かを判断する判断手段と、
前記判断手段によって、前記投影範囲に、前記記載範囲の少なくとも一部が入っていないと判断された場合に、前記投影画像に対応する投影画像データと前記記載画像データとを合成した合成画像データを生成するデータ合成手段と、
前記データ合成手段によって合成された前記合成画像データを出力する合成データ出力手段と、
を備え、
前記被投影体に投影された前記投影画像内の特定の位置を第1投影基準位置と、
前記被投影体に記載された前記記載画像内の特定の位置であって、前記被投影体に投影された前記投影画像内に存在する位置を第1記載基準位置と、
前記合成画像データに基づく画像での、前記第1投影基準位置に相当する位置を第2投影基準位置と、
前記合成画像データに基づく画像での、前記第1記載基準位置に相当する位置を第2記載基準位置と、
それぞれ、定義した場合において、
前記データ合成手段は、
前記第2投影基準位置に対する前記第2記載基準位置の相対的な位置が、前記第1投影基準位置に対する前記第1記載基準位置の相対的な位置と同じとなる状態、若しくは、前記第2記載基準位置の前記第1記載基準位置に対する相対的な位置を認識可能な状態で、前記合成画像データを生成することを特徴とする画像データ処理装置。
An image data storage unit for storing image data;
An image projection unit that projects a projection image based on the image data stored in the image data storage unit onto a projection object;
An imaging unit that captures a description image described in the projection object on which the projection image is projected, and acquires description image data of the description image;
An image data processing apparatus comprising:
Based on the description image data acquired by the imaging unit, at least a part of the description range in which the description image is described is included in a projection range in the projection target on which the projection image is projected. A judging means for judging whether or not there is,
When the determination unit determines that at least a part of the description range is not included in the projection range, composite image data obtained by combining the projection image data corresponding to the projection image and the description image data is obtained. Data synthesizing means to generate;
Synthesized data output means for outputting the synthesized image data synthesized by the data synthesizing means;
With
A specific position in the projection image projected on the projection object is a first projection reference position,
A specific position in the description image described in the projection object, and a position existing in the projection image projected on the projection object is a first description reference position;
A position corresponding to the first projection reference position in the image based on the composite image data is a second projection reference position;
A position corresponding to the first description reference position in an image based on the composite image data is a second description reference position;
When defined,
The data synthesizing means includes
The relative position of the second description reference position with respect to the second projection reference position is the same as the relative position of the first description reference position with respect to the first projection reference position, or the second description The composite image data is generated in a state where a relative position of a reference position with respect to the first described reference position can be recognized.
前記データ合成手段は、
前記第2投影基準位置に対する前記第2記載基準位置の相対的な位置を、前記第1投影基準位置に対する前記第1記載基準位置の相対的な位置と同じとし、かつ、前記第1投影基準位置を基準として、前記記載範囲に向かう方向に前記投影範囲を拡張させた前記投影画像データと、前記記載画像データとを合成する拡張合成手段を有することを特徴とする請求項1に記載の画像データ処理装置。
The data synthesizing means includes
The relative position of the second description reference position with respect to the second projection reference position is the same as the relative position of the first description reference position with respect to the first projection reference position, and the first projection reference position 2. The image data according to claim 1, further comprising: an extended composition unit that synthesizes the projection image data in which the projection range is expanded in a direction toward the description range with reference to the description image data. Processing equipment.
前記被投影体に記載された前記記載画像が複数存在し、それら複数の前記記載画像の各々が記載された範囲を個別記載範囲と定義した場合に、
前記拡張合成手段は、
複数の前記個別記載範囲のうちの前記投影範囲から最もはみ出ているものに向かう方向に前記投影範囲を拡張させた前記投影画像データと、前記記載画像データとを合成することを特徴とする請求項2に記載の画像データ処理装置。
When there are a plurality of the description images described in the projection object, and a range in which each of the plurality of description images is defined as an individual description range,
The extended synthesis means includes
The projection image data obtained by extending the projection range in a direction toward the one that protrudes most from the projection range among the plurality of individual description ranges, and the description image data are combined. 2. The image data processing apparatus according to 2.
前記拡張合成手段は、
前記複数の個別記載範囲のうちの1の個別記載範囲が前記投影範囲の上下方向の一方にはみ出ており、前記1の個別記載範囲と別の1の個別記載範囲が前記投影範囲の左右方向の一方にはみ出ている場合に、前記上下方向の一方と前記左右方向の一方とに前記投影範囲を拡張させた前記投影画像データと、前記記載画像データとを合成することを特徴とする請求項3に記載の画像データ処理装置。
The extended synthesis means includes
One individual description range out of the plurality of individual description ranges protrudes in one of the vertical directions of the projection range, and one individual description range different from the one individual description range is in the horizontal direction of the projection range. 4. The projection image data obtained by extending the projection range to one of the up and down directions and one of the left and right directions and the description image data when they are overhanging. The image data processing device described in 1.
前記拡張合成手段は、
前記投影範囲を拡張させた前記投影画像データと前記記載画像データとを合成した後に、前記合成画像データの画素数を減少させる処理を行うことを特徴とする請求項2ないし4の何れか1項に記載の画像データ処理装置。
The extended synthesis means includes
5. The process according to claim 2, further comprising: performing a process of reducing the number of pixels of the combined image data after combining the projected image data with the extended projection range and the description image data. The image data processing device described in 1.
前記データ合成手段は、
前記第2投影基準位置に対する前記第2記載基準位置の相対的な位置を、前記第1投影基準位置に対する前記第1記載基準位置の相対的な位置と同じとし、かつ、前記第1記載基準位置を基準として、前記投影範囲に向かう方向に前記記載範囲を収縮させた前記記載画像データと、前記投影画像データとを合成する収縮合成手段を有することを特徴とする請求項1ないし5の何れか1項に記載の画像データ処理装置。
The data synthesizing means includes
The relative position of the second description reference position with respect to the second projection reference position is the same as the relative position of the first description reference position with respect to the first projection reference position, and the first description reference position 6. The method according to claim 1, further comprising contraction combining means for combining the description image data in which the description range is contracted in a direction toward the projection range with reference to the projection image data. 2. An image data processing apparatus according to item 1.
前記データ合成手段は、
前記記載画像が文字列である場合に、前記第2投影基準位置に対する前記第2記載基準位置の相対的な位置を、前記第1投影基準位置に対する前記第1記載基準位置の相対的な位置と同じとし、かつ、前記第1記載基準位置を基準として、文字列を改行させた前記記載画像データと、前記投影画像データとを合成する改行合成手段を有することを特徴とする請求項1ないし6の何れか1項に記載の画像データ処理装置。
The data synthesizing means includes
When the description image is a character string, a relative position of the second description reference position with respect to the second projection reference position is defined as a relative position of the first description reference position with respect to the first projection reference position. 7. A line feed synthesizing unit for synthesizing the description image data obtained by changing the character string to the line feed with the first description reference position as a reference and the projection image data. The image data processing device according to any one of the above.
前記データ合成手段は、
前記第2投影基準位置に対する前記第2記載基準位置の相対的な位置が、前記第1投影基準位置に対する前記第1記載基準位置の相対的な位置から移動する状態で前記合成画像データを生成する移動合成手段を有し、
前記移動合成手段は、
前記合成画像データと、前記第1記載基準位置と前記第2記載基準位置とを結ぶ記号の記号データとを合成することで、前記第2記載基準位置の前記第1記載基準位置に対する相対的な位置を認識可能とすることを特徴とする請求項1ないし7の何れか1項に記載の画像データ処理装置。
The data synthesizing means includes
The composite image data is generated in a state where the relative position of the second described reference position with respect to the second projection reference position moves from the relative position of the first described reference position with respect to the first projection reference position. Having mobile synthesis means,
The migration synthesis means includes
By synthesizing the synthesized image data and the symbol data of the symbol connecting the first written reference position and the second written reference position, the second written reference position is relative to the first written reference position. 8. The image data processing apparatus according to claim 1, wherein the position can be recognized.
前記データ合成手段は、
前記第2投影基準位置に対する前記第2記載基準位置の相対的な位置を、前記第1投影基準位置に対する前記第1記載基準位置の相対的な位置と同じとし、かつ、前記第1記載基準位置を基準として、前記投影範囲に向かう方向に前記記載範囲を収縮させた前記記載画像データと、前記投影画像データとを合成する収縮合成手段を有し、
前記収縮合成手段における前記記載範囲の収縮率が所定の収縮率を超える場合に、前記移動合成手段に従って前記合成画像データを生成することを特徴とする請求項8に記載の画像データ処理装置。
The data synthesizing means includes
The relative position of the second description reference position with respect to the second projection reference position is the same as the relative position of the first description reference position with respect to the first projection reference position, and the first description reference position And the contraction synthesis means for synthesizing the description image data in which the description range is contracted in the direction toward the projection range, and the projection image data,
9. The image data processing apparatus according to claim 8, wherein when the contraction rate of the described range in the contraction combining unit exceeds a predetermined contraction rate, the combined image data is generated according to the movement combining unit.
前記被投影体に記載された前記記載画像が複数存在し、それら複数の前記記載画像の各々が記載された範囲を個別記載範囲と定義した場合に、
前記データ合成手段は、
複数の前記個別記載範囲のうちの前記投影範囲に全て入っているものに対応する前記記載画像データと前記投影画像データとを、前記投影範囲と前記個別記載範囲との相対的な位置を維持した状態で合成し、
複数の前記個別記載範囲のうちの前記投影範囲に少なくとも一部が入っていないものに対応する前記記載画像データと前記投影画像データとを、前記第2投影基準位置に対する前記第2記載基準位置の相対的な位置が、前記第1投影基準位置に対する前記第1記載基準位置の相対的な位置と同じとなる状態、若しくは、前記第2記載基準位置の前記第1記載基準位置に対する相対的な位置を認識可能な状態で、合成することを特徴とする請求項1ないし9の何れか1項に記載の画像データ処理装置。
When there are a plurality of the description images described in the projection object, and a range in which each of the plurality of description images is defined as an individual description range,
The data synthesizing means includes
The description image data and the projection image data corresponding to all of the plurality of the individual description ranges that are included in the projection range are maintained in a relative position between the projection range and the individual description range. Synthesized in the state,
Of the plurality of individual description ranges, the description image data and the projection image data corresponding to those in which at least a part is not included in the projection range, the second description reference position with respect to the second projection reference position A state in which the relative position is the same as the relative position of the first written reference position with respect to the first projection reference position, or the relative position of the second written reference position with respect to the first written reference position The image data processing apparatus according to claim 1, wherein the image data processing apparatus combines the images in a recognizable state.
前記被投影体に記載された前記記載画像が複数存在し、それら複数の前記記載画像の各々が記載された範囲を個別記載範囲と定義した場合に、
前記データ合成手段は、
複数の前記個別記載範囲のうちの2以上の個別記載範囲の少なくとも一部が前記投影範囲に入っていない場合に、前記2以上の個別記載範囲のうちの1の個別記載範囲に対応する前記記載画像データと前記投影画像データとを、所定の手法に従って合成し、前記2以上の個別記載範囲のうちの前記1の個別記載範囲と別の1の個別記載範囲に対応する前記記載画像データと前記投影画像データとを、前記所定の手法と異なる手法に従って合成することを特徴とする請求項1ないし10の何れか1項に記載の画像データ処理装置。
When there are a plurality of the description images described in the projection object, and a range in which each of the plurality of description images is defined as an individual description range,
The data synthesizing means includes
The description corresponding to one individual description range of the two or more individual description ranges when at least a part of two or more individual description ranges of the plurality of individual description ranges are not included in the projection range. The image data and the projection image data are synthesized according to a predetermined method, and the description image data corresponding to the one individual description range and the one individual description range of the two or more individual description ranges, and the The image data processing apparatus according to claim 1, wherein the projection image data is synthesized according to a technique different from the predetermined technique.
前記記載画像の外縁を示す外縁表示部によって、前記記載範囲を特定する記載範囲特定手段と、
前記外縁表示部の表示態様に応じて前記記載画像データと前記投影画像データとの合成手法を決定する合成手法決定手段と、
を備えることを特徴とする請求項1ないし11の何れか1項に記載の画像データ処理装置。
A description range specifying means for specifying the description range by means of an outer edge display unit indicating an outer edge of the description image;
A synthesis method determining means for determining a synthesis method of the description image data and the projection image data according to a display mode of the outer edge display unit;
The image data processing apparatus according to claim 1, further comprising:
画像データを記憶する画像データ記憶部と、
前記画像データ記憶部に記憶された画像データに基づく投影画像を被投影体に投影する画像投影部と、
前記投影画像が投影された前記被投影体に記載された記載画像を撮像し、前記記載画像の記載画像データを取得する撮像部と、
を備える画像データ処理装置のコンピュータが読み取り可能な画像データ処理プログラムであって、
前記撮像部により取得された前記記載画像データに基づいて、前記被投影体内の、前記投影画像が投影されている投影範囲に、前記記載画像が記載されている記載範囲の少なくとも一部が入っていないか否かを判断する判断手段と、
前記判断手段によって、前記投影範囲に、前記記載範囲の少なくとも一部が入っていないと判断された場合に、前記投影画像に対応する投影画像データと前記記載画像データとを合成した合成画像データを生成するデータ合成手段と、
前記データ合成手段によって合成された前記合成画像データを出力する合成データ出力手段と、
して前記コンピュータを機能させ、
前記被投影体に投影された前記投影画像内の特定の位置を第1投影基準位置と、
前記被投影体に記載された前記記載画像内の特定の位置であって、前記被投影体に投影された前記投影画像内に存在する位置を第1記載基準位置と、
前記合成画像データに基づく画像での、前記第1投影基準位置に相当する位置を第2投影基準位置と、
前記合成画像データに基づく画像での、前記第1記載基準位置に相当する位置を第2記載基準位置と、
それぞれ、定義した場合において、
前記データ合成手段は、
前記第2投影基準位置に対する前記第2記載基準位置の相対的な位置が、前記第1投影基準位置に対する前記第1記載基準位置の相対的な位置と同じとなる状態、若しくは、前記第2記載基準位置の前記第1記載基準位置に対する相対的な位置を認識可能な状態で、前記合成画像データを生成することを特徴とする画像データ処理プログラム。
An image data storage unit for storing image data;
An image projection unit that projects a projection image based on the image data stored in the image data storage unit onto a projection object;
An imaging unit that captures a description image described in the projection object on which the projection image is projected, and acquires description image data of the description image;
An image data processing program readable by a computer of an image data processing apparatus comprising:
Based on the description image data acquired by the imaging unit, at least a part of the description range in which the description image is described is included in a projection range in the projection target on which the projection image is projected. A judging means for judging whether or not there is,
When the determination unit determines that at least a part of the description range is not included in the projection range, composite image data obtained by combining the projection image data corresponding to the projection image and the description image data is obtained. Data synthesizing means to generate;
Synthesized data output means for outputting the synthesized image data synthesized by the data synthesizing means;
The computer to function,
A specific position in the projection image projected on the projection object is a first projection reference position,
A specific position in the description image described in the projection object, and a position existing in the projection image projected on the projection object is a first description reference position;
A position corresponding to the first projection reference position in the image based on the composite image data is a second projection reference position;
A position corresponding to the first description reference position in an image based on the composite image data is a second description reference position;
When defined,
The data synthesizing means includes
The relative position of the second description reference position with respect to the second projection reference position is the same as the relative position of the first description reference position with respect to the first projection reference position, or the second description An image data processing program for generating the composite image data in a state where a relative position of a reference position with respect to the first described reference position can be recognized.
JP2012256450A 2012-11-22 2012-11-22 Image data processing device and image data processing program Pending JP2014107572A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012256450A JP2014107572A (en) 2012-11-22 2012-11-22 Image data processing device and image data processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012256450A JP2014107572A (en) 2012-11-22 2012-11-22 Image data processing device and image data processing program

Publications (1)

Publication Number Publication Date
JP2014107572A true JP2014107572A (en) 2014-06-09

Family

ID=51028736

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012256450A Pending JP2014107572A (en) 2012-11-22 2012-11-22 Image data processing device and image data processing program

Country Status (1)

Country Link
JP (1) JP2014107572A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016012107A (en) * 2014-06-30 2016-01-21 キヤノンマーケティングジャパン株式会社 Information processing system, control method therefor, program therefor, information processing device, control method therefor, and program therefor

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016012107A (en) * 2014-06-30 2016-01-21 キヤノンマーケティングジャパン株式会社 Information processing system, control method therefor, program therefor, information processing device, control method therefor, and program therefor

Similar Documents

Publication Publication Date Title
US9684385B2 (en) Display device, display system, and data supply method for display device
US8943231B2 (en) Display device, projector, display system, and method of switching device
US8634659B2 (en) Image processing apparatus, computer readable medium storing program, and image processing method
JP4838694B2 (en) Electronic handwriting input device
US8827461B2 (en) Image generation device, projector, and image generation method
US7148905B2 (en) Systems and method for annotating pages in a three-dimensional electronic document
JP2007241537A (en) Projection system, projection device, personal digital assistant, control method for projection system and its program
US9658519B2 (en) Projection device and projection method
JP5134409B2 (en) Presentation system
JP2016038728A (en) Image display device, control method of image display device and program thereof
US10609249B2 (en) Scanner and scanning control program which outputs an original image and an extracted image in a single file
JP2006268263A (en) Electronic board system
JP2014107572A (en) Image data processing device and image data processing program
JP2008118317A (en) Projection device
JP7342501B2 (en) Display device, display method, program
JP6464599B2 (en) Image processing apparatus, image processing system, control method for image processing apparatus, and program
WO2009119025A1 (en) Presentation system
JP2015225509A (en) Information processor, information processing system, control method of information processor and computer program
JP7287156B2 (en) Display device, display method, program
JP2015139004A (en) Video projection device, video projection method, and computer program
JP6608080B1 (en) Projector system
JP2011096109A (en) Image processing apparatus and image processing program
KR101700117B1 (en) Interactive electronic authoring tool, computer apparatus and method for providing the same
JP2010145596A (en) Projector, program, and information storage medium
JP2022073496A (en) Determination method for projective transformation matrix, projector, and determination system