JP2014107572A - Image data processing device and image data processing program - Google Patents
Image data processing device and image data processing program Download PDFInfo
- Publication number
- JP2014107572A JP2014107572A JP2012256450A JP2012256450A JP2014107572A JP 2014107572 A JP2014107572 A JP 2014107572A JP 2012256450 A JP2012256450 A JP 2012256450A JP 2012256450 A JP2012256450 A JP 2012256450A JP 2014107572 A JP2014107572 A JP 2014107572A
- Authority
- JP
- Japan
- Prior art keywords
- projection
- description
- image data
- reference position
- range
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Projection Apparatus (AREA)
- Processing Or Creating Images (AREA)
- Transforming Electric Information Into Light Information (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
Description
本発明は、画像データを処理するための画像データ処理装置および画像データ処理プログラムに関する。 The present invention relates to an image data processing apparatus and an image data processing program for processing image data.
会議,プレゼンテーション等では、一般的にホワイトボード等の被投影体にプロジェクタを用いて画像を投影し、投影される画像を参照しながら、説明等が行われる。この際、ホワイトボードには、投影された画像に対してコメント等が記載される。このため、ホワイトボードに記載されたコメント等の内容を反映した資料を作成するべく、ホワイトボードに投影された画像と、ホワイトボードに記載されたコメント等との合成が望まれる。このため、下記特許文献に記載の画像データ処理装置では、カメラによりコメント等の記載を撮像し、その記載画像のデータと被投影体に投影された投影画像に対応するデータとを合成するための処理が行われている。 In meetings, presentations, etc., an image is generally projected onto a projection object such as a whiteboard using a projector, and explanations are given while referring to the projected image. At this time, a comment or the like is written on the projected image on the whiteboard. For this reason, in order to create a material reflecting the content of comments and the like written on the whiteboard, it is desired to combine the image projected on the whiteboard and the comments and the like written on the whiteboard. For this reason, in the image data processing device described in the following patent document, a description of a comment or the like is captured by a camera, and the data of the description image and the data corresponding to the projection image projected on the projection object are combined. Processing is in progress.
上記特許文献に記載の画像データ処理装置によれば、ホワイトボードに投影された投影画像と、ホワイトボードに記載されたコメント等との合成を行うことが可能となる。しかしながら、投影画像とコメントとが合成される際に、コメントの投影画像に対する相対的な位置が変更される場合があり、そのような場合には、合成された画像での投影画像とコメントとの位置関係が、ホワイトボード上での投影画像とコメントとの位置関係と異なる。投影画像とコメントとの位置関係の変化は、画像とコメントとの関連性を損なうため、合成された画像による判読性が低下する虞がある。本発明は、そのような事情に鑑みてなされたものであり、合成された画像の判読性を低下させることなく、投影画像とコメント等とを適切に合成することが可能な技術を提供する。 According to the image data processing device described in the above-mentioned patent document, it is possible to synthesize a projected image projected on a whiteboard and a comment or the like written on the whiteboard. However, when the projection image and the comment are combined, the relative position of the comment with respect to the projection image may be changed. In such a case, the projection image and the comment in the combined image may be changed. The positional relationship is different from the positional relationship between the projected image on the whiteboard and the comment. Since the change in the positional relationship between the projected image and the comment impairs the relevance between the image and the comment, the readability of the synthesized image may be reduced. The present invention has been made in view of such circumstances, and provides a technique capable of appropriately combining a projection image and a comment or the like without degrading the legibility of the combined image.
上記課題を解決するために、本発明に記載の画像データ処理装置は、画像データを記憶する画像データ記憶部と、前記画像データ記憶部に記憶された画像データに基づく投影画像を被投影体に投影する画像投影部と、前記投影画像が投影された前記被投影体に記載された記載画像を撮像し、前記記載画像の記載画像データを取得する撮像部と、を備える画像データ処理装置であって、前記撮像部により取得された前記記載画像データに基づいて、前記被投影体内の、前記投影画像が投影されている投影範囲に、前記記載画像が記載されている記載範囲の少なくとも一部が入っていないか否かを判断する判断手段と、前記判断手段によって、前記投影範囲に、前記記載範囲の少なくとも一部が入っていないと判断された場合に、前記投影画像に対応する投影画像データと前記記載画像データとを合成した合成画像データを生成するデータ合成手段と、前記データ合成手段によって合成された前記合成画像データを出力する合成データ出力手段と、を備え、前記被投影体に投影された前記投影画像内の特定の位置を第1投影基準位置と、前記被投影体に記載された前記記載画像内の特定の位置であって、前記被投影体に投影された前記投影画像内に存在する位置を第1記載基準位置と、前記合成画像データに基づく画像での、前記第1投影基準位置に相当する位置を第2投影基準位置と、前記合成画像データに基づく画像での、前記第1記載基準位置に相当する位置を第2記載基準位置と、それぞれ、定義した場合において、前記データ合成手段は、前記第2投影基準位置に対する前記第2記載基準位置の相対的な位置が、前記第1投影基準位置に対する前記第1記載基準位置の相対的な位置と同じとなる状態、若しくは、前記第2記載基準位置の前記第1記載基準位置に対する相対的な位置を認識可能な状態で、前記合成画像データを生成することを特徴とする。 In order to solve the above problems, an image data processing apparatus according to the present invention includes an image data storage unit that stores image data, and a projection image based on the image data stored in the image data storage unit. An image data processing apparatus comprising: an image projecting unit to project; and an image capturing unit that captures a description image described in the projection object onto which the projection image is projected and acquires description image data of the description image. Then, based on the description image data acquired by the imaging unit, at least a part of the description range in which the description image is described in the projection range in the projection target where the projection image is projected. A determination means for determining whether or not the image is not included; and when the determination means determines that the projection range does not include at least a part of the description range, Data combining means for generating combined image data obtained by combining the corresponding projection image data and the described image data, and combined data output means for outputting the combined image data combined by the data combining means, A specific position in the projection image projected onto the projection object is a first projection reference position and a specific position in the description image described on the projection object, and is projected onto the projection object. In addition, a position corresponding to the first projection reference position in the image based on the composite image data is a position that exists in the projection image, a second reference reference position, and the composite image data. In the case where the position corresponding to the first description reference position in the image based on the second description reference position is defined as the second description reference position, the data synthesis means 2. A state where the relative position of the second described reference position is the same as the relative position of the first described reference position with respect to the first projection reference position, or the first described reference position of the second described reference position The composite image data is generated in a state where a relative position with respect to can be recognized.
また、上記課題を解決するために、本発明に記載の画像データ処理プログラムは、画像データを記憶する画像データ記憶部と、前記画像データ記憶部に記憶された画像データに基づく投影画像を被投影体に投影する画像投影部と、前記投影画像が投影された前記被投影体に記載された記載画像を撮像し、前記記載画像の記載画像データを取得する撮像部と、を備える画像データ処理装置のコンピュータが読み取り可能な画像データ処理プログラムであって、前記撮像部により取得された前記記載画像データに基づいて、前記被投影体内の、前記投影画像が投影されている投影範囲に、前記記載画像が記載されている記載範囲の少なくとも一部が入っていないか否かを判断する判断手段と、前記判断手段によって、前記投影範囲に、前記記載範囲の少なくとも一部が入っていないと判断された場合に、前記投影画像に対応する投影画像データと前記記載画像データとを合成した合成画像データを生成するデータ合成手段と、前記データ合成手段によって合成された前記合成画像データを出力する合成データ出力手段と、して前記コンピュータを機能させ、前記被投影体に投影された前記投影画像内の特定の位置を第1投影基準位置と、前記被投影体に記載された前記記載画像内の特定の位置であって、前記被投影体に投影された前記投影画像内に存在する位置を第1記載基準位置と、前記合成画像データに基づく画像での、前記第1投影基準位置に相当する位置を第2投影基準位置と、前記合成画像データに基づく画像での、前記第1記載基準位置に相当する位置を第2記載基準位置と、それぞれ、定義した場合において、前記データ合成手段は、前記第2投影基準位置に対する前記第2記載基準位置の相対的な位置が、前記第1投影基準位置に対する前記第1記載基準位置の相対的な位置と同じとなる状態、若しくは、前記第2記載基準位置の前記第1記載基準位置に対する相対的な位置を認識可能な状態で、前記合成画像データを生成することを特徴とする。 In order to solve the above-described problem, an image data processing program according to the present invention includes an image data storage unit that stores image data, and a projection image based on the image data stored in the image data storage unit. An image data processing apparatus comprising: an image projecting unit that projects onto a body; and an imaging unit that captures a description image described on the projection object onto which the projection image is projected and acquires description image data of the description image The computer-readable image data processing program, wherein the description image is included in a projection range in the projection target in which the projection image is projected based on the description image data acquired by the imaging unit. A determination means for determining whether or not at least a part of the description range described is not included, and the determination means includes the description range in the projection range. When it is determined that at least a part of the data is not included, a data synthesis unit that generates synthesized image data obtained by synthesizing the projection image data corresponding to the projection image and the described image data, and a synthesis by the data synthesis unit A combined data output means for outputting the combined image data, the computer functioning, a specific position in the projection image projected on the projection object as a first projection reference position, and the projection target A specific position in the description image described on the body, and a position existing in the projection image projected on the projection object in the image based on the first description reference position and the composite image data , A position corresponding to the first projection reference position is a second projection reference position, and a position corresponding to the first description reference position in an image based on the composite image data is a second description reference position. In the case where each is defined, the data synthesizing unit is configured such that the relative position of the second described reference position with respect to the second projection reference position is relative to the first projection reference position. The synthesized image data is generated in a state that is the same as the current position, or in a state where the relative position of the second described reference position with respect to the first described reference position can be recognized.
このように構成された画像データ処理装置および画像データ処理プログラムでは、第2投影基準位置に対する第2記載基準位置の相対的な位置が、第1投影基準位置に対する第1記載基準位置の相対的な位置と同じとなる状態で、投影画像データと記載画像データとが合成される。つまり、合成された画像での投影画像の特定の位置と記載画像の特定の位置との位置関係が、被投影体上での投影画像の特定の位置と記載画像の特定の位置との位置関係と同じとなっている。これにより、ホワイトボード上での投影画像と記載画像との位置関係を維持した状態で、投影画像と記載画像とを合成することが可能となる。また、第2記載基準位置の第1記載基準位置に対する相対的な位置を認識可能な状態で、投影画像データと記載画像データとが合成される。つまり、合成された画像において、ホワイトボード上での記載画像の特定の位置と、合成画像での記載画像の特定の位置とを認識することが可能となる。これにより、合成画像において、合成前の記載画像の特定の位置を認識することが可能となる。したがって、本発明の画像データ処理装置および画像データ処理プログラムによれば、合成された画像の判読性を低下させることなく、投影画像と記載画像とを適切に合成することが可能となる。 In the image data processing apparatus and the image data processing program configured as described above, the relative position of the second described reference position with respect to the second projection reference position is the relative position of the first described reference position with respect to the first projection reference position. The projection image data and the description image data are synthesized in the same state as the position. That is, the positional relationship between the specific position of the projection image and the specific position of the description image in the synthesized image is the positional relationship between the specific position of the projection image and the specific position of the description image on the projection object. It is the same. Thereby, it is possible to synthesize the projection image and the description image while maintaining the positional relationship between the projection image and the description image on the whiteboard. Further, the projection image data and the description image data are synthesized in a state where the relative position of the second description reference position to the first description reference position can be recognized. That is, in the synthesized image, it is possible to recognize a specific position of the description image on the whiteboard and a specific position of the description image in the composite image. As a result, it is possible to recognize a specific position of the description image before composition in the composite image. Therefore, according to the image data processing apparatus and the image data processing program of the present invention, it is possible to appropriately synthesize the projected image and the description image without degrading the legibility of the synthesized image.
<プロジェクタの構成>
図1に、本願に係る実施形態として例示されるプロジェクタ10のブロック図を示す。プロジェクタ10は、CPU(Central Processing Unitの略)12、記憶部14、液晶パネル16、光源ランプ18、投影レンズ20、カメラ22、USB用I/F24を主に備えている。これらの構成要素は、入出力ポート26を介して互いに通信可能とされている。
<Configuration of projector>
FIG. 1 shows a block diagram of a
液晶パネル16は、プロジェクタ10に内蔵されており、画像を表示する。光源ランプ18は、画像が表示された液晶パネル16に向かって光を透過させる。投影レンズ20は、液晶パネル16を介して透過された光を、ホワイトボード,スクリーン等の被投影体に向かって拡大投影する。このような構成により、プロジェクタ10は、画像を被投影体上に投影する。
The
カメラ22は、被投影体に向かって配設されており、被投影体上に記載された文字等の記載画像を撮像する。また、USB用I/F24には、USBメモリ,PC(Personal computerの略)等を接続することが可能とされている。これにより、プロジェクタ10は、USBメモリ,PC等から画像データを得ることが可能である。
The
記憶部14は、画像データ処理プログラム28を記憶する。画像データ処理プログラム28は、被投影体に投影される画像に対応する画像データと、カメラ22の撮像により得られた撮像データとを合成するための処理を、CPU12に実行させるためのプログラムである。
The
また、記憶部14は、データ記憶領域30を備える。データ記憶領域30は、USB用I/F24を介して、USBメモリ,PC等から取得した画像データ、カメラ22の撮像により得られた撮像データなどを記憶する領域である。
In addition, the
CPU12は、記憶部14内の画像データ処理プログラム28に従って処理を実行する。以降、画像データ処理プログラム28を実行するCPU12のことを、単にプログラム名でも記載する場合がある。例えば、「画像データ処理プログラム28が」という記載は、「画像データ処理プログラム28を実行するCPU12が」ということを意味する場合がある。なお、記憶部14は、RAM(Random Access Memoryの略)、ROM(Read Only Memoryの略)、フラッシュメモリー、HDD(ハードディスクの略)、CPU12が備えるバッファなどが組み合わされて構成されている。
The
<プロジェクタの動作>
会議,プレゼンテーションでは、一般的にホワイトボード等の被投影体にプロジェクタ10を用いて画像を投影し、投影される画像を参照しながら、説明等が行われる。この際、ホワイトボードには、投影画像に対してコメント等の手書き情報が記載される。このため、ホワイトボードに記載された手書き情報の内容を反映した資料を作成するべく、ホワイトボードに投影された画像と、ホワイトボードに記載された手書き情報との合成が望まれる。
<Projector operation>
In conferences and presentations, an image is generally projected onto a projection object such as a whiteboard using the
ユーザは、合成すべき投影画像の投影範囲を示すマーキングを行う。ホワイトボード等に投影された画像は、通常、矩形である。ユーザは、その矩形の画像の対角する1対の角、具体的には、図10に示すように、画像の左上に位置する第1角部52と右下に位置する第2角部54とに、2個のマグネットボタン56,57を貼着する。プロジェクタ10は、マグネットボタン56,57の貼着位置から投影画像の投影範囲50を特定する。
The user performs marking indicating the projection range of the projection image to be synthesized. An image projected on a whiteboard or the like is usually rectangular. The user makes a pair of opposite corners of the rectangular image, specifically, as shown in FIG. 10, the
また、合成すべき手書き情報の記載範囲が、投影範囲と同じ手法、つまり、マグネットボタンの貼着により特定される。具体的には、図10に示すように、ユーザは、手書き情報としての記号60の左上に位置する第3角部62と右下に位置する第4角部64とに、2個のマグネットボタン66,67を貼着する。そして、プロジェクタ10は、マグネットボタン66,67の貼着位置から記号60の記載範囲70を特定する。
Further, the description range of the handwritten information to be synthesized is specified by the same method as the projection range, that is, by sticking the magnet button. Specifically, as shown in FIG. 10, the user has two magnet buttons on the
上記手法により、投影範囲50と記載範囲70とが特定されると、プロジェクタ10は、投影範囲50に記載範囲70の少なくとも一部が入っていないか否かを判断する。つまり、プロジェクタ10は、投影範囲50から記載範囲70の少なくとも一部がはみ出しているか否かを判断する。記載範囲70がはみ出していないと判断された場合、つまり、記載範囲70の全てが投影範囲50に入っている場合には、投影範囲50内の記載範囲70の相対的な位置を維持した状態で、投影画像の画像データと手書き情報の撮像データとの合成が行われる。
When the
一方、記載範囲70がはみ出していると判断された場合には、記載範囲70の全てが投影範囲50に入るように、撮像データ若しくは画像データが処理される。プロジェクタ10では、撮像データ若しくは画像データの処理手法として、5種類の処理手法が用意されており、それら5種類の処理手法から、ユーザは選択することが可能となっている。
On the other hand, when it is determined that the
詳しくは、5種類の処理手法に応じて、記載範囲70を特定するためのマグネットボタンも5種類用意されている。具体的には、四角形状のマグネットボタン66,67(図11参照)、三角形状のマグネットボタン72,73(図12参照)、星形状のマグネットボタン74,75(図13参照)、五角形状のマグネットボタン76,77(図14参照)、六角形状のマグネットボタン78,79(図15参照)が用意されている。そして、5種類のマグネットボタン66,67,72,73,74,75,76,77,78,79のうちのユーザに選択されたものが、ホワイトボードに貼着されることで、貼着されたマグネットボタンに応じた処理手法が採用される。これにより、ユーザは、簡便な方法により処理手法を選択することが可能となる。なお、プロジェクタ10では、上記5種類のマグネットボタン66,67,72,73,74,75,76,77,78,79以外のマグネットボタン(図示省略)も用意されており、そのマグネットボタンがホワイトボードに貼着された場合には、プロジェクタ10に予め設定された手法が採用される。以下に、5種類の処理手法について説明する。
Specifically, five types of magnet buttons for specifying the
1つ目の処理手法は、画像データに余白データを付加することで、合成された画像での投影範囲50を拡張させる手法である。詳しくは、図11に示すように、プロジェクタ10は、投影範囲50からはみ出している記載範囲70の一部に相当する箇所を含むように、画像データに余白データを付加する。これにより、合成画像80(右側に示される図)での投影範囲50は、第1角部52を基準として、記載範囲70に向かう方向に拡張される。そして、プロジェクタ10は、投影範囲50の第1角部52と記載範囲70の第3角部62との位置関係を維持した状態で、処理された画像データと撮像データとを合成する。
The first processing method is a method of extending the
投影範囲50の拡張後にデータの合成が行われる手法では、投影範囲50の第1角部52を基準として、投影範囲50が拡張されるため、投影範囲50を区画する第1角部52と、記載範囲70を区画する第3角部62との位置関係は、合成の前後において変化していない。つまり、ホワイトボード上でのマグネットボタン66のマグネットボタン56に対する相対的な位置と、合成画像80での第3角部62の第1角部52に対する相対的な位置とは、変化していない。これにより、投影画像と手書き情報との関連性を損なうことなく、投影画像と手書き情報との合成を行うことが可能となる。なお、拡張合成に従った手法に対応するマグネットボタンは、四角形状のマグネットボタン66,67である。
In the method in which data is synthesized after the
2つ目の処理手法は、上記拡張合成に従った手法で合成されたデータの画素数を減少させる手法である。詳しくは、拡張合成に従った手法では、画像データへの余白データの付加により、合成されたデータの画素数が、合成前の画像データの画素数より多くなっている。このため、プロジェクタ10は、合成されたデータの画素数を減少させるための処理を行う。例えば、図11での拡張合成に従った手法では、投影範囲50は、幅方向に拡張されている。このため、プロジェクタ10は、合成されたデータでの幅方向の画素数を、拡張処理前の画像データでの幅方向の画素数とするように、合成されたデータを処理する。これにより、合成画像80の画素数が少なくなり、合成画像80は、図12に示すように、収縮する。その結果、データ量の削減を図ることが可能となる。なお、拡張合成後に画素数を減少させる手法に対応するマグネットボタンは、三角形状のマグネットボタン72,73である。
The second processing method is a method of reducing the number of pixels of data synthesized by the method according to the above-described extended synthesis. Specifically, in the method according to the extended synthesis, the number of pixels of the synthesized data is larger than the number of pixels of the image data before synthesis by adding margin data to the image data. For this reason, the
3つ目の処理手法は、撮像データの画素数を減少させることで、合成された画像での記載範囲70を収縮させる手法である。詳しくは、図13に示すように、プロジェクタ10は、投影範囲50からはみ出している記載範囲70の一部が投影範囲50に入るように、撮像データの画素数を減少させる。これにより、合成画像80(右側に示される図)での記載範囲70は、第3角部62を基準として、投影範囲50に向かう方向に収縮する。そして、プロジェクタ10は、投影範囲50の第1角部52と記載範囲70の第3角部62との位置関係を維持した状態で、画像データと処理された撮像データとを合成する。
The third processing method is a method of shrinking the
記載範囲70の収縮後にデータの合成が行われる手法では、記載範囲70の第3角部62を基準として、記載範囲70が収縮されるため、投影範囲50を区画する第1角部52と、記載範囲70を区画する第3角部62との位置関係は、合成の前後において変化していない。つまり、ホワイトボード上でのマグネットボタン74のマグネットボタン56に対する相対的な位置と、合成画像80での第3角部62の第1角部52に対する相対的な位置とは、変化していない。これにより、投影画像と手書き情報との関連性を損なうことなく、投影画像と手書き情報との合成を行うことが可能となる。なお、収縮合成に従った手法に対応するマグネットボタンは、星形状のマグネットボタン74,75である。
In the method in which data is synthesized after the
また、収縮合成に従った手法での記載範囲70の収縮率が高くなり過ぎると、記載内容が解らなくなる虞がある。このため、収縮合成に従った手法での記載範囲70の収縮率が所定の収縮率を超える場合には、収縮合成に従った手法と異なる採用を採用することが可能である。これにより、記載範囲70の収縮により、記載内容が解らないといった事態を回避することが可能となる。なお、収縮合成に従った手法により、記載範囲70に記載された手書き情報が収縮され、その収縮された手書き情報の大きさが、所定の大きさより小さくなった場合において、収縮合成に従った手法と異なる手法を採用してもよい。
In addition, if the shrinkage rate in the
4つ目の処理手法は、記載範囲70の投影範囲50に対する相対的な位置を移動させる手法である。詳しくは、プロジェクタ10は、画像データに基づいて投影範囲50内の空白部を検出し、その空白部に記載範囲70を移動させるように、撮像データを処理する。そして、処理された撮像データと画像データとを合成する。さらに、合成されたデータに、記載範囲70の移動前後を結ぶ破線のデータを付加する。詳しくは、図14に示すように、プロジェクタ10は、マグネットボタン76の貼着位置に相当する合成画像80での位置と、合成画像80での記載範囲70の第3角部62とを結ぶ破線82のデータを、合成されたデータに付加する。この破線82によって、移動後の手書き情報の位置と移動前の手書き情報の位置とを関連付けることが可能となり、データの合成前に手書き情報が投影画像の何処に記載されていたかを認識することが可能となる。なお、移動合成に従った手法に対応するマグネットボタンは、五角形状のマグネットボタン76,77である。
The fourth processing method is a method of moving the relative position of the
5つ目の処理手法は、手書き情報が文字列であった場合に、文字列を改行させる手法である。詳しくは、図15に示すように、プロジェクタ10は、投影範囲50の外に存在する記載範囲70を、文字列の1行毎に、投影範囲50の内側に存在する文字と外側に存在する文字とに、改行指定範囲86を用いて分割する。そして、文字列の1行毎に、投影範囲50の外に存在する改行指定範囲86が、投影範囲50内に存在する改行指定範囲86の下に位置するように、撮像データを処理する。ただし、文字列の改行は、第3角部62を基準として行われる。つまり、プロジェクタ10は、第3角部62を含む改行指定範囲86の位置を維持し、その維持された改行指定範囲86の下方に、他の改行指定範囲86を順次、改行する。そして、投影範囲50の第1角部52と記載範囲70の第3角部62との位置関係を維持した状態で、画像データと処理された撮像データとを合成する。
The fifth processing method is a method for causing a line break in a character string when the handwritten information is a character string. Specifically, as shown in FIG. 15, the
文字列の改行された撮像データと画像データとの合成が行われる手法では、記載範囲70の第3角部62を基準として、文字列が改行されるため、投影範囲50を区画する第1角部52と、記載範囲70を区画する第3角部62との位置関係は、合成の前後において変化していない。つまり、ホワイトボード上でのマグネットボタン78のマグネットボタン56に対する相対的な位置と、合成画像80での第3角部62の第1角部52に対する相対的な位置とは、変化していない。これにより、投影画像と手書き情報との関連性を損なうことなく、投影画像と手書き情報との合成を行うことが可能となる。なお、改行合成に従った手法に対応するマグネットボタンは、六角形状のマグネットボタン78,79である。
In the technique in which imaging data and image data in which a character string is broken are combined, the character string is broken with reference to the
<画像データ処理プログラム>
上記画像データと撮像データとの合成処理は、画像データ処理プログラム28がCPU12によって実行されることで行われる。以下に、図2乃至図9を用いて、投影画像と手書き情報との合成を行うためのフローを説明する。
<Image data processing program>
The composition process of the image data and the imaging data is performed by the image
まず、図2に示すメインフローのS100において、CPU12は、ホワイトボードに投影された投影画像と、ホワイトボードに記載された手書き情報との合成が要求されたか否かを判断する。具体的には、プロジェクタ10には、投影画像と手書き情報との合成処理を開始するための合成開始ボタン(図示省略)が設けられており、CPU12は、合成開始ボタンが操作されたか否かを判断する。合成開始ボタンが操作されていない場合(S100:NO)、つまり、投影画像と手書き情報との合成が要求されていない場合にはS100の処理が繰り返される。
First, in S100 of the main flow shown in FIG. 2, the
一方、投影画像と手書き情報との合成が要求されている場合(S100:YES)にはS102に進む。S102において、CPU12は、光源ランプ18を消灯し、ホワイトボードへの投影画像の投影を中止する。そして、S104に進む。
On the other hand, when the composition of the projection image and the handwritten information is requested (S100: YES), the process proceeds to S102. In S102, the
S104において、CPU12は、カメラ22に撮像指令を送信する。これにより、カメラ22は、ホワイトボードに記載された手書き情報を撮像する。そして、S106に進む。S106において、CPU12は、ホワイトボードに投影された投影画像の投影範囲を特定するためのマーカーと、ホワイトボードに記載された手書き情報の記載範囲を特定するためのマーカーとを認識できたか否かを判断する。
In S <b> 104, the
具体的には、CPU12は、マグネットボタン56,57,66,67,72,73,74,75,76,77,78,79がホワイトボードに貼着されているか否かを、カメラ22による撮像データに基づいて判断する。この判断では、マグネットボタンの形状,色等を利用して、撮像データの中でのマグネットボタンの画像データの存在の有無が判断される。マグネットボタンが認識できない場合(S106:NO)にはS108に進む。S108において、CPU12は、エラー発生を示すための画像をホワイトボードに投影する。そして、メインフローを終了する。
Specifically, the
一方、マグネットボタンが認識できた場合(S106:YES)にはS110に進む。S110において、CPU12は、図3に示す合成処理フローに従った処理を行う。合成処理フローでは、S120において、CPU12は、マグネットボタン66,67,72,73,74,75,76,77,78,79の貼着位置から記号60の記載範囲70を特定する。そして、S122に進む。
On the other hand, if the magnet button can be recognized (S106: YES), the process proceeds to S110. In S110, the
S122において、CPU12は、マグネットボタン56,57の貼着位置から投影画像の投影範囲50を特定する。そして、S124に進む。S124において、CPU12は、記載範囲70が投影範囲50外に存在するか否かを判断する。つまり、記載範囲70の少なくとも一部が投影範囲50に入っていないか否かを判断する。記載範囲70が投影範囲50外に存在しない場合(S124:NO)にはS126に進む。S126において、CPU12は、記載範囲70の投影範囲50内での相対的な位置を維持した状態で、撮像データと画像データとを合成する。そして、合成処理フローを終了し、メインフローに戻る。
In S <b> 122, the
一方、記載範囲70が投影範囲50外に存在する場合(S124:YES)にはS128に進む。S128において、CPU12は、記載範囲70を特定するためのマグネットボタンが、ユーザ指定に対応したマグネットボタンであるか否かを判断する。具体的には、CPU12は、撮像データに基づいて、ホワイトボードにマグネットボタン66,67,72,73,74,75,76,77,78,79が貼着されているか否かを判断する。ホワイトボードにマグネットボタン66,67,72,73,74,75,76,77,78,79が貼着されている場合(S128:YES)にはS130に進む。S130において、CPU12は、図4に示すマーカー判定フローに従った処理を行う。
On the other hand, when the
マーカー判定フローでは、S140において、CPU12は、拡張合成に従った手法が指定されているか否かを判断する。具体的には、ホワイトボードにマグネットボタン66,67,72,73が貼着されているか否かを判断する。ホワイトボードにマグネットボタン66,67,72,73が貼着されている場合(S140:YES)にはS142に進む。S142において、CPU12は、図5に示す拡張合成フローに従った処理を行う。
In the marker determination flow, in S140, the
拡張合成フローでは、S160において、CPU12は、上述したように、画像データに余白データを付与し、投影範囲50を拡張させる。そして、S162に進む。S162において、CPU12は、投影範囲50の第1角部52と記載範囲70の第3角部62との位置関係を維持した状態で、撮像データと投影範囲50が拡張された画像データとを合成する。これにより、図11に示すような合成画像80(右側に示される図)が得られる。そして、S164に進む。S164において、CPU12は、マーカーにより収縮指示がされているか否かを判断する。
In the extended synthesis flow, in S160, the
具体的には、CPU12は、ホワイトボードにマグネットボタン72,73が貼着されているか否かを判断する。ホワイトボードにマグネットボタン72,73が貼着されていない場合、つまり、収縮指示がされていない場合(S164:NO)には、拡張合成フローを終了し、マーカー判定フローに戻る。
Specifically, the
一方、ホワイトボードにマグネットボタン72,73が貼着されている場合、つまり、収縮指示がされている場合(S164:YES)にはS166に進む。S166において、CPU12は、合成されたデータを、上述したように、合成された画像の画素数が合成前の画像の画素数となるように、処理する。これにより、合成画像80の画素数が少なくなり、図12に示すように、合成画像80が収縮する。そして、拡張合成フローを終了し、マーカー判定フローに戻る。
On the other hand, if the
一方、マーカー判定フローのS140において、拡張合成に従った手法が指定されていない場合(S140:NO)にはS144に進む。S144において、CPU12は、収縮合成に従った手法が指定されているか否かを判断する。具体的には、ホワイトボードに貼着されたマグネットボタン74,75が貼着されているか否かを判断する。ホワイトボードにマグネットボタン74,75が貼着されている場合(S144:YES)にはS146に進む。S146において、CPU12は、図6に示す収縮合成フローに従った処理を行う。
On the other hand, in S140 of the marker determination flow, when the method according to the extended synthesis is not designated (S140: NO), the process proceeds to S144. In S144, the
収縮合成フローでは、S170において、CPU12は、ホワイトボードに記載された手書き情報のグループを検出する。詳しくは、手書き情報は、ホワイドボードの複数の部分に分離して記載されている場合があり、そのような場合には、複数の個別の記載範囲が存在する。このため、S170において、CPU12は、1以上の記載範囲を手書き情報のグループとして検出する。そして、S172に進む。
In the shrinkage synthesis flow, in S170, the
S172において、CPU12は、手書き情報のグループのうちの投影範囲50の外に存在する記載範囲70を収縮するように、撮像データを処理する。詳しくは、1以上の記載範囲70のうちの投影範囲50の外に存在する記載範囲70を抽出する。そして、抽出した記載範囲70の撮像データに対して、上述したように、画素数を減少させる処理を行う。これにより、記載範囲70が投影範囲50内に納まるように収縮する。そして、S174に進む。
In S172, the
S174において、CPU12は、投影範囲50の第1角部52と記載範囲70の第3角部62との位置関係を維持した状態で、画像データと記載範囲70が収縮された撮像データとを合成する。これにより、図13に示すような合成画像80(右側に示される図)が得られる。そして、収縮合成フローを終了し、マーカー判定フローに戻る。
In S174, the
一方、マーカー判定フローのS144において、収縮合成に従った処理が採用されていない場合(S144:NO)にはS148に進む。S148において、CPU12は、移動合成に従った手法が指定されているか否かを判断する。具体的には、ホワイトボードにマグネットボタン76,77が貼着されているか否かを判断する。ホワイトボードにマグネットボタン76,77が貼着されている場合(S148:YES)にはS150に進む。S150において、CPU12は、図7に示す移動合成フローに従った処理を行う。
On the other hand, in S144 of the marker determination flow, if the process according to contraction synthesis is not employed (S144: NO), the process proceeds to S148. In S <b> 148, the
移動合成フローでは、S180において、CPU12は、画像データに基づいて、投影画像の空白部を検出する。そして、S182に進む。S182において、CPU12は、ホワイトボードに記載された手書き情報のグループを検出する。そして、S184に進む。S184において、CPU12は、手書き情報のグループのうちの投影範囲50の外に存在する記載範囲70を画像の空白部に移動するように、撮像データを処理する。詳しくは、1以上の記載範囲70のうちの投影範囲50の外に存在する記載範囲70を抽出する。そして、抽出された記載範囲70が画像の空白部に移動するように、撮像データを処理する。そして、S186に進む。
In the movement synthesis flow, in S180, the
S186において、CPU12は、画像データと処理された撮像データとを合成する。そして、S188に進む。S188において、CPU12は、上述したように、合成されたデータに、記載範囲70の移動前後を結ぶ破線のデータを付加する。そして、移動合成フローを終了し、マーカー判定フローに戻る。
In S186, the
一方、マーカー判定フローのS148において、移動合成に従った手法が指定されていない場合(S148:NO)にはS152に進む。S152において、CPU12は、図8に示す改行合成フローに従った処理を行う。
On the other hand, in S148 of the marker determination flow, when the method according to the move synthesis is not designated (S148: NO), the process proceeds to S152. In S152, the
改行合成フローでは、S190において、CPU12は、ホワイトボードに記載された手書き情報のグループを検出する。そして、S192に進む。S192において、CPU12は、手書き情報のグループ、つまり、1以上の記載範囲70のうちの少なくとも1つが投影範囲50の外に存在するか否かを判断する。1以上の記載範囲70の少なくとも1つが投影範囲50の外に存在する場合(S192:YES)には、S194に進む。
In the line feed composition flow, in S190, the
S194において、CPU12は、投影範囲50の外に存在する手書き情報が文字列であるか否かを判断する。この判断では、撮像データの中での文字データの存在の有無が判断される。投影範囲50の外に存在する手書き情報が文字列である場合(S194:YES)には、S196に進む。S196において、CPU12は、図15に示すように、投影範囲50の外に存在する記載範囲70を、文字列の1行毎に、投影範囲50の内側に存在する文字と外側に存在する文字とに、改行指定範囲86を用いて分割する。そして、S198に進む。
In S194, the
S198において、CPU12は、文字列の1行毎に、投影範囲50の外に存在する改行指定範囲86が、投影範囲50内に存在する改行指定範囲86の下に位置するように、撮像データを処理する。この際、第3角部62を基準として、文字列の改行が行われる。そして、S200に進む。
In S <b> 198, the
S200において、CPU12は、投影範囲50の第1角部52と記載範囲70の第3角部62との位置関係を維持した状態で、画像データと処理された撮像データとを合成する。これにより、図15に示すような合成画像80(右下側に示される図)が得られる。そして、改行合成フローを終了し、マーカー判定フローに戻る。
In S <b> 200, the
なお、S192で1以上の記載範囲70の少なくとも1つが投影範囲50の外に存在しない場合(S192:NO)及び、S194で投影範囲50の外に存在する手書き情報が文字列でない場合(S194:NO)には、改行合成フローを終了し、マーカー判定フローに戻る。
When at least one of the one or more description ranges 70 does not exist outside the
また、合成処理フローのS128において、ホワイトボードにマグネットボタン66,67,72,73,74,75,76,77,78,79が貼着されていない場合、つまり、記載範囲70を特定するためのマグネットボタンが、ユーザ指定に対応したマグネットボタンでない場合(S128:NO)にはS132に進む。S132において、CPU12は、図9に示す合成処理自動判定フローに従った処理を行う。
In S128 of the composition processing flow, when the
合成処理自動判定フローでは、S210において、CPU12は、ホワイトボードに記載された手書き情報のグループを検出する。そして、S212に進む。S212において、CPU12は、手書き情報のグループのうちの投影範囲50の外に存在する記載範囲70を収縮合成に従った手法で収縮させた場合に、その収縮率が所定の収縮率以下であるか否かを判断する。
In the composition processing automatic determination flow, in S210, the
記載範囲70を収縮させた場合の収縮率が所定の収縮率以下である場合(S212:YES)にはS214に進む。S214では、上記S172と同じ処理が行われる。そして、S216に進む。S216では、S174と同じ処理が行われる。そして、合成処理自動判定フローを終了し、合成処理フローに戻る。
When the contraction rate when the
一方、記載範囲70を収縮させた場合の収縮率が所定の収縮率を超えている場合(S212:NO)にはS218に進む。S218では、上記S180と同じ処理が行われる。そして、S220に進む。S220では、S184と同じ処理が行われる。そして、S222に進む。S222では、S186と同じ処理が行われる。そして、S224に進む。S224では、S188と同じ処理が行われる。そして、合成処理自動判定フローを終了し、合成処理フローに戻る。
On the other hand, when the contraction rate when the
合成処理フローにおいて、画像データと撮像データとの合成処理が終了すると、合成処理フローを終了し、メインフローに戻る。メインフローでは、合成処理フローの終了後にS112に進む。S112において、CPU12は、画像データと撮像データとの合成処理が成功したか否かを判断する。
In the compositing process flow, when the compositing process between the image data and the imaged data ends, the compositing process flow ends and the process returns to the main flow. In the main flow, the process proceeds to S112 after the synthesis processing flow ends. In S <b> 112, the
画像データと撮像データとの合成処理が成功した場合(S112:YES)にはS114に進む。S114において、CPU12は、合成したデータに基づく画像をホワイトボードに投影する。そして、メインフローを終了する。一方、画像データと撮像データとの合成処理が成功しなかった場合(S112:NO)にはS108に進む。S108において、CPU12は、エラー発生を示すための画像をホワイトボードに投影する。そして、メインフローを終了する。
If the image data and imaging data have been successfully combined (S112: YES), the process proceeds to S114. In S114, the
<変形例>
本実施形態に係るプロジェクタ10では、投影範囲50及び記載範囲70は、マグネットボタンの形状によって特定されているが、マグネットボタンに印刷された模様等によって、投影範囲50及び記載範囲70を特定することが可能である。なお、マグネットボタンの形状,模様等は、三角形等の単純な形状ではなく複雑な形状とすることが可能である。マグネットボタンの形状,模様等を複雑な形状にすることで、手書き画像や投影画像の一部と、マグネットボタンとの誤認の可能性を低くすることが可能となる。また、マグネットボタンによる投影範囲等の特定に限られず、種々の手段により投影範囲等を特定することが可能である。具体的には、例えば、投影範囲50及び記載範囲70は、ホワイトボードに記載された線等の描画によって特定されてもよい。
<Modification>
In the
また、本実施形態に係るプロジェクタ10では、投影画像に対応するデータとして、データ記憶領域30に記憶されている画像データが用いられているが、ホワイトボードに投影された投影画像をカメラ22により撮像し、その撮像データを投影画像に対応するデータとして用いることが可能である。
In the
また、本実施形態に係るプロジェクタ10では、合成されたデータに基づく画像は、ホワイトボードに投影されているが、種々の手段により、合成されたデータを出力することが可能である。具体的には、例えば、プリンタ等により、合成されたデータに基づく画像を印刷してもよく、合成されたデータに基づく画像をパネル等に表示することも可能である。また、他の装置に、合成されたデータを送信することで、出力してもよい。
In the
また、本実施形態に係るプロジェクタ10では、1の記載範囲70が投影範囲50の外にある場合について説明しているが、複数の記載範囲70が投影範囲50の外にある場合にも、上記手法を採用することが可能である。具体的には、例えば、図16に示すように、2の記載範囲70が投影範囲50の外にあり、2の記載範囲70と投影範囲50とを、拡張合成に従った手法により合成する場合には、2の記載範囲70が投影範囲50内に納まるように、画像データを処理する必要がある。詳しくは、1の記載範囲70が投影範囲50の右方向にはみ出しており、別の1の記載範囲70が投影範囲50の下方にはみ出している。このため、投影範囲50を、第1角部52を基準として、右方向および下方向に拡張させる。ちなみに、投影範囲50は、2の記載範囲70が投影範囲50に納まるように拡張させる必要がある。
Further, in the
また、例えば、複数の記載範囲70が投影範囲50の外にある場合には、複数の記載範囲70のうちの1の記載範囲70と投影範囲50とを、所定の合成手法により合成し、複数の記載範囲70のうちの別の1の記載範囲70と投影範囲50とを、その所定の合成手法と異なる合成手法により合成することが可能である。具体的には、例えば、図17に示すように、2の記載範囲70が投影範囲50の外にある場合には、2の記載範囲70のうちの一方の記載範囲(図でマグネットボタン74,75により特定される記載範囲)に対応する撮像データと、画像データとを、収縮合成に従った手法により合成し、2の記載範囲70のうちの他方の記載範囲(図でマグネットボタン76,77により特定される記載範囲)に対応する撮像データと、画像データとを、移動合成に従った手法により合成してもよい。
Further, for example, when a plurality of description ranges 70 are outside the
また、本実施形態のプロジェクタ10では、画像データ処理プログラム28に基づいて実行するCPU12が、各種の処理を行う場合を説明した。しかし、この形態に限られない。画像データ処理プログラム28に基づいて実行するCPU12が、他のシステム、ハード構成に対して、各種の処理を行わせる指示を出す形態であってもよい。
In the
また、本明細書または図面に説明した技術要素は、単独であるいは各種の組み合わせによって技術的有用性を発揮するものであり、出願時請求項記載の組み合わせに限定されるものではない。また、本明細書または図面に例示した技術は複数目的を同時に達成するものであり、そのうちの一つの目的を達成すること自体で技術的有用性を持つものである。 In addition, the technical elements described in the present specification or the drawings exhibit technical usefulness alone or in various combinations, and are not limited to the combinations described in the claims at the time of filing. In addition, the technology illustrated in the present specification or the drawings achieves a plurality of objects at the same time, and has technical utility by achieving one of the objects.
プロジェクタ10は画像データ処理装置の一例である。CPU12はコンピュータの一例である。記憶部14は、画像データ記憶部の一例である。液晶パネル16と光源ランプ18と投影レンズ20とによって構成されるものは、画像投影部の一例である。カメラ22は、撮像部の一例である。画像データ処理プログラム28は画像データ処理プログラムの一例である。ホワイトボードは被投影体の一例である。マグネットボタン66,67,72,73,74,75,76,77,78,79は外縁表示部の一例である。記号60は記載画像の一例である。破線82は記号の一例である。ホワイトボード上でのマグネットボタン56が貼着された位置は第1投影基準位置の一例である。ホワイトボード上でのマグネットボタン66,72,74,76,78が貼着された位置は第1記載基準位置の一例である。合成画像80での第1角部52の位置は第2投影基準位置の一例である。合成画像80での第3角部62の位置は第2記載基準位置の一例である。S120を実行するCPU12は、記載範囲特定手段の一例である。S124を実行するCPU12は、判断手段の一例である。S132,S142,S146,S150,S152を実行するCPU12は、データ合成手段の一例である。S114を実行するCPU12は、合成データ出力手段の一例である。S140,S144,S148を実行するCPU12は、合成手法決定手段の一例である。S142を実行するCPU12は、拡張合成手段の一例である。S146を実行するCPU12は、収縮合成手段の一例である。S150を実行するCPU12は、移動合成手段の一例である。S152を実行するCPU12は、改行合成手段の一例である。画像データは投影画像データの一例である。撮像データは記載画像データの一例である。
The
なお、各プログラムは一つのプログラムモジュールから構成されるものであってもよいし、複数のプログラムモジュールから構成されるものであってもよい。また、各一例は置換可能な他の構成であってもよく、本発明の範疇である。画像データ処理プログラム28に基づく処理を実行するコンピュータ(CPU12)であってもよいし、オペレーティングシステムや他のアプリケーション、プログラムなど、画像データ処理プログラム以外のプログラムに基づく処理を実行するコンピュータであってもよいし、コンピュータの指示に従って動作するハード構成であってもよいし、コンピュータとハード構成とが連動した構成であってもよい。もちろん、複数のプログラムに基づく処理を連動させて処理を実行するコンピュータであってもよいし、複数のプログラムに基づく処理を連動させて処理を実行するコンピュータの指示に従って動作するハード構成であってもよい。
Each program may be composed of a single program module, or may be composed of a plurality of program modules. In addition, each example may have another replaceable configuration and is within the scope of the present invention. It may be a computer (CPU 12) that executes processing based on the image
10:プロジェクタ、12:CPU、14:記憶部、16:液晶パネル、18:光源ランプ、20:投影レンズ、22:カメラ 10: projector, 12: CPU, 14: storage unit, 16: liquid crystal panel, 18: light source lamp, 20: projection lens, 22: camera
Claims (13)
前記画像データ記憶部に記憶された画像データに基づく投影画像を被投影体に投影する画像投影部と、
前記投影画像が投影された前記被投影体に記載された記載画像を撮像し、前記記載画像の記載画像データを取得する撮像部と、
を備える画像データ処理装置であって、
前記撮像部により取得された前記記載画像データに基づいて、前記被投影体内の、前記投影画像が投影されている投影範囲に、前記記載画像が記載されている記載範囲の少なくとも一部が入っていないか否かを判断する判断手段と、
前記判断手段によって、前記投影範囲に、前記記載範囲の少なくとも一部が入っていないと判断された場合に、前記投影画像に対応する投影画像データと前記記載画像データとを合成した合成画像データを生成するデータ合成手段と、
前記データ合成手段によって合成された前記合成画像データを出力する合成データ出力手段と、
を備え、
前記被投影体に投影された前記投影画像内の特定の位置を第1投影基準位置と、
前記被投影体に記載された前記記載画像内の特定の位置であって、前記被投影体に投影された前記投影画像内に存在する位置を第1記載基準位置と、
前記合成画像データに基づく画像での、前記第1投影基準位置に相当する位置を第2投影基準位置と、
前記合成画像データに基づく画像での、前記第1記載基準位置に相当する位置を第2記載基準位置と、
それぞれ、定義した場合において、
前記データ合成手段は、
前記第2投影基準位置に対する前記第2記載基準位置の相対的な位置が、前記第1投影基準位置に対する前記第1記載基準位置の相対的な位置と同じとなる状態、若しくは、前記第2記載基準位置の前記第1記載基準位置に対する相対的な位置を認識可能な状態で、前記合成画像データを生成することを特徴とする画像データ処理装置。 An image data storage unit for storing image data;
An image projection unit that projects a projection image based on the image data stored in the image data storage unit onto a projection object;
An imaging unit that captures a description image described in the projection object on which the projection image is projected, and acquires description image data of the description image;
An image data processing apparatus comprising:
Based on the description image data acquired by the imaging unit, at least a part of the description range in which the description image is described is included in a projection range in the projection target on which the projection image is projected. A judging means for judging whether or not there is,
When the determination unit determines that at least a part of the description range is not included in the projection range, composite image data obtained by combining the projection image data corresponding to the projection image and the description image data is obtained. Data synthesizing means to generate;
Synthesized data output means for outputting the synthesized image data synthesized by the data synthesizing means;
With
A specific position in the projection image projected on the projection object is a first projection reference position,
A specific position in the description image described in the projection object, and a position existing in the projection image projected on the projection object is a first description reference position;
A position corresponding to the first projection reference position in the image based on the composite image data is a second projection reference position;
A position corresponding to the first description reference position in an image based on the composite image data is a second description reference position;
When defined,
The data synthesizing means includes
The relative position of the second description reference position with respect to the second projection reference position is the same as the relative position of the first description reference position with respect to the first projection reference position, or the second description The composite image data is generated in a state where a relative position of a reference position with respect to the first described reference position can be recognized.
前記第2投影基準位置に対する前記第2記載基準位置の相対的な位置を、前記第1投影基準位置に対する前記第1記載基準位置の相対的な位置と同じとし、かつ、前記第1投影基準位置を基準として、前記記載範囲に向かう方向に前記投影範囲を拡張させた前記投影画像データと、前記記載画像データとを合成する拡張合成手段を有することを特徴とする請求項1に記載の画像データ処理装置。 The data synthesizing means includes
The relative position of the second description reference position with respect to the second projection reference position is the same as the relative position of the first description reference position with respect to the first projection reference position, and the first projection reference position 2. The image data according to claim 1, further comprising: an extended composition unit that synthesizes the projection image data in which the projection range is expanded in a direction toward the description range with reference to the description image data. Processing equipment.
前記拡張合成手段は、
複数の前記個別記載範囲のうちの前記投影範囲から最もはみ出ているものに向かう方向に前記投影範囲を拡張させた前記投影画像データと、前記記載画像データとを合成することを特徴とする請求項2に記載の画像データ処理装置。 When there are a plurality of the description images described in the projection object, and a range in which each of the plurality of description images is defined as an individual description range,
The extended synthesis means includes
The projection image data obtained by extending the projection range in a direction toward the one that protrudes most from the projection range among the plurality of individual description ranges, and the description image data are combined. 2. The image data processing apparatus according to 2.
前記複数の個別記載範囲のうちの1の個別記載範囲が前記投影範囲の上下方向の一方にはみ出ており、前記1の個別記載範囲と別の1の個別記載範囲が前記投影範囲の左右方向の一方にはみ出ている場合に、前記上下方向の一方と前記左右方向の一方とに前記投影範囲を拡張させた前記投影画像データと、前記記載画像データとを合成することを特徴とする請求項3に記載の画像データ処理装置。 The extended synthesis means includes
One individual description range out of the plurality of individual description ranges protrudes in one of the vertical directions of the projection range, and one individual description range different from the one individual description range is in the horizontal direction of the projection range. 4. The projection image data obtained by extending the projection range to one of the up and down directions and one of the left and right directions and the description image data when they are overhanging. The image data processing device described in 1.
前記投影範囲を拡張させた前記投影画像データと前記記載画像データとを合成した後に、前記合成画像データの画素数を減少させる処理を行うことを特徴とする請求項2ないし4の何れか1項に記載の画像データ処理装置。 The extended synthesis means includes
5. The process according to claim 2, further comprising: performing a process of reducing the number of pixels of the combined image data after combining the projected image data with the extended projection range and the description image data. The image data processing device described in 1.
前記第2投影基準位置に対する前記第2記載基準位置の相対的な位置を、前記第1投影基準位置に対する前記第1記載基準位置の相対的な位置と同じとし、かつ、前記第1記載基準位置を基準として、前記投影範囲に向かう方向に前記記載範囲を収縮させた前記記載画像データと、前記投影画像データとを合成する収縮合成手段を有することを特徴とする請求項1ないし5の何れか1項に記載の画像データ処理装置。 The data synthesizing means includes
The relative position of the second description reference position with respect to the second projection reference position is the same as the relative position of the first description reference position with respect to the first projection reference position, and the first description reference position 6. The method according to claim 1, further comprising contraction combining means for combining the description image data in which the description range is contracted in a direction toward the projection range with reference to the projection image data. 2. An image data processing apparatus according to item 1.
前記記載画像が文字列である場合に、前記第2投影基準位置に対する前記第2記載基準位置の相対的な位置を、前記第1投影基準位置に対する前記第1記載基準位置の相対的な位置と同じとし、かつ、前記第1記載基準位置を基準として、文字列を改行させた前記記載画像データと、前記投影画像データとを合成する改行合成手段を有することを特徴とする請求項1ないし6の何れか1項に記載の画像データ処理装置。 The data synthesizing means includes
When the description image is a character string, a relative position of the second description reference position with respect to the second projection reference position is defined as a relative position of the first description reference position with respect to the first projection reference position. 7. A line feed synthesizing unit for synthesizing the description image data obtained by changing the character string to the line feed with the first description reference position as a reference and the projection image data. The image data processing device according to any one of the above.
前記第2投影基準位置に対する前記第2記載基準位置の相対的な位置が、前記第1投影基準位置に対する前記第1記載基準位置の相対的な位置から移動する状態で前記合成画像データを生成する移動合成手段を有し、
前記移動合成手段は、
前記合成画像データと、前記第1記載基準位置と前記第2記載基準位置とを結ぶ記号の記号データとを合成することで、前記第2記載基準位置の前記第1記載基準位置に対する相対的な位置を認識可能とすることを特徴とする請求項1ないし7の何れか1項に記載の画像データ処理装置。 The data synthesizing means includes
The composite image data is generated in a state where the relative position of the second described reference position with respect to the second projection reference position moves from the relative position of the first described reference position with respect to the first projection reference position. Having mobile synthesis means,
The migration synthesis means includes
By synthesizing the synthesized image data and the symbol data of the symbol connecting the first written reference position and the second written reference position, the second written reference position is relative to the first written reference position. 8. The image data processing apparatus according to claim 1, wherein the position can be recognized.
前記第2投影基準位置に対する前記第2記載基準位置の相対的な位置を、前記第1投影基準位置に対する前記第1記載基準位置の相対的な位置と同じとし、かつ、前記第1記載基準位置を基準として、前記投影範囲に向かう方向に前記記載範囲を収縮させた前記記載画像データと、前記投影画像データとを合成する収縮合成手段を有し、
前記収縮合成手段における前記記載範囲の収縮率が所定の収縮率を超える場合に、前記移動合成手段に従って前記合成画像データを生成することを特徴とする請求項8に記載の画像データ処理装置。 The data synthesizing means includes
The relative position of the second description reference position with respect to the second projection reference position is the same as the relative position of the first description reference position with respect to the first projection reference position, and the first description reference position And the contraction synthesis means for synthesizing the description image data in which the description range is contracted in the direction toward the projection range, and the projection image data,
9. The image data processing apparatus according to claim 8, wherein when the contraction rate of the described range in the contraction combining unit exceeds a predetermined contraction rate, the combined image data is generated according to the movement combining unit.
前記データ合成手段は、
複数の前記個別記載範囲のうちの前記投影範囲に全て入っているものに対応する前記記載画像データと前記投影画像データとを、前記投影範囲と前記個別記載範囲との相対的な位置を維持した状態で合成し、
複数の前記個別記載範囲のうちの前記投影範囲に少なくとも一部が入っていないものに対応する前記記載画像データと前記投影画像データとを、前記第2投影基準位置に対する前記第2記載基準位置の相対的な位置が、前記第1投影基準位置に対する前記第1記載基準位置の相対的な位置と同じとなる状態、若しくは、前記第2記載基準位置の前記第1記載基準位置に対する相対的な位置を認識可能な状態で、合成することを特徴とする請求項1ないし9の何れか1項に記載の画像データ処理装置。 When there are a plurality of the description images described in the projection object, and a range in which each of the plurality of description images is defined as an individual description range,
The data synthesizing means includes
The description image data and the projection image data corresponding to all of the plurality of the individual description ranges that are included in the projection range are maintained in a relative position between the projection range and the individual description range. Synthesized in the state,
Of the plurality of individual description ranges, the description image data and the projection image data corresponding to those in which at least a part is not included in the projection range, the second description reference position with respect to the second projection reference position A state in which the relative position is the same as the relative position of the first written reference position with respect to the first projection reference position, or the relative position of the second written reference position with respect to the first written reference position The image data processing apparatus according to claim 1, wherein the image data processing apparatus combines the images in a recognizable state.
前記データ合成手段は、
複数の前記個別記載範囲のうちの2以上の個別記載範囲の少なくとも一部が前記投影範囲に入っていない場合に、前記2以上の個別記載範囲のうちの1の個別記載範囲に対応する前記記載画像データと前記投影画像データとを、所定の手法に従って合成し、前記2以上の個別記載範囲のうちの前記1の個別記載範囲と別の1の個別記載範囲に対応する前記記載画像データと前記投影画像データとを、前記所定の手法と異なる手法に従って合成することを特徴とする請求項1ないし10の何れか1項に記載の画像データ処理装置。 When there are a plurality of the description images described in the projection object, and a range in which each of the plurality of description images is defined as an individual description range,
The data synthesizing means includes
The description corresponding to one individual description range of the two or more individual description ranges when at least a part of two or more individual description ranges of the plurality of individual description ranges are not included in the projection range. The image data and the projection image data are synthesized according to a predetermined method, and the description image data corresponding to the one individual description range and the one individual description range of the two or more individual description ranges, and the The image data processing apparatus according to claim 1, wherein the projection image data is synthesized according to a technique different from the predetermined technique.
前記外縁表示部の表示態様に応じて前記記載画像データと前記投影画像データとの合成手法を決定する合成手法決定手段と、
を備えることを特徴とする請求項1ないし11の何れか1項に記載の画像データ処理装置。 A description range specifying means for specifying the description range by means of an outer edge display unit indicating an outer edge of the description image;
A synthesis method determining means for determining a synthesis method of the description image data and the projection image data according to a display mode of the outer edge display unit;
The image data processing apparatus according to claim 1, further comprising:
前記画像データ記憶部に記憶された画像データに基づく投影画像を被投影体に投影する画像投影部と、
前記投影画像が投影された前記被投影体に記載された記載画像を撮像し、前記記載画像の記載画像データを取得する撮像部と、
を備える画像データ処理装置のコンピュータが読み取り可能な画像データ処理プログラムであって、
前記撮像部により取得された前記記載画像データに基づいて、前記被投影体内の、前記投影画像が投影されている投影範囲に、前記記載画像が記載されている記載範囲の少なくとも一部が入っていないか否かを判断する判断手段と、
前記判断手段によって、前記投影範囲に、前記記載範囲の少なくとも一部が入っていないと判断された場合に、前記投影画像に対応する投影画像データと前記記載画像データとを合成した合成画像データを生成するデータ合成手段と、
前記データ合成手段によって合成された前記合成画像データを出力する合成データ出力手段と、
して前記コンピュータを機能させ、
前記被投影体に投影された前記投影画像内の特定の位置を第1投影基準位置と、
前記被投影体に記載された前記記載画像内の特定の位置であって、前記被投影体に投影された前記投影画像内に存在する位置を第1記載基準位置と、
前記合成画像データに基づく画像での、前記第1投影基準位置に相当する位置を第2投影基準位置と、
前記合成画像データに基づく画像での、前記第1記載基準位置に相当する位置を第2記載基準位置と、
それぞれ、定義した場合において、
前記データ合成手段は、
前記第2投影基準位置に対する前記第2記載基準位置の相対的な位置が、前記第1投影基準位置に対する前記第1記載基準位置の相対的な位置と同じとなる状態、若しくは、前記第2記載基準位置の前記第1記載基準位置に対する相対的な位置を認識可能な状態で、前記合成画像データを生成することを特徴とする画像データ処理プログラム。 An image data storage unit for storing image data;
An image projection unit that projects a projection image based on the image data stored in the image data storage unit onto a projection object;
An imaging unit that captures a description image described in the projection object on which the projection image is projected, and acquires description image data of the description image;
An image data processing program readable by a computer of an image data processing apparatus comprising:
Based on the description image data acquired by the imaging unit, at least a part of the description range in which the description image is described is included in a projection range in the projection target on which the projection image is projected. A judging means for judging whether or not there is,
When the determination unit determines that at least a part of the description range is not included in the projection range, composite image data obtained by combining the projection image data corresponding to the projection image and the description image data is obtained. Data synthesizing means to generate;
Synthesized data output means for outputting the synthesized image data synthesized by the data synthesizing means;
The computer to function,
A specific position in the projection image projected on the projection object is a first projection reference position,
A specific position in the description image described in the projection object, and a position existing in the projection image projected on the projection object is a first description reference position;
A position corresponding to the first projection reference position in the image based on the composite image data is a second projection reference position;
A position corresponding to the first description reference position in an image based on the composite image data is a second description reference position;
When defined,
The data synthesizing means includes
The relative position of the second description reference position with respect to the second projection reference position is the same as the relative position of the first description reference position with respect to the first projection reference position, or the second description An image data processing program for generating the composite image data in a state where a relative position of a reference position with respect to the first described reference position can be recognized.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012256450A JP2014107572A (en) | 2012-11-22 | 2012-11-22 | Image data processing device and image data processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012256450A JP2014107572A (en) | 2012-11-22 | 2012-11-22 | Image data processing device and image data processing program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014107572A true JP2014107572A (en) | 2014-06-09 |
Family
ID=51028736
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012256450A Pending JP2014107572A (en) | 2012-11-22 | 2012-11-22 | Image data processing device and image data processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014107572A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016012107A (en) * | 2014-06-30 | 2016-01-21 | キヤノンマーケティングジャパン株式会社 | Information processing system, control method therefor, program therefor, information processing device, control method therefor, and program therefor |
-
2012
- 2012-11-22 JP JP2012256450A patent/JP2014107572A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016012107A (en) * | 2014-06-30 | 2016-01-21 | キヤノンマーケティングジャパン株式会社 | Information processing system, control method therefor, program therefor, information processing device, control method therefor, and program therefor |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9684385B2 (en) | Display device, display system, and data supply method for display device | |
US8943231B2 (en) | Display device, projector, display system, and method of switching device | |
US8634659B2 (en) | Image processing apparatus, computer readable medium storing program, and image processing method | |
JP4838694B2 (en) | Electronic handwriting input device | |
US8827461B2 (en) | Image generation device, projector, and image generation method | |
US7148905B2 (en) | Systems and method for annotating pages in a three-dimensional electronic document | |
JP2007241537A (en) | Projection system, projection device, personal digital assistant, control method for projection system and its program | |
US9658519B2 (en) | Projection device and projection method | |
JP5134409B2 (en) | Presentation system | |
JP2016038728A (en) | Image display device, control method of image display device and program thereof | |
US10609249B2 (en) | Scanner and scanning control program which outputs an original image and an extracted image in a single file | |
JP2006268263A (en) | Electronic board system | |
JP2014107572A (en) | Image data processing device and image data processing program | |
JP2008118317A (en) | Projection device | |
JP7342501B2 (en) | Display device, display method, program | |
JP6464599B2 (en) | Image processing apparatus, image processing system, control method for image processing apparatus, and program | |
WO2009119025A1 (en) | Presentation system | |
JP2015225509A (en) | Information processor, information processing system, control method of information processor and computer program | |
JP7287156B2 (en) | Display device, display method, program | |
JP2015139004A (en) | Video projection device, video projection method, and computer program | |
JP6608080B1 (en) | Projector system | |
JP2011096109A (en) | Image processing apparatus and image processing program | |
KR101700117B1 (en) | Interactive electronic authoring tool, computer apparatus and method for providing the same | |
JP2010145596A (en) | Projector, program, and information storage medium | |
JP2022073496A (en) | Determination method for projective transformation matrix, projector, and determination system |