JP3382045B2 - Image projection system - Google Patents

Image projection system

Info

Publication number
JP3382045B2
JP3382045B2 JP00911595A JP911595A JP3382045B2 JP 3382045 B2 JP3382045 B2 JP 3382045B2 JP 00911595 A JP00911595 A JP 00911595A JP 911595 A JP911595 A JP 911595A JP 3382045 B2 JP3382045 B2 JP 3382045B2
Authority
JP
Japan
Prior art keywords
image
pattern
marker
distortion
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP00911595A
Other languages
Japanese (ja)
Other versions
JPH08201913A (en
Inventor
一陽 志賀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP00911595A priority Critical patent/JP3382045B2/en
Publication of JPH08201913A publication Critical patent/JPH08201913A/en
Application granted granted Critical
Publication of JP3382045B2 publication Critical patent/JP3382045B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、パソコンなどで作成し
た文字や図形から構成された文書イメージをスクリーン
や表示板に投影するイメージ投影システムに関するもの
である。近年、文字や記号を表すテキストデータと図形
データとを一緒に編集するソフトウェアの普及に伴っ
て、会議やプレゼンテーションの資料として、説明文な
どのテキストと表やグラフなどの図形とが混在した文書
イメージをパソコン上で作成する場合が増えている。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image projection system for projecting a document image composed of characters and figures created by a personal computer or the like onto a screen or a display board. In recent years, with the spread of software that edits text data and graphic data that represent characters and symbols together, a document image in which texts such as explanatory notes and graphics such as tables and graphs are mixed as materials for meetings and presentations. There are more and more cases of creating on a PC.

【0002】一方、会議やプレゼンテーションの場面で
は、多数の人に文書イメージを提示する必要があるた
め、オーバーヘッドプロジェクタ装置やスライド投影装
置などの投影装置が利用されることが多い。このような
用途に対応するために、作成した文書イメージを直接に
プロジェクタ装置によって投影するイメージ投影システ
ムが提案されている。
On the other hand, in conferences and presentations, a document image needs to be presented to a large number of people, and therefore a projection device such as an overhead projector device or a slide projection device is often used. In order to cope with such an application, an image projection system has been proposed in which a created document image is directly projected by a projector device.

【0003】[0003]

【従来の技術】図9に、従来のイメージ投影システムの
構成例を示す。図9において、パソコン410で作成さ
れた文書イメージは、この文書イメージを構成する文字
を示す文字コードおよび図形を形成する線分の配置を示
す線画データとテキストと図形との配置を指定する情報
とからなる表示データとして、プロジェクタ420に送
出されている。
2. Description of the Related Art FIG. 9 shows a configuration example of a conventional image projection system. In FIG. 9, the document image created by the personal computer 410 includes character code indicating characters forming the document image, line drawing data indicating the arrangement of line segments forming a figure, and information designating the arrangement of the text and the figure. Is transmitted to the projector 420 as display data consisting of

【0004】また、プロジェクタ420に備えられた描
画処理部421は、上述した表示データに基づいて、文
書イメージを表すイメージデータを作成する構成となっ
ており、投影処理部422が、このイメージデータを光
学系423を介してスクリーン401に投影する構成と
なっている。この場合は、プロジェクタ420に備えら
れた光学系423の光軸に、垂直に交わるようにスクリ
ーン401を配置すれば、該当する文書イメージをパソ
コン410のディスプレイで表示した場合と同等の品質
のイメージを、スクリーン401に拡大して表示するこ
とができる。
Further, the drawing processing section 421 provided in the projector 420 is configured to create image data representing a document image based on the above-mentioned display data, and the projection processing section 422 prepares this image data. The image is projected on the screen 401 via the optical system 423. In this case, by arranging the screen 401 so as to vertically intersect with the optical axis of the optical system 423 provided in the projector 420, an image of the same quality as when the corresponding document image is displayed on the display of the personal computer 410 is obtained. , Can be enlarged and displayed on the screen 401.

【0005】[0005]

【発明が解決しようとする課題】上述したように、従来
のイメージ投影システムは、パソコン410で作成した
文書イメージを単純に投影するものであるから、文書イ
メージを正常な形状で投影するためには、プロジェクタ
420の光学系423の光軸に対して、スクリーン40
1を正確に垂直に配置する必要があった。
As described above, since the conventional image projection system simply projects the document image created by the personal computer 410, it is necessary to project the document image in a normal shape. , The screen 40 with respect to the optical axis of the optical system 423 of the projector 420.
It was necessary to position 1 exactly vertically.

【0006】通常、このスクリーン401の配置作業
は、利用者が主観的な判断で行っているため、正確な配
置を行うことは非常に難しい。更に、会場の制限など
で、正確な位置に設置することが難しい場合もあり、こ
のような配置ミスがある場合には、光軸とスクリーン4
01の法線方向とのずれに応じて、投影された図形が歪
んでしまう。
[0006] Usually, since the user arranges the screen 401 by subjective judgment, it is very difficult to arrange the screen 401 accurately. In addition, it may be difficult to install in an accurate position due to the limitation of the venue, etc. If there is such a placement error, the optical axis and the screen 4
The projected figure is distorted according to the deviation from the normal direction of 01.

【0007】その一方、会議やプレゼンテーションの場
面では、グラフや表をふんだんに使った説明を行う場合
が多く、このような場合に、プロジェクタ420とスク
リーン401との配置ミスによって肝心のグラフや表が
歪んでいたのでは、見苦しい上に、発表の効果を損なう
可能性もある。本発明は、配置ミスによるイメージの変
形を補正することが可能なイメージ投影システムを提供
することを目的とする。
On the other hand, in the case of meetings and presentations, there are many cases where explanations are made using a lot of graphs and tables. In such a case, the misalignment of the projector 420 and the screen 401 distorts the essential graphs and tables. In addition to being unsightly, there is a possibility that the effectiveness of the presentation will be impaired. SUMMARY OF THE INVENTION It is an object of the present invention to provide an image projection system capable of correcting image deformation due to misplacement.

【0008】[0008]

【課題を解決するための手段】図1は、本発明のイメー
ジ投影システムの原理ブロック図である。請求項1の発
明は、文字や図形から構成された文書イメージを投影手
段101を介してスクリーン102に投影するイメージ
投影システムにおいて、投影対象の文書イメージとし
て、それぞれ所定の位置に配置された複数のマーカパタ
ーンから構成される基準パターンを投影手段101に送
出する基準パターン送出手段111と、投影手段101
によって投影された基準パターンの投影像を撮影する撮
影手段112と、撮影手段112によって得られた基準
パターンの投影像に含まれている複数のマーカパターン
の像の位置を検出する位置検出手段113と、複数のマ
ーカパターンの像の位置と基準パターンにおける複数の
マーカパターンの位置とを照合することにより、投影手
段101による投影操作によって生じた投影像の歪みを
評価する歪み評価手段114と、投影対象の文書イメー
を表す文書情報が入力され、歪み評価手段114によ
る評価結果で示される投影像の歪みに対応する変形を
書情報に与える補正手段115とを備え、補正手段11
5は、文書情報を、文字および記号を含むテキストデー
タを示すコードおよび属性情報から形成されるテキスト
情報と、線画を含むイメージを表示するためのイメージ
情報とに分離する分離処理部と、歪み評価手段114に
よって得られた評価結果に基づいて、前記テキスト情報
に含まれる属性情報に対して、評価結果で示される歪み
を打ち消すための変換を行なうテキスト補正部と、歪み
評価手段114によって得られた評価結果に基づいて、
前記イメージ情報に対して、評価結果で示される歪みを
打ち消すための変換を行なう線画補正部と、テキスト補
正部による変換結果と線画補正部による変換結果とを合
成して文書情報を復元する結合処理部とを備えて構成す
ことを特徴とする。
FIG. 1 is a block diagram showing the principle of an image projection system according to the present invention. According to the first aspect of the invention, in the image projection system for projecting the document image composed of characters and figures on the screen 102 through the projecting means 101, a plurality of document images to be projected are arranged at predetermined positions. A reference pattern sending means 111 for sending a reference pattern composed of a marker pattern to the projection means 101, and the projection means 101.
An image capturing unit 112 for capturing a projected image of the reference pattern projected by the image capturing unit; and a position detecting unit 113 for detecting the positions of images of a plurality of marker patterns included in the projected image of the reference pattern obtained by the image capturing unit 112. , Distortion evaluation means 114 for evaluating the distortion of the projected image caused by the projection operation by the projection means 101 by collating the positions of the images of the plurality of marker patterns with the positions of the plurality of marker patterns in the reference pattern; document information representing a document image is inputted, sentence deformation corresponding to the distortion of the projected image represented by the result of evaluation by the distortion evaluating means 114
Correction means 115 for giving the writing information , and the correction means 11
Reference numeral 5 indicates the text information including text and symbols.
Text formed from a code indicating the data and attribute information
An image for displaying information and an image containing a line drawing
The separation processing unit for separating the information and the distortion evaluation unit 114
Based on the evaluation result obtained by the above, the text information
Distortion indicated by the evaluation result for the attribute information included in
And a text correction unit that performs conversion to cancel
Based on the evaluation result obtained by the evaluation means 114,
The distortion indicated by the evaluation result is applied to the image information.
A line drawing correction unit that performs conversion to cancel and a text correction
Combine the conversion result of the positive part and the conversion result of the line drawing correction part.
And a combination processing unit that restores document information
Characterized in that that.

【0009】請求項2の発明は、請求項1に記載のイメ
ージ投影システムにおいて、基準パターン送出手段11
1は、複数の線分が一点で交差するマーカパターンを配
置した基準パターンを送出する構成であり、位置検出手
段113は、マーカパターンの形状の特徴に基づいて、
基準パターンの投影像に含まれているマーカパターンの
像を抽出するパターン抽出手段121と、パターン抽出
手段121で抽出されたマーカパターンの像の中心位置
を検出する中心検出手段122とを備えた構成であるこ
とを特徴とする。
According to a second aspect of the invention, in the image projection system according to the first aspect, the reference pattern sending means 11 is provided.
1 is a configuration for transmitting a reference pattern in which a marker pattern in which a plurality of line segments intersect at one point is arranged, and the position detection means 113 is based on the feature of the shape of the marker pattern,
A configuration including pattern extracting means 121 for extracting the image of the marker pattern included in the projected image of the reference pattern, and center detecting means 122 for detecting the center position of the image of the marker pattern extracted by the pattern extracting means 121. Is characterized in that.

【0010】[0010]

【作用】請求項1の発明は、基準パターン送出手段11
1の動作により、投影手段101により、位置判断の基
準となるマーカパターンを含んだ基準パターンを投影し
ているから、位置検出手段113により、撮影手段11
2で得られた投影像からマーカパターンの像の位置を検
出し、元の基準パターンにおけるマーカパターンの位置
と比較することにより、投影手段101による投影操作
によって生じた歪みを評価することができる。
According to the invention of claim 1, the reference pattern sending means 11 is provided.
By the operation 1 described above, the projection unit 101 projects a reference pattern including a marker pattern serving as a reference for position determination.
By detecting the position of the image of the marker pattern from the projected image obtained in 2 and comparing it with the position of the marker pattern in the original reference pattern, the distortion caused by the projection operation by the projection unit 101 can be evaluated.

【0011】この評価結果に基づいて、補正手段115
に備えられたテキスト補正部と線画補正部とにより、
れぞれテキスト部分と線画部分とに対して上述した歪み
によって打ち消されるような変形を与えた後に、これら
の変形結果を結合処理部によって合成する。このように
して、入力された文書イメージを補正すれば、投影手段
101とスクリーン102との配置ミスによるイメージ
の変形を補正して、正常なイメージを投影することがで
きる。また、請求項2の発明は、マーカパターンとして
複数の線分が一点で交差したパターンを採用することに
より、パターン抽出手段121によってマーカパターン
の像を抽出し、その中心を中心検出手段122によって
検出することにより、マーカパターンの投影位置を簡単
かつ正確に検出することができる。
Based on this evaluation result, the correction means 115
The text correction unit and the line drawing correction unit provided in, its
After applying the deformations that can be canceled by the above-mentioned distortion to the text part and the line drawing part respectively ,
The transformation result of is combined by the combination processing unit. in this way
Then, by correcting the input document image, it is possible to correct the deformation of the image due to an arrangement error between the projection unit 101 and the screen 102 and project a normal image. According to the second aspect of the present invention, by adopting a pattern in which a plurality of line segments intersect at one point as the marker pattern, the pattern extracting unit 121 extracts the image of the marker pattern and the center detecting unit 122 detects the center thereof. By doing so, the projection position of the marker pattern can be detected easily and accurately.

【0012】[0012]

【実施例】以下、図面に基づいて本発明の実施例につい
て詳細に説明する。図2に、本発明のイメージ投影シス
テムの実施例構成図を示す。図2において、イメージ投
影システムは、図9に示した従来のイメージ投影システ
ムに、イメージ補正装置200を付加し、このイメージ
補正装置200が、パソコン410から受け取った表示
データを後述するようにして補正し、プロジェクタ42
0に送出する構成となっている。
Embodiments of the present invention will now be described in detail with reference to the drawings. FIG. 2 shows a block diagram of an embodiment of the image projection system of the present invention. 2, the image projection system includes an image correction device 200 added to the conventional image projection system shown in FIG. 9, and the image correction device 200 corrects the display data received from the personal computer 410 as described later. The projector 42
It is configured to send to 0.

【0013】図2に示したイメージ補正装置200にお
いて、表示データ保持部201は、後述するような基準
パターンを示す線画データを保持しており、また、セレ
クタ202は、補正制御部203からの指示に応じて、
補正演算部210の出力の代わりに上述した線画データ
を選択して、投影手段101に相当するプロジェクタ4
20に送出する構成となっている。
In the image correction apparatus 200 shown in FIG. 2, the display data holding section 201 holds line drawing data indicating a reference pattern as described later, and the selector 202 instructs the correction control section 203. In response to the,
The line drawing data described above is selected instead of the output of the correction calculation unit 210, and the projector 4 corresponding to the projection unit 101 is selected.
It is configured to be sent to 20.

【0014】ここで、基準パターンとしては、例えば、
図3(a) に示すように、文書イメージの四隅に相当する
位置に、十字などのマーカパターンを配置したものを用
意し、これらのマーカパターンを構成する線分の描画に
必要な線画データを表示データ保持部201に保持して
おけばよい。このように、補正制御部203がセレクタ
202の動作を制御して、表示データ保持部201に保
持された線画データをプロジェクタ420に送出するこ
とにより、基準パターン送出手段111の機能を実現
し、プロジェクタ420により、図3(a) に示した基準
パターンの投影を行うことができる。
Here, as the reference pattern, for example,
As shown in Fig. 3 (a), prepare a pattern in which marker patterns such as crosses are arranged at the positions corresponding to the four corners of the document image, and prepare the line drawing data necessary for drawing the line segments that make up these marker patterns. It may be held in the display data holding unit 201. In this way, the correction control unit 203 controls the operation of the selector 202 and sends the line drawing data held in the display data holding unit 201 to the projector 420, thereby realizing the function of the reference pattern sending unit 111 and the projector. By 420, the reference pattern shown in FIG. 3A can be projected.

【0015】このイメージ補正装置200は、撮影手段
112に相当するものとして画像入力部210を備えて
おり、この画像入力部210は、上述した補正制御部2
03からの指示に応じて動作し、CCDカメラ211で
スクリーン401に投影された基準パターンを撮影し、
変換処理部212により、CCDカメラ211のビデオ
信号を2値イメージデータに変換して、フレームメモリ
213に格納する構成となっている。
The image correction apparatus 200 is equipped with an image input section 210 corresponding to the photographing means 112, and the image input section 210 is provided with the correction control section 2 described above.
It operates according to the instruction from 03, and the CCD camera 211 photographs the reference pattern projected on the screen 401,
The conversion processing unit 212 converts the video signal of the CCD camera 211 into binary image data and stores it in the frame memory 213.

【0016】また、図2において、投影位置検出部22
0は位置検出手段113に相当するものであり、後述す
るようにして、フレームメモリ213に格納されたイメ
ージデータの中から、図3(a) に示した基準パターンに
含まれるマーカパターンに対応する投影イメージを抽出
し、その位置を示す座標を求めて、差分算出部204に
送出する構成となっている。
Further, in FIG. 2, the projection position detecting unit 22
0 corresponds to the position detecting means 113, and corresponds to the marker pattern included in the reference pattern shown in FIG. 3A from the image data stored in the frame memory 213 as described later. The projection image is extracted, the coordinates indicating the position thereof are calculated, and the coordinates are sent to the difference calculation unit 204.

【0017】図2において、位置データ保持部205
は、上述した基準パターンにおけるマーカパターンの基
本位置を保持しており、差分算出部204は、投影位置
検出部220から受け取ったマーカパターンの投影位置
とこの基本位置とを比較し、各マーカパターンについて
投影位置と基本位置との差分を算出して、投影図形の歪
みを評価した結果として出力する構成となっている。
In FIG. 2, the position data holding unit 205
Holds the basic position of the marker pattern in the reference pattern described above, and the difference calculation unit 204 compares the projected position of the marker pattern received from the projected position detection unit 220 with this basic position, and for each marker pattern The difference between the projected position and the basic position is calculated and output as a result of evaluating the distortion of the projected figure.

【0018】このように、投影位置検出部220の検出
結果と位置データ保持部205に保持された基本位置と
に基づいて、差分算出部204が動作することにより、
歪み評価手段114の機能を実現し、マーカパターンの
位置のずれを指標として投影図形の歪みを評価すること
ができる。ここで、プロジェクタ420の光軸とスクリ
ーン401の法線方向とにずれによって生じる投影図形
の歪みは、特に、投影図形の周辺において顕著となるか
ら、上述したようにして、四隅にマーカパターンを配置
した基準パターンを投影して、投影されたマーカパター
ンの基本位置からのずれを評価することにより、投影図
形の歪みを確実に検出して正確に評価することができ
る。
As described above, the difference calculating unit 204 operates based on the detection result of the projection position detecting unit 220 and the basic position held in the position data holding unit 205,
The function of the distortion evaluation unit 114 can be realized, and the distortion of the projected figure can be evaluated using the positional deviation of the marker pattern as an index. Here, since the distortion of the projected figure caused by the deviation between the optical axis of the projector 420 and the normal direction of the screen 401 becomes remarkable especially around the projected figure, the marker patterns are arranged at the four corners as described above. By projecting the reference pattern described above and evaluating the deviation of the projected marker pattern from the basic position, the distortion of the projected figure can be reliably detected and evaluated accurately.

【0019】例えば、図3(a) に示した基準パターンを
投影した結果、基準パターンの各マーカパターンが図3
(b) に示すような位置に投影された場合に、左下のマー
カパターンの位置を基準として、左上,右上,右下の
各マーカパターン,,それぞれについて、x座
標,y座標の差分(d1x,d1y),(d2x,d2y),
(d3x,d3y)が得られる。
For example, as a result of projecting the reference pattern shown in FIG. 3A, each marker pattern of the reference pattern is shown in FIG.
When projected at a position as shown in (b), the difference between the x coordinate and the y coordinate (d 1x) for each of the upper left, upper right, and lower right marker patterns with the position of the lower left marker pattern as a reference. , D 1y ), (d 2x , d 2y ),
(D 3x , d 3y ) is obtained.

【0020】ところで、この場合は、例えば、図3(a)
に示した基準パターンのマーカパターン,の間隔D
1 が、投影イメージにおいては、マーカパターンのy
座標の差分d1xだけ縮小されていると考えることができ
る。したがって、投影しようとする文書イメージの該当
する間隔を上述した差分d1xだけ拡大してから、プロジ
ェクタ420によってスクリーン401に投影すれば、
投影された文書イメージにおいては、該当する間隔が正
常な長さとなると考えられる。
By the way, in this case, for example, as shown in FIG.
Interval D between the marker pattern of the reference pattern shown in
1 is the y of the marker pattern in the projected image
It can be considered that the difference is reduced by the coordinate difference d 1x . Therefore, if the corresponding interval of the document image to be projected is enlarged by the above-mentioned difference d 1x and then projected on the screen 401 by the projector 420,
In the projected document image, the corresponding interval is considered to be the normal length.

【0021】図2において、補正値算出部230は、上
述したようにして得られた評価結果に基づいて、文書イ
メージを構成する文字や線画データを補正する量を示す
補正値を算出して、補正演算部240に送出する構成と
なっている。この補正値算出部230において、変形率
算出部231は、まず、マーカパターン,,につ
いての差分に基づいて、マーカパターン〜を順に結
んで形成される四辺形の各辺について、拡大/縮小率を
示す変形率をそれぞれ求め、これらの変形率に基づい
て、この四辺形の内部の各位置における変形率を算出す
る構成となっている。
In FIG. 2, the correction value calculation unit 230 calculates a correction value indicating the amount of correction of the character or line drawing data forming the document image, based on the evaluation result obtained as described above. It is configured to be sent to the correction calculation unit 240. In the correction value calculation unit 230, the deformation rate calculation unit 231 first determines the enlargement / reduction rate for each side of the quadrangle formed by sequentially connecting the marker patterns to, based on the difference between the marker patterns. The deformation ratios shown are obtained, and the deformation ratio at each position inside the quadrangle is calculated based on these deformation ratios.

【0022】例えば、マーカパターン,およびマー
カパターン,のそれぞれについてのy座標の差分か
ら、基準パターンにおいてy座標軸に平行な2つの辺の
変形率Cy1,Cy2がそれぞれ得られ、同様にして、マー
カパターン,およびマーカパターン,のそれぞ
れについてのx座標の差分から、基準パターンにおいて
x座標軸に平行な2つの辺の変形率Cx1,Cx2がそれぞ
れ得られる。
For example, the deformation rates C y1 and C y2 of two sides parallel to the y-coordinate axis in the reference pattern are obtained from the y-coordinate difference for each of the marker pattern and the marker pattern. From the x-coordinate difference between the marker pattern and the marker pattern, the deformation rates C x1 and C x2 of the two sides parallel to the x-coordinate axis in the reference pattern are obtained.

【0023】そして、四辺形の内部の各位置におけるy
軸方向およびx軸方向の変形率は、変形率Cy1,Cy2
よび変形率Cx1,Cx2をそれぞれ内挿して求めればよ
い。ここで、文書イメージに含まれるテキスト部分は、
文字コードとその属性情報とから形成されており、この
属性情報には文字の大きさを示すポイント数が含まれて
いる。したがって、テキストに含まれる各文字に対応す
るポイント数を変形率に応じて変更すれば、イメージ文
書のなかのテキスト部分を簡単に変形することができ
る。
Then, y at each position inside the quadrangle
The deformation rates in the axial direction and the x-axis direction may be obtained by interpolating the deformation rates C y1 and C y2 and the deformation rates C x1 and C x2 , respectively. Here, the text part included in the document image is
It is formed of a character code and its attribute information, and this attribute information includes the number of points indicating the size of the character. Therefore, if the number of points corresponding to each character included in the text is changed according to the transformation rate, the text portion in the image document can be easily transformed.

【0024】例えば、図2に示すように、補正値算出部
230にポイント補正値算出部232を設け、変形率算
出部231で得られた変形率に基づいて、各位置におけ
る文字のポイント数の補正値を算出し、これをテキスト
部分についての補正値として、ポイント補正テーブル2
33に格納する構成とすればよい。このとき、ポイント
補正値算出部232は、x軸方向,y軸方向の変形率か
ら単位面積の拡大/縮小率を求め、この拡大/縮小率に
基づいて、ポイント数の補正値を算出すればよい。
For example, as shown in FIG. 2, the correction value calculation unit 230 is provided with a point correction value calculation unit 232, and based on the transformation rate obtained by the transformation rate calculation unit 231, the number of points of characters at each position is calculated. A correction value is calculated, and this is used as a correction value for the text portion, and the point correction table 2
The configuration may be such that it is stored in 33. At this time, the point correction value calculation unit 232 calculates the enlargement / reduction ratio of the unit area from the deformation ratios in the x-axis direction and the y-axis direction, and calculates the correction value of the number of points based on the enlargement / reduction ratio. Good.

【0025】また、線画データは、グラフや図形を構成
する線分の端点や円の中心などの図形の基準となる基準
点の座標と線の種類などを示す属性情報とから形成され
ており、この図形の基準点の位置によって、文書イメー
ジ全体における各図形の配置や大きさが示されている。
したがって、これらの基準点の位置をその位置に対応す
る変形率に応じて移動させることにより、該当する図形
を疑似的に拡大/縮小することができる。
Further, the line drawing data is formed from the coordinates of the reference point which is the reference of the figure such as the end points of the line segments forming the graph or figure and the center of the circle, and the attribute information which indicates the type of the line. The position of each figure in the entire document image is indicated by the position of the reference point of this figure.
Therefore, by moving the positions of these reference points according to the deformation rate corresponding to the positions, the corresponding figure can be pseudo-enlarged / reduced.

【0026】例えば、図2に示すように、補正値算出部
230に座標補正値算出部234を設け、変形率算出部
231で得られた変形率に基づいて、各位置における基
準点の座標の補正値を算出し、座標補正値テーブル23
5に格納する構成とすればよい。この場合は、図2に示
すように、補正演算部240において、分離処理部24
1により、パソコン410から受け取った表示データを
テキスト部分と線画部分とに分離して、それぞれテキス
ト補正部242および線画補正部243に送出し、それ
ぞれによる補正結果を結合処理部244によって再び結
合して、プロジェクタ420に送出する構成とすればよ
い。
For example, as shown in FIG. 2, the correction value calculation unit 230 is provided with a coordinate correction value calculation unit 234, and based on the deformation rate obtained by the deformation rate calculation unit 231, the coordinates of the reference point at each position are calculated. The correction value is calculated, and the coordinate correction value table 23
5 may be stored. In this case, as shown in FIG.
1, the display data received from the personal computer 410 is separated into a text portion and a line drawing portion, which are sent to the text correction unit 242 and the line drawing correction unit 243, respectively, and the correction results by each are combined again by the combination processing unit 244. The configuration may be such that the data is sent to the projector 420.

【0027】図2において、テキスト補正部242は、
分離処理部241からテキストデータとともにテキスト
の位置を示す配置情報を受け取り、この配置情報に基づ
いて、各文字の位置を求めて、上述したポイント補正テ
ーブル233から該当する位置に対応するポイント数の
補正値を検索し、該当する属性情報のポイント数を置き
換えて結合処理部244に送出する構成とすればよい。
In FIG. 2, the text correction unit 242 is
Arrangement information indicating the position of the text is received together with the text data from the separation processing unit 241, the position of each character is obtained based on this arrangement information, and the number of points corresponding to the corresponding position is corrected from the point correction table 233 described above. The value may be searched, the number of points of the corresponding attribute information may be replaced, and the value may be transmitted to the combining processing unit 244.

【0028】また、線画補正部243は、分離処理部2
41から受け取った線画データに含まれる基準点の座標
に基づいて、上述した座標補正値テーブル235から該
当する補正値を検索し、元の基準点の座標を補正値を加
算した新しい基準点の座標に置き換えて、結合処理部2
44に送出する構成とすればよい。このように、補正値
算出部230および補正演算部240の各部が動作する
ことにより、補正手段115の機能を実現し、投影図形
の歪みについての評価結果に応じて、例えば、図3(c)
に示すように、投影対象の文書イメージに投影処理によ
って発生する歪みによって打ち消される変形を予め与え
ることが可能となる。
Further, the line drawing correction unit 243 has a separation processing unit 2
Based on the coordinates of the reference point included in the line drawing data received from 41, a corresponding correction value is retrieved from the coordinate correction value table 235 described above, and the coordinates of the new reference point obtained by adding the correction value to the coordinates of the original reference point. And replace it with
The configuration may be such that the data is sent to 44. In this way, the correction value calculation unit 230 and the correction calculation unit 240 operate to realize the function of the correction unit 115, and, for example, according to the evaluation result of the distortion of the projected figure, for example, FIG.
As shown in, it is possible to give a deformation to the document image to be projected that is canceled by the distortion generated by the projection process.

【0029】また、このとき、補正制御部203は、セ
レクタ202にイメージ補正装置200の出力を選択す
る旨を指示し、これに応じて、セレクタ202を介し
て、上述した変形が加えられた表示データがプロジェク
タ420に送出され、投影処理に供される。上述したよ
うに、このような変形が加えられた文書イメージをプロ
ジェクタ420を介して投影すると、文書イメージの各
部分は、変形率算出部231で得られたその位置に対応
する変形率で変形するから、補正演算部240で与えら
れた変形が除去され、スクリーン401において、元の
文書イメージに対応する歪みのない投影イメージを得る
ことができる。
Further, at this time, the correction control unit 203 instructs the selector 202 to select the output of the image correction apparatus 200, and in response thereto, the display to which the above-mentioned modification is applied is made via the selector 202. The data is sent to the projector 420 and provided for projection processing. As described above, when the document image thus modified is projected through the projector 420, each part of the document image is modified at the modification rate corresponding to the position obtained by the modification rate calculating unit 231. Therefore, the deformation given by the correction calculation unit 240 is removed, and a projection image without distortion corresponding to the original document image can be obtained on the screen 401.

【0030】すなわち、上述したイメージ補正装置20
0を備えてイメージ投影システムを構成することによ
り、プロジェクタ420やスクリーン401の配置ミス
によるイメージの変形を補正することが可能となり、プ
ロジェクタ420やスクリーン401の配置にかかわら
ず、歪みのない投影イメージを利用者に提供することが
できる。
That is, the image correction device 20 described above.
By configuring the image projection system with 0, it is possible to correct the deformation of the image due to the placement error of the projector 420 or the screen 401, and a projection image without distortion can be obtained regardless of the placement of the projector 420 or the screen 401. Can be provided to users.

【0031】これにより、プロジェクタ420やスクリ
ーン401を配置する際に、厳密に位置調整を行う必要
がなくなるので、会場の設営などに要する時間を大幅に
短縮することができる。ところで、上述したように、投
影された基準パターンにおけるマーカパターンの位置ず
れに基づいて、補正処理を行う場合は、CCDカメラ2
11で撮影された2値イメージデータからマーカパター
ンの像を正確に抽出する必要がある。
As a result, it becomes unnecessary to strictly adjust the position when arranging the projector 420 and the screen 401, so that the time required for setting up a venue can be greatly shortened. By the way, as described above, when the correction process is performed based on the positional deviation of the marker pattern in the projected reference pattern, the CCD camera 2
It is necessary to accurately extract the image of the marker pattern from the binary image data captured in 11.

【0032】以下、上述した投影位置検出部220にお
いて、フレームメモリ213に保持された2値イメージ
データからマーカパターンの像を正確に抽出し、その位
置を検出する方法について説明する。図4に、請求項2
の発明を適用した投影位置検出部220の詳細構成を示
す。また、図5に、投影位置の検出動作を表す流れ図を
示す。
A method of accurately extracting the image of the marker pattern from the binary image data held in the frame memory 213 and detecting the position in the above-mentioned projection position detecting section 220 will be described below. In FIG. 4, claim 2
The detailed configuration of the projection position detection unit 220 to which the invention of FIG. Further, FIG. 5 shows a flowchart showing the operation of detecting the projection position.

【0033】図4に示した投影位置検出部220におい
て、膨張処理部221および細線化処理部222は、後
述するパターン認識処理に先立って、ステップ301,
302において、フレームメモリ213に保持された2
値イメージデータに対して、それぞれ膨張処理および細
線化処理を行う構成となっている。このように、まず膨
張処理を行ったのちに細線化処理を行うことにより、例
えば、図6(a) に示すように、撮影された2値イメージ
にかすれた部分がある場合に、一旦、図6(b) に示すよ
うな膨張したパターンに変換した後に、細線化処理を行
うことにより、かすれた部分をつなげて、図6(c) に示
すようなかすれの無いパターンを再生して、後述するマ
ーカパターンの像を検出する処理に供することができ
る。
In the projection position detecting section 220 shown in FIG. 4, the expansion processing section 221 and the thinning processing section 222 have the steps 301,
At 302, the data stored in the frame memory 213
The value image data is configured to be expanded and thinned, respectively. In this way, by first performing expansion processing and then thinning processing, for example, as shown in FIG. 6 (a), when there is a faint portion in the captured binary image, After converting to an expanded pattern as shown in 6 (b), thinning processing is performed to connect the faint parts to reproduce a pattern without fading as shown in FIG. 6 (c). The image of the marker pattern to be processed can be provided.

【0034】また、図4において、線分抽出部223
は、ステップ303において、フレームメモリ213内
の2値イメージデータから複数の黒画素が連続している
パターンを線分として抽出し、長さ判別部224に送出
する構成となっている。これに応じて、長さ判別部22
4は、まず、ステップ304において、抽出された線分
のそれぞれの長さと所定の閾値とを比較し、この比較結
果に基づいて、各線分がマーカパターンの一部である可
能性がある候補線分を判別する構成となっている。
Further, in FIG. 4, the line segment extraction unit 223
In step 303, a pattern in which a plurality of black pixels are continuous is extracted as a line segment from the binary image data in the frame memory 213 and is sent to the length determination unit 224. In response to this, the length determination unit 22
In step 304, first, in step 304, each length of the extracted line segments is compared with a predetermined threshold value, and based on the comparison result, each line segment is a candidate line that may be a part of a marker pattern. It is configured to determine the minutes.

【0035】このとき、長さ判別部224は、基準パタ
ーンに配置されたマーカパターンを構成している線分の
長さに対応する閾値を用い、この閾値よりも長いとされ
た線分を候補線分として判別すればよい。この場合は、
長さが閾値以下である場合は、該当するパターンはスク
リーン401上のゴミやキズなどに対応するものである
として、その線分に関する情報は雑音として廃棄され
る。一方、長さが閾値以上である場合に、長さ判別部2
24は、その線分に関する情報を候補パターン検出部2
25に送出すればよい。
At this time, the length discriminating section 224 uses a threshold value corresponding to the length of the line segment forming the marker pattern arranged in the reference pattern, and the line segment which is longer than this threshold value is a candidate. It may be determined as a line segment. in this case,
If the length is less than or equal to the threshold value, it is assumed that the corresponding pattern corresponds to dust or scratches on the screen 401, and the information about the line segment is discarded as noise. On the other hand, if the length is greater than or equal to the threshold value, the length determination unit 2
24 indicates the information about the line segment by the candidate pattern detection unit 2
25 to be sent.

【0036】ここで、図3(a) に示したように、マーカ
パターンは二つの線分が交差したパターンであるから、
ステップ305において、候補パターン検出部225
は、フレームメモリ213に保持された2値イメージデ
ータに基づいて、ステップ304で得られた候補線分の
中から、他の候補線分と交差しているものを検出すれば
よい。
Here, as shown in FIG. 3A, the marker pattern is a pattern in which two line segments intersect,
In step 305, the candidate pattern detection unit 225
May detect one of the candidate line segments obtained in step 304 that intersects another candidate line segment based on the binary image data stored in the frame memory 213.

【0037】このように、上述した長さ判別部224で
判別された候補線分のなかから、他の候補線分と交差し
ていないものを雑音によるものとして排除し、交差した
候補線分の組み合わせを候補パターンとして判別するこ
とにより、候補パターンを絞り込んで、交差判別部22
6の処理に供することができる。図4において、この交
差判別部226は、各候補パターンを構成する候補線分
の交差角に基づいて、候補パターンがマーカパターンの
像であるか否かを判定する構成となっている。
As described above, from the candidate line segments discriminated by the length discriminator 224, those that do not intersect with other candidate line segments are excluded as noise, and the intersecting candidate line segments are excluded. By discriminating the combination as a candidate pattern, the candidate patterns are narrowed down, and the intersection discriminating unit 22
It can be subjected to the treatment of 6. In FIG. 4, the intersection determination unit 226 is configured to determine whether or not the candidate pattern is an image of a marker pattern, based on the intersection angle of the candidate line segments that form each candidate pattern.

【0038】例えば、図3(a) に示したような十字状の
マーカパターンを採用した場合は、マーカパターンの像
においても交差角は90度となるから、図5に示すよう
に、まず、交差判別部226は、ステップ306におい
て、各候補線分の方向を示す方向ベクトルの内積を求
め、ステップ307において、この内積が数値『0』と
なる候補パターンをマーカパターンの像として検出すれ
ばよい。
For example, when the cross-shaped marker pattern as shown in FIG. 3A is adopted, the crossing angle is 90 degrees even in the image of the marker pattern. Therefore, as shown in FIG. In step 306, the intersection determination unit 226 may obtain the inner product of the direction vectors indicating the directions of the respective candidate line segments, and in step 307, detect the candidate pattern whose inner product is the numerical value “0” as the image of the marker pattern. .

【0039】このようにして、候補パターンにおける線
分の交差角に基づいて上述した判別処理を行うことによ
り、マーカパターンの特徴をすべて備えたパターンを判
別することができ、重心検出部227による処理に供す
ることができる。これに応じて、重心検出部227は、
ステップ308において、該当するパターンの重心を求
め、得られた重心位置をマーカパターンの像の位置とし
て補正値算出部230に送出する構成となっている。
In this way, by performing the above-described discrimination processing based on the intersection angles of the line segments in the candidate pattern, it is possible to discriminate the pattern having all the features of the marker pattern, and the processing by the centroid detection unit 227. Can be used for In response to this, the center of gravity detector 227
In step 308, the center of gravity of the corresponding pattern is obtained, and the obtained center of gravity position is sent to the correction value calculation unit 230 as the position of the image of the marker pattern.

【0040】ここで、複数の線分が交差したパターンに
おいては、そのパターンの重心位置と線分の交点位置と
は一致しているから、重心位置をマーカパターンの位置
とすることができる。また、このように重心位置を求め
る場合は、パターンを構成する全ての画素の情報を利用
することができるから、線分の交点そのものを検出しよ
うとした場合に比べて、雑音の影響を受けにくく、マー
カパターンの位置を高精度で検出することができる。
Here, in a pattern in which a plurality of line segments intersect, the position of the center of gravity of the pattern coincides with the position of the intersection of the line segments, so the position of the center of gravity can be taken as the position of the marker pattern. Further, in the case of obtaining the barycentric position in this manner, since the information of all the pixels forming the pattern can be used, it is less likely to be affected by noise as compared with the case where the intersection of the line segment itself is detected. The position of the marker pattern can be detected with high accuracy.

【0041】このように、長さ判別部224,候補パタ
ーン判別部225,交差判別部226,重心検出部22
7が順次に動作することにより、請求項4で述べたパタ
ーン抽出手段121および中心検出手段122の機能を
実現し、マーカパターンの特徴を利用して、マーカパタ
ーンの像位置を確実にしかも正確に検出することができ
る。
As described above, the length discriminating section 224, the candidate pattern discriminating section 225, the intersection discriminating section 226, and the center of gravity detecting section 22.
7 sequentially realizes the functions of the pattern extracting means 121 and the center detecting means 122 described in claim 4, and the characteristic of the marker pattern is used to reliably and accurately determine the image position of the marker pattern. Can be detected.

【0042】また、図3(a) に示したようなマーカパタ
ーンをそれぞれの交差点を中心として回転させながら投
影し、その投影図形を一定期間ごとに撮影して得られた
2値イメージデータからマーカパターンの位置を検出す
ることもできる。この場合は、図7に示すように、図2
に示したイメージ補正装置200に、回転処理部206
を付加し、補正制御部203からの指示に応じて、この
回転処理部206が、表示データ保持部201に保持さ
れた表示データに基づいて、マーカパターンのそれぞれ
を所定の角度だけ回転したパターンを表す表示データを
作成し、セレクタ202を介してプロジェクタ420に
送出すればよい。
Further, a marker pattern as shown in FIG. 3 (a) is projected while being rotated around each intersection, and the projected figure is photographed at regular intervals to obtain a marker from the binary image data. It is also possible to detect the position of the pattern. In this case, as shown in FIG.
The image processing apparatus 200 shown in FIG.
In response to an instruction from the correction control unit 203, the rotation processing unit 206 generates a pattern in which each of the marker patterns is rotated by a predetermined angle based on the display data held in the display data holding unit 201. It suffices to create display data representing the data and send it to the projector 420 via the selector 202.

【0043】また、投影位置検出部220の代わりに備
えられた投影位置検出部250において、黒画素検出部
251は、補正制御部203からの指示に応じて、フレ
ームメモリ213に保持された2値イメージデータから
黒画素を検出し、1フレームの各画素が黒画素として検
出された度数を度数保持部252に格納する構成となっ
ている。
Further, in the projection position detection unit 250 provided in place of the projection position detection unit 220, the black pixel detection unit 251 receives the binary value stored in the frame memory 213 in response to the instruction from the correction control unit 203. A black pixel is detected from the image data, and the frequency at which each pixel in one frame is detected as a black pixel is stored in the frequency holding unit 252.

【0044】ここで、上述した回転処理部206の動作
により、少しずつ角度を変えながら所定の時間でマーカ
パターンを一回転させ、マーカパターンの角度の変化に
同期して、補正制御部203が黒画素検出部251に検
出動作を指示すれば、度数保持部252には、各マーカ
パターンに対応する黒画素の度数分布として、図8に示
すように、度数の多い中心部の周囲に度数の少ない部分
が広がる円形の分布パターンが保持される。但し、図8
において、黒画素の度数の多少を編みかけの濃度を変え
て示した。
Here, by the operation of the rotation processing unit 206 described above, the marker pattern is rotated once at a predetermined time while changing the angle little by little, and the correction control unit 203 synchronizes with the change in the angle of the marker pattern to black. If the pixel detection unit 251 is instructed to perform a detection operation, the frequency holding unit 252 displays the frequency distribution of black pixels corresponding to each marker pattern as shown in FIG. A circular distribution pattern with a widened portion is retained. However, FIG.
In the above, the degree of black pixel frequency is shown by changing the density of knitting.

【0045】したがって、パターン抽出部253によ
り、上述した度数保持部252から該当する分布パター
ンを検出すれば、ほぼ確実にマーカパターンに対応する
度数分布を検出することができ、検出された分布パター
ンに基づいて、重心検出部254が、その重心を検出す
ることにより、分布パターンの中心を正確に検出するこ
とができる。
Therefore, if the pattern extraction unit 253 detects the corresponding distribution pattern from the frequency holding unit 252 described above, the frequency distribution corresponding to the marker pattern can be detected almost certainly, and the detected distribution pattern can be obtained. Based on the center of gravity, the center of gravity of the distribution pattern can be accurately detected by detecting the center of gravity.

【0046】この場合は、補正制御部203からの指示
に応じて、黒画素検出部251が動作し、この検出結果
に基づいて、パターン抽出部253が動作することによ
り、請求項2で述べたパターン抽出手段121の機能を
果たし、マーカパターンの特徴に基づいてマーカパター
ンの像を抽出し、中心検出手段122に相当する重心検
出部254の処理に供することができる。
In this case, the black pixel detection unit 251 operates in response to an instruction from the correction control unit 203, and the pattern extraction unit 253 operates based on the detection result. The function of the pattern extraction unit 121 can be fulfilled, an image of the marker pattern can be extracted based on the characteristics of the marker pattern, and the image of the marker pattern can be provided to the processing of the center of gravity detection unit 254 corresponding to the center detection unit 122.

【0047】その他のパターン抽出手段121の例とし
ては、マーカパターンを空間周波数の変化パターンとし
て認識する方法などが考えられる。
As another example of the pattern extracting means 121, a method of recognizing a marker pattern as a spatial frequency change pattern can be considered.

【0048】[0048]

【発明の効果】以上説明したように本発明は、投影され
た基準パターンを撮影して得られる2値画像に基づい
て、投影の際に生じた歪みを評価して、この歪みを打ち
消すために必要かつ十分な変形を投影対象の文書イメー
ジに加えることができるから、投影手段とスクリーンと
の配置にかかわらず、歪みのない文書イメージを投影す
ることが可能である。
As described above, according to the present invention, distortion generated during projection is evaluated based on a binary image obtained by photographing a projected reference pattern, and the distortion is canceled. Since necessary and sufficient deformation can be added to the document image to be projected, it is possible to project a document image without distortion regardless of the arrangement of the projection means and the screen.

【0049】これにより、スクリーンの配置を調整する
手間を省くことができ、また、常に正常な文書イメージ
を投影して、利用者に提供することができる。
Thus, it is possible to save the trouble of adjusting the arrangement of the screen, and it is possible to always project a normal document image and provide it to the user.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明のイメージ投影システムの原理ブロック
図である。
FIG. 1 is a principle block diagram of an image projection system of the present invention.

【図2】請求項1のイメージ投影システムの実施例構成
図である。
FIG. 2 is a configuration diagram of an embodiment of the image projection system of claim 1;

【図3】イメージ補正処理を説明する図である。FIG. 3 is a diagram illustrating an image correction process.

【図4】投影位置検出部の詳細構成図である。FIG. 4 is a detailed configuration diagram of a projection position detection unit.

【図5】投影位置の検出動作を表す流れ図である。FIG. 5 is a flowchart showing a detection operation of a projection position.

【図6】膨張処理および細線化処理の説明図である。FIG. 6 is an explanatory diagram of expansion processing and thinning processing.

【図7】本発明のイメージ投影システムの別実施例構成
図である。
FIG. 7 is a configuration diagram of another embodiment of the image projection system of the present invention.

【図8】度数分布パターンの例を示す図である。FIG. 8 is a diagram showing an example of a frequency distribution pattern.

【図9】従来のイメージ投影システムの構成例を示す図
である。
FIG. 9 is a diagram showing a configuration example of a conventional image projection system.

【符号の説明】[Explanation of symbols]

101 投影手段 102,401 スクリーン 111 基準パターン送出手段 112 撮影手段 113 位置検出手段 114 歪み評価手段 115 補正手段 121 パターン抽出手段 122 中心検出手段 201 表示データ保持部 202 セレクタ 203 補正制御部 204 差分算出部 205 位置データ保持部 206 回転処理部 210 画像入力部 211 CCDカメラ 212 変換処理部 213 フレームメモリ 220,250 投影位置検出部 221 膨張処理部 222 細線化処理部 223 線分抽出部 224 長さ判別部 225 候補パターン検出部 226 交差判別部 227,254 重心検出部 230 補正値算出部 231 変形率算出部 232 ポイント補正値算出部 233 ポイント補正値テーブル 234 座標補正値算出部 235 座標補正値テーブル 240 補正演算部 241 分離処理部 242 テキスト補正部 243 線画補正部 244 結合処理部 251 黒画素検出部 252 度数保持部 253 パターン抽出部 410 パソコン 420 プロジェクタ 421 描画処理部 422 投影処理部 423 光学系 101 Projection means 102, 401 screen 111 Reference pattern sending means 112 means of photography 113 Position detecting means 114 distortion evaluation means 115 Correction means 121 pattern extraction means 122 Center Detection Means 201 Display data holding unit 202 selector 203 Correction control unit 204 Difference calculation unit 205 Position data holding unit 206 Rotation processing unit 210 Image input section 211 CCD camera 212 conversion processing unit 213 frame memory 220,250 Projection position detector 221 Expansion processing unit 222 Thinning processing unit 223 Line segment extractor 224 Length discriminator 225 Candidate pattern detector 226 Intersection discrimination unit 227,254 Center of gravity detector 230 Correction value calculation unit 231 Deformation rate calculation unit 232 point correction value calculation unit 233 point correction value table 234 Coordinate correction value calculation unit 235 Coordinate correction value table 240 Correction calculator 241 Separation processing unit 242 Text correction unit 243 Line drawing correction unit 244 Combine processing unit 251 Black pixel detector 252 frequency storage 253 pattern extractor 410 PC 420 projector 421 Drawing processing unit 422 Projection processing unit 423 optical system

───────────────────────────────────────────────────── フロントページの続き (58)調査した分野(Int.Cl.7,DB名) G03B 21/00 - 21/30 H04N 5/74 ─────────────────────────────────────────────────── ─── Continuation of front page (58) Fields surveyed (Int.Cl. 7 , DB name) G03B 21/00-21/30 H04N 5/74

Claims (2)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 文字や図形から構成された文書イメージ
を投影手段を介してスクリーンに投影するイメージ投影
システムにおいて、 投影対象の文書イメージとして、それぞれ所定の位置に
配置された複数のマーカパターンから構成される基準パ
ターンを前記投影手段に送出する基準パターン送出手段
と、 前記投影手段によって投影された前記基準パターンの投
影像を撮影する撮影手段と、 前記撮影手段によって得られた前記基準パターンの投影
像に含まれている前記複数のマーカパターンの像の位置
を検出する位置検出手段と、 前記複数のマーカパターンの像の位置と前記基準パター
ンにおける前記複数のマーカパターンの位置とを照合す
ることにより、前記投影手段による投影操作によって生
じた投影像の歪みを評価する歪み評価手段と、 投影対象の文書イメージを表す文書情報が入力され、前
記歪み評価手段による評価結果で示される投影像の歪み
に対応する変形を前記文書情報に与える補正手段とを備
前記補正手段は、 前記文書情報を、文字および記号を含むテキストデータ
を示すコードおよび属性情報から形成されるテキスト情
報と、線画を含むイメージを表示するためのイメージ情
報とに分離する分離処理部と、 前記歪み評価手段によって得られた評価結果に基づい
て、前記テキスト情報に含まれる属性情報に対して、前
記評価結果で示される歪みを打ち消すための変換を行な
うテキスト補正部と、 前記歪み評価手段によって得られた評価結果に基づい
て、前記イメージ情報に対して、前記評価結果で示され
る歪みを打ち消すための変換を行なう線画補正部と、 前記テキスト補正部による変換結果と前記線画補正部に
よる変換結果とを合成して文書情報を復元する結合処理
部とを備えて構成する ことを特徴とするイメージ投影シ
ステム。
1. An image projection system for projecting a document image composed of characters and figures on a screen via a projecting means, wherein the document image to be projected comprises a plurality of marker patterns arranged at respective predetermined positions. Pattern transmitting means for transmitting the reference pattern to the projecting means, photographing means for photographing the projected image of the reference pattern projected by the projecting means, and projected image of the reference pattern obtained by the photographing means By detecting the position of the image of the plurality of marker patterns included in the position detection means, by collating the position of the image of the plurality of marker patterns and the position of the plurality of marker patterns in the reference pattern, Distortion evaluation means for evaluating the distortion of the projected image caused by the projection operation by the projection means; Document information representing the document image projection object is input, and a correction means for providing a deformation corresponding to the distortion of the projected image represented by the evaluation result of the distortion evaluating means on said document information, said correction means, said document Information, text data containing letters and symbols
Information that is formed from the code that indicates the attribute and attribute information
Information and image information for displaying images including line drawings.
A separation processing unit that separates into the distribution, based on the evaluation results obtained by the distortion evaluating means
The attribute information included in the text information,
Perform conversion to cancel the distortion shown in the evaluation results.
Based on the evaluation result obtained by the text correction unit and the distortion evaluation means.
Is shown in the evaluation result for the image information.
To the line drawing correction unit that performs conversion for canceling the distortion caused by the text correction unit and the conversion result by the text correction unit and the line drawing correction unit.
Combined processing to restore the document information by synthesizing with the conversion result by
An image projection system characterized by being configured with a section .
【請求項2】 請求項1に記載のイメージ投影システム
において、 基準パターン送出手段は、複数の線分が一点で交差する
マーカパターンを配置した基準パターンを送出する構成
であり、 位置検出手段は、 前記マーカパターンの形状の特徴に基づいて、基準パタ
ーンの投影像に含まれている前記マーカパターンの像を
抽出するパターン抽出手段と、 前記パターン抽出手段で抽出された前記マーカパターン
の像の中心位置を検出する中心検出手段とを備えた構成
であることを特徴とするイメージ投影システム。
2. The image projection system according to claim 1, wherein the reference pattern sending means is configured to send a reference pattern in which a marker pattern in which a plurality of line segments intersect at one point is arranged, and the position detecting means comprises: Pattern extraction means for extracting the image of the marker pattern included in the projected image of the reference pattern based on the characteristic of the shape of the marker pattern; and the center position of the image of the marker pattern extracted by the pattern extraction means. An image projection system comprising: a center detecting unit for detecting the.
JP00911595A 1995-01-24 1995-01-24 Image projection system Expired - Fee Related JP3382045B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP00911595A JP3382045B2 (en) 1995-01-24 1995-01-24 Image projection system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP00911595A JP3382045B2 (en) 1995-01-24 1995-01-24 Image projection system

Publications (2)

Publication Number Publication Date
JPH08201913A JPH08201913A (en) 1996-08-09
JP3382045B2 true JP3382045B2 (en) 2003-03-04

Family

ID=11711642

Family Applications (1)

Application Number Title Priority Date Filing Date
JP00911595A Expired - Fee Related JP3382045B2 (en) 1995-01-24 1995-01-24 Image projection system

Country Status (1)

Country Link
JP (1) JP3382045B2 (en)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2942215B2 (en) * 1997-06-16 1999-08-30 八洲電機株式会社 Pen
US6554431B1 (en) * 1999-06-10 2003-04-29 Sony Corporation Method and apparatus for image projection, and apparatus controlling image projection
JP2001166377A (en) * 1999-12-09 2001-06-22 Olympus Optical Co Ltd Picture projection system
KR100414083B1 (en) 1999-12-18 2004-01-07 엘지전자 주식회사 Method for compensating image distortion and image displaying apparatus using the same
KR20030078235A (en) * 2002-03-28 2003-10-08 엘지전자 주식회사 Image distortion compensation method for mobile communication terminal attached camera
JP2004165944A (en) * 2002-11-13 2004-06-10 Nippon Telegr & Teleph Corp <Ntt> Method and device for projection information correction, program, and recording medium
WO2004086135A1 (en) * 2003-03-26 2004-10-07 Matsushita Electric Industrial Co., Ltd. Video display system
US7292269B2 (en) * 2003-04-11 2007-11-06 Mitsubishi Electric Research Laboratories Context aware projector
US7125122B2 (en) 2004-02-02 2006-10-24 Sharp Laboratories Of America, Inc. Projection system with corrective image transformation
JP4468442B2 (en) 2004-03-31 2010-05-26 キヤノン株式会社 Imaging system performance measurement
JP5205865B2 (en) * 2007-08-22 2013-06-05 セイコーエプソン株式会社 Projection image shape distortion correction support system, projection image shape distortion correction support method, projector, and program
JP5354163B2 (en) * 2008-12-05 2013-11-27 セイコーエプソン株式会社 Projector, program and information storage medium
JP5354168B2 (en) * 2009-01-13 2013-11-27 セイコーエプソン株式会社 Projector and control method
JP5218627B2 (en) * 2011-11-21 2013-06-26 日本電気株式会社 Projected image correction system and method
JP2018207373A (en) 2017-06-07 2018-12-27 パナソニックIpマネジメント株式会社 Calibration apparatus of projection type display device, calibration method, program, projection type display device, and projection type display system
KR20220015000A (en) * 2020-07-30 2022-02-08 삼성전자주식회사 Projector apparatus and controlling method thereof

Also Published As

Publication number Publication date
JPH08201913A (en) 1996-08-09

Similar Documents

Publication Publication Date Title
JP3382045B2 (en) Image projection system
JP4363151B2 (en) Imaging apparatus, image processing method thereof, and program
JP6153564B2 (en) Pointing device with camera and mark output
JP3834766B2 (en) Man machine interface system
US6388654B1 (en) Method and apparatus for processing, displaying and communicating images
WO2022179108A1 (en) Projection correction method and apparatus, storage medium, and electronic device
US6554431B1 (en) Method and apparatus for image projection, and apparatus controlling image projection
US6275214B1 (en) Computer presentation system and method with optical tracking of wireless pointer
US20040207600A1 (en) System and method for transforming an ordinary computer monitor into a touch screen
US20070071319A1 (en) Method, apparatus, and program for dividing images
JP2000357055A (en) Method and device for correcting projection image and machine readable medium
JP2005122323A (en) Photographing apparatus, image processor, and image processing method and program for photographing device
JP2002057879A (en) Apparatus and method for image processing, and computer readable recording medium
US7119788B2 (en) Image processing apparatus, image processing method, providing medium and presentation system
JP3307075B2 (en) Imaging equipment
JP4363154B2 (en) Imaging apparatus, image processing method thereof, and program
JP3983623B2 (en) Image composition apparatus, image composition method, image composition program, and recording medium on which image composition program is recorded
JPH06348851A (en) Object position detecting method
JP4363153B2 (en) Imaging apparatus, image processing method thereof, and program
JP2020166653A (en) Information processing device, information processing method, and program
JPH0643851A (en) Device for displaying image
JP2021056899A (en) Image processor, image processing method, and program
JP2016091193A (en) Image processor, image processing method and program
JPH09179880A (en) Device and method for extracting important image of moving picture
WO2023017723A1 (en) Information processing device, information processing system, information processing method, and program

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20021203

LAPS Cancellation because of no payment of annual fees