JP4363152B2 - Captured image projection device, image processing method and program for captured image projection device - Google Patents

Captured image projection device, image processing method and program for captured image projection device Download PDF

Info

Publication number
JP4363152B2
JP4363152B2 JP2003354421A JP2003354421A JP4363152B2 JP 4363152 B2 JP4363152 B2 JP 4363152B2 JP 2003354421 A JP2003354421 A JP 2003354421A JP 2003354421 A JP2003354421 A JP 2003354421A JP 4363152 B2 JP4363152 B2 JP 4363152B2
Authority
JP
Japan
Prior art keywords
image
document
shape
area
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003354421A
Other languages
Japanese (ja)
Other versions
JP2005122326A (en
Inventor
敬一 櫻井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2003354421A priority Critical patent/JP4363152B2/en
Publication of JP2005122326A publication Critical patent/JP2005122326A/en
Application granted granted Critical
Publication of JP4363152B2 publication Critical patent/JP4363152B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Projection Apparatus (AREA)
  • Image Processing (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Description

本発明は、撮影画像投影装置、方法及びプログラムに関するものである。   The present invention relates to a captured image projection apparatus, method, and program.

紙の書類やOHP用紙などを読み取って投影をおこなうOHPでは、デジタルカメラの発達に伴い、従来のラインスキャナで読み取る方式から、デジタルカメラを用いた書画カメラと呼ばれる方式の撮影画像投影装置(書画カメラ)が開発されつつある。   In OHP, which reads and projects paper documents and OHP paper, with the development of digital cameras, there is a photographic image projection device called a document camera using a digital camera (document camera) instead of a conventional line scanner. ) Is being developed.

この撮影画像投影装置は、ユーザが原稿台に載置した原稿をカメラで撮影して、カメラで撮影した原稿の画像データをコンピュータの記憶装置に記憶して画像処理を行い、プロジェクタを用いてスクリーン上に原稿の画像を拡大して投影するものである(例えば、特許文献1参照)。   In this photographed image projection device, a user photographs a document placed on a document table with a camera, stores image data of the document photographed with the camera in a storage device of a computer, performs image processing, and uses a projector to perform screen processing. A document image is enlarged and projected on the image (for example, see Patent Document 1).

このような撮影画像投影装置は、従来のOHPでは、できなかった3次元の撮影対象を撮影して、この画像を投影することができるので、従来のOHPにとって変わりつつある。
特開2002−354331号公報(第2−3頁、図1)
Such a photographed image projection apparatus is changing for a conventional OHP because a three-dimensional object to be photographed that could not be obtained by the conventional OHP can be imaged and projected.
JP 2002-354331 A (page 2-3, FIG. 1)

しかし、従来の撮影画像投影装置では、カメラで原稿を斜め方向から撮影すると、カメラに近い原稿の辺がカメラの画角(撮影範囲)から外れてしまうため、カメラのズーム倍率を小さくせざるを得ない。   However, in a conventional photographed image projection apparatus, when a document is photographed from an oblique direction with a camera, the side of the document that is close to the camera deviates from the angle of view (shooting range) of the camera, so the zoom magnification of the camera must be reduced. I don't get it.

結果として原稿の占める面積が減ってくるため、台形補正をおこなっても画像に対して原稿の占める割合が減り、投影された原稿の画像が小さくなってしまい、スクリーンに投影された画像が見にくくなってしまう。この傾向は、特にあおり角が大きくなると顕著になる。   As a result, the area occupied by the document decreases, so even if keystone correction is performed, the ratio of the document to the image decreases, the projected document image becomes smaller, and the image projected on the screen becomes difficult to see. End up. This tendency becomes prominent especially when the tilt angle is increased.

また、原稿画像の形状を正確に抽出することが困難なため、台形補正をおこなっても原稿以外の余分な画像部分が含まれてしまい、やはり、スクリーンに投影された画像が見にくくなってしまう。   In addition, since it is difficult to accurately extract the shape of the document image, extra image portions other than the document are included even if the keystone correction is performed, and it becomes difficult to see the image projected on the screen.

本発明は、このような従来の問題点に鑑みてなされたもので、見やすい画像を取得することが可能な撮影画像投影装置、撮影画像投影装置の画像処理方法及びプログラムを提供することを目的とする。   The present invention has been made in view of such a conventional problem, and an object thereof is to provide a photographic image projection apparatus capable of acquiring an easy-to-see image, an image processing method of the photographic image projection apparatus, and a program. To do.

この目的を達成するため、本発明の第1の観点に係る撮影画像投影装置は、
撮影した原稿の画像をスクリーンに投影する撮影画像投影装置において、
撮影によって得られた原稿画像の歪みを補正するように、前記原稿画像が有する複数の形状のうちいずれかの形状に対して画像処理を行う画像処理部と、
前記画像処理部が画像処理した画像を前記スクリーンに投影する投影部と、を備え、
前記画像処理部は、
前記原稿画像から前記原稿画像候補の輪郭を取得し、取得した輪郭で囲まれた前記形状及びその頂点位置を取得する形状取得部と、
前記形状取得部が取得した前記形状の面積を求める面積取得部と、
前記面積取得部が求めた面積と予め指定された原稿サイズの面積とを比較して、前記面積取得部が求めた面積のうち、前記指定された原稿サイズの面積と最も近い面積を有する形状を前記原稿画像の形状として選択する形状選択部と、
前記形状選択部が選択した前記原稿画像の形状と実際の原稿の形状とを対応させて、前記形状取得部が取得した前記原稿画像の頂点位置から、前記原稿画像と実際の原稿との関係を示す射影パラメータを求める射影パラメータ取得部と、
前記射影パラメータ取得部が求めた射影パラメータを用いて前記原稿画像の画像変換を行う画像変換部と、を備えたことを特徴とする。
In order to achieve this object, a captured image projection apparatus according to the first aspect of the present invention provides:
In a photographic image projection device that projects an image of a photographed document on a screen,
An image processing unit that performs image processing on any one of a plurality of shapes of the document image so as to correct distortion of the document image obtained by shooting;
A projection unit that projects the image processed by the image processing unit onto the screen;
The image processing unit
A shape acquisition unit that acquires the outline of the original image candidate from the original image and acquires the shape surrounded by the acquired outline and the vertex position thereof;
An area acquisition unit for obtaining an area of the shape acquired by the shape acquisition unit;
The area obtained by the area acquisition unit is compared with the area of the document size designated in advance, and the shape having the area closest to the area of the designated document size is obtained among the areas obtained by the area acquisition unit. A shape selection unit for selecting the shape of the original image;
The shape of the original image selected by the shape selection unit is associated with the actual original shape, and the relationship between the original image and the actual original is determined from the vertex position of the original image acquired by the shape acquisition unit. A projection parameter acquisition unit for obtaining a projection parameter to be shown;
An image conversion unit that performs image conversion of the document image using the projection parameter obtained by the projection parameter acquisition unit.

前記形状取得部は、
前記原稿画像のエッジ画像を検出するエッジ画像検出部と、
前記エッジ画像検出部が検出したエッジ画像から前記原稿の輪郭の候補となる直線を検出する直線検出部と、を備え、
前記直線検出部が検出した直線を組み合わせて前記原稿の輪郭を取得してもよい。
The shape acquisition unit
An edge image detector for detecting an edge image of the document image;
A straight line detection unit that detects straight lines that are candidates for the outline of the document from the edge image detected by the edge image detection unit;
The outline of the document may be acquired by combining straight lines detected by the straight line detection unit.

前記面積取得部は、前記原稿画像の大きさと前記形状取得部が取得した頂点位置とに基づいて、前記形状取得部が取得した輪郭で囲まれた形状の面積を求めるようにしてもよい。   The area acquisition unit may determine the area of the shape surrounded by the outline acquired by the shape acquisition unit based on the size of the document image and the vertex position acquired by the shape acquisition unit.

光を集光するレンズと、前記レンズが集光した光によって画像を形成する画像形成部と、前記画像形成部上に前記原稿画像が結像するように前記レンズの位置を制御するレンズ制御部と、を有するカメラを備え、
前記面積取得部は、
前記レンズ制御部の制御によって前記画像形成部上に前記原稿画像が結像したときの前記レンズと前記画像形成部との間の距離と、前記レンズと前記原稿との間の距離と、に基づいて前記形状取得部が取得した前記原稿画像の大きさを求めるようにしてもよい。
A lens for condensing light, an image forming unit for forming an image by the light collected by the lens, and a lens control unit for controlling the position of the lens so that the original image is formed on the image forming unit And a camera having
The area acquisition unit
Based on the distance between the lens and the image forming unit when the document image is formed on the image forming unit by the control of the lens control unit, and the distance between the lens and the document. The size of the original image acquired by the shape acquisition unit may be obtained.

前記レンズ制御部は、
測距用の光を出力する光出力部と、
前記光出力部が出力した光による前記原稿からの反射光に基づいて前記レンズと前記原稿との間の距離を計測する距離センサと、を備えたアクティブ方式のものであって、
前記面積取得部は、前記レンズ制御部の制御によって前記画像形成部上に前記原稿画像が結像したときに前記距離センサによって計測された前記レンズと前記原稿との間の距離と、前記レンズの焦点距離と、に基づいて前記レンズと前記結像部との間の距離を求めるようにしてもよい。
The lens control unit
A light output unit that outputs light for distance measurement;
A distance sensor that measures a distance between the lens and the document based on light reflected from the document by the light output from the light output unit;
The area acquisition unit is configured to control a distance between the lens and the document measured by the distance sensor when the document image is formed on the image forming unit by the control of the lens control unit. The distance between the lens and the imaging unit may be obtained based on the focal length.

前記レンズ制御部は、前記レンズと前記画像形成部との間の距離が予め設定されて、前記画像形成部上に形成された前記原稿画像のコントラストが最大となるように前記レンズの位置を制御するパッシブ方式のものであって、
前記面積取得部は、前記原稿画像のコントラストが最大となったときに前記レンズ制御部から出力された前記レンズと前記結像部との間の距離と、前記レンズの焦点距離と、に基づいて前記レンズと前記原稿との間の距離を求めるようにしてもよい。
The lens control unit controls the position of the lens so that the distance between the lens and the image forming unit is preset and the contrast of the document image formed on the image forming unit is maximized. Passive type
The area acquisition unit is based on the distance between the lens and the imaging unit output from the lens control unit when the contrast of the document image is maximized, and the focal length of the lens. A distance between the lens and the document may be obtained.

本発明の第2の観点に係る撮影画像投影装置の画像処理方法は、
撮影した原稿の画像をスクリーンに投影する撮影画像投影装置の画像処理方法であって、
複数の形状を有する前記原稿画像から前記原稿画像候補の輪郭を取得し、取得した輪郭で囲まれた前記形状及びその頂点位置を取得するステップと、
前記取得した前記形状の面積を求めるステップと、
前記求めた面積と予め指定された原稿サイズの面積とを比較して、前記求めた面積のうち、前記指定された原稿サイズの面積と最も近い面積を有する形状を前記原稿画像の形状として選択するステップと、
前記選択した前記原稿画像の形状と実際の原稿の形状とを対応させて、前記取得した前記原稿画像の頂点位置から、前記原稿画像と実際の原稿との関係を示す射影パラメータを求めるステップと、
前記求めた射影パラメータを用いて前記原稿画像の画像変換を行うステップと、を備えたことを特徴とする。
An image processing method of a captured image projection apparatus according to a second aspect of the present invention includes:
An image processing method of a photographic image projection apparatus for projecting a photographed document image on a screen,
Obtaining a contour of the document image candidate from the document image having a plurality of shapes, obtaining the shape surrounded by the obtained contour and its vertex position;
Obtaining an area of the acquired shape;
By comparing the area of pre-specified document size and the obtained area of the obtained area, selecting the shape having the closest area to the area of the designated document size as the shape of the original image Steps,
Associating the shape of the selected document image with the shape of the actual document, and obtaining a projection parameter indicating the relationship between the document image and the actual document from the vertex position of the acquired document image;
Performing the image conversion of the document image using the obtained projection parameter.

本発明の第3の観点に係るプログラムは、
コンピュータに、
撮影によって得られた複数の形状を有する原稿画像から前記原稿画像候補の輪郭を取得し、取得した輪郭で囲まれた前記形状及びその頂点位置を取得する手順、
前記取得した前記形状の面積を求める手順、
前記求めた面積と予め指定された原稿サイズの面積とを比較して、前記求めた面積のうち、前記指定された原稿サイズの面積と最も近い面積を有する形状を前記原稿画像の形状として選択する手順、
前記選択した前記原稿画像の形状と実際の原稿の形状とを対応させて、前記取得した前記原稿画像の頂点位置から、前記原稿画像と実際の原稿との関係を示す射影パラメータを求める手順、
前記求めた射影パラメータを用いて前記原稿画像の画像変換を行う手順、
を実行させるためのものである。
The program according to the third aspect of the present invention is:
On the computer,
A procedure for acquiring the contour of the document image candidate from a document image having a plurality of shapes obtained by photographing, and acquiring the shape surrounded by the acquired contour and its vertex position;
A procedure for obtaining an area of the acquired shape;
By comparing the area of pre-specified document size and the obtained area of the obtained area, selecting the shape having the closest area to the area of the designated document size as the shape of the original image procedure,
A procedure for associating the shape of the selected original image with the actual original shape and obtaining a projection parameter indicating the relationship between the original image and the actual original from the vertex position of the acquired original image;
A procedure for performing image conversion of the document image using the obtained projection parameter;
Is to execute.

本発明によれば、見やすい画像を得ることができる。   According to the present invention, an easy-to-see image can be obtained.

以下、本発明の実施の形態に係る撮影画像投影装置を、図面を参照して説明する。
(実施形態1)
Hereinafter, a captured image projection apparatus according to an embodiment of the present invention will be described with reference to the drawings.
(Embodiment 1)

実施形態1に係る撮影画像投影装置の構成を図1に示す。
撮影画像投影装置は、書画カメラ1と、プロジェクタ2と、から構成される。
FIG. 1 shows the configuration of the captured image projection apparatus according to the first embodiment.
The captured image projection apparatus includes a document camera 1 and a projector 2.

書画カメラ1は、投影対象の原稿4を撮影するためのカメラシステムであり、カメラ部11と、支柱12と、台座13と、操作台14と、を備える。カメラ部11は、原稿4を撮影するためのものである。カメラ部11には、デジタルカメラが用いられる。支柱12は、カメラ部11を取り付けるためのものである。台座13は、支柱12を支えるためのものである。   The document camera 1 is a camera system for photographing a document 4 to be projected, and includes a camera unit 11, a support column 12, a pedestal 13, and an operation table 14. The camera unit 11 is for photographing the document 4. A digital camera is used for the camera unit 11. The column 12 is for attaching the camera unit 11. The pedestal 13 is for supporting the column 12.

また、書画カメラ1は、図2に示すように、画像データ生成部21と、データ処理部22と、からなる。画像データ生成部21は、原稿4を撮影して原稿4の画像データを取り込むためのものである。   Further, the document camera 1 includes an image data generation unit 21 and a data processing unit 22 as shown in FIG. The image data generation unit 21 captures the document 4 and captures the image data of the document 4.

データ処理部22は、画像データ生成部21から、取り込んだ原稿4の画像データを取得して画像処理を行い、画像処理を施した画像データをプロジェクタ2に出力するものである。   The data processing unit 22 acquires image data of the captured original 4 from the image data generation unit 21, performs image processing, and outputs the image data subjected to the image processing to the projector 2.

尚、画像データ生成部21とデータ処理部22とは、図1に示すカメラ部11に備えられてもよいし、画像データ生成部21,データ処理部22が、それぞれ、カメラ部11、操作台14に備えられてもよい。   The image data generation unit 21 and the data processing unit 22 may be provided in the camera unit 11 shown in FIG. 1, or the image data generation unit 21 and the data processing unit 22 are respectively connected to the camera unit 11 and the operation console. 14 may be provided.

画像データ生成部21は、光学レンズ装置101と、イメージセンサ102と、から構成される。   The image data generation unit 21 includes an optical lens device 101 and an image sensor 102.

光学レンズ装置101は、原稿4を撮影するために、光を集光するレンズなどで構成されたものである。   The optical lens device 101 is composed of a lens that collects light in order to photograph the document 4.

イメージセンサ102は、光学レンズ装置101が光を集光することによって結像した画像を、デジタル化した画像データとして取り込むためのものであり、CCD等によって構成される。   The image sensor 102 is for capturing an image formed by the optical lens device 101 condensing light as digitized image data, and is configured by a CCD or the like.

データ処理部22は、メモリ201と、表示装置202と、画像処理装置203と、操作部204と、プログラムコード記憶装置205と、CPU206と、から構成される。   The data processing unit 22 includes a memory 201, a display device 202, an image processing device 203, an operation unit 204, a program code storage device 205, and a CPU 206.

メモリ201は、イメージセンサ102からの画像、表示装置202に送り出すための画像データ等を一時記憶するためのものである。
表示装置202は、プロジェクタ2に送り出す画像を表示するためのものである。
The memory 201 is for temporarily storing an image from the image sensor 102, image data to be sent to the display device 202, and the like.
The display device 202 is for displaying an image sent out to the projector 2.

画像処理装置203は、メモリ201に一時記憶された画像データに対して、画像の歪み補正や画像効果などの画像処理を行うためのものである。   The image processing device 203 is for performing image processing such as image distortion correction and image effect on the image data temporarily stored in the memory 201.

画像処理装置203は、図3(a)に示すようにカメラ部11の撮影面に対して斜めの状態、あるいは回転した状態で撮影した原稿4の画像から、歪み補正(台形補正)を行うことによって、図3(b)に示すような正面から撮影した原稿4の画像を生成する。   The image processing apparatus 203 performs distortion correction (trapezoid correction) from the image of the document 4 taken in an oblique state or rotated state with respect to the photographing surface of the camera unit 11 as shown in FIG. Thus, an image of the document 4 taken from the front as shown in FIG. 3B is generated.

画像処理装置203は、歪み補正を行うため、歪んだ原稿4の画像から四角形を切り取り、切り取った四角形に原稿4の画像を射影変換して逆変換する。   In order to perform distortion correction, the image processing apparatus 203 cuts a square from the image of the distorted original 4, performs projective conversion on the image of the original 4 to the cut out square, and performs inverse conversion.

さらに具体的には、画像処理装置203は、CPU206に制御されて、以下の処理等を行う。
(1)原稿4の画像からのアフィンパラメータ抽出
(2)抽出したアフィンパラメータによる画像変換
(3)輝度あるいは色差等に関する画像効果補正用パラメータの抽出及び画像効果処理
(4)画像変換の調整
尚、これらの処理内容については、後述する。
More specifically, the image processing device 203 is controlled by the CPU 206 to perform the following processing.
(1) Extraction of affine parameters from image of document 4 (2) Image conversion using extracted affine parameters (3) Extraction of image effect correction parameters relating to luminance or color difference and image effect processing (4) Adjustment of image conversion Details of these processes will be described later.

操作部204は、書画投影の機能を制御するためのスイッチ、キーを備えたものである。操作部204は、ユーザが、これらのキー、スイッチを操作したときの操作情報をCPU206に出力する。   The operation unit 204 includes switches and keys for controlling the document projection function. The operation unit 204 outputs operation information to the CPU 206 when the user operates these keys and switches.

また、操作部204は、図4に示すように、画像調整キーとして、上拡大キー211と、下拡大キー212と、左拡大キー213と、右拡大キー214と、右回転キー215と、左回転キー216と、拡大キー217と、縮小キー218と、撮影/解除キー219と、を備える。   Further, as shown in FIG. 4, the operation unit 204 includes an upper enlargement key 211, a lower enlargement key 212, a left enlargement key 213, a right enlargement key 214, a right rotation key 215, and a left as image adjustment keys. A rotation key 216, an enlargement key 217, a reduction key 218, and a shooting / release key 219 are provided.

上拡大キー211、下拡大キー212、左拡大キー213、右拡大キー214は、射影変換を行うときに操作する射影変換キーである。   An upper enlargement key 211, a lower enlargement key 212, a left enlargement key 213, and a right enlargement key 214 are projective conversion keys operated when performing projective conversion.

上拡大キー211は、画像の中心を通る横線を軸にして、横線よりも上の画面上部と横線よりも下の画面下部とを比較し、画面上部を、見ている側に回転させるときに操作するキーであり、下拡大キー212は、画面下部を、見ている側に回転させるときに操作するキーである。   The upper enlargement key 211 is used to compare the upper part of the screen above the horizontal line and the lower part of the screen below the horizontal line with the horizontal line passing through the center of the image as an axis, and rotate the upper part of the screen to the viewing side. The lower enlarged key 212 is a key operated when the lower part of the screen is rotated to the viewing side.

左拡大キー213と右拡大キー214とは、画像の中心を通る縦線を軸にして、画像を回転させることによって画像左右のひずみを調整するキーであって、左拡大キー213は、左の画像が小さいときに操作するキー、右拡大キー214は、右が小さいときに操作するキーである。   The left enlargement key 213 and the right enlargement key 214 are keys for adjusting the left and right distortions by rotating the image around a vertical line passing through the center of the image. A key that is operated when the image is small, and a right enlargement key 214 are keys that are operated when the right is small.

右回転キー215、左回転キー216は、それぞれ、画像の回転を調整するための回転補正キーであり、右回転キー215は、画像の右回転を行なうときに操作するキーであり、左回転キー216は、画像の左回転を行なうときに操作するキーである。   The right rotation key 215 and the left rotation key 216 are rotation correction keys for adjusting the rotation of the image, respectively. The right rotation key 215 is a key operated when the image is rotated to the right, and the left rotation key. Reference numeral 216 denotes a key operated when the image is rotated to the left.

拡大キー217、縮小キー218は、それぞれ、画像の拡大、縮小などの画像変換を行うときに操作するキーである。   The enlargement key 217 and the reduction key 218 are keys operated when performing image conversion such as image enlargement and reduction, respectively.

尚、1回の押下で拡大又は縮小する率を示すRatioに2が設定されていると、ユーザが拡大キー217を一度押すことにより、画像処理装置203は、画像を2倍に拡大する。さらに、もう一度拡大キー217を押すことにより、操作部204、CPU206は応答して、画像処理装置203を制御し、画像処理装置203は、画像をさらに2倍に拡大し、結果として元の画像は4倍画像に拡大される。拡大した画像を、1/2に戻す場合、縮小キー218を押す。操作部204、CPU206は応答し、画像処理装置203は、拡大した画像を縮小する。   If 2 is set in the Ratio indicating the rate of enlargement or reduction by one press, the image processing apparatus 203 enlarges the image twice by pressing the enlargement key 217 once. Further, when the enlargement key 217 is pressed again, the operation unit 204 and the CPU 206 respond to control the image processing device 203, and the image processing device 203 further enlarges the image twice, and as a result, the original image is Enlarged to 4x image. To return the enlarged image to ½, the reduction key 218 is pressed. The operation unit 204 and the CPU 206 respond, and the image processing apparatus 203 reduces the enlarged image.

また、上拡大キー211、下拡大キー212、左拡大キー213、右拡大キー214は、拡大キー217が操作されたときのカーソルキーとしても機能する。即ち、上拡大キー211は、拡大キー217が操作されたときに、表示装置202に表示されている原稿4の画像を上に移動させるための上移動キーとなる。下拡大キー212は、拡大キー217が操作されたときに、原稿4の画像を下に移動させるための下移動キーとなる。左拡大キー213は、拡大キー217が操作されたときに、原稿4の画像を左に移動させるための左移動キーとなる。右拡大キー214は、拡大キー217が操作されたときに、原稿4の画像を右に移動させるための右移動キーとなる。   Further, the upper enlargement key 211, the lower enlargement key 212, the left enlargement key 213, and the right enlargement key 214 also function as cursor keys when the enlargement key 217 is operated. That is, the up enlargement key 211 serves as an up movement key for moving the image of the document 4 displayed on the display device 202 upward when the enlargement key 217 is operated. The lower enlargement key 212 is a downward movement key for moving the image of the document 4 downward when the enlargement key 217 is operated. The left enlargement key 213 serves as a left movement key for moving the image of the document 4 to the left when the enlargement key 217 is operated. The right enlargement key 214 serves as a right movement key for moving the image of the document 4 to the right when the enlargement key 217 is operated.

また、拡大キー217および縮小キー218は、同時に押下されることによって、用紙設定モードに入るためのキーとして機能する。この用紙設定モードにおいて、右回転キー215と左回転キー216とは、それぞれ所望の用紙サイズを選択するためのカーソルキーとなる。尚、この用紙設定モードについての説明は、後述する。   Further, the enlargement key 217 and the reduction key 218 function as keys for entering the paper setting mode when pressed simultaneously. In this paper setting mode, the right rotation key 215 and the left rotation key 216 serve as cursor keys for selecting a desired paper size. The description of the paper setting mode will be described later.

撮影/解除キー219は、原稿4を撮影するときに操作するキーである。また、後述する用紙設定モードにおいて、選択した用紙サイズを決定するための決定キーとなる。   The shooting / cancel key 219 is a key operated when shooting the document 4. In addition, it becomes a determination key for determining the selected paper size in a paper setting mode to be described later.

プログラムコード記憶装置205は、CPU206が実行するプログラムを記憶するためのものであり、ROM等によって構成される。   The program code storage device 205 is for storing a program executed by the CPU 206, and is configured by a ROM or the like.

CPU206は、プログラムコード記憶装置205に格納されているプログラムに従って、各部を制御する。尚、メモリ201は、CPU206の作業メモリとしても用いられる。   The CPU 206 controls each unit in accordance with a program stored in the program code storage device 205. The memory 201 is also used as a work memory for the CPU 206.

また、CPU206は、後述するフローチャートに従って、撮影対象物である原稿4の画像に動きがあるか否かを判定し、判定結果に従って、撮影モードを切り替える。   Further, the CPU 206 determines whether or not there is a motion in the image of the document 4 that is the shooting target, according to a flowchart described later, and switches the shooting mode according to the determination result.

撮影モードは、動画モードと静止画モードの2つとする。動画モードは、ユーザが台座13に投影したい原稿4等を載置しようとする場合に設定されるモードであって、カメラ部11で映し出している画像をそのままプロジェクタ2に投影するモードである。   There are two shooting modes, a moving image mode and a still image mode. The moving image mode is a mode that is set when the user intends to place the document 4 or the like that the user wants to project on the pedestal 13, and is a mode that projects the image projected by the camera unit 11 onto the projector 2 as it is.

動画モードでは、CPU206は、例えば、画像解像度がVGA(600×480ドット)程度の画像を30fps(フレーム/秒)の速さで動画投影を行なうように、各部を制御するものとする。このように、動画モードは、解像度は低いものの、リアルタイム性を重視したモードである。   In the moving image mode, for example, the CPU 206 controls each unit so that an image with an image resolution of about VGA (600 × 480 dots) is projected at a speed of 30 fps (frames / second). As described above, the moving image mode is a mode in which real-time characteristics are emphasized although the resolution is low.

静止画モードは、ユーザが原稿4を置いた後に設定されるモードであって、カメラ部11で高解像度の画像撮影を行い、高解像度の静止画像の投影を行うモードである。カメラ部11が撮影解像度300万画素のカメラである場合、切り出した投影画像はXGA(1024×768)の静止画像になる。   The still image mode is a mode that is set after the user places the document 4, and is a mode in which the camera unit 11 captures a high resolution image and projects a high resolution still image. When the camera unit 11 is a camera with an imaging resolution of 3 million pixels, the cut-out projected image is an XGA (1024 × 768) still image.

CPU206は、撮影モードの切り替えを行うため、原稿4の画像に動きがあるか否かを判定する。CPU206は、このような判定を行うため、前回撮影した画像との画像変化量MDを求める。画像変化量MDは撮影している画像が前回の画像と比較してどれぐらい変化したかを表す量である。この量を計算する方法はいくつか考えられる。一例として、CPU206は、前回撮影した画像のデータから、各画素の差分の絶対値の総和を画像変化量MDとして求める。   The CPU 206 determines whether or not there is a motion in the image of the document 4 in order to switch the shooting mode. In order to make such a determination, the CPU 206 obtains an image change amount MD from the previously captured image. The image change amount MD is an amount representing how much the image being taken has changed compared to the previous image. There are several ways to calculate this quantity. As an example, the CPU 206 obtains the sum of absolute values of differences between pixels as the image change amount MD from the data of the previously captured image.

即ち、前回の画素データをPn-1(x,y)、今回の画素データをPn(x,y),1≦x≦640 1≦y≦480とすると、画像変化量MDは、次の数1によって表される。

但し、全画素の総和を求めるには、計算量が多いので、画像変化量MDを求める方法としては、いくつかの画素を抜き出して実現する方法もある。
That is, if the previous pixel data is Pn-1 (x, y), the current pixel data is Pn (x, y), and 1 ≦ x ≦ 640 1 ≦ y ≦ 480, the image change amount MD is the following number: Represented by 1.

However, since the amount of calculation is large in order to obtain the total sum of all the pixels, as a method for obtaining the image change amount MD, there is a method in which several pixels are extracted and realized.

また、この画像変化量MDと比較して動きの有無を判定するための閾値として、閾値Thresh1と閾値Thresh2とが予め設定される。閾値Thresh1は、動きがないか否かを判定するための閾値であり、CPU206は、画像変化量MDが閾値Thresh1未満であれば、動きがないと判定する。   In addition, a threshold value Thresh1 and a threshold value Thresh2 are set in advance as threshold values for determining the presence or absence of motion in comparison with the image change amount MD. The threshold value Thresh1 is a threshold value for determining whether or not there is a motion, and the CPU 206 determines that there is no motion if the image change amount MD is less than the threshold value Thresh1.

閾値Thresh2は、静止画モードにおいて、例えば、影が動いた場合、ペン等を置いた場合のように、動きはあっても、その動きが動画モードに切り替える必要のない程度の僅かな動きであるか否かを判定するための閾値である。   The threshold value Thresh2 is a slight movement that does not require switching to the video mode even if there is a movement, for example, when a shadow moves or a pen is placed in the still image mode. It is a threshold value for determining whether or not.

CPU206は、画像変化量MDが閾値Thresh2未満であれば、動画モードに切り替える必要のない程度の僅かな動きであると判定する。尚、閾値Thresh2は、閾値Thresh1よりも高く設定される(Thresh1<Thresh2)。メモリ201は、この閾値Thresh1と閾値Thresh2とを予め記憶する。   If the image change amount MD is less than the threshold value Thresh2, the CPU 206 determines that the movement is slight enough not to switch to the moving image mode. The threshold value Thresh2 is set higher than the threshold value Thresh1 (Thresh1 <Thresh2). The memory 201 stores the threshold value Thresh1 and the threshold value Thresh2 in advance.

また、CPU206は、動画モードから静止画モードに切り替える場合、画像に動きがないと判定し、所定の時間が経過してから、撮影モードを静止画モードに切り替える。このため、CPU206は、画像に動きがないと判定してから、静止時間Ptimeを計測し、メモリ201は、この静止時間Ptimeと比較するために予め設定された所定時間HoldTimeを記憶する。   Further, when switching from the moving image mode to the still image mode, the CPU 206 determines that there is no movement in the image, and switches the shooting mode to the still image mode after a predetermined time has elapsed. For this reason, the CPU 206 determines that there is no movement in the image and then measures the still time Ptime, and the memory 201 stores a predetermined time HoldTime set in advance for comparison with the still time Ptime.

距離センサ103は、撮影対象までの距離を測定するためにレンズ装置付近に設けられたセンサであり、カメラの画像の中心が映している被写体対象までの距離の計測が可能となっている。   The distance sensor 103 is a sensor provided in the vicinity of the lens device in order to measure the distance to the photographing target, and can measure the distance to the subject target on which the center of the camera image is reflected.

プロジェクタ2は、スクリーン3に投影光を照射して原稿4の画像を結像させるものである。書画カメラ1とプロジェクタ2とは、RGB等のケーブル15を介して接続される。書画カメラ1は、カメラ部11が撮影した原稿4の画像データを、ケーブル15を介してプロジェクタ2に出力する。   The projector 2 irradiates the screen 3 with projection light and forms an image of the document 4. The document camera 1 and the projector 2 are connected via a cable 15 such as RGB. The document camera 1 outputs the image data of the document 4 photographed by the camera unit 11 to the projector 2 via the cable 15.

次に、実施形態1に係る撮影画像投影装置の動作を説明する。
ユーザが撮影画像投影装置の電源をONすると、書画カメラ1のCPU206は、プログラムコード記憶装置205からプログラムコードを読み出して基本投影処理を実行する。
Next, the operation of the captured image projection apparatus according to the first embodiment will be described.
When the user turns on the power of the captured image projection apparatus, the CPU 206 of the document camera 1 reads out the program code from the program code storage device 205 and executes basic projection processing.

この基本投影処理の内容を図5に示すフローチャートに従って説明する。
まず、CPU206は、書画カメラ1のカメラ部11の焦点、露出、ホワイトバランスなどのカメラ設定パラメータの初期化を行う(ステップS11)。
The contents of this basic projection process will be described with reference to the flowchart shown in FIG.
First, the CPU 206 initializes camera setting parameters such as focus, exposure, and white balance of the camera unit 11 of the document camera 1 (step S11).

CPU206は、撮影モードを動画モードに初期化する(ステップS12)。CPU206は、撮影モードを動画モードに初期化するため、メモリ201上の指定した領域に動画モード(Motion)をセットする。さらに、CPU206は、カメラ部11のイメージセンサ102から読み出された画像データを、VGAによる画像データになるように設定する。   The CPU 206 initializes the shooting mode to the moving image mode (step S12). The CPU 206 sets the moving image mode (Motion) in the designated area on the memory 201 in order to initialize the shooting mode to the moving image mode. Further, the CPU 206 sets the image data read from the image sensor 102 of the camera unit 11 to be image data by VGA.

これにより、カメラ部11が捉えているシーンが、光学レンズ装置101を経由してイメージセンサ102に集光され、イメージセンサ102は集光された画像から動画撮影用の解像度の低いデジタル画像を作成する。そして、イメージセンサ102は、作成したデジタル画像を定期的に、例えば、秒30枚で、メモリ201に送り出す。   As a result, the scene captured by the camera unit 11 is condensed on the image sensor 102 via the optical lens device 101, and the image sensor 102 creates a low-resolution digital image for moving image shooting from the collected image. To do. Then, the image sensor 102 sends the created digital image to the memory 201 periodically, for example, at 30 sheets per second.

次に、CPU206は、静止時間Ptimeのリセットを行う(ステップS13)。
次に、CPU206は、イメージセンサ102から低解像度の画像データをメモリ201に転送するように、イメージセンサ102とメモリ201とを制御する(ステップS14)。尚、ここでは、イメージセンサ102の画像データがメモリ201に転送されるだけで、表示装置202は、画像を表示しない。表示装置202が画像を表示しないのは、表示装置202の表示を行なう画像データがメモリ201上の異なるアドレスで示される領域に記憶されているからである。
Next, the CPU 206 resets the stationary time Ptime (step S13).
Next, the CPU 206 controls the image sensor 102 and the memory 201 so as to transfer low-resolution image data from the image sensor 102 to the memory 201 (step S14). Here, only the image data of the image sensor 102 is transferred to the memory 201, and the display device 202 does not display an image. The reason why the display device 202 does not display an image is that image data to be displayed on the display device 202 is stored in areas indicated by different addresses on the memory 201.

次に、CPU206は、前回撮影した画像との画像変化量MDを、数2に従って求める(ステップS15)。   Next, the CPU 206 obtains the image change amount MD with respect to the previously captured image according to Equation 2 (step S15).

CPU206は、撮影モードが動画モードか静止画モードかを判定する(ステップS16)。
初期状態では撮影モードに動画モードが設定されている。CPU206は、このため、初期状態では、動画モードと判定し、撮影した動画を投影するために、メモリ201内にある動画の画像データをメモリ201の所定領域にコピーする(ステップS17)。これにより、表示装置202は、撮影された画像データをメモリ201から読み出し、RGB信号をプロジェクタ2に出力する。プロジェクタ2は、この信号に基づいて、画像を投影する。
The CPU 206 determines whether the shooting mode is the moving image mode or the still image mode (step S16).
In the initial state, the movie mode is set as the shooting mode. For this reason, the CPU 206 determines that the moving image mode is set in the initial state, and copies the moving image data in the memory 201 to a predetermined area of the memory 201 in order to project the captured moving image (step S17). As a result, the display device 202 reads the captured image data from the memory 201 and outputs RGB signals to the projector 2. The projector 2 projects an image based on this signal.

CPU206は、予め設定された前述の閾値Thresh1とステップS15において求めた画像変化量MDとを比較し、比較結果に基づいて画像に動きがあるか否かを判定する(ステップS18)。   The CPU 206 compares the aforementioned threshold value Thresh1 set in advance with the image change amount MD obtained in step S15, and determines whether or not there is a motion based on the comparison result (step S18).

このとき、ユーザが、まだ、用紙を置くなどの動作を続けている場合、画像変化量MDは閾値Thresh1以上になる。この場合、CPU206は、画像に動きがあると判定し(ステップS18においてYes)、静止時間Ptimeをリセットして低解像度の画像データの読み込みを行い、画像変化量MDを求め、画像のメモリ201の投影画像領域への書き込みを行う(ステップS13〜S17)。これによりユーザが動作を行なっている間、撮影画像投影装置は、動画モードの状態を維持し続け、低解像度の動画画像がスクリーン3に投影される。   At this time, if the user still continues the operation such as placing paper, the image change amount MD is equal to or greater than the threshold value Thresh1. In this case, the CPU 206 determines that there is a motion in the image (Yes in step S18), resets the still time Ptime, reads low-resolution image data, obtains the image change amount MD, and obtains the image memory 201. Writing to the projected image area is performed (steps S13 to S17). As a result, while the user performs an operation, the captured image projection device continues to maintain the moving image mode state, and a low resolution moving image is projected onto the screen 3.

その後、ユーザが用紙のセットを終えて画像に動きがなくなると、画像変化量MDは閾値未満になる。この場合、CPU206は、画像に動きがないと判定し(ステップS18においてNo)、静止時間Ptimeに1を加算する(ステップS19)。   After that, when the user finishes setting the paper and the image stops moving, the image change amount MD becomes less than the threshold value. In this case, the CPU 206 determines that there is no motion in the image (No in step S18), and adds 1 to the still time Ptime (step S19).

そして、CPU206は、静止時間Ptimeが所定時間HoldTimeに達したか否かを判定する(ステップS20)。   Then, the CPU 206 determines whether or not the stationary time Ptime has reached a predetermined time HoldTime (step S20).

静止時間Ptimeが所定時間HoldTimeに達していないと判定した場合(ステップS20においてNo)、CPU206は、画像に動きがないと判定するまで、再び低解像度の画像データを読み込んで、画像変化量MDを求め、動きがなければ、静止時間Ptimeに1を加算する(ステップS14〜S19)。この場合、静止時間Ptimeがリセットされないため、静止時間Ptimeは、CPU206によって、動画を読み込むごとにカウントアップされる。   When it is determined that the still time Ptime has not reached the predetermined time HoldTime (No in step S20), the CPU 206 reads low-resolution image data again and determines the image change amount MD until it determines that there is no motion in the image. If there is no movement, 1 is added to the stationary time Ptime (steps S14 to S19). In this case, since the stationary time Ptime is not reset, the stationary time Ptime is counted up every time the moving image is read by the CPU 206.

静止時間Ptimeが所定時間HoldTimeに達したと判定した場合(ステップS20においてYes)、CPU206は、ユーザが画像を静止させたと判定し、撮影モードを静止画モードに設定する(ステップS21)。   If it is determined that the still time Ptime has reached the predetermined time HoldTime (Yes in step S20), the CPU 206 determines that the user has stopped the image and sets the shooting mode to the still image mode (step S21).

CPU206は、高解像度の静止画像を撮影するようにイメージセンサ102を制御する(ステップS22)。そして、CPU206は、イメージセンサ102が取得した画像データをメモリ201に書き込む。尚、CPU206は、画像データをメモリ201に書き込んだ後、カメラ部11の解像度を再び低解像度の読み込み状態に戻す。   The CPU 206 controls the image sensor 102 so as to capture a high-resolution still image (step S22). Then, the CPU 206 writes the image data acquired by the image sensor 102 in the memory 201. The CPU 206 writes the image data in the memory 201 and then returns the resolution of the camera unit 11 to the low resolution reading state again.

CPU206は、画像処理装置203を制御し、画像処理装置203は、読み込まれた高解像度の静止画像に対して、斜め補正を行うための射影パラメータの抽出を行う(ステップS23)。この射影パラメータは、原稿4の画像の形状と実際の原稿4の形状との関係を示すものである。   The CPU 206 controls the image processing apparatus 203, and the image processing apparatus 203 extracts projection parameters for performing oblique correction on the read high-resolution still image (step S23). This projection parameter indicates the relationship between the shape of the image of the document 4 and the actual shape of the document 4.

画像処理装置203は、さらにその抽出された射影パラメータに従って、撮影対象の切抜きと、正面画像への射影変換を行う(ステップS24)。
画像処理装置203は、作成された補正画像から、コントラスト補正などの鮮明、識別しやすい画像へ変換するため、画像効果補正用パラメータの抽出を行う(ステップS25)。
画像処理装置203は、抽出された画像効果補正用パラメータを用いて、画像効果処理を行う(ステップS26)。
Further, the image processing apparatus 203 performs clipping of the object to be imaged and projection conversion to the front image in accordance with the extracted projection parameters (step S24).
The image processing apparatus 203 extracts image effect correction parameters in order to convert the created corrected image into a clear and easy-to-identify image such as contrast correction (step S25).
The image processing apparatus 203 performs image effect processing using the extracted image effect correction parameters (step S26).

CPU206は、画像効果処理を行った画像データの投影を行うために、動画画像のときと同じように、メモリ201内の所定領域に補正画像データの書き込みを行う。そして、CPU206は、表示装置202から、画像データをRGB信号でプロジェクタ2に出力させる(ステップS27)。   The CPU 206 writes the corrected image data in a predetermined area in the memory 201 as in the case of the moving image in order to project the image data subjected to the image effect processing. Then, the CPU 206 causes the projector 2 to output image data as RGB signals from the display device 202 (step S27).

一度静止画モードになると、CPU206は、再び静止時間Ptimeをリセットして、低解像度の画像を読み込み、画像変化量MDを求める(ステップS13〜S15)。   Once in the still image mode, the CPU 206 resets the still time Ptime again, reads a low resolution image, and obtains the image change amount MD (steps S13 to S15).

ここで、撮影モードが静止画モードと判定した場合(ステップS16)、CPU206は、求めた画像変化量MDともう一つの所定閾値Thresh2(Thresh1<Thresh2)との比較を行い、画像に動きがあるか否かを判定する(ステップS28)。   Here, when the shooting mode is determined to be the still image mode (step S16), the CPU 206 compares the obtained image change amount MD with another predetermined threshold value Thresh2 (Thresh1 <Thresh2), and the image has a motion. Whether or not (step S28).

CPU206は、画像変化量が閾値Thresh2未満であれば、画像に動きがないと判定する(ステップS28においてNo)。この場合、CPU206は、引き続き、画像変化量MDと閾値Thresh1との比較を行い、画像に動きがあるか否かを判定する(ステップS30)。   If the image change amount is less than the threshold value Thresh2, the CPU 206 determines that there is no motion in the image (No in step S28). In this case, the CPU 206 continues to compare the image change amount MD with the threshold value Thresh1, and determines whether or not there is a motion in the image (step S30).

そして、画像変化量MDが閾値Thresh2以上であれば、CPU206は、画像に動きがあると判定し(ステップS28においてYes)、撮影モードを動画モードに設定する(ステップS29)。そして、CPU206は、静止時間Ptimeをリセットする(ステップS13)。   If the image change amount MD is greater than or equal to the threshold value Thresh2, the CPU 206 determines that the image is moving (Yes in step S28), and sets the shooting mode to the moving image mode (step S29). Then, the CPU 206 resets the stationary time Ptime (step S13).

一方、画像変化量MDが閾値Thresh2未満であっても、閾値Thresh1以上であれば、CPU206は、画像に動きがあると判定する(ステップS30においてYes)。この場合、CPU206は、画像変化量MDが閾値Thresh1と閾値Thresh2との間であるため、撮影モードを動画モードに切り替えずに、再度、高解像度で静止画像を撮影し、画像処理装置203は、取得した高解像度の静止画像データの画像処理を行う(ステップS22〜S27)。   On the other hand, even if the image change amount MD is less than the threshold value Thresh2, if it is equal to or greater than the threshold value Thresh1, the CPU 206 determines that the image has a motion (Yes in step S30). In this case, since the image change amount MD is between the threshold Thresh1 and the threshold Thresh2, the CPU 206 captures a still image at a high resolution again without switching the capturing mode to the moving image mode. Image processing of the acquired high-resolution still image data is performed (steps S22 to S27).

また、画像変化量MDが閾値Thresh2未満であり、かつ、閾値Thresh1未満であれば、CPU206は、静止状態が継続しているものと判定する(ステップS30においてNo)。この場合、CPU206は、画像効果の調整を行う指示情報として、操作部204から出力された操作情報に基づいて画像調整キーが操作されたか否かを判定する(ステップS31)。   If the image change amount MD is less than the threshold value Thresh2 and less than the threshold value Thresh1, the CPU 206 determines that the still state is continuing (No in step S30). In this case, the CPU 206 determines whether or not the image adjustment key is operated based on the operation information output from the operation unit 204 as the instruction information for adjusting the image effect (step S31).

画像調整キーが操作されていないと判定した場合(ステップS31においてNo)、CPU206は、ステップS13に戻り、静止時間Ptimeをリセットする。   If it is determined that the image adjustment key has not been operated (No in step S31), the CPU 206 returns to step S13 and resets the stationary time Ptime.

画像調整キーが操作されたと判定した場合(ステップS31においてYes)、CPU206は、画像の拡大や回転などの画像変換の調整を行う(ステップS32)。   When it is determined that the image adjustment key has been operated (Yes in step S31), the CPU 206 performs image conversion adjustment such as image enlargement or rotation (step S32).

CPU206は、画像変換が射影変換、回転等なのか、画像の拡大縮小、移動なのかを判定する(ステップS33)。   The CPU 206 determines whether the image conversion is projective conversion, rotation, or the like, or enlargement / reduction or movement of the image (step S33).

画像変換が射影変換、回転等であるとCPU206が判定した場合、画像処理装置203は、CPU206に制御されて、再度、画像効果補正用パラメータの抽出を行って(ステップS25)、画像効果処理を行う(ステップS26)。他方、画像変換が画像の拡大縮小、移動であるとCPU206が判定した場合、画像処理装置203は、画像から前回、抽出された画像効果補正用パラメータを用いて、画像効果処理を行う(ステップS26)。そして、CPU206は、表示装置202から、画像データをRGB信号でプロジェクタ2に出力させる(ステップS27)。   When the CPU 206 determines that the image conversion is projective conversion, rotation, or the like, the image processing apparatus 203 is controlled by the CPU 206 to extract the image effect correction parameters again (step S25) and perform the image effect processing. This is performed (step S26). On the other hand, when the CPU 206 determines that the image conversion is enlargement / reduction or movement of the image, the image processing device 203 performs image effect processing using the image effect correction parameter extracted from the previous time from the image (step S26). ). Then, the CPU 206 causes the projector 2 to output image data as RGB signals from the display device 202 (step S27).

このようにして、CPU206は、動画モードと静止画モードとの切り替えを行いながら投影制御を行う。これにより、ユーザが操作を行なっている間は、フレーム周波数優先の画像の投影が行われ、画像が静止すれば、撮影対象の原稿4の切り抜き及び画像効果処理を行って高解像度画像の投影が行われる。   In this way, the CPU 206 performs projection control while switching between the moving image mode and the still image mode. Thereby, while the user is performing the operation, the frame frequency priority image is projected, and when the image is stationary, the document 4 to be imaged is cut out and the image effect processing is performed to project the high resolution image. Done.

次に、画像処理装置203が行う画像処理について説明する。
まず、画像処理装置203が画像処理に用いるアフィン変換についての基本的な考え方(実現方法)を説明する。
Next, image processing performed by the image processing apparatus 203 will be described.
First, a basic concept (implementation method) of affine transformation used by the image processing apparatus 203 for image processing will be described.

画像の空間変換にアフィン変換が幅広く応用されている。本実施形態では、3次元のカメラパラメータを用いずに2次元アフィン変換を用いて射影変換を行う。これは、変換前の座標(u,v)の点が、移動、拡大縮小、回転などの変換によって、変換後の座標(x,y)が次の数2によって関係付けられることになる。射影変換もこのアフィン変換により行われることができる。

最終的な座標(x,y)は、次の数3によって算出される。

数3は、射影変換するための式であり、座標x、yは、z’の値に従い、0に向かって縮退する。即ち、z’に含まれるパラメータが射影に影響を及ぼすことになる。このパラメータはa13,a23,a33である。また、他のパラメータは、パラメータa33で正規化されることができるので、a33を1としてもよい。
Affine transformation is widely applied to image spatial transformation. In this embodiment, projective transformation is performed using two-dimensional affine transformation without using three-dimensional camera parameters. This is because the coordinates (x, y) after conversion are related by the following equation (2) by conversion such as movement, enlargement / reduction, and rotation of the point of the coordinates (u, v) before conversion. Projective transformation can also be performed by this affine transformation.

Final coordinates (x, y) are calculated by the following equation (3).

Expression 3 is an expression for projective transformation, and the coordinates x and y are reduced toward 0 according to the value of z ′. That is, the parameter included in z ′ affects the projection. This parameter is a13, a23, a33. Since other parameters can be normalized by the parameter a33, a33 may be 1.

図6は、図3(a)に示す四角形の原稿4の各頂点の座標を示したものである。カメラ部11で撮影された四角形と実際の原稿4の画像との関係について、図7に基づいて説明する。   FIG. 6 shows the coordinates of the vertices of the quadrangular document 4 shown in FIG. The relationship between the quadrangle photographed by the camera unit 11 and the actual image of the document 4 will be described with reference to FIG.

この図7において、U−V−W座標系は、カメラ部11で撮影して得られた画像の3次元座標系である。A(Au,Av,Aw))ベクトルとB(Bu,Bv,Bw)ベクトルとは、3次元座標系U−V−Wにおいて、原稿4の用紙をベクトルで表したものである。
また、S(Su,Sv,Sw)ベクトルは、3次元座標系U−V−Wの原点と原稿4との距離を示す。
In FIG. 7, the UVW coordinate system is a three-dimensional coordinate system of an image obtained by photographing with the camera unit 11. The A (Au, Av, Aw) vector and the B (Bu, Bv, Bw) vector represent the paper of the document 4 as vectors in the three-dimensional coordinate system UV-W.
The S (Su, Sv, Sw) vector indicates the distance between the origin of the three-dimensional coordinate system UV-W and the document 4.

図7に示す投影スクリーンは、原稿4の画像の射影を行うためのものである(スクリーン3に対応)。
投影スクリーン上の座標系をx,yとすると、この投影スクリーン上に投影される画像がカメラ部11に撮影される画像と考えればよい。投影スクリーンは、W軸上から距離fだけ離れて垂直に位置するものとする。原稿4の用紙上の任意の点P(u,v,w)と原点とを直線で結び、その直線と投影スクリーンと交差する点があるものとして、その交点のX−Y座標をp(x,y)とする。このとき、座標pは、射影変換より次の数4によって表される。

数4より、図7に示すように点P0,P1,P2,P3と投影スクリーンへの投影点p0,p1,p2,p3との関係から、次の数5に示す関係が求められる。

このとき、射影係数α、βは次の数6によって表される。
The projection screen shown in FIG. 7 is for projecting the image of the document 4 (corresponding to the screen 3).
If the coordinate system on the projection screen is x, y, the image projected on the projection screen may be considered as the image photographed by the camera unit 11. It is assumed that the projection screen is positioned vertically at a distance f from the W axis. Assume that an arbitrary point P (u, v, w) on the paper of the document 4 and the origin are connected by a straight line, and that there is a point where the straight line intersects the projection screen, the XY coordinate of the intersection is p (x , y). At this time, the coordinate p is expressed by the following equation 4 from the projective transformation.

From Equation 4, the relationship shown in the following Equation 5 is obtained from the relationship between the points P0, P1, P2, P3 and the projection points p0, p1, p2, p3 on the projection screen as shown in FIG.

At this time, the projection coefficients α and β are expressed by the following equation (6).

次に、射影変換について説明する。
原稿4上の任意の点Pは、S,A,Bベクトルを用いて、次の数7によって表される。

この数7に、数5の関係式を代入すると、座標xとyとは、次の数8によって表される。
Next, projective transformation will be described.
An arbitrary point P on the document 4 is expressed by the following equation 7 using S, A, and B vectors.

When the relational expression of Expression 5 is substituted into Expression 7, the coordinates x and y are expressed by Expression 8 below.

この関係を、アフィン変換の式に当てはめると、座標(x',y',z')は、次の数9によって表される。
When this relationship is applied to the affine transformation formula, the coordinates (x ′, y ′, z ′) are expressed by the following equation (9).

この数9にm,nを代入することにより、撮影画像の対応点(x,y)が求められる。対応点(x,y)は、整数値とは限らないので、画像補間法などを用いて画素の値を求めればよい。   By substituting m and n into Equation 9, the corresponding point (x, y) of the captured image is obtained. Since the corresponding point (x, y) is not necessarily an integer value, the pixel value may be obtained using an image interpolation method or the like.

画像処理装置203は、このようなアフィン変換を行うため、まず、撮影した原稿4の画像から射影パラメータを抽出する(図5のステップS23)。
画像処理装置203が実行する射影パラメータの抽出処理を図8に示すフローチャートに基づいて説明する。
In order to perform such affine transformation, the image processing apparatus 203 first extracts projection parameters from the captured image of the document 4 (step S23 in FIG. 5).
Projection parameter extraction processing executed by the image processing apparatus 203 will be described with reference to the flowchart shown in FIG.

画像処理装置203は、撮影した原稿4の画像から、この原稿4の画像の四隅の座標点(四角形輪郭)を抽出する(ステップS41)。画像処理装置203は、図9に示すフローチャートに示す四角形の輪郭を抽出する。   The image processing device 203 extracts coordinate points (rectangular contours) at the four corners of the image of the document 4 from the captured image of the document 4 (step S41). The image processing apparatus 203 extracts a rectangular outline shown in the flowchart of FIG.

即ち、画像処理装置203は、画像処理の演算数を減らすため、入力画像から縮小輝度画像を生成する(ステップS51)。
画像処理装置203は、生成した縮小輝度画像から、原稿4のエッジ画像を生成する(ステップS52)。
That is, the image processing apparatus 203 generates a reduced luminance image from the input image in order to reduce the number of operations for image processing (step S51).
The image processing device 203 generates an edge image of the document 4 from the generated reduced luminance image (step S52).

画像処理装置203は、原稿4のエッジ画像から、このエッジ画像に含まれる直線パラメータを検出する(ステップS53)。
画像処理装置203は、検出した直線パラメータから、原稿4の輪郭を形成する候補となる四角形を生成する(ステップS54)。
The image processing device 203 detects a straight line parameter included in the edge image from the edge image of the document 4 (step S53).
The image processing apparatus 203 generates a quadrangle that is a candidate for forming the contour of the document 4 from the detected straight line parameter (step S54).

画像処理装置203は、このように候補となる四角形を生成し、生成した各四角形に優先順位を付す(図8のステップS42)。
画像処理装置203は、優先順位に従って四角形を選択し、選択した四角形を抽出できたか否かを判定する(ステップS43)。
The image processing apparatus 203 thus generates candidate rectangles and assigns priorities to the generated rectangles (step S42 in FIG. 8).
The image processing apparatus 203 selects a rectangle according to the priority order and determines whether or not the selected rectangle has been extracted (step S43).

四角形を抽出できたと判定した場合(ステップS43においてYes)、画像処理装置203は、原稿4の画像の形状として四角形を取得し、取得した四角形の頂点からアフィンパラメータを算出する(ステップS44)。   If it is determined that the quadrangle has been extracted (Yes in step S43), the image processing apparatus 203 acquires a quadrangle as the shape of the image of the document 4, and calculates an affine parameter from the acquired quadrangle (step S44).

一方、抽出できなかったと判定した場合(ステップS43においてNo)、画像処理装置203は、最大面積を有する四角形の画像を原稿4の画像として取得し(ステップS45)、この取得した四角形の頂点からアフィンパラメータを算出する(ステップS44)。   On the other hand, if it is determined that the image could not be extracted (No in step S43), the image processing apparatus 203 acquires a quadrangular image having the maximum area as an image of the document 4 (step S45), and the affine is obtained from the acquired quadrangular vertex. A parameter is calculated (step S44).

次に、この射影パラメータの抽出処理を、さらに具体的に説明する。
画像処理装置203がステップS51において生成した縮小輝度画像の一例を図10(a)に示す。画像処理装置203は、このような縮小輝度画像から、Robertsフィルタと呼ばれるエッジ検出用のフィルタを用いて図10(b)に示すようなエッジ画像を生成する(ステップS52)。このRobertsフィルタとは、2つの4近傍画素の重み付けを行って2つのフィルタΔ1、Δ2を取得して平均化することによって、画像のエッジを検出するフィルタである。
Next, the projection parameter extraction process will be described more specifically.
An example of the reduced luminance image generated by the image processing apparatus 203 in step S51 is shown in FIG. The image processing apparatus 203 generates an edge image as shown in FIG. 10B from such a reduced luminance image using an edge detection filter called a Roberts filter (step S52). The Roberts filter is a filter that detects an edge of an image by weighting two 4-neighboring pixels, obtaining two filters Δ1 and Δ2, and averaging them.

図11(a)は、フィルタΔ1の係数を示し、図11(b)は、フィルタΔ2の係数を示す。この2つのフィルタΔ1,Δ2の係数を、ある着目した座標(x,y)の画素値f(x,y)に適用すると、変換後の画素値g(x,y)は、次の数10によって表される。
11A shows the coefficient of the filter Δ1, and FIG. 11B shows the coefficient of the filter Δ2. When the coefficients of the two filters Δ1, Δ2 are applied to the pixel value f (x, y) of a certain coordinate (x, y), the converted pixel value g (x, y) Represented by

図10(b)に示すエッジ画像には、直線パラメータが含まれている。画像処理装置203は、このエッジ画像から、ラドン変換を行って直線パラメータを検出する(ステップS53の処理)。   The edge image shown in FIG. 10B includes straight line parameters. The image processing device 203 performs radon transformation from the edge image to detect straight line parameters (processing in step S53).

ラドン変換は、n次元のデータを、(n−1)次元の投影データに対応させる積分変換である。具体的には、図12(a),(b)に示すように、画像データをf(x,y)として、x−y座標系から角度θだけ回転したr−θ座標系を考える。θ方向の画像投影データp(r,θ)は、次の数11によって定義される。
The Radon transform is an integral transform that associates n-dimensional data with (n-1) -dimensional projection data. Specifically, as shown in FIGS. 12A and 12B, an r-θ coordinate system rotated by an angle θ from the xy coordinate system with image data f (x, y) is considered. Image projection data p (r, θ) in the θ direction is defined by the following equation 11.

この数11による変換がラドン変換と呼ばれるものである。
図12(a)に示すような画像データf(x,y)は、ラドン変換により、図12(b)に示すような画像投影データp(r,θ)に変換される。
This conversion by Equation 11 is called Radon conversion.
Image data f (x, y) as shown in FIG. 12A is converted into image projection data p (r, θ) as shown in FIG. 12B by Radon transformation.

このようなラドン変換によれば、図13(a)に示すようなx−y座標系の直線Lは、極座標系では、ρ=xcosα+ysinαであらわされる。この直線Lは、p(ρ,α)の点に全て投影されるので、p(r,θ)のピークを検出することで、直線の検出が可能になる。画像処理装置203は、この原理を用いて、エッジ画像から、ラドン変換によりデータp(r,θ)を生成する。   According to such a Radon transform, a straight line L in the xy coordinate system as shown in FIG. 13A is represented by ρ = x cos α + y sin α in the polar coordinate system. Since this straight line L is entirely projected on the point p (ρ, α), it is possible to detect the straight line by detecting the peak of p (r, θ). Using this principle, the image processing apparatus 203 generates data p (r, θ) from the edge image by Radon transform.

次に、画像処理装置203は、生成したデータp(r,θ)から、そのピーク点を抽出する。このため、画像処理装置203は、図14に示すフローチャートに従って、このピーク点の抽出処理を実行する。   Next, the image processing apparatus 203 extracts the peak point from the generated data p (r, θ). Therefore, the image processing apparatus 203 executes this peak point extraction process according to the flowchart shown in FIG.

画像処理装置203は、p(r,θ)での最大値pmaxを探す(ステップS61)。
画像処理装置203は、閾値pth = pmax * k(kは0以上1までの定数値)を求める(ステップS62)。
The image processing apparatus 203 searches for the maximum value pmax at p (r, θ) (step S61).
The image processing apparatus 203 calculates a threshold value pth = pmax * k (k is a constant value between 0 and 1) (step S62).

画像処理装置203は、pthを閾値にしてp(r,θ)から2値画像B(r,θ)を生成する(ステップS63)。
画像処理装置203は、B(r,θ)の画像ラベリングを行う。このとき得られたラベル数をN1とする(ステップS64)。
The image processing apparatus 203 generates a binary image B (r, θ) from p (r, θ) using pth as a threshold (step S63).
The image processing device 203 performs B (r, θ) image labeling. The number of labels obtained at this time is N1 (step S64).

画像処理装置203は、各ラベル領域内でp(r,θ)の最大値のところのr,θを調べる。そして、画像処理装置203は、この値を、それぞれri,θi (i=1〜Nl)として取得する(ステップS65)。これが直線のパラメータとなる。   The image processing apparatus 203 examines r and θ at the maximum value of p (r, θ) in each label area. Then, the image processing apparatus 203 acquires these values as ri, θi (i = 1 to Nl), respectively (step S65). This is a straight line parameter.

次に、画像処理装置203は、検出した直線パラメータを用いて四角形候補を生成するため(ステップS54の処理)、著しく歪んでいる四角形を候補から外す。これは書画カメラ1は、台座13から大きく離れた原稿4を撮影することはないため、著しく歪んでいる四角形は、原稿4の輪郭を表すものではないと推測されるからである。   Next, since the image processing apparatus 203 generates a quadrilateral candidate using the detected straight line parameter (processing in step S54), the remarkably distorted quadrilateral is excluded from the candidates. This is because the document camera 1 does not shoot the document 4 that is far away from the pedestal 13, and therefore it is assumed that a significantly distorted square does not represent the outline of the document 4.

即ち、図15(a)に示すように、カメラ部11で撮影した場合の表示装置202のLCDの表示領域に、4つの直線a1〜a4が表示され、4つの直線a11〜a14の交点p1〜p4が表示されている場合、直線a1〜a4は、四角形を形成する直線の候補になる。   That is, as shown in FIG. 15A, four straight lines a1 to a4 are displayed in the display area of the LCD of the display device 202 when the camera unit 11 takes an image, and the intersection points p1 to p4 of the four straight lines a11 to a14 are displayed. When p4 is displayed, the straight lines a1 to a4 are candidates for straight lines forming a quadrangle.

一方、表示領域に表示されている直線が4つ未満の場合、あるいは、図15(b)、(c)に示すように、表示領域に4つの直線が表示されていても、交点が4つ未満の場合、この直線の組は、四角形を形成する直線の組の候補にはならない。   On the other hand, when there are less than four straight lines displayed in the display area, or even when four straight lines are displayed in the display area as shown in FIGS. Otherwise, this straight line set is not a candidate for a straight line set forming a quadrangle.

図15(a)に示すように、直線a1〜a4の表示領域の下辺に対する角度を、それぞれ、θ11,θ12,θ21,θ22とすると、直線a1の角度θ11に最も近い角度は、直線a3の角度θ12になるため、直線a1と直線a3とは、互いに向かい合う直線と判別される。   As shown in FIG. 15A, if the angles of the straight lines a1 to a4 with respect to the lower side of the display area are θ11, θ12, θ21, and θ22, respectively, the angle closest to the angle θ11 of the straight line a1 is the angle of the straight line a3. Since θ12, the straight line a1 and the straight line a3 are determined as straight lines facing each other.

また、図15(d)に示すように、互いに向かい合う直線a5とa6の角度差が大きいと、台座13から離れた位置で、書画カメラ1によって原稿4が撮影されることはないため、直線a5〜a8の組は、四角形を形成する直線の組の候補にはならない。尚、原稿4を台座13に載置して直線の角度を計測すれば、原稿4の辺に基づく直線か否かを判別できるため、互いに向かい合う直線の角度差をdθ1、dθ2として、角度差dθ1、dθ2には、予め閾値dθ1th、dθ2thが設けられ、この閾値dθ1th、dθ2thは、メモリ201に記憶される。   Further, as shown in FIG. 15D, if the angle difference between the straight lines a5 and a6 facing each other is large, the document 4 is not photographed by the document camera 1 at a position away from the pedestal 13, and therefore the straight line a5. The group of .about.a8 is not a candidate for a group of straight lines forming a quadrangle. If the original 4 is placed on the pedestal 13 and the angle of the straight line is measured, it can be determined whether or not the straight line is based on the sides of the original 4. Therefore, the angle difference dθ1 is defined as dθ1 and dθ2. , Dθ2 are provided with threshold values dθ1th and dθ2th in advance, and the threshold values dθ1th and dθ2th are stored in the memory 201.

このような観点に基づいて、画像処理装置203は、複数の直線から四角形の候補を取得する。具体的に、画像処理装置203は、図16に示すフローチャートに従って、この四角形の検出処理を実行する。   Based on such a viewpoint, the image processing apparatus 203 acquires a quadrangle candidate from a plurality of straight lines. Specifically, the image processing apparatus 203 executes this quadrangle detection process according to the flowchart shown in FIG.

画像処理装置203は、四角形の候補数Nrを0に初期化する(ステップS71)。
画像処理装置203は、表示領域に表示されている直線の数N1を取得する(ステップS72)。
The image processing apparatus 203 initializes the number of rectangle candidates Nr to 0 (step S71).
The image processing apparatus 203 acquires the number N1 of straight lines displayed in the display area (step S72).

画像処理装置203は、取得した直線の数N1が4つ以上か否かを判定する(ステップS73)。
取得した直線の数N1が4つ未満であると判定した場合(ステップS73においてNo)、画像処理装置203は、この処理を終了させる。この場合、四角形の候補数Nrは0となる。
The image processing apparatus 203 determines whether or not the acquired number of straight lines N1 is four or more (step S73).
When it is determined that the number N1 of the acquired straight lines is less than 4 (No in step S73), the image processing apparatus 203 ends this process. In this case, the number of rectangle candidates Nr is zero.

取得した直線の数N1が4つ以上であると判定した場合(ステップS73においてYes)、画像処理装置203は、四角形を形成する直線の組があるか否かを判定する(ステップS74)。   When it is determined that the number N1 of the acquired straight lines is four or more (Yes in Step S73), the image processing apparatus 203 determines whether there is a set of straight lines that form a quadrangle (Step S74).

直線の組があったとしても、組になった直線による4つの交点がなければ、画像処理装置203は、四角形を形成する直線の組がないと判定し(ステップS74においてNo)、この処理を終了させる。   Even if there is a set of straight lines, if there are not four intersections due to the set straight lines, the image processing apparatus 203 determines that there is no set of straight lines forming a quadrangle (No in step S74), and performs this processing. Terminate.

四角形を形成する直線の組があると判定した場合(ステップS74においてYes)、画像処理装置203は、対応する直線の組の角度差dθ1,dθ2を取得する(ステップS75)。   If it is determined that there is a pair of straight lines that form a quadrangle (Yes in step S74), the image processing apparatus 203 acquires the angle differences dθ1 and dθ2 of the corresponding pair of straight lines (step S75).

画像処理装置203は、角度差dθ1が、予め設定された閾値dθ1th未満であるか否かを判定する(ステップS76)。   The image processing apparatus 203 determines whether or not the angle difference dθ1 is less than a preset threshold value dθ1th (step S76).

角度差dθ1が閾値dθ1th以上であると判定した場合(ステップS76においてNo)、画像処理装置203は、四角形を形成する直線の組の次の候補についての処理を繰り返す(ステップS74〜75)。   When it is determined that the angle difference dθ1 is greater than or equal to the threshold value dθ1th (No in step S76), the image processing apparatus 203 repeats the process for the next candidate for the straight line group that forms the quadrangle (steps S74 to 75).

一方、角度差dθ1が閾値dθ1th未満であると判定した場合(ステップS76においてYes)、画像処理装置203は、角度差dθ2が閾値dθ2th未満であるか否かを判定する(ステップS77)。   On the other hand, when it is determined that the angle difference dθ1 is less than the threshold value dθ1th (Yes in step S76), the image processing apparatus 203 determines whether the angle difference dθ2 is less than the threshold value dθ2th (step S77).

角度差dθ2が閾値dθ2th以上であると判定した場合(ステップS77においてNo)、画像処理装置203は、四角形を形成する直線の組の次の候補についての処理を繰り返す(ステップS74〜76)。   When it is determined that the angle difference dθ2 is greater than or equal to the threshold value dθ2th (No in step S77), the image processing apparatus 203 repeats the process for the next candidate for the straight line group forming the quadrangle (steps S74 to S76).

一方、角度差dθ2が閾値dθ2th未満であると判定した場合(ステップS77においてYes)、画像処理装置203は、得られた4つの交点をもつ四角形を候補として、四角形の候補数Nrを1つだけインクリメントして(ステップS78)、この四角形の候補数Nrをメモリ201に記憶する。   On the other hand, when it is determined that the angle difference dθ2 is less than the threshold value dθ2th (Yes in step S77), the image processing apparatus 203 uses the obtained quadrangle having four intersections as candidates and uses only one quadrangle candidate number Nr. Increment (step S78), and the number of candidate rectangles Nr is stored in the memory 201.

画像処理装置203は、四角形を形成する直線の組をメモリ201に記憶する(ステップS79)。   The image processing apparatus 203 stores a set of straight lines forming a quadrangle in the memory 201 (step S79).

画像処理装置203は、このようなステップS74〜79の処理を順次、実行し、次の四角形を形成する直線の組の候補がないと判定すると(ステップS74においてNo)、この四角形の検出処理を終了させる。   If the image processing apparatus 203 sequentially executes the processes in steps S74 to S79 and determines that there is no straight line group candidate that forms the next square (No in step S74), the image processing apparatus 203 performs the square detection process. Terminate.

次に、画像処理装置203は、四角形の候補の中から、原稿4の辺を表すものとして、最もふさわしい四角形を選択する。まず、撮影対象中の各四角形候補のそれぞれの大きさを求める方法について、説明する。   Next, the image processing apparatus 203 selects a most suitable rectangle as representing the side of the document 4 from the rectangle candidates. First, a method for obtaining the size of each quadrangle candidate being photographed will be described.

数5より、撮影対象である四角形の縦の長さ|A|と横の長さ|B|とは、次の数12によって表される。

ここで、k1=Sw/fであるので、撮影対象までの距離Swと、カメラパラメータfとが分かれば、四角形の大きさが求まる。
From Equation 5, the vertical length | A | and the horizontal length | B | of the quadrangle to be imaged are expressed by the following Equation 12.

Here, since k1 = Sw / f, if the distance Sw to the photographing target and the camera parameter f are known, the size of the rectangle can be obtained.

撮影対象までの距離Sw及びカメラパラメータfを求める方法はいくつか考えられ、光学レンズ装置101がどのような種類のレンズを備えるかによって異なる。具体的には、大きく分けて1)固定焦点レンズ、2)自動焦点レンズの2種類である。以下、それぞれの場合について、撮影対象までの距離Swと、カメラパラメータfとを求める方法を説明する。   There are several methods for obtaining the distance Sw to the object to be photographed and the camera parameter f, and differ depending on what kind of lens the optical lens device 101 includes. Specifically, there are two types: 1) a fixed focus lens and 2) an auto focus lens. Hereinafter, in each case, a method for obtaining the distance Sw to the imaging target and the camera parameter f will be described.

1)固定焦点レンズ
光学レンズ装置101に固定焦点レンズを用いる場合、カメラの焦点距離fは、予め所定の値に設定されている。一方、撮影対象(原稿4)までの距離Swは、カメラ部11から台座13までの距離Dに近似することができる。この、カメラ部11から台座13までの距離Dは、ユーザが焦点合わせをおこなう(イメージセンサ102上に原稿4の画像を結像させる)際に、光学レンズ装置101の機械的構成から容易に取得可能な値である。従って、f=レンズ焦点、Sw=Dを数12に代入して計算することにより、|A|および|B|を求めることができる。
1) Fixed focus lens When a fixed focus lens is used in the optical lens device 101, the focal length f of the camera is set in advance to a predetermined value. On the other hand, the distance Sw to the photographing target (original 4) can be approximated to the distance D from the camera unit 11 to the pedestal 13. The distance D from the camera unit 11 to the pedestal 13 is easily obtained from the mechanical configuration of the optical lens device 101 when the user performs focusing (forms the image of the document 4 on the image sensor 102). Possible value. Therefore, | A | and | B | can be obtained by substituting f = lens focal point and Sw = D into Equation 12.

しかし、より精度良く四角形の大きさを求めるためには、Sw=Dという近似をおこなうのではなく、直接的に撮影対象までの距離Swを測定できることが望ましい。そこで、光学レンズ装置101のレンズから被写体としての原稿4までの距離を計測する必要がある。このため、図17に示すように、書画カメラ1の画像データ生成部21は、距離センサ103を備える。この距離センサ103は、赤外線センサ等から構成され、光学レンズ装置101に隣接して設けられており、カメラ部11の画像の中心に映し出された原稿4までの距離を計測する。   However, in order to obtain the size of the quadrangle with higher accuracy, it is desirable that the distance Sw to the object to be photographed can be directly measured, instead of performing an approximation of Sw = D. Therefore, it is necessary to measure the distance from the lens of the optical lens device 101 to the document 4 as a subject. For this reason, as shown in FIG. 17, the image data generation unit 21 of the document camera 1 includes a distance sensor 103. The distance sensor 103 is composed of an infrared sensor or the like, is provided adjacent to the optical lens device 101, and measures the distance to the document 4 displayed at the center of the image of the camera unit 11.

書画カメラ1が、図17に示すような構成を有する場合、撮影対象までの距離Swは、距離センサ103の計測した値で表すことができる。一方、カメラ部11の焦点距離fは、前述したように、予め設定された既知の値である。従って、f=レンズ焦点、Sw=距離センサ103による計測値、を数12に代入することにより、|A|および|B|を求めることができる。   When the document camera 1 has a configuration as shown in FIG. 17, the distance Sw to the photographing target can be represented by a value measured by the distance sensor 103. On the other hand, the focal length f of the camera unit 11 is a known value set in advance as described above. Therefore, | A | and | B | can be obtained by substituting f = lens focal point and Sw = measured value by the distance sensor 103 into Equation 12.

2)自動焦点レンズ
光学レンズ装置101に自動焦点レンズを用いる場合、光学レンズ装置101は、レンズのフォーカス位置を変化させ、焦点の合うところを自動的に位置決めする。このような自動焦点(オートフォーカス)型のレンズ装置では、数12で用いたカメラパラメータfは、厳密にはレンズの焦点距離と同じものとはならない。計算の都合上、レンズの焦点距離をf’とすると、薄いレンズを用いた場合、f’は、レンズからイメージセンサ102までの距離Laとレンズから被写体までの距離Lbとを用いて、次の数13で表される。

この数13により、距離Laと距離Lbとの関係が規定されるため、La、Lbのどちらかが分かれば、f=La、Sw=Lbを数12に代入して計算することにより、|A|および|B|を求めることができる。
2) Autofocus lens When an autofocus lens is used as the optical lens device 101, the optical lens device 101 changes the focus position of the lens and automatically positions the in-focus position. In such an autofocus lens device, the camera parameter f used in Equation 12 is not strictly the same as the focal length of the lens. For convenience of calculation, when the focal length of the lens is f ′, when a thin lens is used, f ′ uses the distance La from the lens to the image sensor 102 and the distance Lb from the lens to the subject, and It is expressed by Equation 13.

Since the relationship between the distance La and the distance Lb is defined by this equation 13, if either La or Lb is known, f = La and Sw = Lb are substituted into the equation 12 to calculate | A | And | B | can be determined.

自動焦点レンズには、大きく分けてa)アクティブ方式、b)パッシブ方式の2種類があり、それぞれの場合で、前述した距離La、Lbの求め方が異なる。   There are two main types of autofocus lenses: a) active system and b) passive system, and the methods for obtaining the distances La and Lb differ in each case.

2−a)アクティブ方式自動焦点レンズ
アクティブ方式は、赤外線とPSD(距離センサ)とを用いて焦点位置を決める自動焦点(オートフォーカス)の方式である。光学レンズ装置101がアクティブ方式の自動焦点レンズである場合、書画カメラ1は、前述した距離センサ103の他に、所定レベルの赤外光を発光する赤外線発光部(図示せず)と、レンズ位置を変化させて合焦(焦点合わせ)させるためのステッピングモータ(図示せず)とを備える。
2-a) Active Autofocus Lens The active autofocus lens is an autofocus method that determines the focus position using infrared rays and PSD (distance sensor). When the optical lens device 101 is an active autofocus lens, the document camera 1 includes an infrared light emitting unit (not shown) that emits a predetermined level of infrared light in addition to the distance sensor 103 described above, and a lens position. And a stepping motor (not shown) for focusing (focusing).

アクティブ方式自動焦点レンズを備える書画カメラ1が距離La、距離Lbを求める方法について、図18のフローチャートに従って説明する。
まず、CPU206は、赤外線発光部を制御して、赤外光を発光させる(ステップS81)。さらに、CPUは距離センサ103を制御して、撮影対象までの距離Lbを測定させる(ステップS82)。
A method for obtaining the distance La and the distance Lb by the document camera 1 having the active autofocus lens will be described with reference to the flowchart of FIG.
First, the CPU 206 controls the infrared light emitting unit to emit infrared light (step S81). Further, the CPU controls the distance sensor 103 to measure the distance Lb to the photographing target (step S82).

一方、レンズからイメージセンサ102までの距離Laは、レンズの焦点距離f’と撮影対象までの距離Lbとを用いて、次の数14に示す関係で表される。

そこで、CPU206は、ステップS82で求めた距離Lbと焦点距離f’の値とを数14に代入して、距離Laを求める(ステップS83)。
CPU206は、ステッピングモータを制御して駆動させ、そのステップ数を計測して、レンズからイメージセンサ102までの距離が所定の距離Laになるように制御する。
On the other hand, the distance La from the lens to the image sensor 102 is expressed by the relationship shown in the following equation 14 using the focal length f ′ of the lens and the distance Lb to the subject.

Therefore, the CPU 206 obtains the distance La by substituting the value of the distance Lb and the focal length f ′ obtained in Step S82 into Equation 14 (Step S83).
The CPU 206 controls and drives the stepping motor, measures the number of steps, and controls the distance from the lens to the image sensor 102 to be a predetermined distance La.

2−b)パッシブ方式自動焦点レンズ
パッシブ方式は、レンズ位置を動かしてコントラストの最も高い位置を探し(位相差検知)、焦点位置を決める自動焦点(オートフォーカス)の方式である。
2-b) Passive Method Autofocus Lens The passive method is a method of autofocus (autofocus) in which the lens position is moved to find the position with the highest contrast (phase difference detection) and the focus position is determined.

パッシブ方式自動焦点レンズを備える書画カメラ1が距離La、距離Lbを求める方法について、図19のフローチャートに従って説明する。
まず、CPU206は、光学レンズ装置101を制御してレンズ位置を変化させ、焦点を合わせさせる(ステップS91)。そして、CPU206は、焦点の合ったレンズの位置の情報を取得し、レンズとイメージセンサ102との距離Laの値を得る(ステップS92)。
A method for obtaining the distance La and the distance Lb by the document camera 1 having a passive autofocus lens will be described with reference to the flowchart of FIG.
First, the CPU 206 controls the optical lens device 101 to change the lens position and adjust the focus (step S91). Then, the CPU 206 acquires information on the position of the focused lens, and obtains the value of the distance La between the lens and the image sensor 102 (step S92).

一方、レンズから被写体までの距離Lbは、レンズの焦点距離f’とレンズからイメージセンサ102までの距離Laとを用いて、次の数15に示す関係で表される。

そこで、CPU206は、ステップS92で求めた距離Laと焦点距離f’の値とを数15に代入して計算し、距離Lbを算出する(ステップS93)。
尚、より高精度で撮影対象までの距離Lbを算出するため、予め絞りをあけた状態(被写界深度が浅い状態)で、焦点合わせをおこなうことが望ましい。
On the other hand, the distance Lb from the lens to the subject is expressed by the relationship expressed by the following equation 15 using the focal length f ′ of the lens and the distance La from the lens to the image sensor 102.

Therefore, the CPU 206 calculates the distance Lb by substituting the distance La and the value of the focal length f ′ obtained in step S92 into Equation 15 (step S93).
In order to calculate the distance Lb to the photographing object with higher accuracy, it is desirable to perform focusing in a state where the aperture is opened in advance (a state where the depth of field is shallow).

以上説明したように、CPU206は、レンズ位置や焦点距離等を用いて、撮影対象中の各四角形の大きさ(|A|および|B|)を求める。さらに、画像処理装置203は、大きさの判明したこれらの四角形の中から、原稿4の辺を表すものとして、最もふさわしい四角形を選択する。具体的には、画像処理装置203は、これらの四角形の中から、原稿の用紙サイズに最も近い大きさのものを、原稿を表す四角形として選択する。   As described above, the CPU 206 obtains the size (| A | and | B |) of each square in the object to be photographed using the lens position, focal length, and the like. Further, the image processing apparatus 203 selects the most suitable rectangle as the side of the document 4 from these rectangles whose sizes are known. Specifically, the image processing apparatus 203 selects a rectangle having a size closest to the paper size of the document as a rectangle representing the document from these rectangles.

画像処理装置203が用紙サイズに最も近い四角形を選択するにあたり、予めユーザによって原稿の用紙サイズが設定され、入力されていることが必要となる。この用紙サイズの設定処理の内容を、図20のフローチャートに従って説明する。   In order for the image processing apparatus 203 to select the rectangle closest to the paper size, it is necessary that the paper size of the document is set and input in advance by the user. The contents of the paper size setting process will be described with reference to the flowchart of FIG.

ユーザが拡大キー217と縮小キー218とを同時に押下すると、書画カメラ1のCPU206は、プログラムコード記憶装置205からプログラムコードを読み出して用紙サイズの設定処理を実行する。
まず、CPU206は、用紙設定画面の画像データをメモリ201の所定領域にコピーする。これにより、表示装置202には、用紙設定画面の画像データを読み出し、所定の信号をプロジェクタ2に出力する。プロジェクタ2は、この信号に基づいて、図21に示すような用紙サイズ設定画面を投影する(ステップS101)。
When the user presses the enlarge key 217 and the reduce key 218 at the same time, the CPU 206 of the document camera 1 reads the program code from the program code storage device 205 and executes a paper size setting process.
First, the CPU 206 copies the image data on the paper setting screen to a predetermined area of the memory 201. As a result, the image data on the paper setting screen is read out to the display device 202 and a predetermined signal is output to the projector 2. Based on this signal, the projector 2 projects a paper size setting screen as shown in FIG. 21 (step S101).

CPU206は、図21の画面で最上段に位置するA4の用紙サイズが選択状態にあるとして、選択用紙の指定用紙番号Pを1に初期化する(ステップS102)。そして、CPU206は、メモリ201に書き込みをおこない、表示装置202を制御して、用紙サイズ設定画面上で現在選択状態にある用紙(この場合A4サイズ)の選択領域を点灯(ハイライト)させる(ステップS103)。これにより、ユーザにA4サイズが選択されていることを知らせることが可能となる。その後、CPU206は、ユーザからの用紙サイズの選択指示が、操作部204を介して入力されるのを待つ。   The CPU 206 initializes the designated sheet number P of the selected sheet to 1 assuming that the sheet size of A4 positioned at the top in the screen of FIG. 21 is in the selected state (step S102). Then, the CPU 206 writes in the memory 201 and controls the display device 202 to turn on (highlight) the selected area of the currently selected paper (in this case, A4 size) on the paper size setting screen (step). S103). Thereby, it is possible to inform the user that the A4 size is selected. Thereafter, the CPU 206 waits for a paper size selection instruction from the user to be input via the operation unit 204.

CPU206は、操作部204を介して入力されたユーザからの指示がどの用紙サイズを選択するものであるのかを判定する(ステップS104)。ユーザによって右側のカーソルキー(左回転キー214)が押されたこと示す信号を操作部204から受信すると(ステップS104:Sw215)、CPU206は指定用紙番号Pに1を加える(ステップS105)。   The CPU 206 determines which paper size is selected by the instruction from the user input via the operation unit 204 (step S104). When a signal indicating that the right cursor key (left rotation key 214) has been pressed by the user is received from the operation unit 204 (step S104: Sw215), the CPU 206 adds 1 to the designated paper number P (step S105).

CPU206は、ステップS103に戻ってメモリ201に書き込みを行い、表示装置202を制御して、図21の画面上で次の行の用紙サイズの選択領域を点灯させる。   The CPU 206 returns to step S103, writes data in the memory 201, controls the display device 202, and turns on the paper size selection area of the next line on the screen of FIG.

一方、左側のカーソルキー(右回転キー215)が押されたことを示す信号を操作部204から受信すると(ステップS104:Sw214)、CPU206は指定用紙番号Pに−1を加える(ステップS106)。   On the other hand, when a signal indicating that the left cursor key (right rotation key 215) has been pressed is received from the operation unit 204 (step S104: Sw214), the CPU 206 adds −1 to the designated sheet number P (step S106).

CPU206は、ステップS103に戻ってメモリ201に書き込みを行い、表示装置202を制御して、図21の画面上で上の行の用紙サイズの選択領域を点灯させる。   The CPU 206 returns to step S103 to write in the memory 201, and controls the display device 202 to light up the paper size selection area in the upper row on the screen of FIG.

そして、決定キー(撮影/解除キー219)が押されたことを示す信号を操作部204から受信すると(ステップS104:Sw219)、CPU206は、予めプログラムコードからメモリ201内に配列Sとして呼び出された各用紙サイズの面積の中から、その時点で選択されている用紙サイズ(用紙P)の面積S(P)を、用紙面積Srとして読み出す(ステップS107)。そして、この面積Srの値をメモリ201に保存する(ステップS108)。   When a signal indicating that the enter key (shooting / cancellation key 219) has been pressed is received from the operation unit 204 (step S104: Sw219), the CPU 206 is previously called as an array S in the memory 201 from the program code. From the area of each paper size, the area S (P) of the paper size (paper P) currently selected is read as the paper area Sr (step S107). Then, the value of the area Sr is stored in the memory 201 (step S108).

次に、画像処理装置203が、前述した用紙サイズ設定処理によって設定された原稿サイズを基に、四角形を選択する四角形選択処理の内容を、図22のフローチャートに従って説明する。   Next, the contents of the rectangle selection process in which the image processing apparatus 203 selects a rectangle based on the document size set by the above-described paper size setting process will be described with reference to the flowchart of FIG.

画像処理装置203は、候補数Nrの四角形Riの中から、いずれかの四角形Rtを選択する。
まず、画像処理装置203は、前述した焦点機構によって得られる、La、Lbの情報を取得する(ステップS111)。
The image processing apparatus 203 selects one of the rectangles Rt from the candidate number Nr of rectangles Ri.
First, the image processing apparatus 203 acquires La and Lb information obtained by the focus mechanism described above (step S111).

画像処理装置203は、変数i、tおよびdSminの初期化を行う。ここで、iは四角形の候補を示す変数、tは選択される四角形を示す変数であり、dSminは四角形の面積Sと指定された用紙の面積Srとの差|S−Sr|の最小値である。画像処理装置203は、具体的には、i=1、t=1、dSmin=MAX(数値上とりうる最大値)として、初期化をおこなう(ステップS112)。   The image processing device 203 initializes the variables i, t, and dSmin. Here, i is a variable indicating a rectangle candidate, t is a variable indicating a selected rectangle, and dSmin is the minimum value of the difference | S−Sr | between the area S of the rectangle and the area Sr of the designated sheet. is there. Specifically, the image processing apparatus 203 performs initialization with i = 1, t = 1, and dSmin = MAX (maximum value that can be taken numerically) (step S112).

次に、画像処理装置203は、四角形Riの4点と、前述した処理で求めたSw=Lb、f=Laの値を数12に代入し、|A|と|B|とを計算する(ステップS113)。そして、求めた|A|および|B|より四角形の面積S(=|A|*|B|)を計算し、指定された用紙の面積Srとの差、(S−Sr)の絶対値dSを求める(ステップS114)。   Next, the image processing apparatus 203 substitutes the four points of the quadrilateral Ri and the values of Sw = Lb and f = La obtained by the above-described processing into Equation 12, and calculates | A | and | B | Step S113). Then, a square area S (= | A | * | B |) is calculated from the obtained | A | and | B |, and the difference from the designated sheet area Sr, the absolute value dS of (S−Sr). Is obtained (step S114).

画像処理装置203は、用紙面積Srと四角形の面積Sとの差の絶対値dSの値が最小となるiを探す。
詳細には、まず画像処理装置203は、面積差の絶対値dSの値とdSminの値とを比較する(ステップS115)。dSがdSmin以上の値をとる場合(ステップS115:dS≧dSmin)、処理はステップS117にジャンプする。一方、dSがdSminよりも小さい場合(ステップS115:dS<dSmin)、画像処理装置203は、新たにdSmin=dS、t=iと設定して、メモリ201を上書きする(ステップS116)。
The image processing apparatus 203 searches for i that minimizes the absolute value dS of the difference between the sheet area Sr and the square area S.
Specifically, first, the image processing apparatus 203 compares the absolute value dS of the area difference with the value of dSmin (step S115). When dS takes a value greater than or equal to dSmin (step S115: dS ≧ dSmin), the process jumps to step S117. On the other hand, when dS is smaller than dSmin (step S115: dS <dSmin), the image processing apparatus 203 newly sets dSmin = dS and t = i and overwrites the memory 201 (step S116).

次に、画像処理装置203は、変数iに+1を加え(ステップS117)、iと四角形の候補数Nrとを比較する(ステップS118)。iがNrよりも小さい場合、即ち全てのiについて処理を行っていない場合(ステップS118:i≦Nr)、画像処理装置203は、ステップS113に戻って、一連の処理を続ける。一方、iがNrに達している場合(ステップS118:i>Nr)、dSの値が最小となるiを抽出する。最終的に得られたこの候補番号iをtとしてメモリ201に保存し、該当する四角形Rtを選択する(ステップS119)。   Next, the image processing apparatus 203 adds +1 to the variable i (step S117), and compares i with the number of candidate squares Nr (step S118). When i is smaller than Nr, that is, when processing is not performed for all i (step S118: i ≦ Nr), the image processing apparatus 203 returns to step S113 and continues a series of processing. On the other hand, if i has reached Nr (step S118: i> Nr), i having the smallest dS value is extracted. The candidate number i finally obtained is stored as t in the memory 201, and the corresponding square Rt is selected (step S119).

このようにして、画像処理装置203は、画像中の四角形のうち、ユーザの指定した用紙サイズに最も近いものを常に原稿画像として選択する。これにより、書画の台座が四角形で原稿サイズより大きい場合などにも、余分な部分を含まずに正確に原稿画像を抽出することができる。   In this way, the image processing apparatus 203 always selects, as a document image, a rectangle closest to the paper size designated by the user from among the squares in the image. Thus, even when the document base is square and larger than the document size, it is possible to accurately extract the document image without including an excessive portion.

また、所定の用紙面積という絶対値を用いて四角形を決定するため、他の方法、例えば四角形の各辺の比を用いて比較を行う場合などと比較して、精度良く原稿画像の形状を抽出することができる。   In addition, since the rectangle is determined using the absolute value of the predetermined paper area, the shape of the original image is extracted with higher accuracy than in other methods, for example, when comparing using the ratio of each side of the rectangle. can do.

(1)原稿4の画像からのアフィンパラメータ抽出
次に、選択された四角形から、射影パラメータ(アフィンパラメータ)を求める方法について説明する。
選択された四角形の4点の頂点座標(x0,y0),(x1,y1),(x2,y2),(x3,y3)を用いて数6,数8に従い、数9に示す行列の要素であるアフィンパラメータを求めることができる。
(1) Extraction of Affine Parameter from Image of Document 4 Next, a method for obtaining a projection parameter (affine parameter) from a selected square will be described.
Matrix elements shown in Equation 9 according to Equations 6 and 8 using the vertex coordinates (x0, y0), (x1, y1), (x2, y2), and (x3, y3) of the four points of the selected rectangle An affine parameter can be obtained.

この際、m,nのスケールは 0≦m≦1,0≦n≦1の範囲であるので、座標単位の修正を行う。画像の中心を変えずに、U軸側、V軸側の画像サイズを、それぞれusc,vscでスケーリングするものとする。このとき画像の中心をuc,vcとすると、画像のスケール変換は次の数16によって表される。
At this time, since the scale of m and n is in a range of 0 ≦ m ≦ 1, 0 ≦ n ≦ 1, the coordinate unit is corrected. Assume that the U-axis side and V-axis side image sizes are scaled by usc and vsc, respectively, without changing the center of the image. At this time, assuming that the center of the image is uc, vc, the scale conversion of the image is expressed by the following equation (16).

この数16をu,vスケールに書き直すと、変換後の四角形の座標(x',y',z')は次の数17によって表される。

ここで、Afは、アフィン変換行列であり、アフィン変換行列Afは次の数18によって表される。

尚、アフィン変換行列Afの各要素がアフィンパラメータである。
数17,18から、u軸とv軸との関係を示す四角形の縦横比kは、次の数19によって表される。
When the equation 16 is rewritten on the u and v scales, the coordinates (x ′, y ′, z ′) of the converted rectangle are represented by the following equation 17.

Here, Af is an affine transformation matrix, and the affine transformation matrix Af is expressed by the following equation (18).

Each element of the affine transformation matrix Af is an affine parameter.
From Equations 17 and 18, the aspect ratio k of the quadrangle indicating the relationship between the u-axis and the v-axis is expressed by the following Equation 19.

尚、書画カメラ1の場合、通常、カメラ部11の焦点距離は、レンズと原稿4を載置する台座13の上との距離になるように設計される。このため、カメラ部11の焦点距離を、カメラ部11と原稿4との距離としてもよい。いずれにしても、書画カメラ1の場合、焦点距離又はカメラ部11と原稿4との距離は、既知の値である。   In the case of the document camera 1, the focal length of the camera unit 11 is usually designed to be the distance between the lens and the base 13 on which the document 4 is placed. For this reason, the focal length of the camera unit 11 may be the distance between the camera unit 11 and the document 4. In any case, in the case of the document camera 1, the focal length or the distance between the camera unit 11 and the document 4 is a known value.

但し、光学レンズ装置101のレンズがズームレンズの場合、ズーム位置によって焦点距離が変わるので、そのズーム位置に応じたカメラパラメータfを予めテーブル等に記憶しておくことにより、縦横比k=B/A(絶対値)を計算することができる。   However, when the lens of the optical lens device 101 is a zoom lens, the focal length varies depending on the zoom position. Therefore, by storing the camera parameter f corresponding to the zoom position in a table or the like in advance, the aspect ratio k = B / A (absolute value) can be calculated.

スクリーン3に出力可能な最大画像(画面)サイズが(umax,vmax)で与えられている場合、uc,vcは、次の数20によって表される。

また、vmax/umax>kのとき、vmax/umax ≦kのときは、それぞれ、次の数21,22に従って画像のスケーリングを行うと、所望の縦横比kの画像が得られる。

When the maximum image (screen) size that can be output to the screen 3 is given by (umax, vmax), uc and vc are expressed by the following equation (20).

Further, when vmax / umax> k and vmax / umax ≦ k, the image is scaled according to the following equations 21 and 22, respectively, and an image having a desired aspect ratio k is obtained.

このような考え方に基づいて、画像処理装置203は、四角形の頂点からアフィンパラメータを取得する。この処理を、図23に示すフローチャートに基づいて説明する。
画像処理装置203は、四角形の4点の頂点座標(x0,y0),(x1,y1),(x2,y2),(x3,y3)から、数6に従って、射影係数α、βを算出する(ステップS121)。
Based on such a concept, the image processing apparatus 203 acquires affine parameters from quadrangular vertices. This process will be described based on the flowchart shown in FIG.
The image processing apparatus 203 calculates projection coefficients α and β according to Equation 6 from the vertex coordinates (x0, y0), (x1, y1), (x2, y2), and (x3, y3) of the four points of the rectangle. (Step S121).

画像処理装置203は、数19に従って原稿4の縦横比kを算出する(ステップS122)。
画像処理装置203は、数20に従って、画像の中心点(uc,vc)を指定する(ステップS123)。
画像処理装置203は、最大画像サイズvmax/umaxと数16で表される縦横比kとを比較する(ステップS124)。
The image processing apparatus 203 calculates the aspect ratio k of the document 4 according to Equation 19 (step S122).
The image processing apparatus 203 designates the center point (uc, vc) of the image according to Equation 20 (step S123).
The image processing apparatus 203 compares the maximum image size vmax / umax with the aspect ratio k expressed by Equation 16 (step S124).

vmax/umax>kの場合(ステップS124においてYes)、縦横比kを変えないものとして、画像処理装置203は、V軸側(縦)の最大画像サイズvmaxの方が原稿4の画像サイズよりも大きいと判定する。そして、画像処理装置203は、U軸側の最大画像サイズと原稿4の画像サイズとが一致するように、数21に従ってusc,vscを求め、V軸側の原稿4の画像のスケールを決定する(ステップS125)。   When vmax / umax> k (Yes in step S124), assuming that the aspect ratio k is not changed, the image processing apparatus 203 determines that the maximum image size vmax on the V-axis side (vertical) is larger than the image size of the document 4. Judged to be large. Then, the image processing apparatus 203 obtains usc and vsc according to Equation 21 so that the maximum image size on the U-axis side matches the image size of the document 4, and determines the scale of the image of the document 4 on the V-axis side. (Step S125).

vmax/umax≦kの場合(ステップS124においてNo)、縦横比kを変えないものとして、画像処理装置203は、U軸側(横)の最大画像サイズumaxの方が原稿4の画像サイズよりも大きいと判定する。そして、画像処理装置203は、V軸側の最大画像サイズと原稿4の画像サイズとが一致するように、数22に従って、usc,vscを求め、U軸側の原稿4の画像のスケールを決定する(ステップS126)。   When vmax / umax ≦ k (No in step S124), assuming that the aspect ratio k is not changed, the image processing apparatus 203 determines that the maximum image size umax on the U-axis side (lateral) is larger than the image size of the document 4. Judged to be large. Then, the image processing apparatus 203 obtains usc and vsc according to Equation 22 so that the maximum image size on the V-axis side matches the image size of the document 4 and determines the scale of the image of the document 4 on the U-axis side. (Step S126).

画像処理装置203は、算出したusc,vsc,uc,vcと四角形の4点の頂点座標(x0,y0),(x1,y1),(x2,y2),(x3,y3)から、数18に従って、アフィン変換行列Afを求める(ステップS127)。
画像処理装置203は、このアフィン変換行列Afの各要素をアフィンパラメータAとして、このアフィンパラメータAを取得する(ステップS128)。
The image processing apparatus 203 calculates Equation 18 from the calculated usc, vsc, uc, vc and the vertex coordinates (x0, y0), (x1, y1), (x2, y2), (x3, y3) of the four points of the rectangle. Thus, an affine transformation matrix Af is obtained (step S127).
The image processing apparatus 203 acquires the affine parameter A using each element of the affine transformation matrix Af as the affine parameter A (step S128).

(2)抽出したアフィンパラメータによる画像変換
次に、得られたアフィンパラメータを用いて補正画像を作成する画像処理方法について説明する。
まず、アフィンパラメータを用いて射影変換や他のアフィン変換を行なう場合、図24に示すように、元の画像の点p(x,y)が、変換行列Apによる射影変換等によって変換(後)画像の点P(u,v)に対応するものとする。この場合、元の画像の点pに対応する変換画像の点Pを求めるよりは、変換画像の点P(u,v)に対応する元の画像の点p(x,y)を求めたほうが好ましい。
(2) Image Conversion Using Extracted Affine Parameters Next, an image processing method for creating a corrected image using the obtained affine parameters will be described.
First, when projective transformation or other affine transformation is performed using affine parameters, as shown in FIG. 24, the point p (x, y) of the original image is transformed by projective transformation using the transformation matrix Ap (after). Assume that it corresponds to the point P (u, v) of the image. In this case, it is better to obtain the point p (x, y) of the original image corresponding to the point P (u, v) of the converted image than to obtain the point P of the converted image corresponding to the point p of the original image. preferable.

尚、変換画像の点Pの座標を求める際、バイリニア法による補間方法を用いるものとする。バイリニア法による補間方法は、一方の画像(元の画像)の座標点と対応する他方の画像(変換画像)の座標点を探し出して、一方の画像の座標点の周辺4点の(画素)値から変換画像の点P(u,v)の(画素)値を求める方法である。この方法によれば、変換画像の点Pの画素値Pは、次の数23に従って算出される。
Note that when obtaining the coordinates of the point P of the converted image, an interpolation method based on the bilinear method is used. In the bilinear interpolation method, the coordinate point of the other image (transformed image) corresponding to the coordinate point of one image (original image) is searched, and the (pixel) values of four points around the coordinate point of the one image are found. Is a method for obtaining a (pixel) value of a point P (u, v) of the converted image. According to this method, the pixel value P of the point P of the converted image is calculated according to the following Expression 23.

変換画像の点P(u,v)に対応する元の画像の点p(x,y)を求めるため、画像処理装置203は、図25に示すフローチャートの処理を実行する。
画像処理装置203は、変換画像の画素位置uを0に初期化する(ステップS131)。
In order to obtain the point p (x, y) of the original image corresponding to the point P (u, v) of the converted image, the image processing apparatus 203 executes the processing of the flowchart shown in FIG.
The image processing device 203 initializes the pixel position u of the converted image to 0 (step S131).

画像処理装置203は、変換画像の画素位置vを0に初期化する(ステップS132)。
画像処理装置203は、アフィンパラメータAに変換画像の画素位置(u,v)を代入し、数3に従って、元の画像の画素位置(x,y)を求める(ステップS133)。
The image processing device 203 initializes the pixel position v of the converted image to 0 (step S132).
The image processing apparatus 203 substitutes the pixel position (u, v) of the converted image for the affine parameter A, and obtains the pixel position (x, y) of the original image according to Equation 3 (step S133).

画像処理装置203は、求めた画素位置(x,y)から、数23に従って、バイリニア法により画素値P(u,v)を求める(ステップS134)。
画像処理装置203は、補正後画像の座標vを1つだけインクリメントする(ステップS135)。
The image processing apparatus 203 obtains a pixel value P (u, v) from the obtained pixel position (x, y) by the bilinear method according to Equation 23 (step S134).
The image processing apparatus 203 increments the corrected image coordinate v by one (step S135).

画像処理装置203は、補正後画像の座標vと座標vの最大値vmaxとを比較して、補正後画像の座標vが最大値vmax以上になったか否かを判定する(ステップS136)。   The image processing device 203 compares the coordinate v of the corrected image with the maximum value vmax of the coordinate v, and determines whether or not the coordinate v of the corrected image is greater than or equal to the maximum value vmax (step S136).

座標vが最大値vmax未満であると判定した場合(ステップS136においてNo)、画像処理装置203は、ステップS133〜S135を再度実行する。   When it is determined that the coordinate v is less than the maximum value vmax (No in step S136), the image processing apparatus 203 executes steps S133 to S135 again.

ステップS103〜S105の処理を繰り返すことにより、座標vが最大値vmaxに達したと判定した場合(ステップS136においてYes)、画像処理装置203は、補正後画像の座標uを1つだけインクリメントする(ステップS137)。   When it is determined that the coordinate v has reached the maximum value vmax by repeating the processes in steps S103 to S105 (Yes in step S136), the image processing apparatus 203 increments the coordinate u of the corrected image by one ( Step S137).

画像処理装置203は、座標uと座標uの最大値umaxとを比較し、座標uが最大値umax以上になったか否かを判定する(ステップS138)。
座標uが最大値umax未満であると判定した場合(ステップS138においてNo)、画像処理装置203は、再度、ステップS132〜S137の処理を実行する。
The image processing apparatus 203 compares the coordinate u with the maximum value umax of the coordinate u, and determines whether or not the coordinate u is equal to or greater than the maximum value umax (step S138).
When it is determined that the coordinate u is less than the maximum value umax (No in step S138), the image processing apparatus 203 executes the processes in steps S132 to S137 again.

ステップ132〜S137の処理を繰り返すことにより、座標uが最大値umaxに達したと判定した場合(ステップ138においてYes)、画像処理装置203は、この画像変換処理を終了させる。   When it is determined that the coordinate u has reached the maximum value umax by repeating the processes of steps 132 to S137 (Yes in step 138), the image processing apparatus 203 ends the image conversion process.

(3)輝度あるいは色差等に関する画像効果補正用パラメータの抽出及び画像効果処理
次に、このように得られた画像から、画像効果補正用パラメータを抽出する処理と、このパラメータを用いて行う画像効果処理と、について説明する。画像効果処理は、より鮮明な画像を得るための処理である。
(3) Extraction of image effect correction parameters relating to luminance or color difference and image effect processing Next, processing for extracting image effect correction parameters from the image thus obtained, and image effects performed using these parameters Processing will be described. The image effect process is a process for obtaining a clearer image.

画像効果補正用パラメータは、輝度ヒストグラムの最大値、最小値、ピーク値、色差ヒストグラムのピーク値、平均値といった画像効果処理に必要な変数である。   The image effect correction parameter is a variable necessary for image effect processing, such as a maximum value, a minimum value, a peak value of a luminance histogram, a peak value of a color difference histogram, and an average value.

画像効果補正用パラメータを抽出するには、さらに、(3−a)全体の画像から輪郭を除く実原稿部の画像を切り出し、(3−b)輝度、色差のヒストグラムを生成する必要がある。まず、画像効果補正用パラメータの抽出に必要な処理について説明する。   In order to extract the image effect correction parameters, it is further necessary to (3-a) cut out an image of the actual original part excluding the contour from the entire image, and (3-b) to generate a histogram of luminance and color difference. First, processing necessary for extracting image effect correction parameters will be described.

(3−a)画像の切り出し
図26に示すように、原稿4の画像には、写真、図形、文字等の実体的な画像だけでなく、台座13や、原稿4の紙面の影等のように、原稿4の内容に無関係の画像も写っている場合がある。この全体画像に内枠と外枠とを設定し、原稿4の実体的な画像がある内枠内を実原稿部、台座13や、原稿4の紙面の影等が写っている内枠と外枠との間を周辺部とする。周辺部に写っている原稿4の輪郭は、概して黒であることが多い。画像データに、このような周辺部のデータがあった方が好ましい場合もある。
(3-a) Image Cutout As shown in FIG. 26, the image of the document 4 includes not only a substantial image such as a photograph, a figure, and a character, but also a pedestal 13 and a shadow on the paper surface of the document 4. In addition, an image irrelevant to the contents of the document 4 may be shown. An inner frame and an outer frame are set for the entire image, and the inner frame and the outer frame in which the actual document portion, the pedestal 13 and the shadow of the paper surface of the document 4 are reflected in the inner frame where the actual image of the document 4 exists. The area between the frame is the periphery. In many cases, the outline of the document 4 in the peripheral portion is generally black. In some cases, it is preferable to have such peripheral data in the image data.

しかし、原稿4の周辺部の画像も含めてヒストグラムを生成すると、ヒストグラムの引き伸ばしなどが有効に機能しない場合がある。
このため、画像効果補正用パラメータを取り出すときにのみ、実原稿部の画像を切り出して輝度、色差のヒストグラムを生成し、このヒストグラムから取り出した画像効果補正用パラメータを用いて画像全域に対して画像効果処理を行なうものとする。この方が、より効果的なパラメータを取得することができる。
However, if a histogram is generated including an image of the peripheral portion of the document 4, stretching of the histogram may not function effectively.
For this reason, only when the image effect correction parameters are extracted, the image of the actual original portion is cut out to generate a histogram of luminance and color difference, and the image effect correction parameters extracted from the histogram are used to generate an image for the entire image. It is assumed that effect processing is performed. This is a more effective parameter.

具体的には、周辺部を含めた画像データがM行N列であって、X、Y方向とも外枠と内枠との間のドット数がKドットであるとすると、X軸側では、実原稿部の画素データであるKからM−K行までの画素データを取得し、Y軸側では、実原稿部の画素データであるKからN−K列までの画素データを取得する。実原稿部の画素データは、(M-2*K)行、(N-2*K)列のデータになる。   Specifically, if the image data including the peripheral portion is M rows and N columns and the number of dots between the outer frame and the inner frame is K dots in both the X and Y directions, on the X axis side, Pixel data from K to M-K rows that are pixel data of the actual document portion is acquired, and pixel data from K to NK columns that are pixel data of the actual document portion is acquired on the Y-axis side. The pixel data of the actual original part is data of (M-2 * K) rows and (N-2 * K) columns.

(3−b)輝度、色差のヒストグラムの生成
このように切り出した実原稿部の画像について、輝度ヒストグラム、色差ヒストグラムを生成する。
(3-b) Generation of luminance and color difference histograms A luminance histogram and a color difference histogram are generated for the image of the actual document portion cut out in this way.

輝度ヒストグラムは、実原稿部に存在する輝度値(Y)の分布を示すものであり、輝度値毎に実原稿部の画素の数を計数することにより生成される。図27(a)に輝度ヒストグラムの一例を示す。図27(a)において、横軸は、輝度値(Y)を示し、縦軸は、画素数を示す。画像効果を補正するには、画像効果補正用パラメータとして、最大値(Ymax)、最小値(Ymin)、ピーク値(Ypeak)を求める必要がある。   The luminance histogram shows the distribution of luminance values (Y) existing in the actual document portion, and is generated by counting the number of pixels in the actual document portion for each luminance value. FIG. 27A shows an example of a luminance histogram. In FIG. 27A, the horizontal axis represents the luminance value (Y), and the vertical axis represents the number of pixels. In order to correct the image effect, it is necessary to obtain a maximum value (Ymax), a minimum value (Ymin), and a peak value (Ypeak) as image effect correction parameters.

最大値は、輝度値毎に画素の数を計数し、予め設定された所定数以上の計数値を有する輝度値のうちの最大輝度を示す値であり、最小値は、設定された所定数以上の計数値を有する輝度値のうちの最小輝度を示す値である。ピーク値は、計数値が最大となる輝度値である。ピーク値は、撮影対象である原稿4の背景色の輝度値を示すものと考えられる。   The maximum value counts the number of pixels for each luminance value, and is a value indicating the maximum luminance among luminance values having a predetermined number or more set in advance, and the minimum value is a predetermined number or more This is a value indicating the minimum luminance among the luminance values having the counted value. The peak value is a luminance value that maximizes the count value. The peak value is considered to indicate the luminance value of the background color of the document 4 to be photographed.

また、色差ヒストグラムは、実原稿部に存在する色差(U,V)の分布を示すものであり、色差毎に実原稿部の画素の数を計数することにより生成される。図27(b)に、色差ヒストグラムの一例を示す。図27(b)において、横軸は、色差を示し、縦軸は、画素数を示す。色差ヒストグラムの場合も、画素の計数値が最大となる色差のピーク値(Upeak,Vpeak)が現れる。このピーク値も原稿4の背景色の色差を示すものと考えられる。画像効果を補正するには、画像効果補正用パラメータとして色差ヒストグラムのピーク値と平均値(Umean,Vmean)とを求める必要がある。尚、平均値は、平均計数値を有する色差の値である。   The color difference histogram indicates the distribution of the color differences (U, V) existing in the actual document portion, and is generated by counting the number of pixels in the actual document portion for each color difference. FIG. 27B shows an example of the color difference histogram. In FIG. 27B, the horizontal axis indicates the color difference, and the vertical axis indicates the number of pixels. Also in the case of the color difference histogram, a peak value (Upeak, Vpeak) of the color difference where the count value of the pixel becomes maximum appears. This peak value is also considered to indicate the color difference of the background color of the document 4. In order to correct the image effect, it is necessary to obtain the peak value and average value (Umean, Vmean) of the color difference histogram as the image effect correction parameters. The average value is a color difference value having an average count value.

尚、画像効果を補正して視認性に優れた画像を得るには、原稿4の背景色によって補正効果が異なってくるため、画像効果の補正方法を原稿4の背景色によって変える必要がある。このため、原稿4の背景色の判別が必要になってくる。原稿4の背景色は、輝度ヒストグラム、色差ヒストグラムの各ピーク値から判別される。   Note that in order to obtain an image with excellent visibility by correcting the image effect, the correction effect differs depending on the background color of the document 4, so the image effect correction method needs to be changed depending on the background color of the document 4. For this reason, it is necessary to determine the background color of the document 4. The background color of the document 4 is determined from the peak values of the luminance histogram and the color difference histogram.

ここで、原稿4の背景色を、3つに分類するものとする。第1は、ホワイトボード、ノート等のように背景色が白の場合である。第2は、黒板等のように背景色が黒の場合である。第3は、雑誌、パンフレットのように背景色が白又は黒以外の場合である。   Here, the background color of the document 4 is classified into three. The first is a case where the background color is white, such as a whiteboard or notebook. The second is a case where the background color is black, such as a blackboard. The third is a case where the background color is other than white or black, such as a magazine or a pamphlet.

具体的に、原稿4の背景色は、以下の判別式に従って判別される。
(2−a)白の判定条件
白判定条件は、次の数24によって表され、数24に示す条件を満足したときに、原稿4の背景色は白(W)と判定される。

(2−b)黒の判定条件
黒判定条件は、次の数25によって表され、数25に示す条件を満足したときに、原稿4の背景色は黒(b)と判定される。
Specifically, the background color of the document 4 is determined according to the following determination formula.
(2-a) White Determination Condition The white determination condition is represented by the following Expression 24, and when the condition shown in Expression 24 is satisfied, the background color of the document 4 is determined to be white (W).

(2-b) Black Determination Condition The black determination condition is expressed by the following Expression 25, and when the condition shown in Expression 25 is satisfied, the background color of the document 4 is determined to be black (b).

また、数24,25に示す条件を満足しなかった場合、原稿4の背景色はカラー(C)と判定される。尚、カラー閾値は、例えば、50に、白判定閾値は、例えば、128に、黒判定閾値は、例えば、50に設定される。   If the conditions shown in equations 24 and 25 are not satisfied, the background color of the document 4 is determined to be color (C). For example, the color threshold is set to 50, the white determination threshold is set to 128, and the black determination threshold is set to 50, for example.

このような考え方に基づいて、画像処理装置203は、図28に示すフローチャートに従って画像効果補正用パラメータの抽出処理を実行する。
画像処理装置203は、実原稿部の中で、各輝度(Y)値を有する画素の数を計数して、図27(a)に示すような輝度ヒストグラムを生成する(ステップS141)。
Based on such an idea, the image processing apparatus 203 executes an image effect correction parameter extraction process according to the flowchart shown in FIG.
The image processing apparatus 203 counts the number of pixels having each luminance (Y) value in the actual document portion, and generates a luminance histogram as shown in FIG. 27A (step S141).

画像処理装置203は、生成した輝度ヒストグラムから、輝度の最大値(Ymax)、最小値(Ymin)、ピーク値(Ypeak)を取得する(ステップS142)。
画像処理装置203は、図27(b)に示すような色差(U,V)のヒストグラムを作成する(ステップS143)。
The image processing apparatus 203 acquires the maximum value (Ymax), the minimum value (Ymin), and the peak value (Ypeak) of the luminance from the generated luminance histogram (step S142).
The image processing apparatus 203 creates a histogram of color differences (U, V) as shown in FIG. 27B (step S143).

画像処理装置203は、画像効果補正用パラメータとして、色差(U,V)のピーク値(Upeak,Vpeak)を求める(ステップS144)。
画像処理装置203は、画像効果補正用パラメータとして、色差の平均値(Umean,Vmean)を求める(ステップS145)。
The image processing apparatus 203 obtains the peak value (Upeak, Vpeak) of the color difference (U, V) as the image effect correction parameter (step S144).
The image processing apparatus 203 obtains an average value (Umean, Vmean) of color differences as an image effect correction parameter (step S145).

画像処理装置203は、画像ヒストグラムのこれらのピーク値(Ypeak,Upeak,Vpeak)から、数24,25に示す判定条件式に従って原稿4の背景色を判別する(ステップS146)。
画像処理装置203は、画像効果補正用パラメータと原稿4の背景色のデータをメモリ201に記憶する(ステップS147)。
The image processing apparatus 203 discriminates the background color of the document 4 from these peak values (Ypeak, Upeak, Vpeak) of the image histogram according to the judgment condition formulas shown in Expressions 24 and 25 (step S146).
The image processing apparatus 203 stores the image effect correction parameter and the background color data of the document 4 in the memory 201 (step S147).

次に、画像処理装置203は、このように抽出した画像効果補正用パラメータを用いて画像効果処理(ステップS25)を行う。
前述のように、画像効果処理を効果的に行うには、背景色によって処理内容を替える必要がある。
Next, the image processing apparatus 203 performs image effect processing (step S25) using the image effect correction parameters extracted in this way.
As described above, in order to effectively perform the image effect processing, it is necessary to change the processing contents depending on the background color.

ホワイトボード、ノート等のように、背景色が白である場合、図29(a)に示すような輝度変換を行う。黒板等のように、背景色が黒である場合、図29(b)に示すような輝度変換を行う。雑誌、パンフレット等のように、背景色が白または黒以外である場合、図29(c)に示すような変換を行う。尚、図29(a),(b),(c)において、横軸は、画素値の入力値を示し、縦軸は、画素値の出力値を示す。   When the background color is white, such as a white board or notebook, luminance conversion as shown in FIG. When the background color is black, such as a blackboard, luminance conversion as shown in FIG. 29B is performed. When the background color is other than white or black, such as a magazine or pamphlet, the conversion as shown in FIG. 29C is performed. In FIGS. 29A, 29B, and 29C, the horizontal axis indicates the input value of the pixel value, and the vertical axis indicates the output value of the pixel value.

背景色が白である場合、図29(a)に示すように、ピーク値を境にして、輝度変換線の傾斜角度を変える。所定輝度値を、例えば、230として、入力された輝度のピーク値を輝度値230まで引き上げる。そして、最大値を、最大輝度まで持ち上げる。従って、輝度変換線は、図29(a)に示すように、2つの線分によって表される。   When the background color is white, as shown in FIG. 29A, the inclination angle of the luminance conversion line is changed with the peak value as a boundary. The predetermined luminance value is set to 230, for example, and the input luminance peak value is raised to the luminance value 230. Then, the maximum value is raised to the maximum brightness. Therefore, the luminance conversion line is represented by two line segments as shown in FIG.

背景色が黒である場合、図29(b)に示すように、ピーク値をある一定の輝度値(20)になるように輝度変換を行なう。この場合も、図29(b)に示すように、輝度変換線は2つの線分によって表される。   When the background color is black, luminance conversion is performed so that the peak value becomes a certain luminance value (20) as shown in FIG. Also in this case, as shown in FIG. 29B, the luminance conversion line is represented by two line segments.

背景色が白または黒以外の色である場合、図29(c)に示すように、通常の引き伸ばし処理と同様に、最小値以下と最大値以上をカットし、1つの線分として表されるように輝度変換線を設定する。   When the background color is a color other than white or black, as shown in FIG. 29C, the minimum value or less and the maximum value or more are cut and expressed as one line segment as in the normal enlargement process. The luminance conversion line is set as follows.

尚、このように背景の輝度(Y)と出力(Y’)との変換テーブルを予め設定してメモリ201に記憶してもよい。作成した変換テーブルに従って、入力された各画素の値から、それぞれの出力値を求め、画像効果処理を施す。このように変換された画像は、明るい画素はより明るく、暗い画素はより暗くなるので、輝度分布が広がり、視認性がすぐれた画像になる。   Note that a conversion table of background luminance (Y) and output (Y ′) may be set in advance and stored in the memory 201 as described above. According to the created conversion table, each output value is obtained from the input pixel value, and image effect processing is performed. In the image thus converted, bright pixels are brighter and dark pixels are darker, so that the luminance distribution is widened and the image is excellent in visibility.

また、撮影された画像によっては、デジタルカメラのホワイトバランスの調整が適正に行われず、例えば、全体が黄色等に色が変わってしまう場合がある。この色の変化は、輝度ヒストグラムの画像効果処理を行うだけでは、修正することができない。   In addition, depending on the photographed image, the white balance of the digital camera may not be adjusted properly, and for example, the color may change to yellow or the like as a whole. This color change cannot be corrected only by performing image effect processing of the luminance histogram.

この場合、好ましい画像を得るためには、カラー調整を行う。図30にカラー調整を行うための輝度変換グラフの一例を示す。
図30において、横軸は、色差の入力値を示し、縦軸は、色差の出力値を示す。カラー調整は、図27(b)に示す色差(U,V)のそれぞれの平均値(Umean,Vmean)がグレーになるように、図30に示す輝度変換グラフに従って輝度変換が行なわれる。
In this case, color adjustment is performed to obtain a preferable image. FIG. 30 shows an example of a luminance conversion graph for performing color adjustment.
In FIG. 30, the horizontal axis indicates the input value of the color difference, and the vertical axis indicates the output value of the color difference. In the color adjustment, luminance conversion is performed according to the luminance conversion graph shown in FIG. 30 so that the average values (Umean, Vmean) of the color differences (U, V) shown in FIG.

色差UとVの値がともに0である場合、色は無彩色となるため、ピーク値(Upeak,Vpeak)が0になるようにカラー調整を行う。即ち、カラーの変換線は2つの線分によって表される。入力値Uに対する出力値U’は次の数26で与えられる。

色差Vについても同様である。
When the values of the color differences U and V are both 0, the color is an achromatic color, and color adjustment is performed so that the peak values (Upeak, Vpeak) are 0. That is, the color conversion line is represented by two line segments. The output value U ′ with respect to the input value U is given by the following equation (26).

The same applies to the color difference V.

次に、画像効果処理として、前述の輝度引き延ばしだけでは、十分に背景が白色化しない場合、背景の白色化を行い、画像内の背景と思われる部分の色を白(Y:255, U:0, V:0)または、それに近い色にする。   Next, as the image effect processing, when the background is not sufficiently whitened only by the above-described luminance extension, the background is whitened, and the color of the portion considered to be the background in the image is white (Y: 255, U: 0, V: 0) or a color close to that.

図31(a)は、ある画素の輝度値を基準(0)にして、この画素の輝度値に対する輝度値の引き上げ率を示す図である。横軸は、輝度値を示し、縦軸は輝度値の引き上げ率を示す。また、図31(b)は、色差と色差の変化率を示す図である。横軸は、色差を示し、縦軸は、色差の変化率を示す。   FIG. 31A is a diagram illustrating a luminance value increase rate with respect to a luminance value of a certain pixel with a luminance value of a certain pixel as a reference (0). The horizontal axis represents the luminance value, and the vertical axis represents the luminance value raising rate. FIG. 31B is a diagram showing the color difference and the change rate of the color difference. The horizontal axis indicates the color difference, and the vertical axis indicates the change rate of the color difference.

図中、C0は、輝度と色差とを100%引き上げる0からの範囲を示し、C1は、輝度値に従って引き上げ率を可変する範囲を示す。図31(a),(b)に示すように、輝度(Y)値が一定値以上(Yw)で、色差(U,V)が一定範囲内(C0)の画素の色を白色化範囲として、輝度値を引き上げ、色差を0にする。このような背景の白色化を行えば、輝度引き延ばしだけでは、十分に背景が白色化しない場合に、画像効果処理が非常に有効なものとなる。   In the figure, C0 indicates a range from 0 in which the luminance and the color difference are increased by 100%, and C1 indicates a range in which the increase rate is varied according to the luminance value. As shown in FIGS. 31A and 31B, the color of a pixel whose luminance (Y) value is equal to or greater than a certain value (Yw) and whose color difference (U, V) is within a certain range (C0) is defined as a whitening range. The brightness value is raised and the color difference is set to zero. If the background is whitened as described above, the image effect processing becomes very effective when the background is not sufficiently whitened only by extending the luminance.

このような考え方に基づいて、画像処理装置203は、図32に示すフローチャートに従って、画像効果処理を実行する。
画像処理装置203は、保存した画像効果補正用パラメータをメモリ201から読み出す(ステップS151)。
Based on such an idea, the image processing apparatus 203 executes image effect processing according to the flowchart shown in FIG.
The image processing apparatus 203 reads the stored image effect correction parameters from the memory 201 (step S151).

画像処理装置203は、背景が白か否かを判定する(ステップS152)。
背景が白と判定した場合(ステップS152においてYes)、画像処理装置203は、背景をより白くして、視認性が良くなるように、図29(a)に示すような輝度変換を行って、輝度ヒストグラムの調整を行う(ステップS153)。
The image processing apparatus 203 determines whether the background is white (step S152).
When the background is determined to be white (Yes in step S152), the image processing apparatus 203 performs luminance conversion as illustrated in FIG. 29A so that the background is whiter and the visibility is improved. The brightness histogram is adjusted (step S153).

背景が白ではないと判定した場合(ステップS152においてNo)、画像処理装置203は、背景が黒か否かを判定する(ステップS154)。   If it is determined that the background is not white (No in step S152), the image processing apparatus 203 determines whether the background is black (step S154).

背景が黒であると判定した場合(ステップS154においてYes)、画像処理装置203は、背景が黒の場合、図29(b)に示すような輝度変換を行って、輝度ヒストグラムを調整する(ステップS155)。   When it is determined that the background is black (Yes in step S154), when the background is black, the image processing apparatus 203 performs luminance conversion as illustrated in FIG. S155).

背景が黒ではないと判定した場合(ステップS154においてNo)、画像処理装置203は、図29(c)に示すような輝度変換を行って、原稿4の背景色に応じたヒストグラム調整を行う(ステップS156)。
画像処理装置203は、このように調整した画像に対して、図30に示すような変換を行ってカラー調整を行う(S157)。
If it is determined that the background is not black (No in step S154), the image processing apparatus 203 performs luminance conversion as shown in FIG. 29C and performs histogram adjustment according to the background color of the document 4 ( Step S156).
The image processing apparatus 203 performs color adjustment by performing conversion as shown in FIG. 30 on the image adjusted in this way (S157).

画像処理装置203は、図33に示すフローチャートに従って背景の白色化処理(S158)を行う。   The image processing apparatus 203 performs background whitening processing (S158) according to the flowchart shown in FIG.

即ち、画像処理装置203は、カウント値jを0に初期化する(ステップS161)。
画像処理装置203は、カウント値iを0に初期化する(ステップS162)。
画像処理装置203は、入力画像の画素(i,j)の輝度(Y)が一定値以上(Yw)であるか否かを判定する(ステップS163)。
That is, the image processing apparatus 203 initializes the count value j to 0 (step S161).
The image processing apparatus 203 initializes the count value i to 0 (step S162).
The image processing apparatus 203 determines whether or not the luminance (Y) of the pixel (i, j) of the input image is equal to or greater than a certain value (Yw) (step S163).

輝度(Y)が一定値以上(Yw)であると判定した場合(ステップS163においてYes)、画像処理装置203は、入力画像の画素(i,j)の色差U、Vの絶対値が所定値C0未満であるか否かを判定する(ステップS164)。   When it is determined that the luminance (Y) is equal to or greater than a certain value (Yw) (Yes in step S163), the image processing apparatus 203 determines that the absolute values of the color differences U and V of the pixel (i, j) of the input image are predetermined values. It is determined whether it is less than C0 (step S164).

色差U、Vの絶対値が所定値C0未満であると判定した場合(ステップS164においてYes)、画像処理装置203は、輝度値(Y)を255に設定し、色差(u,v)を0にして(S165)、画素(i,j)の値を書き換え、カウント値iをインクリメントする(ステップS166)。   When it is determined that the absolute values of the color differences U and V are less than the predetermined value C0 (Yes in step S164), the image processing apparatus 203 sets the luminance value (Y) to 255 and sets the color difference (u, v) to 0. In step S165, the value of the pixel (i, j) is rewritten, and the count value i is incremented (step S166).

一方、色差U、Vの絶対値が所定値C0未満ではないと判定した場合(ステップS164においてNo)、画像処理装置203は、色差U、Vの絶対値が所定値C1未満であるか否かを判定する(ステップS167)。   On the other hand, when it is determined that the absolute values of the color differences U and V are not less than the predetermined value C0 (No in step S164), the image processing apparatus 203 determines whether or not the absolute values of the color differences U and V are less than the predetermined value C1. Is determined (step S167).

色差U、Vの絶対値が所定値C1未満であると判定した場合(ステップS167においてYes)、画像処理装置203は、輝度値Y=Y+a*(255−Y)として(ステップS168)、画素(i,j)の値を書き換えて、カウント値iをインクリメントする(ステップS166)。   When it is determined that the absolute values of the color differences U and V are less than the predetermined value C1 (Yes in Step S167), the image processing apparatus 203 sets the luminance value Y = Y + a * (255−Y) (Step S168), The value i, j) is rewritten, and the count value i is incremented (step S166).

色差U、Vの絶対値が所定値C1未満ではないと判定した場合(ステップS167においてNo)、画像処理装置203は、輝度値を変更せずに、カウント値iをインクリメントする(ステップS166)。   If it is determined that the absolute values of the color differences U and V are not less than the predetermined value C1 (No in step S167), the image processing apparatus 203 increments the count value i without changing the luminance value (step S166).

画像処理装置203は、カウント値iを、その最大値imaxと比較して、カウント値iが最大値imaxに達したか否かを判定する(ステップS169)。
カウント値iが最大値imaxに達していないと判定した場合(ステップS169においてNo)、画像処理装置203は、ステップS163〜S168の処理を、再度、実行する。
The image processing apparatus 203 compares the count value i with the maximum value imax and determines whether or not the count value i has reached the maximum value imax (step S169).
When it is determined that the count value i has not reached the maximum value imax (No in step S169), the image processing apparatus 203 executes the processes in steps S163 to S168 again.

ステップS163〜S168の処理を繰り返し実行することにより、カウント値iが最大値imaxに達したと判定した場合(ステップS169においてYes)、画像処理装置203は、カウント値jをインクリメントする(ステップS170)。   When it is determined that the count value i has reached the maximum value imax by repeatedly executing the processes in steps S163 to S168 (Yes in step S169), the image processing apparatus 203 increments the count value j (step S170). .

画像処理装置203は、カウント値jを、その最大値jmaxと比較して、カウント値jが最大値jmaxに達したか否かを判定する(ステップS171)。   The image processing apparatus 203 compares the count value j with the maximum value jmax and determines whether the count value j has reached the maximum value jmax (step S171).

カウント値jが最大値jmaxに達していないと判定した場合(ステップS171においてNo)、画像処理装置203は、ステップS162〜S170の処理を、再度、実行する。   When it is determined that the count value j has not reached the maximum value jmax (No in step S171), the image processing apparatus 203 executes the processes in steps S162 to S170 again.

ステップS162〜S170の処理を繰り返し実行することにより、カウント値jが最大値jmaxに達したと判定した場合(ステップS171においてYes)、画像処理装置203は、この背景の白色化処理を終了させる。   When it is determined that the count value j has reached the maximum value jmax by repeatedly executing the processes in steps S162 to S170 (Yes in step S171), the image processing apparatus 203 ends the background whitening process.

(4)画像変換の調整
次に、一度画像変換を行った画像に対して行われる調整(図5のステップS33)について説明する。
抽出された四角形の頂点の座標に若干の誤差等が含まれているような場合、図34(a)、(b)に示すように、得られたアフィンパラメータで射影した結果が好ましくない場合がある。このため、本実施形態の撮影画像投影装置は、ユーザによって射影変換の調整を行えるように構成されている。
(4) Adjustment of Image Conversion Next, adjustment (step S33 in FIG. 5) performed on an image that has been once converted will be described.
In the case where some errors are included in the coordinates of the extracted quadrangular vertices, as shown in FIGS. 34 (a) and 34 (b), the result of projection with the obtained affine parameters may not be preferable. is there. For this reason, the captured image projection apparatus of the present embodiment is configured so that the user can adjust the projection transformation.

ユーザは操作部204の各キーを操作すると、操作部204は、ユーザの操作に応答して、この操作情報を指示情報としてCPU206に送る。CPU206は、この操作情報を判別し、判別結果に従って画像処理装置203を制御する。   When the user operates each key of the operation unit 204, the operation unit 204 sends this operation information to the CPU 206 as instruction information in response to the user's operation. The CPU 206 determines this operation information and controls the image processing device 203 according to the determination result.

尚、図35に示すように、補正画像の補間画素Q(u',v')を求める際に、補間画素Q(u',v')に対して逆変換Aiを行って、補間画素Q(u',v')に対応する補正画像P(u,v)を求め、さらに補正画像P(u,v)に対して逆変換を行って、元の画像のp(x,y)を求め、画像p(x,y)に対して画素補間を行うのが通常である。射影変換と拡大変換等、画像変換を2段変換する場合は、2つの変換を合成した変換行列を求めておいて、元の画像に対して変換を一度で行う。この方が、変換を2回行うより画像を高速に求めることができ、、かつ、前述した2回の逆変換を行って画像を作成する方法より、画像劣化は少なくなる。   As shown in FIG. 35, when the interpolation pixel Q (u ′, v ′) of the corrected image is obtained, the inverse transformation Ai is performed on the interpolation pixel Q (u ′, v ′) to obtain the interpolation pixel Q. A corrected image P (u, v) corresponding to (u ′, v ′) is obtained, and further the inverse transformation is performed on the corrected image P (u, v) to obtain p (x, y) of the original image. Usually, pixel interpolation is performed on the image p (x, y). When performing two-stage image conversion, such as projection conversion and enlargement conversion, a conversion matrix obtained by combining the two conversions is obtained, and the original image is converted at a time. In this case, the image can be obtained at a higher speed than when the conversion is performed twice, and image degradation is less than that in the method of creating the image by performing the inverse conversion twice.

変換前の画像を、X軸,Y軸を中心に角度θだけ回転して得られた変換後の画像から、変換前の画像を取得する場合の回転逆変換行列Arは、次の数27によって表される。

変換前の画像を、X軸,Y軸を中心にしてSc倍拡大して得られた変換後の画像から、変換前の画像を取得する場合の拡大行列Ascは、次の数28によって表される。
The rotation inverse transformation matrix Ar in the case of acquiring the image before conversion from the image after conversion obtained by rotating the image before conversion by the angle θ about the X axis and Y axis is expressed by the following equation (27). expressed.

An enlargement matrix Asc in the case of obtaining an image before conversion from an image after conversion obtained by enlarging the image before conversion by Sc magnification around the X and Y axes is expressed by the following equation (28). The

尚、一度、画像を拡大すると、アフィンパラメータの調整や計算で丸め誤差の処理等が行われる場合がある。このため、画像を拡大する場合、その前に元の等倍のアフィンパラメータに復帰させるようにしておく必要がある。   Note that once an image is enlarged, a rounding error may be processed by adjusting or calculating an affine parameter. For this reason, before enlarging the image, it is necessary to restore the original affine parameters of the same magnification.

変換前の画像をX,Y方向に、それぞれ、Tx,Tyだけ移動させることによって得られた変換後の画像から、変換前の画像を取得する場合の移動行列Asは、次の数29によって表される。
The movement matrix As for obtaining the image before conversion from the image after conversion obtained by moving the image before conversion in the X and Y directions by Tx and Ty, respectively, is expressed by the following equation (29). Is done.

補正前の画像をX,Y方向に、それぞれ、α,βだけ傾斜することによって得られた変換後の画像から、変換前の画像を取得する場合の射影効果行列Apは、次の数30によって表される。

そして、2段の逆変換を実行する場合、その逆変換行列Aは、次の数31によって表される。
The projection effect matrix Ap in the case of acquiring the image before conversion from the image after conversion obtained by inclining the image before correction in the X and Y directions by α and β, respectively, is given by expressed.

When performing two-stage inverse transformation, the inverse transformation matrix A is expressed by the following equation (31).

このような考え方に基づいて実行される画像変換の調整処理を、図36,37に示すフローチャートに基づいて説明する。
CPU206は、拡大率Zoomが1であるか否かを判定する(ステップ181)。尚、拡大率Zoomは、予め1に初期化されているため、CPU206は、最初、拡大率Zoomが1であると判定する(ステップS181においてYes)。拡大率Zoomが1であると判定すると、CPU206は、射影変換キーとして、上拡大キー211、下拡大キー212、左拡大キー213、右拡大キー214のいずれかが押下されたか否かを判定する(ステップ182)。
Image conversion adjustment processing executed based on this concept will be described based on the flowcharts shown in FIGS.
The CPU 206 determines whether or not the enlargement factor Zoom is 1 (step 181). Since the enlargement factor Zoom is initialized to 1 in advance, the CPU 206 first determines that the enlargement factor Zoom is 1 (Yes in step S181). If it is determined that the zoom factor Zoom is 1, the CPU 206 determines whether any one of the upper enlargement key 211, the lower enlargement key 212, the left enlargement key 213, and the right enlargement key 214 is pressed as a projection conversion key. (Step 182).

射影変換キーが押下されたと判定した場合(ステップS182においてYes)、CPU206は、操作された射影変換キーの種別を判別する。   If it is determined that the projection conversion key has been pressed (Yes in step S182), the CPU 206 determines the type of the operated projection conversion key.

押下された射影変換キーが右拡大キー214であると判別した場合、CPU206は、数26に示す射影効果行列Apに、α=0.1、β=0をそれぞれ代入して、逆変換行列Ai=Apを取得する(ステップS183)。   If it is determined that the pressed projective transformation key is the right enlargement key 214, the CPU 206 substitutes α = 0.1 and β = 0 into the projection effect matrix Ap shown in Equation 26, respectively, and the inverse transformation matrix Ai = Ap. Is acquired (step S183).

押下された射影変換キーが左拡大キー213であると判別した場合、CPU206は、数30に示す射影効果行列Apに、α=-0.1,β=0をそれぞれ代入して、逆変換行列Ai=Apを取得する(ステップS184)。   When determining that the pressed projective transformation key is the left enlargement key 213, the CPU 206 assigns α = −0.1 and β = 0 to the projective effect matrix Ap shown in Equation 30, respectively, and the inverse transformation matrix Ai = Ap is acquired (step S184).

押下された射影変換キーが上拡大キー211であると判別した場合、CPU206は、数30に示す射影効果行列Apに、α=0,β=0.1をそれぞれ代入して、逆変換行列Ai=Apを取得する(ステップS185)。   If the CPU 206 determines that the pressed projective transformation key is the upper enlargement key 211, the CPU 206 substitutes α = 0 and β = 0.1 for the projection effect matrix Ap shown in Equation 30, respectively, and the inverse transformation matrix Ai = Ap. Is acquired (step S185).

押下された射影変換キーが下拡大キー212であると判別した場合、CPU206は、数30に示す射影効果行列Apに、α=0,β=-0.1をそれぞれ代入して、逆変換行列Ai=Apを取得する(ステップS186)。   If the CPU 206 determines that the pressed projective transformation key is the lower magnification key 212, the CPU 206 substitutes α = 0 and β = −0.1 for the projection effect matrix Ap shown in Equation 30, respectively, and the inverse transformation matrix Ai = Ap is acquired (step S186).

射影変換キーは押下されていないと判定した場合(ステップ182においてNo)、CPU206は、回転キーが押下されたか否かを判定する(ステップS187)。
回転キーが押下されたと判定した場合(ステップS187においてYes)、CPU206は、押下された回転キーの種別を判別する。
When it is determined that the projection conversion key is not pressed (No in Step 182), the CPU 206 determines whether or not the rotation key is pressed (Step S187).
When it is determined that the rotation key has been pressed (Yes in step S187), the CPU 206 determines the type of the pressed rotation key.

押下された回転キーが右回転キー215であると判別した場合、CPU206は、数27に示す回転逆変換行列Arに、θ=−1を代入して、逆変換行列Ai=Arを取得する(ステップ188)。   If it is determined that the pressed rotation key is the right rotation key 215, the CPU 206 substitutes θ = −1 for the rotation inverse transformation matrix Ar shown in Equation 27 to obtain the inverse transformation matrix Ai = Ar ( Step 188).

押下された回転キーが左回転キー216であると判別した場合、CPU206は、数27に示す回転逆変換行列Arに、θ=1を代入して、逆変換行列Ai=Arを取得する(ステップ189)。   If it is determined that the pressed rotation key is the left rotation key 216, the CPU 206 substitutes θ = 1 for the rotation inverse transformation matrix Ar shown in Equation 27 to obtain the inverse transformation matrix Ai = Ar (step). 189).

回転補正キーは押下されていないと判定した場合(ステップS187においてNo)、CPU206は、拡大処理が行われる前に、元の等倍のアフィンパラメータに復帰させることができるように、現在のアフィンパラメータを行列Afに退避させる(ステップS190)。   If it is determined that the rotation correction key has not been pressed (No in step S187), the CPU 206 can restore the current affine parameters so that the original affine parameters can be restored before the enlargement process is performed. Are saved in the matrix Af (step S190).

一方、拡大率Zoomが1ではないと判定した場合(ステップS181においてNo)、CPU206は、カーソルキーが押下されたか否かを判定する(ステップS191)。   On the other hand, when it is determined that the zoom factor Zoom is not 1 (No in step S181), the CPU 206 determines whether or not the cursor key is pressed (step S191).

カーソルキーが押下されたと判定した場合(ステップS191においてYes)、CPU206は、押下されたカーソルキーの種別を判別する。   When it is determined that the cursor key has been pressed (Yes in step S191), the CPU 206 determines the type of the pressed cursor key.

カーソルキーが右移動キー(拡大キー217と右拡大キー214)であると判別した場合、CPU206は、数29に示す移動行列Asに、X軸,Y軸のそれぞれの移動量Tx=64,Ty=0を代入して、逆変換行列Ai=Asを取得する(ステップS192)。   When determining that the cursor key is the right movement key (the enlargement key 217 and the right enlargement key 214), the CPU 206 adds the respective movement amounts Tx = 64, Ty of the X axis and the Y axis to the movement matrix As shown in Equation 29. = 0 is substituted to obtain the inverse transformation matrix Ai = As (step S192).

カーソルキーが左移動キー(拡大キー217と左拡大キー213)であると判別した場合、CPU206は、数29に示す移動行列Asに、X軸,Y軸のそれぞれの移動量Tx=-64,Ty=0を代入して、逆変換行列Ai=Asを取得する(ステップS193)。   When determining that the cursor key is the left movement key (the enlargement key 217 and the left enlargement key 213), the CPU 206 adds the respective movement amounts Tx = −64, X axis and Y axis to the movement matrix As shown in Equation 29. Substituting Ty = 0 to obtain the inverse transformation matrix Ai = As (step S193).

カーソルキーが上移動キー(拡大キー217と上拡大キー211)であると判別した場合、CPU206は、数29に示す移動行列Asに、X軸,Y軸のそれぞれの移動量Tx=0,Ty=64を代入して、逆変換行列Ai=Asを取得する(ステップS194)。   When determining that the cursor key is the upward movement key (enlargement key 217 and upward enlargement key 211), the CPU 206 adds the movement amounts Tx = 0, Ty of the X axis and the Y axis to the movement matrix As shown in Equation 29, respectively. = 64 is substituted to obtain the inverse transformation matrix Ai = As (step S194).

カーソルキーが下移動キー(拡大キー217と下拡大キー212)であると判別した場合、CPU206は、数29に示す移動行列Asに、X軸,Y軸のそれぞれの移動量Tx=0,Ty=-64を代入して、逆変換行列Ai=Asを取得する(ステップS195)。   If it is determined that the cursor key is the downward movement key (enlargement key 217 and downward enlargement key 212), the CPU 206 adds the movement amounts Tx = 0, Ty of the X axis and the Y axis to the movement matrix As shown in Equation 29. = -64 is substituted to obtain an inverse transformation matrix Ai = As (step S195).

一方、カーソルキーは押下されていないと判定した場合(ステップS191においてNo)、あるいは、回転補正キーは押下されていないと判定して現在のアフィンパラメータを行列Afに退避させた場合(ステップS160)、CPU206は、拡大キー217又は縮小キー218が押下されたか否かを判定する(ステップS196)。   On the other hand, when it is determined that the cursor key is not pressed (No in step S191), or when it is determined that the rotation correction key is not pressed and the current affine parameters are saved in the matrix Af (step S160). The CPU 206 determines whether or not the enlargement key 217 or the reduction key 218 has been pressed (step S196).

拡大キー217又は縮小キー218は押下されていないと判定した場合(ステップS196においてNo)、CPU206は、この射影変換の調整処理を終了させる。
一方、拡大キー217又は縮小キー218が押下されたと判定した場合(ステップS196においてYes)、CPU206は、押下されたキーの種別を判別する。
If it is determined that the enlargement key 217 or the reduction key 218 is not pressed (No in step S196), the CPU 206 ends the projective conversion adjustment processing.
On the other hand, when it is determined that the enlargement key 217 or the reduction key 218 is pressed (Yes in step S196), the CPU 206 determines the type of the pressed key.

押下されたキーが拡大キー217であると判別した場合、CPU206は、拡大率Zoom=Zoom*Ratio(Ratioは、例えば、2倍)として、新たな拡大率Zoomを取得し(ステップS197)、数28に示す拡大行列AscのScに、Sc=Ratioを代入して、逆変換行列Ai=Ascを取得する(ステップS198)。   If it is determined that the pressed key is the enlargement key 217, the CPU 206 obtains a new enlargement ratio Zoom as an enlargement ratio Zoom = Zoom * Ratio (Ratio is, for example, 2) (step S197), and the number By substituting Sc = Ratio into Sc of the expanded matrix Asc shown in FIG. 28, an inverse transformation matrix Ai = Asc is obtained (step S198).

押下されたキーが縮小キー218であると判別した場合、CPU206は、拡大率Zoom=Zoom/Ratioとして、新たな拡大率Zoomを取得する(ステップS199)。
縮小キー218の場合、CPU206は、拡大率Zoomが1を越えているか否かを判定する(ステップS200)。
If it is determined that the pressed key is the reduction key 218, the CPU 206 acquires a new enlargement ratio Zoom as an enlargement ratio Zoom = Zoom / Ratio (step S199).
In the case of the reduction key 218, the CPU 206 determines whether or not the enlargement factor Zoom exceeds 1 (step S200).

拡大率Zoomが1を越えている(Zoom>1)と判定した場合(ステップS200においてYes)、CPU206は、数28に示す拡大行列AscのScに、Sc=1/Ratioを代入して、逆変換行列Ai=Ascを取得する(ステップS201)。   If it is determined that the zoom rate Zoom exceeds 1 (Zoom> 1) (Yes in step S200), the CPU 206 substitutes Sc = 1 / Ratio for Sc of the zoom matrix Asc shown in Equation 28, and vice versa. A transformation matrix Ai = Asc is acquired (step S201).

次に、逆変換行列Aiを設定した場合(ステップS183〜S186,S188,S189、S192〜195,S198,S201)、CPU206は、数31に従って、逆変換行列Aを求める(ステップS202)。   Next, when the inverse transformation matrix Ai is set (steps S183 to S186, S188, S189, S192 to 195, S198, S201), the CPU 206 obtains the inverse transformation matrix A according to Equation 31 (step S202).

CPU206は、求めた変換行列Aを画像処理装置203に供給し、逆変換行列Aに基づいて画像変換を行うように画像処理装置203を制御する。画像処理装置203は、供給された逆変換行列Aに基づいて、アフィン変換による画像変換を行う(ステップS203)。   The CPU 206 supplies the obtained conversion matrix A to the image processing apparatus 203 and controls the image processing apparatus 203 to perform image conversion based on the inverse conversion matrix A. The image processing apparatus 203 performs image conversion by affine transformation based on the supplied inverse transformation matrix A (step S203).

一方、拡大率Zoomが1を越えていない(Zoom≦1)と判定した場合(ステップS200においてNo)、CPU206は、拡大率Zoom=1とする(ステップS204)。
CPU206は、A=Af(ステップS190で保存しておいた拡大前のアフィンパラメータ)として、元の逆変換行列Aに戻す(ステップS205)。
On the other hand, when it is determined that the zoom factor Zoom does not exceed 1 (Zoom ≦ 1) (No in step S200), the CPU 206 sets the zoom factor Zoom = 1 (step S204).
The CPU 206 returns the original inverse transformation matrix A to A = Af (the affine parameter before enlargement saved in step S190) (step S205).

そして、CPU206は、同じように、求めた逆変換行列Aを画像処理装置203に供給して画像変換を行うように画像処理装置203を制御し、画像処理装置203は、供給された逆変換行列Aに基づいて、アフィン変換による画像変換を行う(ステップS203)。   Similarly, the CPU 206 supplies the obtained inverse transformation matrix A to the image processing device 203 to control the image processing device 203 so as to perform image transformation, and the image processing device 203 supplies the supplied inverse transformation matrix. Based on A, image conversion by affine transformation is performed (step S203).

尚、拡大等を行って作成された画像は、原稿4の一部のものである。このように拡大して説明する原稿4は、図、グラフ、写真等である場合が多く、拡大された部分のみを用いてコントラスト引き延ばしなどの画像効果処理を行うと、期待するような画像品質が得られない場合がある。これは、原稿4が図や、写真の場合、背景色の比率が少ないためである。   The image created by enlarging or the like is a part of the document 4. The document 4 described in an enlarged manner is often a figure, a graph, a photograph, and the like. When image effect processing such as contrast enlargement is performed using only the enlarged portion, the expected image quality is obtained. It may not be obtained. This is because when the document 4 is a figure or a photograph, the background color ratio is small.

従って、画像を拡大、縮小、移動させる場合、このような画像変換を行う前の画像効果補正用パラメータを、そのまま用いたほうが好ましい。このような理由から、図5のステップS33(画像変換)では、画像変換が画像の拡大、縮小、移動等である場合には、CPU206は、画像効果補正用パラメータの抽出をスキップさせて、画像処理装置203は、画像変換を行う前の画像効果補正用パラメータで画像効果処理を行う。   Therefore, when enlarging, reducing, or moving an image, it is preferable to use the image effect correction parameters before performing such image conversion as they are. For this reason, in step S33 (image conversion) in FIG. 5, when the image conversion is enlargement, reduction, movement, or the like of the image, the CPU 206 skips the extraction of the image effect correction parameters, and The processing device 203 performs image effect processing using the image effect correction parameters before image conversion.

一方、画像変換が射影変換、回転の場合、撮影対象(原稿4)の切抜きが正しくできていなくても操作されるので、新しく調整された画像を用いて、新たに画像効果補正用パラメータの抽出を行うのが好ましい。このため、画像変換が射影変換、回転の場合、CPU206は、画像効果補正用パラメータの抽出処理(図5のステップS25)に移行させる。   On the other hand, when the image conversion is projective conversion or rotation, the operation is performed even if the object to be photographed (original 4) is not cut out correctly, so that a new image adjustment parameter is newly extracted using the newly adjusted image. Is preferably performed. For this reason, when the image conversion is projective conversion or rotation, the CPU 206 shifts to image effect correction parameter extraction processing (step S25 in FIG. 5).

以上説明したように、本実施形態1によれば、画像処理装置203は、原稿4の画像から輪郭を取得して、原稿4の四角形の形状を取得し、四角形の頂点位置から、射影パラメータを求めて原稿4の画像を射影変換するようにした。   As described above, according to the first embodiment, the image processing apparatus 203 acquires the outline from the image of the document 4, acquires the quadrangle shape of the document 4, and sets the projection parameters from the vertex positions of the rectangle. In search, the image of the document 4 is projectively transformed.

従って、被写体対象である原稿4が四角形であれば、自動的に原稿4だけの画像を切り出し、正面から見た画像に変換されるので、必ずしも撮影被写体に対して真上から撮影する必要もなく、また、原稿4を置いたときの向きに関わらず、正しい向きで原稿4の画像をスクリーン3に投影することができる。   Therefore, if the document 4 that is the subject is a quadrangle, an image of only the document 4 is automatically cut out and converted into an image viewed from the front. In addition, the image of the document 4 can be projected onto the screen 3 in the correct orientation regardless of the orientation when the document 4 is placed.

また、切り出した画像に対して最適な画像効果処理が行われるので、原稿4を照明しなくても、十分に判読性の高い画像を得ることができる。   In addition, since the optimum image effect processing is performed on the cut out image, an image with sufficiently high legibility can be obtained without illuminating the document 4.

また、一度切り出した画像に対して、画像の回転や射影効果処理の補正を行う場合には、最初の切り出しで求めた画像効果補正用パラメータを用いて行えるようにしたので、さらに見やすい画像を簡単に作成することができ、原稿4に反り、曲がりがあっても、簡単な操作によって画像処理を調整することができる。   In addition, when image rotation and projection effect processing correction is performed on an image that has been cut out once, it can be performed using the image effect correction parameters obtained in the first cut-out, making it easier to view images that are easier to view. Even if the document 4 is warped or bent, the image processing can be adjusted by a simple operation.

また、切り出した画像に対して、拡大、縮小等を行えるようにするとともに、その画像を得るのに切り出した画像から作成するのではなく、切り出しと拡大を一度に画像変換を行うので、劣化の少ない画像を作成することができる。   In addition, it is possible to perform enlargement, reduction, etc. on the cut-out image, and not to create the image from the cut-out image to obtain the image, but to perform image conversion for cut-out and enlargement at a time. Fewer images can be created.

切り出した画像の拡大画像に画像効果処理を行う際に、拡大する前の画像効果補正用パラメータを記憶し、その記憶したパラメータを用いて画像効果処理を行うようにしたので、安定した高品位の画像を得ることができる。   When image effect processing is performed on the enlarged image of the clipped image, the image effect correction parameters before enlargement are stored, and the image effect processing is performed using the stored parameters. An image can be obtained.

(実施形態1)
実施形態2に係る撮影画像投影装置は、コンピュータを備え、コンピュータが画像処理を行うように構成されたものである。
(Embodiment 1)
The captured image projection apparatus according to the second embodiment includes a computer, and the computer performs image processing.

実施形態2に係る撮影画像投影装置の構成を図38に示す。
実施形態2に係る撮影画像投影装置は、書画カメラ1とプロジェクタ2とに加え、コンピュータ5を備える。
FIG. 38 shows the configuration of the captured image projection apparatus according to the second embodiment.
A captured image projection apparatus according to the second embodiment includes a computer 5 in addition to the document camera 1 and the projector 2.

書画カメラ1とコンピュータ5とは、USB(Universal Serial Bus)等の通信ケーブル31を介して接続され、コンピュータ5とプロジェクタ2とは、RGBケーブル等のビデオ映像ケーブル32を介して接続される。   The document camera 1 and the computer 5 are connected via a communication cable 31 such as a USB (Universal Serial Bus), and the computer 5 and the projector 2 are connected via a video image cable 32 such as an RGB cable.

実施形態2の書画カメラ1は、図39に示すように、実施形態1の画像処理装置203の代わりに画像圧縮装置207と、インタフェース装置208と、をデータ処理部22に備える。   As shown in FIG. 39, the document camera 1 according to the second embodiment includes an image compression device 207 and an interface device 208 in the data processing unit 22 instead of the image processing device 203 according to the first embodiment.

画像圧縮装置207は、コンピュータ5に送信するデータの量を低減するために画像データを圧縮するものである。画像圧縮装置207は、JPEG(Joint Photographic Expert Group)規格等の技術を用いて静止画像を圧縮する。   The image compression device 207 compresses image data in order to reduce the amount of data transmitted to the computer 5. The image compression device 207 compresses a still image using a technique such as JPEG (Joint Photographic Expert Group) standard.

インタフェース装置208は、圧縮した画像データをコンピュータ5に送信し、またコンピュータ5からの撮影コマンドを受信するためのものである。   The interface device 208 is for transmitting the compressed image data to the computer 5 and receiving a shooting command from the computer 5.

また、CPU206は、光学レンズ装置101の焦点、露出、ホワイトバランス等のカメラ設定パラメータを動画モードに初期化する機能を有する。これによりに、カメラ部11が捉えているシーンは、光学レンズ装置101を経由してイメージセンサ102に集光され、イメージセンサ102は、集光された画像から動画撮影用の解像度の低いデジタルの画像データを作成し、メモリ201に、例えば、1秒あたり30枚程度で送り出す。   The CPU 206 has a function of initializing camera setting parameters such as the focus, exposure, and white balance of the optical lens device 101 to the moving image mode. As a result, the scene captured by the camera unit 11 is condensed on the image sensor 102 via the optical lens device 101, and the image sensor 102 uses a digital image with a low resolution for moving image shooting from the collected image. Image data is created and sent to the memory 201 at, for example, about 30 sheets per second.

コンピュータ5は、書画カメラ1に撮影コマンドを送って書画カメラ1を制御し、画像データを受信して画像処理を行った画像データをプロジェクタ2に送信するものである。
コンピュータ5は、インタフェース装置231と、表示装置232と、画像処理装置233と、操作部234と、HDD(Hard Disk Drive)235と、CPU236と、ROM(Read Only Memory)237と、RAM(Random Access Memory)238と、を備える。
The computer 5 sends a shooting command to the document camera 1 to control the document camera 1, receives image data, and transmits image data subjected to image processing to the projector 2.
The computer 5 includes an interface device 231, a display device 232, an image processing device 233, an operation unit 234, an HDD (Hard Disk Drive) 235, a CPU 236, a ROM (Read Only Memory) 237, and a RAM (Random Access). Memory) 238.

インタフェース装置231は、圧縮された画像データを受信するとともに、撮影コマンド等を送信するためのものである。
表示装置232は、表示装置202と同様に、プロジェクタ2に送り出す画像を表示するためのものである。
The interface device 231 is for receiving compressed image data and transmitting a shooting command and the like.
Similar to the display device 202, the display device 232 is for displaying an image sent to the projector 2.

画像処理装置233は、受信した画像データに対して、画像の歪み補正や画像効果などの画像処理を行うためのものであり、実施形態1の画像処理装置203と同様の機能を有する。また、画像処理装置233は、圧縮された画像に対して圧縮デコードを行って非圧縮データを生成する。   The image processing device 233 is for performing image processing such as image distortion correction and image effect on the received image data, and has the same function as the image processing device 203 of the first embodiment. In addition, the image processing device 233 performs compression decoding on the compressed image to generate uncompressed data.

画像処理装置233は、ハードウェアで構成されてもよいし、ソフトウェアで構成されたものであってもよい。ソフトウェアであれば、バージョンアップによって機能を更新することができるので、画像処理装置233は、ソフトウェアで構成されることが好ましい。   The image processing apparatus 233 may be configured by hardware or software. Since the function can be updated by upgrading the software, the image processing device 233 is preferably configured by software.

尚、コンピュータ5が書画カメラ1の画像処理装置203の機能を備えることにより、カメラ部11には、画像処理用のハードウェアを実装する必要がなくなり、市販の標準的なデジタルカメラを用いてもよい。   Since the computer 5 has the function of the image processing device 203 of the document camera 1, it is not necessary to install image processing hardware in the camera unit 11, and a commercially available standard digital camera can be used. Good.

操作部234は、ユーザがデータ、コマンドを入力するためのスイッチ、キーを備えたものである。
HDD235は、データ等を記憶するためのものである。HDD235は、予めインストールされた書画処理用のソフトウェアのデータも記憶する。
The operation unit 234 includes switches and keys for the user to input data and commands.
The HDD 235 is for storing data and the like. The HDD 235 also stores data of software for document processing installed in advance.

CPU236は、コンピュータ5の各部を制御するとともに、高解像度静止画の撮影を指示する撮影コマンド等を書画カメラ1に送信して書画カメラ1を制御するものである。
ROM237は、CPU236が実行する基本的なプログラムコード等を記憶するものである。
RAM238は、CPU236が実行するのに必要なデータを記憶するものである。
The CPU 236 controls each part of the computer 5 and controls the document camera 1 by transmitting to the document camera 1 a photographing command for instructing photographing of a high-resolution still image.
The ROM 237 stores basic program codes executed by the CPU 236.
The RAM 238 stores data necessary for the CPU 236 to execute.

次に実施形態2に係る撮影画像投影装置の動作を図40に示すフローチャートに基づいて説明する。
書画カメラ1のCPU206は、インタフェース装置208、画像圧縮装置207やメモリ201内の作業メモリの初期化を行う(ステップS211)。
CPU206は、光学レンズ装置101の焦点、露出、ホワイトバランス当、カメラ設定パラメータを動画モードに初期化する(ステップ212)。
Next, the operation of the captured image projection apparatus according to the second embodiment will be described based on the flowchart shown in FIG.
The CPU 206 of the document camera 1 initializes the interface memory 208, the image compression device 207, and the work memory in the memory 201 (step S211).
The CPU 206 initializes the focus, exposure, white balance and camera setting parameters of the optical lens device 101 to the moving image mode (step 212).

CPU206は、インタフェース装置208をチェックして、コンピュータ5からの撮影コマンドを受信したか否かを判定する(ステップS213)。
撮影コマンドを受信していないと判定した場合(ステップS213においてNo)、CPU206は、操作部204からの操作情報に基づいて操作部204の画像調整キーが押下されたか否かを判定する(ステップS214)。
The CPU 206 checks the interface device 208 and determines whether or not a shooting command from the computer 5 has been received (step S213).
If it is determined that the shooting command has not been received (No in step S213), the CPU 206 determines whether the image adjustment key of the operation unit 204 has been pressed based on the operation information from the operation unit 204 (step S214). ).

画像調整キーが押下されたと判定した場合(ステップS214においてYes)、CPU206は、押下された画像調整キーの種別情報を、インタフェース装置208を介してコンピュータ5に送信し(ステップS215)、イメージセンサ102から低解像度画像を読み込む(ステップS216)。   If it is determined that the image adjustment key has been pressed (Yes in step S214), the CPU 206 transmits the type information of the pressed image adjustment key to the computer 5 via the interface device 208 (step S215), and the image sensor 102. A low-resolution image is read from (step S216).

一方、画像調整キーが押下されていないと判定した場合(ステップS214においてNo)、CPU206は、種別情報を送信せずに、イメージセンサ102から低解像度画像を読み込む(ステップS216)。   On the other hand, if it is determined that the image adjustment key has not been pressed (No in step S214), the CPU 206 reads a low-resolution image from the image sensor 102 without transmitting type information (step S216).

画像圧縮装置207は、CPU206の制御の下、CPU206が読み込んだ画像データを圧縮する(ステップS217)。
CPU206は、画像圧縮装置207が圧縮した低解像度画像のデータをインタフェース装置208を介して、例えば、毎秒30フレーム程度の速度でコンピュータ5に送信する(ステップS218)。
The image compression device 207 compresses the image data read by the CPU 206 under the control of the CPU 206 (step S217).
The CPU 206 transmits the low-resolution image data compressed by the image compression device 207 to the computer 5 through the interface device 208 at a speed of, for example, about 30 frames per second (step S218).

そして、CPU206、画像圧縮装置207は、ステップS213〜S218の処理を実行する。このようにして、書画カメラ1は、撮影コマンドを受信しない限り、低解像度画像を定期的にコンピュータ5に送信する。   Then, the CPU 206 and the image compression device 207 execute the processes of steps S213 to S218. In this manner, the document camera 1 periodically transmits a low resolution image to the computer 5 unless it receives a shooting command.

撮影コマンドを受信したと判定した場合(ステップS213においてYes)、CPU206は、イメージセンサ102、光学レンズ装置101の撮影モードを高解像度の静止画モードに設定する(ステップS219)。   If it is determined that a shooting command has been received (Yes in step S213), the CPU 206 sets the shooting mode of the image sensor 102 and the optical lens device 101 to a high-resolution still image mode (step S219).

CPU206は、高解像度静止画の撮影を行うように、カメラ部11を制御する(ステップS220)。
CPU206は、カメラ部11によって撮影された画像データを画像圧縮装置207に送り、画像圧縮装置207は、受け取った画像データを圧縮する(ステップS221)。
The CPU 206 controls the camera unit 11 so as to capture a high-resolution still image (step S220).
The CPU 206 sends the image data captured by the camera unit 11 to the image compression device 207, and the image compression device 207 compresses the received image data (step S221).

画像圧縮装置207は、圧縮した高解像度静止画像のデータを、インタフェース装置208を介してコンピュータ5に送信する(ステップS222)。
CPU206は、再び、低解像度の動画モードに設定し(ステップS223)、撮影コマンドを受信するまで、ステップS213〜S218の処理を実行し、取得した低解像度画像を、インタフェース装置208を介してコンピュータ5に送信する。
The image compression device 207 transmits the compressed high-resolution still image data to the computer 5 via the interface device 208 (step S222).
The CPU 206 sets the low-resolution moving image mode again (step S223), executes the processing of steps S213 to S218 until receiving a shooting command, and transmits the acquired low-resolution image to the computer 5 via the interface device 208. Send to.

コンピュータ5は、HDD235にインストールされた書画処理ソフトウェアが起動されると、図41,42に示すフローチャートに従って、書画カメラ機能の処理を実行する。
CPU236は、通信等の初期化を行う(ステップS231)。
CPU236は、データを受信したか否かを判定して、受信したデータの内容を判別する(ステップS232)。
When the document processing software installed in the HDD 235 is activated, the computer 5 executes processing of the document camera function according to the flowcharts shown in FIGS.
The CPU 236 initializes communication and the like (step S231).
The CPU 236 determines whether or not data has been received and determines the content of the received data (step S232).

受信したデータが低解像度画像であると判別した場合、画像処理装置233は、圧縮されている画像に対して圧縮デコードを行うことにより、圧縮データを非圧縮データに変換する(ステップS233)。
CPU236は、実施形態1と同様に、数1に従って画像変化量MDを算出する(ステップS234)。
If it is determined that the received data is a low-resolution image, the image processing device 233 converts the compressed data into uncompressed data by performing compression decoding on the compressed image (step S233).
As in the first embodiment, the CPU 236 calculates the image change amount MD according to Equation 1 (step S234).

CPU236は、撮影モードが動画モードか静止画モードであるかを判定する(ステップS235)。
初期状態では、撮影モードが動画モードに設定されているので、CPU236は、撮影モードは動画モードと判定する(ステップS235においてYes)。この場合、CPU236は、受信した低解像度画像の描画を行う(ステップS236)。画像処理装置233は、描画された低解像度画像のデータをプロジェクタ2に出力し、プロジェクタ2は、この画像をスクリーン3に投影する。
The CPU 236 determines whether the shooting mode is the moving image mode or the still image mode (step S235).
In the initial state, since the shooting mode is set to the moving image mode, the CPU 236 determines that the shooting mode is the moving image mode (Yes in step S235). In this case, the CPU 236 performs drawing of the received low resolution image (step S236). The image processing device 233 outputs the rendered low-resolution image data to the projector 2, and the projector 2 projects this image onto the screen 3.

CPU236は、前回撮影した画像との画像変化量MDを、数1に従って求め、求めた画像変化量MDと予め設定された閾値Thresh1とを比較し、比較結果に基づいて画像に動きがあるか否かを判定する(ステップS237)。   The CPU 236 obtains the image change amount MD with respect to the previously captured image according to the equation 1, compares the obtained image change amount MD with a preset threshold Thresh1, and determines whether the image has a motion based on the comparison result. Is determined (step S237).

画像に動きがある(MD≧Thresh1)と判定した場合(ステップS237においてYes)、CPU236は、静止時間Ptimeをクリアして(ステップS245)、動画モードを続ける。
一方、画像に動きがない(Thresh1>MD)と判定した場合(ステップS237においてNo)、CPU236は、静止時間Ptimeに1を加算する(ステップS238)。
CPU236は、動きが停止して、予め設定された所定時間HoldTimeが経過したか否かを判定する(ステップS239)。
所定時間HoldTimeが経過していない(Ptime<HoldTime)と判定した場合(ステップS239においてNo)、CPU236は、動画モードを持続し、次のデータを受信するまで待機する(ステップS232)。
If it is determined that there is a motion in the image (MD ≧ Thresh1) (Yes in step S237), the CPU 236 clears the stationary time Ptime (step S245) and continues the moving image mode.
On the other hand, when it is determined that there is no motion in the image (Thresh1> MD) (No in step S237), the CPU 236 adds 1 to the stationary time Ptime (step S238).
The CPU 236 determines whether or not the movement has stopped and a predetermined time “HoldTime” has elapsed (step S239).
If it is determined that the predetermined time HoldTime has not elapsed (Ptime <HoldTime) (No in step S239), the CPU 236 maintains the moving image mode and waits until the next data is received (step S232).

所定時間HoldTimeが経過した(Ptime≧HoldTime)と判定した場合(ステップS239においてYes)、CPU236は、撮影モードを静止画モードに設定する(ステップS240)。   When it is determined that the predetermined time HoldTime has elapsed (Ptime ≧ HoldTime) (Yes in Step S239), the CPU 236 sets the shooting mode to the still image mode (Step S240).

CPU236は、高解像度静止画像の撮影を指示する撮影コマンドを送信し(ステップS241)、書画カメラ1から静止画データを受信するまで待機する(ステップS232)。   The CPU 236 transmits a shooting command for instructing shooting of a high-resolution still image (step S241), and waits until still image data is received from the document camera 1 (step S232).

そして、データを受信して、受信したデータが低解像度画像と判別した場合(ステップS232)、CPU236は、低解像度画像をデコードし(ステップS233)、画像変化量MDを算出し(ステップS234)、撮影モードが動画モードか否かを判定する(ステップS235)。   When data is received and the received data is determined to be a low-resolution image (step S232), the CPU 236 decodes the low-resolution image (step S233) and calculates an image change amount MD (step S234). It is determined whether or not the shooting mode is the moving image mode (step S235).

静止画モードであると判定した場合(ステップS235においてNo)、CPU236は、実施形態1と同様に、画像変化量MDと2つの閾値Thresh2とを比較して画像に動きがあるか否かを判定する(ステップS242、S243)。   When it is determined that the still image mode is selected (No in step S235), the CPU 236 compares the image change amount MD with the two threshold values Thresh2 to determine whether or not there is a motion as in the first embodiment. (Steps S242 and S243).

MD<Thresh1であれば(ステップS242においてNo、ステップS243においてYes)、CPU236は、撮影コマンドを送信する(ステップS241)。   If MD <Thresh1 (No in step S242, Yes in step S243), the CPU 236 transmits a shooting command (step S241).

Thresh1≦MD≦Thresh2であれば(ステップS242においてNo、ステップS243においてNo)、CPU236は、現在表示されている静止画画像をそのままにして、撮影モードも動画モードのままとする(ステップS244)。そして、CPU236は、静止時間Ptimeに0をセットする(ステップS245)。そして、CPU236は、次のデータを受信するまで待機する(ステップS232)。   If Thresh1 ≦ MD ≦ Thresh2 (No in step S242, No in step S243), CPU 236 leaves the still image currently displayed as it is and the shooting mode remains in the moving image mode (step S244). Then, the CPU 236 sets 0 as the stationary time Ptime (step S245). Then, CPU 236 waits until the next data is received (step S232).

Thresh2<MDであれば(ステップS242においてYes)、CPU236は、静止画モードのまま、次のデータを受信するまで待機する(ステップS232)。   If Thresh2 <MD (Yes in step S242), the CPU 236 waits until the next data is received in the still image mode (step S232).

受信したデータが高解像度画像であると判別した場合(ステップS232)、CPU236は、高解像静止画像のデコードを行う(図42のステップS246)。
画像処理装置233は、実施形態1と同様に、射影パラメータを抽出して画像効果処理を行う(ステップS247〜250)。
When it is determined that the received data is a high-resolution image (step S232), the CPU 236 decodes the high-resolution still image (step S246 in FIG. 42).
As in the first embodiment, the image processing device 233 extracts projection parameters and performs image effect processing (steps S247 to S250).

画像処理装置233は、画像を描画してプロジェクタ2に出力し(ステップS251)、CPU236は、次のデータを受信するまで待機する(ステップS232)。   The image processing device 233 draws an image and outputs it to the projector 2 (step S251), and the CPU 236 waits until the next data is received (step S232).

受信したデータがキーの操作情報に関するものと判別すれば、CPU236は、撮影モードが静止画モードであるか否かを判定し、静止画モードでなければ(ステップS252においてNo)、次のデータを受信するまで待機する(ステップS232)。   If it is determined that the received data is related to key operation information, the CPU 236 determines whether or not the shooting mode is the still image mode. If the received data is not the still image mode (No in step S252), the CPU 236 determines the next data. Wait until it is received (step S232).

静止画モードであると判定した場合(ステップS252においてYes)、CPU236は、実施形態1と同様に調整と画像変換を行い(ステップS253)、画像変換の内容に従って画像効果処理を行う(ステップS254,S249、S250)。そして、画像処理装置233は、画像を描画してプロジェクタ2に出力し(ステップS251)、CPU236は、次のデータを受信するまで待機する(ステップS232)。   If it is determined that the still image mode is selected (Yes in step S252), the CPU 236 performs adjustment and image conversion in the same manner as in the first embodiment (step S253), and performs image effect processing according to the content of the image conversion (step S254, step S254). S249, S250). Then, the image processing device 233 draws an image and outputs it to the projector 2 (step S251), and the CPU 236 waits until the next data is received (step S232).

以上説明したように、本実施形態2によれば、コンピュータ5を備え、コンピュータ5が画像処理を行うようにした。従って、画像処理用のハードウェアをカメラ部11に実装する必要がないので、市販の標準的なデジタルカメラを用いることができ、撮影画像投影装置を構成することができる。このため、安価にシステムを構成することができる。   As described above, according to the second embodiment, the computer 5 is provided, and the computer 5 performs image processing. Accordingly, since it is not necessary to mount image processing hardware in the camera unit 11, a commercially available standard digital camera can be used, and a captured image projection apparatus can be configured. For this reason, the system can be configured at low cost.

尚、本発明を実施するにあたっては、種々の形態が考えられ、上記実施形態に限られるものではない。
例えば、実施形態1では、画像効果補正用パラメータを抽出する際に、原稿4の画像に対して射影パラメータによって変換した画像に対して、画像の切り出し処理を行うようにした。しかし、原稿4の画像が歪んでいても、射影変換を行わずに、実原稿部から画像効果補正用パラメータを抽出することもできる。
In carrying out the present invention, various forms are conceivable and the present invention is not limited to the above embodiment.
For example, in the first embodiment, when extracting the image effect correction parameters, the image clipping process is performed on the image obtained by converting the image of the document 4 using the projection parameters. However, even if the image of the document 4 is distorted, the image effect correction parameters can be extracted from the actual document portion without performing projective conversion.

上記実施形態では、原稿4の形状を四角形として、原稿4の輪郭から四角形を取得して各処理を行うようにした。しかし、現実的ではないものの、原稿4の形状は四角形に限られるものではなく、五角形等であってもよい。   In the above-described embodiment, the shape of the document 4 is a quadrangle, and each process is performed by obtaining a rectangle from the outline of the document 4. However, although not realistic, the shape of the document 4 is not limited to a quadrangle, and may be a pentagon or the like.

尚、上記実施の形態では、プログラムが、それぞれメモリ等に予め記憶されているものとして説明した。しかし、コンピュータを、装置の全部又は一部として動作させ、あるいは、上述の処理を実行させるためのプログラムを、フレキシブルディスク、CD−ROM(Compact Disk Read-Only Memory)、DVD(Digital Versatile Disk)、MO(Magneto Optical disk)などのコンピュータ読み取り可能な記録媒体に格納して配布し、これを別のコンピュータにインストールし、上述の手段として動作させ、あるいは、上述の工程を実行させてもよい。
さらに、インターネット上のサーバ装置が有するディスク装置等にプログラムを格納しておき、例えば、搬送波に重畳させて、コンピュータにダウンロード等するものとしてもよい。
In the above-described embodiment, the program has been described as being stored in advance in a memory or the like. However, a program for causing a computer to operate as the whole or a part of the apparatus or to execute the above-described processing is a flexible disk, a CD-ROM (Compact Disk Read-Only Memory), a DVD (Digital Versatile Disk), The information may be stored in a computer-readable recording medium such as an MO (Magneto Optical disk) and distributed, installed in another computer, operated as the above-described means, or the above-described steps may be executed.
Furthermore, the program may be stored in a disk device or the like included in a server device on the Internet, and may be downloaded onto a computer by being superimposed on a carrier wave, for example.

本発明の実施形態1に係る撮影画像投影装置の構成を示すブロック図である。It is a block diagram which shows the structure of the picked-up image projection apparatus which concerns on Embodiment 1 of this invention. 図1に示す書画カメラの構成を示すブロック図である。It is a block diagram which shows the structure of the document camera shown in FIG. 図2に示す画像処理装置の機能の説明図である。It is explanatory drawing of the function of the image processing apparatus shown in FIG. 図2に示す操作部が備える各キーの説明図である。It is explanatory drawing of each key with which the operation part shown in FIG. 2 is provided. 図1に示す撮影画像投影装置が実行する基本投影処理の内容を示すフローチャートである。It is a flowchart which shows the content of the basic projection process which the picked-up image projection apparatus shown in FIG. 1 performs. 図2に示す画像処理装置の切り抜き処理の内容の説明図である。It is explanatory drawing of the content of the clipping process of the image processing apparatus shown in FIG. 射影パラメータの抽出とアフィン変換の基本的な考え方の説明図である。It is explanatory drawing of the basic view of extraction of a projection parameter, and an affine transformation. 図2に示す画像処理装置が実行する射影パラメータ抽出処理の内容を示すフローチャートである。It is a flowchart which shows the content of the projection parameter extraction process which the image processing apparatus shown in FIG. 2 performs. 図2に示す画像処理装置が実行する四角形輪郭抽出処理の内容を示すフローチャートである。It is a flowchart which shows the content of the square outline extraction process which the image processing apparatus shown in FIG. 2 performs. 縮小輝度画像とエッジ画像の説明図である。It is explanatory drawing of a reduced luminance image and an edge image. Robertsフィルタの機能の説明図である。It is explanatory drawing of the function of Roberts filter. ラドン変換の原理を説明するためのイメージ図である。It is an image figure for demonstrating the principle of radon conversion. X、Y座標系の直線をラドン変換して極座標系のデータを取得する動作の説明図である。It is explanatory drawing of the operation | movement which acquires the data of a polar coordinate system by radon-transforming the straight line of a X, Y coordinate system. 図2に示す画像処理装置が実行する極座標系のデータからのピーク点検出処理の内容を示すフローチャートである。It is a flowchart which shows the content of the peak point detection process from the data of the polar coordinate system which the image processing apparatus shown in FIG. 2 performs. ピーク点を検出して抽出した直線から、四角形を検出する考え方を示す説明図である。It is explanatory drawing which shows the view which detects a square from the straight line which detected and extracted the peak point. 図2に示す画像処理装置が実行する四角形検出処理の内容を示すフローチャートである。It is a flowchart which shows the content of the square detection process which the image processing apparatus shown in FIG. 2 performs. 図1に示す書画カメラが距離センサを備える場合の構成を示すブロック図である。It is a block diagram which shows a structure in case the document camera shown in FIG. 1 is provided with a distance sensor. 図2又は図17に示す光学レンズ装置がアクティブ方式の自動焦点レンズを有する場合に実行する距離計測処理の内容を示すフローチャートである。It is a flowchart which shows the content of the distance measurement process performed when the optical lens apparatus shown in FIG. 2 or FIG. 17 has an active autofocus lens. 図2又は図17に示す光学レンズ装置がパッシブ方式の自動焦点レンズを有する場合に実行する距離計測処理の内容を示すフローチャートである。It is a flowchart which shows the content of the distance measurement process performed when the optical lens apparatus shown in FIG. 2 or FIG. 17 has a passive autofocus lens. ユーザからの入力を受けて図2又は図17に示す画像処理装置が実行する用紙サイズの設定処理の内容を示すフローチャートである。It is a flowchart which shows the content of the setting process of the paper size which the image processing apparatus shown in FIG. 2 or FIG. 17 receives the input from a user. 用紙サイズの設定処理の際にユーザに提示される画面の例を示す図である。FIG. 6 is a diagram illustrating an example of a screen presented to a user during a paper size setting process. 図2に示す画像処理装置が実行する検出した四角形の選択処理の内容を示すフローチャートである。It is a flowchart which shows the content of the selection process of the detected square which the image processing apparatus shown in FIG. 2 performs. 図2に示す画像処理装置が実行する四角形の頂点からアフィンパラメータを求める処理の内容を示すフローチャートである。It is a flowchart which shows the content of the process which calculates | requires an affine parameter from the square vertex performed by the image processing apparatus shown in FIG. 射影変換後の画像から元の画像を得るための逆変換の説明図である。It is explanatory drawing of the inverse transformation for obtaining the original image from the image after projective transformation. 図2に示す画像処理装置が実行するアフィン変換による画像変換処理の内容を示すフローチャートである。It is a flowchart which shows the content of the image conversion process by the affine transformation which the image processing apparatus shown in FIG. 2 performs. 図2に示す画像処理装置が切り出した画像例を示す説明図である。It is explanatory drawing which shows the example of an image cut out by the image processing apparatus shown in FIG. ヒストグラムの一例を示す説明図であり、図27(a)は、輝度ヒストグラムを示し、図27(b)は、色差ヒストグラムを示す。FIG. 27A is an explanatory diagram showing an example of a histogram, FIG. 27A shows a luminance histogram, and FIG. 27B shows a color difference histogram. 図2に示す画像処理装置が実行する画像効果補正用パラメータの抽出処理の内容を示すフローチャートである。3 is a flowchart showing the contents of image effect correction parameter extraction processing executed by the image processing apparatus shown in FIG. 2. 画像効果処理を示す説明図であり、図29(a)は、背景色が白の場合の画像効果処理を示し、図29(b)は、背景が黒の場合の画像効果処理を示し、図29(c)は、背景が白又は黒以外の場合の画像効果処理を示す。29A and 29B are explanatory diagrams showing image effect processing. FIG. 29A shows image effect processing when the background color is white, and FIG. 29B shows image effect processing when the background is black. 29 (c) shows image effect processing when the background is other than white or black. カラー調整を行うための輝度変換グラフの一例を示す説明図である。It is explanatory drawing which shows an example of the luminance conversion graph for performing color adjustment. 背景の白色化を説明するための図である。It is a figure for demonstrating whitening of a background. 図2に示す画像処理装置が実行する画像効果処理の内容を示すフローチャートである。It is a flowchart which shows the content of the image effect process which the image processing apparatus shown in FIG. 2 performs. 図2に示す画像処理装置が実行する背景白色化処理の内容を示すフローチャートである。It is a flowchart which shows the content of the background whitening process which the image processing apparatus shown in FIG. 2 performs. 射影変換によって画像の歪みを補正することができなかった例を示す説明図である。It is explanatory drawing which shows the example which could not correct | amend the distortion of an image by projective transformation. 元の画像、射影変換画像、拡大した射影変換画像との対応関係を説明するための図である。It is a figure for demonstrating the correspondence with the original image, a projection conversion image, and the enlarged projection conversion image. 図2に示す画像処理装置が実行する補正調整と画像変換処理の内容を示すフローチャート(その1)である。3 is a flowchart (part 1) showing details of correction adjustment and image conversion processing executed by the image processing apparatus shown in FIG. 2; 図2に示す画像処理装置が実行する補正調整と画像変換処理の内容を示すフローチャート(その2)である。FIG. 3 is a flowchart (part 2) showing the contents of correction adjustment and image conversion processing executed by the image processing apparatus shown in FIG. 2. FIG. 本発明の実施形態2に係る撮影画像投影装置の構成を示すブロック図である。It is a block diagram which shows the structure of the picked-up image projection apparatus which concerns on Embodiment 2 of this invention. 図38に示す書画カメラの構成を示すブロック図である。It is a block diagram which shows the structure of the document camera shown in FIG. 図39に示す書画カメラが実行する基本処理の内容を示すフローチャートである。It is a flowchart which shows the content of the basic process which the document camera shown in FIG. 39 performs. 図38に示すコンピュータが実行する書画基本処理の内容を示すフローチャート(その1)である。FIG. 39 is a flowchart (No. 1) showing the contents of a document basic process executed by the computer shown in FIG. 38. FIG. 図38に示すコンピュータが実行する書画基本処理の内容を示すフローチャート(その2)である。FIG. 39 is a flowchart (No. 2) showing the contents of a document basic process executed by the computer shown in FIG. 38. FIG.

符号の説明Explanation of symbols

1・・・書画カメラ、2・・・プロジェクタ、3・・・スクリーン、4・・・原稿、11・・・カメラ部、201・・・メモリ、202,232・・・表示装置、203,233・・・画像処理装置、204,234・・・操作部、206,236・・・CPU   DESCRIPTION OF SYMBOLS 1 ... Document camera, 2 ... Projector, 3 ... Screen, 4 ... Original, 11 ... Camera part, 201 ... Memory, 202, 232 ... Display apparatus, 203, 233 ... Image processing device, 204, 234 ... Operation unit, 206,236 ... CPU

Claims (8)

撮影した原稿の画像をスクリーンに投影する撮影画像投影装置において、
撮影によって得られた原稿画像の歪みを補正するように、前記原稿画像が有する複数の形状のうちいずれかの形状に対して画像処理を行う画像処理部と、
前記画像処理部が画像処理した画像を前記スクリーンに投影する投影部と、を備え、
前記画像処理部は、
前記原稿画像から前記原稿画像候補の輪郭を取得し、取得した輪郭で囲まれた前記形状及びその頂点位置を取得する形状取得部と、
前記形状取得部が取得した前記形状の面積を求める面積取得部と、
前記面積取得部が求めた面積と予め指定された原稿サイズの面積とを比較して、前記面積取得部が求めた面積のうち、前記指定された原稿サイズの面積と最も近い面積を有する形状を前記原稿画像の形状として選択する形状選択部と、
前記形状選択部が選択した前記原稿画像の形状と実際の原稿の形状とを対応させて、前記形状取得部が取得した前記原稿画像の頂点位置から、前記原稿画像と実際の原稿との関係を示す射影パラメータを求める射影パラメータ取得部と、
前記射影パラメータ取得部が求めた射影パラメータを用いて前記原稿画像の画像変換を行う画像変換部と、を備えた、
ことを特徴とする撮影画像投影装置。
In a photographic image projection device that projects an image of a photographed document on a screen,
An image processing unit that performs image processing on any one of a plurality of shapes of the document image so as to correct distortion of the document image obtained by shooting;
A projection unit that projects the image processed by the image processing unit onto the screen;
The image processing unit
A shape acquisition unit that acquires the outline of the original image candidate from the original image and acquires the shape surrounded by the acquired outline and the vertex position thereof;
An area acquisition unit for obtaining an area of the shape acquired by the shape acquisition unit;
The area obtained by the area acquisition unit is compared with the area of the document size designated in advance, and the shape having the area closest to the area of the designated document size is obtained among the areas obtained by the area acquisition unit. A shape selection unit for selecting the shape of the original image;
The shape of the original image selected by the shape selection unit is associated with the actual original shape, and the relationship between the original image and the actual original is determined from the vertex position of the original image acquired by the shape acquisition unit. A projection parameter acquisition unit for obtaining a projection parameter to be shown;
An image conversion unit that performs image conversion of the document image using the projection parameter obtained by the projection parameter acquisition unit,
A photographed image projection apparatus characterized by the above.
前記形状取得部は、
前記原稿画像のエッジ画像を検出するエッジ画像検出部と、
前記エッジ画像検出部が検出したエッジ画像から前記原稿の輪郭の候補となる直線を検出する直線検出部と、を備え、
前記直線検出部が検出した直線を組み合わせて前記原稿の輪郭を取得する、
ことを特徴とする請求項1に記載の撮影画像投影装置。
The shape acquisition unit
An edge image detector for detecting an edge image of the document image;
A straight line detection unit that detects straight lines that are candidates for the outline of the document from the edge image detected by the edge image detection unit;
Combining the straight lines detected by the straight line detection unit to obtain the contour of the document;
The photographed image projection apparatus according to claim 1.
前記面積取得部は、前記原稿画像の大きさと前記形状取得部が取得した頂点位置とに基づいて、前記形状取得部が取得した輪郭で囲まれた形状の面積を求める、
ことを特徴とする請求項1又は2に記載の撮影画像投影装置。
The area acquisition unit obtains the area of the shape surrounded by the outline acquired by the shape acquisition unit based on the size of the document image and the vertex position acquired by the shape acquisition unit.
The photographed image projecting apparatus according to claim 1, wherein:
光を集光するレンズと、前記レンズが集光した光によって画像を形成する画像形成部と、前記画像形成部上に前記原稿画像が結像するように前記レンズの位置を制御するレンズ制御部と、を有するカメラを備え、
前記面積取得部は、
前記レンズ制御部の制御によって前記画像形成部上に前記原稿画像が結像したときの前記レンズと前記画像形成部との間の距離と、前記レンズと前記原稿との間の距離と、に基づいて前記形状取得部が取得した前記原稿画像の大きさを求める、
ことを特徴とする請求項3に記載の撮影画像投影装置。
A lens for condensing light, an image forming unit for forming an image by the light collected by the lens, and a lens control unit for controlling the position of the lens so that the original image is formed on the image forming unit And a camera having
The area acquisition unit
Based on the distance between the lens and the image forming unit when the document image is formed on the image forming unit by the control of the lens control unit, and the distance between the lens and the document. Obtaining the size of the original image acquired by the shape acquisition unit.
The photographed image projector according to claim 3.
前記レンズ制御部は、
測距用の光を出力する光出力部と、
前記光出力部が出力した光による前記原稿からの反射光に基づいて前記レンズと前記原稿との間の距離を計測する距離センサと、を備えたアクティブ方式のものであって、
前記面積取得部は、前記レンズ制御部の制御によって前記画像形成部上に前記原稿画像が結像したときに前記距離センサによって計測された前記レンズと前記原稿との間の距離と、前記レンズの焦点距離と、に基づいて前記レンズと前記結像部との間の距離を求める、
ことを特徴とする請求項4に記載の撮影画像投影装置。
The lens control unit
A light output unit that outputs light for distance measurement;
A distance sensor that measures a distance between the lens and the document based on light reflected from the document by the light output from the light output unit;
The area acquisition unit is configured to control a distance between the lens and the document measured by the distance sensor when the document image is formed on the image forming unit under the control of the lens control unit. A distance between the lens and the imaging unit is determined based on a focal length;
The photographed image projection apparatus according to claim 4, wherein:
前記レンズ制御部は、前記レンズと前記画像形成部との間の距離が予め設定されて、前記画像形成部上に形成された前記原稿画像のコントラストが最大となるように前記レンズの位置を制御するパッシブ方式のものであって、
前記面積取得部は、前記原稿画像のコントラストが最大となったときに前記レンズ制御部から出力された前記レンズと前記結像部との間の距離と、前記レンズの焦点距離と、に基づいて前記レンズと前記原稿との間の距離を求める、
ことを特徴とする請求項4に記載の撮影画像投影装置。
The lens control unit controls the position of the lens so that the distance between the lens and the image forming unit is preset and the contrast of the document image formed on the image forming unit is maximized. Passive type
The area acquisition unit is based on the distance between the lens and the imaging unit output from the lens control unit when the contrast of the document image is maximized, and the focal length of the lens. Obtaining a distance between the lens and the document;
The photographed image projection apparatus according to claim 4, wherein:
撮影した原稿の画像をスクリーンに投影する撮影画像投影装置の画像処理方法であって、
複数の形状を有する前記原稿画像から前記原稿画像候補の輪郭を取得し、取得した輪郭で囲まれた前記形状及びその頂点位置を取得するステップと、
前記取得した前記形状の面積を求めるステップと、
前記求めた面積と予め指定された原稿サイズの面積とを比較して、前記求めた面積のうち、前記指定された原稿サイズの面積と最も近い面積を有する形状を前記原稿画像の形状として選択するステップと、
前記選択した前記原稿画像の形状と実際の原稿の形状とを対応させて、前記取得した前記原稿画像の頂点位置から、前記原稿画像と実際の原稿との関係を示す射影パラメータを求めるステップと、
前記求めた射影パラメータを用いて前記原稿画像の画像変換を行うステップと、を備えた、
ことを特徴とする撮影画像投影装置の画像処理方法。
An image processing method of a photographic image projection apparatus for projecting a photographed document image on a screen,
Obtaining a contour of the document image candidate from the document image having a plurality of shapes, obtaining the shape surrounded by the obtained contour and its vertex position;
Obtaining an area of the acquired shape;
By comparing the area of pre-specified document size and the obtained area of the obtained area, selecting the shape having the closest area to the area of the designated document size as the shape of the original image Steps,
Associating the shape of the selected document image with the shape of the actual document, and obtaining a projection parameter indicating the relationship between the document image and the actual document from the vertex position of the acquired document image;
Performing image conversion of the document image using the obtained projection parameter,
An image processing method of a photographed image projecting apparatus characterized by the above.
コンピュータに、
撮影によって得られた複数の形状を有する原稿画像から前記原稿画像候補の輪郭を取得し、取得した輪郭で囲まれた前記形状及びその頂点位置を取得する手順、
前記取得した前記形状の面積を求める手順、
前記求めた面積と予め指定された原稿サイズの面積とを比較して、前記求めた面積のうち、前記指定された原稿サイズの面積と最も近い面積を有する形状を前記原稿画像の形状として選択する手順、
前記選択した前記原稿画像の形状と実際の原稿の形状とを対応させて、前記取得した前記原稿画像の頂点位置から、前記原稿画像と実際の原稿との関係を示す射影パラメータを求める手順、
前記求めた射影パラメータを用いて前記原稿画像の画像変換を行う手順、
を実行させるためのプログラム。
On the computer,
A procedure for acquiring the contour of the document image candidate from a document image having a plurality of shapes obtained by photographing, and acquiring the shape surrounded by the acquired contour and its vertex position;
A procedure for obtaining an area of the acquired shape;
By comparing the area of pre-specified document size and the obtained area of the obtained area, selecting the shape having the closest area to the area of the designated document size as the shape of the original image procedure,
A procedure for associating the shape of the selected original image with the actual original shape and obtaining a projection parameter indicating the relationship between the original image and the actual original from the vertex position of the acquired original image;
A procedure for performing image conversion of the document image using the obtained projection parameter;
A program for running
JP2003354421A 2003-10-14 2003-10-14 Captured image projection device, image processing method and program for captured image projection device Expired - Fee Related JP4363152B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003354421A JP4363152B2 (en) 2003-10-14 2003-10-14 Captured image projection device, image processing method and program for captured image projection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003354421A JP4363152B2 (en) 2003-10-14 2003-10-14 Captured image projection device, image processing method and program for captured image projection device

Publications (2)

Publication Number Publication Date
JP2005122326A JP2005122326A (en) 2005-05-12
JP4363152B2 true JP4363152B2 (en) 2009-11-11

Family

ID=34612336

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003354421A Expired - Fee Related JP4363152B2 (en) 2003-10-14 2003-10-14 Captured image projection device, image processing method and program for captured image projection device

Country Status (1)

Country Link
JP (1) JP4363152B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4341629B2 (en) * 2006-01-27 2009-10-07 カシオ計算機株式会社 Imaging apparatus, image processing method, and program
JP4893055B2 (en) * 2006-03-27 2012-03-07 カシオ計算機株式会社 Document camera and document camera image projection system
JP5233868B2 (en) * 2009-06-23 2013-07-10 株式会社リコー Image cutting device
US8345106B2 (en) * 2009-09-23 2013-01-01 Microsoft Corporation Camera-based scanning
JP5662896B2 (en) * 2011-08-03 2015-02-04 日本電信電話株式会社 Video stillness determination method, video stillness determination device, and program
JP6288522B2 (en) * 2015-05-27 2018-03-07 京セラドキュメントソリューションズ株式会社 Imaging apparatus and image forming apparatus
CN110017956A (en) * 2019-04-16 2019-07-16 中铁(贵州)市政工程有限公司 A kind of twin legged thin wall pier bracket precompressed test macro

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05153468A (en) * 1991-05-24 1993-06-18 Kyocera Corp Electronic still camera capable of size measurement and display
JPH05252352A (en) * 1992-03-06 1993-09-28 Fuji Xerox Co Ltd Method and device for reading out image
JPH05266161A (en) * 1992-03-18 1993-10-15 Meidensha Corp Device for correcting vector type data
JPH112859A (en) * 1997-06-12 1999-01-06 Minolta Co Ltd Camera
JP2000201293A (en) * 1999-01-05 2000-07-18 Minolta Co Ltd Image processor
JP2001014453A (en) * 1999-06-28 2001-01-19 Casio Comput Co Ltd Photographic image processor and storage medium
JP2001177716A (en) * 1999-12-17 2001-06-29 Ricoh Co Ltd Image processing method and image processor
JP4010754B2 (en) * 2000-08-10 2007-11-21 株式会社リコー Image processing apparatus, image processing method, and computer-readable recording medium
JP3878401B2 (en) * 2000-09-14 2007-02-07 シャープ株式会社 Image processing apparatus, image processing method, and recording medium recording the same
JP2003016437A (en) * 2001-06-29 2003-01-17 Ricoh Co Ltd Image input device
JP2003015218A (en) * 2001-07-03 2003-01-15 Ricoh Co Ltd Projection display device
JP2003283916A (en) * 2002-03-20 2003-10-03 Seiko Epson Corp Digital camera

Also Published As

Publication number Publication date
JP2005122326A (en) 2005-05-12

Similar Documents

Publication Publication Date Title
KR100682651B1 (en) Image processing device, image projection apparatus, image processing method, and recording medium for storing the related program
KR100610569B1 (en) Photographing device, image processor, image-processing method of photographing device
JP4363151B2 (en) Imaging apparatus, image processing method thereof, and program
US7643701B2 (en) Imaging apparatus for correcting a distortion of an image
US7001024B2 (en) Image input apparatus using projected light
JP4501701B2 (en) Image capturing apparatus, image processing method for image capturing apparatus, and program
JP4363152B2 (en) Captured image projection device, image processing method and program for captured image projection device
JP2005275447A (en) Image processing device, image processing method and program
JP4363154B2 (en) Imaging apparatus, image processing method thereof, and program
JP4238749B2 (en) Image processing apparatus, image projection apparatus, image processing method, and program
JP4600019B2 (en) Imaging apparatus, image processing method, and program
JP4561302B2 (en) Image capturing apparatus, image processing method for image capturing apparatus, and program
JP4225224B2 (en) Image processing apparatus, captured image projection apparatus, image processing method, and program
JP4524616B2 (en) Imaging apparatus, image processing method and program for captured image
WO2005022915A1 (en) Image capture and projection device and image capture and projection method
JP4363153B2 (en) Imaging apparatus, image processing method thereof, and program
JP2005122319A (en) Photographing device, its image processing method, and program
JP4591343B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP4305229B2 (en) Image processing apparatus, image projection apparatus, image processing method, and program
JP4314959B2 (en) Image capturing apparatus, method for determining object to be imaged in image capturing apparatus, and program
JP2007214857A (en) Photographing device, and photographed image processing method, and program
JP4225226B2 (en) Imaging apparatus, imaging control method for imaging apparatus, and program
JP2005260691A (en) Photographing apparatus, image acquisition method and program therefor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061002

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080801

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080805

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081003

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090421

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090618

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090728

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090810

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120828

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4363152

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120828

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130828

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees