JP2005267034A - Image input device - Google Patents

Image input device Download PDF

Info

Publication number
JP2005267034A
JP2005267034A JP2004076317A JP2004076317A JP2005267034A JP 2005267034 A JP2005267034 A JP 2005267034A JP 2004076317 A JP2004076317 A JP 2004076317A JP 2004076317 A JP2004076317 A JP 2004076317A JP 2005267034 A JP2005267034 A JP 2005267034A
Authority
JP
Japan
Prior art keywords
area
image data
image
document
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004076317A
Other languages
Japanese (ja)
Inventor
Toyoji Inoue
豊史 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2004076317A priority Critical patent/JP2005267034A/en
Publication of JP2005267034A publication Critical patent/JP2005267034A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image input device for controlling the input and input inhibition of position information corresponding to a position to be pointed by an indication member according to the height of the indication member, the indication member pointing an arbitrary position to an object whose image is imaged. <P>SOLUTION: The image data of an object are acquired by region units divided by the locus of the indication member, and the end position of an locus to be drawn by the indication member is recognized when the position of the indication member is the height of the predetermined position or more. Thus, the end position of one locus is recognized by lifting the indication member to the height of the predetermined position or more when an locus is inputted by the indication member. Thus, it is possible to easily recognize the end position of one locus, and to surely recognize the end position of one locus. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は画像入力装置に関し、特に、机上に配置された原稿に対し、所望の入力領域を容易かつ確実に指定し得る画像入力装置に関する。   The present invention relates to an image input apparatus, and more particularly to an image input apparatus that can easily and reliably specify a desired input area for a document placed on a desk.

従来より、机上に配置した原稿をその上方から撮像装置により撮像することによって、その原稿中の文字データや画像データを入力し得るデスクスタンド型の画像入力装置が存在している。例えば、特許文献1には、机の上方に設けられたビデオカメラ・プロジェクタ装置を備えている複写装置が記載されており、この複写装置は、机面上に配置された原文書をビデオカメラで撮影することにより、その原文書をイメージ情報として入力することができる一方で、その入力されたイメージ情報をプロジェクタにより机面上に投影することができる。   2. Description of the Related Art Conventionally, there is a desk stand type image input device that can input character data and image data in a document by imaging the document placed on the desk from above with an imaging device. For example, Patent Document 1 discloses a copying apparatus including a video camera / projector device provided above a desk. This copying apparatus uses a video camera to copy an original document placed on a desk surface. By taking an image, the original document can be input as image information, while the input image information can be projected onto a desk surface by a projector.

また、特許文献1には、その複写装置において、机面上に配置された原文書に含まれる所望の図形に対し、その図形の右上隅から左下隅へ指を動かす、又は、指で「投げ輪」を描くことをビデオカメラにより撮影して入力することにより、その図形領域を選択できることが記載されている。そのように選択された図形領域に指を置きながら、その指を、プロジェクタにより机上に投影されている編集中の文書における所望の位置まで移動させることにより、その選択された図形領域のイメージを編集中の文書に貼り付けることができることが記載されている。   In Patent Document 1, in the copying apparatus, a desired figure included in an original document placed on a desk surface is moved from the upper right corner to the lower left corner of the figure, It is described that the figure region can be selected by photographing and inputting drawing of a “circle” with a video camera. Edit the image of the selected graphic area by placing the finger on the selected graphic area and moving the finger to the desired position in the document being edited projected on the desk by the projector. It is described that it can be pasted into a document inside.

なお、この特許文献1に記載される複写装置では、上記のような指による図形領域の選択や貼り付けなどの各操作における操作完了の指示は、ユーザが机を軽く叩くことによって行われる。具体的には、特許文献1に記載される複写装置には、机の下側に小型スネアドラム型マイクロフォンが取り付けられており、机を叩くことにより生じた振動信号又は音声を、その小型スネアドラム型マイクロフォンでピックアップし、その振動信号又は音声を信号処理装置により閾値と比較し、閾値を超えていれば操作完了の指示とみなす。
特開平7−168949号公報
In the copying apparatus described in Patent Document 1, an operation completion instruction in each operation such as selection and pasting of a graphic area with a finger as described above is performed by a user tapping a desk. Specifically, in the copying apparatus described in Patent Document 1, a small snare drum type microphone is attached to the lower side of a desk, and a vibration signal or sound generated by hitting the desk is transmitted to the small snare drum. The signal is picked up by a type microphone, and the vibration signal or sound is compared with a threshold value by a signal processing device.
Japanese Unexamined Patent Publication No. 7-168949

しかしながら、特許文献1に記載される複写装置では、机の下に設けられた小型スネアドラム型マイクロフォンによりピックアップされた振動信号又は音声を、図形領域の選択の操作完了の指示として認識するので、操作完了の指示とは無関係に生じた雑音、例えば、腕が机に当たったりした際に生じた振動信号を操作完了の指示であると誤認識してしまうという問題点があった。   However, the copying apparatus described in Patent Document 1 recognizes a vibration signal or sound picked up by a small snare drum type microphone provided under the desk as an instruction to complete the operation for selecting the graphic area. There is a problem that noise generated regardless of the completion instruction, for example, a vibration signal generated when the arm hits the desk is erroneously recognized as the operation completion instruction.

本発明は、上述した問題点を解決するためになされたものであり、撮像される対象物に対して任意の位置を指し示す指示部材の位置、特に、その高さを検出することにより、その高さに応じて、その指示部材の指し示す位置に対応する位置情報の入力及び入力禁止が制御され、それによって、例えば、その指示部材により対象物を複数領域に区切る境界線を描いた際に、その指示部材を所定の高さ以上に持ち上げることを、その境界線の描画終了とみなすことのできる画像入力装置を提供することを目的としている。   The present invention has been made to solve the above-described problems, and by detecting the position of the pointing member pointing to an arbitrary position with respect to the object to be imaged, in particular, the height thereof, the height of the pointing member is detected. Accordingly, the input and prohibition of input of position information corresponding to the position indicated by the pointing member is controlled, so that, for example, when a boundary line that divides the object into a plurality of regions is drawn by the pointing member, It is an object of the present invention to provide an image input device that can be regarded as the end of drawing of the boundary line by lifting the pointing member to a predetermined height or more.

この目的を達成するために、請求項1記載の画像入力装置は、平面上の所定領域に存在する対象物を撮像可能な撮像手段と、その撮像手段により撮像された前記対象物の撮像を画像データとして取得する画像データ取得手段と、前記対象物に対して任意の位置を指し示す指示部材の前記対象物に対する位置を検出する指示部材位置検出手段と、その指示部材位置検出手段により前記指示部材の高さと前記対象物の高さとの差が所定値より小さいと検出された場合に、前記指示部材により指し示された対象物の位置に対応する位置情報を入力する位置情報入力手段と、前記指示部材位置検出手段により前記指示部材の高さと前記対象物の高さとの差が所定値より大きいと検出された場合に、前記位置情報入力手段による位置情報の入力を禁止する位置情報入力禁止手段と、前記位置情報入力手段による前記指示部材の位置情報の入力が開始されると、前記位置情報入力禁止手段により前記位置情報の入力が禁止されるまで移動する前記指示部材により指し示された軌跡に応じて、前記対象物を複数の領域に区分する領域区分手段とを備え、前記画像データ取得手段は、前記領域区分手段により区分された領域単位で画像データを取得し得るものである。   In order to achieve this object, an image input apparatus according to claim 1 is an image capturing unit capable of capturing an image of an object existing in a predetermined area on a plane, and an image of the object imaged by the image capturing unit. Image data acquisition means acquired as data, indication member position detection means for detecting the position of the indication member pointing to an arbitrary position with respect to the object relative to the object, and the indication member position detection means, Position information input means for inputting position information corresponding to the position of the object pointed to by the pointing member when it is detected that the difference between the height and the height of the object is smaller than a predetermined value; When the position detection means detects that the difference between the height of the pointing member and the height of the object is greater than a predetermined value, the position information input means prohibits the input of position information. When the position information input prohibiting unit and the position information input unit start inputting the position information of the pointing member, the pointing member moves until the position information input prohibiting unit prohibits the input of the position information. Area classification means for dividing the object into a plurality of areas according to the indicated locus, and the image data acquisition means can acquire image data in units of areas divided by the area classification means. Is.

この請求項1記載の画像入力装置によれば、撮像手段により撮像された平面上の所定領域にある対象物が撮像され、その撮像が画像データとして画像データ取得手段により取得される。一方で、該対象物に対して任意の位置を指し示す指示部材の位置が指示部材位置検出手段により検出される。その際、指示部材の高さと該対象物との高さとの差が所定値より小さいと検出された場合には、位置情報入力手段により該指示部材が指し示す対象物の位置に対応する位置情報が入力されるが、指示部材のの高さと該対象物との高さとの差が所定値より大きいと検出されると、位置情報入力禁止手段により該位置情報の入力が禁止される。該位置情報入力手段による該指示部材の位置情報の入力が開始されてから、該位置情報入力禁止手段による該位置情報の入力が禁止されるまで移動する該指示部材により指し示された軌跡に応じて、領域区分手段により該対象物が複数の領域に区分される。領域区分手段により該対象物が複数の領域に区分されると、該画像データ取得手段により、その区分された領域単位での画像データが取得される。   According to the image input device of the first aspect, the object in the predetermined area on the plane imaged by the imaging unit is imaged, and the imaging is acquired as image data by the image data acquiring unit. On the other hand, the position of the pointing member indicating an arbitrary position with respect to the object is detected by the pointing member position detecting means. At this time, if it is detected that the difference between the height of the pointing member and the height of the object is smaller than a predetermined value, the position information corresponding to the position of the object pointed to by the pointing member by the position information input means Although it is input, if it is detected that the difference between the height of the pointing member and the height of the object is greater than a predetermined value, the position information input prohibiting means prohibits the input of the position information. In response to the locus indicated by the pointing member that moves until the position information input prohibiting unit prohibits the input of the position information after the position information input unit starts to input the position information of the pointing member. Thus, the object is divided into a plurality of areas by the area dividing means. When the object is divided into a plurality of areas by the area dividing means, the image data acquisition means acquires image data in units of the divided areas.

請求項2記載の画像入力装置は、請求項1記載の画像入力装置において、前記指示部材は棒状先端部を有するものであり、前記指示部材位置検出手段は、前記棒状先端部の位置を検出するものである。   According to a second aspect of the present invention, in the image input device according to the first aspect, the indicating member has a rod-shaped tip, and the pointing member position detecting means detects the position of the rod-shaped tip. Is.

請求項3記載の画像入力装置は、請求項1又は2記載の画像入力装置において、前記撮像手段により撮像される前記対象物に焦点が合うように焦点を調整する焦点調整手段と、その焦点調整手段により前記対象物に合うように調整されている焦点に対する、前記指示部材の焦点度を計測する焦点度計測手段とを備え、前記指示部材位置検出手段は、前記焦点度計測手段により計測された焦点度と所定の閾値とを比較することにより、前記指示部材の高さを判定するものである。   The image input device according to claim 3 is the image input device according to claim 1 or 2, wherein the focus adjustment unit adjusts the focus so that the object imaged by the imaging unit is in focus, and the focus adjustment thereof. A focus degree measuring means for measuring a focus degree of the pointing member with respect to a focus adjusted to fit the object by the means, and the pointing member position detecting means is measured by the focus degree measuring means. The height of the indicating member is determined by comparing the degree of focus with a predetermined threshold value.

この請求項3記載の画像入力装置によれば、請求項1又は2記載の画像入力装置と同様に作用する上、焦点調整手段により対象物に合うように調整された焦点に対する指示部材の焦点度が焦点度計測手段により計測される。指示部材位置検出手段では、該焦点度計測手段により計測された焦点度が所定の閾値とを比較することにより、該指示部材の高さが判定される。   According to the image input apparatus of the third aspect, the focal point of the pointing member with respect to the focal point adjusted to be suitable for the object by the focal point adjusting means is the same as that of the image input apparatus according to the first or second aspect. Is measured by the focus degree measuring means. The pointing member position detecting means determines the height of the pointing member by comparing the focus degree measured by the focus degree measuring means with a predetermined threshold value.

請求項4記載の画像入力装置は、請求項1から3のいずれかに記載の画像入力装置において、前記領域区分手段は、前記軌跡の形状に基づいて、閉じられた線により囲まれた領域、及び/又は、前記対象物を横切る線とその対象物の輪郭により囲まれた領域に、前記対象物を区分するものである。   The image input device according to claim 4 is the image input device according to any one of claims 1 to 3, wherein the region segmenting means is a region surrounded by a closed line based on the shape of the trajectory, And / or the object is divided into a region surrounded by a line crossing the object and the outline of the object.

請求項5記載の画像入力装置は、請求項1から4のいずれかに記載の画像入力装置において、前記領域区分手段により領域が区分された後、前記位置情報入力手段により、前記指示部材が前記区分された領域の中の1の領域内を指し示していることを示す位置情報が入力された場合に、その1の領域を指定する領域指定手段を備え、前記画像データ取得手段は、前記領域指定手段により1の領域が指定されると、その領域指定手段により指定された領域部分の画像データを取得するものである。   The image input device according to claim 5 is the image input device according to any one of claims 1 to 4, wherein after the region is partitioned by the region partitioning unit, the pointing member is When position information indicating that one of the divided areas is pointed in is input, the image data acquisition means includes the area specifying means for specifying the one area. When one area is designated by the means, the image data of the area portion designated by the area designation means is acquired.

この請求項5記載の画像入力装置によれば、請求項1から4のいずれかに記載の画像入力装置と同様に作用する上、前記位置情報入力手段により、前記指示部材が前記区分された領域の中の1の領域内を指し示していることを示す位置情報が入力されると、その指し示された1の領域が領域指定手段により指定される。そして、指定された領域部分の画像データが画像データ取得手段により取得される。   According to the image input device according to claim 5, in addition to acting in the same manner as the image input device according to any one of claims 1 to 4, the area where the indication member is divided by the position information input means. When position information indicating that it is pointing within one area is input, the designated one area is designated by the area designating means. Then, the image data of the designated area is acquired by the image data acquisition means.

請求項6記載の画像入力装置は、請求項5記載の画像入力装置において、前記領域指定手段により指定された領域に対応する画像データが前記画像データ取得手段により取得されると、その取得された画像データの画像ファイルを作成するファイル化手段を備えている。   The image input device according to claim 6 is the image input device according to claim 5, wherein when the image data corresponding to the region specified by the region specifying unit is acquired by the image data acquiring unit, the acquired image data is acquired. A filing means for creating an image file of image data is provided.

この請求項6記載の画像入力装置によれば、請求項5記載の画像入力装置と同様に作用する上、前記領域指定手段により指定された領域に対応する画像データの画像ファイルがファイル化手段により作成される。   According to the image input device of the sixth aspect, the image input device operates in the same manner as the image input device according to the fifth aspect, and the image file of the image data corresponding to the area specified by the area specifying means is filed by the file forming means. Created.

請求項7記載の画像入力装置は、請求項6記載の画像入力装置において、前記画像データ取得手段は、前記領域指定手段により領域が指定される毎にその指定された領域に対応する画像データを取得するものであり、前記ファイル化手段は、前記画像データ取得手段により取得された画像データ毎に別々の画像ファイルを作成するものである。   According to a seventh aspect of the present invention, in the image input device according to the sixth aspect, the image data acquisition means obtains image data corresponding to the designated area every time the area is designated by the area designation means. The filing means creates a separate image file for each image data obtained by the image data obtaining means.

この請求項7記載の画像入力装置によれば、請求項6記載の画像入力装置と同様に作用する上、前記領域指定手段により領域が指定される毎に、その指定された領域に対応する画像データの画像ファイルがファイル化手段により作成される。   According to the image input apparatus of the seventh aspect, the image input apparatus operates in the same manner as the image input apparatus according to the sixth aspect, and each time an area is specified by the area specifying means, an image corresponding to the specified area An image file of data is created by the filing means.

請求項8記載の画像入力装置は、請求項1から7のいずれかに記載の画像入力装置において、前記対象物を固定する固定物を検出する固定物検出手段を備え、その固定物検出手段により固定物が検出された場合に、前記指示部材位置検出手段による指示部材の位置の検出が実行される。   The image input device according to claim 8 is the image input device according to any one of claims 1 to 7, further comprising a fixed object detection unit that detects a fixed object that fixes the object, and the fixed object detection unit When a fixed object is detected, the position of the pointing member is detected by the pointing member position detecting means.

この請求項8記載の画像入力装置によれば、請求項1から7のいずれかに記載の画像入力装置と同様に作用する上、固定物検出手段により対象物を固定する固定物が検出されると、指示部材の位置の検出が指示部材位置検出手段により実行される。   According to the image input device according to the eighth aspect, the fixed object for detecting the fixed object is detected by the fixed object detecting means in addition to the same operation as the image input apparatus according to any one of the first to seventh aspects. Then, the position of the pointing member is detected by the pointing member position detecting means.

請求項9記載の画像入力装置は、請求項1から8のいずれかに記載の画像入力装置において、前記領域区分手段により区分された各領域の境界を示す像を、前記対象物に対して投影する境界投影手段と、その境界投影手段により境界の示された各領域に、それらの領域をそれぞれ特定する識別子を示す像を重ねて投影する識別子投影手段とを備えている。   The image input device according to claim 9, wherein the image input device according to any one of claims 1 to 8 projects an image showing a boundary of each region divided by the region dividing unit onto the object. Boundary projecting means, and identifier projecting means for projecting an image indicating an identifier for identifying each of the areas on each area indicated by the boundary projecting means.

この請求項9記載の画像入力装置によれば、請求項1から8のいずれかに記載の画像入力装置と同様に作用する上、対象物に対し、領域区分領域により区分された境界を示す像が境界投影手段により投影されると共に、各領域を特定する識別子を示す識別子が識別子投影手段により投影される。   According to the image input device according to claim 9, the image input device operates in the same manner as the image input device according to any one of claims 1 to 8, and also shows an image indicating a boundary partitioned by the region partition region with respect to the object. Is projected by the boundary projecting means, and an identifier indicating an identifier for specifying each region is projected by the identifier projecting means.

請求項10記載の画像入力装置は、請求項9記載の画像入力装置において、前記画像データ取得手段が前記領域区分手段により区分された領域単位で画像データを取得した場合に、その画像データ取得手段に画像データの取得がなされた領域に対して、画像データが未取得である領域と区別可能な像を、前記境界投影手段により境界の示された各領域に重ねて投影する模様投影手段を備えている。   The image input device according to claim 10 is the image input device according to claim 9, wherein when the image data acquisition means acquires image data in units of areas divided by the area classification means, the image data acquisition means Pattern projection means for projecting an image distinguishable from an area for which image data has not been acquired on each area indicated by the boundary by the boundary projection means with respect to the area for which image data has been acquired. ing.

この請求項10記載の画像入力装置によれば、請求項9記載の画像入力装置と同様に作用する上、区分された各領域の画像データの取得がされると、その領域に対し、境界投影手段により投影される各領域の境界と共に、画像データが未取得である他の領域と区別可能な像が模様投影手段により投影され、それによって、画像データ取得済みの領域と未取得の領域との区別が可能となる。   According to the image input device of the tenth aspect, the image input device operates in the same manner as the image input device according to the ninth aspect, and when the image data of each divided area is acquired, boundary projection is performed on the area. An image that can be distinguished from other areas for which image data has not been acquired is projected by the pattern projection means together with the boundaries between the areas projected by the means, whereby the image data acquired area and the unacquired area A distinction is possible.

請求項11記載の画像入力装置は、請求項1から10のいずれかに記載の画像入力装置において、所定の操作を実行するタイミングに応じて、その操作に対する補助メッセージを投影するメッセージ投影手段を備えている。   The image input device according to claim 11 is the image input device according to any one of claims 1 to 10, further comprising a message projecting unit that projects an auxiliary message for the operation in accordance with a timing at which the predetermined operation is performed. ing.

請求項12記載の画像入力装置は、請求項1から11のいずれかに記載の画像入力装置において、所定の操作を実行するタイミングに応じて、所定の形状を有する像を投影する操作ボタン投影手段を備え、前記位置情報入力手段により、前記指示部材が前記操作ボタン投影手段により投影された像の領域内を指し示していることを示す位置情報が入力されると、前記所定の操作を実行する。   An image input device according to claim 12 is the operation button projecting means for projecting an image having a predetermined shape in accordance with the timing for executing the predetermined operation in the image input device according to any one of claims 1 to 11. The position information input means executes the predetermined operation when position information indicating that the pointing member points within the area of the image projected by the operation button projection means is input.

この請求項12記載の画像入力装置によれば、請求項1から11のいずれかに記載の画像入力装置と同様に作用する上、所定の操作を実行するタイミングに応じて、操作ボタン投影手段により所定の形状の像が投影される。そして、位置情報入力手段により、指示部材がその所定の形状の像の領域を指し示していることを示す位置情報が入力されると、その投影された操作ボタンに応じた所定の操作が実行される。   According to the image input device of the twelfth aspect, in addition to the same operation as the image input device according to any one of the first to eleventh aspects, the operation button projecting unit performs the predetermined operation according to the timing of executing the predetermined operation. An image having a predetermined shape is projected. When the position information indicating that the pointing member points to the area of the image having the predetermined shape is input by the position information input unit, a predetermined operation corresponding to the projected operation button is executed. .

請求項1記載の画像入力装置によれば、指示部材の軌跡により区分された領域単位で対象物の画像データを取得することができ、また、指示部材によって描かれる軌跡の終了位置は、指示部材の位置が所定位置の高さ以上である場合に認識される。よって、指示部材を対象物に近づけて所定位置より低い位置に置き、所定位置より低い位置に保って軌跡を描いた後、最後に、指示部材を所定位置の高さ以上に持ち上げることにより、対象物における所望の領域の画像データを取得することができる。指示部材を所定位置の高さ以上に持ち上げることによって軌跡の終了位置が認識されるので、簡単に終了位置が認識し得るだけでなく、確実に終了位置を認識し得るという効果がある。   According to the image input device of the first aspect, the image data of the object can be acquired in units of regions divided by the locus of the pointing member, and the end position of the locus drawn by the pointing member is Is recognized when the position is equal to or higher than the height of the predetermined position. Therefore, after placing the pointing member close to the target object at a position lower than the predetermined position, keeping the position lower than the predetermined position and drawing the trajectory, finally lifting the pointing member above the predetermined position to Image data of a desired region in the object can be acquired. Since the end position of the trajectory is recognized by lifting the indicating member above the predetermined position, not only the end position can be easily recognized, but also the end position can be surely recognized.

請求項2記載の画像入力装置によれば、請求項1記載の画像入力装置の奏する効果に加えて、指示部材位置検出手段は、指示部材の棒状先端部の位置を検出するので、その指示部材の指し示す位置をより明確に検出することができる。よって、所望の領域を正確に区分し、画像データとして取得し得るという効果がある。   According to the image input device of the second aspect, in addition to the effect produced by the image input device according to the first aspect, the pointing member position detecting means detects the position of the bar-shaped tip of the pointing member. The position indicated by can be detected more clearly. Therefore, there is an effect that a desired area can be accurately divided and acquired as image data.

請求項3記載の画像入力装置によれば、請求項1又は2記載の画像入力装置の奏する効果に加えて、指示部材位置検出手段における指示部材の位置の検出は、対象物に合うように調整された焦点に対する指示部材の焦点度(指示部材に対する焦点(ピント)の合っている度合い)を所定の閾値と比較することにより行なわれるので、指示部材の対象物に対する位置として、対象物に対する高さを検出することができる。よって、指示部材を対象物に近づけて、軌跡を描き、そして、指示部材を対象物に対して上方に持ち上げるという単純な動作であっても、その軌跡の入力開始位置及び入力終了位置を識別し得るという効果がある。従って、より簡単且つ確実に、対象物における所望の領域の境界線を入力することができる。   According to the image input device of the third aspect, in addition to the effect produced by the image input device according to the first or second aspect, the detection of the position of the pointing member in the pointing member position detecting means is adjusted so as to match the object. Since the degree of focus of the pointing member with respect to the focused point (the degree of focus on the pointing member) is compared with a predetermined threshold, the height of the pointing member with respect to the target is determined as the position of the pointing member with respect to the target. Can be detected. Therefore, even if it is a simple operation of bringing the pointing member close to the object, drawing a locus, and lifting the pointing member upward with respect to the object, the input start position and input end position of the locus are identified. There is an effect of obtaining. Therefore, it is possible to input a boundary line of a desired region in the object more easily and reliably.

請求項4記載の画像入力装置によれば、請求項1から3のいずれかに記載の画像入力装置の奏する効果に加えて、指示部材により描かれる軌跡の形状に基づいて、閉じられた線により囲まれた領域、及び/又は、該対象物を横切る線とその対象物の輪郭により囲まれた領域に、該対象物を区分することができるので、例えば、画像データを取得したい所望の領域を指示部材により描かれた軌跡により囲む、及び/又は、対象物を横切る軌跡を指示部材により描くことにより、所望の形状の画像データを取得することができるという効果がある。   According to the image input device of the fourth aspect, in addition to the effect produced by the image input device according to any one of the first to third aspects, the closed line is used based on the shape of the locus drawn by the pointing member. Since the object can be divided into an enclosed area and / or an area surrounded by a line crossing the object and the outline of the object, for example, a desired area from which image data is to be acquired can be obtained. There is an effect that image data having a desired shape can be obtained by surrounding the object with a locus drawn by the pointing member and / or drawing a locus traversing the object with the pointing member.

請求項5記載の画像入力装置によれば、請求項1から4のいずれかに記載の画像入力装置の奏する効果に加えて、指示部材が領域区分手段により区分された領域の中の1の領域内を指し示していることを示す位置情報が位置情報入力手段により入力されると、その指示部材により指し示された領域の画像データが取得されるので、画像データの取得を所望する領域に対して指示部材を近づけて指し示すことにより、その所望の領域の画像データを取得することができる。よって、簡単な操作によって所望の領域の画像データを取得し得るという効果がある。   According to the image input device of the fifth aspect, in addition to the effect produced by the image input device according to any one of the first to fourth aspects, one region among the regions where the pointing member is divided by the region dividing means When position information indicating that the inside is pointed in is input by the position information input means, the image data of the area pointed to by the pointing member is acquired. By pointing the pointing member closer, image data of the desired area can be acquired. Therefore, there is an effect that image data of a desired area can be acquired by a simple operation.

請求項6記載の画像入力装置によれば、請求項5記載の画像入力装置の奏する効果に加えて、領域指定手段により指定された領域に対応する画像データの画像ファイルが作成されるので、対象物における所望の領域の画像ファイルを容易に作成し得、その画像ファイルを所望の用途(例えば、書類の作成)に利用できるという効果がある。   According to the image input device of the sixth aspect, in addition to the effect produced by the image input device according to the fifth aspect, the image file of the image data corresponding to the area designated by the area designation means is created. There is an effect that an image file of a desired region in an object can be easily created, and the image file can be used for a desired application (for example, creation of a document).

請求項7記載の画像入力手段によれば、請求項6記載の画像入力装置の奏する効果に加えて、領域指定手段により領域が指定される毎に、その指定された領域に対応する画像データの画像ファイル作成されるので、1の対象物を複数に分割した画像ファイルを効率的に作成することができるという効果がある。   According to the image input means described in claim 7, in addition to the effect produced by the image input device according to claim 6, every time an area is specified by the area specifying means, the image data corresponding to the specified area is stored. Since the image file is created, there is an effect that an image file obtained by dividing one target object into a plurality of objects can be efficiently created.

請求項8記載の画像入力装置によれば、請求項1から7のいずれかに記載の画像入力装置の奏する効果に加えて、対象物を固定する固定物が検出されると、指示部材の位置の検出が実行されるので、例えば、固定物が検出されない場合において、指示部材が撮像領域内を移動したとしても無駄な検出を行なわないで済むという効果がある。   According to the image input device according to claim 8, in addition to the effect produced by the image input device according to any one of claims 1 to 7, the position of the pointing member is detected when a fixed object that fixes the object is detected. Therefore, for example, when a fixed object is not detected, there is an effect that it is not necessary to perform useless detection even if the pointing member moves within the imaging region.

請求項9記載の画像入力装置によれば、請求項1から8のいずれかに記載の画像入力装置の奏する効果に加えて、対象物に対し、領域区分領域により区分された境界を示す像が境界投影手段により投影されると共に、各領域を特定する識別子を示す識別子が識別子投影手段により投影されるので、区分された各領域を容易に識別し得るという効果がある。   According to the image input device of the ninth aspect, in addition to the effect produced by the image input device according to any one of the first to eighth aspects, an image showing the boundary divided by the region division region with respect to the object. Since the identifier is projected by the boundary projection unit and the identifier indicating the identifier for specifying each region is projected by the identifier projection unit, each divided region can be easily identified.

請求項10記載の画像入力装置によれば、請求項9記載の画像入力手段の奏する効果に加えて、画像データを既に取得した領域に対し、未取得の領域との区別可能な像が投影されるので、区分された各領域の画像データが既に取得済みであるか否かを一目瞭然に見分けることができる。よって、既に取得済みの領域の画像データを重複して取得したり、所望の領域の画像データを取得し損ねるなどの作業の無駄が抑制され、画像データの入力作業を効率的に行ない得るという効果がある。   According to the image input device of the tenth aspect, in addition to the effect produced by the image input means according to the ninth aspect, an image that can be distinguished from an unacquired area is projected onto an area where image data has already been acquired. Therefore, it can be recognized at a glance whether or not the image data of each divided area has already been acquired. Therefore, it is possible to efficiently perform image data input operations by suppressing wasteful operations such as redundantly acquiring image data of already acquired regions or failing to acquire image data of desired regions. There is.

請求項11記載の画像入力装置によれば、請求項1から10のいずれかに記載の画像入力装置の奏する効果に加えて、所定の操作を実行するタイミングに応じて、その操作に対する補助メッセージが投影されるので、操作を効率的に実行し得る上、操作ミスを抑制し得るという効果がある。   According to the image input device of the eleventh aspect, in addition to the effect produced by the image input device according to any one of the first to tenth aspects, an auxiliary message for the operation is displayed according to the timing of executing the predetermined operation. Since the projection is performed, the operation can be executed efficiently, and an operation error can be suppressed.

請求項12記載の画像入力装置によれば、請求項1から11のいずれかに記載の画像入力装置の奏する効果に加えて、指示部材が所定の操作を実行するタイミングに応じて投影される操作ボタンを指し示していることを示す位置情報が位置情報入力手段により入力されると、その投影された操作ボタンに応じた所定の操作が実行されるので、各種操作を容易に行ない得るという効果がある。   According to the image input device of claim 12, in addition to the effect produced by the image input device according to any one of claims 1 to 11, the operation projected according to the timing at which the instruction member performs a predetermined operation When position information indicating that the button is pointed is input by the position information input means, a predetermined operation corresponding to the projected operation button is executed, so that various operations can be easily performed. .

以下、本発明の好ましい実施例について、添付図面を参照して説明する。図1は、本発明の画像入力装置である撮像装置100による撮像の様子を概略的に示す図である。図1に示すように、撮像装置100の外観は、本体ケース10と、この本体ケース10を机などの平面台400の上方に配置するための支持アーム12と、撮像部20と、投光部30とから構成され、平面台400上の撮像領域300内に配置された原稿200のような撮像対象物をその直上から撮像部20により撮像し、その撮像の画像データを入力するものである。投光部30は、平面台400上に、撮像部20による撮像が可能な領域(撮像領域)300の枠301や、各種メッセージ、各種操作ボタンや、投影用画像などを投影する。なお、「投影用画像」とは、後述する処理に従って区分された原稿200の各領域(分割領域)の境界線302や各領域を識別するための識別子などの原稿200を区分するための画像を意味する。なお、支持アーム12における本体ケース10と連結されていない側は、非図示のクリップ又は固定台に連結されており、撮像装置100は、クリップを用いてパーソナルコンピュータの薄型ディスプレイやデスクスタンドなどに固定されるクリップ式、又は、固定台を脚部とするデスクスタンド型として使用される。   Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings. FIG. 1 is a diagram schematically showing a state of imaging by an imaging device 100 which is an image input device of the present invention. As shown in FIG. 1, the external appearance of the imaging device 100 is as follows: a main body case 10, a support arm 12 for arranging the main body case 10 above a flat table 400 such as a desk, an imaging unit 20, and a light projecting unit. 30, and an imaging target object such as a document 200 arranged in the imaging area 300 on the plane table 400 is imaged by the imaging unit 20 from directly above, and image data of the imaging is input. The light projecting unit 30 projects a frame 301 of an area (imaging area) 300 that can be imaged by the imaging unit 20, various messages, various operation buttons, a projection image, and the like on the flat table 400. Note that the “projection image” refers to an image for segmenting the document 200 such as a boundary 302 of each region (divided region) divided according to the processing described later and an identifier for identifying each region. means. Note that the side of the support arm 12 not connected to the main body case 10 is connected to a clip or a fixing base (not shown), and the imaging device 100 is fixed to a thin display or a desk stand of a personal computer using the clip. Used as a clip type or a desk stand type with a fixed base as a leg.

次に、図2を参照して、撮像装置100における撮像部20及び投光部30の構成について説明する。図2は、撮像装置100における撮像部20及び投光部30の主要な構成を説明する断面図である。なお、図面を簡略化するために、図2には撮像部20及び投光部30における主要な部材の配置のみを示し、これらの各部材を収容するケースや各部材の電気的配線などは省略している。図2に示すように、撮像部20は、平面台400に向けられた結像レンズ22とその結像レンズ22の後方(撮像装置100の内部側)に設けられたCCD画像センサ24とを備えている。   Next, the configuration of the imaging unit 20 and the light projecting unit 30 in the imaging apparatus 100 will be described with reference to FIG. FIG. 2 is a cross-sectional view illustrating main configurations of the imaging unit 20 and the light projecting unit 30 in the imaging apparatus 100. For simplification of the drawing, FIG. 2 shows only the arrangement of main members in the imaging unit 20 and the light projecting unit 30, and the case for housing these members and the electrical wiring of each member are omitted. doing. As shown in FIG. 2, the imaging unit 20 includes an imaging lens 22 that is directed to the plane table 400 and a CCD image sensor 24 that is provided behind the imaging lens 22 (inside the imaging device 100). ing.

結像レンズ22は、複数枚のレンズで構成され、オートフォーカス機能を有し、自動で焦点距離及び絞りを調整して外部からの光をCCD画像センサ24上に結像する。   The imaging lens 22 is composed of a plurality of lenses, has an autofocus function, and automatically adjusts the focal length and aperture to form an image of light from the outside on the CCD image sensor 24.

CCD画像センサ24は、CCD(Charge Coupled Device)素子などの光電変換素子がマトリクス状に配列されてなる構成で、その表面に結像される画像の光の色及び強さに応じた信号を生成し、これをデジタルデータに変換して撮像装置100全体を制御するプロセッサ(後述するプロセッサ40)へ出力する。なお、撮像全体の画像データはCCD素子の数に等しい数の画素の画素データから構成されている。ここで、1つのCCD素子が1画素に対応し、1画素あたり、赤(R)、緑(G)、青(B)の3色、各256階調の輝度で表される画素データを有している。   The CCD image sensor 24 has a configuration in which photoelectric conversion elements such as CCD (Charge Coupled Device) elements are arranged in a matrix, and generates a signal corresponding to the color and intensity of light of an image formed on the surface thereof. Then, this is converted into digital data and output to a processor (processor 40 to be described later) that controls the entire imaging apparatus 100. Note that the image data of the entire imaging is composed of pixel data of a number of pixels equal to the number of CCD elements. Here, one CCD element corresponds to one pixel, and each pixel has pixel data represented by three colors of red (R), green (G), and blue (B) and 256 levels of luminance. doing.

一方、投光部30は、図2に示すように、撮像装置100の内側から外側へ向かう順で、光源部32と、光源部32から投射される光を集光する集光レンズ34と、液晶パネル36と、投射レンズ38とを備えている。   On the other hand, as shown in FIG. 2, the light projecting unit 30 includes a light source unit 32 and a condensing lens 34 that collects light projected from the light source unit 32 in the order from the inner side to the outer side of the imaging device 100. A liquid crystal panel 36 and a projection lens 38 are provided.

光源部32は、白色光を発光するハロゲンランプや白色LED(Light Emitting Diode)などの光源32aと集光レンズ34に向けられた反射板32bとから構成され、光源32aから発せられた白色光を反射板32bを用いて効率的に集光レンズ34へ入光する。   The light source unit 32 includes a light source 32a such as a halogen lamp that emits white light or a white LED (Light Emitting Diode), and a reflection plate 32b that is directed to the condenser lens 34. The light source 32 emits white light emitted from the light source 32a. The light enters the condenser lens 34 efficiently using the reflector 32b.

集光レンズ34は、光源部32から発せられた光を集光する光学レンズであり、例えば、フレネルレンズで構成できる。このフレネルレンズは、薄く平らなアクリル樹脂の板状シートに、同芯円状に全て角度の違うプリズムの山が一定間隔に施されている。そのプリズムの山が小さな屈曲面として作用し集光レンズ34として機能する。   The condensing lens 34 is an optical lens that condenses the light emitted from the light source unit 32, and can be constituted by, for example, a Fresnel lens. In this Fresnel lens, a thin and flat acrylic resin plate-like sheet is formed by concentric circles of prisms having different angles at regular intervals. The peak of the prism acts as a small bent surface and functions as a condenser lens 34.

液晶パネル36は、2枚のガラス板の間に液晶を封入し、電圧をかけることによって液晶分子の向きを変え、光の透過率を増減させることで、平面台400へ投影される画像(枠301や各種メッセージや各種ボタンや投影用画像)に対応する像を表示するものである。集光レンズ34から入光され、この液晶パネル36を透過した白色光は、液晶パネル36に形成された像に対応する画像(枠301や各種メッセージや各種操作ボタンや投影用画像(分割領域の境界線302など)など)として平面台400上に投影される。   The liquid crystal panel 36 encloses liquid crystal between two glass plates, changes the direction of liquid crystal molecules by applying a voltage, and increases or decreases the light transmittance, thereby causing an image (frame 301 or Images corresponding to various messages, various buttons, and projection images) are displayed. The white light that has entered from the condenser lens 34 and transmitted through the liquid crystal panel 36 is an image corresponding to an image formed on the liquid crystal panel 36 (frame 301, various messages, various operation buttons, projection images (divided areas). Projected onto the plane table 400 as a boundary line 302 or the like).

撮像装置100では、図2に示すように、撮像部20により撮像可能な領域である撮像領域300に対応する枠301が投光部30により投影されている。   In the imaging apparatus 100, as illustrated in FIG. 2, a frame 301 corresponding to the imaging area 300 that is an area that can be imaged by the imaging unit 20 is projected by the light projecting unit 30.

図3は、上述したような撮像装置100の構成を示すブロック図である。図3に示すように、撮像装置100は、この撮像装置100全体を制御するためのプロセッサ40と、ハードディスク(HDD)50と、上記説明したCCD画像センサ24と、光源部32を制御する光源制御部54と、液晶パネル36を制御する液晶制御部56と、パーソナルコンピュータ(PC)500と接続するための外部インターフェイス58とを備えている。   FIG. 3 is a block diagram illustrating a configuration of the imaging apparatus 100 as described above. As shown in FIG. 3, the imaging apparatus 100 includes a processor 40 for controlling the entire imaging apparatus 100, a hard disk (HDD) 50, the CCD image sensor 24 described above, and a light source control for controlling the light source unit 32. Unit 54, a liquid crystal control unit 56 that controls the liquid crystal panel 36, and an external interface 58 for connecting to a personal computer (PC) 500.

プロセッサ40は、CPU42と、ROM44と、RAM46とを備えている。CPU42は中央演算処理装置であり、図8〜図13,図15〜図19,図21のフローチャートで示す処理などに対応する各種プログラムを実行する。   The processor 40 includes a CPU 42, a ROM 44, and a RAM 46. The CPU 42 is a central processing unit and executes various programs corresponding to the processes shown in the flowcharts of FIGS. 8 to 13, 15 to 19, and 21.

ROM44は、CPU42により実行される各種制御プログラムや、それらの制御プログラムをCPU42により実行する上で必要なデータなどを格納した書き換え不能なメモリである。このROM44には、図8のメイン処理を含む画像入力装置100全体の制御に関するプログラムであるカメラ制御プログラム44aと、撮像領域300内において撮像される画像データに変化があったか否かを検知する画像変化検知処理(図13)を実行するためのプログラムである画像変化検知プログラム44bと、撮像領域300に原稿200の4つの原稿端201が存在するか否かを判定する四原稿端有無判定処理(図15)を実行するためのプログラムである四原稿端有無判定プログラム44cと、原稿200を固定するための固定物が原稿200の余白部に配置されたか否かを判定する余白部固定物有無判定処理(図16)を実行するためのプログラムである余白部固定物有無判定プログラム44dと、撮像領域300内において撮像される画像データに変化があった場合にその変化領域の焦点度を測定する変化領域内焦点度測定処理(図17)を実行するためのプログラムである変化領域内焦点度測定プログラム44eと、ポインタ(指示部材)が存在するか否かを判定するポインタ有無判定処理(図18)を実行するためのプログラムであるポインタ有無判定プログラム44fと、分割された各領域の境界線を原稿200上の対応する位置へ投影する原稿分割線投影処理(図19)を実行するためのプログラムである原稿分割線投影プログラム44gと、指定された分割領域の画像データを取得してファイル化する分割領域画像データ取得処理(図21)を実行するためのプログラムである分割領域ファイル化プログラム44hと、メッセージ格納部44iとが記憶されている。なお、ROM44に記憶される上記の各プログラムに従って実行される各処理の詳細については後述する。   The ROM 44 is a non-rewritable memory that stores various control programs executed by the CPU 42 and data necessary for executing the control programs by the CPU 42. In the ROM 44, a camera control program 44a that is a program relating to the control of the entire image input apparatus 100 including the main processing of FIG. 8 and an image change for detecting whether or not the image data captured in the imaging area 300 has changed. An image change detection program 44b, which is a program for executing the detection process (FIG. 13), and a four document edge presence / absence determination process for determining whether or not the four document edges 201 of the document 200 exist in the imaging region 300 (FIG. 13). 15) a document end presence / absence determination program 44c, which is a program for executing 15), and a blank portion fixed object presence / absence determination process for determining whether or not a fixed object for fixing the document 200 is disposed in the margin portion of the document 200. A blank portion fixed object presence / absence determination program 44d, which is a program for executing FIG. A change area focus degree measurement program 44e, which is a program for executing the change area focus degree measurement process (FIG. 17) for measuring the focus degree of the change area when there is a change in the captured image data; A pointer presence / absence determination program 44f, which is a program for executing a pointer presence / absence determination process (FIG. 18) for determining whether or not a pointer (indicating member) exists, and the boundary lines of the divided areas are displayed on the document 200. An original dividing line projection program 44g, which is a program for executing the original dividing line projection process (FIG. 19) for projecting to the corresponding position, and divided area image data for acquiring the image data of the specified divided area and making it a file. A divided region file conversion program 44h, which is a program for executing the acquisition process (FIG. 21), and a message storage unit 44i are described. It is. Details of each process executed in accordance with each program stored in the ROM 44 will be described later.

メッセージ格納部44iは、撮像装置100の各種操作を補助する補助メッセージとして、スタンバイメッセージ44i1と、トレース受付メッセージ44i2と、スキャン受付初期メッセージ44i3と、次スキャン受付メッセージ44i4とを記憶するメモリである。これらのメッセージ44i1〜44i4は、それぞれのメッセージに対応する操作の実行タイミングに応じて読み出されて、液晶パネル36の所定の位置に対応する像が形成されることにより、撮像領域300内における所定の位置(液晶パネル36において像の形成された所定の位置に対応する位置)に投射される。   The message storage unit 44i is a memory that stores a standby message 44i1, a trace reception message 44i2, a scan reception initial message 44i3, and a next scan reception message 44i4 as auxiliary messages for assisting various operations of the imaging apparatus 100. These messages 44i1 to 44i4 are read according to the execution timing of the operation corresponding to each message, and an image corresponding to a predetermined position of the liquid crystal panel 36 is formed, whereby a predetermined image in the imaging region 300 is formed. (Position corresponding to a predetermined position where an image is formed on the liquid crystal panel 36).

RAM46は、ランダムにアクセスし得る書き換え可能な揮発性のメモリであり、静止画像データ格納部46aと、初期画像データ格納部46bと、四頂点座標格納部46cと、ポインタ先端座標格納部46dと、分割領域境界座標格納部46eと、分割領域画像データ格納部46fと、変化領域座標格納部46gと、投影用画像データ格納部46hと、状態カウンタ46iと、CPU42により実行される各種処理に必要なデータやプログラムを一時的に記憶するためのワーキングエリア46jとを備えている。   The RAM 46 is a rewritable volatile memory that can be accessed at random. The still image data storage unit 46a, the initial image data storage unit 46b, the four-vertex coordinate storage unit 46c, the pointer tip coordinate storage unit 46d, The divided region boundary coordinate storage unit 46e, the divided region image data storage unit 46f, the change region coordinate storage unit 46g, the projection image data storage unit 46h, the state counter 46i, and various processes executed by the CPU 42 are necessary. And a working area 46j for temporarily storing data and programs.

静止画像データ格納部46aは、後述する画像変化検知処理(図13)において、撮像領域300を低解像度で撮像した画像データを記憶するためのメモリである。初期画像データ格納部46bは、後述するスタンバイ処理(図10)において、余白部に固定物が配置された後で、撮像領域300を撮像した画像データを記憶するためのメモリである。四頂点座標格納部46cは、後述するスタンバイ処理(図10)において、撮像領域300に配置された原稿200の四頂点の座標を記憶するためのメモリである。   The still image data storage unit 46a is a memory for storing image data obtained by imaging the imaging region 300 at a low resolution in an image change detection process (FIG. 13) described later. The initial image data storage unit 46b is a memory for storing image data obtained by imaging the imaging region 300 after a fixed object is arranged in a blank portion in a standby process (FIG. 10) described later. The four-vertex coordinate storage unit 46c is a memory for storing the coordinates of the four vertices of the document 200 placed in the imaging area 300 in standby processing (FIG. 10) described later.

ポインタ先端座標格納部46dは、後述するトレース受付処理(図11)において、移動するポインタ(例えば、右手の人差し指)が指し示す座標を順次記憶するためのメモリである。分割領域境界座標格納部46eは、移動するポインタの先端(例えば、右手の人差し指の指先)の軌跡に応じて区分された原稿200の各領域(分割領域)の境界線をそれぞれ記憶するためのメモリである。分割領域画像データ格納部46fは、指定された分割領域を含む画像データと透過色情報とを記憶するためのメモリである。なお、ポインタ先端座標格納部46d、分割領域境界座標格納部46e、分割領域画像データ格納部46fに記憶されるデータ(座標データ又は画像データ)の構成については後述する。   The pointer tip coordinate storage unit 46d is a memory for sequentially storing the coordinates indicated by the moving pointer (for example, the index finger of the right hand) in the trace reception process (FIG. 11) described later. The divided area boundary coordinate storage unit 46e is a memory for storing the boundary lines of the respective areas (divided areas) of the document 200 divided according to the locus of the tip of the moving pointer (for example, the fingertip of the right hand index finger). It is. The divided area image data storage unit 46f is a memory for storing image data including a designated divided area and transparent color information. The configuration of data (coordinate data or image data) stored in the pointer tip coordinate storage unit 46d, the divided region boundary coordinate storage unit 46e, and the divided region image data storage unit 46f will be described later.

変化領域座標格納部46gは、後述する画像変化検知処理(図13)において、変化領域の最左上端及び最右下端の画素の座標を記憶するためのメモリである。投影用画像データ格納部46hは、撮像領域300上に投影される投影用画像(原稿200の分割領域の境界線や分割領域を識別するインデックス)に対応する投影用画像データを記憶するためのメモリである。なお、投影用画像データ格納部46hに初期値として記憶される投影用画像データは、撮像領域300を示すための枠301に対応する投影用画像データである。   The change area coordinate storage unit 46g is a memory for storing the coordinates of the leftmost and uppermost pixels of the change area in an image change detection process (FIG. 13) described later. The projection image data storage unit 46h is a memory for storing projection image data corresponding to a projection image (an index for identifying a boundary line or a divided area of a divided area of the document 200) projected on the imaging area 300. It is. Note that the projection image data stored as an initial value in the projection image data storage unit 46 h is projection image data corresponding to the frame 301 for indicating the imaging region 300.

状態カウンタ46iは、撮像装置100の動作状態を示すカウンタであり、「0」〜「2」までの値を有する。この状態カウンタ46iにおいて、「0」は、撮像装置100が後述するスタンバイ処理(図10)を実行すべきモード(スタンバイモード)であることを示し、「1」は、撮像装置100が後述するトレース受付処理(図11)を実行すべきモード(トレース受付モード)であることを示し、「2」は、撮像装置100が後述するスキャン処理(図12)を実行すべきモード(スキャン受付モード)であることを示す。   The state counter 46i is a counter that indicates the operation state of the imaging apparatus 100, and has values from “0” to “2”. In the state counter 46i, “0” indicates a mode (standby mode) in which the imaging apparatus 100 should perform standby processing (FIG. 10) described later, and “1” indicates a trace described later by the imaging apparatus 100. 11 indicates that the reception process (FIG. 11) is to be executed (trace reception mode), and “2” is a mode (scan reception mode) in which the imaging apparatus 100 should execute a scan process (FIG. 12) described later. Indicates that there is.

HDD50は、記憶容量の大きい書き換え可能な不揮発性のメモリであり、原稿200を固定するための固定物の色情報を予め登録するためのメモリである固定物色情報格納部50aと、透過GIF形式などにファイル化された画像ファイルを記憶するためのメモリである画像ファイル格納部50bとを備えている。   The HDD 50 is a rewritable nonvolatile memory having a large storage capacity, a fixed object color information storage unit 50a that is a memory for previously registering color information of a fixed object for fixing the document 200, a transparent GIF format, and the like. And an image file storage unit 50b which is a memory for storing the image file filed.

光源制御装置54は、プロセッサ40からの信号を受けて、光源部32を制御するものであり、液晶制御部56は、プロセッサ40からの信号を受けて液晶パネル36を制御するものである。   The light source control device 54 receives a signal from the processor 40 and controls the light source unit 32, and the liquid crystal control unit 56 receives a signal from the processor 40 and controls the liquid crystal panel 36.

図4は、ポインタ先端座標格納部46d、分割領域境界座標格納部46e、及び、分割領域画像データ格納部46fに格納されるデータ(座標、画像データなど)の構成を説明する図である。図4(a)は、ポインタ先端座標格納部46dを説明する図である。図4(a)に示すように、このポインタ先端座標格納部46dには、座標(x,y)から座標(x,y)までのn個の座標が記憶されている。これらの座標は、後述するトレース受付処理(図11)において、移動するポインタ(例えば、右手の人差し指)の先端が指し示す座標が検出される毎に、その座標が、最初に検出された座標(x,y)から、最後に検出された座標(x,y)まで、入力された順に記憶されるものである。なお、このポインタ先端座標格納部46dへの座標の記憶については後述する。 FIG. 4 is a diagram illustrating the configuration of data (coordinates, image data, etc.) stored in the pointer tip coordinate storage unit 46d, the divided region boundary coordinate storage unit 46e, and the divided region image data storage unit 46f. FIG. 4A illustrates the pointer tip coordinate storage unit 46d. As shown in FIG. 4A, the pointer tip coordinate storage unit 46d stores n coordinates from coordinates (x 1 , y 1 ) to coordinates (x n , y n ). Each time the coordinates indicated by the tip of the moving pointer (for example, the index finger of the right hand) are detected in the trace receiving process (FIG. 11) described later, these coordinates are the coordinates (x 1 , y 1 ) to the last detected coordinates (x n , y n ) are stored in the input order. The storage of the coordinates in the pointer tip coordinate storage unit 46d will be described later.

図4(b)は、分割領域境界座標格納部46eを説明する図である。図4(b)に示すように、移動するポインタの軌跡に応じた原稿200の分割領域毎に、各分割領域の境界線を構成する座標が記憶されている。図4(b)には、原稿200が3つの分割領域に分割された場合が例示されており、記憶領域46e1には、第1の分割領域の境界線を構成する座標として、(x1,y1)から(x1,y1)までのp個の座標が記憶されており、記憶領域46e2には、第2の分割領域の境界線を構成する座標として、(x2,y2)から(x2,y2)までのq個の座標が記憶されており、記憶領域46e3には、第3の分割領域の境界線を構成する座標として、(x3,y31)から(x3,y3)までのr個の座標が記憶されている。なお、この分割領域境界座標格納部46eへの座標の記憶については後述する。 FIG. 4B is a diagram illustrating the divided region boundary coordinate storage unit 46e. As shown in FIG. 4B, for each divided area of the document 200 corresponding to the locus of the moving pointer, coordinates constituting the boundary line of each divided area are stored. FIG. 4B illustrates a case where the document 200 is divided into three divided areas. In the storage area 46e1, coordinates (x1 1 ,. p coordinates from y1 1 ) to (x1 p , y1 p ) are stored, and the storage area 46e2 has (x2 1 , y2 1 ) as coordinates constituting the boundary line of the second divided area. Q coordinates from (x2 q , y2 q ) to (x2 q , y2 q ) are stored, and (x3 1 , y 31 ) to (x3) are stored in the storage area 46e3 as coordinates constituting the boundary line of the third divided area. r coordinates up to r 1, y3 r ) are stored. The storage of coordinates in the divided area boundary coordinate storage unit 46e will be described later.

図4(c)は、分割領域画像データ格納部46fを説明する図である。図4(c)に示すように、ユーザにより画像データの取得指定がされた分割領域毎に、その指定された分割領域を含む矩形画像データと透過色情報とが記憶されている。ここで、「分割領域を含む矩形画像データ」とは、分割領域より大きな矩形領域の画像データであり、この矩形領域は、その各辺と分割領域との間に所定幅のマージンを有している。図4(c)は、原稿200において2つの分割領域に対して画像データの取得が指定された場合を例示したものであり、記憶領域46f1には、1番目に指定された分割領域を含む矩形画像データ(第1矩形画像データ)とその第1矩形画像データに対する透過色情報とが記憶されており、記憶領域46f2には、2番目に指定された分割領域を含む矩形画像データ(第2矩形画像データ)とその第2矩形画像データに対する透過色情報とが記憶されている。なお、この分割領域画像データ格納部46fへのデータの記憶については後述する。   FIG. 4C illustrates the divided area image data storage unit 46f. As shown in FIG. 4C, for each divided region for which image data acquisition is designated by the user, rectangular image data including the designated divided region and transparent color information are stored. Here, “rectangular image data including a divided area” is image data of a rectangular area larger than the divided area, and this rectangular area has a margin of a predetermined width between each side and the divided area. Yes. FIG. 4C illustrates the case where acquisition of image data is designated for two divided areas in the document 200, and the storage area 46f1 is a rectangle including the first designated divided area. Image data (first rectangular image data) and transmission color information for the first rectangular image data are stored, and the storage area 46f2 includes rectangular image data (second rectangle) including a second designated divided area. Image data) and transmission color information for the second rectangular image data are stored. The storage of data in the divided area image data storage unit 46f will be described later.

次に図5〜図7を参照して、撮像装置100における、電源投入から原稿200の各分割領域毎の画像データの取得が行なわれるまでの操作について概略的に説明する。図5は、スタンバイモードにある撮像装置100について説明する図であり、図5(a)は、電源投入後に撮像領域300の枠301と共にその撮像領域300の上部にスタンバイメッセージ44i1が投影された状態を示す図である。図5(a)に示すように、撮像領域300の枠301が投影されることにより、ユーザは、撮像されるべき原稿200を撮像領域300内に適切に配置することができる。また、スタンバイメッセージ44i1が投影されることにより、このスタンバイモードにおいてユーザがすべき操作をマニュアルなどを参照することなく実行できるので、操作が正確となる上に作業が効率的となる。   Next, with reference to FIGS. 5 to 7, operations from the power-on to the acquisition of image data for each divided area of the document 200 in the imaging apparatus 100 will be schematically described. FIG. 5 is a diagram illustrating the imaging apparatus 100 in the standby mode. FIG. 5A illustrates a state in which the standby message 44i1 is projected on the upper part of the imaging area 300 together with the frame 301 of the imaging area 300 after the power is turned on. FIG. As shown in FIG. 5A, by projecting the frame 301 of the imaging area 300, the user can appropriately arrange the document 200 to be imaged in the imaging area 300. In addition, since the standby message 44i1 is projected, an operation to be performed by the user in the standby mode can be executed without referring to a manual or the like, so that the operation becomes accurate and the work becomes efficient.

また、図5(b)は、撮像領域300内に、4つの原稿端201を有する原稿200が配置されると共に、原稿200の余白部を固定する固定物として、ユーザの左手250が配置された状態を示す図である。なお、「余白部」とは、原稿200の4つの原稿端201から内側に向かって所定の幅(例えば、約2cm)で形成される領域である。撮像装置100は、図5(b)に示すような状態を検出すると、スタンバイモードからトレース受付モードへ移行する。   In FIG. 5B, the document 200 having four document edges 201 is disposed in the imaging region 300, and the user's left hand 250 is disposed as a fixed object for fixing the margin of the document 200. It is a figure which shows a state. The “margin” is an area formed with a predetermined width (for example, about 2 cm) from the four document edges 201 of the document 200 inward. When the imaging apparatus 100 detects a state as shown in FIG. 5B, the imaging apparatus 100 shifts from the standby mode to the trace acceptance mode.

なお、図5(b)に示すような「像領域300内に4つの原稿端201を有する原稿200が配置されたこと」は、後述する四原稿端有無判定処理(図15)に基づいて検出され、また、「原稿200の余白部を固定する固定物としてユーザの左手250が配置されたこと」は、後述する余白部固定物有無判定処理(図16)に基づいて検出される。これらの四原稿端有無判定処理(図15)及び余白部固定物有無判定処理(図16)を含み、図5(a)及び図5(b)に示す状況の生じるスタンバイモードにおいて実行されるスタンバイ処理(図10)については、後述する。   As shown in FIG. 5B, “the document 200 having four document edges 201 is arranged in the image area 300” is detected based on the four document edge presence / absence determination process (FIG. 15) described later. In addition, “the left hand 250 of the user being placed as a fixed object for fixing the margin part of the document 200” is detected based on a margin part fixed object presence / absence determination process (FIG. 16) described later. The standby including the four document edge presence / absence determination processing (FIG. 15) and the blank portion fixed object presence / absence determination processing (FIG. 16) is executed in the standby mode in which the situation shown in FIGS. 5 (a) and 5 (b) occurs. The process (FIG. 10) will be described later.

図6は、トレース受付モードにある撮像装置100について説明する図である。図6における各図((a)〜(d))に示すように、撮像装置100がトレース受付モードに移行すると、撮像領域300の上部にトレース受付メッセージ44i2が投影されると共に、撮像領域300の左下部であって原稿200の外側の部分に分割ボタン220が投影される。図6(図6(a)〜図6(d))に示すように、トレース受付メッセージ44i2が投影されることにより、上述したスタンバイメッセージ44i1の投影と同様に、このトレース受付モードにおける操作が正確となる上に作業が効率的となる。   FIG. 6 is a diagram for describing the imaging device 100 in the trace acceptance mode. As shown in each figure ((a) to (d)) in FIG. 6, when the imaging apparatus 100 shifts to the trace acceptance mode, a trace acceptance message 44 i 2 is projected on the upper part of the imaging area 300, and A division button 220 is projected on the lower left portion of the document 200. As shown in FIG. 6 (FIG. 6 (a) to FIG. 6 (d)), by projecting the trace acceptance message 44i2, the operation in this trace acceptance mode is accurate as in the projection of the standby message 44i1 described above. And work becomes more efficient.

図6(a)は、ポインタ(指示部材)としてのユーザの右手260の人差し指260aが、原稿200を複数領域に区分するための境界線の始点を指し示している状態を示す図であり、図6(b)は、人差し指260aが、原稿200を区分するための境界線202aを軌跡として入力している途中の状態を示す図である。図6(c)は、1本目の境界線202aを描いた後、人差し指260aが、2本目の境界線202bとするための軌跡を描いている状態を示す図であり、図6(d)は、ユーザが所望の境界線として境界線202a,202bを描いた後、描いた境界線202a,202bに従って原稿200を区分することを指示するために、人差し指260aが分割ボタン220を指し示した状態を示す図である。撮像装置100は、図6(d)に示すような状態を検出すると、トレース受付モードからスキャン受付モードへ移行する。   6A is a diagram showing a state in which the index finger 260a of the user's right hand 260 as a pointer (indicating member) points to the starting point of the boundary line for dividing the document 200 into a plurality of regions. FIG. 6B is a diagram showing a state in which the index finger 260a is inputting the boundary line 202a for separating the document 200 as a locus. FIG. 6C is a diagram showing a state in which the index finger 260a draws a trajectory for making the second boundary line 202b after the first boundary line 202a is drawn, and FIG. After the user draws the boundary lines 202a and 202b as the desired boundary lines, the index finger 260a indicates the state in which the index button 260a points to the division button 220 in order to instruct to sort the document 200 according to the drawn boundary lines 202a and 202b. FIG. When detecting the state as illustrated in FIG. 6D, the imaging apparatus 100 shifts from the trace reception mode to the scan reception mode.

図6(d)に示すように、描いた境界線により原稿200を区分するための指示ボタンである分割ボタン220が撮像領域300内に投影されることにより、ユーザは、視線を他に向けることなく、撮像領域300(及び、その撮像領域300内に配置される原稿200)に向かったまま分割ボタン220の入力を行なうことができ、作業が効率的となる。   As shown in FIG. 6D, the division button 220, which is an instruction button for dividing the document 200 by the drawn boundary line, is projected into the imaging region 300, so that the user turns the line of sight to the other. In addition, the division button 220 can be input while facing the imaging area 300 (and the original 200 placed in the imaging area 300), and the work becomes efficient.

図6(a)〜図6(c)に示すような「人差し指260aの軌跡により原稿200を複数領域に区分するための境界線の入力」は、後述するトレース受付処理(図11)における変化領域内焦点度測定処理(図17)及びポインタ有無判定処理(図18)による処理結果に応じて実行されるものである。これらの変化領域内焦点度測定処理(図17)及びポインタ有無判定処理(図18)を含み、図6における各図((a)〜(d))に示す状況の生じるトレース受付モードにおいて実行されるトレース受付処理(図11)については、後述する。   As shown in FIGS. 6A to 6C, “input of a boundary line for dividing the document 200 into a plurality of areas by the locus of the index finger 260a” is a change area in a trace reception process (FIG. 11) described later. This process is executed according to the processing results of the internal focus degree measurement process (FIG. 17) and the pointer presence / absence determination process (FIG. 18). Including the change area focus degree measurement process (FIG. 17) and the pointer presence / absence determination process (FIG. 18), the process is executed in the trace acceptance mode in which the situation shown in each of the diagrams (a) to (d) of FIG. The trace acceptance process (FIG. 11) will be described later.

図7は、スキャン受付モードにある撮像装置100について説明する図である。図7(a)は、上述したように分割ボタン220が操作されて、トレース受付モードからスキャン受付モードへ移行した状態を示す図である。図7(a)に示すように、スキャン受付モードへ移行すると、上述のように人差し指260aの軌跡により入力された境界線202a,202bにそれぞれ対応する像203a,203b(以下、境界線203a,203bと称する。)と原稿200の4つの原稿端201を示す像とが原稿200上の対応する位置に投影されると共に、これらの境界線203a,203bにより区分された原稿200の3つの分割領域200a〜200cをそれぞれ特定するための「1」〜「3」で表されたインデックス(識別子)204a〜204cが、分割領域200a〜200c上の所定の位置にそれぞれ投影される。なお、図7において、インデックス204a〜204cは、丸で囲まれた数字(丸数字)の「1」〜「3」として図示されている。また、図7において、原稿200の4つの原稿端201を示す像は実際の原稿端201と重なっているため、図面を簡略化するために投影される像については図示してない。   FIG. 7 is a diagram for describing the imaging apparatus 100 in the scan acceptance mode. FIG. 7A is a diagram illustrating a state in which the division button 220 is operated as described above to shift from the trace reception mode to the scan reception mode. As shown in FIG. 7A, when the scan acceptance mode is entered, the images 203a and 203b (hereinafter referred to as the boundary lines 203a and 203b respectively) corresponding to the boundary lines 202a and 202b input by the trajectory of the index finger 260a as described above. 3) and an image showing the four document edges 201 of the document 200 are projected at corresponding positions on the document 200, and are divided into three divided regions 200a of the document 200 divided by the boundary lines 203a and 203b. Indexes (identifiers) 204a to 204c represented by “1” to “3” for specifying each of .about.200c are respectively projected at predetermined positions on the divided areas 200a to 200c. In FIG. 7, the indexes 204 a to 204 c are illustrated as numbers “1” to “3” surrounded by circles (circle numbers). Further, in FIG. 7, since the image showing the four document edges 201 of the document 200 overlaps the actual document edge 201, the projected image is not shown in order to simplify the drawing.

境界線203a〜203b、原稿端201を示す像、及びインデックス204a〜204cが原稿200上に投影されることにより、ユーザは、原稿200における3つの分割領域200a〜200cを明確に認識し得る。このように分割領域200a〜200cが明確に認識されることにより、後述するスキャン受付モードにおいて、これらの分割領域200a〜200cの画像データを個別に入力する上で作業の効率化を図ることができる。   By projecting the boundary lines 203a to 203b, the image indicating the document edge 201, and the indexes 204a to 204c on the document 200, the user can clearly recognize the three divided regions 200a to 200c in the document 200. Thus, by clearly recognizing the divided areas 200a to 200c, it is possible to improve work efficiency in individually inputting image data of these divided areas 200a to 200c in the scan acceptance mode described later. .

また、図7(a)に示すように、撮像装置100がスキャン受付モードへ移行すると、撮像領域300の上部にスキャン受付初期メッセージ44i3が投影されると共に、撮像領域300の左下部であって原稿200の外側の部分ににスキャン終了ボタン230が投影されることにより、このスキャン受付モードにおける操作が正確となる上に作業を効率的し得る。   As shown in FIG. 7A, when the imaging apparatus 100 shifts to the scan acceptance mode, a scan acceptance initial message 44 i 3 is projected on the upper part of the imaging area 300, and the document is located at the lower left part of the imaging area 300. By projecting the scan end button 230 on the outer portion of the 200, the operation in this scan acceptance mode becomes accurate and the work can be made efficient.

図7(b)は、人差し指260aにより分割領域200bを指し示すことによって、画像データを取得(入力)する領域として分割領域200bを指定した状態を示す図である。図7(b)に示すように、画像データの取得を所望する分割領域(本実施例における図7(b)に示す例では、分割領域200b)内に人差し指260aを置くことによって、その分割領域の画像データが取得されて、その画像データが所定の記憶領域(分割領域画像データ格納部46f)に記憶される。なお、この人差し指260aによる分割領域の選択及び画像データの取得については後述する。   FIG. 7B is a diagram showing a state in which the divided region 200b is designated as a region for acquiring (inputting) image data by pointing the divided region 200b with the index finger 260a. As shown in FIG. 7B, by placing the index finger 260a in the divided area where the image data is desired to be acquired (the divided area 200b in the example shown in FIG. 7B in this embodiment), the divided area is obtained. Image data is acquired, and the image data is stored in a predetermined storage area (divided area image data storage unit 46f). Note that selection of divided areas and acquisition of image data by the index finger 260a will be described later.

図7(c)は、分割領域200bを分割領域として指定して画像データを取得した後、次に取得することを所望する分割領域200aを人差し指260aで指し示すことにより指定した状態を示す図である。なお、図7(c)に示すように、1つの分割領域(本実施例では分割領域200b)の指定及びその指定された分割領域の画像データの取得が完了すると、それをユーザに報知すると共に、次の操作を補助する次スキャン受付メッセージ44i4がスキャン受付初期メッセージ44i3に代わって投影される。また、図7(c)に示すように画像データが既に取得された分割領域(本実施例では分割領域200b)全体に、斜線が投影される。よって、ユーザは、画像データを既に取得した分割領域と画像データが未だ取得されていない分割領域とを一目瞭然に区別することができる。   FIG. 7C is a diagram illustrating a state in which the divided region 200b is designated by pointing the index finger 260a with the index finger 260a after the image data is obtained by designating the divided region 200b as the divided region. . As shown in FIG. 7C, when the designation of one divided area (division area 200b in this embodiment) and the acquisition of the image data of the designated divided area are completed, the user is notified of this. The next scan acceptance message 44i4 for assisting the next operation is projected in place of the scan acceptance initial message 44i3. Further, as shown in FIG. 7C, diagonal lines are projected on the entire divided area (divided area 200b in this embodiment) from which image data has already been acquired. Therefore, the user can clearly distinguish the divided area from which image data has already been acquired from the divided area from which image data has not yet been acquired.

図7(d)は、ユーザが、自身の所望する分割領域の画像データを全て取得したと判断した場合に、スキャン終了ボタン230を人差し指260aで指し示している状態を示す図である。撮像装置100は、図7(d)に示すような状態を検出すると、原稿200における各分割領域の画像データの取得を待機するモード(スキャン受付モード)を終了し、スタンバイモードへ移行する。図7(d)に示すように、これ以上の画像データの取得が不要であることを指示するボタンであるスキャン終了ボタン230が撮像領域300内に投影されることにより、ユーザは、視線を他に向けることなく、撮像領域300(及び、その撮像領域300内に配置される原稿200)に向かったままスキャン終了ボタン230の入力を行なうことができ、作業が効率的となる。   FIG. 7D is a diagram illustrating a state in which the scan end button 230 is pointed with the index finger 260a when the user determines that all the image data of the desired divided area has been acquired. When the imaging apparatus 100 detects a state as shown in FIG. 7D, the imaging apparatus 100 ends the mode (scan acceptance mode) for waiting for acquisition of image data of each divided area in the document 200, and shifts to the standby mode. As shown in FIG. 7 (d), the scan end button 230, which is a button for instructing that it is not necessary to acquire any more image data, is projected into the imaging region 300, so that the user can change his / her line of sight. The scan end button 230 can be input while facing the image pickup area 300 (and the original 200 arranged in the image pickup area 300) without turning to the direction, and the work becomes efficient.

次に、図8〜図13、図15〜図19、及び図21のフローチャートと図14及び図20とを参照して、上記のように構成される撮像装置100が行う動作について説明する。図8は、この撮像装置100で実行されるメイン処理のフローチャートである。このメイン処理は、撮像装置100の電源が投入されると起動し、電源が投入されている間、CPU42によって繰り返し実行される。   Next, operations performed by the imaging apparatus 100 configured as described above will be described with reference to the flowcharts of FIGS. 8 to 13, 15 to 19, and 21, and FIGS. 14 and 20. FIG. 8 is a flowchart of main processing executed by the imaging apparatus 100. This main process is activated when the power of the imaging apparatus 100 is turned on, and is repeatedly executed by the CPU 42 while the power is turned on.

このメイン処理が起動すると、まず、初期設定として、RAM46の初期化などが実行される(S1)。なお、この初期設定(S1)によるRAM46の初期化により、状態カウンタ46iは「0」に設定される。また、投影用画像データ格納部46hの初期化により、投影用画像データが初期状態のデータに初期化され、それによって、電源投入時には、平面台400上には、撮像領域300を示すための枠301のみが投影用画像として投影されることになる。   When the main process is activated, initialization of the RAM 46 is first executed as an initial setting (S1). The state counter 46i is set to “0” by the initialization of the RAM 46 by this initial setting (S1). Further, the projection image data storage unit 46h is initialized so that the projection image data is initialized to data in an initial state, whereby a frame for indicating the imaging region 300 is displayed on the plane table 400 when the power is turned on. Only 301 is projected as a projection image.

S1の処理後、原稿200を固定する固定物の色情報(以下、固定物色情報と称する。)をHDD50の固定物色情報格納部50aへ記憶(登録)する処理として、後述する固定物色情報登録処理(S15)が実行される。   As a process of storing (registering) color information (hereinafter referred to as “fixed object color information”) of a fixed object for fixing the document 200 in the fixed object color information storage unit 50a of the HDD 50 after the process of S1, a fixed object color information registration process described later is performed. (S15) is executed.

固定物色情報登録処理(S15)の実行後、状態カウンタ46iの値を確認し(S2)、状態カウンタ46iの値が「0」であれば(S2:0)、撮像装置100はスタンバイモードにあるので後述するスタンバイ処理を実行する(S3)。一方で、状態カウンタ46iの値が「1」であれば(S2:1)、撮像装置100はトレース受付モードにあるので後述するトレース受付処理を実行する(S4)。更に、状態カウンタ46iの値が「2」であれば(S2:2)、撮像装置100はスキャン受付モードにあるので後述するスキャン処理(S5)を実行する。   After execution of the fixed object color information registration process (S15), the value of the state counter 46i is confirmed (S2). If the value of the state counter 46i is “0” (S2: 0), the imaging apparatus 100 is in the standby mode. Therefore, standby processing described later is executed (S3). On the other hand, if the value of the state counter 46i is “1” (S2: 1), since the imaging apparatus 100 is in the trace reception mode, a trace reception process described later is executed (S4). Furthermore, if the value of the state counter 46i is “2” (S2: 2), the imaging apparatus 100 is in the scan acceptance mode, and therefore performs a scan process (S5) described later.

S3〜S5のいずれかが実行されると、各処理(S6)として、例えば、非図示のリセットボタンの操作によって強制的に状態カウンタ46iの値を「0」とした場合のRAM46の初期化などが実行された後、S2の処理へ移行する。   When any of S3 to S5 is executed, as each process (S6), for example, initialization of the RAM 46 when the value of the state counter 46i is forcibly set to “0” by operating a reset button (not shown), etc. Is executed, the process proceeds to S2.

次に、図9を参照して、固定物色情報登録処理(S15)について説明する。図9は、固定物色情報登録処理(S15)のフローチャートであり、この固定物色情報登録処理(S15)では、まず、撮像領域300の所定の位置(例えば、撮像領域300の上部)へ固定物色情報登録処理においてユーザがすべき操作を補助するための第1メッセージ(非図示)を投影する(S1501)。なお、この非図示の第1メッセージは、メッセージ格納部44i内の非図示のメモリに記憶されているメッセージであり、例えば、「原稿を固定する固定物の色情報を記憶させる前に、撮像領域の初期状態を撮影します。撮像領域に何も置かないようにしてください。」のように、後述する処理において必要とされる撮像領域300の初期状態の画像が撮影されるることをユーザに促すためのメッセージである。   Next, the fixed object color information registration process (S15) will be described with reference to FIG. FIG. 9 is a flowchart of the fixed object color information registration process (S15). In the fixed object color information registration process (S15), first, the fixed object color information is transferred to a predetermined position of the imaging area 300 (for example, the upper part of the imaging area 300). A first message (not shown) for assisting the user in the registration process is projected (S1501). Note that the first message (not shown) is a message stored in a memory (not shown) in the message storage unit 44i. For example, “the imaging region is stored before the color information of the fixed object that fixes the document is stored. The user is encouraged to take an image of the initial state of the imaging area 300 that is required in the processing to be described later. It is a message for.

S1501の処理後、第1補助メッセージを投影したまま、5秒経過したか否かを確認し(S1502)、5秒経過していなければ(S1502:No)、S1501の処理へ戻って第1補助メッセージの投影を継続する。一方で、5秒経過したら(S1502:Yes)、撮像領域300を撮像し、その画像データを初期状態の画像データとして取得する(S1503)。   After the processing of S1501, it is confirmed whether or not 5 seconds have passed while the first auxiliary message is projected (S1502). If 5 seconds have not passed (S1502: No), the processing returns to S1501 and returns to the first auxiliary. Continue projecting the message. On the other hand, when 5 seconds have elapsed (S1502: Yes), the imaging region 300 is imaged, and the image data is acquired as the initial image data (S1503).

S1503の処理後、第1メッセージを非投影にし(S1504)、第1メッセージに換わる第2メッセージ(非図示)を撮像領域300の所定の位置(例えば、撮像領域300の上部)へ投影する(S1505)。なお、この非図示の第2メッセージは、メッセージ格納部44i内の非図示のメモリに記憶されているメッセージであり、例えば、「固定物の色情報を記憶させるために固定物を撮影します。固定物を撮像領域内に置いてください。」のように、後述する処理において必要とされる固定物の画像が撮影されることをユーザに促すためのメッセージである。   After the processing of S1503, the first message is unprojected (S1504), and the second message (not shown) replacing the first message is projected onto a predetermined position (for example, the upper part of the imaging region 300) (S1505). ). The second message (not shown) is a message stored in a memory (not shown) in the message storage unit 44i. For example, “a fixed object is photographed to store color information of the fixed object. The message is for urging the user to take an image of a fixed object that is required in the processing described later.

S1505の処理後、第2補助メッセージを投影したまま、5秒経過したか否かを確認し(S1506)、5秒経過していなければ(S1506:No)、S1505の処理へ戻って第2補助メッセージの投影を継続する。一方で、5秒経過したら(S1506:Yes)、撮像領域300を撮像し、その画像データを固定物含有状態の画像データとして取得する(S1507)。   After the processing of S1505, it is confirmed whether or not 5 seconds have passed with the second auxiliary message projected (S1506). If 5 seconds have not passed (S1506: No), the processing returns to S1505 and returns to the second auxiliary. Continue projecting the message. On the other hand, when 5 seconds have elapsed (S1506: Yes), the imaging region 300 is imaged, and the image data is acquired as image data of a fixed object containing state (S1507).

S1507の処理後、第2メッセージを非投影にし(S1508)、S1507の処理により取得された固定物含有状態の画像データと、S1503の処理により取得された初期状態の画像データとの差分画像データを生成し、差分を生じた部分の画素を抽出する(S1509)。   After the process of S1507, the second message is unprojected (S1508), and difference image data between the image data of the fixed object containing state acquired by the process of S1507 and the image data of the initial state acquired by the process of S1503 is obtained. The pixel of the part which produced | generated and produced the difference is extracted (S1509).

S1509の処理後、抽出した各画素のRGB値を平均化し(S1510)、その平均化されたRGB値を固定物色情報として固定物色情報格納部50aに登録し(S1511)、この固定物色情報登録処理(S15)を終了する。   After the processing of S1509, the RGB values of the extracted pixels are averaged (S1510), and the averaged RGB values are registered as fixed object color information in the fixed object color information storage unit 50a (S1511), and this fixed object color information registration process is performed. (S15) is ended.

次に、図10を参照して、撮像装置100がスタンバイモードにある場合に実行されるスタンバイ処理(S3)について説明する。図10は、スタンバイ処理(S3)のフローチャートである。このスタンバイ処理(S3)では、まず、撮像領域300の所定の位置(本実施例では撮像領域300の上部(図5参照))へスタンバイメッセージ44i1を投影する(S301)。なお、S301の処理を行う際、既に、スタンバイメッセージ44i1が投影中である場合には、そのスタンバイメッセージ44i1の投影を継続するものとする。S301の処理後、原稿200が配置されたことを検出するための画像変化検知処理を実行する(S7)。この画像変化検知処理(S7)は、撮像領域300内における画像の変化を検出する処理であり、その処理の内容については後述する。   Next, a standby process (S3) executed when the imaging apparatus 100 is in the standby mode will be described with reference to FIG. FIG. 10 is a flowchart of the standby process (S3). In this standby process (S3), first, a standby message 44i1 is projected onto a predetermined position of the imaging area 300 (in this embodiment, the upper part of the imaging area 300 (see FIG. 5)) (S301). Note that, when the standby message 44i1 is already being projected when performing the process of S301, the projection of the standby message 44i1 is continued. After the process of S301, an image change detection process for detecting that the document 200 is placed is executed (S7). This image change detection process (S7) is a process for detecting an image change in the imaging region 300, and the contents of the process will be described later.

この画像変化検知処理(S7)の実行後、撮像領域300内において変化が生じているか否か、具体的には、画像変化検知処理(S7)において演算された画素変化量HWが「1」であるか否かを確認する(S302)。S302の処理により確認した結果、撮像領域300内が無変化であれば、具体的には、画素変化量HWが「0」であれば(S302:No)、撮像領域300に原稿200の4つの原稿端201が存在するか否かを判定する四原稿端有無判定処理を実行する(S8)。なお、この四原稿端有無判定処理(S8)については後述する。   After the execution of the image change detection process (S7), whether or not a change has occurred in the imaging region 300, specifically, the pixel change amount HW calculated in the image change detection process (S7) is “1”. It is confirmed whether or not there is (S302). As a result of checking in the processing of S302, if the inside of the imaging area 300 is unchanged, specifically, if the pixel change amount HW is “0” (S302: No), the four areas of the document 200 in the imaging area 300 are displayed. Four document edge presence / absence determination processing for determining whether or not the document edge 201 exists is executed (S8). The four document edge presence / absence determination process (S8) will be described later.

この四原稿端有無判定処理(S9)の実行後、原稿200の四原稿端(4つの原稿端201)が撮像領域300内にあるか否かを確認する(S303)。S303の処理により確認した結果、原稿200の四原稿端が撮像領域300内にあれば(S303:Yes)、四原稿端有無判定処理(S8)において取得された原稿200の四頂点の座標を、四頂点座標格納部46cへ記憶する(S304)。S304の処理後、原稿200の余白部に固定物(本実施例では左手250)が置かれて、原稿200が固定されたか否かを判定する余白部固定物有無判定処理を実行する(S9)。なお、この余白部固定物有無判定処理(S9)については後述する。   After the four document edge presence / absence determination process (S9) is performed, it is confirmed whether or not the four document edges (four document edges 201) of the document 200 are within the imaging area 300 (S303). As a result of checking in the process of S303, if the four document edges of the document 200 are within the imaging region 300 (S303: Yes), the coordinates of the four vertices of the document 200 acquired in the four document edge presence / absence determination process (S8) are obtained. It memorize | stores in the four vertex coordinate storage part 46c (S304). After the process of S304, a fixed object (left hand 250 in this embodiment) is placed in the margin of the original 200, and a blank part fixed object presence / absence determination process for determining whether or not the original 200 is fixed is executed (S9). . The margin part fixed object presence / absence determination process (S9) will be described later.

この余白部固定物有無判定処理(S9)の実行後、原稿200の余白部に固定物(左手250)があるか否か、即ち、原稿200の余白部が固定物(左手250)により固定されたか否かを確認する(S305)。S305の処理により確認した結果、原稿200の余白部が固定物(左手250)で固定されていれば(S305:Yes)、原稿200に対して焦点を合わせ(S306)、撮像領域300内を撮像し、その画像データを初期画像データ格納部46bへ記憶する(S307)。   After this margin portion fixed object presence / absence determination processing (S9) is executed, whether or not there is a fixed object (left hand 250) in the margin part of the document 200, that is, the margin part of the document 200 is fixed by the fixed object (left hand 250). It is confirmed whether or not (S305). If the margin of the document 200 is fixed with a fixed object (left hand 250) (S305: Yes) as a result of the confirmation in S305, the document 200 is focused (S306), and the imaging area 300 is imaged. Then, the image data is stored in the initial image data storage unit 46b (S307).

S305〜S307の処理では、原稿200の余白部が固定物(左手250)により固定されていることが検出されたことが確認されてから、原稿200の撮像を行うので、原稿200が撮像時に不意に移動してぶれの生じた画像になることを防止し得る。   In the processes of S305 to S307, since it is confirmed that the blank portion of the document 200 is detected to be fixed by the fixed object (left hand 250), the document 200 is imaged. It is possible to prevent the image from moving due to blurring.

S307の処理後、状態カウンタ46iの値を+1して、「1」とする(S308)。次いで、投影中のスタンバイメッセージ44i1を非投影とし(S309)、このスタンバイ処理(S3)を終了する。   After the processing of S307, the value of the status counter 46i is incremented by 1 to “1” (S308). Next, the standby message 44i1 being projected is not projected (S309), and this standby process (S3) is terminated.

この場合、状態カウンタ46iは「1」であるので、上述したメイン処理(図8)に従い、続いて、トレース受付処理(S4)が実行される。即ち、スタンバイ処理(S3)において、撮像領域300内に、原稿200が配置(原稿200の4つの原稿端201が配置)され、その原稿200の余白部が左手250のような固定物により固定されたことが確認されると、スタンバイモードからトレース受付モードへ状態が移行することになる。   In this case, since the state counter 46i is “1”, the trace reception process (S4) is subsequently executed in accordance with the main process (FIG. 8) described above. That is, in the standby process (S3), the document 200 is arranged in the imaging region 300 (four document edges 201 of the document 200 are arranged), and the blank portion of the document 200 is fixed by a fixed object such as the left hand 250. When it is confirmed that the status has been confirmed, the state shifts from the standby mode to the trace acceptance mode.

一方、S302の処理により確認した結果、撮像領域300内に変化が生じていれば(S302:Yes)、このスタンバイ処理を終了する。この場合、状態カウンタ46iは「0」のままであるので、上述したメイン処理(図8)に従い、再度、スタンバイ処理(S3)が実行される。従って、、撮像領域300内に変化が生じていることがS302の処理により確認される限り、四原稿端有無判定処理(S8)は実行されない。   On the other hand, as a result of checking in the process of S302, if there is a change in the imaging region 300 (S302: Yes), this standby process is terminated. In this case, since the state counter 46i remains “0”, the standby process (S3) is executed again in accordance with the main process (FIG. 8) described above. Therefore, as long as it is confirmed by the process of S302 that a change has occurred in the imaging region 300, the four document edge presence / absence determination process (S8) is not executed.

また、S303の処理により確認した結果、原稿200の四原稿端が撮像領域300内にない場合(S303:No)、又は、S305の処理により確認した結果、原稿200の余白部が固定物により固定されていない場合(S305:No)には、いずれも、このスタンバイ処理を終了する。この場合もまた、状態カウンタ46iは「0」のままであるので、上述したメイン処理(図8)に従い、再度、スタンバイ処理(S3)が実行される。   Further, as a result of checking in the process of S303, when the four document edges of the document 200 are not in the imaging area 300 (S303: No), or as a result of checking in the process of S305, the blank portion of the document 200 is fixed by a fixed object. If not (S305: No), the standby process is terminated in any case. Also in this case, since the state counter 46i remains “0”, the standby process (S3) is executed again according to the main process (FIG. 8) described above.

次に、図11を参照して、撮像装置100がトレース受付モードにある場合に実行されるトレース受付処理(S4)について説明する。図11は、トレース受付処理(S4)のフローチャートである。このトレース受付処理(S4)では、まず、撮像領域300の所定の位置(本実施例では撮像領域300の上部(図6参照))へトレース受付メッセージ44i2を投影し(S401)、撮像領域300の所定の位置(本実施例では撮像領域300の左下部(図6参照))へ分割ボタン220を投影する(S402)。なお、S401、S402の処理を行う際、既に、トレース受付メッセージ44i2、分割ボタン220が投影中である場合には、そのトレース受付メッセージ44i2、分割ボタン220の投影を継続するものとする。   Next, with reference to FIG. 11, the trace reception process (S4) executed when the imaging apparatus 100 is in the trace reception mode will be described. FIG. 11 is a flowchart of the trace acceptance process (S4). In this trace acceptance processing (S4), first, a trace acceptance message 44i2 is projected onto a predetermined position of the imaging area 300 (in this embodiment, the upper part of the imaging area 300 (see FIG. 6)) (S401). The division button 220 is projected to a predetermined position (in this embodiment, the lower left portion of the imaging region 300 (see FIG. 6)) (S402). When performing the processing of S401 and S402, if the trace reception message 44i2 and the division button 220 are already being projected, the projection of the trace reception message 44i2 and the division button 220 is continued.

S402の処理後、画像変化検知処理(S7)を実行し、次いで、撮像領域300内に変化があったか否か、具体的には、画像変化検知処理(S7)において演算された画素変化量HWが「0」であるか否かを確認する(S403)。S403の処理により確認した結果、撮像領域300内に変化があった場合(S403:Yes)、四原稿端有無判定処理を実行する(S8)。次いで、この四原稿端有無判定処理(S8)において取得された原稿200の四頂点の座標が、四頂点座標格納部46cに格納されている座標に一致するか否かを確認する(S404)。   After the process of S402, an image change detection process (S7) is executed, and then whether or not there is a change in the imaging region 300, specifically, the pixel change amount HW calculated in the image change detection process (S7) is calculated. It is confirmed whether or not it is “0” (S403). As a result of checking in the process of S403, if there is a change in the imaging area 300 (S403: Yes), a process for determining whether or not there are four document edges is executed (S8). Next, it is confirmed whether or not the coordinates of the four vertices of the document 200 acquired in the four document edge presence / absence determination process (S8) match the coordinates stored in the four vertex coordinate storage unit 46c (S404).

S404の処理により確認した結果、四原稿端有無判定処理(S8)において取得された原稿200の四頂点の座標が、四頂点座標格納部46cに格納されている座標に一致していれば(S404:Yes)、余白部固定物有無判定処理(S9)を実行し、次いで、原稿200の余白部に固定物(左手250)があるか否か、即ち、原稿200の余白部が固定物(左手250)により固定されたか否かを確認する(S405)。S405の処理により確認した結果、原稿200の余白部が固定物(左手250)で固定されていれば(S405:Yes)、撮像領域300内において変化の生じた領域(変化領域P(図14参照))の焦点度を測定する変化領域内焦点度測定処理(S10)を実行する。ここで、「焦点度」とは、原稿200に対して合わされている焦点を基準として、ある物体に対する焦点(ピント)が合っているか否かを示す指標であり、焦点度が大きい程、その物体に対する焦点が合っており、焦点度が小さくなるにつれて、その物体に対する焦点が合わなくなる(撮像される画像がぼける)ことを示す。なお、上述の変化領域内焦点度測定処理(S10)については後述する。   As a result of the confirmation in the process of S404, if the coordinates of the four vertices of the document 200 acquired in the four document edge presence / absence determination process (S8) match the coordinates stored in the four-vertex coordinate storage unit 46c (S404). : Yes), a margin portion fixed object presence / absence determination process (S9) is executed, and then whether or not there is a fixed object (left hand 250) in the margin part of the document 200, that is, the margin part of the document 200 is a fixed object (left hand). 250), it is confirmed whether it is fixed (S405). If the margin of the original 200 is fixed with a fixed object (left hand 250) as a result of the confirmation in S405 (S405: Yes), an area in which the change has occurred in the imaging area 300 (change area P (see FIG. 14)). )) To measure the degree of focus in the change region (S10). Here, the “degree of focus” is an index indicating whether or not a certain object is in focus with reference to the focus that is focused on the document 200. The greater the degree of focus, the more the object. This indicates that the object is in focus and that the object is out of focus (the image to be taken is blurred) as the degree of focus decreases. Note that the above-described change area focal degree measurement processing (S10) will be described later.

変化領域内焦点度測定処理(S10)の実行後、変化領域P内における焦点度が所定の閾値以上であるか否かを確認する(S406)。S406の処理により確認した結果、焦点度が所定の閾値以上、即ち、撮像領域300内において変化を生じさせた物体に対して所定のレベル以上で焦点(ピント)が合っているのであれば(S406:Yes)、その物体が、変化領域P内に原稿200を指し示す指示部材としてのポインタ(本実施例では右手260の人差し指260a)があるか否かを検出するポインタ有無判定処理(S11)を実行する。なお、このポインタ有無検知処理(S11)については後述する。   After execution of the change area focus degree measurement process (S10), it is confirmed whether or not the focus degree in the change area P is equal to or greater than a predetermined threshold (S406). As a result of confirmation in the process of S406, if the degree of focus is equal to or greater than a predetermined threshold, that is, the object that has caused a change in the imaging region 300 is in focus (focus) at a predetermined level or higher (S406). : Yes), a pointer presence / absence determination process (S11) for detecting whether or not the object has a pointer (an index finger 260a of the right hand 260 in this embodiment) as an instruction member pointing to the document 200 in the change area P is executed. To do. The pointer presence / absence detection process (S11) will be described later.

このポインタ有無検知処理(S11)の実行後、ポインタ(人差し指260a)があるか否かを確認し(S407)、ポインタ(人差し指260a)があれば(S407:Yes)、そのポインタ(人差し指260a)の先端の位置座標(ポインタの先端が指し示す位置座標)を検出する(S408)。次いで、検出されたポインタ(人差し指260a)の先端の位置座標が分割ボタン220の投影されている領域にあるか否かを確認する(S409)。   After executing this pointer presence / absence detection process (S11), it is confirmed whether or not there is a pointer (index finger 260a) (S407). If there is a pointer (index finger 260a) (S407: Yes), the pointer (index finger 260a) The position coordinates of the tip (position coordinates pointed by the tip of the pointer) are detected (S408). Next, it is confirmed whether or not the position coordinate of the tip of the detected pointer (index finger 260a) is in the area where the division button 220 is projected (S409).

S409の処理により確認した結果、ポインタ(人差し指260a)の先端の位置座標が分割ボタン220の投影されている領域になければ(S409:No)、そのポインタ(人差し指260a)の先端の位置座標をポインタ先端座標格納部46dに記憶し(S410)、S7の処理へ移行する。   If the position coordinate of the tip of the pointer (index finger 260a) is not in the area where the split button 220 is projected (S409: No) as a result of the confirmation in S409, the position coordinate of the tip of the pointer (index finger 260a) is the pointer. It memorize | stores in the front-end | tip coordinate storage part 46d (S410), and transfers to the process of S7.

また、S406の処理により確認した結果、焦点度が所定の閾値未満、即ち、変化領域Pの焦点(ピント)が所定のレベル以上にぼけていた場合(S406:No)、又は、S407の処理により確認した結果、ポインタ(人差し指260a)が存在しない場合(S407:No)もまた、S7の処理へ移行する。   In addition, as a result of checking in the process of S406, when the degree of focus is less than a predetermined threshold, that is, the focus (focus) of the change area P is more than a predetermined level (S406: No), or by the process of S407 As a result of the confirmation, if the pointer (index finger 260a) does not exist (S407: No), the process also proceeds to S7.

従って、S10,S406,S11,S407〜S410の処理によれば、所定の閾値以上の焦点度を有するポインタ(人差し指260a)が検出されると、そのポインタ(人差し指260a)の先端の位置座標がポインタ先端座標格納部46dに記憶される。そして、それが移動するポインタ(人差し指260a)である場合、ポインタ先端座標格納部46dには、ポインタ(人差し指260a)の先端の位置座標の記録が開始され、S410の処理が実行される毎に、ポインタ(人差し指260a)の先端の位置座標が順次記録される。そして、ある位置においてポインタ(人差し指260a)を上方に持ち上げる(ポインタ(人差し指260a)の位置を高くする)などの動作により、そのポインタ(人差し指260a)に対する焦点度が閾値未満になった場合に、ポインタ先端座標格納部46dへのポインタ(人差し指260a)の先端の位置座標の記録が停止(禁止)され、その結果として、移動するポインタ(人差し指260a)の先端により描かれた1つの軌跡に対応する位置座標の記録が一旦終了する。換言すれば、ポインタ先端座標格納部46dへの、移動するポインタ(人差し指260a)の先端により描かれた軌跡に対応する座標の記録は、ポインタ(人差し指260a)を上方に持ち上げるなどの動作によって、そのポインタ(人差し指260a)に対する焦点度が閾値未満になるまで連続して実行されることになる。   Therefore, according to the processes of S10, S406, S11, and S407 to S410, when a pointer (index finger 260a) having a degree of focus equal to or greater than a predetermined threshold is detected, the position coordinates of the tip of the pointer (index finger 260a) are changed to the pointer. It is stored in the tip coordinate storage unit 46d. If it is a moving pointer (index finger 260a), the pointer tip coordinate storage unit 46d starts recording the position coordinate of the tip of the pointer (index finger 260a), and each time the process of S410 is executed, The position coordinates of the tip of the pointer (index finger 260a) are sequentially recorded. Then, when the focus on the pointer (index finger 260a) becomes lower than the threshold value by an operation such as lifting the pointer (index finger 260a) upward (increasing the position of the pointer (index finger 260a)) at a certain position, the pointer Recording of the position coordinates of the tip of the pointer (index finger 260a) to the tip coordinate storage unit 46d is stopped (prohibited), and as a result, a position corresponding to one locus drawn by the tip of the moving pointer (index finger 260a). Coordinate recording is temporarily terminated. In other words, the recording of the coordinates corresponding to the locus drawn by the tip of the moving pointer (index finger 260a) in the pointer tip coordinate storage unit 46d is performed by an operation such as lifting the pointer (index finger 260a) upward. The process is continuously executed until the degree of focus on the pointer (index finger 260a) is less than the threshold value.

なお、上述のように、軌跡の座標の記録中に、ポインタ先端座標格納部46dへのポインタ(人差し指260a)の先端の位置座標の記録が停止(禁止)された場合には、ポインタ先端座標格納部46dの最後に記憶される位置座標に、1つの軌跡において最後に入力されたことを示すマークが付加されるものとする。   As described above, if recording of the position coordinates of the tip of the pointer (index finger 260a) to the pointer tip coordinate storage unit 46d is stopped (prohibited) during the recording of the locus coordinates, the pointer tip coordinate storage is performed. It is assumed that a mark indicating the last input in one trajectory is added to the position coordinate stored at the end of the part 46d.

また、S410によりポインタ先端座標格納部46dへの座標を記憶させるための前提となる処理である変化領域内焦点度測定処理(S10)及びポインタ有無検知処理(S11)は、S8,S404,S9,S405の処理により、原稿200の四頂点の位置(座標)がスタンバイ処理(図10)におけるS304の処理により取得された際の位置と変化なく、且つ、固定物(左手250)が置かれたままの状態であることを確認した後に実行される。よって、ポインタ(人差し指260a)により指し示され、ポインタ先端座標格納部46dへ記憶される座標は、スタンバイ処理(図10)のS307の処理において撮像された原稿200の画像データに対して正確な位置として入力される。従って、正確に原稿200を区分することができる。更に、ポインタ(人差し指260a)が軌跡を描く際にも固定物(左手250)により原稿200の固定がなされているので、原稿200の位置が、ポインタ(人差し指260aとの接触などによって移動することも防止することができる。また、固定物が検出されない場合において、指示部材が撮像領域内を移動したとしても無駄な検出を行なわないで済む。   In addition, the in-change-region focus degree measurement process (S10) and the pointer presence / absence detection process (S11), which are preconditions for storing the coordinates in the pointer tip coordinate storage unit 46d in S410, are S8, S404, S9, By the process of S405, the positions (coordinates) of the four vertices of the document 200 are not changed from the positions obtained by the process of S304 in the standby process (FIG. 10), and the fixed object (left hand 250) is left in place. It is executed after confirming that the status is. Therefore, the coordinates pointed to by the pointer (index finger 260a) and stored in the pointer tip coordinate storage unit 46d are accurate positions with respect to the image data of the document 200 captured in the process of S307 of the standby process (FIG. 10). Is entered as Therefore, the document 200 can be accurately classified. Furthermore, since the document 200 is fixed by the fixed object (left hand 250) even when the pointer (index finger 260a) draws a locus, the position of the document 200 may be moved by contact with the pointer (index finger 260a) or the like. In addition, when a fixed object is not detected, even if the pointing member moves within the imaging region, it is not necessary to perform useless detection.

一方、S409の処理により確認した結果、ポインタ(人差し指260a)の先端の位置座標が分割ボタン220の投影されている領域にあれば(S409:Yes)、状態カウンタ46iの値を+1して、「2」とする(S415)。次いで、投影中のトレース受付メッセージ44i2を非投影とし(S416)、更に、分割ボタン220を非投影とし(S417)、このトレース受付処理(S4)を終了する。この場合、状態カウンタ46iは「2」であるので、上述したメイン処理(図8)に従い、続いて、スキャン処理(S5)が実行される。なお、上述したS410の処理を行うことなく、S409の処理により、ポインタ(人差し指260a)の先端の位置座標が、分割ボタン220の投影されている領域上で確認された場合は、原稿200を複数領域に区分しないことを示す。   On the other hand, if the position coordinate of the tip of the pointer (forefinger 260a) is in the area where the division button 220 is projected (S409: Yes) as a result of checking in the process of S409, the value of the state counter 46i is incremented by 1 and “ 2 ”(S415). Next, the projecting trace acceptance message 44i2 is unprojected (S416), the division button 220 is unprojected (S417), and the trace acceptance process (S4) is terminated. In this case, since the state counter 46i is “2”, the scan process (S5) is subsequently executed in accordance with the main process (FIG. 8) described above. If the position coordinate of the tip of the pointer (forefinger 260a) is confirmed on the projected area of the division button 220 by the process of S409 without performing the process of S410 described above, a plurality of documents 200 are stored. Indicates that the area is not divided.

また、S404の処理により確認した結果、四原稿端有無判定処理(S8)において取得された原稿200の四頂点の座標が、四頂点座標格納部46cに格納されている座標に一致していない場合(S404:No)、又は、S405の処理により確認した結果、原稿200の余白部を固定する固定物(左手250)存在しない場合(S405:No)には、状態カウンタ46iの値を−1して、「0」とする(S412)。次いで、投影中のトレース受付メッセージ44i2を非投影とし(S413)、更に、分割ボタン220を非投影とし(S414)、このトレース受付処理(S4)を終了する。この場合、状態カウンタ46iは「1」であるので、上述したメイン処理(図8)に従い、続いて、スタンバイ処理(S3)が実行される。   Further, as a result of the confirmation in the process of S404, the coordinates of the four vertices of the document 200 acquired in the four document edge presence / absence determination process (S8) do not match the coordinates stored in the four-vertex coordinate storage unit 46c. (S404: No), or if the result of the confirmation in S405 is that there is no fixed object (left hand 250) for fixing the margin of the original 200 (S405: No), the value of the state counter 46i is decremented by 1. Then, “0” is set (S412). Next, the projecting trace acceptance message 44i2 is unprojected (S413), the division button 220 is unprojected (S414), and the trace acceptance process (S4) is terminated. In this case, since the state counter 46i is “1”, the standby process (S3) is subsequently executed in accordance with the main process (FIG. 8) described above.

また、S403の処理により確認した結果、撮像領域300内に変化がなければ(S403:No)、このトレース受付処理(S4)を終了する。この場合、状態カウンタ46iは「1」のままであるので、上述したメイン処理(図8)に従い、再度、トレース受付処理(S4)が実行される。   Further, as a result of the confirmation in the process of S403, if there is no change in the imaging region 300 (S403: No), this trace acceptance process (S4) is terminated. In this case, since the state counter 46i remains “1”, the trace reception process (S4) is executed again according to the main process (FIG. 8) described above.

次に、図12を参照して、撮像装置100がスキャン受付モードにある場合に実行されるスキャン処理(S5)について説明する。図12は、スキャン処理(S5)のフローチャートである。このスキャン処理(S5)では、まず、上述したトレース受付処理(S4)においてポインタ先端座標格納部46dに記憶された座標に従う分割領域(本実施例では200a〜200c)の境界線(本実施例では、境界線203a,203b)を原稿200上の対応する位置に投影する原稿分割線投影処理(S12)を実行する。なお、この原稿分割線投影処理(S12)については後述する。   Next, the scanning process (S5) executed when the imaging apparatus 100 is in the scan acceptance mode will be described with reference to FIG. FIG. 12 is a flowchart of the scanning process (S5). In this scanning process (S5), first, the boundary line (200a to 200c in this embodiment) of the divided area (200a to 200c in this embodiment) according to the coordinates stored in the pointer tip coordinate storage unit 46d in the above-described trace acceptance process (S4). , Boundary dividing lines 203a, 203b) are projected onto the corresponding positions on the document 200, and document dividing line projection processing (S12) is executed. The document dividing line projection process (S12) will be described later.

S12の処理後、撮像領域300の所定の位置(本実施例では撮像領域300の上部(図7参照))へスキャン受付初期メッセージ44i3を投影し(S501)、撮像領域300の所定の位置(本実施例では撮像領域300の左下部(図7参照))へスキャン終了ボタン230を投影する(S502)。なお、S501、S502の処理を行う際、既に、スキャン受付初期メッセージ44i3、スキャン終了ボタン230が投影中である場合には、そのスキャン受付初期メッセージ44i3、スキャン終了ボタン230の投影を継続するものとする。   After the processing of S12, a scan acceptance initial message 44i3 is projected onto a predetermined position of the imaging area 300 (in this embodiment, above the imaging area 300 (see FIG. 7)) (S501), and a predetermined position of the imaging area 300 (this In the embodiment, the scan end button 230 is projected onto the lower left part of the imaging area 300 (see FIG. 7) (S502). When performing the processing of S501 and S502, if the scan reception initial message 44i3 and the scan end button 230 are already being projected, the projection of the scan reception initial message 44i3 and the scan end button 230 is continued. To do.

S502の処理後、画像変化検知処理(S7)を実行し、次いで、撮像領域300内に変化があったか否か、具体的には、画像変化検知処理(S7)において演算された画素変化量HWが「0」であるか否かを確認する(S503)。S503の処理により確認した結果、撮像領域300内に変化があった場合、(S503:Yes)、四原稿端有無判定処理を実行する(S8)。次いで、この四原稿端有無判定処理(S8)において取得された原稿200の四頂点の座標が、四頂点座標格納部46cに格納されている座標に一致するか否かを確認する(S504)。   After the process of S502, an image change detection process (S7) is executed, and then whether or not there is a change in the imaging region 300, specifically, the pixel change amount HW calculated in the image change detection process (S7) is determined. It is confirmed whether or not it is “0” (S503). If there is a change in the imaging area 300 as a result of the confirmation in the process of S503 (S503: Yes), a process for determining whether or not there are four document edges is executed (S8). Next, it is confirmed whether or not the coordinates of the four vertices of the document 200 acquired in the four document edge presence / absence determination process (S8) coincide with the coordinates stored in the four vertex coordinate storage unit 46c (S504).

S504の処理により確認した結果、四原稿端有無判定処理(S8)において取得された原稿200の四頂点の座標が、四頂点座標格納部46cに格納されている座標に一致していれば(S504:Yes)、撮像領域300内において変化の生じた領域(変化領域P)の焦点度を測定する変化領域内焦点度測定処理(S10)を実行する。   As a result of checking in the process of S504, if the coordinates of the four vertices of the document 200 acquired in the four document edge presence / absence determination process (S8) match the coordinates stored in the four-vertex coordinate storage unit 46c (S504). : Yes), the in-change-region focus degree measurement process (S10) for measuring the focus degree of the region (change region P) in which the change has occurred in the imaging region 300 is executed.

変化領域内焦点度測定処理(S10)の実行後、変化領域P内における焦点度が所定の閾値以上であるか否かを確認し(S505)、焦点度が所定の閾値以上、即ち、撮像領域300内において変化を生じさせた物体に対して所定のレベル以上で焦点(ピント)が合っているのであれば(S505:Yes)、変化領域300内の原稿200を指し示す指示部材としてのポインタ(本実施例では右手260の人差し指260a)があるか否かを検出するポインタ有無判定処理(S11)を実行する。   After the execution of the change area focus degree measurement process (S10), it is checked whether or not the focus degree in the change area P is equal to or greater than a predetermined threshold (S505), and the focus degree is equal to or greater than the predetermined threshold, that is, the imaging area. If the object that caused the change in 300 is in focus (focus) at a predetermined level or higher (S505: Yes), a pointer (indicator) that points to the document 200 in the change area 300 (book) In the embodiment, a pointer presence / absence determination process (S11) for detecting whether or not the index finger 260a) of the right hand 260 is present is executed.

このポインタ有無検知処理(S11)の実行後、ポインタ(人差し指260a)があるか否かを確認し(S506)、ポインタ(人差し指260a)があれば(S506:Yes)、そのポインタ(人差し指260a)の先端の位置座標を検出する(S507)。   After executing this pointer presence / absence detection process (S11), it is confirmed whether or not there is a pointer (index finger 260a) (S506). If there is a pointer (index finger 260a) (S506: Yes), the pointer (index finger 260a) The position coordinate of the tip is detected (S507).

S507によりポインタ(人差し指260a)の先端の位置座標を検出するための前提の処理である変化領域内焦点度測定処理(S10)及びポインタ有無検知処理(S11)は、S8,S504により、原稿200の四頂点の位置(座標)がスタンバイ処理(図10)におけるS304の処理により取得された際の位置と変化ないことを確認した後に実行される。よって、このS507の処理により検出されたポインタ(人指し指260a)の先端が指し示す座標は、スタンバイ処理(図10)のS307の処理において撮像された原稿200の画像データに対して正確な位置として入力される。   In step S507, the in-change area focus degree measurement process (S10) and the pointer presence / absence detection process (S11), which are preconditions for detecting the position coordinates of the tip of the pointer (index finger 260a), are performed in steps S8 and S504. It is executed after confirming that the positions (coordinates) of the four vertices are not different from the positions obtained by the process of S304 in the standby process (FIG. 10). Therefore, the coordinates indicated by the tip of the pointer (index finger 260a) detected by the process of S507 are input as an accurate position with respect to the image data of the document 200 imaged in the process of S307 of the standby process (FIG. 10). The

S507の処理後、検出されたポインタ(人差し指260a)の先端の位置座標がスキャン終了ボタン230の投影されている領域にあるか否かを確認する(S508)。S508の処理により確認した結果、ポインタ(人差し指260a)の先端の位置座標がスキャン終了ボタン230の投影されている領域になければ(S508:No)、そのポインタ(人差し指260a)の先端の位置座標を含む分割領域は既に取得(入力)済みであるか否かを確認する(S509)。   After the processing of S507, it is confirmed whether or not the position coordinate of the tip of the detected pointer (index finger 260a) is in the area where the scan end button 230 is projected (S508). If the position coordinate of the tip of the pointer (index finger 260a) is not in the area where the scan end button 230 is projected (S508: No) as a result of the confirmation in S508, the position coordinate of the tip of the pointer (index finger 260a) is determined. It is confirmed whether or not the divided area to be included has already been acquired (input) (S509).

S509の処理により確認した結果、ポインタ(人差し指260a)の先端の位置座標を含む分割領域が未だ取得(入力)されていない領域であれば(S509:No)、ポインタ(人差し指260a)で指し示すことによって指定された分割領域の画像データを取得(入力)し、ファイル化する分割領域画像データ取得処理(S13)を実行する。なお、この分割領域画像データ取得処理(S13)については後述する。   As a result of confirmation in the processing of S509, if the divided area including the position coordinate of the tip of the pointer (index finger 260a) has not yet been acquired (input) (S509: No), by pointing with the pointer (index finger 260a) The image data of the specified divided area is acquired (input), and the divided area image data acquisition process (S13) to be filed is executed. The divided area image data acquisition process (S13) will be described later.

この分割領域画像データ取得処理(S13)の実行後、画像データの取得(入力)が完了した分割領域に対し、斜線を投影する(S510)。このS510の処理では、投影用画像データ格納部46hに記憶される投影用画像データを、画像データ取得済みの分割領域に斜線を付加した投影用画像に対応する投影用画像データで更新し、その更新された投影用画像データに基づいて撮像領域300内の原稿200の上に投影する。   After execution of this divided area image data acquisition process (S13), oblique lines are projected onto the divided areas for which acquisition (input) of image data has been completed (S510). In the processing of S510, the projection image data stored in the projection image data storage unit 46h is updated with the projection image data corresponding to the projection image obtained by adding a diagonal line to the divided area where the image data has been acquired. Based on the updated projection image data, the image is projected onto the document 200 in the imaging area 300.

S510の処理により、画像データの取得が終了した分割領域に対して斜線が投影されることにより、画像データが取得(入力)済みの分割領域と未取得(未入力)の分割領域とを一目瞭然に区別し得る。それによって、既に入力済みの領域の画像データを重複して入力しようとしたり、所望の領域の画像データを取得し損じたりすることが抑制され、画像データの入力作業を効率的に行ない得る。   By the processing of S510, oblique lines are projected on the divided areas for which the acquisition of image data has been completed, so that the divided areas where the image data has been acquired (input) and the divided areas where the image data has not been acquired (uninputted) can be clearly seen. A distinction can be made. As a result, it is possible to prevent the image data of the already input area from being input twice or to fail to acquire the image data of the desired area, and the image data can be input efficiently.

S510の処理後、画像データが未だ取得されていない(未入力の)分割領域があるか否かを確認し(S511)、全ての分割領域の画像データが取得されていれば(S511:No)、状態カウンタ46iの値を−2して「0」とした後(S512)、投影中のメッセージ(スキャン受付初期メッセージ44i3又は次スキャン受付メッセージ44i4)を非投影とする(S513)。次いで、スキャン終了ボタン230を非投影とし(S514)、このスキャン処理(S5)を終了する。この場合、状態カウンタ46iは「0」であるので、上述したメイン処理(図8)に従い、続いて、スタンバイ処理(S3)が実行され、次の原稿200が配置されるのを待機する。   After the processing of S510, it is checked whether or not there is a divided area for which image data has not been acquired (not input) (S511), and if image data of all the divided areas has been acquired (S511: No) After the value of the state counter 46i is set to -2 to "0" (S512), the message being projected (scan reception initial message 44i3 or next scan reception message 44i4) is not projected (S513). Next, the scan end button 230 is not projected (S514), and this scan process (S5) is ended. In this case, since the status counter 46i is “0”, the standby process (S3) is subsequently performed in accordance with the main process (FIG. 8) described above, and the next document 200 is placed on standby.

一方で、S511の処理により確認した結果、画像データが未だ取得されていない分割領域がある場合には(S511:Yes)、S7の処理へ移行し、S7,S503,S8,S504,S10,S505,S11,S506〜S509,S13,S510〜S511の処理を繰り返す。   On the other hand, as a result of the confirmation in the process of S511, if there is a divided area for which image data has not yet been acquired (S511: Yes), the process proceeds to S7, and S7, S503, S8, S504, S10, S505. , S11, S506 to S509, S13, S510 to S511 are repeated.

また、S508処理により確認した結果、ポインタ(人差し指260a)の先端の位置座標がスキャン終了ボタン230の投影されている領域にあれば(S508:Yes)、それは、所望の画像データを取得し終えたというユーザの意思表示であるので、S509,S13,S510〜S511の処理をスキップして、S512の処理へ移行し、S512〜S514の処理を実行して、このスキャン処理(S5)を終了する。この場合もまた、状態カウンタ46iは「0」であるので、上述したメイン処理(図8)に従い、続いて、スタンバイ処理(S3)が実行され、次の原稿200が配置されるのを待機する。   If the position coordinate of the tip of the pointer (forefinger 260a) is in the area where the scan end button 230 is projected (S508: Yes) as a result of confirmation in S508 processing, it has acquired the desired image data. Therefore, the process of S509, S13, S510 to S511 is skipped, the process proceeds to S512, the process of S512 to S514 is executed, and the scan process (S5) is terminated. Also in this case, since the state counter 46i is “0”, the standby process (S3) is subsequently executed in accordance with the main process (FIG. 8) described above, and the next document 200 is placed on standby. .

更に、S509の処理により確認した結果、ポインタ(人差し指260a)の先端の位置座標を含む分割領域が既に取得(入力)済みの領域であれば(S509:Yes)、S7の処理へ移行する。S509の処理により、同じ分割領域の画像データが重複して取得されることを抑制し得、記憶領域(本実施例では、分割領域画像データ格納部46f)に無駄な画像データを記憶することを低減し得る上に、作業が効率的となる。なお、ポインタ(人差し指260a)の先端の位置座標を含む分割領域が既に取得(入力)済みの領域であることが確認された場合、そのことを報知するメッセージを撮像領域300に投影するようにしてもよい。   Further, as a result of checking in the process of S509, if the divided area including the position coordinate of the tip of the pointer (forefinger 260a) has already been acquired (input) (S509: Yes), the process proceeds to S7. By the processing of S509, it is possible to suppress the image data of the same divided area from being acquired redundantly, and it is possible to store useless image data in the storage area (the divided area image data storage unit 46f in this embodiment). In addition to being able to reduce, work becomes more efficient. When it is confirmed that the divided area including the position coordinate of the tip of the pointer (forefinger 260a) is an area that has already been acquired (input), a message informing that is projected onto the imaging area 300. Also good.

また、S505の処理により確認した結果、焦点度が所定の閾値未満、即ち、変化領域Pの焦点(ピント)が所定のレベル以上にぼけていた場合(S505:No)、又は、S506の処理により確認した結果、ポインタ(人差し指260a)が存在しない場合(S506:No)もまた、S7の処理へ移行する。従って、S10,S505,S11,S506の処理によれば、所定の閾値以上の焦点度を有するポインタ(人差し指260a)に対してのみ、その位置座標に応じた操作指示の入力がなされることになる。よって、例えば、ポインタ(人差し指260a)を原稿200へ下ろすという動作と、そのポインタ(人差し指260a)を上方に持ち上げるといった単純な動作で、ポインタ(人差し指260a)の先端による操作指示の入力又は非入力を切り換えることができる。   Further, as a result of the confirmation in the process of S505, when the degree of focus is less than a predetermined threshold, that is, the focus (focus) of the change area P is blurred above a predetermined level (S505: No), or by the process of S506 As a result of the confirmation, if the pointer (index finger 260a) does not exist (S506: No), the process also proceeds to S7. Therefore, according to the processing of S10, S505, S11, and S506, an operation instruction corresponding to the position coordinate is input only to a pointer (index finger 260a) having a degree of focus equal to or greater than a predetermined threshold. . Therefore, for example, an operation instruction by the tip of the pointer (index finger 260a) is input or not input by a simple operation such as lowering the pointer (index finger 260a) to the document 200 and lifting the pointer (index finger 260a) upward. Can be switched.

また、S504の処理により確認した結果、四原稿端有無判定処理(S8)において取得された原稿200の四頂点の座標が、四頂点座標格納部46cに格納されている座標に一致していない場合には(S504:No)、S512の処理へ移行し、S512〜S514の処理を行った後、このスキャン処理(S5)を終了する。この場合、S512の処理により状態カウンタ46iの値は「0」であるので、上述したメイン処理(図8)に従い、続いて、スタンバイ処理(S3)が実行される。   In addition, as a result of the confirmation in the process of S504, the coordinates of the four vertices of the document 200 acquired in the four document edge presence / absence determination process (S8) do not match the coordinates stored in the four-vertex coordinate storage unit 46c. (S504: No), the process proceeds to S512, the processes of S512 to S514 are performed, and the scan process (S5) is terminated. In this case, since the value of the state counter 46i is “0” by the process of S512, the standby process (S3) is subsequently executed in accordance with the main process (FIG. 8) described above.

また、S503の処理により確認した結果、撮像領域300内に変化がなければ(S503:No)、このスキャン処理(S5)を終了する。この場合、状態カウンタ46iは「2」のままであるので、上述したメイン処理(図8)に従い、再度、スキャン処理(S5)が実行される。   Further, as a result of checking in the processing of S503, if there is no change in the imaging region 300 (S503: No), this scanning processing (S5) is terminated. In this case, since the state counter 46i remains “2”, the scan process (S5) is executed again according to the main process (FIG. 8) described above.

次に、図13及び図14を参照して、上述のスタンバイ処理(図10)、トレース受付処理(図11)、及び、スキャン処理(図12)の中で実行される処理であって、撮像領域300内に変化があったか否かを検知する処理である画像変化検知処理(S7)について説明する。図13は、画像変化検知処理(S7)のフローチャートであり、図14は、画像変化検知処理(S7)の結果出力される変化領域Pの座標を説明する図である。なお、図14は、図面を簡略化するために、撮像領域300内に投影されているメッセージなどを一部省略して図示している。   Next, referring to FIG. 13 and FIG. 14, processing executed in the above-described standby processing (FIG. 10), trace acceptance processing (FIG. 11), and scanning processing (FIG. 12) The image change detection process (S7), which is a process for detecting whether or not there is a change in the area 300, will be described. FIG. 13 is a flowchart of the image change detection process (S7), and FIG. 14 is a diagram for explaining the coordinates of the change area P output as a result of the image change detection process (S7). In FIG. 14, in order to simplify the drawing, a part of the message projected in the imaging region 300 is omitted.

図13に示すように、この画像検知処理(S7)では、まず、撮像装置100により撮像領域300を撮像し、その解像度を落とした低解像度の画像データを取得する(S701)。画像変化検知処理(S7)における以降の処理では、このS701の処理により取得された低解像度の画像データが用いられるので、演算量が少なく、処理を高速に行い得る。   As shown in FIG. 13, in this image detection process (S7), first, the imaging region 300 is imaged by the imaging device 100, and low-resolution image data with a reduced resolution is acquired (S701). In the subsequent processing in the image change detection processing (S7), the low-resolution image data acquired by the processing in S701 is used, so that the amount of calculation is small and the processing can be performed at high speed.

S701の処理後、静止画像データ格納部46aに保存画像データがあるか否かを確認し(S702)、静止画像データ格納部46aに保存画像データがなければ(S702:No)、S701の処理により取得した低解像度の画像データを、静止画像データ格納部46aの保存画像データとして記憶し(S703)、S704の処理へ移行する。一方で、S702の処理により確認した結果、静止画像データ格納部46aに保存画像データがあれば(S702)、S703の処理はスキップして、S704の処理へ移行する。   After the processing of S701, it is confirmed whether there is stored image data in the still image data storage unit 46a (S702). If there is no stored image data in the still image data storage unit 46a (S702: No), the processing of S701 is performed. The acquired low-resolution image data is stored as saved image data in the still image data storage unit 46a (S703), and the process proceeds to S704. On the other hand, as a result of checking in the process of S702, if there is stored image data in the still image data storage unit 46a (S702), the process of S703 is skipped and the process proceeds to S704.

S704では、この画像変化検知処理(S14)において参照する画素、即ち、撮像領域300内の画素の座標(w,h)において画素行を示す変数「h」を「0」とすると共に、画素変化量HWの値を「0」に初期化し、更に、変化画素座標格納部46gを初期化する。なお、図14に示すように、画素の座標(w,h)は、最左上端を(0,0)とし、最右下端を(W,H)とする撮像領域300の内部の座標であるものとする。S704の処理により、変数「h」が「0」に設定されることにより、撮像領域300における最上端の画素の画素データが参照されることとなる。   In S704, the variable “h” indicating the pixel row is set to “0” in the coordinates (w, h) of the pixel to be referred to in the image change detection process (S14), that is, the pixel in the imaging region 300, and the pixel change. The value of the amount HW is initialized to “0”, and the change pixel coordinate storage unit 46g is initialized. As shown in FIG. 14, the coordinates (w, h) of the pixel are the coordinates inside the imaging region 300 where the upper left end is (0, 0) and the lower right end is (W, H). Shall. By setting the variable “h” to “0” by the processing of S704, the pixel data of the uppermost pixel in the imaging region 300 is referred to.

S704の処理後、変数「h」の値が撮像領域300の最下端の画素行を示す「H」より小さいか否かを判断する(S705)。S705の処理により確認した結果、変数「h」の値が「H」より小さい場合、即ち、h<Hである場合(S705:Yes)、座標(w,h)において画素列を示す変数「w」を「0」とする(S706)。S704の処理により、変数「w」が「0」に設定されることにより、撮像領域300における最左端の画素の画素データが参照されることとなる。   After the processing of S704, it is determined whether or not the value of the variable “h” is smaller than “H” indicating the lowermost pixel row of the imaging region 300 (S705). If the value of the variable “h” is smaller than “H” as a result of checking in the process of S705, that is, if h <H (S705: Yes), the variable “w” indicating the pixel column at the coordinates (w, h). "Is set to" 0 "(S706). By setting the variable “w” to “0” by the processing of S704, the pixel data of the leftmost pixel in the imaging region 300 is referred to.

S706の処理後、変数「w」の値が撮像領域300の最右端の画素列を示す「W」より小さいか否かを判断する(S707)。S707の処理により確認した結果、変数「w」の値が「W」より小さい場合、即ち、w<Wである場合(S707:Yes)、S701の処理により取得された画像データにおける座標(w,h)の画素の画素データ[h][w]と、静止画像データ格納部46aに記憶されている保存画像データにおける座標(w,h)の画素の画素データ[h][w]とを比較する(S708)。具体的には、S708では、画素データ[h][w]に含まれるR,G,Bの各成分の値を比較する。   After the processing of S706, it is determined whether or not the value of the variable “w” is smaller than “W” indicating the rightmost pixel column of the imaging region 300 (S707). As a result of checking in the process of S707, when the value of the variable “w” is smaller than “W”, that is, when w <W (S707: Yes), the coordinates in the image data acquired by the process of S701 (w, The pixel data [h] [w] of the pixel h) is compared with the pixel data [h] [w] of the pixel at the coordinates (w, h) in the stored image data stored in the still image data storage unit 46a. (S708). Specifically, in S708, the values of the R, G, and B components included in the pixel data [h] [w] are compared.

次いで、S708の処理により画素データ[h][w]を比較した結果、両者の画素データ[h][w]が同じ色を示すものであるか否か、具体的には、R,G,Bの各成分の値が全て一致するか否かを確認する(S709)。   Next, as a result of comparing the pixel data [h] [w] by the processing of S708, whether or not both pixel data [h] [w] indicate the same color, specifically, R, G, It is confirmed whether or not the values of the components of B all match (S709).

S709の処理により確認した結果、両者の画素データ[h][w]の色が異なる場合、即ち、R,G,Bの各成分の値のうち、いずれか1つの成分の値が異なっている場合には(S709:No)、画素変化量HWに「1」を加算し(S710)、その画素の座標(w、h)を取得し(S711)、変数「w」に「1」を加算し(S712)、画素の座標(w、h)を右方へ1列移動し、右隣の画素の画素データを参照すべき画素データとする。S712の処理後、S707の処理へ移行する。   As a result of checking in step S709, when the colors of the pixel data [h] [w] are different, that is, the value of any one of the R, G, and B component values is different. In this case (S709: No), “1” is added to the pixel change amount HW (S710), the coordinates (w, h) of the pixel are acquired (S711), and “1” is added to the variable “w”. In step S712, the pixel coordinates (w, h) are moved to the right by one column, and the pixel data of the pixel on the right is used as pixel data to be referred to. After the processing of S712, the process proceeds to S707.

また、S709の処理により確認した結果、両者の画素データ[h][w]が同じ色を示すものである場合、即ち、R,G,Bの各成分の値が全て同じ場合には(S709:Yes)、それは座標(w、h)における画素データに変化はなかったことを示すので、S710〜S711の処理をスキップし、S712の処理へ移行する。   Further, as a result of the confirmation in the process of S709, when the pixel data [h] [w] of the both indicate the same color, that is, when the values of the R, G, and B components are all the same (S709). : Yes), it indicates that there is no change in the pixel data at the coordinates (w, h), so the processing of S710 to S711 is skipped and the processing proceeds to S712.

一方、S707の処理により確認した結果、変数「w」の値が「W」であれば(S707:No)、変数「h」に「1」を加算し(S712)、画素の座標(w、h)を下方へ1行移動し(S713)、S705の処理へ移行する。   On the other hand, if the value of the variable “w” is “W” as a result of the confirmation in S707 (S707: No), “1” is added to the variable “h” (S712), and the pixel coordinates (w, h) is moved downward by one line (S713), and the process proceeds to S705.

また、S705の処理により確認した結果、変数「h」の値が「H」であれば(S705:No)、即ち、この画像変化検知処理(S14)において参照される撮像領域300の画像データ(S701の処理で取得された画像データ及び静止画像データ格納部46aに記憶されている保存画像データ)を構成する全ての画素に対し、画素データの比較が完了した場合には、S711の処理により取得された画素の座標(w、h)を参照して、撮像の変化が検知された変化領域P(図14参照)の最左上の座標(WSTART,HSTART)と最右下の座標(WEND,HEND)とを変化領域座標格納部46hに格納し(S714)、次いで、画素変化量HWを出力する(S715)。   If the value of the variable “h” is “H” as a result of the confirmation in S705 (S705: No), that is, the image data of the imaging region 300 referred to in this image change detection process (S14) ( When the comparison of pixel data is completed for all the pixels constituting the image data acquired in the process of S701 and the stored image data stored in the still image data storage unit 46a), the process is acquired in the process of S711. The coordinates (WSTART, HEND) and the coordinates (WEND, HEND) at the upper left of the change area P (see FIG. 14) in which a change in imaging has been detected are referenced with reference to the coordinates (w, h) of the pixel that has been detected. Are stored in the change area coordinate storage unit 46h (S714), and then the pixel change amount HW is output (S715).

S715の処理により出力された画素変化量HWの値は、スタンバイ処理(図10)のS302、トレース受付処理(図11)のS403、又は、スキャン処理(図12)のS503の処理において参照され、判定結果に応じた処理がなされる。   The value of the pixel change amount HW output by the process of S715 is referred to in the process of S302 of the standby process (FIG. 10), S403 of the trace reception process (FIG. 11), or S503 of the scan process (FIG. 12). Processing according to the determination result is performed.

S715の処理後、静止画像データ格納部46aに記憶されている保存画像データを、S701の処理により取得した画像データ(低解像度の画像データ)で更新し(S716)、この画像変化検知処理(S7)を終了する。   After the processing of S715, the saved image data stored in the still image data storage unit 46a is updated with the image data (low-resolution image data) acquired by the processing of S701 (S716), and this image change detection processing (S7 ) Ends.

次に、図15を参照して、上述のスタンバイ処理(図10)、トレース受付処理(図11)、及び、スキャン処理(図12)の中で実行される処理であって、撮像領域300に原稿200の4つの原稿端201が存在するか否かを判定する四原稿端有無判定処理(S8)について説明する。   Next, referring to FIG. 15, processing executed in the above-described standby processing (FIG. 10), trace reception processing (FIG. 11), and scanning processing (FIG. 12) The four document edge presence / absence determination process (S8) for determining whether there are four document edges 201 of the document 200 will be described.

この四原稿端検知処理(S8)では、まず、撮像装置100により撮像領域300を撮像し、その画像データを取得する(S801)。次いで、その取得された画像データから単純輝度画像データを生成する(S802)。即ち、S802では、S801の処理により取得された画像データを構成する各画素のR,G,Bの各成分の輝度値を加算した画像データとする。   In the four document edge detection process (S8), first, the imaging area 300 is imaged by the imaging device 100, and the image data is acquired (S801). Next, simple luminance image data is generated from the acquired image data (S802). That is, in S802, the image data is obtained by adding the luminance values of the R, G, and B components of each pixel constituting the image data acquired by the processing of S801.

S802の処理後、その単純輝度画像データのヒストグラムの重心値を演算し(S803)、その重心値を閾値として、S802において生成された単純輝度画像データから2値画像データを生成する(S804)。具体的には、S804では、S803の処理により得られたヒストグラムの重心値を閾値として、その閾値より高い輝度の画素情報を「1」(即ち、「白」)とし、その閾値より低い輝度の画素情報を「0」(即ち、「黒」)とする。   After the processing of S802, the centroid value of the histogram of the simple luminance image data is calculated (S803), and the binary image data is generated from the simple luminance image data generated in S802 using the centroid value as a threshold (S804). Specifically, in S804, the barycentric value of the histogram obtained by the processing in S803 is set as a threshold, pixel information having a luminance higher than the threshold is set to “1” (that is, “white”), and luminance lower than the threshold is set. The pixel information is “0” (ie, “black”).

S804の処理後、2値画像データから2次微分画像データを生成する(S805)。次いで、その2次微分画像データの水平方向のヒストグラムを演算し(S806)、更に、垂直方向のヒストグラムを演算する(S807)。なお、上述の説明における「水平方向」及び「垂直方向」とは、それぞれ、図14に示したX軸方向及びY軸方向に対応する。   After the processing of S804, secondary differential image data is generated from the binary image data (S805). Next, a horizontal histogram of the secondary differential image data is calculated (S806), and a vertical histogram is further calculated (S807). The “horizontal direction” and “vertical direction” in the above description correspond to the X-axis direction and the Y-axis direction shown in FIG. 14, respectively.

次いで、S806〜S807の処理により得られた水平方向及び垂直方向のヒストグラムにおいて、所定の閾値を超えるヒストグラムの値が、水平方向において2つ、且つ、垂直方向において2つ検出されたか否かを確認する(S808)。即ち、S808では、撮像領域300において、原稿200の原稿端201を示す最も大きなヒストグラムのピークが、原稿200の右端及び左端に対応するものとして水平方向に2つと、原稿200の上端及び下端に対応するものとして垂直方向に2つとが検出されたか否かを確認する。   Next, in the horizontal and vertical histograms obtained by the processing of S806 to S807, it is confirmed whether two histogram values exceeding a predetermined threshold value are detected in the horizontal direction and two in the vertical direction. (S808). That is, in S808, in the imaging area 300, the largest histogram peak indicating the document edge 201 of the document 200 corresponds to the right and left edges of the document 200 in the horizontal direction, and corresponds to the upper and lower edges of the document 200. It is confirmed whether or not two are detected in the vertical direction.

S808の処理により確認した結果、水平方向及び垂直方向のヒストグラムにおいて、所定の閾値を超えるヒストグラムの値が、水平方向において2つ、且つ、垂直方向において2つ検出されていれば(S808:Yes)、原稿200の四辺(4つの原稿端201)が撮像領域300内に存在すると判定する(S809)。次いで、S808の処理により検出された計4つのヒストグラムのピークの位置に基づいて、撮像領域300内に配置される原稿200の四頂点の座標を取得し(S810)、この四原稿端有無判定処理(S8)を終了する。   As a result of checking in the process of S808, if two histogram values exceeding a predetermined threshold are detected in the horizontal direction and two in the vertical direction in the horizontal and vertical histograms (S808: Yes). Then, it is determined that the four sides (four document edges 201) of the document 200 are present in the imaging region 300 (S809). Next, the coordinates of the four vertices of the document 200 arranged in the imaging region 300 are acquired based on the peak positions of the total of four histograms detected by the processing of S808 (S810), and the four document edge presence / absence determination processing is performed. (S8) is terminated.

一方で、S808の処理により確認した結果、水平方向及び垂直方向のヒストグラムにおいて、所定の閾値を超えるヒストグラムの値が水平方向において2つ、且つ、垂直方向において2つ検出されない場合、例えば、水平方向には2つ検出されたが垂直方向に1つしか検出されなかった場合には(S808:No)、原稿200の四辺(4つの原稿端201)が撮像領域300内に存在しないと判定し(S811)、この四原稿端有無判定処理(S8)を終了する。   On the other hand, as a result of the confirmation in the processing of S808, when two histogram values exceeding a predetermined threshold are not detected in the horizontal direction and two in the vertical direction in the horizontal and vertical histograms, for example, in the horizontal direction 2 is detected, but only one is detected in the vertical direction (S808: No), it is determined that the four sides (four document edges 201) of the document 200 do not exist in the imaging region 300 ( In step S811, the four document edge presence / absence determination process (S8) ends.

S810又はS908により判定された結果は、スタンバイ処理(図10)のS303、トレース受付処理(図11)のS404、又は、スキャン処理(図12)のS504の処理において参照され、判定結果に応じた処理がなされる。   The result determined in S810 or S908 is referred to in S303 of the standby process (FIG. 10), S404 of the trace reception process (FIG. 11), or S504 of the scan process (FIG. 12), and depends on the determination result. Processing is done.

次に、図16を参照して、上述のスタンバイ処理(図10)及びトレース受付処理(図11)の中で実行される処理であって、原稿200の余白部に固定物(本実施例では左手250)が置かれたか否かを判定する余白部固定物有無判定処理(S9)について説明する。図16は、余白部固定物有無判定処理(S9)のフローチャートである。   Next, referring to FIG. 16, processing executed in the above-described standby processing (FIG. 10) and trace acceptance processing (FIG. 11), and a fixed object (in the present embodiment, in the blank portion). The blank portion fixed object presence / absence determination process (S9) for determining whether or not the left hand 250) is placed will be described. FIG. 16 is a flowchart of margin part fixed object presence / absence determination processing (S9).

この余白部有無判定処理(S9)では、まず、撮像装置100により撮像領域300を撮像し、その画像データを取得する(S901)。次いで、取得された画像データに対し、四頂点座標格納部46cに記憶される原稿200の四頂点の座標を元に、原稿端201から所定幅の領域で構成される余白部を設定する(S902)。   In this blank portion presence / absence determination processing (S9), first, the imaging region 300 is imaged by the imaging device 100, and the image data is acquired (S901). Next, based on the coordinates of the four vertices of the document 200 stored in the four-vertex coordinate storage unit 46c, a margin portion constituted by an area having a predetermined width from the document edge 201 is set for the acquired image data (S902). ).

次いで、S902の処理により検出された余白部に含まれる全ての画素の中に、固定物色情報格納部50aに予め登録されている固定物色情報と類似色を有する画素があるか否かを確認する(S903)。具体的には、S903では、S902の処理により検出された余白部に含まれる画素であって、そのRGB値が固定物色情報格納部50aへ予め登録されている固定物色情報との色空間上の距離が閾値以下であるRGB値を有する画素があるか否かを確認する。   Next, it is confirmed whether or not there is a pixel having a color similar to the fixed object color information registered in advance in the fixed object color information storage unit 50a among all the pixels included in the blank portion detected by the processing of S902. (S903). Specifically, in S903, the pixels included in the blank portion detected by the processing in S902, the RGB values of which are on the color space with the fixed object color information registered in advance in the fixed object color information storage unit 50a. It is confirmed whether or not there is a pixel having an RGB value whose distance is equal to or less than a threshold value.

S903の処理により確認した結果、固定物色情報格納部50aに予め登録されている固定物色情報と類似色を有する画素があれば(S903:Yes)、それらの画素を抽出し(S904)、抽出された各画素毎に、各画素から半径r(例えば、半径5mm程度)の領域内に含まれている全ての画素数に対する、固定物色情報と類似色を有する画素(該固定物色情報との色空間上の距離が閾値以下であるRGB値を有する画素)の存在率を演算し(S905)、その存在率が所定の閾値以上である円領域の中心である画素を抽出する(S906)。   If there is a pixel having a similar color to the fixed object color information registered in advance in the fixed object color information storage unit 50a as a result of the confirmation in S903 (S903: Yes), these pixels are extracted (S904) and extracted. In addition, for each pixel, pixels having similar color information and similar colors (color space with the fixed object color information) with respect to all the numbers of pixels included in a region having a radius r (for example, a radius of about 5 mm) from each pixel. The existence ratio of pixels having an RGB value whose upper distance is equal to or less than the threshold is calculated (S905), and the pixel at the center of the circular area whose existence ratio is equal to or greater than the predetermined threshold is extracted (S906).

次いで、S906の処理により抽出された画素が、余白部に含まれる全画素数に対して所定の割合以上存在するか否かを確認する、即ち、固定物色情報と類似色を有し、且つ、所定レベル以上の面積を有する物体が、余白部を所定の割合以上で占有しているか否かを確認する(S907)。   Next, it is confirmed whether or not the pixels extracted by the processing of S906 are present in a predetermined ratio or more with respect to the total number of pixels included in the blank portion, that is, have a similar color to the fixed object color information, and It is confirmed whether or not an object having an area of a predetermined level or more occupies a blank portion at a predetermined ratio or more (S907).

S906の処理により確認した結果、固定物色情報と類似色を有し、且つ、所定レベル以上の面積を有する物体が、余白部に対して所定の割合以上で占有していれば(S907:Yes)、余白部に固定物があると判定し(S908)、この余白部固定物有無判定処理(S9)を終了する。   As a result of checking in the processing of S906, if an object having a color similar to the fixed object color information and having an area of a predetermined level or more occupies at a predetermined ratio or more with respect to the blank portion (S907: Yes). Then, it is determined that there is a fixed object in the margin part (S908), and this margin part fixed object presence / absence determination process (S9) is terminated.

一方で、S903の処理により確認した結果、固定物色情報格納部50aに予め登録されている固定物色情報と類似色を有する画素がない場合(S903:No)、又は、S907の処理により確認した結果、固定物色情報と類似色を有し、且つ、所定レベル以上の面積を有する物体の余白部に対する割合が所定値未満であれば(S907:No)、余白部に固定物がないと判定し(S909)、この余白部固定物有無判定処理(S9)を終了する。   On the other hand, as a result of confirmation by the process of S903, when there is no pixel having a similar color to the fixed object color information registered in advance in the fixed object color information storage unit 50a (S903: No), or a result confirmed by the process of S907 If the ratio of an object having a color similar to the fixed object color information and having an area of a predetermined level or more to the margin part is less than a predetermined value (S907: No), it is determined that there is no fixed object in the margin part ( S909), the margin portion fixed object presence / absence determination process (S9) is terminated.

S907又はS908により判定された結果は、スタンバイ処理(図10)のS305又はトレース受付処理(図11)のS405の処理において参照され、判定結果に応じた処理がなされる。   The result determined in S907 or S908 is referred to in S305 of the standby process (FIG. 10) or S405 of the trace reception process (FIG. 11), and a process according to the determination result is performed.

次に、図17を参照して、上述のトレース受付処理(図11)、及び、スキャン処理(図12)の中で実行される処理であって、撮像領域300内における変化領域Pの焦点度を測定する処理である変化領域内焦点度測定処理(S10)について説明する。図17は、変化領域内焦点度測定処理(S10)のフローチャートである。   Next, referring to FIG. 17, processing executed in the above-described trace reception processing (FIG. 11) and scanning processing (FIG. 12), and the focus of the change region P in the imaging region 300 The in-change-region focus degree measurement process (S10), which is a process for measuring the above, is described. FIG. 17 is a flowchart of the in-change-region focus degree measurement process (S10).

この変化領域内焦点度測定処理(S10)では、まず、静止画像データ格納部46aに記憶されている撮像領域300の画像データを単純輝度画像データに変換する(S1001)。S1001の処理では、例えば、NTSCビデオ規格の加重平均法などの方法により、各画素のRGB値を輝度値に変換する。   In the change area focal degree measurement process (S10), first, the image data of the imaging area 300 stored in the still image data storage unit 46a is converted into simple luminance image data (S1001). In the processing of S1001, for example, the RGB value of each pixel is converted into a luminance value by a method such as a weighted average method of the NTSC video standard.

S1001の処理後、この変化領域内焦点度測定処理(S10)において参照する画素、即ち、撮像領域300内の画素の座標画素の座標(w,h)において画素列を表す変数[w]及び画素行を表す変数「h」を、それぞれ、変化領域座標格納部46hに記憶されている変化領域Pの最左上の座標に基づいて、「WSTART」及び「HSTART」とすると共に、変数「avg」を「0」とする(S1002)。S1002の処理により、参照する画素の座標が(WSTART,HSTART)に設定されることにより、変化領域Pにおける最左上の画素の画素データが参照されることになる。   After the process of S1001, the variable [w] and the pixel representing the pixel column in the coordinates (w, h) of the pixel to be referred to in the focal area measurement process (S10) in the change area, that is, the coordinate pixel of the pixel in the imaging area 300 The variable “h” representing the row is set to “WSTART” and “HSTART” respectively based on the upper left coordinates of the change area P stored in the change area coordinate storage unit 46h, and the variable “avg” is set to “0” is set (S1002). By the processing of S1002, the coordinates of the pixel to be referred to are set to (WSTART, HSTART), so that the pixel data of the upper left pixel in the change region P is referred to.

S1002の処理後、変数「h」の値が変化領域Pの最下行である「HEND」より小さいか否かを確認する(S1003)。S1003の処理により確認した結果、変数「h」の値が「HEND」より小さい、即ち、h<HENDであれば(S1003:Yes)、変数「w」の値が変化領域Pの最右列である「WEND」より小さいか否かを確認する(S1004)。   After the processing of S1002, it is confirmed whether or not the value of the variable “h” is smaller than “HEND” which is the bottom row of the change area P (S1003). As a result of checking in the processing of S1003, if the value of the variable “h” is smaller than “HEND”, that is, if h <HEND (S1003: Yes), the value of the variable “w” is the rightmost column of the change region P. It is confirmed whether it is smaller than a certain “WEND” (S1004).

S1004の処理により確認した結果、変数「w」の値が「WEND」より小さい、即ち、w<WENDである場合には(S1004:Yes)、静止画像データ格納部46aに記憶されている保存画像データにおける座標(w,h)の画素の画素データを参照し、その画素データの輝度値(画素データ[h][w])を変数「avg」に加算する(S1005)。次いで、変数「w」に「1」を加算し(S1006)、S1004の処理へ移行する。S1006の処理により、参照される画素が右方へ1列移動される。   If the value of the variable “w” is smaller than “WEND” as a result of the confirmation in S1004, that is, if w <WEND (S1004: Yes), the stored image stored in the still image data storage unit 46a is stored. With reference to the pixel data of the pixel at the coordinates (w, h) in the data, the luminance value (pixel data [h] [w]) of the pixel data is added to the variable “avg” (S1005). Next, “1” is added to the variable “w” (S1006), and the process proceeds to S1004. By the processing of S1006, the pixel to be referred to is moved to the right by one column.

一方、S1004の処理により確認した結果、変数「w」の値が、変化領域座標格納部46hに記憶されている変化領域Pの最右列を示す「WEND」であれば(S1004:No)、変数「h」に「1」を加算し(S1007)、更に、変数「w」を「WSTART」とする(S1008)。S1007〜S1008の処理により、1行下の最左列の画素が参照されることになる。S1008の処理後、S1003の処理へ移行する。   On the other hand, if the value of the variable “w” is “WEND” indicating the rightmost column of the change area P stored in the change area coordinate storage unit 46h as a result of checking by the process of S1004 (S1004: No), “1” is added to the variable “h” (S1007), and the variable “w” is set to “WSTART” (S1008). Through the processing of S1007 to S1008, the pixel in the leftmost column below one row is referred to. After the process of S1008, the process proceeds to S1003.

また、S1003の処理により確認した結果、変数「h」の値が、変化領域座標格納部46hに記憶されている変化領域Pの最下行を示す「HEND」であれば(S1003:No)、変数「avg」を、変化領域Pを構成する画素数、即ち、|(HEND−HSTART)*(WEND−WSTART)|(|x|はxの絶対値を表す演算記号)で除算する(S1009)。S1009における演算により得られた値(avg)は、画素データの輝度値の平均を示す。   If the value of the variable “h” is “HEND” indicating the bottom row of the change area P stored in the change area coordinate storage unit 46h as a result of the confirmation in S1003 (S1003: No), the variable “Avg” is divided by the number of pixels constituting the change area P, that is, | (HEND−HSTART) * (WEND−WSTART) | (| x | is an arithmetic symbol representing the absolute value of x) (S1009). The value (avg) obtained by the calculation in S1009 indicates the average of the luminance values of the pixel data.

S1009の処理後、変数[w]及び変数「h」を、それぞれ、「WSTART」及び「HSTART」とすると共に、変数「v」を「0」とする(S1010)。S1010の処理により、参照する画素の座標が(WSTART,HSTART)に設定され、変化領域Pにおける最左上の画素データが再度参照されることになる。   After the process of S1009, the variable [w] and the variable “h” are set to “WSTART” and “HSTART”, respectively, and the variable “v” is set to “0” (S1010). By the processing of S1010, the coordinates of the pixel to be referred to are set to (WSTART, HSTART), and the upper left pixel data in the change region P is referred again.

S1010の処理後、変数「h」の値が「HEND」より小さいか否かを確認する(S1011)。S1011の処理により確認した結果、変数「h」の値が「HEND」より小さければ(S1011:Yes)、変数「w」の値が「WEND」より小さいか否かを確認する(S1012)。   After the processing of S1010, it is confirmed whether or not the value of the variable “h” is smaller than “HEND” (S1011). If the value of the variable “h” is smaller than “HEND” as a result of the confirmation in S1011 (S1011: Yes), it is confirmed whether the value of the variable “w” is smaller than “WEND” (S1012).

S1012の処理により確認した結果、変数「w」の値が「WEND」より小さければ(S1012:Yes)、静止画像データ格納部46aに記憶されている保存画像データにおける座標(w,h)の画素の画素データの輝度値を参照し、変数「v」に「(画素データ[h][w]−avg)」を加算する(S1013)。次いで、変数「w」に「1」を加算し(S1014)、S1012の処理へ移行する。S1014の処理により、参照される画素データが右方へ1列移動される。 If the value of the variable “w” is smaller than “WEND” (S1012: Yes) as a result of the confirmation in S1012, the pixel at the coordinates (w, h) in the saved image data stored in the still image data storage unit 46a. Referring to the luminance value of the pixel data, “(pixel data [h] [w] −avg) 2 ” is added to the variable “v” (S1013). Next, “1” is added to the variable “w” (S1014), and the process proceeds to S1012. By the processing of S1014, the pixel data to be referred to is moved to the right by one column.

一方、S1012の処理により確認した結果、変数「w」の値が「WEND」であれば(S1012:No)、変数「h」に「1」を加算し(S1015)、変数「w」を「WSTART」とする(S1016)。S1015〜S1016の処理により、1行下の最左列の画素データが参照されることになる。S1016の処理後、S1011の処理へ移行する。   On the other hand, if the value of the variable “w” is “WEND” (S1012: No) as a result of checking in the processing of S1012, “1” is added to the variable “h” (S1015), and the variable “w” is changed to “ WSTART ”(S1016). By the processing of S1015 to S1016, the pixel data in the leftmost column below one row is referred to. After the process of S1016, the process proceeds to S1011.

また、S1011の処理により確認した結果、変数「h」の値が「HEND」であれば(S1011:No)、変数「v」を変化領域Pを構成する画素数(即ち、|(HEND−HSTART)*(WEND−WSTART)|)で除算した値を「v」とする(S1017)。   If the value of the variable “h” is “HEND” (S1011: No) as a result of the confirmation in S1011, the variable “v” is set to the number of pixels constituting the change area P (that is, | (HEND-HSTART). ) * (WEND−WSTART) |) is set to “v” (S1017).

S1017における演算により得られた「v」は、変化領域Pにおける画素データ[h][w]の輝度値の分散値を示す。この分散値は、各画素ごとのR,G,Bの各成分を合計した値のばらつきが大きいほど大きい値となる。換言すれば、この分散値は、撮像領域300内に存在する物体全体にピントが合い、メリハリのある撮像である程大きくなる。   “V” obtained by the calculation in S1017 represents the variance of the luminance values of the pixel data [h] [w] in the change region P. The variance value increases as the variation of the sum of the R, G, and B components for each pixel increases. In other words, the dispersion value becomes larger as the whole object existing in the imaging region 300 is focused and sharper.

この変化領域内焦点度測定処理(S10)は、画像変化検知処理(S7)により、撮像領域300に変化があった場合に、その変化の生じた領域(変化領域P)に対してS1001〜S1018の処理を実行する。即ち、S1017の処理により得られた分散値「v」は、その値が大きければ、変化領域P内に存在する物体、つまり、撮像領域300に変化を生じさせた物体ににピントが合っていることを示す。従って、S1017の処理により得られた分散値「v」は、上述した画像変化検知処理(S7)において撮像領域300に変化を生じさせた物体に対してピントが合っているか否かを表す指標である「焦点度」に対応する値である。   In the change area focus degree measurement process (S10), when the image pickup area 300 is changed by the image change detection process (S7), the change area (change area P) is changed to S1001 to S1018. Execute the process. That is, if the variance value “v” obtained by the processing of S1017 is large, an object existing in the change area P, that is, an object that causes a change in the imaging area 300 is in focus. It shows that. Therefore, the variance value “v” obtained by the process of S1017 is an index that indicates whether or not the object that caused the change in the imaging region 300 in the image change detection process (S7) described above is in focus. It is a value corresponding to a certain “focus”.

よって、S1017に続いて、得られた分散値「v」を焦点度として出力し(S1018)、この変化領域内焦点度測定処理(S10)を終了する。   Therefore, following S1017, the obtained dispersion value “v” is output as the focus degree (S1018), and this change area focus degree measurement process (S10) is ended.

S1018の処理により出力された焦点度の値は、トレース受付処理(図11)のS406又はスキャン処理(図12)のS505の処理において参照され、所定の閾値と比較される。その際、この焦点度の値が所定の閾値以上であれば、即ち、撮像領域300に変化を生じさせた物体(具体的には、変化領域Pに存在する物体)に対するピントが所定レベル以上で合っているとみなされ、続いて、その撮像領域300に変化を生じさせた物体が、原稿200を指し示す指示部材としてのポインタ(本実施例では右手260の人差し指260a)であるか否かを判定するポインタ有無判定処理(S11)を実行する。   The value of the focus level output by the process of S1018 is referred to in the process of S406 of the trace reception process (FIG. 11) or the process of S505 of the scan process (FIG. 12), and is compared with a predetermined threshold value. At this time, if the value of the degree of focus is equal to or greater than a predetermined threshold, that is, the focus with respect to an object that causes a change in the imaging region 300 (specifically, an object existing in the change region P) is equal to or greater than a predetermined level. Next, it is determined whether or not the object that is considered to be matched and that has caused a change in the imaging area 300 is a pointer (an index finger 260a of the right hand 260 in this embodiment) as an instruction member that points to the document 200. A pointer presence / absence determination process (S11) is executed.

本実施例では、撮像装置100は原稿200に対して合焦されているので、撮像領域300に変化を生じさせた物体(変化領域Pに存在する物体)の位置が原稿200に対して上方にある程、その物体に対するピントは合わなくなり、その結果として、S1017の処理により得られた分散値「v」は小さい値となる。従って、換言すれば、「焦点度」は、撮像領域300に変化を生じさせた物体の原稿200に対する高さを表す指標でもある。よって、変化領域内焦点度測定処理(S10)では、撮像領域300に変化を生じさせた物体の原稿200に対する高さを検出して、その高さが所定の閾値以下であれば、ポインタ有無判定処理(S11)を実行することになる。   In the present embodiment, since the imaging apparatus 100 is focused on the document 200, the position of the object that caused a change in the imaging area 300 (the object existing in the change area P) is above the document 200. As a result, the object is out of focus, and as a result, the dispersion value “v” obtained by the process of S1017 becomes a small value. Therefore, in other words, the “focus degree” is also an index representing the height of the object that causes a change in the imaging region 300 with respect to the document 200. Therefore, in the change area focus degree measurement process (S10), the height of the object that caused the change in the imaging area 300 with respect to the document 200 is detected. Processing (S11) is executed.

次に、図18を参照して、そのポインタ有無判定処理(S11)について説明する。このポインタ有無判定処理(S11)は、上述したトレース受付処理(図11)及びスキャン処理(図12)において実行されるものであり、図18は、ポインタ有無判定処理(S11)のフローチャートである。   Next, the pointer presence / absence determination process (S11) will be described with reference to FIG. This pointer presence / absence determination process (S11) is executed in the above-described trace reception process (FIG. 11) and scan process (FIG. 12), and FIG. 18 is a flowchart of the pointer presence / absence determination process (S11).

このポインタ有無判定処理(S11)では、まず、撮像装置100により撮像領域300を撮像し、その画像データを取得する(S1101)。次いで、その取得された画像データから単純輝度画像データ(画像データの各画素のR,G,Bの各成分の輝度値を加算した画像データ)を生成する(S1102)。   In this pointer presence / absence determination processing (S11), first, the imaging region 300 is imaged by the imaging device 100, and the image data is acquired (S1101). Next, simple luminance image data (image data obtained by adding luminance values of R, G, and B components of each pixel of the image data) is generated from the acquired image data (S1102).

S1102の処理後、スタンバイ処理(図10)のS303の処理の結果として初期画像データ格納部46bに記憶されている初期画像データから単純輝度画像データを生成しS1103)、S1102の処理により生成された単純輝度画像データとS1103の処理により生成された単純輝度画像データとの差分画像データを生成する(S1104)。次いで、その差分画像データを所定の閾値を用いて2値化する(S1105)。S1105の処理により、差を生じている領域、即ち、画像データに変化を生じさせた物体に対応する領域の画素が「0」(即ち、「黒」)に設定される。   After the processing of S1102, simple luminance image data is generated from the initial image data stored in the initial image data storage unit 46b as a result of the processing of S303 of the standby processing (FIG. 10) (S1103), and is generated by the processing of S1102 Difference image data between the simple luminance image data and the simple luminance image data generated by the processing of S1103 is generated (S1104). Next, the difference image data is binarized using a predetermined threshold (S1105). By the processing of S1105, the pixel of the area where the difference is generated, that is, the area corresponding to the object which caused the change in the image data is set to “0” (that is, “black”).

S1105の処理後、差を生じている領域に含まれる全ての画素、即ち、2値化後の画像データにおいて黒色領域を構成する各画素に対し、半径r’(例えば、半径2cm程度)の領域内に含まれる黒色画素の存在率を算出する(S1106)。次いで、S1106の処理により算出された黒色画素の存在率が所定の範囲内にある画素を抽出する(S1107)。   After the processing of S1105, for all the pixels included in the difference area, that is, for each pixel constituting the black area in the binarized image data, an area having a radius r ′ (for example, a radius of about 2 cm) The presence ratio of black pixels included in the image is calculated (S1106). Next, pixels whose black pixel presence rate calculated by the processing of S1106 is within a predetermined range are extracted (S1107).

S1106〜S1107の処理により、例えばノイズによる孤立点であるなどの原因によって、その周辺である半径r’の領域内の黒色画素の存在率が低すぎる画素と、その周辺である半径r’の領域内の黒色画素の存在率が所定範囲を越えて高くなるような大きな物体(例えば、手の甲など)部分の画素とが、次に実行されるS1108〜S1109の処理において参照される画素として除外される。   Due to the process of S1106 to S1107, for example, an isolated point due to noise or the like, a pixel in which the existence ratio of the black pixel in the area of the radius r ′ is too low and the area of the radius r ′ in the vicinity thereof Pixels of a large object (for example, the back of the hand) whose black pixel presence rate is higher than a predetermined range are excluded as pixels to be referred to in the next processing of S1108 to S1109. .

S1107の処理後、抽出された画素について、所定の距離(例えば、3cm程度)以上連続領域を構成する画素群があるか否かを確認する(S1108)。即ち、S1108では、所定の距離以上に細長く連なった黒色画像領域があるか否かを確認する。   After the process of S1107, it is confirmed whether or not there is a pixel group that constitutes a continuous area for a predetermined distance (for example, about 3 cm) for the extracted pixel (S1108). That is, in S1108, it is confirmed whether or not there is a black image region that is long and thin and longer than a predetermined distance.

S1108の処理により確認した結果、所定の距離以上の連続領域を構成する画素群があれば(S1108:Yes)、その所定距離以上の連続領域を構成する画素群は1つだけであるかを確認し(S1109)、1つだけであれば(S1109:Yes)、ポインタが存在すると判定し(S1110)、このポインタ有無判定処理(S11)を終了する。   As a result of the confirmation in S1108, if there is a pixel group that forms a continuous area that is a predetermined distance or more (S1108: Yes), it is confirmed whether there is only one pixel group that forms a continuous area that is a predetermined distance or more. If there is only one (S1109: Yes), it is determined that there is a pointer (S1110), and this pointer presence / absence determination process (S11) is terminated.

S1106〜S1110の処理により、1本の細長い物体をポインタとして認識する。その細長いポインタの先端は狭い1点を指し示し得るので、上述したトレース受付処理(図11)のS408やスキャン処理(図12)のS507において、ポインタの先端の位置座標を正確に検出し、それによって、その座標を用いた処理を正確に実行し得ることになる。   One slender object is recognized as a pointer by the processes of S1106 to S1110. Since the tip of the elongated pointer can point to one narrow point, the position coordinates of the tip of the pointer are accurately detected in S408 of the trace reception process (FIG. 11) and S507 of the scan process (FIG. 12), thereby The processing using the coordinates can be executed accurately.

一方、S1108の処理により確認した結果、所定の距離以上の連続領域を構成する画素群がない場合(SS1108:No)、あるいは、S1109の処理により確認した結果、所定の距離以上の連続領域を構成する画素群が2以上存在する場合には(S1109:No)、ポインタが存在しないと判定し(S1111)、このポインタ有無判定処理(S11)を終了する。   On the other hand, as a result of confirmation in the process of S1108, when there is no pixel group constituting a continuous area of a predetermined distance or more (SS1108: No), or as a result of confirmation in the process of S1109, a continuous area of a predetermined distance or more is formed. If two or more pixel groups exist (S1109: No), it is determined that there is no pointer (S1111), and this pointer presence / absence determination process (S11) is terminated.

S1110又はS1111により判定された結果は、トレース受付処理処理(図11)のS407又はスキャン処理(図12)のS506の処理において参照され、判定結果に応じた処理がなされる。   The result determined in S1110 or S1111 is referred to in S407 of the trace reception process (FIG. 11) or S506 of the scan process (FIG. 12), and a process according to the determination result is performed.

次に、図19を参照して、上述のスキャン処理(図12)の中で実行される処理であって、分割領域(本実施例では200a〜200c)の境界線を示す像(本実施例では、境界線203a,203b)を原稿200上の対応する位置に投影する原稿分割線投影処理(S12)について説明する。図19は、原稿分割線投影処理(S12)のフローチャートである。   Next, referring to FIG. 19, an image (this embodiment) which is a process executed in the above-described scanning process (FIG. 12) and shows the boundary lines of the divided areas (200a to 200c in this embodiment). The document dividing line projection process (S12) for projecting the boundary lines 203a, 203b) to the corresponding position on the document 200 will be described. FIG. 19 is a flowchart of the document dividing line projection process (S12).

この原稿分割線投影処理(S12)では、まず、投影用画像データ格納部46hに記憶される投影用画像データを初期化し(S1201)、次いで、初期化された投影用画像データに、ポインタ先端座標格納部46dから読み出した座標をマッピングする(S1202)。   In the document dividing line projection process (S12), first, the projection image data stored in the projection image data storage unit 46h is initialized (S1201), and then the pointer tip coordinates are converted into the initialized projection image data. The coordinates read from the storage unit 46d are mapped (S1202).

S1202の処理後、マッピングされた座標を線分で結び(S1203)、S1204の処理へ移行する。なお、S1203の処理では、上述したように、ポインタ先端部46dに記憶される座標に対して付加されたマークを参照することによって、各線分の開始点及び終了点が決定される。即ち、S1203の処理では、1つの軌跡の開始点の座標から終了点の座標までが線分で結ばれる。また、ポインタ先端座標格納部46dに記憶される座標がない場合、即ち、上述したトレース受付処理(S10)の処理において、S410の処理を行うことなく、S409の処理によりポインタ(人差し指260a)の先端が、分割ボタン200の領域上にあることが確認された場合には、S1202〜S1203では何も実行されることなく、次のS1204の処理へ移行する。   After the process of S1202, the mapped coordinates are connected by line segments (S1203), and the process proceeds to S1204. In the processing of S1203, as described above, the start point and end point of each line segment are determined by referring to the mark added to the coordinates stored in the pointer tip portion 46d. That is, in the process of S1203, the coordinates from the start point to the end point of one trajectory are connected by a line segment. When there is no coordinate stored in the pointer tip coordinate storage unit 46d, that is, in the processing of the above-described trace reception processing (S10), the tip of the pointer (index finger 260a) is performed by the processing of S409 without performing the processing of S410. However, if it is confirmed that it is on the area of the split button 200, nothing is executed in S1202 to S1203, and the process proceeds to the next S1204.

S1204の処理では、四頂点座標格納部46cから読み出した原稿200の四頂点の座標を投影用画像データにマッピングを行う。次いで、マッピングされた原稿200の四頂点の座標を線分で結び、原稿200の輪郭(4つの原稿端201に対応する)を描く(S1205)。   In the process of S1204, the coordinates of the four vertices of the document 200 read from the four-vertex coordinate storage unit 46c are mapped to the projection image data. Next, the coordinates of the four vertices of the mapped document 200 are connected by line segments, and the outline of the document 200 (corresponding to the four document edges 201) is drawn (S1205).

S1205の処理後、投影用画像データにおける原稿200の輪郭とS1203の処理により結合された線分とに交点があるか否かを確認し(S1206)、交点があれば(S1206:Yes)、その交点をマッピングする(S1207)。次いで、S1203の処理により結合された線分のうち、原稿200の輪郭の外側に位置する線分及びマッピングを削除し(S1208)、S1209の処理へ移行する。なお、S1207の処理において、S1203の処理により結合された線分が閉じておらず、且つ、その端部が原稿200の領域内にある場合には、その原稿200の領域内にある線分の端部から、その端部を通る該線分の延長線と原稿200の輪郭との交点までの距離が所定の距離以下であれば、その延長線との交点をマッピングするものとする。   After the processing of S1205, it is confirmed whether or not there is an intersection between the outline of the original document 200 in the projection image data and the line segment combined by the processing of S1203 (S1206), and if there is an intersection (S1206: Yes), The intersection points are mapped (S1207). Next, of the line segments combined by the processing of S1203, the line segments and mapping located outside the outline of the document 200 are deleted (S1208), and the process proceeds to S1209. In the process of S1207, when the line segment combined by the process of S1203 is not closed and the end portion is in the area of the original document 200, the line segment in the area of the original document 200 is displayed. If the distance from the edge to the intersection of the extension line of the line passing through the edge and the outline of the document 200 is equal to or less than a predetermined distance, the intersection with the extension line is mapped.

一方で、S1206の処理により確認した結果、交点がなければ(S1206:No)、S1207〜S1208の処理をスキップし、S1209の処理へ移行する。   On the other hand, if there is no intersection as a result of checking in the process of S1206 (S1206: No), the process of S1207 to S1208 is skipped, and the process proceeds to S1209.

S1201〜S1208の処理により、上述したトレース受付処理(図11)においてポインタ(人差し指260a)の移動によって描かれた原稿200における各分割領域の境界線を含む投影用画像データが作成されたことになる。   Through the processes in S1201 to S1208, projection image data including the boundary lines of the divided areas in the document 200 drawn by the movement of the pointer (index finger 260a) in the above-described trace acceptance process (FIG. 11) is created. .

S1209では、投影用画像データにマッピングされている座標、即ち、分割線の境界線上の座標を、各分割領域毎に分割領域境界座標格納部46eに記憶する。なお、S1209において、分割線の境界線上の座標を分割領域境界座標格納部46eに記憶する際、以下の領域を1つの分割領域とみなす:(1)S1203の処理により結合された線分により閉じられている領域、(2)S1203の処理により結合された線分と原稿200の輪郭(4つの端辺)とにより形成される閉じられた領域、(3)(2)に分類される領域から(1)に分類される領域を除いた領域、(4)(1)に分類される領域から、その中に包含される(1)の領域を除いた領域。本実施例では、分割領域200a〜200c(図7参照)をそれぞれ構成する境界線の座標が分割領域境界座標格納部46eに記憶される。   In S1209, the coordinates mapped to the projection image data, that is, the coordinates on the boundary line of the dividing line are stored in the divided area boundary coordinate storage unit 46e for each divided area. In S1209, when the coordinates on the boundary line of the dividing line are stored in the divided area boundary coordinate storage unit 46e, the following areas are regarded as one divided area: (1) Closed by the line segments combined by the process of S1203 (2) a closed area formed by the line segments combined by the processing of S1203 and the outline (four edges) of the document 200, and (3) an area classified as (2). (1) A region excluding the region classified as (1), (4) A region excluding the region (1) included in the region classified as (1). In the present embodiment, the coordinates of the boundary lines constituting the divided areas 200a to 200c (see FIG. 7) are stored in the divided area boundary coordinate storage unit 46e.

S1209の処理後、各分割領域に対し、それぞれの領域を識別するためのインデックス(識別子)を付加する(S1210)。S1210の処理により、各分割領域に対してインデックスが付加されることにより、原稿200を区分する分割領域をより明確に識別することができる。   After the processing of S1209, an index (identifier) for identifying each area is added to each divided area (S1210). Through the processing of S1210, an index is added to each divided area, so that the divided areas into which the document 200 is divided can be more clearly identified.

次いで、S1201〜S1210の処理により作成された投影用画像データを、投影用画像データ格納部46hに記憶し(S1211)、投影画像データ格納部46hに記憶された投影用画像データを投影用画像として撮像領域300上に投影し(S1212)、この原稿分割線投影処理(S12)を終了する。   Next, the projection image data created by the processing of S1201 to S1210 is stored in the projection image data storage unit 46h (S1211), and the projection image data stored in the projection image data storage unit 46h is used as a projection image. The image is projected onto the imaging region 300 (S1212), and the document dividing line projection process (S12) is terminated.

図20は、上述した原稿分割線投影処理(図19)において、分割領域の境界線が設定される様子を模式的に示した図である。なお、図20(a)〜(d)は、いずれも、原稿分割線投影処理(図19)における各処理において作成された投影用画像データに対応する投影用画像を図示したものである。   FIG. 20 is a diagram schematically showing how the boundary lines of the divided areas are set in the document dividing line projection process (FIG. 19) described above. 20A to 20D show projection images corresponding to the projection image data created in each process in the document dividing line projection process (FIG. 19).

図20(a)は、ポインタ先端座標格納部46dから読み出した座標をマッピングした状態を示す図であり、これは原稿分割線投影処理(図19)のS1202の後に対応する。図20(a)に示すように、初期化された投影用画像(撮像領域300のみを投影する)に、ポインタ先端座標格納部46dに記憶されていた座標p1〜p21がマッピングされている。ここで、座標p1〜p21は、トレース受付処理(図11)のS410において、p1,p2,…,p20,p21の順に入力されたものである。よって、これらのマッピング座標は、それぞれ、ポインタ先端座標格納部46dに記憶されている座標(x,y),(x,y),…,(x20,y20),(x21,y21)に対応している(図4(a)参照)。なお、説明を容易にするために、マッピング数(S410において入力された座標)を少ない数(21個)としている。 FIG. 20A is a diagram showing a state where the coordinates read from the pointer tip coordinate storage unit 46d are mapped, and this corresponds to after S1202 of the document dividing line projection process (FIG. 19). As shown in FIG. 20A, coordinates p1 to p21 stored in the pointer tip coordinate storage unit 46d are mapped to the initialized projection image (projecting only the imaging region 300). Here, the coordinates p1 to p21 are input in the order of p1, p2,..., P20, p21 in S410 of the trace reception process (FIG. 11). Therefore, these mapping coordinates are the coordinates (x 1 , y 1 ), (x 2 , y 2 ),..., (X 20 , y 20 ), (x 21 , y 21 ) (see FIG. 4A). For ease of explanation, the number of mappings (coordinates input in S410) is a small number (21).

図20(b)は、ポインタ先端座標格納部46d及び四頂点座標格納部46cから読み出されてマッピングされた座標に基づいて線分が引かれた状態を示す図であり、これは原稿分割線投影処理(図19)のS1205の後に対応する。図20(b)に示すように、トレース受付処理(図11)においてポインタ(人差し指260a)の軌跡に対応するp1〜p13を結んだ線分及びp14〜p21を結んだ線分、ならびに、原稿200の四頂点p101〜p104を結んで得られた輪郭(四端辺)が描かれている。   FIG. 20B is a diagram showing a state in which a line segment is drawn based on the coordinates read and mapped from the pointer tip coordinate storage unit 46d and the four vertex coordinate storage unit 46c. This corresponds to the processing after S1205 of the projection processing (FIG. 19). As shown in FIG. 20B, in the trace reception process (FIG. 11), the line segment connecting p1 to p13 and the line segment connecting p14 to p21 corresponding to the locus of the pointer (index finger 260a), and the original 200 Outlines (four end sides) obtained by connecting the four vertices p101 to p104 are drawn.

図20(c)は、ポインタ先端座標格納部46dに記憶される座標間を結んだ線分と原稿200の輪郭との交点をマッピングした状態を示す図であり、これは原稿分割線投影処理(図19)のS1207の後に対応する。図20(c)に示すように、p14〜p21を結んだ線分と、原稿200の2辺(p101〜p102を結ぶ線分およびp103〜p104を結ぶ線分)との交点にp201及びp202がマッピングされている。   FIG. 20C is a diagram showing a state in which the intersection of the line segment connecting the coordinates stored in the pointer tip coordinate storage unit 46d and the outline of the document 200 is mapped. This is a document dividing line projection process ( This corresponds to the processing after S1207 in FIG. As shown in FIG. 20C, p201 and p202 are at the intersections between the line segment connecting p14 to p21 and the two sides of the document 200 (the line segment connecting p101 to p102 and the line segment connecting p103 to p104). It is mapped.

図20(d)は、原稿200の輪郭の外側に位置する線分及びマッピングを削除した状態を示す図であり、これは原稿分割線投影処理(図19)のS1208の後に対応する状態を示す図である。図20(d)に示すように、原稿200の輪郭の外に位置していたp14〜p201及びp202〜p21の線分と、p14及びp21のマッピングとが削除されている。従って、原稿分割線投影処理(図19)のS1208の処理が行われると、原稿200が3つの領域(分割領域200a〜分割領域200c)に区分されることになる。   FIG. 20D is a diagram showing a state in which line segments and mapping located outside the outline of the document 200 are deleted, and this shows a state corresponding to S1208 in the document dividing line projection process (FIG. 19). FIG. As shown in FIG. 20 (d), the line segments p14 to p201 and p202 to p21 located outside the outline of the document 200 and the mapping of p14 and p21 are deleted. Accordingly, when the process of S1208 of the document dividing line projection process (FIG. 19) is performed, the document 200 is divided into three areas (divided areas 200a to 200c).

なお、本実施例の場合、原稿分割線投影処理(図19)のS1209の処理により分割領域境界座標格納部46eに記憶される座標は、分割領域200a(第1の分割領域)の境界線を構成する座標として、p101,p201,p15〜p20,p202,p104,p101,p1〜p13に対応する座標が記憶され、分割領域200b(第2の分割領域)の境界線を構成する座標として、p1〜p13に対応する座標が記憶され、分割領域200c(第3の分割領域)の境界線を構成する座標として、p201,p102,p103,p202,p20〜p15,p201に対応する座標が記憶される。   In the case of the present embodiment, the coordinates stored in the divided area boundary coordinate storage unit 46e by the process of S1209 of the original dividing line projection process (FIG. 19) are the boundary lines of the divided area 200a (first divided area). Coordinates corresponding to p101, p201, p15 to p20, p202, p104, p101, p1 to p13 are stored as the constituting coordinates, and p1 is used as the coordinates constituting the boundary line of the divided area 200b (second divided area). To p13 are stored, and coordinates corresponding to p201, p102, p103, p202, p20 to p15, and p201 are stored as coordinates constituting the boundary line of the divided region 200c (third divided region). .

図19及び図20に示すように、撮像装置100では、ポインタ(人指し指260a)により描かれた軌跡の形状に基づいて、原稿200内における閉じられた線ににより囲まれた矩形、及び/又は、原稿200を横切る線と原稿200の原稿端201により囲まれた領域に区分することができる。即ち、ポインタ(人指し指260a)により所望の領域を描くという簡単な操作によって、原稿200を所望の分割領域に区分することができる。更に、そのように原稿200が複数の分割領域に区分されることにより、次に説明する分割領域画像データ取得処理(図21)において、その分割領域単位での画像データの取得及びファイル化することを可能とする。   As shown in FIGS. 19 and 20, in the imaging device 100, a rectangle surrounded by a closed line in the document 200 based on the shape of the locus drawn by the pointer (index finger 260 a), and / or An area surrounded by a line crossing the document 200 and the document edge 201 of the document 200 can be divided. That is, the document 200 can be divided into desired divided areas by a simple operation of drawing a desired area with the pointer (index finger 260a). Further, by dividing the document 200 into a plurality of divided areas as described above, in the divided area image data acquisition process (FIG. 21) described below, the image data is acquired and filed in units of the divided areas. Is possible.

次に、図21を参照して、その分割領域画像データ取得処理について説明する。図21は、上述のスキャン処理(図12)の中で実行される処理であって、ユーザにより指定された各分割領域の画像データを取り込み、ファイル化する分割領域画像データ取得処理(S13)のフローチャートである。   Next, the divided area image data acquisition process will be described with reference to FIG. FIG. 21 is a process executed in the above-described scan process (FIG. 12). The process of the divided area image data acquisition process (S13) that takes in the image data of each divided area specified by the user and creates a file. It is a flowchart.

この分割領域画像データ取得処理(S13)では、まず、初期画像データ格納部46bに記憶されている原稿200の画像データを用いて、この原稿200の画像データから、指定された分割領域を含む矩形画像データを抽出する(S1301)。次いで、抽出された矩形画像データにおける分割領域内で未使用の色を、透過色として指定し(S1302)、矩形画像データにおける分割領域の外側の領域を、指定された透過色で埋める(S1303)。   In this divided area image data acquisition process (S13), first, a rectangle including the designated divided area is obtained from the image data of the original 200 using the image data of the original 200 stored in the initial image data storage unit 46b. Image data is extracted (S1301). Next, an unused color in the divided area in the extracted rectangular image data is designated as a transparent color (S1302), and an area outside the divided area in the rectangular image data is filled with the designated transparent color (S1303). .

S1303の処理後、指定された透過色で分割領域の外側の領域を埋めた矩形画像データとS1302の処理で指定された透過色情報とを分割領域画像データ格納部46fに記憶する(S1304)。   After the process of S1303, the rectangular image data in which the area outside the divided area is filled with the specified transparent color and the transparent color information specified in the process of S1302 are stored in the divided area image data storage unit 46f (S1304).

次いで、分割領域画像データ格納部46fに記憶された情報(矩形画像データ及び透過色情報)を基に、指定された分割領域の画像データをファイル化(透過GIF形式)し、そのファイルをHDD50の画像ファイル格納部50bに記憶する(S1305)。   Next, based on the information (rectangular image data and transparent color information) stored in the divided area image data storage unit 46f, the image data of the designated divided area is filed (transparent GIF format), and the file is stored in the HDD 50. The image file is stored in the image file storage unit 50b (S1305).

S1301〜S1305の処理により、指定された分割領域の画像ファイルが作成される。よって、ユーザが、ファイル化を所望する分割領域を、ポインタ(人指し指260a)で指し示すという簡単な操作によって、その分割領域の画像ファイルを容易に作成することができる。そして、そのように容易に作成される画像ファイルは、任意の領域の画像を種々の用途(例えば、書類作成)に利用することができる。   An image file of the designated divided area is created by the processing of S1301 to S1305. Therefore, the user can easily create an image file of the divided area by a simple operation in which the user points to the divided area desired to be filed with the pointer (index finger 260a). The image file that is easily created as described above can use an image in an arbitrary area for various purposes (for example, document creation).

また、この分割領域領域画像データ取得処理(S13)は、上述のスキャン処理(図12)において、ポインタ(人指し指260a)がスキャン終了ボタン230を指し示すか、又は、原稿200における全ての分割領域(本実施例では分割領域200a〜200c)の画像データをファイル化するまで実行される。よって、分割領域単位での画像データのファイル化は、ユーザの所望する部分だけに対して実行することができる。   Further, in this divided area area image data acquisition process (S13), in the above-described scanning process (FIG. 12), the pointer (index finger 260a) points to the scan end button 230, or all the divided areas in the original 200 (main book) In the embodiment, the processing is executed until the image data of the divided areas 200a to 200c) is filed. Therefore, the file formation of the image data in units of divided areas can be executed only for a portion desired by the user.

S1305の処理後、撮像領域300の所定の位置(本実施例では撮像領域300の上部(図7参照))へ次スキャン受付メッセージ44i4を投影し(S1306)、この分割領域画像データ取得処理(S13)を終了する。   After the processing of S1305, the next scan acceptance message 44i4 is projected onto a predetermined position of the imaging area 300 (in this embodiment, above the imaging area 300 (see FIG. 7)) (S1306), and this divided area image data acquisition process (S13) ) Ends.

以上説明したように、本発明の画像入力装置としての撮像装置100によれば、ポインタとしての右手260の人指し指260aを移動することにより描かれた軌跡に応じて原稿200を所望の分割領域に区分することができる。人差し指260aの軌跡を分割領域の境界線として入力する際、人差し指260aを上方に持ち上げることによって、その入力を禁止できるので、容易且つ確実に、分割領域の軌跡の中断位置を指定することができる。また、撮像装置100によれば、人差し指260aの軌跡により境界線を入力することにより区分された分割領域の単位で画像データを取得することができる上に、分割領域単位で画像データをファイル化することができる。よって、ユーザが人差し指260aにより所望の分割領域の境界線を描いた後、その分割領域の画像ファイルを取得することにより、その画像ファイルを種々の用途で使用することができる。   As described above, according to the imaging apparatus 100 as the image input apparatus of the present invention, the document 200 is divided into desired divided areas according to the locus drawn by moving the index finger 260a of the right hand 260 as a pointer. can do. When inputting the trajectory of the index finger 260a as the boundary line of the divided area, the input can be prohibited by lifting the index finger 260a upward, so that the interrupt position of the trajectory of the divided area can be specified easily and reliably. Further, according to the imaging apparatus 100, it is possible to acquire image data in units of divided areas by inputting a boundary line according to the trajectory of the index finger 260a, and file the image data in units of divided areas. be able to. Therefore, after the user draws the boundary line of a desired divided area with the index finger 260a, the image file can be used for various purposes by acquiring the image file of the divided area.

なお、請求項1記載の画像データ取得手段としては、スタンバイ処理(図10)におけるS307及び分割領域画像データ取得処理(S13)が該当し、請求項1記載の指示部材位置検出手段としては、トレース受付処理におけるS10,S406,S11,S407の処理、及び、スキャン処理(図12)におけるS10,S505,S11,S506の処理が該当し、請求項1記載の位置情報入力手段としては、トレース受付処理(図11)におけるS410の処理が該当し、請求項1記載の位置情報入力禁止手段としては、トレース受付処理(図11)におけるS406,S407の分岐処理、及び、スキャン処理(図12)におけるS505,S506の分岐処理における「No」の分岐が該当し、請求項1記載の領域区分手段としては、原稿分割線投影処理(図19)におけるS1201〜S1209の処理が該当する。   The image data acquisition means according to claim 1 corresponds to S307 in the standby process (FIG. 10) and the divided region image data acquisition process (S13), and the pointing member position detection means according to claim 1 includes a trace. The process of S10, S406, S11, and S407 in the reception process and the process of S10, S505, S11, and S506 in the scan process (FIG. 12) are applicable, and the position information input means according to claim 1 includes a trace reception process. The position information input prohibiting means according to claim 1 corresponds to the process of S410 in (FIG. 11), and the branching processes of S406 and S407 in the trace reception process (FIG. 11) and the S505 in the scan process (FIG. 12). , The branch of “No” in the branch process of S506 corresponds to the area classification means according to claim 1. , The processing of S1201~S1209 in document dividing line projecting process (FIG. 19) corresponds.

また、請求項3記載の焦点調整手段としては、スタンバイ処理(図10)におけるS306の処理が該当し、請求項3記載の焦点度計測手段としては、変化領域内焦点度測定処理(S10)が該当する。   Further, the focus adjustment means according to claim 3 corresponds to the process of S306 in the standby process (FIG. 10), and the focus degree measurement means according to claim 3 includes the in-change area focus degree measurement process (S10). Applicable.

また、請求項5記載の領域指定手段としては、スキャン処理(図12)におけるS10,S505,S11,S506〜S509の処理が該当する。   Further, the area designating means according to claim 5 corresponds to the processes of S10, S505, S11, and S506 to S509 in the scan process (FIG. 12).

また、請求項6記載のファイル化手段としては、分割領域画像データ取得処理(図21)におけるS1305の処理が該当する。   Further, the filing means according to claim 6 corresponds to the processing of S1305 in the divided area image data acquisition processing (FIG. 21).

また、請求項8記載の固定物検出手段としては、余白部固定物有無判定処理(S9)が該当する。   The fixed object detection means according to claim 8 corresponds to a blank area fixed object presence / absence determination process (S9).

また、請求項9記載の境界投影手段としては、「原稿分割線投影処理(図19)におけるS1201〜1209の処理により作成された境界線部分の投影用画像データを投影用画像としてS1212の処理により境界領域上に投影すること」が該当し、請求項9記載の識別子投影手段としては、「原稿分割線投影処理(図19)におけるS1210の処理により作成された各分割領域を識別するためのインデックス(識別子)部分の投影用画像データを投影用画像としてS1212の処理により境界領域上に投影すること」が該当する。   Further, as the boundary projection means according to the ninth aspect, the “projection image data of the boundary line created by the processing of S1201-1209 in the document dividing line projection processing (FIG. 19) is used as a projection image by the processing of S1212. The identifier projecting means according to claim 9 is an index for identifying each divided area created by the process of S1210 in the original dividing line projection process (FIG. 19). Projecting the (identifier) portion of the projection image data as a projection image onto the boundary region by the processing of S1212 ”.

また、請求項10記載の模様投影手段としては、スキャン処理(図12)におけるS510の処理が該当する。   The pattern projecting means according to claim 10 corresponds to the processing of S510 in the scanning processing (FIG. 12).

また、請求項11記載のメッセージ投影手段としては、スタンバイ処理(図10)におけるS301の処理、トレース受付処理(図11)におけるS401の処理、スキャン処理(図12)におけるS501の処理、分割領域画像データ取得処理(図21)におけるS1306の処理が該当する。   The message projecting means according to claim 11 includes the process of S301 in the standby process (FIG. 10), the process of S401 in the trace reception process (FIG. 11), the process of S501 in the scan process (FIG. 12), and the divided region image. This corresponds to the process of S1306 in the data acquisition process (FIG. 21).

また、請求項12記載の操作ボタン投影手段としては、トレース受付処理(図11)におけるS402の処理、スキャン処理(図12)におけるS502の処理が該当する。   The operation button projecting means according to claim 12 corresponds to the process of S402 in the trace acceptance process (FIG. 11) and the process of S502 in the scan process (FIG. 12).

以上、実施例に基づき本発明を説明したが、本発明は上述した実施例に何ら限定されるものではなく、本発明の趣旨を逸脱しない範囲内で種々の改良変更が可能であることは容易に推察できるものである。   The present invention has been described above based on the embodiments. However, the present invention is not limited to the above-described embodiments, and various modifications and changes can be easily made without departing from the spirit of the present invention. Can be inferred.

例えば、上記実施例では、撮像部20と投光部30とが分離した撮像装置100を用いたが、これに換えて、撮像部と投光部とが一体に構成されている撮像装置(以下、「一体型撮像装置」と称する。)を用いてもよい。   For example, in the above-described embodiment, the imaging device 100 in which the imaging unit 20 and the light projecting unit 30 are separated is used, but instead of this, an imaging device in which the imaging unit and the light projecting unit are integrally configured (hereinafter, referred to as “imaging device”). , Referred to as “integrated imaging device”).

図22は、一体型撮像装置の主要な構成を説明する断面図である。なお、図面を簡略化するために、図22には撮像部及び投光部における主要な部材の配置のみを示し、これらの各部材を収容するケースや各部材の電気的配線などは省略している。また、図22に示す一体型撮像装置において、上記実施例と同一の部材には同一の符号を付して、その説明は省略する。   FIG. 22 is a cross-sectional view illustrating the main configuration of the integrated imaging apparatus. In order to simplify the drawing, FIG. 22 shows only the arrangement of main members in the imaging unit and the light projecting unit, and the case for housing these members and the electrical wiring of each member are omitted. Yes. Further, in the integrated imaging apparatus shown in FIG. 22, the same members as those in the above embodiment are denoted by the same reference numerals, and the description thereof is omitted.

図22に示すように、一体型撮像装置は、平面台400に向けられた結像レンズ22とその結像レンズ22の後方(撮像装置100の内部側)に設けられたCCD画像センサ24と、光源32a及び反射板32bとから構成される光源部32と、光源部32から投射された光を集光する集光レンズ34と、液晶パネル36と、結像レンズ22とCCD画像センサ24との間に配置されるハーフミラー62とを備えている。なお、ハーフミラー62は、光源部32からの光の投射方向に対して略45度傾けて配置され、光源部32から直線的に投射される光の光路を結像レンズ22に向けて変更するものである。   As shown in FIG. 22, the integrated imaging device includes an imaging lens 22 that is directed to the plane table 400, a CCD image sensor 24 that is provided behind the imaging lens 22 (inside the imaging device 100), A light source unit 32 composed of a light source 32a and a reflecting plate 32b, a condensing lens 34 for condensing light projected from the light source unit 32, a liquid crystal panel 36, an imaging lens 22, and a CCD image sensor 24. And a half mirror 62 disposed therebetween. The half mirror 62 is disposed at an angle of approximately 45 degrees with respect to the projection direction of the light from the light source unit 32, and changes the optical path of the light projected linearly from the light source unit 32 toward the imaging lens 22. Is.

また、上記実施例では、原稿200を複数領域に区分するための軌跡を描いたり、各種操作指示を行うためのポインタ(指示部材)として右手260の人差し指260aを用いたが、ペン類(ボールペン、鉛筆など)など棒状先端部を有する部材を用いてもよい。   Further, in the above embodiment, the index finger 260a of the right hand 260 is used as a pointer (indicating member) for drawing a trajectory for dividing the document 200 into a plurality of regions and performing various operation instructions. You may use the member which has rod-shaped front-end | tip parts, such as a pencil.

また、上記実施例では、固定物として左手250を利用したが、文鎮などの重石を用いてもよい。   Moreover, in the said Example, although the left hand 250 was utilized as a fixed object, heavy stones, such as a paperweight, may be used.

また、上記実施例では、固定物色情報登録処理(S15)は、電源が投入されてメイン処理が起動する毎に1回実行される処理として構成したが、不要であれば固定物色情報登録処理(S15)をスキップできるように構成してもよい。または、初めて電源を投入した場合にのみ固定物色情報登録処理(S15)が実行されるように構成してもよい。   In the above embodiment, the fixed object color information registration process (S15) is configured as a process executed once every time the power is turned on and the main process is started. S15) may be skipped. Alternatively, the fixed object color information registration process (S15) may be executed only when the power is turned on for the first time.

あるいは、特定の固定物の色情報を所定の記憶領域(例えば、ROM44)に予め登録しておくように構成してもよい。その場合は、製品出荷時において、本発明の画像入力装置と特定の固定物とをセットで出荷するようにしてもよい。   Or you may comprise so that the color information of a specific fixed thing may be previously registered into a predetermined storage area (for example, ROM44). In that case, at the time of product shipment, the image input device of the present invention and a specific fixed object may be shipped as a set.

あるいは、固定物登録モードスイッチを設け、電源投入中であれば、この固定物登録モードスイッチを操作することによって随時固定物色情報登録処理(S15)が実行可能であるように構成してもよい。   Alternatively, a fixed object registration mode switch may be provided so that the fixed object color information registration process (S15) can be executed at any time by operating the fixed object registration mode switch if the power is on.

また、上記実施例におけるS1305の処理では、画像データを透過GIF形式にファイル化した後、撮像装置100に設けられたHDD50(画像ファイル格納部50b)に記憶するように構成されたが、これに換えて、ファイル化されたデータをHDD50(画像ファイル格納部50b)に不揮発的に記憶させるか、又は、RAM46内の所定の領域に記憶させるかをユーザ設定により設定できるように構成してもよい。また、ファイル化されたデータを外部インターフェイス58を介して接続されているPC500へ送信し、PC500に設けられているメモリ(ハードディスクなど)に記憶させるように構成してもよい。   In the processing of S1305 in the above embodiment, the image data is filed in a transparent GIF format and then stored in the HDD 50 (image file storage unit 50b) provided in the imaging apparatus 100. Alternatively, it may be configured such that whether the filed data is stored in the HDD 50 (image file storage unit 50b) in a nonvolatile manner or in a predetermined area in the RAM 46 can be set by a user setting. . Alternatively, the filed data may be transmitted to the PC 500 connected via the external interface 58 and stored in a memory (such as a hard disk) provided in the PC 500.

また、上記実施例では、初期画像データ格納部46bに記憶されている画像データから指定された分割領域に対応する部分の画像データを抽出することにより、指定された分割領域の画像データの取得を行うように構成したが、指定された分割領域をズームアップして改めて撮像するように構成してもよい。   In the above embodiment, the image data of the designated divided area is acquired by extracting the image data of the part corresponding to the designated divided area from the image data stored in the initial image data storage unit 46b. However, the designated divided area may be zoomed in and imaged again.

また、上記実施例では、撮像部20は撮像領域300の直上に配置され、それによって、撮像された画像データは、撮像領域300と同じ矩形を有するものとして説明したが、撮像後の初期画像データ又はファイル化前の分割領域の画像データに対し、矩形の画像データとするような所定の補正を行うように構成してもよい。また、撮像部20の結像レンズ22にレンズシフト機構を設けるように構成してもよい。   In the above-described embodiment, the imaging unit 20 is disposed immediately above the imaging region 300, and thus the captured image data is described as having the same rectangle as the imaging region 300. However, the initial image data after imaging has been described. Alternatively, it may be configured to perform a predetermined correction such that the image data of the divided area before being filed is rectangular image data. Further, a lens shift mechanism may be provided on the imaging lens 22 of the imaging unit 20.

また、上記実施例では、人差し指260aの軌跡によって描かれた閉じられた境界線が矩形である場合についてのみ説明したが、これは矩形に限定されることなく、三角形や五角形などの多角形、円、自由線による投げ輪などの任意の形であってもよい。   In the above embodiment, only the case where the closed boundary line drawn by the trajectory of the index finger 260a is a rectangle has been described. However, this is not limited to a rectangle, but a polygon such as a triangle or a pentagon, a circle Any shape such as a lasso with a free line may be used.

また、上記実施例において、余白部を原稿200の4つの原稿端201から内側に向かって所定の幅で形成される領域としたが、撮像部20により撮像された原稿200の画像データに基づいて、余白領域を検出するように構成してもよい。   In the above-described embodiment, the blank portion is an area formed with a predetermined width inward from the four document edges 201 of the document 200, but based on the image data of the document 200 captured by the imaging unit 20. The margin area may be detected.

また、上記実施例におけるS510の処理では、画像データの取得された分割領域内に斜線を投影するように構成したが、投影される像としては斜線に限定されず、画像データを取得済みの分割領域と画像データが未取得である分割領域とが区別可能な像であればよい。   In the processing of S510 in the above embodiment, the oblique line is projected into the divided area from which the image data has been acquired. However, the projected image is not limited to the oblique line, and the divided image data has already been acquired. Any image can be used as long as the area and the divided area from which image data has not been acquired can be distinguished.

本発明の画像入力装置である撮像装置による撮像の様子を概略的に示す図である。It is a figure which shows roughly the mode of the imaging by the imaging device which is an image input device of this invention. 本実施例の撮像装置における撮像部及び投光部の主要な構成を説明する断面図であるIt is sectional drawing explaining the main structures of the imaging part and light projection part in the imaging device of a present Example. 本実施例の撮像装置の構成を示すブロック図である。It is a block diagram which shows the structure of the imaging device of a present Example. ポインタ先端座標格納部、分割領域境界座標格納部、及び、分割領域画像データ格納部に格納されるデータの構成を説明する図であり、(a)は、ポインタ先端座標格納部を説明する図であり、(b)は、分割領域境界座標格納部を説明する図であり、(c)は、分割領域画像データ格納部を説明する図である。It is a figure explaining the structure of the data stored in a pointer front end coordinate storage part, a division area boundary coordinate storage part, and a division area image data storage part, (a) is a figure explaining a pointer front end coordinate storage part. (B) is a diagram for explaining the divided region boundary coordinate storage unit, and (c) is a diagram for explaining the divided region image data storage unit. 本実施例の撮像装置がスタンバイモードある場合について説明する図であり、(a)は、電源投入後に撮像領域の枠と共にスタンバイメッセージが投影された状態を示す図であり、(b)は、撮像領域内に配置された原稿の余白部を固定する固定物として、ユーザの左手が配置された状態を示す図である。It is a figure explaining the case where the imaging device of a present Example is in standby mode, (a) is a figure which shows the state in which the standby message was projected with the frame of the imaging area after power activation, (b) is an imaging It is a figure which shows the state by which the user's left hand is arrange | positioned as a fixed thing which fixes the margin part of the document arrange | positioned in the area | region. 本実施例の撮像装置がトレース受付モードにある場合について説明する図であり、(a)は、ユーザの右手の人差し指が、原稿における領域を区分するための境界線の始点を指し示している状態を示す図であり、(b)は、その人差し指が、領域を区分するための境界線を入力している途中の状態を示す図であり、(c)は、1本目の境界線を描いた後、人差し指が2本目の境界線を描いている状態を示す図であり、(d)は、ユーザが、所望する境界線を全て描いた後、分割ボタンを人差し指で指し示した状態を示す図である。It is a figure explaining the case where the imaging device of a present Example is in trace reception mode, (a) is the state which the index finger of a user's right hand points to the starting point of the boundary line for dividing the area | region in a document. (B) is a figure which shows the state in the middle of the input of the boundary line for the index finger to divide the area, and (c) after drawing the first boundary line FIG. 4 is a diagram illustrating a state in which the index finger is drawing a second boundary line, and (d) is a diagram illustrating a state in which the user has drawn all desired boundary lines and then points to the division button with the index finger. . 本実施例の撮像装置がスキャン受付モードにある場合について説明する図であり、(a)は、分割ボタンが操作されて、撮像装置がトレース受付モードからスキャン受付モードへ移行した状態を示す図であり、(b)は、人差し指により画像データの取り込みを所望する分割領域を指し示すことによって画像データの分割領域の指定を行っている状態を示す図であり、(c)は、指定した分割領域の画像データを取り込んだ後、次の分割領域を人差し指で指し示して分割領域の指定を行っている状態を示す図であり、(d)は、ユーザが、所望する分割領域の画像データを全て取り込んだ後、スキャン終了ボタンを人差し指で指し示している状態を示す図である。It is a figure explaining the case where the imaging device of a present Example is in a scan reception mode, (a) is a figure which shows the state which the division button was operated and the imaging device changed to the scan reception mode from trace reception mode. And (b) is a diagram showing a state in which the division area of the image data is designated by pointing the division area where the image data is desired to be taken in with the index finger, and (c) is a diagram showing the designated division area. It is a figure which shows the state which has pointed the next division area with the index finger after designating image data, and has designated the division area, (d) is all the image data of the division area which the user acquired FIG. 5 is a diagram illustrating a state in which a scan end button is pointed with an index finger later. 本実施例の撮像装置で実行されるメイン処理のフローチャートである。It is a flowchart of the main process performed with the imaging device of a present Example. 本実施例の撮像装置で実行される固定物色情報登録処理のフローチャートである。It is a flowchart of the fixed object color information registration process performed with the imaging device of a present Example. 本実施例の撮像装置で実行されるスタンバイ処理のフローチャートである。6 is a flowchart of standby processing executed by the imaging apparatus of the present embodiment. 本実施例の撮像装置で実行されるトレース受付処理のフローチャートである。It is a flowchart of the trace reception process performed with the imaging device of a present Example. 本実施例の撮像装置で実行されるスキャン処理のフローチャートである。6 is a flowchart of scan processing executed by the imaging apparatus of the present embodiment. 本実施例の撮像装置で実行される画像変化検知処理のフローチャートである。It is a flowchart of the image change detection process performed with the imaging device of a present Example. 画像変化検知処理の結果出力される変化領域の座標を説明する図である。It is a figure explaining the coordinate of the change area output as a result of an image change detection process. 本実施例の撮像装置で実行される四原稿端有無判定処理のフローチャートである。4 is a flowchart of four document edge presence / absence determination processing executed by the imaging apparatus according to the present exemplary embodiment. 本実施例の撮像装置で実行される余白部固定物有無判定処理のフローチャートである。It is a flowchart of the margin part fixed object presence determination process performed with the imaging device of a present Example. 本実施例の撮像装置で実行される変化領域内焦点度測定処理のフローチャートである。It is a flowchart of a change area | region focal degree measurement process performed with the imaging device of a present Example. 本実施例の撮像装置で実行されるポインタ有無判定処理のフローチャートである。6 is a flowchart of pointer presence / absence determination processing executed by the imaging apparatus of the present embodiment. 本実施例の撮像装置で実行される原稿分割線投影処理のフローチャートである。6 is a flowchart of document dividing line projection processing executed by the imaging apparatus of the present embodiment. 原稿分割線投影処理において、分割領域の境界線が設定される様子を模式的に示した図であり、(a)は、ポインタ先端座標格納部から読み出した座標をマッピングした状態を示す図であり、(b)は、ポインタ先端座標格納部及び四頂点座標格納部から読み出されてマッピングされた座標に基づいて線分が引かれた状態を示す図であり、(c)は、ポインタ先端座標格納部に記憶される座標間を結んだ線分と原稿の輪郭との交点をマッピングした状態を示す図であり、(d)は、原稿の輪郭の外側に位置する線分及びマッピングを削除した状態を示す図である。FIG. 6 is a diagram schematically illustrating how boundary lines of divided areas are set in document dividing line projection processing, and (a) is a diagram illustrating a state in which coordinates read from a pointer tip coordinate storage unit are mapped. (B) is a figure which shows the state by which the line segment was drawn based on the coordinate read and mapped from the pointer tip coordinate storage part and the four vertex coordinate storage part, (c) is a pointer tip coordinate. It is a figure which shows the state which mapped the intersection of the line segment which connected between the coordinates memorize | stored in a storage part, and the outline of a document, (d) deleted the line segment and mapping located outside the outline of a document It is a figure which shows a state. 本実施例の撮像装置で実行される分割領域画像データ取得処理のフローチャートである。It is a flowchart of the division area image data acquisition process performed with the imaging device of a present Example. 一体型撮像装置の主要な構成を説明する断面図である。It is sectional drawing explaining the main structures of an integrated imaging device.

符号の説明Explanation of symbols

20 撮像部(撮像手段)
30 投光部
46b 初期画像データ格納部(画像データ取得手段の一部)
46f 分割領域画像データ格納部(分割領域画像データ取得手段の一部)
50b 画像ファイル格納部(ファイル化手段の一部)
100 撮像装置
200 原稿
201 原稿端
220 分割ボタン(操作ボタン)
230 スキャン終了ボタン(操作ボタン)
250 左手(固定物)
260 右手(指示部材の一部、ポインタの一部)
260a 人差し指(棒状先端部を有する指示部材、ポインタ)
300 撮像領域
20 Imaging unit (imaging means)
30 Projection unit 46b Initial image data storage unit (part of image data acquisition means)
46f Divided area image data storage (part of divided area image data acquisition means)
50b Image file storage (part of file creation means)
100 Imaging Device 200 Document 201 Document Edge 220 Division Button (Operation Button)
230 Scan end button (operation button)
250 Left hand (fixed object)
260 Right hand (part of pointing member, part of pointer)
260a Index finger (indicator member having a rod-shaped tip, pointer)
300 Imaging area

Claims (12)

平面上の所定領域に存在する対象物を撮像可能な撮像手段と、
その撮像手段により撮像された前記対象物の撮像を画像データとして取得する画像データ取得手段と、
前記対象物に対して任意の位置を指し示す指示部材の前記対象物に対する位置を検出する指示部材位置検出手段と、
その指示部材位置検出手段により前記指示部材の高さと前記対象物の高さとの差が所定値より小さいと検出された場合に、前記指示部材により指し示された対象物の位置に対応する位置情報を入力する位置情報入力手段と、
前記指示部材位置検出手段により前記指示部材の高さと前記対象物の高さとの差が所定値より大きいと検出された場合に、前記位置情報入力手段による位置情報の入力を禁止する位置情報入力禁止手段と、
前記位置情報入力手段による前記指示部材の位置情報の入力が開始されると、前記位置情報入力禁止手段により前記位置情報の入力が禁止されるまで移動する前記指示部材により指し示された軌跡に応じて、前記対象物を複数の領域に区分する領域区分手段とを備え、
前記画像データ取得手段は、前記領域区分手段により区分された領域単位で画像データを取得し得るものであることを特徴とする画像入力装置。
An imaging means capable of imaging an object existing in a predetermined area on a plane;
Image data acquisition means for acquiring imaging of the object imaged by the imaging means as image data;
Indicating member position detecting means for detecting a position of the indicating member pointing to an arbitrary position with respect to the object with respect to the object;
Position information corresponding to the position of the object pointed to by the pointing member when the difference between the height of the pointing member and the height of the object is detected by the pointing member position detecting means to be smaller than a predetermined value Position information input means for inputting
Position information input prohibition for prohibiting position information input by the position information input means when the indication member position detection means detects that the difference between the height of the indication member and the height of the object is greater than a predetermined value Means,
When the position information input means starts to input the position information of the pointing member, the position information input prohibiting means responds to the locus indicated by the pointing member that moves until the position information input is prohibited. And an area dividing means for dividing the object into a plurality of areas,
The image input apparatus, wherein the image data acquisition means is capable of acquiring image data in units of areas divided by the area classification means.
前記指示部材は棒状先端部を有するものであり、前記指示部材位置検出手段は、前記棒状先端部の位置を検出するものであることを特徴とする請求項1記載の画像入力装置。   2. The image input apparatus according to claim 1, wherein the pointing member has a rod-shaped tip, and the pointing member position detecting means detects a position of the rod-shaped tip. 前記撮像手段により撮像される前記対象物に焦点が合うように焦点を調整する焦点調整手段と、
その焦点調整手段により前記対象物に合うように調整されている焦点に対する、前記指示部材の焦点度を計測する焦点度計測手段とを備え、
前記指示部材位置検出手段は、前記焦点度計測手段により計測された焦点度と所定の閾値とを比較することにより、前記指示部材の高さを判断するものであることを特徴とする請求項1又は2記載の画像入力装置。
Focus adjusting means for adjusting the focus so that the object imaged by the imaging means is in focus;
A focus degree measuring means for measuring the focus degree of the pointing member with respect to the focus adjusted to fit the object by the focus adjusting means,
2. The pointing member position detecting unit is configured to determine the height of the pointing member by comparing a focus degree measured by the focus degree measuring unit with a predetermined threshold value. Or the image input device of 2.
前記領域区分手段は、前記軌跡の形状に基づいて、閉じられた線により囲まれた領域、及び/又は、前記対象物を横切る線とその対象物の輪郭により囲まれた領域に、前記対象物を区分するものであることを特徴とする請求項1から3のいずれかに記載の画像入力装置。   Based on the shape of the trajectory, the region segmenting means may include a region surrounded by a closed line and / or a region surrounded by a line crossing the target and the contour of the target. The image input device according to claim 1, wherein the image input device is a device for classifying images. 前記領域区分手段により領域が区分された後、前記位置情報入力手段により、前記指示部材が前記区分された領域の中の1の領域内を指し示していることを示す位置情報が入力された場合に、その1の領域を指定する領域指定手段を備え、
前記画像データ取得手段は、その領域指定手段により1の領域が指定されると、その領域指定手段により指定された領域部分の画像データを取得するものであることを特徴とする請求項1から4のいずれかに記載の画像入力装置。
When the position information indicating that the pointing member points within one of the divided areas is input by the position information input means after the area is divided by the area dividing means. And an area specifying means for specifying the one area,
5. The image data acquisition means, when one area is designated by the area designation means, obtains image data of the area portion designated by the area designation means. The image input device according to any one of the above.
前記領域指定手段により指定された領域に対応する画像データが前記画像データ取得手段により取得されると、その取得された画像データの画像ファイルを作成するファイル化手段を備えていることを特徴とする請求項5記載の画像入力装置。   When image data corresponding to an area specified by the area specifying unit is acquired by the image data acquiring unit, a file forming unit is provided for creating an image file of the acquired image data. The image input device according to claim 5. 前記画像データ取得手段は、前記領域指定手段により領域が指定される毎にその指定された領域に対応する画像データを取得するものであり、
前記ファイル化手段は、前記画像データ取得手段により取得された画像データ毎に別々の画像ファイルを作成するものであることを特徴とする請求項6記載の画像入力装置。
The image data acquisition means acquires image data corresponding to the designated area every time an area is designated by the area designation means,
The image input apparatus according to claim 6, wherein the filing unit creates a separate image file for each image data acquired by the image data acquisition unit.
前記対象物を固定する固定物を検出する固定物検出手段を備え、
その固定物検出手段により固定物が検出された場合に、前記指示部材位置検出手段による指示部材の位置の検出が実行されることを特徴とする請求項1から7のいずれかに記載の画像入力装置。
A fixed object detecting means for detecting a fixed object for fixing the object;
The image input according to any one of claims 1 to 7, wherein when the fixed object is detected by the fixed object detection means, the position of the pointing member is detected by the pointing member position detecting means. apparatus.
前記領域区分手段により区分された各領域の境界を示す像を、前記対象物に対して投影する境界投影手段と、
その境界投影手段により境界の示された各領域に、それらの領域をそれぞれ特定する識別子を示す像を重ねて投影する識別子投影手段とを備えていることを特徴とする請求項1から8のいずれかに記載の画像入力装置。
Boundary projection means for projecting an image showing the boundary of each area divided by the area dividing means onto the object;
9. An identifier projecting unit for projecting an image indicating an identifier for specifying each of the regions on each region indicated by the boundary projecting unit. An image input device according to claim 1.
前記画像データ取得手段が前記領域区分手段により区分された領域単位で画像データを取得した場合に、その画像データ取得手段に画像データの取得がなされた領域に対して、画像データが未取得である領域と区別可能な像を、前記境界投影手段により境界の示された各領域に重ねて投影する模様投影手段を備えていることを特徴とする請求項9記載の画像入力装置。   When the image data acquisition unit acquires image data in units of regions divided by the region classification unit, no image data has been acquired for the region where the image data has been acquired by the image data acquisition unit. The image input apparatus according to claim 9, further comprising a pattern projecting unit that projects an image distinguishable from the region onto each region indicated by the boundary by the boundary projecting unit. 所定の操作を実行するタイミングに応じて、その操作に対する補助メッセージを投影するメッセージ投影手段を備えていることを特徴とする請求項1から10のいずれかに記載の画像入力装置。   The image input device according to claim 1, further comprising a message projecting unit that projects an auxiliary message for the operation according to a timing of executing the predetermined operation. 所定の操作を実行するタイミングに応じて、所定の形状を有する像を投影する操作ボタン投影手段を備え、
前記位置情報入力手段により、前記指示部材が前記操作ボタン投影手段により投影された像の領域内を指し示していることを示す位置情報が入力されると、前記所定の操作を実行することを特徴とする請求項1から11のいずれかに記載の画像入力装置。
An operation button projecting unit that projects an image having a predetermined shape according to a timing at which a predetermined operation is performed,
The position information input means executes the predetermined operation when position information indicating that the pointing member points within the area of the image projected by the operation button projection means is input. The image input device according to claim 1.
JP2004076317A 2004-03-17 2004-03-17 Image input device Pending JP2005267034A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004076317A JP2005267034A (en) 2004-03-17 2004-03-17 Image input device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004076317A JP2005267034A (en) 2004-03-17 2004-03-17 Image input device

Publications (1)

Publication Number Publication Date
JP2005267034A true JP2005267034A (en) 2005-09-29

Family

ID=35091544

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004076317A Pending JP2005267034A (en) 2004-03-17 2004-03-17 Image input device

Country Status (1)

Country Link
JP (1) JP2005267034A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008204047A (en) * 2007-02-19 2008-09-04 Sony Corp Display detection device and light detection device
WO2009031457A1 (en) * 2007-09-04 2009-03-12 Canon Kabushiki Kaisha Image projection apparatus and control method for same
JP2009522631A (en) * 2005-12-30 2009-06-11 インターナショナル・ビジネス・マシーンズ・コーポレーション Video-based handwriting input method and apparatus
JP2010250464A (en) * 2009-04-14 2010-11-04 Sony Corp Apparatus and method for processing information, and program
JP2013520728A (en) * 2010-02-19 2013-06-06 マイクロソフト コーポレーション Combination of on and offscreen gestures
JP2013114467A (en) * 2011-11-29 2013-06-10 Nikon Corp Display system, display method and program
JP2013134549A (en) * 2011-12-26 2013-07-08 Sharp Corp Data input device and data input method
JP2016119060A (en) * 2014-12-22 2016-06-30 キヤノンマーケティングジャパン株式会社 Information processing system, control method of the same, and program, and information processing apparatus, control method of the same, and program
US10268367B2 (en) 2010-02-19 2019-04-23 Microsoft Technology Licensing, Llc Radial menus with bezel gestures

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009522631A (en) * 2005-12-30 2009-06-11 インターナショナル・ビジネス・マシーンズ・コーポレーション Video-based handwriting input method and apparatus
JP2008204047A (en) * 2007-02-19 2008-09-04 Sony Corp Display detection device and light detection device
WO2009031457A1 (en) * 2007-09-04 2009-03-12 Canon Kabushiki Kaisha Image projection apparatus and control method for same
US8118433B2 (en) 2007-09-04 2012-02-21 Canon Kabushiki Kaisha Image projection apparatus and control method for same
JP2010250464A (en) * 2009-04-14 2010-11-04 Sony Corp Apparatus and method for processing information, and program
JP2013520728A (en) * 2010-02-19 2013-06-06 マイクロソフト コーポレーション Combination of on and offscreen gestures
US10268367B2 (en) 2010-02-19 2019-04-23 Microsoft Technology Licensing, Llc Radial menus with bezel gestures
JP2013114467A (en) * 2011-11-29 2013-06-10 Nikon Corp Display system, display method and program
JP2013134549A (en) * 2011-12-26 2013-07-08 Sharp Corp Data input device and data input method
JP2016119060A (en) * 2014-12-22 2016-06-30 キヤノンマーケティングジャパン株式会社 Information processing system, control method of the same, and program, and information processing apparatus, control method of the same, and program

Similar Documents

Publication Publication Date Title
JP5620947B2 (en) Electronic device, control method therefor, program, and storage medium
JP5760324B2 (en) Image processing apparatus, image processing method, image processing program, and recording medium on which the image processing program is recorded
JP6742730B2 (en) Electronic device and control method thereof
JP2015056143A (en) Information processing device and information processing method
JP2010134738A (en) Terminal apparatus, display control method, and display control program
US9529422B2 (en) Image display and photographing system, photographing device, display device, image display and photographing method, and computer-readable storage medium for computer program
KR20210100170A (en) Electronic device and its control method
JP2005267034A (en) Image input device
JP7422457B2 (en) Display control device and its control method
JP4501701B2 (en) Image capturing apparatus, image processing method for image capturing apparatus, and program
JP2014017665A (en) Display control unit, control method for display control unit, program, and recording medium
US11048400B2 (en) Electronic apparatus, control method of electronic apparatus, and non-transitory computer readable medium
CN110537363A (en) Digital camera
US20230127668A1 (en) Image processing device, imaging apparatus, image processing method, and program
JP2021184123A (en) Electronic device, control method of electronic device, and program
JP2015228270A (en) Electronic device, electronic device control method, program, and storage medium
JP5316083B2 (en) camera
CN111752425B (en) Method for selecting an interactive object on a display medium of a device
JP4321299B2 (en) Image input device
JP7264675B2 (en) processor and program
JP7309435B2 (en) Electronic device, electronic device control method, program, recording medium
JP2021089644A (en) Electronic apparatus
JP2021012619A (en) Electronic apparatus and method for controlling the same
JP6728024B2 (en) Display control device, display control method, and program
JP2020166199A (en) Electronic apparatus and method of controlling the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070117

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090331

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090721