JP2005267034A - Image input device - Google Patents
Image input device Download PDFInfo
- Publication number
- JP2005267034A JP2005267034A JP2004076317A JP2004076317A JP2005267034A JP 2005267034 A JP2005267034 A JP 2005267034A JP 2004076317 A JP2004076317 A JP 2004076317A JP 2004076317 A JP2004076317 A JP 2004076317A JP 2005267034 A JP2005267034 A JP 2005267034A
- Authority
- JP
- Japan
- Prior art keywords
- area
- image data
- image
- document
- imaging
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Position Input By Displaying (AREA)
Abstract
Description
本発明は画像入力装置に関し、特に、机上に配置された原稿に対し、所望の入力領域を容易かつ確実に指定し得る画像入力装置に関する。 The present invention relates to an image input apparatus, and more particularly to an image input apparatus that can easily and reliably specify a desired input area for a document placed on a desk.
従来より、机上に配置した原稿をその上方から撮像装置により撮像することによって、その原稿中の文字データや画像データを入力し得るデスクスタンド型の画像入力装置が存在している。例えば、特許文献1には、机の上方に設けられたビデオカメラ・プロジェクタ装置を備えている複写装置が記載されており、この複写装置は、机面上に配置された原文書をビデオカメラで撮影することにより、その原文書をイメージ情報として入力することができる一方で、その入力されたイメージ情報をプロジェクタにより机面上に投影することができる。
2. Description of the Related Art Conventionally, there is a desk stand type image input device that can input character data and image data in a document by imaging the document placed on the desk from above with an imaging device. For example,
また、特許文献1には、その複写装置において、机面上に配置された原文書に含まれる所望の図形に対し、その図形の右上隅から左下隅へ指を動かす、又は、指で「投げ輪」を描くことをビデオカメラにより撮影して入力することにより、その図形領域を選択できることが記載されている。そのように選択された図形領域に指を置きながら、その指を、プロジェクタにより机上に投影されている編集中の文書における所望の位置まで移動させることにより、その選択された図形領域のイメージを編集中の文書に貼り付けることができることが記載されている。
In
なお、この特許文献1に記載される複写装置では、上記のような指による図形領域の選択や貼り付けなどの各操作における操作完了の指示は、ユーザが机を軽く叩くことによって行われる。具体的には、特許文献1に記載される複写装置には、机の下側に小型スネアドラム型マイクロフォンが取り付けられており、机を叩くことにより生じた振動信号又は音声を、その小型スネアドラム型マイクロフォンでピックアップし、その振動信号又は音声を信号処理装置により閾値と比較し、閾値を超えていれば操作完了の指示とみなす。
しかしながら、特許文献1に記載される複写装置では、机の下に設けられた小型スネアドラム型マイクロフォンによりピックアップされた振動信号又は音声を、図形領域の選択の操作完了の指示として認識するので、操作完了の指示とは無関係に生じた雑音、例えば、腕が机に当たったりした際に生じた振動信号を操作完了の指示であると誤認識してしまうという問題点があった。
However, the copying apparatus described in
本発明は、上述した問題点を解決するためになされたものであり、撮像される対象物に対して任意の位置を指し示す指示部材の位置、特に、その高さを検出することにより、その高さに応じて、その指示部材の指し示す位置に対応する位置情報の入力及び入力禁止が制御され、それによって、例えば、その指示部材により対象物を複数領域に区切る境界線を描いた際に、その指示部材を所定の高さ以上に持ち上げることを、その境界線の描画終了とみなすことのできる画像入力装置を提供することを目的としている。 The present invention has been made to solve the above-described problems, and by detecting the position of the pointing member pointing to an arbitrary position with respect to the object to be imaged, in particular, the height thereof, the height of the pointing member is detected. Accordingly, the input and prohibition of input of position information corresponding to the position indicated by the pointing member is controlled, so that, for example, when a boundary line that divides the object into a plurality of regions is drawn by the pointing member, It is an object of the present invention to provide an image input device that can be regarded as the end of drawing of the boundary line by lifting the pointing member to a predetermined height or more.
この目的を達成するために、請求項1記載の画像入力装置は、平面上の所定領域に存在する対象物を撮像可能な撮像手段と、その撮像手段により撮像された前記対象物の撮像を画像データとして取得する画像データ取得手段と、前記対象物に対して任意の位置を指し示す指示部材の前記対象物に対する位置を検出する指示部材位置検出手段と、その指示部材位置検出手段により前記指示部材の高さと前記対象物の高さとの差が所定値より小さいと検出された場合に、前記指示部材により指し示された対象物の位置に対応する位置情報を入力する位置情報入力手段と、前記指示部材位置検出手段により前記指示部材の高さと前記対象物の高さとの差が所定値より大きいと検出された場合に、前記位置情報入力手段による位置情報の入力を禁止する位置情報入力禁止手段と、前記位置情報入力手段による前記指示部材の位置情報の入力が開始されると、前記位置情報入力禁止手段により前記位置情報の入力が禁止されるまで移動する前記指示部材により指し示された軌跡に応じて、前記対象物を複数の領域に区分する領域区分手段とを備え、前記画像データ取得手段は、前記領域区分手段により区分された領域単位で画像データを取得し得るものである。
In order to achieve this object, an image input apparatus according to
この請求項1記載の画像入力装置によれば、撮像手段により撮像された平面上の所定領域にある対象物が撮像され、その撮像が画像データとして画像データ取得手段により取得される。一方で、該対象物に対して任意の位置を指し示す指示部材の位置が指示部材位置検出手段により検出される。その際、指示部材の高さと該対象物との高さとの差が所定値より小さいと検出された場合には、位置情報入力手段により該指示部材が指し示す対象物の位置に対応する位置情報が入力されるが、指示部材のの高さと該対象物との高さとの差が所定値より大きいと検出されると、位置情報入力禁止手段により該位置情報の入力が禁止される。該位置情報入力手段による該指示部材の位置情報の入力が開始されてから、該位置情報入力禁止手段による該位置情報の入力が禁止されるまで移動する該指示部材により指し示された軌跡に応じて、領域区分手段により該対象物が複数の領域に区分される。領域区分手段により該対象物が複数の領域に区分されると、該画像データ取得手段により、その区分された領域単位での画像データが取得される。 According to the image input device of the first aspect, the object in the predetermined area on the plane imaged by the imaging unit is imaged, and the imaging is acquired as image data by the image data acquiring unit. On the other hand, the position of the pointing member indicating an arbitrary position with respect to the object is detected by the pointing member position detecting means. At this time, if it is detected that the difference between the height of the pointing member and the height of the object is smaller than a predetermined value, the position information corresponding to the position of the object pointed to by the pointing member by the position information input means Although it is input, if it is detected that the difference between the height of the pointing member and the height of the object is greater than a predetermined value, the position information input prohibiting means prohibits the input of the position information. In response to the locus indicated by the pointing member that moves until the position information input prohibiting unit prohibits the input of the position information after the position information input unit starts to input the position information of the pointing member. Thus, the object is divided into a plurality of areas by the area dividing means. When the object is divided into a plurality of areas by the area dividing means, the image data acquisition means acquires image data in units of the divided areas.
請求項2記載の画像入力装置は、請求項1記載の画像入力装置において、前記指示部材は棒状先端部を有するものであり、前記指示部材位置検出手段は、前記棒状先端部の位置を検出するものである。 According to a second aspect of the present invention, in the image input device according to the first aspect, the indicating member has a rod-shaped tip, and the pointing member position detecting means detects the position of the rod-shaped tip. Is.
請求項3記載の画像入力装置は、請求項1又は2記載の画像入力装置において、前記撮像手段により撮像される前記対象物に焦点が合うように焦点を調整する焦点調整手段と、その焦点調整手段により前記対象物に合うように調整されている焦点に対する、前記指示部材の焦点度を計測する焦点度計測手段とを備え、前記指示部材位置検出手段は、前記焦点度計測手段により計測された焦点度と所定の閾値とを比較することにより、前記指示部材の高さを判定するものである。
The image input device according to
この請求項3記載の画像入力装置によれば、請求項1又は2記載の画像入力装置と同様に作用する上、焦点調整手段により対象物に合うように調整された焦点に対する指示部材の焦点度が焦点度計測手段により計測される。指示部材位置検出手段では、該焦点度計測手段により計測された焦点度が所定の閾値とを比較することにより、該指示部材の高さが判定される。 According to the image input apparatus of the third aspect, the focal point of the pointing member with respect to the focal point adjusted to be suitable for the object by the focal point adjusting means is the same as that of the image input apparatus according to the first or second aspect. Is measured by the focus degree measuring means. The pointing member position detecting means determines the height of the pointing member by comparing the focus degree measured by the focus degree measuring means with a predetermined threshold value.
請求項4記載の画像入力装置は、請求項1から3のいずれかに記載の画像入力装置において、前記領域区分手段は、前記軌跡の形状に基づいて、閉じられた線により囲まれた領域、及び/又は、前記対象物を横切る線とその対象物の輪郭により囲まれた領域に、前記対象物を区分するものである。
The image input device according to
請求項5記載の画像入力装置は、請求項1から4のいずれかに記載の画像入力装置において、前記領域区分手段により領域が区分された後、前記位置情報入力手段により、前記指示部材が前記区分された領域の中の1の領域内を指し示していることを示す位置情報が入力された場合に、その1の領域を指定する領域指定手段を備え、前記画像データ取得手段は、前記領域指定手段により1の領域が指定されると、その領域指定手段により指定された領域部分の画像データを取得するものである。
The image input device according to
この請求項5記載の画像入力装置によれば、請求項1から4のいずれかに記載の画像入力装置と同様に作用する上、前記位置情報入力手段により、前記指示部材が前記区分された領域の中の1の領域内を指し示していることを示す位置情報が入力されると、その指し示された1の領域が領域指定手段により指定される。そして、指定された領域部分の画像データが画像データ取得手段により取得される。
According to the image input device according to
請求項6記載の画像入力装置は、請求項5記載の画像入力装置において、前記領域指定手段により指定された領域に対応する画像データが前記画像データ取得手段により取得されると、その取得された画像データの画像ファイルを作成するファイル化手段を備えている。
The image input device according to claim 6 is the image input device according to
この請求項6記載の画像入力装置によれば、請求項5記載の画像入力装置と同様に作用する上、前記領域指定手段により指定された領域に対応する画像データの画像ファイルがファイル化手段により作成される。 According to the image input device of the sixth aspect, the image input device operates in the same manner as the image input device according to the fifth aspect, and the image file of the image data corresponding to the area specified by the area specifying means is filed by the file forming means. Created.
請求項7記載の画像入力装置は、請求項6記載の画像入力装置において、前記画像データ取得手段は、前記領域指定手段により領域が指定される毎にその指定された領域に対応する画像データを取得するものであり、前記ファイル化手段は、前記画像データ取得手段により取得された画像データ毎に別々の画像ファイルを作成するものである。 According to a seventh aspect of the present invention, in the image input device according to the sixth aspect, the image data acquisition means obtains image data corresponding to the designated area every time the area is designated by the area designation means. The filing means creates a separate image file for each image data obtained by the image data obtaining means.
この請求項7記載の画像入力装置によれば、請求項6記載の画像入力装置と同様に作用する上、前記領域指定手段により領域が指定される毎に、その指定された領域に対応する画像データの画像ファイルがファイル化手段により作成される。 According to the image input apparatus of the seventh aspect, the image input apparatus operates in the same manner as the image input apparatus according to the sixth aspect, and each time an area is specified by the area specifying means, an image corresponding to the specified area An image file of data is created by the filing means.
請求項8記載の画像入力装置は、請求項1から7のいずれかに記載の画像入力装置において、前記対象物を固定する固定物を検出する固定物検出手段を備え、その固定物検出手段により固定物が検出された場合に、前記指示部材位置検出手段による指示部材の位置の検出が実行される。
The image input device according to
この請求項8記載の画像入力装置によれば、請求項1から7のいずれかに記載の画像入力装置と同様に作用する上、固定物検出手段により対象物を固定する固定物が検出されると、指示部材の位置の検出が指示部材位置検出手段により実行される。 According to the image input device according to the eighth aspect, the fixed object for detecting the fixed object is detected by the fixed object detecting means in addition to the same operation as the image input apparatus according to any one of the first to seventh aspects. Then, the position of the pointing member is detected by the pointing member position detecting means.
請求項9記載の画像入力装置は、請求項1から8のいずれかに記載の画像入力装置において、前記領域区分手段により区分された各領域の境界を示す像を、前記対象物に対して投影する境界投影手段と、その境界投影手段により境界の示された各領域に、それらの領域をそれぞれ特定する識別子を示す像を重ねて投影する識別子投影手段とを備えている。
The image input device according to
この請求項9記載の画像入力装置によれば、請求項1から8のいずれかに記載の画像入力装置と同様に作用する上、対象物に対し、領域区分領域により区分された境界を示す像が境界投影手段により投影されると共に、各領域を特定する識別子を示す識別子が識別子投影手段により投影される。
According to the image input device according to
請求項10記載の画像入力装置は、請求項9記載の画像入力装置において、前記画像データ取得手段が前記領域区分手段により区分された領域単位で画像データを取得した場合に、その画像データ取得手段に画像データの取得がなされた領域に対して、画像データが未取得である領域と区別可能な像を、前記境界投影手段により境界の示された各領域に重ねて投影する模様投影手段を備えている。
The image input device according to
この請求項10記載の画像入力装置によれば、請求項9記載の画像入力装置と同様に作用する上、区分された各領域の画像データの取得がされると、その領域に対し、境界投影手段により投影される各領域の境界と共に、画像データが未取得である他の領域と区別可能な像が模様投影手段により投影され、それによって、画像データ取得済みの領域と未取得の領域との区別が可能となる。 According to the image input device of the tenth aspect, the image input device operates in the same manner as the image input device according to the ninth aspect, and when the image data of each divided area is acquired, boundary projection is performed on the area. An image that can be distinguished from other areas for which image data has not been acquired is projected by the pattern projection means together with the boundaries between the areas projected by the means, whereby the image data acquired area and the unacquired area A distinction is possible.
請求項11記載の画像入力装置は、請求項1から10のいずれかに記載の画像入力装置において、所定の操作を実行するタイミングに応じて、その操作に対する補助メッセージを投影するメッセージ投影手段を備えている。
The image input device according to
請求項12記載の画像入力装置は、請求項1から11のいずれかに記載の画像入力装置において、所定の操作を実行するタイミングに応じて、所定の形状を有する像を投影する操作ボタン投影手段を備え、前記位置情報入力手段により、前記指示部材が前記操作ボタン投影手段により投影された像の領域内を指し示していることを示す位置情報が入力されると、前記所定の操作を実行する。
An image input device according to
この請求項12記載の画像入力装置によれば、請求項1から11のいずれかに記載の画像入力装置と同様に作用する上、所定の操作を実行するタイミングに応じて、操作ボタン投影手段により所定の形状の像が投影される。そして、位置情報入力手段により、指示部材がその所定の形状の像の領域を指し示していることを示す位置情報が入力されると、その投影された操作ボタンに応じた所定の操作が実行される。 According to the image input device of the twelfth aspect, in addition to the same operation as the image input device according to any one of the first to eleventh aspects, the operation button projecting unit performs the predetermined operation according to the timing of executing the predetermined operation. An image having a predetermined shape is projected. When the position information indicating that the pointing member points to the area of the image having the predetermined shape is input by the position information input unit, a predetermined operation corresponding to the projected operation button is executed. .
請求項1記載の画像入力装置によれば、指示部材の軌跡により区分された領域単位で対象物の画像データを取得することができ、また、指示部材によって描かれる軌跡の終了位置は、指示部材の位置が所定位置の高さ以上である場合に認識される。よって、指示部材を対象物に近づけて所定位置より低い位置に置き、所定位置より低い位置に保って軌跡を描いた後、最後に、指示部材を所定位置の高さ以上に持ち上げることにより、対象物における所望の領域の画像データを取得することができる。指示部材を所定位置の高さ以上に持ち上げることによって軌跡の終了位置が認識されるので、簡単に終了位置が認識し得るだけでなく、確実に終了位置を認識し得るという効果がある。 According to the image input device of the first aspect, the image data of the object can be acquired in units of regions divided by the locus of the pointing member, and the end position of the locus drawn by the pointing member is Is recognized when the position is equal to or higher than the height of the predetermined position. Therefore, after placing the pointing member close to the target object at a position lower than the predetermined position, keeping the position lower than the predetermined position and drawing the trajectory, finally lifting the pointing member above the predetermined position to Image data of a desired region in the object can be acquired. Since the end position of the trajectory is recognized by lifting the indicating member above the predetermined position, not only the end position can be easily recognized, but also the end position can be surely recognized.
請求項2記載の画像入力装置によれば、請求項1記載の画像入力装置の奏する効果に加えて、指示部材位置検出手段は、指示部材の棒状先端部の位置を検出するので、その指示部材の指し示す位置をより明確に検出することができる。よって、所望の領域を正確に区分し、画像データとして取得し得るという効果がある。 According to the image input device of the second aspect, in addition to the effect produced by the image input device according to the first aspect, the pointing member position detecting means detects the position of the bar-shaped tip of the pointing member. The position indicated by can be detected more clearly. Therefore, there is an effect that a desired area can be accurately divided and acquired as image data.
請求項3記載の画像入力装置によれば、請求項1又は2記載の画像入力装置の奏する効果に加えて、指示部材位置検出手段における指示部材の位置の検出は、対象物に合うように調整された焦点に対する指示部材の焦点度(指示部材に対する焦点(ピント)の合っている度合い)を所定の閾値と比較することにより行なわれるので、指示部材の対象物に対する位置として、対象物に対する高さを検出することができる。よって、指示部材を対象物に近づけて、軌跡を描き、そして、指示部材を対象物に対して上方に持ち上げるという単純な動作であっても、その軌跡の入力開始位置及び入力終了位置を識別し得るという効果がある。従って、より簡単且つ確実に、対象物における所望の領域の境界線を入力することができる。 According to the image input device of the third aspect, in addition to the effect produced by the image input device according to the first or second aspect, the detection of the position of the pointing member in the pointing member position detecting means is adjusted so as to match the object. Since the degree of focus of the pointing member with respect to the focused point (the degree of focus on the pointing member) is compared with a predetermined threshold, the height of the pointing member with respect to the target is determined as the position of the pointing member with respect to the target. Can be detected. Therefore, even if it is a simple operation of bringing the pointing member close to the object, drawing a locus, and lifting the pointing member upward with respect to the object, the input start position and input end position of the locus are identified. There is an effect of obtaining. Therefore, it is possible to input a boundary line of a desired region in the object more easily and reliably.
請求項4記載の画像入力装置によれば、請求項1から3のいずれかに記載の画像入力装置の奏する効果に加えて、指示部材により描かれる軌跡の形状に基づいて、閉じられた線により囲まれた領域、及び/又は、該対象物を横切る線とその対象物の輪郭により囲まれた領域に、該対象物を区分することができるので、例えば、画像データを取得したい所望の領域を指示部材により描かれた軌跡により囲む、及び/又は、対象物を横切る軌跡を指示部材により描くことにより、所望の形状の画像データを取得することができるという効果がある。 According to the image input device of the fourth aspect, in addition to the effect produced by the image input device according to any one of the first to third aspects, the closed line is used based on the shape of the locus drawn by the pointing member. Since the object can be divided into an enclosed area and / or an area surrounded by a line crossing the object and the outline of the object, for example, a desired area from which image data is to be acquired can be obtained. There is an effect that image data having a desired shape can be obtained by surrounding the object with a locus drawn by the pointing member and / or drawing a locus traversing the object with the pointing member.
請求項5記載の画像入力装置によれば、請求項1から4のいずれかに記載の画像入力装置の奏する効果に加えて、指示部材が領域区分手段により区分された領域の中の1の領域内を指し示していることを示す位置情報が位置情報入力手段により入力されると、その指示部材により指し示された領域の画像データが取得されるので、画像データの取得を所望する領域に対して指示部材を近づけて指し示すことにより、その所望の領域の画像データを取得することができる。よって、簡単な操作によって所望の領域の画像データを取得し得るという効果がある。 According to the image input device of the fifth aspect, in addition to the effect produced by the image input device according to any one of the first to fourth aspects, one region among the regions where the pointing member is divided by the region dividing means When position information indicating that the inside is pointed in is input by the position information input means, the image data of the area pointed to by the pointing member is acquired. By pointing the pointing member closer, image data of the desired area can be acquired. Therefore, there is an effect that image data of a desired area can be acquired by a simple operation.
請求項6記載の画像入力装置によれば、請求項5記載の画像入力装置の奏する効果に加えて、領域指定手段により指定された領域に対応する画像データの画像ファイルが作成されるので、対象物における所望の領域の画像ファイルを容易に作成し得、その画像ファイルを所望の用途(例えば、書類の作成)に利用できるという効果がある。 According to the image input device of the sixth aspect, in addition to the effect produced by the image input device according to the fifth aspect, the image file of the image data corresponding to the area designated by the area designation means is created. There is an effect that an image file of a desired region in an object can be easily created, and the image file can be used for a desired application (for example, creation of a document).
請求項7記載の画像入力手段によれば、請求項6記載の画像入力装置の奏する効果に加えて、領域指定手段により領域が指定される毎に、その指定された領域に対応する画像データの画像ファイル作成されるので、1の対象物を複数に分割した画像ファイルを効率的に作成することができるという効果がある。
According to the image input means described in
請求項8記載の画像入力装置によれば、請求項1から7のいずれかに記載の画像入力装置の奏する効果に加えて、対象物を固定する固定物が検出されると、指示部材の位置の検出が実行されるので、例えば、固定物が検出されない場合において、指示部材が撮像領域内を移動したとしても無駄な検出を行なわないで済むという効果がある。
According to the image input device according to
請求項9記載の画像入力装置によれば、請求項1から8のいずれかに記載の画像入力装置の奏する効果に加えて、対象物に対し、領域区分領域により区分された境界を示す像が境界投影手段により投影されると共に、各領域を特定する識別子を示す識別子が識別子投影手段により投影されるので、区分された各領域を容易に識別し得るという効果がある。 According to the image input device of the ninth aspect, in addition to the effect produced by the image input device according to any one of the first to eighth aspects, an image showing the boundary divided by the region division region with respect to the object. Since the identifier is projected by the boundary projection unit and the identifier indicating the identifier for specifying each region is projected by the identifier projection unit, each divided region can be easily identified.
請求項10記載の画像入力装置によれば、請求項9記載の画像入力手段の奏する効果に加えて、画像データを既に取得した領域に対し、未取得の領域との区別可能な像が投影されるので、区分された各領域の画像データが既に取得済みであるか否かを一目瞭然に見分けることができる。よって、既に取得済みの領域の画像データを重複して取得したり、所望の領域の画像データを取得し損ねるなどの作業の無駄が抑制され、画像データの入力作業を効率的に行ない得るという効果がある。 According to the image input device of the tenth aspect, in addition to the effect produced by the image input means according to the ninth aspect, an image that can be distinguished from an unacquired area is projected onto an area where image data has already been acquired. Therefore, it can be recognized at a glance whether or not the image data of each divided area has already been acquired. Therefore, it is possible to efficiently perform image data input operations by suppressing wasteful operations such as redundantly acquiring image data of already acquired regions or failing to acquire image data of desired regions. There is.
請求項11記載の画像入力装置によれば、請求項1から10のいずれかに記載の画像入力装置の奏する効果に加えて、所定の操作を実行するタイミングに応じて、その操作に対する補助メッセージが投影されるので、操作を効率的に実行し得る上、操作ミスを抑制し得るという効果がある。 According to the image input device of the eleventh aspect, in addition to the effect produced by the image input device according to any one of the first to tenth aspects, an auxiliary message for the operation is displayed according to the timing of executing the predetermined operation. Since the projection is performed, the operation can be executed efficiently, and an operation error can be suppressed.
請求項12記載の画像入力装置によれば、請求項1から11のいずれかに記載の画像入力装置の奏する効果に加えて、指示部材が所定の操作を実行するタイミングに応じて投影される操作ボタンを指し示していることを示す位置情報が位置情報入力手段により入力されると、その投影された操作ボタンに応じた所定の操作が実行されるので、各種操作を容易に行ない得るという効果がある。
According to the image input device of
以下、本発明の好ましい実施例について、添付図面を参照して説明する。図1は、本発明の画像入力装置である撮像装置100による撮像の様子を概略的に示す図である。図1に示すように、撮像装置100の外観は、本体ケース10と、この本体ケース10を机などの平面台400の上方に配置するための支持アーム12と、撮像部20と、投光部30とから構成され、平面台400上の撮像領域300内に配置された原稿200のような撮像対象物をその直上から撮像部20により撮像し、その撮像の画像データを入力するものである。投光部30は、平面台400上に、撮像部20による撮像が可能な領域(撮像領域)300の枠301や、各種メッセージ、各種操作ボタンや、投影用画像などを投影する。なお、「投影用画像」とは、後述する処理に従って区分された原稿200の各領域(分割領域)の境界線302や各領域を識別するための識別子などの原稿200を区分するための画像を意味する。なお、支持アーム12における本体ケース10と連結されていない側は、非図示のクリップ又は固定台に連結されており、撮像装置100は、クリップを用いてパーソナルコンピュータの薄型ディスプレイやデスクスタンドなどに固定されるクリップ式、又は、固定台を脚部とするデスクスタンド型として使用される。
Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings. FIG. 1 is a diagram schematically showing a state of imaging by an
次に、図2を参照して、撮像装置100における撮像部20及び投光部30の構成について説明する。図2は、撮像装置100における撮像部20及び投光部30の主要な構成を説明する断面図である。なお、図面を簡略化するために、図2には撮像部20及び投光部30における主要な部材の配置のみを示し、これらの各部材を収容するケースや各部材の電気的配線などは省略している。図2に示すように、撮像部20は、平面台400に向けられた結像レンズ22とその結像レンズ22の後方(撮像装置100の内部側)に設けられたCCD画像センサ24とを備えている。
Next, the configuration of the
結像レンズ22は、複数枚のレンズで構成され、オートフォーカス機能を有し、自動で焦点距離及び絞りを調整して外部からの光をCCD画像センサ24上に結像する。
The
CCD画像センサ24は、CCD(Charge Coupled Device)素子などの光電変換素子がマトリクス状に配列されてなる構成で、その表面に結像される画像の光の色及び強さに応じた信号を生成し、これをデジタルデータに変換して撮像装置100全体を制御するプロセッサ(後述するプロセッサ40)へ出力する。なお、撮像全体の画像データはCCD素子の数に等しい数の画素の画素データから構成されている。ここで、1つのCCD素子が1画素に対応し、1画素あたり、赤(R)、緑(G)、青(B)の3色、各256階調の輝度で表される画素データを有している。
The
一方、投光部30は、図2に示すように、撮像装置100の内側から外側へ向かう順で、光源部32と、光源部32から投射される光を集光する集光レンズ34と、液晶パネル36と、投射レンズ38とを備えている。
On the other hand, as shown in FIG. 2, the
光源部32は、白色光を発光するハロゲンランプや白色LED(Light Emitting Diode)などの光源32aと集光レンズ34に向けられた反射板32bとから構成され、光源32aから発せられた白色光を反射板32bを用いて効率的に集光レンズ34へ入光する。
The
集光レンズ34は、光源部32から発せられた光を集光する光学レンズであり、例えば、フレネルレンズで構成できる。このフレネルレンズは、薄く平らなアクリル樹脂の板状シートに、同芯円状に全て角度の違うプリズムの山が一定間隔に施されている。そのプリズムの山が小さな屈曲面として作用し集光レンズ34として機能する。
The condensing
液晶パネル36は、2枚のガラス板の間に液晶を封入し、電圧をかけることによって液晶分子の向きを変え、光の透過率を増減させることで、平面台400へ投影される画像(枠301や各種メッセージや各種ボタンや投影用画像)に対応する像を表示するものである。集光レンズ34から入光され、この液晶パネル36を透過した白色光は、液晶パネル36に形成された像に対応する画像(枠301や各種メッセージや各種操作ボタンや投影用画像(分割領域の境界線302など)など)として平面台400上に投影される。
The
撮像装置100では、図2に示すように、撮像部20により撮像可能な領域である撮像領域300に対応する枠301が投光部30により投影されている。
In the
図3は、上述したような撮像装置100の構成を示すブロック図である。図3に示すように、撮像装置100は、この撮像装置100全体を制御するためのプロセッサ40と、ハードディスク(HDD)50と、上記説明したCCD画像センサ24と、光源部32を制御する光源制御部54と、液晶パネル36を制御する液晶制御部56と、パーソナルコンピュータ(PC)500と接続するための外部インターフェイス58とを備えている。
FIG. 3 is a block diagram illustrating a configuration of the
プロセッサ40は、CPU42と、ROM44と、RAM46とを備えている。CPU42は中央演算処理装置であり、図8〜図13,図15〜図19,図21のフローチャートで示す処理などに対応する各種プログラムを実行する。
The
ROM44は、CPU42により実行される各種制御プログラムや、それらの制御プログラムをCPU42により実行する上で必要なデータなどを格納した書き換え不能なメモリである。このROM44には、図8のメイン処理を含む画像入力装置100全体の制御に関するプログラムであるカメラ制御プログラム44aと、撮像領域300内において撮像される画像データに変化があったか否かを検知する画像変化検知処理(図13)を実行するためのプログラムである画像変化検知プログラム44bと、撮像領域300に原稿200の4つの原稿端201が存在するか否かを判定する四原稿端有無判定処理(図15)を実行するためのプログラムである四原稿端有無判定プログラム44cと、原稿200を固定するための固定物が原稿200の余白部に配置されたか否かを判定する余白部固定物有無判定処理(図16)を実行するためのプログラムである余白部固定物有無判定プログラム44dと、撮像領域300内において撮像される画像データに変化があった場合にその変化領域の焦点度を測定する変化領域内焦点度測定処理(図17)を実行するためのプログラムである変化領域内焦点度測定プログラム44eと、ポインタ(指示部材)が存在するか否かを判定するポインタ有無判定処理(図18)を実行するためのプログラムであるポインタ有無判定プログラム44fと、分割された各領域の境界線を原稿200上の対応する位置へ投影する原稿分割線投影処理(図19)を実行するためのプログラムである原稿分割線投影プログラム44gと、指定された分割領域の画像データを取得してファイル化する分割領域画像データ取得処理(図21)を実行するためのプログラムである分割領域ファイル化プログラム44hと、メッセージ格納部44iとが記憶されている。なお、ROM44に記憶される上記の各プログラムに従って実行される各処理の詳細については後述する。
The
メッセージ格納部44iは、撮像装置100の各種操作を補助する補助メッセージとして、スタンバイメッセージ44i1と、トレース受付メッセージ44i2と、スキャン受付初期メッセージ44i3と、次スキャン受付メッセージ44i4とを記憶するメモリである。これらのメッセージ44i1〜44i4は、それぞれのメッセージに対応する操作の実行タイミングに応じて読み出されて、液晶パネル36の所定の位置に対応する像が形成されることにより、撮像領域300内における所定の位置(液晶パネル36において像の形成された所定の位置に対応する位置)に投射される。
The
RAM46は、ランダムにアクセスし得る書き換え可能な揮発性のメモリであり、静止画像データ格納部46aと、初期画像データ格納部46bと、四頂点座標格納部46cと、ポインタ先端座標格納部46dと、分割領域境界座標格納部46eと、分割領域画像データ格納部46fと、変化領域座標格納部46gと、投影用画像データ格納部46hと、状態カウンタ46iと、CPU42により実行される各種処理に必要なデータやプログラムを一時的に記憶するためのワーキングエリア46jとを備えている。
The
静止画像データ格納部46aは、後述する画像変化検知処理(図13)において、撮像領域300を低解像度で撮像した画像データを記憶するためのメモリである。初期画像データ格納部46bは、後述するスタンバイ処理(図10)において、余白部に固定物が配置された後で、撮像領域300を撮像した画像データを記憶するためのメモリである。四頂点座標格納部46cは、後述するスタンバイ処理(図10)において、撮像領域300に配置された原稿200の四頂点の座標を記憶するためのメモリである。
The still image
ポインタ先端座標格納部46dは、後述するトレース受付処理(図11)において、移動するポインタ(例えば、右手の人差し指)が指し示す座標を順次記憶するためのメモリである。分割領域境界座標格納部46eは、移動するポインタの先端(例えば、右手の人差し指の指先)の軌跡に応じて区分された原稿200の各領域(分割領域)の境界線をそれぞれ記憶するためのメモリである。分割領域画像データ格納部46fは、指定された分割領域を含む画像データと透過色情報とを記憶するためのメモリである。なお、ポインタ先端座標格納部46d、分割領域境界座標格納部46e、分割領域画像データ格納部46fに記憶されるデータ(座標データ又は画像データ)の構成については後述する。
The pointer tip coordinate
変化領域座標格納部46gは、後述する画像変化検知処理(図13)において、変化領域の最左上端及び最右下端の画素の座標を記憶するためのメモリである。投影用画像データ格納部46hは、撮像領域300上に投影される投影用画像(原稿200の分割領域の境界線や分割領域を識別するインデックス)に対応する投影用画像データを記憶するためのメモリである。なお、投影用画像データ格納部46hに初期値として記憶される投影用画像データは、撮像領域300を示すための枠301に対応する投影用画像データである。
The change area coordinate
状態カウンタ46iは、撮像装置100の動作状態を示すカウンタであり、「0」〜「2」までの値を有する。この状態カウンタ46iにおいて、「0」は、撮像装置100が後述するスタンバイ処理(図10)を実行すべきモード(スタンバイモード)であることを示し、「1」は、撮像装置100が後述するトレース受付処理(図11)を実行すべきモード(トレース受付モード)であることを示し、「2」は、撮像装置100が後述するスキャン処理(図12)を実行すべきモード(スキャン受付モード)であることを示す。
The state counter 46i is a counter that indicates the operation state of the
HDD50は、記憶容量の大きい書き換え可能な不揮発性のメモリであり、原稿200を固定するための固定物の色情報を予め登録するためのメモリである固定物色情報格納部50aと、透過GIF形式などにファイル化された画像ファイルを記憶するためのメモリである画像ファイル格納部50bとを備えている。
The
光源制御装置54は、プロセッサ40からの信号を受けて、光源部32を制御するものであり、液晶制御部56は、プロセッサ40からの信号を受けて液晶パネル36を制御するものである。
The light
図4は、ポインタ先端座標格納部46d、分割領域境界座標格納部46e、及び、分割領域画像データ格納部46fに格納されるデータ(座標、画像データなど)の構成を説明する図である。図4(a)は、ポインタ先端座標格納部46dを説明する図である。図4(a)に示すように、このポインタ先端座標格納部46dには、座標(x1,y1)から座標(xn,yn)までのn個の座標が記憶されている。これらの座標は、後述するトレース受付処理(図11)において、移動するポインタ(例えば、右手の人差し指)の先端が指し示す座標が検出される毎に、その座標が、最初に検出された座標(x1,y1)から、最後に検出された座標(xn,yn)まで、入力された順に記憶されるものである。なお、このポインタ先端座標格納部46dへの座標の記憶については後述する。
FIG. 4 is a diagram illustrating the configuration of data (coordinates, image data, etc.) stored in the pointer tip coordinate
図4(b)は、分割領域境界座標格納部46eを説明する図である。図4(b)に示すように、移動するポインタの軌跡に応じた原稿200の分割領域毎に、各分割領域の境界線を構成する座標が記憶されている。図4(b)には、原稿200が3つの分割領域に分割された場合が例示されており、記憶領域46e1には、第1の分割領域の境界線を構成する座標として、(x11,y11)から(x1p,y1p)までのp個の座標が記憶されており、記憶領域46e2には、第2の分割領域の境界線を構成する座標として、(x21,y21)から(x2q,y2q)までのq個の座標が記憶されており、記憶領域46e3には、第3の分割領域の境界線を構成する座標として、(x31,y31)から(x3r,y3r)までのr個の座標が記憶されている。なお、この分割領域境界座標格納部46eへの座標の記憶については後述する。
FIG. 4B is a diagram illustrating the divided region boundary coordinate
図4(c)は、分割領域画像データ格納部46fを説明する図である。図4(c)に示すように、ユーザにより画像データの取得指定がされた分割領域毎に、その指定された分割領域を含む矩形画像データと透過色情報とが記憶されている。ここで、「分割領域を含む矩形画像データ」とは、分割領域より大きな矩形領域の画像データであり、この矩形領域は、その各辺と分割領域との間に所定幅のマージンを有している。図4(c)は、原稿200において2つの分割領域に対して画像データの取得が指定された場合を例示したものであり、記憶領域46f1には、1番目に指定された分割領域を含む矩形画像データ(第1矩形画像データ)とその第1矩形画像データに対する透過色情報とが記憶されており、記憶領域46f2には、2番目に指定された分割領域を含む矩形画像データ(第2矩形画像データ)とその第2矩形画像データに対する透過色情報とが記憶されている。なお、この分割領域画像データ格納部46fへのデータの記憶については後述する。
FIG. 4C illustrates the divided area image
次に図5〜図7を参照して、撮像装置100における、電源投入から原稿200の各分割領域毎の画像データの取得が行なわれるまでの操作について概略的に説明する。図5は、スタンバイモードにある撮像装置100について説明する図であり、図5(a)は、電源投入後に撮像領域300の枠301と共にその撮像領域300の上部にスタンバイメッセージ44i1が投影された状態を示す図である。図5(a)に示すように、撮像領域300の枠301が投影されることにより、ユーザは、撮像されるべき原稿200を撮像領域300内に適切に配置することができる。また、スタンバイメッセージ44i1が投影されることにより、このスタンバイモードにおいてユーザがすべき操作をマニュアルなどを参照することなく実行できるので、操作が正確となる上に作業が効率的となる。
Next, with reference to FIGS. 5 to 7, operations from the power-on to the acquisition of image data for each divided area of the
また、図5(b)は、撮像領域300内に、4つの原稿端201を有する原稿200が配置されると共に、原稿200の余白部を固定する固定物として、ユーザの左手250が配置された状態を示す図である。なお、「余白部」とは、原稿200の4つの原稿端201から内側に向かって所定の幅(例えば、約2cm)で形成される領域である。撮像装置100は、図5(b)に示すような状態を検出すると、スタンバイモードからトレース受付モードへ移行する。
In FIG. 5B, the
なお、図5(b)に示すような「像領域300内に4つの原稿端201を有する原稿200が配置されたこと」は、後述する四原稿端有無判定処理(図15)に基づいて検出され、また、「原稿200の余白部を固定する固定物としてユーザの左手250が配置されたこと」は、後述する余白部固定物有無判定処理(図16)に基づいて検出される。これらの四原稿端有無判定処理(図15)及び余白部固定物有無判定処理(図16)を含み、図5(a)及び図5(b)に示す状況の生じるスタンバイモードにおいて実行されるスタンバイ処理(図10)については、後述する。
As shown in FIG. 5B, “the
図6は、トレース受付モードにある撮像装置100について説明する図である。図6における各図((a)〜(d))に示すように、撮像装置100がトレース受付モードに移行すると、撮像領域300の上部にトレース受付メッセージ44i2が投影されると共に、撮像領域300の左下部であって原稿200の外側の部分に分割ボタン220が投影される。図6(図6(a)〜図6(d))に示すように、トレース受付メッセージ44i2が投影されることにより、上述したスタンバイメッセージ44i1の投影と同様に、このトレース受付モードにおける操作が正確となる上に作業が効率的となる。
FIG. 6 is a diagram for describing the
図6(a)は、ポインタ(指示部材)としてのユーザの右手260の人差し指260aが、原稿200を複数領域に区分するための境界線の始点を指し示している状態を示す図であり、図6(b)は、人差し指260aが、原稿200を区分するための境界線202aを軌跡として入力している途中の状態を示す図である。図6(c)は、1本目の境界線202aを描いた後、人差し指260aが、2本目の境界線202bとするための軌跡を描いている状態を示す図であり、図6(d)は、ユーザが所望の境界線として境界線202a,202bを描いた後、描いた境界線202a,202bに従って原稿200を区分することを指示するために、人差し指260aが分割ボタン220を指し示した状態を示す図である。撮像装置100は、図6(d)に示すような状態を検出すると、トレース受付モードからスキャン受付モードへ移行する。
6A is a diagram showing a state in which the
図6(d)に示すように、描いた境界線により原稿200を区分するための指示ボタンである分割ボタン220が撮像領域300内に投影されることにより、ユーザは、視線を他に向けることなく、撮像領域300(及び、その撮像領域300内に配置される原稿200)に向かったまま分割ボタン220の入力を行なうことができ、作業が効率的となる。
As shown in FIG. 6D, the
図6(a)〜図6(c)に示すような「人差し指260aの軌跡により原稿200を複数領域に区分するための境界線の入力」は、後述するトレース受付処理(図11)における変化領域内焦点度測定処理(図17)及びポインタ有無判定処理(図18)による処理結果に応じて実行されるものである。これらの変化領域内焦点度測定処理(図17)及びポインタ有無判定処理(図18)を含み、図6における各図((a)〜(d))に示す状況の生じるトレース受付モードにおいて実行されるトレース受付処理(図11)については、後述する。
As shown in FIGS. 6A to 6C, “input of a boundary line for dividing the
図7は、スキャン受付モードにある撮像装置100について説明する図である。図7(a)は、上述したように分割ボタン220が操作されて、トレース受付モードからスキャン受付モードへ移行した状態を示す図である。図7(a)に示すように、スキャン受付モードへ移行すると、上述のように人差し指260aの軌跡により入力された境界線202a,202bにそれぞれ対応する像203a,203b(以下、境界線203a,203bと称する。)と原稿200の4つの原稿端201を示す像とが原稿200上の対応する位置に投影されると共に、これらの境界線203a,203bにより区分された原稿200の3つの分割領域200a〜200cをそれぞれ特定するための「1」〜「3」で表されたインデックス(識別子)204a〜204cが、分割領域200a〜200c上の所定の位置にそれぞれ投影される。なお、図7において、インデックス204a〜204cは、丸で囲まれた数字(丸数字)の「1」〜「3」として図示されている。また、図7において、原稿200の4つの原稿端201を示す像は実際の原稿端201と重なっているため、図面を簡略化するために投影される像については図示してない。
FIG. 7 is a diagram for describing the
境界線203a〜203b、原稿端201を示す像、及びインデックス204a〜204cが原稿200上に投影されることにより、ユーザは、原稿200における3つの分割領域200a〜200cを明確に認識し得る。このように分割領域200a〜200cが明確に認識されることにより、後述するスキャン受付モードにおいて、これらの分割領域200a〜200cの画像データを個別に入力する上で作業の効率化を図ることができる。
By projecting the
また、図7(a)に示すように、撮像装置100がスキャン受付モードへ移行すると、撮像領域300の上部にスキャン受付初期メッセージ44i3が投影されると共に、撮像領域300の左下部であって原稿200の外側の部分ににスキャン終了ボタン230が投影されることにより、このスキャン受付モードにおける操作が正確となる上に作業を効率的し得る。
As shown in FIG. 7A, when the
図7(b)は、人差し指260aにより分割領域200bを指し示すことによって、画像データを取得(入力)する領域として分割領域200bを指定した状態を示す図である。図7(b)に示すように、画像データの取得を所望する分割領域(本実施例における図7(b)に示す例では、分割領域200b)内に人差し指260aを置くことによって、その分割領域の画像データが取得されて、その画像データが所定の記憶領域(分割領域画像データ格納部46f)に記憶される。なお、この人差し指260aによる分割領域の選択及び画像データの取得については後述する。
FIG. 7B is a diagram showing a state in which the divided
図7(c)は、分割領域200bを分割領域として指定して画像データを取得した後、次に取得することを所望する分割領域200aを人差し指260aで指し示すことにより指定した状態を示す図である。なお、図7(c)に示すように、1つの分割領域(本実施例では分割領域200b)の指定及びその指定された分割領域の画像データの取得が完了すると、それをユーザに報知すると共に、次の操作を補助する次スキャン受付メッセージ44i4がスキャン受付初期メッセージ44i3に代わって投影される。また、図7(c)に示すように画像データが既に取得された分割領域(本実施例では分割領域200b)全体に、斜線が投影される。よって、ユーザは、画像データを既に取得した分割領域と画像データが未だ取得されていない分割領域とを一目瞭然に区別することができる。
FIG. 7C is a diagram illustrating a state in which the divided
図7(d)は、ユーザが、自身の所望する分割領域の画像データを全て取得したと判断した場合に、スキャン終了ボタン230を人差し指260aで指し示している状態を示す図である。撮像装置100は、図7(d)に示すような状態を検出すると、原稿200における各分割領域の画像データの取得を待機するモード(スキャン受付モード)を終了し、スタンバイモードへ移行する。図7(d)に示すように、これ以上の画像データの取得が不要であることを指示するボタンであるスキャン終了ボタン230が撮像領域300内に投影されることにより、ユーザは、視線を他に向けることなく、撮像領域300(及び、その撮像領域300内に配置される原稿200)に向かったままスキャン終了ボタン230の入力を行なうことができ、作業が効率的となる。
FIG. 7D is a diagram illustrating a state in which the
次に、図8〜図13、図15〜図19、及び図21のフローチャートと図14及び図20とを参照して、上記のように構成される撮像装置100が行う動作について説明する。図8は、この撮像装置100で実行されるメイン処理のフローチャートである。このメイン処理は、撮像装置100の電源が投入されると起動し、電源が投入されている間、CPU42によって繰り返し実行される。
Next, operations performed by the
このメイン処理が起動すると、まず、初期設定として、RAM46の初期化などが実行される(S1)。なお、この初期設定(S1)によるRAM46の初期化により、状態カウンタ46iは「0」に設定される。また、投影用画像データ格納部46hの初期化により、投影用画像データが初期状態のデータに初期化され、それによって、電源投入時には、平面台400上には、撮像領域300を示すための枠301のみが投影用画像として投影されることになる。
When the main process is activated, initialization of the
S1の処理後、原稿200を固定する固定物の色情報(以下、固定物色情報と称する。)をHDD50の固定物色情報格納部50aへ記憶(登録)する処理として、後述する固定物色情報登録処理(S15)が実行される。
As a process of storing (registering) color information (hereinafter referred to as “fixed object color information”) of a fixed object for fixing the
固定物色情報登録処理(S15)の実行後、状態カウンタ46iの値を確認し(S2)、状態カウンタ46iの値が「0」であれば(S2:0)、撮像装置100はスタンバイモードにあるので後述するスタンバイ処理を実行する(S3)。一方で、状態カウンタ46iの値が「1」であれば(S2:1)、撮像装置100はトレース受付モードにあるので後述するトレース受付処理を実行する(S4)。更に、状態カウンタ46iの値が「2」であれば(S2:2)、撮像装置100はスキャン受付モードにあるので後述するスキャン処理(S5)を実行する。
After execution of the fixed object color information registration process (S15), the value of the state counter 46i is confirmed (S2). If the value of the state counter 46i is “0” (S2: 0), the
S3〜S5のいずれかが実行されると、各処理(S6)として、例えば、非図示のリセットボタンの操作によって強制的に状態カウンタ46iの値を「0」とした場合のRAM46の初期化などが実行された後、S2の処理へ移行する。
When any of S3 to S5 is executed, as each process (S6), for example, initialization of the
次に、図9を参照して、固定物色情報登録処理(S15)について説明する。図9は、固定物色情報登録処理(S15)のフローチャートであり、この固定物色情報登録処理(S15)では、まず、撮像領域300の所定の位置(例えば、撮像領域300の上部)へ固定物色情報登録処理においてユーザがすべき操作を補助するための第1メッセージ(非図示)を投影する(S1501)。なお、この非図示の第1メッセージは、メッセージ格納部44i内の非図示のメモリに記憶されているメッセージであり、例えば、「原稿を固定する固定物の色情報を記憶させる前に、撮像領域の初期状態を撮影します。撮像領域に何も置かないようにしてください。」のように、後述する処理において必要とされる撮像領域300の初期状態の画像が撮影されるることをユーザに促すためのメッセージである。
Next, the fixed object color information registration process (S15) will be described with reference to FIG. FIG. 9 is a flowchart of the fixed object color information registration process (S15). In the fixed object color information registration process (S15), first, the fixed object color information is transferred to a predetermined position of the imaging area 300 (for example, the upper part of the imaging area 300). A first message (not shown) for assisting the user in the registration process is projected (S1501). Note that the first message (not shown) is a message stored in a memory (not shown) in the
S1501の処理後、第1補助メッセージを投影したまま、5秒経過したか否かを確認し(S1502)、5秒経過していなければ(S1502:No)、S1501の処理へ戻って第1補助メッセージの投影を継続する。一方で、5秒経過したら(S1502:Yes)、撮像領域300を撮像し、その画像データを初期状態の画像データとして取得する(S1503)。
After the processing of S1501, it is confirmed whether or not 5 seconds have passed while the first auxiliary message is projected (S1502). If 5 seconds have not passed (S1502: No), the processing returns to S1501 and returns to the first auxiliary. Continue projecting the message. On the other hand, when 5 seconds have elapsed (S1502: Yes), the
S1503の処理後、第1メッセージを非投影にし(S1504)、第1メッセージに換わる第2メッセージ(非図示)を撮像領域300の所定の位置(例えば、撮像領域300の上部)へ投影する(S1505)。なお、この非図示の第2メッセージは、メッセージ格納部44i内の非図示のメモリに記憶されているメッセージであり、例えば、「固定物の色情報を記憶させるために固定物を撮影します。固定物を撮像領域内に置いてください。」のように、後述する処理において必要とされる固定物の画像が撮影されることをユーザに促すためのメッセージである。
After the processing of S1503, the first message is unprojected (S1504), and the second message (not shown) replacing the first message is projected onto a predetermined position (for example, the upper part of the imaging region 300) (S1505). ). The second message (not shown) is a message stored in a memory (not shown) in the
S1505の処理後、第2補助メッセージを投影したまま、5秒経過したか否かを確認し(S1506)、5秒経過していなければ(S1506:No)、S1505の処理へ戻って第2補助メッセージの投影を継続する。一方で、5秒経過したら(S1506:Yes)、撮像領域300を撮像し、その画像データを固定物含有状態の画像データとして取得する(S1507)。
After the processing of S1505, it is confirmed whether or not 5 seconds have passed with the second auxiliary message projected (S1506). If 5 seconds have not passed (S1506: No), the processing returns to S1505 and returns to the second auxiliary. Continue projecting the message. On the other hand, when 5 seconds have elapsed (S1506: Yes), the
S1507の処理後、第2メッセージを非投影にし(S1508)、S1507の処理により取得された固定物含有状態の画像データと、S1503の処理により取得された初期状態の画像データとの差分画像データを生成し、差分を生じた部分の画素を抽出する(S1509)。 After the process of S1507, the second message is unprojected (S1508), and difference image data between the image data of the fixed object containing state acquired by the process of S1507 and the image data of the initial state acquired by the process of S1503 is obtained. The pixel of the part which produced | generated and produced the difference is extracted (S1509).
S1509の処理後、抽出した各画素のRGB値を平均化し(S1510)、その平均化されたRGB値を固定物色情報として固定物色情報格納部50aに登録し(S1511)、この固定物色情報登録処理(S15)を終了する。
After the processing of S1509, the RGB values of the extracted pixels are averaged (S1510), and the averaged RGB values are registered as fixed object color information in the fixed object color
次に、図10を参照して、撮像装置100がスタンバイモードにある場合に実行されるスタンバイ処理(S3)について説明する。図10は、スタンバイ処理(S3)のフローチャートである。このスタンバイ処理(S3)では、まず、撮像領域300の所定の位置(本実施例では撮像領域300の上部(図5参照))へスタンバイメッセージ44i1を投影する(S301)。なお、S301の処理を行う際、既に、スタンバイメッセージ44i1が投影中である場合には、そのスタンバイメッセージ44i1の投影を継続するものとする。S301の処理後、原稿200が配置されたことを検出するための画像変化検知処理を実行する(S7)。この画像変化検知処理(S7)は、撮像領域300内における画像の変化を検出する処理であり、その処理の内容については後述する。
Next, a standby process (S3) executed when the
この画像変化検知処理(S7)の実行後、撮像領域300内において変化が生じているか否か、具体的には、画像変化検知処理(S7)において演算された画素変化量HWが「1」であるか否かを確認する(S302)。S302の処理により確認した結果、撮像領域300内が無変化であれば、具体的には、画素変化量HWが「0」であれば(S302:No)、撮像領域300に原稿200の4つの原稿端201が存在するか否かを判定する四原稿端有無判定処理を実行する(S8)。なお、この四原稿端有無判定処理(S8)については後述する。
After the execution of the image change detection process (S7), whether or not a change has occurred in the
この四原稿端有無判定処理(S9)の実行後、原稿200の四原稿端(4つの原稿端201)が撮像領域300内にあるか否かを確認する(S303)。S303の処理により確認した結果、原稿200の四原稿端が撮像領域300内にあれば(S303:Yes)、四原稿端有無判定処理(S8)において取得された原稿200の四頂点の座標を、四頂点座標格納部46cへ記憶する(S304)。S304の処理後、原稿200の余白部に固定物(本実施例では左手250)が置かれて、原稿200が固定されたか否かを判定する余白部固定物有無判定処理を実行する(S9)。なお、この余白部固定物有無判定処理(S9)については後述する。
After the four document edge presence / absence determination process (S9) is performed, it is confirmed whether or not the four document edges (four document edges 201) of the
この余白部固定物有無判定処理(S9)の実行後、原稿200の余白部に固定物(左手250)があるか否か、即ち、原稿200の余白部が固定物(左手250)により固定されたか否かを確認する(S305)。S305の処理により確認した結果、原稿200の余白部が固定物(左手250)で固定されていれば(S305:Yes)、原稿200に対して焦点を合わせ(S306)、撮像領域300内を撮像し、その画像データを初期画像データ格納部46bへ記憶する(S307)。
After this margin portion fixed object presence / absence determination processing (S9) is executed, whether or not there is a fixed object (left hand 250) in the margin part of the
S305〜S307の処理では、原稿200の余白部が固定物(左手250)により固定されていることが検出されたことが確認されてから、原稿200の撮像を行うので、原稿200が撮像時に不意に移動してぶれの生じた画像になることを防止し得る。
In the processes of S305 to S307, since it is confirmed that the blank portion of the
S307の処理後、状態カウンタ46iの値を+1して、「1」とする(S308)。次いで、投影中のスタンバイメッセージ44i1を非投影とし(S309)、このスタンバイ処理(S3)を終了する。 After the processing of S307, the value of the status counter 46i is incremented by 1 to “1” (S308). Next, the standby message 44i1 being projected is not projected (S309), and this standby process (S3) is terminated.
この場合、状態カウンタ46iは「1」であるので、上述したメイン処理(図8)に従い、続いて、トレース受付処理(S4)が実行される。即ち、スタンバイ処理(S3)において、撮像領域300内に、原稿200が配置(原稿200の4つの原稿端201が配置)され、その原稿200の余白部が左手250のような固定物により固定されたことが確認されると、スタンバイモードからトレース受付モードへ状態が移行することになる。
In this case, since the state counter 46i is “1”, the trace reception process (S4) is subsequently executed in accordance with the main process (FIG. 8) described above. That is, in the standby process (S3), the
一方、S302の処理により確認した結果、撮像領域300内に変化が生じていれば(S302:Yes)、このスタンバイ処理を終了する。この場合、状態カウンタ46iは「0」のままであるので、上述したメイン処理(図8)に従い、再度、スタンバイ処理(S3)が実行される。従って、、撮像領域300内に変化が生じていることがS302の処理により確認される限り、四原稿端有無判定処理(S8)は実行されない。
On the other hand, as a result of checking in the process of S302, if there is a change in the imaging region 300 (S302: Yes), this standby process is terminated. In this case, since the state counter 46i remains “0”, the standby process (S3) is executed again in accordance with the main process (FIG. 8) described above. Therefore, as long as it is confirmed by the process of S302 that a change has occurred in the
また、S303の処理により確認した結果、原稿200の四原稿端が撮像領域300内にない場合(S303:No)、又は、S305の処理により確認した結果、原稿200の余白部が固定物により固定されていない場合(S305:No)には、いずれも、このスタンバイ処理を終了する。この場合もまた、状態カウンタ46iは「0」のままであるので、上述したメイン処理(図8)に従い、再度、スタンバイ処理(S3)が実行される。
Further, as a result of checking in the process of S303, when the four document edges of the
次に、図11を参照して、撮像装置100がトレース受付モードにある場合に実行されるトレース受付処理(S4)について説明する。図11は、トレース受付処理(S4)のフローチャートである。このトレース受付処理(S4)では、まず、撮像領域300の所定の位置(本実施例では撮像領域300の上部(図6参照))へトレース受付メッセージ44i2を投影し(S401)、撮像領域300の所定の位置(本実施例では撮像領域300の左下部(図6参照))へ分割ボタン220を投影する(S402)。なお、S401、S402の処理を行う際、既に、トレース受付メッセージ44i2、分割ボタン220が投影中である場合には、そのトレース受付メッセージ44i2、分割ボタン220の投影を継続するものとする。
Next, with reference to FIG. 11, the trace reception process (S4) executed when the
S402の処理後、画像変化検知処理(S7)を実行し、次いで、撮像領域300内に変化があったか否か、具体的には、画像変化検知処理(S7)において演算された画素変化量HWが「0」であるか否かを確認する(S403)。S403の処理により確認した結果、撮像領域300内に変化があった場合(S403:Yes)、四原稿端有無判定処理を実行する(S8)。次いで、この四原稿端有無判定処理(S8)において取得された原稿200の四頂点の座標が、四頂点座標格納部46cに格納されている座標に一致するか否かを確認する(S404)。
After the process of S402, an image change detection process (S7) is executed, and then whether or not there is a change in the
S404の処理により確認した結果、四原稿端有無判定処理(S8)において取得された原稿200の四頂点の座標が、四頂点座標格納部46cに格納されている座標に一致していれば(S404:Yes)、余白部固定物有無判定処理(S9)を実行し、次いで、原稿200の余白部に固定物(左手250)があるか否か、即ち、原稿200の余白部が固定物(左手250)により固定されたか否かを確認する(S405)。S405の処理により確認した結果、原稿200の余白部が固定物(左手250)で固定されていれば(S405:Yes)、撮像領域300内において変化の生じた領域(変化領域P(図14参照))の焦点度を測定する変化領域内焦点度測定処理(S10)を実行する。ここで、「焦点度」とは、原稿200に対して合わされている焦点を基準として、ある物体に対する焦点(ピント)が合っているか否かを示す指標であり、焦点度が大きい程、その物体に対する焦点が合っており、焦点度が小さくなるにつれて、その物体に対する焦点が合わなくなる(撮像される画像がぼける)ことを示す。なお、上述の変化領域内焦点度測定処理(S10)については後述する。
As a result of the confirmation in the process of S404, if the coordinates of the four vertices of the
変化領域内焦点度測定処理(S10)の実行後、変化領域P内における焦点度が所定の閾値以上であるか否かを確認する(S406)。S406の処理により確認した結果、焦点度が所定の閾値以上、即ち、撮像領域300内において変化を生じさせた物体に対して所定のレベル以上で焦点(ピント)が合っているのであれば(S406:Yes)、その物体が、変化領域P内に原稿200を指し示す指示部材としてのポインタ(本実施例では右手260の人差し指260a)があるか否かを検出するポインタ有無判定処理(S11)を実行する。なお、このポインタ有無検知処理(S11)については後述する。
After execution of the change area focus degree measurement process (S10), it is confirmed whether or not the focus degree in the change area P is equal to or greater than a predetermined threshold (S406). As a result of confirmation in the process of S406, if the degree of focus is equal to or greater than a predetermined threshold, that is, the object that has caused a change in the
このポインタ有無検知処理(S11)の実行後、ポインタ(人差し指260a)があるか否かを確認し(S407)、ポインタ(人差し指260a)があれば(S407:Yes)、そのポインタ(人差し指260a)の先端の位置座標(ポインタの先端が指し示す位置座標)を検出する(S408)。次いで、検出されたポインタ(人差し指260a)の先端の位置座標が分割ボタン220の投影されている領域にあるか否かを確認する(S409)。
After executing this pointer presence / absence detection process (S11), it is confirmed whether or not there is a pointer (
S409の処理により確認した結果、ポインタ(人差し指260a)の先端の位置座標が分割ボタン220の投影されている領域になければ(S409:No)、そのポインタ(人差し指260a)の先端の位置座標をポインタ先端座標格納部46dに記憶し(S410)、S7の処理へ移行する。
If the position coordinate of the tip of the pointer (
また、S406の処理により確認した結果、焦点度が所定の閾値未満、即ち、変化領域Pの焦点(ピント)が所定のレベル以上にぼけていた場合(S406:No)、又は、S407の処理により確認した結果、ポインタ(人差し指260a)が存在しない場合(S407:No)もまた、S7の処理へ移行する。
In addition, as a result of checking in the process of S406, when the degree of focus is less than a predetermined threshold, that is, the focus (focus) of the change area P is more than a predetermined level (S406: No), or by the process of S407 As a result of the confirmation, if the pointer (
従って、S10,S406,S11,S407〜S410の処理によれば、所定の閾値以上の焦点度を有するポインタ(人差し指260a)が検出されると、そのポインタ(人差し指260a)の先端の位置座標がポインタ先端座標格納部46dに記憶される。そして、それが移動するポインタ(人差し指260a)である場合、ポインタ先端座標格納部46dには、ポインタ(人差し指260a)の先端の位置座標の記録が開始され、S410の処理が実行される毎に、ポインタ(人差し指260a)の先端の位置座標が順次記録される。そして、ある位置においてポインタ(人差し指260a)を上方に持ち上げる(ポインタ(人差し指260a)の位置を高くする)などの動作により、そのポインタ(人差し指260a)に対する焦点度が閾値未満になった場合に、ポインタ先端座標格納部46dへのポインタ(人差し指260a)の先端の位置座標の記録が停止(禁止)され、その結果として、移動するポインタ(人差し指260a)の先端により描かれた1つの軌跡に対応する位置座標の記録が一旦終了する。換言すれば、ポインタ先端座標格納部46dへの、移動するポインタ(人差し指260a)の先端により描かれた軌跡に対応する座標の記録は、ポインタ(人差し指260a)を上方に持ち上げるなどの動作によって、そのポインタ(人差し指260a)に対する焦点度が閾値未満になるまで連続して実行されることになる。
Therefore, according to the processes of S10, S406, S11, and S407 to S410, when a pointer (
なお、上述のように、軌跡の座標の記録中に、ポインタ先端座標格納部46dへのポインタ(人差し指260a)の先端の位置座標の記録が停止(禁止)された場合には、ポインタ先端座標格納部46dの最後に記憶される位置座標に、1つの軌跡において最後に入力されたことを示すマークが付加されるものとする。
As described above, if recording of the position coordinates of the tip of the pointer (
また、S410によりポインタ先端座標格納部46dへの座標を記憶させるための前提となる処理である変化領域内焦点度測定処理(S10)及びポインタ有無検知処理(S11)は、S8,S404,S9,S405の処理により、原稿200の四頂点の位置(座標)がスタンバイ処理(図10)におけるS304の処理により取得された際の位置と変化なく、且つ、固定物(左手250)が置かれたままの状態であることを確認した後に実行される。よって、ポインタ(人差し指260a)により指し示され、ポインタ先端座標格納部46dへ記憶される座標は、スタンバイ処理(図10)のS307の処理において撮像された原稿200の画像データに対して正確な位置として入力される。従って、正確に原稿200を区分することができる。更に、ポインタ(人差し指260a)が軌跡を描く際にも固定物(左手250)により原稿200の固定がなされているので、原稿200の位置が、ポインタ(人差し指260aとの接触などによって移動することも防止することができる。また、固定物が検出されない場合において、指示部材が撮像領域内を移動したとしても無駄な検出を行なわないで済む。
In addition, the in-change-region focus degree measurement process (S10) and the pointer presence / absence detection process (S11), which are preconditions for storing the coordinates in the pointer tip coordinate
一方、S409の処理により確認した結果、ポインタ(人差し指260a)の先端の位置座標が分割ボタン220の投影されている領域にあれば(S409:Yes)、状態カウンタ46iの値を+1して、「2」とする(S415)。次いで、投影中のトレース受付メッセージ44i2を非投影とし(S416)、更に、分割ボタン220を非投影とし(S417)、このトレース受付処理(S4)を終了する。この場合、状態カウンタ46iは「2」であるので、上述したメイン処理(図8)に従い、続いて、スキャン処理(S5)が実行される。なお、上述したS410の処理を行うことなく、S409の処理により、ポインタ(人差し指260a)の先端の位置座標が、分割ボタン220の投影されている領域上で確認された場合は、原稿200を複数領域に区分しないことを示す。
On the other hand, if the position coordinate of the tip of the pointer (forefinger 260a) is in the area where the
また、S404の処理により確認した結果、四原稿端有無判定処理(S8)において取得された原稿200の四頂点の座標が、四頂点座標格納部46cに格納されている座標に一致していない場合(S404:No)、又は、S405の処理により確認した結果、原稿200の余白部を固定する固定物(左手250)存在しない場合(S405:No)には、状態カウンタ46iの値を−1して、「0」とする(S412)。次いで、投影中のトレース受付メッセージ44i2を非投影とし(S413)、更に、分割ボタン220を非投影とし(S414)、このトレース受付処理(S4)を終了する。この場合、状態カウンタ46iは「1」であるので、上述したメイン処理(図8)に従い、続いて、スタンバイ処理(S3)が実行される。
Further, as a result of the confirmation in the process of S404, the coordinates of the four vertices of the
また、S403の処理により確認した結果、撮像領域300内に変化がなければ(S403:No)、このトレース受付処理(S4)を終了する。この場合、状態カウンタ46iは「1」のままであるので、上述したメイン処理(図8)に従い、再度、トレース受付処理(S4)が実行される。 Further, as a result of the confirmation in the process of S403, if there is no change in the imaging region 300 (S403: No), this trace acceptance process (S4) is terminated. In this case, since the state counter 46i remains “1”, the trace reception process (S4) is executed again according to the main process (FIG. 8) described above.
次に、図12を参照して、撮像装置100がスキャン受付モードにある場合に実行されるスキャン処理(S5)について説明する。図12は、スキャン処理(S5)のフローチャートである。このスキャン処理(S5)では、まず、上述したトレース受付処理(S4)においてポインタ先端座標格納部46dに記憶された座標に従う分割領域(本実施例では200a〜200c)の境界線(本実施例では、境界線203a,203b)を原稿200上の対応する位置に投影する原稿分割線投影処理(S12)を実行する。なお、この原稿分割線投影処理(S12)については後述する。
Next, the scanning process (S5) executed when the
S12の処理後、撮像領域300の所定の位置(本実施例では撮像領域300の上部(図7参照))へスキャン受付初期メッセージ44i3を投影し(S501)、撮像領域300の所定の位置(本実施例では撮像領域300の左下部(図7参照))へスキャン終了ボタン230を投影する(S502)。なお、S501、S502の処理を行う際、既に、スキャン受付初期メッセージ44i3、スキャン終了ボタン230が投影中である場合には、そのスキャン受付初期メッセージ44i3、スキャン終了ボタン230の投影を継続するものとする。
After the processing of S12, a scan acceptance initial message 44i3 is projected onto a predetermined position of the imaging area 300 (in this embodiment, above the imaging area 300 (see FIG. 7)) (S501), and a predetermined position of the imaging area 300 (this In the embodiment, the
S502の処理後、画像変化検知処理(S7)を実行し、次いで、撮像領域300内に変化があったか否か、具体的には、画像変化検知処理(S7)において演算された画素変化量HWが「0」であるか否かを確認する(S503)。S503の処理により確認した結果、撮像領域300内に変化があった場合、(S503:Yes)、四原稿端有無判定処理を実行する(S8)。次いで、この四原稿端有無判定処理(S8)において取得された原稿200の四頂点の座標が、四頂点座標格納部46cに格納されている座標に一致するか否かを確認する(S504)。
After the process of S502, an image change detection process (S7) is executed, and then whether or not there is a change in the
S504の処理により確認した結果、四原稿端有無判定処理(S8)において取得された原稿200の四頂点の座標が、四頂点座標格納部46cに格納されている座標に一致していれば(S504:Yes)、撮像領域300内において変化の生じた領域(変化領域P)の焦点度を測定する変化領域内焦点度測定処理(S10)を実行する。
As a result of checking in the process of S504, if the coordinates of the four vertices of the
変化領域内焦点度測定処理(S10)の実行後、変化領域P内における焦点度が所定の閾値以上であるか否かを確認し(S505)、焦点度が所定の閾値以上、即ち、撮像領域300内において変化を生じさせた物体に対して所定のレベル以上で焦点(ピント)が合っているのであれば(S505:Yes)、変化領域300内の原稿200を指し示す指示部材としてのポインタ(本実施例では右手260の人差し指260a)があるか否かを検出するポインタ有無判定処理(S11)を実行する。
After the execution of the change area focus degree measurement process (S10), it is checked whether or not the focus degree in the change area P is equal to or greater than a predetermined threshold (S505), and the focus degree is equal to or greater than the predetermined threshold, that is, the imaging area. If the object that caused the change in 300 is in focus (focus) at a predetermined level or higher (S505: Yes), a pointer (indicator) that points to the
このポインタ有無検知処理(S11)の実行後、ポインタ(人差し指260a)があるか否かを確認し(S506)、ポインタ(人差し指260a)があれば(S506:Yes)、そのポインタ(人差し指260a)の先端の位置座標を検出する(S507)。
After executing this pointer presence / absence detection process (S11), it is confirmed whether or not there is a pointer (
S507によりポインタ(人差し指260a)の先端の位置座標を検出するための前提の処理である変化領域内焦点度測定処理(S10)及びポインタ有無検知処理(S11)は、S8,S504により、原稿200の四頂点の位置(座標)がスタンバイ処理(図10)におけるS304の処理により取得された際の位置と変化ないことを確認した後に実行される。よって、このS507の処理により検出されたポインタ(人指し指260a)の先端が指し示す座標は、スタンバイ処理(図10)のS307の処理において撮像された原稿200の画像データに対して正確な位置として入力される。
In step S507, the in-change area focus degree measurement process (S10) and the pointer presence / absence detection process (S11), which are preconditions for detecting the position coordinates of the tip of the pointer (
S507の処理後、検出されたポインタ(人差し指260a)の先端の位置座標がスキャン終了ボタン230の投影されている領域にあるか否かを確認する(S508)。S508の処理により確認した結果、ポインタ(人差し指260a)の先端の位置座標がスキャン終了ボタン230の投影されている領域になければ(S508:No)、そのポインタ(人差し指260a)の先端の位置座標を含む分割領域は既に取得(入力)済みであるか否かを確認する(S509)。
After the processing of S507, it is confirmed whether or not the position coordinate of the tip of the detected pointer (
S509の処理により確認した結果、ポインタ(人差し指260a)の先端の位置座標を含む分割領域が未だ取得(入力)されていない領域であれば(S509:No)、ポインタ(人差し指260a)で指し示すことによって指定された分割領域の画像データを取得(入力)し、ファイル化する分割領域画像データ取得処理(S13)を実行する。なお、この分割領域画像データ取得処理(S13)については後述する。
As a result of confirmation in the processing of S509, if the divided area including the position coordinate of the tip of the pointer (
この分割領域画像データ取得処理(S13)の実行後、画像データの取得(入力)が完了した分割領域に対し、斜線を投影する(S510)。このS510の処理では、投影用画像データ格納部46hに記憶される投影用画像データを、画像データ取得済みの分割領域に斜線を付加した投影用画像に対応する投影用画像データで更新し、その更新された投影用画像データに基づいて撮像領域300内の原稿200の上に投影する。
After execution of this divided area image data acquisition process (S13), oblique lines are projected onto the divided areas for which acquisition (input) of image data has been completed (S510). In the processing of S510, the projection image data stored in the projection image data storage unit 46h is updated with the projection image data corresponding to the projection image obtained by adding a diagonal line to the divided area where the image data has been acquired. Based on the updated projection image data, the image is projected onto the
S510の処理により、画像データの取得が終了した分割領域に対して斜線が投影されることにより、画像データが取得(入力)済みの分割領域と未取得(未入力)の分割領域とを一目瞭然に区別し得る。それによって、既に入力済みの領域の画像データを重複して入力しようとしたり、所望の領域の画像データを取得し損じたりすることが抑制され、画像データの入力作業を効率的に行ない得る。 By the processing of S510, oblique lines are projected on the divided areas for which the acquisition of image data has been completed, so that the divided areas where the image data has been acquired (input) and the divided areas where the image data has not been acquired (uninputted) can be clearly seen. A distinction can be made. As a result, it is possible to prevent the image data of the already input area from being input twice or to fail to acquire the image data of the desired area, and the image data can be input efficiently.
S510の処理後、画像データが未だ取得されていない(未入力の)分割領域があるか否かを確認し(S511)、全ての分割領域の画像データが取得されていれば(S511:No)、状態カウンタ46iの値を−2して「0」とした後(S512)、投影中のメッセージ(スキャン受付初期メッセージ44i3又は次スキャン受付メッセージ44i4)を非投影とする(S513)。次いで、スキャン終了ボタン230を非投影とし(S514)、このスキャン処理(S5)を終了する。この場合、状態カウンタ46iは「0」であるので、上述したメイン処理(図8)に従い、続いて、スタンバイ処理(S3)が実行され、次の原稿200が配置されるのを待機する。
After the processing of S510, it is checked whether or not there is a divided area for which image data has not been acquired (not input) (S511), and if image data of all the divided areas has been acquired (S511: No) After the value of the state counter 46i is set to -2 to "0" (S512), the message being projected (scan reception initial message 44i3 or next scan reception message 44i4) is not projected (S513). Next, the
一方で、S511の処理により確認した結果、画像データが未だ取得されていない分割領域がある場合には(S511:Yes)、S7の処理へ移行し、S7,S503,S8,S504,S10,S505,S11,S506〜S509,S13,S510〜S511の処理を繰り返す。 On the other hand, as a result of the confirmation in the process of S511, if there is a divided area for which image data has not yet been acquired (S511: Yes), the process proceeds to S7, and S7, S503, S8, S504, S10, S505. , S11, S506 to S509, S13, S510 to S511 are repeated.
また、S508処理により確認した結果、ポインタ(人差し指260a)の先端の位置座標がスキャン終了ボタン230の投影されている領域にあれば(S508:Yes)、それは、所望の画像データを取得し終えたというユーザの意思表示であるので、S509,S13,S510〜S511の処理をスキップして、S512の処理へ移行し、S512〜S514の処理を実行して、このスキャン処理(S5)を終了する。この場合もまた、状態カウンタ46iは「0」であるので、上述したメイン処理(図8)に従い、続いて、スタンバイ処理(S3)が実行され、次の原稿200が配置されるのを待機する。
If the position coordinate of the tip of the pointer (forefinger 260a) is in the area where the
更に、S509の処理により確認した結果、ポインタ(人差し指260a)の先端の位置座標を含む分割領域が既に取得(入力)済みの領域であれば(S509:Yes)、S7の処理へ移行する。S509の処理により、同じ分割領域の画像データが重複して取得されることを抑制し得、記憶領域(本実施例では、分割領域画像データ格納部46f)に無駄な画像データを記憶することを低減し得る上に、作業が効率的となる。なお、ポインタ(人差し指260a)の先端の位置座標を含む分割領域が既に取得(入力)済みの領域であることが確認された場合、そのことを報知するメッセージを撮像領域300に投影するようにしてもよい。
Further, as a result of checking in the process of S509, if the divided area including the position coordinate of the tip of the pointer (forefinger 260a) has already been acquired (input) (S509: Yes), the process proceeds to S7. By the processing of S509, it is possible to suppress the image data of the same divided area from being acquired redundantly, and it is possible to store useless image data in the storage area (the divided area image
また、S505の処理により確認した結果、焦点度が所定の閾値未満、即ち、変化領域Pの焦点(ピント)が所定のレベル以上にぼけていた場合(S505:No)、又は、S506の処理により確認した結果、ポインタ(人差し指260a)が存在しない場合(S506:No)もまた、S7の処理へ移行する。従って、S10,S505,S11,S506の処理によれば、所定の閾値以上の焦点度を有するポインタ(人差し指260a)に対してのみ、その位置座標に応じた操作指示の入力がなされることになる。よって、例えば、ポインタ(人差し指260a)を原稿200へ下ろすという動作と、そのポインタ(人差し指260a)を上方に持ち上げるといった単純な動作で、ポインタ(人差し指260a)の先端による操作指示の入力又は非入力を切り換えることができる。
Further, as a result of the confirmation in the process of S505, when the degree of focus is less than a predetermined threshold, that is, the focus (focus) of the change area P is blurred above a predetermined level (S505: No), or by the process of S506 As a result of the confirmation, if the pointer (
また、S504の処理により確認した結果、四原稿端有無判定処理(S8)において取得された原稿200の四頂点の座標が、四頂点座標格納部46cに格納されている座標に一致していない場合には(S504:No)、S512の処理へ移行し、S512〜S514の処理を行った後、このスキャン処理(S5)を終了する。この場合、S512の処理により状態カウンタ46iの値は「0」であるので、上述したメイン処理(図8)に従い、続いて、スタンバイ処理(S3)が実行される。
In addition, as a result of the confirmation in the process of S504, the coordinates of the four vertices of the
また、S503の処理により確認した結果、撮像領域300内に変化がなければ(S503:No)、このスキャン処理(S5)を終了する。この場合、状態カウンタ46iは「2」のままであるので、上述したメイン処理(図8)に従い、再度、スキャン処理(S5)が実行される。 Further, as a result of checking in the processing of S503, if there is no change in the imaging region 300 (S503: No), this scanning processing (S5) is terminated. In this case, since the state counter 46i remains “2”, the scan process (S5) is executed again according to the main process (FIG. 8) described above.
次に、図13及び図14を参照して、上述のスタンバイ処理(図10)、トレース受付処理(図11)、及び、スキャン処理(図12)の中で実行される処理であって、撮像領域300内に変化があったか否かを検知する処理である画像変化検知処理(S7)について説明する。図13は、画像変化検知処理(S7)のフローチャートであり、図14は、画像変化検知処理(S7)の結果出力される変化領域Pの座標を説明する図である。なお、図14は、図面を簡略化するために、撮像領域300内に投影されているメッセージなどを一部省略して図示している。
Next, referring to FIG. 13 and FIG. 14, processing executed in the above-described standby processing (FIG. 10), trace acceptance processing (FIG. 11), and scanning processing (FIG. 12) The image change detection process (S7), which is a process for detecting whether or not there is a change in the
図13に示すように、この画像検知処理(S7)では、まず、撮像装置100により撮像領域300を撮像し、その解像度を落とした低解像度の画像データを取得する(S701)。画像変化検知処理(S7)における以降の処理では、このS701の処理により取得された低解像度の画像データが用いられるので、演算量が少なく、処理を高速に行い得る。
As shown in FIG. 13, in this image detection process (S7), first, the
S701の処理後、静止画像データ格納部46aに保存画像データがあるか否かを確認し(S702)、静止画像データ格納部46aに保存画像データがなければ(S702:No)、S701の処理により取得した低解像度の画像データを、静止画像データ格納部46aの保存画像データとして記憶し(S703)、S704の処理へ移行する。一方で、S702の処理により確認した結果、静止画像データ格納部46aに保存画像データがあれば(S702)、S703の処理はスキップして、S704の処理へ移行する。
After the processing of S701, it is confirmed whether there is stored image data in the still image
S704では、この画像変化検知処理(S14)において参照する画素、即ち、撮像領域300内の画素の座標(w,h)において画素行を示す変数「h」を「0」とすると共に、画素変化量HWの値を「0」に初期化し、更に、変化画素座標格納部46gを初期化する。なお、図14に示すように、画素の座標(w,h)は、最左上端を(0,0)とし、最右下端を(W,H)とする撮像領域300の内部の座標であるものとする。S704の処理により、変数「h」が「0」に設定されることにより、撮像領域300における最上端の画素の画素データが参照されることとなる。
In S704, the variable “h” indicating the pixel row is set to “0” in the coordinates (w, h) of the pixel to be referred to in the image change detection process (S14), that is, the pixel in the
S704の処理後、変数「h」の値が撮像領域300の最下端の画素行を示す「H」より小さいか否かを判断する(S705)。S705の処理により確認した結果、変数「h」の値が「H」より小さい場合、即ち、h<Hである場合(S705:Yes)、座標(w,h)において画素列を示す変数「w」を「0」とする(S706)。S704の処理により、変数「w」が「0」に設定されることにより、撮像領域300における最左端の画素の画素データが参照されることとなる。
After the processing of S704, it is determined whether or not the value of the variable “h” is smaller than “H” indicating the lowermost pixel row of the imaging region 300 (S705). If the value of the variable “h” is smaller than “H” as a result of checking in the process of S705, that is, if h <H (S705: Yes), the variable “w” indicating the pixel column at the coordinates (w, h). "Is set to" 0 "(S706). By setting the variable “w” to “0” by the processing of S704, the pixel data of the leftmost pixel in the
S706の処理後、変数「w」の値が撮像領域300の最右端の画素列を示す「W」より小さいか否かを判断する(S707)。S707の処理により確認した結果、変数「w」の値が「W」より小さい場合、即ち、w<Wである場合(S707:Yes)、S701の処理により取得された画像データにおける座標(w,h)の画素の画素データ[h][w]と、静止画像データ格納部46aに記憶されている保存画像データにおける座標(w,h)の画素の画素データ[h][w]とを比較する(S708)。具体的には、S708では、画素データ[h][w]に含まれるR,G,Bの各成分の値を比較する。
After the processing of S706, it is determined whether or not the value of the variable “w” is smaller than “W” indicating the rightmost pixel column of the imaging region 300 (S707). As a result of checking in the process of S707, when the value of the variable “w” is smaller than “W”, that is, when w <W (S707: Yes), the coordinates in the image data acquired by the process of S701 (w, The pixel data [h] [w] of the pixel h) is compared with the pixel data [h] [w] of the pixel at the coordinates (w, h) in the stored image data stored in the still image
次いで、S708の処理により画素データ[h][w]を比較した結果、両者の画素データ[h][w]が同じ色を示すものであるか否か、具体的には、R,G,Bの各成分の値が全て一致するか否かを確認する(S709)。 Next, as a result of comparing the pixel data [h] [w] by the processing of S708, whether or not both pixel data [h] [w] indicate the same color, specifically, R, G, It is confirmed whether or not the values of the components of B all match (S709).
S709の処理により確認した結果、両者の画素データ[h][w]の色が異なる場合、即ち、R,G,Bの各成分の値のうち、いずれか1つの成分の値が異なっている場合には(S709:No)、画素変化量HWに「1」を加算し(S710)、その画素の座標(w、h)を取得し(S711)、変数「w」に「1」を加算し(S712)、画素の座標(w、h)を右方へ1列移動し、右隣の画素の画素データを参照すべき画素データとする。S712の処理後、S707の処理へ移行する。 As a result of checking in step S709, when the colors of the pixel data [h] [w] are different, that is, the value of any one of the R, G, and B component values is different. In this case (S709: No), “1” is added to the pixel change amount HW (S710), the coordinates (w, h) of the pixel are acquired (S711), and “1” is added to the variable “w”. In step S712, the pixel coordinates (w, h) are moved to the right by one column, and the pixel data of the pixel on the right is used as pixel data to be referred to. After the processing of S712, the process proceeds to S707.
また、S709の処理により確認した結果、両者の画素データ[h][w]が同じ色を示すものである場合、即ち、R,G,Bの各成分の値が全て同じ場合には(S709:Yes)、それは座標(w、h)における画素データに変化はなかったことを示すので、S710〜S711の処理をスキップし、S712の処理へ移行する。 Further, as a result of the confirmation in the process of S709, when the pixel data [h] [w] of the both indicate the same color, that is, when the values of the R, G, and B components are all the same (S709). : Yes), it indicates that there is no change in the pixel data at the coordinates (w, h), so the processing of S710 to S711 is skipped and the processing proceeds to S712.
一方、S707の処理により確認した結果、変数「w」の値が「W」であれば(S707:No)、変数「h」に「1」を加算し(S712)、画素の座標(w、h)を下方へ1行移動し(S713)、S705の処理へ移行する。 On the other hand, if the value of the variable “w” is “W” as a result of the confirmation in S707 (S707: No), “1” is added to the variable “h” (S712), and the pixel coordinates (w, h) is moved downward by one line (S713), and the process proceeds to S705.
また、S705の処理により確認した結果、変数「h」の値が「H」であれば(S705:No)、即ち、この画像変化検知処理(S14)において参照される撮像領域300の画像データ(S701の処理で取得された画像データ及び静止画像データ格納部46aに記憶されている保存画像データ)を構成する全ての画素に対し、画素データの比較が完了した場合には、S711の処理により取得された画素の座標(w、h)を参照して、撮像の変化が検知された変化領域P(図14参照)の最左上の座標(WSTART,HSTART)と最右下の座標(WEND,HEND)とを変化領域座標格納部46hに格納し(S714)、次いで、画素変化量HWを出力する(S715)。
If the value of the variable “h” is “H” as a result of the confirmation in S705 (S705: No), that is, the image data of the
S715の処理により出力された画素変化量HWの値は、スタンバイ処理(図10)のS302、トレース受付処理(図11)のS403、又は、スキャン処理(図12)のS503の処理において参照され、判定結果に応じた処理がなされる。 The value of the pixel change amount HW output by the process of S715 is referred to in the process of S302 of the standby process (FIG. 10), S403 of the trace reception process (FIG. 11), or S503 of the scan process (FIG. 12). Processing according to the determination result is performed.
S715の処理後、静止画像データ格納部46aに記憶されている保存画像データを、S701の処理により取得した画像データ(低解像度の画像データ)で更新し(S716)、この画像変化検知処理(S7)を終了する。
After the processing of S715, the saved image data stored in the still image
次に、図15を参照して、上述のスタンバイ処理(図10)、トレース受付処理(図11)、及び、スキャン処理(図12)の中で実行される処理であって、撮像領域300に原稿200の4つの原稿端201が存在するか否かを判定する四原稿端有無判定処理(S8)について説明する。
Next, referring to FIG. 15, processing executed in the above-described standby processing (FIG. 10), trace reception processing (FIG. 11), and scanning processing (FIG. 12) The four document edge presence / absence determination process (S8) for determining whether there are four
この四原稿端検知処理(S8)では、まず、撮像装置100により撮像領域300を撮像し、その画像データを取得する(S801)。次いで、その取得された画像データから単純輝度画像データを生成する(S802)。即ち、S802では、S801の処理により取得された画像データを構成する各画素のR,G,Bの各成分の輝度値を加算した画像データとする。
In the four document edge detection process (S8), first, the
S802の処理後、その単純輝度画像データのヒストグラムの重心値を演算し(S803)、その重心値を閾値として、S802において生成された単純輝度画像データから2値画像データを生成する(S804)。具体的には、S804では、S803の処理により得られたヒストグラムの重心値を閾値として、その閾値より高い輝度の画素情報を「1」(即ち、「白」)とし、その閾値より低い輝度の画素情報を「0」(即ち、「黒」)とする。 After the processing of S802, the centroid value of the histogram of the simple luminance image data is calculated (S803), and the binary image data is generated from the simple luminance image data generated in S802 using the centroid value as a threshold (S804). Specifically, in S804, the barycentric value of the histogram obtained by the processing in S803 is set as a threshold, pixel information having a luminance higher than the threshold is set to “1” (that is, “white”), and luminance lower than the threshold is set. The pixel information is “0” (ie, “black”).
S804の処理後、2値画像データから2次微分画像データを生成する(S805)。次いで、その2次微分画像データの水平方向のヒストグラムを演算し(S806)、更に、垂直方向のヒストグラムを演算する(S807)。なお、上述の説明における「水平方向」及び「垂直方向」とは、それぞれ、図14に示したX軸方向及びY軸方向に対応する。 After the processing of S804, secondary differential image data is generated from the binary image data (S805). Next, a horizontal histogram of the secondary differential image data is calculated (S806), and a vertical histogram is further calculated (S807). The “horizontal direction” and “vertical direction” in the above description correspond to the X-axis direction and the Y-axis direction shown in FIG. 14, respectively.
次いで、S806〜S807の処理により得られた水平方向及び垂直方向のヒストグラムにおいて、所定の閾値を超えるヒストグラムの値が、水平方向において2つ、且つ、垂直方向において2つ検出されたか否かを確認する(S808)。即ち、S808では、撮像領域300において、原稿200の原稿端201を示す最も大きなヒストグラムのピークが、原稿200の右端及び左端に対応するものとして水平方向に2つと、原稿200の上端及び下端に対応するものとして垂直方向に2つとが検出されたか否かを確認する。
Next, in the horizontal and vertical histograms obtained by the processing of S806 to S807, it is confirmed whether two histogram values exceeding a predetermined threshold value are detected in the horizontal direction and two in the vertical direction. (S808). That is, in S808, in the
S808の処理により確認した結果、水平方向及び垂直方向のヒストグラムにおいて、所定の閾値を超えるヒストグラムの値が、水平方向において2つ、且つ、垂直方向において2つ検出されていれば(S808:Yes)、原稿200の四辺(4つの原稿端201)が撮像領域300内に存在すると判定する(S809)。次いで、S808の処理により検出された計4つのヒストグラムのピークの位置に基づいて、撮像領域300内に配置される原稿200の四頂点の座標を取得し(S810)、この四原稿端有無判定処理(S8)を終了する。
As a result of checking in the process of S808, if two histogram values exceeding a predetermined threshold are detected in the horizontal direction and two in the vertical direction in the horizontal and vertical histograms (S808: Yes). Then, it is determined that the four sides (four document edges 201) of the
一方で、S808の処理により確認した結果、水平方向及び垂直方向のヒストグラムにおいて、所定の閾値を超えるヒストグラムの値が水平方向において2つ、且つ、垂直方向において2つ検出されない場合、例えば、水平方向には2つ検出されたが垂直方向に1つしか検出されなかった場合には(S808:No)、原稿200の四辺(4つの原稿端201)が撮像領域300内に存在しないと判定し(S811)、この四原稿端有無判定処理(S8)を終了する。
On the other hand, as a result of the confirmation in the processing of S808, when two histogram values exceeding a predetermined threshold are not detected in the horizontal direction and two in the vertical direction in the horizontal and vertical histograms, for example, in the
S810又はS908により判定された結果は、スタンバイ処理(図10)のS303、トレース受付処理(図11)のS404、又は、スキャン処理(図12)のS504の処理において参照され、判定結果に応じた処理がなされる。 The result determined in S810 or S908 is referred to in S303 of the standby process (FIG. 10), S404 of the trace reception process (FIG. 11), or S504 of the scan process (FIG. 12), and depends on the determination result. Processing is done.
次に、図16を参照して、上述のスタンバイ処理(図10)及びトレース受付処理(図11)の中で実行される処理であって、原稿200の余白部に固定物(本実施例では左手250)が置かれたか否かを判定する余白部固定物有無判定処理(S9)について説明する。図16は、余白部固定物有無判定処理(S9)のフローチャートである。 Next, referring to FIG. 16, processing executed in the above-described standby processing (FIG. 10) and trace acceptance processing (FIG. 11), and a fixed object (in the present embodiment, in the blank portion). The blank portion fixed object presence / absence determination process (S9) for determining whether or not the left hand 250) is placed will be described. FIG. 16 is a flowchart of margin part fixed object presence / absence determination processing (S9).
この余白部有無判定処理(S9)では、まず、撮像装置100により撮像領域300を撮像し、その画像データを取得する(S901)。次いで、取得された画像データに対し、四頂点座標格納部46cに記憶される原稿200の四頂点の座標を元に、原稿端201から所定幅の領域で構成される余白部を設定する(S902)。
In this blank portion presence / absence determination processing (S9), first, the
次いで、S902の処理により検出された余白部に含まれる全ての画素の中に、固定物色情報格納部50aに予め登録されている固定物色情報と類似色を有する画素があるか否かを確認する(S903)。具体的には、S903では、S902の処理により検出された余白部に含まれる画素であって、そのRGB値が固定物色情報格納部50aへ予め登録されている固定物色情報との色空間上の距離が閾値以下であるRGB値を有する画素があるか否かを確認する。
Next, it is confirmed whether or not there is a pixel having a color similar to the fixed object color information registered in advance in the fixed object color
S903の処理により確認した結果、固定物色情報格納部50aに予め登録されている固定物色情報と類似色を有する画素があれば(S903:Yes)、それらの画素を抽出し(S904)、抽出された各画素毎に、各画素から半径r(例えば、半径5mm程度)の領域内に含まれている全ての画素数に対する、固定物色情報と類似色を有する画素(該固定物色情報との色空間上の距離が閾値以下であるRGB値を有する画素)の存在率を演算し(S905)、その存在率が所定の閾値以上である円領域の中心である画素を抽出する(S906)。
If there is a pixel having a similar color to the fixed object color information registered in advance in the fixed object color
次いで、S906の処理により抽出された画素が、余白部に含まれる全画素数に対して所定の割合以上存在するか否かを確認する、即ち、固定物色情報と類似色を有し、且つ、所定レベル以上の面積を有する物体が、余白部を所定の割合以上で占有しているか否かを確認する(S907)。 Next, it is confirmed whether or not the pixels extracted by the processing of S906 are present in a predetermined ratio or more with respect to the total number of pixels included in the blank portion, that is, have a similar color to the fixed object color information, and It is confirmed whether or not an object having an area of a predetermined level or more occupies a blank portion at a predetermined ratio or more (S907).
S906の処理により確認した結果、固定物色情報と類似色を有し、且つ、所定レベル以上の面積を有する物体が、余白部に対して所定の割合以上で占有していれば(S907:Yes)、余白部に固定物があると判定し(S908)、この余白部固定物有無判定処理(S9)を終了する。 As a result of checking in the processing of S906, if an object having a color similar to the fixed object color information and having an area of a predetermined level or more occupies at a predetermined ratio or more with respect to the blank portion (S907: Yes). Then, it is determined that there is a fixed object in the margin part (S908), and this margin part fixed object presence / absence determination process (S9) is terminated.
一方で、S903の処理により確認した結果、固定物色情報格納部50aに予め登録されている固定物色情報と類似色を有する画素がない場合(S903:No)、又は、S907の処理により確認した結果、固定物色情報と類似色を有し、且つ、所定レベル以上の面積を有する物体の余白部に対する割合が所定値未満であれば(S907:No)、余白部に固定物がないと判定し(S909)、この余白部固定物有無判定処理(S9)を終了する。
On the other hand, as a result of confirmation by the process of S903, when there is no pixel having a similar color to the fixed object color information registered in advance in the fixed object color
S907又はS908により判定された結果は、スタンバイ処理(図10)のS305又はトレース受付処理(図11)のS405の処理において参照され、判定結果に応じた処理がなされる。 The result determined in S907 or S908 is referred to in S305 of the standby process (FIG. 10) or S405 of the trace reception process (FIG. 11), and a process according to the determination result is performed.
次に、図17を参照して、上述のトレース受付処理(図11)、及び、スキャン処理(図12)の中で実行される処理であって、撮像領域300内における変化領域Pの焦点度を測定する処理である変化領域内焦点度測定処理(S10)について説明する。図17は、変化領域内焦点度測定処理(S10)のフローチャートである。
Next, referring to FIG. 17, processing executed in the above-described trace reception processing (FIG. 11) and scanning processing (FIG. 12), and the focus of the change region P in the
この変化領域内焦点度測定処理(S10)では、まず、静止画像データ格納部46aに記憶されている撮像領域300の画像データを単純輝度画像データに変換する(S1001)。S1001の処理では、例えば、NTSCビデオ規格の加重平均法などの方法により、各画素のRGB値を輝度値に変換する。
In the change area focal degree measurement process (S10), first, the image data of the
S1001の処理後、この変化領域内焦点度測定処理(S10)において参照する画素、即ち、撮像領域300内の画素の座標画素の座標(w,h)において画素列を表す変数[w]及び画素行を表す変数「h」を、それぞれ、変化領域座標格納部46hに記憶されている変化領域Pの最左上の座標に基づいて、「WSTART」及び「HSTART」とすると共に、変数「avg」を「0」とする(S1002)。S1002の処理により、参照する画素の座標が(WSTART,HSTART)に設定されることにより、変化領域Pにおける最左上の画素の画素データが参照されることになる。
After the process of S1001, the variable [w] and the pixel representing the pixel column in the coordinates (w, h) of the pixel to be referred to in the focal area measurement process (S10) in the change area, that is, the coordinate pixel of the pixel in the
S1002の処理後、変数「h」の値が変化領域Pの最下行である「HEND」より小さいか否かを確認する(S1003)。S1003の処理により確認した結果、変数「h」の値が「HEND」より小さい、即ち、h<HENDであれば(S1003:Yes)、変数「w」の値が変化領域Pの最右列である「WEND」より小さいか否かを確認する(S1004)。 After the processing of S1002, it is confirmed whether or not the value of the variable “h” is smaller than “HEND” which is the bottom row of the change area P (S1003). As a result of checking in the processing of S1003, if the value of the variable “h” is smaller than “HEND”, that is, if h <HEND (S1003: Yes), the value of the variable “w” is the rightmost column of the change region P. It is confirmed whether it is smaller than a certain “WEND” (S1004).
S1004の処理により確認した結果、変数「w」の値が「WEND」より小さい、即ち、w<WENDである場合には(S1004:Yes)、静止画像データ格納部46aに記憶されている保存画像データにおける座標(w,h)の画素の画素データを参照し、その画素データの輝度値(画素データ[h][w])を変数「avg」に加算する(S1005)。次いで、変数「w」に「1」を加算し(S1006)、S1004の処理へ移行する。S1006の処理により、参照される画素が右方へ1列移動される。
If the value of the variable “w” is smaller than “WEND” as a result of the confirmation in S1004, that is, if w <WEND (S1004: Yes), the stored image stored in the still image
一方、S1004の処理により確認した結果、変数「w」の値が、変化領域座標格納部46hに記憶されている変化領域Pの最右列を示す「WEND」であれば(S1004:No)、変数「h」に「1」を加算し(S1007)、更に、変数「w」を「WSTART」とする(S1008)。S1007〜S1008の処理により、1行下の最左列の画素が参照されることになる。S1008の処理後、S1003の処理へ移行する。 On the other hand, if the value of the variable “w” is “WEND” indicating the rightmost column of the change area P stored in the change area coordinate storage unit 46h as a result of checking by the process of S1004 (S1004: No), “1” is added to the variable “h” (S1007), and the variable “w” is set to “WSTART” (S1008). Through the processing of S1007 to S1008, the pixel in the leftmost column below one row is referred to. After the process of S1008, the process proceeds to S1003.
また、S1003の処理により確認した結果、変数「h」の値が、変化領域座標格納部46hに記憶されている変化領域Pの最下行を示す「HEND」であれば(S1003:No)、変数「avg」を、変化領域Pを構成する画素数、即ち、|(HEND−HSTART)*(WEND−WSTART)|(|x|はxの絶対値を表す演算記号)で除算する(S1009)。S1009における演算により得られた値(avg)は、画素データの輝度値の平均を示す。 If the value of the variable “h” is “HEND” indicating the bottom row of the change area P stored in the change area coordinate storage unit 46h as a result of the confirmation in S1003 (S1003: No), the variable “Avg” is divided by the number of pixels constituting the change area P, that is, | (HEND−HSTART) * (WEND−WSTART) | (| x | is an arithmetic symbol representing the absolute value of x) (S1009). The value (avg) obtained by the calculation in S1009 indicates the average of the luminance values of the pixel data.
S1009の処理後、変数[w]及び変数「h」を、それぞれ、「WSTART」及び「HSTART」とすると共に、変数「v」を「0」とする(S1010)。S1010の処理により、参照する画素の座標が(WSTART,HSTART)に設定され、変化領域Pにおける最左上の画素データが再度参照されることになる。 After the process of S1009, the variable [w] and the variable “h” are set to “WSTART” and “HSTART”, respectively, and the variable “v” is set to “0” (S1010). By the processing of S1010, the coordinates of the pixel to be referred to are set to (WSTART, HSTART), and the upper left pixel data in the change region P is referred again.
S1010の処理後、変数「h」の値が「HEND」より小さいか否かを確認する(S1011)。S1011の処理により確認した結果、変数「h」の値が「HEND」より小さければ(S1011:Yes)、変数「w」の値が「WEND」より小さいか否かを確認する(S1012)。 After the processing of S1010, it is confirmed whether or not the value of the variable “h” is smaller than “HEND” (S1011). If the value of the variable “h” is smaller than “HEND” as a result of the confirmation in S1011 (S1011: Yes), it is confirmed whether the value of the variable “w” is smaller than “WEND” (S1012).
S1012の処理により確認した結果、変数「w」の値が「WEND」より小さければ(S1012:Yes)、静止画像データ格納部46aに記憶されている保存画像データにおける座標(w,h)の画素の画素データの輝度値を参照し、変数「v」に「(画素データ[h][w]−avg)2」を加算する(S1013)。次いで、変数「w」に「1」を加算し(S1014)、S1012の処理へ移行する。S1014の処理により、参照される画素データが右方へ1列移動される。
If the value of the variable “w” is smaller than “WEND” (S1012: Yes) as a result of the confirmation in S1012, the pixel at the coordinates (w, h) in the saved image data stored in the still image
一方、S1012の処理により確認した結果、変数「w」の値が「WEND」であれば(S1012:No)、変数「h」に「1」を加算し(S1015)、変数「w」を「WSTART」とする(S1016)。S1015〜S1016の処理により、1行下の最左列の画素データが参照されることになる。S1016の処理後、S1011の処理へ移行する。 On the other hand, if the value of the variable “w” is “WEND” (S1012: No) as a result of checking in the processing of S1012, “1” is added to the variable “h” (S1015), and the variable “w” is changed to “ WSTART ”(S1016). By the processing of S1015 to S1016, the pixel data in the leftmost column below one row is referred to. After the process of S1016, the process proceeds to S1011.
また、S1011の処理により確認した結果、変数「h」の値が「HEND」であれば(S1011:No)、変数「v」を変化領域Pを構成する画素数(即ち、|(HEND−HSTART)*(WEND−WSTART)|)で除算した値を「v」とする(S1017)。 If the value of the variable “h” is “HEND” (S1011: No) as a result of the confirmation in S1011, the variable “v” is set to the number of pixels constituting the change area P (that is, | (HEND-HSTART). ) * (WEND−WSTART) |) is set to “v” (S1017).
S1017における演算により得られた「v」は、変化領域Pにおける画素データ[h][w]の輝度値の分散値を示す。この分散値は、各画素ごとのR,G,Bの各成分を合計した値のばらつきが大きいほど大きい値となる。換言すれば、この分散値は、撮像領域300内に存在する物体全体にピントが合い、メリハリのある撮像である程大きくなる。
“V” obtained by the calculation in S1017 represents the variance of the luminance values of the pixel data [h] [w] in the change region P. The variance value increases as the variation of the sum of the R, G, and B components for each pixel increases. In other words, the dispersion value becomes larger as the whole object existing in the
この変化領域内焦点度測定処理(S10)は、画像変化検知処理(S7)により、撮像領域300に変化があった場合に、その変化の生じた領域(変化領域P)に対してS1001〜S1018の処理を実行する。即ち、S1017の処理により得られた分散値「v」は、その値が大きければ、変化領域P内に存在する物体、つまり、撮像領域300に変化を生じさせた物体ににピントが合っていることを示す。従って、S1017の処理により得られた分散値「v」は、上述した画像変化検知処理(S7)において撮像領域300に変化を生じさせた物体に対してピントが合っているか否かを表す指標である「焦点度」に対応する値である。
In the change area focus degree measurement process (S10), when the
よって、S1017に続いて、得られた分散値「v」を焦点度として出力し(S1018)、この変化領域内焦点度測定処理(S10)を終了する。 Therefore, following S1017, the obtained dispersion value “v” is output as the focus degree (S1018), and this change area focus degree measurement process (S10) is ended.
S1018の処理により出力された焦点度の値は、トレース受付処理(図11)のS406又はスキャン処理(図12)のS505の処理において参照され、所定の閾値と比較される。その際、この焦点度の値が所定の閾値以上であれば、即ち、撮像領域300に変化を生じさせた物体(具体的には、変化領域Pに存在する物体)に対するピントが所定レベル以上で合っているとみなされ、続いて、その撮像領域300に変化を生じさせた物体が、原稿200を指し示す指示部材としてのポインタ(本実施例では右手260の人差し指260a)であるか否かを判定するポインタ有無判定処理(S11)を実行する。
The value of the focus level output by the process of S1018 is referred to in the process of S406 of the trace reception process (FIG. 11) or the process of S505 of the scan process (FIG. 12), and is compared with a predetermined threshold value. At this time, if the value of the degree of focus is equal to or greater than a predetermined threshold, that is, the focus with respect to an object that causes a change in the imaging region 300 (specifically, an object existing in the change region P) is equal to or greater than a predetermined level. Next, it is determined whether or not the object that is considered to be matched and that has caused a change in the
本実施例では、撮像装置100は原稿200に対して合焦されているので、撮像領域300に変化を生じさせた物体(変化領域Pに存在する物体)の位置が原稿200に対して上方にある程、その物体に対するピントは合わなくなり、その結果として、S1017の処理により得られた分散値「v」は小さい値となる。従って、換言すれば、「焦点度」は、撮像領域300に変化を生じさせた物体の原稿200に対する高さを表す指標でもある。よって、変化領域内焦点度測定処理(S10)では、撮像領域300に変化を生じさせた物体の原稿200に対する高さを検出して、その高さが所定の閾値以下であれば、ポインタ有無判定処理(S11)を実行することになる。
In the present embodiment, since the
次に、図18を参照して、そのポインタ有無判定処理(S11)について説明する。このポインタ有無判定処理(S11)は、上述したトレース受付処理(図11)及びスキャン処理(図12)において実行されるものであり、図18は、ポインタ有無判定処理(S11)のフローチャートである。 Next, the pointer presence / absence determination process (S11) will be described with reference to FIG. This pointer presence / absence determination process (S11) is executed in the above-described trace reception process (FIG. 11) and scan process (FIG. 12), and FIG. 18 is a flowchart of the pointer presence / absence determination process (S11).
このポインタ有無判定処理(S11)では、まず、撮像装置100により撮像領域300を撮像し、その画像データを取得する(S1101)。次いで、その取得された画像データから単純輝度画像データ(画像データの各画素のR,G,Bの各成分の輝度値を加算した画像データ)を生成する(S1102)。
In this pointer presence / absence determination processing (S11), first, the
S1102の処理後、スタンバイ処理(図10)のS303の処理の結果として初期画像データ格納部46bに記憶されている初期画像データから単純輝度画像データを生成しS1103)、S1102の処理により生成された単純輝度画像データとS1103の処理により生成された単純輝度画像データとの差分画像データを生成する(S1104)。次いで、その差分画像データを所定の閾値を用いて2値化する(S1105)。S1105の処理により、差を生じている領域、即ち、画像データに変化を生じさせた物体に対応する領域の画素が「0」(即ち、「黒」)に設定される。 After the processing of S1102, simple luminance image data is generated from the initial image data stored in the initial image data storage unit 46b as a result of the processing of S303 of the standby processing (FIG. 10) (S1103), and is generated by the processing of S1102 Difference image data between the simple luminance image data and the simple luminance image data generated by the processing of S1103 is generated (S1104). Next, the difference image data is binarized using a predetermined threshold (S1105). By the processing of S1105, the pixel of the area where the difference is generated, that is, the area corresponding to the object which caused the change in the image data is set to “0” (that is, “black”).
S1105の処理後、差を生じている領域に含まれる全ての画素、即ち、2値化後の画像データにおいて黒色領域を構成する各画素に対し、半径r’(例えば、半径2cm程度)の領域内に含まれる黒色画素の存在率を算出する(S1106)。次いで、S1106の処理により算出された黒色画素の存在率が所定の範囲内にある画素を抽出する(S1107)。 After the processing of S1105, for all the pixels included in the difference area, that is, for each pixel constituting the black area in the binarized image data, an area having a radius r ′ (for example, a radius of about 2 cm) The presence ratio of black pixels included in the image is calculated (S1106). Next, pixels whose black pixel presence rate calculated by the processing of S1106 is within a predetermined range are extracted (S1107).
S1106〜S1107の処理により、例えばノイズによる孤立点であるなどの原因によって、その周辺である半径r’の領域内の黒色画素の存在率が低すぎる画素と、その周辺である半径r’の領域内の黒色画素の存在率が所定範囲を越えて高くなるような大きな物体(例えば、手の甲など)部分の画素とが、次に実行されるS1108〜S1109の処理において参照される画素として除外される。 Due to the process of S1106 to S1107, for example, an isolated point due to noise or the like, a pixel in which the existence ratio of the black pixel in the area of the radius r ′ is too low and the area of the radius r ′ in the vicinity thereof Pixels of a large object (for example, the back of the hand) whose black pixel presence rate is higher than a predetermined range are excluded as pixels to be referred to in the next processing of S1108 to S1109. .
S1107の処理後、抽出された画素について、所定の距離(例えば、3cm程度)以上連続領域を構成する画素群があるか否かを確認する(S1108)。即ち、S1108では、所定の距離以上に細長く連なった黒色画像領域があるか否かを確認する。 After the process of S1107, it is confirmed whether or not there is a pixel group that constitutes a continuous area for a predetermined distance (for example, about 3 cm) for the extracted pixel (S1108). That is, in S1108, it is confirmed whether or not there is a black image region that is long and thin and longer than a predetermined distance.
S1108の処理により確認した結果、所定の距離以上の連続領域を構成する画素群があれば(S1108:Yes)、その所定距離以上の連続領域を構成する画素群は1つだけであるかを確認し(S1109)、1つだけであれば(S1109:Yes)、ポインタが存在すると判定し(S1110)、このポインタ有無判定処理(S11)を終了する。 As a result of the confirmation in S1108, if there is a pixel group that forms a continuous area that is a predetermined distance or more (S1108: Yes), it is confirmed whether there is only one pixel group that forms a continuous area that is a predetermined distance or more. If there is only one (S1109: Yes), it is determined that there is a pointer (S1110), and this pointer presence / absence determination process (S11) is terminated.
S1106〜S1110の処理により、1本の細長い物体をポインタとして認識する。その細長いポインタの先端は狭い1点を指し示し得るので、上述したトレース受付処理(図11)のS408やスキャン処理(図12)のS507において、ポインタの先端の位置座標を正確に検出し、それによって、その座標を用いた処理を正確に実行し得ることになる。 One slender object is recognized as a pointer by the processes of S1106 to S1110. Since the tip of the elongated pointer can point to one narrow point, the position coordinates of the tip of the pointer are accurately detected in S408 of the trace reception process (FIG. 11) and S507 of the scan process (FIG. 12), thereby The processing using the coordinates can be executed accurately.
一方、S1108の処理により確認した結果、所定の距離以上の連続領域を構成する画素群がない場合(SS1108:No)、あるいは、S1109の処理により確認した結果、所定の距離以上の連続領域を構成する画素群が2以上存在する場合には(S1109:No)、ポインタが存在しないと判定し(S1111)、このポインタ有無判定処理(S11)を終了する。 On the other hand, as a result of confirmation in the process of S1108, when there is no pixel group constituting a continuous area of a predetermined distance or more (SS1108: No), or as a result of confirmation in the process of S1109, a continuous area of a predetermined distance or more is formed. If two or more pixel groups exist (S1109: No), it is determined that there is no pointer (S1111), and this pointer presence / absence determination process (S11) is terminated.
S1110又はS1111により判定された結果は、トレース受付処理処理(図11)のS407又はスキャン処理(図12)のS506の処理において参照され、判定結果に応じた処理がなされる。 The result determined in S1110 or S1111 is referred to in S407 of the trace reception process (FIG. 11) or S506 of the scan process (FIG. 12), and a process according to the determination result is performed.
次に、図19を参照して、上述のスキャン処理(図12)の中で実行される処理であって、分割領域(本実施例では200a〜200c)の境界線を示す像(本実施例では、境界線203a,203b)を原稿200上の対応する位置に投影する原稿分割線投影処理(S12)について説明する。図19は、原稿分割線投影処理(S12)のフローチャートである。
Next, referring to FIG. 19, an image (this embodiment) which is a process executed in the above-described scanning process (FIG. 12) and shows the boundary lines of the divided areas (200a to 200c in this embodiment). The document dividing line projection process (S12) for projecting the
この原稿分割線投影処理(S12)では、まず、投影用画像データ格納部46hに記憶される投影用画像データを初期化し(S1201)、次いで、初期化された投影用画像データに、ポインタ先端座標格納部46dから読み出した座標をマッピングする(S1202)。
In the document dividing line projection process (S12), first, the projection image data stored in the projection image data storage unit 46h is initialized (S1201), and then the pointer tip coordinates are converted into the initialized projection image data. The coordinates read from the
S1202の処理後、マッピングされた座標を線分で結び(S1203)、S1204の処理へ移行する。なお、S1203の処理では、上述したように、ポインタ先端部46dに記憶される座標に対して付加されたマークを参照することによって、各線分の開始点及び終了点が決定される。即ち、S1203の処理では、1つの軌跡の開始点の座標から終了点の座標までが線分で結ばれる。また、ポインタ先端座標格納部46dに記憶される座標がない場合、即ち、上述したトレース受付処理(S10)の処理において、S410の処理を行うことなく、S409の処理によりポインタ(人差し指260a)の先端が、分割ボタン200の領域上にあることが確認された場合には、S1202〜S1203では何も実行されることなく、次のS1204の処理へ移行する。
After the process of S1202, the mapped coordinates are connected by line segments (S1203), and the process proceeds to S1204. In the processing of S1203, as described above, the start point and end point of each line segment are determined by referring to the mark added to the coordinates stored in the
S1204の処理では、四頂点座標格納部46cから読み出した原稿200の四頂点の座標を投影用画像データにマッピングを行う。次いで、マッピングされた原稿200の四頂点の座標を線分で結び、原稿200の輪郭(4つの原稿端201に対応する)を描く(S1205)。
In the process of S1204, the coordinates of the four vertices of the
S1205の処理後、投影用画像データにおける原稿200の輪郭とS1203の処理により結合された線分とに交点があるか否かを確認し(S1206)、交点があれば(S1206:Yes)、その交点をマッピングする(S1207)。次いで、S1203の処理により結合された線分のうち、原稿200の輪郭の外側に位置する線分及びマッピングを削除し(S1208)、S1209の処理へ移行する。なお、S1207の処理において、S1203の処理により結合された線分が閉じておらず、且つ、その端部が原稿200の領域内にある場合には、その原稿200の領域内にある線分の端部から、その端部を通る該線分の延長線と原稿200の輪郭との交点までの距離が所定の距離以下であれば、その延長線との交点をマッピングするものとする。
After the processing of S1205, it is confirmed whether or not there is an intersection between the outline of the
一方で、S1206の処理により確認した結果、交点がなければ(S1206:No)、S1207〜S1208の処理をスキップし、S1209の処理へ移行する。 On the other hand, if there is no intersection as a result of checking in the process of S1206 (S1206: No), the process of S1207 to S1208 is skipped, and the process proceeds to S1209.
S1201〜S1208の処理により、上述したトレース受付処理(図11)においてポインタ(人差し指260a)の移動によって描かれた原稿200における各分割領域の境界線を含む投影用画像データが作成されたことになる。
Through the processes in S1201 to S1208, projection image data including the boundary lines of the divided areas in the
S1209では、投影用画像データにマッピングされている座標、即ち、分割線の境界線上の座標を、各分割領域毎に分割領域境界座標格納部46eに記憶する。なお、S1209において、分割線の境界線上の座標を分割領域境界座標格納部46eに記憶する際、以下の領域を1つの分割領域とみなす:(1)S1203の処理により結合された線分により閉じられている領域、(2)S1203の処理により結合された線分と原稿200の輪郭(4つの端辺)とにより形成される閉じられた領域、(3)(2)に分類される領域から(1)に分類される領域を除いた領域、(4)(1)に分類される領域から、その中に包含される(1)の領域を除いた領域。本実施例では、分割領域200a〜200c(図7参照)をそれぞれ構成する境界線の座標が分割領域境界座標格納部46eに記憶される。
In S1209, the coordinates mapped to the projection image data, that is, the coordinates on the boundary line of the dividing line are stored in the divided area boundary coordinate
S1209の処理後、各分割領域に対し、それぞれの領域を識別するためのインデックス(識別子)を付加する(S1210)。S1210の処理により、各分割領域に対してインデックスが付加されることにより、原稿200を区分する分割領域をより明確に識別することができる。
After the processing of S1209, an index (identifier) for identifying each area is added to each divided area (S1210). Through the processing of S1210, an index is added to each divided area, so that the divided areas into which the
次いで、S1201〜S1210の処理により作成された投影用画像データを、投影用画像データ格納部46hに記憶し(S1211)、投影画像データ格納部46hに記憶された投影用画像データを投影用画像として撮像領域300上に投影し(S1212)、この原稿分割線投影処理(S12)を終了する。 Next, the projection image data created by the processing of S1201 to S1210 is stored in the projection image data storage unit 46h (S1211), and the projection image data stored in the projection image data storage unit 46h is used as a projection image. The image is projected onto the imaging region 300 (S1212), and the document dividing line projection process (S12) is terminated.
図20は、上述した原稿分割線投影処理(図19)において、分割領域の境界線が設定される様子を模式的に示した図である。なお、図20(a)〜(d)は、いずれも、原稿分割線投影処理(図19)における各処理において作成された投影用画像データに対応する投影用画像を図示したものである。 FIG. 20 is a diagram schematically showing how the boundary lines of the divided areas are set in the document dividing line projection process (FIG. 19) described above. 20A to 20D show projection images corresponding to the projection image data created in each process in the document dividing line projection process (FIG. 19).
図20(a)は、ポインタ先端座標格納部46dから読み出した座標をマッピングした状態を示す図であり、これは原稿分割線投影処理(図19)のS1202の後に対応する。図20(a)に示すように、初期化された投影用画像(撮像領域300のみを投影する)に、ポインタ先端座標格納部46dに記憶されていた座標p1〜p21がマッピングされている。ここで、座標p1〜p21は、トレース受付処理(図11)のS410において、p1,p2,…,p20,p21の順に入力されたものである。よって、これらのマッピング座標は、それぞれ、ポインタ先端座標格納部46dに記憶されている座標(x1,y1),(x2,y2),…,(x20,y20),(x21,y21)に対応している(図4(a)参照)。なお、説明を容易にするために、マッピング数(S410において入力された座標)を少ない数(21個)としている。
FIG. 20A is a diagram showing a state where the coordinates read from the pointer tip coordinate
図20(b)は、ポインタ先端座標格納部46d及び四頂点座標格納部46cから読み出されてマッピングされた座標に基づいて線分が引かれた状態を示す図であり、これは原稿分割線投影処理(図19)のS1205の後に対応する。図20(b)に示すように、トレース受付処理(図11)においてポインタ(人差し指260a)の軌跡に対応するp1〜p13を結んだ線分及びp14〜p21を結んだ線分、ならびに、原稿200の四頂点p101〜p104を結んで得られた輪郭(四端辺)が描かれている。
FIG. 20B is a diagram showing a state in which a line segment is drawn based on the coordinates read and mapped from the pointer tip coordinate
図20(c)は、ポインタ先端座標格納部46dに記憶される座標間を結んだ線分と原稿200の輪郭との交点をマッピングした状態を示す図であり、これは原稿分割線投影処理(図19)のS1207の後に対応する。図20(c)に示すように、p14〜p21を結んだ線分と、原稿200の2辺(p101〜p102を結ぶ線分およびp103〜p104を結ぶ線分)との交点にp201及びp202がマッピングされている。
FIG. 20C is a diagram showing a state in which the intersection of the line segment connecting the coordinates stored in the pointer tip coordinate
図20(d)は、原稿200の輪郭の外側に位置する線分及びマッピングを削除した状態を示す図であり、これは原稿分割線投影処理(図19)のS1208の後に対応する状態を示す図である。図20(d)に示すように、原稿200の輪郭の外に位置していたp14〜p201及びp202〜p21の線分と、p14及びp21のマッピングとが削除されている。従って、原稿分割線投影処理(図19)のS1208の処理が行われると、原稿200が3つの領域(分割領域200a〜分割領域200c)に区分されることになる。
FIG. 20D is a diagram showing a state in which line segments and mapping located outside the outline of the
なお、本実施例の場合、原稿分割線投影処理(図19)のS1209の処理により分割領域境界座標格納部46eに記憶される座標は、分割領域200a(第1の分割領域)の境界線を構成する座標として、p101,p201,p15〜p20,p202,p104,p101,p1〜p13に対応する座標が記憶され、分割領域200b(第2の分割領域)の境界線を構成する座標として、p1〜p13に対応する座標が記憶され、分割領域200c(第3の分割領域)の境界線を構成する座標として、p201,p102,p103,p202,p20〜p15,p201に対応する座標が記憶される。
In the case of the present embodiment, the coordinates stored in the divided area boundary coordinate
図19及び図20に示すように、撮像装置100では、ポインタ(人指し指260a)により描かれた軌跡の形状に基づいて、原稿200内における閉じられた線ににより囲まれた矩形、及び/又は、原稿200を横切る線と原稿200の原稿端201により囲まれた領域に区分することができる。即ち、ポインタ(人指し指260a)により所望の領域を描くという簡単な操作によって、原稿200を所望の分割領域に区分することができる。更に、そのように原稿200が複数の分割領域に区分されることにより、次に説明する分割領域画像データ取得処理(図21)において、その分割領域単位での画像データの取得及びファイル化することを可能とする。
As shown in FIGS. 19 and 20, in the
次に、図21を参照して、その分割領域画像データ取得処理について説明する。図21は、上述のスキャン処理(図12)の中で実行される処理であって、ユーザにより指定された各分割領域の画像データを取り込み、ファイル化する分割領域画像データ取得処理(S13)のフローチャートである。 Next, the divided area image data acquisition process will be described with reference to FIG. FIG. 21 is a process executed in the above-described scan process (FIG. 12). The process of the divided area image data acquisition process (S13) that takes in the image data of each divided area specified by the user and creates a file. It is a flowchart.
この分割領域画像データ取得処理(S13)では、まず、初期画像データ格納部46bに記憶されている原稿200の画像データを用いて、この原稿200の画像データから、指定された分割領域を含む矩形画像データを抽出する(S1301)。次いで、抽出された矩形画像データにおける分割領域内で未使用の色を、透過色として指定し(S1302)、矩形画像データにおける分割領域の外側の領域を、指定された透過色で埋める(S1303)。 In this divided area image data acquisition process (S13), first, a rectangle including the designated divided area is obtained from the image data of the original 200 using the image data of the original 200 stored in the initial image data storage unit 46b. Image data is extracted (S1301). Next, an unused color in the divided area in the extracted rectangular image data is designated as a transparent color (S1302), and an area outside the divided area in the rectangular image data is filled with the designated transparent color (S1303). .
S1303の処理後、指定された透過色で分割領域の外側の領域を埋めた矩形画像データとS1302の処理で指定された透過色情報とを分割領域画像データ格納部46fに記憶する(S1304)。
After the process of S1303, the rectangular image data in which the area outside the divided area is filled with the specified transparent color and the transparent color information specified in the process of S1302 are stored in the divided area image
次いで、分割領域画像データ格納部46fに記憶された情報(矩形画像データ及び透過色情報)を基に、指定された分割領域の画像データをファイル化(透過GIF形式)し、そのファイルをHDD50の画像ファイル格納部50bに記憶する(S1305)。
Next, based on the information (rectangular image data and transparent color information) stored in the divided area image
S1301〜S1305の処理により、指定された分割領域の画像ファイルが作成される。よって、ユーザが、ファイル化を所望する分割領域を、ポインタ(人指し指260a)で指し示すという簡単な操作によって、その分割領域の画像ファイルを容易に作成することができる。そして、そのように容易に作成される画像ファイルは、任意の領域の画像を種々の用途(例えば、書類作成)に利用することができる。
An image file of the designated divided area is created by the processing of S1301 to S1305. Therefore, the user can easily create an image file of the divided area by a simple operation in which the user points to the divided area desired to be filed with the pointer (
また、この分割領域領域画像データ取得処理(S13)は、上述のスキャン処理(図12)において、ポインタ(人指し指260a)がスキャン終了ボタン230を指し示すか、又は、原稿200における全ての分割領域(本実施例では分割領域200a〜200c)の画像データをファイル化するまで実行される。よって、分割領域単位での画像データのファイル化は、ユーザの所望する部分だけに対して実行することができる。
Further, in this divided area area image data acquisition process (S13), in the above-described scanning process (FIG. 12), the pointer (
S1305の処理後、撮像領域300の所定の位置(本実施例では撮像領域300の上部(図7参照))へ次スキャン受付メッセージ44i4を投影し(S1306)、この分割領域画像データ取得処理(S13)を終了する。 After the processing of S1305, the next scan acceptance message 44i4 is projected onto a predetermined position of the imaging area 300 (in this embodiment, above the imaging area 300 (see FIG. 7)) (S1306), and this divided area image data acquisition process (S13) ) Ends.
以上説明したように、本発明の画像入力装置としての撮像装置100によれば、ポインタとしての右手260の人指し指260aを移動することにより描かれた軌跡に応じて原稿200を所望の分割領域に区分することができる。人差し指260aの軌跡を分割領域の境界線として入力する際、人差し指260aを上方に持ち上げることによって、その入力を禁止できるので、容易且つ確実に、分割領域の軌跡の中断位置を指定することができる。また、撮像装置100によれば、人差し指260aの軌跡により境界線を入力することにより区分された分割領域の単位で画像データを取得することができる上に、分割領域単位で画像データをファイル化することができる。よって、ユーザが人差し指260aにより所望の分割領域の境界線を描いた後、その分割領域の画像ファイルを取得することにより、その画像ファイルを種々の用途で使用することができる。
As described above, according to the
なお、請求項1記載の画像データ取得手段としては、スタンバイ処理(図10)におけるS307及び分割領域画像データ取得処理(S13)が該当し、請求項1記載の指示部材位置検出手段としては、トレース受付処理におけるS10,S406,S11,S407の処理、及び、スキャン処理(図12)におけるS10,S505,S11,S506の処理が該当し、請求項1記載の位置情報入力手段としては、トレース受付処理(図11)におけるS410の処理が該当し、請求項1記載の位置情報入力禁止手段としては、トレース受付処理(図11)におけるS406,S407の分岐処理、及び、スキャン処理(図12)におけるS505,S506の分岐処理における「No」の分岐が該当し、請求項1記載の領域区分手段としては、原稿分割線投影処理(図19)におけるS1201〜S1209の処理が該当する。
The image data acquisition means according to
また、請求項3記載の焦点調整手段としては、スタンバイ処理(図10)におけるS306の処理が該当し、請求項3記載の焦点度計測手段としては、変化領域内焦点度測定処理(S10)が該当する。
Further, the focus adjustment means according to
また、請求項5記載の領域指定手段としては、スキャン処理(図12)におけるS10,S505,S11,S506〜S509の処理が該当する。
Further, the area designating means according to
また、請求項6記載のファイル化手段としては、分割領域画像データ取得処理(図21)におけるS1305の処理が該当する。 Further, the filing means according to claim 6 corresponds to the processing of S1305 in the divided area image data acquisition processing (FIG. 21).
また、請求項8記載の固定物検出手段としては、余白部固定物有無判定処理(S9)が該当する。
The fixed object detection means according to
また、請求項9記載の境界投影手段としては、「原稿分割線投影処理(図19)におけるS1201〜1209の処理により作成された境界線部分の投影用画像データを投影用画像としてS1212の処理により境界領域上に投影すること」が該当し、請求項9記載の識別子投影手段としては、「原稿分割線投影処理(図19)におけるS1210の処理により作成された各分割領域を識別するためのインデックス(識別子)部分の投影用画像データを投影用画像としてS1212の処理により境界領域上に投影すること」が該当する。
Further, as the boundary projection means according to the ninth aspect, the “projection image data of the boundary line created by the processing of S1201-1209 in the document dividing line projection processing (FIG. 19) is used as a projection image by the processing of S1212. The identifier projecting means according to
また、請求項10記載の模様投影手段としては、スキャン処理(図12)におけるS510の処理が該当する。
The pattern projecting means according to
また、請求項11記載のメッセージ投影手段としては、スタンバイ処理(図10)におけるS301の処理、トレース受付処理(図11)におけるS401の処理、スキャン処理(図12)におけるS501の処理、分割領域画像データ取得処理(図21)におけるS1306の処理が該当する。
The message projecting means according to
また、請求項12記載の操作ボタン投影手段としては、トレース受付処理(図11)におけるS402の処理、スキャン処理(図12)におけるS502の処理が該当する。
The operation button projecting means according to
以上、実施例に基づき本発明を説明したが、本発明は上述した実施例に何ら限定されるものではなく、本発明の趣旨を逸脱しない範囲内で種々の改良変更が可能であることは容易に推察できるものである。 The present invention has been described above based on the embodiments. However, the present invention is not limited to the above-described embodiments, and various modifications and changes can be easily made without departing from the spirit of the present invention. Can be inferred.
例えば、上記実施例では、撮像部20と投光部30とが分離した撮像装置100を用いたが、これに換えて、撮像部と投光部とが一体に構成されている撮像装置(以下、「一体型撮像装置」と称する。)を用いてもよい。
For example, in the above-described embodiment, the
図22は、一体型撮像装置の主要な構成を説明する断面図である。なお、図面を簡略化するために、図22には撮像部及び投光部における主要な部材の配置のみを示し、これらの各部材を収容するケースや各部材の電気的配線などは省略している。また、図22に示す一体型撮像装置において、上記実施例と同一の部材には同一の符号を付して、その説明は省略する。 FIG. 22 is a cross-sectional view illustrating the main configuration of the integrated imaging apparatus. In order to simplify the drawing, FIG. 22 shows only the arrangement of main members in the imaging unit and the light projecting unit, and the case for housing these members and the electrical wiring of each member are omitted. Yes. Further, in the integrated imaging apparatus shown in FIG. 22, the same members as those in the above embodiment are denoted by the same reference numerals, and the description thereof is omitted.
図22に示すように、一体型撮像装置は、平面台400に向けられた結像レンズ22とその結像レンズ22の後方(撮像装置100の内部側)に設けられたCCD画像センサ24と、光源32a及び反射板32bとから構成される光源部32と、光源部32から投射された光を集光する集光レンズ34と、液晶パネル36と、結像レンズ22とCCD画像センサ24との間に配置されるハーフミラー62とを備えている。なお、ハーフミラー62は、光源部32からの光の投射方向に対して略45度傾けて配置され、光源部32から直線的に投射される光の光路を結像レンズ22に向けて変更するものである。
As shown in FIG. 22, the integrated imaging device includes an
また、上記実施例では、原稿200を複数領域に区分するための軌跡を描いたり、各種操作指示を行うためのポインタ(指示部材)として右手260の人差し指260aを用いたが、ペン類(ボールペン、鉛筆など)など棒状先端部を有する部材を用いてもよい。
Further, in the above embodiment, the
また、上記実施例では、固定物として左手250を利用したが、文鎮などの重石を用いてもよい。
Moreover, in the said Example, although the
また、上記実施例では、固定物色情報登録処理(S15)は、電源が投入されてメイン処理が起動する毎に1回実行される処理として構成したが、不要であれば固定物色情報登録処理(S15)をスキップできるように構成してもよい。または、初めて電源を投入した場合にのみ固定物色情報登録処理(S15)が実行されるように構成してもよい。 In the above embodiment, the fixed object color information registration process (S15) is configured as a process executed once every time the power is turned on and the main process is started. S15) may be skipped. Alternatively, the fixed object color information registration process (S15) may be executed only when the power is turned on for the first time.
あるいは、特定の固定物の色情報を所定の記憶領域(例えば、ROM44)に予め登録しておくように構成してもよい。その場合は、製品出荷時において、本発明の画像入力装置と特定の固定物とをセットで出荷するようにしてもよい。 Or you may comprise so that the color information of a specific fixed thing may be previously registered into a predetermined storage area (for example, ROM44). In that case, at the time of product shipment, the image input device of the present invention and a specific fixed object may be shipped as a set.
あるいは、固定物登録モードスイッチを設け、電源投入中であれば、この固定物登録モードスイッチを操作することによって随時固定物色情報登録処理(S15)が実行可能であるように構成してもよい。 Alternatively, a fixed object registration mode switch may be provided so that the fixed object color information registration process (S15) can be executed at any time by operating the fixed object registration mode switch if the power is on.
また、上記実施例におけるS1305の処理では、画像データを透過GIF形式にファイル化した後、撮像装置100に設けられたHDD50(画像ファイル格納部50b)に記憶するように構成されたが、これに換えて、ファイル化されたデータをHDD50(画像ファイル格納部50b)に不揮発的に記憶させるか、又は、RAM46内の所定の領域に記憶させるかをユーザ設定により設定できるように構成してもよい。また、ファイル化されたデータを外部インターフェイス58を介して接続されているPC500へ送信し、PC500に設けられているメモリ(ハードディスクなど)に記憶させるように構成してもよい。
In the processing of S1305 in the above embodiment, the image data is filed in a transparent GIF format and then stored in the HDD 50 (image
また、上記実施例では、初期画像データ格納部46bに記憶されている画像データから指定された分割領域に対応する部分の画像データを抽出することにより、指定された分割領域の画像データの取得を行うように構成したが、指定された分割領域をズームアップして改めて撮像するように構成してもよい。 In the above embodiment, the image data of the designated divided area is acquired by extracting the image data of the part corresponding to the designated divided area from the image data stored in the initial image data storage unit 46b. However, the designated divided area may be zoomed in and imaged again.
また、上記実施例では、撮像部20は撮像領域300の直上に配置され、それによって、撮像された画像データは、撮像領域300と同じ矩形を有するものとして説明したが、撮像後の初期画像データ又はファイル化前の分割領域の画像データに対し、矩形の画像データとするような所定の補正を行うように構成してもよい。また、撮像部20の結像レンズ22にレンズシフト機構を設けるように構成してもよい。
In the above-described embodiment, the
また、上記実施例では、人差し指260aの軌跡によって描かれた閉じられた境界線が矩形である場合についてのみ説明したが、これは矩形に限定されることなく、三角形や五角形などの多角形、円、自由線による投げ輪などの任意の形であってもよい。
In the above embodiment, only the case where the closed boundary line drawn by the trajectory of the
また、上記実施例において、余白部を原稿200の4つの原稿端201から内側に向かって所定の幅で形成される領域としたが、撮像部20により撮像された原稿200の画像データに基づいて、余白領域を検出するように構成してもよい。
In the above-described embodiment, the blank portion is an area formed with a predetermined width inward from the four
また、上記実施例におけるS510の処理では、画像データの取得された分割領域内に斜線を投影するように構成したが、投影される像としては斜線に限定されず、画像データを取得済みの分割領域と画像データが未取得である分割領域とが区別可能な像であればよい。 In the processing of S510 in the above embodiment, the oblique line is projected into the divided area from which the image data has been acquired. However, the projected image is not limited to the oblique line, and the divided image data has already been acquired. Any image can be used as long as the area and the divided area from which image data has not been acquired can be distinguished.
20 撮像部(撮像手段)
30 投光部
46b 初期画像データ格納部(画像データ取得手段の一部)
46f 分割領域画像データ格納部(分割領域画像データ取得手段の一部)
50b 画像ファイル格納部(ファイル化手段の一部)
100 撮像装置
200 原稿
201 原稿端
220 分割ボタン(操作ボタン)
230 スキャン終了ボタン(操作ボタン)
250 左手(固定物)
260 右手(指示部材の一部、ポインタの一部)
260a 人差し指(棒状先端部を有する指示部材、ポインタ)
300 撮像領域
20 Imaging unit (imaging means)
30 Projection unit 46b Initial image data storage unit (part of image data acquisition means)
46f Divided area image data storage (part of divided area image data acquisition means)
50b Image file storage (part of file creation means)
100
230 Scan end button (operation button)
250 Left hand (fixed object)
260 Right hand (part of pointing member, part of pointer)
260a Index finger (indicator member having a rod-shaped tip, pointer)
300 Imaging area
Claims (12)
その撮像手段により撮像された前記対象物の撮像を画像データとして取得する画像データ取得手段と、
前記対象物に対して任意の位置を指し示す指示部材の前記対象物に対する位置を検出する指示部材位置検出手段と、
その指示部材位置検出手段により前記指示部材の高さと前記対象物の高さとの差が所定値より小さいと検出された場合に、前記指示部材により指し示された対象物の位置に対応する位置情報を入力する位置情報入力手段と、
前記指示部材位置検出手段により前記指示部材の高さと前記対象物の高さとの差が所定値より大きいと検出された場合に、前記位置情報入力手段による位置情報の入力を禁止する位置情報入力禁止手段と、
前記位置情報入力手段による前記指示部材の位置情報の入力が開始されると、前記位置情報入力禁止手段により前記位置情報の入力が禁止されるまで移動する前記指示部材により指し示された軌跡に応じて、前記対象物を複数の領域に区分する領域区分手段とを備え、
前記画像データ取得手段は、前記領域区分手段により区分された領域単位で画像データを取得し得るものであることを特徴とする画像入力装置。 An imaging means capable of imaging an object existing in a predetermined area on a plane;
Image data acquisition means for acquiring imaging of the object imaged by the imaging means as image data;
Indicating member position detecting means for detecting a position of the indicating member pointing to an arbitrary position with respect to the object with respect to the object;
Position information corresponding to the position of the object pointed to by the pointing member when the difference between the height of the pointing member and the height of the object is detected by the pointing member position detecting means to be smaller than a predetermined value Position information input means for inputting
Position information input prohibition for prohibiting position information input by the position information input means when the indication member position detection means detects that the difference between the height of the indication member and the height of the object is greater than a predetermined value Means,
When the position information input means starts to input the position information of the pointing member, the position information input prohibiting means responds to the locus indicated by the pointing member that moves until the position information input is prohibited. And an area dividing means for dividing the object into a plurality of areas,
The image input apparatus, wherein the image data acquisition means is capable of acquiring image data in units of areas divided by the area classification means.
その焦点調整手段により前記対象物に合うように調整されている焦点に対する、前記指示部材の焦点度を計測する焦点度計測手段とを備え、
前記指示部材位置検出手段は、前記焦点度計測手段により計測された焦点度と所定の閾値とを比較することにより、前記指示部材の高さを判断するものであることを特徴とする請求項1又は2記載の画像入力装置。 Focus adjusting means for adjusting the focus so that the object imaged by the imaging means is in focus;
A focus degree measuring means for measuring the focus degree of the pointing member with respect to the focus adjusted to fit the object by the focus adjusting means,
2. The pointing member position detecting unit is configured to determine the height of the pointing member by comparing a focus degree measured by the focus degree measuring unit with a predetermined threshold value. Or the image input device of 2.
前記画像データ取得手段は、その領域指定手段により1の領域が指定されると、その領域指定手段により指定された領域部分の画像データを取得するものであることを特徴とする請求項1から4のいずれかに記載の画像入力装置。 When the position information indicating that the pointing member points within one of the divided areas is input by the position information input means after the area is divided by the area dividing means. And an area specifying means for specifying the one area,
5. The image data acquisition means, when one area is designated by the area designation means, obtains image data of the area portion designated by the area designation means. The image input device according to any one of the above.
前記ファイル化手段は、前記画像データ取得手段により取得された画像データ毎に別々の画像ファイルを作成するものであることを特徴とする請求項6記載の画像入力装置。 The image data acquisition means acquires image data corresponding to the designated area every time an area is designated by the area designation means,
The image input apparatus according to claim 6, wherein the filing unit creates a separate image file for each image data acquired by the image data acquisition unit.
その固定物検出手段により固定物が検出された場合に、前記指示部材位置検出手段による指示部材の位置の検出が実行されることを特徴とする請求項1から7のいずれかに記載の画像入力装置。 A fixed object detecting means for detecting a fixed object for fixing the object;
The image input according to any one of claims 1 to 7, wherein when the fixed object is detected by the fixed object detection means, the position of the pointing member is detected by the pointing member position detecting means. apparatus.
その境界投影手段により境界の示された各領域に、それらの領域をそれぞれ特定する識別子を示す像を重ねて投影する識別子投影手段とを備えていることを特徴とする請求項1から8のいずれかに記載の画像入力装置。 Boundary projection means for projecting an image showing the boundary of each area divided by the area dividing means onto the object;
9. An identifier projecting unit for projecting an image indicating an identifier for specifying each of the regions on each region indicated by the boundary projecting unit. An image input device according to claim 1.
前記位置情報入力手段により、前記指示部材が前記操作ボタン投影手段により投影された像の領域内を指し示していることを示す位置情報が入力されると、前記所定の操作を実行することを特徴とする請求項1から11のいずれかに記載の画像入力装置。 An operation button projecting unit that projects an image having a predetermined shape according to a timing at which a predetermined operation is performed,
The position information input means executes the predetermined operation when position information indicating that the pointing member points within the area of the image projected by the operation button projection means is input. The image input device according to claim 1.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004076317A JP2005267034A (en) | 2004-03-17 | 2004-03-17 | Image input device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004076317A JP2005267034A (en) | 2004-03-17 | 2004-03-17 | Image input device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005267034A true JP2005267034A (en) | 2005-09-29 |
Family
ID=35091544
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004076317A Pending JP2005267034A (en) | 2004-03-17 | 2004-03-17 | Image input device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005267034A (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008204047A (en) * | 2007-02-19 | 2008-09-04 | Sony Corp | Display detection device and light detection device |
WO2009031457A1 (en) * | 2007-09-04 | 2009-03-12 | Canon Kabushiki Kaisha | Image projection apparatus and control method for same |
JP2009522631A (en) * | 2005-12-30 | 2009-06-11 | インターナショナル・ビジネス・マシーンズ・コーポレーション | Video-based handwriting input method and apparatus |
JP2010250464A (en) * | 2009-04-14 | 2010-11-04 | Sony Corp | Apparatus and method for processing information, and program |
JP2013520728A (en) * | 2010-02-19 | 2013-06-06 | マイクロソフト コーポレーション | Combination of on and offscreen gestures |
JP2013114467A (en) * | 2011-11-29 | 2013-06-10 | Nikon Corp | Display system, display method and program |
JP2013134549A (en) * | 2011-12-26 | 2013-07-08 | Sharp Corp | Data input device and data input method |
JP2016119060A (en) * | 2014-12-22 | 2016-06-30 | キヤノンマーケティングジャパン株式会社 | Information processing system, control method of the same, and program, and information processing apparatus, control method of the same, and program |
US10268367B2 (en) | 2010-02-19 | 2019-04-23 | Microsoft Technology Licensing, Llc | Radial menus with bezel gestures |
-
2004
- 2004-03-17 JP JP2004076317A patent/JP2005267034A/en active Pending
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009522631A (en) * | 2005-12-30 | 2009-06-11 | インターナショナル・ビジネス・マシーンズ・コーポレーション | Video-based handwriting input method and apparatus |
JP2008204047A (en) * | 2007-02-19 | 2008-09-04 | Sony Corp | Display detection device and light detection device |
WO2009031457A1 (en) * | 2007-09-04 | 2009-03-12 | Canon Kabushiki Kaisha | Image projection apparatus and control method for same |
US8118433B2 (en) | 2007-09-04 | 2012-02-21 | Canon Kabushiki Kaisha | Image projection apparatus and control method for same |
JP2010250464A (en) * | 2009-04-14 | 2010-11-04 | Sony Corp | Apparatus and method for processing information, and program |
JP2013520728A (en) * | 2010-02-19 | 2013-06-06 | マイクロソフト コーポレーション | Combination of on and offscreen gestures |
US10268367B2 (en) | 2010-02-19 | 2019-04-23 | Microsoft Technology Licensing, Llc | Radial menus with bezel gestures |
JP2013114467A (en) * | 2011-11-29 | 2013-06-10 | Nikon Corp | Display system, display method and program |
JP2013134549A (en) * | 2011-12-26 | 2013-07-08 | Sharp Corp | Data input device and data input method |
JP2016119060A (en) * | 2014-12-22 | 2016-06-30 | キヤノンマーケティングジャパン株式会社 | Information processing system, control method of the same, and program, and information processing apparatus, control method of the same, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5620947B2 (en) | Electronic device, control method therefor, program, and storage medium | |
JP5760324B2 (en) | Image processing apparatus, image processing method, image processing program, and recording medium on which the image processing program is recorded | |
JP6742730B2 (en) | Electronic device and control method thereof | |
JP2015056143A (en) | Information processing device and information processing method | |
JP2010134738A (en) | Terminal apparatus, display control method, and display control program | |
US9529422B2 (en) | Image display and photographing system, photographing device, display device, image display and photographing method, and computer-readable storage medium for computer program | |
KR20210100170A (en) | Electronic device and its control method | |
JP2005267034A (en) | Image input device | |
JP7422457B2 (en) | Display control device and its control method | |
JP4501701B2 (en) | Image capturing apparatus, image processing method for image capturing apparatus, and program | |
JP2014017665A (en) | Display control unit, control method for display control unit, program, and recording medium | |
US11048400B2 (en) | Electronic apparatus, control method of electronic apparatus, and non-transitory computer readable medium | |
CN110537363A (en) | Digital camera | |
US20230127668A1 (en) | Image processing device, imaging apparatus, image processing method, and program | |
JP2021184123A (en) | Electronic device, control method of electronic device, and program | |
JP2015228270A (en) | Electronic device, electronic device control method, program, and storage medium | |
JP5316083B2 (en) | camera | |
CN111752425B (en) | Method for selecting an interactive object on a display medium of a device | |
JP4321299B2 (en) | Image input device | |
JP7264675B2 (en) | processor and program | |
JP7309435B2 (en) | Electronic device, electronic device control method, program, recording medium | |
JP2021089644A (en) | Electronic apparatus | |
JP2021012619A (en) | Electronic apparatus and method for controlling the same | |
JP6728024B2 (en) | Display control device, display control method, and program | |
JP2020166199A (en) | Electronic apparatus and method of controlling the same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070117 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090126 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090331 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20090721 |