JP2017167810A - Input support device, input support method, control program and storage medium - Google Patents

Input support device, input support method, control program and storage medium Download PDF

Info

Publication number
JP2017167810A
JP2017167810A JP2016052444A JP2016052444A JP2017167810A JP 2017167810 A JP2017167810 A JP 2017167810A JP 2016052444 A JP2016052444 A JP 2016052444A JP 2016052444 A JP2016052444 A JP 2016052444A JP 2017167810 A JP2017167810 A JP 2017167810A
Authority
JP
Japan
Prior art keywords
input
document
image
input area
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016052444A
Other languages
Japanese (ja)
Inventor
佑治 名屋
Yuji Naya
佑治 名屋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016052444A priority Critical patent/JP2017167810A/en
Publication of JP2017167810A publication Critical patent/JP2017167810A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an input support device for displaying in an intensified state, only an input portion in which an input has not been performed, in a document.SOLUTION: An input support device performs an input support to a document mounted on a calligraphy stage. The document has an input area on which an input is performed using a writing instrument. The input support device comprises: an image acquisition part 416 for acquiring an image in which a mount surface of the calligraphy stage on which the document is mounted, is imaged; an input area acquisition part 412 for acquiring an input area of the document from the image acquired by the image acquisition part 416; an input area recognition part 414 for recognizing whether or not the input has been performed to the acquired input area; a layout generation part 415 for generating an input support image for distinguishing an input area in which the input has been performed and an input area in which the input has not been performed; and a display part 406 for displaying the input support image on the calligraphy stage.SELECTED DRAWING: Figure 4

Description

本発明は、筆記具等による文書への入力を支援する入力支援装置に関する。   The present invention relates to an input support apparatus that supports input to a document using a writing instrument or the like.

台上に載置された紙の文書の入力領域を強調することで、ユーザに対して入力支援を行う入力支援装置がある。入力支援装置は、例えば文書が載置される載置台、カメラ、プロジェクタ、及び制御装置を備える。特許文献1は、このような構成の入力支援装置を開示する。カメラは、載置台の載置面上に載置された文書を含む所定範囲を撮像し、撮像画像を制御装置に送信する。制御装置は、撮像画像に含まれる文書の画像からその種別を判断して、文書の種別に応じた入力領域を強調表示するための情報(以下、「作業支援情報」という。)を作成して、プロジェクタへ送信する。プロジェクタは、作業支援情報に基づいて、文書の入力領域を強調表示する画像を載置面に投影する。   There is an input support apparatus that provides input support to a user by emphasizing an input area of a paper document placed on a table. The input support device includes, for example, a mounting table on which a document is mounted, a camera, a projector, and a control device. Patent Document 1 discloses an input support apparatus having such a configuration. The camera images a predetermined range including a document placed on the placement surface of the placement table, and transmits the captured image to the control device. The control device determines the type from the image of the document included in the captured image, and creates information (hereinafter referred to as “work support information”) for highlighting the input area according to the type of the document. To the projector. The projector projects an image that highlights the input area of the document on the placement surface based on the work support information.

特開2013−254437号公報JP 2013-254437 A

複数の入力領域が設けられる文書の場合、未入力の入力領域を残したまま載置台に載置される場合がある。この場合、入力済みの入力領域も、未入力の入力領域とともに一律に強調表示されてしまい、ユーザは、次に入力する入力領域を特定することが困難になる。そのために文書中の未入力の入力領域のみが強調され、入力済みの入力領域は強調されないように強調表示されることが望ましい。   In the case of a document provided with a plurality of input areas, it may be placed on the mounting table while leaving an uninput input area. In this case, the input area that has already been input is also uniformly highlighted together with the input area that has not been input, making it difficult for the user to specify the input area to be input next. For this reason, it is desirable to highlight only an input area that has not been input in the document and highlight an input area that has already been input.

本発明は、上記の問題を解決するために、文書中の未入力の入力箇所のみを強調表示する入力支援装置を提供することを主たる課題とする。   In order to solve the above problem, it is a main object of the present invention to provide an input support apparatus that highlights only an input portion that has not been input in a document.

本発明の入力支援装置は、文書が載置される載置面を撮像した画像を取得する画像取得手段と、前記画像取得手段で取得した前記画像から、前記文書が有する、筆記具により入力される入力領域を取得する入力領域取得手段と、取得した前記入力領域が入力済みであるか否かを認識する入力領域認識手段と、入力済みの入力領域と未入力の入力領域とを区別する入力支援画像を生成するレイアウト生成手段と、前記入力支援画像を前記載置面に表示する表示手段と、を備えることを特徴とする。   The input support device according to the present invention is input by an image acquisition unit that acquires an image obtained by capturing a placement surface on which a document is placed, and the writing acquired by the document from the image acquired by the image acquisition unit. Input area acquisition means for acquiring an input area, input area recognition means for recognizing whether or not the acquired input area has been input, and input support for distinguishing between an input area that has been input and an input area that has not been input The image forming apparatus includes: a layout generation unit that generates an image; and a display unit that displays the input support image on the placement surface.

本発明によれば、未入力の入力領域と入力済みの入力領域とを区別する入力支援画像を表示することで、文書中の未入力の入力箇所のみを強調表示することができる。そのためにユーザは、未入力領域を認識しやすくなる。   According to the present invention, by displaying an input support image that distinguishes an input area that has not been input from an input area that has already been input, it is possible to highlight only an input area that has not been input in a document. Therefore, the user can easily recognize the non-input area.

システムの全体構成図。1 is an overall configuration diagram of a system. (a)〜(c)は入力支援装置の説明図。(A)-(c) is explanatory drawing of an input assistance apparatus. コントローラ部のハードウェア構成例示図。The hardware configuration example figure of a controller part. (a)、(b)は入力支援装置の機能の説明図。(A), (b) is explanatory drawing of the function of an input assistance apparatus. (a)、(b)は入力支援対象となる文書の説明図。(A), (b) is explanatory drawing of the document used as input assistance object. 入力領域を管理するデータベースを示すテーブルの例示図。FIG. 5 is a view showing an example of a table showing a database for managing input areas. メイン制御部の処理のフローチャート。The flowchart of the process of a main control part. 入力支援処理のフローチャート。The flowchart of an input assistance process. (a)〜(f)はハイライト表示の例示図。(A)-(f) is an illustration figure of a highlight display. (a)、(b)は入力領域を管理するデータベースを示すテーブルの例示図。(A), (b) is an illustration figure of the table which shows the database which manages an input area. 入力支援処理のフローチャート。The flowchart of an input assistance process. (a)、(b)はハイライト表示の例示図。(A), (b) is an illustration figure of highlight display. メイン制御部の処理のフローチャート。The flowchart of the process of a main control part. (a)、(b)はハイライト表示の例示図。(A), (b) is an illustration figure of highlight display.

以下、添付図面を参照して本発明の実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る本発明を限定するものでなく、また本実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。   Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. The following embodiments do not limit the present invention according to the claims, and all combinations of features described in the embodiments are not necessarily essential to the solution means of the present invention. .

[第1実施形態]
本実施形態は、プロジェクタを内蔵する情報処理装置を用いて、伝票や申込書、届出書等の文書への入力を、ユーザの入力状況に応じて効果的に支援する。以降、プロジェクタを内蔵する情報処理装置を「入力支援装置」という。ユーザを支援するためにプロジェクタが表示する画像(入力支援画像)を表す情報を「入力支援情報」という。
[First Embodiment]
In this embodiment, an information processing apparatus incorporating a projector is used to effectively support input of documents such as slips, application forms, and notification forms in accordance with user input conditions. Hereinafter, an information processing apparatus incorporating a projector is referred to as an “input support apparatus”. Information representing an image (input support image) displayed by the projector to support the user is referred to as “input support information”.

図1は、本実施形態の入力支援装置を含むシステムの全体構成図である。このシステムは、イーサネット(登録商標)等のネットワーク104を介して通信可能に接続された、入力支援装置101、ホストコンピュータ102、及びプリンタ103を含む。ネットワーク104は、LAN(Local Area Network)やインターネット等のWAN(Wide Area Network)である。このシステムは、ホストコンピュータ102からの指示により、入力支援装置101が画像を読み取るスキャン機能、スキャンデータをプリンタ103により出力するプリント機能などの実行が可能となる。また、ホストコンピュータ102を介さず、入力支援装置101への直接の指示により、スキャン機能、プリント機能を実行することも可能である。   FIG. 1 is an overall configuration diagram of a system including an input support apparatus according to the present embodiment. This system includes an input support apparatus 101, a host computer 102, and a printer 103, which are communicably connected via a network 104 such as Ethernet (registered trademark). The network 104 is a WAN (Wide Area Network) such as a LAN (Local Area Network) or the Internet. This system can execute a scan function in which the input support apparatus 101 reads an image and a print function in which scan data is output by the printer 103 in accordance with an instruction from the host computer 102. It is also possible to execute the scan function and the print function by direct instructions to the input support apparatus 101 without using the host computer 102.

<入力支援装置の構成>
図2は、入力支援装置101の説明図である。入力支援装置101の全体構成図を図2(a)に示す。図示のように、入力支援装置101は、コントローラ部201、カメラ部202、腕部203、短焦点のプロジェクタ207、及び距離画像センサ部208を含んで構成される。コントローラ部201、カメラ部202、プロジェクタ207及び距離画像センサ部208は、腕部203により連結されている。腕部203は、関節を用いて曲げ伸ばしが可能なものである。また、入力支援装置101は、文書206が載置される載置台として、書画台204を備える。
<Configuration of input support device>
FIG. 2 is an explanatory diagram of the input support apparatus 101. An overall configuration diagram of the input support apparatus 101 is shown in FIG. As illustrated, the input support apparatus 101 includes a controller unit 201, a camera unit 202, an arm unit 203, a short focus projector 207, and a distance image sensor unit 208. The controller unit 201, the camera unit 202, the projector 207, and the distance image sensor unit 208 are connected by an arm unit 203. The arm part 203 can be bent and stretched using a joint. The input support apparatus 101 includes a document table 204 as a mounting table on which the document 206 is mounted.

カメラ部202及び距離画像センサ部208のレンズは、書画台204方向に向けられており、破線で囲まれた読取領域205内の画像を読み取り可能である。図示の例では、文書206が読取領域205内に置かれている。そのために入力支援装置101は、文書206を読み取り可能となっている。カメラ部202は、単一解像度で画像を撮像するものでもよいが、高解像度画像撮像と低解像度画像撮像が可能である方が好ましい。入力支援装置101には、タッチパネルや及びスピーカが構成として更に含まれていてもよい。   The lenses of the camera unit 202 and the distance image sensor unit 208 are directed toward the document table 204, and can read an image in the reading area 205 surrounded by a broken line. In the illustrated example, the document 206 is placed in the reading area 205. Therefore, the input support apparatus 101 can read the document 206. The camera unit 202 may capture an image with a single resolution, but it is preferable that a high-resolution image capture and a low-resolution image capture are possible. The input support apparatus 101 may further include a touch panel and a speaker as a configuration.

図2(b)は、入力支援装置101における座標系の説明図である。入力支援装置101では、各ハードウェアデバイスに対して、カメラ座標系、距離画像センサ座標系、プロジェクタ座標系という座標系が定義される。これらの座標系は、カメラ部202及び距離画像センサ部208のRGBカメラ363が撮像する画像平面、あるいはプロジェクタ207が投影する画像平面をXY平面とする。そして、画像平面に直交した方向をZ方向として定義したものである。また、これらの独立した座標系の3次元データを統一的に扱えるようにするため、書画台204を含む平面をXY平面とし、このXY平面から上方に垂直な向きをZ軸とする直交座標系を定義する。   FIG. 2B is an explanatory diagram of a coordinate system in the input support apparatus 101. In the input support apparatus 101, a coordinate system such as a camera coordinate system, a distance image sensor coordinate system, and a projector coordinate system is defined for each hardware device. In these coordinate systems, an image plane captured by the RGB camera 363 of the camera unit 202 and the distance image sensor unit 208 or an image plane projected by the projector 207 is an XY plane. The direction orthogonal to the image plane is defined as the Z direction. Further, in order to be able to handle the three-dimensional data of these independent coordinate systems in a unified manner, an orthogonal coordinate system in which a plane including the document table 204 is an XY plane and a direction perpendicular to the XY plane is a Z axis. Define

座標系を変換する場合の例として、図2(c)に直交座標系と、カメラ部202を中心としたカメラ座標系を用いて表現された空間と、カメラ部202が撮像する画像平面との関係を示す。直交座標系における3次元点P[X,Y,Z]は、(式1)によって、カメラ座標系における3次元点Pc[Xc,Yc,Zc]へ変換できる。   As an example of transforming the coordinate system, FIG. 2C illustrates a rectangular coordinate system, a space expressed using a camera coordinate system centered on the camera unit 202, and an image plane captured by the camera unit 202. Show the relationship. The three-dimensional point P [X, Y, Z] in the orthogonal coordinate system can be converted to the three-dimensional point Pc [Xc, Yc, Zc] in the camera coordinate system by (Equation 1).

ここで、Rc及びtcは、直交座標系に対するカメラ部202の姿勢(回転)と位置(並進)によって求まる外部パラメータによって構成される。Rcを3×3の回転行列、tcを並進ベクトルと呼ぶ。逆に、カメラ座標系で定義された3次元点は、(式2)によって、直交座標系へ変換することができる。   Here, Rc and tc are configured by external parameters determined by the posture (rotation) and position (translation) of the camera unit 202 with respect to the orthogonal coordinate system. Rc is called a 3 × 3 rotation matrix, and tc is called a translation vector. Conversely, a three-dimensional point defined in the camera coordinate system can be converted into an orthogonal coordinate system by (Equation 2).

カメラ部202で撮影される2次元のカメラ画像平面は、カメラ部202によって3次元空間中の3次元情報が2次元情報に変換されたものである。すなわち、カメラ座標系上での3次元点Pc[Xc,Yc,Zc]を、(式3)によってカメラ画像平面での2次元座標pc[xp,yp]に透視投影変換することによって変換することができる。   The two-dimensional camera image plane photographed by the camera unit 202 is obtained by converting the three-dimensional information in the three-dimensional space into two-dimensional information by the camera unit 202. That is, the three-dimensional point Pc [Xc, Yc, Zc] on the camera coordinate system is converted by perspective projection conversion to the two-dimensional coordinate pc [xp, yp] on the camera image plane according to (Equation 3). Can do.

ここで、Aは、カメラの内部パラメータと呼ばれ、焦点距離と画像中心などで表現される3×3の行列である。   Here, A is a 3 × 3 matrix called an internal parameter of the camera and expressed by a focal length and an image center.

以上のように、(式1)と(式3)とを用いることで、直交座標系で表された3次元点群を、カメラ座標系での3次元点群座標やカメラ画像平面に変換することができる。
なお、各ハードウェアデバイスの内部パラメータ及び直交座標系に対する位置姿勢(外部パラメータ)は、公知のキャリブレーション手法により、あらかじめキャリブレーションされているものとする。以後、特に断りがなく3次元点群と表記した場合は、直交座標系における3次元データを表しているものとする。
As described above, by using (Equation 1) and (Equation 3), the three-dimensional point group represented by the orthogonal coordinate system is converted into the three-dimensional point group coordinate or the camera image plane in the camera coordinate system. be able to.
It is assumed that the internal parameters of each hardware device and the position and orientation (external parameters) with respect to the orthogonal coordinate system are calibrated in advance by a known calibration method. Hereinafter, when there is no particular notice and it is expressed as a three-dimensional point group, it represents three-dimensional data in an orthogonal coordinate system.

<コントローラ部の構成例>
図3は、入力支援装置101の本体であるコントローラ部201のハードウェア構成例を示す図である。コントローラ部201は、システムバス301に様々な機能部品を接続して構成される。機能部品は、CPU302、RAM303、ROM304、HDD305を基本構成とするコンピュータを含む。CPU(Central Processing Unit)302は、入力支援装置101の制御用プログラムを実行することにより、コントローラ部201の全体動作を制御する。つまり、制御用プログラムは、コンピュータをコントローラ部201ないし入力支援装置101として動作させるためのものである。
RAM(Random Access Memory)303は、揮発性の書き換え可能な記憶媒体であり、CPU302のワークエリアとして機能する。ROM(Read Only Memory)304は、書き換え不能な記憶媒体であり、CPU302の起動用プログラムが格納されている。HDD305は、RAM303と比較して大容量なハードディスクドライブ(HDD)である。HDD305にはコントローラ部201で実行される、入力支援装置101の制御用プログラムが格納されている。なお、HDD305は、SSD(Solid State Drive)等の同等の機能を有する他の記憶装置であってもよい。
<Configuration example of controller unit>
FIG. 3 is a diagram illustrating a hardware configuration example of the controller unit 201 which is the main body of the input support apparatus 101. The controller unit 201 is configured by connecting various functional components to the system bus 301. The functional components include a computer having a CPU 302, a RAM 303, a ROM 304, and an HDD 305 as basic components. A CPU (Central Processing Unit) 302 controls the overall operation of the controller unit 201 by executing a control program of the input support apparatus 101. That is, the control program is for operating the computer as the controller unit 201 or the input support apparatus 101.
A RAM (Random Access Memory) 303 is a volatile rewritable storage medium and functions as a work area of the CPU 302. A ROM (Read Only Memory) 304 is a non-rewritable storage medium, and stores a startup program for the CPU 302. The HDD 305 is a hard disk drive (HDD) having a larger capacity than the RAM 303. The HDD 305 stores a control program for the input support apparatus 101 that is executed by the controller unit 201. The HDD 305 may be another storage device having an equivalent function such as an SSD (Solid State Drive).

システムバス301に接続される機能部品には、ネットワークI/F(I/Fはインタフェースの略、以下同じ)306、画像処理プロセッサ307、カメラI/F308も含まれる。さらに、ディスプレイコントローラ309、シリアルI/F310、オーディオコントローラ311、及びUSB(Universal Serial Bus)コントローラ312も機能部品に含まれる。   Functional components connected to the system bus 301 include a network I / F (I / F is an abbreviation of an interface, the same applies hereinafter) 306, an image processor 307, and a camera I / F 308. Furthermore, a display controller 309, a serial I / F 310, an audio controller 311 and a USB (Universal Serial Bus) controller 312 are also included in the functional components.

CPU302は、入力支援装置101が電源ON等によって起動されると、ROM304に格納されている起動用プログラムを実行する。この起動用プログラムは、HDD305に格納されている制御用プログラムを読み出し、RAM303上に展開するためのものである。CPU302は、起動用プログラムを実行すると、続けてRAM303上に展開した制御用プログラムを実行し、制御を行う。
CPU302は、また、制御用プログラムによる動作に用いるデータもRAM303上に格納して読み書きを行う。HDD305上には、さらに、制御用プログラムによる動作に必要な各種設定や、また、カメラ入力によって生成した画像データを格納することができ、CPU302によって読み書きされる。CPU302は、ネットワークI/F306を介してネットワーク104上の他の機器との通信を行う。
When the input support apparatus 101 is activated when the power is turned on or the like, the CPU 302 executes the activation program stored in the ROM 304. This activation program is for reading a control program stored in the HDD 305 and developing it on the RAM 303. When executing the startup program, the CPU 302 executes the control program developed on the RAM 303 and performs control.
The CPU 302 also stores data used for the operation by the control program on the RAM 303 to read / write. Various settings necessary for operation by the control program and image data generated by camera input can be further stored on the HDD 305 and read / written by the CPU 302. The CPU 302 communicates with other devices on the network 104 via the network I / F 306.

画像処理プロセッサ307は、RAM303に格納された画像データを読み出して所定の画像処理を行い、処理結果をRAM303へ書き戻す。なお、画像処理プロセッサ307が実行する画像処理は、回転、変倍、色変換等である。
カメラI/F308はカメラ部202及び距離画像センサ部208に接続され、CPU302からの指示に応じてカメラ部202から画像データを、距離画像センサ部208から距離画像データを取得してRAM303に書き込む。また、CPU302からの制御コマンドをカメラ部202及び距離画像センサ部208へ送信し、カメラ部202及び距離画像センサ部208の設定を行う。
The image processor 307 reads the image data stored in the RAM 303, performs predetermined image processing, and writes the processing result back to the RAM 303. Note that image processing executed by the image processor 307 includes rotation, scaling, color conversion, and the like.
The camera I / F 308 is connected to the camera unit 202 and the distance image sensor unit 208, and acquires image data from the camera unit 202 and distance image data from the distance image sensor unit 208 in accordance with an instruction from the CPU 302, and writes the acquired image data into the RAM 303. In addition, a control command from the CPU 302 is transmitted to the camera unit 202 and the distance image sensor unit 208 to set the camera unit 202 and the distance image sensor unit 208.

距離画像センサ部208は、赤外線パターン投射方式の距離画像センサであり、赤外線パターン投射部361、赤外線カメラ362、及びRGBカメラ363を備える。赤外線パターン投射部361は、人の目には不可視である赤外線によって3次元測定パターンを対象物に投射する。赤外線カメラ362は、対象物に投射された赤外線の3次元測定パターンを撮像するカメラである。RGBカメラ363は、可視光をRGB信号で撮影するカメラである。第1実施形態では、距離画像センサ部208として赤外線パターン投射方式を採用しているが、他の方式の距離画像センサを用いてもよい。例えば、2つのRGBカメラでステレオ立体視を行うステレオ方式や、レーザ光の飛行時間を検出することで距離を測定するTOF(Time of Flight)方式を用いても良い。   The distance image sensor unit 208 is an infrared pattern projection type distance image sensor, and includes an infrared pattern projection unit 361, an infrared camera 362, and an RGB camera 363. The infrared pattern projection unit 361 projects a three-dimensional measurement pattern onto an object using infrared rays that are invisible to human eyes. The infrared camera 362 is a camera that captures an infrared three-dimensional measurement pattern projected on an object. The RGB camera 363 is a camera that captures visible light with RGB signals. In the first embodiment, an infrared pattern projection method is adopted as the distance image sensor unit 208, but a distance image sensor of another method may be used. For example, a stereo system that performs stereo stereoscopic vision with two RGB cameras, or a TOF (Time of Flight) system that measures distance by detecting the flight time of laser light may be used.

ディスプレイコントローラ309は、CPU302の指示に応じてディスプレイへの画像の表示を制御する。ディスプレイコントローラ309は、短焦点のプロジェクタ207及びタッチパネル330に接続されている。
シリアルI/F310は、シリアル信号の入出力を行う。本実施形態では、シリアルI/F310は、タッチパネル330に接続される。CPU302は、タッチパネル330が押下されたときにシリアルI/F310を介して押下された座標(位置)を取得する。
A display controller 309 controls display of an image on the display in accordance with an instruction from the CPU 302. The display controller 309 is connected to the short-focus projector 207 and the touch panel 330.
The serial I / F 310 inputs and outputs serial signals. In the present embodiment, the serial I / F 310 is connected to the touch panel 330. The CPU 302 acquires the coordinates (position) pressed via the serial I / F 310 when the touch panel 330 is pressed.

オーディオコントローラ311は、スピーカ340に接続される。オーディオコントローラ311は、CPU302の指示に応じて音声データをアナログ音声信号に変換し、スピーカ340を通じて音声を出力する。USBコントローラ312は、CPU302の指示に応じて外付けのUSBデバイスの制御を行う。本例では、USBコントローラ312は、USBメモリやSDカードなどの外部メモリ350に接続され、外部メモリ350へのデータの読み書きを行う。   The audio controller 311 is connected to the speaker 340. The audio controller 311 converts audio data into an analog audio signal in accordance with an instruction from the CPU 302 and outputs audio through the speaker 340. The USB controller 312 controls an external USB device in accordance with an instruction from the CPU 302. In this example, the USB controller 312 is connected to an external memory 350 such as a USB memory or an SD card, and reads / writes data from / to the external memory 350.

<機能構成>
図4〜図6により入力支援装置101の機能について説明する。
図4(a)は、CPU302が制御用プログラムを実行することによりコントローラ部201に形成される機能モジュール群401の構成例示図である。図4(b)は、各機能モジュールの関係を示すシーケンス図である。制御用プログラムは、前述のようにHDD305に格納され、CPU302が起動したときにRAM303上に展開される。
機能モジュール群401のうち、メイン制御部402は制御の中心であり、コントローラ部201を図4(b)に示す手順で制御する。機能モジュール群401には、他に、画像取得部416、認識処理部417、ユーザインタフェース部403、表示部406、ネットワーク通信部404、データ管理部405、及び入力支援部418等がある。図5は、入力支援対象となる文書501の説明図である。図6は、入力支援対象となる文書501が有する入力領域を管理するデータベースを示すテーブル600の例示図である。入力領域は、ユーザが筆記具により文字などを入力可能な領域である。
<Functional configuration>
The functions of the input support apparatus 101 will be described with reference to FIGS.
FIG. 4A is a configuration example diagram of the functional module group 401 formed in the controller unit 201 when the CPU 302 executes a control program. FIG. 4B is a sequence diagram showing the relationship between the functional modules. The control program is stored in the HDD 305 as described above, and is expanded on the RAM 303 when the CPU 302 is activated.
In the functional module group 401, the main control unit 402 is the center of control, and controls the controller unit 201 according to the procedure shown in FIG. In addition, the functional module group 401 includes an image acquisition unit 416, a recognition processing unit 417, a user interface unit 403, a display unit 406, a network communication unit 404, a data management unit 405, an input support unit 418, and the like. FIG. 5 is an explanatory diagram of a document 501 that is an input support target. FIG. 6 is an exemplary diagram of a table 600 showing a database for managing input areas of a document 501 that is an input support target. The input area is an area in which a user can input characters and the like with a writing instrument.

画像取得部416は、画像入力処理を行うモジュールであり、カメラ画像取得部407及び距離画像取得部408を有している。カメラ画像取得部407は、カメラI/F308を介してカメラ部202が出力する画像を取得し、これをRAM303へ格納する。距離画像取得部408は、カメラI/F308を介して距離画像センサ部208が出力する距離画像(距離画像データ)を取得し、これをRAM303へ格納する。距離画像データは、赤外線パターン投射部361からの3次元形状パターンの投射、RGBカメラ363によるRGBカメラ画像、及び赤外線カメラ362によって3次元形状パターンを撮影した赤外線カメラ画像に基づいて生成される。   The image acquisition unit 416 is a module that performs image input processing, and includes a camera image acquisition unit 407 and a distance image acquisition unit 408. The camera image acquisition unit 407 acquires an image output from the camera unit 202 via the camera I / F 308 and stores it in the RAM 303. The distance image acquisition unit 408 acquires a distance image (distance image data) output from the distance image sensor unit 208 via the camera I / F 308 and stores it in the RAM 303. The distance image data is generated based on the projection of the three-dimensional shape pattern from the infrared pattern projection unit 361, the RGB camera image by the RGB camera 363, and the infrared camera image obtained by photographing the three-dimensional shape pattern by the infrared camera 362.

認識処理部417は、カメラ画像取得部407及び距離画像取得部408が取得する画像(画像データ)から書画台204上の文書やユーザの手などの物体を検知して認識する。そのために認識処理部417は、ジェスチャー認識部409及び物体検知部410を有している。
ジェスチャー認識部409は、取得した画像から書画台204上の手の位置、及びタッチなどのユーザのジェスチャーを認識する。具体的には、ジェスチャー認識部409は、画像取得部416から書画台204上の画像を継続的に取得し続ける。ジェスチャー認識部409は、継続して取得した画像から得られる3次元点群及び手の肌色領域から外形検出を行い、検出した外径に基づいて書画台204上の手の位置及びタッチなどのジェスチャーを検知する。ジェスチャー認識部409は、手の位置及びジェスチャーを検知すると、ジェスチャーを検知したことをメイン制御部402に通知する(ジェスチャー検知通知)。
The recognition processing unit 417 detects and recognizes an object such as a document on the document table 204 or a user's hand from images (image data) acquired by the camera image acquisition unit 407 and the distance image acquisition unit 408. For this purpose, the recognition processing unit 417 includes a gesture recognition unit 409 and an object detection unit 410.
The gesture recognition unit 409 recognizes the position of the hand on the document table 204 and the user's gesture such as touch from the acquired image. Specifically, the gesture recognition unit 409 continuously acquires images on the document table 204 from the image acquisition unit 416. The gesture recognizing unit 409 detects an outer shape from a three-dimensional point cloud and a skin color region of a hand obtained from continuously acquired images, and gestures such as a hand position and a touch on the document table 204 based on the detected outer diameter. Is detected. When the gesture recognition unit 409 detects the position and gesture of the hand, it notifies the main control unit 402 that the gesture has been detected (gesture detection notification).

物体検知部410は、物体が置かれて静止するタイミング及び除去されるタイミングを検知する。具体的には、物体検知部410は、画像取得部416から書画台204上の画像を継続的に取得し続け、書画台204上に物体が置かれて静止する静止タイミング及び物体が書画台204から除去される除去タイミングを検知する。物体検知部210は、静止タイミング及び除去タイミングを、書画台204の背景画像と連続する所定フレーム数のカメラフレーム画像との差分値に基づいて検知する。
なお、除去タイミングとは、物体が書画台204上から完全に除去され、書画台204上に何も置かれていない状態になったタイミングのことである。物体検知部410は、静止された物体が置かれていると判定した場合は、最後のカメラフレーム画像を保存する。また、物体検知部410は、距離画像データに基づいて、物体が所定の厚み以下の文書ではなく、所定の厚み以上を有する立体物であると判定した場合は、カメラフレーム画像に加えて、距離画像を3次元点群に変換して保存する。物体が文書か立体物であるかの判定に用いられる物体の厚みの閾値は、設定によって変更可能である。
The object detection unit 410 detects the timing at which an object is placed and stopped and the timing at which the object is removed. Specifically, the object detection unit 410 continuously acquires images on the document table 204 from the image acquisition unit 416, and the stationary timing when the object is placed on the document table 204 and the object is stationary and the object is the document table 204. The removal timing to be removed from is detected. The object detection unit 210 detects a stationary timing and a removal timing based on a difference value between a background image on the document table 204 and a camera frame image having a predetermined number of frames.
The removal timing is a timing at which the object is completely removed from the document table 204 and nothing is placed on the document table 204. If the object detection unit 410 determines that a stationary object is placed, the object detection unit 410 stores the last camera frame image. If the object detection unit 410 determines that the object is not a document having a predetermined thickness or less but a solid object having a predetermined thickness or more based on the distance image data, the object detection unit 410 adds the distance to the camera frame image. The image is converted into a three-dimensional point cloud and saved. The threshold value of the thickness of the object used for determining whether the object is a document or a three-dimensional object can be changed by setting.

また、物体検知部410は、検知された物体が文書であるか、あるいは文書以外の立体物であるかを識別するための物体識別情報を、静止タイミングで同時に生成する。物体識別情報は、距離画像に基づいて、物体の厚みが所定の厚み以下であるか否かの判定によって、文書であるか立体物であるかを識別する情報、例えば上記の物体の厚みの閾値を含む。ここでは、物体検知部410が物体の厚みのみで当該物体の識別を行う例について説明したが、前述したカメラフレーム画像の差分値が所定値以上ある領域が、矩形であるか否かを判定の条件に加えてもよい。物体検知部410は、前述した物体載置の静止タイミング及び除去タイミングを検知すると、物体を検知した旨の通知(物体検知通知)、物体の除去を検知した旨の通知(物体除去検知通知)、及び物体識別情報をメイン制御部402へ送る。メイン制御部402に送られた物体識別情報は、後述するデータ管理部405又はネットワークを介して接続されたサーバ等に保存され、任意のタイミングで読み出される。   Further, the object detection unit 410 simultaneously generates object identification information for identifying whether the detected object is a document or a three-dimensional object other than a document at a stationary timing. The object identification information is information for identifying whether the object is a document or a three-dimensional object by determining whether or not the thickness of the object is equal to or less than a predetermined thickness based on the distance image, for example, the threshold value of the object thickness described above including. Here, the example in which the object detection unit 410 identifies the object only by the thickness of the object has been described, but it is determined whether or not the above-described region where the difference value of the camera frame image is a predetermined value is a rectangle. It may be added to the conditions. When the object detection unit 410 detects the stationary timing and the removal timing of the object placement described above, the notification that the object is detected (object detection notification), the notification that the removal of the object is detected (object removal detection notification), And the object identification information are sent to the main control unit 402. The object identification information sent to the main control unit 402 is stored in a data management unit 405 (to be described later) or a server connected via a network and is read out at an arbitrary timing.

ユーザインタフェース部403は、メイン制御部402からの要求を受け付け、メッセージやボタン等のGUI(Graphical User Interface)部品を生成する。ユーザインタフェース部403は、生成したGUI部品の表示を表示部406に要求する。表示部406は、ディスプレイコントローラ309を介して、プロジェクタ207もしくはタッチパネル330に、要求されたGUI部品の表示を行う。プロジェクタ207は、書画台204に向けて設置されている。そのために、GUI部品は書画台204上に投射される。   The user interface unit 403 receives a request from the main control unit 402 and generates GUI (Graphical User Interface) parts such as messages and buttons. The user interface unit 403 requests the display unit 406 to display the generated GUI component. The display unit 406 displays the requested GUI component on the projector 207 or the touch panel 330 via the display controller 309. The projector 207 is installed toward the document table 204. For this purpose, the GUI component is projected onto the document table 204.

メイン制御部402は、ジェスチャー認識部409が認識したタッチ等のジェスチャー操作、あるいはシリアルI/F310を介したタッチパネル330からの入力操作と、これらのタッチ位置を表す座標を取得する。ユーザインタフェース部403は、描画中の操作画面の内容と入力操作された座標を対応させて操作内容(例えば、押下されたボタン等)を判定する。ユーザインタフェース部403は、この操作内容をメイン制御部402へ通知する。これによりメイン制御部402は、操作者の操作を受け付ける。   The main control unit 402 acquires a gesture operation such as a touch recognized by the gesture recognition unit 409, an input operation from the touch panel 330 via the serial I / F 310, and coordinates representing these touch positions. The user interface unit 403 determines the operation content (for example, a pressed button) by associating the content of the operation screen being drawn with the input coordinate. The user interface unit 403 notifies the main control unit 402 of this operation content. As a result, the main control unit 402 receives the operation of the operator.

ネットワーク通信部404は、ネットワークI/F306を介してネットワーク104上の他の機器と所定の通信プロトコルによる通信を行う。データ管理部405は、機能モジュール群401の動作時に生成された作業データを含む様々なデータをHDD305上の所定の領域へ保存し、管理する。保存されるデータは、例えば画像取得部416で取得した画像データ等である。   The network communication unit 404 communicates with other devices on the network 104 via a network I / F 306 using a predetermined communication protocol. The data management unit 405 stores and manages various data including work data generated during the operation of the functional module group 401 in a predetermined area on the HDD 305. The stored data is, for example, image data acquired by the image acquisition unit 416.

入力支援部418は、ユーザによる文書への入力作業に関わる入力支援処理を実行する。入力支援部418は、文書認識部411、入力領域取得部412、文書位置検出部413、入力領域認識部414、及びレイアウト生成部415を有する。入力支援部418は、メイン制御部402を介して、カメラ画像取得部407や距離画像取得部408が取得した画像データや、ジェスチャー認識部409が認識したジェスチャーを表すジェスチャー情報等の各モジュールの出力データを取得する。   The input support unit 418 executes an input support process related to an input operation for a document by a user. The input support unit 418 includes a document recognition unit 411, an input region acquisition unit 412, a document position detection unit 413, an input region recognition unit 414, and a layout generation unit 415. The input support unit 418 outputs the modules such as image data acquired by the camera image acquisition unit 407 and the distance image acquisition unit 408 and gesture information representing the gesture recognized by the gesture recognition unit 409 via the main control unit 402. Get the data.

文書認識部411は、書画台204上の文書の種類を認識する。具体的には文書認識部411は、カメラ画像取得部407によって取得された画像の特徴点及び特徴量を抽出し、データベース上に予め登録しておいた文書の種類毎の複数の文書画像の特徴点及び特徴量との類似度を比較する。これにより、文書認識部411は、書画台204上の文書が、データベース上のどの文書と一致するかを判定して、文書の種類を認識する。文書認識部411による画像の特徴点及び特徴量の抽出範囲は、カメラ部202によって撮像される読み取り領域205である。なお、文書認識部411は、カメラ画像と背景画像との差分を検出することで、カメラ画像中の文書領域を特定して、文書領域の特徴点及び特徴量のみを抽出するようにしてもよい。特徴点の抽出には、一般的にDoGと呼ばれる技術が用いられ、各特徴点の特徴量の抽出には、一般的にSIFTやSURFと呼ばれる技術が用いられる。   The document recognition unit 411 recognizes the type of document on the document table 204. Specifically, the document recognition unit 411 extracts feature points and feature amounts of the image acquired by the camera image acquisition unit 407, and features of a plurality of document images for each document type registered in advance in the database. Compare the similarity with points and features. Thereby, the document recognition unit 411 determines which document on the document table 204 matches the document on the database, and recognizes the type of the document. An extraction range of feature points and feature amounts of the image by the document recognition unit 411 is a reading area 205 imaged by the camera unit 202. The document recognition unit 411 may detect a difference between the camera image and the background image, specify a document area in the camera image, and extract only feature points and feature amounts of the document area. . A technique called DoG is generally used for extracting feature points, and a technique called SIFT or SURF is generally used for extracting feature quantities of each feature point.

各文書画像の特徴点及び特徴量を関連付けているデータベースは、コントローラ部201のHDD305上あるいはネットワーク104上に設けられる外部サーバ等に格納される。外部サーバに設けられる場合、コントローラ部201は、ネットワーク104を介して外部サーバにアクセスし、当該外部サーバに格納された各文書画像の特徴点及び特徴量を関連付けているデータベースを参照する。文書の認識は、特徴点及び特徴量による方法の他に、予め文書に埋め込まれたバーコードなどを認識する方法により行ってもよい。   A database that associates the feature points and feature amounts of each document image is stored on the HDD 305 of the controller unit 201 or an external server provided on the network 104. When provided in an external server, the controller unit 201 accesses the external server via the network 104 and refers to a database that associates feature points and feature amounts of each document image stored in the external server. Document recognition may be performed by a method of recognizing a barcode or the like embedded in the document in advance, in addition to a method using feature points and feature amounts.

入力領域取得部412は、文書認識部411で認識された文書の種類を表す情報に基づいて、ユーザがボールペン等の筆記具によって入力すべき領域を取得する。入力すべき領域(以後、「入力領域」と呼ぶ。)とは、図5(a)に示す文書501のような申込書において、筆記具によってユーザが実際に手入力で文字を入力する必要がある領域である。図5(a)の例では、グレー色で表された領域が文書501の入力領域502〜510となる。入力領域502〜510は、図5(a)のように、枠線などで囲まれた矩形領域ごとに予め設定される。入力領域の設定は、文書の種類毎に、例えば、ホストコンピュータ102の専用アプリケーションや入力支援装置101の専用アプリケーション等を用いて、入力支援装置101の管理者により行われる。設定された入力領域の情報は、入力支援対象となる文書を管理するデータベースによって管理される。このデータベースは、HDD305に格納され、例えば、図6に示したテーブル600により表される。入力領域取得部412は、文書501と入力領域502〜510を関連付ける図6のデータベースを参照することで、文書501の入力領域502〜510を取得する。   The input area acquisition unit 412 acquires an area to be input by the user with a writing instrument such as a ballpoint pen based on information indicating the type of document recognized by the document recognition unit 411. The area to be input (hereinafter referred to as “input area”) is that the user actually has to manually input characters with a writing instrument in the application form such as the document 501 shown in FIG. It is an area. In the example of FIG. 5A, areas represented in gray are input areas 502 to 510 of the document 501. As shown in FIG. 5A, the input areas 502 to 510 are set in advance for each rectangular area surrounded by a frame line or the like. The input area is set by the administrator of the input support apparatus 101 for each document type using, for example, a dedicated application of the host computer 102 or a dedicated application of the input support apparatus 101. Information on the set input area is managed by a database that manages documents to be input supported. This database is stored in the HDD 305 and is represented by, for example, the table 600 shown in FIG. The input area acquisition unit 412 acquires the input areas 502 to 510 of the document 501 by referring to the database in FIG. 6 that associates the document 501 with the input areas 502 to 510.

図5(a)及び図6の例では、入力領域502は、テーブル600の行601に関連付けられている。入力領域503は、テーブル600の行602に関連付けられている。入力領域504は、テーブル600の行603に関連付けられている。入力領域505は、テーブル600の行604に関連付けられている。入力領域506は、テーブル600の行605に関連付けられている。入力領域507は、テーブル600の行606に関連付けられている。入力領域508は、テーブル600の行607に関連付けられている。入力領域509は、テーブル600の行608に関連付けられている。入力領域510は、テーブル600の行609に関連付けられている。図6では、テーブル600の行610に関連付けられた文書のID(文書ID)が、行601〜609に関連付けられた文書のIDと異なる。即ち、行601〜609で関連付けられた文書とは別の文書の入力領域が、行610に関連付けられている。テーブル600の文書ID列621は、文書毎に固有に割り当てられた文書ID(識別情報)を示す。図5で示した文書501には、例えば、文書IDとして「1」が割り当てられている。   In the example of FIGS. 5A and 6, the input area 502 is associated with the row 601 of the table 600. The input area 503 is associated with the row 602 of the table 600. The input area 504 is associated with the row 603 of the table 600. Input area 505 is associated with row 604 of table 600. Input area 506 is associated with row 605 of table 600. Input area 507 is associated with row 606 of table 600. Input area 508 is associated with row 607 of table 600. Input area 509 is associated with row 608 of table 600. Input area 510 is associated with row 609 of table 600. In FIG. 6, the document ID (document ID) associated with the row 610 of the table 600 is different from the document ID associated with the rows 601 to 609. That is, an input area of a document different from the documents associated with the rows 601 to 609 is associated with the row 610. A document ID column 621 of the table 600 indicates a document ID (identification information) uniquely assigned to each document. For example, “1” is assigned as the document ID to the document 501 shown in FIG.

テーブル600のページ列622は、文書中の入力領域が存在するページ番号を示す。入力領域座標は、各文書の文書座標系(Xd、Yd、Zd)における、矩形の対角の頂点座標を示し、これにより入力領域の範囲を矩形の範囲として指定する。テーブル600の入力済列623は、カメラフレーム画像中の文書の入力領域が、ユーザによって既に入力済みであるか否かを示す。入力済列623が「0」のときは、入力領域にユーザの入力が無い状態(以降、この状態の入力領域を、「未入力領域」と呼ぶ。)を示す。入力済列623が「1」のときは、入力領域にユーザの入力が既にある状態(以降、この状態の入力領域を、「入力済み領域」と呼ぶ。)を示す。入力済列623の詳細については、入力領域認識部414で後述する。   A page column 622 of the table 600 indicates a page number where an input area in the document exists. The input area coordinates indicate the vertex coordinates of the diagonal of the rectangle in the document coordinate system (Xd, Yd, Zd) of each document, thereby designating the range of the input area as a rectangular area. An input column 623 of the table 600 indicates whether or not the input area of the document in the camera frame image has already been input by the user. When the input completed column 623 is “0”, it indicates a state in which there is no user input in the input area (hereinafter, the input area in this state is referred to as “non-input area”). When the input column 623 is “1”, it indicates a state in which the user input is already in the input area (hereinafter, the input area in this state is referred to as “input area”). Details of the input completion column 623 will be described later in the input area recognition unit 414.

文書位置検出部413は、カメラ画像取得部407によって取得されたカメラ画像に基づいて、書画台204の載置面上に載置された文書の位置を検出する。例えば、文書の位置は、図5(b)の直交座標系における文書の左上頂点座標(Xd0、Yd0、0)として表すことができる。プロジェクタ座標系やカメラ座標系における文書の入力領域座標は、文書の左上頂点座標(Xd0、Yd0、0)から直交座標系に変換し、更に前述の変換式を用いることで得ることができる。座標の変換方法については前述の通りである。本実施形態では、簡単のために文書の厚みを「0」とし、文書座標系におけるZd成分を考慮していない。しかし、距離画像取得部408によって距離画像データを取得することで、文書の厚みや歪みを考慮して、プロジェクタ座標系及びカメラ座標系への座標変換をすることも可能である。文書の厚みを考慮した変換方法については公知の技術(特願2014−095541号公報)であるため、ここでの詳細な説明は省略する。   The document position detection unit 413 detects the position of the document placed on the placement surface of the document table 204 based on the camera image acquired by the camera image acquisition unit 407. For example, the position of the document can be expressed as the upper left vertex coordinates (Xd0, Yd0, 0) of the document in the orthogonal coordinate system of FIG. The input area coordinates of the document in the projector coordinate system and the camera coordinate system can be obtained by converting the upper left vertex coordinates (Xd0, Yd0, 0) of the document into the orthogonal coordinate system and further using the above-described conversion formula. The coordinate conversion method is as described above. In this embodiment, for simplicity, the thickness of the document is set to “0”, and the Zd component in the document coordinate system is not considered. However, by acquiring the distance image data by the distance image acquisition unit 408, it is possible to perform coordinate conversion into the projector coordinate system and the camera coordinate system in consideration of the thickness and distortion of the document. Since the conversion method considering the document thickness is a known technique (Japanese Patent Application No. 2014-095541), detailed description thereof is omitted here.

入力領域認識部414は、入力領域取得部412及び文書位置検出部413で取得された入力領域及び文書位置に基づいて、カメラ画像取得部407により取得されたカメラフレーム画像の文書の入力領域に、既に文字などが入力されているか否かを認識する。入力領域が既に入力されているか否かは、背景画像とカメラフレーム画像との差分値に基づいて検出される。入力領域に既に入力がある場合、図6のデータベース上の該当する入力領域の入力済列623を「1」に、入力がない場合、入力済列623を「0」に設定する。入力領域に既に入力があるか否かの検出は、OCR(Optical character recognition)技術を用いて文字認識処理により行ってもよく、差分値に基づいて検出する方法に限らない。   Based on the input area and the document position acquired by the input area acquisition unit 412 and the document position detection unit 413, the input area recognition unit 414 adds the camera frame image document input area acquired by the camera image acquisition unit 407 to the input area of the document. Recognizes whether or not characters have already been input. Whether or not the input area has already been input is detected based on a difference value between the background image and the camera frame image. If there is an input in the input area, the input column 623 of the corresponding input area on the database in FIG. 6 is set to “1”, and if there is no input, the input column 623 is set to “0”. Whether or not there is already an input in the input area may be detected by character recognition processing using OCR (Optical character recognition) technology, and is not limited to a method of detecting based on the difference value.

レイアウト生成部415は、入力領域取得部412、文書位置検出部413、及び入力領域認識部414による入力領域、文書位置、及び入力済列623の情報に基づいて、プロジェクタ207により書画台204上の文書に投射するレイアウト画像を生成する。レイアウト生成部415によるレイアウト画像は、図5(a)の文書501の各入力領域を、例えば赤色などでハイライト表示する。レイアウト生成部415は、入力済列623の情報から入力済みであると判定される入力領域について、入力領域が入力済であることをユーザに示すために、緑色などでハイライト表示するようにレイアウト画像を生成する。生成されたレイアウト画像は表示部406によってプロジェクタ207で投射される。これによってユーザは、入力領域が未入力なのか入力済なのかを一目で判断することができる。該当する入力領域のハイライト表示位置の算出は、文書位置に基づいて入力領域の座標をプロジェクタ座標系に変換することで行われる。座標系の変換については、前述した通りである。入力領域の色については、赤色や緑色に限らず黄色や青色などのどのような色であってもよい。また、本実施形態では入力済の領域を緑色にすることとしたが、未入力の領域のみハイライト表示し、入力済の領域をハイライト表示しないようにレイアウト画像を生成してもよい。また、入力領域全体を塗りつぶして表示するのではなく、入力領域を枠線で囲ってハイライト表示するようにしてもよい。また、入力領域を、色を使ってハイライト表示するのではなく、入力領域の周囲に「入力が必要な箇所です」などの文字情報を表示して入力領域を強調するようにしてもよい。あるいは、入力領域を矢印マークなどの記号で指し示して強調表示するようなレイアウト画像を生成してもよい。このように、レイアウト画像は未入力の入力領域と入力済みの入力領域とを区別可能な入力支援画像である。   The layout generation unit 415 is operated by the projector 207 on the document table 204 based on the information of the input area, the document position, and the input completed column 623 by the input area acquisition unit 412, the document position detection unit 413, and the input region recognition unit 414. A layout image to be projected onto a document is generated. The layout image generated by the layout generation unit 415 highlights each input area of the document 501 in FIG. The layout generation unit 415 performs layout so that the input area determined to be input from the information in the input column 623 is highlighted in green or the like to indicate to the user that the input area has been input. Generate an image. The generated layout image is projected by the projector 207 by the display unit 406. Accordingly, the user can determine at a glance whether the input area is not input or has been input. The calculation of the highlight display position of the corresponding input area is performed by converting the coordinates of the input area into the projector coordinate system based on the document position. The transformation of the coordinate system is as described above. The color of the input area is not limited to red or green, and may be any color such as yellow or blue. In the present embodiment, the input area is green. However, the layout image may be generated so that only the non-input area is highlighted and the input area is not highlighted. Further, instead of filling the entire input area and displaying it, the input area may be highlighted with a frame. Further, instead of highlighting the input area using colors, the input area may be emphasized by displaying character information such as “a place where input is required” around the input area. Alternatively, a layout image may be generated in which the input area is indicated by a symbol such as an arrow mark and highlighted. In this way, the layout image is an input support image that can distinguish between an input area that has not been input and an input area that has already been input.

<メイン制御部>
図7、図8は、メイン制御部402による処理の概要を示すフローチャートである。図9は、プロジェクタ207によるハイライト表示の例示図である。
<Main control unit>
7 and 8 are flowcharts showing an outline of processing by the main control unit 402. FIG. FIG. 9 is an exemplary diagram of highlight display by the projector 207.

メイン制御部402は、処理を開始すると、まず入力支援装置101の初期化処理を行う(S701)。メイン制御部402は、初期化処理により、各ハードウェアの起動確認、カメラ画像取得部407及び距離画像取得部408の色味調整、距離センサ値の補正、書画台204に何も載置されていない状態での背景画像取得などを行う。   When starting the processing, the main control unit 402 first performs initialization processing of the input support apparatus 101 (S701). The main control unit 402 performs initialization processing to confirm activation of each hardware, color adjustment of the camera image acquisition unit 407 and the distance image acquisition unit 408, correction of the distance sensor value, and nothing is placed on the document table 204. Perform background image acquisition in the absence.

メイン制御部402は、ユーザインタフェース部403を介して図9(a)のUI画面をプロジェクタ207で書画台204に投射する(S702)。図9(a)は、書画台204上に何も置かれていない状態を示す。このときメイン制御部402は、プロジェクタ207によりメッセージ902を投射することで、書画台204上にスキャン対象物を置くことをユーザに促す。また、メイン制御部402は、終了アイコン901をプロジェクタ207で投射する。ユーザが書画台204上の終了アイコン901にタッチすることで、ジェスチャー認識部409が終了アイコン901へのタッチ操作を認識し、メイン制御部402の処理が終了する。   The main control unit 402 projects the UI screen of FIG. 9A on the document stage 204 by the projector 207 via the user interface unit 403 (S702). FIG. 9A shows a state where nothing is placed on the document table 204. At this time, the main control unit 402 projects a message 902 from the projector 207 to prompt the user to place a scan object on the document table 204. Further, the main control unit 402 projects an end icon 901 with the projector 207. When the user touches the end icon 901 on the document table 204, the gesture recognition unit 409 recognizes the touch operation on the end icon 901, and the processing of the main control unit 402 ends.

メイン制御部402は、物体検知部410による物体検知通知の有無を判定する(S703)。物体検知部410による物体検知通知は、例えば図9(b)に示すように、ユーザによって書画台204上に文書501が載置されたときに通知される。図9(b)は、ユーザによって、書画台204の載置面上に文書501が載置されたときの状態を示す。なお、図9(b)の文字904及び文字905は、文書501にユーザが事前に入力した文字を表しており、それぞれ入力領域502及び入力領域503に文字が書かれている状態を示している。   The main control unit 402 determines whether or not there is an object detection notification by the object detection unit 410 (S703). The object detection notification by the object detection unit 410 is notified when the document 501 is placed on the document table 204 by the user, for example, as shown in FIG. FIG. 9B shows a state when the document 501 is placed on the placement surface of the document table 204 by the user. Note that the characters 904 and 905 in FIG. 9B represent characters previously input by the user in the document 501 and indicate a state in which characters are written in the input area 502 and the input area 503, respectively. .

物体検知通知があった場合(S703:Y)、メイン制御部402は、物体検知部410によって検知された物体の物体識別情報に基づいて、物体が文書であるか立体物であるかを判定する(S704)。物体が立体物である場合(S704:立体物)、メイン制御部402は、物体が立体物である場合の処理を行う(S705)。立体物が書画台204の載置面上に載置されたときは、例えば、「置かれたものは文書ではありません」などの注意喚起メッセージを書画台204に投射する。あるいは、別のアプリケーションに切り替えるよう示唆するメッセージを投射してもよい。   When there is an object detection notification (S703: Y), the main control unit 402 determines whether the object is a document or a three-dimensional object based on the object identification information of the object detected by the object detection unit 410. (S704). When the object is a three-dimensional object (S704: three-dimensional object), the main control unit 402 performs processing when the object is a three-dimensional object (S705). When the three-dimensional object is placed on the placement surface of the document table 204, for example, a warning message such as “the placed object is not a document” is projected onto the document table 204. Or you may project the message which suggests switching to another application.

物体が文書である場合(S704:文書)メイン制御部402は、ユーザインタフェース部403を介して、プロジェクタ207により書画台204に投射するメッセージを「文書を解析中です。」に更新する(S706)。具体的には、図9(b)のように文書501が書画台204に置かれ、物体検知部410によって文書501が検知されたときに、プロジェクタ207がメッセージ903を投射する。   When the object is a document (S704: document), the main control unit 402 updates the message projected on the document stage 204 by the projector 207 to “document is being analyzed” via the user interface unit 403 (S706). . Specifically, as shown in FIG. 9B, when the document 501 is placed on the document table 204 and the document 501 is detected by the object detection unit 410, the projector 207 projects a message 903.

メイン制御部402は、入力支援部418によって入力支援処理を行う(S707)。S707の処理の詳細については、図8を用いて後述する。メイン制御部402は、入力支援処理で生成されたレイアウト画像を、ユーザインタフェース部403を介してプロジェクタ207により書画台204へ投射する(S708)。また、メイン制御部402は、同時にUI画面のメッセージを更新表示する。入力支援処理で生成されたレイアウト画像の投射表示は、例えば図9(c)の網掛け範囲907及び斜線範囲908のようになる。図9(c)は、入力支援部418により、文書501に対してハイライト表示をしている状態を示す。図9(c)の網掛け範囲907及び斜線範囲908は、プロジェクタ207によるハイライトの投影表示を示している。網掛け範囲907は赤色、斜線範囲908は緑色を用い、プロジェクタ207で入力領域を塗りつぶすように投射したものである。また、メッセージは、ユーザに文書501への入力を促すため、メッセージ906に更新される。   The main control unit 402 performs input support processing by the input support unit 418 (S707). Details of the processing in S707 will be described later with reference to FIG. The main control unit 402 projects the layout image generated by the input support process onto the document stage 204 by the projector 207 via the user interface unit 403 (S708). The main control unit 402 simultaneously updates and displays the UI screen message. The projection display of the layout image generated by the input support process is, for example, a shaded area 907 and a shaded area 908 in FIG. 9C. FIG. 9C shows a state in which the input support unit 418 highlights the document 501. A shaded area 907 and a hatched area 908 in FIG. 9C show the highlight projection display by the projector 207. The shaded area 907 is red and the hatched area 908 is green, and the projector 207 projects the input area so as to fill it. The message is updated to a message 906 to prompt the user to input the document 501.

メイン制御部402は、物体検知部410による物体除去検知通知の有無を判定する(S709)。物体除去検知通知があった場合(S709:Y)、メイン制御部402は、書画台204の載置面上に物体が無いと判断されるため、ユーザインタフェース部403を介して図9(a)の画面をプロジェクタ207により再投射する(S710)。画面の再投射後、メイン制御部402は、ユーザによって書画台204上の終了アイコン901がタッチ押下されたか否かを判定する(S711)。なおメイン制御部402は、物体検知通知がない場合(S703:N)、あるいはS705の処理後にも終了アイコン901がタッチ押下されたか否かを判定する。終了アイコン901がタッチ押下された場合(S711:Y)、メイン制御部402は処理を終了する。そうでなければ(S711:N)、メイン制御部402はS703の処理へ戻る。   The main control unit 402 determines whether or not there is an object removal detection notification by the object detection unit 410 (S709). When there is an object removal detection notification (S709: Y), the main control unit 402 determines that there is no object on the placement surface of the document table 204, and accordingly, FIG. The screen is re-projected by the projector 207 (S710). After re-projecting the screen, the main control unit 402 determines whether or not the user has touched and pressed the end icon 901 on the document table 204 (S711). Note that the main control unit 402 determines whether or not the end icon 901 is touch-pressed when there is no object detection notification (S703: N) or after the processing of S705. When the end icon 901 is touched and pressed (S711: Y), the main control unit 402 ends the process. Otherwise (S711: N), the main control unit 402 returns to the process of S703.

物体除去検知通知がなかった場合(S709:N)、メイン制御部402は、S711の処理と同様に、ユーザによって書画台204上の終了アイコン901がタッチ押下されたか否かを判定する(S712)。終了アイコン901がタッチ押下された場合(S712:Y)、メイン制御部402は処理を終了する。   When there is no object removal detection notification (S709: N), the main control unit 402 determines whether or not the user has touched and pressed the end icon 901 on the document table 204, similarly to the processing of S711 (S712). . When the end icon 901 is touched and pressed (S712: Y), the main control unit 402 ends the process.

終了アイコン901がタッチ押下されない場合(S712:N)、メイン制御部402は、ジェスチャー認識部409によるジェスチャー検知通知の有無を判定する(S713)。ジェスチャー認識部409は、例えば図9(d)のときにユーザのジェスチャーを検知して、ジェスチャー検知通知をメイン制御部402に通知する。図9(d)は、ユーザが筆記具(例えばボールペン)によって文書501に入力している状態を示す。図9(d)の手909は、ユーザの左手及び右手を示しており、左手で文書501を押さえ、右手に持った筆記具により入力領域504に文字を入力している状態を表している。ジェスチャー検知通知がない場合(S713:Y)、メイン制御部402はS709の処理へ戻る。   When the end icon 901 is not touched and pressed (S712: N), the main control unit 402 determines the presence or absence of a gesture detection notification by the gesture recognition unit 409 (S713). The gesture recognizing unit 409 detects the user's gesture at the time of FIG. 9D, for example, and notifies the main control unit 402 of a gesture detection notification. FIG. 9D shows a state in which the user is inputting to the document 501 using a writing instrument (for example, a ballpoint pen). A hand 909 in FIG. 9D shows the user's left hand and right hand, and represents a state in which a character 501 is pressed with the left hand and characters are input into the input area 504 with a writing instrument held in the right hand. When there is no gesture detection notification (S713: Y), the main control unit 402 returns to the process of S709.

ジェスチャー検知通知があった場合(S713:Y)、メイン制御部402は、検知されたジェスチャーが文書入力に関連するジェスチャーであるか否かを判定する(S714)。文書入力に関連するジェスチャーは、ユーザの手が書画台204上の文書501の入力領域に所定時間以上触れていたか否かにより判定される。例えば、図9(d)のユーザの手909が、文書501の入力領域504、505に3秒以上置かれていた場合、ユーザの手が所定時間以上触れていると判定される。ただし、所定時間は設定によって変えることができ、3秒に限るものではない。なお、本実施形態では手909が入力領域に所定時間以上触れていた場合で入力を判定しているが、単に手909が文書501の領域と重なった場合に文書入力に関連するジェスチャーであると判定してもよい。ジェスチャーが文書入力に関連しない場合(S714:N)、メイン制御部402はS709の処理へ戻る。   When there is a gesture detection notification (S713: Y), the main control unit 402 determines whether or not the detected gesture is a gesture related to document input (S714). The gesture related to document input is determined by whether or not the user's hand has touched the input area of the document 501 on the document table 204 for a predetermined time or more. For example, when the user's hand 909 in FIG. 9D is placed in the input areas 504 and 505 of the document 501 for 3 seconds or more, it is determined that the user's hand is touching for a predetermined time or more. However, the predetermined time can be changed by setting and is not limited to 3 seconds. In this embodiment, the input is determined when the hand 909 has touched the input area for a predetermined time or more. However, when the hand 909 overlaps the area of the document 501, the gesture is related to document input. You may judge. When the gesture is not related to document input (S714: N), the main control unit 402 returns to the process of S709.

ジェスチャーが文書入力に関連する場合(S714:Y)、メイン制御部402は、S713で検知されたユーザによるジェスチャーが終了しているか否かを判定する(S715)。ジェスチャーが終了している状態とは、具体的には書画台204上からユーザの手909が無くなっている状態である。ジェスチャーが終了している場合(S715:Y)、メイン制御部402はS706の処理へ戻る。ジェスチャーが終了していない場合(S715:Y)、メイン制御部402はジェスチャーが終了するまでS715の処理をループして行う。S715の処理でジェスチャーの終了を判定するのは、S707の入力支援処理において、再度カメラフレーム画像を取得して文書認識を行うためである。ジェスチャーが終了していない状態で入力支援処理を開始すると、カメラフレーム画像に手が写り込んでしまい、正しく文書認識ができない可能性があり、文書認識が正確に行えないことがある。   When the gesture is related to document input (S714: Y), the main control unit 402 determines whether or not the user's gesture detected in S713 has ended (S715). The state in which the gesture has ended is specifically a state in which the user's hand 909 has disappeared from the document table 204. If the gesture has ended (S715: Y), the main control unit 402 returns to the process of S706. If the gesture has not ended (S715: Y), the main control unit 402 loops the process of S715 until the gesture ends. The reason for determining the end of the gesture in the process of S715 is to acquire a camera frame image again and perform document recognition in the input support process of S707. If the input support process is started in a state where the gesture has not ended, a hand may appear in the camera frame image, and document recognition may not be performed correctly, and document recognition may not be performed accurately.

図9(e)及び図9(f)は、図9(d)のようなジェスチャーが終了した後、つまりS715の処理の後の書画台204上の状態を表している。図9(e)は、図9(d)でユーザが文字入力を行った後、手909を文書501から離したときの書画台204上の状態を示し、S706の処理によってUI画面が更新されたときの表示である。図9(e)の文字911は、図9(d)の画面でユーザが入力を行った結果として見える文字である。図9(f)は、メイン制御部402及び入力支援部418によるS707及びS708の処理によって、図9(e)の文書501を再びハイライト表示したときの状態を示す。図9(f)の網掛け範囲913及び斜線範囲914は、プロジェクタ207によるハイライトの投影表示を示している。図9(f)では、図9(c)の網掛け範囲907及び斜線範囲908と異なり、ユーザの文字911の入力によって、入力領域504の分だけ未入力を示す網掛け範囲が小さくなり、入力済を示す斜線範囲が大きくなったことを表している。   FIGS. 9E and 9F show the state on the document table 204 after the gesture as shown in FIG. 9D ends, that is, after the process of S715. FIG. 9 (e) shows the state on the document table 204 when the hand 909 is released from the document 501 after the user inputs characters in FIG. 9 (d), and the UI screen is updated by the processing of S706. This is the display when A character 911 in FIG. 9E is a character that can be seen as a result of input by the user on the screen in FIG. 9D. FIG. 9F shows a state when the document 501 in FIG. 9E is highlighted again by the processing of S707 and S708 by the main control unit 402 and the input support unit 418. A shaded area 913 and a shaded area 914 in FIG. 9F show the highlight display by the projector 207. In FIG. 9 (f), unlike the shaded range 907 and the shaded range 908 in FIG. 9 (c), the shaded range indicating non-input by the input area 504 is reduced by the input of the character 911 by the user. This indicates that the shaded area indicating completion has increased.

S713〜S715の処理は、文書501の状態が変化したことに応じて、S707の入力支援処理をユーザの手を煩わせることなく自動で実行するための処理である。文書501の状態変化は、例えば文書501がボールペンなどにより入力されたこと、文書の位置が移動されたことなども含まれる。従って、S713〜S715の処理でジェスチャーに基づいて状態変化を検知するのではなく、文書501の位置座標が変化したことをカメラフレーム画像に基づいて検知することで、文書501の状態が変化したと判定してもよい。また、S707の入力支援処理を自動で実行するのではなく、書画台204上に投影表示された入力支援処理の実行ボタン(不図示)をユーザがタッチ押下し、手動で実行するようにしてもよい。   The processes in S713 to S715 are processes for automatically executing the input support process in S707 without bothering the user according to the change in the state of the document 501. The state change of the document 501 includes, for example, that the document 501 is input with a ballpoint pen or the like, the position of the document is moved, and the like. Accordingly, it is assumed that the state of the document 501 has changed by detecting that the position coordinate of the document 501 has changed based on the camera frame image, instead of detecting the state change based on the gesture in the processing of S713 to S715. You may judge. Further, instead of automatically executing the input support processing in S707, the user may touch and press an input support processing execution button (not shown) projected and displayed on the document table 204 to execute it manually. Good.

<入力支援処理>
図8は、S707の入力支援処理を示すフローチャートである。図10は、文書501の入力領域を管理するデータベースを示すテーブルの例示図である。
<Input support processing>
FIG. 8 is a flowchart showing the input support process of S707. FIG. 10 is an example of a table showing a database that manages the input area of the document 501.

メイン制御部402は、カメラ画像取得部407からカメラフレーム画像を取得する(S801)。メイン制御部402は、例えば、図9(b)の画面を、以後の処理を行うためのカメラフレーム画像として取得する。メイン制御部402は文書認識部411により、取得したカメラフレーム画像に基づいて書画台204上の文書501を認識する(S802)。文書認識部411の認識処理は前述の通りである。   The main control unit 402 acquires a camera frame image from the camera image acquisition unit 407 (S801). For example, the main control unit 402 acquires the screen of FIG. 9B as a camera frame image for performing subsequent processing. The main control unit 402 causes the document recognition unit 411 to recognize the document 501 on the document table 204 based on the acquired camera frame image (S802). The recognition process of the document recognition unit 411 is as described above.

メイン制御部402は、文書認識部411により書画台204上の文書501の画像とデータベースに登録された文書画像の類似度を判定し、文書501が入力支援対象であるか否かを判定する(S803)。文書501が入力支援対象である場合(S803:Y)、メイン制御部402は、入力領域取得部412により文書501の入力領域を取得する(S804)。入力領域取得部412は、例えば、図9(b)の入力領域502〜510を取得する。入力領域取得部412の処理は前述の通りである。メイン制御部402は、文書位置検出部413により、カメラフレーム画像に基づいて書画台204の載置面上の文書の位置を検出する(S805)。文書位置検出部413の処理については前述の通りである。   The main control unit 402 determines the similarity between the image of the document 501 on the document table 204 and the document image registered in the database by the document recognition unit 411, and determines whether the document 501 is an input support target ( S803). When the document 501 is an input support target (S803: Y), the main control unit 402 acquires the input area of the document 501 by the input area acquisition unit 412 (S804). The input area acquisition unit 412 acquires, for example, the input areas 502 to 510 in FIG. 9B. The processing of the input area acquisition unit 412 is as described above. The main control unit 402 uses the document position detection unit 413 to detect the position of the document on the placement surface of the document table 204 based on the camera frame image (S805). The processing of the document position detection unit 413 is as described above.

メイン制御部402は、入力領域認識部414により取得された文書501の入力領域と文書位置検出部413により検出された文書位置に基づいて、カメラフレーム画像上の文書の入力領域に、文字などの入力があるか否かを認識する(S806)。例えば、図9(b)の入力領域502及び入力領域503には、ユーザによってそれぞれ「JAPAN」(文字904)と「Hakusan」(文字905)が入力されている。このとき、入力領域認識部414は、入力領域502及び入力領域503に文字904及び文字905が入力されていることを認識する。これにより入力領域認識部414は、入力領域502及び入力領域503が入力済であると判定する。この判定結果に応じて、図6のデータベースが図10(a)のように更新される。具体的には、入力領域502及び入力領域503の情報を示す図6の行601、602の入力済列623が、図10(a)の行1001、1002の入力済列651のように入力済であることを示す「1」に更新される。入力領域認識部414の処理については前述の通りである。   Based on the input region of the document 501 acquired by the input region recognition unit 414 and the document position detected by the document position detection unit 413, the main control unit 402 adds characters or the like to the input region of the document on the camera frame image. It is recognized whether there is an input (S806). For example, “JAPAN” (character 904) and “Hakusan” (character 905) are input to the input area 502 and the input area 503 in FIG. At this time, the input area recognition unit 414 recognizes that the characters 904 and 905 are input to the input area 502 and the input area 503. Thereby, the input area recognition unit 414 determines that the input area 502 and the input area 503 have been input. In accordance with this determination result, the database of FIG. 6 is updated as shown in FIG. Specifically, the input columns 623 in the rows 601 and 602 in FIG. 6 indicating the information of the input area 502 and the input area 503 have been input as the input columns 651 in the rows 1001 and 1002 in FIG. It is updated to “1” indicating that The processing of the input area recognition unit 414 is as described above.

データベースの更新後、メイン制御部402は、レイアウト生成部415により、文書位置及びS806で更新されたデータベースに基づいてハイライト表示用のレイアウト画像を生成する(S807)。なおメイン制御部402は、文書501が入力支援対象ではない場合にも(S803:Y)、ハイライト表示用のレイアウト画像を生成する。図10(a)のデータベースによれば、行1001、1002により文書501の入力領域502及び入力領域503が入力済であると判別される。そのためにレイアウト生成部415は、入力領域502、503を緑色に、それ以外の入力領域504〜510を赤色にハイライトするようなレイアウト画像を生成する。具体的には、レイアウト生成部415は、図9(c)の網掛け範囲907及び斜線範囲908のように、ハイライト表示するレイアウト画像を生成する。レイアウト生成部415の処理については前述の通りである。図9(e)のように入力領域504に文字911が追記された場合、前述のS806の処理によって図10(b)のようにデータベースの行1003が更新される。このとき、ハイライト表示するためのレイアウト画像は、図9(f)の網掛け範囲913及び斜線範囲914のようになる。   After updating the database, the main controller 402 causes the layout generator 415 to generate a highlight display layout image based on the document position and the database updated in S806 (S807). The main control unit 402 generates a layout image for highlight display even when the document 501 is not an input support target (S803: Y). According to the database in FIG. 10A, it is determined that the input area 502 and the input area 503 of the document 501 are already input based on the lines 1001 and 1002. For this purpose, the layout generation unit 415 generates a layout image that highlights the input areas 502 and 503 in green and the other input areas 504 to 510 in red. Specifically, the layout generation unit 415 generates a layout image to be highlighted as in the shaded area 907 and the shaded area 908 in FIG. The processing of the layout generation unit 415 is as described above. When a character 911 is additionally written in the input area 504 as shown in FIG. 9E, the database row 1003 is updated as shown in FIG. 10B by the processing of S806 described above. At this time, the layout image for highlight display is as shown by the shaded area 913 and the hatched area 914 in FIG.

以上のように、本実施形態の入力支援装置101は、書画台204の載置面上に載置された文書501へのユーザによる入力状況に合わせて、入力支援のための画面を投射する。そのためにユーザは、文書中の入力すべき箇所を適切に把握することができる。また、入力支援装置101は、ユーザの入力作業状態を判定して、自動で入力状況を判定するために、ユーザに手間を煩わせることなく、随時、入力支援のための表示を更新することができる。   As described above, the input support apparatus 101 according to the present embodiment projects a screen for input support in accordance with the input status of the document 501 placed on the placement surface of the document table 204 by the user. Therefore, the user can appropriately grasp the place to be input in the document. In addition, the input support apparatus 101 can update the display for input support at any time without bothering the user in order to determine the input work state of the user and automatically determine the input status. it can.

[第2実施形態]
第2実施形態の入力支援装置は、文書入力の進捗状況に応じて、文書入力の抜け漏れをユーザに明示する。入力支援装置101のハードウェア構成及び機能ブロックは、第1実施形態と同様であるために説明を省略する。
[Second Embodiment]
The input support apparatus according to the second embodiment clearly indicates to the user that omissions in document input occur according to the progress of document input. Since the hardware configuration and functional blocks of the input support apparatus 101 are the same as those in the first embodiment, description thereof is omitted.

図11は、第2実施形態の、図7の入力支援処理(S707)のフローチャートである。入力支援処理の前後の処理については図7に示す第1実施形態の処理と同様であるために説明を省略する。図12は、プロジェクタ207によるハイライト表示の例示図である。   FIG. 11 is a flowchart of the input support process (S707) of FIG. 7 according to the second embodiment. The processes before and after the input support process are the same as those in the first embodiment shown in FIG. FIG. 12 is a view showing an example of highlight display by the projector 207.

メイン制御部402は、入力支援処理を開始すると、図8のS801〜S806と同様の処理により、文書の入力領域に文字などの入力があるか否かを認識する(S801〜S806)。
メイン制御部402は、入力支援部418により、ユーザによる文書への入力状況を判定する(S1101)。具体的には入力支援部418は、図10(a)のデータベースの行1001、1002によって、文書501の2箇所の入力領域が入力済であると判定する。文書501は9箇所の入力領域502〜510を有するため、入力支援部418は、データベースに基づいて、全体として9箇所中2箇所(2/9)の入力領域が入力済であると、入力状況を判定する。
When the input support process is started, the main control unit 402 recognizes whether there is an input of characters or the like in the input area of the document by the same process as S801 to S806 in FIG. 8 (S801 to S806).
The main control unit 402 uses the input support unit 418 to determine the input status of the document by the user (S1101). Specifically, the input support unit 418 determines that two input areas of the document 501 have been input based on the rows 1001 and 1002 of the database in FIG. Since the document 501 has nine input areas 502 to 510, the input support unit 418 determines that the input state of two (9/9) input areas as a whole has been input based on the database. Determine.

メイン制御部402は、レイアウト生成部415により、文書位置、データベース、及び入力状況の判定結果に基づいてハイライト表示用のレイアウト画像を生成する(S1102)。具体的にはレイアウト生成部415は、第1実施形態で生成したレイアウト画像に、図12(a)のメッセージ1201のような入力状況の判定結果を追加して、ハイライト表示用のレイアウト画像を生成する。同様に、図12(b)では、図10(b)のデータベースに基づく入力状況の判定結果を表すメッセージ1202を第1実施形態で生成したレイアウト画像に追加して、ハイライト表示用のレイアウト画像を生成する。図12の例では、入力状況を分数表示しているが、これはパーセント表示であってもよく、全体の入力領域のうちどこまで入力済みであるかの表現方法はこれに限るものではない。   The main control unit 402 causes the layout generation unit 415 to generate a layout image for highlight display based on the determination result of the document position, the database, and the input status (S1102). Specifically, the layout generation unit 415 adds an input status determination result such as the message 1201 in FIG. 12A to the layout image generated in the first embodiment, and creates a layout image for highlight display. Generate. Similarly, in FIG. 12B, a message 1202 representing the determination result of the input status based on the database of FIG. 10B is added to the layout image generated in the first embodiment, and the layout image for highlight display is displayed. Is generated. In the example of FIG. 12, the input status is displayed as a fraction, but this may be displayed as a percentage, and the method of expressing how far the entire input area has been input is not limited to this.

以上のように、第2実施形態では、第1実施形態の効果に加えてS1101の入力状況判定処理を用いることで、ユーザが文書に全体としてどの程度まで入力しているかが認識しやすくなる。従って、ユーザは、入力に必要な大まかな作業時間を把握することができる。また、この入力支援装置は、どこまで入力が済んでおり、未入力の領域がいくつあるかを数値として明示するために、入力漏れを未然に防止することができる。   As described above, in the second embodiment, in addition to the effects of the first embodiment, it is easy to recognize how much the user has input to the document as a whole by using the input status determination processing in S1101. Therefore, the user can grasp the rough work time required for input. In addition, this input support apparatus clearly indicates how far the input has been completed and how many non-input areas are present as numerical values, so that input leakage can be prevented in advance.

[第3実施形態]
第3実施形態の入力支援装置は、ユーザが文書に入力している際に、プロジェクタ207の表示を入力の妨げにならないように動的に制御する。入力支援装置101のハードウェア構成及び機能ブロックは、第1実施形態と同様であるために説明を省略する。
[Third Embodiment]
The input support apparatus according to the third embodiment dynamically controls the display of the projector 207 so as not to interfere with input when the user is inputting a document. Since the hardware configuration and functional blocks of the input support apparatus 101 are the same as those in the first embodiment, description thereof is omitted.

図13は、メイン制御部402による処理の概要を示すフローチャートである。図14は、プロジェクタ207によるハイライト表示の例示図である。図13のS701〜S713、S715の処理は、図7のS701〜S713、S715と同様の処理であるために説明を省略する。   FIG. 13 is a flowchart showing an outline of processing by the main control unit 402. FIG. 14 is a view showing an example of highlight display by the projector 207. The processes in S701 to S713 and S715 in FIG. 13 are the same as S701 to S713 and S715 in FIG.

メイン制御部402は、ジェスチャー認識部409によるジェスチャー検知通知があった場合(S713:Y)、ユーザの手909が、図14(a)に例示するように文書501の入力領域502〜510の近傍にあるか否かを判定する(S1301)。入力領域502〜510の近傍であるか否かの判断は、例えば手909の輪郭線と文書501上の各入力領域502〜510の外枠線との最短距離が所定の距離以内、例えば3[cm]以内であるか否かにより行われる。手909の輪郭線は、カメラフレーム画像に写る手909の領域の輪郭線である。最短距離が3[cm]以内であるか否かの判定は、カメラフレーム画像を解析することで行われる。例えば図14(a)では、手909の近傍にある領域が、手909の輪郭線と各入力領域502〜510との最短距離を算出することで判定される。最短距離が3[cm]以内にある入力領域502〜505が手909の近傍にあると判定される。ただし、近傍にあるか否かの判断基準となる値は変更可能であり、3[cm]に限るものではない。   When there is a gesture detection notification by the gesture recognizing unit 409 (S713: Y), the main control unit 402 has the user's hand 909 in the vicinity of the input areas 502 to 510 of the document 501 as illustrated in FIG. It is determined whether or not (S1301). The determination as to whether or not the area is in the vicinity of the input areas 502 to 510 is made, for example, when the shortest distance between the outline of the hand 909 and the outer frame line of each input area 502 to 510 on the document 501 is within a predetermined distance, for example 3 [ cm] or less. The contour line of the hand 909 is the contour line of the region of the hand 909 that appears in the camera frame image. Whether or not the shortest distance is within 3 [cm] is determined by analyzing a camera frame image. For example, in FIG. 14A, an area near the hand 909 is determined by calculating the shortest distance between the contour line of the hand 909 and each of the input areas 502-510. It is determined that the input areas 502 to 505 having the shortest distance within 3 [cm] are in the vicinity of the hand 909. However, the value used as a criterion for determining whether or not the object is in the vicinity can be changed, and is not limited to 3 [cm].

手909が入力領域502〜510のいずれの近傍にもない場合(S1301:N)、メイン制御部402は、S709以降の処理を繰り返し行う。手909が入力領域502〜510のいずれかの近傍である場合(S1301:Y)、メイン制御部402は、手909と各入力領域502〜510との距離とに応じて、プロジェクタ207による投影表示の変更処理を行う(S1302)。メイン制御部402は、プロジェクタ207による表示を変更することで、網掛け範囲1402のハイライト表示を残しつつ、手909の近傍であると判定された入力領域502〜505に投射されていたハイライト表示を消去する。つまり、手909の近傍であると判定された入力領域502〜505への表示が目立たなくなるように入力支援画像を変更する。これによりユーザは、プロジェクタ207の投射光に妨げられることなく、文書501への入力を行うことができる。また、図14(b)の枠線1403のように、塗りつぶして表示していたハイライト領域を、枠線だけ残すように変更してもよい。これにより、入力箇所をユーザに示しつつ、プロジェクタ207の投射光による入力作業の妨げを軽減することができる。   When the hand 909 is not in the vicinity of any of the input areas 502 to 510 (S1301: N), the main control unit 402 repeatedly performs the processes after S709. When the hand 909 is in the vicinity of any one of the input areas 502 to 510 (S1301: Y), the main control unit 402 performs projection display by the projector 207 according to the distance between the hand 909 and each of the input areas 502 to 510. Is changed (S1302). The main control unit 402 changes the display by the projector 207 to leave the highlight display of the shaded area 1402 while highlighting the input areas 502 to 505 determined to be in the vicinity of the hand 909. Clear the display. That is, the input support image is changed so that the display in the input areas 502 to 505 determined to be in the vicinity of the hand 909 becomes inconspicuous. Thereby, the user can input the document 501 without being interrupted by the projection light of the projector 207. Further, as shown by a frame line 1403 in FIG. 14B, the highlighted area that has been painted and displayed may be changed so that only the frame line remains. Accordingly, it is possible to reduce the hindrance to the input work due to the projection light of the projector 207 while showing the input location to the user.

以上のように、第3実施形態では、第1実施形態の効果に加え、手の近傍判定及びプロジェクタ207による表示変更により、プロジェクタ207の投射による入力作業の妨げを軽減することができる。また、第3実施形態と第2実施形態とを組み合わせてもよい。   As described above, in the third embodiment, in addition to the effects of the first embodiment, it is possible to reduce the hindrance of input work due to the projection of the projector 207 by determining the vicinity of the hand and changing the display by the projector 207. Moreover, you may combine 3rd Embodiment and 2nd Embodiment.

(その他の実施例)
また、本発明は、以下の処理を実行することによっても実現される。即ち、前述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other examples)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program. It is a process to be executed.

101…入力支援装置、201…コントローラ部、202…カメラ部、204…操作平面、207…プロジェクタ、208…距離画像センサ部、330…タッチパネル、402…メイン制御部、409…ジェスチャー認識部、420…タッチパネルイベント検知部   DESCRIPTION OF SYMBOLS 101 ... Input support device 201 ... Controller part 202 ... Camera part 204 ... Operation plane 207 ... Projector 208 ... Distance image sensor part 330 ... Touch panel 402 ... Main control part 409 ... Gesture recognition part 420 ... Touch panel event detector

Claims (11)

文書が載置される載置面を撮像した画像を取得する画像取得手段と、
前記画像取得手段で取得した前記画像から、前記文書が有する、筆記具により入力される入力領域を取得する入力領域取得手段と、
取得した前記入力領域が入力済みであるか否かを認識する入力領域認識手段と、
入力済みの入力領域と未入力の入力領域とを区別する入力支援画像を生成するレイアウト生成手段と、
前記入力支援画像を前記載置面に表示する表示手段と、を備えることを特徴とする、
入力支援装置。
Image acquisition means for acquiring an image obtained by imaging a placement surface on which a document is placed;
From the image acquired by the image acquisition means, the document has an input area acquisition means for acquiring an input area input by a writing instrument,
Input area recognition means for recognizing whether or not the acquired input area has been input;
Layout generating means for generating an input support image that distinguishes an input area that has been input from an input area that has not been input;
Display means for displaying the input support image on the placement surface, characterized in that,
Input support device.
前記画像取得手段で取得した前記画像に基づいて、前記載置面上に載置された前記文書の位置を検出する文書位置検出手段を備えており、
前記表示手段は、前記文書位置検出手段により検出された前記載置面上の前記文書の位置に応じた位置に、前記入力支援画像を表示することを特徴とする、
請求項1記載の入力支援装置。
Based on the image acquired by the image acquisition means, comprising a document position detection means for detecting the position of the document placed on the placement surface,
The display means displays the input support image at a position corresponding to the position of the document on the placement surface detected by the document position detection means.
The input support apparatus according to claim 1.
前記文書の種類毎の複数の文書画像が登録される登録手段と、
前記文書の種類毎に設定される前記入力領域の情報を格納する格納手段と、
前記登録手段に登録される前記複数の文書画像と前記画像取得手段で取得した前記画像とを比較することで、前記載置面に載置された前記文書の種類を認識する文書認識手段と、を備えており、
前記入力領域取得手段は、前記格納手段を参照して、前記文書認識手段で認識した前記文書の種類に応じた前記入力領域を取得することを特徴とする、
請求項1又は2記載の入力支援装置。
Registration means for registering a plurality of document images for each document type;
Storage means for storing information on the input area set for each type of the document;
A document recognition unit that recognizes the type of the document placed on the placement surface by comparing the plurality of document images registered in the registration unit and the image acquired by the image acquisition unit; With
The input area acquisition means refers to the storage means, and acquires the input area according to the type of the document recognized by the document recognition means.
The input support apparatus according to claim 1 or 2.
前記入力領域認識手段は、前記入力領域取得手段で取得した前記入力領域及び前記文書位置検出手段で検出した前記文書の位置に基づいて、前記画像取得手段で取得した前記画像に含まれる前記文書の入力領域が入力済みであるか否かを認識することを特徴とする、
請求項2又は3記載の入力支援装置。
The input area recognizing means, based on the input area acquired by the input area acquiring means and the position of the document detected by the document position detecting means, of the document included in the image acquired by the image acquiring means. Recognizing whether or not the input area has been input,
The input support apparatus according to claim 2 or 3.
前記画像取得手段で継続的に取得した前記画像に基づいて、ユーザのジェスチャーを認識するジェスチャー認識手段を備えており、
前記レイアウト生成手段は、前記ジェスチャーが入力に関連する場合、ジェスチャーが終了した後に前記入力支援画像を更新し、
前記表示手段は、更新された入力支援画像を前記載置面に表示することを特徴とする、
請求項1〜4のいずれか1項記載の入力支援装置。
Based on the image continuously acquired by the image acquisition means, comprising a gesture recognition means for recognizing a user's gesture,
When the gesture is related to input, the layout generation unit updates the input support image after the gesture ends,
The display means displays the updated input support image on the placement surface,
The input support device according to claim 1.
前記文書が有する前記入力領域の数と、前記入力済みの入力領域の数とに基づいて該文書への入力状況を判定する入力支援手段を備えており、
前記レイアウト生成手段は、前記入力状況の判定結果を含む前記入力支援画像を生成することを特徴とする、
請求項1〜5のいずれか1項記載の入力支援装置。
An input support means for determining an input status to the document based on the number of the input areas of the document and the number of input areas already input;
The layout generation means generates the input support image including a determination result of the input situation,
The input support device according to claim 1.
前記画像取得手段で取得した前記画像に基づいて、前記入力領域とユーザの手とが所定の距離以内であるか否かを判定する判定手段を備えており、
前記レイアウト生成手段は、前記入力領域と前記ユーザの手とが前記所定の距離以内である場合に、前記ユーザの手との距離が前記所定の距離以内の入力領域が目立たなくなるように前記入力支援画像を変更することを特徴とする、
請求項1〜6のいずれか1項記載の入力支援装置。
Based on the image acquired by the image acquisition means, comprising a determination means for determining whether the input area and the user's hand are within a predetermined distance;
The layout generation means is configured to provide the input support so that an input area whose distance from the user's hand is within the predetermined distance becomes inconspicuous when the input area and the user's hand are within the predetermined distance. Characterized by changing the image,
The input support apparatus according to claim 1.
前記表示手段は、前記載置面上の前記文書の位置に前記入力支援画像を投射するプロジェクタであることを特徴とする、
請求項1〜7のいずれか1項記載の入力支援装置。
The display means is a projector that projects the input support image onto the position of the document on the placement surface.
The input support apparatus according to claim 1.
文書が載置される載置面を撮像する撮像手段と、前記載置面に画像を表示する表示手段と、を備える情報処理装置により実行される方法であって、
前記撮像手段で撮像した画像から、前記文書が有する、筆記具により入力される入力領域を取得し、
取得した前記入力領域が入力済みであるか否かを認識し、
入力済みの入力領域と未入力の入力領域とを区別する入力支援画像を生成し、
生成した前記入力支援画像を前記表示手段により前記載置面に表示することを特徴とする、
入力支援方法。
A method executed by an information processing apparatus comprising: an imaging unit that images a placement surface on which a document is placed; and a display unit that displays an image on the placement surface.
From the image captured by the imaging means, obtain an input area that is input by the writing instrument of the document,
Recognizing whether the acquired input area has been input,
Generate an input support image that distinguishes input areas that have already been input from input areas that have not been input,
The generated input support image is displayed on the placement surface by the display means,
Input support method.
文書が載置される載置面を撮像する撮像手段を備えるコンピュータを、
前記撮像手段で撮像した画像を取得する画像取得手段、
前記画像取得手段で取得した前記画像から、前記文書が有する、筆記具により入力される入力領域を取得する入力領域取得手段、
取得した前記入力領域が入力済みであるか否かを認識する入力領域認識手段、
入力済みの入力領域と未入力の入力領域とを区別する入力支援画像を生成するレイアウト生成手段、
前記入力支援画像を前記載置面に表示する表示手段、
として機能させるための制御用プログラム。
A computer comprising an imaging means for imaging a placement surface on which a document is placed;
Image acquisition means for acquiring an image captured by the imaging means;
An input area acquisition means for acquiring an input area input by a writing instrument from the image acquired by the image acquisition means;
Input area recognition means for recognizing whether or not the acquired input area has been input;
Layout generating means for generating an input support image for distinguishing an input area that has been input from an input area that has not been input;
Display means for displaying the input support image on the placement surface;
Control program to function as
請求項10記載の制御用プログラムを記憶するコンピュータで読み取り可能な記憶媒体。   A computer-readable storage medium storing the control program according to claim 10.
JP2016052444A 2016-03-16 2016-03-16 Input support device, input support method, control program and storage medium Pending JP2017167810A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016052444A JP2017167810A (en) 2016-03-16 2016-03-16 Input support device, input support method, control program and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016052444A JP2017167810A (en) 2016-03-16 2016-03-16 Input support device, input support method, control program and storage medium

Publications (1)

Publication Number Publication Date
JP2017167810A true JP2017167810A (en) 2017-09-21

Family

ID=59908995

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016052444A Pending JP2017167810A (en) 2016-03-16 2016-03-16 Input support device, input support method, control program and storage medium

Country Status (1)

Country Link
JP (1) JP2017167810A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018170645A (en) * 2017-03-30 2018-11-01 日本電気株式会社 Image input and output apparatus and image input and output method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018170645A (en) * 2017-03-30 2018-11-01 日本電気株式会社 Image input and output apparatus and image input and output method

Similar Documents

Publication Publication Date Title
US10310675B2 (en) User interface apparatus and control method
US10254893B2 (en) Operating apparatus, control method therefor, and storage medium storing program
JP6381361B2 (en) DATA PROCESSING DEVICE, DATA PROCESSING SYSTEM, DATA PROCESSING DEVICE CONTROL METHOD, AND PROGRAM
JP2016103137A (en) User interface system, image processor and control program
JP2018112894A (en) System and control method
JP2017219942A (en) Contact detection device, projector device, electronic blackboard system, digital signage device, projector device, contact detection method, program and recording medium
JP6746419B2 (en) Information processing apparatus, control method thereof, and computer program
JP2017126225A (en) Image processing device, method and program
JP2017167810A (en) Input support device, input support method, control program and storage medium
JP2017162126A (en) Input system, input method, control program and storage medium
JP6643825B2 (en) Apparatus and method
JP6122357B2 (en) Information processing apparatus, document synthesis system, information processing method, and program
JP2019016843A (en) Document reading device, control method of document reading device, and program
US10270929B2 (en) Image processing apparatus, control method, and recording medium
JP2017199288A (en) Image processing device, image processing method and program
JP2017049662A (en) Information processing apparatus, control method thereof, program, and storage medium
US9912834B2 (en) Document camera device and cutout assistance method
JP2017033454A (en) Information input device, method for controlling information input device, and program
JP2020115327A (en) Augmented reality document redaction
JP2018181169A (en) Information processor, and information processor control method, computer program, and storage medium
JP2017117372A (en) Operation device and control method of the same, and program
US10885366B2 (en) Input information management apparatus and input information management method
JP6705988B2 (en) Information processing system, control method thereof, and program
JP2018191258A (en) Image reading device, image reading method, and program
JP2017022590A (en) Image processing apparatus, control method for image processing apparatus, and program