JP6151989B2 - Information presenting apparatus, information presenting system, information presenting method, and program - Google Patents

Information presenting apparatus, information presenting system, information presenting method, and program Download PDF

Info

Publication number
JP6151989B2
JP6151989B2 JP2013137473A JP2013137473A JP6151989B2 JP 6151989 B2 JP6151989 B2 JP 6151989B2 JP 2013137473 A JP2013137473 A JP 2013137473A JP 2013137473 A JP2013137473 A JP 2013137473A JP 6151989 B2 JP6151989 B2 JP 6151989B2
Authority
JP
Japan
Prior art keywords
user
document
information
entry
entry area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013137473A
Other languages
Japanese (ja)
Other versions
JP2015011586A (en
JP2015011586A5 (en
Inventor
紳一郎 渡辺
紳一郎 渡辺
金田 北洋
北洋 金田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013137473A priority Critical patent/JP6151989B2/en
Publication of JP2015011586A publication Critical patent/JP2015011586A/en
Publication of JP2015011586A5 publication Critical patent/JP2015011586A5/ja
Application granted granted Critical
Publication of JP6151989B2 publication Critical patent/JP6151989B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、情報提示装置、情報提示システム、情報提示方法及びプログラムに関する。   The present invention relates to an information presentation apparatus, an information presentation system, an information presentation method, and a program.

例えば銀行において行われる、ローン契約等の重要な契約時には、業者が顧客に対して対面で法規面の説明等を行い、顧客がそれに同意し、その上で書類を作成するプロセスが用いられる。この際に、書類に対して顧客の手で記入を行うことも多いが、書類作成に不慣れな顧客は記入を失敗する可能性がある。   For example, when an important contract such as a loan contract is performed in a bank, a process is used in which a contractor provides a legal explanation to a customer face-to-face, the customer agrees to it, and creates a document on that. At this time, the customer often fills in the document by hand, but a customer who is not accustomed to document creation may fail to complete the document.

特に、業者と顧客との双方が記入を行う書類については、時間を節約するために、業者が先に記入を行った書類を事前に準備することがある。この場合、契約締結日当日に顧客が記入するだけで書類が完成するが、顧客が記入を失敗した場合、書類の再作成が必要となり、多大な時間を要してしまう。   In particular, with respect to documents that are entered by both the merchant and the customer, in order to save time, a document that the merchant filled in first may be prepared in advance. In this case, the document is completed only by the customer filling in on the contract conclusion date. However, if the customer fails to fill in the document, the document needs to be recreated, which takes a lot of time.

書類記入ミスを防ぐための工夫として、特許文献1では、次のような提案がなされている。すなわち、記入対象の文書画像を解析して得た記入枠と、ユーザが手書きを行う筆記具の位置とを比較し、記入位置が記入対象として正しいかが判断される。   As a device for preventing a document entry mistake, Patent Document 1 proposes the following. That is, the entry frame obtained by analyzing the document image to be filled in is compared with the position of the writing instrument on which the user performs handwriting, and it is determined whether the entry position is correct as the entry target.

特開2012−151753号公報JP 2012-151753 A

しかしながら、特許文献1に記載の技術は、記入位置の誤りを防ぐためには有効であるものの、記入内容そのものの誤りを防ぐことは難しい。   However, although the technique described in Patent Document 1 is effective in preventing errors in the entry position, it is difficult to prevent errors in the entry contents themselves.

本発明は、書類への記入時における記入ミスを減らすことを目的とする。   An object of the present invention is to reduce entry errors when filling in a document.

本発明の目的を達成するために、例えば、本発明の情報提示装置は以下の構成を備える。すなわち、
ユーザが記入できる記入領域を含む第1の文書を、前記ユーザも映るように撮影することによって得られた文書画像を取得する画像取得手段と、
前記記入領域の位置を特定する特定手段と、
前記記入領域に対応する参考情報を取得する情報取得手段と、
前記文書画像を解析することにより、前記ユーザが記入に用いる腕を判定する腕判定手段と、
提示手段を制御して、前記腕判定手段による判定結果に従って、前記記入領域の近傍において視認されるように前記参考情報を前記ユーザへと提示させる制御手段と、
を備え
前記第1の文書は、複数の記入領域を含み、
前記特定手段は、前記複数の記入領域のうち、ユーザが記入しようとする記入領域を特定し、
前記情報取得手段は、前記特定された記入領域に対応する参考情報を取得し、
前記制御手段は、前記提示手段を制御して、前記特定された記入領域の近傍において視認されるように前記参考情報を前記ユーザへと提示させ、
前記特定手段は、ユーザが記入に用いる記入具の先端と、前記記入領域との間の距離が閾値以下である場合に、当該記入領域を前記ユーザが記入しようとしている記入領域として特定する
ことを特徴とする。
In order to achieve the object of the present invention, for example, an information presentation apparatus of the present invention comprises the following arrangement. That is,
Image obtaining means for obtaining a document image obtained by photographing a first document including an entry area that can be filled in by the user so that the user also appears;
A specifying means for specifying the position of the entry area;
Information acquisition means for acquiring reference information corresponding to the entry area;
Analyzing the document image to determine an arm used by the user for writing;
Control means for controlling the presenting means to present the reference information to the user so as to be viewed in the vicinity of the entry area according to the determination result by the arm determining means;
Equipped with a,
The first document includes a plurality of entry areas;
The identifying means identifies an entry area that the user intends to fill out of the plurality of entry areas,
The information acquisition means acquires reference information corresponding to the specified entry area,
The control means controls the presenting means to present the reference information to the user so as to be visually recognized in the vicinity of the specified entry area,
The specifying means specifies the entry area as the entry area that the user intends to fill in when the distance between the tip of the entry tool used by the user and the entry area is equal to or less than a threshold value. Features.

書類への記入時における記入ミスを減らすことができる。   It is possible to reduce mistakes when filling out documents.

一実施形態に係る情報提示装置の構成を示す図。The figure which shows the structure of the information presentation apparatus which concerns on one Embodiment. 一実施形態に係る情報提示装置の効果的な使用例を説明する図。The figure explaining the effective usage example of the information presentation apparatus which concerns on one Embodiment. 一実施形態において用いられるデータの構成例を示す図。The figure which shows the structural example of the data used in one Embodiment. 一実施形態において用いられるデータの構成例を示す図。The figure which shows the structural example of the data used in one Embodiment. 一実施形態に係る情報提示方法の一例を示すフローチャート。The flowchart which shows an example of the information presentation method which concerns on one Embodiment. 一実施形態に係る情報提示方法で行われる各処理のフローチャート。The flowchart of each process performed with the information presentation method which concerns on one Embodiment. 一実施形態に係るレイアウト決定処理のフローチャート。The flowchart of the layout determination process which concerns on one Embodiment.

以下、本発明の実施例を図面に基づいて説明する。ただし、本発明の範囲は以下の実施例に限定されるものではない。   Embodiments of the present invention will be described below with reference to the drawings. However, the scope of the present invention is not limited to the following examples.

[実施形態1]
図1(A)は、実施形態1に係る情報提示装置109の全体構成を示すブロック図である。情報提示装置109は、演算部101、投影部102、撮影部103、UI部104、通信部105、バス(BUS)106、ランダムアクセスメモリ(RAM)107、及びストレージ108を備える。
[Embodiment 1]
FIG. 1A is a block diagram illustrating an overall configuration of the information presentation apparatus 109 according to the first embodiment. The information presentation device 109 includes a calculation unit 101, a projection unit 102, a photographing unit 103, a UI unit 104, a communication unit 105, a bus (BUS) 106, a random access memory (RAM) 107, and a storage 108.

演算部101は、情報提示装置109全体の動作を制御する。演算部101は、例えばマイクロプロセッサでありうる。演算部101は、画像若しくは映像の撮影処理、情報投影処理、画像識別処理、画像補正処理、画像編集処理、又は文字認識処理等のために、演算又は論理判断等を行う。   The calculation unit 101 controls the overall operation of the information presentation device 109. The calculation unit 101 can be a microprocessor, for example. The calculation unit 101 performs calculation or logical determination for image or video shooting processing, information projection processing, image identification processing, image correction processing, image editing processing, or character recognition processing.

投影部102は、文字、画像、又は映像等の各種情報を投影することにより、情報をユーザに提示する。本実施形態において、投影部102はプロジェクタであり、紙文書上に情報を重畳表示するものとする。しかしながら、投影部102はプロジェクタに限定されず、例えばAR(Augmented Reality)の機能を備えたヘッドマウントディスプレイ等であってもよい。このようなヘッドマウントディスプレイも、ユーザの目に対して情報を投影できる。このように、本実施形態において、現実空間の紙文書上に情報を重畳表示する際には、現実空間上の紙文書上に情報を投影する方法の他に、現実空間上の紙文書像と情報とを重畳してユーザに視覚的に提示する方法を用いることもできる。また、本実施形態に係る情報表示方法は、現実空間の紙文書上に情報を重畳表示するものに限られず、仮想現実空間上の紙文書上に情報を重畳表示してもよい。以降、紙文書上に情報を重畳表示する処理を、便宜上「投影」処理と呼ぶ。   The projection unit 102 presents information to the user by projecting various types of information such as characters, images, and videos. In the present embodiment, the projection unit 102 is a projector and superimposes information on a paper document. However, the projection unit 102 is not limited to a projector, and may be, for example, a head-mounted display having an AR (Augmented Reality) function. Such a head mounted display can also project information to the user's eyes. Thus, in the present embodiment, when information is superimposed and displayed on a paper document in the real space, in addition to a method of projecting information on the paper document in the real space, a paper document image in the real space and A method of visually superimposing information and presenting it to the user can also be used. In addition, the information display method according to the present embodiment is not limited to a method of superimposing and displaying information on a paper document in the real space, and information may be superimposed and displayed on a paper document in the virtual reality space. Hereinafter, the process of superimposing and displaying information on a paper document is referred to as a “projection” process for convenience.

撮影部103は、静止画像又は動画像等を含む画像を読み取る。例えば、撮影部103は、現実空間上の画像を読み取る撮像センサでありうる。撮影部103は、読み取った画像を電子データに変換できる。   The photographing unit 103 reads an image including a still image or a moving image. For example, the imaging unit 103 can be an imaging sensor that reads an image in the real space. The photographing unit 103 can convert the read image into electronic data.

UI部104は、オペレータの指示を受け取る。UI部104は、例えば、ボタン又はタッチパネル等でありうる。しかしながら、UI部104は、物理的なボタン又はタッチパネル等である必要はない。例えば、投影部102が仮想的なボタン又はタッチパネル等の画像を投影し、オペレータがこれらに触れることによって、オペレータは指示を入力してもよい。この場合、UI部104は、撮影部103によって得られた画像データを演算部101が解析して得た結果を、オペレータの指示として受け取ってもよい。このようにして、仮想的なUIを実現することができる。   The UI unit 104 receives an instruction from the operator. The UI unit 104 can be, for example, a button or a touch panel. However, the UI unit 104 does not have to be a physical button or a touch panel. For example, the operator may input an instruction when the projection unit 102 projects an image such as a virtual button or a touch panel, and the operator touches the image. In this case, the UI unit 104 may receive the result obtained by the calculation unit 101 analyzing the image data obtained by the photographing unit 103 as an instruction from the operator. In this way, a virtual UI can be realized.

通信部105は、例えばネットワークコントローラであり、有線又は無線の通信路を介して外部とのデータ交換を行う。   The communication unit 105 is, for example, a network controller, and exchanges data with the outside via a wired or wireless communication path.

BUS106は、情報提示装置109が有する各部の間で信号又はデータ等を転送する。信号には、例えば、演算部101が各部を制御するためのアドレス信号又はコントロール信号等が含まれる。   The BUS 106 transfers signals or data between the units included in the information presentation device 109. The signal includes, for example, an address signal or a control signal for the arithmetic unit 101 to control each unit.

RAM107は、読み書き可能なランダムアクセスメモリである。RAM107は、各部から受け取った各種データのための一次記憶として用いられる。具体的には、RAM107は、処理に必要なデータを記憶する各種ワーク領域を有する。また、RAM107は、処理中に値が変更される各種データを格納する。   The RAM 107 is a readable / writable random access memory. The RAM 107 is used as a primary storage for various data received from each unit. Specifically, the RAM 107 has various work areas for storing data necessary for processing. The RAM 107 stores various data whose values are changed during processing.

ストレージ108は、不揮発性メモリである。ストレージ108は、例えば、SDカード若しくはCFカード等のリムーバブルメディア、又は情報提示装置109に内蔵された大容量のメモリ等でありうる。また、ストレージ108は、例えばハードディスクであってもよい。ストレージ108は、大量のデータを変更可能に記憶しうる。演算部101により実行される制御プログラムは、ストレージ108に格納される。また、ストレージ108は、ブートプログラム、各種初期データ、画像識別プログラム、画像補正プログラム、画像編集プログラム、及び文字認識プログラム等を格納することができる。演算部101は、必要に応じて、ストレージ108に格納されたプログラムを、RAM107にロードし、実行することができる。このような構成によれば、プログラムが固定化される必要はなく、プログラムを修正可能に構成することができるために、柔軟なシステムを実現する事ができる。   The storage 108 is a nonvolatile memory. The storage 108 can be, for example, a removable medium such as an SD card or a CF card, or a large-capacity memory built in the information presentation device 109. The storage 108 may be a hard disk, for example. The storage 108 can store a large amount of data in a changeable manner. A control program executed by the arithmetic unit 101 is stored in the storage 108. The storage 108 can store a boot program, various initial data, an image identification program, an image correction program, an image editing program, a character recognition program, and the like. The calculation unit 101 can load a program stored in the storage 108 into the RAM 107 and execute it as necessary. According to such a configuration, it is not necessary to fix the program, and the program can be configured to be modifiable, so that a flexible system can be realized.

本実施形態において、情報提示装置109は、投影部102及び撮影部103を備える。しかしながら、情報提示装置109と、投影部102を備える投影装置とは別の装置であってもよい。また、情報提示装置109と、撮影部103を備える撮影装置とは別の装置であってもよい。このような情報提示装置、投影装置、及び撮影装置は、情報提示システムを構成する。   In the present embodiment, the information presentation device 109 includes a projection unit 102 and a photographing unit 103. However, the information presentation device 109 and the projection device including the projection unit 102 may be different devices. In addition, the information presentation device 109 and the imaging device including the imaging unit 103 may be different devices. Such an information presentation device, a projection device, and a photographing device constitute an information presentation system.

図1(B)は、実施形態1に係る情報提示装置109の機能構成を示すブロック図である。情報提示装置109は、画像取得部151、文書認識部152、領域特定部153、情報取得部154、レイアウト決定部155、及び提示制御部156を備える。これらの各部の機能は、上述のように、演算部101がプログラムに従って動作することにより実現されうる。もっとも、情報提示装置109は、これらの各部のうちの少なくとも1つとして動作する専用の回路を有していてもよい。これらの各部の動作については、図6,7を参照して後述する。   FIG. 1B is a block diagram illustrating a functional configuration of the information presentation device 109 according to the first embodiment. The information presentation device 109 includes an image acquisition unit 151, a document recognition unit 152, an area specification unit 153, an information acquisition unit 154, a layout determination unit 155, and a presentation control unit 156. The functions of these units can be realized by the operation unit 101 operating according to a program as described above. However, the information presentation device 109 may have a dedicated circuit that operates as at least one of these units. The operations of these units will be described later with reference to FIGS.

次に、図2を参照して、本実施形態に係る情報提示装置の効果的な使用例について説明する。図2は、銀行での契約業務において、本実施形態に係る情報提示装置を使用する例を示す。図2において、ユーザは、書類を手書きで作成しようとしている。   Next, an effective use example of the information presentation apparatus according to the present embodiment will be described with reference to FIG. FIG. 2 shows an example in which the information presenting apparatus according to the present embodiment is used in contract work at a bank. In FIG. 2, the user is about to create a document by handwriting.

本実施形態に係る情報提示装置109は、上述のように、投影部102及び撮影部103を有している。説明者であるユーザ202は銀行の職員であり、契約業務を担当している。ユーザ202は、書類作成を行うユーザ203と机210を挟んで向き合う形で座っている。ユーザ202は、以下に説明する、契約業務における文書作成を主導する。ユーザ203は銀行の顧客であり、ボールペン206のような記入具を使い、以下に説明するように、契約書類である第1の文書205を手書きで作成する。以下では、文字が記入される文書205のことを記入対象文書と呼ぶことがある。   The information presentation device 109 according to the present embodiment includes the projection unit 102 and the imaging unit 103 as described above. User 202 who is an explainer is a bank employee and is in charge of contract work. The user 202 sits facing the user 203 who creates a document with the desk 210 in between. The user 202 leads the document creation in the contract work described below. A user 203 is a bank customer and uses a writing tool such as a ballpoint pen 206 to create a first document 205, which is a contract document, by hand as will be described below. Hereinafter, the document 205 in which characters are entered may be referred to as an entry target document.

文書205は、ユーザ203が手書きで記入できる記入領域である、記入対象領域209を含んでいる。記入対象領域209の代表例としては、顧客の住所及び氏名等が挙げられる。これらの項目については、正確な記入が求められる。特に顧客の住所に関しては、法規上の都合により、住民票等の公的文書に記載されている現住所欄の住所と、記入した住所とが、一字一句、一致していなければならない場合がある。また、住所に関しては、番地の表記を省略する場合としない場合とがある。さらに、マンション名等を含む住所等の長文を記入する場合、記入する文字数は数十文字に及ぶ場合がある。この場合、書類によって大きさが異なる記入対象領域209へと誤記無くバランスよく手書きにより文字を記入する作業は容易ではない。特に、普段書類作成をしないユーザ203にとって、このような記入作業は負担となる。   The document 205 includes an entry target area 209 that is an entry area that the user 203 can enter by handwriting. Representative examples of the entry target area 209 include a customer's address and name. These items must be filled in accurately. With regard to customer addresses in particular, due to legal reasons, the address in the current address column described in official documents such as resident's cards may have to match the written address one by one. . In addition, regarding the address, there are cases where the address notation is omitted or not. Furthermore, when a long sentence such as an address including an apartment name is written, the number of characters to be written may be several tens of characters. In this case, it is not easy to write characters by handwriting in a well-balanced manner in the entry target area 209 of different sizes depending on documents. Especially for the user 203 who does not usually create documents, such an entry work becomes a burden.

本実施形態によれば、このような状況において、ユーザ203による手書き書類作成時に、書き損じが発生する可能性を減らすことができる。   According to the present embodiment, in such a situation, it is possible to reduce the possibility of writing errors when the user 203 creates a handwritten document.

第2の文書204は、住民票等の公的文書であり、住所欄207を含んでいる。この住所欄207は、記入対象領域209に記入すべき住所の文字列が記載されている。以下では、記入の手本として用いられる文書204のことを手本文書と呼ぶ場合がある。机210の上に文書204を配置すると、情報提示装置109が内蔵する撮影部103を用いた、文書認識処理が実行される。具体的には、撮影部103によって取得された文書204を含む文書画像に対する、文字認識処理を用いた解析が行われる。この結果、文書204に記載された文書名、氏名、及び住所等の文書情報が、デジタル処理可能なデータとして抽出される。こうして抽出された文書情報は、投影部102による投影のために用いられる。抽出された文書情報は、ストレージ108、又はネットワークを介して接続されたサーバ等に格納される。格納された文書情報は、任意のタイミングで取得可能である。   The second document 204 is an official document such as a resident's card and includes an address field 207. This address field 207 describes a character string of an address to be entered in the entry target area 209. Hereinafter, the document 204 used as a model for entry may be referred to as a model document. When the document 204 is placed on the desk 210, document recognition processing using the photographing unit 103 built in the information presentation device 109 is executed. Specifically, an analysis using character recognition processing is performed on a document image including the document 204 acquired by the photographing unit 103. As a result, document information such as the document name, name, and address described in the document 204 is extracted as digitally processable data. The document information extracted in this way is used for projection by the projection unit 102. The extracted document information is stored in the storage 108 or a server connected via the network. The stored document information can be acquired at an arbitrary timing.

ここで、ユーザ203は、ボールペン206を手に取って、文書205内の記入対象領域209に手書きの住所を記入しようと試みる。すると、情報提示装置109は、内蔵の撮影部103により撮影された文書205を含む文書画像について、文書認識処理を実行する。この文書画像は、文書204と文書205との双方を含んでいてもよい。   Here, the user 203 picks up the ballpoint pen 206 and tries to enter a handwritten address in the entry target area 209 in the document 205. Then, the information presentation device 109 performs document recognition processing on the document image including the document 205 photographed by the built-in photographing unit 103. This document image may include both the document 204 and the document 205.

また、情報提示装置109は、内蔵の撮影部103により撮影された文書205を含む文書画像を用いて、領域特定処理を行う。領域特定処理においては、画像識別処理を行うことにより、ユーザの行動を検知し、ユーザ203が文字を記入しようとする記入対象領域を特定する。本実施形態においては、ボールペンの先端の間の距離が閾値以下であるような領域が、記入対象領域として判定される。具体的には、空間座標を解析することで、ボールペン206の先端が記入対象領域209と接したと判定された場合に、ユーザ203が住所欄への記入意図を有しているものと判定される。後述するように、文書205上の各領域の位置は、文書認識部152によって判定される。   In addition, the information presentation device 109 performs a region specifying process using a document image including the document 205 photographed by the built-in photographing unit 103. In the area specifying process, the user's action is detected by performing an image identification process, and the area to be filled in is specified by the user 203 to enter characters. In the present embodiment, an area in which the distance between the tips of the ballpoint pens is equal to or less than a threshold value is determined as the entry target area. Specifically, by analyzing the spatial coordinates, when it is determined that the tip of the ballpoint pen 206 is in contact with the entry target area 209, it is determined that the user 203 has an intention to fill in the address field. The As will be described later, the position of each region on the document 205 is determined by the document recognition unit 152.

記入対象領域の特定方法は、この方法には限られない。例えば、ボールペン206の先端と文書204上の各領域との間の画像上での距離に従って、記入対象領域を特定してもよい。具体的には、ボールペン206の先端と文書204上のある領域との距離が閾値以内である場合に、この領域を記入対象領域として特定することができる。また、撮影部103によって撮影された画像の代わりに、又はこの画像に加えて、ユーザ203又はボールペン206等の位置姿勢を検出するセンサからの情報を用いて、記入対象領域を特定してもよい。   The method for specifying the entry target area is not limited to this method. For example, the entry target area may be specified according to the distance on the image between the tip of the ballpoint pen 206 and each area on the document 204. Specifically, when the distance between the tip of the ballpoint pen 206 and a certain area on the document 204 is within a threshold value, this area can be specified as the entry target area. Further, instead of or in addition to the image photographed by the photographing unit 103, information from a sensor that detects the position and orientation of the user 203, the ballpoint pen 206, or the like may be used to specify the entry target area. .

また、ユーザが指で直にタッチした領域を記入対象領域として特定してもよい。ユーザの指の位置は、例えば、撮影部103で撮影された画像に対して画像認識処理を行うことにより決定できる。さらなる方法として、UI部104が、仮想的なボタン等を用いた、記入対象領域についてのユーザ選択を検出してもよく、この場合、検出したユーザ選択に従って記入対象領域が特定される。例えば、投影部102によって投影された各領域のフィールド名のリストを、仮想的なボタンとして用いることができ、ユーザは、このリストを指で直にタッチすることにより選択を行うことができる。   Moreover, you may specify the area | region which the user touched directly with the finger | toe as an entry object area | region. The position of the user's finger can be determined, for example, by performing image recognition processing on the image captured by the imaging unit 103. As a further method, the UI unit 104 may detect a user selection for the entry target area using a virtual button or the like. In this case, the entry target area is specified according to the detected user selection. For example, a list of field names of each area projected by the projection unit 102 can be used as a virtual button, and the user can make a selection by directly touching this list with a finger.

領域特定処理によって記入対象領域が特定されると、情報取得部154により、ユーザ203が記入すべき文字列が取得される。本実施形態においては、文書認識処理によって抽出された文書情報の中から、関連性の高い情報が選択される。具体的には、記入対象領域209の領域名と合致する情報が選択される。ここでは、記入対象領域209は住所欄であり、住所を示す文書情報が選択される。そして、選択された情報に含まれる文字列が、手本文字列として特定される。このように情報取得部154は、ユーザ203によって記入されることが予測される文字列を取得する。   When the entry target area is specified by the area specifying process, the information acquisition unit 154 acquires the character string to be entered by the user 203. In the present embodiment, highly relevant information is selected from the document information extracted by the document recognition process. Specifically, information that matches the area name of the entry target area 209 is selected. Here, the entry target area 209 is an address field, and document information indicating an address is selected. Then, the character string included in the selected information is specified as a model character string. In this manner, the information acquisition unit 154 acquires a character string that is predicted to be entered by the user 203.

手本文字列が特定されると、記入対象領域209の大きさに応じて、記入領域内に手本文字列が収まるように、レイアウト決定部155は文字サイズ又は改行位置等の文字列の提示レイアウトを決定する。レイアウトが決定された手本文字列は、提示制御処理により、投影部102を用いて、参考情報208として記入対象領域209の付近に投影される。   When the model character string is specified, the layout determination unit 155 presents the character string such as the character size or the line feed position so that the model character string fits in the entry area according to the size of the entry target area 209. Determine the layout. The model character string for which the layout is determined is projected as reference information 208 in the vicinity of the entry target area 209 using the projection unit 102 by the presentation control process.

このような構成によれば、例えば住民票等の公的文書の記載通りの住所を契約書に記載する必要がある場合、特に住所に番地等の略されやすい部分が含まれる場合に、ユーザによる記入ミスを減らすことが可能となる。また、適切にレイアウトが調整された文字列を投影することにより、マンション名を含むような長い住所を、所定の枠内に適切な文字サイズで記入することが容易となる。   According to such a configuration, for example, when it is necessary to describe an address as described in an official document such as a resident's card in a contract, particularly when the address includes a portion that is easily omitted such as an address, It is possible to reduce entry errors. In addition, by projecting a character string whose layout is appropriately adjusted, it becomes easy to enter a long address including an apartment name in a predetermined frame with an appropriate character size.

参考情報208の投影位置は、記入対象領域209の記入枠内であっても、記入枠外であってもよい。この場合、文書205に含まれる空白領域の有無や、人体認識処理を用いたユーザ203の利き腕判定結果に応じて、投影場所を決定又は変更することができる。利き腕判定は、例えば、腕判定部(不図示)が、文書205及びユーザ203の腕が含まれる画像を画像認識処理により解析することにより、行うことができる。この結果に応じて、後述する提示制御部156は、参考情報208の投影位置を制御する。   The projection position of the reference information 208 may be within the entry frame of the entry target area 209 or outside the entry frame. In this case, the projection location can be determined or changed according to the presence / absence of a blank area included in the document 205 and the dominant hand determination result of the user 203 using human body recognition processing. The dominant arm determination can be performed by, for example, an arm determination unit (not shown) analyzing an image including the document 205 and the arm of the user 203 by image recognition processing. In accordance with this result, the presentation control unit 156 described later controls the projection position of the reference information 208.

具体的には、ユーザ203の利き腕が右腕であると認識された場合には、ユーザ203による筆記作業に干渉しないように、ユーザ203の視覚正面に対し左側に参考情報208を投影することができる。また、ユーザ203の利き腕が左腕であると判定された場合には、右側に参考情報208を投影することができる。また、記入枠内に参考情報208を投影する場合は、用紙の背面から情報を投影する投影部、例えばディスプレイ、を机に設置し、この投影部を用いて情報を投影してもよい。さらに、文書205上に十分な空白領域が存在しない場合は、投影する文字列の背景と文字色とを反転させる等の方法により強調表示を行い、視認性を向上させてもよい。また、参考情報208の投影位置は、文書205の外側であってもよく、例えば机210の上であってもよい。   Specifically, when the user's 203 dominant hand is recognized as the right arm, the reference information 208 can be projected on the left side with respect to the visual front of the user 203 so as not to interfere with the writing operation by the user 203. . Further, when it is determined that the dominant arm of the user 203 is the left arm, the reference information 208 can be projected on the right side. When the reference information 208 is projected into the entry frame, a projection unit that projects information from the back of the paper, such as a display, may be installed on the desk, and information may be projected using this projection unit. Further, when there is not a sufficient blank area on the document 205, highlighting may be performed by a method such as reversing the background of the character string to be projected and the character color to improve visibility. Further, the projection position of the reference information 208 may be outside the document 205, for example, on the desk 210.

この説明において、参考情報208は文字列であるものとした。しかしながら、他にも画像又は映像等を含む参考情報を投影することもできる。例えば、実印又は銀行印のような印鑑の種別を、押印が必要な箇所に表示してもよい。このような構成により、押印を忘れる可能性を減らすことができる。また、この説明ではプロジェクタのような投影部102が参考情報208を投影するものとした。しかしながら、上述のように、AR(Augmented Reality)の機能を備えたヘッドマウントディスプレイ等において、参考情報208を表示することによっても、同様の効果を得ることができる。また、別の実施形態においては、複数の記入領域に対して、例えば全ての記入領域に対して、対応する参考情報が投影されてもよい。   In this description, it is assumed that the reference information 208 is a character string. However, reference information including images or videos can also be projected. For example, a seal type such as a real seal or a bank seal may be displayed at a place where a seal is required. With such a configuration, the possibility of forgetting the seal can be reduced. In this description, the projection unit 102 such as a projector projects the reference information 208. However, as described above, the same effect can be obtained by displaying the reference information 208 on a head mounted display or the like having an AR (Augmented Reality) function. In another embodiment, corresponding reference information may be projected on a plurality of entry areas, for example, on all entry areas.

以上の方法によれば、ユーザ203が記入しようとする文字列そのものが、記入前と記入中との少なくとも一方において、記入対象領域209にフィットする状態で手元に表示される。このため、誤記、又は文字サイズのバランスが悪いことによる、書き損じの発生を減らすことができる。   According to the above method, the character string itself to be entered by the user 203 is displayed at hand in a state of fitting to the entry target area 209 at least one of before entry and during entry. For this reason, it is possible to reduce the occurrence of writing errors due to erroneous writing or poor character size balance.

図3は、本実施形態に係る情報提示装置109によって行われる処理において使用される、各種の処理情報のデータ構成例を示す。図3(A)は、文書認識部152によって上述のように抽出された文書情報の構成例を示す。文書情報は、具体的には、文書名又は発行日等の情報の種別、情報のテキストデータ、及びテキストの文字数の組み合わせで構成される、複数のデータにより構成される。ここで、氏名データ301は、文書204に記載されたユーザ203の氏名を示す。また、住所データ302は、文書204に記載されたユーザ203の住所を示す。   FIG. 3 shows a data configuration example of various processing information used in processing performed by the information presentation apparatus 109 according to the present embodiment. FIG. 3A shows a configuration example of document information extracted by the document recognition unit 152 as described above. Specifically, the document information is composed of a plurality of data composed of combinations of information types such as document names or issue dates, text data of information, and the number of text characters. Here, the name data 301 indicates the name of the user 203 described in the document 204. The address data 302 indicates the address of the user 203 described in the document 204.

図3(B)は、情報取得部154が情報を取得するために用いる、文書205の領域設定情報の構成例を示す。この領域設定情報は、記入されることが想定される文書205の種類に応じて予め用意され、ストレージ108内に格納されている。それぞれのデータは、文書205上のそれぞれの記入領域に対応するものであり、フィールドIDと、文書名と、フィールド名と、フィールド座標と、対応データと、投影アクション、等により構成されている。フィールドIDは、各記入領域についてのIDである。   FIG. 3B shows a configuration example of region setting information of the document 205 used by the information acquisition unit 154 to acquire information. This area setting information is prepared in advance according to the type of the document 205 that is supposed to be filled in, and is stored in the storage 108. Each data corresponds to each entry area on the document 205, and includes a field ID, a document name, a field name, field coordinates, corresponding data, a projection action, and the like. The field ID is an ID for each entry area.

データ303及びデータ304は、それぞれ同一の文書名の文書205(例えば住宅ローン契約書A)内の異なる記入領域「現住所」及び「契約者氏名」に関するデータである。また、データ305及びデータ306は、別の文書名の文書205(例えばカーローン契約書B)内の異なる記入領域「現住所」及び「契約者氏名」に関するデータである。これらのデータには、文書205上の記入領域(例えば記入欄)の範囲を特定する「フィールド座標」が設定されている。   Data 303 and data 304 are data relating to different entry areas “current address” and “contractor name” in the document 205 (for example, mortgage contract A) having the same document name. Data 305 and data 306 are data relating to different entry areas “current address” and “contractor name” in the document 205 (for example, car loan contract B) having different document names. In these data, “field coordinates” that specify the range of an entry area (for example, entry field) on the document 205 are set.

領域特定部153は、領域設定情報を参照して、ボールペン206の先端との間の距離が閾値以下である記入領域を選択し、この記入領域を記入対象領域として特定する。本実施形態において、領域特定部153は、ボールペン206の先端位置の座標が、フィールド座標により特定される範囲内において文書205に接触している場合に、このフィールド座標に対応するフィールド名の記入領域を記入対象領域として特定する。一実施形態において、「フィールド座標」は文書205を基準とする座標系で表されている。この場合、例えば、撮影部103が撮影した画像から文書205の位置を検出することにより、画像上の座標を文書205を基準とする座標へと変換することができる。   The area specifying unit 153 refers to the area setting information, selects an entry area whose distance from the tip of the ballpoint pen 206 is equal to or less than a threshold, and specifies this entry area as an entry target area. In the present embodiment, when the coordinates of the tip position of the ballpoint pen 206 are in contact with the document 205 within the range specified by the field coordinates, the area specifying unit 153 is a field name entry area corresponding to the field coordinates. Is specified as the target area. In one embodiment, “field coordinates” are expressed in a coordinate system with reference to the document 205. In this case, for example, by detecting the position of the document 205 from the image photographed by the photographing unit 103, the coordinates on the image can be converted into coordinates based on the document 205.

別の方法として、領域特定部153は、文書205の画像を解析することにより、ボールペン206の先端位置付近にある記入枠とそのラベルとを認識し、それぞれ記入対象領域及びそのフィールド名として扱ってもよい。   As another method, the area specifying unit 153 recognizes an entry frame and its label near the tip position of the ballpoint pen 206 by analyzing the image of the document 205, and treats it as an entry target area and its field name, respectively. Also good.

領域特定部153によって、文書205内のユーザ203が意図する記入対象領域が特定されると、情報取得部154は、領域設定情報を参照して、「対応データ」を取得する。具体的には、記入対象領域のフィールド名及び文書205の文書名に対応する「対応データ」が取得される。「対応データ」は、文書204の文書名と、投影する情報の種別と、を特定する。例えば、領域特定部153によって、データ303、すなわち「住宅ローン契約書A」の記入領域「現住所」が特定された場合、情報取得部154は、対応データである「$住民票.$住所」の値を取得する。すなわち、情報取得部154は、文書名「住民票」についての種別「住所」のデータ、すなわちデータ302を、ユーザ203の記入することを意図する手本文字列として、文書情報から取得する。   When the area specifying unit 153 specifies an area to be filled in intended by the user 203 in the document 205, the information acquisition unit 154 refers to the area setting information and acquires “corresponding data”. Specifically, “corresponding data” corresponding to the field name of the entry target area and the document name of the document 205 is acquired. “Correspondence data” specifies the document name of the document 204 and the type of information to be projected. For example, when the area specifying unit 153 specifies the data 303, that is, the entry area “current address” of the “mortgage contract A”, the information acquisition unit 154 stores the corresponding data “$ resident card. $ Address”. Get the value. That is, the information acquisition unit 154 acquires the data of the type “address” for the document name “resident card”, that is, the data 302 from the document information as a model character string that the user 203 intends to enter.

情報取得部154が取得したデータは、記入対象領域に対応する投影アクションに従って、投影部102によって文書205上に投影される。例えば、記入対象領域が「住宅ローン契約書A」の記入領域「現住所」である場合、パターンAの投影アクションに従って投影が行われる。投影アクションは、投影部102による情報の投影方法を特定する。記入領域に対応する投影アクションの種類は、領域設定情報において定義されている。それぞれの投影アクションに対応する具体的な投影方法は、投影アクション定義情報により定義される。図3(C)は、投影アクション定義情報の構成例を示す。単一の記入領域に対して、複数のパターンを定義してもよい。   The data acquired by the information acquisition unit 154 is projected on the document 205 by the projection unit 102 according to the projection action corresponding to the entry target area. For example, when the entry target area is the entry area “current address” of “mortgage contract A”, projection is performed according to the projection action of pattern A. The projection action specifies a method of projecting information by the projection unit 102. The type of projection action corresponding to the entry area is defined in the area setting information. A specific projection method corresponding to each projection action is defined by projection action definition information. FIG. 3C shows a configuration example of the projection action definition information. A plurality of patterns may be defined for a single entry area.

データ307は、パターンAの投影アクションに関する定義データである。パターンAにおいては、情報の「投影位置」はフィールド上部である。すなわち、記入対象領域の上部に、情報が投影される。また、パターンAにおいては、「アクション定義」が「表示文字置換」となっている。具体的には、情報取得部154が取得した手本文字列のうち、ユーザ203が既に記入した文字は「○」という記号で置換され、置換後の文字列が投影される。ユーザ203が既に記入した文字は、撮影部103が撮影した文書205の画像に対して、文字認識部(不図示)が文字認識処理を行うことにより、認識されうる。このように、投影部102は、手本文字列のうち既に記入された文字と、まだ記入されていない文字とを区別できるように、参考情報を投影することができる。この場合、投影される文字列がユーザ203の記入状況に応じて変化するため、ユーザ203は、次に記入すべき文字が何であるかを判別しやすくなる。   Data 307 is definition data regarding the projection action of pattern A. In pattern A, the “projection position” of information is at the top of the field. That is, information is projected on the top of the entry target area. In the pattern A, “action definition” is “display character replacement”. Specifically, among the model character strings acquired by the information acquisition unit 154, characters already entered by the user 203 are replaced with a symbol “◯”, and the replaced character string is projected. Characters already entered by the user 203 can be recognized by a character recognition unit (not shown) performing character recognition processing on the image of the document 205 captured by the imaging unit 103. As described above, the projecting unit 102 can project the reference information so that characters already entered in the model character string can be distinguished from characters that have not yet been entered. In this case, since the character string to be projected changes according to the entry status of the user 203, the user 203 can easily determine what the character to be entered next is.

データ308〜311は、他の投影アクション定義情報である。データ308で定義されるパターンBにおいては、情報の「投影位置」はフィールド上部であり、「アクション定義」は「表示色変更」である。具体的には、情報取得部154が取得した手本文字列のうち、ユーザ203が既に記入した文字は灰色にされ(グレイアウト)、未記入の文字は青色にされる。この場合、ユーザ203による記入状況に応じて、これにより記入対象領域の上に投影される文字列のうち未記入のものが記入済みのものに対してより強調されるため、ユーザ203が記入済み文字列を区別しやすくなる。   Data 308 to 311 are other projection action definition information. In the pattern B defined by the data 308, the “projection position” of the information is the upper part of the field, and the “action definition” is “display color change”. Specifically, in the model character string acquired by the information acquisition unit 154, characters already entered by the user 203 are grayed out (grayed out), and unfilled characters are blue. In this case, depending on the state of entry by the user 203, an unfilled character string projected on the filling target area is emphasized with respect to the filled one, and thus the user 203 has been filled in. It becomes easy to distinguish character strings.

データ309で定義されるパターンCにおいては、情報の「投影位置」はフィールド内であり、「アクション定義」は「正誤チェック」である。具体的には、ユーザ203が記入対象領域に記入済みの文字列が、「対応データ」によって特定される文字列、例えば「$住民票.$住所」に対応する文字列と一致するか否かがチェックされる。こうして、記入された文字列に誤記が含まれるか否かを記入時にチェックする事ができる。誤記が含まれている場合、投影部102が記入対象領域付近に警告表示を投影する等の方法で、ユーザ202又はユーザ203に通知することができる。このような通知も、情報提示装置109が提示する参考情報に含まれる。   In the pattern C defined by the data 309, the “projection position” of information is in the field, and the “action definition” is “correctness check”. Specifically, whether or not the character string that the user 203 has entered in the target area matches the character string specified by “corresponding data”, for example, the character string corresponding to “$ resident card. $ Address”. Is checked. In this way, it is possible to check at the time of entry whether or not the entered character string includes an error. If an error is included, the projection unit 102 can notify the user 202 or the user 203 by a method such as projecting a warning display near the entry target area. Such notification is also included in the reference information presented by the information presentation device 109.

データ310で定義されるパターンDにおいては、「投影位置」がフィールド上部であり、「アクション定義」は「添削」である。「添削」においては、ユーザが記入対象領域へと既に記入した文字列と、この文字列のサイズとが認識される。さらに、認識された文字列に対応する、投影された文字列のサイズが判定される。対応する投影された文字列とは、認識された文字列に対応する手本文字列内の文字列である。そして、認識された文字列のサイズと投影された文字列のサイズとが比較され、比較の結果がユーザに対して通知される。このような比較結果も、情報提示装置109が提示する参考情報に含まれる。   In the pattern D defined by the data 310, “projection position” is at the top of the field, and “action definition” is “correction”. In “correction”, the character string already entered by the user in the entry target area and the size of the character string are recognized. Further, the size of the projected character string corresponding to the recognized character string is determined. The corresponding projected character string is a character string in the model character string corresponding to the recognized character string. Then, the size of the recognized character string is compared with the size of the projected character string, and the result of the comparison is notified to the user. Such a comparison result is also included in the reference information presented by the information presentation device 109.

具体的な一例においては、記入された文字列のうち少なくとも一部の文字領域面積が認識され、これに対応する投影された文字列についての文字領域面積と比較される。文字列の文字領域面積は、例えば、文字列を囲む矩形の面積であってもよいが、算出方法は特に限定されない。そして、記入された文字列の文字領域面積と、対応する投影された文字列の文字領域面積との一致度、例えば差分又は比率に応じて、投影される文字列又は投影される文字列の背景色を変更することにより、ユーザに対する通知が行われる。   In a specific example, at least a part of the character region area of the entered character string is recognized and compared with the character region area of the projected character string corresponding thereto. The area of the character region of the character string may be, for example, a rectangular area surrounding the character string, but the calculation method is not particularly limited. Then, according to the degree of coincidence between the character area of the entered character string and the character area of the corresponding projected character string, for example, the difference or ratio, the projected character string or the background of the projected character string The user is notified by changing the color.

例えば、記入された文字列の文字領域面積と、対応する投影された文字列の文字領域面積との一致度が高い場合、例えば誤差が閾値以内である場合には、投影される文字列又は投影される文字列の背景色が青色とされる。また、新たに記入された文字についての一致度が、既に記入されている文字についての一致度よりも低くなった場合、投影される文字列又は投影される文字列の背景色が黄色とされる。さらに、一致度が低い文字が連続して記入された場合、投影される文字列又は投影される文字列の背景色が赤色とされる。このような文字の記入状況に応じた情報を参考にして、ユーザ203は、次に記入する文字の大きさを調整する事が可能となる。   For example, when the degree of coincidence between the character region area of the entered character string and the character region area of the corresponding projected character string is high, for example, when the error is within a threshold, the projected character string or projection The background color of the character string to be set is blue. In addition, when the degree of coincidence for a newly entered character is lower than the degree of coincidence for an already entered character, the projected character string or the background color of the projected character string is yellow. . Further, when characters having low matching degrees are continuously entered, the projected character string or the background color of the projected character string is red. The user 203 can adjust the size of the character to be entered next with reference to information according to the character entry status.

データ311で定義されるパターンEにおいては、「投影位置」がフィールド内であり、「アクション定義」が注意喚起である。具体的には、例えば記入対象領域が金額欄である場合に、金額欄が赤色となるように画像の投影が行われる。こうして、誤った金額を記入する事がないよう、ユーザ203に注意を喚起する事ができる。このような注意喚起情報も、情報提示装置109が提示する参考情報に含まれる。   In the pattern E defined by the data 311, “projection position” is in the field, and “action definition” is an alert. Specifically, for example, when the entry target area is the amount column, the image is projected so that the amount column is red. In this way, the user 203 can be alerted so as not to enter an incorrect amount. Such alerting information is also included in the reference information presented by the information presentation device 109.

図4は、本実施形態におけるレイアウト決定処理において用いられる処理情報のデータ構成例を示す。フィールドID401は、図3(B)に示すものと同様である。図3(B)には、データ303についてのフィールドIDである001が示されている。手本文字列402及び文字数403は、図3(B)のデータ303に対応する図3(A)のデータ302と同様である。この手本文字列402は、情報取得部154によって取得された文字列である。   FIG. 4 shows a data configuration example of processing information used in the layout determination processing in the present embodiment. The field ID 401 is the same as that shown in FIG. FIG. 3B shows a field ID 001 for the data 303. The model character string 402 and the number of characters 403 are the same as the data 302 in FIG. 3A corresponding to the data 303 in FIG. This model character string 402 is a character string acquired by the information acquisition unit 154.

レイアウト決定部155は、手本文字列402が記入対象領域、すなわちデータ303に示されるフィールド座標内に収まる大きさで投影されるように、文字サイズ又は改行位置等のレイアウトを決定する。図4には、レイアウト決定部155によって決定された推奨文字サイズ404及び推奨改行位置405が示されている。レイアウト決定時に単語解析処理等を行うことにより、マンション名等又は地名等の途中で改行が行われないように、推奨文字サイズ404及び推奨改行位置405を決定してもよい。   The layout determining unit 155 determines a layout such as a character size or a line feed position so that the model character string 402 is projected in a size that fits in the entry target area, that is, the field coordinates indicated in the data 303. FIG. 4 shows the recommended character size 404 and the recommended line feed position 405 determined by the layout determining unit 155. The recommended character size 404 and the recommended line feed position 405 may be determined so that a line break is not performed in the middle of an apartment name or a place name by performing word analysis processing or the like when determining the layout.

また、文書205が文字列又は図等を多く含む等の理由で、文書205上に適当な投影領域が存在しない場合には、文字列を投影する代わりに、文字数又は文字サイズが識別できるように「○」又は「*」等の記号を参考情報として提示してもよい。この場合、文書上に文字列を投影しても文字の判読が困難な場合でも、文字列の推奨されるバランスを把握することができる。   In addition, when there is no appropriate projection area on the document 205 because the document 205 includes a lot of character strings or figures, the number of characters or the character size can be identified instead of projecting the character string. Symbols such as “◯” or “*” may be presented as reference information. In this case, even when the character string is projected on the document and it is difficult to interpret the character, the recommended balance of the character string can be grasped.

手本文字列402は、提示制御処理において、レイアウト決定部155によって決定されたレイアウトで、及び定義された投影アクションに従って、投影部102により文書205の現住所記入領域の上に投影される。   The model character string 402 is projected onto the current address entry area of the document 205 by the projection unit 102 in accordance with the layout determined by the layout determination unit 155 and the defined projection action in the presentation control process.

図5は、演算部101の処理手順を示すフローチャートである。図5に示す処理により、情報提示装置109全体の動作が制御される。ステップS501はシステムの初期化処理であり、演算部101は、各種パラメータの初期化等を行う。ステップS502は、演算部101が、UI部104又は撮影部103が何らかのイベントを検知するのを待つ処理である。具体的には、演算部101は、物理なボタンをユーザが操作すること、仮想的なボタン又は投影領域へユーザが接触したこと、等のイベントが検知されるのを待つ。仮想的なボタン又は投影領域へのユーザの接触の判定は、上述したように投影部102及び撮影部103を用いて実現できる。   FIG. 5 is a flowchart illustrating a processing procedure of the calculation unit 101. The overall operation of the information presentation device 109 is controlled by the processing shown in FIG. Step S501 is a system initialization process, and the calculation unit 101 initializes various parameters. Step S502 is processing in which the calculation unit 101 waits for the UI unit 104 or the imaging unit 103 to detect some event. Specifically, the calculation unit 101 waits for detection of an event such as a user operating a physical button or a user touching a virtual button or a projection area. Determination of a user's contact with a virtual button or projection area can be realized using the projection unit 102 and the imaging unit 103 as described above.

イベントが発生すると、ステップS503において、演算部101は、発生したイベントを判別する。そして、演算部101は、イベントの種類に応じた各種の処理を開始する。各種のイベントに対応した処理は、ステップS504としてまとめて表現されている。ステップS504における処理は、文書認識処理、領域特定処理、情報取得処理、レイアウト決定処理、及び提示制御処理等を含む。ステップS504はまた、電源のOFFイベントに応じた終了処理も含む。以下では、これらの処理は、演算部101がブログラムに従って動作することにより実現される各部によって行われるものとして説明する。   When an event occurs, in step S503, the calculation unit 101 determines the event that has occurred. And the calculating part 101 starts the various processes according to the kind of event. Processes corresponding to various events are collectively expressed as step S504. The processing in step S504 includes document recognition processing, area identification processing, information acquisition processing, layout determination processing, presentation control processing, and the like. Step S504 also includes a termination process in response to a power OFF event. In the following description, it is assumed that these processes are performed by each unit realized by the arithmetic unit 101 operating according to a program.

図6(A)は、ステップS504において実行される処理の一例である、文書204に対する文書認識処理のフローチャートである。この処理において、文書認識部152は、手本文書である文書204の画像を取得し、文書204を特定する。本実施形態においては、上述のように、手本文書である文書204から、投影される情報の候補が抽出される。   FIG. 6A is a flowchart of document recognition processing for the document 204, which is an example of processing executed in step S504. In this processing, the document recognition unit 152 acquires an image of the document 204 that is a model document, and specifies the document 204. In the present embodiment, as described above, candidates for information to be projected are extracted from the document 204 that is a model document.

ステップS601において、画像取得部151は、デジタル解析可能なデータとして、文書204の画像を取得する。文書の画像は、撮影部103の撮影範囲内に新たな文書が入った際に、撮影部103によって撮影される。画像取得部151は、取得した文書204の画像を、文書認識部152に転送する。   In step S601, the image acquisition unit 151 acquires an image of the document 204 as data that can be digitally analyzed. The document image is captured by the imaging unit 103 when a new document enters the imaging range of the imaging unit 103. The image acquisition unit 151 transfers the acquired image of the document 204 to the document recognition unit 152.

ステップS602において、文書認識部152は、文書204の画像に対して領域認識及び文字認識を行う。この処理により、文書認識部152は、文書204に含まれるそれぞれの領域から、文書名、住所、及び日付等の文書情報を抽出する。こうして、文書認識部152は、投影される情報の候補を取得する。一実施形態において、文書認識部152は、領域認識処理によって文書204から検出されたそれぞれの領域について、領域に付されたラベルと、領域に記載された文字列とを抽出することができる。   In step S <b> 602, the document recognition unit 152 performs area recognition and character recognition on the image of the document 204. Through this process, the document recognition unit 152 extracts document information such as a document name, an address, and a date from each area included in the document 204. In this way, the document recognition unit 152 acquires a candidate for information to be projected. In one embodiment, the document recognition unit 152 can extract, for each region detected from the document 204 by the region recognition process, a label attached to the region and a character string described in the region.

別の実施形態において、文書認識部152は、予め用意されている手本文書についての領域情報を参照して、文書204から文書情報を抽出してもよい。領域情報は、例えば、それぞれの種別の手本文書について、文書内にある領域の位置と、それぞれの領域についてのフィールド名を特定する。文書認識部152は、パターンマッチング等の技術を用いて文書204の種別(例えば文書名)及び画像中における文書204の位置を判定することができる。そして、文書認識部152は、判定された文書204の種別に対応する領域情報を参照して、それぞれの領域に含まれる文字列等の情報を抽出する。こうして抽出された情報は、ステップS603において、図3(A)に示されるように、フィールド名及び文書名に対応付けてストレージ108に記録される。もっとも、抽出する情報は文字列には限定されず、例えば画像であってもよい。   In another embodiment, the document recognition unit 152 may extract document information from the document 204 with reference to area information about a model document prepared in advance. The region information specifies, for example, the position of the region in the document and the field name for each region for each type of model document. The document recognition unit 152 can determine the type of the document 204 (for example, the document name) and the position of the document 204 in the image using a technique such as pattern matching. Then, the document recognition unit 152 refers to the area information corresponding to the determined type of the document 204, and extracts information such as a character string included in each area. In step S603, the information extracted in this way is recorded in the storage 108 in association with the field name and the document name as shown in FIG. But the information to extract is not limited to a character string, For example, an image may be sufficient.

さらなる実施形態においては、文書情報が抽出される領域が、ユーザ入力によって指定されてもよい。例えば、文書認識部152は、ユーザ入力によって指定された範囲内の領域について文字認識処理を行い、投影される情報の候補として文字列を取得することができる。   In a further embodiment, the region from which document information is extracted may be specified by user input. For example, the document recognizing unit 152 can perform character recognition processing on an area within a range designated by user input, and obtain a character string as a candidate for information to be projected.

ステップS603において、文書認識部152は、ステップS602における文字認識結果を保存する。具体的には、文書認識部152は、文書204中の文書領域毎に抽出された文書情報を、ストレージ108内のデータベースに格納する。その後、処理は図5のフローにリターンする。   In step S603, the document recognition unit 152 stores the character recognition result in step S602. Specifically, the document recognition unit 152 stores the document information extracted for each document area in the document 204 in a database in the storage 108. Thereafter, the process returns to the flow of FIG.

本実施形態において、文書認識部152は、机210の上に配置された文書204から文書情報、すなわち投影される情報の候補を抽出する。しかしながら、投影される情報の候補は、予め用意され、ストレージ108内のデータベースに記録されていてもよい。   In the present embodiment, the document recognition unit 152 extracts document information, that is, candidates for information to be projected, from the document 204 arranged on the desk 210. However, candidates for information to be projected may be prepared in advance and recorded in a database in the storage 108.

ここでは、手本文書である文書204が机210の上に1部存在する場合を例に説明した。新旧の住民票等、複数の文書が机210の上に存在する場合には、どの文書から文書情報を抽出するのかをユーザに問い合わせてもよい。例えば、文書認識部152は、投影部102を用いて、どの文書から情報を抽出するのかを尋ねるメッセージを投影してもよい。ユーザ203は、例えば、直接文書に触れることにより、又は表示された文書名のリストから文書名を選択することにより、文書を選択することができる。これらのユーザ選択は、上述したようにUI部104が検出することができる。   Here, the case where one copy of the document 204 as a model document exists on the desk 210 has been described as an example. When a plurality of documents such as old and new resident cards exist on the desk 210, the user may be inquired about which document information is to be extracted. For example, the document recognition unit 152 may use the projection unit 102 to project a message asking which document information is to be extracted from. The user 203 can select a document, for example, by touching the document directly or by selecting a document name from the displayed list of document names. These user selections can be detected by the UI unit 104 as described above.

図6(B)は、ステップS504において実行される処理の一例である、文書認識処理、領域特定処理、情報取得処理、レイアウト決定処理、及び提示制御処理のフローチャートである。   FIG. 6B is a flowchart of document recognition processing, region identification processing, information acquisition processing, layout determination processing, and presentation control processing, which is an example of processing executed in step S504.

ステップS604は、記入対象文書である文書205に対する文書認識処理である。ステップS604において、画像取得部151は、文書205の画像を取得する。画像取得部151は、取得した文書205の画像を、文書認識部152に転送する。文書認識部152は、転送された画像を分析し、机210の上に文書205が配置された事を検出する。その後、文書認識部152は、画像に対して領域認識及び文字認識を行うことにより、文書205の種別(例えば文書名)を判定する。   Step S604 is a document recognition process for the document 205, which is an entry target document. In step S <b> 604, the image acquisition unit 151 acquires an image of the document 205. The image acquisition unit 151 transfers the acquired image of the document 205 to the document recognition unit 152. The document recognition unit 152 analyzes the transferred image and detects that the document 205 is placed on the desk 210. Thereafter, the document recognition unit 152 determines the type (for example, document name) of the document 205 by performing region recognition and character recognition on the image.

例えば、文書205のタイトルを認識することにより、文書205の種別を判定することができる。しかしながら、文書205の種別の判定方法は、この方法に限られない。例えば、文書205の種別を、ユーザに問い合わせてもよい。具体的な一例として、UI部104が、仮想的なボタン等を用いた、文書205の種別についてのユーザ選択を検出し、検出したユーザ選択を文書認識部152に送信することができる。この場合には、投影部102によって投影された記入対象文書の文書名のリストを、仮想的なボタンとして用いることができ、ユーザは、このリストを指で直にタッチすることにより選択を行うことができる。既に文書205に対する文書認識処理が終了している場合には、ステップS604の処理を省略してもよい。   For example, the type of the document 205 can be determined by recognizing the title of the document 205. However, the method for determining the type of the document 205 is not limited to this method. For example, the user may be inquired about the type of the document 205. As a specific example, the UI unit 104 can detect a user selection for the type of the document 205 using a virtual button or the like, and can transmit the detected user selection to the document recognition unit 152. In this case, the list of document names of the entry target documents projected by the projection unit 102 can be used as a virtual button, and the user makes a selection by directly touching the list with a finger. Can do. If the document recognition processing for the document 205 has already been completed, the processing in step S604 may be omitted.

別の実施形態において、文書認識部152は、文書204に対する文書認識処理と同様に、パターンマッチング等の技術を用いて文書205の種別及び画像中における文書204の位置を判定してもよい。また、文書認識部152は、領域認識処理によって文書205から記入枠のような記入領域を検出し、その画像上の位置又は三次元空間上の位置を判定してもよい。この場合、文書認識部152は、検出されたそれぞれの記入領域について、記入領域に付されたラベルをフィールド名として抽出してもよい。   In another embodiment, the document recognition unit 152 may determine the type of the document 205 and the position of the document 204 in the image using a technique such as pattern matching, as in the document recognition process for the document 204. Further, the document recognition unit 152 may detect an entry area such as an entry frame from the document 205 by area recognition processing, and determine the position on the image or the position in the three-dimensional space. In this case, the document recognition unit 152 may extract, as the field name, the label attached to the entry area for each detected entry area.

ステップS605は、領域特定処理である。ステップS605において、領域特定部153は、図3(B)に示す領域定義情報を参照して、文書205に含まれる記入領域の位置を特定する。さらに、領域特定部153は、上述のように、ユーザの行動を検知し、複数の記入領域のうちユーザが記入しようとする記入対象領域を特定する。また、領域特定部153は、特定された記入対象領域についてあらかじめ設定されている投影アクションを、図3(C)に示す投影アクション定義情報を参照して取得する。   Step S605 is an area specifying process. In step S605, the area specifying unit 153 specifies the position of the entry area included in the document 205 with reference to the area definition information shown in FIG. Further, as described above, the area specifying unit 153 detects the user's behavior and specifies an entry target area to be filled in by the user from among a plurality of entry areas. In addition, the area specifying unit 153 acquires a projection action set in advance for the specified entry target area with reference to the projection action definition information shown in FIG.

ステップS606及びS607は、情報取得処理であり、情報取得部154は、ユーザが意図する手本文字列を、参考情報として上述のように取得する。具体的には、ステップS606において、情報取得部154は、特定された記入対象領域に対応する、ステップS603で生成された文書情報が、ストレージ108が有するデータベースに存在するか否かを判定する。例えば、情報取得部154は、文書205の文書名に対応する、例えば図3(A)の文書情報を参照して、記入対象領域のフィールド名を「種別」として有するデータが存在するか否かを判定する。対応する情報がデータベースに存在する場合、処理はステップS607に進み、情報取得部154は、ストレージ108内のデータベースから対応する文字列を取得する。対応する情報が存在しない場合、図6(B)の処理は終了し、図5のフローにリターンする。   Steps S606 and S607 are information acquisition processing, and the information acquisition unit 154 acquires a model character string intended by the user as reference information as described above. Specifically, in step S606, the information acquisition unit 154 determines whether or not the document information generated in step S603 corresponding to the specified entry target area exists in the database included in the storage 108. For example, the information acquisition unit 154 refers to, for example, the document information in FIG. 3A corresponding to the document name of the document 205, and determines whether there is data having the field name of the entry target area as “type”. Determine. If the corresponding information exists in the database, the process proceeds to step S607, and the information acquisition unit 154 acquires the corresponding character string from the database in the storage 108. If there is no corresponding information, the process in FIG. 6B ends, and the process returns to the flow in FIG.

本実施形態において、情報取得部154は、ストレージ108が有するデータベースに格納された文書情報を参照して、手本文字列を決定した。しかしながら、手本文字列の決定方法はこの方法に限られない。例えば、机210の上に置かれた文書204の画像に対して文字認識等の処理を行うことにより得られた文書情報のリストを、文書205等の上に投影し、手本文字列をユーザに選択させてもよい。また、机210の上に置かれた文書上の特定領域を触れる等の方法でユーザが選択し、この特定領域に含まれる文字列の文字認識結果を手本文字列として特定してもよい。   In the present embodiment, the information acquisition unit 154 refers to document information stored in a database included in the storage 108 and determines a model character string. However, the method for determining the model character string is not limited to this method. For example, a list of document information obtained by performing processing such as character recognition on the image of the document 204 placed on the desk 210 is projected onto the document 205 or the like, and the model character string is projected to the user. May be selected. Alternatively, the user may select a specific area on the document placed on the desk 210 by touching it, and the character recognition result of the character string included in the specific area may be specified as a model character string.

さらに、情報取得部154は、投影部102を用いて、事前にデータベースに格納済みの文書情報や住所情報等をリストとして文書205に投影してもよい。情報取得部154は、候補となる文字列についてのユーザ選択をUI部104を介して取得することができ、そしてユーザ選択に従う文字列を手本文字列として用いてもよい。   Furthermore, the information acquisition unit 154 may project the document information, address information, and the like stored in advance in the database as a list onto the document 205 using the projection unit 102. The information acquisition unit 154 can acquire a user selection for a candidate character string via the UI unit 104, and may use a character string according to the user selection as a model character string.

また、上述の方法で決定された手本文字列は、後にそのまま投影されてもよいし、ユーザの要求に応じて編集されてもよい。編集を行う場合、編集ボタンをユーザに押下させる等の方法で編集指示をUI部104を介してユーザから受け取り、物理的なキーボード又は仮想的に表示したキーボード等を用いてユーザに文字列を編集させてもよい。   Further, the model character string determined by the above-described method may be projected as it is later, or may be edited according to the user's request. When editing, the user receives an editing instruction from the user via the UI unit 104 by, for example, pressing the edit button, and edits the character string to the user using a physical keyboard or a virtually displayed keyboard. You may let them.

ステップS606にて文書情報を取得できなかった場合、処理を終了するのではなく、記入対象領域に応じて予め設定されたデフォルトの文字又は記号を、デフォルト数だけ投影してもよい。例えば、記入対象領域が住所欄であった場合、記入される文字数は最大でも30文字程度であると考えられる。このような場合、記入対象領域に入るようなレイアウトで「○」等の記号を30個表示することにより、ユーザに適した文字バランスで文字を記入させることが可能となる。このように、情報取得部154は、記入対象領域について予め定められた数の記号で構成される情報を参考情報として取得してもよく、この参考情報は記入対象領域に合わせた適切なレイアウトで投影部102により投影されうる。   If the document information cannot be acquired in step S606, the process may not be terminated, but a default number of characters or symbols preset according to the entry target area may be projected. For example, when the entry target area is an address field, the number of characters to be entered is considered to be about 30 characters at the maximum. In such a case, by displaying 30 symbols such as “◯” in a layout that enters the entry target area, it becomes possible to enter characters with a character balance suitable for the user. As described above, the information acquisition unit 154 may acquire, as reference information, information including a predetermined number of symbols for the entry target area, and the reference information has an appropriate layout according to the entry target area. It can be projected by the projection unit 102.

ステップS608はレイアウト決定処理である。ステップS608において、レイアウト決定部155は、ステップS605で特定され記入対象領域内に、ステップS607で決定された手本文字列が収まるように、文字列のレイアウトを決定する。具体的な方法については、既に説明した通りである。   Step S608 is a layout determination process. In step S608, the layout determining unit 155 determines the layout of the character string so that the example character string determined in step S607 fits in the entry target area specified in step S605. The specific method is as already described.

ステップS609は、提示制御処理である。ステップS609において、提示制御部156は、投影部102を制御して、ステップS607で取得された手本文字列を参考情報として文書205上に投影させる。この際、手本文字列は、ステップS608で決定されたレイアウトで、ステップS605で取得された投影アクションに従って、ステップS605で特定された記入対象領域の近傍においてユーザに視認されるように提示される。その後、処理は、図5に示されるフローにリターンする。   Step S609 is presentation control processing. In step S609, the presentation control unit 156 controls the projection unit 102 to project the model character string acquired in step S607 onto the document 205 as reference information. At this time, the model character string is presented so as to be visually recognized by the user in the vicinity of the entry target area specified in step S605 according to the projection action acquired in step S605 with the layout determined in step S608. . Thereafter, the process returns to the flow shown in FIG.

本実施形態において、投影部102による投影範囲は既知であるものとする。すなわち、提示制御部156は、文書205上の所望の位置、又は撮影部103によって撮影される画像上の所望の位置に対応する現実空間中の位置、に所望の情報を投影するように投影部102を制御することができるものとする。投影部102がヘッドマウントディスプレイ等である場合には、文書205を含む画像又は現実空間像と参考情報とが重畳された状態でユーザに提示される。この場合には、投影部102は、検出された文書205の位置に従って、投影アクションに従う位置に参考情報が提示されるように画像表示を行うことができる。   In the present embodiment, it is assumed that the projection range by the projection unit 102 is known. That is, the presentation control unit 156 projects the desired information to a desired position on the document 205 or a position in the real space corresponding to the desired position on the image photographed by the photographing unit 103. 102 can be controlled. When the projection unit 102 is a head mounted display or the like, the image including the document 205 or the real space image and the reference information are presented to the user in a superimposed state. In this case, the projection unit 102 can display an image so that the reference information is presented at a position according to the projection action according to the detected position of the document 205.

図7は、ステップS609において、投影アクションに従って手本文字列を投影する際に行われる処理の一例を詳細に示す。図7では、図3(C)のデータ307に示される「パターンA」の投影アクションを用いる場合について説明する。   FIG. 7 shows in detail an example of processing performed when projecting a model character string in accordance with the projection action in step S609. FIG. 7 illustrates a case where the projection action of “pattern A” shown in the data 307 of FIG. 3C is used.

ステップS701は記入済文字認識処理である。ステップS701において提示制御部156は、撮影部103が取得した画像を分析することにより、ユーザが既に記入した文字を認識する。ステップS702は文字表示変更処理である。ステップS702において提示制御部156は、ステップS607で決定された手本文字列のうち、ステップS701で認識された記入済みの文字に対応する文字について、順次表示を変更する。具体的には、「パターンA」の投影アクションに従い、手本文字列のうち、記入済みの文字に対応する文字を「○」という記号に置換する。その後、ステップS703において、提示制御部156は、ステップS702における処理後の手本文字列を、文書205に投影する。投影位置は、上述のように、投影アクション定義情報に従って決定される。   Step S701 is a completed character recognition process. In step S <b> 701, the presentation control unit 156 recognizes characters already entered by the user by analyzing the image acquired by the imaging unit 103. Step S702 is a character display change process. In step S702, the presentation control unit 156 sequentially changes the display of the characters corresponding to the completed characters recognized in step S701 among the model character strings determined in step S607. Specifically, in accordance with the projection action of “Pattern A”, the character corresponding to the entered character in the model character string is replaced with the symbol “◯”. Thereafter, in step S703, the presentation control unit 156 projects the model character string after the processing in step S702 onto the document 205. As described above, the projection position is determined according to the projection action definition information.

ステップS704は文字数比較処理である。ステップS704において提示制御部156は、ステップS701で認識された記入済みの文字数と、ステップS607で決定された手本文字列の文字数とを比較することにより、手本文字列の全てがユーザにより記入されたかどうかを判定する。記入が終了している場合、処理はステップS705に進み、記入が終了していない場合、処理はステップS701に戻る。この際、提示制御部156は、ユーザが記入した文字列の中に認識できない文字が存在するか否かを判定し、認識できない文字が存在する場合にはユーザに通知してもよい。例えば、認識できない文字を特定する注意喚起メッセージを、ユーザが見えるように投影することができる。この構成によれば、判読不能な書体で文字が記入され、書類が法律的な効果を有さなくなる可能性を減らすことができる。   Step S704 is a character number comparison process. In step S704, the presentation control unit 156 compares the number of completed characters recognized in step S701 with the number of characters in the model character string determined in step S607, so that all the model character strings are entered by the user. Determine whether it was done. If the entry has been completed, the process proceeds to step S705. If the entry has not been completed, the process returns to step S701. At this time, the presentation control unit 156 may determine whether or not an unrecognizable character exists in the character string entered by the user, and may notify the user if there is an unrecognizable character. For example, an alert message that identifies unrecognizable characters can be projected so that the user can see it. According to this configuration, it is possible to reduce a possibility that characters are written in an unreadable font and the document has no legal effect.

ステップS705は参考情報更新処理であり、記入対象領域に対する記入が終了すると、提示制御部156は、この記入対象領域に対応する手本文字列の投影を終了する。以上の処理によれば、文字列の表示がユーザの記入状況に応じて変化するため、ユーザが次に記入すべき文字が何か判別しやすくなる。   Step S705 is reference information update processing. When the entry to the entry target area is completed, the presentation control unit 156 finishes projecting the model character string corresponding to the entry target area. According to the above processing, since the display of the character string changes according to the user entry status, it is easy to determine what character the user should enter next.

図3(C)に示される「パターンB」〜「パターンE」の投影アクションも、図7に示すフローチャートと同様の処理により実現できる。例えば、ステップS702において上述の「パターンB」〜「パターンE」の投影アクションについての説明に従う処理を行えばよい。   The projection actions of “Pattern B” to “Pattern E” shown in FIG. 3C can also be realized by the same processing as the flowchart shown in FIG. For example, in step S702, the process according to the description of the projection actions of “pattern B” to “pattern E” described above may be performed.

(他の実施形態)
本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)をネットワーク又は各種記憶媒体を介してシステム或いは装置に供給する。そして、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムコードを読み出して実行する。この場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することになる。
(Other embodiments)
The present invention is also realized by executing the following processing. That is, software (program) that implements the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media. Then, the computer (or CPU, MPU, etc.) of the system or apparatus reads and executes the program code. In this case, the program and the storage medium storing the program constitute the present invention.

Claims (13)

ユーザが記入できる記入領域を含む第1の文書を、前記ユーザも映るように撮影することによって得られた文書画像を取得する画像取得手段と、
前記記入領域の位置を特定する特定手段と、
前記記入領域に対応する参考情報を取得する情報取得手段と、
前記文書画像を解析することにより、前記ユーザが記入に用いる腕を判定する腕判定手段と、
提示手段を制御して、前記腕判定手段による判定結果に従って、前記記入領域の近傍において視認されるように前記参考情報を前記ユーザへと提示させる制御手段と、
を備え
前記第1の文書は、複数の記入領域を含み、
前記特定手段は、前記複数の記入領域のうち、ユーザが記入しようとする記入領域を特定し、
前記情報取得手段は、前記特定された記入領域に対応する参考情報を取得し、
前記制御手段は、前記提示手段を制御して、前記特定された記入領域の近傍において視認されるように前記参考情報を前記ユーザへと提示させ、
前記特定手段は、ユーザが記入に用いる記入具の先端と、前記記入領域との間の距離が閾値以下である場合に、当該記入領域を前記ユーザが記入しようとしている記入領域として特定する
ことを特徴とする情報提示装置。
Image obtaining means for obtaining a document image obtained by photographing a first document including an entry area that can be filled in by the user so that the user also appears;
A specifying means for specifying the position of the entry area;
Information acquisition means for acquiring reference information corresponding to the entry area;
Analyzing the document image to determine an arm used by the user for writing;
Control means for controlling the presenting means to present the reference information to the user so as to be viewed in the vicinity of the entry area according to the determination result by the arm determining means;
Equipped with a,
The first document includes a plurality of entry areas;
The identifying means identifies an entry area that the user intends to fill out of the plurality of entry areas,
The information acquisition means acquires reference information corresponding to the specified entry area,
The control means controls the presenting means to present the reference information to the user so as to be visually recognized in the vicinity of the specified entry area,
The specifying means specifies the entry area as the entry area that the user intends to fill in when the distance between the tip of the entry tool used by the user and the entry area is equal to or less than a threshold value. Characteristic information presentation device.
前記参考情報は、前記記入領域に前記ユーザが記入すべき文字列であることを特徴とする、請求項に記載の情報提示装置。 The information presentation apparatus according to claim 1 , wherein the reference information is a character string to be entered by the user in the entry area. 前記記入領域内に収まるレイアウトで提示されるように、前記参考情報の提示レイアウトを決定するレイアウト決定手段をさらに備えることを特徴とする、請求項に記載の情報提示装置。 The information presentation apparatus according to claim 2 , further comprising: a layout determination unit that determines a presentation layout of the reference information so that the layout is presented in a layout that fits in the entry area. 前記文書画像を参照して、ユーザが前記記入領域へと既に記入した文字列と、該文字列のサイズとを認識する認識手段と、
前記決定されたレイアウトで提示された場合における、前記参考情報のうち前記認識された文字列に対応する文字列のサイズと、前記認識された文字列のサイズとを比較し、該比較の結果をユーザに対して通知する通知手段と、
をさらに備えることを特徴とする、請求項に記載の情報提示装置。
Recognizing means for recognizing the character string that the user has already entered in the entry area with reference to the document image, and the size of the character string;
In the case where the layout is presented, the size of the character string corresponding to the recognized character string in the reference information is compared with the size of the recognized character string, and the comparison result is obtained. A notification means for notifying the user;
The information presentation apparatus according to claim 3 , further comprising:
前記文書画像を参照して、ユーザが前記記入領域へと既に記入した文字を認識する認識手段をさらに備え、
前記制御手段は、前記ユーザが記入すべき文字列のうち、既に記入された文字と、まだ記入されていない文字とを区別できるように、前記参考情報を前記提示手段に提示させることを特徴とする、請求項に記載の情報提示装置。
Recognizing means for recognizing characters already entered by the user in the entry area with reference to the document image,
The control means causes the presenting means to present the reference information so that a character string to be entered by the user can be distinguished from a character that has already been entered and a character that has not yet been entered. The information presentation apparatus according to claim 3 .
前記文書画像を参照して、ユーザが前記記入領域へと既に記入した文字を認識する認識手段と、
ユーザが前記記入領域へと既に記入した文字に、前記認識手段が認識できない文字が含まれる場合に、ユーザに対して通知を行う通知手段と、
をさらに備えることを特徴とする、請求項に記載の情報提示装置。
Recognizing means for recognizing characters already entered in the entry area by referring to the document image;
A notification means for notifying a user when a character that the user has already entered in the entry area includes a character that the recognition means cannot recognize;
The information presentation apparatus according to claim 3 , further comprising:
前記レイアウト決定手段は、前記参考情報に従って提示される文字のサイズと前記参考情報に従って提示される文字列の改行位置とのうちの少なくとも1つを決定することを特徴とする、請求項乃至の何れか1項に記載の情報提示装置。 Said layout determination means may determine at least one of the line feed positions of character string to be presented according to the size and the reference information of a character to be presented according to the reference information, claims 3 to 6 The information presentation device according to any one of the above. 前記参考情報を含む第2の文書を撮影することによって得られた文書画像から、当該参考情報を抽出する抽出手段をさらに備えることを特徴とする、請求項1乃至の何れか1項に記載の情報提示装置。 From a document image obtained by photographing a second document containing the reference information, characterized by further comprising an extraction means for extracting the reference information, according to any one of claims 1 to 7 Information presentation device. 前記提示手段は、前記記入領域の近傍に前記参考情報を投影することを特徴とする、請求項1乃至の何れか1項に記載の情報提示装置。 It said presentation means is characterized by projecting the reference information in the vicinity of the entry region, the information presentation apparatus according to any one of claims 1 to 8. 前記提示手段は、前記第1の文書を含む画像に前記参考情報を重畳してユーザに提示することを特徴とする、請求項1乃至の何れか1項に記載の情報提示装置。 The presentation unit may be presented to a user by superimposing the reference information to the image including the first document, the information presentation apparatus according to any one of claims 1 to 2. 請求項1乃至10の何れか1項に記載の情報提示装置と、
前記第1の文書を撮影する撮影手段と、
前記提示手段と、
を備えることを特徴とする情報提示システム。
The information presentation device according to any one of claims 1 to 10 ,
Photographing means for photographing the first document;
The presenting means;
An information presentation system comprising:
情報提示装置が行う情報提示方法であって、
ユーザが記入できる記入領域を含む第1の文書を、前記ユーザも映るように撮影することによって得られた文書画像を取得する画像取得工程と、
前記記入領域の位置を特定する特定工程と、
前記記入領域に対応する参考情報を取得する情報取得工程と、
前記文書画像を解析することにより、前記ユーザが記入に用いる腕を判定する腕判定工程と、
提示手段を制御して、前記腕判定工程における判定結果に従って、前記記入領域の近傍において視認されるように前記参考情報を前記ユーザへと提示させる制御工程と、
を備え
前記第1の文書は、複数の記入領域を含み、
前記特定工程では、前記複数の記入領域のうち、ユーザが記入しようとする記入領域を特定し、
前記情報取得工程では、前記特定された記入領域に対応する参考情報を取得し、
前記制御工程では、前記提示手段を制御して、前記特定された記入領域の近傍において視認されるように前記参考情報を前記ユーザへと提示させ、
前記特定工程では、ユーザが記入に用いる記入具の先端と、前記記入領域との間の距離が閾値以下である場合に、当該記入領域を前記ユーザが記入しようとしている記入領域として特定する
ことを特徴とする情報提示方法。
An information presentation method performed by an information presentation device,
An image acquisition step of acquiring a document image obtained by photographing a first document including an entry area that can be filled in by the user so that the user also appears;
A specific step of specifying the position of the entry area;
An information acquisition step of acquiring reference information corresponding to the entry area;
Analyzing the document image to determine an arm used for entry by the user;
A control step of controlling the presenting means to present the reference information to the user so as to be visually recognized in the vicinity of the entry area according to the determination result in the arm determination step;
Equipped with a,
The first document includes a plurality of entry areas;
In the specifying step, an entry area that the user intends to fill out of the plurality of entry areas is specified,
In the information acquisition step, reference information corresponding to the specified entry area is acquired,
In the control step, the presenting means is controlled so that the reference information is presented to the user so as to be visually recognized in the vicinity of the specified entry area,
In the specifying step, when the distance between the tip of the writing tool used by the user and the writing area is equal to or less than a threshold value, the writing area is specified as the writing area that the user intends to fill in. A characteristic information presentation method.
コンピュータに、
ユーザが記入できる記入領域を含む第1の文書を、前記ユーザも映るように撮影することによって得られた文書画像を取得する画像取得工程と、
前記記入領域の位置を特定する特定工程と、
前記記入領域に対応する参考情報を取得する情報取得工程と、
前記文書画像を解析することにより、前記ユーザが記入に用いる腕を判定する腕判定工程と、
提示手段を制御して、前記腕判定工程における判定結果に従って、前記記入領域の近傍において視認されるように前記参考情報を前記ユーザへと提示させる制御工程と、
を実行させ
前記第1の文書は、複数の記入領域を含み、
前記特定工程では、前記複数の記入領域のうち、ユーザが記入しようとする記入領域を特定し、
前記情報取得工程では、前記特定された記入領域に対応する参考情報を取得し、
前記制御工程では、前記提示手段を制御して、前記特定された記入領域の近傍において視認されるように前記参考情報を前記ユーザへと提示させ、
前記特定工程では、ユーザが記入に用いる記入具の先端と、前記記入領域との間の距離が閾値以下である場合に、当該記入領域を前記ユーザが記入しようとしている記入領域として特定する
プログラム。
On the computer,
An image acquisition step of acquiring a document image obtained by photographing a first document including an entry area that can be filled in by the user so that the user also appears;
A specific step of specifying the position of the entry area;
An information acquisition step of acquiring reference information corresponding to the entry area;
Analyzing the document image to determine an arm used for entry by the user;
A control step of controlling the presenting means to present the reference information to the user so as to be visually recognized in the vicinity of the entry area according to the determination result in the arm determination step;
Was executed,
The first document includes a plurality of entry areas;
In the specifying step, an entry area that the user intends to fill out of the plurality of entry areas is specified,
In the information acquisition step, reference information corresponding to the specified entry area is acquired,
In the control step, the presenting means is controlled so that the reference information is presented to the user so as to be visually recognized in the vicinity of the specified entry area,
In the specifying step, when the distance between the tip of the writing tool used by the user for writing and the writing area is equal to or less than a threshold value, the program specifies the writing area as the writing area that the user intends to fill in .
JP2013137473A 2013-06-28 2013-06-28 Information presenting apparatus, information presenting system, information presenting method, and program Active JP6151989B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013137473A JP6151989B2 (en) 2013-06-28 2013-06-28 Information presenting apparatus, information presenting system, information presenting method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013137473A JP6151989B2 (en) 2013-06-28 2013-06-28 Information presenting apparatus, information presenting system, information presenting method, and program

Publications (3)

Publication Number Publication Date
JP2015011586A JP2015011586A (en) 2015-01-19
JP2015011586A5 JP2015011586A5 (en) 2016-07-21
JP6151989B2 true JP6151989B2 (en) 2017-06-21

Family

ID=52304673

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013137473A Active JP6151989B2 (en) 2013-06-28 2013-06-28 Information presenting apparatus, information presenting system, information presenting method, and program

Country Status (1)

Country Link
JP (1) JP6151989B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6663105B2 (en) * 2016-01-06 2020-03-11 富士通クライアントコンピューティング株式会社 Projection apparatus, projection program and projection method
CN105948154A (en) * 2016-06-16 2016-09-21 张家港宇新羊毛工业有限公司 Wastewater air floating tank multi-stage circulation efficient scraping plate system
JP2018200527A (en) * 2017-05-26 2018-12-20 富士通株式会社 Information processing device, method, and program
JP7089254B2 (en) * 2018-09-27 2022-06-22 京都機械工具株式会社 Tool system and program for tool system
US11080547B2 (en) 2018-12-28 2021-08-03 Konica Minolta Laboratory U.S.A., Inc. Augmented reality document processing
JP7385324B1 (en) 2023-05-16 2023-11-22 株式会社SoVa Information processing system, information processing program, information processing method

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02238575A (en) * 1989-03-11 1990-09-20 Ricoh Co Ltd Data input device
JPH11149522A (en) * 1997-11-17 1999-06-02 Brother Ind Ltd Handwritten character input device and computer readable recording medium recorded with handwritten character input program
JPH11185046A (en) * 1997-12-18 1999-07-09 Canon Inc Graphic editor, layout processing method and storage medium
JPH11219464A (en) * 1998-02-03 1999-08-10 Toshiba Corp Automatic transaction machine
JP4042015B2 (en) * 1999-05-24 2008-02-06 富士フイルム株式会社 Character synthesis output device and method
WO2005096126A1 (en) * 2004-03-31 2005-10-13 Brother Kogyo Kabushiki Kaisha Image i/o device
JP2007233913A (en) * 2006-03-03 2007-09-13 Fuji Xerox Co Ltd Image processor and program
JP5600953B2 (en) * 2010-02-05 2014-10-08 沖電気工業株式会社 Information processing apparatus, information processing system, and information processing method
JP5482522B2 (en) * 2010-07-12 2014-05-07 沖電気工業株式会社 Display control apparatus, display control method, and program
JP6008076B2 (en) * 2011-10-13 2016-10-19 セイコーエプソン株式会社 Projector and image drawing method
JP2013123099A (en) * 2011-12-09 2013-06-20 Sanyo Electric Co Ltd Projection image display device

Also Published As

Publication number Publication date
JP2015011586A (en) 2015-01-19

Similar Documents

Publication Publication Date Title
JP6151989B2 (en) Information presenting apparatus, information presenting system, information presenting method, and program
US5870492A (en) Hand-written character entry apparatus
JP3427928B2 (en) Handwritten information processing system and method
JP4742132B2 (en) Input device, image processing program, and computer-readable recording medium
JP3471919B2 (en) Machine operating method and method used to operate a processor controlled machine
TW407409B (en) Seal imprint verifying apparatus
CN103488283A (en) Information processing apparatus and method for controlling the same, and background determination method
CN105378594A (en) Display device and control method thereof
KR20130091874A (en) Apparatus and method for guiding writing input for recognation of writing
US10719201B2 (en) Writing system, information processing apparatus, and non-transitory computer readable medium for dividing writing information associated with an identified sheet into separate documents based on timing information
CN109074223A (en) For carrying out the method and system of character insertion in character string
CN113190166A (en) Handwriting display method and device based on ink screen
US20230024586A1 (en) Learning device, learning method, and recording medium
CN105468189A (en) Information processing apparatus recognizing multi-touch operation and control method thereof
CN108369486B (en) Universal inking support
JP6237135B2 (en) Information processing apparatus and information processing program
JP2007072086A (en) Writing practice system, writing practice program, and letter sample data structure
CN104423838A (en) Document dividing and merging
JP2007334509A (en) Electronic medical record processor, electronic medical record processing method, electronic medical record processing program ,and storage medium with electronic medical record processing program stored therein
JP2008257530A (en) Electronic pen input data processing system
JP6757114B2 (en) Input display device
JP2009048655A (en) Handwriting input device, program, and handwriting input method system
JPH07168664A (en) Input control method for image input device
US10070066B2 (en) Coordinate calculator and coordinate calculation system
JP2016173710A (en) Information input device, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160601

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160601

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170321

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170414

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170428

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170526

R151 Written notification of patent or utility model registration

Ref document number: 6151989

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151