JP2011253325A - Input support device, input support method and program - Google Patents

Input support device, input support method and program Download PDF

Info

Publication number
JP2011253325A
JP2011253325A JP2010126364A JP2010126364A JP2011253325A JP 2011253325 A JP2011253325 A JP 2011253325A JP 2010126364 A JP2010126364 A JP 2010126364A JP 2010126364 A JP2010126364 A JP 2010126364A JP 2011253325 A JP2011253325 A JP 2011253325A
Authority
JP
Japan
Prior art keywords
information
unit
input support
extracted
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010126364A
Other languages
Japanese (ja)
Other versions
JP5445858B2 (en
Inventor
Keisuke Nishimura
恵介 西村
Michio Kameda
教夫 亀田
Yutaka Yoneda
豊 米田
Yusuke Ono
祐介 小野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
PFU Ltd
Original Assignee
PFU Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by PFU Ltd filed Critical PFU Ltd
Priority to JP2010126364A priority Critical patent/JP5445858B2/en
Publication of JP2011253325A publication Critical patent/JP2011253325A/en
Application granted granted Critical
Publication of JP5445858B2 publication Critical patent/JP5445858B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a new framework for supporting data-input operations using terminals by users.SOLUTION: Characters showing at least a part of names, address and birth date from the image of a driving license 51 generated by photographing in which the driving license 51 is placed on a light transmitting panel 3 and photographed from the bottom of the light-transmitting panel 3 are extracted. The extracted characters of the names, address and birth date are associated with the corresponding items on a predetermined input form. The light-transmitting panel 3 is a touch panel. It is also possible to perform the correction of the characters extracted based on the operation received by the touch panel.

Description

本発明は、利用者による端末を用いたデータ入力作業を支援する技術に関する。   The present invention relates to a technique for supporting data input work using a terminal by a user.

近年、銀行等の店舗内に設置されるローンの申し込みを行うための所謂無人契約機と呼ばれる端末など、何らかの商品やサービスを申し込むために用いられる端末が普及している。利用者は、端末に備えられたタッチパネルで所謂ソフトキーボードを操作するなどして、申し込みに必要な文字(例えば、氏名や住所など)を入力したり、端末に備えられた読取装置を操作して、申し込みに必要な身分証明書の写しを作成する。
例えば、下記特許文献1及び2には、読取装置を備える端末の例が開示されている。
具体的には、特許文献1には、表示画面に所定形状を有する物体を置いて、人がその物体を移動させる操作や、図形を描画する操作により、表示画面に表示された画像を操ることが可能な画像表示装置が開示されている。
また、特許文献2には、撮像に際して、外光モニタその他の方法で判断して、外来光が不足している場合には、調光シートの実効透過率を上げ、外来光を多く取り入れるようにすることで、白地レベルを確保し、逆に明るすぎる場所では、実効透過率を下げることで対処する撮像機能付投射装置が開示されている。
また、特許文献3には、帳票や身分証明書等の前記読み取り対象のセット位置を顧客操作表示部6の画面上とし、その上方から読み取りを行う顧客操作型端末装置が開示されている。
2. Description of the Related Art In recent years, terminals used to apply for some kind of product or service, such as a terminal called a so-called unmanned contract machine for applying for a loan installed in a store such as a bank, have become widespread. The user operates a so-called soft keyboard with a touch panel provided in the terminal, and inputs characters (for example, name and address) necessary for application, or operates a reading device provided in the terminal. , Make a copy of the ID needed to apply.
For example, Patent Documents 1 and 2 below disclose examples of terminals including a reading device.
Specifically, in Patent Document 1, an object having a predetermined shape is placed on the display screen, and a person moves the object or manipulates an image displayed on the display screen by drawing a figure. An image display apparatus capable of performing the above is disclosed.
Further, in Patent Document 2, when imaging is performed by using an external light monitor or other methods, and when extraneous light is insufficient, the effective transmittance of the light control sheet is increased so that more extraneous light is taken in. Thus, there is disclosed a projection apparatus with an imaging function that secures a white background level and conversely reduces the effective transmittance in a place that is too bright.
Further, Patent Document 3 discloses a customer operation type terminal device in which a set position of a reading target such as a form or an identification card is set on the screen of the customer operation display unit 6 and is read from above.

特開2007−11276号公報JP 2007-11276 A 特開2009−171442号公報JP 2009-171442 A 特開2005−184361号公報JP 2005-184361 A

ところで、タッチパネル操作(例えば、ソフトキーボードなど)による文字の入力を上手く行えない利用者は、端末操作による商品やサービスの申し込み手続きに多くの手間と時間を要してしまう。このような利便性の問題に起因し、端末の回転効率が悪化するという問題も生ずる。
しかしながら、特許文献1及び2に開示されている装置は、利用者が文字等の入力を行うことが想定されていないので、商品やサービスの申し込みを行うための端末として利用するのは困難である。従って、これら文献に開示されている装置では、端末の利便性に関する上記の問題を解決することはできない。
本発明は、利用者による端末を用いて行うデータ入力作業を支援する新しい枠組みを提供することを目的とする。
By the way, a user who cannot input characters by touch panel operation (for example, a soft keyboard) requires much time and effort to apply for a product or service by terminal operation. Due to such a problem of convenience, there also arises a problem that the rotation efficiency of the terminal deteriorates.
However, the devices disclosed in Patent Documents 1 and 2 are not expected to be used as a terminal for applying for goods and services because the user is not expected to input characters and the like. . Therefore, the devices disclosed in these documents cannot solve the above-described problems related to the convenience of the terminal.
An object of the present invention is to provide a new framework for supporting data input work performed by a user using a terminal.

本発明の入力支援装置は、透光性パネルと、前記透光性パネル上に配置される被写体を該透光性パネルの下方から撮影する撮影部と、撮影により生成される前記被写体の画像から、予め決められた情報の少なくとも一部を抽出する情報抽出部と、を備えることを特徴とする。   An input support apparatus according to the present invention includes a translucent panel, an imaging unit that captures an object placed on the translucent panel from below the translucent panel, and an image of the object that is generated by imaging. And an information extracting unit that extracts at least a part of predetermined information.

本発明の実施態様では、前記抽出した情報を、所定の入力フォームにおける対応する項目に関連付ける情報関連部を備える。この場合、前記透光性パネルはタッチパネルであり、前記情報関連部は、前記タッチパネルで受け付けた操作に基づいて、前記抽出した情報を前記入力フォームにおける対応する項目に関連付けてもよい。   In an embodiment of the present invention, an information-related unit that associates the extracted information with a corresponding item in a predetermined input form is provided. In this case, the translucent panel may be a touch panel, and the information related unit may associate the extracted information with a corresponding item in the input form based on an operation received by the touch panel.

本発明の別の実施態様では、前記抽出した情報を前記透光性パネルにリアルタイムに表示する表示制御部を備える。
また別の実施態様では、前記透光性パネルはタッチパネルであり、前記入力支援装置は、さらに、前記タッチパネルで受け付けた操作に基づいて、前記抽出した情報を修正する情報修正部を備えていてもよい。
In another embodiment of the present invention, a display control unit that displays the extracted information on the translucent panel in real time is provided.
In another embodiment, the translucent panel is a touch panel, and the input support device may further include an information correction unit that corrects the extracted information based on an operation received by the touch panel. Good.

また別の実施態様では、前記情報抽出部は、前記被写体の画像から、予め決められた情報を表す文字の少なくとも一部をOCR処理により抽出し、前記入力支援装置は、さらに、前記OCR処理の精度と、該OCR処理により抽出された文字の修正情報とを関連づけて記録する修正ログ記録部を備える。   In another embodiment, the information extraction unit extracts at least part of characters representing predetermined information from the subject image by OCR processing, and the input support device further performs the OCR processing. A correction log recording unit that records the accuracy and the correction information of the character extracted by the OCR process in association with each other is provided.

また別の実施態様では、前記透光性パネルに配置されたのと同じ被写体を該透光性パネルの上方から撮影する上方撮影部を備え、前記情報抽出部は、前記透光性パネルの上方からの撮影により生成される前記被写体の画像から、予め決められた情報の少なくとも一部を抽出する。
また別の実施態様では、前記情報抽出部は、前記被写体の画像から抽出した情報を揮発性記録媒体に書き込むようにしてもよい。
In another embodiment, an upper photographing unit that photographs the same subject as that disposed on the translucent panel from above the translucent panel, and the information extracting unit is disposed above the translucent panel. At least a part of the predetermined information is extracted from the image of the subject generated by the shooting.
In another embodiment, the information extraction unit may write information extracted from the image of the subject to a volatile recording medium.

本発明の入力支援方法は、透光性パネル上に配置される被写体を該透光性パネルの下方から撮影するステップと、撮影により生成される前記被写体の画像から、予め決められた情報の少なくとも一部を抽出するステップと、を含むことを特徴とする。   The input support method according to the present invention includes a step of photographing a subject arranged on a translucent panel from below the translucent panel, and at least predetermined information from an image of the subject generated by photographing. Extracting a part.

本発明のプログラムは、上記入力支援方法を情報処理装置に実行させるコンピュータプログラムである。
なお、本発明において、1つの機能部や装置が有する機能が2つ以上の物理的手段や装置により実現されても、2つ以上の機能部や装置の機能が1つの物理的手段や装置により実現されても良い。
The program of the present invention is a computer program that causes an information processing apparatus to execute the input support method.
In the present invention, even if the function of one functional unit or device is realized by two or more physical means or devices, the function of two or more functional units or devices is achieved by one physical means or device. It may be realized.

本発明によれば、被写体の画像から、予め決められた情報の少なくとも一部が抽出されるので、利用者による端末を用いて行うデータ入力作業を支援することができ、利用者の負担を軽減することができる。   According to the present invention, since at least a part of predetermined information is extracted from the image of the subject, it is possible to support the data input operation performed by the user using the terminal and reduce the burden on the user. can do.

第1実施形態の入力支援装置の全体構成を示す図である。It is a figure which shows the whole structure of the input assistance apparatus of 1st Embodiment. 入力支援装置のハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of an input assistance apparatus. 入力支援装置の機能構成を示す図である。It is a figure which shows the function structure of an input assistance apparatus. 入力支援装置による所定の入力フォームへのデータの入力支援処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the input assistance process of the data to the predetermined input form by an input assistance apparatus. タッチパネル上に被写体を配置した状態を示す図である。It is a figure which shows the state which has arrange | positioned the to-be-photographed object on a touch panel. 被写体の画像から抽出された情報(抽出済み情報)と該抽出済み情報が反映された入力フォームとを透光性パネルに表示した状態を示す図である。It is a figure which shows the state which displayed on the translucent panel the information (extracted information) extracted from the image | photograph of a to-be-photographed object, and the input form in which this extracted information was reflected. タッチパネル上で領域を設定する方法の具体例を説明する図である。It is a figure explaining the specific example of the method of setting an area | region on a touch panel. 入力支援装置の変形例を説明する図である。It is a figure explaining the modification of an input assistance device. 入力支援装置の別の変形例を説明する図である。It is a figure explaining another modification of an input support device. 入力支援装置のまた別の変形例を説明する図である。It is a figure explaining another modification of an input support device. 入力支援装置のまた別の変形例を説明する図である。It is a figure explaining another modification of an input support device. 上方撮影部を備える入力支援装置による入力支援処理の流れを示す図である。It is a figure which shows the flow of the input assistance process by an input assistance apparatus provided with an upper imaging | photography part. 上方撮影部を備える入力支援装置による入力支援処理の流れを示す図である。It is a figure which shows the flow of the input assistance process by an input assistance apparatus provided with an upper imaging | photography part. 入力フォームに対応する書面を撮影し、入力フォームにおける項目に関する情報を抽出する実施形態を説明する図である。It is a figure explaining embodiment which image | photographs the document corresponding to an input form and extracts the information regarding the item in an input form. 抽出済み情報を透光性パネルにリアルタイムに表示する実施形態を説明する図である。It is a figure explaining embodiment which displays extracted information on a translucent panel in real time.

以下、本発明の第1実施形態として、投射表示機能及び撮像機能を有し、利用者による商品やサービスの申し込み情報の入力作業を支援する入力支援装置1について、図面を参照して説明する。   Hereinafter, as a first embodiment of the present invention, an input support apparatus 1 that has a projection display function and an imaging function and assists a user in inputting application information for products and services will be described with reference to the drawings.

図1は、第1実施形態の入力支援装置1の全体構成を模式的に示す。
入力支援装置1は、透光性パネル3と、制御装置5と、表示部7と、撮影部9とを備える。第1実施形態では、例えば、透光性パネル3は筐体11の上面の一部をなすように配置され、制御装置5、表示部7、及び撮影部9は、筐体11内に適宜配置される。なお、図1では、各ハードウェア間を接続するコードや基板を省略している。
FIG. 1 schematically shows the overall configuration of the input support apparatus 1 of the first embodiment.
The input support device 1 includes a translucent panel 3, a control device 5, a display unit 7, and a photographing unit 9. In the first embodiment, for example, the translucent panel 3 is disposed so as to form a part of the upper surface of the housing 11, and the control device 5, the display unit 7, and the imaging unit 9 are appropriately disposed in the housing 11. Is done. In FIG. 1, a cord and a board that connect each piece of hardware are omitted.

透光性パネル3は、ユーザからの操作を受け付けるタッチパネル13と、タッチパネル13を介して画像を表示するスクリーン15とを適宜の間隔を空けて重ね又は隙間なく重ねてなる透光性を有するパネルを用いる。この透光性パネル3は、撮影部9によって撮影される被写体(例えば、何らかの申込書や身分証明書など)を配置するための原稿台及び読み取り面を成す。   The translucent panel 3 is a translucent panel in which a touch panel 13 that receives an operation from a user and a screen 15 that displays an image via the touch panel 13 are overlapped with an appropriate interval or without gaps. Use. The translucent panel 3 forms a document table and a reading surface on which a subject (for example, some application form or identification card) photographed by the photographing unit 9 is arranged.

タッチパネル13としては、指や専用のペン(スタイラスペンなど)で電子機器(ここでは入力支援装置1)に対して動作を指示することができる透過率の高いタッチパネル(例えば、静電容量方式、又は光学方式のものなど)を用いる。
また、スクリーン15としては、電圧に応じて透光性が変化する部材(例えば、UMUフィルム(登録商標)など)を用いる。
なお、図1では、透光性パネル3(タッチパネル13及びスクリーン15)の厚みを誇張して表示している。
As the touch panel 13, a touch panel with a high transmittance (for example, a capacitance method, or the like, which can instruct an operation to an electronic device (here, the input support device 1) with a finger or a dedicated pen (such as a stylus pen). Optical type etc. are used.
In addition, as the screen 15, a member whose translucency changes according to voltage (for example, UMU film (registered trademark)) is used.
In FIG. 1, the thickness of the translucent panel 3 (touch panel 13 and screen 15) is exaggerated.

制御装置5は、透光性パネル3上の領域を設定する機能、透光性パネル3の透光性(詳細には、スクリーン15の透光性)を変化させる機能、表示部7を制御する機能、撮影部9を制御する機能、及び撮影により生成された画像から所望の情報を抽出する機能等の様々な機能を有する。制御装置5のハードウェア構成及び機能の詳細については、図2及び図3を参照して後述する。   The control device 5 controls the function of setting an area on the translucent panel 3, the function of changing the translucency of the translucent panel 3 (specifically, the translucency of the screen 15), and the display unit 7. It has various functions such as a function, a function for controlling the photographing unit 9, and a function for extracting desired information from an image generated by photographing. Details of the hardware configuration and functions of the control device 5 will be described later with reference to FIGS.

表示部7は、制御装置5によって設定された透光性パネル3上の領域に対して撮影用の光を照射したり、利用者に提示する画像(ユーザインターフェースなど)をスクリーン15に投影する。第1実施形態では、表示部7として、CRTプロジェクタ、液晶プロジェクタ、又はDLPプロジェクタ等の周知のプロジェクタを用いる。以下、第1実施形態では、表示部7をプロジェクタ7と称する。
プロジェクタ7が照射する撮影用の光は、上記設定された領域に応じた画像(例えば、白一色の画像など)を、スクリーン15のうちの上記設定された領域に対応する範囲に投影するための光であり、所謂ストロボの役割を果たす。なお、図において、プロジェクタ7とスクリーン15との間に示した破線は、プロジェクタ7による光の照射範囲を表す。
The display unit 7 irradiates the area on the translucent panel 3 set by the control device 5 with light for photographing or projects an image (user interface or the like) to be presented to the user onto the screen 15. In the first embodiment, a known projector such as a CRT projector, a liquid crystal projector, or a DLP projector is used as the display unit 7. Hereinafter, in the first embodiment, the display unit 7 is referred to as a projector 7.
The shooting light emitted by the projector 7 is used for projecting an image corresponding to the set area (for example, an image of white color) onto a range corresponding to the set area of the screen 15. It is light and plays the role of a so-called strobe. In the figure, a broken line shown between the projector 7 and the screen 15 represents a light irradiation range by the projector 7.

撮影部9は、透光性パネル3(詳細にはスクリーン15)に照射された光の透光性パネル3からの反射光を該透光性パネル3の下方から撮影する。
第1実施形態では、撮影部9として、例えばCCDイメージセンサやCMOSイメージセンサ等の撮像素子を備える周知のデジタルカメラを用いる。以下、第1実施形態では、撮影部9をカメラ9と称する。なお、図において、カメラ9とスクリーン15との間に示した破線は、カメラ9による撮像範囲を表す。
The photographing unit 9 photographs the reflected light from the translucent panel 3 of the light irradiated on the translucent panel 3 (specifically, the screen 15) from below the translucent panel 3.
In the first embodiment, a known digital camera including an image sensor such as a CCD image sensor or a CMOS image sensor is used as the photographing unit 9. Hereinafter, in the first embodiment, the photographing unit 9 is referred to as a camera 9. In the figure, the broken line shown between the camera 9 and the screen 15 represents the imaging range by the camera 9.

図2は、入力支援装置1のハードウェア構成を示す。
第1実施形態の入力支援装置1では、タッチパネル13、スクリーン15、プロジェクタ7、及びカメラ9は、それぞれ制御装置5と通信可能に接続される。制御装置5は、バスを介して通信可能に接続される、CPU21、ROM22、RAM23、HDD(ハードディスク)24、及び通信装置25等の構成要素を含んで構成される。
FIG. 2 shows a hardware configuration of the input support apparatus 1.
In the input support device 1 according to the first embodiment, the touch panel 13, the screen 15, the projector 7, and the camera 9 are connected to the control device 5 so as to be able to communicate with each other. The control device 5 includes components such as a CPU 21, a ROM 22, a RAM 23, an HDD (hard disk) 24, and a communication device 25 that are communicably connected via a bus.

図3は、制御装置5の機能構成を示す。
制御装置5は、領域設定部31、透光性制御部32、表示制御部33、撮影制御部34、情報抽出部35、情報関連部36、情報修正部37、及び修正ログ記録部38を備える。これら機能部は、例えばCPU21がHDD24やROM22等の記憶装置からRAM23上に所定のプログラムを読み出して実行することにより機能的に実現される。以下、各機能部について、原則として符号の順に説明するが、説明の都合上、表示制御部33及び撮影制御部34については最後に説明する。
FIG. 3 shows a functional configuration of the control device 5.
The control device 5 includes an area setting unit 31, a translucency control unit 32, a display control unit 33, an imaging control unit 34, an information extraction unit 35, an information related unit 36, an information correction unit 37, and a correction log recording unit 38. . These functional units are functionally realized, for example, when the CPU 21 reads and executes a predetermined program on the RAM 23 from a storage device such as the HDD 24 or the ROM 22. In the following, each function unit will be described in principle in the order of reference numerals, but for convenience of description, the display control unit 33 and the imaging control unit 34 will be described last.

領域設定部31は、タッチパネル13で利用者から受け付けた操作に基づいて透光性パネル3上の領域を設定する。具体的には、タッチパネル13上に配置された被写体について、タッチパネル13上における該被写体の位置がタッチパネル操作によって指定された場合に、該指定された位置に対応する領域を、撮影用の光を照射すべき領域として設定する。領域の設定方法の例については、図7を参照して後述する。   The area setting unit 31 sets an area on the translucent panel 3 based on an operation received from the user on the touch panel 13. Specifically, for a subject placed on the touch panel 13, when the position of the subject on the touch panel 13 is designated by a touch panel operation, a region corresponding to the designated position is irradiated with photographing light. Set as the area to be. An example of the region setting method will be described later with reference to FIG.

透光性制御部32は、スクリーン15の透光性を変化させる。例えば、利用者に提示する画像をプロジェクタ7によってスクリーン15に投射表示する場合、スクリーン15の透光性を下げ(より不透明(例えば半透明)に変化させ)、カメラ9によって撮影を行う時には、スクリーン15の透光性を上げる(より透明に変化させる)。   The translucency control unit 32 changes the translucency of the screen 15. For example, when an image to be presented to the user is projected and displayed on the screen 15 by the projector 7, when the camera 9 shoots with the camera 9, the translucency of the screen 15 is lowered (changed more opaque (for example, translucent)) Increase the translucency of 15 (change to more transparent).

情報抽出部35は、撮影により生成される被写体の画像から、予め決められた情報の少なくとも一部を抽出し、該抽出した情報をRAM23等の揮発性記録媒体に書き込む。第1実施形態では、情報抽出部35は、被写体の画像から、予め決められた情報(例えば、氏名、住所、及び生年月日など)を表す文字の少なくとも一部を周知のOCR処理により抽出するとともに、該OCR処理の精度(尤度)を表す情報を出力するように構成される。   The information extraction unit 35 extracts at least a part of predetermined information from an image of a subject generated by photographing, and writes the extracted information in a volatile recording medium such as the RAM 23. In the first embodiment, the information extraction unit 35 extracts at least part of characters representing predetermined information (for example, name, address, date of birth, etc.) from the subject image by a known OCR process. At the same time, it is configured to output information representing the accuracy (likelihood) of the OCR process.

情報関連部36は、情報抽出部35が被写体の画像から抽出した情報を、所定の入力フォームにおける対応する項目に関連付ける。第1実施形態では、タッチパネル13で受け付けた操作に基づいて、前記抽出した情報を入力フォームにおける対応する項目に関連付ける。   The information association unit 36 associates information extracted from the image of the subject by the information extraction unit 35 with a corresponding item in a predetermined input form. In the first embodiment, the extracted information is associated with the corresponding item in the input form based on the operation received on the touch panel 13.

情報修正部37は、タッチパネル13で受け付けた操作に基づいて、情報抽出部35が被写体の画像から抽出した情報を修正する。   The information correction unit 37 corrects the information extracted from the subject image by the information extraction unit 35 based on the operation received on the touch panel 13.

修正ログ記録部38は、情報抽出部35によるOCR処理の精度と、該OCR処理により抽出された文字の修正情報とを対応づけて、例えばHDD24等の記憶装置に書き込むなどして記録する。   The correction log recording unit 38 records the accuracy of the OCR process performed by the information extraction unit 35 and the correction information of the character extracted by the OCR process by writing them in a storage device such as the HDD 24, for example.

表示制御部33は、プロジェクタ7がスクリーン15に対して照射する光の条件(例えば、画像パターン、輝度、色など)を決定し、該決定した条件で光が照射されるようにプロジェクタ7を制御する。例えば、情報抽出部35が被写体の画像から抽出した情報や、情報修正部37が修正した情報(修正後の情報)を透光性パネル3に表示するようにプロジェクタ7を制御する。   The display control unit 33 determines light conditions (for example, an image pattern, luminance, color, and the like) that the projector 7 irradiates the screen 15 and controls the projector 7 so that light is emitted under the determined conditions. To do. For example, the projector 7 is controlled so that information extracted from the image of the subject by the information extracting unit 35 and information corrected by the information correcting unit 37 (information after correction) are displayed on the translucent panel 3.

撮影制御部34は、プロジェクタ7が透光性パネル3に対して撮影用の光を照射したタイミングに合わせて、スクリーン15からの反射光が撮影されるようにカメラ9を制御する。   The photographing control unit 34 controls the camera 9 so that the reflected light from the screen 15 is photographed at the timing when the projector 7 irradiates the translucent panel 3 with photographing light.

図4は、入力支援装置1による所定の入力フォームへのデータの入力支援処理の流れを示すフローチャートであり、図5は、タッチパネル13上に被写体(例えば、身分証明書としての運転免許証)51を配置した状態を示し、図6は、被写体51の画像から抽出された情報(抽出済み情報)と該抽出済み情報が反映された入力フォームとを透光性パネル3に表示した状態を示し、図7は、タッチパネル13上で領域を設定する方法の具体例を示す。以下、図4〜7を参照して、かかる入力支援処理について説明する。   FIG. 4 is a flowchart showing a flow of data input support processing for a predetermined input form by the input support device 1, and FIG. 5 shows a subject (for example, a driver's license as an identification card) 51 on the touch panel 13. FIG. 6 shows a state where information extracted from the image of the subject 51 (extracted information) and an input form reflecting the extracted information are displayed on the translucent panel 3, FIG. 7 shows a specific example of a method for setting an area on the touch panel 13. Hereinafter, such input support processing will be described with reference to FIGS.

なお、領域設定部31がタッチパネル13上の領域を設定する(領域設定処理を実行する)までは、入力支援装置1の透光性制御部32は、透光性パネル3を不透明(例えば半透明)な状態に維持しており、表示制御部33は、プロジェクタ7を制御し、所定の光をスクリーン15に対して照射させ、図5(A)に示すような画面(画像)を表示しているものとする。また、図5(A)において、タッチパネル13上に示した斜線は、画像の模様ではなく、透光性パネル3が不透明な状態であることを表す。   Until the area setting unit 31 sets an area on the touch panel 13 (executes the area setting process), the translucency control unit 32 of the input support apparatus 1 makes the translucent panel 3 opaque (for example, translucent). The display control unit 33 controls the projector 7 to irradiate the screen 15 with predetermined light, and displays a screen (image) as shown in FIG. It shall be. In FIG. 5A, the hatched lines on the touch panel 13 indicate that the translucent panel 3 is in an opaque state, not an image pattern.

まず、図5(A)に示すように、利用者が被写体51(身分証明書としての運転免許証)の一方の面(例えば、表面)を下に向けた状態でタッチパネル13上に配置し、撮影を指示するためのScanボタン52を押下した場合、入力支援装置1の撮影制御部34は、カメラ9を制御し、かかる被写体51の一方の面を撮影する(S41)。
具体的には、まず、領域設定部31は、利用者によるタッチパネル操作に応じて透光性パネル3上の領域を設定する。例えば、領域設定部31は、Scanボタン52が押下されたことをトリガとして、被写体51の位置に対応する領域を設定する。なお、以下、透光性パネル3において、設定された領域を“設定済み領域”と称し、それ以外の領域を“余白領域”と称する。
First, as shown in FIG. 5A, the user places the subject 51 (driver's license as an identification card) on the touch panel 13 with one side (for example, the front side) facing down, When the Scan button 52 for instructing photographing is pressed, the photographing control unit 34 of the input support apparatus 1 controls the camera 9 to photograph one surface of the subject 51 (S41).
Specifically, first, the area setting unit 31 sets an area on the translucent panel 3 in accordance with a touch panel operation by the user. For example, the region setting unit 31 sets a region corresponding to the position of the subject 51, triggered by pressing of the Scan button 52. Hereinafter, in the translucent panel 3, the set area is referred to as “set area”, and the other area is referred to as “margin area”.

領域が設定されると、透光性制御部32は、透光性パネル3のスクリーン15の透光性を上げて、例えば、スクリーン15を透明な状態に変化させる。   When the region is set, the translucency control unit 32 increases the translucency of the screen 15 of the translucent panel 3 and changes the screen 15 to a transparent state, for example.

次に、表示制御部33は、スクリーン15の透光性が上がるタイミング(例えば、透明になるタイミング)に合わせてプロジェクタ7を制御し、図5(B)に示すように、設定済み領域54に撮影用の光を照射させ、余白領域55により暗い光を照射させる。
これにより、タッチパネル13上に配置された被写体に撮影用の光が照射される。なお、図5(B)において、余白領域55に示したドット模様は、プロジェクタ7が照射した光(画像)の模様を表すのではなく、該余白領域55全体に暗い色が照射されていることを表す。また、図5(B)では、プロジェクタ7による光照射時の透光性パネル3の状態を説明するため、被写体51の図示を省略した。
Next, the display control unit 33 controls the projector 7 in accordance with the timing when the translucency of the screen 15 increases (for example, when the screen 15 becomes transparent), and as shown in FIG. Light for photographing is irradiated, and dark light is irradiated by the blank area 55.
As a result, the subject arranged on the touch panel 13 is irradiated with photographing light. In FIG. 5B, the dot pattern shown in the margin area 55 does not represent the pattern of light (image) irradiated by the projector 7, but the entire margin area 55 is irradiated with a dark color. Represents. 5B, the subject 51 is not shown in order to describe the state of the translucent panel 3 when the projector 7 emits light.

そして、撮影制御部34は、プロジェクタ7が透光性パネル3に撮影用の光を照射したタイミングに合わせてカメラ9を制御し、照射された光の透光性パネル3からの反射光を撮影する。これにより、設定済み領域、すなわちタッチパネル13上に配置された被写体51が鮮明に表示され、かつ、余白領域が暗い色(黒色など)で表示される画像が生成される。
このように、第1実施形態の入力支援装置1では、撮影時には、プロジェクタ7が余白領域に対してより暗い色を照射するので、利用者の目が眩むことはない。
Then, the photographing control unit 34 controls the camera 9 in accordance with the timing when the projector 7 irradiates the light transmitting panel 3 with light for photographing, and photographs the reflected light from the light transmitting panel 3. To do. As a result, an image in which the set area, that is, the subject 51 arranged on the touch panel 13 is clearly displayed and the blank area is displayed in a dark color (black or the like) is generated.
Thus, in the input support device 1 of the first embodiment, the projector 7 irradiates a darker color with respect to the blank area at the time of shooting, so that the user's eyes are not dazzled.

次に、情報抽出部35は、撮影により生成された被写体51の画像に対してOCR処理を実行し、予め決められた情報の少なくとも一部を抽出する(S42)。
具体的には、第1実施形態では、予め決められた情報は、氏名、住所、及び生年月日であり、情報抽出部35は、被写体51の画像から、氏名、住所、及び生年月日を項目名とし、該項目名に対応して記載されている文字を抽出する。
Next, the information extraction unit 35 performs OCR processing on the image of the subject 51 generated by photographing, and extracts at least a part of predetermined information (S42).
Specifically, in the first embodiment, the predetermined information is the name, address, and date of birth, and the information extraction unit 35 obtains the name, address, and date of birth from the image of the subject 51. The item name is extracted, and characters described in correspondence with the item name are extracted.

そして、情報抽出部35は、上記の抽出済み情報をRAM23等の揮発性記録媒体に書き込む(S43)。これにより、入力支援装置1の電源をOFFにした場合には、OCR処理により抽出された情報は消去されるので、利用者の個人情報の漏洩を抑止できるとともに、利用者に安心感を与えることができる。   Then, the information extraction unit 35 writes the extracted information into a volatile recording medium such as the RAM 23 (S43). As a result, when the power of the input support apparatus 1 is turned off, the information extracted by the OCR process is deleted, so that leakage of personal information of the user can be suppressed and the user can feel secure. Can do.

被写体51の画像からの情報抽出が完了すると、表示制御部33は、抽出済み情報及び所定の申込書に対応する入力フォームをタッチパネル13に表示する(S44)。
具体的には、図6(A)に示すように、表示制御部33は、プロジェクタ7を制御し、タッチパネル13の右側領域に抽出済み情報61を、また、タッチパネル13の左側領域に入力フォーム62を、それぞれタッチパネル13で操作可能に表示する(例えば、選択やドラッグができるように表示する)。なお、抽出済み情報61と入力フォーム62は、図示の例にかかわらず、タッチパネル13上の任意の位置に表示することができる。
When the information extraction from the image of the subject 51 is completed, the display control unit 33 displays the extracted information and the input form corresponding to the predetermined application form on the touch panel 13 (S44).
Specifically, as shown in FIG. 6A, the display control unit 33 controls the projector 7 to extract the extracted information 61 in the right area of the touch panel 13 and the input form 62 in the left area of the touch panel 13. Are displayed so as to be operable on the touch panel 13 (for example, displayed so that they can be selected and dragged). The extracted information 61 and the input form 62 can be displayed at an arbitrary position on the touch panel 13 regardless of the illustrated example.

次に、情報修正部37は、抽出済み情報61について、利用者から修正指示があったかどうかを判断する(S45)。
具体的には、例えば、利用者によって、抽出済み情報61のいずれかが押下(選択)され、続いて、修正処理の実行を指示するための修正ボタン64が押下された場合には、修正指示があったものと判断する。
Next, the information correction unit 37 determines whether or not there has been a correction instruction from the user for the extracted information 61 (S45).
Specifically, for example, when any of the extracted information 61 is pressed (selected) by the user and then the correction button 64 for instructing execution of the correction process is pressed, the correction instruction Judge that there was.

修正指示がない場合(S45の判断がNoの場合)、情報関連部36は、タッチパネル13で受け付けた操作に基づいて、抽出済み情報61を入力フォーム62における対応する項目に関連付ける(S46)。
具体的には、図6(B)に示すように、利用者によって、抽出済み情報61のいずれか(例えば、氏名に関する情報など)が押下(選択)された状態で、入力フォーム62における一つの項目(例えば、氏名に関する項目など)上にドラッグ(移動)された場合、情報関連部36は、移動された情報を、移動先である入力フォーム62中の項目に関連付ける。
When there is no correction instruction (when the determination in S45 is No), the information related unit 36 associates the extracted information 61 with the corresponding item in the input form 62 based on the operation received on the touch panel 13 (S46).
Specifically, as shown in FIG. 6B, one of the input forms 62 is selected in a state in which any of the extracted information 61 (for example, information related to the name) is pressed (selected) by the user. When dragged (moved) onto an item (for example, an item related to a name), the information-related unit 36 associates the moved information with the item in the input form 62 that is the movement destination.

また、入力フォーム62における項目のうち、抽出済み情報61に対応しない項目(図6では、性別やプランに関する項目)については、チェックボックスやリストボックス等をタッチパネル13で操作することにより、情報を入力することができるようにするのがよい。そして、情報関連部36は、このようにして入力された情報についても、対応する項目に関連付けるものとする。   Further, among items in the input form 62, for items that do not correspond to the extracted information 61 (items related to gender and plan in FIG. 6), information is input by operating check boxes, list boxes, and the like on the touch panel 13. It is good to be able to do it. And the information relevant part 36 shall be related with the corresponding item also about the information input in this way.

そして、情報修正部37は、S45と同様に、抽出済み情報61について、利用者から修正指示があったかどうかを判断する(S47)。なお、ここでいう抽出済み情報61は、入力フォーム62における対応する項目に関連付けられた情報(入力フォーム62上に移動され表示されている情報)を含むものとする。   And the information correction part 37 judges whether the correction instruction | indication was received from the user about the extracted information 61 similarly to S45 (S47). Note that the extracted information 61 here includes information associated with the corresponding item in the input form 62 (information moved and displayed on the input form 62).

一方、S45又はS47で修正指示があった場合、情報修正部37は、タッチパネル13で受け付けた操作に基づいて、抽出済み情報61を修正する(S48)。
具体的には、例えば、修正候補の情報(例えば文字など)や、修正内容を入力するための所謂ソフトウェアキーボード(a soft keyboard)をタッチパネル13上に表示し(詳細には、表示制御部33による処理である)、修正の対象となる抽出済み情報61について、修正内容の入力を利用者から受け付け、受け付けた内容で抽出済み情報61を修正する。
On the other hand, when there is a correction instruction in S45 or S47, the information correction unit 37 corrects the extracted information 61 based on the operation received on the touch panel 13 (S48).
Specifically, for example, correction candidate information (for example, characters) and a so-called software keyboard (a soft keyboard) for inputting correction contents are displayed on the touch panel 13 (specifically, by the display control unit 33). Process), the input of correction content is received from the user for the extracted information 61 to be corrected, and the extracted information 61 is corrected with the received content.

次に、入力支援装置1は、入力フォーム62への情報の入力が完了したかどうかを判断する(S49)。
具体的には、利用者によって、入力が完了したことを通知するための完了ボタン65が押下された場合には、入力が完了したものと判断する。そして、入力支援装置1は、入力が完了していないと判断すると、処理をS47へ移行し、以後、修正指示があるか又は入力が完了するまで待機する。
Next, the input support apparatus 1 determines whether or not the input of information to the input form 62 has been completed (S49).
Specifically, when the user presses the completion button 65 for notifying that the input has been completed, it is determined that the input has been completed. When the input support apparatus 1 determines that the input has not been completed, the process proceeds to S47, and thereafter waits until there is a correction instruction or the input is completed.

一方、入力が完了した場合(完了ボタン65が押下された場合)には、修正ログ記録部38は、情報抽出部35によるOCR処理の精度と、該OCR処理により抽出された文字の修正情報とを対応づけて、ログ情報としてHDD24等の記憶装置に記録する(S50)。   On the other hand, when the input is completed (when the completion button 65 is pressed), the correction log recording unit 38 determines the accuracy of the OCR processing by the information extraction unit 35 and the correction information of the character extracted by the OCR processing. Are recorded in a storage device such as the HDD 24 as log information (S50).

そして、入力支援装置1は、入力フォーム62の各項目に対応づけられた情報とログ情報とを、入力フォーム62に対応するサービスの受け付け業務を行う管理センターに送信し(S51)、処理を終了する。   Then, the input support apparatus 1 transmits the information associated with each item of the input form 62 and the log information to the management center that performs the reception work of the service corresponding to the input form 62 (S51), and ends the processing. To do.

次に、被写体51の撮影時(S41)における、タッチパネル操作に応じた透光性パネル3上の領域の設定方法の例について詳細に説明する。
図7(A)に示すように、タッチパネル13上のポイント(例えば、タッチパネル13上の任意の位置に配置された被写体51の左上の角)が押下され、続いて図7(B)に示すように、タッチパネル13上のポイント(例えば、被写体51の右下の角)が押下された後、Scanボタン52(図5(A)参照)が押下された場合、領域設定部31は、押下された2箇所のポイントを、領域を指定するためのポイント(領域指定ポイントP1及び領域指定ポイントP2)として設定する。
そして、領域設定部31は、上記領域指定ポイントP1及びP2の座標を対角の座標とする四角形の領域を設定する。
これにより、図7(C)に示すように、撮影時には、タッチパネル13上の設定済み領域54に撮影用の光が照射され、余白領域55にはより暗い光が照射される。
Next, an example of a method for setting an area on the translucent panel 3 according to the touch panel operation at the time of photographing the subject 51 (S41) will be described in detail.
As shown in FIG. 7A, a point on the touch panel 13 (for example, the upper left corner of the subject 51 arranged at an arbitrary position on the touch panel 13) is pressed, and subsequently, as shown in FIG. 7B. When the scan button 52 (see FIG. 5A) is pressed after a point on the touch panel 13 (for example, the lower right corner of the subject 51) is pressed, the area setting unit 31 is pressed. Two points are set as points for designating an area (area designation point P1 and area designation point P2).
Then, the area setting unit 31 sets a rectangular area having the coordinates of the area designation points P1 and P2 as diagonal coordinates.
As a result, as shown in FIG. 7C, at the time of shooting, the set area 54 on the touch panel 13 is irradiated with shooting light, and the blank area 55 is irradiated with darker light.

なお、透光性パネル3上の領域の設定方法は、上記に限定されるものではなく、タッチパネル13上で被写体の外縁を指でなぞる(トレースする)ことによって、被写体の外形に対応する領域を設定してもよいし、被写体の各角を押下させ、押下された順に角を線分で結んで成る任意の形状に対応する領域を設定してもよい。   Note that the method of setting the area on the translucent panel 3 is not limited to the above, and the area corresponding to the outer shape of the subject is traced by tracing the outer edge of the subject with the finger on the touch panel 13. It may be set, or a region corresponding to an arbitrary shape formed by pressing each corner of the subject and connecting the corners with line segments in the pressed order may be set.

以上のように、第1実施形態の入力支援装置1によれば、所定のサービスに関する申し込みを行う利用者は、基本的には、被写体51の画像から抽出された情報をタッチパネル13上で操作(選択やドラッグなど)することにより、申し込みに必要な情報の入力(抽出情報61と入力フォーム62における項目との関連付け)を行うことができる。これにより、タッチパネル13を操作して文字を入力するのに不慣れな利用者でも、申し込み情報を容易に入力することができる。   As described above, according to the input support device 1 of the first embodiment, a user who applies for a predetermined service basically operates the information extracted from the image of the subject 51 on the touch panel 13 ( By selecting or dragging, it is possible to input information necessary for the application (association between the extracted information 61 and items in the input form 62). Thereby, even a user unfamiliar with inputting characters by operating the touch panel 13 can easily input application information.

また、管理センターでは、受信した情報に基づいてサービスの受け付け処理が行われる。そして、その際にログ情報を参照することにより、サービスの利用を許可するかどうかを判断することができる。例えば、OCR処理の精度と修正情報が整合しない場合、例えば、OCR処理の精度が高い(文字が正しく抽出された可能性が高い)にもかかわらず、該OCR処理により認識された文字が修正されている場合には、不正な入力が行われたものと判断し、サービスの利用を許可しないという対応が考えられる。   In the management center, service acceptance processing is performed based on the received information. Then, by referring to the log information at that time, it is possible to determine whether or not to permit the use of the service. For example, when the accuracy of the OCR process and the correction information do not match, for example, the character recognized by the OCR process is corrected even though the accuracy of the OCR process is high (the possibility that the character is correctly extracted) is high. If this is the case, it may be determined that an illegal input has been made and the use of the service is not permitted.

以上、本発明の第1実施形態を説明したが、本発明は、上記実施形態に限定されることなく、下記のように種々に変形して適用することが可能である。なお、変形例を説明するための図面において、第1実施形態又はいずれかの変形例に関する図面中の要素と同じ符号が付されている要素は、基本的には互いに同様の機能を有しているものとする。
[変形例]
例えば、第1実施形態で説明した入力支援装置1において、カメラ9に代えて、イメージスキャナ(例えば、ラインスキャナなど)を撮影部として用いたり、プロジェクタ7及びスクリーン15に代えて、透明ディスプレイ(例えば、透明に作られた所謂有機ELディスプレイなど)を表示部として用いたり、さらに、透光性パネル3上に配置された被写体を上方から撮影する上方撮影部(例えばデジタルカメラ)を備えてもよい。
具体的には、変形例の入力支援装置81は、図8に示すように、第1実施形態で説明した入力支援装置1とほぼ同様の機能を有するとともに、カメラ9が透光性パネル3の下方から撮影するのと同じ被写体を透光性パネル3の上方から撮影する上方撮影部(以下、上方カメラと称する)82を備える。この例では、撮影制御部34が、カメラ9及び上方カメラ82を制御する。
The first embodiment of the present invention has been described above, but the present invention is not limited to the above-described embodiment, and can be variously modified and applied as described below. In the drawings for explaining the modified examples, elements having the same reference numerals as the elements in the drawings relating to the first embodiment or any modified example basically have the same functions. It shall be.
[Modification]
For example, in the input support apparatus 1 described in the first embodiment, an image scanner (for example, a line scanner) is used as a photographing unit instead of the camera 9, or a transparent display (for example, instead of the projector 7 and the screen 15) is used. A so-called organic EL display made transparent, etc.) may be used as a display unit, and an upper photographing unit (for example, a digital camera) for photographing a subject arranged on the translucent panel 3 from above may be provided. .
Specifically, as shown in FIG. 8, the modified input support device 81 has substantially the same function as the input support device 1 described in the first embodiment, and the camera 9 is a translucent panel 3. An upper photographing unit (hereinafter referred to as an upper camera) 82 is provided for photographing the same subject that is photographed from below from above the translucent panel 3. In this example, the imaging control unit 34 controls the camera 9 and the upper camera 82.

また別の変形例の入力支援装置91は、図9に示すように、第1実施形態で説明した入力支援装置1とほぼ同様の機能を有し、上方撮影部82を備えるとともに、第1実施形態で説明したカメラ9に代えて、イメージスキャナ(例えば、ラインスキャナなど)93を備える。この例では、撮影制御部34が、イメージスキャナ93及び上方カメラ82を制御する。   As shown in FIG. 9, the input support device 91 of another modification has substantially the same function as the input support device 1 described in the first embodiment, and includes an upper photographing unit 82 and the first implementation. Instead of the camera 9 described in the embodiment, an image scanner (for example, a line scanner) 93 is provided. In this example, the imaging control unit 34 controls the image scanner 93 and the upper camera 82.

また別の変形例の入力支援装置101は、図10に示すように、第1実施形態で説明した入力支援装置1とほぼ同様の機能を有し、上方撮影部82を備え、第1実施形態で説明したプロジェクタ7及びスクリーン15に代えて、透明ディスプレイ102を備えるとともに、撮影用の光を照射する所謂ストロボとして機能する照明装置103を備える。この例では、表示制御部33が、透明ディスプレイ102を制御し、撮影制御部34が、カメラ9、照明装置103、及び上方カメラ82を制御する。なお、この例では、透光性制御部32は必ずしも必要ではない。   As shown in FIG. 10, the input support apparatus 101 of another modification has substantially the same function as the input support apparatus 1 described in the first embodiment, and includes an upper photographing unit 82. In addition to the projector 7 and the screen 15 described in the above, a transparent display 102 and an illumination device 103 that functions as a so-called strobe for irradiating photographing light are provided. In this example, the display control unit 33 controls the transparent display 102, and the imaging control unit 34 controls the camera 9, the illumination device 103, and the upper camera 82. In this example, the translucency control unit 32 is not necessarily required.

また別の変形例の入力支援装置111は、図11に示すように、第1実施形態で説明した入力支援装置1とほぼ同様の機能を有し、上方撮影部82を備え、第1実施形態で説明したプロジェクタ7及びスクリーン15に代えて、透明ディスプレイ102を備えるとともに、カメラ9に代えて、イメージスキャナ(例えば、ラインスキャナなど)93を備える。この例では、表示制御部33が、透明ディスプレイ102を制御し、撮影制御部34が、イメージスキャナ93を制御する。なお、この例においても、透光性制御部32は必ずしも必要ではない。   As shown in FIG. 11, the input support apparatus 111 of another modified example has substantially the same function as the input support apparatus 1 described in the first embodiment, and includes an upper photographing unit 82. Instead of the projector 7 and the screen 15 described in the above, a transparent display 102 is provided, and an image scanner (for example, a line scanner) 93 is provided instead of the camera 9. In this example, the display control unit 33 controls the transparent display 102, and the shooting control unit 34 controls the image scanner 93. In this example as well, the translucency control unit 32 is not necessarily required.

図12及び図13は、上方撮影部82を備える入力支援装置81による所定の入力フォームへのデータの入力支援処理の流れを示す。
上方撮影部82を備える入力支援装置81は、タッチパネル13上に配置される被写体121(例えば、身分証名書としての運転免許証など)の表面と裏面のそれぞれに記載されている文字をOCR処理により認識し、予め決められた情報の少なくとも一部を抽出する。
例えば、図13に示すように、裏面に新しい住所が記載された被写体121が、表面を下に向けてタッチパネル13上に配置されている場合には、撮影制御部34は、カメラ9及び上方撮影部82を制御し、被写体121の表面側をカメラ9に撮影させ、被写体121の裏面側を上方撮影部82に撮影させる。
12 and 13 show the flow of data input support processing for a predetermined input form by the input support device 81 including the upper photographing unit 82.
The input support device 81 including the upper photographing unit 82 performs OCR processing on characters written on the front and back surfaces of a subject 121 (for example, a driver's license as an identification card) disposed on the touch panel 13. And at least a part of the predetermined information is extracted.
For example, as illustrated in FIG. 13, when the subject 121 with the new address on the back surface is arranged on the touch panel 13 with the front side facing down, the shooting control unit 34 uses the camera 9 and the upper shooting. The unit 82 is controlled to cause the camera 9 to photograph the front side of the subject 121 and cause the upper photographing unit 82 to photograph the back side of the subject 121.

そして、情報抽出部35は、撮影により生成される被写体121の表面の画像及び裏面の画像それぞれから、予め決められた情報の少なくとも一部を抽出する。この例では、OCR処理により、被写体121(運転免許証)の表面の画像から氏名、住所、及び生年月日を表す文字を抽出し、裏面の画像から新しい住所を表す文字を抽出する。
また、情報抽出部35は、被写体121の表面の画像と裏面の画像それぞれから同じ種類(この例では、住所)の情報を抽出した場合、その種類について、より新しい情報を抽出済み情報として保持するものとする。具体的には、図示の例では、表面の画像から抽出した情報を消去し、裏面の画像から抽出した情報(より新しい情報)を抽出済み情報として保持する。
Then, the information extraction unit 35 extracts at least a part of predetermined information from each of the front and back images of the subject 121 generated by photographing. In this example, characters representing the name, address, and date of birth are extracted from the image on the front surface of the subject 121 (driver's license) by OCR processing, and characters representing the new address are extracted from the image on the back surface.
In addition, when the information extraction unit 35 extracts information of the same type (in this example, an address) from each of the front and back images of the subject 121, the information extraction unit 35 holds new information as extracted information for the type. Shall. Specifically, in the illustrated example, information extracted from the image on the front surface is deleted, and information extracted from the image on the back surface (newer information) is held as extracted information.

次に、表示制御部33は、図13に示すように、プロジェクタ7を制御し、タッチパネル13の右側領域に抽出済み情報131を、また、タッチパネル13の左側領域に入力フォーム132を、それぞれタッチパネル13で操作可能に表示する(例えば、選択やドラッグができるように表示する)。
なお、このほかの入力支援装置81(制御装置5)による処理の内容は、第1実施形態で説明したのと同様である。また、上方撮影部82を備える他の入力支援装置91,101,111においても、上記と同様の処理を実行することができる。
Next, as shown in FIG. 13, the display control unit 33 controls the projector 7 to extract the extracted information 131 in the right area of the touch panel 13, the input form 132 in the left area of the touch panel 13, and the touch panel 13. Is displayed so that it can be operated (for example, displayed so that it can be selected and dragged).
The contents of processing by the other input support device 81 (control device 5) are the same as those described in the first embodiment. Also, other input support devices 91, 101, and 111 including the upper photographing unit 82 can execute the same processing as described above.

また例えば、第1実施形態とは異なり、図14に示すように、被写体(例えば、身分証明書としての運転免許証)51とともに、所定の入力フォームに対応する書面(例えば、サービス利用申込書)141をタッチパネル13上に配置し、カメラ9やイメージスキャナ93等の撮影部で撮影し、撮影により生成される画像から、予め決められた情報をOCR処理により抽出してもよい。これにより、画像中の運転免許証51に対応する部分からは、入力フォームへの入力に用いるための抽出済み情報が抽出され、画像中のサービス利用申込書141に対応する部分からは、入力フォームにおける各項目を表す情報が抽出される。   Also, for example, unlike the first embodiment, as shown in FIG. 14, together with a subject (for example, a driver's license as an identification card) 51, a document corresponding to a predetermined input form (for example, a service use application) 141 may be arranged on the touch panel 13 and photographed by a photographing unit such as the camera 9 or the image scanner 93, and predetermined information may be extracted by OCR processing from an image generated by photographing. Thereby, from the part corresponding to the driver's license 51 in the image, extracted information to be used for input to the input form is extracted, and from the part corresponding to the service use application form 141 in the image, the input form is extracted. Information representing each item in is extracted.

この例に示すように、例えば身分証明書の表面と裏面それぞれの画像から、予め決められた情報を抽出し、抽出済み情報として用いることで、身分証明書の不正使用を抑止することができる。例えば、一般に、商品やサービスの申込書とともに身分証証明書の写しを管理センターへ送付する場合、管理センターでは、身分証明書の表面と裏面それぞれの写しが同一の身分証明書の写しであることを確認することができない。一方、上方撮影部82を備える入力支援装置81等を用いれば、同じ被写体(例えば、身分証明書としての運転免許証など)の表面と裏面を撮影し、それぞれの画像から抽出した情報を用いて入力フォームへの入力が行われるので、表面と裏面の画像をそれぞれ別の被写体に基づいて用意することができないため、身分証明書の不正使用を抑止することができる。   As shown in this example, for example, by extracting predetermined information from the front and back images of the identification card and using it as extracted information, unauthorized use of the identification card can be suppressed. For example, in general, when a copy of an ID card is sent to a management center along with an application for a product or service, the front and back copies of the ID card must be copies of the same ID card. Can not be confirmed. On the other hand, if the input support device 81 provided with the upper photographing unit 82 is used, the front and back surfaces of the same subject (for example, a driver's license as an identification card) are photographed and information extracted from each image is used. Since the input to the input form is performed, the front and back images cannot be prepared based on different subjects, so that unauthorized use of the identification card can be suppressed.

また例えば、上方撮影部82を備える入力支援装置81において、制御装置5の表示制御部33及び撮影制御部34は、プロジェクタ7、カメラ9、及び上方撮影部82をそれぞれ制御し、抽出済み情報を透光性パネル3にリアルタイムに表示するようにしてもよい。
具体的には、例えば図15に示すように、被写体(例えば、裏返して配置された運転免許証など)151がタッチパネル13上に存在するかどうかをリアルタイムに検出し、被写体151がタッチパネル13上から取り除かれた場合には、抽出済み情報152をタッチパネル13から消去することが考えられる。これにより、利用者に対し、身分証明書に記載されている個人情報が装置内に無用に保持されていないという安心感を与えることができる。
Further, for example, in the input support device 81 including the upper photographing unit 82, the display control unit 33 and the photographing control unit 34 of the control device 5 control the projector 7, the camera 9, and the upper photographing unit 82, respectively, and extract the extracted information. You may make it display on the translucent panel 3 in real time.
Specifically, for example, as shown in FIG. 15, it is detected in real time whether or not a subject (for example, a driver's license placed inside out) 151 exists on the touch panel 13. If it is removed, it may be possible to erase the extracted information 152 from the touch panel 13. Thereby, it is possible to give the user a sense of security that the personal information described in the identification card is not used unnecessarily in the apparatus.

なお、タッチパネル13上に被写体151が存在するかどうかを検出する方法としては、例えば上方撮影部82が被写体151をリアルタイムに撮影し、該撮影により生成される画像が変化(例えば、被写体151に対応する部分の画素値の変化量が閾値を越えたことなど)を検出する方法が考えられる。また、上方撮影部82を備える他の入力支援装置91,101,111においても、上記と同様の処理を実行することができる。なお、装置内に備えられる撮影部9によって、被写体151をリアルタイムに検出してもよい。   As a method for detecting whether or not the subject 151 is present on the touch panel 13, for example, the upper photographing unit 82 photographs the subject 151 in real time, and an image generated by the photographing changes (for example, corresponds to the subject 151). For example, a method of detecting that the amount of change in the pixel value of a portion that exceeds the threshold value may be considered. Also, other input support devices 91, 101, and 111 including the upper photographing unit 82 can execute the same processing as described above. Note that the subject 151 may be detected in real time by the photographing unit 9 provided in the apparatus.

また例えば、第1実施形態で説明したのとは異なり、情報関連部36は、タッチパネル13で何らかの操作を受け付けたかどうかにかかわらず、抽出済み情報を、入力フォームにおける対応する項目に対応付けてもよい。この場合、利用者は、タッチパネル13上で、図6(B)に示すような、抽出済み情報61と入力フォーム62における項目との関連付けを行う必要はなく、必要に応じて修正を行うだけでよいため、申し込み情報の入力作業をより容易に行うことができる。   Further, for example, unlike the case described in the first embodiment, the information related unit 36 may associate the extracted information with the corresponding item in the input form regardless of whether any operation is received on the touch panel 13. Good. In this case, the user does not need to associate the extracted information 61 with the item in the input form 62 as shown in FIG. 6B on the touch panel 13, but only makes corrections as necessary. Therefore, the application information can be input more easily.

また例えば、第1実施形態では、情報抽出部35は、OCR処理により、被写体の画像から、予め決められた情報の少なくとも一部を抽出しているが、画像中の抽出すべき文字が存在する部分(部分画像)を切り取り、該切り取った部分画像を抽出済み情報としてもよい。これにより、OCR処理の精度が著しく低い場合などのように、予め決められた情報を正確に認識し抽出できない場合でも、抽出済み情報を用いて入力フォームへの入力作業を行うことができる。   Further, for example, in the first embodiment, the information extraction unit 35 extracts at least part of predetermined information from the subject image by OCR processing, but there is a character to be extracted in the image. A portion (partial image) may be cut out, and the cut out partial image may be extracted information. As a result, even when the predetermined information cannot be accurately recognized and extracted, such as when the accuracy of the OCR process is extremely low, the input work can be performed on the input form using the extracted information.

1,81,91,101,111…入力支援装置
3…透光性パネル
5…制御装置
7…プロジェクタ(表示部)
9…カメラ(撮影部)
11…筐体
13…タッチパネル
15…スクリーン
31…領域設定部
32…透光性制御部
33…表示制御部
34…撮影制御部
35…情報抽出部
36…情報関連部
37…情報修正部
38…修正ログ記録部
82…上方撮影部
93…イメージスキャナ
102…透明ディスプレイ
103…照明装置
DESCRIPTION OF SYMBOLS 1,81,91,101,111 ... Input support apparatus 3 ... Translucent panel 5 ... Control apparatus 7 ... Projector (display part)
9 ... Camera (shooting unit)
DESCRIPTION OF SYMBOLS 11 ... Housing | casing 13 ... Touch panel 15 ... Screen 31 ... Area | region setting part 32 ... Translucency control part 33 ... Display control part 34 ... Shooting control part 35 ... Information extraction part 36 ... Information related part 37 ... Information correction part 38 ... Correction Log recording unit 82 ... Upper photographing unit 93 ... Image scanner 102 ... Transparent display 103 ... Lighting device

Claims (10)

透光性パネルと、
前記透光性パネル上に配置される被写体を該透光性パネルの下方から撮影する撮影部と、
撮影により生成される前記被写体の画像から、予め決められた情報の少なくとも一部を抽出する情報抽出部と、
を備える入力支援装置。
A translucent panel;
A photographing unit that photographs a subject arranged on the translucent panel from below the translucent panel;
An information extraction unit that extracts at least part of predetermined information from the image of the subject generated by photographing;
An input support apparatus.
前記抽出した情報を、所定の入力フォームにおける対応する項目に関連付ける情報関連部を備える請求項1に記載の入力支援装置。   The input support apparatus according to claim 1, further comprising an information related unit that associates the extracted information with a corresponding item in a predetermined input form. 前記透光性パネルはタッチパネルであり、
前記情報関連部は、前記タッチパネルで受け付けた操作に基づいて、前記抽出した情報を前記入力フォームにおける対応する項目に関連付ける請求項2に記載の入力支援装置。
The translucent panel is a touch panel,
The input support apparatus according to claim 2, wherein the information related unit associates the extracted information with a corresponding item in the input form based on an operation received on the touch panel.
前記抽出した情報を前記透光性パネルにリアルタイムに表示する表示制御部を備える請求項1に記載の入力支援装置。   The input support apparatus according to claim 1, further comprising a display control unit that displays the extracted information on the translucent panel in real time. 前記透光性パネルはタッチパネルであり、
前記入力支援装置は、さらに、前記タッチパネルで受け付けた操作に基づいて、前記抽出した情報を修正する情報修正部を備える請求項1に記載の入力支援装置。
The translucent panel is a touch panel,
The input support apparatus according to claim 1, further comprising an information correction unit that corrects the extracted information based on an operation received by the touch panel.
前記情報抽出部は、前記被写体の画像から、予め決められた情報を表す文字の少なくとも一部をOCR処理により抽出し、
前記入力支援装置は、さらに、前記OCR処理の精度と、該OCR処理により抽出された文字の修正情報とを関連づけて記録する修正ログ記録部を備える請求項5に記載の入力支援装置。
The information extraction unit extracts at least part of characters representing predetermined information from the subject image by OCR processing,
The input support apparatus according to claim 5, further comprising a correction log recording unit that records the accuracy of the OCR process and the correction information of the character extracted by the OCR process in association with each other.
前記透光性パネルに配置されたのと同じ被写体を該透光性パネルの上方から撮影する上方撮影部を備え、
前記情報抽出部は、前記透光性パネルの上方からの撮影により生成される前記被写体の画像から、予め決められた情報の少なくとも一部を抽出する請求項1に記載の入力支援装置。
An upper photographing unit that photographs the same subject as that disposed on the translucent panel from above the translucent panel;
The input support apparatus according to claim 1, wherein the information extraction unit extracts at least a part of predetermined information from an image of the subject generated by photographing from above the translucent panel.
前記情報抽出部は、前記被写体の画像から抽出した情報を揮発性記録媒体に書き込む請求項1に記載の入力支援装置。   The input support apparatus according to claim 1, wherein the information extraction unit writes information extracted from the image of the subject to a volatile recording medium. 透光性パネル上に配置される被写体を該透光性パネルの下方から撮影するステップと、
撮影により生成される前記被写体の画像から、予め決められた情報の少なくとも一部を抽出するステップと、
を含む入力支援方法。
Photographing a subject placed on the translucent panel from below the translucent panel;
Extracting at least a part of predetermined information from the image of the subject generated by photographing;
Input support method including
請求項9に記載の入力支援方法を情報処理装置に実行させるコンピュータプログラム。   A computer program for causing an information processing apparatus to execute the input support method according to claim 9.
JP2010126364A 2010-06-01 2010-06-01 Input support device, input support method, and program Expired - Fee Related JP5445858B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010126364A JP5445858B2 (en) 2010-06-01 2010-06-01 Input support device, input support method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010126364A JP5445858B2 (en) 2010-06-01 2010-06-01 Input support device, input support method, and program

Publications (2)

Publication Number Publication Date
JP2011253325A true JP2011253325A (en) 2011-12-15
JP5445858B2 JP5445858B2 (en) 2014-03-19

Family

ID=45417224

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010126364A Expired - Fee Related JP5445858B2 (en) 2010-06-01 2010-06-01 Input support device, input support method, and program

Country Status (1)

Country Link
JP (1) JP5445858B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016009289A (en) * 2014-06-24 2016-01-18 沖電気工業株式会社 Display control device and program
JP7463708B2 (en) 2019-12-13 2024-04-09 コニカミノルタ株式会社 Image reading device, control method thereof, and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005184361A (en) * 2003-12-18 2005-07-07 Oki Electric Ind Co Ltd Customer operation type terminal
JP2008117057A (en) * 2006-11-01 2008-05-22 Promise Co Ltd Automatic contract system
JP2009212808A (en) * 2008-03-04 2009-09-17 Sharp Corp Display

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005184361A (en) * 2003-12-18 2005-07-07 Oki Electric Ind Co Ltd Customer operation type terminal
JP2008117057A (en) * 2006-11-01 2008-05-22 Promise Co Ltd Automatic contract system
JP2009212808A (en) * 2008-03-04 2009-09-17 Sharp Corp Display

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016009289A (en) * 2014-06-24 2016-01-18 沖電気工業株式会社 Display control device and program
JP7463708B2 (en) 2019-12-13 2024-04-09 コニカミノルタ株式会社 Image reading device, control method thereof, and program

Also Published As

Publication number Publication date
JP5445858B2 (en) 2014-03-19

Similar Documents

Publication Publication Date Title
TWI232343B (en) System and method for presenting, capturing, and modifying images on a presentation board
US20140351718A1 (en) Information processing device, information processing method, and computer-readable medium
KR102090973B1 (en) Information processing apparatus, information processing method, and storage medium
TWI691890B (en) Display device, projector and display control method
US10412241B2 (en) Document reading apparatus
JP7155781B2 (en) Information processing device and information processing program
JP5445858B2 (en) Input support device, input support method, and program
JP2016110509A (en) Image output device, image output program, and image output method
JP2019092065A (en) Image reading device and program
JP5550111B2 (en) Imaging apparatus, imaging method, and program
JP6122357B2 (en) Information processing apparatus, document synthesis system, information processing method, and program
JP2018181243A (en) Information processor, information processor control method, and program
JP2017199288A (en) Image processing device, image processing method and program
JP5846378B2 (en) Information management method and information management system
JP6399135B1 (en) Image input / output device and image input / output method
JP2010079529A (en) Information processor, information processing method, program therefor and recording medium
JP6103025B2 (en) Information processing apparatus, control method thereof, and program
US9635204B2 (en) Partial information capture and processing
JP2019016379A (en) Data input device and data input program
CN114363521B (en) Image processing method and device and electronic equipment
JP2014178977A (en) Display device and control program of display device
US11256399B2 (en) Information processing apparatus and non-transitory computer readable medium
JP2018136709A (en) Data input device, data input program and data input system
US20230316609A1 (en) Image editing method, information processing apparatus, and recording medium having program recorded thereon
JP6549209B2 (en) Data input device and data input program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130806

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130807

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131004

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131119

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131211

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees