JP2011253325A - Input support device, input support method and program - Google Patents
Input support device, input support method and program Download PDFInfo
- Publication number
- JP2011253325A JP2011253325A JP2010126364A JP2010126364A JP2011253325A JP 2011253325 A JP2011253325 A JP 2011253325A JP 2010126364 A JP2010126364 A JP 2010126364A JP 2010126364 A JP2010126364 A JP 2010126364A JP 2011253325 A JP2011253325 A JP 2011253325A
- Authority
- JP
- Japan
- Prior art keywords
- information
- unit
- input support
- extracted
- subject
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、利用者による端末を用いたデータ入力作業を支援する技術に関する。 The present invention relates to a technique for supporting data input work using a terminal by a user.
近年、銀行等の店舗内に設置されるローンの申し込みを行うための所謂無人契約機と呼ばれる端末など、何らかの商品やサービスを申し込むために用いられる端末が普及している。利用者は、端末に備えられたタッチパネルで所謂ソフトキーボードを操作するなどして、申し込みに必要な文字(例えば、氏名や住所など)を入力したり、端末に備えられた読取装置を操作して、申し込みに必要な身分証明書の写しを作成する。
例えば、下記特許文献1及び2には、読取装置を備える端末の例が開示されている。
具体的には、特許文献1には、表示画面に所定形状を有する物体を置いて、人がその物体を移動させる操作や、図形を描画する操作により、表示画面に表示された画像を操ることが可能な画像表示装置が開示されている。
また、特許文献2には、撮像に際して、外光モニタその他の方法で判断して、外来光が不足している場合には、調光シートの実効透過率を上げ、外来光を多く取り入れるようにすることで、白地レベルを確保し、逆に明るすぎる場所では、実効透過率を下げることで対処する撮像機能付投射装置が開示されている。
また、特許文献3には、帳票や身分証明書等の前記読み取り対象のセット位置を顧客操作表示部6の画面上とし、その上方から読み取りを行う顧客操作型端末装置が開示されている。
2. Description of the Related Art In recent years, terminals used to apply for some kind of product or service, such as a terminal called a so-called unmanned contract machine for applying for a loan installed in a store such as a bank, have become widespread. The user operates a so-called soft keyboard with a touch panel provided in the terminal, and inputs characters (for example, name and address) necessary for application, or operates a reading device provided in the terminal. , Make a copy of the ID needed to apply.
For example,
Specifically, in
Further, in
Further,
ところで、タッチパネル操作(例えば、ソフトキーボードなど)による文字の入力を上手く行えない利用者は、端末操作による商品やサービスの申し込み手続きに多くの手間と時間を要してしまう。このような利便性の問題に起因し、端末の回転効率が悪化するという問題も生ずる。
しかしながら、特許文献1及び2に開示されている装置は、利用者が文字等の入力を行うことが想定されていないので、商品やサービスの申し込みを行うための端末として利用するのは困難である。従って、これら文献に開示されている装置では、端末の利便性に関する上記の問題を解決することはできない。
本発明は、利用者による端末を用いて行うデータ入力作業を支援する新しい枠組みを提供することを目的とする。
By the way, a user who cannot input characters by touch panel operation (for example, a soft keyboard) requires much time and effort to apply for a product or service by terminal operation. Due to such a problem of convenience, there also arises a problem that the rotation efficiency of the terminal deteriorates.
However, the devices disclosed in
An object of the present invention is to provide a new framework for supporting data input work performed by a user using a terminal.
本発明の入力支援装置は、透光性パネルと、前記透光性パネル上に配置される被写体を該透光性パネルの下方から撮影する撮影部と、撮影により生成される前記被写体の画像から、予め決められた情報の少なくとも一部を抽出する情報抽出部と、を備えることを特徴とする。 An input support apparatus according to the present invention includes a translucent panel, an imaging unit that captures an object placed on the translucent panel from below the translucent panel, and an image of the object that is generated by imaging. And an information extracting unit that extracts at least a part of predetermined information.
本発明の実施態様では、前記抽出した情報を、所定の入力フォームにおける対応する項目に関連付ける情報関連部を備える。この場合、前記透光性パネルはタッチパネルであり、前記情報関連部は、前記タッチパネルで受け付けた操作に基づいて、前記抽出した情報を前記入力フォームにおける対応する項目に関連付けてもよい。 In an embodiment of the present invention, an information-related unit that associates the extracted information with a corresponding item in a predetermined input form is provided. In this case, the translucent panel may be a touch panel, and the information related unit may associate the extracted information with a corresponding item in the input form based on an operation received by the touch panel.
本発明の別の実施態様では、前記抽出した情報を前記透光性パネルにリアルタイムに表示する表示制御部を備える。
また別の実施態様では、前記透光性パネルはタッチパネルであり、前記入力支援装置は、さらに、前記タッチパネルで受け付けた操作に基づいて、前記抽出した情報を修正する情報修正部を備えていてもよい。
In another embodiment of the present invention, a display control unit that displays the extracted information on the translucent panel in real time is provided.
In another embodiment, the translucent panel is a touch panel, and the input support device may further include an information correction unit that corrects the extracted information based on an operation received by the touch panel. Good.
また別の実施態様では、前記情報抽出部は、前記被写体の画像から、予め決められた情報を表す文字の少なくとも一部をOCR処理により抽出し、前記入力支援装置は、さらに、前記OCR処理の精度と、該OCR処理により抽出された文字の修正情報とを関連づけて記録する修正ログ記録部を備える。 In another embodiment, the information extraction unit extracts at least part of characters representing predetermined information from the subject image by OCR processing, and the input support device further performs the OCR processing. A correction log recording unit that records the accuracy and the correction information of the character extracted by the OCR process in association with each other is provided.
また別の実施態様では、前記透光性パネルに配置されたのと同じ被写体を該透光性パネルの上方から撮影する上方撮影部を備え、前記情報抽出部は、前記透光性パネルの上方からの撮影により生成される前記被写体の画像から、予め決められた情報の少なくとも一部を抽出する。
また別の実施態様では、前記情報抽出部は、前記被写体の画像から抽出した情報を揮発性記録媒体に書き込むようにしてもよい。
In another embodiment, an upper photographing unit that photographs the same subject as that disposed on the translucent panel from above the translucent panel, and the information extracting unit is disposed above the translucent panel. At least a part of the predetermined information is extracted from the image of the subject generated by the shooting.
In another embodiment, the information extraction unit may write information extracted from the image of the subject to a volatile recording medium.
本発明の入力支援方法は、透光性パネル上に配置される被写体を該透光性パネルの下方から撮影するステップと、撮影により生成される前記被写体の画像から、予め決められた情報の少なくとも一部を抽出するステップと、を含むことを特徴とする。 The input support method according to the present invention includes a step of photographing a subject arranged on a translucent panel from below the translucent panel, and at least predetermined information from an image of the subject generated by photographing. Extracting a part.
本発明のプログラムは、上記入力支援方法を情報処理装置に実行させるコンピュータプログラムである。
なお、本発明において、1つの機能部や装置が有する機能が2つ以上の物理的手段や装置により実現されても、2つ以上の機能部や装置の機能が1つの物理的手段や装置により実現されても良い。
The program of the present invention is a computer program that causes an information processing apparatus to execute the input support method.
In the present invention, even if the function of one functional unit or device is realized by two or more physical means or devices, the function of two or more functional units or devices is achieved by one physical means or device. It may be realized.
本発明によれば、被写体の画像から、予め決められた情報の少なくとも一部が抽出されるので、利用者による端末を用いて行うデータ入力作業を支援することができ、利用者の負担を軽減することができる。 According to the present invention, since at least a part of predetermined information is extracted from the image of the subject, it is possible to support the data input operation performed by the user using the terminal and reduce the burden on the user. can do.
以下、本発明の第1実施形態として、投射表示機能及び撮像機能を有し、利用者による商品やサービスの申し込み情報の入力作業を支援する入力支援装置1について、図面を参照して説明する。
Hereinafter, as a first embodiment of the present invention, an
図1は、第1実施形態の入力支援装置1の全体構成を模式的に示す。
入力支援装置1は、透光性パネル3と、制御装置5と、表示部7と、撮影部9とを備える。第1実施形態では、例えば、透光性パネル3は筐体11の上面の一部をなすように配置され、制御装置5、表示部7、及び撮影部9は、筐体11内に適宜配置される。なお、図1では、各ハードウェア間を接続するコードや基板を省略している。
FIG. 1 schematically shows the overall configuration of the
The
透光性パネル3は、ユーザからの操作を受け付けるタッチパネル13と、タッチパネル13を介して画像を表示するスクリーン15とを適宜の間隔を空けて重ね又は隙間なく重ねてなる透光性を有するパネルを用いる。この透光性パネル3は、撮影部9によって撮影される被写体(例えば、何らかの申込書や身分証明書など)を配置するための原稿台及び読み取り面を成す。
The
タッチパネル13としては、指や専用のペン(スタイラスペンなど)で電子機器(ここでは入力支援装置1)に対して動作を指示することができる透過率の高いタッチパネル(例えば、静電容量方式、又は光学方式のものなど)を用いる。
また、スクリーン15としては、電圧に応じて透光性が変化する部材(例えば、UMUフィルム(登録商標)など)を用いる。
なお、図1では、透光性パネル3(タッチパネル13及びスクリーン15)の厚みを誇張して表示している。
As the
In addition, as the
In FIG. 1, the thickness of the translucent panel 3 (
制御装置5は、透光性パネル3上の領域を設定する機能、透光性パネル3の透光性(詳細には、スクリーン15の透光性)を変化させる機能、表示部7を制御する機能、撮影部9を制御する機能、及び撮影により生成された画像から所望の情報を抽出する機能等の様々な機能を有する。制御装置5のハードウェア構成及び機能の詳細については、図2及び図3を参照して後述する。
The
表示部7は、制御装置5によって設定された透光性パネル3上の領域に対して撮影用の光を照射したり、利用者に提示する画像(ユーザインターフェースなど)をスクリーン15に投影する。第1実施形態では、表示部7として、CRTプロジェクタ、液晶プロジェクタ、又はDLPプロジェクタ等の周知のプロジェクタを用いる。以下、第1実施形態では、表示部7をプロジェクタ7と称する。
プロジェクタ7が照射する撮影用の光は、上記設定された領域に応じた画像(例えば、白一色の画像など)を、スクリーン15のうちの上記設定された領域に対応する範囲に投影するための光であり、所謂ストロボの役割を果たす。なお、図において、プロジェクタ7とスクリーン15との間に示した破線は、プロジェクタ7による光の照射範囲を表す。
The
The shooting light emitted by the
撮影部9は、透光性パネル3(詳細にはスクリーン15)に照射された光の透光性パネル3からの反射光を該透光性パネル3の下方から撮影する。
第1実施形態では、撮影部9として、例えばCCDイメージセンサやCMOSイメージセンサ等の撮像素子を備える周知のデジタルカメラを用いる。以下、第1実施形態では、撮影部9をカメラ9と称する。なお、図において、カメラ9とスクリーン15との間に示した破線は、カメラ9による撮像範囲を表す。
The photographing
In the first embodiment, a known digital camera including an image sensor such as a CCD image sensor or a CMOS image sensor is used as the photographing
図2は、入力支援装置1のハードウェア構成を示す。
第1実施形態の入力支援装置1では、タッチパネル13、スクリーン15、プロジェクタ7、及びカメラ9は、それぞれ制御装置5と通信可能に接続される。制御装置5は、バスを介して通信可能に接続される、CPU21、ROM22、RAM23、HDD(ハードディスク)24、及び通信装置25等の構成要素を含んで構成される。
FIG. 2 shows a hardware configuration of the
In the
図3は、制御装置5の機能構成を示す。
制御装置5は、領域設定部31、透光性制御部32、表示制御部33、撮影制御部34、情報抽出部35、情報関連部36、情報修正部37、及び修正ログ記録部38を備える。これら機能部は、例えばCPU21がHDD24やROM22等の記憶装置からRAM23上に所定のプログラムを読み出して実行することにより機能的に実現される。以下、各機能部について、原則として符号の順に説明するが、説明の都合上、表示制御部33及び撮影制御部34については最後に説明する。
FIG. 3 shows a functional configuration of the
The
領域設定部31は、タッチパネル13で利用者から受け付けた操作に基づいて透光性パネル3上の領域を設定する。具体的には、タッチパネル13上に配置された被写体について、タッチパネル13上における該被写体の位置がタッチパネル操作によって指定された場合に、該指定された位置に対応する領域を、撮影用の光を照射すべき領域として設定する。領域の設定方法の例については、図7を参照して後述する。
The
透光性制御部32は、スクリーン15の透光性を変化させる。例えば、利用者に提示する画像をプロジェクタ7によってスクリーン15に投射表示する場合、スクリーン15の透光性を下げ(より不透明(例えば半透明)に変化させ)、カメラ9によって撮影を行う時には、スクリーン15の透光性を上げる(より透明に変化させる)。
The
情報抽出部35は、撮影により生成される被写体の画像から、予め決められた情報の少なくとも一部を抽出し、該抽出した情報をRAM23等の揮発性記録媒体に書き込む。第1実施形態では、情報抽出部35は、被写体の画像から、予め決められた情報(例えば、氏名、住所、及び生年月日など)を表す文字の少なくとも一部を周知のOCR処理により抽出するとともに、該OCR処理の精度(尤度)を表す情報を出力するように構成される。
The
情報関連部36は、情報抽出部35が被写体の画像から抽出した情報を、所定の入力フォームにおける対応する項目に関連付ける。第1実施形態では、タッチパネル13で受け付けた操作に基づいて、前記抽出した情報を入力フォームにおける対応する項目に関連付ける。
The
情報修正部37は、タッチパネル13で受け付けた操作に基づいて、情報抽出部35が被写体の画像から抽出した情報を修正する。
The
修正ログ記録部38は、情報抽出部35によるOCR処理の精度と、該OCR処理により抽出された文字の修正情報とを対応づけて、例えばHDD24等の記憶装置に書き込むなどして記録する。
The correction
表示制御部33は、プロジェクタ7がスクリーン15に対して照射する光の条件(例えば、画像パターン、輝度、色など)を決定し、該決定した条件で光が照射されるようにプロジェクタ7を制御する。例えば、情報抽出部35が被写体の画像から抽出した情報や、情報修正部37が修正した情報(修正後の情報)を透光性パネル3に表示するようにプロジェクタ7を制御する。
The
撮影制御部34は、プロジェクタ7が透光性パネル3に対して撮影用の光を照射したタイミングに合わせて、スクリーン15からの反射光が撮影されるようにカメラ9を制御する。
The photographing
図4は、入力支援装置1による所定の入力フォームへのデータの入力支援処理の流れを示すフローチャートであり、図5は、タッチパネル13上に被写体(例えば、身分証明書としての運転免許証)51を配置した状態を示し、図6は、被写体51の画像から抽出された情報(抽出済み情報)と該抽出済み情報が反映された入力フォームとを透光性パネル3に表示した状態を示し、図7は、タッチパネル13上で領域を設定する方法の具体例を示す。以下、図4〜7を参照して、かかる入力支援処理について説明する。
FIG. 4 is a flowchart showing a flow of data input support processing for a predetermined input form by the
なお、領域設定部31がタッチパネル13上の領域を設定する(領域設定処理を実行する)までは、入力支援装置1の透光性制御部32は、透光性パネル3を不透明(例えば半透明)な状態に維持しており、表示制御部33は、プロジェクタ7を制御し、所定の光をスクリーン15に対して照射させ、図5(A)に示すような画面(画像)を表示しているものとする。また、図5(A)において、タッチパネル13上に示した斜線は、画像の模様ではなく、透光性パネル3が不透明な状態であることを表す。
Until the
まず、図5(A)に示すように、利用者が被写体51(身分証明書としての運転免許証)の一方の面(例えば、表面)を下に向けた状態でタッチパネル13上に配置し、撮影を指示するためのScanボタン52を押下した場合、入力支援装置1の撮影制御部34は、カメラ9を制御し、かかる被写体51の一方の面を撮影する(S41)。
具体的には、まず、領域設定部31は、利用者によるタッチパネル操作に応じて透光性パネル3上の領域を設定する。例えば、領域設定部31は、Scanボタン52が押下されたことをトリガとして、被写体51の位置に対応する領域を設定する。なお、以下、透光性パネル3において、設定された領域を“設定済み領域”と称し、それ以外の領域を“余白領域”と称する。
First, as shown in FIG. 5A, the user places the subject 51 (driver's license as an identification card) on the
Specifically, first, the
領域が設定されると、透光性制御部32は、透光性パネル3のスクリーン15の透光性を上げて、例えば、スクリーン15を透明な状態に変化させる。
When the region is set, the
次に、表示制御部33は、スクリーン15の透光性が上がるタイミング(例えば、透明になるタイミング)に合わせてプロジェクタ7を制御し、図5(B)に示すように、設定済み領域54に撮影用の光を照射させ、余白領域55により暗い光を照射させる。
これにより、タッチパネル13上に配置された被写体に撮影用の光が照射される。なお、図5(B)において、余白領域55に示したドット模様は、プロジェクタ7が照射した光(画像)の模様を表すのではなく、該余白領域55全体に暗い色が照射されていることを表す。また、図5(B)では、プロジェクタ7による光照射時の透光性パネル3の状態を説明するため、被写体51の図示を省略した。
Next, the
As a result, the subject arranged on the
そして、撮影制御部34は、プロジェクタ7が透光性パネル3に撮影用の光を照射したタイミングに合わせてカメラ9を制御し、照射された光の透光性パネル3からの反射光を撮影する。これにより、設定済み領域、すなわちタッチパネル13上に配置された被写体51が鮮明に表示され、かつ、余白領域が暗い色(黒色など)で表示される画像が生成される。
このように、第1実施形態の入力支援装置1では、撮影時には、プロジェクタ7が余白領域に対してより暗い色を照射するので、利用者の目が眩むことはない。
Then, the photographing
Thus, in the
次に、情報抽出部35は、撮影により生成された被写体51の画像に対してOCR処理を実行し、予め決められた情報の少なくとも一部を抽出する(S42)。
具体的には、第1実施形態では、予め決められた情報は、氏名、住所、及び生年月日であり、情報抽出部35は、被写体51の画像から、氏名、住所、及び生年月日を項目名とし、該項目名に対応して記載されている文字を抽出する。
Next, the
Specifically, in the first embodiment, the predetermined information is the name, address, and date of birth, and the
そして、情報抽出部35は、上記の抽出済み情報をRAM23等の揮発性記録媒体に書き込む(S43)。これにより、入力支援装置1の電源をOFFにした場合には、OCR処理により抽出された情報は消去されるので、利用者の個人情報の漏洩を抑止できるとともに、利用者に安心感を与えることができる。
Then, the
被写体51の画像からの情報抽出が完了すると、表示制御部33は、抽出済み情報及び所定の申込書に対応する入力フォームをタッチパネル13に表示する(S44)。
具体的には、図6(A)に示すように、表示制御部33は、プロジェクタ7を制御し、タッチパネル13の右側領域に抽出済み情報61を、また、タッチパネル13の左側領域に入力フォーム62を、それぞれタッチパネル13で操作可能に表示する(例えば、選択やドラッグができるように表示する)。なお、抽出済み情報61と入力フォーム62は、図示の例にかかわらず、タッチパネル13上の任意の位置に表示することができる。
When the information extraction from the image of the subject 51 is completed, the
Specifically, as shown in FIG. 6A, the
次に、情報修正部37は、抽出済み情報61について、利用者から修正指示があったかどうかを判断する(S45)。
具体的には、例えば、利用者によって、抽出済み情報61のいずれかが押下(選択)され、続いて、修正処理の実行を指示するための修正ボタン64が押下された場合には、修正指示があったものと判断する。
Next, the
Specifically, for example, when any of the extracted
修正指示がない場合(S45の判断がNoの場合)、情報関連部36は、タッチパネル13で受け付けた操作に基づいて、抽出済み情報61を入力フォーム62における対応する項目に関連付ける(S46)。
具体的には、図6(B)に示すように、利用者によって、抽出済み情報61のいずれか(例えば、氏名に関する情報など)が押下(選択)された状態で、入力フォーム62における一つの項目(例えば、氏名に関する項目など)上にドラッグ(移動)された場合、情報関連部36は、移動された情報を、移動先である入力フォーム62中の項目に関連付ける。
When there is no correction instruction (when the determination in S45 is No), the information related
Specifically, as shown in FIG. 6B, one of the input forms 62 is selected in a state in which any of the extracted information 61 (for example, information related to the name) is pressed (selected) by the user. When dragged (moved) onto an item (for example, an item related to a name), the information-related
また、入力フォーム62における項目のうち、抽出済み情報61に対応しない項目(図6では、性別やプランに関する項目)については、チェックボックスやリストボックス等をタッチパネル13で操作することにより、情報を入力することができるようにするのがよい。そして、情報関連部36は、このようにして入力された情報についても、対応する項目に関連付けるものとする。
Further, among items in the
そして、情報修正部37は、S45と同様に、抽出済み情報61について、利用者から修正指示があったかどうかを判断する(S47)。なお、ここでいう抽出済み情報61は、入力フォーム62における対応する項目に関連付けられた情報(入力フォーム62上に移動され表示されている情報)を含むものとする。
And the
一方、S45又はS47で修正指示があった場合、情報修正部37は、タッチパネル13で受け付けた操作に基づいて、抽出済み情報61を修正する(S48)。
具体的には、例えば、修正候補の情報(例えば文字など)や、修正内容を入力するための所謂ソフトウェアキーボード(a soft keyboard)をタッチパネル13上に表示し(詳細には、表示制御部33による処理である)、修正の対象となる抽出済み情報61について、修正内容の入力を利用者から受け付け、受け付けた内容で抽出済み情報61を修正する。
On the other hand, when there is a correction instruction in S45 or S47, the
Specifically, for example, correction candidate information (for example, characters) and a so-called software keyboard (a soft keyboard) for inputting correction contents are displayed on the touch panel 13 (specifically, by the display control unit 33). Process), the input of correction content is received from the user for the extracted
次に、入力支援装置1は、入力フォーム62への情報の入力が完了したかどうかを判断する(S49)。
具体的には、利用者によって、入力が完了したことを通知するための完了ボタン65が押下された場合には、入力が完了したものと判断する。そして、入力支援装置1は、入力が完了していないと判断すると、処理をS47へ移行し、以後、修正指示があるか又は入力が完了するまで待機する。
Next, the
Specifically, when the user presses the
一方、入力が完了した場合(完了ボタン65が押下された場合)には、修正ログ記録部38は、情報抽出部35によるOCR処理の精度と、該OCR処理により抽出された文字の修正情報とを対応づけて、ログ情報としてHDD24等の記憶装置に記録する(S50)。
On the other hand, when the input is completed (when the
そして、入力支援装置1は、入力フォーム62の各項目に対応づけられた情報とログ情報とを、入力フォーム62に対応するサービスの受け付け業務を行う管理センターに送信し(S51)、処理を終了する。
Then, the
次に、被写体51の撮影時(S41)における、タッチパネル操作に応じた透光性パネル3上の領域の設定方法の例について詳細に説明する。
図7(A)に示すように、タッチパネル13上のポイント(例えば、タッチパネル13上の任意の位置に配置された被写体51の左上の角)が押下され、続いて図7(B)に示すように、タッチパネル13上のポイント(例えば、被写体51の右下の角)が押下された後、Scanボタン52(図5(A)参照)が押下された場合、領域設定部31は、押下された2箇所のポイントを、領域を指定するためのポイント(領域指定ポイントP1及び領域指定ポイントP2)として設定する。
そして、領域設定部31は、上記領域指定ポイントP1及びP2の座標を対角の座標とする四角形の領域を設定する。
これにより、図7(C)に示すように、撮影時には、タッチパネル13上の設定済み領域54に撮影用の光が照射され、余白領域55にはより暗い光が照射される。
Next, an example of a method for setting an area on the
As shown in FIG. 7A, a point on the touch panel 13 (for example, the upper left corner of the subject 51 arranged at an arbitrary position on the touch panel 13) is pressed, and subsequently, as shown in FIG. 7B. When the scan button 52 (see FIG. 5A) is pressed after a point on the touch panel 13 (for example, the lower right corner of the subject 51) is pressed, the
Then, the
As a result, as shown in FIG. 7C, at the time of shooting, the set
なお、透光性パネル3上の領域の設定方法は、上記に限定されるものではなく、タッチパネル13上で被写体の外縁を指でなぞる(トレースする)ことによって、被写体の外形に対応する領域を設定してもよいし、被写体の各角を押下させ、押下された順に角を線分で結んで成る任意の形状に対応する領域を設定してもよい。
Note that the method of setting the area on the
以上のように、第1実施形態の入力支援装置1によれば、所定のサービスに関する申し込みを行う利用者は、基本的には、被写体51の画像から抽出された情報をタッチパネル13上で操作(選択やドラッグなど)することにより、申し込みに必要な情報の入力(抽出情報61と入力フォーム62における項目との関連付け)を行うことができる。これにより、タッチパネル13を操作して文字を入力するのに不慣れな利用者でも、申し込み情報を容易に入力することができる。
As described above, according to the
また、管理センターでは、受信した情報に基づいてサービスの受け付け処理が行われる。そして、その際にログ情報を参照することにより、サービスの利用を許可するかどうかを判断することができる。例えば、OCR処理の精度と修正情報が整合しない場合、例えば、OCR処理の精度が高い(文字が正しく抽出された可能性が高い)にもかかわらず、該OCR処理により認識された文字が修正されている場合には、不正な入力が行われたものと判断し、サービスの利用を許可しないという対応が考えられる。 In the management center, service acceptance processing is performed based on the received information. Then, by referring to the log information at that time, it is possible to determine whether or not to permit the use of the service. For example, when the accuracy of the OCR process and the correction information do not match, for example, the character recognized by the OCR process is corrected even though the accuracy of the OCR process is high (the possibility that the character is correctly extracted) is high. If this is the case, it may be determined that an illegal input has been made and the use of the service is not permitted.
以上、本発明の第1実施形態を説明したが、本発明は、上記実施形態に限定されることなく、下記のように種々に変形して適用することが可能である。なお、変形例を説明するための図面において、第1実施形態又はいずれかの変形例に関する図面中の要素と同じ符号が付されている要素は、基本的には互いに同様の機能を有しているものとする。
[変形例]
例えば、第1実施形態で説明した入力支援装置1において、カメラ9に代えて、イメージスキャナ(例えば、ラインスキャナなど)を撮影部として用いたり、プロジェクタ7及びスクリーン15に代えて、透明ディスプレイ(例えば、透明に作られた所謂有機ELディスプレイなど)を表示部として用いたり、さらに、透光性パネル3上に配置された被写体を上方から撮影する上方撮影部(例えばデジタルカメラ)を備えてもよい。
具体的には、変形例の入力支援装置81は、図8に示すように、第1実施形態で説明した入力支援装置1とほぼ同様の機能を有するとともに、カメラ9が透光性パネル3の下方から撮影するのと同じ被写体を透光性パネル3の上方から撮影する上方撮影部(以下、上方カメラと称する)82を備える。この例では、撮影制御部34が、カメラ9及び上方カメラ82を制御する。
The first embodiment of the present invention has been described above, but the present invention is not limited to the above-described embodiment, and can be variously modified and applied as described below. In the drawings for explaining the modified examples, elements having the same reference numerals as the elements in the drawings relating to the first embodiment or any modified example basically have the same functions. It shall be.
[Modification]
For example, in the
Specifically, as shown in FIG. 8, the modified input support device 81 has substantially the same function as the
また別の変形例の入力支援装置91は、図9に示すように、第1実施形態で説明した入力支援装置1とほぼ同様の機能を有し、上方撮影部82を備えるとともに、第1実施形態で説明したカメラ9に代えて、イメージスキャナ(例えば、ラインスキャナなど)93を備える。この例では、撮影制御部34が、イメージスキャナ93及び上方カメラ82を制御する。
As shown in FIG. 9, the
また別の変形例の入力支援装置101は、図10に示すように、第1実施形態で説明した入力支援装置1とほぼ同様の機能を有し、上方撮影部82を備え、第1実施形態で説明したプロジェクタ7及びスクリーン15に代えて、透明ディスプレイ102を備えるとともに、撮影用の光を照射する所謂ストロボとして機能する照明装置103を備える。この例では、表示制御部33が、透明ディスプレイ102を制御し、撮影制御部34が、カメラ9、照明装置103、及び上方カメラ82を制御する。なお、この例では、透光性制御部32は必ずしも必要ではない。
As shown in FIG. 10, the input support apparatus 101 of another modification has substantially the same function as the
また別の変形例の入力支援装置111は、図11に示すように、第1実施形態で説明した入力支援装置1とほぼ同様の機能を有し、上方撮影部82を備え、第1実施形態で説明したプロジェクタ7及びスクリーン15に代えて、透明ディスプレイ102を備えるとともに、カメラ9に代えて、イメージスキャナ(例えば、ラインスキャナなど)93を備える。この例では、表示制御部33が、透明ディスプレイ102を制御し、撮影制御部34が、イメージスキャナ93を制御する。なお、この例においても、透光性制御部32は必ずしも必要ではない。
As shown in FIG. 11, the input support apparatus 111 of another modified example has substantially the same function as the
図12及び図13は、上方撮影部82を備える入力支援装置81による所定の入力フォームへのデータの入力支援処理の流れを示す。
上方撮影部82を備える入力支援装置81は、タッチパネル13上に配置される被写体121(例えば、身分証名書としての運転免許証など)の表面と裏面のそれぞれに記載されている文字をOCR処理により認識し、予め決められた情報の少なくとも一部を抽出する。
例えば、図13に示すように、裏面に新しい住所が記載された被写体121が、表面を下に向けてタッチパネル13上に配置されている場合には、撮影制御部34は、カメラ9及び上方撮影部82を制御し、被写体121の表面側をカメラ9に撮影させ、被写体121の裏面側を上方撮影部82に撮影させる。
12 and 13 show the flow of data input support processing for a predetermined input form by the input support device 81 including the upper photographing
The input support device 81 including the upper photographing
For example, as illustrated in FIG. 13, when the subject 121 with the new address on the back surface is arranged on the
そして、情報抽出部35は、撮影により生成される被写体121の表面の画像及び裏面の画像それぞれから、予め決められた情報の少なくとも一部を抽出する。この例では、OCR処理により、被写体121(運転免許証)の表面の画像から氏名、住所、及び生年月日を表す文字を抽出し、裏面の画像から新しい住所を表す文字を抽出する。
また、情報抽出部35は、被写体121の表面の画像と裏面の画像それぞれから同じ種類(この例では、住所)の情報を抽出した場合、その種類について、より新しい情報を抽出済み情報として保持するものとする。具体的には、図示の例では、表面の画像から抽出した情報を消去し、裏面の画像から抽出した情報(より新しい情報)を抽出済み情報として保持する。
Then, the
In addition, when the
次に、表示制御部33は、図13に示すように、プロジェクタ7を制御し、タッチパネル13の右側領域に抽出済み情報131を、また、タッチパネル13の左側領域に入力フォーム132を、それぞれタッチパネル13で操作可能に表示する(例えば、選択やドラッグができるように表示する)。
なお、このほかの入力支援装置81(制御装置5)による処理の内容は、第1実施形態で説明したのと同様である。また、上方撮影部82を備える他の入力支援装置91,101,111においても、上記と同様の処理を実行することができる。
Next, as shown in FIG. 13, the
The contents of processing by the other input support device 81 (control device 5) are the same as those described in the first embodiment. Also, other
また例えば、第1実施形態とは異なり、図14に示すように、被写体(例えば、身分証明書としての運転免許証)51とともに、所定の入力フォームに対応する書面(例えば、サービス利用申込書)141をタッチパネル13上に配置し、カメラ9やイメージスキャナ93等の撮影部で撮影し、撮影により生成される画像から、予め決められた情報をOCR処理により抽出してもよい。これにより、画像中の運転免許証51に対応する部分からは、入力フォームへの入力に用いるための抽出済み情報が抽出され、画像中のサービス利用申込書141に対応する部分からは、入力フォームにおける各項目を表す情報が抽出される。
Also, for example, unlike the first embodiment, as shown in FIG. 14, together with a subject (for example, a driver's license as an identification card) 51, a document corresponding to a predetermined input form (for example, a service use application) 141 may be arranged on the
この例に示すように、例えば身分証明書の表面と裏面それぞれの画像から、予め決められた情報を抽出し、抽出済み情報として用いることで、身分証明書の不正使用を抑止することができる。例えば、一般に、商品やサービスの申込書とともに身分証証明書の写しを管理センターへ送付する場合、管理センターでは、身分証明書の表面と裏面それぞれの写しが同一の身分証明書の写しであることを確認することができない。一方、上方撮影部82を備える入力支援装置81等を用いれば、同じ被写体(例えば、身分証明書としての運転免許証など)の表面と裏面を撮影し、それぞれの画像から抽出した情報を用いて入力フォームへの入力が行われるので、表面と裏面の画像をそれぞれ別の被写体に基づいて用意することができないため、身分証明書の不正使用を抑止することができる。
As shown in this example, for example, by extracting predetermined information from the front and back images of the identification card and using it as extracted information, unauthorized use of the identification card can be suppressed. For example, in general, when a copy of an ID card is sent to a management center along with an application for a product or service, the front and back copies of the ID card must be copies of the same ID card. Can not be confirmed. On the other hand, if the input support device 81 provided with the upper photographing
また例えば、上方撮影部82を備える入力支援装置81において、制御装置5の表示制御部33及び撮影制御部34は、プロジェクタ7、カメラ9、及び上方撮影部82をそれぞれ制御し、抽出済み情報を透光性パネル3にリアルタイムに表示するようにしてもよい。
具体的には、例えば図15に示すように、被写体(例えば、裏返して配置された運転免許証など)151がタッチパネル13上に存在するかどうかをリアルタイムに検出し、被写体151がタッチパネル13上から取り除かれた場合には、抽出済み情報152をタッチパネル13から消去することが考えられる。これにより、利用者に対し、身分証明書に記載されている個人情報が装置内に無用に保持されていないという安心感を与えることができる。
Further, for example, in the input support device 81 including the upper photographing
Specifically, for example, as shown in FIG. 15, it is detected in real time whether or not a subject (for example, a driver's license placed inside out) 151 exists on the
なお、タッチパネル13上に被写体151が存在するかどうかを検出する方法としては、例えば上方撮影部82が被写体151をリアルタイムに撮影し、該撮影により生成される画像が変化(例えば、被写体151に対応する部分の画素値の変化量が閾値を越えたことなど)を検出する方法が考えられる。また、上方撮影部82を備える他の入力支援装置91,101,111においても、上記と同様の処理を実行することができる。なお、装置内に備えられる撮影部9によって、被写体151をリアルタイムに検出してもよい。
As a method for detecting whether or not the subject 151 is present on the
また例えば、第1実施形態で説明したのとは異なり、情報関連部36は、タッチパネル13で何らかの操作を受け付けたかどうかにかかわらず、抽出済み情報を、入力フォームにおける対応する項目に対応付けてもよい。この場合、利用者は、タッチパネル13上で、図6(B)に示すような、抽出済み情報61と入力フォーム62における項目との関連付けを行う必要はなく、必要に応じて修正を行うだけでよいため、申し込み情報の入力作業をより容易に行うことができる。
Further, for example, unlike the case described in the first embodiment, the information related
また例えば、第1実施形態では、情報抽出部35は、OCR処理により、被写体の画像から、予め決められた情報の少なくとも一部を抽出しているが、画像中の抽出すべき文字が存在する部分(部分画像)を切り取り、該切り取った部分画像を抽出済み情報としてもよい。これにより、OCR処理の精度が著しく低い場合などのように、予め決められた情報を正確に認識し抽出できない場合でも、抽出済み情報を用いて入力フォームへの入力作業を行うことができる。
Further, for example, in the first embodiment, the
1,81,91,101,111…入力支援装置
3…透光性パネル
5…制御装置
7…プロジェクタ(表示部)
9…カメラ(撮影部)
11…筐体
13…タッチパネル
15…スクリーン
31…領域設定部
32…透光性制御部
33…表示制御部
34…撮影制御部
35…情報抽出部
36…情報関連部
37…情報修正部
38…修正ログ記録部
82…上方撮影部
93…イメージスキャナ
102…透明ディスプレイ
103…照明装置
DESCRIPTION OF
9 ... Camera (shooting unit)
DESCRIPTION OF
Claims (10)
前記透光性パネル上に配置される被写体を該透光性パネルの下方から撮影する撮影部と、
撮影により生成される前記被写体の画像から、予め決められた情報の少なくとも一部を抽出する情報抽出部と、
を備える入力支援装置。 A translucent panel;
A photographing unit that photographs a subject arranged on the translucent panel from below the translucent panel;
An information extraction unit that extracts at least part of predetermined information from the image of the subject generated by photographing;
An input support apparatus.
前記情報関連部は、前記タッチパネルで受け付けた操作に基づいて、前記抽出した情報を前記入力フォームにおける対応する項目に関連付ける請求項2に記載の入力支援装置。 The translucent panel is a touch panel,
The input support apparatus according to claim 2, wherein the information related unit associates the extracted information with a corresponding item in the input form based on an operation received on the touch panel.
前記入力支援装置は、さらに、前記タッチパネルで受け付けた操作に基づいて、前記抽出した情報を修正する情報修正部を備える請求項1に記載の入力支援装置。 The translucent panel is a touch panel,
The input support apparatus according to claim 1, further comprising an information correction unit that corrects the extracted information based on an operation received by the touch panel.
前記入力支援装置は、さらに、前記OCR処理の精度と、該OCR処理により抽出された文字の修正情報とを関連づけて記録する修正ログ記録部を備える請求項5に記載の入力支援装置。 The information extraction unit extracts at least part of characters representing predetermined information from the subject image by OCR processing,
The input support apparatus according to claim 5, further comprising a correction log recording unit that records the accuracy of the OCR process and the correction information of the character extracted by the OCR process in association with each other.
前記情報抽出部は、前記透光性パネルの上方からの撮影により生成される前記被写体の画像から、予め決められた情報の少なくとも一部を抽出する請求項1に記載の入力支援装置。 An upper photographing unit that photographs the same subject as that disposed on the translucent panel from above the translucent panel;
The input support apparatus according to claim 1, wherein the information extraction unit extracts at least a part of predetermined information from an image of the subject generated by photographing from above the translucent panel.
撮影により生成される前記被写体の画像から、予め決められた情報の少なくとも一部を抽出するステップと、
を含む入力支援方法。 Photographing a subject placed on the translucent panel from below the translucent panel;
Extracting at least a part of predetermined information from the image of the subject generated by photographing;
Input support method including
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010126364A JP5445858B2 (en) | 2010-06-01 | 2010-06-01 | Input support device, input support method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010126364A JP5445858B2 (en) | 2010-06-01 | 2010-06-01 | Input support device, input support method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011253325A true JP2011253325A (en) | 2011-12-15 |
JP5445858B2 JP5445858B2 (en) | 2014-03-19 |
Family
ID=45417224
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010126364A Expired - Fee Related JP5445858B2 (en) | 2010-06-01 | 2010-06-01 | Input support device, input support method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5445858B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016009289A (en) * | 2014-06-24 | 2016-01-18 | 沖電気工業株式会社 | Display control device and program |
JP7463708B2 (en) | 2019-12-13 | 2024-04-09 | コニカミノルタ株式会社 | Image reading device, control method thereof, and program |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005184361A (en) * | 2003-12-18 | 2005-07-07 | Oki Electric Ind Co Ltd | Customer operation type terminal |
JP2008117057A (en) * | 2006-11-01 | 2008-05-22 | Promise Co Ltd | Automatic contract system |
JP2009212808A (en) * | 2008-03-04 | 2009-09-17 | Sharp Corp | Display |
-
2010
- 2010-06-01 JP JP2010126364A patent/JP5445858B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005184361A (en) * | 2003-12-18 | 2005-07-07 | Oki Electric Ind Co Ltd | Customer operation type terminal |
JP2008117057A (en) * | 2006-11-01 | 2008-05-22 | Promise Co Ltd | Automatic contract system |
JP2009212808A (en) * | 2008-03-04 | 2009-09-17 | Sharp Corp | Display |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016009289A (en) * | 2014-06-24 | 2016-01-18 | 沖電気工業株式会社 | Display control device and program |
JP7463708B2 (en) | 2019-12-13 | 2024-04-09 | コニカミノルタ株式会社 | Image reading device, control method thereof, and program |
Also Published As
Publication number | Publication date |
---|---|
JP5445858B2 (en) | 2014-03-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI232343B (en) | System and method for presenting, capturing, and modifying images on a presentation board | |
US20140351718A1 (en) | Information processing device, information processing method, and computer-readable medium | |
KR102090973B1 (en) | Information processing apparatus, information processing method, and storage medium | |
TWI691890B (en) | Display device, projector and display control method | |
US10412241B2 (en) | Document reading apparatus | |
JP7155781B2 (en) | Information processing device and information processing program | |
JP5445858B2 (en) | Input support device, input support method, and program | |
JP2016110509A (en) | Image output device, image output program, and image output method | |
JP2019092065A (en) | Image reading device and program | |
JP5550111B2 (en) | Imaging apparatus, imaging method, and program | |
JP6122357B2 (en) | Information processing apparatus, document synthesis system, information processing method, and program | |
JP2018181243A (en) | Information processor, information processor control method, and program | |
JP2017199288A (en) | Image processing device, image processing method and program | |
JP5846378B2 (en) | Information management method and information management system | |
JP6399135B1 (en) | Image input / output device and image input / output method | |
JP2010079529A (en) | Information processor, information processing method, program therefor and recording medium | |
JP6103025B2 (en) | Information processing apparatus, control method thereof, and program | |
US9635204B2 (en) | Partial information capture and processing | |
JP2019016379A (en) | Data input device and data input program | |
CN114363521B (en) | Image processing method and device and electronic equipment | |
JP2014178977A (en) | Display device and control program of display device | |
US11256399B2 (en) | Information processing apparatus and non-transitory computer readable medium | |
JP2018136709A (en) | Data input device, data input program and data input system | |
US20230316609A1 (en) | Image editing method, information processing apparatus, and recording medium having program recorded thereon | |
JP6549209B2 (en) | Data input device and data input program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20121214 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130806 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130807 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20131004 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20131119 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20131211 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |