JP6868665B2 - Data entry device, data entry method and data entry program - Google Patents
Data entry device, data entry method and data entry program Download PDFInfo
- Publication number
- JP6868665B2 JP6868665B2 JP2019124281A JP2019124281A JP6868665B2 JP 6868665 B2 JP6868665 B2 JP 6868665B2 JP 2019124281 A JP2019124281 A JP 2019124281A JP 2019124281 A JP2019124281 A JP 2019124281A JP 6868665 B2 JP6868665 B2 JP 6868665B2
- Authority
- JP
- Japan
- Prior art keywords
- input
- data
- unit
- procedure
- projection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 228
- 238000013479 data entry Methods 0.000 title 2
- 230000008569 process Effects 0.000 claims description 98
- 238000012545 processing Methods 0.000 claims description 80
- 238000012790 confirmation Methods 0.000 description 55
- 230000006870 function Effects 0.000 description 22
- 238000010586 diagram Methods 0.000 description 12
- 238000012986 modification Methods 0.000 description 11
- 230000004048 modification Effects 0.000 description 11
- 230000007547 defect Effects 0.000 description 10
- 230000000694 effects Effects 0.000 description 9
- 230000002265 prevention Effects 0.000 description 8
- 230000008859 change Effects 0.000 description 7
- 230000007812 deficiency Effects 0.000 description 7
- 238000003384 imaging method Methods 0.000 description 7
- 238000012015 optical character recognition Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 4
- 238000012937 correction Methods 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 238000001514 detection method Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Landscapes
- Projection Apparatus (AREA)
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
Description
この発明は、手続書類に記入する内容の入力技術に関する。 The present invention relates to an input technique for the contents to be entered in a procedure document.
金融機関及び役所といった場所では、利用者が、各種手続書類に必要事項を記入して、窓口に提出する。しかし、利用者は、手続書類の記入に関して不明点がある場合がある。この場合、利用者は、不明点を事務員に質問した上で手続書類に記入する必要がある。事務員に質問しながら手続書類に記入することは、利用者にとって非常に手間がかかる。また、質問を受ける事務員にも手間がかかる。 At places such as financial institutions and government offices, users fill out various procedure documents and submit them to the counter. However, the user may have questions regarding the entry of the procedure documents. In this case, the user needs to ask the clerk any questions and then fill out the procedure documents. It is very troublesome for the user to fill out the procedure documents while asking the clerk. In addition, it takes time and effort for the clerk who receives the question.
特許文献1には、手続書類に対して説明を投影することが記載されている。特許文献1では、これにより、利用者が手続書類に記入することをサポートして、効率的に手続書類に記入できるようにしている。
環境保護といった観点から紙の使用量を減らす、いわゆるペーパレス化が進められている。特許文献1に記載された方法では、手続書類に入力することが前提となっている。そのため、紙の使用量は減っていない。
利用者にコンピュータを操作してもらい、データを入力してもらうことにより、ペーパレス化を進めることが考えられる。しかし、利用者によっては、コンピュータを操作することが苦手な場合がある。この場合、利用者及び事務員の手間が増えてしまう可能性がある。
From the viewpoint of environmental protection, the so-called paperless office is being promoted to reduce the amount of paper used. The method described in
It is conceivable to promote paperless offices by having users operate computers and input data. However, some users may not be good at operating a computer. In this case, there is a possibility that the labor of the user and the clerk will increase.
そこで、入力フォーマットを入力台の上に投影表示し、投影表示された入力フォーマットに電子ペンといった入力装置により情報を入力させることが考えられる。これにより、利用者に対する手続きの負担を増やすことなく、紙の使用量を減らすことが可能である。
このとき、投影装置の設置現場によって、投影装置が入力フォーマット等を投影表示する入力台のサイズが異なる可能性がある。入力台のサイズによっては、予定していた全てのコンテンツを表示することが困難な場合がある。また、逆に、入力台のサイズによっては、不要にスペースが空いてしまう場合がある。
この発明は、入力台のサイズに合った適切な表示をすることを目的とする。
Therefore, it is conceivable that the input format is projected and displayed on the input table, and information is input to the projected input format by an input device such as an electronic pen. This makes it possible to reduce the amount of paper used without increasing the burden of procedures on the user.
At this time, the size of the input stand on which the projection device projects and displays the input format and the like may differ depending on the installation site of the projection device. Depending on the size of the input table, it may be difficult to display all the planned content. On the contrary, depending on the size of the input table, an unnecessary space may be created.
An object of the present invention is to provide an appropriate display according to the size of an input table.
この発明に係るデータ入力装置は、
入力台の上面のサイズを認識する表示エリア認識部と、
前記表示エリア認識部によって認識されたサイズに応じた表示コンテンツを、前記入力台の上に投影表示する投影部と、
を備える。
The data input device according to the present invention is
A display area recognition unit that recognizes the size of the top surface of the input stand,
A projection unit that projects and displays display content according to the size recognized by the display area recognition unit on the input table, and a projection unit.
To be equipped.
前記投影部は、前記サイズに応じた大きさで、前記表示コンテンツを、前記入力台の上に投影表示する。 The projection unit projects and displays the display content on the input table in a size corresponding to the size.
前記投影部は、入力内容と入力欄とを示す入力フォーマットを含む前記表示コンテンツを投影表示し、
前記データ入力装置は、さらに、
前記投影部によって投影表示された前記入力フォーマットの前記入力欄に手書きされた文字を認識するデータ認識部
を備える。
The projection unit projects and displays the display content including the input format indicating the input content and the input field.
The data input device further
A data recognition unit that recognizes handwritten characters in the input field of the input format projected and displayed by the projection unit is provided.
前記投影部は、前記サイズが基準よりも大きい場合に、前記入力フォーマットに加えて、その他の前記表示コンテンツを投影表示する。 When the size is larger than the reference, the projection unit projects and displays the other display contents in addition to the input format.
この発明に係るデータ入力方法は、
表示エリア認識部が、入力台の上面のサイズを認識し、
投影部が、認識されたサイズに応じた表示コンテンツを、前記入力台の上に投影表示する。
The data input method according to the present invention is
The display area recognition unit recognizes the size of the upper surface of the input stand and
The projection unit projects and displays the display content according to the recognized size on the input table.
この発明に係るデータ入力プログラムは、
入力台の上面のサイズを認識する表示エリア認識処理と、
前記表示エリア認識処理によって認識されたサイズに応じた表示コンテンツを、前記入力台の上に投影表示する投影処理と、
を行うデータ入力装置としてコンピュータを機能させる。
The data input program according to the present invention
Display area recognition processing that recognizes the size of the top surface of the input stand,
The projection process of projecting the display content according to the size recognized by the display area recognition process onto the input table, and the projection process.
Make the computer function as a data input device.
この発明では、入力台の上面のサイズを認識し、認識されたサイズに応じた表示コンテンツを投影表示する。これにより、入力台のサイズに合った適切な表示をすることが可能である。 In the present invention, the size of the upper surface of the input table is recognized, and the display content corresponding to the recognized size is projected and displayed. This makes it possible to display an appropriate display according to the size of the input table.
実施の形態1.
***構成の説明***
図1を参照して、実施の形態1に係るデータ入力システム1の構成を説明する。
データ入力システム1は、データ入力装置10と、プロジェクタ20と、電子ペン30と、入力台40と、データベースサーバ50とを備える。データ入力装置10と、プロジェクタ20及びデータベースサーバ50とは、伝送路60を介して接続されている。
*** Explanation of configuration ***
The configuration of the
The
データ入力装置10は、PC(Personal Computer)といったコンピュータである。プロジェクタ20は、データ入力装置10の制御に従い、入力フォーマットといったデータを入力台40の上に投影表示する装置である。電子ペン30は、入力台40に投影表示された入力フォーマットに対して入力する装置であり、文字(文字とは、文字、数字、図形、記号およびチェックマークを含む)を手書きし、ボタンをクリックするといった操作をするための装置である。入力台40は、プロジェクタ20によってデータが投影表示される台である。データベースサーバ50は、入力フォーマットといったデータを記憶するコンピュータである。
The
図2を参照して、実施の形態1に係るデータ入力装置10の構成を説明する。
データ入力装置10は、プロセッサ11と、メモリ12と、ストレージ13と、通信インタフェース14とのハードウェアを備える。プロセッサ11は、信号線を介して他のハードウェアと接続され、これら他のハードウェアを制御する。
The configuration of the
The
プロセッサ11は、プロセッシングを行うIC(Integrated Circuit)である。プロセッサ11は、具体例としては、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、GPU(Graphics Processing Unit)である。
The
メモリ12は、データを一時的に記憶する記憶装置である。メモリ12は、具体例としては、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)である。
The
ストレージ13は、データを保管する記憶装置である。ストレージ13は、具体例としては、HDD(Hard Disk Drive)である。また、ストレージ13は、SD(登録商標,Secure Digital)メモリカード、CF(CompactFlash)、NANDフラッシュ、フレキシブルディスク、光ディスク、コンパクトディスク、ブルーレイ(登録商標)ディスク、DVD(Digital Versatile
Disk)といった可搬記憶媒体であってもよい。
The
It may be a portable storage medium such as Disk).
通信インタフェース14は、プロジェクタ20及びデータベースサーバ50といった外部の装置と通信するためのインタフェースである。通信インタフェース14は、具体例としては、Ethernet(登録商標)、USB(Universal Serial Bus)、HDMI(登録商標,High−Definition Multimedia Interface)のポートである。
The
データ入力装置10は、機能構成要素として、投影部111と、データ認識部112と、確認処理部113とを備える。投影部111と、データ認識部112と、確認処理部113との機能はソフトウェアにより実現される。
ストレージ13には、投影部111と、データ認識部112と、確認処理部113との機能を実現するプログラムが記憶されている。このプログラムは、プロセッサ11によりメモリ12に読み込まれ、プロセッサ11によって実行される。これにより、投影部111と、データ認識部112と、確認処理部113との機能が実現される。
The
The
図2では、プロセッサ11は、1つだけ示されている。しかし、データ入力装置10は、プロセッサ11を代替する複数のプロセッサを備えていてもよい。これら複数のプロセッサは、投影部111と、データ認識部112と、確認処理部113との機能を実現するプログラムの実行を分担する。それぞれのプロセッサは、プロセッサ11と同じように、プロセッシングを行うICである。
In FIG. 2, only one
データベースサーバ50は、表示内容記憶部51と、フォーマット記憶部52と、利用者情報記憶部53との機能を実現する。
The
***動作の説明***
図3から図13を参照して、実施の形態1に係るデータ入力システム1の動作を説明する。
実施の形態1に係るデータ入力システム1の動作は、実施の形態1に係るデータ入力方法に相当する。また、実施の形態1に係るデータ入力システム1の動作は、実施の形態1に係るデータ入力プログラムの処理に相当する。
*** Explanation of operation ***
The operation of the
The operation of the
(図3のステップS1:投影処理)
投影部111は、利用者によって選択された手続きについて、プロジェクタ20により、入力内容85と入力欄86とが指定された入力フォーマット84を入力台40の上に投影表示する。
(Step S1: Projection processing in FIG. 3)
The
図4から図7を参照して、実施の形態1に係る投影処理を説明する。
(図4のステップS11:手続選択処理)
図5に示すように、投影部111は、プロジェクタ20により、手続きの選択画面81を入力台40の上に表示する。選択画面81は、選択可能な手続きのボタンが示されている。図5では、手続きのボタンとして、口座開設と、預金引出と、住所変更と、名義変更と、印鑑変更と、振込とが示されている。選択画面81は、入力台40の上におけるプロジェクタ20の投影可能な投影面21の一部に表示される。
すると、利用者によって、行いたい手続きのボタンが電子ペン30によりタッチされ、選択される。
The projection process according to the first embodiment will be described with reference to FIGS. 4 to 7.
(Step S11 in FIG. 4: Procedure selection process)
As shown in FIG. 5, the
Then, the user touches and selects the button of the procedure to be performed by the electronic pen 30.
(図4のステップS12:表示内容読込処理)
投影部111は、ステップS11で選択された手続きについての表示内容82を、データベースサーバ50の表示内容記憶部51から読み出す。
図6に示すように、表示内容記憶部51には、手続き毎に、表示内容82が記憶されている。表示内容82は、対象の手続きについての入力内容85の入力順を示す一覧83と、各入力内容85についての入力フォーマット84とを含む。
例えば、手続きが口座開設の場合には、一覧83は、入力内容85が、氏名、住所、生年月日、電話番号、金額の入力順であることを示す。そして、表示内容82には、氏名と、住所と、生年月日と、電話番号と、金額とについて、入力フォーマット84が含まれている。
(Step S12 in FIG. 4: Display content reading process)
The
As shown in FIG. 6, the display
For example, when the procedure is to open an account, the
(図4のステップS13:表示内容投影処理)
投影部111は、プロジェクタ20により、ステップS12で読み出された表示内容82を、入力台40の上に投影表示する。
図7に示すように、投影部111は、ステップS11で口座開設が選択された場合、一覧83と、入力順が先頭の入力内容85である氏名についての入力フォーマット84を投影表示する。一覧83は、複数の入力内容85が入力順に並べられ、星印によって入力対象になっている入力内容85が示されている。入力フォーマット84は、入力内容85と入力欄86とを示す。
(Step S13 of FIG. 4: Display content projection process)
The
As shown in FIG. 7, when the account opening is selected in step S11, the
この際、投影部111は、入力内容85に応じた説明と入力例との少なくともいずれかを入力台40の上に投影表示してもよい。投影部111は、入力方法を説明した動画を入力台40の上に投影表示してもよい。
At this time, the
また、図7に示すように、投影部111は、表示内容の拡大及び縮小のボタンを表示してもよい。投影部111は、拡大ボタンがタッチされた場合、表示内容82全体を拡大して表示する。つまり、図7に示すように、表示内容82は投影面21の一部に表示されているため、表示内容82全体を拡大して表示することが可能である。また、投影部111は、縮小ボタンがタッチされた場合、表示内容82全体を縮小して表示する。
Further, as shown in FIG. 7, the
(図3のステップS2:データ認識処理)
データ認識部112は、ステップS1で投影部111によって投影表示された入力フォーマット84の入力欄86に手書きされた文字を認識する。
(Step S2 in FIG. 3: Data recognition process)
The
図8から図9を参照して、実施の形態1に係るデータ認識処理を説明する。
(図8のステップS21:認識処理)
利用者によって、入力欄86に入力内容85に応じた内容が電子ペン30により手書きされる。例えば、図7に示すように、氏名についての入力フォーマット84が投影表示されている場合には、入力欄86に利用者の氏名が手書きされる。
データ認識部112は、入力欄86に手書きされる度に、手書きされた文字を認識する。つまり、データ認識部112は、入力欄86に一筆手書きされる度に、文字を認識し直す。
この際、まず、データ認識部112は、電子ペン30の位置の軌跡を特定する。位置の軌跡を特定する方法はどのような方法でもよい。例えば、データ認識部112が電子ペン30と通信することにより、位置の軌跡を特定してもよいし、プロジェクタ20により入力台40の上に赤外線を張り巡らし、電子ペン30の位置の軌跡を特定してもよい。なお、赤外線を用いる場合には、電子ペン30ではなく、指等により文字を書くことも可能である。
次に、データ認識部112は、特定された軌跡に基づきOCR(Optical Character Reader)処理を行い、手書きされた文字を認識して文字コードに変換する。OCR処理とは、手書きや印刷された文字を光学的に読み取り、コンピュータが利用できる文字コードに変換する処理である。データ認識部112は、どのようなOCRソフトウェアを使用してもよい。例えば、データ認識部112は、書かれた文字の形状と、書き順と等を考慮して、文字を認識するOCRソフトウェアを使用する。
The data recognition process according to the first embodiment will be described with reference to FIGS. 8 to 9.
(Step S21 in FIG. 8: Recognition process)
By the user, the content corresponding to the
The
At this time, first, the
Next, the
(図8のステップS22:不備判定処理)
データ認識部112は、ステップS21で認識された文字について不備があるか否かを判定する。例えば、データ認識部112は、数値を入力する入力欄86に対して数値以外の文字が入力された場合には、不備があると判定する。
(Step S22 of FIG. 8: Deficiency determination process)
The
(図8のステップS23:画像化処理)
データ認識部112は、ステップS21で特定された軌跡を画像化して、画像化された軌跡を投影部111に送信する。また、データ認識部112は、ステップS21でOCR処理により認識された文字を投影部111に送信する。
例えば、図7に示すように、入力欄86に、画像化された軌跡を表示する。また、OCR処理により文字列変換された文字を、入力欄86の下に表示している。
(Step S23 in FIG. 8: Imaging process)
The
For example, as shown in FIG. 7, the imaged locus is displayed in the
データ認識部112は、ステップS22で不備があると判定された場合には、不備があることを利用者に通知して、修正を促す。
例えば、データ認識部112は、ステップS22で不備があると判定された場合には、文字列変換された文字とともに、不備があることを示すデータも投影部111に送信する。投影部111は、認識された文字に印をつけて投影表示するといった方法により、利用者に不備があることを通知する。
When the
For example, when the
(図8のステップS24:書込終了判定処理)
データ認識部112は、入力欄86への書込みが終了したか否かを判定する。ここでは、データ認識部112は、入力欄86への書込みが終了したことを示すボタンにタッチされた場合に、入力欄86への書込みが終了したと判定する。図7では、データ認識部112は、入力フォーマット84の右下の矢印ボタンにタッチされた場合に、入力欄86への書込みが終了したと判定する。
データ認識部112は、入力欄86への書込みが終了したと判定された場合には、処理をステップS25に進める。一方、データ認識部112は、入力欄86への書込みが終了していないと判定された場合には、処理をステップS21に戻して、次の文字を認識する。
前記データ認識部は、入力欄への書込みが終了した時点で、認識された文字をデジタルデータとしてメモリ12に保存するとともに、特定された軌跡を画像化し証跡データとしてメモリ12に保存する。
(Step S24 of FIG. 8: Writing end determination process)
The
When it is determined that the writing to the
When the writing to the input field is completed, the data recognition unit stores the recognized characters as digital data in the
データ認識部112は、入力欄86への書込みが終了したと判定された場合に、入力欄86に書き込まれた文字の不備があるか否かを再判定してもよい。
ステップS22では、認識された1文字についての不備の判定ができる。これに対して、入力欄86への書込みが終了したと判定された場合に、入力欄86に書き込まれた文字列についての不備の判定ができる。例えば、入力内容85が電話番号である場合に、書き込まれた数値の桁数が多い、又は、少ないといった判定ができる。
When it is determined that the writing to the
In step S22, it is possible to determine the deficiency of one recognized character. On the other hand, when it is determined that the writing to the
(図8のステップS25:手続終了判定処理)
データ認識部112は、全ての入力内容85についての書込みが終了したか否かを判定する。ここでは、最後の入力内容85についての入力欄86への書込みが終了した場合に、全ての入力内容85についての書込みが終了したと判定する。
データ認識部112は、全ての入力内容85についての書込みが終了したと判定された場合には、図3のステップS3に進める。一方、データ認識部112は、全ての入力内容85についての書込みが終了していない場合には、処理を図4のステップS13に戻して、次の入力内容85についての入力フォーマット84を表示させる。
(Step S25 in FIG. 8: Procedure end determination process)
The
When it is determined that the writing of all the
例えば、図7に示された、氏名についての入力フォーマット84が投影表示されているときに、右下の矢印ボタンにタッチされた場合には、データ認識部112は、処理を図4のステップS13に戻す。すると、図9に示すように、投影部111は、入力順が2番目の入力内容85である住所についての入力フォーマット84を投影表示する。
For example, when the
(図3のステップS3:確認処理)
確認処理部113は、ステップS2で書き込まれた文字を確認するための確認データ88を生成する。
(Step S3 in FIG. 3: Confirmation process)
The
図10から図13を参照して、実施の形態1に係る確認処理を説明する。
(図10のステップS31:フォーマット取得処理)
確認処理部113は、ステップS11で選択された手続きについての手続書類のフォーマット87を、データベースサーバ50のフォーマット記憶部52から読み出す。
図11に示すように、フォーマット記憶部52には、手続き毎に、手続書類のフォーマットが記憶されている。手続書類のフォーマット87は、例えば、従来の紙の手続書類と同様のフォーマットである。表示内容82の入力フォーマット84が示す各入力欄86は、手続書類の記入欄に対応している。
The confirmation process according to the first embodiment will be described with reference to FIGS. 10 to 13.
(Step S31 in FIG. 10: Format acquisition process)
The
As shown in FIG. 11, the
(図10のステップS32:確認データ生成処理)
図12に示すように、確認処理部113は、ステップS2で認識された文字を、その文字が手書きされた入力欄86に対応する、ステップS31で取得された手続書類のフォーマット87の記入欄に示して確認データ88を生成する。図12では、口座開設の場合の確認データ88が示されている。そのため、図12では、氏名と、住所と、生年月日と、電話番号と、金額とが示されている。
(Step S32 in FIG. 10: Confirmation data generation process)
As shown in FIG. 12, the
確認処理部113は、確認データ88を生成する際、各入力欄86に書き込まれた文字の不備があるか否かを再判定してもよい。ここでは、各入力欄86に書き込まれた文字列間の対応関係に不備があるか否かを判定できる。例えば、住所と電話番号の市外局番とが不一致であるといった判定ができる。
When the
(図10のステップS33:手続実行判定処理)
確認処理部113は、生成された確認データ88を投影部111に送信する。投影部111は、確認データ88を入力台40の上に投影表示する。
利用者によって、確認データ88の内容が確認される。確認データ88の内容に修正がなければ、利用者によって手続きを実行することを示すボタンが電子ペン30によりタッチされる。すると、確認処理部113は、処理をステップS34に進める。一方、確認データ88の内容に修正があれば、利用者によって修正することを示すボタンが電子ペン30によりタッチされる。すると、確認処理部113は、投影部111に該当の入力内容85についての修正画面を投影表示させる。そして、確認処理部113は、修正完了後、処理をステップS32に戻して、確認データ88を再生成する。
(Step S33 in FIG. 10: Procedure execution determination process)
The
The content of the
(図10のステップS34:利用者情報記憶処理)
確認処理部113は、ステップS2で認識された各入力内容85についての文字等のデータを、金融機関等の手続き先の事務員の端末に送信する。事務員によって、データに不備がないことが確認されると、確認処理部113は、データをデータベースサーバ50の利用者情報記憶部53に書き込む。図13に示すように、利用者情報記憶部53は、利用者毎に、利用者についての情報が記憶されている。
(Step S34 in FIG. 10: User information storage processing)
The
(図10のステップS35:参照情報生成処理)
確認処理部113は、手続書類についての情報を利用者端末から参照するための参照情報89を生成する。手続書類についての情報は、登録された利用者についての情報と、手続きの進捗状況と等である。参照情報89は、手続書類についての情報を参照可能なURL(Uniform Resource Locator)を示す。例えば、参照情報89は、URLが埋め込まれた二次元コードである。利用者端末は、スマートフォン及び携帯電話といった端末である。利用者は、利用者端末を用いて、参照情報89が示すURLを指定して、ウェブサイトにアクセスすることにより、手続書類についての情報を参照することが可能である。
確認処理部113は、生成された参照情報89を投影部111に送信する。投影部111は、参照情報89を入力台40の上に投影表示する。例えば、利用者端末に付属するカメラを用いて、二次元コードを読み取ることにより、参照情報89が示すURLを利用者端末に取り込むことができる。
(Step S35 of FIG. 10: Reference information generation process)
The
The
なお、図10のステップS34で利用者情報記憶部53に書き込まれたデータを用いて、金融機関等の手続き先の事務員によって手続きが進められる。そして、事務員によって手続きの進捗がデータベースサーバ50に登録され、参照情報89が示すURLのウェブサイトの情報が更新される。
The procedure is carried out by a clerk at a procedure destination such as a financial institution using the data written in the user
***実施の形態1の効果***
以上のように、実施の形態1に係るデータ入力装置10は、入力フォーマット84を入力台40の上に投影表示し、入力フォーマット84の入力欄86に手書きされた文字を認識する。これにより、紙を用いずに手続きの申し込み等を行うことが可能となり、紙の使用量を減らすことが可能である。
*** Effect of
As described above, the
また、利用者は、手続書類に文字を記入する場合と同じように、入力欄86に文字を手書きすればよい。つまり、利用者は、キーボードを打つといった、従来の紙の書類に記入する場合と異なる処理をする必要がなく、手続の手間が増えることもない。
In addition, the user may handwrite the characters in the
また、紙の手続書類を用いて手続きの申し込み等をしていた場合には、手続書類に記入された内容を、事務員がコンピュータに入力していた。そのため、事務員の入力ミス等により正しくデータが登録されない恐れがあった。
実施の形態1に係るデータ入力装置10は、利用者が文字認識され文字列変換された文字を確認する。そのため、利用者の意図した通りのデータが登録される。
In addition, when applying for a procedure using paper procedure documents, the clerk entered the contents entered in the procedure documents into the computer. Therefore, there is a risk that the data will not be registered correctly due to an input error of the clerk.
The
また、実施の形態1に係るデータ入力装置10は、参照情報89を生成する。そのため、利用者が手続きの進捗を確認することが可能である。
Further, the
また、実施の形態1に係るデータ入力装置10は、入力フォーマット84を投影表示する。そのため、入力フォーマット84の表示を拡大及び縮小することが可能である。特に、投影面21は大きくすることが容易である。そのため、入力フォーマット84を大きく表示することを容易に実現できる。
また、入力内容85に応じた説明と入力例とを、入力フォーマット84上に表示することも可能であるし、入力フォーマット84の外に表示することも可能である。
Further, the
Further, the description and the input example according to the
また、実施の形態1に係るデータ入力装置10は、入力内容85に応じた説明と入力例とを投影表示する。そのため、利用者がスムーズに入力内容85を書き込むことができる。その結果、手続き窓口の混雑を緩和することが可能である。また、事務員への問合せも減るため、事務員の作業不可を減らすことが可能である。
Further, the
また、実施の形態1に係るデータ入力装置10は、OCR処理により認識された文字をデジタルデータとして保存するとともに、特定された軌跡を画像化し証跡データとして保存する。そのため、後日利用者から手続き内容についての問い合わせがあった場合でも、手続き内容についての確認を行うことが可能である。
Further, the
また、実施の形態1に係るデータ入力装置10は、紙の手続書類が必要ない。そのため、手続きに必要な入力内容85に変更があった場合には、データベースサーバ50に記憶されたデータを変更するだけで対応できる。
なお、特許文献1のように、手続書類に対して説明を投影する場合には、紙の手続書類を変更するとともに、手続書類に投影する説明の位置調整といった煩雑な作業が必要になる。
Further, the
When the explanation is projected onto the procedure document as in
***他の構成***
<変形例1>
実施の形態1では、データ入力システム1は、データ入力装置10とプロジェクタ20と電子ペン30と入力台40との組を1つ備えていた。しかし、データ入力システム1は、データ入力装置10とプロジェクタ20と電子ペン30と入力台40との組を複数備えてもよい。
*** Other configurations ***
<Modification example 1>
In the first embodiment, the
<変形例2>
実施の形態1では、データベースサーバ50が、表示内容記憶部51と、フォーマット記憶部52と、顧客情報記憶部53との機能を実現した。しかし、データ入力装置10のストレージ13が、表示内容記憶部51と、フォーマット記憶部52と、顧客情報記憶部53との機能を実現してもよい。
<Modification 2>
In the first embodiment, the
<変形例3>
実施の形態1では、入力欄86に対して手書きするとした。しかし、データ入力システム1は、手書き以外の入力手段を提供してもよい。例えば、データ入力システム1は、テンキーを備えていてもよい。これにより、利用者は数値をテンキーから入力することが可能である。また、データ入力システム1は、キーボードを備えていてもよい。これにより、キーボードの入力に慣れた利用者であれば、キーボードから文字を入力することが可能である。なお、テンキー及びキーボードを物理的に用意してもよいし、投影型のテンキー及びキーボードを用意してもよい。投影型のテンキー及びキーボードを用意する場合、データ入力装置10の投影部111が、プロジェクタ20により、テンキー及びキーボードを入力台40の上に投影表示すればよい。
<Modification example 3>
In the first embodiment, the
<変形例4>
実施の形態1では、投影部111と、データ認識部112と、確認処理部113との機能がソフトウェアで実現された。しかし、変形例4として、投影部111と、データ認識部112と、確認処理部113との機能はハードウェアで実現されてもよい。この変形例4について、実施の形態1と異なる点を説明する。
<Modification example 4>
In the first embodiment, the functions of the
図14を参照して、変形例4に係るデータ入力装置10の構成を説明する。
投影部111と、データ認識部112と、確認処理部113との機能がハードウェアで実現される場合、データ入力装置10は、プロセッサ11とメモリ12とストレージ13とに代えて、処理回路15を備える。処理回路15は、投影部111と、データ認識部112と、確認処理部113との機能と、メモリ12とストレージ13との機能とを実現する専用の電子回路である。
The configuration of the
When the functions of the
処理回路15は、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ロジックIC、GA(Gate Array)、ASIC(Application Specific Integrated Circuit)、FPGA(Field−Programmable Gate Array)が想定される。
投影部111と、データ認識部112と、確認処理部113との機能を1つの処理回路15で実現してもよいし、投影部111と、データ認識部112と、確認処理部113との機能を複数の処理回路15に分散させて実現してもよい。
The
The functions of the
<変形例5>
変形例5として、一部の機能がハードウェアで実現され、他の機能がソフトウェアで実現されてもよい。つまり、投影部111と、データ認識部112と、確認処理部113とのうち、一部の機能がハードウェアで実現され、他の機能がソフトウェアで実現されてもよい。
<Modification 5>
As a modification 5, some functions may be realized by hardware and other functions may be realized by software. That is, some of the functions of the
プロセッサ11とメモリ12とストレージ13と処理回路15とを、総称して「プロセッシングサーキットリー」という。つまり、各機能構成要素の機能は、プロセッシングサーキットリーにより実現される。
The
実施の形態2.
実施の形態2は、自動車の運転免許証のような書類を読み込む点が実施の形態1と異なる。実施の形態2では、この異なる点を説明し、同一の点については説明を省略する。
Embodiment 2.
The second embodiment is different from the first embodiment in that a document such as a driver's license of a car is read. In the second embodiment, these different points will be described, and the same points will be omitted.
***構成の説明***
図15を参照して、実施の形態2に係るデータ入力システム1の構成を説明する。
データ入力システム1は、撮像装置70を備える点が図1に示すデータ入力システム1と異なる。撮像装置70は、自動車の運転免許証のような書類を撮像する装置である。
*** Explanation of configuration ***
The configuration of the
The
***動作の説明***
図16を参照して、実施の形態2に係るデータ認識処理を説明する。
ステップS42からステップS46の処理は、図8のステップS21からステップS25の処理と同じである。
*** Explanation of operation ***
The data recognition process according to the second embodiment will be described with reference to FIG.
The process from step S42 to step S46 is the same as the process from step S21 to step S25 in FIG.
(図16のステップS41:読込処理)
利用者によって、自動車の運転免許証のような書類が撮像装置70の撮像領域に設置される。
データ認識部112は、撮像装置70により撮像領域に設置された書類を撮像して、書類の画像データを取得する。データ認識部112は、取得された画像データから各入力内容85に対応する文字を認識する。データ認識部112は、認識された文字を、入力フォーマット84における対応する入力欄86に入力された文字として扱う。
ここでは、自動車の運転免許証のように、入力内容が定められた書類が設置される。なお、自動車の運転免許証に限らず、パスポート、保険証といった他の書類であってもよい。また、事前に、書類の各欄と、表示内容82の各入力内容85とは対応付けされている。
データ認識部112は、認識された文字を投影部111に送信する。すると、投影部111により、認識された文字が、入力欄86の下に表示される。あるいは、入力欄86にも合わせて表示してもよく、もしくは入力欄86のみに表示してもよい。
(Step S41 of FIG. 16: Reading process)
A document such as a driver's license of a car is installed in the imaging area of the imaging device 70 by the user.
The
Here, a document that defines the input contents, such as a driver's license of a car, is installed. In addition, it is not limited to a driver's license of a car, and may be other documents such as a passport and an insurance card. Further, each field of the document and each
The
***実施の形態2の効果***
以上のように、実施の形態2に係るデータ入力装置10は、自動車の運転免許証のような書類に記載された文字を認識して、入力欄86に入力された文字として扱う。これにより、利用者が入力内容85を書き込む手間を減らすことが可能である。
*** Effect of Embodiment 2 ***
As described above, the
実施の形態3.
実施の形態3は、書込みに関する統計をとる点が実施の形態1と異なる。実施の形態3では、この異なる点を説明し、同一の点については説明を省略する。
なお、実施の形態3を実施の形態2と組み合わせることも可能である。
Embodiment 3.
The third embodiment is different from the first embodiment in that statistics on writing are collected. In the third embodiment, these different points will be described, and the same points will be omitted.
It is also possible to combine the third embodiment with the second embodiment.
***構成の説明***
図17を参照して、実施の形態3に係るデータ入力装置10の構成を説明する。
データ入力装置10は、機能構成要素として、統計部114を備える点が図3に示すデータ入力装置10と異なる。統計部114は、他の機能構成要素と同様に、ソフトウェアによって実現される。なお、統計部114は、他の機能構成要素と同様に、ハードウェアによって実現されてもよい。
また、データベースサーバ50は、統計記憶部54の機能を実現する。
*** Explanation of configuration ***
The configuration of the
The
Further, the
***動作の説明***
図18を参照して、実施の形態3に係るデータ認識処理を説明する。
ステップS51からステップS55の処理は、図8のステップS21からステップS25の処理と同じである。
*** Explanation of operation ***
The data recognition process according to the third embodiment will be described with reference to FIG.
The processing of steps S51 to S55 is the same as the processing of steps S21 to S25 of FIG.
(図18のステップS56:統計処理)
統計部114は、ステップS52又はステップS54で不備と判定された内容を取得して、統計記憶部54に書き込む。また、統計部114は、各入力欄86への書込み時間についても取得して、統計記憶部54に書き込む。
(Step S56 of FIG. 18: Statistical processing)
The
これにより、統計記憶部54には、不備についてのデータと、書込み時間についてのデータが蓄積される。例えば、事務員等によって、不備及び書込み時間についてのデータが分析され、入力フォーマット84が変更されたり、入力内容85の説明が追加されたりする。例えば、不備の多い入力内容85については、入力内容85に関する説明を追加で投影表示するようにして、不備が減るようにされる。
As a result, the
***実施の形態3の効果***
以上のように、実施の形態3に係るデータ入力装置10は、不備等のデータを蓄積する。これにより、入力フォーマット84及び説明を改善することができる。その結果、利用者にとってより利用し易いシステムにすることができる。
*** Effect of Embodiment 3 ***
As described above, the
実施の形態4.
実施の形態4では、電子ペン30の紛失防止処理を行う点が実施の形態1と異なる。実施の形態4では、この異なる点を説明し、同一の点については説明を省略する。
なお、実施の形態4を実施の形態2,3と組み合わせることも可能である。
Embodiment 4.
The fourth embodiment is different from the first embodiment in that the loss prevention process of the electronic pen 30 is performed. In the fourth embodiment, these different points will be described, and the same points will be omitted.
It is also possible to combine the fourth embodiment with the second and third embodiments.
***構成の説明***
図19を参照して、実施の形態4に係るデータ入力装置10の構成を説明する。
データ入力装置10は、機能構成要素として、配置判定部115を備える点が図2に示すデータ入力装置10と異なる。配置判定部115は、他の機能構成要素と同様に、ソフトウェアによって実現される。なお、配置判定部115は、他の機能構成要素と同様に、ハードウェアによって実現されてもよい。
*** Explanation of configuration ***
The configuration of the
The
***動作の説明***
図20を参照して、実施の形態4に係るデータ入力システム1の動作を説明する。
ステップS1からステップS3の処理は、実施の形態1と同じである。
*** Explanation of operation ***
The operation of the
The processing of steps S1 to S3 is the same as that of the first embodiment.
(図20のステップS4:紛失防止処理)
投影部111は、プロジェクタ20により、入力装置である電子ペン30の置き場である配置領域90を入力台40の上に投影表示する。そして、配置判定部115は、投影部111によって投影された配置領域90に入力装置である電子ペン30が基準時間以上置かれているか否かを判定する。
(Step S4 in FIG. 20: Loss prevention processing)
The
図21から図22を参照して、実施の形態4に係る紛失防止処理を説明する。
(図21のステップS61:領域表示処理)
投影部111は、プロジェクタ20により、電子ペン30の置き場である配置領域90を入力台40の上に投影表示する。例えば、図22に示すように、投影部111は、電子ペン30を拡大したような形状の配置領域90を、電子ペン30を配置領域90に置くことを促すメッセージ91とともに、入力台40の上に投影表示する。
つまり、投影部111は、ステップS11からステップS13で、入力フォーマット84を入力台40の上に投影表示し、入力フォーマット84への入力が終了した後に、配置領域90を投影表示する。
The loss prevention process according to the fourth embodiment will be described with reference to FIGS. 21 to 22.
(Step S61 of FIG. 21: Area display processing)
The
That is, the
図22の配置領域90は、ペンの形状をしているが、形状はペンに限らない。矩形や円でもよいし、点や線でも構わない。また、領域のサイズについては、必ずしもペンが入る大きさでなくてもよく、ペン先が入る程度の大きさでも構わない。
The
(図21のステップS62:配置判定処理)
配置判定部115は、配置領域90に電子ペン30が基準時間以上継続して置かれているか否かを判定する。この際、配置判定部115は、電子ペン30のポインタが配置領域90内を指している場合に、配置領域90に電子ペン30が置かれていると判定する。一方、配置判定部115は、電子ペン30のポインタが配置領域90外を指している場合に、配置領域90に電子ペン30が置かれていないと判定する。
配置判定部115は、配置領域90に電子ペン30が基準時間以上継続して置かれている場合には、処理をステップS63に進める。
一方、配置判定部115は、制限時間以上経過しても、配置領域90に電子ペン30が基準時間以上継続して置かれていない場合には、処理をステップS64に進める。ここで、制限時間は、基準時間よりも長い時間である。具体例としては、制限時間を10秒とし、基準時間を3秒とする。
(Step S62 of FIG. 21: Arrangement determination process)
The
When the electronic pen 30 is continuously placed in the
On the other hand, if the electronic pen 30 is not continuously placed in the
(図21のステップS63:正常終了処理)
配置判定部115は、電子ペン30が配置領域90に戻されたとして、処理を終了する。
(Step S63 in FIG. 21: Normal termination processing)
The
(図21のステップS64:異常終了処理)
配置判定部115は、電子ペン30が配置領域90に戻されなかったとして、警告音を鳴らす、担当者へメッセージを送信するといった方法により担当者と利用者との少なくともいずれかに通知した上で、処理を終了する。
(Step S64 of FIG. 21: Abnormal termination processing)
The
***実施の形態4の効果***
以上のように、実施の形態4に係るデータ入力装置10は、入力が終了すると、電子ペン30の置き場である配置領域90を入力台40の上に投影表示する。
利用者は電子ペン30を持ち去る意図がないにも関わらず、電子ペン30を置くことを忘れて持ち去ってしまう可能性がある。しかし、配置領域90を入力台40の上に投影表示することにより、電子ペン30を置くことが利用者に促され、誤って持ち去ってしまうことを防止できる。また、電子ペン30が任意の位置に置かれてしまうと、次の利用者が電子ペン30を発見できない可能性がある。しかし、配置領域90を入力台40の上に投影表示することにより、電子ペン30を置く場所が統一され、次の利用者が電子ペン30を発見し易くなる。
その結果、電子ペン30が紛失することを防止できる。
*** Effect of Embodiment 4 ***
As described above, when the input is completed, the
There is a possibility that the user forgets to put the electronic pen 30 and takes it away even though he / she does not intend to take the electronic pen 30 away. However, by projecting and displaying the
As a result, it is possible to prevent the electronic pen 30 from being lost.
また、電子ペン30が配置領域90に置かれなかった場合には、警告音を鳴らす、担当者へメッセージを送信するといった方法により通知される。警告音を鳴らすことにより、電子ペン30の持ち去り等を防止することができる。また、担当者へメッセージを送信することにより、電子ペン30が紛失した場合でも、新たな電子ペン30を早期に補充することが可能になる。
Further, when the electronic pen 30 is not placed in the
***他の構成***
<変形例6>
実施の形態4では、図19のステップS1からステップS3の処理の後に、紛失防止処理が実行された。つまり、入力フォーマット84へのデータの入力が終了し、データの登録が完了した後に、紛失防止処理が実行された。
しかし、電子ペン30を置くとデータが登録されるようにしてもよい。具体的には、図10のステップS33で確認データ88を入力台40の上に投影表示するとともに、合わせて紛失防止処理が実行されてもよい。つまり、図10のステップS33で確認データ88を入力台40の上に投影表示するとともに、合わせて配置領域90を入力台40の上に投影表示する。確認データ88の内容に修正がなければ、電子ペン30を配置領域90に置いてもらう。そして、配置領域90に電子ペン30が基準時間以上継続して置かれた場合に、図10のステップS34に進むようにする。
すなわち、実施の形態1では、確認データ88の内容に修正がなければ、利用者によって手続きを実行することを示すボタンが電子ペン30によりタッチされた。しかし、変形例6では、確認データ88の内容に修正がなければ、電子ペン30によるタッチに代え、電子ペン30を配置領域90に置いてもらう。これにより、電子ペン30を配置領域90に置かなければ手続きを実行することができないため、より確実に電子ペン30の紛失を防止することができる。
*** Other configurations ***
<Modification 6>
In the fourth embodiment, the loss prevention process was executed after the processes of steps S1 to S3 of FIG. That is, after the data input to the
However, the data may be registered when the electronic pen 30 is placed. Specifically, the
That is, in the first embodiment, if the content of the
<変形例7>
配置判定部115は、図21のステップS63の正常終了処理が終わった後も、定期的に配置領域90に電子ペン30が置かれているか否かを判定してもよい。なお、この際には、配置領域90は投影表示されている必要はない。つまり、図21のステップS63の正常終了処理が終わると、配置領域90は消えてしまうが、配置判定部115は、図21のステップS61で表示された配置領域90の位置に電子ペン90が置かれているか否かを判定する。
そして、配置判定部115は、一定時間継続して電子ペン30が配置領域90に置かれていない場合には、警告音を鳴らす、担当者へメッセージを送信するといった方法により担当者と利用者との少なくともいずれかに通知してもよい。
<
The
Then, when the electronic pen 30 is not continuously placed in the
実施の形態5.
実施の形態5では、入力台40の大きさに応じて表示内容82を制御する点が実施の形態1と異なる。実施の形態5では、この異なる点を説明し、同一の点については説明を省略する。
なお、実施の形態5を実施の形態2〜4と組み合わせることも可能である。
Embodiment 5.
The fifth embodiment is different from the first embodiment in that the
It is also possible to combine the fifth embodiment with the second to fourth embodiments.
***構成の説明***
図23を参照して、実施の形態5に係るデータ入力システム1の構成を説明する。
データ入力システム1は、センサ71を備える点が図1に示すデータ入力システム1と異なる。センサ71は、入力台40の大きさを検出する装置である。
*** Explanation of configuration ***
The configuration of the
The
図24を参照して、実施の形態5に係るデータ入力装置10の構成を説明する。
データ入力装置10は、表示エリア認識部116を備える点が、図2に示すデータ入力装置10と異なる。表示エリア認識部116は、他の機能構成要素と同様に、ソフトウェアによって実現される。なお、表示エリア認識部116は、他の機能構成要素と同様に、ハードウェアによって実現されてもよい。
The configuration of the
The
***動作の説明***
図25から図27を参照して、実施の形態5に係る投影処理を説明する。
ステップS75の処理は、図4のステップS12の処理と同じである。
*** Explanation of operation ***
The projection process according to the fifth embodiment will be described with reference to FIGS. 25 to 27.
The process of step S75 is the same as the process of step S12 of FIG.
(ステップS71:大きさ検出処理)
表示エリア認識部116は、センサ71により、入力装置の置き場である配置領域のサイズを認識する。具体的には、入力台40の縦及び横の寸法を認識する。
(Step S71: Size detection process)
The display
(ステップS72:コンテンツ特定処理)
投影部111は、ステップS71で検出された入力台40の上面の大きさに応じた表示コンテンツを特定する。
表示するコンテンツは、あらかじめ配置領域のサイズに応じた表示内容のレイアウトをサイズごとに複数保持され、大きさ検出処理で検出されたサイズによって、一意に決まるようになっている。
具体例として、大と中と小の3種類のレイアウトが登録されている例について説明する。は、投影部111は、検出された入力台40の上面の大きさが大と中と小とのいずれの分類に該当するかを特定する。投影部111は、特定された分類に応じた表示コンテンツを特定する。
例えば、分類が大の場合には、選択画面81又は表示内容82と、広告動画及び広告画像とを表示コンテンツとし、分類が中の場合には、選択画面81又は表示内容82と、広告動画とを表示コンテンツとし、分類が小の場合には、選択画面81又は表示内容82だけを表示コンテンツとする。
(Step S72: Content identification process)
The
A plurality of layouts of display contents according to the size of the arrangement area are held in advance for each size of the contents to be displayed, and the contents are uniquely determined by the size detected by the size detection process.
As a specific example, an example in which three types of layouts, large, medium, and small, are registered will be described. The
For example, when the classification is large, the
(ステップS73:投影サイズ決定処理)
投影部111は、ステップS72で特定された配置領域のサイズに応じた表示内容を、表示コンテンツが登録されたレイアウトから特定し、特定したレイアウトの表示コンテンツを検出された入力台の大きさに合わせて拡大表示する。
(Step S73: Projection size determination process)
The
(ステップS74:手続選択処理)
投影部111は、プロジェクタ20により、手続きの選択画面81を入力台40の上に投影表示する。この際、上記例であれば、投影部111は、分類が大の場合には、選択画面81とともに、広告動画及び広告画像を入力台40の上に投影表示する。また、投影部111は、分類が中の場合には、選択画面81とともに、広告動画を入力台40の上に投影表示する。
例えば、分類が中の場合には、図26に示すように、投影部111は、選択画面81と広告動画とを入力台40の上に投影表示する。
すると、利用者によって、行いたい手続きのボタンが電子ペン30によりタッチされ、選択される。この際、利用者が広告動画を見る可能性がある。
(Step S74: Procedure selection process)
The
For example, when the classification is medium, as shown in FIG. 26, the
Then, the user touches and selects the button of the procedure to be performed by the electronic pen 30. At this time, the user may watch the advertisement video.
(ステップS76:表示内容投影処理)
投影部111は、プロジェクタ20により、ステップS75で読み出された表示内容82を、伝送路60の上に投影表示する。この際、上記例であれば、投影部111は、分類が大の場合には、選択画面81とともに、広告動画及び広告画像を入力台40の上に投影表示する。また、投影部111は、分類が中の場合には、選択画面81とともに、広告動画を入力台40の上に投影表示する。
例えば、分類が中の場合には、図27に示すように、投影部111は、選択画面81と広告動画とを入力台40の上に投影表示する。
その後、図3のステップS2のデータ認識処理が実行される。この際、利用者が広告動画を見る可能性がある。
(Step S76: Display content projection process)
The
For example, when the classification is medium, as shown in FIG. 27, the
After that, the data recognition process of step S2 of FIG. 3 is executed. At this time, the user may watch the advertisement video.
***実施の形態5の効果***
以上のように、実施の形態5に係るデータ入力装置10は、入力台40の上面の大きさに応じて、表示コンテンツを決定する。これにより、用意された入力台40に応じて適切なコンテンツを投影表示することができる。
*** Effect of Embodiment 5 ***
As described above, the
また、実施の形態5に係るデータ入力装置10は、決定された表示コンテンツを入力台40の上面の大きさに合わせ拡大して投影表示する。
Further, the
実施の形態6.
実施の形態6は、複数の手続きを連続して行う場合に、他の手続きで既に入力された内容を利用する点が実施の形態1と異なる。実施の形態6では、この異なる点を説明し、同一の点については説明を省略する。
なお、実施の形態6を実施の形態2〜5と組み合わせることも可能である。
Embodiment 6.
The sixth embodiment is different from the first embodiment in that when a plurality of procedures are performed in succession, the contents already input in the other procedures are used. In the sixth embodiment, these different points will be described, and the same points will be omitted.
It is also possible to combine the sixth embodiment with the second to fifth embodiments.
***動作の説明***
図28及び図5を参照して、実施の形態6に係る投影処理を説明する。
(図28のステップS81:手続選択処理)
実施の形態1と同様に、手続きが選択される。実施の形態6では、1つ以上の手続きが選択される。
具体的には、図5に示すように、投影部111は、プロジェクタ20により、手続きの選択画面81を入力台40の上に表示する。すると、利用者によって、行いたい手続きのボタンが順に電子ペン30によりタッチされ、1つ以上の手続きが選択される。
*** Explanation of operation ***
The projection process according to the sixth embodiment will be described with reference to FIGS. 28 and 5.
(Step S81 in FIG. 28: Procedure selection process)
As in the first embodiment, the procedure is selected. In Embodiment 6, one or more procedures are selected.
Specifically, as shown in FIG. 5, the
投影部111は、ステップS81で選択された各手続きを順に対象の手続きとする。ここでは、投影部111は、ステップS81で選択された順に各手続きを対象とする。
The
(図28のステップS82:表示内容読込処理)
投影部111は、対象の手続きについての表示内容82を、データベースサーバ50の表示内容記憶部51から読み出す。
(Step S82 of FIG. 28: Display content reading process)
The
(図28のステップS83:表示内容投影処理)
投影部111は、プロジェクタ20により、ステップS12で読み出された表示内容82を、入力台40の上に投影表示する。
(Step S83 of FIG. 28: Display content projection process)
The
図29を参照して、実施の形態6に係るデータ認識処理を説明する。
(図29のステップS91:手続き数判定処理)
データ認識部112は、図28のステップS81で選択された手続きの数が1つであるか否かを判定する。
データ認識部112は、手続きの数が2つ以上である場合には、処理をステップS92に進める。一方、データ認識部112は、手続きの数が1つである場合には、処理をステップS95に進める。
The data recognition process according to the sixth embodiment will be described with reference to FIG. 29.
(Step S91 in FIG. 29: Procedure number determination process)
The
When the number of procedures is two or more, the
(図29のステップS92:初回手続き判定処理)
データ認識部112は、対象の手続きが初回の手続きであるか否かを判定する。つまり、データ認識部112は、対象の手続きが、図28のステップS81で選択された手続きのうち初めに処理される手続きであるか否かを判定する。
データ認識部112は、対象の手続きが初回の手続きでない場合には、処理をステップS93に進める。一方、データ認識部112は、対象の手続きが初回の手続きである場合には、処理をステップS95に進める。
(Step S92 in FIG. 29: Initial procedure determination process)
The
If the target procedure is not the first procedure, the
(図29のステップS93:記入内容判定処理)
データ認識部112は、入力内容85が既に対象となった過去手続きに含まれる入力内容85である既出内容であるか否かを判定する。
データ認識部112は、入力内容85が過去手続きで入力された既出内容である場合には、処理をステップS94に進める。一方、データ認識部112は、入力内容85が過去の手続きで入力された内容でない場合には、処理をステップS95に進める。
(Step S93 in FIG. 29: Entry content determination process)
The
If the
(図29のステップS94:データ読込処理)
データ認識部112は、入力内容85について過去手続きで入力されたデータをメモリ12から読み出し、投影部111に投影表示させる。
具体的には、データ認識部112は、入力内容85について過去手続きで認識された文字のデジタルデータと、入力内容85について過去手続きで特定された軌跡が画像化されたデータとをメモリ12から読み出す。データ認識部112は、読み出されたデジタルデータと画像化されたデータとを投影部111に送信する。すると、投影部111は、デジタルデータが示す文字と、画像化されたデータとを入力台40の上に投影表示する。ここで、画像化されたデータは入力欄86に投影表示され、デジタルデータが示す文字は、入力欄86の付近に投影表示される。
そして、データ認識部112は、処理をステップS98に進める。
(Step S94 of FIG. 29: Data reading process)
The
Specifically, the
Then, the
つまり、投影部111は、対象の手続きについての入力内容のうち、複数の手続きのうち既に対象となった過去手続きに含まれる入力内容である既出内容について、過去手続きの入力フォーマットを投影表示した際にデータ認識部112によって認識された文字を既出内容に対応する入力欄86に入力された文字として投影表示する。また、合わせて、投影部111は、既出内容に対応する入力欄86に入力された軌跡を示す画像化されたデータを入力欄86に投影表示する。
That is, when the
ステップS95からステップS99の処理は、図8のステップS21からステップS25の処理と同じである。但し、ステップS99では、データ認識部112は、全ての入力内容85についての書込みが終了していない場合には、処理を図28のステップS83に戻して、次の入力内容85についての入力フォーマット84を表示させる。
The process from step S95 to step S99 is the same as the process from step S21 to step S25 in FIG. However, in step S99, if the
なお、ステップS94で読み込まれ、投影表示された内容を変更したい場合には、入力欄86に表示された軌跡を削除して、入力し直せばよい。入力し直されると、ステップS98からステップS95に処理が戻される。そして、入力し直された内容について、ステップS95からステップS97の処理が実行される。その結果、入力し直された軌跡から文字認識され、認識された文字と、入力し直された軌跡を画像化したデータとが入力台40の上に投影表示される。
つまり、ステップS94で既出内容に対応する入力欄86に投影表示された情報が削除され、改めて手書きされた場合には、データ認識部112は、手書きされた文字を認識する。そして、投影部111は、過去手続きの入力フォーマット84を投影表示した際にデータ認識部112によって認識された文字の投影表示を止め、データ認識部112によって新たに認識された文字を投影表示する。
If it is desired to change the content read and projected in step S94, the locus displayed in the
That is, when the information projected and displayed in the
また、データ認識部112は、実施の形態1と同様に、手書きされた軌跡を特定して、特定された軌跡に基づき手書きされた文字を認識し、特定された軌跡と認識された文字とを対応付けて保管する。この際、データ認識部112は、既出内容に対応する入力欄86に手書きされない場合には、過去手続きの入力フォーマット84が示す入力欄86に手書きされた軌跡と、過去手続きの入力フォーマットを投影表示した際にデータ認識部によって認識された文字とを対応付けて保管する。
Further, the
図30を参照して、実施の形態6に係る確認処理を説明する。
ステップS101からステップS105の処理は、図10のステップS31からステップS35の処理と同じである。
The confirmation process according to the sixth embodiment will be described with reference to FIG.
The process from step S101 to step S105 is the same as the process from step S31 to step S35 in FIG.
(図30のステップS106:手続き判定処理)
確認処理部113は、未処理の手続きが残っているか否かを判定する。つまり、確認処理部113は、図28のステップS81で選択された手続きのうち、未だ処理がされていない手続きが残っているか否かを判定する。
確認処理部113は、未処理の手続きが残っている場合には、処理を図28のステップS82に戻す。そして、確認処理部113は、投影部111に次の手続きの表示内容82を読み込ませる。一方、確認処理部113は、未処理の手続きが残っていない場合には、処理を終了する。
(Step S106 of FIG. 30: Procedure determination process)
The
If the unprocessed procedure remains, the
***実施の形態6の効果***
以上のように、実施の形態6に係るデータ入力装置10は、複数の手続きを連続して行う場合に、他の手続きで既に入力された内容を利用する。これにより、利用者は同じ内容を何度も記入する必要がなく、紙を用いて手続きを行う場合に比べて、手続きの手間を減らすことができる。
*** Effect of Embodiment 6 ***
As described above, the
実施の形態7.
実施の形態7は、氏名等により筆跡鑑定を行い、本人確認する点が実施の形態1と異なる。実施の形態7では、この異なる点を説明し、同一の点については説明を省略する。
なお、実施の形態7を実施の形態2〜6と組み合わせることも可能である。
The seventh embodiment is different from the first embodiment in that the handwriting is verified by the name or the like and the identity is confirmed. In the seventh embodiment, these different points will be described, and the same points will be omitted.
It is also possible to combine the seventh embodiment with the second to sixth embodiments.
***構成の説明***
図31を参照して、実施の形態7に係るデータ入力装置10の構成を説明する。
データ入力装置10は、機能構成要素として、筆跡鑑定部117を備える点が図2に示すデータ入力装置10と異なる。筆跡鑑定部117は、他の機能構成要素と同様に、ソフトウェアによって実現される。なお、筆跡鑑定部117は、他の機能構成要素と同様に、ハードウェアによって実現されてもよい。
*** Explanation of configuration ***
The configuration of the
The
***動作の説明***
図32を参照して、実施の形態7に係る筆跡鑑定処理を説明する。
ステップS111からステップS115の処理は、図10のステップS31からステップS35の処理と同じである。
*** Explanation of operation ***
The handwriting appraisal process according to the seventh embodiment will be described with reference to FIG. 32.
The processing of steps S111 to S115 is the same as the processing of steps S31 to S35 of FIG.
(図32のステップS116:筆跡鑑定処理)
筆跡鑑定部117は、ステップS114でデータベースサーバ50の利用者情報記憶部53に書き込まれたデジタルデータ及び証跡データをもとに筆跡鑑定を行う。
例えば、筆跡鑑定部117は、利用者によって手書きされた氏名及び電話番号を元に筆跡鑑定を行う場合、過去に手書きされた同一利用者の氏名及び電話番号を、デジタルデータを元に特定する。筆跡鑑定部117は、特定された氏名及び電話番号の証跡データと、今回利用者によって手書きされた氏名及び電話番号の証跡データとを比較判定することで筆跡鑑定を行う。
筆跡鑑定部117は、入力欄に手書き入力された文字と過去に手書き入力された文字とを比較することにより、同一利用者により手書きされたと判定したとき、本人確認に関する手続きを終了する。
一方、筆跡鑑定部117は、同一利用者により手書きされたことが判定の結果確認できなければ、事務員に対して通知して、事務員に本人確認をさせる。
(Step S116 of FIG. 32: Handwriting appraisal processing)
The handwriting appraisal unit 117 performs handwriting appraisal based on the digital data and trail data written in the user
For example, when the handwriting appraisal unit 117 performs handwriting appraisal based on the name and telephone number handwritten by the user, the handwriting appraisal unit 117 identifies the name and telephone number of the same user handwritten in the past based on digital data. The handwriting appraisal unit 117 performs handwriting appraisal by comparing and determining the trail data of the specified name and telephone number and the trail data of the name and telephone number handwritten by the user this time.
The handwriting appraisal unit 117 ends the procedure for identity verification when it is determined that the characters have been handwritten by the same user by comparing the characters handwritten in the input field with the characters handwritten in the past.
On the other hand, if the handwriting appraisal unit 117 cannot confirm the handwriting by the same user as a result of the determination, the handwriting appraisal unit 117 notifies the clerk and asks the clerk to confirm the identity.
筆跡鑑定部117による判定は、例えば氏名と電話番号とのいずれか一方で行うようにしてもよいし、住所等で行うようにしてもよい。 The determination by the handwriting appraisal unit 117 may be performed by, for example, either the name or the telephone number, or may be performed by the address or the like.
***実施の形態7の効果***
以上のように、実施の形態7に係るデータ入力装置10は、筆跡鑑定を行う。これにより、入力手続完了後に、本人が手続したことを確認する運用においては、対面による本人確認を省略することができる。
*** Effect of
As described above, the
また、本人確認を入力手続きの最初の段階で行うこととすれば、以降の入力手続について、利用者が過去の手続きで入力した入力内容を既出入力内容に対応する入力欄86に入力された文字として投影することが可能となる。
In addition, if identity verification is performed at the first stage of the input procedure, the characters entered in the
実施の形態8.
実施の形態8は、利用者によって発話された申請情報に関するキーワードを取得し、自然言語認識させることで、キーワードに関連する手続を一覧表示する点が実施の形態1と異なる。実施の形態8では、この異なる点を説明し、同一の点については説明を省略する。
なお、実施の形態8を実施の形態2〜7と組み合わせることも可能である。
Embodiment 8.
The eighth embodiment is different from the first embodiment in that a keyword related to the application information uttered by the user is acquired and the natural language is recognized to display a list of procedures related to the keyword. In the eighth embodiment, these different points will be described, and the same points will be omitted.
It is also possible to combine the eighth embodiment with the second to seventh embodiments.
***構成の説明***
図33を参照して、実施の形態8に係るデータ入力システム1の構成を説明する。
データ入力システム1は、音声入力装置71と音声出力装置72とを備える点が図1に示すデータ入力システム1と異なる。音声入力装置71は、音声入力のためのマイク装置である。音声出力装置72は、音声データを利用者に伝えるためのスピーカ装置である。
*** Explanation of configuration ***
The configuration of the
The
図34を参照して、実施の形態8に係るデータ入力装置10の構成を説明する。
データ入力装置10は、機能構成要素として、自然言語認識部118を備える点が図2に示すデータ入力装置10と異なる。自然言語認識部118は、他の機能構成要素と同様に、ソフトウェアによって実現される。なお、自然言語認識部118は、他の機能構成要素と同様に、ハードウェアによって実現されてもよい。
また、データベースサーバ50は、自然言語記憶部55の機能を実現する。
The configuration of the
The
Further, the
***動作の説明***
図35を参照して、実施の形態8に係る自然言語認識処理を説明する。
ステップS123からステップS125の処理は、図4のステップS11からステップS13の処理と同じである。
*** Explanation of operation ***
The natural language recognition process according to the eighth embodiment will be described with reference to FIG. 35.
The processing of steps S123 to S125 is the same as the processing of steps S11 to S13 of FIG.
(図35のステップS121:目的確認処理)
自然言語認識部118は、利用者が発する音声を取得する。取得した利用者の音声は、自然言語記憶部55に記憶される。
利用者に来所の目的を音声発信してもらうために、音声出力装置72から来所目的を質問するようにしてもよいし、看板等により利用者に発話を促すようにしてもよい。
(Step S121 in FIG. 35: Purpose confirmation process)
The natural language recognition unit 118 acquires the voice emitted by the user. The acquired user's voice is stored in the natural
In order to have the user transmit the purpose of the visit by voice, the
(図35のステップS122:手続一覧生成処理)
自然言語認識部118は、取得した利用者の音声からキーワードとなる文字を抽出し、予め登録しているキーワードに関連する手続の一覧として生成する。
(Step S122 of FIG. 35: Procedure list generation process)
The natural language recognition unit 118 extracts characters as keywords from the acquired voice of the user and generates them as a list of procedures related to the keywords registered in advance.
すると、ステップS123で、投影部111は、ステップS122で生成された手続きの一覧を示す選択画面81を入力台40の上に表示する。
Then, in step S123, the
例えば、図36に示すように、自然言語認識部118は、利用者が発した音声から「引越」というキーワードを抽出した場合は、「住所変更」や「口座開設」の手続きを表示する一覧を生成する。 For example, as shown in FIG. 36, when the natural language recognition unit 118 extracts the keyword "moving" from the voice emitted by the user, the natural language recognition unit 118 displays a list displaying the procedures of "address change" and "account opening". Generate.
キーワードを認識できない場合と、認識したキーワードが特別なキーワードである場合と等には、窓口へ利用者を促すメッセージを表示する。 When the keyword cannot be recognized, or when the recognized keyword is a special keyword, a message prompting the user is displayed at the counter.
***実施の形態8の効果***
以上のように、実施の形態8に係るデータ入力装置10は、自然言語認識処理を行う。自然言語認識処理により、手続きのため来所した利用者に来所目的を音声により発してもらうことで、人手を介さず、必要な申請手続の一覧表示を行うことが可能となる。
手続機関によっては、可能な手続き項目は多数あり、どの項目を選択すべきかわからないことが多々発生するが、検索の手間を省くことができる。
*** Effect of Embodiment 8 ***
As described above, the
Depending on the procedural institution, there are many possible procedural items, and it often happens that you do not know which item to select, but you can save the trouble of searching.
また、音声認識によらず来所目的を示すキーワード入力により動作するように構成してもよい。 Further, it may be configured to operate by inputting a keyword indicating the purpose of the visit without using voice recognition.
実施の形態9.
実施の形態9は、データ入力装置10aが別のデータ入力装置10bとネットワークを介して接続され、利用者と遠隔のオペレータとが投影画面を共有する点が実施の形態1と異なる。実施の形態9では、この異なる点を説明し、同一の点については説明を省略する。
なお、実施の形態9を実施の形態2〜8と組み合わせることも可能である。
Embodiment 9.
The ninth embodiment is different from the first embodiment in that the data input device 10a is connected to another data input device 10b via a network, and the user and the remote operator share the projection screen. In the ninth embodiment, these different points will be described, and the same points will be omitted.
It is also possible to combine the ninth embodiment with the second to eighth embodiments.
***構成の説明***
図37を参照して、実施の形態9に係るデータ入力システム1の構成を説明する。
データ入力システム1は、音声入力装置71と音声出力装置72とテレビカメラ73とを備える点が図1に示すデータ入力システム1と異なる。音声入力装置71は、利用者の音声を取得するためのマイク装置である。音声出力装置72は、音声データを利用者に伝えるためのスピーカ装置である。テレビカメラ73は、利用者の映像を取得するための撮像装置である。
*** Explanation of configuration ***
The configuration of the
The
図38を参照して、実施の形態9に係るデータ入力装置10の構成を説明する。
データ入力装置10は、機能構成要素として、画面共有部119を備える点が図2に示すデータ入力装置10と異なる。画面共有部119は、他の機能構成要素と同様に、ソフトウェアによって実現される。なお、画面共有部119は、他の機能構成要素と同様に、ハードウェアによって実現されてもよい。
The configuration of the
The
***動作の説明***
図39を参照して、実施の形態9に係る画面共有処理を説明する。
ここでは、データ入力装置10aとデータ入力装置10bとがネットワークを介して接続されており、データ入力装置10aが利用者側に設置され、データ入力装置10bがオペレータ側に設置されているとする。
ステップS132とステップS133の処理は、図3のステップS2とステップS3の処理と同じである。
*** Explanation of operation ***
The screen sharing process according to the ninth embodiment will be described with reference to FIG. 39.
Here, it is assumed that the data input device 10a and the data input device 10b are connected via a network, the data input device 10a is installed on the user side, and the data input device 10b is installed on the operator side.
The processing of step S132 and step S133 is the same as the processing of step S2 and step S3 of FIG.
(図39のステップS131:画面共有処理)
投影部111は、利用者によって選択された手続きについて、プロジェクタ20により、入力内容85と入力欄86とが指定された入力フォーマット84を入力台40の上に投影表示する。すると、画面共有部119は、データ入力装置10aとネットワークを介して接続されたデータ入力装置10bに入力フォーマット84を送信する。データ入力装置10bの投影部は、送信された入力フォーマット84を投影面の上に投影表示し、データ入力装置10と映像を共有する。
(Step S131 in FIG. 39: Screen sharing process)
The
なお、ステップS132では、データ入力装置10a側で入力欄86に手書きされた軌跡及び認識された文字は、データ入力装置10bに送信され、データ入力装置10bの投影部によって投影面の上に投影表示される。また、データ入力装置10b側で入力欄86に手書きされた軌跡及び認識された文字は、データ入力装置10aに送信され、データ入力装置10の投影部111によって入力台40の上に投影表示される。
つまり、データ入力装置10a側とデータ入力装置10b側との両方で入力欄86に入力することが可能であり、入力された内容はデータ入力装置10aとデータ入力装置10bとで共有される。
In step S132, the locus and the recognized characters handwritten in the
That is, it is possible to input to the
例えば、利用者が投影面に「田中」と記載すると、記載すると同時に、異なるデータ入力装置10bの投影面の上に表示される。
また、異なるデータ入力装置10bの投影面で、「田中」を「鈴木」に変更すると、変更したと同時に、利用者の投影面に記載された「田中」は「鈴木」に変更表示される。
For example, if the user writes "Tanaka" on the projection plane, it is displayed on the projection plane of a different data input device 10b at the same time as the description.
Further, when "Tanaka" is changed to "Suzuki" on the projection surface of the different data input device 10b, "Tanaka" written on the projection surface of the user is changed to "Suzuki" at the same time as the change.
***実施の形態9の効果***
以上のように、実施の形態9に係るデータ入力装置10aは、画面共有処理を行う。これにより、異なるデータ入力装置10bをオペレータが扱うことにより、手続き書類の書き方がわからない利用者に対して、音声入力装置71と音声出力装置72及びテレビカメラ73を使った説明だけでなく、手書きによる説明を行うことが可能となる。
*** Effect of Embodiment 9 ***
As described above, the data input device 10a according to the ninth embodiment performs the screen sharing process. As a result, by handling the different data input devices 10b by the operator, not only the explanation using the
利用者に代わって、代筆を行う運用では、オペレータがその場にいなくても対応することが可能となる。 In the operation of writing on behalf of the user, it is possible to respond even if the operator is not present.
1 データ入力システム、10 データ入力装置、11 プロセッサ、12 メモリ、13 ストレージ、14 通信インタフェース、15 処理回路、111 投影部、112 データ認識部、113 確認処理部、114 統計部、115 配置判定部、116 表示エリア認識部、20 プロジェクタ、21 投影面、30 電子ペン、40 入力台、50 データベースサーバ、60 伝送路、70 撮像装置、81 選択画面、82 表示内容、83 一覧、84 入力フォーマット、85 入力内容、86 入力欄、87 手続書類のフォーマット、88 確認データ、89 参照情報。 1 data input system, 10 data input device, 11 processor, 12 memory, 13 storage, 14 communication interface, 15 processing circuit, 111 projection unit, 112 data recognition unit, 113 confirmation processing unit, 114 statistics unit, 115 placement determination unit, 116 Display area recognition unit, 20 Projector, 21 Projection surface, 30 Electronic pen, 40 Input stand, 50 Database server, 60 Transmission path, 70 Imaging device, 81 Selection screen, 82 Display contents, 83 List, 84 Input format, 85 Input Contents, 86 input fields, 87 procedure document formats, 88 confirmation data, 89 reference information.
Claims (5)
前記表示エリア認識部によって認識されたサイズに応じた表示コンテンツであって、入力内容と入力欄とを示す入力フォーマットを含む表示コンテンツを、前記入力台の上に投影表示する投影部と、
前記投影部によって投影表示された前記入力フォーマットの前記入力欄に手書きされた文字を認識するデータ認識部と
を備えるデータ入力装置。 A display area recognition unit that recognizes the size of the top surface of the input stand,
A projection unit that projects display content according to the size recognized by the display area recognition unit and includes an input format indicating an input content and an input field onto the input table.
A data input device including a data recognition unit that recognizes handwritten characters in the input field of the input format projected and displayed by the projection unit.
請求項1に記載のデータ入力装置。 The data input device according to claim 1, wherein the projection unit has a size corresponding to the size and projects and displays the display content on the input table.
請求項1又は2に記載のデータ入力装置。 The data input device according to claim 1 or 2 , wherein the projection unit projects and displays other display contents in addition to the input format when the size is larger than the reference.
投影部が、認識されたサイズに応じた表示コンテンツであって、入力内容と入力欄とを示す入力フォーマットを含む表示コンテンツを、前記入力台の上に投影表示し、
データ認識部が、投影表示された前記入力フォーマットの前記入力欄に手書きされた文字を認識するデータ入力方法。 The display area recognition unit recognizes the size of the upper surface of the input stand and
The projection unit projects and displays the display content according to the recognized size , including the input content and the input format indicating the input field , on the input table.
Data input method data recognizing unit, recognizing handwritten characters in the input field of the input format which is projected and displayed.
前記表示エリア認識処理によって認識されたサイズに応じた表示コンテンツであって、入力内容と入力欄とを示す入力フォーマットを含む表示コンテンツを、前記入力台の上に投影表示する投影処理と、
前記投影処理によって投影表示された前記入力フォーマットの前記入力欄に手書きされた文字を認識するデータ認識処理と
を行うデータ入力装置としてコンピュータを機能させるデータ入力プログラム。 Display area recognition processing that recognizes the size of the top surface of the input stand,
The projection process of projecting the display content according to the size recognized by the display area recognition process and including the input format indicating the input content and the input field onto the input table.
A data input program that causes a computer to function as a data input device that performs a data recognition process for recognizing characters handwritten in the input field of the input format projected and displayed by the projection process.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019124281A JP6868665B2 (en) | 2019-07-03 | 2019-07-03 | Data entry device, data entry method and data entry program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019124281A JP6868665B2 (en) | 2019-07-03 | 2019-07-03 | Data entry device, data entry method and data entry program |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018017137A Division JP6553217B1 (en) | 2018-02-02 | 2018-02-02 | Data input device, data input program and data input system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019219662A JP2019219662A (en) | 2019-12-26 |
JP6868665B2 true JP6868665B2 (en) | 2021-05-12 |
Family
ID=69096470
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019124281A Active JP6868665B2 (en) | 2019-07-03 | 2019-07-03 | Data entry device, data entry method and data entry program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6868665B2 (en) |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4647468B2 (en) * | 2005-11-18 | 2011-03-09 | シャープ株式会社 | Display device, content display method, and content display program |
JP4838694B2 (en) * | 2006-11-28 | 2011-12-14 | 富士フイルム株式会社 | Electronic handwriting input device |
JP5811606B2 (en) * | 2011-06-09 | 2015-11-11 | セイコーエプソン株式会社 | Projector, projection system, projector control method, and program |
JP2015180988A (en) * | 2014-03-03 | 2015-10-15 | カシオ計算機株式会社 | Entry guide display device, entry guide display method, and program |
JP5999236B2 (en) * | 2014-09-12 | 2016-09-28 | キヤノンマーケティングジャパン株式会社 | INFORMATION PROCESSING SYSTEM, ITS CONTROL METHOD, AND PROGRAM, AND INFORMATION PROCESSING DEVICE, ITS CONTROL METHOD, AND PROGRAM |
JP6665415B2 (en) * | 2015-03-30 | 2020-03-13 | セイコーエプソン株式会社 | Projector and projector control method |
JP6479220B2 (en) * | 2016-01-15 | 2019-03-06 | 楽天株式会社 | Content projection control device, content projection control method, and program |
JP2017163532A (en) * | 2016-03-08 | 2017-09-14 | パナソニックIpマネジメント株式会社 | Projection apparatus |
JP6903935B2 (en) * | 2017-02-17 | 2021-07-14 | ソニーグループ株式会社 | Information processing systems, information processing methods, and programs |
-
2019
- 2019-07-03 JP JP2019124281A patent/JP6868665B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2019219662A (en) | 2019-12-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20070050360A1 (en) | Triggering applications based on a captured text in a mixed media environment | |
JP7206729B2 (en) | Information processing device and program | |
JP2006514493A (en) | Change request form annotation | |
CN104220973A (en) | Information processing device and program | |
US9141775B2 (en) | Mashup service support method and apparatus | |
CN109189879A (en) | E-book display methods and device | |
US20130039535A1 (en) | Method and apparatus for reducing complexity of a computer vision system and applying related computer vision applications | |
WO2021023085A1 (en) | Watermark adding method and apparatus, watermark recognition method and apparatus, and electronic device | |
CN112513922A (en) | System and method for providing companion enhancements to books via learning inserts using a publishing platform | |
CN111062377B (en) | Question number detection method, system, storage medium and electronic equipment | |
JP6734445B2 (en) | Data input device, data input method, and data input program | |
US20150138077A1 (en) | Display system and display controll device | |
JP6553217B1 (en) | Data input device, data input program and data input system | |
JP6868665B2 (en) | Data entry device, data entry method and data entry program | |
KR101477642B1 (en) | Flat board printer | |
JP6676121B2 (en) | Data input device and data input program | |
JP2021018728A (en) | Server, program, method, and system | |
CN110909723B (en) | Information processing apparatus and computer-readable storage medium | |
JP5527947B2 (en) | Information processing apparatus, information processing system, and information processing program | |
JP6549209B2 (en) | Data input device and data input program | |
JP6582464B2 (en) | Information input device and program | |
JP6840811B1 (en) | Questionnaire input device, questionnaire input method and questionnaire input program | |
KR20080020099A (en) | System and method for object-based online post-it service in mobile environment | |
JP2018136709A (en) | Data input device, data input program and data input system | |
JP6682827B2 (en) | Information processing apparatus and information processing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190703 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200630 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200707 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200902 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201110 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210330 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210412 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6868665 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |