JP2009054118A - User interface device, user interface method, and program - Google Patents

User interface device, user interface method, and program Download PDF

Info

Publication number
JP2009054118A
JP2009054118A JP2007222957A JP2007222957A JP2009054118A JP 2009054118 A JP2009054118 A JP 2009054118A JP 2007222957 A JP2007222957 A JP 2007222957A JP 2007222957 A JP2007222957 A JP 2007222957A JP 2009054118 A JP2009054118 A JP 2009054118A
Authority
JP
Japan
Prior art keywords
data
identification information
image
unit
processing target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007222957A
Other languages
Japanese (ja)
Inventor
Norihiko Aonuma
憲彦 青沼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2007222957A priority Critical patent/JP2009054118A/en
Publication of JP2009054118A publication Critical patent/JP2009054118A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To specify various processing objects and processing contents with a simple operation. <P>SOLUTION: This user interface device comprises a display scanner touch panel 111 that displays an image on an image display surface, detects light coming from the outside to the image display surface and creates scan image data, and further detects the position specified from the outside on the image display surface, and a processing determination section that determines the processing to be executed and the processing object data of this processing and commands the determined processing to process the determined processing object data based on the scan image data near the detected position and detected position, of scan image data created by the display scanner touch panel. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、ユーザインターフェース装置、ユーザインターフェース方法およびプログラム、特に画像表示面に画像を表示するとともに、該画像表示面に外部から入射する光を検出してスキャン画像データを生成し、さらに前記画像表示面で外部から指示された位置を検出する液晶スキャナタッチパネルを利用したユーザインターフェース装置、ユーザインターフェース方法およびプログラムに関する。   The present invention relates to a user interface device, a user interface method and a program, and in particular displays an image on an image display surface, detects light incident on the image display surface from the outside, generates scan image data, and further displays the image The present invention relates to a user interface device, a user interface method, and a program using a liquid crystal scanner touch panel that detects a position designated from the outside on a screen.

従来、タッチパネルを用いた入力方法では、タッチ位置や、ダブルタッチやスライドなどのタッチアクションを検出し、これらに応じて、あるいはこれらの組み合わせに応じて、処理対象や処理内容を指定している。
例えば、特許文献1は、スライド操作の方向と速さ、あるいは長さを検出したり、円を描くように回転させるスライド操作を検出したりする入力装置が記載されている。また、特許文献2は、タッチパネル上を押下したままで所定長移動させてタッチアクションにて入力する入力装置が記載されている。また、特許文献3は、1点指示か2点指示かを判断するようにした図形処理装置が記載されている。また、特許文献4、文字入力により筆跡判定し、セキュリティ性を高めた自動取引装置が記載されている。また、特許文献5は、タッチパネル上をなぞる動作の速さや方向を変えて、操作指示を与える入力装置が記載されている。また、特許文献6は、タッチスクリーンにより位置指示用の入力を行う場合の入力方式が記載されている。
特開2005−082086号公報 特開平11−126132号公報 特開2001−134382号公報 特開平9−259331号公報 特開平9−50235号公報 特開平5−143235号公報
Conventionally, in an input method using a touch panel, a touch position or a touch action such as a double touch or a slide is detected, and a processing target or processing content is designated according to these or a combination thereof.
For example, Patent Document 1 describes an input device that detects the direction, speed, or length of a slide operation, or detects a slide operation that rotates in a circle. Patent Document 2 describes an input device that inputs a touch action by moving a predetermined length while pressing down on a touch panel. Patent Document 3 describes a graphic processing apparatus that determines whether it is a one-point instruction or a two-point instruction. Further, Patent Document 4 describes an automatic transaction apparatus in which handwriting is determined by character input and security is improved. Patent Document 5 describes an input device that gives an operation instruction by changing the speed and direction of an operation of tracing on a touch panel. Further, Patent Document 6 describes an input method in the case of performing input for position instruction by a touch screen.
Japanese Patent Laying-Open No. 2005-082086 JP-A-11-126132 JP 2001-134382 A JP-A-9-259331 Japanese Patent Laid-Open No. 9-50235 JP-A-5-143235

しかしながら、従来の装置にあっては、指示できる処理対象もしくは処理内容の数がタッチアクションのパターン数に制限されてしまう、あるいは、様々な処理対象と処理内容とに対応するには、タッチアクションが複雑になったり、複数のタッチアクションを組み合わせたりするというように、操作が煩雑になってしまうという問題がある。   However, in the conventional apparatus, the number of processing targets or processing contents that can be instructed is limited to the number of touch action patterns, or in order to cope with various processing targets and processing contents, There is a problem that the operation becomes complicated, such as being complicated or combining a plurality of touch actions.

本発明は、このような事情に鑑みてなされたもので、その目的は、簡便な操作で、様々な処理対象および処理内容を指定することができるユーザインターフェース装置、ユーザインターフェース方法およびプログラムを提供することにある。   The present invention has been made in view of such circumstances, and an object thereof is to provide a user interface device, a user interface method, and a program capable of designating various processing targets and processing contents with a simple operation. There is.

この発明は上述した課題を解決するためになされたもので、本発明のユーザインターフェース装置は、画像表示面に画像を表示するとともに、該画像表示面に外部から入射する光を検出してスキャン画像データを生成し、さらに前記画像表示面で外部から指示された位置を検出するディスプレイスキャナタッチパネルと、前記ディスプレイスキャナタッチパネルが生成したスキャン画像データのうち、前記検出した位置の近傍のスキャン画像データと前記検出した位置とに基づき、実行する処理と該処理の処理対象データとを決定し、この決定した処理にこの決定した処理対象データの処理を指示する処理決定部とを具備することを特徴とする。   The present invention has been made to solve the above-described problems, and the user interface device of the present invention displays an image on an image display surface and detects light incident on the image display surface from the outside to scan an image. A display scanner touch panel that generates data and further detects a position indicated from the outside on the image display surface; scan image data in the vicinity of the detected position among the scan image data generated by the display scanner touch panel; and A process determining unit that determines a process to be executed and processing target data of the process based on the detected position and instructs the determined process to process the determined processing target data. .

これにより、ユーザインターフェース装置は、ディスプレイスキャナタッチパネルが検出した指示された位置とその近傍のスキャン画像データとを組み合わせに応じて、実行する処理とその処理対象データとを決定するので、ディスプレイスキャナタッチパネルに1回タッチするという簡便な操作で、様々な処理対象および処理内容を指定することができる。   Thus, the user interface device determines the processing to be executed and the processing target data according to the combination of the instructed position detected by the display scanner touch panel and the scan image data in the vicinity thereof. Various processing targets and processing contents can be designated by a simple operation of touching once.

また、本発明のユーザインターフェース装置は、上述のユーザインターフェース装置であって、前記処理決定部は、前記検出した位置の近傍のスキャン画像データに基づき、実行する処理を決定し、前記検出した位置に基づき、該実行する処理の処理対象データを決定することを特徴とする。   The user interface device of the present invention is the above-described user interface device, wherein the process determining unit determines a process to be executed based on scan image data in the vicinity of the detected position, and sets the detected position at the detected position. Based on this, the processing target data of the processing to be executed is determined.

また、本発明のユーザインターフェース装置は、上述のユーザインターフェース装置であって、処理対象データを識別するデータ識別情報もしくは処理対象データと、前記画像表示面上の領域を表す情報とを対応付けて記憶する座標記憶部と、スキャン画像データを識別するパターン識別情報と、処理を識別する処理識別情報とを対応付けて記憶するパターン記憶部と、前記処理対象データを表す画像を前記ディスプレイスキャナタッチパネルの画像表示面に表示するとともに、該画像を表示した領域を表す情報と該画像が表す処理対象データもしくは該処理対象データを識別するデータ識別情報とを対応付けて前記座標記憶部に記憶させる画像生成部とを具備し、前記処理決定部は、前記検出した位置の近傍のスキャン画像データを識別するパターン識別情報と対応付けて前記パターン記憶部に記憶している処理識別情報が表す処理を実行する処理とし、前記検出した位置を含む領域を表す情報と対応付けて前記座標記憶部に記憶している処理対象データもしくはデータ識別情報が表す処理対象データを、前記実行する処理の処理対象データとすることを特徴とする。   A user interface device according to the present invention is the above-described user interface device, and stores data identification information or processing target data for identifying processing target data and information representing an area on the image display surface in association with each other. A coordinate storage unit that stores pattern identification information that identifies scan image data, and process identification information that identifies processing, and an image that represents the processing target data. An image generating unit that displays on the display surface and associates information indicating the area where the image is displayed with processing target data represented by the image or data identification information for identifying the processing target data and stores the information in the coordinate storage unit And the processing determining unit identifies scan image data in the vicinity of the detected position. A process for executing the process represented by the process identification information stored in the pattern storage unit in association with the pattern identification information, and stored in the coordinate storage unit in association with the information representing the area including the detected position. The processing target data or the processing target data represented by the data identification information is set as the processing target data of the processing to be executed.

また、本発明のユーザインターフェース装置は、上述のユーザインターフェース装置であって、前記処理決定部は、前記検出した位置の近傍のスキャン画像データと前記検出した位置とに基づき、実行する処理と該処理の処理対象データとを検出するとともに、前記検出した位置の近傍のスキャン画像データに基づき個人認証処理を行うことを特徴とする。   Further, the user interface device of the present invention is the above-described user interface device, wherein the process determining unit executes a process to be executed based on scan image data in the vicinity of the detected position and the detected position. And the personal authentication process is performed based on the scanned image data in the vicinity of the detected position.

これにより、ユーザインターフェース装置は、ディスプレイスキャナタッチパネルが検出した指示された位置とその近傍のスキャン画像データとを組み合わせに応じて、実行する処理とその処理対象データとを決定するとともに、該スキャン画像データに基づき個人認証処理を行うので、指紋などの個人を識別可能な模様/形状を備えたもので、ディスプレイスキャナタッチパネルに1回タッチするという簡便な操作で、様々な処理対象および処理内容の指定と個人認証処理を同時にすることができる。   Thus, the user interface device determines the process to be executed and the processing target data according to the combination of the instructed position detected by the display scanner touch panel and the scan image data in the vicinity thereof, and the scan image data. Since personal authentication processing is performed based on the above, it is possible to specify various processing targets and processing contents with a simple operation of touching the display scanner touch panel once with a pattern / shape that can identify an individual such as a fingerprint. Personal authentication processing can be performed simultaneously.

また、本発明のユーザインターフェース装置は、上述のユーザインターフェース装置であって、処理対象データを識別するデータ識別情報もしくは処理対象データと、前記画像表示面上の領域を表す情報とを対応付けて記憶する座標記憶部と、スキャン画像データを識別するパターン識別情報と、個人を識別する個人識別情報とを対応付けて記憶するパターン記憶部と、前記処理対象データを表す画像を前記ディスプレイスキャナタッチパネルの画像表示面に表示するとともに、該画像を表示した領域を表す情報と該画像が表す処理対象データもしくは該処理対象データを識別するデータ識別情報とを対応付けて前記座標記憶部に記憶させる画像生成部とを具備し、前記処理決定部は、前記検出した位置の近傍のスキャン画像データを識別するパターン識別情報と対応付けて前記パターン記憶部に記憶している個人識別情報を読み出して個人認証を行なうとともに、この個人認証の結果に基づき実行する処理を決定し、前記検出した位置を含む領域を表す情報と対応付けて前記座標記憶部に記憶している処理対象データもしくはデータ識別情報が表す処理対象データを前記実行する処理の処理対象データとすることを特徴とする。   A user interface device according to the present invention is the above-described user interface device, and stores data identification information or processing target data for identifying processing target data and information representing an area on the image display surface in association with each other. An image of the display scanner touch panel, an image representing the processing target data, and a coordinate storage unit for storing the pattern identification information for identifying the scanned image data and the personal identification information for identifying the individual. An image generating unit that displays on the display surface and associates information indicating the area where the image is displayed with processing target data represented by the image or data identification information for identifying the processing target data and stores the information in the coordinate storage unit And the processing determining unit identifies scan image data in the vicinity of the detected position. The personal identification information stored in the pattern storage unit in association with the pattern identification information is read to perform personal authentication, and a process to be executed is determined based on the result of the personal authentication, and an area including the detected position is determined. The processing target data stored in the coordinate storage unit in association with the information to be displayed or the processing target data represented by the data identification information is used as the processing target data for the processing to be executed.

また、本発明のユーザインターフェース装置は、上述のいずれかのユーザインターフェース装置であって、処理対象データを識別するデータ識別情報もしくは処理対象データと、前記画像表示面上の領域を表す情報とを対応付けて記憶する座標記憶部と、スキャン画像データを識別するパターン識別情報と、個人を識別する個人識別情報と、処理を識別する処理識別情報とを対応付けて記憶するパターン記憶部と、前記処理対象データを表す画像を前記ディスプレイスキャナタッチパネルの画像表示面に表示するとともに、該画像を表示した領域を表す情報と該画像が表す処理対象データもしくは該処理対象データを識別するデータ識別情報とを対応付けて前記座標記憶部に記憶させる画像生成部とを具備し、前記処理決定部は、前記検出した位置の近傍のスキャン画像データを識別するパターン識別情報と対応付けて前記パターン記憶部に記憶している個人識別情報を読み出して個人認証を行なうとともに、前記パターン識別情報と前記個人識別情報とに対応付けて前記パターン記憶部に記憶している処理識別情報を読み出し、この読み出した処理識別情報が識別する処理を実行する処理とし、前記検出した位置を含む領域を表す情報と対応付けて前記座標記憶部に記憶している処理対象データもしくはデータ識別情報が表す処理対象データを前記実行する処理の処理対象データとすることを特徴とする。   Further, the user interface device of the present invention is any one of the above-described user interface devices, and corresponds to data identification information or processing target data for identifying processing target data and information representing an area on the image display surface. A coordinate storage unit for storing information, pattern identification information for identifying scanned image data, personal identification information for identifying an individual, and processing identification information for identifying a process in association with each other, and the process The image representing the target data is displayed on the image display surface of the display scanner touch panel, and the information representing the area where the image is displayed corresponds to the processing target data represented by the image or the data identification information for identifying the processing target data And an image generation unit to be stored in the coordinate storage unit, and the processing determination unit detects the detection The personal identification information stored in the pattern storage unit in association with the pattern identification information for identifying the scan image data in the vicinity of the position is read and personal authentication is performed, and the pattern identification information and the personal identification information are supported. In addition, the process identification information stored in the pattern storage unit is read out, the process identified by the read process identification information is executed, and the coordinate storage is associated with the information representing the area including the detected position. The processing target data stored in the section or the processing target data represented by the data identification information is used as the processing target data for the process to be executed.

また、本発明のユーザインターフェース装置は、上述のいずれかのユーザインターフェース装置であって、前記スキャン画像データから、指紋の特徴情報を抽出する指紋特徴情報抽出部を具備し、前記処理決定部は、前記スキャン画像データから前記指紋特徴情報抽出部が抽出した特徴情報に基づき決定することを特徴とする。   A user interface device according to the present invention is any one of the above-described user interface devices, and includes a fingerprint feature information extraction unit that extracts fingerprint feature information from the scanned image data, and the processing determination unit includes: It is determined based on the feature information extracted by the fingerprint feature information extraction unit from the scanned image data.

また、本発明のユーザインターフェース装置は、画像表示面に画像を表示するとともに、該画像表示面に外部から入射する光を検出してスキャン画像データを生成し、さらに前記画像表示面で外部から指示された位置を検出するディスプレイスキャナタッチパネルが生成したスキャン画像データのうち、前記検出した位置の近傍のスキャン画像データと前記検出した位置とに基づき、実行する処理と該処理の処理対象データとを決定し、この決定した処理にこの決定した処理対象データの処理を指示する処理決定部
を具備することを特徴とする
The user interface device of the present invention displays an image on the image display surface, detects light incident on the image display surface from the outside, generates scan image data, and further instructs the image display surface from the outside. In the scan image data generated by the display scanner touch panel that detects the detected position, the process to be executed and the processing target data of the process are determined based on the scan image data in the vicinity of the detected position and the detected position. And a process determining unit for instructing the determined process to process the determined data to be processed.

また、本発明のユーザインターフェース方法は、画像表示面に画像を表示するとともに、該画像表示面に外部から入射する光を検出してスキャン画像データを生成し、さらに前記画像表示面で外部から指示された位置を検出するディスプレイスキャナタッチパネルを具備するユーザインターフェース装置におけるユーザインターフェース方法にであって、前記ディスプレイスキャナタッチパネルが、画像表示面に外部から入射する光を検出してスキャン画像データを生成するとともに、前記画像表示面で外部から指示された位置を検出する第1の過程と、前記ユーザインターフェース装置が、前記第1の過程にて生成したスキャン画像データのうち、前記第1の過程にて検出した位置の近傍のスキャン画像データと前記検出した位置とに基づき、実行する処理と該処理の処理対象データとを決定する第2の過程と、前記ユーザインターフェース装置が、前記第2の過程にて決定した処理に、前記第2の過程にて決定した処理対象データの処理を指示する第3の過程とを備えることを特徴とする。   Further, the user interface method of the present invention displays an image on an image display surface, detects light incident on the image display surface from the outside, generates scan image data, and further instructs the image display surface from the outside. A user interface method in a user interface device including a display scanner touch panel for detecting a position that has been detected, wherein the display scanner touch panel detects light incident from the outside on an image display surface and generates scan image data A first step of detecting a position designated from the outside on the image display surface, and the user interface device detects in the first step of the scan image data generated in the first step. Based on scanned image data in the vicinity of the detected position and the detected position. A second process for determining a process to be executed and processing target data for the process, and a process target determined in the second process by the user interface device in the process determined in the second process And a third process for instructing data processing.

また、本発明のプログラムは、画像表示面に画像を表示するとともに、該画像表示面に外部から入射する光を検出してスキャン画像データを生成し、さらに前記画像表示面で外部から指示された位置を検出するディスプレイスキャナタッチパネルを具備するユーザインターフェース装置のコンピュータを、前記ディスプレイスキャナタッチパネルが生成したスキャン画像データのうち、前記検出した位置の近傍のスキャン画像データと前記検出した位置とに基づき、実行する処理と該処理の処理対象データとを決定し、この決定した処理にこの決定した処理対象データの処理を指示する処理決定部として機能させる。   The program of the present invention displays an image on the image display surface, detects light incident on the image display surface from outside, generates scan image data, and is further instructed from the outside on the image display surface. A computer of a user interface device including a display scanner touch panel for detecting a position is executed based on scan image data in the vicinity of the detected position and the detected position among scan image data generated by the display scanner touch panel. The processing to be performed and the processing target data of the processing are determined, and the determined processing is caused to function as a processing determination unit that instructs the processing of the determined processing target data.

この発明によれば、ディスプレイスキャナタッチパネルが生成したスキャン画像データおよび検出した指示された位置に基づき、実行する処理と該処理の処理対象を決定するので、簡便な操作で、様々な処理対象および処理内容を指定することができる。   According to the present invention, since the process to be executed and the processing target of the process are determined based on the scanned image data generated by the display scanner touch panel and the detected designated position, various processing targets and processes can be performed with a simple operation. You can specify the content.

[第1の実施形態]
以下、図面を参照して、本発明の実施の形態について説明する。図1は、この発明の第1の実施形態による文書管理装置100のハード構成を示す概略ブロック図である。本実施形態における文書管理装置100は、記憶している文書のリストを表示し、リスト中の文書に対して、利用者が承認、否決、削除のいずれかを指定するスタンプを押すことで、スタンプを押された文書に、承認を登録、否決を登録、あるいは該文書を削除のいずれかの処理を行う装置であり、制御部101と、メモリ102と、入出力部103と、液晶スキャナタッチパネル部110と、これらの各部を接続するバス104とを具備する。制御部101は、文書管理装置100全体を制御する。メモリ102は、読み書き可能なメモリであるRAM(Random Access Memory)と、読み出しのみ可能なメモリであるROM(Read Only Memory)と、ハードディスクなどの読み書き可能で不揮発性なメモリとを具備する。また、このROMは、制御部101を動作させるためのプログラムを格納する。入出力部103は、文書管理装置100にて管理する文書データを入出力する。
[First Embodiment]
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a schematic block diagram showing a hardware configuration of a document management apparatus 100 according to the first embodiment of the present invention. The document management apparatus 100 according to this embodiment displays a list of stored documents, and the user presses a stamp designating any one of approval, rejection, and deletion with respect to the document in the list. Is a device that performs either registration of approval, registration of rejection, or deletion of the document in the pressed document, and includes a control unit 101, a memory 102, an input / output unit 103, and a liquid crystal scanner touch panel unit. 110 and a bus 104 that connects these units. The control unit 101 controls the entire document management apparatus 100. The memory 102 includes a RAM (Random Access Memory) that is a readable / writable memory, a ROM (Read Only Memory) that is a readable memory, and a readable / writable nonvolatile memory such as a hard disk. The ROM stores a program for operating the control unit 101. The input / output unit 103 inputs / outputs document data managed by the document management apparatus 100.

図2は、本実施形態による文書管理装置100の機能構成を示す概略ブロック図である。文書管理装置100は、ユーザインターフェース部110、文書表示処理部120、承認処理部130、否決処理部140、削除処理部150、文書記憶部160を具備する。また、ユーザインターフェース部110は、後述するように、液晶スキャナタッチパネル部111と2次元バーコード復号部112と画像生成部114と処理決定部113と座標記憶部115とパターン記憶部116とを具備する。   FIG. 2 is a schematic block diagram showing a functional configuration of the document management apparatus 100 according to the present embodiment. The document management apparatus 100 includes a user interface unit 110, a document display processing unit 120, an approval processing unit 130, a rejection processing unit 140, a deletion processing unit 150, and a document storage unit 160. Further, as will be described later, the user interface unit 110 includes a liquid crystal scanner touch panel unit 111, a two-dimensional barcode decoding unit 112, an image generation unit 114, a processing determination unit 113, a coordinate storage unit 115, and a pattern storage unit 116. .

ユーザインターフェース部(ユーザインターフェース装置)110は、液晶スキャナタッチパネル部111の液晶ディスプレイに文書リスト画面および文書画面を表示し、この文書リスト画面を後述するスタンプで押されたときに、押された位置と押されたスタンプの印面を読み取ったスキャン画像データとに基づき、文書表示処理部120、承認処理部130、否決処理部140、削除処理部150の何れの処理部で、どの文書を処理するかを決定する。文書表示処理部120は、指定された文書データを文書画面に表示する。承認処理部130は、指定された文書データに対応付けて、文書記憶部160に「承認」を登録する。否決処理部140は、指定された文書データに対応付けて、文書記憶部160に「否決」を登録する。削除処理部150は、指定された文書データを文書記憶部160から削除する。文書記憶部160は、文書データを識別する文書識別情報と文書データの承認状態と文書データとを対応付けて記憶する。   The user interface unit (user interface device) 110 displays a document list screen and a document screen on the liquid crystal display of the liquid crystal scanner touch panel unit 111, and when the document list screen is pressed with a stamp to be described later, Based on the scanned image data obtained by reading the stamp face of the pressed stamp, which of the document display processing unit 120, the approval processing unit 130, the rejection processing unit 140, and the deletion processing unit 150 processes which document is to be processed. decide. The document display processing unit 120 displays the designated document data on the document screen. The approval processing unit 130 registers “approval” in the document storage unit 160 in association with the designated document data. The rejection processing unit 140 registers “rejection” in the document storage unit 160 in association with the designated document data. The deletion processing unit 150 deletes the designated document data from the document storage unit 160. The document storage unit 160 stores document identification information for identifying document data, document data approval status, and document data in association with each other.

ユーザインターフェース部110は、前述のように、液晶スキャナタッチパネル部111と画像生成部114と処理決定部113と座標記憶部115とパターン記憶部116とを具備する。液晶スキャナタッチパネル部(ディスプレイスキャナタッチパネル)111は、図3にその構造例を模式的に示すような、低温CGシリコン結晶などによる光センサ素子LS1をその表面に格子状に備えたガラス板P1と、ガラス板P2と、これらガラス板P1とガラス板P2とで挟まれた液晶L1とからなる液晶ディスプレイを有している。この液晶スキャナタッチパネル部111の液晶ディスプレイは、バックライトから照射された光の透過率を、液晶L1にて制御することで、画像生成部114が生成した画像を表示するとともに、その表示面近傍に置かれた物体あるいは表示面に接している物体(図3では指)が液晶ディスプレイのバックライトから照射された光を反射した光など、該液晶ディスプレイに外部から入射する光を光センサ素子LS1にて検出することで液晶ディスプレイの画像表示する領域をスキャンしてスキャン画像データを生成する。さらに液晶スキャナタッチパネル部111は、その液晶ディスプレイで外部から指示された位置を検出する。液晶スキャナタッチパネル部111は、図4のガラス板P1の表面にさらにタッチパッドを貼り、該タッチパッドで接触された位置を検出することで指示された位置の検出を行なっても良いし、スキャンしたスキャン画像データから細長い形状の移動を検出し、該形状の移動が一定時間停止したときの該形状の先端部の位置を指示された位置として検出するようにしてもよい。   As described above, the user interface unit 110 includes the liquid crystal scanner touch panel unit 111, the image generation unit 114, the process determination unit 113, the coordinate storage unit 115, and the pattern storage unit 116. A liquid crystal scanner touch panel unit (display scanner touch panel) 111 includes a glass plate P1 having a light sensor element LS1 made of a low-temperature CG silicon crystal or the like on a surface thereof, as schematically shown in FIG. It has a liquid crystal display comprising a glass plate P2 and a liquid crystal L1 sandwiched between the glass plate P1 and the glass plate P2. The liquid crystal display of the liquid crystal scanner touch panel unit 111 displays the image generated by the image generation unit 114 by controlling the transmittance of light emitted from the backlight with the liquid crystal L1, and in the vicinity of the display surface. Light that is incident on the liquid crystal display from the outside, such as light reflected from the light emitted from the backlight of the liquid crystal display by an object that is placed or in contact with the display surface (finger in FIG. 3) is applied to the optical sensor element LS1. By detecting this, the image display area of the liquid crystal display is scanned to generate scan image data. Further, the liquid crystal scanner touch panel unit 111 detects a position designated from the outside by the liquid crystal display. The liquid crystal scanner touch panel unit 111 may detect a position indicated by affixing a touch pad on the surface of the glass plate P1 in FIG. 4 and detecting a position touched by the touch pad. The movement of the elongated shape may be detected from the scan image data, and the position of the tip of the shape when the movement of the shape stops for a certain time may be detected as the designated position.

2次元バーコード復号部は、2次元バーコードの画像を2次元バーコードの復号処理を行い、復号処理結果の文字列を生成する。画像生成部114は、文書記憶部160から未承認の文書データを選択し、選択した文書データ各々を表すアイコンを並べた文書リスト画面と、文書リスト画面にて選択された文書を表示する文書表示画面を生成して、液晶スキャナタッチパネル部111の液晶ディスプレイに表示する。このとき画像生成部114は、画面の左上端を原点としたときの各アイコンの左上および右下の座標と、該アイコンが表す文書データの文書識別情報とを対応付けて、座標記憶部115に記憶する。また、画像生成部114は、承認処理、否決処理、削除処理を行った後、その処理結果をユーザに通知する画面を生成して、液晶スキャナタッチパネル部111の液晶ディスプレイに表示する。   The two-dimensional barcode decoding unit performs a two-dimensional barcode decoding process on the two-dimensional barcode image, and generates a character string as a decoding process result. The image generation unit 114 selects unapproved document data from the document storage unit 160, a document list screen in which icons representing the selected document data are arranged, and a document display for displaying the document selected on the document list screen A screen is generated and displayed on the liquid crystal display of the liquid crystal scanner touch panel unit 111. At this time, the image generation unit 114 associates the upper left and lower right coordinates of each icon with the upper left corner of the screen as the origin and the document identification information of the document data represented by the icon in the coordinate storage unit 115. Remember. In addition, the image generation unit 114 performs an approval process, a rejection process, and a deletion process, generates a screen for notifying the user of the processing result, and displays the screen on the liquid crystal display of the liquid crystal scanner touch panel unit 111.

処理決定部113は、液晶スキャナタッチパネル部111が検出した位置の位置情報と、該位置の近傍のスキャン画像データ、例えば、該位置を中心とした縦横50ピクセルの正方形の領域のスキャン画像データとを液晶スキャナタッチパネル部111から読み取り、この読み取ったスキャン画像データを2次元バーコード復号部112が復号した復号処理結果に基づき、パターン記憶部116を参照して承認処理、否決処理、削除処理および文書表示処理の中から実行する処理を決定し、液晶スキャナタッチパネル部111から読み取った位置情報に基づき、座標記憶部115を参照して決定した実行する処理の処理対象データとなる文書データを決定する。
座標記憶部115は、文書識別情報と、文書リスト画面にて該文書のアイコンが表示されている領域を表す座標情報とを対応付けて記憶する。
パターン記憶部116は、スキャン画像データを識別するパターン識別情報と、そのスキャン画像データに対応する処理の処理識別情報とを対応付けて記憶している。
The process determining unit 113 obtains position information of the position detected by the liquid crystal scanner touch panel unit 111 and scan image data in the vicinity of the position, for example, scan image data of a square area of 50 pixels in length and width around the position. Based on the decoding process result obtained by reading the scanned image data read from the liquid crystal scanner touch panel unit 111 and the two-dimensional barcode decoding unit 112 with reference to the pattern storage unit 116, an approval process, a rejection process, a deletion process, and a document display are performed. A process to be executed is determined from the processes, and based on the position information read from the liquid crystal scanner touch panel unit 111, document data as processing target data of the process to be executed determined with reference to the coordinate storage unit 115 is determined.
The coordinate storage unit 115 stores the document identification information and the coordinate information indicating the area where the icon of the document is displayed on the document list screen in association with each other.
The pattern storage unit 116 stores pattern identification information for identifying scanned image data and processing identification information for processing corresponding to the scanned image data in association with each other.

本実施形態において、図2に示した2次元バーコード復号部112、処理決定部113、画像生成部114、文書表示処理部120、承認処理部130、否決処理部140、削除処理部150は、メモリ102に格納されているプログラムを、制御部101が読み取って実行することにより、各部の処理を行う。また、座標記憶部115、パターン記憶部116、文書記憶部160は、メモリ102が具備し、これら各部が記憶する情報は、メモリ102のRAMまたは不揮発性なメモリに記憶される。   In the present embodiment, the two-dimensional barcode decoding unit 112, the processing determination unit 113, the image generation unit 114, the document display processing unit 120, the approval processing unit 130, the rejection processing unit 140, and the deletion processing unit 150 illustrated in FIG. The control unit 101 reads and executes a program stored in the memory 102 to perform processing of each unit. The coordinate storage unit 115, the pattern storage unit 116, and the document storage unit 160 are included in the memory 102, and information stored in these units is stored in the RAM of the memory 102 or a nonvolatile memory.

図4は、文書管理装置100が液晶スキャナタッチパネル部111の液晶ディスプレイに表示する文書リスト画面G1および文書表示画面D1の例を示す図である。図4に示す文書リスト画面G1および文書表示画面D1のように、本実施形態における文書リスト画面には、各々が未承認の文書データを表すアイコンが、アイコンIC1、IC2のように列挙されており、本実施形態における文書表示画面には、文書リスト画面にて選択されたアイコンに対応する文書の内容が表示されている。文書の承認権を持つユーザが、承認する文書データのアイコンには承認スタンプS1を押し、否決する文書データのアイコンには否決スタンプS2を押し、削除する文書データのアイコンには削除スタンプS3を押すと、文書管理装置100は、スタンプを押された文書データに、押されたスタンプの印面に応じた処理を施す。その他のもの、例えば指などでアイコンを押すと、文書管理装置100は、該アイコンに対応した文書の内容を文書画面に表示する。ここで、承認スタンプS1、否決スタンプS2、削除スタンプS3の印面には、それぞれ異なる文字列を符号化した2次元バーコードが描かれている。文書管理装置100は、これらの2次元バーコードを読み取り、復号して文字列を得ることで、押されたスタンプがいずれのスタンプであるのかを判定することができる。   FIG. 4 is a diagram illustrating an example of the document list screen G1 and the document display screen D1 that the document management apparatus 100 displays on the liquid crystal display of the liquid crystal scanner touch panel unit 111. Like the document list screen G1 and the document display screen D1 shown in FIG. 4, in the document list screen according to the present embodiment, icons representing unapproved document data are enumerated as icons IC1 and IC2. The document display screen in this embodiment displays the content of the document corresponding to the icon selected on the document list screen. A user who has the document approval right presses the approval stamp S1 for the icon of the document data to be approved, presses the rejection stamp S2 for the icon of the document data to be rejected, and presses the deletion stamp S3 for the icon of the document data to be deleted. Then, the document management apparatus 100 performs processing corresponding to the stamp face of the stamp that has been stamped on the document data. When an icon is pressed with another object such as a finger, the document management apparatus 100 displays the content of the document corresponding to the icon on the document screen. Here, two-dimensional bar codes in which different character strings are encoded are drawn on the surfaces of the approval stamp S1, the rejection stamp S2, and the deletion stamp S3. The document management apparatus 100 can determine which stamp is the stamp that has been pressed by reading and decoding these two-dimensional barcodes to obtain a character string.

図5は、パターン記憶部116の記憶内容例を示す図である。パターン記憶部116には、図5に例示するようにパターン識別情報「承認スタンプS1の印面の復号情報」と処理識別情報「承認」、パターン識別情報「否決スタンプS2の印面の復号情報」と処理識別情報「否決」、パターン識別情報「削除スタンプS3の印面の復号情報」と処理識別情報「削除」というように、パターン識別情報と処理識別情報とが対応付けて記憶されている。ここで、各パターン識別情報として挙げた「承認スタンプS1の印面の復号情報」、「否決スタンプS2の印面の復号情報」、「削除スタンプS3の印面の復号情報」は、それぞれのスタンプの印面に描かれた2次元バーコードを復号して得られる文字列を表している。   FIG. 5 is a diagram illustrating an example of the contents stored in the pattern storage unit 116. As illustrated in FIG. 5, the pattern storage unit 116 includes pattern identification information “decoding information of the stamp of the approval stamp S 1” and processing identification information “approval”, pattern identification information “decoding information of the stamp of the rejection stamp S 2” and processing. Pattern identification information and process identification information are stored in association with each other, such as identification information “denied”, pattern identification information “decoding information on the face of the deletion stamp S3”, and process identification information “deletion”. Here, the “decoding information of the stamp of the approval stamp S1”, “decoding information of the stamp of the rejection stamp S2”, and “decoding information of the stamp of the deletion stamp S3” cited as the pattern identification information are displayed on the stamp of each stamp. It represents a character string obtained by decoding the drawn two-dimensional barcode.

図6は、座標記憶部115の記憶内容例を示す図である。座標記憶部115には、図6に例示する座標情報「20、30、120、130」と文書識別情報「070423RREQ」、座標情報「20、180、120、280」と文書識別情報「070420SREQ」というように、座標情報と文書識別情報とが対応付けて記憶されている。ここで、座標情報は、対応付けられた文書識別情報のアイコンが表示されている矩形領域の左上の座標と右下の座標とを表した数字であり、座標情報「20、30、120、130」であれば、画面の左上を原点とするX座標「20」、Y座標「30」の点と、X座標「120」、Y座標「130」の点とを結ぶ線分を対角線とする矩形の領域を表している。この座標情報が表す領域は、アイコンが表示されている領域であるとともに、スタンプが押された位置が、該領域内であれば、該座標情報に対応付けられた文書識別情報の文書データが処理対象データとなる領域でもある。   FIG. 6 is a diagram illustrating an example of stored contents of the coordinate storage unit 115. The coordinate storage unit 115 includes coordinate information “20, 30, 120, 130”, document identification information “070423RREQ”, coordinate information “20, 180, 120, 280”, and document identification information “070420SREQ” illustrated in FIG. As described above, coordinate information and document identification information are stored in association with each other. Here, the coordinate information is a number representing the upper left coordinate and the lower right coordinate of the rectangular area where the icon of the associated document identification information is displayed, and the coordinate information “20, 30, 120, 130”. ”Is a rectangle whose diagonal is a line connecting the X coordinate“ 20 ”, Y coordinate“ 30 ”point and the X coordinate“ 120 ”, Y coordinate“ 130 ”point with the upper left corner of the screen as the origin. Represents the area. The area represented by the coordinate information is an area where an icon is displayed, and if the position where the stamp is pressed is within the area, the document data of the document identification information associated with the coordinate information is processed. It is also the area that becomes the target data.

図7は、文書記憶部160の記憶内容例を示す図である。文書記憶部160には、図7に例示する文書識別情報「070423RREQ」と承認状態「未承認」と文書データ「070423RREQ.TXT」、文書識別情報「070420SREQ」と承認状態「承認済」と文書データ「070420SREQ.TXT」というように、文書識別情報と承認状態と文書データとが対応付けて記憶されている。ここで、承認状態には、承認も否決も未だされていない「未承認」と承認された「承認済」と否決された「否決」の3種類がある。また、文書データ「070423RREQ.TXT」などの文書データとして記憶している文字列は、文書データを格納したファイル名であり、実際の文書データを格納した該ファイル名のファイルも文書記憶部160は記憶している。   FIG. 7 is a diagram illustrating an example of stored contents of the document storage unit 160. In the document storage unit 160, the document identification information “070423RREQ”, the approval state “unapproved”, the document data “070423RREQ.TXT”, the document identification information “070420SREQ”, the approval state “approved”, and the document data illustrated in FIG. As in “070420SREQ.TXT”, document identification information, an approval state, and document data are stored in association with each other. Here, there are three types of approval states: “unapproved” that has not yet been approved or rejected, “approved” that has been approved, and “denied” that has been rejected. A character string stored as document data such as document data “070423RREQ.TXT” is a file name storing the document data, and the file storing unit 160 also stores a file having the file name storing the actual document data. I remember it.

図8は、文書管理装置100の動作を説明するフローチャートである。まず、文書管理装置100の画像生成部114が、文書記憶部160から承認状態が「未承認」の文書データを選択し、選択した文書データ各々を表すアイコンを並べた文書リスト画面を生成して、液晶スキャナタッチパネル部111の液晶ディスプレイに表示する(Sa1)。このとき画像生成部114は、各アイコンの左上および右下の座標と、該アイコンが表す文書データの文書識別情報とを対応付けて、座標記憶部115に記憶する。ここで、この文書リスト画面に表示されたアイコンのうちの1つに、ユーザが承認スタンプS1を押したとする。処理決定部113は、この承認スタンプS1が押された座標を表す位置情報(例えば、「82、93」のような画面上の座標)と、承認スタンプS1が押された際に読み取った印面のスキャン画像データとを液晶スキャナタッチパネル部111から読み取る(Sa2)。処理決定部113は、ステップSa2にて読み取ったスキャン画像データに対して、2次元バーコード復号部112に出力し、2次元バーコード復号部112は、受けたスキャン画像データに2次元バーコードの復号処理を施し(Sa3)、その復号処理結果の文字列を処理決定部113に出力する。次に、処理決定部113は、この文字列をキーにして、パターン記憶部116のパターン識別情報を検索する(Sa4)。   FIG. 8 is a flowchart for explaining the operation of the document management apparatus 100. First, the image generation unit 114 of the document management apparatus 100 selects document data whose approval status is “unapproved” from the document storage unit 160, and generates a document list screen in which icons representing the selected document data are arranged. Then, it is displayed on the liquid crystal display of the liquid crystal scanner touch panel unit 111 (Sa1). At this time, the image generation unit 114 stores the upper left and lower right coordinates of each icon in association with the document identification information of the document data represented by the icon in the coordinate storage unit 115. Here, it is assumed that the user presses the approval stamp S1 on one of the icons displayed on the document list screen. The process determining unit 113 displays position information (for example, coordinates on the screen such as “82, 93”) indicating the coordinates where the approval stamp S1 is pressed, and the stamp surface read when the approval stamp S1 is pressed. Scanned image data is read from the liquid crystal scanner touch panel unit 111 (Sa2). The process determining unit 113 outputs the scanned image data read in step Sa2 to the two-dimensional barcode decoding unit 112, and the two-dimensional barcode decoding unit 112 adds the two-dimensional barcode to the received scanned image data. The decryption process is performed (Sa3), and the character string of the decryption process result is output to the process determination unit 113. Next, the process determining unit 113 searches for pattern identification information in the pattern storage unit 116 using this character string as a key (Sa4).

次に、処理決定部113は、ステップSa4の検索の結果、一致するパターン識別情報が有る否かを判定する(Sa5)。ステップSa5の判定で一致するパターン識別情報が無いと判定したときは、ステップSa6に遷移して、ステップSa2で読み取った位置情報が表す座標を含む領域を表す座標情報について、座標記憶部115を検索する。次に、文書表示処理部120は、ステップSa6にて検索した座標情報に対応付けて座標記憶部115が記憶している文書識別情報を読み出し、さらに該文書識別情報に対応付けて文書記憶部が記憶している文書データを読み出す。画像生成部114は、この読み出した文書データの内容を、表示する文書表示画面を生成して、液晶スキャナタッチパネル部111の液晶ディスプレイに表示し、処理を終了する。   Next, the process determining unit 113 determines whether there is matching pattern identification information as a result of the search in step Sa4 (Sa5). If it is determined in step Sa5 that there is no matching pattern identification information, the process proceeds to step Sa6, and the coordinate storage unit 115 is searched for coordinate information representing an area including the coordinates represented by the position information read in step Sa2. To do. Next, the document display processing unit 120 reads out the document identification information stored in the coordinate storage unit 115 in association with the coordinate information searched in step Sa6, and further stores the document storage unit in association with the document identification information. Read stored document data. The image generation unit 114 generates a document display screen for displaying the contents of the read document data, displays the document display screen on the liquid crystal display of the liquid crystal scanner touch panel unit 111, and ends the process.

ここでは、前述のように承認スタンプS1が押されているとすると、ステップSa5の判定で、一致するパターン識別情報が有ると判定するので、ステップSa8に遷移して、処理決定部113は、ステップSa2で読み取った位置情報が表す座標を含む領域を表す座標情報について、座標記憶部115を検索する。
ここで、座標情報が表す領域に、位置情報の座標が含まれているか否かは、次のように判定する。すなわち、座標情報が領域の左上のXY座標値と右下のXY座標値を並べた「X1、Y1、X2、Y2」であり、位置情報の座標が「x、y」であるときは、次の2つの不等式X1≦x≦X2、Y1≦y≦Y2を満たすときは、座標情報が表す領域に、位置情報の座標が含まれており、いずれか1つでも満たさないときは、座標情報が表す領域に、位置情報の座標が含まれていないと判定する。
Here, if the approval stamp S1 is pressed as described above, it is determined in step Sa5 that there is matching pattern identification information, so the process decision unit 113 proceeds to step Sa8, The coordinate storage unit 115 is searched for coordinate information representing an area including the coordinates represented by the position information read in Sa2.
Here, whether or not the coordinates of the position information are included in the area represented by the coordinate information is determined as follows. That is, the coordinate information is “X1, Y1, X2, Y2” in which the upper left XY coordinate value and the lower right XY coordinate value are arranged, and the position information coordinates are “x, y”. When the two inequalities X1 ≦ x ≦ X2 and Y1 ≦ y ≦ Y2 are satisfied, the region represented by the coordinate information includes the coordinates of the position information. If any one of the inequalities is not satisfied, the coordinate information is It is determined that the position information does not include the coordinates of the position information.

次に、処理決定部113は、ステップSa4で検索したパターン識別情報と対応付けてパターン記憶部116が記憶している処理識別情報を読み出し、この読み出した処理識別情報が「承認」であるか否かを判定する(Sa9)。このステップSa9の判定にて「承認」であると判定したときは、処理決定部113は、ステップSa8で検索した座標情報と対応付けて座標記憶部115が記憶している文書識別情報を読出し、該文書識別情報を「承認」が表す処理を行う承認処理部130に出力することで、この文書識別情報の文書データの処理を承認処理部130に指示する。承認処理部130は、受けた文書識別情報をキーにして、文書記憶部160を検索し、該当する文書データの承認状態に「承認」を登録する(Sa10)。画像生成部114が承認した旨をユーザに通知する承認画面を生成して、液晶スキャナタッチパネル部111の液晶ディスプレイに表示し(Sa11)、処理を終了する。   Next, the process determining unit 113 reads the process identification information stored in the pattern storage unit 116 in association with the pattern identification information searched in step Sa4, and whether or not the read process identification information is “approval”. Is determined (Sa9). When it is determined as “approved” in step Sa9, the process determining unit 113 reads out the document identification information stored in the coordinate storage unit 115 in association with the coordinate information searched in step Sa8. By outputting the document identification information to the approval processing unit 130 that performs processing represented by “approval”, the approval processing unit 130 is instructed to process the document data of the document identification information. The approval processing unit 130 searches the document storage unit 160 using the received document identification information as a key, and registers “approval” as the approval state of the corresponding document data (Sa10). An approval screen for notifying the user that the image generation unit 114 has approved is generated, displayed on the liquid crystal display of the liquid crystal scanner touch panel unit 111 (Sa11), and the process is terminated.

一方、ステップSa9の判定にて上述の処理識別情報は「承認」でないと判定したときは、ステップSa12に遷移して、処理決定部113は、上述の処理識別情報が「否決」であるか否かを判定する(Sa12)。このステップSa12の判定にて「否決」であると判定したときは、処理決定部113は、ステップSa8で検索した座標情報と対応付けて座標記憶部115が記憶している文書識別情報を読出し、該文書識別情報を「否決」が表す処理を行う否決処理部140に出力することで、この文書識別情報の文書データの処理を否決処理部140に指示する。否決処理部140は、受けた文書識別情報をキーにして、文書記憶部160を検索し、該当する文書データの承認状態に「否決」を登録する(Sa13)。画像生成部114が否決した旨をユーザに通知する否決画面を生成して、液晶スキャナタッチパネル部111の液晶ディスプレイに表示し(Sa14)、処理を終了する。   On the other hand, when it is determined in step Sa9 that the process identification information is not “approved”, the process transitions to step Sa12, and the process determination unit 113 determines whether or not the process identification information is “denied”. Is determined (Sa12). When it is determined as “No” in the determination at Step Sa12, the process determining unit 113 reads out the document identification information stored in the coordinate storage unit 115 in association with the coordinate information searched at Step Sa8, By outputting the document identification information to the rejection processing unit 140 that performs the process indicated by “rejection”, the document processing unit 140 instructs the rejection processing unit 140 to process the document data of the document identification information. The rejection processing unit 140 searches the document storage unit 160 using the received document identification information as a key, and registers “rejection” in the approval state of the corresponding document data (Sa13). A rejection screen for notifying the user that the image generation unit 114 has rejected is generated and displayed on the liquid crystal display of the liquid crystal scanner touch panel unit 111 (Sa14), and the process is terminated.

また、ステップSa12の判定にて上述の処理識別情報は「否決」でないと判定したときは、ステップSa15に遷移して、処理決定部113は、ステップSa8で検索した座標情報と対応付けて座標記憶部115が記憶している文書識別情報を読出し、該文書識別情報を「削除」が表す処理を行う削除処理部150に出力することで、この文書識別情報の文書データの処理を削除処理部150に指示する。削除処理部150は、受けた文書識別情報をキーにして、文書記憶部160を検索し、該当する文書データおよび該文書データに対応付けられた項目を文書記憶部160から削除する(Sa15)。画像生成部114が削除した旨をユーザに通知する削除画面を生成して、液晶スキャナタッチパネル部111の液晶ディスプレイに表示し(Sa16)、処理を終了する。   If it is determined in step Sa12 that the above-described process identification information is not “decision”, the process proceeds to step Sa15, and the process determination unit 113 stores the coordinate information in association with the coordinate information searched in step Sa8. The document identification information stored in the unit 115 is read out, and the document identification information is output to the deletion processing unit 150 that performs the process represented by “deletion”, whereby the processing of the document data of the document identification information is deleted. To instruct. The deletion processing unit 150 searches the document storage unit 160 using the received document identification information as a key, and deletes the corresponding document data and items associated with the document data from the document storage unit 160 (Sa15). A deletion screen for notifying the user that the image generation unit 114 has deleted is generated, displayed on the liquid crystal display of the liquid crystal scanner touch panel unit 111 (Sa16), and the process is terminated.

なお、ステップSa15の前に、「削除」であるか否かを判定するステップを挿入し、「削除」であると判定したときは、ステップSa15に遷移し、それ以外、すなわち「承認」でも「否決」でも「削除」でもないときはステップSa6に遷移するようにしてもよい。
また、本実施形態において、処理内容は承認、否決、削除、文書表示の4種類のみであるが、スタンプの種類を増やし、各スタンプの印面の復号情報をパターン識別情報として、その他の処理識別情報と対応付けてパターン記憶部116に記憶させておき、さらに多くの種類の処理内容を指示可能なようにしてもよい。
In addition, before step Sa15, a step for determining whether or not “delete” is inserted, and when it is determined that “delete”, the process proceeds to step Sa15. If it is neither “denied” nor “deleted”, the process may proceed to step Sa6.
In this embodiment, there are only four types of processing contents: approval, rejection, deletion, and document display. However, the number of stamps is increased, and other processing identification information is obtained by using the decoding information of the stamp face of each stamp as pattern identification information. And may be stored in the pattern storage unit 116 so that more types of processing contents can be instructed.

このように、液晶スキャナタッチパネル部111がスタンプを押された位置とスタンプの印面のスキャン画像データとを取得し、処理決定部113が印面のスキャン画像データに基づき実行する処理を、該処理の処理対象のデータを押された位置に基づき決定する。このため、ユーザインターフェース部110は、ユーザが液晶スキャナタッチパネル部111の液晶ディスプレイにスタンプで1回だけタッチするという簡便な操作で、様々な処理対象と処理内容とを決定する容易なユーザインターフェースを提供することができる。   In this way, the process in which the liquid crystal scanner touch panel unit 111 acquires the position where the stamp is pressed and the scan image data of the stamp face, and the process determination unit 113 executes based on the scan image data of the stamp is the process of the process. The target data is determined based on the pressed position. For this reason, the user interface unit 110 provides an easy user interface for determining various processing targets and processing contents by a simple operation in which the user touches the liquid crystal display of the liquid crystal scanner touch panel unit 111 only once with a stamp. can do.

[第2の実施形態]
図9は、この発明の第2の実施形態による文書管理装置200の機能構成を示す概略ブロック図である。同図において図2の各部に対応する部分には同一の符号(111、114、115、120、150)を付け、その説明を省略する。本実施形態における文書管理装置200は、記憶している文書のリストを表示し、リスト中の文書に対して、利用者が承認、否決、削除のいずれかを指定する指で触れることで、触れられた指の指紋を読み取って個人認証するととともに、指が触れた文書に、承認を登録、否決を登録、該文書を削除、あるいは文書を表示のいずれかの処理を行う装置であり、ユーザインターフェース部210、文書表示処理部120、承認処理部230、否決処理部240、削除処理部150、文書記憶部260を具備する。ユーザインターフェース部210は、後述するように、液晶スキャナタッチパネル部111と指紋特徴情報抽出部212と画像生成部114と処理決定部213と座標記憶部115とパターン記憶部216とを具備する。
[Second Embodiment]
FIG. 9 is a schematic block diagram showing a functional configuration of the document management apparatus 200 according to the second embodiment of the present invention. In the figure, the same reference numerals (111, 114, 115, 120, 150) are assigned to portions corresponding to the respective portions in FIG. The document management apparatus 200 according to the present embodiment displays a list of stored documents, and a user touches a document in the list with a finger that designates approval, rejection, or deletion. A device that reads a fingerprint of a given finger and performs personal authentication, and registers either approval, denial, deletion, or display of a document touched by a finger, and a user interface Unit 210, document display processing unit 120, approval processing unit 230, rejection processing unit 240, deletion processing unit 150, and document storage unit 260. The user interface unit 210 includes a liquid crystal scanner touch panel unit 111, a fingerprint feature information extraction unit 212, an image generation unit 114, a processing determination unit 213, a coordinate storage unit 115, and a pattern storage unit 216, as will be described later.

ユーザインターフェース部(ユーザインターフェース装置)210は、液晶スキャナタッチパネル部111の液晶ディスプレイに文書リスト画面を表示し、この文書リスト画面を指で触れられたときに、指が触れた位置と触れた指の指紋を読み取ったスキャン画像データとに基づき、文書表示処理部120、承認処理部230、否決処理部240、削除処理部150の何れの処理部で、どの文書を処理するかを決定するとともに、スキャン画像データ、すなわち指紋に基づき個人認証を行なう。承認処理部230は、指定された文書データに対応付けて、文書記憶部260に「承認」と承認したユーザの個人識別情報とを登録する。否決処理部240は、指定された文書データに対応付けて、文書記憶部260に「否決」と否決したユーザの個人識別情報とを登録する。文書記憶部260は、文書データを識別する文書識別情報と文書データの承認状態と状態設定者の個人識別情報と文書データとを対応付けて記憶する。   The user interface unit (user interface device) 210 displays a document list screen on the liquid crystal display of the liquid crystal scanner touch panel unit 111, and when the document list screen is touched with a finger, the position of the touched finger and the position of the touched finger are displayed. Based on the scanned image data obtained by reading the fingerprint, the document display processing unit 120, the approval processing unit 230, the rejection processing unit 240, and the deletion processing unit 150 determine which document to process and scan Personal authentication is performed based on image data, that is, a fingerprint. The approval processing unit 230 registers “approval” and the personal identification information of the approved user in the document storage unit 260 in association with the designated document data. The rejection processing unit 240 registers “rejection” and the personal identification information of the rejected user in the document storage unit 260 in association with the designated document data. The document storage unit 260 stores the document identification information for identifying the document data, the approval state of the document data, the personal identification information of the state setter, and the document data in association with each other.

ユーザインターフェース部(ユーザインターフェース装置)210は、前述のように、液晶スキャナタッチパネル部111と指紋特徴情報抽出部212と画像生成部114と処理決定部213と座標記憶部115とパターン記憶部216とを具備する。指紋特徴情報抽出部212は、指紋のスキャン画像データから指紋の特徴情報(例えば、指紋を構成する線(隆線)の分岐/接合点、開始/終止点の位置など)を抽出する。処理決定部213は、液晶スキャナタッチパネル部111が検出した位置の位置情報と、該位置の近傍のスキャン画像データとを液晶スキャナタッチパネル部111から読み取り、この読み取ったスキャン画像データから指紋特徴情報抽出部212が抽出した特徴情報に基づき、パターン記憶部216を参照して個人認証するとともに、承認処理、否決処理、削除処理および文書表示の中から実行する処理を決定し、液晶スキャナタッチパネル部111から読み取った位置情報に基づき、座標記憶部115を参照して決定した実行する処理の処理対象データとなる文書データを決定する。
パターン記憶部216は、スキャン画像データすなわち指紋を識別するための指紋の特徴情報からなるパターン識別情報と、その指紋を持つ人の個人識別情報と、そのスキャン画像データ(指紋が表す指)に対応する処理の処理識別情報とを対応付けて記憶している。
As described above, the user interface unit (user interface device) 210 includes the liquid crystal scanner touch panel unit 111, the fingerprint feature information extraction unit 212, the image generation unit 114, the processing determination unit 213, the coordinate storage unit 115, and the pattern storage unit 216. It has. The fingerprint feature information extraction unit 212 extracts fingerprint feature information (for example, the branch / joint point of the line (ridge) constituting the fingerprint, the position of the start / end point, etc.) from the scanned image data of the fingerprint. The process determination unit 213 reads position information of the position detected by the liquid crystal scanner touch panel unit 111 and scan image data in the vicinity of the position from the liquid crystal scanner touch panel unit 111, and extracts a fingerprint feature information extraction unit from the read scan image data. Based on the feature information extracted by 212, personal authentication is performed with reference to the pattern storage unit 216, and approval processing, rejection processing, deletion processing, and processing to be executed are determined from the document display and read from the liquid crystal scanner touch panel unit 111. Based on the obtained position information, document data to be processed data to be executed determined with reference to the coordinate storage unit 115 is determined.
The pattern storage unit 216 corresponds to scanned image data, that is, pattern identification information including fingerprint characteristic information for identifying a fingerprint, personal identification information of a person having the fingerprint, and the scanned image data (finger represented by the fingerprint) The process identification information of the process to be performed is stored in association with each other.

なお、文書管理装置200は、図1に示した文書管理装置100と同様のハード構成であり、図9に示した、指紋特徴情報抽出部212、処理決定部213、画像生成部114、文書表示処理部120、承認処理部230、否決処理部240、削除処理部150は、メモリ102に格納されているプログラムを、制御部101が読み取って実行することにより、各部の処理を行う。また、座標記憶部115、パターン記憶部216、文書記憶部260は、メモリ102が具備し、これら各部が記憶する情報は、メモリ102のRAMまたは不揮発性なメモリに記憶される。   The document management apparatus 200 has the same hardware configuration as the document management apparatus 100 shown in FIG. 1, and includes the fingerprint feature information extraction unit 212, the process determination unit 213, the image generation unit 114, and the document display shown in FIG. The processing unit 120, the approval processing unit 230, the rejection processing unit 240, and the deletion processing unit 150 perform processing of each unit when the control unit 101 reads and executes a program stored in the memory 102. The coordinate storage unit 115, the pattern storage unit 216, and the document storage unit 260 are included in the memory 102, and information stored in these units is stored in the RAM of the memory 102 or a nonvolatile memory.

図10は、文書管理装置200が液晶スキャナタッチパネル部111の液晶ディスプレイに表示する文書リスト画面と文書表示画面の例を示す図である。図10に示す文書リスト画面G2と文書表示画面D2のように、本実施形態における文書リスト画面には、各々が未承認の文書データを表すアイコンが、アイコンIC3、IC4のように列挙されており、文書表示画面には、選択されたアイコンの文書データの内容が表示されている。ユーザが、承認する文書データのアイコンには予め登録した指、例えば右手の人差し指を押し、否決する文書データのアイコンには予め登録した指、例えば左手の人差し指を押し、削除する文書データのアイコンには予め登録した指、例えば左手の親指を押すと、文書管理装置200は、指の指紋を読み取って、予め登録されている指紋の特徴情報に基づき個人認証するとともに、指を押された文書データに、押された指に応じた処理を施す。その他のもの、例えばペンなどでアイコンを押すと、文書管理装置200は、該アイコンに対応した文書の内容を文書画面に表示する。ここで、パターン記憶部216には、承認、否決、削除の各処理を指示する権限を持つ人物の指の指紋の特徴情報をパターン情報にし、このパターン情報とこのパターン情報の人物の個人識別情報とこのパターン情報の指で指示する処理の処理識別情報とを対応付けて予め記憶する。   FIG. 10 is a diagram illustrating an example of a document list screen and a document display screen displayed on the liquid crystal display of the liquid crystal scanner touch panel unit 111 by the document management apparatus 200. Like the document list screen G2 and the document display screen D2 shown in FIG. 10, in the document list screen in this embodiment, icons representing unapproved document data are enumerated as icons IC3 and IC4. On the document display screen, the content of the document data of the selected icon is displayed. The user presses a pre-registered finger, for example, the right index finger, for the document data icon to be approved, and presses a pre-registered finger, for example, the left index finger, for the rejected document data icon, to the document data icon to be deleted. When the user presses a pre-registered finger, for example, the thumb of the left hand, the document management apparatus 200 reads the fingerprint of the finger, performs personal authentication based on the pre-registered fingerprint feature information, and the document data with the finger pressed Then, processing according to the pressed finger is performed. When an icon is pressed with another object such as a pen, the document management apparatus 200 displays the content of the document corresponding to the icon on the document screen. Here, in the pattern storage unit 216, the pattern information is fingerprint feature information of a finger of a person who has authority to instruct each process of approval, rejection, and deletion. This pattern information and personal identification information of the person of this pattern information And the process identification information of the process designated by the finger of the pattern information are stored in advance in association with each other.

図11は、パターン記憶部216の記憶内容例を示す図である。パターン記憶部216には、図11に例示するようにパターン識別情報「指紋の特徴情報(A.TAKATAの右手人差し指)」と個人識別情報「A.TAKATA」と処理識別情報「承認」、パターン識別情報「指紋の特徴情報(K.SUZUKIの右手人差し指)」と個人識別情報「K.SUZUKI」と処理識別情報「承認」、パターン識別情報「指紋の特徴情報(A.TAKATAの左手人差し指)」と個人識別情報「A.TAKATA」と処理識別情報「否決」というように、パターン識別情報と個人識別情報と処理識別情報とが対応付けて予め記憶されている。ここで、各パターン識別情報として挙げた「指紋の特徴情報(A.TAKATAの右手人差し指)」、「指紋の特徴情報(K.SUZUKIの右手人差し指)」、「指紋の特徴情報(A.TAKATAの左手人差し指)」は、それぞれの指紋の特徴点を抽出して得られる情報を表している。   FIG. 11 is a diagram illustrating an example of stored contents of the pattern storage unit 216. The pattern storage unit 216 includes pattern identification information “fingerprint characteristic information (A. TAKATA's right hand index finger)”, personal identification information “A. TAKATA”, process identification information “approval”, pattern identification as illustrated in FIG. Information “fingerprint feature information (K. SUZUKI's right hand index finger)”, personal identification information “K. SUZUKI”, process identification information “approval”, pattern identification information “fingerprint feature information (A. TAKATA left hand index finger)” Pattern identification information, personal identification information, and process identification information are stored in advance in association with each other, such as personal identification information “A. TAKATA” and process identification information “denied”. Here, the “fingerprint feature information (A. TAKATA right hand index finger)”, “fingerprint feature information (K. SUZUKI right hand index finger)”, “fingerprint feature information (A. TAKATA "Left index finger)" represents information obtained by extracting feature points of each fingerprint.

図12は、文書記憶部260の記憶内容例を示す図である。文書記憶部260には、図12に例示する文書識別情報「070423RREQ」と承認状態「未承認」と状態設定者「−」と文書データ「070423RREQ.TXT」、文書識別情報「070420SREQ」と承認状態「承認済」と状態設定者「K.SUZUKI」と文書データ「070420SREQ.TXT」というように、文書識別情報と承認状態と状態設定者と文書データとが対応付けて記憶されている。ここで、承認状態には、承認も否決も未だされていない「未承認」と承認された「承認済」と否決された「否決」の3種類がある。また、文書データとして記憶している文字列は、文書データを格納したファイル名であり、実際の文書データを格納した該ファイル名のファイルを文書記憶部260は記憶している。   FIG. 12 is a diagram illustrating an example of the contents stored in the document storage unit 260. 12, the document identification information “070423RREQ”, the approval status “unapproved”, the status setter “−”, the document data “070423RREQ.TXT”, the document identification information “070420SREQ”, and the approval status illustrated in FIG. Document identification information, an approval state, a state setter, and document data are stored in association with each other such as “approved”, state setter “K.SUZUKI”, and document data “070420SREQ.TXT”. Here, there are three types of approval states: “unapproved” that has not yet been approved or rejected, “approved” that has been approved, and “denied” that has been rejected. The character string stored as the document data is the file name storing the document data, and the document storage unit 260 stores the file having the file name storing the actual document data.

図13は、文書管理装置100の動作を説明するフローチャートである。まず、文書管理装置100の画像生成部114が、文書記憶部260から承認状態が「未承認」の文書データを選択し、選択した文書データ各々を表すアイコンを並べた文書リスト画面を生成して、液晶スキャナタッチパネル部111の液晶ディスプレイに表示する(Sb1)。このとき画像生成部114は、各アイコンの左上および右下の座標と、該アイコンが表す文書データの文書識別情報とを対応付けて、座標記憶部115に記憶する。ここで、この文書リスト画面に表示されたアイコンのうちの1つに、個人識別情報「A.TAKATA」のユーザが右手人差し指を押したとする。処理決定部213は、この右手人差し指が押された座標を表す位置情報(例えば、「82、93」のような画面上の座標)と、右手人差し指が押された際に読み取った指紋のスキャン画像データとを液晶スキャナタッチパネル部111から読み取る(Sb2)。指紋特徴情報抽出部212は、ステップSb2にて処理決定部213が読み取った指紋のスキャン画像データに対して、特徴情報の抽出処理を行い、その抽出処理結果の特徴情報を得る(Sb3)。次に、処理決定部213は、パターン記憶部216を検索して、この特徴情報と一致するパターン識別情報を探し出す(Sb4)。   FIG. 13 is a flowchart for explaining the operation of the document management apparatus 100. First, the image generation unit 114 of the document management apparatus 100 selects document data whose approval status is “unapproved” from the document storage unit 260, and generates a document list screen in which icons representing the selected document data are arranged. Then, it is displayed on the liquid crystal display of the liquid crystal scanner touch panel unit 111 (Sb1). At this time, the image generation unit 114 stores the upper left and lower right coordinates of each icon in association with the document identification information of the document data represented by the icon in the coordinate storage unit 115. Here, it is assumed that the user of the personal identification information “A. TAKATA” presses the right index finger on one of the icons displayed on the document list screen. The process determining unit 213 includes position information (for example, coordinates on the screen such as “82, 93”) indicating coordinates where the right hand index finger is pressed, and a scan image of the fingerprint read when the right hand index finger is pressed. Data is read from the liquid crystal scanner touch panel unit 111 (Sb2). The fingerprint feature information extraction unit 212 performs feature information extraction processing on the scan image data of the fingerprint read by the processing determination unit 213 in step Sb2, and obtains feature information as a result of the extraction processing (Sb3). Next, the process determination unit 213 searches the pattern storage unit 216 to find pattern identification information that matches this feature information (Sb4).

次に、処理決定部213は、ステップSb4の検索の結果、一致するパターン識別情報が有る否かを判定する(Sb5)。ステップSb5の判定で一致するパターン識別情報が無いと判定したときは、ステップSb6に遷移して、ステップSa2で読み取った位置情報が表す座標を含む領域を表す座標情報について、座標記憶部115を検索する。次に、文書表示処理部120は、ステップSb6にて検索した座標情報に対応付けて座標記憶部115が記憶している文書識別情報を読み出し、さらに該文書識別情報に対応付けて文書記憶部260が記憶している文書データを読み出す。画像生成部114は、この読み出した文書データの内容を、表示する文書表示画面を生成して、液晶スキャナタッチパネル部111の液晶ディスプレイに表示し、処理を終了する。   Next, the process determining unit 213 determines whether there is matching pattern identification information as a result of the search in step Sb4 (Sb5). If it is determined in step Sb5 that there is no matching pattern identification information, the process proceeds to step Sb6, and the coordinate storage unit 115 is searched for coordinate information representing an area including the coordinates represented by the position information read in step Sa2. To do. Next, the document display processing unit 120 reads out the document identification information stored in the coordinate storage unit 115 in association with the coordinate information searched in step Sb6, and further associates with the document identification information in the document storage unit 260. The document data stored in is read. The image generation unit 114 generates a document display screen for displaying the contents of the read document data, displays the document display screen on the liquid crystal display of the liquid crystal scanner touch panel unit 111, and ends the process.

ここでは、前述のように個人識別情報「A.TAKATA」のユーザが右手人差し指を押しているので、ステップSb5の判定で、一致するパターン識別情報が有ると判定し、ステップSb8に遷移して、処理決定部213は、ステップSb4の検索にて特徴情報と一致したパターン識別情報と対応付けてパターン記憶部216が記憶している個人識別情報「A.TAKATA」を読み出す。次に、処理決定部213は、ステップSb2で読み取った位置情報が表す座標を含む領域を表す座標情報について、座標記憶部115を検索する。   Here, as described above, since the user of the personal identification information “A. TAKATA” is pressing the right hand index finger, it is determined in step Sb5 that there is matching pattern identification information, the process proceeds to step Sb8, and the process proceeds to step Sb8. The determination unit 213 reads the personal identification information “A. TAKATA” stored in the pattern storage unit 216 in association with the pattern identification information that matches the feature information in the search in step Sb4. Next, the process determining unit 213 searches the coordinate storage unit 115 for coordinate information representing an area including the coordinates represented by the position information read in step Sb2.

次に、処理決定部213は、ステップSb4で検索したパターン識別情報と対応付けてパターン記憶部216が記憶している処理識別情報を読み出し、この読み出した処理識別情報が「承認」であるか否かを判定する(Sb10)。このステップSab8の判定にて「承認」であると判定したときは、処理決定部213は、ステップSb9で検索した座標情報と対応付けて座標記憶部115が記憶している文書識別情報を読出し、該文書識別情報とステップSb8にて読み出した個人識別情報「A.TAKATA」とを「承認」が表す処理を行う承認処理部230に出力することで、この文書識別情報の文書データの処理を承認処理部230に指示する。承認処理部230は、受けた文書識別情報をキーにして、文書記憶部260を検索し、該当する文書データの承認状態に「承認」を、状態設定者に処理決定部213からうけた個人識別情報「A.TAKATA」を登録する(Sb11)。画像生成部114が承認した旨をユーザに通知する承認画面を生成して、液晶スキャナタッチパネル部111の液晶ディスプレイに表示し(Sb12)、処理を終了する。   Next, the process determining unit 213 reads the process identification information stored in the pattern storage unit 216 in association with the pattern identification information searched in step Sb4, and whether or not the read process identification information is “approval”. Is determined (Sb10). When it is determined as “approved” in the determination in step Sab8, the process determining unit 213 reads out the document identification information stored in the coordinate storage unit 115 in association with the coordinate information searched in step Sb9. The document identification information and the personal identification information “A. TAKATA” read in step Sb8 are output to the approval processing unit 230 that performs the process represented by “approval”, thereby approving the processing of the document data of this document identification information. The processing unit 230 is instructed. The approval processing unit 230 searches the document storage unit 260 using the received document identification information as a key, and sets “approved” as the approval state of the corresponding document data, and the personal identification received from the processing determination unit 213 by the state setter. Information "A. TAKATA" is registered (Sb11). An approval screen for notifying the user that the image generation unit 114 has approved is generated, displayed on the liquid crystal display of the liquid crystal scanner touch panel unit 111 (Sb12), and the process ends.

一方、ステップSb10の判定にて上述の処理識別情報は「承認」でないと判定したときは、ステップSb13に遷移して、処理決定部213は、上述の処理識別情報が「否決」であるか否かを判定する(Sb13)。このステップSb13の判定にて「否決」であると判定したときは、処理決定部213は、ステップSb9にて検索した結果の座標情報と対応付けて座標記憶部115が記憶している文書識別情報を読出し、該文書識別情報とステップSb8にて読み出した個人識別情報「A.TAKATA」とを「否決」が表す処理を行う否決処理部240に出力することで、この文書識別情報の文書データの処理を否決処理部240に指示する。否決処理部240は、受けた文書識別情報をキーにして、文書記憶部260を検索し、該当する文書データの承認状態に「否決」を、状態設定者に処理決定部213からうけた個人識別情報を登録する(Sb14)。画像生成部114が否決した旨をユーザに通知する否決画面を生成して、液晶スキャナタッチパネル部111の液晶ディスプレイに表示し(Sb15)、処理を終了する。   On the other hand, if it is determined in step Sb10 that the process identification information is not “approved”, the process transitions to step Sb13, and the process determination unit 213 determines whether the process identification information is “denied” or not. Is determined (Sb13). If it is determined in step Sb13 that the result is “No”, the process determining unit 213 stores the document identification information stored in the coordinate storage unit 115 in association with the coordinate information obtained in step Sb9. And the document identification information and the personal identification information “A. TAKATA” read in step Sb8 are output to the rejection processing unit 240 that performs the process represented by “rejection”. The processing is instructed to the rejection processing unit 240. The rejection processing unit 240 searches the document storage unit 260 by using the received document identification information as a key, and identifies “rejected” as the approval status of the corresponding document data, and the personal identification received from the processing determination unit 213 by the status setter. Information is registered (Sb14). A rejection screen for notifying the user that the image generation unit 114 has rejected is generated and displayed on the liquid crystal display of the liquid crystal scanner touch panel unit 111 (Sb15), and the process ends.

また、ステップSb13の判定にて上述の処理識別情報は「否決」でないと判定したときは、ステップSb16に遷移して、処理決定部213は、ステップSb9で検索した座標情報と対応付けて座標記憶部115が記憶している文書識別情報を読出し、該文書識別情報を「削除」が表す処理を行う削除処理部150に出力することで、この文書識別情報の文書データの処理を削除処理部150に指示する。削除処理部150は、受けた文書識別情報をキーにして、文書記憶部160を検索し、該当する文書データおよび該文書データに対応付けられた項目を文書記憶部160から削除する(Sb16)。画像生成部114が削除した旨をユーザに通知する削除画面を生成して、液晶スキャナタッチパネル部111の液晶ディスプレイに表示し(Sb17)、処理を終了する。   If it is determined in step Sb13 that the above-described process identification information is not “decision”, the process proceeds to step Sb16, and the process determination unit 213 stores the coordinate information in association with the coordinate information searched in step Sb9. The document identification information stored in the unit 115 is read out, and the document identification information is output to the deletion processing unit 150 that performs the process represented by “deletion”, whereby the processing of the document data of the document identification information is deleted. To instruct. The deletion processing unit 150 searches the document storage unit 160 using the received document identification information as a key, and deletes the corresponding document data and items associated with the document data from the document storage unit 160 (Sb16). A deletion screen for notifying the user that the image generation unit 114 has deleted is generated, displayed on the liquid crystal display of the liquid crystal scanner touch panel unit 111 (Sb17), and the process ends.

なお、ステップSb16の前に、「削除」であるか否かを判定するステップを挿入し、「削除」であると判定したときは、ステップSb16に遷移し、それ以外のときはステップSb6に遷移するようにしてもよい。
また、ステップSb5における処理決定部213による一致の判定において、パターン識別情報に含まれる全ての特徴情報が一致していなくても、例えば一定の割合以上の特徴情報が一致していれば、一致していると判定するようにしてもよい。
また、本実施形態において、処理内容は承認、否決、削除、文書表示の4種類のみであるが、その他の指の指紋の特徴情報をパターン識別情報として、その他の処理識別情報と対応付けてパターン記憶部216に記憶させておき、さらに多くの種類の処理内容を指示可能なようにしてもよい。
Before step Sb16, a step for determining whether or not it is “deleted” is inserted. When it is determined that it is “deleted”, the process proceeds to step Sb16. Otherwise, the process proceeds to step Sb6. You may make it do.
Also, in the match determination by the process determination unit 213 in step Sb5, even if not all feature information included in the pattern identification information matches, for example, if feature information of a certain ratio or more matches, they match. You may make it determine with it.
Further, in this embodiment, there are only four types of processing contents of approval, rejection, deletion, and document display, but the pattern information is associated with other processing identification information using the fingerprint fingerprint characteristic information as pattern identification information. It may be stored in the storage unit 216 so that more types of processing contents can be instructed.

このように、液晶スキャナタッチパネル部111が指のタッチ位置を表す位置情報とタッチした指の指紋のスキャン画像データとを出力し、処理決定部213が指紋のスキャン画像データに基づき実行する処理を、該処理の処理対象のデータを押された位置に基づき決定する。このため、ユーザインターフェース部210は、ユーザが液晶スキャナタッチパネル部111の液晶ディスプレイに指で1回だけタッチするという簡便な操作で、様々な処理対象と処理内容とを決定し、さらには指紋のスキャン画像データに基づき個人を認証し、前述の処理内容を該認証結果に応じた内容することが可能な容易なユーザインターフェースを提供することができる。   As described above, the liquid crystal scanner touch panel unit 111 outputs the position information indicating the touch position of the finger and the scan image data of the fingerprint of the touched finger, and the process determination unit 213 executes the process executed based on the scan image data of the fingerprint. Data to be processed is determined based on the pressed position. For this reason, the user interface unit 210 determines various processing targets and processing contents by a simple operation in which the user touches the liquid crystal display of the liquid crystal scanner touch panel unit 111 only once with a finger, and further scans a fingerprint. It is possible to provide an easy user interface capable of authenticating an individual on the basis of image data and making the above-described processing content according to the authentication result.

[第3の実施形態]
図14は、この発明の第3の実施形態によるインターネット販売システムの構成を示す概略システム構成図である。本実施形態におけるインターネット販売システムは、販売会社が設置するネット販売サーバ300と店頭などに設置される複数のネット販売端末装置400とこれらを接続するネットワーク500を具備する。ユーザ操作を受け付けたネット販売端末装置400が、ネット販売サーバ300に商品の購入を申し込むと、ネット販売サーバ300が商品の配送指示や決済処理などの販売処理を行う。
なお、このネット販売サーバ300、には、周辺機器として入力装置、表示装置等(いずれも図示せず)が接続されるものとする。ここで、入力装置とはキーボード、マウス等の入力デバイスのことをいう。表示装置とはCRT(Cathode Ray Tube)や液晶表示装置等のことをいう。
[Third Embodiment]
FIG. 14 is a schematic system configuration diagram showing the configuration of the Internet sales system according to the third embodiment of the present invention. The Internet sales system in this embodiment includes a network sales server 300 installed by a sales company, a plurality of network sales terminal devices 400 installed in stores, and a network 500 that connects these. When the online sales terminal device 400 that has received a user operation applies to the online sales server 300 for purchase of a product, the online sales server 300 performs a sales process such as a product delivery instruction or a settlement process.
Note that the net sales server 300 is connected to an input device, a display device, and the like (neither shown) as peripheral devices. Here, the input device refers to an input device such as a keyboard and a mouse. The display device refers to a CRT (Cathode Ray Tube), a liquid crystal display device, or the like.

図15は、本実施形態におけるネット販売サーバ300とネット販売端末装置400の構成を示す概略ブロック図である。ネット販売端末装置400は、液晶スキャナタッチパネル部(ディスプレイスキャナタッチパネル)410と通信部420とを具備する。液晶スキャナタッチパネル部410は、図2に示した液晶スキャナタッチパネル部111と同様にその液晶ディスプレイに画像生成部320が生成した画像のデータを通信部310および通信部420を介して受けて表示するとともに、該液晶ディスプレイに外部から入射する光を検出することで液晶ディスプレイの画像表示する領域をスキャンしてスキャン画像データを生成する。さらに液晶スキャナタッチパネル部410は、その液晶ディスプレイで外部から指示された位置を検出する。通信部420はネットワーク500を介してネット販売サーバ300と通信する。   FIG. 15 is a schematic block diagram showing the configuration of the net sales server 300 and the net sales terminal device 400 in the present embodiment. The net sales terminal device 400 includes a liquid crystal scanner touch panel unit (display scanner touch panel) 410 and a communication unit 420. The liquid crystal scanner touch panel 410 receives and displays the image data generated by the image generator 320 on the liquid crystal display via the communication unit 310 and the communication unit 420 in the same manner as the liquid crystal scanner touch panel 111 shown in FIG. By detecting light incident on the liquid crystal display from the outside, the image display area of the liquid crystal display is scanned to generate scan image data. Furthermore, the liquid crystal scanner touch panel unit 410 detects a position designated from the outside by the liquid crystal display. The communication unit 420 communicates with the online sales server 300 via the network 500.

ネット販売サーバ300は、通信部310と画像生成部320と処理決定部330と座標記憶部340とパターン記憶部350と販売処理部360と指紋特徴情報抽出部370とを具備する。通信部310はネットワーク500を介してネット販売端末装置400と通信する。画像生成部320は、各々が商品を表すアイコンもしくは写真を座標記憶部340から読み出して並べた商品リスト画面の画像のデータを生成し、通信部310を介してネット販売端末装置400に送信し、液晶スキャナタッチパネル部111の液晶ディスプレイに表示させる。このとき画像生成部320は、画面の左上端を原点としたときの各アイコンもしくは写真の左上および右下の座標を、該アイコンもしくは写真が表す商品の商品識別情報に対応付けて、座標記憶部340に記憶する。また、画像生成部320は、販売処理を行った後、その処理結果をユーザに通知する画面の画像のデータを生成し、通信部310を介してネット販売端末装置400に送信し、液晶スキャナタッチパネル部111の液晶ディスプレイに表示させる。   The online sales server 300 includes a communication unit 310, an image generation unit 320, a processing determination unit 330, a coordinate storage unit 340, a pattern storage unit 350, a sales processing unit 360, and a fingerprint feature information extraction unit 370. The communication unit 310 communicates with the network sales terminal device 400 via the network 500. The image generation unit 320 generates image data of a product list screen in which icons or photographs each representing a product are read from the coordinate storage unit 340 and arranged, and transmits the data to the net sales terminal device 400 via the communication unit 310. The image is displayed on the liquid crystal display of the liquid crystal scanner touch panel unit 111. At this time, the image generation unit 320 associates the coordinates of the upper left and lower right of each icon or photo when the upper left corner of the screen is the origin with the product identification information of the product represented by the icon or photo, and the coordinate storage unit Store in 340. Further, after performing the sales process, the image generation unit 320 generates screen image data for notifying the user of the processing result, and transmits the screen image data to the net sales terminal device 400 via the communication unit 310, and the liquid crystal scanner touch panel Display on the liquid crystal display of the unit 111.

処理決定部330は、ネット販売端末装置400の液晶スキャナタッチパネル部410が検出した位置の位置情報と、該位置の近傍のスキャン画像データ、例えば、該位置を中心とした縦横50ピクセルの正方形の領域のスキャン画像データとを通信部420および通信部310を介して液晶スキャナタッチパネル部410から受け取り、この受け取ったスキャン画像データ中の指紋から指紋特徴情報抽出部370が抽出した特徴情報に基づき、パターン記憶部350を参照して販売処理もしくは処理不可の中から実行する処理を決定し、液晶スキャナタッチパネル部410から受け取った位置情報に基づき、座標記憶部340を参照して決定した実行する処理の処理対象データとなる商品識別情報を決定する。
座標記憶部340は、商品識別情報と、該商品を表すアイコンもしくは写真のデータと、商品リスト画面にて該商品のアイコンが表示されている領域を表す座標情報とを対応付けて記憶する。
パターン記憶部350は、スキャン画像データすなわち指紋を識別するための指紋の特徴情報からなるパターン識別情報と、その指紋を持つ人の個人識別情報とを対応付けて記憶している。
指紋特徴情報抽出部370は、指紋のスキャン画像データから指紋の特徴情報(例えば、指紋を構成する線(隆線)の分岐/接合点、開始/終止点の位置など)を抽出する。
また、本実施形態では、ネット販売サーバ300の画像生成部320、処理決定部330、座標記憶部340、パターン記憶部350、指紋特徴情報抽出部370とで、ユーザインターフェース部(ユーザインターフェース装置)600を構成する。
The processing determining unit 330 is configured to detect the position information of the position detected by the liquid crystal scanner touch panel 410 of the net sales terminal device 400 and scan image data in the vicinity of the position, for example, a square area of 50 pixels vertically and horizontally centered on the position. The scanned image data is received from the liquid crystal scanner touch panel unit 410 via the communication unit 420 and the communication unit 310, and the pattern storage is performed based on the feature information extracted by the fingerprint feature information extraction unit 370 from the fingerprint in the received scan image data. The processing target of the execution process determined with reference to the coordinate storage unit 340 based on the position information received from the liquid crystal scanner touch panel unit 410 is determined based on the position information received from the liquid crystal scanner touch panel unit 410 Product identification information to be data is determined.
The coordinate storage unit 340 stores product identification information, icon or photo data representing the product, and coordinate information representing an area where the product icon is displayed on the product list screen in association with each other.
The pattern storage unit 350 stores scanned image data, that is, pattern identification information including fingerprint characteristic information for identifying a fingerprint and personal identification information of a person having the fingerprint in association with each other.
The fingerprint feature information extraction unit 370 extracts fingerprint feature information (for example, the branch / joint point of the line (ridge) constituting the fingerprint, the position of the start / end point, etc.) from the scanned image data of the fingerprint.
In this embodiment, the image generation unit 320, the processing determination unit 330, the coordinate storage unit 340, the pattern storage unit 350, and the fingerprint feature information extraction unit 370 of the net sales server 300 are combined with a user interface unit (user interface device) 600. Configure.

図16は、ネット販売端末装置400が液晶スキャナタッチパネル部410の液晶ディスプレイに表示する商品リスト画面の例を示す図である。図16に示す商品リスト画面G3のように、本実施形態における商品リスト画面には、各々が商品を表すアイコンもしくは写真が、アイコンIC5、IC6のように列挙されている。ユーザが、購入する商品のアイコンもしくは写真を予め登録した指、例えば左手の人差し指で押すと、液晶スキャナタッチパネル部410は、押された指の指紋を読み取ってスキャン画像データを生成し、通信部420を介してネット販売サーバ300に送信する。ネット販売サーバ300では、このスキャン画像データを通信部310を介して受けた処理決定部330が、予め登録されている指紋の特徴情報に基づき個人認証するとともに、指を押されたアイコンの商品の購入処理を、販売処理部360に指示する。ここで、パターン記憶部350には、このインターネット販売サービスに加入しているユーザの指の指紋の特徴情報をパターン情報にし、このパターン情報とこのパターン情報の人物の個人識別情報とを対応付けて予め記憶させておく。   FIG. 16 is a diagram illustrating an example of a product list screen displayed on the liquid crystal display of the liquid crystal scanner touch panel unit 410 by the net sales terminal device 400. Like the product list screen G3 shown in FIG. 16, on the product list screen in this embodiment, icons or photographs each representing a product are listed as icons IC5 and IC6. When the user presses an icon or photo of a product to be purchased with a pre-registered finger, for example, an index finger of the left hand, the liquid crystal scanner touch panel unit 410 reads the fingerprint of the pressed finger to generate scan image data, and the communication unit 420 To the online sales server 300. In the online sales server 300, the processing determination unit 330 that has received the scanned image data via the communication unit 310 performs personal authentication based on pre-registered fingerprint feature information and also displays the product of the icon whose finger is pressed. A purchase process is instructed to the sales processing unit 360. Here, the pattern storage unit 350 uses the fingerprint fingerprint feature information of the user who subscribes to the Internet sales service as pattern information, and associates the pattern information with the personal identification information of the person of the pattern information. Store in advance.

図17は、パターン記憶部350の記憶内容例を示す図である。パターン記憶部350には、図17に例示するようにパターン情報「指紋の特徴情報(K.TANAKAの右手人差し指)」と、個人識別情報「K.TANAKA]、パターン情報「指紋の特徴情報(T.HONDAの右手人差し指)」と、個人識別情報「T.HONDA」というように、パターン情報と個人識別情報とが対応付けて記憶されている。ここで、パターン情報「指紋の特徴情報(K.TANAKAの右手人差し指)」は、ユーザ「K.TANAKA」の右手人差し指の指紋の特徴情報である。また、個人識別情報「K.TANAKA」は、ユーザ「K.TANAKA」を識別する情報である。   FIG. 17 is a diagram illustrating an example of stored contents of the pattern storage unit 350. As illustrated in FIG. 17, the pattern storage unit 350 includes pattern information “fingerprint feature information (K. TANAKA's right hand index finger)”, personal identification information “K. TANAKA”, and pattern information “fingerprint feature information (T Pattern information and personal identification information are stored in association with each other, such as “.HONDA's right hand index finger”) and personal identification information “T.HONDA”. Here, the pattern information “fingerprint feature information (K. TANAKA's right hand index finger)” is the fingerprint feature information of the right hand index finger of the user “K. TANAKA”. The personal identification information “K. TANAKA” is information for identifying the user “K. TANAKA”.

図18は、座標記憶部340の記憶内容例を示す図である。座標記憶部340には、図18に例示するように画面上の矩形領域の左上と右下の座標を表す座標情報「20、30、120、130」と、画像データのファイル名である画像データ「A1.jpg」と、商品識別情報「A1」、座標情報「10、180、120、280」と、画像データ「A2.jpg」と、商品識別情報「A2」というように、座標情報と画像データと商品識別情報とが対応付けて記憶されている。ここで、座標情報は、図6と同様に、対応付けられた画像データが表示されている矩形領域の左上の座標と右下の座標を表した数字である。また、画像データは、商品の画像データを格納したファイルのファイル名である。また、座標記憶部340は、この画像データに格納されたファイル名のファイルを記憶している。また、商品識別情報は、商品を識別する情報である。   FIG. 18 is a diagram illustrating an example of stored contents of the coordinate storage unit 340. In the coordinate storage unit 340, as illustrated in FIG. 18, coordinate information “20, 30, 120, 130” representing the upper left and lower right coordinates of the rectangular area on the screen, and image data that is the file name of the image data Coordinate information and image such as “A1.jpg”, product identification information “A1”, coordinate information “10, 180, 120, 280”, image data “A2.jpg”, and product identification information “A2”. Data and product identification information are stored in association with each other. Here, the coordinate information is a number representing the upper left coordinates and the lower right coordinates of the rectangular area in which the associated image data is displayed, as in FIG. The image data is a file name of a file storing product image data. The coordinate storage unit 340 stores a file having a file name stored in the image data. The product identification information is information for identifying a product.

図19は、本実施形態におけるネット販売サーバ300とネット販売端末装置400の動作を説明するフローチャートである。まず、ネット販売サーバ300の画像生成部320が、座標記憶部340から画像データのファイル名のファイルを読み出し、読み出したファイルの内容による画像を並べた商品リスト画面を生成して、通信部310、420を介してネット販売端末装置400の液晶スキャナタッチパネル部410に表示させる(Sc1)。このとき、画像生成部320は、各画像を、座標記憶部340に対応付けて記憶している座標情報が表す矩形領域に表示させる。ここで、この商品リスト画面に表示された画像のうちの1つに、個人識別情報「T.HONDA」のユーザが右手人差し指を押したとする。液晶スキャナタッチパネル部410は、この指が押された座標を表す位置情報と、指が押された際に読み取った指紋のスキャン画像データとを通信部420を介して送信する。ネット販売サーバ300の通信部310が、この送信された位置情報とスキャン画像データとを受信し、受信した位置情報とスキャン画像データとを処理決定部330が読み取る(Sc2)。指紋特徴情報抽出部370は、ステップSc2にて読み取った指紋のスキャン画像データに対して、特徴情報の抽出処理を行い、その抽出処理結果の特徴情報を得る。次に、処理決定部330は、パターン記憶部350を検索して、この特徴情報と一致するパターン識別情報を探し出す(Sc4)。   FIG. 19 is a flowchart for explaining operations of the net sales server 300 and the net sales terminal device 400 in the present embodiment. First, the image generation unit 320 of the net sales server 300 reads a file having a file name of image data from the coordinate storage unit 340, generates a product list screen in which images according to the contents of the read file are arranged, and generates a communication unit 310, The information is displayed on the liquid crystal scanner touch panel 410 of the net sales terminal device 400 via 420 (Sc1). At this time, the image generation unit 320 displays each image in a rectangular area represented by the coordinate information stored in association with the coordinate storage unit 340. Here, it is assumed that the user of the personal identification information “T.HONDA” presses the right index finger on one of the images displayed on the product list screen. The liquid crystal scanner touch panel unit 410 transmits the position information indicating the coordinates where the finger is pressed and the scan image data of the fingerprint read when the finger is pressed via the communication unit 420. The communication unit 310 of the net sales server 300 receives the transmitted position information and scan image data, and the process determination unit 330 reads the received position information and scan image data (Sc2). The fingerprint feature information extraction unit 370 performs feature information extraction processing on the scan image data of the fingerprint read in step Sc2, and obtains feature information as a result of the extraction processing. Next, the process determining unit 330 searches the pattern storage unit 350 to search for pattern identification information that matches the feature information (Sc4).

次に、処理決定部330は、ステップSc4の検索の結果、この特徴情報と一致するパターン識別情報が有る否かを判定する(Sc5)。ステップSc5の判定で一致するパターン識別情報が無いと判定したときは、ステップSc6に遷移して、画像生成部320が個人認証に失敗したことをユーザに通知する個人認証失敗画面を生成して、該画面の表示データを通信部310を介して送信する。ネット販売端末装置400の液晶スキャナタッチパネル部410は、この送信された表示データを通信部420を介して受信し、受信した表示データを、その液晶ディスプレイに表示し(Sc6)、処理を終了する。   Next, as a result of the search in step Sc4, the process determining unit 330 determines whether there is pattern identification information that matches this feature information (Sc5). When it is determined in step Sc5 that there is no matching pattern identification information, the process proceeds to step Sc6 to generate a personal authentication failure screen that notifies the user that the image generation unit 320 has failed personal authentication. The display data of the screen is transmitted via the communication unit 310. The liquid crystal scanner touch panel unit 410 of the net sales terminal device 400 receives the transmitted display data via the communication unit 420, displays the received display data on the liquid crystal display (Sc6), and ends the process.

ここでは、前述のように個人識別情報「T.HONDA」のユーザが右手人差し指を押しているので、ステップSc5の判定で、一致するパターン識別情報が有ると判定し、ステップSc7に遷移して、処理決定部330は、そのパターン識別情報と対応付けてパターン記憶部350が記憶している個人識別情報「T.HONDA」を読み出す。次に、処理決定部330は、ステップSc2で読み取った位置情報が表す座標を含む領域を表す座標情報について、座標記憶部340を検索する(Sc8)。処理決定部330は、ステップSc8にて検索した結果の座標情報と対応付けて座標記憶部340が記憶している商品識別情報を読み出し、ステップSc8にて読み出した個人識別情報「T.HONDA」とともに、この商品識別情報が表す商品を個人識別情報「T.HONDA」が表すユーザへ販売する指示として販売処理部360に出力する。   Here, as described above, since the user of the personal identification information “T.HONDA” is pressing the right hand index finger, it is determined in step Sc5 that there is matching pattern identification information, and the process proceeds to step Sc7. The determination unit 330 reads the personal identification information “T.HONDA” stored in the pattern storage unit 350 in association with the pattern identification information. Next, the process determining unit 330 searches the coordinate storage unit 340 for coordinate information representing an area including the coordinates represented by the position information read in step Sc2 (Sc8). The process determining unit 330 reads the product identification information stored in the coordinate storage unit 340 in association with the coordinate information obtained as a result of the search in step Sc8, and the personal identification information “T.HONDA” read in step Sc8. The product represented by the product identification information is output to the sales processing unit 360 as an instruction to sell to the user represented by the personal identification information “T.HONDA”.

販売処理部360は、この商品識別情報と個人識別情報とを受けると、これらの情報に基づき、該商品識別情報の商品を該個人識別情報のユーザへ販売するための決済処理や配送指示処理などを行う(Sc9)。販売処理部360が、ステップSc9の販売処理を終了すると、画像生成部320は、販売処理が終了したことをユーザに通知する販売済画面の表示データを生成し、生成した表示データを通信部310を介して送信する。ネット販売端末装置400の液晶スキャナタッチパネル部410は、この送信された表示データを通信部420を介して受信し、受信した表示データを、その液晶ディスプレイに表示し(Sc10)、処理を終了する。   Upon receiving the product identification information and the personal identification information, the sales processing unit 360, based on these information, a settlement process or a delivery instruction process for selling the product of the product identification information to the user of the personal identification information (Sc9). When the sales processing unit 360 ends the sales process of step Sc9, the image generation unit 320 generates display data of a sold screen that notifies the user that the sales process has ended, and the generated display data is transmitted to the communication unit 310. To send through. The liquid crystal scanner touch panel unit 410 of the net sales terminal device 400 receives the transmitted display data via the communication unit 420, displays the received display data on the liquid crystal display (Sc10), and ends the process.

なお、ステップSc5における処理決定部330による一致の判定において、パターン識別情報に含まれる全ての特徴情報が一致していなくても、例えば一定の割合以上の特徴情報が一致していれば、一致していると判定するようにしてもよい。
また、本実施形態において、処理内容は個人認証したユーザへの販売処理のみであるが、その他の指も含めた指紋の特徴情報をパターン識別情報として、処理識別情報と対応付けてパターン記憶部216に記憶させておき、処理決定部330が処理識別情報に応じて処理内容を指示可能なようにしてもよい。
In the match determination by the processing determination unit 330 in step Sc5, even if not all feature information included in the pattern identification information matches, for example, if feature information of a certain ratio or more matches, they match. You may make it determine with it.
Further, in the present embodiment, the processing content is only the sales processing to the user who has been personally authenticated, but the pattern storage unit 216 associates the fingerprint characteristic information including other fingers with the processing identification information as pattern identification information. The processing determination unit 330 may be able to instruct the processing content according to the processing identification information.

このように、液晶スキャナタッチパネル部410が指のタッチ位置を表す位置情報とタッチした指の指紋のスキャン画像データとを出力し、処理決定部330がこの出力された位置情報に応じて商品を決定し、該指紋のスキャン画像データに応じて販売処理先のユーザを決定する。このため、ユーザインターフェース部600は、ユーザが液晶スキャナタッチパネル部410の液晶ディスプレイに指で1回だけタッチするという簡便な操作で、様々な処理対象と処理内容とを決定し、さらには指紋のスキャン画像データに基づき個人を認証し、前述の処理内容を該認証結果に応じた内容することが可能な容易なユーザインターフェースを提供することができる。   As described above, the liquid crystal scanner touch panel unit 410 outputs the position information indicating the touch position of the finger and the scan image data of the fingerprint of the touched finger, and the processing determination unit 330 determines the product according to the output position information. Then, the sales processing destination user is determined according to the scanned image data of the fingerprint. For this reason, the user interface unit 600 determines various processing targets and processing contents by a simple operation in which the user touches the liquid crystal display of the liquid crystal scanner touch panel unit 410 only once with a finger, and further scans a fingerprint. It is possible to provide an easy user interface capable of authenticating an individual on the basis of image data and making the above-described processing content according to the authentication result.

なお、上記第1から第3の実施形態において、処理対象データを表すアイコンまたは画像を表示させ、処理決定部113、213、330は、液晶スキャナタッチパネル部111、410が検出した位置に基づき処理対象データを決定し、液晶スキャナタッチパネル部111、410が生成したスキャン画像データに基づき処理を決定するとして説明したが、処理を表すアイコンを表示させ、液晶スキャナタッチパネル部111、410が検出した位置に基づき処理を決定し、液晶スキャナタッチパネル部111、410が生成したスキャン画像データに基づき処理対象データを決定するようにしてもよい。   In the first to third embodiments, an icon or an image representing the processing target data is displayed, and the processing determining units 113, 213, and 330 are processing targets based on the positions detected by the liquid crystal scanner touch panel units 111 and 410. Although it has been described that data is determined and the process is determined based on the scan image data generated by the liquid crystal scanner touch panel units 111 and 410, an icon representing the process is displayed and based on the position detected by the liquid crystal scanner touch panel units 111 and 410. The processing target data may be determined based on the scan image data generated by the liquid crystal scanner touch panel units 111 and 410.

また、液晶スキャナタッチパネル部111、410は、同一のガラス基板上に画像表示用の液晶素子とスキャン用の光センサ素子とを配置し、該液晶素子にて画像を表示し、該光センサ素子にて画像表示領域に入射する光を検出してスキャン画像データを生成するとして説明したが、液晶以外の有機EL(ElectroLuminescence)素子などにて画像を表示してもよいし、光センサ素子をガラス基板以外の場所に配置して、入射する光を該配置場所に導く光路を設定するようにしてもよい。   In addition, the liquid crystal scanner touch panel units 111 and 410 arrange an image display liquid crystal element and a scanning optical sensor element on the same glass substrate, and display an image on the liquid crystal element. In the above description, the scan image data is generated by detecting the light incident on the image display area. However, an image may be displayed by an organic EL (ElectroLuminescence) element other than liquid crystal, or the optical sensor element may be a glass substrate. The optical path may be set so that the incident light is guided to the arrangement place.

また、図2における2次元バーコード復号部112、画像生成部114、処理決定部113、文書表示処理部120、承認処理部130、否決処理部140、削除処理部150、もしくは図9に置ける指紋特徴情報抽出部212、画像生成部114、処理決定部213、文書表示処理部120、承認処理部230、否決処理部240、削除処理部150、もしくは図15における通信部420、通信部310、画像生成部320、処理決定部330、販売処理部360、指紋特徴情報抽出部370の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによりこれらの処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。   In addition, the two-dimensional barcode decoding unit 112, the image generation unit 114, the processing determination unit 113, the document display processing unit 120, the approval processing unit 130, the rejection processing unit 140, the deletion processing unit 150, or the fingerprint shown in FIG. Feature information extraction unit 212, image generation unit 114, processing determination unit 213, document display processing unit 120, approval processing unit 230, rejection processing unit 240, deletion processing unit 150, or communication unit 420, communication unit 310, image in FIG. A program for realizing the functions of the generation unit 320, the processing determination unit 330, the sales processing unit 360, and the fingerprint feature information extraction unit 370 is recorded on a computer-readable recording medium, and the program recorded on the recording medium is recorded on the computer. These processes may be performed by reading the system and executing it. Here, the “computer system” includes an OS and hardware such as peripheral devices.

また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
Further, the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used.
The “computer-readable recording medium” refers to a portable medium such as a flexible disk, a magneto-optical disk, a ROM, and a CD-ROM, and a storage device such as a hard disk built in the computer system. Furthermore, the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, a volatile memory in a computer system serving as a server or a client in that case, and a program that holds a program for a certain period of time are also included. The program may be a program for realizing a part of the functions described above, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system.

以上、この発明の実施形態を図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計変更等も含まれる。   The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes design changes and the like within a scope not departing from the gist of the present invention.

本発明は、第1から第3の実施形態に示すような文書管理装置、インターネット販売システムに用いて最適であるが、これに限定されない。   The present invention is optimally used for a document management apparatus and an Internet sales system as shown in the first to third embodiments, but is not limited to this.

この発明の第1の実施形態による文書管理装置100のハード構成を示す概略ブロック図である。It is a schematic block diagram which shows the hardware constitutions of the document management apparatus 100 by 1st Embodiment of this invention. 同実施形態による文書管理装置100の機能構成を示す概略ブロック図である。It is a schematic block diagram which shows the function structure of the document management apparatus 100 by the embodiment. 同実施形態による液晶スキャナタッチパネル部111が有する液晶ディスプレイの構造例を模式的に示す図である。It is a figure which shows typically the structural example of the liquid crystal display which the liquid crystal scanner touch panel part 111 by the embodiment has. 同実施形態における文書管理装置100が液晶スキャナタッチパネル部111に表示する文書リスト画面および文書表示画面の例を示す図である。6 is a diagram illustrating an example of a document list screen and a document display screen displayed on the liquid crystal scanner touch panel unit 111 by the document management apparatus 100 in the embodiment. FIG. 同実施形態におけるパターン記憶部116の記憶内容例を示す図である。It is a figure which shows the example of the memory content of the pattern memory | storage part 116 in the embodiment. 同実施形態における座標記憶部115の記憶内容例を示す図である。It is a figure which shows the example of the memory content of the coordinate memory | storage part 115 in the embodiment. 同実施形態における文書記憶部160の記憶内容例を示す図である。It is a figure which shows the example of the memory content of the document memory | storage part 160 in the same embodiment. 同実施形態における文書管理装置100の動作を説明するフローチャートである。6 is a flowchart for explaining the operation of the document management apparatus 100 in the embodiment. この発明の第2の実施形態による文書管理装置200の機能構成を示す概略ブロック図である。It is a schematic block diagram which shows the function structure of the document management apparatus 200 by 2nd Embodiment of this invention. 同実施形態における文書管理装置200が液晶スキャナタッチパネル部111に表示する文書リスト画面および文書表示画面の例を示す図である。5 is a diagram showing an example of a document list screen and a document display screen displayed on the liquid crystal scanner touch panel unit 111 by the document management apparatus 200 in the embodiment. FIG. 同実施形態におけるパターン記憶部216の記憶内容例を示す図である。It is a figure which shows the example of the memory content of the pattern memory | storage part 216 in the embodiment. 同実施形態における文書記憶部260の記憶内容例を示す図である。It is a figure which shows the example of the memory content of the document memory | storage part 260 in the embodiment. 同実施形態における文書管理装置100の動作を説明するフローチャートである。6 is a flowchart for explaining the operation of the document management apparatus 100 in the embodiment. この発明の第3の実施形態によるインターネット販売システムの構成を示す概略システム構成図である。It is a schematic system block diagram which shows the structure of the internet sales system by 3rd Embodiment of this invention. 同実施形態におけるネット販売サーバ300とネット販売端末装置400の構成を示す概略ブロック図である。It is a schematic block diagram which shows the structure of the net sales server 300 and the net sales terminal device 400 in the embodiment. 同実施形態におけるネット販売端末装置400が液晶スキャナタッチパネル部410に表示する商品リスト画面の例を示す図である。5 is a diagram showing an example of a product list screen displayed on the liquid crystal scanner touch panel unit 410 by the net sales terminal device 400 in the same embodiment. FIG. 同実施形態におけるパターン記憶部350の記憶内容例を示す図である。It is a figure which shows the example of the memory content of the pattern memory | storage part 350 in the embodiment. 同実施形態における座標記憶部340の記憶内容例を示す図である。It is a figure which shows the example of the memory content of the coordinate memory | storage part 340 in the same embodiment. 同実施形態におけるネット販売サーバ300とネット販売端末装置400の動作を説明するフローチャートである。It is a flowchart explaining operation | movement of the net sales server 300 and the net sales terminal device 400 in the embodiment.

符号の説明Explanation of symbols

100、200…文書管理装置
101…制御部
102…メモリ
103…入出力部
110、210、600…ユーザインターフェース部
111、410…液晶スキャナタッチパネル部
112…2次元バーコード復号部
113、213、330…処理決定部
114、320…画像生成部
115、340…座標記憶部
116、216、350…パターン記憶部
120…文書表示処理部
130、230…承認処理部
140、240…否決処理部
150…削除処理部
160、260…文書記憶部
212…指紋特徴情報抽出部
300…ネット販売サーバ
310…通信部
360…販売処理部
370…指紋特徴情報抽出部
400…ネット販売端末装置
420…通信部
500…ネットワーク
DESCRIPTION OF SYMBOLS 100, 200 ... Document management apparatus 101 ... Control part 102 ... Memory 103 ... Input / output part 110, 210, 600 ... User interface part 111, 410 ... Liquid crystal scanner touch panel part 112 ... Two-dimensional barcode decoding part 113, 213, 330 ... Processing determination unit 114, 320 ... Image generation unit 115, 340 ... Coordinate storage unit 116, 216, 350 ... Pattern storage unit 120 ... Document display processing unit 130, 230 ... Approval processing unit 140, 240 ... Denial processing unit 150 ... Deletion processing Unit 160, 260 ... Document storage unit 212 ... Fingerprint feature information extraction unit 300 ... Net sales server 310 ... Communication unit 360 ... Sales processing unit 370 ... Fingerprint feature information extraction unit 400 ... Net sales terminal device 420 ... Communication unit 500 ... Network

Claims (10)

画像表示面に画像を表示するとともに、該画像表示面に外部から入射する光を検出してスキャン画像データを生成し、さらに前記画像表示面で外部から指示された位置を検出するディスプレイスキャナタッチパネルと、
前記ディスプレイスキャナタッチパネルが生成したスキャン画像データのうち、前記検出した位置の近傍のスキャン画像データと前記検出した位置とに基づき、実行する処理と該処理の処理対象データとを決定し、この決定した処理にこの決定した処理対象データの処理を指示する処理決定部と
を具備することを特徴とするユーザインターフェース装置。
A display scanner touch panel for displaying an image on the image display surface, detecting scan light data by detecting light incident from the outside on the image display surface, and detecting a position instructed from the outside on the image display surface; ,
Of the scanned image data generated by the display scanner touch panel, based on the scanned image data in the vicinity of the detected position and the detected position, the process to be executed and the data to be processed are determined. A user interface device comprising: a process determining unit that instructs the process to process the determined processing target data.
前記処理決定部は、前記検出した位置の近傍のスキャン画像データに基づき、実行する処理を決定し、前記検出した位置に基づき、該実行する処理の処理対象データを決定することを特徴とする請求項1に記載のユーザインターフェース装置。   The process determining unit determines a process to be executed based on scan image data in the vicinity of the detected position, and determines processing target data for the process to be executed based on the detected position. Item 4. The user interface device according to Item 1. 処理対象データを識別するデータ識別情報もしくは処理対象データと、前記画像表示面上の領域を表す情報とを対応付けて記憶する座標記憶部と、
スキャン画像データを識別するパターン識別情報と、処理を識別する処理識別情報とを対応付けて記憶するパターン記憶部と、
前記処理対象データを表す画像を前記ディスプレイスキャナタッチパネルの画像表示面に表示するとともに、該画像を表示した領域を表す情報と該画像が表す処理対象データもしくは該処理対象データを識別するデータ識別情報とを対応付けて前記座標記憶部に記憶させる画像生成部と
を具備し、
前記処理決定部は、前記検出した位置の近傍のスキャン画像データを識別するパターン識別情報と対応付けて前記パターン記憶部に記憶している処理識別情報が表す処理を実行する処理とし、前記検出した位置を含む領域を表す情報と対応付けて前記座標記憶部に記憶している処理対象データもしくはデータ識別情報が表す処理対象データを、前記実行する処理の処理対象データとすること
を特徴とする請求項2に記載のユーザインターフェース装置。
A coordinate storage unit for storing data identification information or processing target data for identifying processing target data and information representing an area on the image display surface in association with each other;
A pattern storage unit that stores pattern identification information for identifying scan image data and process identification information for identifying a process in association with each other;
An image representing the processing target data is displayed on an image display surface of the display scanner touch panel, information representing a region where the image is displayed, processing target data represented by the image, or data identification information for identifying the processing target data, And an image generation unit that stores the information in the coordinate storage unit in association with each other,
The process determination unit is a process for executing the process represented by the process identification information stored in the pattern storage unit in association with the pattern identification information for identifying the scan image data in the vicinity of the detected position. The processing target data stored in the coordinate storage unit in association with information indicating a region including a position or processing target data represented by data identification information is set as processing target data of the process to be executed. Item 3. The user interface device according to Item 2.
前記処理決定部は、前記検出した位置の近傍のスキャン画像データと前記検出した位置とに基づき、実行する処理と該処理の処理対象データとを検出するとともに、前記検出した位置の近傍のスキャン画像データに基づき個人認証処理を行うことを特徴とする請求項1に記載のユーザインターフェース装置。   The process determining unit detects a process to be executed and processing target data of the process based on scan image data in the vicinity of the detected position and the detected position, and scan images in the vicinity of the detected position. The user interface device according to claim 1, wherein personal authentication processing is performed based on the data. 処理対象データを識別するデータ識別情報もしくは処理対象データと、前記画像表示面上の領域を表す情報とを対応付けて記憶する座標記憶部と、
スキャン画像データを識別するパターン識別情報と、個人を識別する個人識別情報とを対応付けて記憶するパターン記憶部と、
前記処理対象データを表す画像を前記ディスプレイスキャナタッチパネルの画像表示面に表示するとともに、該画像を表示した領域を表す情報と該画像が表す処理対象データもしくは該処理対象データを識別するデータ識別情報とを対応付けて前記座標記憶部に記憶させる画像生成部と
を具備し、
前記処理決定部は、前記検出した位置の近傍のスキャン画像データを識別するパターン識別情報と対応付けて前記パターン記憶部に記憶している個人識別情報を読み出して個人認証を行なうとともに、この個人認証の結果に基づき実行する処理を決定し、前記検出した位置を含む領域を表す情報と対応付けて前記座標記憶部に記憶している処理対象データもしくはデータ識別情報が表す処理対象データを前記実行する処理の処理対象データとすること
を特徴とする請求項4に記載のユーザインターフェース装置。
A coordinate storage unit for storing data identification information or processing target data for identifying processing target data and information representing an area on the image display surface in association with each other;
A pattern storage unit for storing pattern identification information for identifying scanned image data and personal identification information for identifying an individual in association with each other;
An image representing the processing target data is displayed on an image display surface of the display scanner touch panel, information representing a region where the image is displayed, processing target data represented by the image, or data identification information for identifying the processing target data, And an image generation unit that stores the information in the coordinate storage unit in association with each other,
The process determining unit reads out personal identification information stored in the pattern storage unit in association with pattern identification information for identifying scan image data in the vicinity of the detected position, and performs personal authentication. The processing to be executed is determined based on the result of the above, and the processing target data stored in the coordinate storage unit or the processing target data represented by the data identification information is executed in association with the information indicating the area including the detected position. The user interface device according to claim 4, wherein the data is processing target data.
処理対象データを識別するデータ識別情報もしくは処理対象データと、前記画像表示面上の領域を表す情報とを対応付けて記憶する座標記憶部と、
スキャン画像データを識別するパターン識別情報と、個人を識別する個人識別情報と、処理を識別する処理識別情報とを対応付けて記憶するパターン記憶部と、
前記処理対象データを表す画像を前記ディスプレイスキャナタッチパネルの画像表示面に表示するとともに、該画像を表示した領域を表す情報と該画像が表す処理対象データもしくは該処理対象データを識別するデータ識別情報とを対応付けて前記座標記憶部に記憶させる画像生成部と
を具備し、
前記処理決定部は、前記検出した位置の近傍のスキャン画像データを識別するパターン識別情報と対応付けて前記パターン記憶部に記憶している個人識別情報を読み出して個人認証を行なうとともに、前記パターン識別情報と前記個人識別情報とに対応付けて前記パターン記憶部に記憶している処理識別情報を読み出し、この読み出した処理識別情報が識別する処理を実行する処理とし、前記検出した位置を含む領域を表す情報と対応付けて前記座標記憶部に記憶している処理対象データもしくはデータ識別情報が表す処理対象データを前記実行する処理の処理対象データとすること
を特徴とする請求項1または請求項4に記載のユーザインターフェース装置。
A coordinate storage unit for storing data identification information or processing target data for identifying processing target data and information representing an area on the image display surface in association with each other;
A pattern storage unit that stores pattern identification information for identifying scanned image data, personal identification information for identifying an individual, and processing identification information for identifying a process in association with each other;
An image representing the processing target data is displayed on an image display surface of the display scanner touch panel, information representing a region where the image is displayed, processing target data represented by the image, or data identification information for identifying the processing target data, And an image generation unit that stores the information in the coordinate storage unit in association with each other,
The process determination unit reads out personal identification information stored in the pattern storage unit in association with pattern identification information for identifying scan image data in the vicinity of the detected position, performs personal authentication, and performs the pattern identification. The process identification information stored in the pattern storage unit in association with the information and the personal identification information is read out, and a process for executing the process identified by the read process identification information is performed. The processing target data stored in the coordinate storage unit in association with the information to be expressed or the processing target data represented by the data identification information is set as processing target data for the process to be executed. A user interface device according to claim 1.
前記スキャン画像データから、指紋の特徴情報を抽出する指紋特徴情報抽出部を具備し、
前記処理決定部は、前記スキャン画像データから前記指紋特徴情報抽出部が抽出した特徴情報に基づき決定することを特徴とする請求項1から請求項5に記載のいずれかの項に記載のユーザインターフェース装置。
A fingerprint feature information extraction unit for extracting fingerprint feature information from the scanned image data;
6. The user interface according to claim 1, wherein the process determining unit determines based on the feature information extracted by the fingerprint feature information extracting unit from the scanned image data. 7. apparatus.
画像表示面に画像を表示するとともに、該画像表示面に外部から入射する光を検出してスキャン画像データを生成し、さらに前記画像表示面で外部から指示された位置を検出するディスプレイスキャナタッチパネルが生成した前記スキャン画像データのうち、前記検出した位置の近傍のスキャン画像データと前記検出した位置とに基づき、実行する処理と該処理の処理対象データとを決定し、この決定した処理にこの決定した処理対象データの処理を指示する処理決定部
を具備することを特徴とするユーザインターフェース装置。
A display scanner touch panel that displays an image on an image display surface, generates scan image data by detecting light incident on the image display surface from the outside, and further detects a position instructed from the outside on the image display surface Of the generated scan image data, the process to be executed and the data to be processed are determined based on the scan image data in the vicinity of the detected position and the detected position. A user interface device comprising: a process determining unit that instructs to process the processed data.
画像表示面に画像を表示するとともに、該画像表示面に外部から入射する光を検出してスキャン画像データを生成し、さらに前記画像表示面で外部から指示された位置を検出するディスプレイスキャナタッチパネルを具備するユーザインターフェース装置におけるユーザインターフェース方法にであって、
前記ディスプレイスキャナタッチパネルが、画像表示面に外部から入射する光を検出してスキャン画像データを生成するとともに、前記画像表示面で外部から指示された位置を検出する第1の過程と、
前記ユーザインターフェース装置が、前記第1の過程にて生成したスキャン画像データのうち、前記第1の過程にて検出した位置の近傍のスキャン画像データと前記検出した位置とに基づき、実行する処理と該処理の処理対象データとを決定する第2の過程と、
前記ユーザインターフェース装置が、前記第2の過程にて決定した処理に、前記第2の過程にて決定した処理対象データの処理を指示する第3の過程と
を備えることを特徴とするユーザインターフェース方法。
A display scanner touch panel that displays an image on an image display surface, detects light incident on the image display surface from outside to generate scan image data, and further detects a position instructed from the outside on the image display surface A user interface method in a user interface device comprising:
A first process in which the display scanner touch panel detects light incident on the image display surface from outside to generate scan image data, and detects a position instructed from the outside on the image display surface;
Processing performed by the user interface device based on scan image data in the vicinity of the position detected in the first process and the detected position among the scan image data generated in the first process; A second step of determining processing target data of the processing;
A user interface method, wherein the user interface device includes a third process instructing the processing of data to be processed determined in the second process to the process determined in the second process. .
画像表示面に画像を表示するとともに、該画像表示面に外部から入射する光を検出してスキャン画像データを生成し、さらに前記画像表示面で外部から指示された位置を検出するディスプレイスキャナタッチパネルを具備するユーザインターフェース装置のコンピュータを、
前記ディスプレイスキャナタッチパネルが生成したスキャン画像データのうち、前記検出した位置の近傍のスキャン画像データと前記検出した位置とに基づき、実行する処理と該処理の処理対象データとを決定し、この決定した処理にこの決定した処理対象データの処理を指示する処理決定部
として機能させるプログラム。
A display scanner touch panel that displays an image on an image display surface, detects light incident on the image display surface from outside to generate scan image data, and further detects a position instructed from the outside on the image display surface A user interface device computer comprising:
Of the scanned image data generated by the display scanner touch panel, based on the scanned image data in the vicinity of the detected position and the detected position, the process to be executed and the data to be processed are determined. A program that causes a process to function as a process determination unit that instructs the process of the determined processing target data.
JP2007222957A 2007-08-29 2007-08-29 User interface device, user interface method, and program Pending JP2009054118A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007222957A JP2009054118A (en) 2007-08-29 2007-08-29 User interface device, user interface method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007222957A JP2009054118A (en) 2007-08-29 2007-08-29 User interface device, user interface method, and program

Publications (1)

Publication Number Publication Date
JP2009054118A true JP2009054118A (en) 2009-03-12

Family

ID=40505115

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007222957A Pending JP2009054118A (en) 2007-08-29 2007-08-29 User interface device, user interface method, and program

Country Status (1)

Country Link
JP (1) JP2009054118A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8638305B2 (en) 2009-07-29 2014-01-28 Kyocera Corporation Information device
JP2015032049A (en) * 2013-07-31 2015-02-16 レノボ・シンガポール・プライベート・リミテッド Information input device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05173709A (en) * 1991-12-25 1993-07-13 Sanyo Electric Co Ltd Display and input integrated device with image sensor
JPH07175587A (en) * 1993-10-28 1995-07-14 Hitachi Ltd Information processor
JPH11327727A (en) * 1998-05-11 1999-11-30 Nec Corp System and method for screen operation
JP2005082086A (en) * 2003-09-10 2005-03-31 Fujitsu Ten Ltd Input device in information terminal
JP2007516507A (en) * 2003-05-30 2007-06-21 プリヴァリス・インコーポレーテッド Man-machine interface to control access to electronic devices

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05173709A (en) * 1991-12-25 1993-07-13 Sanyo Electric Co Ltd Display and input integrated device with image sensor
JPH07175587A (en) * 1993-10-28 1995-07-14 Hitachi Ltd Information processor
JPH11327727A (en) * 1998-05-11 1999-11-30 Nec Corp System and method for screen operation
JP2007516507A (en) * 2003-05-30 2007-06-21 プリヴァリス・インコーポレーテッド Man-machine interface to control access to electronic devices
JP2005082086A (en) * 2003-09-10 2005-03-31 Fujitsu Ten Ltd Input device in information terminal

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8638305B2 (en) 2009-07-29 2014-01-28 Kyocera Corporation Information device
JP2015032049A (en) * 2013-07-31 2015-02-16 レノボ・シンガポール・プライベート・リミテッド Information input device

Similar Documents

Publication Publication Date Title
JP4719543B2 (en) Workflow system, server device, processing method of workflow system, and workflow program
JP5974976B2 (en) Information processing apparatus and information processing program
JP5987780B2 (en) Information processing apparatus and information processing program
JP5983664B2 (en) Image forming system, image forming apparatus, portable terminal, and program
JP6407772B2 (en) Input device
JP2019096938A (en) System, method in system, information processing apparatus, method in information processing apparatus, and program
JP2005004490A (en) Document processor and its program
JP2009037401A (en) Operating device
JP4772592B2 (en) Business flow management device, business flow management method, program
US11271977B2 (en) Information processing apparatus, information processing system, information processing method, and non-transitory recording medium
JP4656192B2 (en) Image forming apparatus and image forming system
CN101146168A (en) Image processing apparatus and image processing method
CN106256119B (en) Detect the signature line in electronic document
JP2009054118A (en) User interface device, user interface method, and program
JP2007052489A (en) User authentication method and user authentication program
JP6291989B2 (en) Content display device and control program for content display device
JP2020178301A (en) Information processing device, control method of the same, and program
JP2022111122A (en) Server, control method and program
CN108377230A (en) Authentication device and non-volatile memory medium
JP2014106808A (en) Data processing apparatus, operation reception method, and browsing program
JP2019008728A (en) Document management system, and document management device
JP2012198725A (en) Information input device, information input method, and program
JP7007609B2 (en) Information processing equipment, control method of information processing equipment, program
JP6741949B2 (en) Information processing apparatus, control method of information processing apparatus, and program
JP6582954B2 (en) Document camera device, clipping support method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090805

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110606

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110621

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20111025