JP2009054118A - User interface device, user interface method, and program - Google Patents
User interface device, user interface method, and program Download PDFInfo
- Publication number
- JP2009054118A JP2009054118A JP2007222957A JP2007222957A JP2009054118A JP 2009054118 A JP2009054118 A JP 2009054118A JP 2007222957 A JP2007222957 A JP 2007222957A JP 2007222957 A JP2007222957 A JP 2007222957A JP 2009054118 A JP2009054118 A JP 2009054118A
- Authority
- JP
- Japan
- Prior art keywords
- data
- identification information
- image
- unit
- processing target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、ユーザインターフェース装置、ユーザインターフェース方法およびプログラム、特に画像表示面に画像を表示するとともに、該画像表示面に外部から入射する光を検出してスキャン画像データを生成し、さらに前記画像表示面で外部から指示された位置を検出する液晶スキャナタッチパネルを利用したユーザインターフェース装置、ユーザインターフェース方法およびプログラムに関する。 The present invention relates to a user interface device, a user interface method and a program, and in particular displays an image on an image display surface, detects light incident on the image display surface from the outside, generates scan image data, and further displays the image The present invention relates to a user interface device, a user interface method, and a program using a liquid crystal scanner touch panel that detects a position designated from the outside on a screen.
従来、タッチパネルを用いた入力方法では、タッチ位置や、ダブルタッチやスライドなどのタッチアクションを検出し、これらに応じて、あるいはこれらの組み合わせに応じて、処理対象や処理内容を指定している。
例えば、特許文献1は、スライド操作の方向と速さ、あるいは長さを検出したり、円を描くように回転させるスライド操作を検出したりする入力装置が記載されている。また、特許文献2は、タッチパネル上を押下したままで所定長移動させてタッチアクションにて入力する入力装置が記載されている。また、特許文献3は、1点指示か2点指示かを判断するようにした図形処理装置が記載されている。また、特許文献4、文字入力により筆跡判定し、セキュリティ性を高めた自動取引装置が記載されている。また、特許文献5は、タッチパネル上をなぞる動作の速さや方向を変えて、操作指示を与える入力装置が記載されている。また、特許文献6は、タッチスクリーンにより位置指示用の入力を行う場合の入力方式が記載されている。
For example,
しかしながら、従来の装置にあっては、指示できる処理対象もしくは処理内容の数がタッチアクションのパターン数に制限されてしまう、あるいは、様々な処理対象と処理内容とに対応するには、タッチアクションが複雑になったり、複数のタッチアクションを組み合わせたりするというように、操作が煩雑になってしまうという問題がある。 However, in the conventional apparatus, the number of processing targets or processing contents that can be instructed is limited to the number of touch action patterns, or in order to cope with various processing targets and processing contents, There is a problem that the operation becomes complicated, such as being complicated or combining a plurality of touch actions.
本発明は、このような事情に鑑みてなされたもので、その目的は、簡便な操作で、様々な処理対象および処理内容を指定することができるユーザインターフェース装置、ユーザインターフェース方法およびプログラムを提供することにある。 The present invention has been made in view of such circumstances, and an object thereof is to provide a user interface device, a user interface method, and a program capable of designating various processing targets and processing contents with a simple operation. There is.
この発明は上述した課題を解決するためになされたもので、本発明のユーザインターフェース装置は、画像表示面に画像を表示するとともに、該画像表示面に外部から入射する光を検出してスキャン画像データを生成し、さらに前記画像表示面で外部から指示された位置を検出するディスプレイスキャナタッチパネルと、前記ディスプレイスキャナタッチパネルが生成したスキャン画像データのうち、前記検出した位置の近傍のスキャン画像データと前記検出した位置とに基づき、実行する処理と該処理の処理対象データとを決定し、この決定した処理にこの決定した処理対象データの処理を指示する処理決定部とを具備することを特徴とする。 The present invention has been made to solve the above-described problems, and the user interface device of the present invention displays an image on an image display surface and detects light incident on the image display surface from the outside to scan an image. A display scanner touch panel that generates data and further detects a position indicated from the outside on the image display surface; scan image data in the vicinity of the detected position among the scan image data generated by the display scanner touch panel; and A process determining unit that determines a process to be executed and processing target data of the process based on the detected position and instructs the determined process to process the determined processing target data. .
これにより、ユーザインターフェース装置は、ディスプレイスキャナタッチパネルが検出した指示された位置とその近傍のスキャン画像データとを組み合わせに応じて、実行する処理とその処理対象データとを決定するので、ディスプレイスキャナタッチパネルに1回タッチするという簡便な操作で、様々な処理対象および処理内容を指定することができる。 Thus, the user interface device determines the processing to be executed and the processing target data according to the combination of the instructed position detected by the display scanner touch panel and the scan image data in the vicinity thereof. Various processing targets and processing contents can be designated by a simple operation of touching once.
また、本発明のユーザインターフェース装置は、上述のユーザインターフェース装置であって、前記処理決定部は、前記検出した位置の近傍のスキャン画像データに基づき、実行する処理を決定し、前記検出した位置に基づき、該実行する処理の処理対象データを決定することを特徴とする。 The user interface device of the present invention is the above-described user interface device, wherein the process determining unit determines a process to be executed based on scan image data in the vicinity of the detected position, and sets the detected position at the detected position. Based on this, the processing target data of the processing to be executed is determined.
また、本発明のユーザインターフェース装置は、上述のユーザインターフェース装置であって、処理対象データを識別するデータ識別情報もしくは処理対象データと、前記画像表示面上の領域を表す情報とを対応付けて記憶する座標記憶部と、スキャン画像データを識別するパターン識別情報と、処理を識別する処理識別情報とを対応付けて記憶するパターン記憶部と、前記処理対象データを表す画像を前記ディスプレイスキャナタッチパネルの画像表示面に表示するとともに、該画像を表示した領域を表す情報と該画像が表す処理対象データもしくは該処理対象データを識別するデータ識別情報とを対応付けて前記座標記憶部に記憶させる画像生成部とを具備し、前記処理決定部は、前記検出した位置の近傍のスキャン画像データを識別するパターン識別情報と対応付けて前記パターン記憶部に記憶している処理識別情報が表す処理を実行する処理とし、前記検出した位置を含む領域を表す情報と対応付けて前記座標記憶部に記憶している処理対象データもしくはデータ識別情報が表す処理対象データを、前記実行する処理の処理対象データとすることを特徴とする。 A user interface device according to the present invention is the above-described user interface device, and stores data identification information or processing target data for identifying processing target data and information representing an area on the image display surface in association with each other. A coordinate storage unit that stores pattern identification information that identifies scan image data, and process identification information that identifies processing, and an image that represents the processing target data. An image generating unit that displays on the display surface and associates information indicating the area where the image is displayed with processing target data represented by the image or data identification information for identifying the processing target data and stores the information in the coordinate storage unit And the processing determining unit identifies scan image data in the vicinity of the detected position. A process for executing the process represented by the process identification information stored in the pattern storage unit in association with the pattern identification information, and stored in the coordinate storage unit in association with the information representing the area including the detected position. The processing target data or the processing target data represented by the data identification information is set as the processing target data of the processing to be executed.
また、本発明のユーザインターフェース装置は、上述のユーザインターフェース装置であって、前記処理決定部は、前記検出した位置の近傍のスキャン画像データと前記検出した位置とに基づき、実行する処理と該処理の処理対象データとを検出するとともに、前記検出した位置の近傍のスキャン画像データに基づき個人認証処理を行うことを特徴とする。 Further, the user interface device of the present invention is the above-described user interface device, wherein the process determining unit executes a process to be executed based on scan image data in the vicinity of the detected position and the detected position. And the personal authentication process is performed based on the scanned image data in the vicinity of the detected position.
これにより、ユーザインターフェース装置は、ディスプレイスキャナタッチパネルが検出した指示された位置とその近傍のスキャン画像データとを組み合わせに応じて、実行する処理とその処理対象データとを決定するとともに、該スキャン画像データに基づき個人認証処理を行うので、指紋などの個人を識別可能な模様/形状を備えたもので、ディスプレイスキャナタッチパネルに1回タッチするという簡便な操作で、様々な処理対象および処理内容の指定と個人認証処理を同時にすることができる。 Thus, the user interface device determines the process to be executed and the processing target data according to the combination of the instructed position detected by the display scanner touch panel and the scan image data in the vicinity thereof, and the scan image data. Since personal authentication processing is performed based on the above, it is possible to specify various processing targets and processing contents with a simple operation of touching the display scanner touch panel once with a pattern / shape that can identify an individual such as a fingerprint. Personal authentication processing can be performed simultaneously.
また、本発明のユーザインターフェース装置は、上述のユーザインターフェース装置であって、処理対象データを識別するデータ識別情報もしくは処理対象データと、前記画像表示面上の領域を表す情報とを対応付けて記憶する座標記憶部と、スキャン画像データを識別するパターン識別情報と、個人を識別する個人識別情報とを対応付けて記憶するパターン記憶部と、前記処理対象データを表す画像を前記ディスプレイスキャナタッチパネルの画像表示面に表示するとともに、該画像を表示した領域を表す情報と該画像が表す処理対象データもしくは該処理対象データを識別するデータ識別情報とを対応付けて前記座標記憶部に記憶させる画像生成部とを具備し、前記処理決定部は、前記検出した位置の近傍のスキャン画像データを識別するパターン識別情報と対応付けて前記パターン記憶部に記憶している個人識別情報を読み出して個人認証を行なうとともに、この個人認証の結果に基づき実行する処理を決定し、前記検出した位置を含む領域を表す情報と対応付けて前記座標記憶部に記憶している処理対象データもしくはデータ識別情報が表す処理対象データを前記実行する処理の処理対象データとすることを特徴とする。 A user interface device according to the present invention is the above-described user interface device, and stores data identification information or processing target data for identifying processing target data and information representing an area on the image display surface in association with each other. An image of the display scanner touch panel, an image representing the processing target data, and a coordinate storage unit for storing the pattern identification information for identifying the scanned image data and the personal identification information for identifying the individual. An image generating unit that displays on the display surface and associates information indicating the area where the image is displayed with processing target data represented by the image or data identification information for identifying the processing target data and stores the information in the coordinate storage unit And the processing determining unit identifies scan image data in the vicinity of the detected position. The personal identification information stored in the pattern storage unit in association with the pattern identification information is read to perform personal authentication, and a process to be executed is determined based on the result of the personal authentication, and an area including the detected position is determined. The processing target data stored in the coordinate storage unit in association with the information to be displayed or the processing target data represented by the data identification information is used as the processing target data for the processing to be executed.
また、本発明のユーザインターフェース装置は、上述のいずれかのユーザインターフェース装置であって、処理対象データを識別するデータ識別情報もしくは処理対象データと、前記画像表示面上の領域を表す情報とを対応付けて記憶する座標記憶部と、スキャン画像データを識別するパターン識別情報と、個人を識別する個人識別情報と、処理を識別する処理識別情報とを対応付けて記憶するパターン記憶部と、前記処理対象データを表す画像を前記ディスプレイスキャナタッチパネルの画像表示面に表示するとともに、該画像を表示した領域を表す情報と該画像が表す処理対象データもしくは該処理対象データを識別するデータ識別情報とを対応付けて前記座標記憶部に記憶させる画像生成部とを具備し、前記処理決定部は、前記検出した位置の近傍のスキャン画像データを識別するパターン識別情報と対応付けて前記パターン記憶部に記憶している個人識別情報を読み出して個人認証を行なうとともに、前記パターン識別情報と前記個人識別情報とに対応付けて前記パターン記憶部に記憶している処理識別情報を読み出し、この読み出した処理識別情報が識別する処理を実行する処理とし、前記検出した位置を含む領域を表す情報と対応付けて前記座標記憶部に記憶している処理対象データもしくはデータ識別情報が表す処理対象データを前記実行する処理の処理対象データとすることを特徴とする。 Further, the user interface device of the present invention is any one of the above-described user interface devices, and corresponds to data identification information or processing target data for identifying processing target data and information representing an area on the image display surface. A coordinate storage unit for storing information, pattern identification information for identifying scanned image data, personal identification information for identifying an individual, and processing identification information for identifying a process in association with each other, and the process The image representing the target data is displayed on the image display surface of the display scanner touch panel, and the information representing the area where the image is displayed corresponds to the processing target data represented by the image or the data identification information for identifying the processing target data And an image generation unit to be stored in the coordinate storage unit, and the processing determination unit detects the detection The personal identification information stored in the pattern storage unit in association with the pattern identification information for identifying the scan image data in the vicinity of the position is read and personal authentication is performed, and the pattern identification information and the personal identification information are supported. In addition, the process identification information stored in the pattern storage unit is read out, the process identified by the read process identification information is executed, and the coordinate storage is associated with the information representing the area including the detected position. The processing target data stored in the section or the processing target data represented by the data identification information is used as the processing target data for the process to be executed.
また、本発明のユーザインターフェース装置は、上述のいずれかのユーザインターフェース装置であって、前記スキャン画像データから、指紋の特徴情報を抽出する指紋特徴情報抽出部を具備し、前記処理決定部は、前記スキャン画像データから前記指紋特徴情報抽出部が抽出した特徴情報に基づき決定することを特徴とする。 A user interface device according to the present invention is any one of the above-described user interface devices, and includes a fingerprint feature information extraction unit that extracts fingerprint feature information from the scanned image data, and the processing determination unit includes: It is determined based on the feature information extracted by the fingerprint feature information extraction unit from the scanned image data.
また、本発明のユーザインターフェース装置は、画像表示面に画像を表示するとともに、該画像表示面に外部から入射する光を検出してスキャン画像データを生成し、さらに前記画像表示面で外部から指示された位置を検出するディスプレイスキャナタッチパネルが生成したスキャン画像データのうち、前記検出した位置の近傍のスキャン画像データと前記検出した位置とに基づき、実行する処理と該処理の処理対象データとを決定し、この決定した処理にこの決定した処理対象データの処理を指示する処理決定部
を具備することを特徴とする
The user interface device of the present invention displays an image on the image display surface, detects light incident on the image display surface from the outside, generates scan image data, and further instructs the image display surface from the outside. In the scan image data generated by the display scanner touch panel that detects the detected position, the process to be executed and the processing target data of the process are determined based on the scan image data in the vicinity of the detected position and the detected position. And a process determining unit for instructing the determined process to process the determined data to be processed.
また、本発明のユーザインターフェース方法は、画像表示面に画像を表示するとともに、該画像表示面に外部から入射する光を検出してスキャン画像データを生成し、さらに前記画像表示面で外部から指示された位置を検出するディスプレイスキャナタッチパネルを具備するユーザインターフェース装置におけるユーザインターフェース方法にであって、前記ディスプレイスキャナタッチパネルが、画像表示面に外部から入射する光を検出してスキャン画像データを生成するとともに、前記画像表示面で外部から指示された位置を検出する第1の過程と、前記ユーザインターフェース装置が、前記第1の過程にて生成したスキャン画像データのうち、前記第1の過程にて検出した位置の近傍のスキャン画像データと前記検出した位置とに基づき、実行する処理と該処理の処理対象データとを決定する第2の過程と、前記ユーザインターフェース装置が、前記第2の過程にて決定した処理に、前記第2の過程にて決定した処理対象データの処理を指示する第3の過程とを備えることを特徴とする。 Further, the user interface method of the present invention displays an image on an image display surface, detects light incident on the image display surface from the outside, generates scan image data, and further instructs the image display surface from the outside. A user interface method in a user interface device including a display scanner touch panel for detecting a position that has been detected, wherein the display scanner touch panel detects light incident from the outside on an image display surface and generates scan image data A first step of detecting a position designated from the outside on the image display surface, and the user interface device detects in the first step of the scan image data generated in the first step. Based on scanned image data in the vicinity of the detected position and the detected position. A second process for determining a process to be executed and processing target data for the process, and a process target determined in the second process by the user interface device in the process determined in the second process And a third process for instructing data processing.
また、本発明のプログラムは、画像表示面に画像を表示するとともに、該画像表示面に外部から入射する光を検出してスキャン画像データを生成し、さらに前記画像表示面で外部から指示された位置を検出するディスプレイスキャナタッチパネルを具備するユーザインターフェース装置のコンピュータを、前記ディスプレイスキャナタッチパネルが生成したスキャン画像データのうち、前記検出した位置の近傍のスキャン画像データと前記検出した位置とに基づき、実行する処理と該処理の処理対象データとを決定し、この決定した処理にこの決定した処理対象データの処理を指示する処理決定部として機能させる。 The program of the present invention displays an image on the image display surface, detects light incident on the image display surface from outside, generates scan image data, and is further instructed from the outside on the image display surface. A computer of a user interface device including a display scanner touch panel for detecting a position is executed based on scan image data in the vicinity of the detected position and the detected position among scan image data generated by the display scanner touch panel. The processing to be performed and the processing target data of the processing are determined, and the determined processing is caused to function as a processing determination unit that instructs the processing of the determined processing target data.
この発明によれば、ディスプレイスキャナタッチパネルが生成したスキャン画像データおよび検出した指示された位置に基づき、実行する処理と該処理の処理対象を決定するので、簡便な操作で、様々な処理対象および処理内容を指定することができる。 According to the present invention, since the process to be executed and the processing target of the process are determined based on the scanned image data generated by the display scanner touch panel and the detected designated position, various processing targets and processes can be performed with a simple operation. You can specify the content.
[第1の実施形態]
以下、図面を参照して、本発明の実施の形態について説明する。図1は、この発明の第1の実施形態による文書管理装置100のハード構成を示す概略ブロック図である。本実施形態における文書管理装置100は、記憶している文書のリストを表示し、リスト中の文書に対して、利用者が承認、否決、削除のいずれかを指定するスタンプを押すことで、スタンプを押された文書に、承認を登録、否決を登録、あるいは該文書を削除のいずれかの処理を行う装置であり、制御部101と、メモリ102と、入出力部103と、液晶スキャナタッチパネル部110と、これらの各部を接続するバス104とを具備する。制御部101は、文書管理装置100全体を制御する。メモリ102は、読み書き可能なメモリであるRAM(Random Access Memory)と、読み出しのみ可能なメモリであるROM(Read Only Memory)と、ハードディスクなどの読み書き可能で不揮発性なメモリとを具備する。また、このROMは、制御部101を動作させるためのプログラムを格納する。入出力部103は、文書管理装置100にて管理する文書データを入出力する。
[First Embodiment]
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a schematic block diagram showing a hardware configuration of a
図2は、本実施形態による文書管理装置100の機能構成を示す概略ブロック図である。文書管理装置100は、ユーザインターフェース部110、文書表示処理部120、承認処理部130、否決処理部140、削除処理部150、文書記憶部160を具備する。また、ユーザインターフェース部110は、後述するように、液晶スキャナタッチパネル部111と2次元バーコード復号部112と画像生成部114と処理決定部113と座標記憶部115とパターン記憶部116とを具備する。
FIG. 2 is a schematic block diagram showing a functional configuration of the
ユーザインターフェース部(ユーザインターフェース装置)110は、液晶スキャナタッチパネル部111の液晶ディスプレイに文書リスト画面および文書画面を表示し、この文書リスト画面を後述するスタンプで押されたときに、押された位置と押されたスタンプの印面を読み取ったスキャン画像データとに基づき、文書表示処理部120、承認処理部130、否決処理部140、削除処理部150の何れの処理部で、どの文書を処理するかを決定する。文書表示処理部120は、指定された文書データを文書画面に表示する。承認処理部130は、指定された文書データに対応付けて、文書記憶部160に「承認」を登録する。否決処理部140は、指定された文書データに対応付けて、文書記憶部160に「否決」を登録する。削除処理部150は、指定された文書データを文書記憶部160から削除する。文書記憶部160は、文書データを識別する文書識別情報と文書データの承認状態と文書データとを対応付けて記憶する。
The user interface unit (user interface device) 110 displays a document list screen and a document screen on the liquid crystal display of the liquid crystal scanner
ユーザインターフェース部110は、前述のように、液晶スキャナタッチパネル部111と画像生成部114と処理決定部113と座標記憶部115とパターン記憶部116とを具備する。液晶スキャナタッチパネル部(ディスプレイスキャナタッチパネル)111は、図3にその構造例を模式的に示すような、低温CGシリコン結晶などによる光センサ素子LS1をその表面に格子状に備えたガラス板P1と、ガラス板P2と、これらガラス板P1とガラス板P2とで挟まれた液晶L1とからなる液晶ディスプレイを有している。この液晶スキャナタッチパネル部111の液晶ディスプレイは、バックライトから照射された光の透過率を、液晶L1にて制御することで、画像生成部114が生成した画像を表示するとともに、その表示面近傍に置かれた物体あるいは表示面に接している物体(図3では指)が液晶ディスプレイのバックライトから照射された光を反射した光など、該液晶ディスプレイに外部から入射する光を光センサ素子LS1にて検出することで液晶ディスプレイの画像表示する領域をスキャンしてスキャン画像データを生成する。さらに液晶スキャナタッチパネル部111は、その液晶ディスプレイで外部から指示された位置を検出する。液晶スキャナタッチパネル部111は、図4のガラス板P1の表面にさらにタッチパッドを貼り、該タッチパッドで接触された位置を検出することで指示された位置の検出を行なっても良いし、スキャンしたスキャン画像データから細長い形状の移動を検出し、該形状の移動が一定時間停止したときの該形状の先端部の位置を指示された位置として検出するようにしてもよい。
As described above, the
2次元バーコード復号部は、2次元バーコードの画像を2次元バーコードの復号処理を行い、復号処理結果の文字列を生成する。画像生成部114は、文書記憶部160から未承認の文書データを選択し、選択した文書データ各々を表すアイコンを並べた文書リスト画面と、文書リスト画面にて選択された文書を表示する文書表示画面を生成して、液晶スキャナタッチパネル部111の液晶ディスプレイに表示する。このとき画像生成部114は、画面の左上端を原点としたときの各アイコンの左上および右下の座標と、該アイコンが表す文書データの文書識別情報とを対応付けて、座標記憶部115に記憶する。また、画像生成部114は、承認処理、否決処理、削除処理を行った後、その処理結果をユーザに通知する画面を生成して、液晶スキャナタッチパネル部111の液晶ディスプレイに表示する。
The two-dimensional barcode decoding unit performs a two-dimensional barcode decoding process on the two-dimensional barcode image, and generates a character string as a decoding process result. The
処理決定部113は、液晶スキャナタッチパネル部111が検出した位置の位置情報と、該位置の近傍のスキャン画像データ、例えば、該位置を中心とした縦横50ピクセルの正方形の領域のスキャン画像データとを液晶スキャナタッチパネル部111から読み取り、この読み取ったスキャン画像データを2次元バーコード復号部112が復号した復号処理結果に基づき、パターン記憶部116を参照して承認処理、否決処理、削除処理および文書表示処理の中から実行する処理を決定し、液晶スキャナタッチパネル部111から読み取った位置情報に基づき、座標記憶部115を参照して決定した実行する処理の処理対象データとなる文書データを決定する。
座標記憶部115は、文書識別情報と、文書リスト画面にて該文書のアイコンが表示されている領域を表す座標情報とを対応付けて記憶する。
パターン記憶部116は、スキャン画像データを識別するパターン識別情報と、そのスキャン画像データに対応する処理の処理識別情報とを対応付けて記憶している。
The
The coordinate
The
本実施形態において、図2に示した2次元バーコード復号部112、処理決定部113、画像生成部114、文書表示処理部120、承認処理部130、否決処理部140、削除処理部150は、メモリ102に格納されているプログラムを、制御部101が読み取って実行することにより、各部の処理を行う。また、座標記憶部115、パターン記憶部116、文書記憶部160は、メモリ102が具備し、これら各部が記憶する情報は、メモリ102のRAMまたは不揮発性なメモリに記憶される。
In the present embodiment, the two-dimensional
図4は、文書管理装置100が液晶スキャナタッチパネル部111の液晶ディスプレイに表示する文書リスト画面G1および文書表示画面D1の例を示す図である。図4に示す文書リスト画面G1および文書表示画面D1のように、本実施形態における文書リスト画面には、各々が未承認の文書データを表すアイコンが、アイコンIC1、IC2のように列挙されており、本実施形態における文書表示画面には、文書リスト画面にて選択されたアイコンに対応する文書の内容が表示されている。文書の承認権を持つユーザが、承認する文書データのアイコンには承認スタンプS1を押し、否決する文書データのアイコンには否決スタンプS2を押し、削除する文書データのアイコンには削除スタンプS3を押すと、文書管理装置100は、スタンプを押された文書データに、押されたスタンプの印面に応じた処理を施す。その他のもの、例えば指などでアイコンを押すと、文書管理装置100は、該アイコンに対応した文書の内容を文書画面に表示する。ここで、承認スタンプS1、否決スタンプS2、削除スタンプS3の印面には、それぞれ異なる文字列を符号化した2次元バーコードが描かれている。文書管理装置100は、これらの2次元バーコードを読み取り、復号して文字列を得ることで、押されたスタンプがいずれのスタンプであるのかを判定することができる。
FIG. 4 is a diagram illustrating an example of the document list screen G1 and the document display screen D1 that the
図5は、パターン記憶部116の記憶内容例を示す図である。パターン記憶部116には、図5に例示するようにパターン識別情報「承認スタンプS1の印面の復号情報」と処理識別情報「承認」、パターン識別情報「否決スタンプS2の印面の復号情報」と処理識別情報「否決」、パターン識別情報「削除スタンプS3の印面の復号情報」と処理識別情報「削除」というように、パターン識別情報と処理識別情報とが対応付けて記憶されている。ここで、各パターン識別情報として挙げた「承認スタンプS1の印面の復号情報」、「否決スタンプS2の印面の復号情報」、「削除スタンプS3の印面の復号情報」は、それぞれのスタンプの印面に描かれた2次元バーコードを復号して得られる文字列を表している。
FIG. 5 is a diagram illustrating an example of the contents stored in the
図6は、座標記憶部115の記憶内容例を示す図である。座標記憶部115には、図6に例示する座標情報「20、30、120、130」と文書識別情報「070423RREQ」、座標情報「20、180、120、280」と文書識別情報「070420SREQ」というように、座標情報と文書識別情報とが対応付けて記憶されている。ここで、座標情報は、対応付けられた文書識別情報のアイコンが表示されている矩形領域の左上の座標と右下の座標とを表した数字であり、座標情報「20、30、120、130」であれば、画面の左上を原点とするX座標「20」、Y座標「30」の点と、X座標「120」、Y座標「130」の点とを結ぶ線分を対角線とする矩形の領域を表している。この座標情報が表す領域は、アイコンが表示されている領域であるとともに、スタンプが押された位置が、該領域内であれば、該座標情報に対応付けられた文書識別情報の文書データが処理対象データとなる領域でもある。
FIG. 6 is a diagram illustrating an example of stored contents of the coordinate
図7は、文書記憶部160の記憶内容例を示す図である。文書記憶部160には、図7に例示する文書識別情報「070423RREQ」と承認状態「未承認」と文書データ「070423RREQ.TXT」、文書識別情報「070420SREQ」と承認状態「承認済」と文書データ「070420SREQ.TXT」というように、文書識別情報と承認状態と文書データとが対応付けて記憶されている。ここで、承認状態には、承認も否決も未だされていない「未承認」と承認された「承認済」と否決された「否決」の3種類がある。また、文書データ「070423RREQ.TXT」などの文書データとして記憶している文字列は、文書データを格納したファイル名であり、実際の文書データを格納した該ファイル名のファイルも文書記憶部160は記憶している。
FIG. 7 is a diagram illustrating an example of stored contents of the
図8は、文書管理装置100の動作を説明するフローチャートである。まず、文書管理装置100の画像生成部114が、文書記憶部160から承認状態が「未承認」の文書データを選択し、選択した文書データ各々を表すアイコンを並べた文書リスト画面を生成して、液晶スキャナタッチパネル部111の液晶ディスプレイに表示する(Sa1)。このとき画像生成部114は、各アイコンの左上および右下の座標と、該アイコンが表す文書データの文書識別情報とを対応付けて、座標記憶部115に記憶する。ここで、この文書リスト画面に表示されたアイコンのうちの1つに、ユーザが承認スタンプS1を押したとする。処理決定部113は、この承認スタンプS1が押された座標を表す位置情報(例えば、「82、93」のような画面上の座標)と、承認スタンプS1が押された際に読み取った印面のスキャン画像データとを液晶スキャナタッチパネル部111から読み取る(Sa2)。処理決定部113は、ステップSa2にて読み取ったスキャン画像データに対して、2次元バーコード復号部112に出力し、2次元バーコード復号部112は、受けたスキャン画像データに2次元バーコードの復号処理を施し(Sa3)、その復号処理結果の文字列を処理決定部113に出力する。次に、処理決定部113は、この文字列をキーにして、パターン記憶部116のパターン識別情報を検索する(Sa4)。
FIG. 8 is a flowchart for explaining the operation of the
次に、処理決定部113は、ステップSa4の検索の結果、一致するパターン識別情報が有る否かを判定する(Sa5)。ステップSa5の判定で一致するパターン識別情報が無いと判定したときは、ステップSa6に遷移して、ステップSa2で読み取った位置情報が表す座標を含む領域を表す座標情報について、座標記憶部115を検索する。次に、文書表示処理部120は、ステップSa6にて検索した座標情報に対応付けて座標記憶部115が記憶している文書識別情報を読み出し、さらに該文書識別情報に対応付けて文書記憶部が記憶している文書データを読み出す。画像生成部114は、この読み出した文書データの内容を、表示する文書表示画面を生成して、液晶スキャナタッチパネル部111の液晶ディスプレイに表示し、処理を終了する。
Next, the
ここでは、前述のように承認スタンプS1が押されているとすると、ステップSa5の判定で、一致するパターン識別情報が有ると判定するので、ステップSa8に遷移して、処理決定部113は、ステップSa2で読み取った位置情報が表す座標を含む領域を表す座標情報について、座標記憶部115を検索する。
ここで、座標情報が表す領域に、位置情報の座標が含まれているか否かは、次のように判定する。すなわち、座標情報が領域の左上のXY座標値と右下のXY座標値を並べた「X1、Y1、X2、Y2」であり、位置情報の座標が「x、y」であるときは、次の2つの不等式X1≦x≦X2、Y1≦y≦Y2を満たすときは、座標情報が表す領域に、位置情報の座標が含まれており、いずれか1つでも満たさないときは、座標情報が表す領域に、位置情報の座標が含まれていないと判定する。
Here, if the approval stamp S1 is pressed as described above, it is determined in step Sa5 that there is matching pattern identification information, so the
Here, whether or not the coordinates of the position information are included in the area represented by the coordinate information is determined as follows. That is, the coordinate information is “X1, Y1, X2, Y2” in which the upper left XY coordinate value and the lower right XY coordinate value are arranged, and the position information coordinates are “x, y”. When the two inequalities X1 ≦ x ≦ X2 and Y1 ≦ y ≦ Y2 are satisfied, the region represented by the coordinate information includes the coordinates of the position information. If any one of the inequalities is not satisfied, the coordinate information is It is determined that the position information does not include the coordinates of the position information.
次に、処理決定部113は、ステップSa4で検索したパターン識別情報と対応付けてパターン記憶部116が記憶している処理識別情報を読み出し、この読み出した処理識別情報が「承認」であるか否かを判定する(Sa9)。このステップSa9の判定にて「承認」であると判定したときは、処理決定部113は、ステップSa8で検索した座標情報と対応付けて座標記憶部115が記憶している文書識別情報を読出し、該文書識別情報を「承認」が表す処理を行う承認処理部130に出力することで、この文書識別情報の文書データの処理を承認処理部130に指示する。承認処理部130は、受けた文書識別情報をキーにして、文書記憶部160を検索し、該当する文書データの承認状態に「承認」を登録する(Sa10)。画像生成部114が承認した旨をユーザに通知する承認画面を生成して、液晶スキャナタッチパネル部111の液晶ディスプレイに表示し(Sa11)、処理を終了する。
Next, the
一方、ステップSa9の判定にて上述の処理識別情報は「承認」でないと判定したときは、ステップSa12に遷移して、処理決定部113は、上述の処理識別情報が「否決」であるか否かを判定する(Sa12)。このステップSa12の判定にて「否決」であると判定したときは、処理決定部113は、ステップSa8で検索した座標情報と対応付けて座標記憶部115が記憶している文書識別情報を読出し、該文書識別情報を「否決」が表す処理を行う否決処理部140に出力することで、この文書識別情報の文書データの処理を否決処理部140に指示する。否決処理部140は、受けた文書識別情報をキーにして、文書記憶部160を検索し、該当する文書データの承認状態に「否決」を登録する(Sa13)。画像生成部114が否決した旨をユーザに通知する否決画面を生成して、液晶スキャナタッチパネル部111の液晶ディスプレイに表示し(Sa14)、処理を終了する。
On the other hand, when it is determined in step Sa9 that the process identification information is not “approved”, the process transitions to step Sa12, and the
また、ステップSa12の判定にて上述の処理識別情報は「否決」でないと判定したときは、ステップSa15に遷移して、処理決定部113は、ステップSa8で検索した座標情報と対応付けて座標記憶部115が記憶している文書識別情報を読出し、該文書識別情報を「削除」が表す処理を行う削除処理部150に出力することで、この文書識別情報の文書データの処理を削除処理部150に指示する。削除処理部150は、受けた文書識別情報をキーにして、文書記憶部160を検索し、該当する文書データおよび該文書データに対応付けられた項目を文書記憶部160から削除する(Sa15)。画像生成部114が削除した旨をユーザに通知する削除画面を生成して、液晶スキャナタッチパネル部111の液晶ディスプレイに表示し(Sa16)、処理を終了する。
If it is determined in step Sa12 that the above-described process identification information is not “decision”, the process proceeds to step Sa15, and the
なお、ステップSa15の前に、「削除」であるか否かを判定するステップを挿入し、「削除」であると判定したときは、ステップSa15に遷移し、それ以外、すなわち「承認」でも「否決」でも「削除」でもないときはステップSa6に遷移するようにしてもよい。
また、本実施形態において、処理内容は承認、否決、削除、文書表示の4種類のみであるが、スタンプの種類を増やし、各スタンプの印面の復号情報をパターン識別情報として、その他の処理識別情報と対応付けてパターン記憶部116に記憶させておき、さらに多くの種類の処理内容を指示可能なようにしてもよい。
In addition, before step Sa15, a step for determining whether or not “delete” is inserted, and when it is determined that “delete”, the process proceeds to step Sa15. If it is neither “denied” nor “deleted”, the process may proceed to step Sa6.
In this embodiment, there are only four types of processing contents: approval, rejection, deletion, and document display. However, the number of stamps is increased, and other processing identification information is obtained by using the decoding information of the stamp face of each stamp as pattern identification information. And may be stored in the
このように、液晶スキャナタッチパネル部111がスタンプを押された位置とスタンプの印面のスキャン画像データとを取得し、処理決定部113が印面のスキャン画像データに基づき実行する処理を、該処理の処理対象のデータを押された位置に基づき決定する。このため、ユーザインターフェース部110は、ユーザが液晶スキャナタッチパネル部111の液晶ディスプレイにスタンプで1回だけタッチするという簡便な操作で、様々な処理対象と処理内容とを決定する容易なユーザインターフェースを提供することができる。
In this way, the process in which the liquid crystal scanner
[第2の実施形態]
図9は、この発明の第2の実施形態による文書管理装置200の機能構成を示す概略ブロック図である。同図において図2の各部に対応する部分には同一の符号(111、114、115、120、150)を付け、その説明を省略する。本実施形態における文書管理装置200は、記憶している文書のリストを表示し、リスト中の文書に対して、利用者が承認、否決、削除のいずれかを指定する指で触れることで、触れられた指の指紋を読み取って個人認証するととともに、指が触れた文書に、承認を登録、否決を登録、該文書を削除、あるいは文書を表示のいずれかの処理を行う装置であり、ユーザインターフェース部210、文書表示処理部120、承認処理部230、否決処理部240、削除処理部150、文書記憶部260を具備する。ユーザインターフェース部210は、後述するように、液晶スキャナタッチパネル部111と指紋特徴情報抽出部212と画像生成部114と処理決定部213と座標記憶部115とパターン記憶部216とを具備する。
[Second Embodiment]
FIG. 9 is a schematic block diagram showing a functional configuration of the
ユーザインターフェース部(ユーザインターフェース装置)210は、液晶スキャナタッチパネル部111の液晶ディスプレイに文書リスト画面を表示し、この文書リスト画面を指で触れられたときに、指が触れた位置と触れた指の指紋を読み取ったスキャン画像データとに基づき、文書表示処理部120、承認処理部230、否決処理部240、削除処理部150の何れの処理部で、どの文書を処理するかを決定するとともに、スキャン画像データ、すなわち指紋に基づき個人認証を行なう。承認処理部230は、指定された文書データに対応付けて、文書記憶部260に「承認」と承認したユーザの個人識別情報とを登録する。否決処理部240は、指定された文書データに対応付けて、文書記憶部260に「否決」と否決したユーザの個人識別情報とを登録する。文書記憶部260は、文書データを識別する文書識別情報と文書データの承認状態と状態設定者の個人識別情報と文書データとを対応付けて記憶する。
The user interface unit (user interface device) 210 displays a document list screen on the liquid crystal display of the liquid crystal scanner
ユーザインターフェース部(ユーザインターフェース装置)210は、前述のように、液晶スキャナタッチパネル部111と指紋特徴情報抽出部212と画像生成部114と処理決定部213と座標記憶部115とパターン記憶部216とを具備する。指紋特徴情報抽出部212は、指紋のスキャン画像データから指紋の特徴情報(例えば、指紋を構成する線(隆線)の分岐/接合点、開始/終止点の位置など)を抽出する。処理決定部213は、液晶スキャナタッチパネル部111が検出した位置の位置情報と、該位置の近傍のスキャン画像データとを液晶スキャナタッチパネル部111から読み取り、この読み取ったスキャン画像データから指紋特徴情報抽出部212が抽出した特徴情報に基づき、パターン記憶部216を参照して個人認証するとともに、承認処理、否決処理、削除処理および文書表示の中から実行する処理を決定し、液晶スキャナタッチパネル部111から読み取った位置情報に基づき、座標記憶部115を参照して決定した実行する処理の処理対象データとなる文書データを決定する。
パターン記憶部216は、スキャン画像データすなわち指紋を識別するための指紋の特徴情報からなるパターン識別情報と、その指紋を持つ人の個人識別情報と、そのスキャン画像データ(指紋が表す指)に対応する処理の処理識別情報とを対応付けて記憶している。
As described above, the user interface unit (user interface device) 210 includes the liquid crystal scanner
The
なお、文書管理装置200は、図1に示した文書管理装置100と同様のハード構成であり、図9に示した、指紋特徴情報抽出部212、処理決定部213、画像生成部114、文書表示処理部120、承認処理部230、否決処理部240、削除処理部150は、メモリ102に格納されているプログラムを、制御部101が読み取って実行することにより、各部の処理を行う。また、座標記憶部115、パターン記憶部216、文書記憶部260は、メモリ102が具備し、これら各部が記憶する情報は、メモリ102のRAMまたは不揮発性なメモリに記憶される。
The
図10は、文書管理装置200が液晶スキャナタッチパネル部111の液晶ディスプレイに表示する文書リスト画面と文書表示画面の例を示す図である。図10に示す文書リスト画面G2と文書表示画面D2のように、本実施形態における文書リスト画面には、各々が未承認の文書データを表すアイコンが、アイコンIC3、IC4のように列挙されており、文書表示画面には、選択されたアイコンの文書データの内容が表示されている。ユーザが、承認する文書データのアイコンには予め登録した指、例えば右手の人差し指を押し、否決する文書データのアイコンには予め登録した指、例えば左手の人差し指を押し、削除する文書データのアイコンには予め登録した指、例えば左手の親指を押すと、文書管理装置200は、指の指紋を読み取って、予め登録されている指紋の特徴情報に基づき個人認証するとともに、指を押された文書データに、押された指に応じた処理を施す。その他のもの、例えばペンなどでアイコンを押すと、文書管理装置200は、該アイコンに対応した文書の内容を文書画面に表示する。ここで、パターン記憶部216には、承認、否決、削除の各処理を指示する権限を持つ人物の指の指紋の特徴情報をパターン情報にし、このパターン情報とこのパターン情報の人物の個人識別情報とこのパターン情報の指で指示する処理の処理識別情報とを対応付けて予め記憶する。
FIG. 10 is a diagram illustrating an example of a document list screen and a document display screen displayed on the liquid crystal display of the liquid crystal scanner
図11は、パターン記憶部216の記憶内容例を示す図である。パターン記憶部216には、図11に例示するようにパターン識別情報「指紋の特徴情報(A.TAKATAの右手人差し指)」と個人識別情報「A.TAKATA」と処理識別情報「承認」、パターン識別情報「指紋の特徴情報(K.SUZUKIの右手人差し指)」と個人識別情報「K.SUZUKI」と処理識別情報「承認」、パターン識別情報「指紋の特徴情報(A.TAKATAの左手人差し指)」と個人識別情報「A.TAKATA」と処理識別情報「否決」というように、パターン識別情報と個人識別情報と処理識別情報とが対応付けて予め記憶されている。ここで、各パターン識別情報として挙げた「指紋の特徴情報(A.TAKATAの右手人差し指)」、「指紋の特徴情報(K.SUZUKIの右手人差し指)」、「指紋の特徴情報(A.TAKATAの左手人差し指)」は、それぞれの指紋の特徴点を抽出して得られる情報を表している。
FIG. 11 is a diagram illustrating an example of stored contents of the
図12は、文書記憶部260の記憶内容例を示す図である。文書記憶部260には、図12に例示する文書識別情報「070423RREQ」と承認状態「未承認」と状態設定者「−」と文書データ「070423RREQ.TXT」、文書識別情報「070420SREQ」と承認状態「承認済」と状態設定者「K.SUZUKI」と文書データ「070420SREQ.TXT」というように、文書識別情報と承認状態と状態設定者と文書データとが対応付けて記憶されている。ここで、承認状態には、承認も否決も未だされていない「未承認」と承認された「承認済」と否決された「否決」の3種類がある。また、文書データとして記憶している文字列は、文書データを格納したファイル名であり、実際の文書データを格納した該ファイル名のファイルを文書記憶部260は記憶している。
FIG. 12 is a diagram illustrating an example of the contents stored in the
図13は、文書管理装置100の動作を説明するフローチャートである。まず、文書管理装置100の画像生成部114が、文書記憶部260から承認状態が「未承認」の文書データを選択し、選択した文書データ各々を表すアイコンを並べた文書リスト画面を生成して、液晶スキャナタッチパネル部111の液晶ディスプレイに表示する(Sb1)。このとき画像生成部114は、各アイコンの左上および右下の座標と、該アイコンが表す文書データの文書識別情報とを対応付けて、座標記憶部115に記憶する。ここで、この文書リスト画面に表示されたアイコンのうちの1つに、個人識別情報「A.TAKATA」のユーザが右手人差し指を押したとする。処理決定部213は、この右手人差し指が押された座標を表す位置情報(例えば、「82、93」のような画面上の座標)と、右手人差し指が押された際に読み取った指紋のスキャン画像データとを液晶スキャナタッチパネル部111から読み取る(Sb2)。指紋特徴情報抽出部212は、ステップSb2にて処理決定部213が読み取った指紋のスキャン画像データに対して、特徴情報の抽出処理を行い、その抽出処理結果の特徴情報を得る(Sb3)。次に、処理決定部213は、パターン記憶部216を検索して、この特徴情報と一致するパターン識別情報を探し出す(Sb4)。
FIG. 13 is a flowchart for explaining the operation of the
次に、処理決定部213は、ステップSb4の検索の結果、一致するパターン識別情報が有る否かを判定する(Sb5)。ステップSb5の判定で一致するパターン識別情報が無いと判定したときは、ステップSb6に遷移して、ステップSa2で読み取った位置情報が表す座標を含む領域を表す座標情報について、座標記憶部115を検索する。次に、文書表示処理部120は、ステップSb6にて検索した座標情報に対応付けて座標記憶部115が記憶している文書識別情報を読み出し、さらに該文書識別情報に対応付けて文書記憶部260が記憶している文書データを読み出す。画像生成部114は、この読み出した文書データの内容を、表示する文書表示画面を生成して、液晶スキャナタッチパネル部111の液晶ディスプレイに表示し、処理を終了する。
Next, the
ここでは、前述のように個人識別情報「A.TAKATA」のユーザが右手人差し指を押しているので、ステップSb5の判定で、一致するパターン識別情報が有ると判定し、ステップSb8に遷移して、処理決定部213は、ステップSb4の検索にて特徴情報と一致したパターン識別情報と対応付けてパターン記憶部216が記憶している個人識別情報「A.TAKATA」を読み出す。次に、処理決定部213は、ステップSb2で読み取った位置情報が表す座標を含む領域を表す座標情報について、座標記憶部115を検索する。
Here, as described above, since the user of the personal identification information “A. TAKATA” is pressing the right hand index finger, it is determined in step Sb5 that there is matching pattern identification information, the process proceeds to step Sb8, and the process proceeds to step Sb8. The
次に、処理決定部213は、ステップSb4で検索したパターン識別情報と対応付けてパターン記憶部216が記憶している処理識別情報を読み出し、この読み出した処理識別情報が「承認」であるか否かを判定する(Sb10)。このステップSab8の判定にて「承認」であると判定したときは、処理決定部213は、ステップSb9で検索した座標情報と対応付けて座標記憶部115が記憶している文書識別情報を読出し、該文書識別情報とステップSb8にて読み出した個人識別情報「A.TAKATA」とを「承認」が表す処理を行う承認処理部230に出力することで、この文書識別情報の文書データの処理を承認処理部230に指示する。承認処理部230は、受けた文書識別情報をキーにして、文書記憶部260を検索し、該当する文書データの承認状態に「承認」を、状態設定者に処理決定部213からうけた個人識別情報「A.TAKATA」を登録する(Sb11)。画像生成部114が承認した旨をユーザに通知する承認画面を生成して、液晶スキャナタッチパネル部111の液晶ディスプレイに表示し(Sb12)、処理を終了する。
Next, the
一方、ステップSb10の判定にて上述の処理識別情報は「承認」でないと判定したときは、ステップSb13に遷移して、処理決定部213は、上述の処理識別情報が「否決」であるか否かを判定する(Sb13)。このステップSb13の判定にて「否決」であると判定したときは、処理決定部213は、ステップSb9にて検索した結果の座標情報と対応付けて座標記憶部115が記憶している文書識別情報を読出し、該文書識別情報とステップSb8にて読み出した個人識別情報「A.TAKATA」とを「否決」が表す処理を行う否決処理部240に出力することで、この文書識別情報の文書データの処理を否決処理部240に指示する。否決処理部240は、受けた文書識別情報をキーにして、文書記憶部260を検索し、該当する文書データの承認状態に「否決」を、状態設定者に処理決定部213からうけた個人識別情報を登録する(Sb14)。画像生成部114が否決した旨をユーザに通知する否決画面を生成して、液晶スキャナタッチパネル部111の液晶ディスプレイに表示し(Sb15)、処理を終了する。
On the other hand, if it is determined in step Sb10 that the process identification information is not “approved”, the process transitions to step Sb13, and the
また、ステップSb13の判定にて上述の処理識別情報は「否決」でないと判定したときは、ステップSb16に遷移して、処理決定部213は、ステップSb9で検索した座標情報と対応付けて座標記憶部115が記憶している文書識別情報を読出し、該文書識別情報を「削除」が表す処理を行う削除処理部150に出力することで、この文書識別情報の文書データの処理を削除処理部150に指示する。削除処理部150は、受けた文書識別情報をキーにして、文書記憶部160を検索し、該当する文書データおよび該文書データに対応付けられた項目を文書記憶部160から削除する(Sb16)。画像生成部114が削除した旨をユーザに通知する削除画面を生成して、液晶スキャナタッチパネル部111の液晶ディスプレイに表示し(Sb17)、処理を終了する。
If it is determined in step Sb13 that the above-described process identification information is not “decision”, the process proceeds to step Sb16, and the
なお、ステップSb16の前に、「削除」であるか否かを判定するステップを挿入し、「削除」であると判定したときは、ステップSb16に遷移し、それ以外のときはステップSb6に遷移するようにしてもよい。
また、ステップSb5における処理決定部213による一致の判定において、パターン識別情報に含まれる全ての特徴情報が一致していなくても、例えば一定の割合以上の特徴情報が一致していれば、一致していると判定するようにしてもよい。
また、本実施形態において、処理内容は承認、否決、削除、文書表示の4種類のみであるが、その他の指の指紋の特徴情報をパターン識別情報として、その他の処理識別情報と対応付けてパターン記憶部216に記憶させておき、さらに多くの種類の処理内容を指示可能なようにしてもよい。
Before step Sb16, a step for determining whether or not it is “deleted” is inserted. When it is determined that it is “deleted”, the process proceeds to step Sb16. Otherwise, the process proceeds to step Sb6. You may make it do.
Also, in the match determination by the
Further, in this embodiment, there are only four types of processing contents of approval, rejection, deletion, and document display, but the pattern information is associated with other processing identification information using the fingerprint fingerprint characteristic information as pattern identification information. It may be stored in the
このように、液晶スキャナタッチパネル部111が指のタッチ位置を表す位置情報とタッチした指の指紋のスキャン画像データとを出力し、処理決定部213が指紋のスキャン画像データに基づき実行する処理を、該処理の処理対象のデータを押された位置に基づき決定する。このため、ユーザインターフェース部210は、ユーザが液晶スキャナタッチパネル部111の液晶ディスプレイに指で1回だけタッチするという簡便な操作で、様々な処理対象と処理内容とを決定し、さらには指紋のスキャン画像データに基づき個人を認証し、前述の処理内容を該認証結果に応じた内容することが可能な容易なユーザインターフェースを提供することができる。
As described above, the liquid crystal scanner
[第3の実施形態]
図14は、この発明の第3の実施形態によるインターネット販売システムの構成を示す概略システム構成図である。本実施形態におけるインターネット販売システムは、販売会社が設置するネット販売サーバ300と店頭などに設置される複数のネット販売端末装置400とこれらを接続するネットワーク500を具備する。ユーザ操作を受け付けたネット販売端末装置400が、ネット販売サーバ300に商品の購入を申し込むと、ネット販売サーバ300が商品の配送指示や決済処理などの販売処理を行う。
なお、このネット販売サーバ300、には、周辺機器として入力装置、表示装置等(いずれも図示せず)が接続されるものとする。ここで、入力装置とはキーボード、マウス等の入力デバイスのことをいう。表示装置とはCRT(Cathode Ray Tube)や液晶表示装置等のことをいう。
[Third Embodiment]
FIG. 14 is a schematic system configuration diagram showing the configuration of the Internet sales system according to the third embodiment of the present invention. The Internet sales system in this embodiment includes a
Note that the
図15は、本実施形態におけるネット販売サーバ300とネット販売端末装置400の構成を示す概略ブロック図である。ネット販売端末装置400は、液晶スキャナタッチパネル部(ディスプレイスキャナタッチパネル)410と通信部420とを具備する。液晶スキャナタッチパネル部410は、図2に示した液晶スキャナタッチパネル部111と同様にその液晶ディスプレイに画像生成部320が生成した画像のデータを通信部310および通信部420を介して受けて表示するとともに、該液晶ディスプレイに外部から入射する光を検出することで液晶ディスプレイの画像表示する領域をスキャンしてスキャン画像データを生成する。さらに液晶スキャナタッチパネル部410は、その液晶ディスプレイで外部から指示された位置を検出する。通信部420はネットワーク500を介してネット販売サーバ300と通信する。
FIG. 15 is a schematic block diagram showing the configuration of the
ネット販売サーバ300は、通信部310と画像生成部320と処理決定部330と座標記憶部340とパターン記憶部350と販売処理部360と指紋特徴情報抽出部370とを具備する。通信部310はネットワーク500を介してネット販売端末装置400と通信する。画像生成部320は、各々が商品を表すアイコンもしくは写真を座標記憶部340から読み出して並べた商品リスト画面の画像のデータを生成し、通信部310を介してネット販売端末装置400に送信し、液晶スキャナタッチパネル部111の液晶ディスプレイに表示させる。このとき画像生成部320は、画面の左上端を原点としたときの各アイコンもしくは写真の左上および右下の座標を、該アイコンもしくは写真が表す商品の商品識別情報に対応付けて、座標記憶部340に記憶する。また、画像生成部320は、販売処理を行った後、その処理結果をユーザに通知する画面の画像のデータを生成し、通信部310を介してネット販売端末装置400に送信し、液晶スキャナタッチパネル部111の液晶ディスプレイに表示させる。
The
処理決定部330は、ネット販売端末装置400の液晶スキャナタッチパネル部410が検出した位置の位置情報と、該位置の近傍のスキャン画像データ、例えば、該位置を中心とした縦横50ピクセルの正方形の領域のスキャン画像データとを通信部420および通信部310を介して液晶スキャナタッチパネル部410から受け取り、この受け取ったスキャン画像データ中の指紋から指紋特徴情報抽出部370が抽出した特徴情報に基づき、パターン記憶部350を参照して販売処理もしくは処理不可の中から実行する処理を決定し、液晶スキャナタッチパネル部410から受け取った位置情報に基づき、座標記憶部340を参照して決定した実行する処理の処理対象データとなる商品識別情報を決定する。
座標記憶部340は、商品識別情報と、該商品を表すアイコンもしくは写真のデータと、商品リスト画面にて該商品のアイコンが表示されている領域を表す座標情報とを対応付けて記憶する。
パターン記憶部350は、スキャン画像データすなわち指紋を識別するための指紋の特徴情報からなるパターン識別情報と、その指紋を持つ人の個人識別情報とを対応付けて記憶している。
指紋特徴情報抽出部370は、指紋のスキャン画像データから指紋の特徴情報(例えば、指紋を構成する線(隆線)の分岐/接合点、開始/終止点の位置など)を抽出する。
また、本実施形態では、ネット販売サーバ300の画像生成部320、処理決定部330、座標記憶部340、パターン記憶部350、指紋特徴情報抽出部370とで、ユーザインターフェース部(ユーザインターフェース装置)600を構成する。
The
The coordinate
The
The fingerprint feature
In this embodiment, the
図16は、ネット販売端末装置400が液晶スキャナタッチパネル部410の液晶ディスプレイに表示する商品リスト画面の例を示す図である。図16に示す商品リスト画面G3のように、本実施形態における商品リスト画面には、各々が商品を表すアイコンもしくは写真が、アイコンIC5、IC6のように列挙されている。ユーザが、購入する商品のアイコンもしくは写真を予め登録した指、例えば左手の人差し指で押すと、液晶スキャナタッチパネル部410は、押された指の指紋を読み取ってスキャン画像データを生成し、通信部420を介してネット販売サーバ300に送信する。ネット販売サーバ300では、このスキャン画像データを通信部310を介して受けた処理決定部330が、予め登録されている指紋の特徴情報に基づき個人認証するとともに、指を押されたアイコンの商品の購入処理を、販売処理部360に指示する。ここで、パターン記憶部350には、このインターネット販売サービスに加入しているユーザの指の指紋の特徴情報をパターン情報にし、このパターン情報とこのパターン情報の人物の個人識別情報とを対応付けて予め記憶させておく。
FIG. 16 is a diagram illustrating an example of a product list screen displayed on the liquid crystal display of the liquid crystal scanner
図17は、パターン記憶部350の記憶内容例を示す図である。パターン記憶部350には、図17に例示するようにパターン情報「指紋の特徴情報(K.TANAKAの右手人差し指)」と、個人識別情報「K.TANAKA]、パターン情報「指紋の特徴情報(T.HONDAの右手人差し指)」と、個人識別情報「T.HONDA」というように、パターン情報と個人識別情報とが対応付けて記憶されている。ここで、パターン情報「指紋の特徴情報(K.TANAKAの右手人差し指)」は、ユーザ「K.TANAKA」の右手人差し指の指紋の特徴情報である。また、個人識別情報「K.TANAKA」は、ユーザ「K.TANAKA」を識別する情報である。
FIG. 17 is a diagram illustrating an example of stored contents of the
図18は、座標記憶部340の記憶内容例を示す図である。座標記憶部340には、図18に例示するように画面上の矩形領域の左上と右下の座標を表す座標情報「20、30、120、130」と、画像データのファイル名である画像データ「A1.jpg」と、商品識別情報「A1」、座標情報「10、180、120、280」と、画像データ「A2.jpg」と、商品識別情報「A2」というように、座標情報と画像データと商品識別情報とが対応付けて記憶されている。ここで、座標情報は、図6と同様に、対応付けられた画像データが表示されている矩形領域の左上の座標と右下の座標を表した数字である。また、画像データは、商品の画像データを格納したファイルのファイル名である。また、座標記憶部340は、この画像データに格納されたファイル名のファイルを記憶している。また、商品識別情報は、商品を識別する情報である。
FIG. 18 is a diagram illustrating an example of stored contents of the coordinate
図19は、本実施形態におけるネット販売サーバ300とネット販売端末装置400の動作を説明するフローチャートである。まず、ネット販売サーバ300の画像生成部320が、座標記憶部340から画像データのファイル名のファイルを読み出し、読み出したファイルの内容による画像を並べた商品リスト画面を生成して、通信部310、420を介してネット販売端末装置400の液晶スキャナタッチパネル部410に表示させる(Sc1)。このとき、画像生成部320は、各画像を、座標記憶部340に対応付けて記憶している座標情報が表す矩形領域に表示させる。ここで、この商品リスト画面に表示された画像のうちの1つに、個人識別情報「T.HONDA」のユーザが右手人差し指を押したとする。液晶スキャナタッチパネル部410は、この指が押された座標を表す位置情報と、指が押された際に読み取った指紋のスキャン画像データとを通信部420を介して送信する。ネット販売サーバ300の通信部310が、この送信された位置情報とスキャン画像データとを受信し、受信した位置情報とスキャン画像データとを処理決定部330が読み取る(Sc2)。指紋特徴情報抽出部370は、ステップSc2にて読み取った指紋のスキャン画像データに対して、特徴情報の抽出処理を行い、その抽出処理結果の特徴情報を得る。次に、処理決定部330は、パターン記憶部350を検索して、この特徴情報と一致するパターン識別情報を探し出す(Sc4)。
FIG. 19 is a flowchart for explaining operations of the
次に、処理決定部330は、ステップSc4の検索の結果、この特徴情報と一致するパターン識別情報が有る否かを判定する(Sc5)。ステップSc5の判定で一致するパターン識別情報が無いと判定したときは、ステップSc6に遷移して、画像生成部320が個人認証に失敗したことをユーザに通知する個人認証失敗画面を生成して、該画面の表示データを通信部310を介して送信する。ネット販売端末装置400の液晶スキャナタッチパネル部410は、この送信された表示データを通信部420を介して受信し、受信した表示データを、その液晶ディスプレイに表示し(Sc6)、処理を終了する。
Next, as a result of the search in step Sc4, the
ここでは、前述のように個人識別情報「T.HONDA」のユーザが右手人差し指を押しているので、ステップSc5の判定で、一致するパターン識別情報が有ると判定し、ステップSc7に遷移して、処理決定部330は、そのパターン識別情報と対応付けてパターン記憶部350が記憶している個人識別情報「T.HONDA」を読み出す。次に、処理決定部330は、ステップSc2で読み取った位置情報が表す座標を含む領域を表す座標情報について、座標記憶部340を検索する(Sc8)。処理決定部330は、ステップSc8にて検索した結果の座標情報と対応付けて座標記憶部340が記憶している商品識別情報を読み出し、ステップSc8にて読み出した個人識別情報「T.HONDA」とともに、この商品識別情報が表す商品を個人識別情報「T.HONDA」が表すユーザへ販売する指示として販売処理部360に出力する。
Here, as described above, since the user of the personal identification information “T.HONDA” is pressing the right hand index finger, it is determined in step Sc5 that there is matching pattern identification information, and the process proceeds to step Sc7. The
販売処理部360は、この商品識別情報と個人識別情報とを受けると、これらの情報に基づき、該商品識別情報の商品を該個人識別情報のユーザへ販売するための決済処理や配送指示処理などを行う(Sc9)。販売処理部360が、ステップSc9の販売処理を終了すると、画像生成部320は、販売処理が終了したことをユーザに通知する販売済画面の表示データを生成し、生成した表示データを通信部310を介して送信する。ネット販売端末装置400の液晶スキャナタッチパネル部410は、この送信された表示データを通信部420を介して受信し、受信した表示データを、その液晶ディスプレイに表示し(Sc10)、処理を終了する。
Upon receiving the product identification information and the personal identification information, the
なお、ステップSc5における処理決定部330による一致の判定において、パターン識別情報に含まれる全ての特徴情報が一致していなくても、例えば一定の割合以上の特徴情報が一致していれば、一致していると判定するようにしてもよい。
また、本実施形態において、処理内容は個人認証したユーザへの販売処理のみであるが、その他の指も含めた指紋の特徴情報をパターン識別情報として、処理識別情報と対応付けてパターン記憶部216に記憶させておき、処理決定部330が処理識別情報に応じて処理内容を指示可能なようにしてもよい。
In the match determination by the
Further, in the present embodiment, the processing content is only the sales processing to the user who has been personally authenticated, but the
このように、液晶スキャナタッチパネル部410が指のタッチ位置を表す位置情報とタッチした指の指紋のスキャン画像データとを出力し、処理決定部330がこの出力された位置情報に応じて商品を決定し、該指紋のスキャン画像データに応じて販売処理先のユーザを決定する。このため、ユーザインターフェース部600は、ユーザが液晶スキャナタッチパネル部410の液晶ディスプレイに指で1回だけタッチするという簡便な操作で、様々な処理対象と処理内容とを決定し、さらには指紋のスキャン画像データに基づき個人を認証し、前述の処理内容を該認証結果に応じた内容することが可能な容易なユーザインターフェースを提供することができる。
As described above, the liquid crystal scanner
なお、上記第1から第3の実施形態において、処理対象データを表すアイコンまたは画像を表示させ、処理決定部113、213、330は、液晶スキャナタッチパネル部111、410が検出した位置に基づき処理対象データを決定し、液晶スキャナタッチパネル部111、410が生成したスキャン画像データに基づき処理を決定するとして説明したが、処理を表すアイコンを表示させ、液晶スキャナタッチパネル部111、410が検出した位置に基づき処理を決定し、液晶スキャナタッチパネル部111、410が生成したスキャン画像データに基づき処理対象データを決定するようにしてもよい。
In the first to third embodiments, an icon or an image representing the processing target data is displayed, and the
また、液晶スキャナタッチパネル部111、410は、同一のガラス基板上に画像表示用の液晶素子とスキャン用の光センサ素子とを配置し、該液晶素子にて画像を表示し、該光センサ素子にて画像表示領域に入射する光を検出してスキャン画像データを生成するとして説明したが、液晶以外の有機EL(ElectroLuminescence)素子などにて画像を表示してもよいし、光センサ素子をガラス基板以外の場所に配置して、入射する光を該配置場所に導く光路を設定するようにしてもよい。
In addition, the liquid crystal scanner
また、図2における2次元バーコード復号部112、画像生成部114、処理決定部113、文書表示処理部120、承認処理部130、否決処理部140、削除処理部150、もしくは図9に置ける指紋特徴情報抽出部212、画像生成部114、処理決定部213、文書表示処理部120、承認処理部230、否決処理部240、削除処理部150、もしくは図15における通信部420、通信部310、画像生成部320、処理決定部330、販売処理部360、指紋特徴情報抽出部370の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによりこれらの処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
In addition, the two-dimensional
また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
Further, the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used.
The “computer-readable recording medium” refers to a portable medium such as a flexible disk, a magneto-optical disk, a ROM, and a CD-ROM, and a storage device such as a hard disk built in the computer system. Furthermore, the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, a volatile memory in a computer system serving as a server or a client in that case, and a program that holds a program for a certain period of time are also included. The program may be a program for realizing a part of the functions described above, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system.
以上、この発明の実施形態を図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計変更等も含まれる。 The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes design changes and the like within a scope not departing from the gist of the present invention.
本発明は、第1から第3の実施形態に示すような文書管理装置、インターネット販売システムに用いて最適であるが、これに限定されない。 The present invention is optimally used for a document management apparatus and an Internet sales system as shown in the first to third embodiments, but is not limited to this.
100、200…文書管理装置
101…制御部
102…メモリ
103…入出力部
110、210、600…ユーザインターフェース部
111、410…液晶スキャナタッチパネル部
112…2次元バーコード復号部
113、213、330…処理決定部
114、320…画像生成部
115、340…座標記憶部
116、216、350…パターン記憶部
120…文書表示処理部
130、230…承認処理部
140、240…否決処理部
150…削除処理部
160、260…文書記憶部
212…指紋特徴情報抽出部
300…ネット販売サーバ
310…通信部
360…販売処理部
370…指紋特徴情報抽出部
400…ネット販売端末装置
420…通信部
500…ネットワーク
DESCRIPTION OF
Claims (10)
前記ディスプレイスキャナタッチパネルが生成したスキャン画像データのうち、前記検出した位置の近傍のスキャン画像データと前記検出した位置とに基づき、実行する処理と該処理の処理対象データとを決定し、この決定した処理にこの決定した処理対象データの処理を指示する処理決定部と
を具備することを特徴とするユーザインターフェース装置。 A display scanner touch panel for displaying an image on the image display surface, detecting scan light data by detecting light incident from the outside on the image display surface, and detecting a position instructed from the outside on the image display surface; ,
Of the scanned image data generated by the display scanner touch panel, based on the scanned image data in the vicinity of the detected position and the detected position, the process to be executed and the data to be processed are determined. A user interface device comprising: a process determining unit that instructs the process to process the determined processing target data.
スキャン画像データを識別するパターン識別情報と、処理を識別する処理識別情報とを対応付けて記憶するパターン記憶部と、
前記処理対象データを表す画像を前記ディスプレイスキャナタッチパネルの画像表示面に表示するとともに、該画像を表示した領域を表す情報と該画像が表す処理対象データもしくは該処理対象データを識別するデータ識別情報とを対応付けて前記座標記憶部に記憶させる画像生成部と
を具備し、
前記処理決定部は、前記検出した位置の近傍のスキャン画像データを識別するパターン識別情報と対応付けて前記パターン記憶部に記憶している処理識別情報が表す処理を実行する処理とし、前記検出した位置を含む領域を表す情報と対応付けて前記座標記憶部に記憶している処理対象データもしくはデータ識別情報が表す処理対象データを、前記実行する処理の処理対象データとすること
を特徴とする請求項2に記載のユーザインターフェース装置。 A coordinate storage unit for storing data identification information or processing target data for identifying processing target data and information representing an area on the image display surface in association with each other;
A pattern storage unit that stores pattern identification information for identifying scan image data and process identification information for identifying a process in association with each other;
An image representing the processing target data is displayed on an image display surface of the display scanner touch panel, information representing a region where the image is displayed, processing target data represented by the image, or data identification information for identifying the processing target data, And an image generation unit that stores the information in the coordinate storage unit in association with each other,
The process determination unit is a process for executing the process represented by the process identification information stored in the pattern storage unit in association with the pattern identification information for identifying the scan image data in the vicinity of the detected position. The processing target data stored in the coordinate storage unit in association with information indicating a region including a position or processing target data represented by data identification information is set as processing target data of the process to be executed. Item 3. The user interface device according to Item 2.
スキャン画像データを識別するパターン識別情報と、個人を識別する個人識別情報とを対応付けて記憶するパターン記憶部と、
前記処理対象データを表す画像を前記ディスプレイスキャナタッチパネルの画像表示面に表示するとともに、該画像を表示した領域を表す情報と該画像が表す処理対象データもしくは該処理対象データを識別するデータ識別情報とを対応付けて前記座標記憶部に記憶させる画像生成部と
を具備し、
前記処理決定部は、前記検出した位置の近傍のスキャン画像データを識別するパターン識別情報と対応付けて前記パターン記憶部に記憶している個人識別情報を読み出して個人認証を行なうとともに、この個人認証の結果に基づき実行する処理を決定し、前記検出した位置を含む領域を表す情報と対応付けて前記座標記憶部に記憶している処理対象データもしくはデータ識別情報が表す処理対象データを前記実行する処理の処理対象データとすること
を特徴とする請求項4に記載のユーザインターフェース装置。 A coordinate storage unit for storing data identification information or processing target data for identifying processing target data and information representing an area on the image display surface in association with each other;
A pattern storage unit for storing pattern identification information for identifying scanned image data and personal identification information for identifying an individual in association with each other;
An image representing the processing target data is displayed on an image display surface of the display scanner touch panel, information representing a region where the image is displayed, processing target data represented by the image, or data identification information for identifying the processing target data, And an image generation unit that stores the information in the coordinate storage unit in association with each other,
The process determining unit reads out personal identification information stored in the pattern storage unit in association with pattern identification information for identifying scan image data in the vicinity of the detected position, and performs personal authentication. The processing to be executed is determined based on the result of the above, and the processing target data stored in the coordinate storage unit or the processing target data represented by the data identification information is executed in association with the information indicating the area including the detected position. The user interface device according to claim 4, wherein the data is processing target data.
スキャン画像データを識別するパターン識別情報と、個人を識別する個人識別情報と、処理を識別する処理識別情報とを対応付けて記憶するパターン記憶部と、
前記処理対象データを表す画像を前記ディスプレイスキャナタッチパネルの画像表示面に表示するとともに、該画像を表示した領域を表す情報と該画像が表す処理対象データもしくは該処理対象データを識別するデータ識別情報とを対応付けて前記座標記憶部に記憶させる画像生成部と
を具備し、
前記処理決定部は、前記検出した位置の近傍のスキャン画像データを識別するパターン識別情報と対応付けて前記パターン記憶部に記憶している個人識別情報を読み出して個人認証を行なうとともに、前記パターン識別情報と前記個人識別情報とに対応付けて前記パターン記憶部に記憶している処理識別情報を読み出し、この読み出した処理識別情報が識別する処理を実行する処理とし、前記検出した位置を含む領域を表す情報と対応付けて前記座標記憶部に記憶している処理対象データもしくはデータ識別情報が表す処理対象データを前記実行する処理の処理対象データとすること
を特徴とする請求項1または請求項4に記載のユーザインターフェース装置。 A coordinate storage unit for storing data identification information or processing target data for identifying processing target data and information representing an area on the image display surface in association with each other;
A pattern storage unit that stores pattern identification information for identifying scanned image data, personal identification information for identifying an individual, and processing identification information for identifying a process in association with each other;
An image representing the processing target data is displayed on an image display surface of the display scanner touch panel, information representing a region where the image is displayed, processing target data represented by the image, or data identification information for identifying the processing target data, And an image generation unit that stores the information in the coordinate storage unit in association with each other,
The process determination unit reads out personal identification information stored in the pattern storage unit in association with pattern identification information for identifying scan image data in the vicinity of the detected position, performs personal authentication, and performs the pattern identification. The process identification information stored in the pattern storage unit in association with the information and the personal identification information is read out, and a process for executing the process identified by the read process identification information is performed. The processing target data stored in the coordinate storage unit in association with the information to be expressed or the processing target data represented by the data identification information is set as processing target data for the process to be executed. A user interface device according to claim 1.
前記処理決定部は、前記スキャン画像データから前記指紋特徴情報抽出部が抽出した特徴情報に基づき決定することを特徴とする請求項1から請求項5に記載のいずれかの項に記載のユーザインターフェース装置。 A fingerprint feature information extraction unit for extracting fingerprint feature information from the scanned image data;
6. The user interface according to claim 1, wherein the process determining unit determines based on the feature information extracted by the fingerprint feature information extracting unit from the scanned image data. 7. apparatus.
を具備することを特徴とするユーザインターフェース装置。 A display scanner touch panel that displays an image on an image display surface, generates scan image data by detecting light incident on the image display surface from the outside, and further detects a position instructed from the outside on the image display surface Of the generated scan image data, the process to be executed and the data to be processed are determined based on the scan image data in the vicinity of the detected position and the detected position. A user interface device comprising: a process determining unit that instructs to process the processed data.
前記ディスプレイスキャナタッチパネルが、画像表示面に外部から入射する光を検出してスキャン画像データを生成するとともに、前記画像表示面で外部から指示された位置を検出する第1の過程と、
前記ユーザインターフェース装置が、前記第1の過程にて生成したスキャン画像データのうち、前記第1の過程にて検出した位置の近傍のスキャン画像データと前記検出した位置とに基づき、実行する処理と該処理の処理対象データとを決定する第2の過程と、
前記ユーザインターフェース装置が、前記第2の過程にて決定した処理に、前記第2の過程にて決定した処理対象データの処理を指示する第3の過程と
を備えることを特徴とするユーザインターフェース方法。 A display scanner touch panel that displays an image on an image display surface, detects light incident on the image display surface from outside to generate scan image data, and further detects a position instructed from the outside on the image display surface A user interface method in a user interface device comprising:
A first process in which the display scanner touch panel detects light incident on the image display surface from outside to generate scan image data, and detects a position instructed from the outside on the image display surface;
Processing performed by the user interface device based on scan image data in the vicinity of the position detected in the first process and the detected position among the scan image data generated in the first process; A second step of determining processing target data of the processing;
A user interface method, wherein the user interface device includes a third process instructing the processing of data to be processed determined in the second process to the process determined in the second process. .
前記ディスプレイスキャナタッチパネルが生成したスキャン画像データのうち、前記検出した位置の近傍のスキャン画像データと前記検出した位置とに基づき、実行する処理と該処理の処理対象データとを決定し、この決定した処理にこの決定した処理対象データの処理を指示する処理決定部
として機能させるプログラム。 A display scanner touch panel that displays an image on an image display surface, detects light incident on the image display surface from outside to generate scan image data, and further detects a position instructed from the outside on the image display surface A user interface device computer comprising:
Of the scanned image data generated by the display scanner touch panel, based on the scanned image data in the vicinity of the detected position and the detected position, the process to be executed and the data to be processed are determined. A program that causes a process to function as a process determination unit that instructs the process of the determined processing target data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007222957A JP2009054118A (en) | 2007-08-29 | 2007-08-29 | User interface device, user interface method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007222957A JP2009054118A (en) | 2007-08-29 | 2007-08-29 | User interface device, user interface method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009054118A true JP2009054118A (en) | 2009-03-12 |
Family
ID=40505115
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007222957A Pending JP2009054118A (en) | 2007-08-29 | 2007-08-29 | User interface device, user interface method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009054118A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8638305B2 (en) | 2009-07-29 | 2014-01-28 | Kyocera Corporation | Information device |
JP2015032049A (en) * | 2013-07-31 | 2015-02-16 | レノボ・シンガポール・プライベート・リミテッド | Information input device |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05173709A (en) * | 1991-12-25 | 1993-07-13 | Sanyo Electric Co Ltd | Display and input integrated device with image sensor |
JPH07175587A (en) * | 1993-10-28 | 1995-07-14 | Hitachi Ltd | Information processor |
JPH11327727A (en) * | 1998-05-11 | 1999-11-30 | Nec Corp | System and method for screen operation |
JP2005082086A (en) * | 2003-09-10 | 2005-03-31 | Fujitsu Ten Ltd | Input device in information terminal |
JP2007516507A (en) * | 2003-05-30 | 2007-06-21 | プリヴァリス・インコーポレーテッド | Man-machine interface to control access to electronic devices |
-
2007
- 2007-08-29 JP JP2007222957A patent/JP2009054118A/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05173709A (en) * | 1991-12-25 | 1993-07-13 | Sanyo Electric Co Ltd | Display and input integrated device with image sensor |
JPH07175587A (en) * | 1993-10-28 | 1995-07-14 | Hitachi Ltd | Information processor |
JPH11327727A (en) * | 1998-05-11 | 1999-11-30 | Nec Corp | System and method for screen operation |
JP2007516507A (en) * | 2003-05-30 | 2007-06-21 | プリヴァリス・インコーポレーテッド | Man-machine interface to control access to electronic devices |
JP2005082086A (en) * | 2003-09-10 | 2005-03-31 | Fujitsu Ten Ltd | Input device in information terminal |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8638305B2 (en) | 2009-07-29 | 2014-01-28 | Kyocera Corporation | Information device |
JP2015032049A (en) * | 2013-07-31 | 2015-02-16 | レノボ・シンガポール・プライベート・リミテッド | Information input device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4719543B2 (en) | Workflow system, server device, processing method of workflow system, and workflow program | |
JP5974976B2 (en) | Information processing apparatus and information processing program | |
JP5987780B2 (en) | Information processing apparatus and information processing program | |
JP5983664B2 (en) | Image forming system, image forming apparatus, portable terminal, and program | |
JP6407772B2 (en) | Input device | |
JP2019096938A (en) | System, method in system, information processing apparatus, method in information processing apparatus, and program | |
JP2005004490A (en) | Document processor and its program | |
JP2009037401A (en) | Operating device | |
JP4772592B2 (en) | Business flow management device, business flow management method, program | |
US11271977B2 (en) | Information processing apparatus, information processing system, information processing method, and non-transitory recording medium | |
JP4656192B2 (en) | Image forming apparatus and image forming system | |
CN101146168A (en) | Image processing apparatus and image processing method | |
CN106256119B (en) | Detect the signature line in electronic document | |
JP2009054118A (en) | User interface device, user interface method, and program | |
JP2007052489A (en) | User authentication method and user authentication program | |
JP6291989B2 (en) | Content display device and control program for content display device | |
JP2020178301A (en) | Information processing device, control method of the same, and program | |
JP2022111122A (en) | Server, control method and program | |
CN108377230A (en) | Authentication device and non-volatile memory medium | |
JP2014106808A (en) | Data processing apparatus, operation reception method, and browsing program | |
JP2019008728A (en) | Document management system, and document management device | |
JP2012198725A (en) | Information input device, information input method, and program | |
JP7007609B2 (en) | Information processing equipment, control method of information processing equipment, program | |
JP6741949B2 (en) | Information processing apparatus, control method of information processing apparatus, and program | |
JP6582954B2 (en) | Document camera device, clipping support method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090805 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110606 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110621 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20111025 |