JP2005173807A - Voice input/output system and method therefor - Google Patents

Voice input/output system and method therefor Download PDF

Info

Publication number
JP2005173807A
JP2005173807A JP2003410418A JP2003410418A JP2005173807A JP 2005173807 A JP2005173807 A JP 2005173807A JP 2003410418 A JP2003410418 A JP 2003410418A JP 2003410418 A JP2003410418 A JP 2003410418A JP 2005173807 A JP2005173807 A JP 2005173807A
Authority
JP
Japan
Prior art keywords
voice
detected
output
input
stored
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003410418A
Other languages
Japanese (ja)
Inventor
Yoichiro Maeda
洋一郎 前田
Hitoshi Ihashi
仁 伊橋
Kenichi Suzuki
健一 鈴木
Naoya Takezaki
直哉 竹崎
Yasuhiko Nomura
恭彦 野村
Yasuo Horino
康夫 堀野
Atsushi Kiyota
淳 清田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2003410418A priority Critical patent/JP2005173807A/en
Publication of JP2005173807A publication Critical patent/JP2005173807A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To hear again a voice when a note has been taken by taking the note and then tracing the note. <P>SOLUTION: The voice in the circumference of a handwriting input pen 26 is received as voice data which are sent as pen information data to a pen information server 16 while the data are made to correspond to the position of a note on a memo pad. When a user points the position of the note on the memo pad in the vicinity of a PC 18 and performs an operation for outputting a voice, the PC 18 requests the pen information data including the voice data made to correspond to the position of the note from the pen information server 16. An input device 20 sends the pen information data complying with the request to the PC 18. The PC 18 outputs the voice data included in the pen information data as a voice. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、入力された音声を記憶し、出力する音声入出力システムおよびその方法に関する。   The present invention relates to a voice input / output system and method for storing and outputting input voice.

例えば、特許文献1は、画像入力機能と、音声入力機能を有する筆記用具を用いる装置を開示する。
特開2001−105786号公報
For example, Patent Document 1 discloses an apparatus that uses a writing instrument having an image input function and a voice input function.
JP 2001-105786 A

しかしながら、特許文献1は、上記筆記用具により得られた音声の利用法について、特に開示していない。
本発明は、このような背景からなされたものであり、画像入力機能と、音声入力機能とを有する筆記用具により得られた音声信号を、便利に利用することができるようにした音声入出力システムおよびその方法を提供することを目的とする。
However, Patent Document 1 does not particularly disclose how to use the voice obtained with the writing instrument.
The present invention has been made from such a background, and an audio input / output system in which an audio signal obtained by a writing instrument having an image input function and an audio input function can be used conveniently. And an object thereof.

上記目的を達成するために、本発明にかかる第1の音声入出力システムは、音声信号の入力を受ける音声入力手段と、所定の部材における任意の位置をポインティングするポインティング手段と、前記部材においてポインティングされた位置を検出する検出手段と、前記部材においてポインティングされた位置と、前記受け入れられた音声信号とを対応付けて記憶する情報記憶手段と、前記記憶された部材における位置に対するポインティングが検出されたときに、この部材における位置と対応付けられて記憶された音声信号を出力する音声出力手段とを有する。   In order to achieve the above object, a first audio input / output system according to the present invention includes audio input means for receiving an input of an audio signal, pointing means for pointing an arbitrary position on a predetermined member, and pointing on the member. Detecting means for detecting the position, information storage means for storing the position pointed at the member and the received audio signal in association with each other, and pointing to the position on the stored member is detected. In some cases, audio output means for outputting an audio signal stored in association with the position of the member is provided.

好適には、前記情報記憶手段は、前記ポインティング手段によるポインティングが行われる以前に受け入れられた音声信号を、前記部材においてポインティングされた位置と対応付けて記憶する。   Preferably, the information storage means stores an audio signal received before the pointing by the pointing means is performed in association with the position pointed at the member.

好適には、前記ポインティング手段は、音声を受け入れて音声信号として出力する音声受け入れ手段を有し、前記音声入力手段は、前記出力された音声信号の入力を受ける。   Preferably, the pointing means includes voice receiving means for receiving voice and outputting it as a voice signal, and the voice input means receives the output voice signal.

好適には、前記部材には、前記部材における位置を識別するための印が付され、前記ポインティング手段は、前記部材に付された印の画像を受けて画像信号として出力する画像入力手段を有し、前記検出手段は、前記出力された画像信号に基づいて、前記ポインティングされた部材における位置を検出する。   Preferably, the member is provided with a mark for identifying a position on the member, and the pointing means has an image input means for receiving an image of the mark attached to the member and outputting it as an image signal. Then, the detection means detects a position on the pointed member based on the output image signal.

好適には、前記部材それぞれに付される前記印は、前記部材それぞれに固有であって、前記検出手段は、前記ポインティングされた部材における位置と、前記固有の印とを検出し、前記情報記憶手段は、前記対応づけられた部材における位置および音声信号に、前記検出された固有の印を対応付けて記憶し、前記音声出力手段は、前記固有の印と、前記記憶された部材における位置に対するポインティングとが検出されたときに、前記検出された固有の印と、前記検出された部材における位置とに対応付けられて記憶された音声信号を出力する。   Preferably, the mark given to each of the members is unique to each of the members, and the detection means detects the position of the pointed member and the unique mark, and stores the information storage The means stores the detected unique mark in association with the position and voice signal in the associated member, and the voice output means stores the unique mark and the position in the stored member. When pointing is detected, an audio signal stored in association with the detected unique mark and the detected position on the member is output.

好適には、前記ポインティング手段は、ポインティングした部分に対して筆記する筆記手段をさらに有する。   Preferably, the pointing means further includes writing means for writing on the pointed portion.

また、本発明にかかる第2の音声入出力システムは、音声信号の入力を受ける音声入力手段と、所定の部材においてポインティングされた位置を検出する第1の検出手段と
を有する音声入力装置と、前記検出された部材における位置と、前記受け入れられた音声信号とを対応付けて記憶する情報記憶手段と、前記記憶された部材における位置に対するポインティングが検出されたときに、この部材における位置と対応付けられて記憶された音声信号を出力する第1の音声出力手段とを有する音声サーバ装置と、前記部材においてポインティングされた位置を検出する第2の検出手段と、前記検出された部材における位置に応じて出力された音声信号を、音声として出力する第2の音声出力手段とを有する音声出力装置とを有する。
A second voice input / output system according to the present invention includes a voice input device having voice input means for receiving an input of a voice signal and first detection means for detecting a position pointed at a predetermined member; Information storage means for associating and storing the detected position on the member and the received audio signal, and the pointing on the position on the stored member is associated with the position on the member when detected. An audio server device having first audio output means for outputting the stored audio signal, second detection means for detecting a position pointed at the member, and depending on the detected position on the member And an audio output device having second audio output means for outputting the audio signal output as audio.

また、本発明にかかる音声入力装置は、検出された所定の部材における位置と、受け入れられた音声信号とを対応付けて記憶し、前記記憶された部材における位置に対するポインティングが検出されたときに、この部材における位置と対応付けられて記憶された音声信号を出力する音声サーバ装置と、前記部材におけるポインティングされた位置を検出し、前記検出された部材における位置に応じて出力された音声信号を、音声として出力する音声出力装置とを有する音声入出力システムにおける音声入力装置であって、音声信号の入力を受け入れる音声入力手段と、前記部材におけるポインティングされた位置を検出する検出手段とを有する。   Further, the voice input device according to the present invention stores the detected position in the predetermined member and the received voice signal in association with each other, and when pointing to the position in the stored member is detected, A voice server device that outputs a voice signal stored in association with a position in the member, a pointed position in the member is detected, and a voice signal that is output according to the detected position in the member, A voice input device in a voice input / output system having a voice output device for outputting as voice, comprising voice input means for receiving an input of a voice signal, and detection means for detecting a pointed position on the member.

また、本発明にかかる音声サーバ装置は、音声信号の入力を受け、所定の部材においてポインティングされた位置を検出する音声入力装置と、前記部材においてポインティングされた位置を検出し、前記検出された部材における位置に応じて出力された音声信号を、音声として出力する音声出力手段とを有する音声入出力システムにおける音声サーバ装置であって、前記検出された部材における位置と、前記受け入れられた音声信号とを対応付けて記憶する情報記憶手段と、前記記憶された部材における位置に対するポインティングが検出されたときに、この部材における位置と対応付けられて記憶された音声信号を出力する音声出力手段とを有する。   The voice server device according to the present invention receives a voice signal input, detects a position pointed at a predetermined member, detects a position pointed at the member, and detects the detected member. A voice server device in a voice input / output system having voice output means for outputting a voice signal output in accordance with the position in the voice as a voice, the position in the detected member, and the received voice signal; Information storage means for storing the information in association with each other and sound output means for outputting a sound signal stored in association with the position in the member when the pointing to the position in the stored member is detected. .

また、本発明にかかる音声出力装置は、音声信号の入力を受け、所定の部材においてポインティングされた位置を検出する音声入力装置と、前記検出された部材における位置と、前記受け入れられた音声信号とを対応付けて記憶し、前記記憶された部材における位置に対するポインティングが検出されたときに、この部材における位置と対応付けられて記憶された音声信号を出力する音声サーバ装置とを有する音声入出力システムにおける音声出力装置であって、前記部材においてポインティングされた位置を検出する検出手段と、前記検出された部材における位置に応じて出力された音声信号を、音声として出力する音声出力手段とを有する。   An audio output device according to the present invention receives an input of an audio signal and detects an audio input device that detects a position pointed at a predetermined member; a position at the detected member; and the received audio signal. And a voice server device that outputs a voice signal stored in association with the position on the member when pointing to the position on the stored member is detected. And a sound output means for outputting a sound signal output in accordance with the detected position on the member as a sound.

また、本発明にかかる第1の音声入出力方法は、音声信号の入力を受け、所定の部材における任意の位置をポインティングし、前記部材においてポインティングされた位置を検出し、前記検出された部材における位置と、前記受け入れられた音声信号とを対応付けて記憶し、前記記憶された部材における位置に対するポインティングが検出されたときに、この部材の位置と対応付けられて記憶された音声信号を出力する。   In the first voice input / output method according to the present invention, an input of a voice signal is received, an arbitrary position on a predetermined member is pointed, a position pointed on the member is detected, and the detected member is detected. The position and the received audio signal are stored in association with each other, and when the pointing to the position in the stored member is detected, the stored audio signal is output in association with the position of the member. .

また、本発明にかかる第2の音声入出力方法は、音声信号の入力を受け、所定の部材においてポインティングされた位置を検出し、前記検出された部材における位置と、前記受け入れられた音声信号とを対応付けて記憶し、前記記憶された部材における位置に対するポインティングが検出されたときに、この部材における位置と対応付けられて記憶された音声信号を出力し、前記部材のポインティングされた位置を検出し、前記検出された部材における位置に応じて出力された音声信号を、音声として出力する。   Further, the second audio input / output method according to the present invention receives an input of an audio signal, detects a pointed position on a predetermined member, and detects the position on the detected member, and the received audio signal. Are stored in association with each other, and when pointing to the position of the stored member is detected, an audio signal stored in association with the position of the member is output, and the pointing position of the member is detected. And the audio | voice signal output according to the position in the said detected member is output as an audio | voice.

また、本発明にかかる第1のプログラムは、音声信号の入力を受ける音声入力ステップと、所定の部材における任意の位置をポインティングするポインティングステップと、前記部材においてポインティングされた位置を検出する検出ステップと、前記検出された部材における位置と、前記受け入れられた音声信号とを対応付けて記憶する位置・音声記憶ステップと、前記記憶された部材における位置に対するポインティングが検出されたときに、この部材における位置と対応付けられて記憶された音声信号を出力する音声出力ステップとをコンピュータに実行させる。   In addition, a first program according to the present invention includes a voice input step for receiving an input of a voice signal, a pointing step for pointing an arbitrary position on a predetermined member, and a detection step for detecting a position pointed on the member. A position / speech storage step for storing the detected position in the member and the received sound signal in association with each other, and a position in the member when the pointing to the position in the stored member is detected. And a sound output step of outputting a sound signal stored in association with the computer.

また、本発明にかかる第2のプログラムは、コンピュータを含む音声入力装置において、音声信号の入力を受ける音声入力ステップと、所定の部材におけるポインティングされた位置を検出する第1の検出ステップとを前記コンピュータに実行させ、コンピュータを含む音声サーバ装置において、前記検出された部材における位置と、前記受け入れられた音声信号とを対応付けて記憶する位置・音声記憶ステップと、前記記憶された部材における位置に対するポインティングが検出されたときに、この部材における位置と対応付けられて記憶された音声信号を出力する第1の音声出力ステップとを前記コンピュータに実行させ、コンピュータを含む音声出力装置において、前記部材においてポインティングされた位置を検出する第2の検出ステップと、前記検出された部材における位置に応じて出力された音声信号を、音声として出力する第2の音声出力ステップとを前記コンピュータに実行させる。   According to a second program of the present invention, in a voice input device including a computer, a voice input step of receiving a voice signal and a first detection step of detecting a pointed position on a predetermined member are described above. In a voice server device including a computer, a position / speech storage step for storing the detected position in the member and the received voice signal in association with each other, and a position in the stored member In the audio output device including the computer, the first audio output step of outputting the audio signal stored in association with the position in the member when pointing is detected. A second detection zone for detecting the pointed position And-up, the audio signal output in accordance with the position of the detected member, to execute a second sound output step of outputting as a voice on the computer.

また、本発明にかかる第3のプログラムは、検出された所定の部材における位置と、受け入れられた音声信号とを対応付けて記憶し、前記記憶された部材における位置に対するポインティングが検出されたときに、この部材における位置と対応付けられて記憶された音声信号を出力する音声サーバ装置と、前記部材においてポインティングされた位置を検出し、前記検出された部材における位置に応じて出力された音声信号を、音声として出力する音声出力装置とを有する音声入出力システムのコンピュータを含む音声入力装置において、音声信号の入力を受け入れる音声入力ステップと、前記部材においてポインティングされた位置を検出する検出ステップとを前記コンピュータに実行させる。   The third program according to the present invention stores the detected position on the predetermined member and the received audio signal in association with each other, and when pointing to the position on the stored member is detected. A voice server device that outputs a voice signal stored in association with a position on the member; a position pointed at the member; a voice signal output according to the detected position on the member; In a voice input device including a computer of a voice input / output system having a voice output device for outputting as voice, a voice input step for receiving an input of a voice signal and a detection step for detecting a position pointed at the member Let the computer run.

また、本発明にかかる第4のプログラムは、音声信号の入力を受け、所定の部材においてポインティングされた位置を検出する音声入力装置と、前記部材におけるポインティングされた位置を検出し、前記検出された部材における位置に応じて出力された音声信号を、音声として出力する音声出力手段とを有する音声入出力システムのコンピュータを含む音声サーバ装置において、前記検出された部材における位置と、前記受け入れられた音声信号とを対応付けて記憶する位置・音声記憶ステップと、前記記憶された部材における位置に対するポインティングが検出されたときに、この部材における位置と対応付けられて記憶された音声信号を出力する音声出力ステップとを前記コンピュータに実行させる。   Further, a fourth program according to the present invention receives an input of a voice signal, detects a pointed position on a predetermined member, detects a pointed position on the member, and detects the detected point. In a voice server apparatus including a computer of a voice input / output system having voice output means for outputting a voice signal output in accordance with a position on a member as a voice, the position on the detected member and the received voice A position / speech storage step for storing the signal in association with each other, and a sound output for outputting a sound signal stored in association with the position in the member when the pointing to the position in the stored member is detected And causing the computer to execute steps.

また、本発明にかかる第5のプログラムは、音声信号の入力を受け、所定の部材においてポインティングされた位置を検出する音声入力装置と、前記検出された部材における位置と、前記受け入れられた音声信号とを対応付けて記憶し、前記記憶された部材における位置に対するポインティングが検出されたときに、この部材における位置と対応付けられて記憶された音声信号を出力する音声サーバ装置とを有する音声入出力システムのコンピュータを含む音声出力装置において、前記部材においてポインティングされた位置を検出する検出ステップと、前記検出された部材における位置に応じて出力された音声信号を、音声として出力する音声出力ステップとをコンピュータに実行させる。   Further, a fifth program according to the present invention includes an audio input device that receives an input of an audio signal and detects a position pointed at a predetermined member, the position on the detected member, and the received audio signal. And a voice server device that outputs a voice signal stored in association with the position on the member when pointing to the position on the stored member is detected. In a sound output device including a computer of the system, a detection step for detecting a position pointed at the member, and a sound output step for outputting a sound signal output according to the detected position on the member as sound. Let the computer run.

本発明によれば、例えば、メモを取り、後にそのメモをなぞることにより、メモをとったときの音声を聞き返すことができる。   According to the present invention, for example, by taking a note and tracing the note later, it is possible to listen back to the voice when the note was taken.

[情報管理システム1]
図1は、本発明にかかる情報管理システム1の概要を示す図である。
まず、本発明が適応される情報管理システム1を説明する。
図1に示すように、情報管理システム1には、手書入力システム2−1,2−2、背景管理システム3、背景管理システム3により認定された認定プリンタ122、背景管理システム3により認定されていない非認定プリンタ124、情報サーバ16、パーソナルコンピュータ(PC)18、および、入力装置20(PC18と入力装置20とが共用されてもよい)などが、ネットワーク120を介して接続された構成を採る。
[Information management system 1]
FIG. 1 is a diagram showing an outline of an information management system 1 according to the present invention.
First, an information management system 1 to which the present invention is applied will be described.
As shown in FIG. 1, the information management system 1 is certified by the handwriting input systems 2-1 and 2-2, the background management system 3, the certified printer 122 certified by the background management system 3, and the background management system 3. A non-certified printer 124, an information server 16, a personal computer (PC) 18, and an input device 20 (the PC 18 and the input device 20 may be shared) are connected via a network 120. take.

手書入力システム2−1,2−2は、認定プリンタ122、入力装置20、電子認証印24および第1の手書入力ペン26(ポインティング手段)などから構成される。
背景管理システム3は、背景管理装置32および課金装置30から構成される。
The handwriting input systems 2-1 and 2-2 include an authorized printer 122, an input device 20, an electronic authentication stamp 24, a first handwriting input pen 26 (pointing means), and the like.
The background management system 3 includes a background management device 32 and a charging device 30.

なお、以下、手書入力システム2−1,2−2など、複数ある構成部分を、単に手書入力システム2と略記することがある。
また、情報管理システム1の各構成部分を、総称してノードと記すことがある。
また、図1に示した情報管理システム1の各構成部分の数は例示であって、情報管理システム1は、任意の数の各構成部分を含みうる。
Hereinafter, a plurality of components such as the handwriting input systems 2-1 and 2-2 may be simply abbreviated as the handwriting input system 2.
In addition, each component of the information management system 1 may be collectively referred to as a node.
Further, the number of each component part of the information management system 1 shown in FIG. 1 is an exemplification, and the information management system 1 can include any number of each component part.

また、図1に示した情報管理システム1、および、そのノードの機能分担は例示であって、情報管理システム1においてネットワーク120を介して分散されている複数の機能を、1つのノード内にまとめてもよい。
また、反対に、1つのノード内にまとめられている複数の機能を、複数のノードに分散させても、あるいは、ネットワーク120を介して複数のノードに分散させてもよい。
このように、複数の構成部分が、1つの装置内にまとめられているか、ネットワークなどを介して複数の装置に分散されているかは、本発明の技術的範囲に、何らの影響を及ぼすものではない。
Further, the function sharing of the information management system 1 and its nodes shown in FIG. 1 is an example, and a plurality of functions distributed via the network 120 in the information management system 1 are collected in one node. May be.
Conversely, a plurality of functions collected in one node may be distributed to a plurality of nodes, or may be distributed to a plurality of nodes via the network 120.
As described above, whether the plurality of components are grouped in one device or distributed to the plurality of devices via a network or the like does not affect the technical scope of the present invention. Absent.

図2は、図1に示した背景管理装置32、課金装置30、情報サーバ16、PC18および入力装置20などのハードウェア構成を例示する図である。
図2に示すように、情報管理システム1のこれらの構成部分は、CPU102、メモリ104およびこれらの周辺回路などを含む本体100、キーボード、表示装置およびスピーカ(SP)などを含む入出力装置106、ネットワーク120を介した他のノードの通信を行う通信装置110、CD装置・HDD装置などの記録装置112、および、スキャナなど各装置に特有な機能の実現のために用いられる機能実現装置38から構成される。
つまり、背景管理装置32、課金装置30、情報サーバ16、情報管理システム18および入力装置20は、通信機能を有するコンピュータとしての構成部分を含んでいる。
FIG. 2 is a diagram illustrating a hardware configuration of the background management device 32, the billing device 30, the information server 16, the PC 18, and the input device 20 illustrated in FIG.
As shown in FIG. 2, these components of the information management system 1 include a main body 100 including a CPU 102, a memory 104, and peripheral circuits thereof, an input / output device 106 including a keyboard, a display device, a speaker (SP), and the like. Consists of a communication device 110 that communicates with other nodes via the network 120, a recording device 112 such as a CD device / HDD device, and a function realization device 38 that is used to realize functions unique to each device such as a scanner. Is done.
That is, the background management device 32, the billing device 30, the information server 16, the information management system 18, and the input device 20 include components as a computer having a communication function.

さらに、入力装置20およびPC18などには、図2に示した構成に、必要に応じて、電子認証印24および手書入力ペン26などとの無線通信(電波を用いた通信か、光を用いた通信かを問わない)に用いられる無線インターフェース(IF)116が付加される。
なお、無線インターフェース(IF)116は、入力装置20およびPC18の構成・用途によっては、同様の機能を有する有線インターフェース(IF)に置換されうる。
また、認定プリンタ122および非認定プリンタ124には、図2に示した構成に、プリンタとしての機能を実現するためのプリンタエンジン(図示せず)が付加される。
Further, for the input device 20 and the PC 18, wireless communication (communication using radio waves or light) with the electronic authentication stamp 24 and the handwriting input pen 26 is added to the configuration shown in FIG. 2 as necessary. Wireless interface (IF) 116 used for communication).
Note that the wireless interface (IF) 116 can be replaced with a wired interface (IF) having the same function depending on the configurations and applications of the input device 20 and the PC 18.
In addition, a printer engine (not shown) for realizing a function as a printer is added to the configuration shown in FIG. 2 for the certified printer 122 and the non-certified printer 124.

図3は、図1に示した用紙128,130に付される背景を例示する図である。
用紙128は、普通紙であり、用紙130は、複数回にわたる印刷および消去(再利用)が可能な合成紙であって、印刷により、図3に示すような背景が付される。
つまり、無地の用紙128,130には、例えば、図3において点線で想定されるように、0.3mm程度の間隔で縦横に直交する多数の直線により構成される格子の格子点132上、あるいは、これらの格子点132に対して左右、上下、右上、右下、左上および左下に、例えば20μm程度ずれた位置に、ドット134が付された背景パターン136(印)が印刷され、背景付の用紙128,130となる。
なお、このように、用紙128,130(部材)には、背景パターン136が付されているか場合と、背景パターン136が付されていない場合とがある。
FIG. 3 is a diagram illustrating a background attached to the sheets 128 and 130 shown in FIG.
The paper 128 is plain paper, and the paper 130 is a synthetic paper that can be printed and erased (reused) a plurality of times, and a background as shown in FIG. 3 is given by printing.
That is, on the plain paper 128, 130, for example, as assumed by a dotted line in FIG. 3, on a lattice point 132 of a lattice composed of a large number of straight lines perpendicular to each other at intervals of about 0.3 mm, or A background pattern 136 (mark) with dots 134 is printed on the left, right, top, bottom, top right, bottom right, top left, and bottom left of these grid points 132 at positions shifted by, for example, about 20 μm. Paper 128 and 130 are obtained.
As described above, there are cases where the paper 128, 130 (members) is provided with the background pattern 136 and cases where the background pattern 136 is not provided.

背景パターン136は、格子点132と多数のドット134の位置関係を組み合わせることにより、膨大な数の種類となる。
従って、この背景パターン136のいずれの部分に手書入力ペン26が当たっているかを検出することにより、手書入力ペン26が、用紙128,130上のいずれの位置をポインティングしているか、あるいは、筆記しているかを検出することもできる。
また、用紙128,130それぞれに、事実上、固有の背景パターン136を付すことができるので、1つの背景パターン136が、1枚の無地の用紙128,130に対してだけ印刷されるようにすると、背景パターン136を、この背景パターン136が付された用紙128,130の特定に利用することもできる。
The background pattern 136 becomes an enormous number of types by combining the positional relationship between the lattice points 132 and the numerous dots 134.
Therefore, by detecting which part of the background pattern 136 is hit by the handwriting input pen 26, the handwriting input pen 26 is pointing at which position on the paper 128, 130, or You can also detect if you are writing.
In addition, since a unique background pattern 136 can be attached to each of the sheets 128 and 130, if one background pattern 136 is printed only on one plain sheet 128 and 130. The background pattern 136 can also be used to specify the paper 128, 130 with the background pattern 136 attached thereto.

なお、用紙128,130に付され、用紙128,130の位置識別に用いられる印として、ここでは、背景パターン136(図3)を例示したが、この印としては、背景パターン136のように、光学的に読み取り可能なものの他に、電気的、磁気的あるいは機械的に読取り可能なものが用いられ得る。
また、ここには、2次元的な用紙128,130に背景パターン136が付される場合を例示したが、3次元的な部材に背景パターン136を付して、その部材上の位置が検出されうるようにしてもよい。
また、図3に示したような背景パターン136の代わりに、用紙128,130それぞれに特有の図形、模様あるいは点の配列を付して、この印として用いてもよい。
Note that the background pattern 136 (FIG. 3) is exemplified here as a mark attached to the paper 128, 130 and used for position identification of the paper 128, 130. In addition to the optically readable material, an electrically, magnetically or mechanically readable material can be used.
In addition, here, the case where the background pattern 136 is attached to the two-dimensional paper 128, 130 is illustrated, but the background pattern 136 is attached to the three-dimensional member, and the position on the member is detected. You may make it.
Further, instead of the background pattern 136 as shown in FIG. 3, a specific figure, pattern or dot array may be attached to each of the sheets 128 and 130 and used as this mark.

あるいは、3次元的な部材に、部材の3次元的な座標(番地)を識別可能な印を付して、部材の3次元的な座標が検出されうるようにしてもよい。
また、2次元的な無地の用紙128,130の表面または内側に、特殊なトナー(立体トナー)を用いて、3次元的な背景パターンが印刷されるようにしてもよい。
また、背景が付された用紙128,130の表面に、透光性の樹脂あるいはガラスが、コーティングされたり、張り合わされたりしてもよい。
Alternatively, a three-dimensional member may be marked with a mark that can identify the three-dimensional coordinates (address) of the member so that the three-dimensional coordinates of the member can be detected.
A three-dimensional background pattern may be printed on the surface or inside of the two-dimensional plain paper 128, 130 using a special toner (three-dimensional toner).
In addition, a light-transmitting resin or glass may be coated or pasted on the surface of the paper 128 or 130 with a background.

用紙128,130に付される背景パターン136は、背景管理システム3の背景管理装置32により管理され、認定プリンタ122により用紙128,130に対して印刷される。
この背景パターン136の管理および使用に対して、課金装置30により、その利用者に対する課金が行われ得る。
The background pattern 136 attached to the sheets 128 and 130 is managed by the background management apparatus 32 of the background management system 3 and printed on the sheets 128 and 130 by the authorized printer 122.
For the management and use of the background pattern 136, the charging device 30 can charge the user.

電子認証印24は、用紙128,130とともに用いられ、入力装置20あるいはPC18との間で通信を行い、電子認証を行う。
手書入力ペン26は、用紙128,130とともに用いられ、入力装置20あるいはPC18との間で通信を行い、手書き文字の入力、音声の入力およびその他の操作のために用いられる。
The electronic authentication mark 24 is used together with the sheets 128 and 130, and communicates with the input device 20 or the PC 18 to perform electronic authentication.
The handwriting input pen 26 is used together with the sheets 128 and 130, communicates with the input device 20 or the PC 18, and is used for inputting handwritten characters, inputting voice, and other operations.

これらの構成部分により、情報管理システム1においては、例えば、以下のようなことが実現されうる。
(1)背景パターン136(図3)の普通紙または合成紙に対する印刷および課金:
(2)合成紙に印刷された背景パターン136の再利用(合成紙に印刷された背景パターン136を消去したら、その背景パターン136を、他の普通紙または合成紙に印刷可能な状態になるように管理する):
With these components, for example, the following can be realized in the information management system 1.
(1) Printing and accounting for background paper 136 (FIG. 3) on plain paper or synthetic paper:
(2) Reuse of the background pattern 136 printed on the synthetic paper (When the background pattern 136 printed on the synthetic paper is erased, the background pattern 136 can be printed on other plain paper or synthetic paper. To manage):

(3)音声の入出力:用紙128,130上に、手書入力ペン26を用いて記載されたメモと音声とを対応付けて記憶し、メモを手書入力ペン26でなぞったときに、対応付けられた音声を再生する。
(4)手書入力ペン26によるユーザの認証:
(5)用紙128,130および電子認証印24を利用したユーザの認証:
(3) Input / output of voice: When a memo and a voice written using the handwriting input pen 26 are stored in association with each other on the paper 128, 130, and the memo is traced with the handwriting input pen 26, Play the associated audio.
(4) User authentication with the handwriting input pen 26:
(5) User authentication using paper 128, 130 and electronic authentication stamp 24:

(6)用紙128,130,電子認証印24および手書入力ペン26を利用した各種サービス:後述する教育サービス、あるいは、ユーザが、ワードプロセッサで作成された書類を手書きでコメントを書き込んだり修正したりした後で、パーソナルコンピュータのそばに行くと、その画面に、書類の内、コメント・修正を手書きした部分が表示されるようにして、手書きのコメント・修正を、ワードプロセッサで入力しなおす作業の利便性が図られるようなサービス   (6) Various services using the paper 128, 130, the electronic authentication stamp 24 and the handwriting input pen 26: an education service to be described later, or a user writing or correcting a comment created by a word processor by handwriting After that, when you go to the personal computer, the part of the document with the handwritten comment / correction displayed on the screen will be displayed. The convenience of re-entering the handwritten comment / correction with the word processor Services that are designed

[手書入力ペン26]
図4は、図1に示した第1の手書入力ペン26の構成を示す図である。
図4に示すように、手書入力ペン26は、シャープペンシル機構・ボールペン先などの筆記およびポインティングに使用可能な筆記部材260、レンズ系264、CCD(Charge Coupled Device)素子266(画像入力手段)、圧力センサ268、画像取込回路270、マイクロフォン(MIC)272(音声受け入れ手段;手書き入力ペン26に外付けされ、机上の置かれて音声入力に用いられるようにしてもよい)、音声処理回路274、電源278、送信回路280、バッファメモリ282、送信メモリ284、制御部286およびスイッチ288が、一般的な筆記用具の形態に形成された手書入力ペン本体262中に一体に収容されて構成される。
[Handwriting pen 26]
FIG. 4 is a diagram showing a configuration of the first handwriting input pen 26 shown in FIG.
As shown in FIG. 4, the handwriting input pen 26 includes a writing member 260 that can be used for writing and pointing such as a mechanical pencil mechanism and a ballpoint pen tip, a lens system 264, a CCD (Charge Coupled Device) element 266 (image input means). , Pressure sensor 268, image capturing circuit 270, microphone (MIC) 272 (speech receiving means; may be externally attached to handwriting input pen 26 and placed on the desk and used for voice input), voice processing circuit 274, power supply 278, transmission circuit 280, buffer memory 282, transmission memory 284, control unit 286, and switch 288 are integrally housed in a handwriting input pen body 262 formed in the form of a general writing instrument. Is done.

手書入力ペン26は、例えば、1チップマイクロプロセッサ応用装置としてのハードウェア構成を採り、手書入力ペン26の各構成部分は、適宜、専用のハードウェアあるいは1チップマイクロプロセッサ上で動作するソフトウェアとして実現される。
手書入力ペン26は、これらの構成部分により、背景が付された用紙128,130(図1)などに対して筆記した文字、あるいは、ポインティング操作を、筆跡データとして、入力装置20に対して出力する。
また、手書入力ペン26は、周囲の音声を受け、音声データとして、入力装置20に対して出力する。
The handwriting input pen 26 has, for example, a hardware configuration as a one-chip microprocessor application device, and each component of the handwriting input pen 26 is appropriately configured with dedicated hardware or software operating on a one-chip microprocessor. As realized.
Due to these components, the handwriting input pen 26 uses characters or pointing operations written on paper 128, 130 (FIG. 1) with a background as handwriting data to the input device 20. Output.
Moreover, the handwriting input pen 26 receives surrounding sounds and outputs them to the input device 20 as sound data.

また、手書入力ペン26は、ユーザの筆圧を検出し、筆圧データとして、入力装置20に対して出力する。
なお、手書入力ペン26は、ユーザの所定の操作、例えば、手書入力ペン26のボタン(図示せず)に対する操作、あるいは、用紙128,130に対する所定のタイミングでのポインティングなどに応じて、これらの機能を実行する。
つまり、手書入力ペン26は、入力装置20に対して、手書き文字の入力、ポインティング操作および音声の入力を行うために用いられる。
The handwriting input pen 26 detects the user's writing pressure and outputs it as writing pressure data to the input device 20.
Note that the handwriting input pen 26 is operated in accordance with a predetermined operation by the user, for example, an operation on a button (not shown) of the handwriting input pen 26, or pointing at a predetermined timing with respect to the paper 128, 130. Perform these functions.
That is, the handwriting input pen 26 is used to input handwritten characters, pointing operations, and voices to the input device 20.

手書入力ペン26において、圧力センサ268は、ユーザが、用紙128,130などに筆記部材260を押し当てて、筆記およびポインティングを行うときなどに、筆記部材260にかかる圧力を検出し、画像取込回路270に対して出力する。
なお、圧力センサ268が、手書き入力ペン本体262にかかるユーザの握力をさらに検出できるようにすると、ユーザの握力に基づくユーザ認証が可能となる。
手書入力ペン26において、レンズ系264および手書入力ペン266は、例えば、圧力センサ268が、筆記部材260にかかる圧力を検出したときに、筆記部材260が押し当てられた部分の用紙128,130の背景パターン136(図3)などの画像を受け入れ、画像取込回路270に対して出力する。
In the handwriting input pen 26, the pressure sensor 268 detects the pressure applied to the writing member 260 when the user presses the writing member 260 against the paper 128, 130, etc., and performs writing and pointing. Output to the input circuit 270.
If the pressure sensor 268 can further detect the user's gripping force applied to the handwriting input pen body 262, user authentication based on the user's gripping force is possible.
In the handwriting input pen 26, the lens system 264 and the handwriting input pen 266 are, for example, the paper 128, the portion of the paper 128, to which the writing member 260 is pressed when the pressure sensor 268 detects the pressure applied to the writing member 260. Images such as 130 background patterns 136 (FIG. 3) are received and output to the image capture circuit 270.

画像取込回路270は、レンズ系264およびCCD素子266により受け入れられた画像を取り込み、ユーザの筆跡および用紙128,130に付された背景パターン136(図3)を示す筆跡データを生成し、バッファメモリ282を介して、送信回路280に対して出力する。
また、画像取込回路270は、圧力センサ268が検出した圧力を取り込み、ユーザの筆圧、あるいは、ポインティングの強さを示す筆圧データを生成し、バッファメモリ282を介して、送信回路280に対して出力する。
The image capturing circuit 270 captures an image received by the lens system 264 and the CCD element 266, generates handwriting data indicating the handwriting of the user and the background pattern 136 (FIG. 3) attached to the paper 128, 130, and the buffer. The data is output to the transmission circuit 280 via the memory 282.
Further, the image capturing circuit 270 captures the pressure detected by the pressure sensor 268, generates pen pressure data indicating the user's pen pressure or pointing strength, and sends it to the transmission circuit 280 via the buffer memory 282. Output.

MIC272および音声処理回路274は、常に、あるいは、圧力センサ268が筆記部材260にかかる圧力を検出したときに、周囲の音声を受け入れ、音声データを生成し、送信回路280に対して出力する。
制御部286は、スイッチ288に対するユーザの操作に応じて、手書き入力ペン26の各構成部分の動作を制御する。
制御部286による動作制御の例として、バッファメモリ282あるいは送信メモリ284に、音声データを記憶しておき、スイッチ288に対するユーザの操作に応じて、送信回路280を制御し、記憶した音声データを送信させる制御を挙げることができる。
The MIC 272 and the sound processing circuit 274 always accept the surrounding sound when the pressure sensor 268 detects the pressure applied to the writing member 260, generate sound data, and output the sound data to the transmission circuit 280.
The control unit 286 controls the operation of each component of the handwriting input pen 26 in accordance with a user operation on the switch 288.
As an example of operation control by the control unit 286, audio data is stored in the buffer memory 282 or the transmission memory 284, the transmission circuit 280 is controlled in accordance with a user operation on the switch 288, and the stored audio data is transmitted. Control.

送信回路280は、制御部286の制御に従って、画像取込回路270および手書入力システム274から、バッファメモリ282を介して、筆跡データ、筆圧データおよび音声データを受けて送信メモリ284に記憶する。
さらに、送信回路280は、制御部286の制御に従って、バッファメモリ282に記憶されたこれらのデータを、電波あるいは光により、入力された筆跡データ、筆圧データおよび音声データを、入力装置20(図1)の無線IF116(図2)に対して送信する。
なお、制御部286に、手書き入力ペン26それぞれに固有で、暗号化された識別符号・識別番号を記憶させておき、送信回路280が、上述のデータとともに、この識別符号・識別番号を送信するようにしてもよい。
The transmission circuit 280 receives handwriting data, writing pressure data, and voice data from the image capturing circuit 270 and the handwriting input system 274 via the buffer memory 282 and stores them in the transmission memory 284 under the control of the control unit 286. .
Further, the transmission circuit 280 transmits the handwriting data, the writing pressure data, and the voice data, which are stored in the buffer memory 282 by radio waves or light, to the input device 20 (FIG. 1) to the wireless IF 116 (FIG. 2).
The control unit 286 stores an encrypted identification code / identification number unique to each handwriting input pen 26, and the transmission circuit 280 transmits the identification code / identification number together with the above-described data. You may do it.

[手書き入力ペンの他の態様]
ここで、情報管理システム1において、手書き入力ペン26の代わりに用いられうる手書き入力ペンの様々な態様を説明する。
図5,図6はそれぞれ、情報管理システム1(図1)において、図4などに示した第1の手書き入力ペン26の代わりに用いられる第2,第3の手書き入力ペン40,42の外観を示す図である。
なお、図5,図6においては、実質的に共通の構成部分には共通の符号が付されている(以下の各図について同様)。
[Other aspects of handwriting input pen]
Here, various aspects of the handwriting input pen that can be used in place of the handwriting input pen 26 in the information management system 1 will be described.
FIGS. 5 and 6 respectively show the external appearances of the second and third handwriting input pens 40 and 42 used in place of the first handwriting input pen 26 shown in FIG. 4 and the like in the information management system 1 (FIG. 1). FIG.
5 and 6, substantially common components are denoted by common reference numerals (the same applies to the following drawings).

図5に示すように、第2の手書き入力ペン40は、接触部材400、拡大鏡402、CCDカメラ412、ファンクション切り替え部416、ファンクション表示LED418、有機ELディスプレイを含むシート状ディスプレイ420およびキャップ422などから構成される。
なお、手書き入力ペン40の本体の一番太い部分の太さは、握りやすさが考慮されて、例えば、直径4cm以下(成人の親指とひとさし指とで作られた環より小さい直径)とされる。
さらに、第2の手書き入力ペン40は、図4に示した第1の手書き入力ペン26の機能の他、例えば、制御部288の制御に従って、図5を参照して以下に説明するような機能をサポートする構成部分を有する(第3の手書き入力ペン42(図6)も同様)。
接触部材400は、第1の手書き入力ペン26の筆記部材260に対応し、ボールペン、指し棒、針、鉛筆、マーカーペン、フェルトあるいは先が丸い樹脂などで構成され、用紙128,130などの部材に接触する。
なお、接触部材400は、文字入力およびポインティングの他に、筆圧に応じた機能の選択などにも用いられうる。
As shown in FIG. 5, the second handwriting input pen 40 includes a contact member 400, a magnifying glass 402, a CCD camera 412, a function switching unit 416, a function display LED 418, a sheet-like display 420 including an organic EL display, a cap 422, and the like. Consists of
The thickness of the thickest part of the main body of the handwriting input pen 40 is, for example, a diameter of 4 cm or less (a diameter smaller than a ring made of an adult thumb and a forefinger) in consideration of ease of gripping. .
Furthermore, in addition to the function of the first handwriting input pen 26 shown in FIG. 4, the second handwriting input pen 40 has functions as described below with reference to FIG. 5 according to the control of the control unit 288, for example. (The same applies to the third handwriting input pen 42 (FIG. 6)).
The contact member 400 corresponds to the writing member 260 of the first handwriting input pen 26, and is composed of a ballpoint pen, a pointing stick, a needle, a pencil, a marker pen, felt, or a resin having a round tip, and is a member such as paper 128, 130. To touch.
Note that the contact member 400 can be used not only for character input and pointing, but also for selecting a function according to writing pressure.

拡大鏡402は、例えば、レンズ枠404にはめ込まれ、照準用目盛り408が付された拡大用レンズ406、レンズ枠404に付され、ユーザの手元を照らす照明用ライト410から構成される。
レンズ枠404は、本体に対して着脱可能であって、レンズ枠404を本体にフレキシブルに固定する継ぎ手412によって、本体に対して固定される。
CCDカメラ414は、第1の手書き入力ペン26(図4)におけるレンズ系264およびCCD素子266に対応し、手書き文字の入力のための他、一般的なディジタルカメラと同様な画像撮影のためにも用いられうる。
The magnifying glass 402 includes, for example, a magnifying lens 406 fitted into the lens frame 404 and provided with a sighting scale 408, and an illumination light 410 that illuminates the user's hand.
The lens frame 404 is detachable from the main body, and is fixed to the main body by a joint 412 that flexibly fixes the lens frame 404 to the main body.
The CCD camera 414 corresponds to the lens system 264 and the CCD element 266 in the first handwriting input pen 26 (FIG. 4), and is for inputting handwritten characters and for taking images similar to a general digital camera. Can also be used.

ファンクション切り替え部416は、例えば、第1の手書き入力ペン26のスイッチ288(図4)に対応し、図5に矢印で示すように、手書き入力ペン40の機能(ファンクション)の選択のために用いられる。
手書き入力ペン40の機能の例としては、音声入力/音声再生などの機能、音声のバッファリング時間設定および機能のロックなどが挙げられる。
この機能選択は、ユーザが、本体の継ぎ目を回転させ、ファンクションを示す目盛りを合わせることにより行われる。
ファンクション表示LED418は、それぞれ色が異なる発光ダイオードなどから構成され、選択された機能を表示する。
The function switching unit 416 corresponds to, for example, the switch 288 (FIG. 4) of the first handwriting input pen 26 and is used for selecting the function (function) of the handwriting input pen 40 as indicated by an arrow in FIG. It is done.
Examples of functions of the handwriting input pen 40 include functions such as voice input / sound reproduction, voice buffering time setting, and function lock.
This function selection is performed by the user rotating the joint of the main body and matching the scale indicating the function.
The function display LED 418 is composed of light emitting diodes having different colors, and displays the selected function.

手書き入力ペン40の本体において、キャップ422が装着される部分には電源スイッチ(図示せず)が設けられ、接触部材400を覆っていたキャップ422はずされて、所定の部分に装着されると、手書き入力ペン40の電源が投入される。
また、手書き入力ペン40の本体において、キャップ422が装着される部分には円筒状に形成されたディスプレイ420が設けられ、様々な表示のために用いられる。
In the main body of the handwriting input pen 40, a power switch (not shown) is provided in a portion where the cap 422 is attached, and when the cap 422 covering the contact member 400 is removed and attached to a predetermined portion, The power of the handwriting input pen 40 is turned on.
Further, in the main body of the handwriting input pen 40, a display 420 formed in a cylindrical shape is provided in a portion where the cap 422 is mounted, and is used for various displays.

また、図6に示すように、第3の手書き入力ペン42には、接触部材400の代わりに、接触部材424が設けられ、ディスプレイ420の代わりに、ノック式ファンクション切り替え部426、指向性マイク430および指向性調整部434が設けられる。
手書き入力ペン42において、音声のバッファリング機能のオン/オフなどのために用いられるノック式ファンクション切り替え部426は、ファンクション切り替え部416およびファンクション表示LED418と併用されてもよく、ユーザが、ノック式ファンクション切り替え部426を押下するたびに、手書き入力ペン42の機能が変更され、変更された機能は、機能表示部428に、色などで表示される。
また、ユーザが、本体のつなぎ目に設けられた指向性調整部434を回すと、指向性マイク430の指向性が調整され、指向性マイク430の指向性が、指向性を示す印432により表示される。
As shown in FIG. 6, the third handwriting input pen 42 is provided with a contact member 424 instead of the contact member 400, and instead of the display 420, a knock function switching unit 426 and a directional microphone 430 are provided. And the directivity adjustment part 434 is provided.
In the handwriting input pen 42, the knock function switching unit 426 used for turning on / off the voice buffering function may be used in combination with the function switching unit 416 and the function display LED 418. Each time the switching unit 426 is pressed, the function of the handwriting input pen 42 is changed, and the changed function is displayed on the function display unit 428 with a color or the like.
When the user turns the directivity adjusting unit 434 provided at the joint of the main body, the directivity of the directional microphone 430 is adjusted, and the directivity of the directional microphone 430 is displayed by a mark 432 indicating directivity. The

[電子認証印24]
図7は、図1に示した電子認証印24の構成を示す図である。
図7に示すように、電子認証印24は、レンズ系264、CCD素子266、圧力センサ268、画像取込回路270、MIC272、音声処理回路274、電源278、バッファメモリ282、送信メモリ284、制御部286、スイッチ288、印面240、印鑑データ記憶部244および送信回路246が、一般的な印鑑の形態に形成された電子認証印本体242に収容されて構成される。
電子認証印24は、手書入力ペン26と同様に、例えば、1チップマイクロプロセッサ応用装置としてのハードウェア構成を採り、電子認証印24の各構成部分は、適宜、専用のハードウェアあるいは1チップマイクロプロセッサ上で動作するソフトウェアとして実現される。
[Electronic authentication stamp 24]
FIG. 7 is a diagram showing the configuration of the electronic authentication stamp 24 shown in FIG.
As shown in FIG. 7, the electronic authentication mark 24 includes a lens system 264, a CCD element 266, a pressure sensor 268, an image capture circuit 270, an MIC 272, an audio processing circuit 274, a power supply 278, a buffer memory 282, a transmission memory 284, and a control. The unit 286, the switch 288, the seal surface 240, the seal data storage unit 244, and the transmission circuit 246 are housed in an electronic authentication seal body 242 formed in a general seal form.
Similar to the handwriting input pen 26, for example, the electronic authentication stamp 24 has a hardware configuration as a one-chip microprocessor application device. Each component of the electronic authentication stamp 24 is appropriately configured with dedicated hardware or one chip. Realized as software running on a microprocessor.

電子認証印24は、これらの構成部分により、ユーザ認証を情報サーバ16などとの間で行う。
また、電子認証印24は、電子的な印鑑情報データを、入力装置20および情報サーバ16などに対して出力する。
The electronic authentication stamp 24 performs user authentication with the information server 16 or the like by using these components.
The electronic authentication stamp 24 outputs electronic seal stamp information data to the input device 20 and the information server 16.

電子認証印24において、印面240は、用紙128,130などに当接されて、印影を与えるとともに、受けた圧力を圧力センサ268に伝える。
なお、手書き入力ペン26においてと同様に、圧力センサ268が、電子認証印本体242にかかるユーザの握力を検出できるようにすると、電子認証印24を用いたユーザ認証が可能となる。
印鑑データ記憶部244は、電子認証印24から入力装置20などに対して出力されるべき印鑑データ(手書き入力ペン26と同様な識別符号・識別番号を含んでいてもよい)を保持し、送信回路246に対して出力する。
In the electronic authentication stamp 24, the stamp surface 240 is brought into contact with the paper 128, 130, etc. to give a seal impression and transmit the received pressure to the pressure sensor 268.
As with the handwriting input pen 26, if the pressure sensor 268 can detect the user's gripping force applied to the electronic authentication seal main body 242, user authentication using the electronic authentication seal 24 can be performed.
The seal data storage unit 244 holds seal data (which may include an identification code / identification number similar to the handwritten input pen 26) to be output from the electronic authentication seal 24 to the input device 20 or the like, and transmits the seal data. Output to the circuit 246.

送信回路246は、画像取込回路270から入力される用紙128,130上の背景パターン136(図3)の画像、および、圧力センサ268が検出した圧力などを示す画像・圧力データ(手書入力ペン26における筆跡データと同様)と、印鑑データ記憶部244から入力される印鑑データ、および、音声処理回路274から入力される音声データを含む印鑑情報データを生成する。
送信回路246は、手書き入力ペン26における送信回路280と同様に、制御部288の制御に従って、生成した印鑑情報データを、入力装置20あるいはPC18に対して出力する。
The transmission circuit 246 receives the image of the background pattern 136 (FIG. 3) on the paper 128, 130 input from the image capture circuit 270, and image / pressure data (handwriting input) indicating the pressure detected by the pressure sensor 268. Seal information data including seal data input from the seal data storage unit 244 and voice data input from the voice processing circuit 274 is generated.
Similar to the transmission circuit 280 in the handwriting input pen 26, the transmission circuit 246 outputs the generated seal information data to the input device 20 or the PC 18 under the control of the control unit 288.

[入力装置用プログラム200]
図8は、図1に示した入力装置20上で動作する入力装置用プログラム200を示す図である。
図8に示すように、入力装置用プログラム200は、受信処理部202、筆跡解析部204、文字識別部206、音声処理部208(音声入力手段)、対応付け部210、背景検出部212、位置検出部214(検出手段)、データベース(DB)管理部216、ペン情報DB220、通信処理部222および印鑑情報処理部224から構成される。
[Input Device Program 200]
FIG. 8 is a diagram showing an input device program 200 operating on the input device 20 shown in FIG.
As illustrated in FIG. 8, the input device program 200 includes a reception processing unit 202, a handwriting analysis unit 204, a character identification unit 206, a voice processing unit 208 (speech input unit), an association unit 210, a background detection unit 212, a position. It comprises a detection unit 214 (detection means), a database (DB) management unit 216, a pen information DB 220, a communication processing unit 222, and a seal information processing unit 224.

入力装置用プログラム200は、例えば、記録媒体114(図2)を介して入力装置20に供給され、メモリ104にロードされて実行される(以下に示す各プログラムについて同じ)。
入力装置用プログラム200は、これらの構成部分により、手書入力ペン26から入力される筆跡データ、筆圧データおよび音声データを処理し、これらを対応付けて、情報サーバ16(図1)に対して送信する。
The input device program 200 is supplied to the input device 20 via, for example, the recording medium 114 (FIG. 2), loaded into the memory 104, and executed (the same applies to each program shown below).
The input device program 200 processes handwriting data, writing pressure data, and voice data input from the handwriting input pen 26 using these components, and associates them with each other to the information server 16 (FIG. 1). To send.

入力装置用プログラム200において、受信処理部202は、入力装置20の無線IF116(図2)が受信した筆跡データ、筆圧データを、筆跡解析部204に対して出力する。
また、受信処理部202は、無線IF116が受信した音声データを、音声処理部208に対して出力する。
また、受信処理部202は、筆跡データを、背景検出部212に対して出力する。
また、受信処理部202は、必要に応じて、電子認証印24および手書き入力ペン26により得られた筆跡データ、音声データ、筆圧データ、画像・圧力データおよび印鑑データを、通信処理部222に対して出力する。
In the input device program 200, the reception processing unit 202 outputs handwriting data and writing pressure data received by the wireless IF 116 (FIG. 2) of the input device 20 to the handwriting analysis unit 204.
The reception processing unit 202 also outputs the audio data received by the wireless IF 116 to the audio processing unit 208.
In addition, the reception processing unit 202 outputs handwriting data to the background detection unit 212.
Further, the reception processing unit 202 sends handwriting data, voice data, writing pressure data, image / pressure data, and seal data obtained by the electronic authentication seal 24 and the handwriting input pen 26 to the communication processing unit 222 as necessary. Output.

筆跡解析部204は、例えば、背景管理装置32から、背景パターン136を示す情報を得て、受信処理部202から入力された筆圧データおよび筆圧データを解析して、ユーザが用紙128,130に記した線の始点の位置を検出し、さらに、背景パターン136(図3)のドット134の移動方向および移動速度を算出する。
筆跡解析部204は、このようにして得られた解析結果を、文字識別部206に対して出力する。
For example, the handwriting analysis unit 204 obtains information indicating the background pattern 136 from the background management device 32, analyzes the pen pressure data and the pen pressure data input from the reception processing unit 202, and allows the user to use the sheets 128 and 130. Is detected, and the moving direction and moving speed of the dot 134 of the background pattern 136 (FIG. 3) are calculated.
The handwriting analysis unit 204 outputs the analysis result thus obtained to the character identification unit 206.

文字識別部206は、筆跡解析部204による解析結果に基づいて、ユーザが、用紙128,130などに記した文字を識別し、文字データとして、対応付け部210に対して出力する。
また、文字識別部206は、筆跡解析部204による解析結果に基づいて、ユーザが、用紙128,130などに対して行ったポインティングなどの操作を識別し、操作データとして、対応付け部210に対して出力する。
なお、文字認識部206は、文字データおよび操作データとともに、筆跡の解析の対象となった筆跡データおよび筆圧データを、対応付け部210に対して出力してもよい。
また、文字認識部206は、ユーザ認証の結果、手書き文字の入力が許可されたときに、文字データを、通信処理部206に対して送信する。
Based on the analysis result by the handwriting analysis unit 204, the character identification unit 206 identifies the character written on the paper 128, 130, etc. by the user, and outputs it to the association unit 210 as character data.
In addition, the character identification unit 206 identifies an operation such as pointing performed by the user on the paper 128, 130 based on the analysis result by the handwriting analysis unit 204, and the operation data is transmitted to the association unit 210 as operation data. Output.
Note that the character recognizing unit 206 may output the handwriting data and the writing pressure data subjected to handwriting analysis to the associating unit 210 together with the character data and the operation data.
Moreover, the character recognition part 206 transmits character data with respect to the communication process part 206, when the input of a handwritten character is permitted as a result of user authentication.

音声処理部208は、受信処理部202から入力された音声データに対して、圧縮・符号化およびバッファリングなどの処理を行い、対応付け部210に対して出力する。
背景検出部212は、受信処理部202から入力された筆跡データ(画像)から、用紙128,130に付された背景パターン136(図3)を検出し、位置検出部214に対して出力する。
The audio processing unit 208 performs processing such as compression / encoding and buffering on the audio data input from the reception processing unit 202 and outputs the processed data to the associating unit 210.
The background detection unit 212 detects the background pattern 136 (FIG. 3) attached to the sheets 128 and 130 from the handwriting data (image) input from the reception processing unit 202 and outputs the background pattern 136 to the position detection unit 214.

位置検出部214は、背景管理装置32から用紙128,130に付された背景パターン136を示す情報(以下、背景パターンデータとも記す)を受け、手書入力ペン26が筆記あるいはポインティングしている用紙128,130上の位置を検出し、用紙128,130上の位置を示す位置データとして、対応付け部210に対して出力する。
対応付け部210は、文字識別部206から入力された文字データおよび操作データ(これらには、上述のように、筆跡データおよび筆圧データが付加されることがある)と、音声処理部208から入力された音声データと、位置検出部214から入力された位置データとを対応付け、ペン情報データとして、DB管理部216に対して出力する。
The position detection unit 214 receives information indicating the background pattern 136 attached to the sheets 128 and 130 (hereinafter also referred to as background pattern data) from the background management device 32, and the sheet on which the handwriting input pen 26 is writing or pointing. The positions on 128 and 130 are detected, and are output to the associating unit 210 as position data indicating the positions on the sheets 128 and 130.
The associating unit 210 includes character data and operation data input from the character identifying unit 206 (to which handwriting data and writing pressure data may be added as described above) and a voice processing unit 208. The input voice data and the position data input from the position detection unit 214 are associated with each other, and are output to the DB management unit 216 as pen information data.

印鑑情報処理部224は、電子認証印24から印鑑情報データを受けて、例えば、印面240に加わる圧力が大きく変化したタイミングで、通信処理部222を介して情報サーバ16などに対して出力する。
また、印鑑情報処理部224は、電子認証印24から受けた印鑑情報データを、DB管理部216に対して出力する。
また、印鑑情報処理部224は、電子認証印24を用いたユーザ認証が行われるときには、電子認証印24のユーザが認証されたときにのみ、電子認証印24から受けた印鑑情報データを、情報サーバ16あるいはDB管理部216に対して出力する。
The seal stamp information processing unit 224 receives seal stamp information data from the electronic authentication stamp 24 and outputs the stamp information data to the information server 16 or the like via the communication processing unit 222 at the timing when the pressure applied to the stamp surface 240 is greatly changed.
Further, the seal stamp information processing unit 224 outputs the seal stamp information data received from the electronic authentication stamp 24 to the DB management unit 216.
In addition, when the user authentication using the electronic authentication seal 24 is performed, the seal stamp information processing unit 224 receives the seal information data received from the electronic authentication seal 24 only when the user of the electronic authentication seal 24 is authenticated. Output to the server 16 or the DB management unit 216.

通信処理部222は、ネットワーク120(図1)を介した他のノードとの通信に必要な処理を行う。
DB管理部216は、対応付け部210から入力されたペン情報データ、および、印鑑情報処理部224から入力された印鑑情報データを、ペン情報DB220に記憶させ、管理する。
The communication processing unit 222 performs processing necessary for communication with other nodes via the network 120 (FIG. 1).
The DB management unit 216 stores the pen information data input from the association unit 210 and the seal information data input from the seal information processing unit 224 in the pen information DB 220 for management.

また、DB管理部216は、必要に応じて、ペン情報DB220に記憶したペン情報データおよび印鑑情報データを、通信処理部222を介して、情報サーバ16などに対して送信する。
また、DB管理部216は、ユーザの操作に応じて、記憶したペン情報データおよび印鑑情報データを、文字データあるいは音声データとして、入出力装置106などから出力する。
Further, the DB management unit 216 transmits pen information data and seal stamp information data stored in the pen information DB 220 to the information server 16 or the like via the communication processing unit 222 as necessary.
Further, the DB management unit 216 outputs the stored pen information data and seal stamp information data from the input / output device 106 or the like as character data or voice data in accordance with a user operation.

なお、DB管理部216は、情報サーバ16が、手書入力ペン26を用いたユーザの認証を行うときには、情報サーバ16が認証したユーザにより入力されたペン情報データのみを、通信処理部222を介して他のノードに送信し、あるいは、ペン情報DB220に記憶させ、管理する。
また、DB管理部216は、情報サーバ16が、電子認証印24の認証を行うときには、情報サーバ16が認証した電子認証印24から入力された印鑑情報のみを、通信処理部222を介して他のノードに送信し、あるいは、ペン情報DB220に記憶させ、管理する。
When the information server 16 authenticates the user using the handwriting input pen 26, the DB management unit 216 uses the communication processing unit 222 only for the pen information data input by the user authenticated by the information server 16. To the other node or stored in the pen information DB 220 for management.
In addition, when the information server 16 authenticates the electronic authentication seal 24, the DB management unit 216 receives only the seal information input from the electronic authentication seal 24 authenticated by the information server 16 via the communication processing unit 222. Or stored in the pen information DB 220 for management.

[情報サーバプログラム160]
図9は、図1に示した情報サーバ16上で動作する情報サーバプログラム160を示す図である。
図9に示すように、情報サーバプログラム160は、通信処理部222、操作解析部164、DB管理部166、ペン情報DB168、サービス提供部170(音声出力手段,第1の音声出力手段)および付加サービスDB172(情報記憶手段)から構成される。
[Information Server Program 160]
FIG. 9 is a diagram showing an information server program 160 operating on the information server 16 shown in FIG.
As shown in FIG. 9, the information server program 160 includes a communication processing unit 222, an operation analysis unit 164, a DB management unit 166, a pen information DB 168, a service providing unit 170 (voice output means, first voice output means), and an addition. The service DB 172 (information storage means) is configured.

情報サーバプログラム160は、これらの構成部分により、各入力装置20から入力されるペン情報データおよび印鑑情報データを記憶および管理し、要求に応じて、記憶したペン情報データをPC18などに対して提供する。
また、情報サーバプログラム160は、PC18などに対して、付加サービスを提供する。
With these components, the information server program 160 stores and manages pen information data and seal stamp information data input from each input device 20, and provides the stored pen information data to the PC 18 or the like upon request. To do.
The information server program 160 provides additional services to the PC 18 and the like.

通信処理部222は、入力装置用プログラム200(図8)においてと同様に、ネットワーク120(図1)を介した他のノードとの通信のために必要な処理を行う。
DB管理部166は、入力装置20などからペン情報データおよび印鑑情報データを受信し、ペン情報DB168に記憶させ、管理する。
また、DB管理部166は、PC18など他のノードおよびサービス提供部170からの要求を受けて、ペン情報DB168に記憶したペン情報データおよび印鑑情報データを提供する。
Similarly to the input device program 200 (FIG. 8), the communication processing unit 222 performs processing necessary for communication with other nodes via the network 120 (FIG. 1).
The DB management unit 166 receives pen information data and seal stamp information data from the input device 20 and stores them in the pen information DB 168 for management.
Also, the DB management unit 166 provides pen information data and seal stamp information data stored in the pen information DB 168 in response to requests from other nodes such as the PC 18 and the service providing unit 170.

操作解析部164は、入力装置20などからの操作データ、ペン情報データおよび印鑑情報データを解析し、サービス提供部170に対して出力する。
サービス提供部170は、操作解析部164による解析結果に応じて、ペン情報DB168に記憶されているペン情報データ、印鑑情報データおよび背景管理装置32から入力される背景パターンデータを適宜、用い、付加サービスDB172に記憶されている付加サービス(教育サービスなど)を、PC18および入力装置20などに提供する。
なお、サービス提供部170が提供する付加サービスは、実施例1以下を参照してさらに後述される。
The operation analysis unit 164 analyzes operation data, pen information data, and seal stamp information data from the input device 20 or the like, and outputs them to the service providing unit 170.
The service providing unit 170 uses the pen information data stored in the pen information DB 168, the seal information data, and the background pattern data input from the background management device 32 as appropriate according to the analysis result by the operation analysis unit 164. Additional services (such as education services) stored in the service DB 172 are provided to the PC 18 and the input device 20.
The additional services provided by the service providing unit 170 will be further described later with reference to the first and subsequent embodiments.

[情報利用プログラム180]
図10は、図1に示したPC18上で動作する情報利用プログラム180を示す図である。
図10に示すように、情報利用プログラム180は、受信処理部202、背景・操作検出部184、位置検出部214、通信処理部222、情報出力処理部182(第2の音声出力手段)、背景・操作検出部184およびアプリケーション186から構成される。
情報利用プログラム180がさらに、印鑑情報データを扱うときには、図8に示した印鑑情報処理部224が付加される。
情報出力処理部182は、これらの構成部分により、ユーザが、手書入力ペン26を用いて、用紙128,130をポインティングする操作に応じて、様々なサービスを提供する。
なお、以下の説明においては、説明の具体化・明確化のために、情報利用プログラム180が、ユーザのポインティング操作に応じて、音声を出力するサービス(音声入出力サービス;図12,図13を参照して、さらに後述)を提供する場合を具体例とする。
受信処理部202は、手書入力ペン26から、無線IF116(図2)を介して、筆跡データおよび筆圧データを受けて、背景・操作検出部184に対して出力する。
[Information utilization program 180]
FIG. 10 is a diagram showing an information use program 180 operating on the PC 18 shown in FIG.
As shown in FIG. 10, the information utilization program 180 includes a reception processing unit 202, a background / operation detection unit 184, a position detection unit 214, a communication processing unit 222, an information output processing unit 182 (second audio output means), a background An operation detection unit 184 and an application 186 are included.
When the information utilization program 180 further handles the seal information data, the seal information processing unit 224 shown in FIG. 8 is added.
With these components, the information output processing unit 182 provides various services according to an operation in which the user points the paper 128 or 130 using the handwriting input pen 26.
In the following description, in order to make the description more specific and clear, the information use program 180 outputs a voice (voice input / output service; FIG. 12 and FIG. 13) according to the user's pointing operation. A case will be described as a specific example where reference is made to the following.
The reception processing unit 202 receives handwriting data and writing pressure data from the handwriting input pen 26 via the wireless IF 116 (FIG. 2) and outputs them to the background / operation detection unit 184.

背景・操作検出部184は、受信処理部202から入力される筆跡データ(背景パターン136(図3)の画像)から、背景パターン136を検出する。
また、背景・操作検出部184は、受信処理部202から入力される筆圧データから、ユーザの操作を検出し、操作データとする。
背景・操作検出部184は、背景パターンデータおよび操作データを、位置検出部214に対して出力する。
The background / operation detection unit 184 detects the background pattern 136 from the handwriting data (image of the background pattern 136 (FIG. 3)) input from the reception processing unit 202.
Further, the background / operation detection unit 184 detects a user operation from the pen pressure data input from the reception processing unit 202 and sets it as operation data.
The background / operation detection unit 184 outputs background pattern data and operation data to the position detection unit 214.

[アプリケーション186による背景パターン136付加処理]
アプリケーション186は、例えば、ワードプロセッサなどの機能を含み、用紙128,130に印刷されるべき画像データ、および、用紙128,130上の各位置に対応付けられる付加データを作成する。
アプリケーション186による画像データの作成には、さらに、例えば、他のアプリケーション(図示せず)により作成されたドキュメント、および、ディジタルカメラにより撮影された画像などのデータコピー、切り抜きおよび挿入なども含まれうる。
さらに、アプリケーション186は、ユーザの操作に応じて、背景管理装置32(図1)に対して、無地の用紙128,130への背景パターン136(図3)の付加を要求し、これの要求に応じて背景管理装置32から背景パターン136を受け取る。
[Background pattern 136 addition processing by application 186]
The application 186 includes a function such as a word processor, for example, and creates image data to be printed on the paper 128 and 130 and additional data associated with each position on the paper 128 and 130.
The creation of image data by the application 186 can further include, for example, data copying, clipping, and insertion of documents created by other applications (not shown) and images taken by a digital camera. .
Further, the application 186 requests the background management device 32 (FIG. 1) to add the background pattern 136 (FIG. 3) to the plain paper 128, 130 in response to a user operation. In response, the background pattern 136 is received from the background management device 32.

アプリケーション186は、背景管理装置32から受けた背景パターン136を、作成された画像データとともに、認定プリンタ122に対して送信し、これらを、無地の用紙128,130に印刷させる。
さらに、アプリケーション186は、情報サーバ16に、用紙128,138に付した背景パターン136を示す情報と、用紙128,13上の1つ以上の位置と、これらの位置それぞれに対応付けられた付加データとを登録する。
The application 186 transmits the background pattern 136 received from the background management device 32 to the certified printer 122 together with the created image data, and prints these on the plain paper 128 and 130.
Further, the application 186 sends information indicating the background pattern 136 attached to the sheets 128 and 138 to the information server 16, one or more positions on the sheets 128 and 13, and additional data associated with each of these positions. And register.

[アプリケーション186による背景パターン136の再利用]
また、アプリケーション186は、背景パターン136の再利用のための機能を実現する。
つまり、例えば、アプリケーション186は、廃棄処分される用紙128、あるいは、背景パターン136が消去される用紙130から、スキャナ(機能実現装置38;図2)などを用いて背景パターン136を読み込んで、背景管理装置3の背景管理装置32(図1など)に対して送信する。
さらに、アプリケーション186は、背景パターン136の送信と併せて、その背景パターン136が再利用可能である旨を、背景管理装置32に通知する。
[Reuse of Background Pattern 136 by Application 186]
Further, the application 186 implements a function for reusing the background pattern 136.
In other words, for example, the application 186 reads the background pattern 136 from the paper 128 to be discarded or the paper 130 from which the background pattern 136 is erased by using a scanner (function realization device 38; FIG. 2) or the like. It transmits to the background management device 32 (FIG. 1 etc.) of the management device 3.
Further, the application 186 notifies the background management apparatus 32 that the background pattern 136 can be reused together with the transmission of the background pattern 136.

位置検出部214は、背景管理装置32から受けた背景パターンデータを用いて、ユーザがポインティングしている用紙128,130の位置を検出し、操作データとともに、通信処理部222に対して出力する。   The position detector 214 uses the background pattern data received from the background management device 32 to detect the position of the paper 128 or 130 that the user is pointing to, and outputs it to the communication processor 222 together with the operation data.

通信処理部222は、位置検出部214から入力された位置データを情報サーバ16に通知し、位置検出部214が検出した用紙128,130上の位置に対応するペン情報データを要求する。
通信処理部222は、情報サーバ16から、要求に応じたペン情報データを受けて、情報出力処理部182に対して出力する。
The communication processing unit 222 notifies the information server 16 of the position data input from the position detection unit 214 and requests pen information data corresponding to the positions on the paper 128 and 130 detected by the position detection unit 214.
The communication processing unit 222 receives pen information data in response to the request from the information server 16 and outputs the pen information data to the information output processing unit 182.

なお、通信処理部222は、情報サーバ16が、手書入力ペン26を用いたユーザの認証を行うときには、情報サーバプログラム160(図8)のDB管理部216と同様に、情報サーバ16が認証したユーザにより入力されたペン情報データのみを、情報出力処理部182あるいは他のノードに対して出力する。
情報出力処理部182は、通信処理部222から入力されたペン情報データに含まれる音声データを、入出力装置106(図9)から出力する。
When the information server 16 authenticates the user using the handwriting input pen 26, the communication processing unit 222 authenticates the information server 16 in the same manner as the DB management unit 216 of the information server program 160 (FIG. 8). Only the pen information data input by the user is output to the information output processing unit 182 or other nodes.
The information output processing unit 182 outputs voice data included in the pen information data input from the communication processing unit 222 from the input / output device 106 (FIG. 9).

[背景管理プログラム34]
図11は、図1に示した背景管理装置32上で動作する背景管理プログラム34を示す図である。
図11に示すように、背景管理プログラム34は、未使用背景パターンDB340、使用済背景パターンDB342、DB管理部344および通信処理部222から構成される。
背景管理プログラム34は、これらの構成部分により、用紙128,130それぞれにいずれの背景パターン136が付されているかを管理する。
また、背景管理プログラム34は、情報管理システム1の各ノードに対する背景パターン136の配信および再利用を行う。
[Background management program 34]
FIG. 11 is a diagram showing a background management program 34 that operates on the background management apparatus 32 shown in FIG.
As illustrated in FIG. 11, the background management program 34 includes an unused background pattern DB 340, a used background pattern DB 342, a DB management unit 344, and a communication processing unit 222.
The background management program 34 manages which background pattern 136 is attached to each of the sheets 128 and 130 by these components.
The background management program 34 distributes and reuses the background pattern 136 for each node of the information management system 1.

通信処理部222は、入力装置用プログラム200(図8)などにおいてと同様に、ネットワーク120(図1)を介した他のノードとの通信のために必要な処理を行う。
未使用背景パターンDB340は、用紙128,130のいずれにも付されていない背景パターン136を示す背景パターンデータを記憶する。
使用済背景パターンDB342は、いずれかの用紙128,130に付されている背景パターン136を示す背景パターンデータを記憶する。
The communication processing unit 222 performs processing necessary for communication with other nodes via the network 120 (FIG. 1) as in the input device program 200 (FIG. 8).
The unused background pattern DB 340 stores background pattern data indicating the background pattern 136 that is not attached to any of the sheets 128 and 130.
The used background pattern DB 342 stores background pattern data indicating the background pattern 136 attached to one of the sheets 128 and 130.

DB管理部344は、他のノード(PC18など)から、未使用の背景パターン136が要求されたときには、未使用背景パターンDB340に記憶されている未使用の背景パターン136を選択して、要求したノードに配信する。
DB管理部344は、さらに、配信した背景パターン136の背景パターンデータを、未使用背景パターンDB340から削除し、使用済背景パターンDB342に記憶し、管理する。
また、DB管理部344は、他のノードから、背景パターン136を、それが使用されなくなった旨とともに受信したときには、使用済背景パターンDB342から受信された背景パターン136の背景パターンデータを削除し、未使用背景パターンDB340に、受信された背景パターン136の背景パターンデータを記憶させる。
When an unused background pattern 136 is requested from another node (such as PC 18), the DB management unit 344 selects and requests an unused background pattern 136 stored in the unused background pattern DB 340. Deliver to the node.
The DB management unit 344 further deletes the background pattern data of the distributed background pattern 136 from the unused background pattern DB 340 and stores and manages the background pattern data in the used background pattern DB 342.
Further, when receiving the background pattern 136 from another node together with the fact that it is no longer used, the DB management unit 344 deletes the background pattern data of the background pattern 136 received from the used background pattern DB 342, The background pattern data of the received background pattern 136 is stored in the unused background pattern DB 340.

[情報管理システム1による音声入出力]
図12は、情報管理システム1(図1)による音声入出力サービスを例示する図である。
情報管理システム1における音声入出力サービスは、図12に示すように、ユーザが、以下のような操作を行うことにより実現される。
[Voice input / output by information management system 1]
FIG. 12 is a diagram illustrating a voice input / output service by the information management system 1 (FIG. 1).
As shown in FIG. 12, the voice input / output service in the information management system 1 is realized by the user performing the following operations.

(1)ユーザが、手書入力ペン26(図1,図4)を操作して、音声(図12に例示する「今年度の目標は、売り上げ10%増です」)を受け入れる状態とする。
(2)ユーザが、入力装置20のそばで、手書入力ペン26を用いて、背景が付された用紙128,130にメモ(図12に例示する「今朝の社長の話」)を取る。
(3)ユーザが、PC18のそばで、用紙128,130上のメモをポインティングし、音声を出力させる操作を行う。
(1) The user operates the handwriting input pen 26 (FIGS. 1 and 4) to accept voice (“the target for this year is a 10% increase in sales” illustrated in FIG. 12).
(2) The user takes a note (“the story of the president this morning” illustrated in FIG. 12) on the paper 128, 130 with the background by using the handwriting input pen 26 near the input device 20.
(3) The user performs an operation of pointing a memo on the paper 128, 130 and outputting a sound near the PC 18.

以上のユーザの操作により、入力装置20は、手書入力ペン26の周囲の音声を受け入れて音声データとし、背景が付された用紙128,130上のメモの位置データと対応付けて、ペン情報データとして情報サーバ16に送る。
PC18のそばで、ユーザが、背景が付された用紙128,130上のメモの位置をポインティングし、音声を出力させる操作を行うと、PC18は、メモの位置に対応付けられた音声データを含むペン情報データを、情報サーバ16に対して要求する。
入力装置20は、この要求に応じたペン情報データを、PC18に送る。
PC18は、このペン情報データに含まれる音声データを、音声として、入出力装置106(図2)から出力する。
Through the above-described user operation, the input device 20 accepts the voice around the handwriting input pen 26 as voice data, associates it with the position data of the memo on the paper 128, 130 with the background, and the pen information. The data is sent to the information server 16 as data.
When the user performs an operation of pointing the position of the memo on the paper 128, 130 with the background and outputting a sound by the PC 18, the PC 18 includes the audio data associated with the position of the memo. Pen information data is requested to the information server 16.
The input device 20 sends pen information data corresponding to this request to the PC 18.
The PC 18 outputs the voice data included in the pen information data as voice from the input / output device 106 (FIG. 2).

図13を参照して、情報管理システム1における音声入出力サービスを、さらに説明する。
図13は、情報管理システム1(図1)において、図12に示した音声入出力サービスを実現するための通信シーケンス(S10)を示す図である。
図13に示すように、ステップ100(S100)において、手書入力ペン26は、周囲の音声を受け入れ、入力装置20に対して、音声データを、順次、出力する。
With reference to FIG. 13, the voice input / output service in the information management system 1 will be further described.
FIG. 13 is a diagram showing a communication sequence (S10) for realizing the voice input / output service shown in FIG. 12 in the information management system 1 (FIG. 1).
As shown in FIG. 13, in step 100 (S <b> 100), the handwriting input pen 26 accepts surrounding voice and sequentially outputs voice data to the input device 20.

ステップ102(S102)において、ユーザが、入力装置20のそばで、背景が付された用紙128,130上に、手書入力ペン26を用いてメモを取ることにより、用紙128,130上の位置をポインティングし、音声入力のための所定の操作(単に、手書入力ペン26を用紙128,130から離す操作でもよい)を行う。
手書入力ペン26は、これらの操作を、入力装置20に対して伝える。
In step 102 (S102), the user takes a note by using the handwriting input pen 26 on the paper 128, 130 with the background near the input device 20, and thereby the position on the paper 128, 130. And perform a predetermined operation for voice input (simply an operation of simply moving the handwriting input pen 26 away from the paper 128, 130).
The handwriting input pen 26 transmits these operations to the input device 20.

ステップ104(S104)において、入力装置20は、背景が付された用紙128,130上のメモの位置を示す位置データと、S100の処理により得られた音声データとを対応付けてペン情報データとし、情報サーバ16に対して送信する。
情報サーバ16は、このペン情報データを受けて記憶し、管理する。
In step 104 (S104), the input device 20 associates the position data indicating the position of the memo on the paper 128, 130 with the background and the voice data obtained by the process of S100 into pen information data. To the information server 16.
The information server 16 receives, stores and manages the pen information data.

ステップ106(S106)において、ユーザは、PC18のそばに移動し、手書入力ペン26を用いて、背景が付された用紙128,130上のメモをポインティングし、音声出力のための所定の操作(例えば、連続して2回、メモの位置をポインティングするなど)を行う。
手書入力ペン26は、ポインティングおよび操作に応じた筆跡データおよび筆圧データを、PC18に対して送信する。
In step 106 (S106), the user moves near the PC 18 and uses the handwriting input pen 26 to point the memo on the paper 128, 130 with the background, and to perform a predetermined operation for voice output. (For example, pointing the position of the memo twice in succession).
The handwriting input pen 26 transmits handwriting data and writing pressure data corresponding to pointing and operation to the PC 18.

ステップ108(S108)において、PC18は、情報サーバ16に対して、メモの位置を示す位置データを含むペン情報データを要求する。
ステップ110(S110)において、情報サーバ16は、PC18から通知された位置データを含むペン情報データを、PC18に対して送信する。
PC18は、情報サーバ16からのペン情報データを受けて、このペン情報データに含まれる音声データを、音声として、入出力装置106(図2)から出力する。
In step 108 (S108), the PC 18 requests the information server 16 for pen information data including position data indicating the position of the memo.
In step 110 (S110), the information server 16 transmits pen information data including position data notified from the PC 18 to the PC 18.
The PC 18 receives the pen information data from the information server 16 and outputs the sound data included in the pen information data as sound from the input / output device 106 (FIG. 2).

[教育サービス]
図14は、情報管理システム1(図1)による教育サービスを例示する図である。
ここでは、情報管理システム1により、例えば、英語教育のサービスを提供する場合を具体例とする。
図14に示すように、背景が付された用紙128,130に、英単語(Patent)が印刷され、さらに、用紙128,130のそれぞれ予め決められた位置に、英単語の発音を聞くためのボタンと、英単語の意味を聞くためのボタンとが印刷されている。
[Education service]
FIG. 14 is a diagram illustrating an education service by the information management system 1 (FIG. 1).
Here, for example, a case where an English education service is provided by the information management system 1 is taken as a specific example.
As shown in FIG. 14, English words (Patents) are printed on papers 128 and 130 with a background, and the pronunciation of the English words is heard at predetermined positions on the papers 128 and 130, respectively. A button and a button for listening to the meaning of the English word are printed.

ユーザが、背景が付された用紙128の「発音」のボタンを、手書入力ペン26(図1,図4)でポインティングすると、用紙128,130の背景パターン136(図3)に対応する英単語(ここではPatent)の発音が音声出力される。
また、背景が付された用紙128の「意味」のボタンをポインティングすると、用紙128,130の背景パターン136に対応する英単語の意味(特許)が音声出力される。
ユーザが、これらのボタン以外の用紙128,130上の位置をポインティングすると、その部分に対応する情報が存在しない旨が、音声あるいは画像により表示される。
When the user points the “pronunciation” button of the paper 128 with the background with the handwriting input pen 26 (FIGS. 1 and 4), the English corresponding to the background pattern 136 (FIG. 3) of the paper 128 and 130 is displayed. The pronunciation of a word (here, “Patent”) is output as a voice.
When the “meaning” button of the paper 128 with the background is pointed, the meaning (patent) of the English word corresponding to the background pattern 136 of the paper 128, 130 is output as a voice.
When the user points to a position on the paper 128, 130 other than these buttons, the fact that there is no information corresponding to that portion is displayed by voice or image.

図15は、図14に示した教育サービスを実現するために、情報サーバ16の付加サービスDB172(図9)に記憶されるデータを例示する図であって、(A)は、音声データの出力に用いられるインデックスを示し、(B)は、インデックスにより参照される音声データを示す。
図14に示した教育サービスの実現には、例えば、図15に示すようなデータが、付加サービスDB172に記憶される。
FIG. 15 is a diagram exemplifying data stored in the additional service DB 172 (FIG. 9) of the information server 16 in order to realize the educational service shown in FIG. (B) indicates audio data referred to by the index.
For realizing the education service shown in FIG. 14, for example, data as shown in FIG. 15 is stored in the additional service DB 172.

まず、ユーザが、図14に示したような背景付き用紙128,130に対するポインティング操作を行うと、PC18から、用紙128,130(図14)の背景パターンデータと、ユーザが、用紙128,130上をポインティングした位置を示す位置データとが、情報サーバ16に送られてくる。
情報サーバ16のサービス提供部170(図9)は、PC18からの背景パターンデータと、背景パターン136の識別子(ID;背景パターンID)とを対応付ける。
First, when the user performs a pointing operation on the background paper 128, 130 as shown in FIG. 14, the background pattern data of the paper 128, 130 (FIG. 14) and the user on the paper 128, 130 are displayed from the PC 18. Position data indicating the position where the character is pointed is sent to the information server 16.
The service providing unit 170 (FIG. 9) of the information server 16 associates the background pattern data from the PC 18 with the identifier (ID; background pattern ID) of the background pattern 136.

さらに、サービス提供部170は、背景パターンIDと、PC18からのポインティング位置を示す位置データとを用いて、図15(A)に示すインデックスを検索し、これらの情報に対応する音声データの識別子(音声データID)を得る。
サービス提供部170は、このようにして得た音声データIDに対応する音声データ(図15(B))を、PC18に返す。
Further, the service providing unit 170 searches the index shown in FIG. 15A by using the background pattern ID and the position data indicating the pointing position from the PC 18, and the identifier of the voice data corresponding to these pieces of information ( Audio data ID) is obtained.
The service providing unit 170 returns the audio data (FIG. 15B) corresponding to the audio data ID obtained in this way to the PC 18.

あるいは、サービス提供部170は、背景パターンIDと、位置データとに対応する音声データIDが得られないときには、音声データの不存在を、PC18に通知する。
PC18は、このようにして得られた音声データを、入出力装置106(図2)から出力し、あるいは、音声データの不存在を、音声あるいは画像により、入出力装置106に表示する。
Alternatively, when the voice data ID corresponding to the background pattern ID and the position data cannot be obtained, the service providing unit 170 notifies the PC 18 of the absence of the voice data.
The PC 18 outputs the audio data thus obtained from the input / output device 106 (FIG. 2), or displays the absence of the audio data on the input / output device 106 by sound or image.

図16は、情報管理システム1(図1)において、図14に示した教育サービスを実現するための通信シーケンス(S12)を示す図である。
図16に示すように、ステップ120(S120)において、ユーザが、PC18(図1,図2,図10)のそばで、手書入力ペン26を用いて、背景が付された用紙128,130上の任意の位置をポインティングする。
PC18は、用紙128,130の背景パターンデータと、用紙128,130上のポインティングされた位置とを検出する。
FIG. 16 is a diagram showing a communication sequence (S12) for realizing the education service shown in FIG. 14 in the information management system 1 (FIG. 1).
As shown in FIG. 16, in step 120 (S120), the user uses the handwriting input pen 26 near the PC 18 (FIGS. 1, 2 and 10) to provide paper 128 and 130 with a background. Point anywhere above.
The PC 18 detects the background pattern data of the papers 128 and 130 and the pointed position on the papers 128 and 130.

ステップ122(S122)において、PC18は、ポインティングされた用紙128,130の背景パターンデータと、ポインティングされた位置を示す位置データとを、情報サーバ16に対して送信する。
ステップ124(S124)において、情報サーバ16は、情報サーバ16からの背景パターンデータおよび位置データに対応する音声データ(あるいは音声データの不存在を示すデータ)を、PC18に対して送信する。
PC18は、情報サーバ16からの音声データ(あるいはその不存在)を、音声などにより出力する。
In step 122 (S122), the PC 18 transmits the background pattern data of the pointing sheets 128 and 130 and the position data indicating the pointed position to the information server 16.
In step 124 (S124), the information server 16 transmits audio data (or data indicating the absence of audio data) corresponding to the background pattern data and position data from the information server 16 to the PC 18.
The PC 18 outputs the voice data (or absence thereof) from the information server 16 by voice or the like.

[手書入力ペンを用いたユーザ認証]
図17は、手書入力ペン26(図1,図4)を用いたユーザ認証を例示する図である。
図17に示すように、手書入力ペン26を用いたユーザ認証が行われるときには、例えば、まず、ユーザが、手書入力ペン26を用いて、背景が付された用紙128,130に対して、「認証要求」という文字を手書きし、続いて、ユーザに与えられた識別子(ユーザID)あるいはユーザの名前(以下、ユーザID・名前)を手書きする。
[User authentication using handwriting input pen]
FIG. 17 is a diagram illustrating user authentication using the handwriting input pen 26 (FIGS. 1 and 4).
As shown in FIG. 17, when user authentication is performed using the handwriting input pen 26, for example, first, the user uses the handwriting input pen 26 to the paper 128 and 130 with a background attached thereto. Then, handwritten the characters “authentication request”, and then handwritten the identifier (user ID) given to the user or the user's name (hereinafter referred to as user ID / name).

図18は、図9に示した付加サービスDB172に記憶され、手書入力ペン26を用いたユーザ認証に用いられるユーザ認証用データを例示する図である。
入力装置20は、最初に入力された「認証要求」の文字を認識すると、続いて手書きされたユーザID・ユーザの名前を認識し、認識したユーザID・名前と、手書きされたユーザID・名前の筆跡を示す筆跡データおよび筆圧データ(いずれかでもよい;以下、筆跡データ・筆圧データ)を、情報サーバ16に送信する。
情報サーバ16上で動作する情報サーバプログラム160の付加サービスDB172には、予め、図18に示すように、ユーザによるユーザID・名前の筆跡を示す筆跡データ・筆圧データと、ユーザID・名前と、その連絡先(例えばPC18)を示す情報(メールアドレスなど)が対応付けられて記憶されている。
FIG. 18 is a diagram illustrating user authentication data stored in the additional service DB 172 illustrated in FIG. 9 and used for user authentication using the handwriting input pen 26.
When the input device 20 recognizes the character of “authentication request” inputted first, it recognizes the handwritten user ID / user name, and recognizes the recognized user ID / name and handwritten user ID / name. Handwriting data and handwriting pressure data (which may be either; handwriting data and handwriting data) are transmitted to the information server 16.
In the additional service DB 172 of the information server program 160 operating on the information server 16, as shown in FIG. 18, handwriting data / writing pressure data indicating the handwriting of the user ID / name by the user, user ID / name, , Information (email address or the like) indicating the contact address (for example, PC 18) is stored in association with each other.

情報サーバ16は、入力装置20から送られてきた筆跡データ・筆圧データと、入力装置20から送られてきたユーザID・名前に対応付けられた筆跡データ・筆圧データとを比較し、これらが同一人物の筆跡と認められるときに、手書き文字を書いたユーザを、正当なユーザであると認証し、情報の入力を認める。
情報サーバ16は、さらに、手書入力ペン26のユーザの連絡先として登録されている連絡先に、認証要求があったことと、その結果とを通知する。
The information server 16 compares the handwriting data / writing pressure data sent from the input device 20 with the handwriting data / writing pressure data associated with the user ID / name sent from the input device 20. Are recognized as the handwriting of the same person, the user who wrote the handwritten character is authenticated as a valid user and the input of information is permitted.
Further, the information server 16 notifies the contact registered as the contact of the user of the handwriting input pen 26 that there is an authentication request and the result.

図19は、情報管理システム1において、図17に示した手書入力ペン26を用いたユーザ認証を実現するための通信シーケンス(S14)を示す図である。
図19に示すように、ステップ140(S140)において、ユーザが、手書入力ペン26を用いて、背景が付された用紙128,130に対して、「認証要求」の文字を手書きし、続いて、ユーザID・名前を手書きすると、手書入力ペン26は、これらの文字を示す筆跡データ・筆圧データを、入力装置20に対して出力する。
FIG. 19 is a diagram showing a communication sequence (S14) for realizing user authentication using the handwriting input pen 26 shown in FIG. 17 in the information management system 1.
As shown in FIG. 19, in step 140 (S140), the user uses the handwriting input pen 26 to hand-write the characters “authentication request” on the paper 128, 130 with the background, When the user ID / name is handwritten, the handwriting input pen 26 outputs handwriting data / writing pressure data indicating these characters to the input device 20.

ステップ142(S142)において、入力装置20は、ユーザが手書きした「認証要求」と、ユーザID・名前とを認識し、認識したユーザID・名前と、ユーザID・名前の筆跡を示す筆跡データ・筆圧データとを、情報サーバ16に対して送信する。
ステップ144(S144)において、情報サーバ16は、入力装置20から送られてきた筆跡データ・筆圧データと、付加サービスDB172(図9)内の認識されたユーザID・名前に対応する筆跡データ・筆圧データ(図18)とを比較する。
In step 142 (S142), the input device 20 recognizes the “authentication request” handwritten by the user and the user ID / name, and the handwritten data indicating the recognized user ID / name and the handwriting of the user ID / name. The pen pressure data is transmitted to the information server 16.
In step 144 (S144), the information server 16 writes the handwriting data / writing pressure data sent from the input device 20 and the handwriting data / name corresponding to the recognized user ID / name in the additional service DB 172 (FIG. 9). The writing pressure data (FIG. 18) is compared.

情報サーバ16は、これらが同一の範囲にあるときには、手書入力ペン26を用いているユーザを認証し、情報の入力を許可する旨を、入力装置20に伝える。
あるいは、これらが同一の範囲にないときには、手書入力ペン26を用いているユーザを認証せず、情報の入力を不許可とする旨を、入力装置20に伝える。
When they are in the same range, the information server 16 authenticates the user using the handwriting input pen 26 and informs the input device 20 that the input of information is permitted.
Alternatively, when they are not in the same range, the user using the handwriting input pen 26 is not authenticated, and the input device 20 is notified that information input is not permitted.

ステップ146(S146)において、情報サーバ16から、ユーザを認証した旨の通知を受けると、入力装置20は、手書入力ペン26から情報を受け入れる。
なお、このときに、入力装置20は、図17に例示したように、音声により、認証の結果を、手書入力ペン26のユーザに通知してもよい。
ステップ148(S148)において、情報サーバ16は、PC18に対して、認証要求があった旨と、その結果とを通知する。
In step 146 (S146), upon receiving notification from the information server 16 that the user has been authenticated, the input device 20 accepts information from the handwriting input pen 26.
At this time, as illustrated in FIG. 17, the input device 20 may notify the user of the handwriting input pen 26 of the authentication result by voice.
In step 148 (S148), the information server 16 notifies the PC 18 that there is an authentication request and the result.

なお、ここでは、筆跡によるユーザの認証を示したが、例えば、手書入力ペン26の手書入力ペン本体262の握りの部分に、圧力センサを設けることにより、ユーザの握りの強さを加味したユーザの認証を行うことも可能である。
あるいは、手書き入力ペン26のレンズ系264およびCCD素子266(図4)によりユーザの指紋の画像を得て、認証に用いたり、上述の手書き入力ペン26それぞれに固有の識別番号・識別符号を用いた認証を行ったり、あるいは、手書き入力ペン26のMIC272により得られるユーザの音声を用いた認証を行ったりすることも可能である。
Although the user authentication by handwriting is shown here, for example, by providing a pressure sensor in the grip portion of the handwriting input pen body 262 of the handwriting input pen 26, the strength of the user's grip is taken into account. It is also possible to authenticate the user.
Alternatively, the user's fingerprint image is obtained by the lens system 264 of the handwriting input pen 26 and the CCD element 266 (FIG. 4) and used for authentication, or each of the handwriting input pens 26 described above uses a unique identification number and identification code. It is also possible to perform authentication, or to perform authentication using the user's voice obtained by the MIC 272 of the handwriting input pen 26.

[電子認証印を用いたユーザ認証]
図20は、電子認証印24(図1,図7)を用いたユーザ認証を例示する図である。
図20に示すように、情報管理システム1(図1)において、電子認証印24を用いたユーザ認証を利用するときには、例えば、まず、ユーザは、電子認証印24に、自分の指紋の画像あるいは自分の声など、ユーザ認証に使用可能な情報を入力する。
ユーザ認証に用いられ得る情報としては、これらの外に、電子認証印24を、用紙128,130に当接させる強さ、電子認証印24の電子認証印本体242(図7)の側面に圧力センサにより検出可能な握りの強さなどを例示することができる。
[User authentication using electronic authentication stamp]
FIG. 20 is a diagram illustrating user authentication using the electronic authentication stamp 24 (FIGS. 1 and 7).
As shown in FIG. 20, when using the user authentication using the electronic authentication mark 24 in the information management system 1 (FIG. 1), for example, the user first places an image of his / her fingerprint on the electronic authentication mark 24 or Enter information that can be used for user authentication, such as your voice.
In addition to these, information that can be used for user authentication includes the strength with which the electronic authentication mark 24 is brought into contact with the paper 128, 130, and pressure on the side surface of the electronic authentication mark main body 242 (FIG. 7). The grip strength that can be detected by the sensor can be exemplified.

電子認証印24は、入力された認証用のデータを、入力装置20を介して情報サーバ16に送り、情報サーバ16が、認証用データを用いて、ユーザを認証する。
さらに、情報サーバ16は、電子認証印24が当接されている用紙128,130の画像から背景パターン136(図3)を得て、押印されようとしている用紙128,130を識別し、さらに、ユーザが押印しようとしている位置を検出する。
The electronic authentication stamp 24 sends the input authentication data to the information server 16 via the input device 20, and the information server 16 authenticates the user using the authentication data.
Further, the information server 16 obtains the background pattern 136 (FIG. 3) from the image of the paper 128, 130 with which the electronic authentication mark 24 is in contact, and identifies the paper 128, 130 that is about to be stamped. The position where the user is going to impress is detected.

情報サーバ16は、認証の結果、得られた背景パターン136、および、電子認証印24が当接された位置に基づいて、電子認証印24が、正当なユーザにより、正しい用紙128,130の正しい位置(部長印;図20)に当接され、押印に用いられているかを判断し、判断結果を入力装置20に対して送信するとともに、ユーザの連絡先に通知する。
入力装置20は、上記判断結果をユーザに対して音声(認証されました。園位置に押印してください;図20)あるいは画像などにより示すとともに、情報サーバ16は、とともに、正当なユーザにより、正しい用紙128,130の正しい位置に当接された電子認証印24から、印鑑データを受け入れる。
なお、図20に示したように、電子認証印24を用いたユーザの認証と、図17に示した手書入力ペン26を用いたユーザの認証とは、組み合わせて用いられ得る。
Based on the background pattern 136 obtained as a result of the authentication and the position where the electronic authentication mark 24 comes into contact, the information server 16 confirms that the electronic authentication mark 24 is correct on the correct sheets 128 and 130 by a valid user. It is contacted with the position (department mark; FIG. 20), it is determined whether it is used for the seal, and the determination result is transmitted to the input device 20 and notified to the user's contact information.
The input device 20 indicates the above determination result to the user by voice (authenticated. Please stamp the garden position; FIG. 20) or an image, etc. Seal data is received from the electronic authentication stamp 24 that is in contact with the correct position of the correct paper 128 or 130.
As shown in FIG. 20, user authentication using the electronic authentication stamp 24 and user authentication using the handwriting input pen 26 shown in FIG. 17 can be used in combination.

図21は、図20に示した電子認証印24を用いたユーザの認証のために、情報サーバプログラム160(図9)の付加サービスDB172に記憶されるデータを示す図である。
図20に示すように、電子認証印24を用いたユーザの認証のためには、ユーザID・名前、ユーザの指紋、声紋、押印・握りの強さなど、ユーザの認証に用いられる認証用データ、正しい用紙128,130を識別するための背景パターンデータ、正しい押印の位置を識別するための位置データ、および、電子認証印24のユーザのメールアドレスなどの連絡先が、付加サービスDB172に記憶される。
さらに、電子認証印24から印鑑情報データが受け入れられたときには、受け入れられた印鑑情報データが、これらのデータに対応付けられて、付加サービスDB172に記憶される。
FIG. 21 is a diagram showing data stored in the additional service DB 172 of the information server program 160 (FIG. 9) for user authentication using the electronic authentication stamp 24 shown in FIG.
As shown in FIG. 20, for user authentication using the electronic authentication mark 24, authentication data used for user authentication, such as user ID / name, user fingerprint, voice print, stamp / grip strength, etc. The background pattern data for identifying the correct sheets 128 and 130, the position data for identifying the correct stamp position, and the contact information such as the user's mail address of the electronic authentication stamp 24 are stored in the additional service DB 172. The
Further, when the seal stamp information data is accepted from the electronic authentication stamp 24, the accepted seal stamp information data is stored in the additional service DB 172 in association with these data.

図22は、図20に示した電子認証印24を用いたユーザ認証を実現するための通信シーケンス(S16)を示す図である。
図22に示すように、ステップ160(S160)において、電子認証印24のユーザが、手書入力ペン26を用いたり、あるいは、電子認証印24に対して所定の操作(音声の入力あるいは背景付き用紙128,130に対するポインティングなど)を行い、さらに、電子認証印24に対して、指紋の画像など、認証に必要な情報を入力して、認証を要求する。
FIG. 22 is a diagram showing a communication sequence (S16) for realizing user authentication using the electronic authentication stamp 24 shown in FIG.
As shown in FIG. 22, in step 160 (S160), the user of the electronic authentication stamp 24 uses the handwriting input pen 26 or performs a predetermined operation (input of voice or background) on the electronic authentication stamp 24. Pointing to the paper 128, 130, etc.), and information required for authentication such as a fingerprint image is input to the electronic authentication mark 24 to request authentication.

ステップ162(S162)において、入力装置20は、認証要求を受け入れて、認証用データを、情報サーバ16に対して送信する。
ステップ164(S164)において、情報サーバ16は、入力装置20からの認証用データと、予め記憶されている認証用データ(図21)とを比較し、これらが同一の範囲にあるときには、電子認証印24のユーザが正当であると認証し、これ以外のときには、電子認証印24のユーザが正当ではないとして認証しない。
In step 162 (S162), the input device 20 accepts the authentication request and transmits authentication data to the information server 16.
In step 164 (S164), the information server 16 compares the authentication data from the input device 20 with the authentication data stored in advance (FIG. 21). The user of the mark 24 is authenticated as valid, and otherwise, it is not authenticated as the user of the electronic authentication mark 24 is not valid.

ステップ164(S164)において、情報サーバ16は、認証結果を、入力装置20に返す。
入力装置20は、この認証結果を、音声などにより、ユーザに対して示す。
ステップ166(S166)において、情報サーバ16は、電子認証印24のユーザの連絡先(例えばPC18;図1)に、認証要求があったことと、その結果とを通知する。
In step 164 (S164), the information server 16 returns an authentication result to the input device 20.
The input device 20 indicates this authentication result to the user by voice or the like.
In step 166 (S166), the information server 16 notifies the user's contact information (for example, the PC 18; FIG. 1) of the electronic authentication seal 24 that there is an authentication request and the result.

ステップ168(S168)において、正当であると認証されたユーザが、電子認証印24を、背景付き用紙128,130の所定の位置(部長印の欄;図20)に当接し、押印すると、電子認証印24は、印鑑情報データと、背景パターンデータと、当接された位置を示す位置データとを、入力装置20に対して送信する。
ステップ170(S170)において、入力装置20は、背景パターンデータと位置データとを、情報サーバ16に送信する。
情報サーバ16は、入力装置20からの背景パターンデータおよび位置データと、予め記憶された背景パターンデータおよび位置データとを比較し、電子認証印24が、正しい用紙128、130の正しい位置に当接されているかを判断する。
In step 168 (S168), when the user who has been authenticated as legitimate touches and stamps the electronic authentication mark 24 on a predetermined position on the background-added paper 128, 130 (denoted by the section head mark; FIG. 20), the electronic The authentication stamp 24 transmits seal stamp information data, background pattern data, and position data indicating the contacted position to the input device 20.
In step 170 (S170), the input device 20 transmits background pattern data and position data to the information server 16.
The information server 16 compares the background pattern data and position data from the input device 20 with the background pattern data and position data stored in advance, and the electronic authentication mark 24 comes into contact with the correct position of the correct sheets 128 and 130. Judge whether it has been.

ステップ172(S172)において、情報サーバ16は、入力装置20に、S170の処理における判断結果を通知する。
入力装置20は、情報サーバ16からの判断結果が、電子認証印24が、正しい用紙128,130の正しい位置に当接されたことを示すときには、電子認証印24から受けた印鑑情報データを受け入れ、必要に応じて他のノードに対して送信する。
In step 172 (S172), the information server 16 notifies the input device 20 of the determination result in the process of S170.
The input device 20 accepts the seal information data received from the electronic authentication mark 24 when the determination result from the information server 16 indicates that the electronic authentication mark 24 is in contact with the correct position of the correct paper 128, 130. If necessary, send to other nodes.

なお、電子認証印24により得られた背景付きの用紙128,130の画像を処理することにより、電子認証印24の印影の角度を検出できるので、電子認証印24の印影の角度に基づくユーザ認証を行うようにしてもよい。
また、電子認証印24により、ユーザの指紋の画像を得ることができるので、指紋によるユーザの認証を行うようにしてもよい。
また、電子認証印24を握るユーザの握力が検出可能なので、握力によるユーザ認証を行うようにしてもよい。
It should be noted that by processing the images of the paper 128 and 130 with background obtained by the electronic authentication mark 24, the impression angle of the electronic authentication mark 24 can be detected, so that the user authentication based on the impression angle of the electronic authentication mark 24 is performed. May be performed.
Further, since the image of the user's fingerprint can be obtained by the electronic authentication mark 24, the user may be authenticated by the fingerprint.
Moreover, since the grip strength of the user holding the electronic authentication mark 24 can be detected, the user authentication by the grip strength may be performed.

[背景パターンの選択的付加など]
図23は、背情報管理システム1(図1)における無地の用紙128,130に対する背景パターン136(図3)の選択的な付加、および、背景パターン136を用いた付加データの管理およびその出力を例示する図である。
以下に説明する背景パターン136の選択的付加およびこれを用いた付加データの管理・出力(以下、単に、「背景パターン136の選択的付加」などとも記す)は、情報管理システム1(図1)において、必要に応じて、無地の用紙128,130に背景パターン136を選択的に付し、この背景パターン136を付した用紙128を用いて、図14に示した教育サービスと同様なデータの管理および出力を行えるように工夫されている。
[Selective addition of background pattern, etc.]
FIG. 23 shows selective addition of the background pattern 136 (FIG. 3) to the plain paper 128, 130 in the back information management system 1 (FIG. 1), management of additional data using the background pattern 136, and output thereof. It is a figure illustrated.
The selective addition of the background pattern 136 and the management / output of additional data using the background pattern (hereinafter also simply referred to as “selective addition of the background pattern 136”, etc.) described below are performed in the information management system 1 (FIG. 1). In FIG. 14, if necessary, a background pattern 136 is selectively attached to the plain paper 128, 130, and data management similar to the education service shown in FIG. 14 is performed using the paper 128 with the background pattern 136 attached. And it is devised to be able to output.

図23に示すように、情報管理システム1における背景パターン136の選択的付加は、以下に示すように実現される。
まず、情報管理システム1のPC18(図1)上で動作する情報利用プログラム180のアプリケーション186(図10)により、無地の用紙128,130に印刷するための画像データ(”Patent”,”[発音]”,”[意味]”)と、この画像データの用紙128,130上における位置を示す位置データと、用紙128上の画像に付加され、これらの画像をポインティングしたときに出力される付加データ(例えば、”[発音]”の画像およびその位置に対応付けられた「パテント」という音声データ、あるいは、”[意味]”の画像およびその位置に対応付けられた「特許」という文字データ)とが作成される。
As shown in FIG. 23, the selective addition of the background pattern 136 in the information management system 1 is realized as follows.
First, image data ("Patent", "[pronunciation") for printing on plain paper 128, 130 by the application 186 (FIG. 10) of the information use program 180 operating on the PC 18 (FIG. 1) of the information management system 1. ] ”,“ [Meaning] ”), position data indicating the position of this image data on the paper 128, 130, and additional data that is added to the image on the paper 128 and is output when these images are pointed. (For example, “[pronunciation]” image and sound data “patent” associated with the position, or “[meaning]” image and character data “patent” associated with the position) Is created.

次に、アプリケーション186(図10)は、用紙128,130を用いて、図14に示して説明したような情報の入出力を行うときには、背景管理装置32(図1,図11)に対して、無地の用紙128,130に付すための背景パターン136を要求し、この要求に応じて背景管理装置32から送られてくる背景パターン136を受ける。
次に、アプリケーション186は、作成された画像データ、および、背景管理装置32から受けた背景パターン136とを認定プリンタ122に対して出力し、画像データと背景パターン136とを、無地の用紙128,130に印刷させる。
Next, when the application 186 (FIG. 10) inputs / outputs information as shown in FIG. 14 using the papers 128 and 130, the application 186 (FIG. 10) inputs to the background management device 32 (FIGS. 1 and 11). A background pattern 136 to be attached to the plain paper 128, 130 is requested, and the background pattern 136 sent from the background management device 32 is received in response to this request.
Next, the application 186 outputs the created image data and the background pattern 136 received from the background management device 32 to the certified printer 122, and outputs the image data and the background pattern 136 to the plain paper 128, 130 is printed.

図24は、図23に示した背景パターン136の選択的付加などを実現するために、情報サーバ16の付加サービスDB172(図9)に記憶されるデータを例示する図であって、(A)は、付加データの出力に用いられるインデックスを示し、(B)は、インデックスにより参照される付加データを示す。
次に、アプリケーション186は、情報サーバ16に対して、画像とともに用紙128,130に印刷した背景パターン136を示す背景パターンデータと、付加データが対応付けられた用紙128,130上の画像の位置を示す位置データと、用紙128,130上の画像に対応付けられた付加データを送信し、登録する。
FIG. 24 is a diagram illustrating data stored in the additional service DB 172 (FIG. 9) of the information server 16 in order to realize the selective addition of the background pattern 136 shown in FIG. Indicates an index used to output additional data, and (B) indicates additional data referenced by the index.
Next, the application 186 determines the position of the image on the paper 128, 130 associated with the background pattern data indicating the background pattern 136 printed on the paper 128, 130 together with the image and the additional data, with respect to the information server 16. The position data shown and the additional data associated with the images on the sheets 128 and 130 are transmitted and registered.

この結果、情報サーバ16上で動作する情報サーバ用プログラム160(図9)の付加サービスDB172には、図24(A)に示すように、用紙128,130に付された背景パターン136を識別するための背景パターンIDと、画像それぞれの位置を示す位置データと、この位置に対応付けられた付加データを示す付加データIDとが対応付けられて、インデックスとして記憶される。
さらに、付加サービスDB172には、図24(B)に示すように、図24(A)に示した付加データIDに対応する付加データが記憶される。
As a result, in the additional service DB 172 of the information server program 160 (FIG. 9) operating on the information server 16, the background pattern 136 attached to the sheets 128 and 130 is identified as shown in FIG. Therefore, a background pattern ID, position data indicating the position of each image, and additional data ID indicating additional data associated with this position are associated with each other and stored as an index.
Further, as shown in FIG. 24B, the additional service DB 172 stores additional data corresponding to the additional data ID shown in FIG.

この登録の後、例えば、PC18(図1)の近傍において、ユーザが、手書入力ペン26を用いて、画像および背景パターン136が付された用紙128,130の各画像(図23)を、手書入力ペン26でポインティングする。
このポインティングに応じて、ポインティングされた画像に対応付けられた付加データが、情報サーバ16からPC18に送られ、PC18からユーザに対して表示・出力される。
After this registration, for example, in the vicinity of the PC 18 (FIG. 1), the user uses the handwriting input pen 26 to display each image (FIG. 23) on the paper 128, 130 with the image and the background pattern 136 attached thereto. Pointing with the handwriting input pen 26.
In response to this pointing, the additional data associated with the pointed image is sent from the information server 16 to the PC 18 and displayed / output from the PC 18 to the user.

図25は、図23に示した背景パターン136の選択的付加を実現するための通信シーケンス(S18)を示す図である。
図25に示すように、ステップ180(S180)において、PC18において、ユーザの操作に応じて、画像データ、位置データおよび付加データなどが作成される。
FIG. 25 is a diagram showing a communication sequence (S18) for realizing the selective addition of the background pattern 136 shown in FIG.
As shown in FIG. 25, in step 180 (S180), image data, position data, additional data, and the like are created in the PC 18 in accordance with a user operation.

ステップ182(S182)において、PC18は、ユーザの操作に応じて、背景管理装置32(図1など)に対して、背景パターン136を要求する。
ステップ184(S184)において、背景管理装置32は、それまでにいずれの用紙128,130に対しても印刷されていない未使用の背景パターン136を選択し、PC18に対して送信する。
In step 182 (S182), the PC 18 requests the background pattern 136 from the background management apparatus 32 (such as FIG. 1) in accordance with the user operation.
In step 184 (S 184), the background management device 32 selects an unused background pattern 136 that has not been printed on any of the papers 128 and 130 so far, and transmits it to the PC 18.

ステップ186(S186)において、PC18は、背景管理装置32から受けた背景パターン136と、画像データとを、認定プリンタ122(図1)に対して送信する。
ステップ188(S188)において、認定プリンタ122は、PC18からの画像データと背景パターン136とを、無地の用紙128,130に対して印刷する。
In step 186 (S186), the PC 18 transmits the background pattern 136 and image data received from the background management device 32 to the authorized printer 122 (FIG. 1).
In step 188 (S188), the authorized printer 122 prints the image data from the PC 18 and the background pattern 136 on the plain paper 128,130.

ステップ190(S190)において、PC18は、情報サーバ16(図1)に対して、図24に示したように、位置データ、付加データおよび背景パターンを登録する。
ステップ192(S192)において、ユーザが、PC18のそばで、手書入力ペン26を用いて、用紙128,130に印刷された画像をポインティングすると、ポインティングされた用紙128,130に付された背景パターン136およびポインティングの位置を示す筆跡データが、PC18に対して送信される。
In step 190 (S190), the PC 18 registers position data, additional data, and a background pattern in the information server 16 (FIG. 1) as shown in FIG.
In step 192 (S192), when the user points an image printed on the paper 128, 130 using the handwriting input pen 26 near the PC 18, the background pattern attached to the pointed paper 128, 130 is displayed. 136 and handwriting data indicating the pointing position are transmitted to the PC 18.

ステップ194(S194)において、PC18は、手書入力ペン26からの筆跡データから、用紙128,130に付された背景パターン136を示す背景パターンデータと、ポインティングされた用紙128,130上の位置を示す位置データと作成し、情報サーバ16に対して送信する。
ステップ196(S196)において、情報サーバ16は、PC18からの背景パターンデータおよび位置データに対応する付加データを、PC18に返す。
PC18は、情報サーバ16からの付加データを受けて、音声あるいは画像としてユーザに対して表示・出力する。
In step 194 (S194), the PC 18 determines, based on the handwriting data from the handwriting input pen 26, the background pattern data indicating the background pattern 136 attached to the paper 128, 130 and the position on the pointing paper 128, 130. The position data shown is generated and transmitted to the information server 16.
In step 196 (S196), the information server 16 returns additional data corresponding to the background pattern data and position data from the PC 18 to the PC 18.
The PC 18 receives the additional data from the information server 16 and displays / outputs it as a sound or an image to the user.

[背景パターンの再利用]
図26は、情報管理システム1(図1)における背景パターン136の再利用を例示する図である。
背景パターン136(図3)には膨大な種類があり、事実上、用紙128,130それぞれに対してユニークに用いることができる。
[Reuse Background Pattern]
FIG. 26 is a diagram illustrating reuse of the background pattern 136 in the information management system 1 (FIG. 1).
There are an enormous variety of background patterns 136 (FIG. 3), and they can be used uniquely for the sheets 128 and 130 in practice.

しかしながら、背景パターン136の種類は有限であることに代わりはないので、背景パターン136を再利用可能とすることが望ましい。
つまり、図26に示すように、印刷された画像を消去できない用紙128、および、印刷された画像が消去可能な用紙130が廃棄されたとき、あるいは、用紙130から背景パターン136が消去されたときに、これらの用紙128,130に付されていた背景パターン136を、使用済みの状態から、未使用の状態に戻して管理し、新たに、無地の用紙128,130に対して印刷可能とすることが望ましい。
However, since the types of the background pattern 136 are finite, it is desirable that the background pattern 136 be reusable.
That is, as shown in FIG. 26, when the paper 128 on which the printed image cannot be erased and the paper 130 on which the printed image can be erased are discarded, or when the background pattern 136 is erased from the paper 130 In addition, the background pattern 136 attached to the sheets 128 and 130 is managed by returning the used pattern from the used state to the unused state, and can be newly printed on the plain sheets 128 and 130. It is desirable.

図27は、背景パターン136の再利用のために用いられる機能実現装置38を例示する図である。
この背景パターン136の再利用には、機能実現装置38として、例えば、図27に示すように、PC18(図1,図2)の機能実現装置38として、用紙130に印刷された背景パターン136などの画像の消去を行う消去装置382、または、背景が付された用紙128,130を廃棄するシュレッダ384と、用紙128,130に付された背景パターン136を読み取るスキャナ380とを組み合わせた装置を用いることが望ましい。
FIG. 27 is a diagram illustrating a function implementing device 38 used for reusing the background pattern 136.
For the reuse of the background pattern 136, as the function realization device 38, for example, as shown in FIG. 27, as the function realization device 38 of the PC 18 (FIGS. 1 and 2), the background pattern 136 printed on the paper 130, etc. An erasing device 382 that erases the image of the image, or a combination of a shredder 384 that discards the paper 128 and 130 with the background and a scanner 380 that reads the background pattern 136 attached to the paper 128 and 130. It is desirable.

図27に示した機能実現装置38において、用紙130に印刷された背景パターン136などの画像が消去されるときには、スキャナ380が、用紙130に付された背景パターン136を読み取ってから、消去装置382が、用紙130に印刷された画像および背景パターン136を消去する。
あるいは、機能実現装置38において、背景が付された用紙128,130が廃棄されるときには、スキャナ380が、用紙128,130に印刷された背景パターン136を読み取ってから、シュレッダ384が、用紙128,130を剪断し、廃棄する。
機能実現装置38により読み出された背景パターン136は、PC18上で動作する情報利用プログラム180のアプリケーション186(図10)により、背景パターン136の再利用のために利用される。
In the function realizing device 38 shown in FIG. 27, when an image such as the background pattern 136 printed on the paper 130 is erased, the scanner 380 reads the background pattern 136 attached to the paper 130 and then erases the device 382. However, the image printed on the paper 130 and the background pattern 136 are erased.
Alternatively, in the function realization device 38, when the paper 128, 130 with the background is discarded, the scanner 380 reads the background pattern 136 printed on the paper 128, 130, and then the shredder 384 Shear 130 and discard.
The background pattern 136 read by the function realization device 38 is used for reusing the background pattern 136 by the application 186 (FIG. 10) of the information use program 180 operating on the PC 18.

図28は、情報管理システム1(図1)において、背景が付された用紙128,130が廃棄されるときに、この用紙128,130に付されていた背景パターン136(図3)を、未使用状態とするための通信シーケンス(S22)を示す図である。
図28に示すように、ステップ220(S220)において、ユーザが、PC18(図1)の機能実現装置38(シュレッダ384;図27)に、使用済みの用紙128,130を挿入すると、スキャナ380は、用紙128,130に付された背景パターン136を読み込み、情報利用プログラム180(図10)に対して出力する。
シュレッダ384は、機能実現装置38に挿入された用紙128,130を剪断し、廃棄する。
FIG. 28 shows the background pattern 136 (FIG. 3) attached to the paper 128, 130 when the paper 128, 130 with the background is discarded in the information management system 1 (FIG. 1). It is a figure which shows the communication sequence (S22) for setting it into a use state.
As shown in FIG. 28, in step 220 (S220), when the user inserts the used paper 128, 130 into the function realizing device 38 (shredder 384; FIG. 27) of the PC 18 (FIG. 1), the scanner 380 The background pattern 136 attached to the sheets 128 and 130 is read and output to the information utilization program 180 (FIG. 10).
The shredder 384 shears and discards the sheets 128 and 130 inserted in the function realizing device 38.

ステップ222(S222)において、PC18は、背景管理装置32(図1)に対して、廃棄された用紙128,130に付されていた背景パターン136を送信し、さらに、その廃棄を通知する。
ステップ224(S224)において、背景管理装置32は、PC18から送られてきた背景パターン136を、未使用状態として、再利用可能に管理する。
In step 222 (S222), the PC 18 transmits the background pattern 136 attached to the discarded paper 128, 130 to the background management device 32 (FIG. 1), and further notifies the discarding.
In step 224 (S224), the background management apparatus 32 manages the background pattern 136 sent from the PC 18 as an unused state so that it can be reused.

図29は、情報管理システム1(図1)において、再使用可能な用紙130に付されていた画像および背景パターン136が消去されるときに、この用紙130に付されていた背景パターン136(図3)を、未使用状態とし、さらに、再利用するための通信シーケンス(S24)を示す図である。
ステップ240(S240)において、ステップ240(S240)において、ユーザが、PC18(図1)の機能実現装置38(消去装置382;図27)に、使用済みの用紙130を挿入すると、スキャナ380は、用紙130に付された背景パターン136を読み込み、情報利用プログラム180(図10)に対して出力する。
消去装置382は、機能実現装置38に挿入された用紙130に付された画像および背景パターン136を消去し、再使用可能な状態とする。
FIG. 29 shows the background pattern 136 (FIG. 29) attached to the paper 130 when the image and the background pattern 136 attached to the reusable paper 130 are deleted in the information management system 1 (FIG. 1). FIG. 3 is a diagram showing a communication sequence (S24) for setting 3) to an unused state and further reusing it.
In step 240 (S240), in step 240 (S240), when the user inserts the used paper 130 into the function realizing device 38 (erasing device 382; FIG. 27) of the PC 18 (FIG. 1), the scanner 380 The background pattern 136 attached to the paper 130 is read and output to the information utilization program 180 (FIG. 10).
The erasing device 382 erases the image and the background pattern 136 attached to the paper 130 inserted into the function realizing device 38 so that it can be reused.

ステップ242(S242)において、PC18は、背景管理装置32(図1)に対して、その画像などが消去された用紙130に付されていた背景パターン136を送信し、さらに、付されていた背景パターン136の消去を通知する。
ステップ244(S244)において、背景管理装置32は、PC18から送られてきた背景パターン136を、未使用状態とし、さらに、再利用可能に管理する。
In step 242 (S242), the PC 18 transmits the background pattern 136 attached to the paper 130 from which the image has been deleted to the background management device 32 (FIG. 1), and further, the background attached. The deletion of the pattern 136 is notified.
In step 244 (S244), the background management apparatus 32 sets the background pattern 136 sent from the PC 18 to an unused state and manages it so that it can be reused.

ステップ246(S246)において、PC18は、背景管理装置32に、背景パターン136を要求する。
ステップ248(S248)において、背景管理装置32は、未使用状態の背景パターン136(S240の処理において消去された背景パターン136であるか否かは問われない)を、要求を出したPC18に対して送信する。
In step 246 (S246), the PC 18 requests the background pattern 136 from the background management apparatus 32.
In step 248 (S248), the background management device 32 sends an unused background pattern 136 (whether or not it is the background pattern 136 erased in the processing of S240) to the PC 18 that issued the request. To send.

ステップ250(S250)において、背景管理装置32は、PC18に対して送信した背景パターン136を、使用済みの状態にして管理する。
ステップ252(S252)において、PC18は、背景パターン136を、認定プリンタ122(図1)に対して送信させ、用紙130に対して印刷させる。
In step 250 (S250), the background management apparatus 32 manages the background pattern 136 transmitted to the PC 18 in a used state.
In step 252 (S252), the PC 18 causes the background pattern 136 to be transmitted to the authorized printer 122 (FIG. 1) and printed on the paper 130.

本発明は、音声の記憶およびその入出力のために利用することができる。   The present invention can be used for voice storage and input / output thereof.

本発明にかかる情報管理システムの概要を示す図である。It is a figure which shows the outline | summary of the information management system concerning this invention. 図1に示した背景管理装置、課金装置、情報サーバ、PCおよび入力装置などのハードウェア構成を例示する図である。It is a figure which illustrates hardware configurations, such as a background management apparatus shown in FIG. 図1に示した用紙に付される背景を例示する図である。It is a figure which illustrates the background attached | subjected to the paper shown in FIG. 図1に示した手書入力ペンの構成を示す図である。It is a figure which shows the structure of the handwriting input pen shown in FIG. 情報管理システム(図1)において、図4などに示した第1の手書き入力ペンの代わりに用いられる第2の手書き入力ペンの外観を示す図である。It is a figure which shows the external appearance of the 2nd handwriting input pen used instead of the 1st handwriting input pen shown in FIG. 4 etc. in an information management system (FIG. 1). 情報管理システム(図1)において、図4などに示した第1の手書き入力ペンの代わりに用いられる第3の手書き入力ペンの外観を示す図である。It is a figure which shows the external appearance of the 3rd handwriting input pen used instead of the 1st handwriting input pen shown in FIG. 4 etc. in an information management system (FIG. 1). 図1に示した電子認証印24の構成を示す図である。It is a figure which shows the structure of the electronic authentication stamp 24 shown in FIG. 図1に示した入力装置上で動作する入力装置用プログラムを示す図である。It is a figure which shows the program for input devices which operate | moves on the input device shown in FIG. 図1に示した情報サーバ上で動作する情報サーバプログラムを示す図である。It is a figure which shows the information server program which operate | moves on the information server shown in FIG. 図1に示したPC上で動作する情報利用プログラムを示す図である。It is a figure which shows the information utilization program which operate | moves on PC shown in FIG. 図1に示した背景管理装置上で動作する背景管理プログラムを示す図である。It is a figure which shows the background management program which operate | moves on the background management apparatus shown in FIG. 情報管理システム(図1)による音声入出力サービスを例示する図である。It is a figure which illustrates the voice input / output service by an information management system (FIG. 1). 情報管理システム(図1)において、図12に示した音声入出力サービスを実現するための通信シーケンス(S10)を示す図である。FIG. 13 is a diagram showing a communication sequence (S10) for realizing the voice input / output service shown in FIG. 12 in the information management system (FIG. 1). 情報管理システム1(図1)による教育サービスを例示する図である。It is a figure which illustrates the education service by the information management system 1 (FIG. 1). 図14に示した教育サービスを実現するために、情報サーバの付加サービスDB(図9)に記憶されるデータを例示する図であって、(A)は、音声データの出力に用いられるインデックスを示し、(B)は、インデックスにより参照される音声データを示す。FIG. 15 is a diagram exemplifying data stored in the additional service DB (FIG. 9) of the information server in order to realize the education service shown in FIG. 14, wherein (A) shows an index used for outputting audio data. (B) shows the audio data referred to by the index. 情報管理システム(図1)において、図14に示した教育サービスを実現するための通信シーケンス(S12)を示す図である。It is a figure which shows the communication sequence (S12) for implement | achieving the educational service shown in FIG. 14 in an information management system (FIG. 1). 手書入力ペン(図1,図7)を用いたユーザ認証を例示する図である。It is a figure which illustrates user authentication using a handwriting input pen (Drawing 1, Drawing 7). 図9に示した付加サービスDBに記憶され、手書入力ペンを用いたユーザ認証に用いられるユーザ認証用データを例示する図である。It is a figure which illustrates the data for user authentication which are memorize | stored in additional service DB shown in FIG. 9, and are used for the user authentication using a handwriting input pen. 情報管理システムにおいて、図17に示した手書入力ペンを用いたユーザ認証を実現するための通信シーケンス(S14)を示す図である。It is a figure which shows the communication sequence (S14) for implement | achieving user authentication using the handwriting input pen shown in FIG. 17 in an information management system. 電子認証印(図1,図7)を用いたユーザ認証を例示する図である。It is a figure which illustrates user authentication using an electronic authentication seal | sticker (FIG. 1, FIG. 7). 図20に示した電子認証印を用いたユーザの認証のために、情報サーバプログラム(図9)の付加サービスDBに記憶されるデータを示す図である。It is a figure which shows the data memorize | stored in the additional service DB of an information server program (FIG. 9) for the authentication of the user using the electronic authentication seal | sticker shown in FIG. 図20に示した電子認証印を用いたユーザ認証を実現するための通信シーケンス(S16)を示す図である。It is a figure which shows the communication sequence (S16) for implement | achieving user authentication using the electronic authentication seal | sticker shown in FIG. 情報管理システムにおける用紙に対する背景パターン(図3)の選択的な付加、および、背景パターンを用いた付加データの管理およびその出力を例示する図である。It is a figure which illustrates selective addition of the background pattern (FIG. 3) with respect to the paper in an information management system, management of the additional data using a background pattern, and its output. 図23に示した背景パターンの選択的付加などを実現するために、情報サーバの付加サービスDB(図9)に記憶されるデータを例示する図であって、(A)は、付加データの出力に用いられるインデックスを示し、(B)は、インデックスにより参照される付加データを示す。FIG. 24 is a diagram illustrating data stored in the additional service DB (FIG. 9) of the information server in order to realize the selective addition of the background pattern shown in FIG. 23, and FIG. (B) indicates additional data referred to by the index. 図23に示した背景パターンの選択的付加を実現するための通信シーケンス(S18)を示す図である。It is a figure which shows the communication sequence (S18) for implement | achieving the selective addition of the background pattern shown in FIG. 情報管理システム(図1)における背景パターンの再利用を例示する図である。It is a figure which illustrates reuse of the background pattern in an information management system (Drawing 1). 背景パターンの再利用のために用いられる機能実現装置を例示する図である。It is a figure which illustrates the function implementation apparatus used for reuse of a background pattern. 情報管理システム(図1)において、用紙が廃棄されるときに、この用紙に付されていた背景パターン(図3)を、未使用状態とするための通信シーケンス(S22)を示す図である。FIG. 10 is a diagram showing a communication sequence (S22) for setting a background pattern (FIG. 3) attached to a sheet to an unused state when the sheet is discarded in the information management system (FIG. 1). 情報管理システム(図1)において、再使用可能な用紙に付されていた画像および背景パターンが消去されるときに、この用紙に付されていた背景パターン(図3)を、未使用状態とし、さらに、再利用するための通信シーケンス(S24)を示す図である。In the information management system (FIG. 1), when the image and the background pattern attached to the reusable paper are deleted, the background pattern (FIG. 3) attached to the paper is set to an unused state. Furthermore, it is a figure which shows the communication sequence (S24) for reuse.

符号の説明Explanation of symbols

1・・・情報管理システム、
120・・・ネットワーク、
122・・・認定プリンタ、
124・・・非認定プリンタ、
128,130・・・用紙、
136・・・背景パターン、
132・・・格子点、
134・・・ドット、
3・・・背景管理装置、
32・・・背景管理装置、
100・・・本体、
102・・・CPU、
104・・・メモリ、
106・・・入出力装置、
110・・・通信装置、
112・・・記録装置、
114・・・記録媒体、
116・・・無線IF、
38・・・機能実現装置、
34・・・背景管理プログラム、
340・・・未使用背景パターンDB、
342・・・使用済背景パターンDB、
344・・・DB管理部、
30・・・課金装置、
16・・・情報サーバ、
160・・・情報サーバプログラム、
164・・・操作解析部、
166・・・DB管理部、
168・・・ペン情報DB、
170・・・サービス提供部、
172・・・付加サービスDB、
18・・・PC、
180・・・情報利用プログラム、
182・・・情報出力処理部、
184・・・背景・操作検出部、
186・・・アプリケーション、
2・・・手書入力システム、
20・・・入力装置、
200・・・入力装置用プログラム、
202・・・受信処理部、
204・・・筆跡解析部、
206・・・文字識別部、
208・・・音声処理部、
210・・・対応付け部、
212・・・背景検出部、
214・・・位置検出部、
216・・・DB管理部、
220・・・ペン情報DB、
222・・・通信処理部、
224・・・印鑑情報処理部、
24・・・電子認証印、
26・・・手書入力ペン、
260・・・筆記部材、
262・・・手書入力ペン本体、
264・・・レンズ系、
266・・・CCD素子、
268・・・圧力センサ、
270・・・画像取込回路、
272・・・MIC、
274・・・音声処理回路、
278・・・電源、
280・・・送信回路、
1 Information management system,
120 ... Network,
122 ... Certified printer,
124... Non-certified printer,
128, 130 ... paper,
136 ... Background pattern,
132 ... lattice points,
134 ... dots,
3 ... Background management device,
32 ... Background management device,
100 ... body,
102 ... CPU,
104: Memory,
106: I / O device,
110: Communication device,
112... Recording device,
114... Recording medium,
116: Wireless IF,
38 ... function realization device,
34 ... Background management program,
340 ... Unused background pattern DB,
342 ... Used background pattern DB,
344 ... DB management unit,
30 ... Billing device,
16 ... information server,
160... Information server program,
164 ... Operation analysis unit,
166... DB management unit,
168 ... Pen information DB,
170: Service providing unit,
172 ... Additional service DB,
18 ... PC,
180 ... Information utilization program,
182 ... Information output processing unit,
184 ... Background / operation detector,
186 Application,
2 ... Handwriting input system,
20 ... Input device,
200 ... Program for input device,
202... Reception processing unit,
204: Handwriting analysis unit,
206 ... Character identification part,
208: Audio processing unit,
210 ... associating unit,
212 ... Background detection unit,
214 ... position detector,
216: DB management unit,
220 ... pen information DB,
222... Communication processing unit,
224 ... seal information processing part,
24 ... Electronic authentication seal,
26 ... Handwriting input pen,
260 ... writing member,
262 ... handwriting input pen body,
264 ... Lens system,
266 ... CCD element,
268 ... Pressure sensor,
270 ... Image capture circuit,
272: MIC,
274: Audio processing circuit,
278 ... Power supply,
280 ... Transmission circuit,

Claims (18)

音声信号の入力を受ける音声入力手段と、
所定の部材における任意の位置をポインティングするポインティング手段と、
前記部材においてポインティングされた位置を検出する検出手段と、
前記部材においてポインティングされた位置と、前記受け入れられた音声信号とを対応付けて記憶する情報記憶手段と、
前記記憶された部材における位置に対するポインティングが検出されたときに、この部材における位置と対応付けられて記憶された音声信号を出力する音声出力手段と
を有する音声入出力システム。
A voice input means for receiving a voice signal;
Pointing means for pointing at an arbitrary position on the predetermined member;
Detecting means for detecting a pointed position on the member;
Information storage means for storing the position pointed at the member and the received audio signal in association with each other;
An audio input / output system comprising: audio output means for outputting an audio signal stored in association with the position on the member when pointing to the position on the stored member is detected.
前記情報記憶手段は、前記ポインティング手段によるポインティングが行われる以前に受け入れられた音声信号を、前記部材においてポインティングされた位置と対応付けて記憶する
請求項1に記載の音声入出力システム。
The voice input / output system according to claim 1, wherein the information storage means stores a voice signal received before the pointing by the pointing means is performed in association with a position pointed at the member.
前記ポインティング手段は、音声を受け入れて音声信号として出力する音声受け入れ手段を有し、
前記音声入力手段は、前記出力された音声信号の入力を受ける
請求項1または2に記載の音声入出力システム。
The pointing means has voice receiving means for receiving voice and outputting it as a voice signal;
The voice input / output system according to claim 1, wherein the voice input unit receives the output voice signal.
前記部材には、前記部材における位置を識別するための印が付され、
前記ポインティング手段は、前記部材に付された印の画像を受けて画像信号として出力する画像入力手段を有し、
前記検出手段は、前記出力された画像信号に基づいて、前記ポインティングされた部材における位置を検出する
請求項3に記載の音声入出力システム。
The member is provided with a mark for identifying a position in the member,
The pointing means has an image input means for receiving an image of a mark attached to the member and outputting it as an image signal,
The voice input / output system according to claim 3, wherein the detection unit detects a position of the pointed member based on the output image signal.
前記部材それぞれに付される前記印は、前記部材それぞれに固有であって、
前記検出手段は、前記ポインティングされた部材における位置と、前記固有の印とを検出し、
前記情報記憶手段は、前記対応づけられた部材における位置および音声信号に、前記検出された固有の印を対応付けて記憶し、
前記音声出力手段は、前記固有の印と、前記記憶された部材における位置に対するポインティングとが検出されたときに、前記検出された固有の印と、前記検出された部材における位置とに対応付けられて記憶された音声信号を出力する
請求項4に記載の音声入出力システム。
The mark given to each member is unique to each member,
The detecting means detects a position in the pointed member and the unique mark;
The information storage means stores the detected unique mark in association with the position and audio signal in the associated member,
The voice output means is associated with the detected unique mark and the detected position on the member when the unique mark and pointing with respect to the position on the stored member are detected. The voice input / output system according to claim 4, wherein the voice signal stored in the step is output.
前記ポインティング手段は、ポインティングした部分に対して筆記する筆記手段
をさらに有する
請求項1〜5のいずれかに記載の音声入出力システム。
The voice input / output system according to claim 1, wherein the pointing means further includes writing means for writing on the pointed portion.
音声信号の入力を受ける音声入力手段と、
所定の部材においてポインティングされた位置を検出する第1の検出手段と
を有する音声入力装置と、
前記検出された部材における位置と、前記受け入れられた音声信号とを対応付けて記憶する情報記憶手段と、
前記記憶された部材における位置に対するポインティングが検出されたときに、この部材における位置と対応付けられて記憶された音声信号を出力する第1の音声出力手段と
を有する音声サーバ装置と、
前記部材においてポインティングされた位置を検出する第2の検出手段と、
前記検出された部材における位置に応じて出力された音声信号を、音声として出力する第2の音声出力手段と
を有する音声出力装置と
を有する音声入出力システム。
A voice input means for receiving a voice signal;
A voice input device having first detection means for detecting a position pointed at a predetermined member;
Information storage means for storing the detected position in the member and the received audio signal in association with each other;
A voice server device comprising: a first voice output means for outputting a voice signal stored in association with a position in the member when pointing to a position in the stored member is detected;
Second detection means for detecting a position pointed at the member;
An audio input / output system comprising: an audio output device having a second audio output means for outputting an audio signal output in accordance with a position on the detected member as audio.
前記部材それぞれには固有の印が付され、
音声入力装置において、
前記第1の検出手段は、前記部材においてポインティングされた位置と、前記部材それぞれに固有の印とを検出し、
前記音声サーバ装置において、
前記情報記憶手段は、前記検出された部材における位置および前記受け入れられた音声に、前記検出された固有の印を対応付けて記憶し、
前記第1の音声出力手段は、前記記憶された部材における位置に対するポインティングと、この部材に付された固有の印とが検出されたときに、前記検出された固有の印と、前記検出された部材における位置とに対応付けられて記憶された音声信号を出力する
請求項7に記載の音声入出力システム。
Each member has a unique mark,
In the voice input device,
The first detection means detects a position pointed at the member and a mark unique to each member;
In the voice server device,
The information storage means stores the detected unique mark in association with the detected position on the member and the received voice,
The first sound output means detects the detected unique mark and the detected unique mark when a pointing with respect to a position on the stored member and a unique mark attached to the member are detected. The voice input / output system according to claim 7, wherein a voice signal stored in association with a position on a member is output.
検出された所定の部材における位置と、受け入れられた音声信号とを対応付けて記憶し、前記記憶された部材における位置に対するポインティングが検出されたときに、この部材における位置と対応付けられて記憶された音声信号を出力する音声サーバ装置と、前記部材におけるポインティングされた位置を検出し、前記検出された部材における位置に応じて出力された音声信号を、音声として出力する音声出力装置とを有する音声入出力システムにおける音声入力装置であって、
音声信号の入力を受け入れる音声入力手段と、
前記部材におけるポインティングされた位置を検出する検出手段と
を有する音声入力装置。
The detected position on the predetermined member and the received audio signal are stored in association with each other, and when pointing to the position on the stored member is detected, the position is stored in association with the position on the member. A voice server device that outputs a voice signal, and a voice output device that detects a pointed position on the member and outputs a voice signal output according to the detected position on the member as a voice. An audio input device in an input / output system,
An audio input means for receiving an input of an audio signal;
A voice input device comprising: detecting means for detecting a pointed position on the member.
音声信号の入力を受け、所定の部材においてポインティングされた位置を検出する音声入力装置と、前記部材においてポインティングされた位置を検出し、前記検出された部材における位置に応じて出力された音声信号を、音声として出力する音声出力手段とを有する音声入出力システムにおける音声サーバ装置であって、
前記検出された部材における位置と、前記受け入れられた音声信号とを対応付けて記憶する情報記憶手段と、
前記記憶された部材における位置に対するポインティングが検出されたときに、この部材における位置と対応付けられて記憶された音声信号を出力する音声出力手段と
を有する音声サーバ装置。
An audio input device that receives an input of an audio signal and detects a position pointed at a predetermined member; an audio signal output according to the detected position at the member; A voice server device in a voice input / output system having voice output means for outputting as voice,
Information storage means for storing the detected position in the member and the received audio signal in association with each other;
A voice server device comprising: voice output means for outputting a voice signal stored in association with a position on the member when a pointing to a position on the stored member is detected.
音声信号の入力を受け、所定の部材においてポインティングされた位置を検出する音声入力装置と、前記検出された部材における位置と、前記受け入れられた音声信号とを対応付けて記憶し、前記記憶された部材における位置に対するポインティングが検出されたときに、この部材における位置と対応付けられて記憶された音声信号を出力する音声サーバ装置とを有する音声入出力システムにおける音声出力装置であって、
前記部材においてポインティングされた位置を検出する検出手段と、
前記検出された部材における位置に応じて出力された音声信号を、音声として出力する音声出力手段と
を有する音声出力装置。
An audio input device that receives an input of an audio signal and detects a position pointed at a predetermined member, a position on the detected member, and the received audio signal are stored in association with each other, and the stored A voice output device in a voice input / output system having a voice server device that outputs a voice signal stored in association with a position in the member when pointing to a position in the member is detected,
Detecting means for detecting a pointed position on the member;
An audio output device comprising: audio output means for outputting an audio signal output according to the detected position on the member as audio.
音声信号の入力を受け、
所定の部材における任意の位置をポインティングし、
前記部材においてポインティングされた位置を検出し、
前記検出された部材における位置と、前記受け入れられた音声信号とを対応付けて記憶し、
前記記憶された部材における位置に対するポインティングが検出されたときに、この部材の位置と対応付けられて記憶された音声信号を出力する
音声入出力方法。
Receives audio signal input,
Point at any position on a given member,
Detecting a pointed position on the member;
Storing the detected position on the member and the received audio signal in association with each other;
A voice input / output method for outputting a voice signal stored in association with the position of the member when pointing to the position of the stored member is detected.
音声信号の入力を受け、
所定の部材においてポインティングされた位置を検出し、
前記検出された部材における位置と、前記受け入れられた音声信号とを対応付けて記憶し、
前記記憶された部材における位置に対するポインティングが検出されたときに、この部材における位置と対応付けられて記憶された音声信号を出力し、
前記部材のポインティングされた位置を検出し、
前記検出された部材における位置に応じて出力された音声信号を、音声として出力する
音声入出力方法。
Receives audio signal input,
Detect the pointed position on a given member,
Storing the detected position on the member and the received audio signal in association with each other;
When pointing to a position in the stored member is detected, an audio signal stored in association with the position in the member is output,
Detecting the pointed position of the member;
An audio input / output method for outputting an audio signal output according to a position on the detected member as audio.
音声信号の入力を受ける音声入力ステップと、
所定の部材における任意の位置をポインティングするポインティングステップと、
前記部材においてポインティングされた位置を検出する検出ステップと、
前記検出された部材における位置と、前記受け入れられた音声信号とを対応付けて記憶する位置・音声記憶ステップと、
前記記憶された部材における位置に対するポインティングが検出されたときに、この部材における位置と対応付けられて記憶された音声信号を出力する音声出力ステップと
をコンピュータに実行させるプログラム。
A voice input step for receiving a voice signal;
A pointing step for pointing an arbitrary position on a predetermined member;
A detecting step of detecting a pointed position on the member;
A position / speech storage step of storing the detected position of the member in association with the received sound signal;
A program that causes a computer to execute an audio output step of outputting an audio signal stored in association with a position on the member when pointing to the position on the stored member is detected.
コンピュータを含む音声入力装置において、
音声信号の入力を受ける音声入力ステップと、
所定の部材におけるポインティングされた位置を検出する第1の検出ステップと
を前記コンピュータに実行させ、
コンピュータを含む音声サーバ装置において、
前記検出された部材における位置と、前記受け入れられた音声信号とを対応付けて記憶する位置・音声記憶ステップと、
前記記憶された部材における位置に対するポインティングが検出されたときに、この部材における位置と対応付けられて記憶された音声信号を出力する第1の音声出力ステップと
を前記コンピュータに実行させ、
コンピュータを含む音声出力装置において、
前記部材においてポインティングされた位置を検出する第2の検出ステップと、
前記検出された部材における位置に応じて出力された音声信号を、音声として出力する第2の音声出力ステップと
を前記コンピュータに実行させる
プログラム。
In a voice input device including a computer,
A voice input step for receiving a voice signal;
Causing the computer to execute a first detection step of detecting a pointed position on a predetermined member;
In a voice server device including a computer,
A position / speech storage step of storing the detected position of the member in association with the received sound signal;
Causing the computer to execute a first audio output step of outputting an audio signal stored in association with a position in the member when pointing to a position in the stored member is detected;
In an audio output device including a computer,
A second detection step of detecting a pointed position on the member;
A program for causing the computer to execute a second sound output step of outputting a sound signal output according to a position on the detected member as sound.
検出された所定の部材における位置と、受け入れられた音声信号とを対応付けて記憶し、前記記憶された部材における位置に対するポインティングが検出されたときに、この部材における位置と対応付けられて記憶された音声信号を出力する音声サーバ装置と、前記部材においてポインティングされた位置を検出し、前記検出された部材における位置に応じて出力された音声信号を、音声として出力する音声出力装置とを有する音声入出力システムのコンピュータを含む音声入力装置において、
音声信号の入力を受け入れる音声入力ステップと、
前記部材においてポインティングされた位置を検出する検出ステップと
を前記コンピュータに実行させるプログラム。
The detected position on the predetermined member and the received audio signal are stored in association with each other, and when pointing to the position on the stored member is detected, the position is stored in association with the position on the member. A voice server device that outputs a voice signal, and a voice output device that detects a position pointed at the member and outputs a voice signal output according to the detected position on the member as a voice. In a voice input device including a computer of an input / output system,
A voice input step for accepting input of a voice signal;
A program for causing the computer to execute a detection step of detecting a pointed position on the member.
音声信号の入力を受け、所定の部材においてポインティングされた位置を検出する音声入力装置と、前記部材におけるポインティングされた位置を検出し、前記検出された部材における位置に応じて出力された音声信号を、音声として出力する音声出力手段とを有する音声入出力システムのコンピュータを含む音声サーバ装置において、
前記検出された部材における位置と、前記受け入れられた音声信号とを対応付けて記憶する位置・音声記憶ステップと、
前記記憶された部材における位置に対するポインティングが検出されたときに、この部材における位置と対応付けられて記憶された音声信号を出力する音声出力ステップと
を前記コンピュータに実行させるプログラム。
An audio input device that receives an input of an audio signal and detects a position pointed at a predetermined member; an audio signal output according to the detected position at the member; In a voice server device including a voice input / output system computer having voice output means for outputting as voice,
A position / speech storage step of storing the detected position of the member in association with the received sound signal;
A program that causes the computer to execute an audio output step of outputting an audio signal stored in association with a position on the member when pointing to a position on the stored member is detected.
音声信号の入力を受け、所定の部材においてポインティングされた位置を検出する音声入力装置と、前記検出された部材における位置と、前記受け入れられた音声信号とを対応付けて記憶し、前記記憶された部材における位置に対するポインティングが検出されたときに、この部材における位置と対応付けられて記憶された音声信号を出力する音声サーバ装置とを有する音声入出力システムのコンピュータを含む音声出力装置において、
前記部材においてポインティングされた位置を検出する検出ステップと、
前記検出された部材における位置に応じて出力された音声信号を、音声として出力する音声出力ステップと
をコンピュータに実行させるプログラム。
An audio input device that receives an input of an audio signal and detects a position pointed at a predetermined member, a position on the detected member, and the received audio signal are stored in association with each other, and the stored In a voice output device including a computer of a voice input / output system having a voice server device that outputs a voice signal stored in association with a position in a member when pointing to a position in the member is detected,
A detecting step of detecting a pointed position on the member;
A program for causing a computer to execute an audio output step of outputting an audio signal output according to the position of the detected member as audio.
JP2003410418A 2003-12-09 2003-12-09 Voice input/output system and method therefor Pending JP2005173807A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003410418A JP2005173807A (en) 2003-12-09 2003-12-09 Voice input/output system and method therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003410418A JP2005173807A (en) 2003-12-09 2003-12-09 Voice input/output system and method therefor

Publications (1)

Publication Number Publication Date
JP2005173807A true JP2005173807A (en) 2005-06-30

Family

ID=34731519

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003410418A Pending JP2005173807A (en) 2003-12-09 2003-12-09 Voice input/output system and method therefor

Country Status (1)

Country Link
JP (1) JP2005173807A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12026327B2 (en) 2022-03-25 2024-07-02 BIC Violex Single Member S.A. Writing instrument

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12026327B2 (en) 2022-03-25 2024-07-02 BIC Violex Single Member S.A. Writing instrument

Similar Documents

Publication Publication Date Title
JP4150923B2 (en) Data output system and method
US6686910B2 (en) Combined writing instrument and digital documentor apparatus and method of use
US6722574B2 (en) Business card
RU2669717C2 (en) Handbook input / output system, digital ink sheet, information intake system and sheet supporting information input
KR101026630B1 (en) Universal computing device
US6573887B1 (en) Combined writing instrument and digital documentor
JP4982486B2 (en) Method and system for combining position and information signs
US20020011989A1 (en) Method and system for information association
JP2005173810A (en) Electronic seal system and method therefor
JP2003345945A (en) Document writing system using electronic pen, electronic pen, and electronic processing paper
JP4920153B2 (en) System and apparatus for electronic recording of handwritten information
CN102067153A (en) Multi-modal learning system
JP2007506185A (en) Real-time variable digital paper
US20100045785A1 (en) Note Capture Device
CN101149812A (en) Interactive information service method based on paper writing, service system and interactive reading matter
KR100905705B1 (en) Method for Providing Electronic Note Service by Using Digital Paper and Pen, System and Computer-Readable Recording Medium with Program Therefor
JP2005173811A (en) Data management system and its method
JP5084087B2 (en) Handwriting command
JP2008263619A (en) Data input system
JP2005173807A (en) Voice input/output system and method therefor
JP2005173808A (en) Information display system, and method thereof
JP2005173809A (en) Information input system and method therefor
JP4246474B2 (en) Electronic signature system and electronic signature program
EP1382006B1 (en) Business card with a position-coding pattern
JP2006127396A (en) Electronic pen system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20081120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081125

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090302

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090501

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090616