JP2005173807A - Voice input/output system and method therefor - Google Patents
Voice input/output system and method therefor Download PDFInfo
- Publication number
- JP2005173807A JP2005173807A JP2003410418A JP2003410418A JP2005173807A JP 2005173807 A JP2005173807 A JP 2005173807A JP 2003410418 A JP2003410418 A JP 2003410418A JP 2003410418 A JP2003410418 A JP 2003410418A JP 2005173807 A JP2005173807 A JP 2005173807A
- Authority
- JP
- Japan
- Prior art keywords
- voice
- detected
- output
- input
- stored
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、入力された音声を記憶し、出力する音声入出力システムおよびその方法に関する。 The present invention relates to a voice input / output system and method for storing and outputting input voice.
例えば、特許文献1は、画像入力機能と、音声入力機能を有する筆記用具を用いる装置を開示する。
しかしながら、特許文献1は、上記筆記用具により得られた音声の利用法について、特に開示していない。
本発明は、このような背景からなされたものであり、画像入力機能と、音声入力機能とを有する筆記用具により得られた音声信号を、便利に利用することができるようにした音声入出力システムおよびその方法を提供することを目的とする。
However,
The present invention has been made from such a background, and an audio input / output system in which an audio signal obtained by a writing instrument having an image input function and an audio input function can be used conveniently. And an object thereof.
上記目的を達成するために、本発明にかかる第1の音声入出力システムは、音声信号の入力を受ける音声入力手段と、所定の部材における任意の位置をポインティングするポインティング手段と、前記部材においてポインティングされた位置を検出する検出手段と、前記部材においてポインティングされた位置と、前記受け入れられた音声信号とを対応付けて記憶する情報記憶手段と、前記記憶された部材における位置に対するポインティングが検出されたときに、この部材における位置と対応付けられて記憶された音声信号を出力する音声出力手段とを有する。 In order to achieve the above object, a first audio input / output system according to the present invention includes audio input means for receiving an input of an audio signal, pointing means for pointing an arbitrary position on a predetermined member, and pointing on the member. Detecting means for detecting the position, information storage means for storing the position pointed at the member and the received audio signal in association with each other, and pointing to the position on the stored member is detected. In some cases, audio output means for outputting an audio signal stored in association with the position of the member is provided.
好適には、前記情報記憶手段は、前記ポインティング手段によるポインティングが行われる以前に受け入れられた音声信号を、前記部材においてポインティングされた位置と対応付けて記憶する。 Preferably, the information storage means stores an audio signal received before the pointing by the pointing means is performed in association with the position pointed at the member.
好適には、前記ポインティング手段は、音声を受け入れて音声信号として出力する音声受け入れ手段を有し、前記音声入力手段は、前記出力された音声信号の入力を受ける。 Preferably, the pointing means includes voice receiving means for receiving voice and outputting it as a voice signal, and the voice input means receives the output voice signal.
好適には、前記部材には、前記部材における位置を識別するための印が付され、前記ポインティング手段は、前記部材に付された印の画像を受けて画像信号として出力する画像入力手段を有し、前記検出手段は、前記出力された画像信号に基づいて、前記ポインティングされた部材における位置を検出する。 Preferably, the member is provided with a mark for identifying a position on the member, and the pointing means has an image input means for receiving an image of the mark attached to the member and outputting it as an image signal. Then, the detection means detects a position on the pointed member based on the output image signal.
好適には、前記部材それぞれに付される前記印は、前記部材それぞれに固有であって、前記検出手段は、前記ポインティングされた部材における位置と、前記固有の印とを検出し、前記情報記憶手段は、前記対応づけられた部材における位置および音声信号に、前記検出された固有の印を対応付けて記憶し、前記音声出力手段は、前記固有の印と、前記記憶された部材における位置に対するポインティングとが検出されたときに、前記検出された固有の印と、前記検出された部材における位置とに対応付けられて記憶された音声信号を出力する。 Preferably, the mark given to each of the members is unique to each of the members, and the detection means detects the position of the pointed member and the unique mark, and stores the information storage The means stores the detected unique mark in association with the position and voice signal in the associated member, and the voice output means stores the unique mark and the position in the stored member. When pointing is detected, an audio signal stored in association with the detected unique mark and the detected position on the member is output.
好適には、前記ポインティング手段は、ポインティングした部分に対して筆記する筆記手段をさらに有する。 Preferably, the pointing means further includes writing means for writing on the pointed portion.
また、本発明にかかる第2の音声入出力システムは、音声信号の入力を受ける音声入力手段と、所定の部材においてポインティングされた位置を検出する第1の検出手段と
を有する音声入力装置と、前記検出された部材における位置と、前記受け入れられた音声信号とを対応付けて記憶する情報記憶手段と、前記記憶された部材における位置に対するポインティングが検出されたときに、この部材における位置と対応付けられて記憶された音声信号を出力する第1の音声出力手段とを有する音声サーバ装置と、前記部材においてポインティングされた位置を検出する第2の検出手段と、前記検出された部材における位置に応じて出力された音声信号を、音声として出力する第2の音声出力手段とを有する音声出力装置とを有する。
A second voice input / output system according to the present invention includes a voice input device having voice input means for receiving an input of a voice signal and first detection means for detecting a position pointed at a predetermined member; Information storage means for associating and storing the detected position on the member and the received audio signal, and the pointing on the position on the stored member is associated with the position on the member when detected. An audio server device having first audio output means for outputting the stored audio signal, second detection means for detecting a position pointed at the member, and depending on the detected position on the member And an audio output device having second audio output means for outputting the audio signal output as audio.
また、本発明にかかる音声入力装置は、検出された所定の部材における位置と、受け入れられた音声信号とを対応付けて記憶し、前記記憶された部材における位置に対するポインティングが検出されたときに、この部材における位置と対応付けられて記憶された音声信号を出力する音声サーバ装置と、前記部材におけるポインティングされた位置を検出し、前記検出された部材における位置に応じて出力された音声信号を、音声として出力する音声出力装置とを有する音声入出力システムにおける音声入力装置であって、音声信号の入力を受け入れる音声入力手段と、前記部材におけるポインティングされた位置を検出する検出手段とを有する。 Further, the voice input device according to the present invention stores the detected position in the predetermined member and the received voice signal in association with each other, and when pointing to the position in the stored member is detected, A voice server device that outputs a voice signal stored in association with a position in the member, a pointed position in the member is detected, and a voice signal that is output according to the detected position in the member, A voice input device in a voice input / output system having a voice output device for outputting as voice, comprising voice input means for receiving an input of a voice signal, and detection means for detecting a pointed position on the member.
また、本発明にかかる音声サーバ装置は、音声信号の入力を受け、所定の部材においてポインティングされた位置を検出する音声入力装置と、前記部材においてポインティングされた位置を検出し、前記検出された部材における位置に応じて出力された音声信号を、音声として出力する音声出力手段とを有する音声入出力システムにおける音声サーバ装置であって、前記検出された部材における位置と、前記受け入れられた音声信号とを対応付けて記憶する情報記憶手段と、前記記憶された部材における位置に対するポインティングが検出されたときに、この部材における位置と対応付けられて記憶された音声信号を出力する音声出力手段とを有する。 The voice server device according to the present invention receives a voice signal input, detects a position pointed at a predetermined member, detects a position pointed at the member, and detects the detected member. A voice server device in a voice input / output system having voice output means for outputting a voice signal output in accordance with the position in the voice as a voice, the position in the detected member, and the received voice signal; Information storage means for storing the information in association with each other and sound output means for outputting a sound signal stored in association with the position in the member when the pointing to the position in the stored member is detected. .
また、本発明にかかる音声出力装置は、音声信号の入力を受け、所定の部材においてポインティングされた位置を検出する音声入力装置と、前記検出された部材における位置と、前記受け入れられた音声信号とを対応付けて記憶し、前記記憶された部材における位置に対するポインティングが検出されたときに、この部材における位置と対応付けられて記憶された音声信号を出力する音声サーバ装置とを有する音声入出力システムにおける音声出力装置であって、前記部材においてポインティングされた位置を検出する検出手段と、前記検出された部材における位置に応じて出力された音声信号を、音声として出力する音声出力手段とを有する。 An audio output device according to the present invention receives an input of an audio signal and detects an audio input device that detects a position pointed at a predetermined member; a position at the detected member; and the received audio signal. And a voice server device that outputs a voice signal stored in association with the position on the member when pointing to the position on the stored member is detected. And a sound output means for outputting a sound signal output in accordance with the detected position on the member as a sound.
また、本発明にかかる第1の音声入出力方法は、音声信号の入力を受け、所定の部材における任意の位置をポインティングし、前記部材においてポインティングされた位置を検出し、前記検出された部材における位置と、前記受け入れられた音声信号とを対応付けて記憶し、前記記憶された部材における位置に対するポインティングが検出されたときに、この部材の位置と対応付けられて記憶された音声信号を出力する。 In the first voice input / output method according to the present invention, an input of a voice signal is received, an arbitrary position on a predetermined member is pointed, a position pointed on the member is detected, and the detected member is detected. The position and the received audio signal are stored in association with each other, and when the pointing to the position in the stored member is detected, the stored audio signal is output in association with the position of the member. .
また、本発明にかかる第2の音声入出力方法は、音声信号の入力を受け、所定の部材においてポインティングされた位置を検出し、前記検出された部材における位置と、前記受け入れられた音声信号とを対応付けて記憶し、前記記憶された部材における位置に対するポインティングが検出されたときに、この部材における位置と対応付けられて記憶された音声信号を出力し、前記部材のポインティングされた位置を検出し、前記検出された部材における位置に応じて出力された音声信号を、音声として出力する。 Further, the second audio input / output method according to the present invention receives an input of an audio signal, detects a pointed position on a predetermined member, and detects the position on the detected member, and the received audio signal. Are stored in association with each other, and when pointing to the position of the stored member is detected, an audio signal stored in association with the position of the member is output, and the pointing position of the member is detected. And the audio | voice signal output according to the position in the said detected member is output as an audio | voice.
また、本発明にかかる第1のプログラムは、音声信号の入力を受ける音声入力ステップと、所定の部材における任意の位置をポインティングするポインティングステップと、前記部材においてポインティングされた位置を検出する検出ステップと、前記検出された部材における位置と、前記受け入れられた音声信号とを対応付けて記憶する位置・音声記憶ステップと、前記記憶された部材における位置に対するポインティングが検出されたときに、この部材における位置と対応付けられて記憶された音声信号を出力する音声出力ステップとをコンピュータに実行させる。 In addition, a first program according to the present invention includes a voice input step for receiving an input of a voice signal, a pointing step for pointing an arbitrary position on a predetermined member, and a detection step for detecting a position pointed on the member. A position / speech storage step for storing the detected position in the member and the received sound signal in association with each other, and a position in the member when the pointing to the position in the stored member is detected. And a sound output step of outputting a sound signal stored in association with the computer.
また、本発明にかかる第2のプログラムは、コンピュータを含む音声入力装置において、音声信号の入力を受ける音声入力ステップと、所定の部材におけるポインティングされた位置を検出する第1の検出ステップとを前記コンピュータに実行させ、コンピュータを含む音声サーバ装置において、前記検出された部材における位置と、前記受け入れられた音声信号とを対応付けて記憶する位置・音声記憶ステップと、前記記憶された部材における位置に対するポインティングが検出されたときに、この部材における位置と対応付けられて記憶された音声信号を出力する第1の音声出力ステップとを前記コンピュータに実行させ、コンピュータを含む音声出力装置において、前記部材においてポインティングされた位置を検出する第2の検出ステップと、前記検出された部材における位置に応じて出力された音声信号を、音声として出力する第2の音声出力ステップとを前記コンピュータに実行させる。 According to a second program of the present invention, in a voice input device including a computer, a voice input step of receiving a voice signal and a first detection step of detecting a pointed position on a predetermined member are described above. In a voice server device including a computer, a position / speech storage step for storing the detected position in the member and the received voice signal in association with each other, and a position in the stored member In the audio output device including the computer, the first audio output step of outputting the audio signal stored in association with the position in the member when pointing is detected. A second detection zone for detecting the pointed position And-up, the audio signal output in accordance with the position of the detected member, to execute a second sound output step of outputting as a voice on the computer.
また、本発明にかかる第3のプログラムは、検出された所定の部材における位置と、受け入れられた音声信号とを対応付けて記憶し、前記記憶された部材における位置に対するポインティングが検出されたときに、この部材における位置と対応付けられて記憶された音声信号を出力する音声サーバ装置と、前記部材においてポインティングされた位置を検出し、前記検出された部材における位置に応じて出力された音声信号を、音声として出力する音声出力装置とを有する音声入出力システムのコンピュータを含む音声入力装置において、音声信号の入力を受け入れる音声入力ステップと、前記部材においてポインティングされた位置を検出する検出ステップとを前記コンピュータに実行させる。 The third program according to the present invention stores the detected position on the predetermined member and the received audio signal in association with each other, and when pointing to the position on the stored member is detected. A voice server device that outputs a voice signal stored in association with a position on the member; a position pointed at the member; a voice signal output according to the detected position on the member; In a voice input device including a computer of a voice input / output system having a voice output device for outputting as voice, a voice input step for receiving an input of a voice signal and a detection step for detecting a position pointed at the member Let the computer run.
また、本発明にかかる第4のプログラムは、音声信号の入力を受け、所定の部材においてポインティングされた位置を検出する音声入力装置と、前記部材におけるポインティングされた位置を検出し、前記検出された部材における位置に応じて出力された音声信号を、音声として出力する音声出力手段とを有する音声入出力システムのコンピュータを含む音声サーバ装置において、前記検出された部材における位置と、前記受け入れられた音声信号とを対応付けて記憶する位置・音声記憶ステップと、前記記憶された部材における位置に対するポインティングが検出されたときに、この部材における位置と対応付けられて記憶された音声信号を出力する音声出力ステップとを前記コンピュータに実行させる。 Further, a fourth program according to the present invention receives an input of a voice signal, detects a pointed position on a predetermined member, detects a pointed position on the member, and detects the detected point. In a voice server apparatus including a computer of a voice input / output system having voice output means for outputting a voice signal output in accordance with a position on a member as a voice, the position on the detected member and the received voice A position / speech storage step for storing the signal in association with each other, and a sound output for outputting a sound signal stored in association with the position in the member when the pointing to the position in the stored member is detected And causing the computer to execute steps.
また、本発明にかかる第5のプログラムは、音声信号の入力を受け、所定の部材においてポインティングされた位置を検出する音声入力装置と、前記検出された部材における位置と、前記受け入れられた音声信号とを対応付けて記憶し、前記記憶された部材における位置に対するポインティングが検出されたときに、この部材における位置と対応付けられて記憶された音声信号を出力する音声サーバ装置とを有する音声入出力システムのコンピュータを含む音声出力装置において、前記部材においてポインティングされた位置を検出する検出ステップと、前記検出された部材における位置に応じて出力された音声信号を、音声として出力する音声出力ステップとをコンピュータに実行させる。 Further, a fifth program according to the present invention includes an audio input device that receives an input of an audio signal and detects a position pointed at a predetermined member, the position on the detected member, and the received audio signal. And a voice server device that outputs a voice signal stored in association with the position on the member when pointing to the position on the stored member is detected. In a sound output device including a computer of the system, a detection step for detecting a position pointed at the member, and a sound output step for outputting a sound signal output according to the detected position on the member as sound. Let the computer run.
本発明によれば、例えば、メモを取り、後にそのメモをなぞることにより、メモをとったときの音声を聞き返すことができる。 According to the present invention, for example, by taking a note and tracing the note later, it is possible to listen back to the voice when the note was taken.
[情報管理システム1]
図1は、本発明にかかる情報管理システム1の概要を示す図である。
まず、本発明が適応される情報管理システム1を説明する。
図1に示すように、情報管理システム1には、手書入力システム2−1,2−2、背景管理システム3、背景管理システム3により認定された認定プリンタ122、背景管理システム3により認定されていない非認定プリンタ124、情報サーバ16、パーソナルコンピュータ(PC)18、および、入力装置20(PC18と入力装置20とが共用されてもよい)などが、ネットワーク120を介して接続された構成を採る。
[Information management system 1]
FIG. 1 is a diagram showing an outline of an
First, an
As shown in FIG. 1, the
手書入力システム2−1,2−2は、認定プリンタ122、入力装置20、電子認証印24および第1の手書入力ペン26(ポインティング手段)などから構成される。
背景管理システム3は、背景管理装置32および課金装置30から構成される。
The handwriting input systems 2-1 and 2-2 include an authorized
The background management system 3 includes a
なお、以下、手書入力システム2−1,2−2など、複数ある構成部分を、単に手書入力システム2と略記することがある。
また、情報管理システム1の各構成部分を、総称してノードと記すことがある。
また、図1に示した情報管理システム1の各構成部分の数は例示であって、情報管理システム1は、任意の数の各構成部分を含みうる。
Hereinafter, a plurality of components such as the handwriting input systems 2-1 and 2-2 may be simply abbreviated as the
In addition, each component of the
Further, the number of each component part of the
また、図1に示した情報管理システム1、および、そのノードの機能分担は例示であって、情報管理システム1においてネットワーク120を介して分散されている複数の機能を、1つのノード内にまとめてもよい。
また、反対に、1つのノード内にまとめられている複数の機能を、複数のノードに分散させても、あるいは、ネットワーク120を介して複数のノードに分散させてもよい。
このように、複数の構成部分が、1つの装置内にまとめられているか、ネットワークなどを介して複数の装置に分散されているかは、本発明の技術的範囲に、何らの影響を及ぼすものではない。
Further, the function sharing of the
Conversely, a plurality of functions collected in one node may be distributed to a plurality of nodes, or may be distributed to a plurality of nodes via the
As described above, whether the plurality of components are grouped in one device or distributed to the plurality of devices via a network or the like does not affect the technical scope of the present invention. Absent.
図2は、図1に示した背景管理装置32、課金装置30、情報サーバ16、PC18および入力装置20などのハードウェア構成を例示する図である。
図2に示すように、情報管理システム1のこれらの構成部分は、CPU102、メモリ104およびこれらの周辺回路などを含む本体100、キーボード、表示装置およびスピーカ(SP)などを含む入出力装置106、ネットワーク120を介した他のノードの通信を行う通信装置110、CD装置・HDD装置などの記録装置112、および、スキャナなど各装置に特有な機能の実現のために用いられる機能実現装置38から構成される。
つまり、背景管理装置32、課金装置30、情報サーバ16、情報管理システム18および入力装置20は、通信機能を有するコンピュータとしての構成部分を含んでいる。
FIG. 2 is a diagram illustrating a hardware configuration of the
As shown in FIG. 2, these components of the
That is, the
さらに、入力装置20およびPC18などには、図2に示した構成に、必要に応じて、電子認証印24および手書入力ペン26などとの無線通信(電波を用いた通信か、光を用いた通信かを問わない)に用いられる無線インターフェース(IF)116が付加される。
なお、無線インターフェース(IF)116は、入力装置20およびPC18の構成・用途によっては、同様の機能を有する有線インターフェース(IF)に置換されうる。
また、認定プリンタ122および非認定プリンタ124には、図2に示した構成に、プリンタとしての機能を実現するためのプリンタエンジン(図示せず)が付加される。
Further, for the
Note that the wireless interface (IF) 116 can be replaced with a wired interface (IF) having the same function depending on the configurations and applications of the
In addition, a printer engine (not shown) for realizing a function as a printer is added to the configuration shown in FIG. 2 for the
図3は、図1に示した用紙128,130に付される背景を例示する図である。
用紙128は、普通紙であり、用紙130は、複数回にわたる印刷および消去(再利用)が可能な合成紙であって、印刷により、図3に示すような背景が付される。
つまり、無地の用紙128,130には、例えば、図3において点線で想定されるように、0.3mm程度の間隔で縦横に直交する多数の直線により構成される格子の格子点132上、あるいは、これらの格子点132に対して左右、上下、右上、右下、左上および左下に、例えば20μm程度ずれた位置に、ドット134が付された背景パターン136(印)が印刷され、背景付の用紙128,130となる。
なお、このように、用紙128,130(部材)には、背景パターン136が付されているか場合と、背景パターン136が付されていない場合とがある。
FIG. 3 is a diagram illustrating a background attached to the
The
That is, on the
As described above, there are cases where the
背景パターン136は、格子点132と多数のドット134の位置関係を組み合わせることにより、膨大な数の種類となる。
従って、この背景パターン136のいずれの部分に手書入力ペン26が当たっているかを検出することにより、手書入力ペン26が、用紙128,130上のいずれの位置をポインティングしているか、あるいは、筆記しているかを検出することもできる。
また、用紙128,130それぞれに、事実上、固有の背景パターン136を付すことができるので、1つの背景パターン136が、1枚の無地の用紙128,130に対してだけ印刷されるようにすると、背景パターン136を、この背景パターン136が付された用紙128,130の特定に利用することもできる。
The
Therefore, by detecting which part of the
In addition, since a
なお、用紙128,130に付され、用紙128,130の位置識別に用いられる印として、ここでは、背景パターン136(図3)を例示したが、この印としては、背景パターン136のように、光学的に読み取り可能なものの他に、電気的、磁気的あるいは機械的に読取り可能なものが用いられ得る。
また、ここには、2次元的な用紙128,130に背景パターン136が付される場合を例示したが、3次元的な部材に背景パターン136を付して、その部材上の位置が検出されうるようにしてもよい。
また、図3に示したような背景パターン136の代わりに、用紙128,130それぞれに特有の図形、模様あるいは点の配列を付して、この印として用いてもよい。
Note that the background pattern 136 (FIG. 3) is exemplified here as a mark attached to the
In addition, here, the case where the
Further, instead of the
あるいは、3次元的な部材に、部材の3次元的な座標(番地)を識別可能な印を付して、部材の3次元的な座標が検出されうるようにしてもよい。
また、2次元的な無地の用紙128,130の表面または内側に、特殊なトナー(立体トナー)を用いて、3次元的な背景パターンが印刷されるようにしてもよい。
また、背景が付された用紙128,130の表面に、透光性の樹脂あるいはガラスが、コーティングされたり、張り合わされたりしてもよい。
Alternatively, a three-dimensional member may be marked with a mark that can identify the three-dimensional coordinates (address) of the member so that the three-dimensional coordinates of the member can be detected.
A three-dimensional background pattern may be printed on the surface or inside of the two-dimensional
In addition, a light-transmitting resin or glass may be coated or pasted on the surface of the
用紙128,130に付される背景パターン136は、背景管理システム3の背景管理装置32により管理され、認定プリンタ122により用紙128,130に対して印刷される。
この背景パターン136の管理および使用に対して、課金装置30により、その利用者に対する課金が行われ得る。
The
For the management and use of the
電子認証印24は、用紙128,130とともに用いられ、入力装置20あるいはPC18との間で通信を行い、電子認証を行う。
手書入力ペン26は、用紙128,130とともに用いられ、入力装置20あるいはPC18との間で通信を行い、手書き文字の入力、音声の入力およびその他の操作のために用いられる。
The
The
これらの構成部分により、情報管理システム1においては、例えば、以下のようなことが実現されうる。
(1)背景パターン136(図3)の普通紙または合成紙に対する印刷および課金:
(2)合成紙に印刷された背景パターン136の再利用(合成紙に印刷された背景パターン136を消去したら、その背景パターン136を、他の普通紙または合成紙に印刷可能な状態になるように管理する):
With these components, for example, the following can be realized in the
(1) Printing and accounting for background paper 136 (FIG. 3) on plain paper or synthetic paper:
(2) Reuse of the
(3)音声の入出力:用紙128,130上に、手書入力ペン26を用いて記載されたメモと音声とを対応付けて記憶し、メモを手書入力ペン26でなぞったときに、対応付けられた音声を再生する。
(4)手書入力ペン26によるユーザの認証:
(5)用紙128,130および電子認証印24を利用したユーザの認証:
(3) Input / output of voice: When a memo and a voice written using the
(4) User authentication with the handwriting input pen 26:
(5) User
(6)用紙128,130,電子認証印24および手書入力ペン26を利用した各種サービス:後述する教育サービス、あるいは、ユーザが、ワードプロセッサで作成された書類を手書きでコメントを書き込んだり修正したりした後で、パーソナルコンピュータのそばに行くと、その画面に、書類の内、コメント・修正を手書きした部分が表示されるようにして、手書きのコメント・修正を、ワードプロセッサで入力しなおす作業の利便性が図られるようなサービス
(6) Various services using the
[手書入力ペン26]
図4は、図1に示した第1の手書入力ペン26の構成を示す図である。
図4に示すように、手書入力ペン26は、シャープペンシル機構・ボールペン先などの筆記およびポインティングに使用可能な筆記部材260、レンズ系264、CCD(Charge Coupled Device)素子266(画像入力手段)、圧力センサ268、画像取込回路270、マイクロフォン(MIC)272(音声受け入れ手段;手書き入力ペン26に外付けされ、机上の置かれて音声入力に用いられるようにしてもよい)、音声処理回路274、電源278、送信回路280、バッファメモリ282、送信メモリ284、制御部286およびスイッチ288が、一般的な筆記用具の形態に形成された手書入力ペン本体262中に一体に収容されて構成される。
[Handwriting pen 26]
FIG. 4 is a diagram showing a configuration of the first
As shown in FIG. 4, the
手書入力ペン26は、例えば、1チップマイクロプロセッサ応用装置としてのハードウェア構成を採り、手書入力ペン26の各構成部分は、適宜、専用のハードウェアあるいは1チップマイクロプロセッサ上で動作するソフトウェアとして実現される。
手書入力ペン26は、これらの構成部分により、背景が付された用紙128,130(図1)などに対して筆記した文字、あるいは、ポインティング操作を、筆跡データとして、入力装置20に対して出力する。
また、手書入力ペン26は、周囲の音声を受け、音声データとして、入力装置20に対して出力する。
The
Due to these components, the
Moreover, the
また、手書入力ペン26は、ユーザの筆圧を検出し、筆圧データとして、入力装置20に対して出力する。
なお、手書入力ペン26は、ユーザの所定の操作、例えば、手書入力ペン26のボタン(図示せず)に対する操作、あるいは、用紙128,130に対する所定のタイミングでのポインティングなどに応じて、これらの機能を実行する。
つまり、手書入力ペン26は、入力装置20に対して、手書き文字の入力、ポインティング操作および音声の入力を行うために用いられる。
The
Note that the
That is, the
手書入力ペン26において、圧力センサ268は、ユーザが、用紙128,130などに筆記部材260を押し当てて、筆記およびポインティングを行うときなどに、筆記部材260にかかる圧力を検出し、画像取込回路270に対して出力する。
なお、圧力センサ268が、手書き入力ペン本体262にかかるユーザの握力をさらに検出できるようにすると、ユーザの握力に基づくユーザ認証が可能となる。
手書入力ペン26において、レンズ系264および手書入力ペン266は、例えば、圧力センサ268が、筆記部材260にかかる圧力を検出したときに、筆記部材260が押し当てられた部分の用紙128,130の背景パターン136(図3)などの画像を受け入れ、画像取込回路270に対して出力する。
In the
If the
In the
画像取込回路270は、レンズ系264およびCCD素子266により受け入れられた画像を取り込み、ユーザの筆跡および用紙128,130に付された背景パターン136(図3)を示す筆跡データを生成し、バッファメモリ282を介して、送信回路280に対して出力する。
また、画像取込回路270は、圧力センサ268が検出した圧力を取り込み、ユーザの筆圧、あるいは、ポインティングの強さを示す筆圧データを生成し、バッファメモリ282を介して、送信回路280に対して出力する。
The
Further, the
MIC272および音声処理回路274は、常に、あるいは、圧力センサ268が筆記部材260にかかる圧力を検出したときに、周囲の音声を受け入れ、音声データを生成し、送信回路280に対して出力する。
制御部286は、スイッチ288に対するユーザの操作に応じて、手書き入力ペン26の各構成部分の動作を制御する。
制御部286による動作制御の例として、バッファメモリ282あるいは送信メモリ284に、音声データを記憶しておき、スイッチ288に対するユーザの操作に応じて、送信回路280を制御し、記憶した音声データを送信させる制御を挙げることができる。
The
The
As an example of operation control by the
送信回路280は、制御部286の制御に従って、画像取込回路270および手書入力システム274から、バッファメモリ282を介して、筆跡データ、筆圧データおよび音声データを受けて送信メモリ284に記憶する。
さらに、送信回路280は、制御部286の制御に従って、バッファメモリ282に記憶されたこれらのデータを、電波あるいは光により、入力された筆跡データ、筆圧データおよび音声データを、入力装置20(図1)の無線IF116(図2)に対して送信する。
なお、制御部286に、手書き入力ペン26それぞれに固有で、暗号化された識別符号・識別番号を記憶させておき、送信回路280が、上述のデータとともに、この識別符号・識別番号を送信するようにしてもよい。
The
Further, the
The
[手書き入力ペンの他の態様]
ここで、情報管理システム1において、手書き入力ペン26の代わりに用いられうる手書き入力ペンの様々な態様を説明する。
図5,図6はそれぞれ、情報管理システム1(図1)において、図4などに示した第1の手書き入力ペン26の代わりに用いられる第2,第3の手書き入力ペン40,42の外観を示す図である。
なお、図5,図6においては、実質的に共通の構成部分には共通の符号が付されている(以下の各図について同様)。
[Other aspects of handwriting input pen]
Here, various aspects of the handwriting input pen that can be used in place of the
FIGS. 5 and 6 respectively show the external appearances of the second and third handwriting input pens 40 and 42 used in place of the first
5 and 6, substantially common components are denoted by common reference numerals (the same applies to the following drawings).
図5に示すように、第2の手書き入力ペン40は、接触部材400、拡大鏡402、CCDカメラ412、ファンクション切り替え部416、ファンクション表示LED418、有機ELディスプレイを含むシート状ディスプレイ420およびキャップ422などから構成される。
なお、手書き入力ペン40の本体の一番太い部分の太さは、握りやすさが考慮されて、例えば、直径4cm以下(成人の親指とひとさし指とで作られた環より小さい直径)とされる。
さらに、第2の手書き入力ペン40は、図4に示した第1の手書き入力ペン26の機能の他、例えば、制御部288の制御に従って、図5を参照して以下に説明するような機能をサポートする構成部分を有する(第3の手書き入力ペン42(図6)も同様)。
接触部材400は、第1の手書き入力ペン26の筆記部材260に対応し、ボールペン、指し棒、針、鉛筆、マーカーペン、フェルトあるいは先が丸い樹脂などで構成され、用紙128,130などの部材に接触する。
なお、接触部材400は、文字入力およびポインティングの他に、筆圧に応じた機能の選択などにも用いられうる。
As shown in FIG. 5, the second
The thickness of the thickest part of the main body of the
Furthermore, in addition to the function of the first
The
Note that the
拡大鏡402は、例えば、レンズ枠404にはめ込まれ、照準用目盛り408が付された拡大用レンズ406、レンズ枠404に付され、ユーザの手元を照らす照明用ライト410から構成される。
レンズ枠404は、本体に対して着脱可能であって、レンズ枠404を本体にフレキシブルに固定する継ぎ手412によって、本体に対して固定される。
CCDカメラ414は、第1の手書き入力ペン26(図4)におけるレンズ系264およびCCD素子266に対応し、手書き文字の入力のための他、一般的なディジタルカメラと同様な画像撮影のためにも用いられうる。
The magnifying
The
The
ファンクション切り替え部416は、例えば、第1の手書き入力ペン26のスイッチ288(図4)に対応し、図5に矢印で示すように、手書き入力ペン40の機能(ファンクション)の選択のために用いられる。
手書き入力ペン40の機能の例としては、音声入力/音声再生などの機能、音声のバッファリング時間設定および機能のロックなどが挙げられる。
この機能選択は、ユーザが、本体の継ぎ目を回転させ、ファンクションを示す目盛りを合わせることにより行われる。
ファンクション表示LED418は、それぞれ色が異なる発光ダイオードなどから構成され、選択された機能を表示する。
The
Examples of functions of the
This function selection is performed by the user rotating the joint of the main body and matching the scale indicating the function.
The
手書き入力ペン40の本体において、キャップ422が装着される部分には電源スイッチ(図示せず)が設けられ、接触部材400を覆っていたキャップ422はずされて、所定の部分に装着されると、手書き入力ペン40の電源が投入される。
また、手書き入力ペン40の本体において、キャップ422が装着される部分には円筒状に形成されたディスプレイ420が設けられ、様々な表示のために用いられる。
In the main body of the
Further, in the main body of the
また、図6に示すように、第3の手書き入力ペン42には、接触部材400の代わりに、接触部材424が設けられ、ディスプレイ420の代わりに、ノック式ファンクション切り替え部426、指向性マイク430および指向性調整部434が設けられる。
手書き入力ペン42において、音声のバッファリング機能のオン/オフなどのために用いられるノック式ファンクション切り替え部426は、ファンクション切り替え部416およびファンクション表示LED418と併用されてもよく、ユーザが、ノック式ファンクション切り替え部426を押下するたびに、手書き入力ペン42の機能が変更され、変更された機能は、機能表示部428に、色などで表示される。
また、ユーザが、本体のつなぎ目に設けられた指向性調整部434を回すと、指向性マイク430の指向性が調整され、指向性マイク430の指向性が、指向性を示す印432により表示される。
As shown in FIG. 6, the third handwriting input pen 42 is provided with a
In the handwriting input pen 42, the knock
When the user turns the
[電子認証印24]
図7は、図1に示した電子認証印24の構成を示す図である。
図7に示すように、電子認証印24は、レンズ系264、CCD素子266、圧力センサ268、画像取込回路270、MIC272、音声処理回路274、電源278、バッファメモリ282、送信メモリ284、制御部286、スイッチ288、印面240、印鑑データ記憶部244および送信回路246が、一般的な印鑑の形態に形成された電子認証印本体242に収容されて構成される。
電子認証印24は、手書入力ペン26と同様に、例えば、1チップマイクロプロセッサ応用装置としてのハードウェア構成を採り、電子認証印24の各構成部分は、適宜、専用のハードウェアあるいは1チップマイクロプロセッサ上で動作するソフトウェアとして実現される。
[Electronic authentication stamp 24]
FIG. 7 is a diagram showing the configuration of the
As shown in FIG. 7, the
Similar to the
電子認証印24は、これらの構成部分により、ユーザ認証を情報サーバ16などとの間で行う。
また、電子認証印24は、電子的な印鑑情報データを、入力装置20および情報サーバ16などに対して出力する。
The
The
電子認証印24において、印面240は、用紙128,130などに当接されて、印影を与えるとともに、受けた圧力を圧力センサ268に伝える。
なお、手書き入力ペン26においてと同様に、圧力センサ268が、電子認証印本体242にかかるユーザの握力を検出できるようにすると、電子認証印24を用いたユーザ認証が可能となる。
印鑑データ記憶部244は、電子認証印24から入力装置20などに対して出力されるべき印鑑データ(手書き入力ペン26と同様な識別符号・識別番号を含んでいてもよい)を保持し、送信回路246に対して出力する。
In the
As with the
The seal
送信回路246は、画像取込回路270から入力される用紙128,130上の背景パターン136(図3)の画像、および、圧力センサ268が検出した圧力などを示す画像・圧力データ(手書入力ペン26における筆跡データと同様)と、印鑑データ記憶部244から入力される印鑑データ、および、音声処理回路274から入力される音声データを含む印鑑情報データを生成する。
送信回路246は、手書き入力ペン26における送信回路280と同様に、制御部288の制御に従って、生成した印鑑情報データを、入力装置20あるいはPC18に対して出力する。
The
Similar to the
[入力装置用プログラム200]
図8は、図1に示した入力装置20上で動作する入力装置用プログラム200を示す図である。
図8に示すように、入力装置用プログラム200は、受信処理部202、筆跡解析部204、文字識別部206、音声処理部208(音声入力手段)、対応付け部210、背景検出部212、位置検出部214(検出手段)、データベース(DB)管理部216、ペン情報DB220、通信処理部222および印鑑情報処理部224から構成される。
[Input Device Program 200]
FIG. 8 is a diagram showing an input device program 200 operating on the
As illustrated in FIG. 8, the input device program 200 includes a
入力装置用プログラム200は、例えば、記録媒体114(図2)を介して入力装置20に供給され、メモリ104にロードされて実行される(以下に示す各プログラムについて同じ)。
入力装置用プログラム200は、これらの構成部分により、手書入力ペン26から入力される筆跡データ、筆圧データおよび音声データを処理し、これらを対応付けて、情報サーバ16(図1)に対して送信する。
The input device program 200 is supplied to the
The input device program 200 processes handwriting data, writing pressure data, and voice data input from the
入力装置用プログラム200において、受信処理部202は、入力装置20の無線IF116(図2)が受信した筆跡データ、筆圧データを、筆跡解析部204に対して出力する。
また、受信処理部202は、無線IF116が受信した音声データを、音声処理部208に対して出力する。
また、受信処理部202は、筆跡データを、背景検出部212に対して出力する。
また、受信処理部202は、必要に応じて、電子認証印24および手書き入力ペン26により得られた筆跡データ、音声データ、筆圧データ、画像・圧力データおよび印鑑データを、通信処理部222に対して出力する。
In the input device program 200, the
The
In addition, the
Further, the
筆跡解析部204は、例えば、背景管理装置32から、背景パターン136を示す情報を得て、受信処理部202から入力された筆圧データおよび筆圧データを解析して、ユーザが用紙128,130に記した線の始点の位置を検出し、さらに、背景パターン136(図3)のドット134の移動方向および移動速度を算出する。
筆跡解析部204は、このようにして得られた解析結果を、文字識別部206に対して出力する。
For example, the
The
文字識別部206は、筆跡解析部204による解析結果に基づいて、ユーザが、用紙128,130などに記した文字を識別し、文字データとして、対応付け部210に対して出力する。
また、文字識別部206は、筆跡解析部204による解析結果に基づいて、ユーザが、用紙128,130などに対して行ったポインティングなどの操作を識別し、操作データとして、対応付け部210に対して出力する。
なお、文字認識部206は、文字データおよび操作データとともに、筆跡の解析の対象となった筆跡データおよび筆圧データを、対応付け部210に対して出力してもよい。
また、文字認識部206は、ユーザ認証の結果、手書き文字の入力が許可されたときに、文字データを、通信処理部206に対して送信する。
Based on the analysis result by the
In addition, the
Note that the
Moreover, the
音声処理部208は、受信処理部202から入力された音声データに対して、圧縮・符号化およびバッファリングなどの処理を行い、対応付け部210に対して出力する。
背景検出部212は、受信処理部202から入力された筆跡データ(画像)から、用紙128,130に付された背景パターン136(図3)を検出し、位置検出部214に対して出力する。
The
The
位置検出部214は、背景管理装置32から用紙128,130に付された背景パターン136を示す情報(以下、背景パターンデータとも記す)を受け、手書入力ペン26が筆記あるいはポインティングしている用紙128,130上の位置を検出し、用紙128,130上の位置を示す位置データとして、対応付け部210に対して出力する。
対応付け部210は、文字識別部206から入力された文字データおよび操作データ(これらには、上述のように、筆跡データおよび筆圧データが付加されることがある)と、音声処理部208から入力された音声データと、位置検出部214から入力された位置データとを対応付け、ペン情報データとして、DB管理部216に対して出力する。
The
The associating
印鑑情報処理部224は、電子認証印24から印鑑情報データを受けて、例えば、印面240に加わる圧力が大きく変化したタイミングで、通信処理部222を介して情報サーバ16などに対して出力する。
また、印鑑情報処理部224は、電子認証印24から受けた印鑑情報データを、DB管理部216に対して出力する。
また、印鑑情報処理部224は、電子認証印24を用いたユーザ認証が行われるときには、電子認証印24のユーザが認証されたときにのみ、電子認証印24から受けた印鑑情報データを、情報サーバ16あるいはDB管理部216に対して出力する。
The seal stamp
Further, the seal stamp
In addition, when the user authentication using the
通信処理部222は、ネットワーク120(図1)を介した他のノードとの通信に必要な処理を行う。
DB管理部216は、対応付け部210から入力されたペン情報データ、および、印鑑情報処理部224から入力された印鑑情報データを、ペン情報DB220に記憶させ、管理する。
The
The DB management unit 216 stores the pen information data input from the
また、DB管理部216は、必要に応じて、ペン情報DB220に記憶したペン情報データおよび印鑑情報データを、通信処理部222を介して、情報サーバ16などに対して送信する。
また、DB管理部216は、ユーザの操作に応じて、記憶したペン情報データおよび印鑑情報データを、文字データあるいは音声データとして、入出力装置106などから出力する。
Further, the DB management unit 216 transmits pen information data and seal stamp information data stored in the
Further, the DB management unit 216 outputs the stored pen information data and seal stamp information data from the input /
なお、DB管理部216は、情報サーバ16が、手書入力ペン26を用いたユーザの認証を行うときには、情報サーバ16が認証したユーザにより入力されたペン情報データのみを、通信処理部222を介して他のノードに送信し、あるいは、ペン情報DB220に記憶させ、管理する。
また、DB管理部216は、情報サーバ16が、電子認証印24の認証を行うときには、情報サーバ16が認証した電子認証印24から入力された印鑑情報のみを、通信処理部222を介して他のノードに送信し、あるいは、ペン情報DB220に記憶させ、管理する。
When the
In addition, when the
[情報サーバプログラム160]
図9は、図1に示した情報サーバ16上で動作する情報サーバプログラム160を示す図である。
図9に示すように、情報サーバプログラム160は、通信処理部222、操作解析部164、DB管理部166、ペン情報DB168、サービス提供部170(音声出力手段,第1の音声出力手段)および付加サービスDB172(情報記憶手段)から構成される。
[Information Server Program 160]
FIG. 9 is a diagram showing an
As shown in FIG. 9, the
情報サーバプログラム160は、これらの構成部分により、各入力装置20から入力されるペン情報データおよび印鑑情報データを記憶および管理し、要求に応じて、記憶したペン情報データをPC18などに対して提供する。
また、情報サーバプログラム160は、PC18などに対して、付加サービスを提供する。
With these components, the
The
通信処理部222は、入力装置用プログラム200(図8)においてと同様に、ネットワーク120(図1)を介した他のノードとの通信のために必要な処理を行う。
DB管理部166は、入力装置20などからペン情報データおよび印鑑情報データを受信し、ペン情報DB168に記憶させ、管理する。
また、DB管理部166は、PC18など他のノードおよびサービス提供部170からの要求を受けて、ペン情報DB168に記憶したペン情報データおよび印鑑情報データを提供する。
Similarly to the input device program 200 (FIG. 8), the
The
Also, the
操作解析部164は、入力装置20などからの操作データ、ペン情報データおよび印鑑情報データを解析し、サービス提供部170に対して出力する。
サービス提供部170は、操作解析部164による解析結果に応じて、ペン情報DB168に記憶されているペン情報データ、印鑑情報データおよび背景管理装置32から入力される背景パターンデータを適宜、用い、付加サービスDB172に記憶されている付加サービス(教育サービスなど)を、PC18および入力装置20などに提供する。
なお、サービス提供部170が提供する付加サービスは、実施例1以下を参照してさらに後述される。
The
The
The additional services provided by the
[情報利用プログラム180]
図10は、図1に示したPC18上で動作する情報利用プログラム180を示す図である。
図10に示すように、情報利用プログラム180は、受信処理部202、背景・操作検出部184、位置検出部214、通信処理部222、情報出力処理部182(第2の音声出力手段)、背景・操作検出部184およびアプリケーション186から構成される。
情報利用プログラム180がさらに、印鑑情報データを扱うときには、図8に示した印鑑情報処理部224が付加される。
情報出力処理部182は、これらの構成部分により、ユーザが、手書入力ペン26を用いて、用紙128,130をポインティングする操作に応じて、様々なサービスを提供する。
なお、以下の説明においては、説明の具体化・明確化のために、情報利用プログラム180が、ユーザのポインティング操作に応じて、音声を出力するサービス(音声入出力サービス;図12,図13を参照して、さらに後述)を提供する場合を具体例とする。
受信処理部202は、手書入力ペン26から、無線IF116(図2)を介して、筆跡データおよび筆圧データを受けて、背景・操作検出部184に対して出力する。
[Information utilization program 180]
FIG. 10 is a diagram showing an
As shown in FIG. 10, the
When the
With these components, the information
In the following description, in order to make the description more specific and clear, the
The
背景・操作検出部184は、受信処理部202から入力される筆跡データ(背景パターン136(図3)の画像)から、背景パターン136を検出する。
また、背景・操作検出部184は、受信処理部202から入力される筆圧データから、ユーザの操作を検出し、操作データとする。
背景・操作検出部184は、背景パターンデータおよび操作データを、位置検出部214に対して出力する。
The background /
Further, the background /
The background /
[アプリケーション186による背景パターン136付加処理]
アプリケーション186は、例えば、ワードプロセッサなどの機能を含み、用紙128,130に印刷されるべき画像データ、および、用紙128,130上の各位置に対応付けられる付加データを作成する。
アプリケーション186による画像データの作成には、さらに、例えば、他のアプリケーション(図示せず)により作成されたドキュメント、および、ディジタルカメラにより撮影された画像などのデータコピー、切り抜きおよび挿入なども含まれうる。
さらに、アプリケーション186は、ユーザの操作に応じて、背景管理装置32(図1)に対して、無地の用紙128,130への背景パターン136(図3)の付加を要求し、これの要求に応じて背景管理装置32から背景パターン136を受け取る。
[
The
The creation of image data by the
Further, the
アプリケーション186は、背景管理装置32から受けた背景パターン136を、作成された画像データとともに、認定プリンタ122に対して送信し、これらを、無地の用紙128,130に印刷させる。
さらに、アプリケーション186は、情報サーバ16に、用紙128,138に付した背景パターン136を示す情報と、用紙128,13上の1つ以上の位置と、これらの位置それぞれに対応付けられた付加データとを登録する。
The
Further, the
[アプリケーション186による背景パターン136の再利用]
また、アプリケーション186は、背景パターン136の再利用のための機能を実現する。
つまり、例えば、アプリケーション186は、廃棄処分される用紙128、あるいは、背景パターン136が消去される用紙130から、スキャナ(機能実現装置38;図2)などを用いて背景パターン136を読み込んで、背景管理装置3の背景管理装置32(図1など)に対して送信する。
さらに、アプリケーション186は、背景パターン136の送信と併せて、その背景パターン136が再利用可能である旨を、背景管理装置32に通知する。
[Reuse of
Further, the
In other words, for example, the
Further, the
位置検出部214は、背景管理装置32から受けた背景パターンデータを用いて、ユーザがポインティングしている用紙128,130の位置を検出し、操作データとともに、通信処理部222に対して出力する。
The
通信処理部222は、位置検出部214から入力された位置データを情報サーバ16に通知し、位置検出部214が検出した用紙128,130上の位置に対応するペン情報データを要求する。
通信処理部222は、情報サーバ16から、要求に応じたペン情報データを受けて、情報出力処理部182に対して出力する。
The
The
なお、通信処理部222は、情報サーバ16が、手書入力ペン26を用いたユーザの認証を行うときには、情報サーバプログラム160(図8)のDB管理部216と同様に、情報サーバ16が認証したユーザにより入力されたペン情報データのみを、情報出力処理部182あるいは他のノードに対して出力する。
情報出力処理部182は、通信処理部222から入力されたペン情報データに含まれる音声データを、入出力装置106(図9)から出力する。
When the
The information
[背景管理プログラム34]
図11は、図1に示した背景管理装置32上で動作する背景管理プログラム34を示す図である。
図11に示すように、背景管理プログラム34は、未使用背景パターンDB340、使用済背景パターンDB342、DB管理部344および通信処理部222から構成される。
背景管理プログラム34は、これらの構成部分により、用紙128,130それぞれにいずれの背景パターン136が付されているかを管理する。
また、背景管理プログラム34は、情報管理システム1の各ノードに対する背景パターン136の配信および再利用を行う。
[Background management program 34]
FIG. 11 is a diagram showing a background management program 34 that operates on the
As illustrated in FIG. 11, the background management program 34 includes an unused
The background management program 34 manages which
The background management program 34 distributes and reuses the
通信処理部222は、入力装置用プログラム200(図8)などにおいてと同様に、ネットワーク120(図1)を介した他のノードとの通信のために必要な処理を行う。
未使用背景パターンDB340は、用紙128,130のいずれにも付されていない背景パターン136を示す背景パターンデータを記憶する。
使用済背景パターンDB342は、いずれかの用紙128,130に付されている背景パターン136を示す背景パターンデータを記憶する。
The
The unused
The used
DB管理部344は、他のノード(PC18など)から、未使用の背景パターン136が要求されたときには、未使用背景パターンDB340に記憶されている未使用の背景パターン136を選択して、要求したノードに配信する。
DB管理部344は、さらに、配信した背景パターン136の背景パターンデータを、未使用背景パターンDB340から削除し、使用済背景パターンDB342に記憶し、管理する。
また、DB管理部344は、他のノードから、背景パターン136を、それが使用されなくなった旨とともに受信したときには、使用済背景パターンDB342から受信された背景パターン136の背景パターンデータを削除し、未使用背景パターンDB340に、受信された背景パターン136の背景パターンデータを記憶させる。
When an
The
Further, when receiving the
[情報管理システム1による音声入出力]
図12は、情報管理システム1(図1)による音声入出力サービスを例示する図である。
情報管理システム1における音声入出力サービスは、図12に示すように、ユーザが、以下のような操作を行うことにより実現される。
[Voice input / output by information management system 1]
FIG. 12 is a diagram illustrating a voice input / output service by the information management system 1 (FIG. 1).
As shown in FIG. 12, the voice input / output service in the
(1)ユーザが、手書入力ペン26(図1,図4)を操作して、音声(図12に例示する「今年度の目標は、売り上げ10%増です」)を受け入れる状態とする。
(2)ユーザが、入力装置20のそばで、手書入力ペン26を用いて、背景が付された用紙128,130にメモ(図12に例示する「今朝の社長の話」)を取る。
(3)ユーザが、PC18のそばで、用紙128,130上のメモをポインティングし、音声を出力させる操作を行う。
(1) The user operates the handwriting input pen 26 (FIGS. 1 and 4) to accept voice (“the target for this year is a 10% increase in sales” illustrated in FIG. 12).
(2) The user takes a note (“the story of the president this morning” illustrated in FIG. 12) on the
(3) The user performs an operation of pointing a memo on the
以上のユーザの操作により、入力装置20は、手書入力ペン26の周囲の音声を受け入れて音声データとし、背景が付された用紙128,130上のメモの位置データと対応付けて、ペン情報データとして情報サーバ16に送る。
PC18のそばで、ユーザが、背景が付された用紙128,130上のメモの位置をポインティングし、音声を出力させる操作を行うと、PC18は、メモの位置に対応付けられた音声データを含むペン情報データを、情報サーバ16に対して要求する。
入力装置20は、この要求に応じたペン情報データを、PC18に送る。
PC18は、このペン情報データに含まれる音声データを、音声として、入出力装置106(図2)から出力する。
Through the above-described user operation, the
When the user performs an operation of pointing the position of the memo on the
The
The
図13を参照して、情報管理システム1における音声入出力サービスを、さらに説明する。
図13は、情報管理システム1(図1)において、図12に示した音声入出力サービスを実現するための通信シーケンス(S10)を示す図である。
図13に示すように、ステップ100(S100)において、手書入力ペン26は、周囲の音声を受け入れ、入力装置20に対して、音声データを、順次、出力する。
With reference to FIG. 13, the voice input / output service in the
FIG. 13 is a diagram showing a communication sequence (S10) for realizing the voice input / output service shown in FIG. 12 in the information management system 1 (FIG. 1).
As shown in FIG. 13, in step 100 (S <b> 100), the
ステップ102(S102)において、ユーザが、入力装置20のそばで、背景が付された用紙128,130上に、手書入力ペン26を用いてメモを取ることにより、用紙128,130上の位置をポインティングし、音声入力のための所定の操作(単に、手書入力ペン26を用紙128,130から離す操作でもよい)を行う。
手書入力ペン26は、これらの操作を、入力装置20に対して伝える。
In step 102 (S102), the user takes a note by using the
The
ステップ104(S104)において、入力装置20は、背景が付された用紙128,130上のメモの位置を示す位置データと、S100の処理により得られた音声データとを対応付けてペン情報データとし、情報サーバ16に対して送信する。
情報サーバ16は、このペン情報データを受けて記憶し、管理する。
In step 104 (S104), the
The
ステップ106(S106)において、ユーザは、PC18のそばに移動し、手書入力ペン26を用いて、背景が付された用紙128,130上のメモをポインティングし、音声出力のための所定の操作(例えば、連続して2回、メモの位置をポインティングするなど)を行う。
手書入力ペン26は、ポインティングおよび操作に応じた筆跡データおよび筆圧データを、PC18に対して送信する。
In step 106 (S106), the user moves near the
The
ステップ108(S108)において、PC18は、情報サーバ16に対して、メモの位置を示す位置データを含むペン情報データを要求する。
ステップ110(S110)において、情報サーバ16は、PC18から通知された位置データを含むペン情報データを、PC18に対して送信する。
PC18は、情報サーバ16からのペン情報データを受けて、このペン情報データに含まれる音声データを、音声として、入出力装置106(図2)から出力する。
In step 108 (S108), the
In step 110 (S110), the
The
[教育サービス]
図14は、情報管理システム1(図1)による教育サービスを例示する図である。
ここでは、情報管理システム1により、例えば、英語教育のサービスを提供する場合を具体例とする。
図14に示すように、背景が付された用紙128,130に、英単語(Patent)が印刷され、さらに、用紙128,130のそれぞれ予め決められた位置に、英単語の発音を聞くためのボタンと、英単語の意味を聞くためのボタンとが印刷されている。
[Education service]
FIG. 14 is a diagram illustrating an education service by the information management system 1 (FIG. 1).
Here, for example, a case where an English education service is provided by the
As shown in FIG. 14, English words (Patents) are printed on
ユーザが、背景が付された用紙128の「発音」のボタンを、手書入力ペン26(図1,図4)でポインティングすると、用紙128,130の背景パターン136(図3)に対応する英単語(ここではPatent)の発音が音声出力される。
また、背景が付された用紙128の「意味」のボタンをポインティングすると、用紙128,130の背景パターン136に対応する英単語の意味(特許)が音声出力される。
ユーザが、これらのボタン以外の用紙128,130上の位置をポインティングすると、その部分に対応する情報が存在しない旨が、音声あるいは画像により表示される。
When the user points the “pronunciation” button of the
When the “meaning” button of the
When the user points to a position on the
図15は、図14に示した教育サービスを実現するために、情報サーバ16の付加サービスDB172(図9)に記憶されるデータを例示する図であって、(A)は、音声データの出力に用いられるインデックスを示し、(B)は、インデックスにより参照される音声データを示す。
図14に示した教育サービスの実現には、例えば、図15に示すようなデータが、付加サービスDB172に記憶される。
FIG. 15 is a diagram exemplifying data stored in the additional service DB 172 (FIG. 9) of the
For realizing the education service shown in FIG. 14, for example, data as shown in FIG. 15 is stored in the
まず、ユーザが、図14に示したような背景付き用紙128,130に対するポインティング操作を行うと、PC18から、用紙128,130(図14)の背景パターンデータと、ユーザが、用紙128,130上をポインティングした位置を示す位置データとが、情報サーバ16に送られてくる。
情報サーバ16のサービス提供部170(図9)は、PC18からの背景パターンデータと、背景パターン136の識別子(ID;背景パターンID)とを対応付ける。
First, when the user performs a pointing operation on the
The service providing unit 170 (FIG. 9) of the
さらに、サービス提供部170は、背景パターンIDと、PC18からのポインティング位置を示す位置データとを用いて、図15(A)に示すインデックスを検索し、これらの情報に対応する音声データの識別子(音声データID)を得る。
サービス提供部170は、このようにして得た音声データIDに対応する音声データ(図15(B))を、PC18に返す。
Further, the
The
あるいは、サービス提供部170は、背景パターンIDと、位置データとに対応する音声データIDが得られないときには、音声データの不存在を、PC18に通知する。
PC18は、このようにして得られた音声データを、入出力装置106(図2)から出力し、あるいは、音声データの不存在を、音声あるいは画像により、入出力装置106に表示する。
Alternatively, when the voice data ID corresponding to the background pattern ID and the position data cannot be obtained, the
The
図16は、情報管理システム1(図1)において、図14に示した教育サービスを実現するための通信シーケンス(S12)を示す図である。
図16に示すように、ステップ120(S120)において、ユーザが、PC18(図1,図2,図10)のそばで、手書入力ペン26を用いて、背景が付された用紙128,130上の任意の位置をポインティングする。
PC18は、用紙128,130の背景パターンデータと、用紙128,130上のポインティングされた位置とを検出する。
FIG. 16 is a diagram showing a communication sequence (S12) for realizing the education service shown in FIG. 14 in the information management system 1 (FIG. 1).
As shown in FIG. 16, in step 120 (S120), the user uses the
The
ステップ122(S122)において、PC18は、ポインティングされた用紙128,130の背景パターンデータと、ポインティングされた位置を示す位置データとを、情報サーバ16に対して送信する。
ステップ124(S124)において、情報サーバ16は、情報サーバ16からの背景パターンデータおよび位置データに対応する音声データ(あるいは音声データの不存在を示すデータ)を、PC18に対して送信する。
PC18は、情報サーバ16からの音声データ(あるいはその不存在)を、音声などにより出力する。
In step 122 (S122), the
In step 124 (S124), the
The
[手書入力ペンを用いたユーザ認証]
図17は、手書入力ペン26(図1,図4)を用いたユーザ認証を例示する図である。
図17に示すように、手書入力ペン26を用いたユーザ認証が行われるときには、例えば、まず、ユーザが、手書入力ペン26を用いて、背景が付された用紙128,130に対して、「認証要求」という文字を手書きし、続いて、ユーザに与えられた識別子(ユーザID)あるいはユーザの名前(以下、ユーザID・名前)を手書きする。
[User authentication using handwriting input pen]
FIG. 17 is a diagram illustrating user authentication using the handwriting input pen 26 (FIGS. 1 and 4).
As shown in FIG. 17, when user authentication is performed using the
図18は、図9に示した付加サービスDB172に記憶され、手書入力ペン26を用いたユーザ認証に用いられるユーザ認証用データを例示する図である。
入力装置20は、最初に入力された「認証要求」の文字を認識すると、続いて手書きされたユーザID・ユーザの名前を認識し、認識したユーザID・名前と、手書きされたユーザID・名前の筆跡を示す筆跡データおよび筆圧データ(いずれかでもよい;以下、筆跡データ・筆圧データ)を、情報サーバ16に送信する。
情報サーバ16上で動作する情報サーバプログラム160の付加サービスDB172には、予め、図18に示すように、ユーザによるユーザID・名前の筆跡を示す筆跡データ・筆圧データと、ユーザID・名前と、その連絡先(例えばPC18)を示す情報(メールアドレスなど)が対応付けられて記憶されている。
FIG. 18 is a diagram illustrating user authentication data stored in the
When the
In the
情報サーバ16は、入力装置20から送られてきた筆跡データ・筆圧データと、入力装置20から送られてきたユーザID・名前に対応付けられた筆跡データ・筆圧データとを比較し、これらが同一人物の筆跡と認められるときに、手書き文字を書いたユーザを、正当なユーザであると認証し、情報の入力を認める。
情報サーバ16は、さらに、手書入力ペン26のユーザの連絡先として登録されている連絡先に、認証要求があったことと、その結果とを通知する。
The
Further, the
図19は、情報管理システム1において、図17に示した手書入力ペン26を用いたユーザ認証を実現するための通信シーケンス(S14)を示す図である。
図19に示すように、ステップ140(S140)において、ユーザが、手書入力ペン26を用いて、背景が付された用紙128,130に対して、「認証要求」の文字を手書きし、続いて、ユーザID・名前を手書きすると、手書入力ペン26は、これらの文字を示す筆跡データ・筆圧データを、入力装置20に対して出力する。
FIG. 19 is a diagram showing a communication sequence (S14) for realizing user authentication using the
As shown in FIG. 19, in step 140 (S140), the user uses the
ステップ142(S142)において、入力装置20は、ユーザが手書きした「認証要求」と、ユーザID・名前とを認識し、認識したユーザID・名前と、ユーザID・名前の筆跡を示す筆跡データ・筆圧データとを、情報サーバ16に対して送信する。
ステップ144(S144)において、情報サーバ16は、入力装置20から送られてきた筆跡データ・筆圧データと、付加サービスDB172(図9)内の認識されたユーザID・名前に対応する筆跡データ・筆圧データ(図18)とを比較する。
In step 142 (S142), the
In step 144 (S144), the
情報サーバ16は、これらが同一の範囲にあるときには、手書入力ペン26を用いているユーザを認証し、情報の入力を許可する旨を、入力装置20に伝える。
あるいは、これらが同一の範囲にないときには、手書入力ペン26を用いているユーザを認証せず、情報の入力を不許可とする旨を、入力装置20に伝える。
When they are in the same range, the
Alternatively, when they are not in the same range, the user using the
ステップ146(S146)において、情報サーバ16から、ユーザを認証した旨の通知を受けると、入力装置20は、手書入力ペン26から情報を受け入れる。
なお、このときに、入力装置20は、図17に例示したように、音声により、認証の結果を、手書入力ペン26のユーザに通知してもよい。
ステップ148(S148)において、情報サーバ16は、PC18に対して、認証要求があった旨と、その結果とを通知する。
In step 146 (S146), upon receiving notification from the
At this time, as illustrated in FIG. 17, the
In step 148 (S148), the
なお、ここでは、筆跡によるユーザの認証を示したが、例えば、手書入力ペン26の手書入力ペン本体262の握りの部分に、圧力センサを設けることにより、ユーザの握りの強さを加味したユーザの認証を行うことも可能である。
あるいは、手書き入力ペン26のレンズ系264およびCCD素子266(図4)によりユーザの指紋の画像を得て、認証に用いたり、上述の手書き入力ペン26それぞれに固有の識別番号・識別符号を用いた認証を行ったり、あるいは、手書き入力ペン26のMIC272により得られるユーザの音声を用いた認証を行ったりすることも可能である。
Although the user authentication by handwriting is shown here, for example, by providing a pressure sensor in the grip portion of the handwriting input pen body 262 of the
Alternatively, the user's fingerprint image is obtained by the
[電子認証印を用いたユーザ認証]
図20は、電子認証印24(図1,図7)を用いたユーザ認証を例示する図である。
図20に示すように、情報管理システム1(図1)において、電子認証印24を用いたユーザ認証を利用するときには、例えば、まず、ユーザは、電子認証印24に、自分の指紋の画像あるいは自分の声など、ユーザ認証に使用可能な情報を入力する。
ユーザ認証に用いられ得る情報としては、これらの外に、電子認証印24を、用紙128,130に当接させる強さ、電子認証印24の電子認証印本体242(図7)の側面に圧力センサにより検出可能な握りの強さなどを例示することができる。
[User authentication using electronic authentication stamp]
FIG. 20 is a diagram illustrating user authentication using the electronic authentication stamp 24 (FIGS. 1 and 7).
As shown in FIG. 20, when using the user authentication using the
In addition to these, information that can be used for user authentication includes the strength with which the
電子認証印24は、入力された認証用のデータを、入力装置20を介して情報サーバ16に送り、情報サーバ16が、認証用データを用いて、ユーザを認証する。
さらに、情報サーバ16は、電子認証印24が当接されている用紙128,130の画像から背景パターン136(図3)を得て、押印されようとしている用紙128,130を識別し、さらに、ユーザが押印しようとしている位置を検出する。
The
Further, the
情報サーバ16は、認証の結果、得られた背景パターン136、および、電子認証印24が当接された位置に基づいて、電子認証印24が、正当なユーザにより、正しい用紙128,130の正しい位置(部長印;図20)に当接され、押印に用いられているかを判断し、判断結果を入力装置20に対して送信するとともに、ユーザの連絡先に通知する。
入力装置20は、上記判断結果をユーザに対して音声(認証されました。園位置に押印してください;図20)あるいは画像などにより示すとともに、情報サーバ16は、とともに、正当なユーザにより、正しい用紙128,130の正しい位置に当接された電子認証印24から、印鑑データを受け入れる。
なお、図20に示したように、電子認証印24を用いたユーザの認証と、図17に示した手書入力ペン26を用いたユーザの認証とは、組み合わせて用いられ得る。
Based on the
The
As shown in FIG. 20, user authentication using the
図21は、図20に示した電子認証印24を用いたユーザの認証のために、情報サーバプログラム160(図9)の付加サービスDB172に記憶されるデータを示す図である。
図20に示すように、電子認証印24を用いたユーザの認証のためには、ユーザID・名前、ユーザの指紋、声紋、押印・握りの強さなど、ユーザの認証に用いられる認証用データ、正しい用紙128,130を識別するための背景パターンデータ、正しい押印の位置を識別するための位置データ、および、電子認証印24のユーザのメールアドレスなどの連絡先が、付加サービスDB172に記憶される。
さらに、電子認証印24から印鑑情報データが受け入れられたときには、受け入れられた印鑑情報データが、これらのデータに対応付けられて、付加サービスDB172に記憶される。
FIG. 21 is a diagram showing data stored in the
As shown in FIG. 20, for user authentication using the
Further, when the seal stamp information data is accepted from the
図22は、図20に示した電子認証印24を用いたユーザ認証を実現するための通信シーケンス(S16)を示す図である。
図22に示すように、ステップ160(S160)において、電子認証印24のユーザが、手書入力ペン26を用いたり、あるいは、電子認証印24に対して所定の操作(音声の入力あるいは背景付き用紙128,130に対するポインティングなど)を行い、さらに、電子認証印24に対して、指紋の画像など、認証に必要な情報を入力して、認証を要求する。
FIG. 22 is a diagram showing a communication sequence (S16) for realizing user authentication using the
As shown in FIG. 22, in step 160 (S160), the user of the
ステップ162(S162)において、入力装置20は、認証要求を受け入れて、認証用データを、情報サーバ16に対して送信する。
ステップ164(S164)において、情報サーバ16は、入力装置20からの認証用データと、予め記憶されている認証用データ(図21)とを比較し、これらが同一の範囲にあるときには、電子認証印24のユーザが正当であると認証し、これ以外のときには、電子認証印24のユーザが正当ではないとして認証しない。
In step 162 (S162), the
In step 164 (S164), the
ステップ164(S164)において、情報サーバ16は、認証結果を、入力装置20に返す。
入力装置20は、この認証結果を、音声などにより、ユーザに対して示す。
ステップ166(S166)において、情報サーバ16は、電子認証印24のユーザの連絡先(例えばPC18;図1)に、認証要求があったことと、その結果とを通知する。
In step 164 (S164), the
The
In step 166 (S166), the
ステップ168(S168)において、正当であると認証されたユーザが、電子認証印24を、背景付き用紙128,130の所定の位置(部長印の欄;図20)に当接し、押印すると、電子認証印24は、印鑑情報データと、背景パターンデータと、当接された位置を示す位置データとを、入力装置20に対して送信する。
ステップ170(S170)において、入力装置20は、背景パターンデータと位置データとを、情報サーバ16に送信する。
情報サーバ16は、入力装置20からの背景パターンデータおよび位置データと、予め記憶された背景パターンデータおよび位置データとを比較し、電子認証印24が、正しい用紙128、130の正しい位置に当接されているかを判断する。
In step 168 (S168), when the user who has been authenticated as legitimate touches and stamps the
In step 170 (S170), the
The
ステップ172(S172)において、情報サーバ16は、入力装置20に、S170の処理における判断結果を通知する。
入力装置20は、情報サーバ16からの判断結果が、電子認証印24が、正しい用紙128,130の正しい位置に当接されたことを示すときには、電子認証印24から受けた印鑑情報データを受け入れ、必要に応じて他のノードに対して送信する。
In step 172 (S172), the
The
なお、電子認証印24により得られた背景付きの用紙128,130の画像を処理することにより、電子認証印24の印影の角度を検出できるので、電子認証印24の印影の角度に基づくユーザ認証を行うようにしてもよい。
また、電子認証印24により、ユーザの指紋の画像を得ることができるので、指紋によるユーザの認証を行うようにしてもよい。
また、電子認証印24を握るユーザの握力が検出可能なので、握力によるユーザ認証を行うようにしてもよい。
It should be noted that by processing the images of the
Further, since the image of the user's fingerprint can be obtained by the
Moreover, since the grip strength of the user holding the
[背景パターンの選択的付加など]
図23は、背情報管理システム1(図1)における無地の用紙128,130に対する背景パターン136(図3)の選択的な付加、および、背景パターン136を用いた付加データの管理およびその出力を例示する図である。
以下に説明する背景パターン136の選択的付加およびこれを用いた付加データの管理・出力(以下、単に、「背景パターン136の選択的付加」などとも記す)は、情報管理システム1(図1)において、必要に応じて、無地の用紙128,130に背景パターン136を選択的に付し、この背景パターン136を付した用紙128を用いて、図14に示した教育サービスと同様なデータの管理および出力を行えるように工夫されている。
[Selective addition of background pattern, etc.]
FIG. 23 shows selective addition of the background pattern 136 (FIG. 3) to the
The selective addition of the
図23に示すように、情報管理システム1における背景パターン136の選択的付加は、以下に示すように実現される。
まず、情報管理システム1のPC18(図1)上で動作する情報利用プログラム180のアプリケーション186(図10)により、無地の用紙128,130に印刷するための画像データ(”Patent”,”[発音]”,”[意味]”)と、この画像データの用紙128,130上における位置を示す位置データと、用紙128上の画像に付加され、これらの画像をポインティングしたときに出力される付加データ(例えば、”[発音]”の画像およびその位置に対応付けられた「パテント」という音声データ、あるいは、”[意味]”の画像およびその位置に対応付けられた「特許」という文字データ)とが作成される。
As shown in FIG. 23, the selective addition of the
First, image data ("Patent", "[pronunciation") for printing on
次に、アプリケーション186(図10)は、用紙128,130を用いて、図14に示して説明したような情報の入出力を行うときには、背景管理装置32(図1,図11)に対して、無地の用紙128,130に付すための背景パターン136を要求し、この要求に応じて背景管理装置32から送られてくる背景パターン136を受ける。
次に、アプリケーション186は、作成された画像データ、および、背景管理装置32から受けた背景パターン136とを認定プリンタ122に対して出力し、画像データと背景パターン136とを、無地の用紙128,130に印刷させる。
Next, when the application 186 (FIG. 10) inputs / outputs information as shown in FIG. 14 using the
Next, the
図24は、図23に示した背景パターン136の選択的付加などを実現するために、情報サーバ16の付加サービスDB172(図9)に記憶されるデータを例示する図であって、(A)は、付加データの出力に用いられるインデックスを示し、(B)は、インデックスにより参照される付加データを示す。
次に、アプリケーション186は、情報サーバ16に対して、画像とともに用紙128,130に印刷した背景パターン136を示す背景パターンデータと、付加データが対応付けられた用紙128,130上の画像の位置を示す位置データと、用紙128,130上の画像に対応付けられた付加データを送信し、登録する。
FIG. 24 is a diagram illustrating data stored in the additional service DB 172 (FIG. 9) of the
Next, the
この結果、情報サーバ16上で動作する情報サーバ用プログラム160(図9)の付加サービスDB172には、図24(A)に示すように、用紙128,130に付された背景パターン136を識別するための背景パターンIDと、画像それぞれの位置を示す位置データと、この位置に対応付けられた付加データを示す付加データIDとが対応付けられて、インデックスとして記憶される。
さらに、付加サービスDB172には、図24(B)に示すように、図24(A)に示した付加データIDに対応する付加データが記憶される。
As a result, in the
Further, as shown in FIG. 24B, the
この登録の後、例えば、PC18(図1)の近傍において、ユーザが、手書入力ペン26を用いて、画像および背景パターン136が付された用紙128,130の各画像(図23)を、手書入力ペン26でポインティングする。
このポインティングに応じて、ポインティングされた画像に対応付けられた付加データが、情報サーバ16からPC18に送られ、PC18からユーザに対して表示・出力される。
After this registration, for example, in the vicinity of the PC 18 (FIG. 1), the user uses the
In response to this pointing, the additional data associated with the pointed image is sent from the
図25は、図23に示した背景パターン136の選択的付加を実現するための通信シーケンス(S18)を示す図である。
図25に示すように、ステップ180(S180)において、PC18において、ユーザの操作に応じて、画像データ、位置データおよび付加データなどが作成される。
FIG. 25 is a diagram showing a communication sequence (S18) for realizing the selective addition of the
As shown in FIG. 25, in step 180 (S180), image data, position data, additional data, and the like are created in the
ステップ182(S182)において、PC18は、ユーザの操作に応じて、背景管理装置32(図1など)に対して、背景パターン136を要求する。
ステップ184(S184)において、背景管理装置32は、それまでにいずれの用紙128,130に対しても印刷されていない未使用の背景パターン136を選択し、PC18に対して送信する。
In step 182 (S182), the
In step 184 (S 184), the
ステップ186(S186)において、PC18は、背景管理装置32から受けた背景パターン136と、画像データとを、認定プリンタ122(図1)に対して送信する。
ステップ188(S188)において、認定プリンタ122は、PC18からの画像データと背景パターン136とを、無地の用紙128,130に対して印刷する。
In step 186 (S186), the
In step 188 (S188), the authorized
ステップ190(S190)において、PC18は、情報サーバ16(図1)に対して、図24に示したように、位置データ、付加データおよび背景パターンを登録する。
ステップ192(S192)において、ユーザが、PC18のそばで、手書入力ペン26を用いて、用紙128,130に印刷された画像をポインティングすると、ポインティングされた用紙128,130に付された背景パターン136およびポインティングの位置を示す筆跡データが、PC18に対して送信される。
In step 190 (S190), the
In step 192 (S192), when the user points an image printed on the
ステップ194(S194)において、PC18は、手書入力ペン26からの筆跡データから、用紙128,130に付された背景パターン136を示す背景パターンデータと、ポインティングされた用紙128,130上の位置を示す位置データと作成し、情報サーバ16に対して送信する。
ステップ196(S196)において、情報サーバ16は、PC18からの背景パターンデータおよび位置データに対応する付加データを、PC18に返す。
PC18は、情報サーバ16からの付加データを受けて、音声あるいは画像としてユーザに対して表示・出力する。
In step 194 (S194), the
In step 196 (S196), the
The
[背景パターンの再利用]
図26は、情報管理システム1(図1)における背景パターン136の再利用を例示する図である。
背景パターン136(図3)には膨大な種類があり、事実上、用紙128,130それぞれに対してユニークに用いることができる。
[Reuse Background Pattern]
FIG. 26 is a diagram illustrating reuse of the
There are an enormous variety of background patterns 136 (FIG. 3), and they can be used uniquely for the
しかしながら、背景パターン136の種類は有限であることに代わりはないので、背景パターン136を再利用可能とすることが望ましい。
つまり、図26に示すように、印刷された画像を消去できない用紙128、および、印刷された画像が消去可能な用紙130が廃棄されたとき、あるいは、用紙130から背景パターン136が消去されたときに、これらの用紙128,130に付されていた背景パターン136を、使用済みの状態から、未使用の状態に戻して管理し、新たに、無地の用紙128,130に対して印刷可能とすることが望ましい。
However, since the types of the
That is, as shown in FIG. 26, when the
図27は、背景パターン136の再利用のために用いられる機能実現装置38を例示する図である。
この背景パターン136の再利用には、機能実現装置38として、例えば、図27に示すように、PC18(図1,図2)の機能実現装置38として、用紙130に印刷された背景パターン136などの画像の消去を行う消去装置382、または、背景が付された用紙128,130を廃棄するシュレッダ384と、用紙128,130に付された背景パターン136を読み取るスキャナ380とを組み合わせた装置を用いることが望ましい。
FIG. 27 is a diagram illustrating a
For the reuse of the
図27に示した機能実現装置38において、用紙130に印刷された背景パターン136などの画像が消去されるときには、スキャナ380が、用紙130に付された背景パターン136を読み取ってから、消去装置382が、用紙130に印刷された画像および背景パターン136を消去する。
あるいは、機能実現装置38において、背景が付された用紙128,130が廃棄されるときには、スキャナ380が、用紙128,130に印刷された背景パターン136を読み取ってから、シュレッダ384が、用紙128,130を剪断し、廃棄する。
機能実現装置38により読み出された背景パターン136は、PC18上で動作する情報利用プログラム180のアプリケーション186(図10)により、背景パターン136の再利用のために利用される。
In the
Alternatively, in the
The
図28は、情報管理システム1(図1)において、背景が付された用紙128,130が廃棄されるときに、この用紙128,130に付されていた背景パターン136(図3)を、未使用状態とするための通信シーケンス(S22)を示す図である。
図28に示すように、ステップ220(S220)において、ユーザが、PC18(図1)の機能実現装置38(シュレッダ384;図27)に、使用済みの用紙128,130を挿入すると、スキャナ380は、用紙128,130に付された背景パターン136を読み込み、情報利用プログラム180(図10)に対して出力する。
シュレッダ384は、機能実現装置38に挿入された用紙128,130を剪断し、廃棄する。
FIG. 28 shows the background pattern 136 (FIG. 3) attached to the
As shown in FIG. 28, in step 220 (S220), when the user inserts the used
The shredder 384 shears and discards the
ステップ222(S222)において、PC18は、背景管理装置32(図1)に対して、廃棄された用紙128,130に付されていた背景パターン136を送信し、さらに、その廃棄を通知する。
ステップ224(S224)において、背景管理装置32は、PC18から送られてきた背景パターン136を、未使用状態として、再利用可能に管理する。
In step 222 (S222), the
In step 224 (S224), the
図29は、情報管理システム1(図1)において、再使用可能な用紙130に付されていた画像および背景パターン136が消去されるときに、この用紙130に付されていた背景パターン136(図3)を、未使用状態とし、さらに、再利用するための通信シーケンス(S24)を示す図である。
ステップ240(S240)において、ステップ240(S240)において、ユーザが、PC18(図1)の機能実現装置38(消去装置382;図27)に、使用済みの用紙130を挿入すると、スキャナ380は、用紙130に付された背景パターン136を読み込み、情報利用プログラム180(図10)に対して出力する。
消去装置382は、機能実現装置38に挿入された用紙130に付された画像および背景パターン136を消去し、再使用可能な状態とする。
FIG. 29 shows the background pattern 136 (FIG. 29) attached to the
In step 240 (S240), in step 240 (S240), when the user inserts the used
The erasing device 382 erases the image and the
ステップ242(S242)において、PC18は、背景管理装置32(図1)に対して、その画像などが消去された用紙130に付されていた背景パターン136を送信し、さらに、付されていた背景パターン136の消去を通知する。
ステップ244(S244)において、背景管理装置32は、PC18から送られてきた背景パターン136を、未使用状態とし、さらに、再利用可能に管理する。
In step 242 (S242), the
In step 244 (S244), the
ステップ246(S246)において、PC18は、背景管理装置32に、背景パターン136を要求する。
ステップ248(S248)において、背景管理装置32は、未使用状態の背景パターン136(S240の処理において消去された背景パターン136であるか否かは問われない)を、要求を出したPC18に対して送信する。
In step 246 (S246), the
In step 248 (S248), the
ステップ250(S250)において、背景管理装置32は、PC18に対して送信した背景パターン136を、使用済みの状態にして管理する。
ステップ252(S252)において、PC18は、背景パターン136を、認定プリンタ122(図1)に対して送信させ、用紙130に対して印刷させる。
In step 250 (S250), the
In step 252 (S252), the
本発明は、音声の記憶およびその入出力のために利用することができる。 The present invention can be used for voice storage and input / output thereof.
1・・・情報管理システム、
120・・・ネットワーク、
122・・・認定プリンタ、
124・・・非認定プリンタ、
128,130・・・用紙、
136・・・背景パターン、
132・・・格子点、
134・・・ドット、
3・・・背景管理装置、
32・・・背景管理装置、
100・・・本体、
102・・・CPU、
104・・・メモリ、
106・・・入出力装置、
110・・・通信装置、
112・・・記録装置、
114・・・記録媒体、
116・・・無線IF、
38・・・機能実現装置、
34・・・背景管理プログラム、
340・・・未使用背景パターンDB、
342・・・使用済背景パターンDB、
344・・・DB管理部、
30・・・課金装置、
16・・・情報サーバ、
160・・・情報サーバプログラム、
164・・・操作解析部、
166・・・DB管理部、
168・・・ペン情報DB、
170・・・サービス提供部、
172・・・付加サービスDB、
18・・・PC、
180・・・情報利用プログラム、
182・・・情報出力処理部、
184・・・背景・操作検出部、
186・・・アプリケーション、
2・・・手書入力システム、
20・・・入力装置、
200・・・入力装置用プログラム、
202・・・受信処理部、
204・・・筆跡解析部、
206・・・文字識別部、
208・・・音声処理部、
210・・・対応付け部、
212・・・背景検出部、
214・・・位置検出部、
216・・・DB管理部、
220・・・ペン情報DB、
222・・・通信処理部、
224・・・印鑑情報処理部、
24・・・電子認証印、
26・・・手書入力ペン、
260・・・筆記部材、
262・・・手書入力ペン本体、
264・・・レンズ系、
266・・・CCD素子、
268・・・圧力センサ、
270・・・画像取込回路、
272・・・MIC、
274・・・音声処理回路、
278・・・電源、
280・・・送信回路、
1 Information management system,
120 ... Network,
122 ... Certified printer,
124... Non-certified printer,
128, 130 ... paper,
136 ... Background pattern,
132 ... lattice points,
134 ... dots,
3 ... Background management device,
32 ... Background management device,
100 ... body,
102 ... CPU,
104: Memory,
106: I / O device,
110: Communication device,
112... Recording device,
114... Recording medium,
116: Wireless IF,
38 ... function realization device,
34 ... Background management program,
340 ... Unused background pattern DB,
342 ... Used background pattern DB,
344 ... DB management unit,
30 ... Billing device,
16 ... information server,
160... Information server program,
164 ... Operation analysis unit,
166... DB management unit,
168 ... Pen information DB,
170: Service providing unit,
172 ... Additional service DB,
18 ... PC,
180 ... Information utilization program,
182 ... Information output processing unit,
184 ... Background / operation detector,
186 Application,
2 ... Handwriting input system,
20 ... Input device,
200 ... Program for input device,
202... Reception processing unit,
204: Handwriting analysis unit,
206 ... Character identification part,
208: Audio processing unit,
210 ... associating unit,
212 ... Background detection unit,
214 ... position detector,
216: DB management unit,
220 ... pen information DB,
222... Communication processing unit,
224 ... seal information processing part,
24 ... Electronic authentication seal,
26 ... Handwriting input pen,
260 ... writing member,
262 ... handwriting input pen body,
264 ... Lens system,
266 ... CCD element,
268 ... Pressure sensor,
270 ... Image capture circuit,
272: MIC,
274: Audio processing circuit,
278 ... Power supply,
280 ... Transmission circuit,
Claims (18)
所定の部材における任意の位置をポインティングするポインティング手段と、
前記部材においてポインティングされた位置を検出する検出手段と、
前記部材においてポインティングされた位置と、前記受け入れられた音声信号とを対応付けて記憶する情報記憶手段と、
前記記憶された部材における位置に対するポインティングが検出されたときに、この部材における位置と対応付けられて記憶された音声信号を出力する音声出力手段と
を有する音声入出力システム。 A voice input means for receiving a voice signal;
Pointing means for pointing at an arbitrary position on the predetermined member;
Detecting means for detecting a pointed position on the member;
Information storage means for storing the position pointed at the member and the received audio signal in association with each other;
An audio input / output system comprising: audio output means for outputting an audio signal stored in association with the position on the member when pointing to the position on the stored member is detected.
請求項1に記載の音声入出力システム。 The voice input / output system according to claim 1, wherein the information storage means stores a voice signal received before the pointing by the pointing means is performed in association with a position pointed at the member.
前記音声入力手段は、前記出力された音声信号の入力を受ける
請求項1または2に記載の音声入出力システム。 The pointing means has voice receiving means for receiving voice and outputting it as a voice signal;
The voice input / output system according to claim 1, wherein the voice input unit receives the output voice signal.
前記ポインティング手段は、前記部材に付された印の画像を受けて画像信号として出力する画像入力手段を有し、
前記検出手段は、前記出力された画像信号に基づいて、前記ポインティングされた部材における位置を検出する
請求項3に記載の音声入出力システム。 The member is provided with a mark for identifying a position in the member,
The pointing means has an image input means for receiving an image of a mark attached to the member and outputting it as an image signal,
The voice input / output system according to claim 3, wherein the detection unit detects a position of the pointed member based on the output image signal.
前記検出手段は、前記ポインティングされた部材における位置と、前記固有の印とを検出し、
前記情報記憶手段は、前記対応づけられた部材における位置および音声信号に、前記検出された固有の印を対応付けて記憶し、
前記音声出力手段は、前記固有の印と、前記記憶された部材における位置に対するポインティングとが検出されたときに、前記検出された固有の印と、前記検出された部材における位置とに対応付けられて記憶された音声信号を出力する
請求項4に記載の音声入出力システム。 The mark given to each member is unique to each member,
The detecting means detects a position in the pointed member and the unique mark;
The information storage means stores the detected unique mark in association with the position and audio signal in the associated member,
The voice output means is associated with the detected unique mark and the detected position on the member when the unique mark and pointing with respect to the position on the stored member are detected. The voice input / output system according to claim 4, wherein the voice signal stored in the step is output.
をさらに有する
請求項1〜5のいずれかに記載の音声入出力システム。 The voice input / output system according to claim 1, wherein the pointing means further includes writing means for writing on the pointed portion.
所定の部材においてポインティングされた位置を検出する第1の検出手段と
を有する音声入力装置と、
前記検出された部材における位置と、前記受け入れられた音声信号とを対応付けて記憶する情報記憶手段と、
前記記憶された部材における位置に対するポインティングが検出されたときに、この部材における位置と対応付けられて記憶された音声信号を出力する第1の音声出力手段と
を有する音声サーバ装置と、
前記部材においてポインティングされた位置を検出する第2の検出手段と、
前記検出された部材における位置に応じて出力された音声信号を、音声として出力する第2の音声出力手段と
を有する音声出力装置と
を有する音声入出力システム。 A voice input means for receiving a voice signal;
A voice input device having first detection means for detecting a position pointed at a predetermined member;
Information storage means for storing the detected position in the member and the received audio signal in association with each other;
A voice server device comprising: a first voice output means for outputting a voice signal stored in association with a position in the member when pointing to a position in the stored member is detected;
Second detection means for detecting a position pointed at the member;
An audio input / output system comprising: an audio output device having a second audio output means for outputting an audio signal output in accordance with a position on the detected member as audio.
音声入力装置において、
前記第1の検出手段は、前記部材においてポインティングされた位置と、前記部材それぞれに固有の印とを検出し、
前記音声サーバ装置において、
前記情報記憶手段は、前記検出された部材における位置および前記受け入れられた音声に、前記検出された固有の印を対応付けて記憶し、
前記第1の音声出力手段は、前記記憶された部材における位置に対するポインティングと、この部材に付された固有の印とが検出されたときに、前記検出された固有の印と、前記検出された部材における位置とに対応付けられて記憶された音声信号を出力する
請求項7に記載の音声入出力システム。 Each member has a unique mark,
In the voice input device,
The first detection means detects a position pointed at the member and a mark unique to each member;
In the voice server device,
The information storage means stores the detected unique mark in association with the detected position on the member and the received voice,
The first sound output means detects the detected unique mark and the detected unique mark when a pointing with respect to a position on the stored member and a unique mark attached to the member are detected. The voice input / output system according to claim 7, wherein a voice signal stored in association with a position on a member is output.
音声信号の入力を受け入れる音声入力手段と、
前記部材におけるポインティングされた位置を検出する検出手段と
を有する音声入力装置。 The detected position on the predetermined member and the received audio signal are stored in association with each other, and when pointing to the position on the stored member is detected, the position is stored in association with the position on the member. A voice server device that outputs a voice signal, and a voice output device that detects a pointed position on the member and outputs a voice signal output according to the detected position on the member as a voice. An audio input device in an input / output system,
An audio input means for receiving an input of an audio signal;
A voice input device comprising: detecting means for detecting a pointed position on the member.
前記検出された部材における位置と、前記受け入れられた音声信号とを対応付けて記憶する情報記憶手段と、
前記記憶された部材における位置に対するポインティングが検出されたときに、この部材における位置と対応付けられて記憶された音声信号を出力する音声出力手段と
を有する音声サーバ装置。 An audio input device that receives an input of an audio signal and detects a position pointed at a predetermined member; an audio signal output according to the detected position at the member; A voice server device in a voice input / output system having voice output means for outputting as voice,
Information storage means for storing the detected position in the member and the received audio signal in association with each other;
A voice server device comprising: voice output means for outputting a voice signal stored in association with a position on the member when a pointing to a position on the stored member is detected.
前記部材においてポインティングされた位置を検出する検出手段と、
前記検出された部材における位置に応じて出力された音声信号を、音声として出力する音声出力手段と
を有する音声出力装置。 An audio input device that receives an input of an audio signal and detects a position pointed at a predetermined member, a position on the detected member, and the received audio signal are stored in association with each other, and the stored A voice output device in a voice input / output system having a voice server device that outputs a voice signal stored in association with a position in the member when pointing to a position in the member is detected,
Detecting means for detecting a pointed position on the member;
An audio output device comprising: audio output means for outputting an audio signal output according to the detected position on the member as audio.
所定の部材における任意の位置をポインティングし、
前記部材においてポインティングされた位置を検出し、
前記検出された部材における位置と、前記受け入れられた音声信号とを対応付けて記憶し、
前記記憶された部材における位置に対するポインティングが検出されたときに、この部材の位置と対応付けられて記憶された音声信号を出力する
音声入出力方法。 Receives audio signal input,
Point at any position on a given member,
Detecting a pointed position on the member;
Storing the detected position on the member and the received audio signal in association with each other;
A voice input / output method for outputting a voice signal stored in association with the position of the member when pointing to the position of the stored member is detected.
所定の部材においてポインティングされた位置を検出し、
前記検出された部材における位置と、前記受け入れられた音声信号とを対応付けて記憶し、
前記記憶された部材における位置に対するポインティングが検出されたときに、この部材における位置と対応付けられて記憶された音声信号を出力し、
前記部材のポインティングされた位置を検出し、
前記検出された部材における位置に応じて出力された音声信号を、音声として出力する
音声入出力方法。 Receives audio signal input,
Detect the pointed position on a given member,
Storing the detected position on the member and the received audio signal in association with each other;
When pointing to a position in the stored member is detected, an audio signal stored in association with the position in the member is output,
Detecting the pointed position of the member;
An audio input / output method for outputting an audio signal output according to a position on the detected member as audio.
所定の部材における任意の位置をポインティングするポインティングステップと、
前記部材においてポインティングされた位置を検出する検出ステップと、
前記検出された部材における位置と、前記受け入れられた音声信号とを対応付けて記憶する位置・音声記憶ステップと、
前記記憶された部材における位置に対するポインティングが検出されたときに、この部材における位置と対応付けられて記憶された音声信号を出力する音声出力ステップと
をコンピュータに実行させるプログラム。 A voice input step for receiving a voice signal;
A pointing step for pointing an arbitrary position on a predetermined member;
A detecting step of detecting a pointed position on the member;
A position / speech storage step of storing the detected position of the member in association with the received sound signal;
A program that causes a computer to execute an audio output step of outputting an audio signal stored in association with a position on the member when pointing to the position on the stored member is detected.
音声信号の入力を受ける音声入力ステップと、
所定の部材におけるポインティングされた位置を検出する第1の検出ステップと
を前記コンピュータに実行させ、
コンピュータを含む音声サーバ装置において、
前記検出された部材における位置と、前記受け入れられた音声信号とを対応付けて記憶する位置・音声記憶ステップと、
前記記憶された部材における位置に対するポインティングが検出されたときに、この部材における位置と対応付けられて記憶された音声信号を出力する第1の音声出力ステップと
を前記コンピュータに実行させ、
コンピュータを含む音声出力装置において、
前記部材においてポインティングされた位置を検出する第2の検出ステップと、
前記検出された部材における位置に応じて出力された音声信号を、音声として出力する第2の音声出力ステップと
を前記コンピュータに実行させる
プログラム。 In a voice input device including a computer,
A voice input step for receiving a voice signal;
Causing the computer to execute a first detection step of detecting a pointed position on a predetermined member;
In a voice server device including a computer,
A position / speech storage step of storing the detected position of the member in association with the received sound signal;
Causing the computer to execute a first audio output step of outputting an audio signal stored in association with a position in the member when pointing to a position in the stored member is detected;
In an audio output device including a computer,
A second detection step of detecting a pointed position on the member;
A program for causing the computer to execute a second sound output step of outputting a sound signal output according to a position on the detected member as sound.
音声信号の入力を受け入れる音声入力ステップと、
前記部材においてポインティングされた位置を検出する検出ステップと
を前記コンピュータに実行させるプログラム。 The detected position on the predetermined member and the received audio signal are stored in association with each other, and when pointing to the position on the stored member is detected, the position is stored in association with the position on the member. A voice server device that outputs a voice signal, and a voice output device that detects a position pointed at the member and outputs a voice signal output according to the detected position on the member as a voice. In a voice input device including a computer of an input / output system,
A voice input step for accepting input of a voice signal;
A program for causing the computer to execute a detection step of detecting a pointed position on the member.
前記検出された部材における位置と、前記受け入れられた音声信号とを対応付けて記憶する位置・音声記憶ステップと、
前記記憶された部材における位置に対するポインティングが検出されたときに、この部材における位置と対応付けられて記憶された音声信号を出力する音声出力ステップと
を前記コンピュータに実行させるプログラム。 An audio input device that receives an input of an audio signal and detects a position pointed at a predetermined member; an audio signal output according to the detected position at the member; In a voice server device including a voice input / output system computer having voice output means for outputting as voice,
A position / speech storage step of storing the detected position of the member in association with the received sound signal;
A program that causes the computer to execute an audio output step of outputting an audio signal stored in association with a position on the member when pointing to a position on the stored member is detected.
前記部材においてポインティングされた位置を検出する検出ステップと、
前記検出された部材における位置に応じて出力された音声信号を、音声として出力する音声出力ステップと
をコンピュータに実行させるプログラム。 An audio input device that receives an input of an audio signal and detects a position pointed at a predetermined member, a position on the detected member, and the received audio signal are stored in association with each other, and the stored In a voice output device including a computer of a voice input / output system having a voice server device that outputs a voice signal stored in association with a position in a member when pointing to a position in the member is detected,
A detecting step of detecting a pointed position on the member;
A program for causing a computer to execute an audio output step of outputting an audio signal output according to the position of the detected member as audio.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003410418A JP2005173807A (en) | 2003-12-09 | 2003-12-09 | Voice input/output system and method therefor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003410418A JP2005173807A (en) | 2003-12-09 | 2003-12-09 | Voice input/output system and method therefor |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005173807A true JP2005173807A (en) | 2005-06-30 |
Family
ID=34731519
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003410418A Pending JP2005173807A (en) | 2003-12-09 | 2003-12-09 | Voice input/output system and method therefor |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005173807A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US12026327B2 (en) | 2022-03-25 | 2024-07-02 | BIC Violex Single Member S.A. | Writing instrument |
-
2003
- 2003-12-09 JP JP2003410418A patent/JP2005173807A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US12026327B2 (en) | 2022-03-25 | 2024-07-02 | BIC Violex Single Member S.A. | Writing instrument |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4150923B2 (en) | Data output system and method | |
US6686910B2 (en) | Combined writing instrument and digital documentor apparatus and method of use | |
US6722574B2 (en) | Business card | |
RU2669717C2 (en) | Handbook input / output system, digital ink sheet, information intake system and sheet supporting information input | |
KR101026630B1 (en) | Universal computing device | |
US6573887B1 (en) | Combined writing instrument and digital documentor | |
JP4982486B2 (en) | Method and system for combining position and information signs | |
US20020011989A1 (en) | Method and system for information association | |
JP2005173810A (en) | Electronic seal system and method therefor | |
JP2003345945A (en) | Document writing system using electronic pen, electronic pen, and electronic processing paper | |
JP4920153B2 (en) | System and apparatus for electronic recording of handwritten information | |
CN102067153A (en) | Multi-modal learning system | |
JP2007506185A (en) | Real-time variable digital paper | |
US20100045785A1 (en) | Note Capture Device | |
CN101149812A (en) | Interactive information service method based on paper writing, service system and interactive reading matter | |
KR100905705B1 (en) | Method for Providing Electronic Note Service by Using Digital Paper and Pen, System and Computer-Readable Recording Medium with Program Therefor | |
JP2005173811A (en) | Data management system and its method | |
JP5084087B2 (en) | Handwriting command | |
JP2008263619A (en) | Data input system | |
JP2005173807A (en) | Voice input/output system and method therefor | |
JP2005173808A (en) | Information display system, and method thereof | |
JP2005173809A (en) | Information input system and method therefor | |
JP4246474B2 (en) | Electronic signature system and electronic signature program | |
EP1382006B1 (en) | Business card with a position-coding pattern | |
JP2006127396A (en) | Electronic pen system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20061127 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20081120 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20081125 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090113 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090302 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090501 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20090616 |