JPH05341945A - Method and device for information processing - Google Patents

Method and device for information processing

Info

Publication number
JPH05341945A
JPH05341945A JP4149264A JP14926492A JPH05341945A JP H05341945 A JPH05341945 A JP H05341945A JP 4149264 A JP4149264 A JP 4149264A JP 14926492 A JP14926492 A JP 14926492A JP H05341945 A JPH05341945 A JP H05341945A
Authority
JP
Japan
Prior art keywords
information
information processing
input
personal identification
window
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP4149264A
Other languages
Japanese (ja)
Inventor
Hideaki Yui
秀明 由井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP4149264A priority Critical patent/JPH05341945A/en
Publication of JPH05341945A publication Critical patent/JPH05341945A/en
Withdrawn legal-status Critical Current

Links

Abstract

PURPOSE:To make the explanation of, for example, a help function or the like easy to understand by reading picture information stored in a recording medium and displaying it in the window of a screen. CONSTITUTION:In an information processor capable of window display, a read means for reading the picture information from a storage medium (CD-ROM) 8 and a display part 6 for displaying the picture information read by the read means on the prescribed window are provided. Then, data read from the CD- ROM 8 pass through a CD-ROM-i/f 7 and a CPU bus 1 and are temporarily written in the VRAM of a CRT-i/f 5. The data are read again and extended by the pixel processor of an extending circuit 22. The extended data are displayed through the CRT-i/f 5 at the display part 6 as moving pictures successively. Also, simultaneously, digital audio data read from the CD-ROM 8 are converted to analog signals by an audio board 20 and outputted from a speaker 21 as an audible sound.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、例えばワークステーシ
ョンやーパーソナルコンピュータ等における情報処理方
法及び装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an information processing method and apparatus in, for example, a workstation or personal computer.

【0002】[0002]

【従来の技術】従来、DTP(デスク・トップ・パブリ
ッシング)に代表される文書処理装置等には、数多くの
操作方法及び機能が用意されているため、これら全てを
完全に習熟するのに多くの時間を要していた。従って、
操作方法が分からなくなるとユーザは、何冊もの厚いマ
ニュアルを読み直して該当する操作方法を調べるか、或
いは操作方法に習熟した人が近くにいれば、その人に尋
ねる等して、操作上の不明な点や問題を解決したりして
いた。また、このような操作方法を調べるためのヘルプ
機能を有している機器の場合は、そのヘルプ機能を参照
して操作方法を理解していた。
2. Description of the Related Art Conventionally, since a document processing apparatus represented by DTP (desk top publishing) is provided with a large number of operation methods and functions, it takes a lot of time to fully master all of them. It took time. Therefore,
If the user does not understand the operation method, he or she rereads a number of thick manuals to find out the corresponding operation method, or if there is a person who is familiar with the operation method nearby, asks the person, etc. I was solving problems and problems. Further, in the case of a device having a help function for checking such an operating method, the operating method was understood by referring to the help function.

【0003】[0003]

【発明が解決しようとする課題】しかしながら上記従来
例では、以下のような問題があった。 (1)厚い操作マニュアルを読む場合には、膨大な時間
と莫大な労力を要し、又いつも、オペレータの近くに操
作マニュアルが置いてあるとは限らないので、マニュア
ルによる操作方法の検索は面倒なものとなる。 (2)操作方法に習熟した人がいつもオペレータの傍に
いるとは限らず、そのような人がいない時は前述のよう
にマニュアルによる検索を行うか、或いは自分で試行錯
誤しながら操作方法を判断する以外に方法がなかった。 (3)一般にヘルプ機能は、操作マニュアルの簡易版の
ようなもので、特にマニュアルにおいても説明しずらい
ような機能に関しては、そのヘルプ機能を参照しただけ
では操作を理解するのが難しく、結局はマニュアルを参
照しなければ理解できないといった問題がある。
However, the above-mentioned conventional example has the following problems. (1) It takes a lot of time and a lot of labor to read a thick operation manual, and since the operation manual is not always located near the operator, searching for a manual operation method is troublesome. It will be (2) A person who is familiar with the operation method is not always near the operator, and when there is no such person, perform a manual search as described above, or try the operation method by trial and error by yourself. There was no other way than to judge. (3) Generally, the help function is like a simplified version of the operation manual. Especially for functions that are difficult to explain in the manual, it is difficult to understand the operation just by referring to the help function. Has a problem that it cannot be understood without referring to the manual.

【0004】又、複数の利用者により操作される情報処
理装置では、各利用者はシステムへのログイン或いは自
分のファイルの機密を守るために、文字等のキャラクタ
コードを利用して暗証コードを設定している。しかし、
このような暗証コードでは、例えば自分の暗証コードを
忘れてしまうと、自分のファイルであってもオープンす
ることができず、又、本人以外でもその暗証コードを知
っていると、システムのログインや、他人のファイルで
あってもオープン等を行うことができる。従って、この
ような暗証コードによるファイル等のプロテクトは、完
全な保護であるとは言えなかった。
Further, in an information processing apparatus operated by a plurality of users, each user sets a personal identification code by using a character code such as characters in order to log in to the system or protect the confidentiality of his or her file. is doing. But,
With such a security code, for example, if you forget your security code, you will not be able to open your own file, and if someone other than you knows the security code, you will not be able to log in to the system or , It is possible to open a file of another person. Therefore, it cannot be said that the protection of files and the like by such a secret code is perfect protection.

【0005】本発明は上記従来例に鑑みてなされたもの
で、画面のウインドウに記録媒体に記憶された画像情報
を読出して表示することにより、例えばヘルプ機能等の
説明をより分かり易くした情報処理方法及び装置を提供
することを目的とする。
The present invention has been made in view of the above-mentioned conventional example, and by reading and displaying the image information stored in the recording medium in the window of the screen, for example, the information processing that makes the explanation of the help function and the like easier to understand. It is an object to provide a method and a device.

【0006】本発明はまた上記従来例に鑑みてなされた
もので、本人であることを確実に照合して判別できる情
報処理方法及び装置を提供することを目的とする。
Another object of the present invention is to provide an information processing method and apparatus capable of surely verifying the identity of the person by identifying the person in question in view of the above conventional example.

【0007】[0007]

【課題を解決するための手段】上記目的を達成するため
に本発明の情報処理装置は以下の様な構成を備える。即
ち、ウィンドウ表示可能な情報処理装置において、画像
情報を記憶媒体から読出す読出手段と、前記読出手段に
より読出された画像情報を所定のウィンドウ上に表示す
る表示手段とを有する。
In order to achieve the above object, the information processing apparatus of the present invention has the following configuration. That is, an information processing device capable of displaying a window has a reading means for reading image information from a storage medium and a display means for displaying the image information read by the reading means on a predetermined window.

【0008】上記目的を達成するために本発明の情報処
理方法は以下の様な工程を備える。即ち、暗証情報によ
り装置の利用権を制限している情報処理方法であって、
個人の生体に特有の情報を暗証情報として入力する工程
と、入力された暗証情報と予め登録されている暗証情報
とを照合して、その入力した人に装置の利用権を与える
か否かを判定する工程とを有する。
In order to achieve the above object, the information processing method of the present invention includes the following steps. That is, an information processing method in which the right to use the device is restricted by personal identification information,
The step of inputting information unique to an individual's living body as personal identification information and the input personal identification information and pre-registered personal identification information are collated to determine whether or not the person who has input the personal information is given the right to use the device. And a determining step.

【0009】[0009]

【作用】以上の構成において、画像情報を記憶媒体から
読出し、その読出された画像情報を所定のウィンドウ上
に表示する。
With the above arrangement, the image information is read from the storage medium and the read image information is displayed on a predetermined window.

【0010】又、他の発明によれば、個人の生体に特有
の情報を暗証情報として入力し、その入力された暗証情
報と予め登録されている暗証情報とを照合して、その入
力した人に装置の利用権を与えるか否かを判定する。
According to another aspect of the invention, information unique to an individual's living body is input as personal identification information, the input personal identification information is collated with pre-registered personal identification information, and the person who has input the personal identification information is collated. It is determined whether the device usage right is given to the device.

【0011】[0011]

【実施例】以下、添付図面を参照して本発明の好適な実
施例を詳細に説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Preferred embodiments of the present invention will be described in detail below with reference to the accompanying drawings.

【0012】図1は本発明の第1実施例の情報処理装置
の概略構成を示すブロック図である。
FIG. 1 is a block diagram showing the schematic arrangement of an information processing apparatus according to the first embodiment of the present invention.

【0013】図1において、1はシステムバス、2は装
置全体を制御するCPU、3はプログラムを記憶した
り、CPU2のワーク領域として使われるメインメモ
リ、4はCPU2を介さずにメモリ3と他のメモリ間、
或いはメモリ3と各種I/O間でDMAデータ転送を行
うDMAの制御回路(Direct Memory Access Controlle
r以下、DMACと記す)である。5はVRAM等を含
むCRTインターフェース(i/f)部、6は表示デー
タを表示するCRTやLCD等の表示部である。7はC
D−ROM8とCPUバス1との間のインターフェース
部、8はCD−ROMを代表とする読み出し専用記憶媒
体である。
In FIG. 1, 1 is a system bus, 2 is a CPU for controlling the entire apparatus, 3 is a main memory used for storing programs and used as a work area of the CPU 2, 4 is a memory 3 other than the CPU 2 and the like. Between the memory of
Alternatively, a DMA control circuit (Direct Memory Access Controlle) for performing DMA data transfer between the memory 3 and various I / Os.
r is hereinafter referred to as DMAC). Reference numeral 5 is a CRT interface (i / f) unit including VRAM and the like, and 6 is a display unit such as a CRT or LCD for displaying display data. 7 is C
An interface section between the D-ROM 8 and the CPU bus 1, and 8 is a read-only storage medium represented by a CD-ROM.

【0014】10はイーサネット等のLANとのインタ
ーフェース部である。11はROM,SRAM,RS2
32C等のI/O部、13はハードディスク、14はフ
ロッピーディスク、12はこれらハードディスク13や
フロッピーディスク14とのインターフェースを制御す
るインターフェース部である。16は、レーザビームプ
リンタ等の高解像度のプリンタ、15はプリンタ・イン
ターフェース部、17はキーボード18やマウス等のポ
インティングデバイス19とCPUバス1との間のイン
ターフェースを制御するキー・インターフェース部であ
る。20はCD−ROM8に記憶されている音響データ
をアナログ音響信号に変換する音声ボード、21は音響
信号を入力して再生するためのスピーカである。22は
CD−ROM8に記憶されている圧縮データを伸張する
伸張回路である。
Reference numeral 10 is an interface unit with a LAN such as Ethernet. 11 is ROM, SRAM, RS2
An I / O unit such as 32C, 13 is a hard disk, 14 is a floppy disk, and 12 is an interface unit that controls an interface with the hard disk 13 and the floppy disk 14. Reference numeral 16 is a high resolution printer such as a laser beam printer, 15 is a printer interface section, and 17 is a key interface section for controlling an interface between a pointing device 19 such as a keyboard 18 or a mouse and the CPU bus 1. Reference numeral 20 is a voice board for converting the acoustic data stored in the CD-ROM 8 into an analog acoustic signal, and 21 is a speaker for inputting and reproducing the acoustic signal. A decompression circuit 22 decompresses the compressed data stored in the CD-ROM 8.

【0015】図1に示す構成を備える情報処理装置の動
作を、以下に説明する。
The operation of the information processing apparatus having the configuration shown in FIG. 1 will be described below.

【0016】装置の電源がオンされると、CPU2はI
/O部11に設けられているROM(図示せず)に記憶
されているプログラムに従つてシステムチェック等の立
ち上げ処理を行なった後、ハードディスク13に格納さ
れているOS等のプログラムを読出してメインメモリ3
に記憶する。その後、ユーザによるキーボード18やマ
ウス19からの指示により、アプリケーションプログラ
ムが起動される。表示部6への画像表示は、CRTi/
f部5のビデオメモリVRAM(図示せず)にCPU2
が直接データを書き込むことで行なわれる。
When the power of the device is turned on, the CPU 2
After performing a startup process such as a system check according to a program stored in a ROM (not shown) provided in the / O unit 11, the program such as the OS stored in the hard disk 13 is read out. Main memory 3
Remember. After that, the application program is activated by an instruction from the keyboard 18 or the mouse 19 by the user. The image displayed on the display unit 6 is CRTi /
CPU 2 in the video memory VRAM (not shown) of the f unit 5
Is performed by directly writing data.

【0017】次に、CD−ROM8から読出された動画
像データの流れを簡単に説明する。CD−ROM8から
読み出されたデータは、CD−ROMインターフェース
部7を介してCPUバス1を通り、CRTインターフェ
ース5のVRAMに一旦書き込まれる。このデータは、
伸張回路22のピクセルプロセッサにより再び読み出さ
れ伸張される。こうして伸張されたデータは、CRTイ
ンターフェース部5を介して、順次動画像として表示部
6に表示される。またこれと同時に、CD−ROM8か
ら読出されたデジタル音響データは、音声ボード20に
よりアナログ信号に変換され、スピーカ21より可聴音
として出力される。
Next, the flow of moving image data read from the CD-ROM 8 will be briefly described. The data read from the CD-ROM 8 passes through the CD-ROM interface section 7 through the CPU bus 1 and is once written in the VRAM of the CRT interface 5. This data is
The pixel processor of the decompression circuit 22 reads out again and decompresses. The data thus decompressed is sequentially displayed on the display unit 6 as a moving image via the CRT interface unit 5. At the same time, the digital sound data read from the CD-ROM 8 is converted into an analog signal by the audio board 20 and output as an audible sound from the speaker 21.

【0018】次に、第1実施例の情報処理装置における
ヘルプ機能の動作を図2のフローチャートを参照して説
明する。尚、この処理を実行する制御プログラムは、メ
インメモリ3に記憶されている。
Next, the operation of the help function in the information processing apparatus of the first embodiment will be described with reference to the flowchart of FIG. The control program for executing this process is stored in the main memory 3.

【0019】ここでは、オペレータが、例えばDTPソ
フトを操作して文書処理を行なっている時、所望の動作
を指示するための操作方法が分からなくなった場合で説
明する。まずステップS1で、キーボード18或いはポ
インティングデバイス19を用いて、ヘルプ表示の要求
を入力する。これにより、ステップS2でヘルプメニュ
ー画面が表示される。この表示例を、図3に示す。
Here, a case will be described in which the operator does not understand the operation method for instructing a desired operation while operating the DTP software to perform document processing, for example. First, in step S1, a help display request is input using the keyboard 18 or the pointing device 19. As a result, the help menu screen is displayed in step S2. An example of this display is shown in FIG.

【0020】図3において、6はCRT等の表示部を示
し、31はDTPソフトメニュー領域を示している。3
2は作業ウィンドウ、33は、後述するビデオヘルプ用
のウィンドウ、34はヘルプメニューウィンドウ、35
はビデオヘルプを指示するためのボタン領域、36は後
述する文書ヘルプを指示するためのボタン領域を示して
いる。また、37はカーソルを示している。
In FIG. 3, 6 indicates a display unit such as a CRT, and 31 indicates a DTP soft menu area. Three
2 is a work window, 33 is a window for video help described later, 34 is a help menu window, 35
Is a button area for instructing video help, and 36 is a button area for instructing document help described later. Moreover, 37 has shown the cursor.

【0021】次に再び図2に戻り、ステップS3でヘル
プ表示の終了が指示されると、このヘルプ処理が終了す
る。ヘルプの終了でない時はステップS4に進み、一般
的な文書によるヘルプ機能を使うかを選択をする。この
文書ヘルプは、文書によりヘルプ機能を説明するもの
で、カーソル37で文書ヘルプボタン領域36を指示し
てポインティングデバイス19のスイッチをクリックす
ることによって選択される。この文書ヘルプが選択され
るとステップS5に進み、良く知られた文書によるヘル
プ処理が行なわれる(ここでは詳述しない)。この文書
によるヘルプ動作が終了すると処理は再びステップS2
に戻る。
Next, returning to FIG. 2 again, when the end of the help display is instructed in step S3, the help process ends. If the help has not ended, the process proceeds to step S4, and it is selected whether to use the help function based on a general document. This document help describes the help function in a document, and is selected by pointing the document help button area 36 with the cursor 37 and clicking the switch of the pointing device 19. When this document help is selected, the process proceeds to step S5, and a well-known document help process is performed (not described in detail here). When the help operation based on this document is completed, the process is again performed at step S2.
Return to.

【0022】一方、ステップS4で文書ヘルプを使用し
ない場合はステップS6に進む。ここで、カーソル37
でビデオヘルプボタン領域35を指示し、ポインティン
グデバイス19のスイッチをクリックしてビデオヘルプ
が要求されるとステップS7に進み、後述するビデオヘ
ルプ処理が行なわれる。
On the other hand, if the document help is not used in step S4, the process proceeds to step S6. Where the cursor 37
When the video help button area 35 is pointed to and the video help is requested by clicking the switch of the pointing device 19, the process proceeds to step S7, and the video help processing described later is performed.

【0023】次に、第1実施例の特徴部分であるビデオ
ヘルプ処理について詳述する。
Next, the video help processing, which is a characteristic part of the first embodiment, will be described in detail.

【0024】このビデオヘルプ機能は、文書ヘルプ機能
では理解し切れない複雑な操作の説明を容易に理解でき
るようにすることを意図している。
The video help function is intended to facilitate understanding of complicated operation explanations that cannot be understood by the document help function.

【0025】図3に示すように、作業画面32とビデオ
ヘルプ画面33を並べてより理解しやすいウィンドウの
レイアウトにしている。ここで実際の操作方法を、図4
のビデオヘルプ処理(図2のステップS7)を示すフロ
ーチャートを参照して説明する。
As shown in FIG. 3, the work screen 32 and the video help screen 33 are arranged side by side to make the window layout easier to understand. Here, the actual operation method is shown in FIG.
This will be described with reference to the flowchart showing the video help process (step S7 in FIG. 2).

【0026】まず、ステップS10〜S13で、表示さ
せるビデオウィンドウ33の設定をオペレータが使いや
すい環境に設定する。ステップS10では、ビデオヘル
プ画面33のウィンドウ幅を変更する指示が入力される
かを判断し、変更指示がある場合はステップS11に進
み、そのビデオウインドウ33のウィンドウ幅を、指示
された情報に従って変更する。ここで変更指示がない時
はステップS12に進み、このウインドウ33の表示位
置の変更が指示されるかを判定する。変更指示があると
ステップS13に進み、その指示された位置にビデオウ
インドウ33を表示するように、ウインドウ33の表示
位置を変更する。これらウインドウ33の大きさや表示
位置の変更は、ポインティングデバイス19によるドラ
ッグ操作により行われる。
First, in steps S10 to S13, the setting of the video window 33 to be displayed is set to an environment that is easy for the operator to use. In step S10, it is determined whether an instruction to change the window width of the video help screen 33 is input. If there is an instruction to change, the process proceeds to step S11, and the window width of the video window 33 is changed according to the instructed information. To do. If there is no change instruction here, the process proceeds to step S12, and it is determined whether an instruction to change the display position of the window 33 is given. When there is a change instruction, the process proceeds to step S13, and the display position of the window 33 is changed so that the video window 33 is displayed at the instructed position. The size and display position of these windows 33 are changed by a drag operation with the pointing device 19.

【0027】この様にしてビデオウィンドウ33の表示
設定が完了するとステップS14に進み、音声を出力す
るか否かの指示が入力されるかを判定する。これは操作
環境によっては、静かに操作することが望まれている場
合に、音声出力を禁止できるようにしたものである。こ
の時ヘルプメニューウィンドウ34は、図5に示すよう
なウィンドウ・レイアウト38に切り換わっている。
When the display setting of the video window 33 is completed in this way, the process proceeds to step S14, and it is determined whether an instruction as to whether or not to output a sound is input. This is so that the audio output can be prohibited when it is desired to operate quietly depending on the operating environment. At this time, the help menu window 34 is switched to the window layout 38 as shown in FIG.

【0028】図5において、音声出力を行いたい時は、
音楽(Music)ボタン39をカーソル37で指示し
てマウス19のボタンをクリックすることによって、図
4のステップS15に進み、音声出力処理が選択され
る。これにより、CD−ROM8に記憶されている音響
データが、後述する画像データと同期を取りながら出力
されることになる。
In FIG. 5, when voice output is desired,
By pointing to the Music button 39 with the cursor 37 and clicking the button of the mouse 19, the process proceeds to step S15 in FIG. 4, and the voice output process is selected. As a result, the acoustic data stored in the CD-ROM 8 is output in synchronization with the image data described later.

【0029】次に図4のステップS16に進み、再生ボ
タン40をカーソル37で指示してクリックすることに
より、CD−ROM8の動画データがビデオウィンドウ
33に表示するために、DVI等の動画機能を使えるよ
うなアプリケーションプログラムが起動し、ビデオウィ
ンドウ33にヘルプ動画が表示されることになる。
Next, in step S16 of FIG. 4, by pointing the play button 40 with the cursor 37 and clicking it, a moving picture function such as DVI is displayed in order to display the moving picture data of the CD-ROM 8 in the video window 33. The usable application program is started, and the help moving image is displayed in the video window 33.

【0030】オペレータは次にステップS17〜S21
で、早送りボタン(FF)41をカーソルで指示してク
リックすることにより早送り処理(ステップS18)
を、巻き戻しボタン(Rew)42を指示してクリック
することによりステップS20で巻き戻し処理を、スト
ップボタン(Stop)43を指示してクリックするこ
とによりステップS22で動画表示の停止させることが
できる。
The operator then proceeds to steps S17-S21.
Then, the fast-forward button (FF) 41 is pointed with the cursor and clicked to perform the fast-forward process (step S18).
By instructing and clicking the rewind button (Rew) 42, the rewinding process can be stopped in step S20. By instructing and clicking the stop button (Stop) 43, the moving image display can be stopped in step S22. ..

【0031】これらいずれの場合も、処理が終了すると
ステップS16に戻り、再生スタンバイ状態に戻る。こ
うして一連の処理が終わり、ビデオヘルプの動画が全て
流れ終ると処理は全て終了することになる。
In any of these cases, when the processing is completed, the process returns to step S16 to return to the reproduction standby state. In this way, when a series of processing is completed and all the videos of the video help have finished flowing, the processing is completed.

【0032】以上説明したようにして、ビデオによるヘ
ルプ機能が表示される。
As described above, the video help function is displayed.

【0033】前述の第1実施例では、CD−ROM8か
ら入力した情報をDTP等の文書処理システムのヘルプ
機能として用いたが、CD−ROM8よりの画像データ
を作成中の文書に画像データとして貼り付けるのに用い
てもよい。この場合、ユーザは画像データを自分の貼り
つけたいウィンドウにCD−ROM8からデータを流し
込み、前述の実施例のように、その読み込んだ動画デー
タを再生して停止させることによって、動画像データの
所望の画面の静止画を作成中の文書に貼り付けることが
できる。
In the above-described first embodiment, the information input from the CD-ROM 8 is used as the help function of the document processing system such as DTP, but the image data from the CD-ROM 8 is pasted as image data to the document being created. You may use it to attach. In this case, the user inserts the image data from the CD-ROM 8 into the window in which he / she wants to paste the image data, and reproduces and stops the read moving image data as in the above-described embodiment to obtain the desired moving image data. You can paste a still image of the screen of to the document you are creating.

【0034】更に、現在自分の使用している機器にCD
−ROMドライバがない場合、LANのようなネットワ
ークを介して、CD−ROMドライバを搭載している他
の機器を介してCD−ROMよりの画像情報を入力し、
前述と同様にして文書中等に貼り付けられるようにして
もよい。
In addition, a CD is installed in the device currently used by the user.
-If there is no ROM driver, input image information from the CD-ROM via another device equipped with the CD-ROM driver via a network such as a LAN,
It may be attached to a document or the like in the same manner as described above.

【0035】以上説明したように第1実施例によれば、
読み出し専用記憶媒体からの画像データや音響データを
入力し、ウィンドウに表示したりスピーカより出力して
ヘルプ機能として利用することにより、以下のような効
果が得られる。 (1)厚いマニュアルを読む時間と労力の節約と、操作
マニュアルを備えておくためのスペースが不要になる。 (2)操作方法に習熟した人がそばにいなくても、目で
見ながら自分の作業画面とヘルプ画面を並行にして作業
ができるので、文書ヘルプのみでは分かりずらい複雑な
操作方法も容易に理解することができる。 (3)操作説明ビデオのようにすべての機能をVTRで
見る方式とは異なり、自分の知りたい機能だけを動画表
示できるので作業効率がアップする。
As described above, according to the first embodiment,
The following effects can be obtained by inputting image data or acoustic data from a read-only storage medium, displaying it in a window or outputting it from a speaker and using it as a help function. (1) It saves time and labor for reading a thick manual and eliminates the need for a space for the operation manual. (2) Even if someone who is not familiar with the operation method is nearby, you can visually operate your own work screen and help screen in parallel, so complicated operation methods that are difficult to understand with document help are easy. Can be understood. (3) Unlike the method of viewing all functions on the VTR like the video for explaining operation, only the functions that one wants to know can be displayed as a moving image, thus improving work efficiency.

【0036】図6は本発明の第2実施例の情報処理装置
の概略構成を示すブロック図で、前述の図1と共通する
部分は同じ番号で示し、それらの説明を省略する。
FIG. 6 is a block diagram showing the schematic arrangement of an information processing apparatus according to the second embodiment of the present invention. Portions common to those in FIG. 1 described above are designated by the same reference numerals, and their description will be omitted.

【0037】60は、例えば人の音声や指紋情報等のよ
うに、その人の生体に固有の情報である個人情報を入力
する個人情報入力部61より入力された情報を処理する
個人情報処理ボードである。62はデジタル信号プロセ
ッサで、個人情報ボード60を介して入力された個人情
報に対して数値演算処理を施している。
Reference numeral 60 denotes a personal information processing board for processing the information input from the personal information input unit 61 for inputting personal information which is information peculiar to the living body of the person such as voice and fingerprint information of the person. Is. Reference numeral 62 denotes a digital signal processor, which performs numerical calculation processing on personal information input via the personal information board 60.

【0038】次に図7を参照して、個人情報処理ボード
60の動作を詳しく説明する。ここでは、ある特定の人
のファイルを、その人の個人情報を用いてプロテクトで
きる文書処理装置の場合で説明し、ここでは個人情報と
して音声を入力する場合で説明する。
Next, the operation of the personal information processing board 60 will be described in detail with reference to FIG. Here, a case of a document processing apparatus that can protect a file of a specific person by using the personal information of the person will be described, and here, a case of inputting voice as the personal information will be described.

【0039】この場合、個人情報入力部61はマイクロ
フォンに相当し、利用者はシステムを立ち上げた後、自
分のファイルを開くためにマイク61に向かって発声す
る。こうしてマイクロフォン61より取り込まれた音声
は、音声を処理する個人情報処理ボード60に送られ、
A/D変換器21によりデジタル信号に変換される。こ
のデジタル変換された信号は、個人情報抽出回路22
で、その人の音声の特徴を最も良く表すパラメータに変
換される。この個人情報の特徴であるパラメータを抽出
する方法には種々の方法が考えられるが、例えば図8の
フローチャートで示すような特徴抽出方法がある。
In this case, the personal information input unit 61 corresponds to a microphone, and the user speaks into the microphone 61 to open his / her file after starting the system. The voice thus captured by the microphone 61 is sent to the personal information processing board 60 for processing the voice,
It is converted into a digital signal by the A / D converter 21. This digitally converted signal is used for the personal information extraction circuit 22.
Then, it is converted into a parameter that best represents the characteristics of the person's voice. Various methods are conceivable for extracting the parameter that is the characteristic of the personal information, and for example, there is a characteristic extracting method as shown in the flowchart of FIG.

【0040】図8において、個人情報抽出回路22に入
力されたデジタル音声情報は、あるサンプル点数を持っ
てFFT(高速フーリエ変換)され(ステップS3
1)、その音声信号の周波数成分が分析される(ステッ
プS32)。この周波数分析されたスペクトラムと呼ば
れる音声情報には、人間の声帯の基本周波数であるピッ
チが含まれているためそのピッチを検出し(ステップS
33)、このピッチ情報より、人間の個人情報の1つで
ある声道の形の情報が含まれている低周波成分を抽出す
る(ステップS34)。次にステップS35に進み、こ
の声道の情報はケプストラムと呼ばれる個人情報を良く
表す特徴パラメータへと変換される。このようにして個
人情報抽出回路22で得られた特徴パラメータは、個人
情報照合回路23へ出力される。
In FIG. 8, the digital voice information input to the personal information extraction circuit 22 is FFT (Fast Fourier Transform) with a certain number of sample points (step S3).
1), the frequency component of the audio signal is analyzed (step S32). Since the frequency-analyzed voice information called a spectrum includes a pitch which is a fundamental frequency of a human vocal cord, the pitch is detected (step S
33) From this pitch information, a low-frequency component containing vocal tract shape information, which is one of the personal information of human beings, is extracted (step S34). Next, proceeding to step S35, this vocal tract information is converted into a characteristic parameter called cepstrum that represents personal information well. The characteristic parameters thus obtained by the personal information extraction circuit 22 are output to the personal information collation circuit 23.

【0041】個人情報照合回路23は、この入力された
個人情報としてのパラメータを、予め登録されている特
定の利用者のパラメータと照合する。この照合処理に先
だって、CPU2は個人情報抽出回路22よりパラメー
タの抽出が終了したことを知らされると、ハードウェア
ディスク13をアクセスして、そこに登録されている個
人情報データ(パラメータ)を読出して個人情報回路2
3に転送する。こうして個人情報照合回路23は、予め
登録されているパラメータと、個人情報抽出回路22で
抽出されたパラメータとを比較して照合を行う。この照
合の方法にもいろいろな方法が考えられるが、例えば利
用者の特徴パラメータが未知パターンとして入力された
時、こ未知パターンと予め登録されている特定話者の特
徴パラメータ(標準パターン)をそれぞれユークリッド
距離のような距離尺度を用いて計算し、その中でも最も
距離が近いと判定された登録者に対し、その絶対距離が
ある閾値内であれば、その登録されている登録者をその
話者であると判定する。
The personal information collating circuit 23 collates the input parameters as personal information with the parameters of a specific user registered in advance. Prior to this collation processing, when the CPU 2 is informed by the personal information extraction circuit 22 that the parameter extraction is completed, the CPU 2 accesses the hardware disk 13 and reads the personal information data (parameter) registered therein. Personal information circuit 2
Transfer to 3. In this way, the personal information collation circuit 23 compares the parameter registered in advance with the parameter extracted by the personal information extraction circuit 22 to perform collation. There are various possible methods for this matching. For example, when a user's characteristic parameter is input as an unknown pattern, the unknown pattern and the characteristic parameter (standard pattern) of a specific speaker registered in advance are respectively calculated. If the absolute distance is within a certain threshold value for a registrant who has been calculated using a distance measure such as Euclidean distance and is determined to have the shortest distance, the registered registrant It is determined that

【0042】ここで登録者本人であると判定すること
は、システムのログオン或いはファイルのオープンを要
求する利用者が、実際に登録されている本人であり、か
つ該当するファイルの所有者であることを意味する。前
述した個人情報の分析及び照合処理等はプログラムによ
り行っても良く、或いは専用のハードウェアを設けて行
っても良い。尚、CPU2の負担を軽減するためには、
デジタル信号プロセッサ(DSP)62で実施するよう
にしても良い。
Here, it is judged that the user is the registrant himself, that the user who requests the system to log on or open the file is the person who is actually registered and the owner of the corresponding file. Means The above-described analysis and collation processing of personal information may be performed by a program, or dedicated hardware may be provided. In order to reduce the load on the CPU 2,
It may be implemented by a digital signal processor (DSP) 62.

【0043】図9は、本実施例のファイルオープン処理
を示すフローチャートである。
FIG. 9 is a flow chart showing the file open processing of this embodiment.

【0044】まずステップS41で、システムの利用者
が自分のファイルを開くように要求するとステップS4
2に進み、そのファイルに音声によるパスワードが登録
されているかどうかをみる。そのようなパスワードが登
録されていなければステップS43に進み、そのファイ
ルをオープンして処理を終了する。
First, in step S41, when the system user requests to open his or her file, step S4
Proceed to step 2 to see if a voice password is registered for that file. If no such password is registered, the process proceeds to step S43, the file is opened, and the process ends.

【0045】一方、ステップS42でパスワードが登録
されている時はステップS44に進み、例えばマイクロ
フォン61を用いて個人情報である音声を入力する。こ
うして音声が入力されると前述したような処理が行わ
れ、その特徴パラメータと登録されているパラメータと
が比較・照合される(ステップS45)。ここで照合が
取れればステップS43に進み、その要求されたファイ
ルをオープンするが、照合が取れない時はステップS4
6に進み、その照合の回数を計数し、ステップS47で
所定のカウント数(ここでは、N=3)以上の音声入力
を行っても照合が取れない時は、このファイルオープン
の要求は無視されることになる。
On the other hand, when the password is registered in step S42, the process proceeds to step S44, and a voice, which is personal information, is input using the microphone 61, for example. When the voice is input in this way, the above-described processing is performed, and the characteristic parameter and the registered parameter are compared and collated (step S45). If the collation can be obtained here, the process proceeds to step S43 to open the requested file. If the collation cannot be obtained, step S4 is performed.
In step S47, the number of collations is counted, and if the collation cannot be obtained even if the number of voices equal to or more than the predetermined count number (here, N = 3) is input in step S47, this file open request is ignored. Will be.

【0046】図10は本発明の第3実施例を説明するた
めの図で、ここでは前述の個人情報処理回路23をニュ
ーラルネットワークを用いて構成した例を示す。ここで
はニューラルネットにパーセプトロンと呼ばれる階層構
造を用いた場合で説明する。このパーセプトロンは、人
間の脳細胞のニューロンを模した構造であり、入力層1
09、第1中間層110、第2中間層111、出力層1
12からなり、それぞれの層にはニューロンに相当する
いくつかのユニット117を有している。これらのユニ
ット117は異なる層間のユニット同士を結合してお
り、この層間の結合には重み付けがなされている。そし
て、この重み付けを変更することにより、ユニット11
7の結合を変更することができる。ここでは簡単に、こ
の重み付けの変更を、バックプロパゲーション法(誤差
逆伝搬法)と呼ばれる学習法を用いて説明する。
FIG. 10 is a diagram for explaining the third embodiment of the present invention, and here shows an example in which the above-mentioned personal information processing circuit 23 is constructed by using a neural network. Here, a case where a hierarchical structure called a perceptron is used for the neural network will be described. This perceptron is a structure that imitates a human brain cell neuron, and the input layer 1
09, the first intermediate layer 110, the second intermediate layer 111, the output layer 1
Each layer has several units 117 corresponding to neurons. These units 117 connect units between different layers, and the connection between these layers is weighted. Then, by changing this weighting, the unit 11
The binding of 7 can be changed. Here, this weighting change will be briefly described using a learning method called a back propagation method (error back propagation method).

【0047】図10の入力層109には、前述の実施例
で示した話者のケプストラム108を特徴パラメータと
して入力する。ここで、入力層109のユニット数は、
ケプストラムの次数によって決まる。この特徴パラメー
タ信号は、第1中間層110、第2中間層111を経て
分析され、その結果が出力層112に出力される。出力
層112でのユニット数Nは、登録できる話者の数(2
N )に対応している。この出力層112より出力される
出力信号113は、認識話者信号として出力され、これ
を正解信号としての教師信号114と比較することによ
り、学習誤差を計算する。そして、この誤差が小さくな
るように重み修正116を、その都度行う。このように
登録される人数分の特徴パラメータを何回も入力し、誤
差が小さくなるまで(学習が収束するまで)繰返し行
う。
In the input layer 109 of FIG. 10, the speaker cepstrum 108 shown in the above-described embodiment is input as a characteristic parameter. Here, the number of units of the input layer 109 is
Determined by the order of the cepstrum. The characteristic parameter signal is analyzed via the first intermediate layer 110 and the second intermediate layer 111, and the result is output to the output layer 112. The number N of units in the output layer 112 is the number of speakers that can be registered (2
N ) is supported. The output signal 113 output from the output layer 112 is output as a recognized speaker signal, and the learning error is calculated by comparing this with the teacher signal 114 as the correct answer signal. Then, the weight correction 116 is performed each time so as to reduce this error. In this way, the characteristic parameters for the number of people registered are input many times and repeated until the error becomes small (until the learning converges).

【0048】このようにして学習が収束したニューラル
ネットワークのシステムに対して、システムの利用者
は、個人情報入力部61から、例えば音声を入力する。
このようにして識別された話者と、その話者が開きたい
ファイルの管理者(所有者)とが一致すると、音声パス
ワードにより本人の照合がなされたことになり、そのフ
ァイルを開くことができる。
The user of the system inputs, for example, a voice from the personal information input unit 61 to the system of the neural network in which the learning is converged in this way.
If the speaker identified in this way matches the administrator (owner) of the file that the speaker wants to open, it means that the person has been verified by the voice password and the file can be opened. ..

【0049】以上説明したようにこの第3実施例によれ
ば、音声による照合にニューラルネットワークを用いる
ことにより、音声のパターンの識別能力が向上して、よ
り機密性の高いシステムが構築できる。
As described above, according to the third embodiment, by using the neural network for the verification by the voice, the ability of discriminating the voice pattern is improved and the system with higher confidentiality can be constructed.

【0050】前述の実施例では個人情報を音声情報とし
た場合で説明したが、この個人情報をその人の指紋とし
た第4実施例について説明する。この場合は、図6のブ
ロック図において、61は指紋を読み取るための、例え
ば光学式の指紋読取り部であり、個人情報処理ボード6
0は、指紋処理ボードと置き換えることで実現できる。
In the above-mentioned embodiment, the case where the personal information is the voice information has been described, but the fourth embodiment in which the personal information is the fingerprint of the person will be described. In this case, in the block diagram of FIG. 6, reference numeral 61 denotes, for example, an optical fingerprint reading unit for reading a fingerprint, and the personal information processing board 6
0 can be realized by replacing the fingerprint processing board.

【0051】システムの利用者は、システムを立ち上げ
た後、自分のファイルを開くために、まず指定された指
の第1関節部分にインクを付着させ、これを紙に押し付
けて指紋を取る。この紙を光学式の読取り部61にセッ
トすると、読取り部61はこれをライン毎にスキャンし
て読取る。こうして読取り部61で読み取られた情報は
A/D変換器21でデジタル信号に変換され、個人情報
抽出回路22で、その指紋情報に基づいてパラメータに
変換される。
After starting up the system, the user of the system first attaches ink to the first joint portion of the designated finger to open his file, and presses it on the paper to take a fingerprint. When this paper is set in the optical reading unit 61, the reading unit 61 scans and reads this line by line. In this way, the information read by the reading unit 61 is converted into a digital signal by the A / D converter 21, and converted into a parameter by the personal information extraction circuit 22 based on the fingerprint information.

【0052】次に図11を参照して、指紋パターンの特
徴を検出する方法について説明する。
Next, referring to FIG. 11, a method for detecting the features of the fingerprint pattern will be described.

【0053】まずステップS51では、入力された指紋
を表すデジタル情報は、256×256の原画像データ
の123に変換される。ここで、指紋の隆線の流れを細
かく判定するために、ステップS52で、8×8の領域
を1つの処理領域とし、各領域毎に9種類の方向に対す
る投影を用いることによって、最適な隆線方向を1つ選
択する。これら9種類の方向コードは、45度毎に規定
される8方向を示すコードと、隆線方向が存在しないこ
とを示すコード(9番目のコード)とで構成される。次
にステップS53に進み、32×32の方向データ12
4が得られる。そして、ステップS54で、このように
方向データ化された隆線形状の特徴を損なうことなく指
紋パターンを追跡し、指紋の特徴パターンを抽出するた
めに隆線追跡処理を行う。ここでの処理は、方向データ
の特殊性をある程度排除し、隆線の細かい形状の特徴を
重視しすぎないように、マクロ的に追跡する。
First, in step S51, the input digital information representing the fingerprint is converted into 123 of 256 × 256 original image data. Here, in order to finely determine the flow of the ridges of the fingerprint, in step S52, an 8 × 8 area is set as one processing area, and projections in nine types of directions are used for each area to obtain an optimum Select one line direction. These nine types of direction codes are composed of a code indicating eight directions defined every 45 degrees and a code indicating that no ridge direction exists (the ninth code). Next, in step S53, the 32 × 32 direction data 12
4 is obtained. Then, in step S54, the fingerprint pattern is tracked without impairing the ridge-shaped features thus converted into direction data, and ridge tracking processing is performed to extract the fingerprint feature pattern. In the processing here, the peculiarities of the direction data are eliminated to some extent, and macro-tracking is performed so as not to give too much importance to the features of the fine ridge shape.

【0054】即ち、まず円弧状になっている隆線の頂点
を示すコアを指紋照合の基準点として求める。次に、こ
のコアを追跡の対象点として追跡する。このようにし
て、指紋の32×32方向パターン124は、ステップ
S55で16×16の2値の特徴パターンに変換され
る。これを個人情報を良く表わした特徴パラメータとす
る。
That is, first, the core showing the apex of the arc-shaped ridge is obtained as a reference point for fingerprint collation. Next, this core is tracked as a target point for tracking. In this way, the 32 × 32 directional pattern 124 of the fingerprint is converted into a 16 × 16 binary feature pattern in step S55. This is a characteristic parameter that represents personal information well.

【0055】こうして個人情報抽出回路22で求められ
た特徴パラメータは、個人情報照合回路23に出力さ
れ、ここで予め登録されている特定利用者のパラメータ
と照合される。これに先だって、CPU2は、個人情報
のパラメータが抽出できたことを個人情報抽出回路22
より通知されると、ハードウェアディスク13に記憶さ
れている個人情報データを読出して、個人情報照合回路
23に転送する。こうして、この個人情報照合回路23
による、登録されている特徴パラメータとの照合が行わ
れる。この照合のためのアルゴリズムは、前述の実施例
と同様にして行われる。
The characteristic parameters obtained by the personal information extracting circuit 22 in this way are output to the personal information collating circuit 23 and collated with the parameters of the specific user registered in advance here. Prior to this, the CPU 2 informs the personal information extraction circuit 22 that the parameters of the personal information have been extracted.
When notified, the personal information data stored in the hardware disk 13 is read and transferred to the personal information collating circuit 23. Thus, this personal information collation circuit 23
According to, the matching with the registered characteristic parameter is performed. The algorithm for this collation is performed in the same manner as the above-mentioned embodiment.

【0056】この指紋情報による照合処理は、前述の図
9のフローチャートと同様にして行われる。即ち、図9
のフローチャートにおいて、ステップS42で指紋によ
るパスワードが登録されているかを判断し、登録されて
いる時はステップS44に進んで指紋の読取りを行い、
ステップS45で登録されている指紋とステップS44
で入力された指紋とが一致するとステップS43に進ん
で要求したファイルがオープンされる。
The collation process based on the fingerprint information is performed in the same manner as the above-mentioned flowchart of FIG. That is, FIG.
In the flowchart of step S42, it is determined in step S42 whether a fingerprint password is registered. If registered, the process proceeds to step S44 to read the fingerprint,
The fingerprint registered in step S45 and step S44
If the fingerprint input in step S4 matches, the process advances to step S43 to open the requested file.

【0057】又、この指紋によるパスワードを入力する
場合でも、個人情報照合回路23を前述の図10に示す
ようなニューラルネットワークにより構成しても良い。
Further, even when the password based on the fingerprint is inputted, the personal information collating circuit 23 may be constructed by the neural network as shown in FIG.

【0058】次に図12を参照して、パスワードを従来
のキャラクタ入力による方法と、前述の実施例の個人情
報(音声や指紋等)により設定する場合とを併用した実
施例を説明する。
Next, with reference to FIG. 12, an embodiment will be described in which the conventional method of inputting a character and the method of setting the password by the personal information (voice, fingerprint, etc.) of the above embodiment are used together.

【0059】ステップS61でファイルのオープンが要
求されるとステップS62に進み、そのファイルのキャ
ラクタのパスワードが設定されているかをみる。キャラ
クタのパスワードが設定されていない時はステップS6
7に進むが、キャラクタパスワードが設定されている時
はステップS63に進み、キャラクタの入力を待ち、ス
テップS64で入力されたキャラクタコードと登録され
ているパスワードとが一致するかを判定する。ここで一
致するとステップS65に進み、キャラクタとは別の情
報によるパスワードが設定されて、パスワードが二重化
されているかをみる。
When it is requested to open the file in step S61, the flow advances to step S62 to check whether the password of the character of the file is set. When the character password is not set, step S6
7, the process proceeds to step S63 when the character password is set, waits for the character input, and it is determined whether the character code input in step S64 matches the registered password. If they match with each other, the process proceeds to step S65, and it is determined whether or not a password based on information different from the character is set and the password is duplicated.

【0060】そうであればステップS67に進み、前述
の図9のフローチャートで示すように、個人情報の入力
を待ち、その入力された個人情報と、パスワードとして
登録されている個人情報とが一致するかをみる。又、ス
テップS65でパスワードが二重化されていない時はス
テップS66に進み、その要求されたファイルをオープ
ンする。尚、ステップS67〜S70の処理は、前述の
ステップS44〜47の処理と同じあるため、それらの
説明を省略する。
If so, the process advances to step S67 to wait for the input of personal information, as shown in the flow chart of FIG. 9, and the personal information input matches the personal information registered as the password. Look at it. If the password is not duplicated in step S65, the flow advances to step S66 to open the requested file. Since the processing of steps S67 to S70 is the same as the processing of steps S44 to 47 described above, the description thereof will be omitted.

【0061】図13は、個人情報入力部としての指紋読
取り装置を、ポインティングデバイスであるマウス19
aに設けた実施例を説明するための図である。
FIG. 13 shows a fingerprint reading device as a personal information input unit, which is a mouse 19 which is a pointing device.
It is a figure for demonstrating the Example provided in a.

【0062】501は左クリックボタン、503は右ク
リックボタン、502は指紋読取り用の光学式読取り部
である。504は、読取り部502のガラス面に付着さ
れている指紋を読み取るためのカバーである。505は
ケーブルで、マウス19aの移動量、クリックボタン5
01、503のオン・オフ情報、読み取った指紋情報を
伝送している。
Reference numeral 501 is a left click button, 503 is a right click button, and 502 is an optical reading unit for reading a fingerprint. Reference numeral 504 is a cover for reading a fingerprint attached to the glass surface of the reading unit 502. Reference numeral 505 is a cable for moving the mouse 19a and clicking the button 5
The on / off information of 01 and 503 and the read fingerprint information are transmitted.

【0063】以上の構成により、システムの利用者は指
紋パスワードの入力の際に、スタンプインクを付着させ
た利用者の指を、マウス19の略中央に設けられた読取
り部502のガラス面に押し付けることにより、そのガ
ラス面に指紋を付着させる。次に、カバー504をこの
ガラス面にかぶせると、スキャニングの開始を指示する
スイッチ(図示せず)がオンされ、指紋の読取りが開始
される。尚、指紋が付着されて汚れたガラス面は、次の
人が使用するためにきれいに拭きとっておけば良い。
With the above configuration, when the user of the system inputs the fingerprint password, the user's finger to which the stamp ink is adhered is pressed against the glass surface of the reading section 502 provided in the approximate center of the mouse 19. By doing so, a fingerprint is attached to the glass surface. Next, when the cover 504 is put on this glass surface, a switch (not shown) for instructing the start of scanning is turned on, and the reading of the fingerprint is started. It should be noted that the glass surface that is soiled with fingerprints may be wiped cleanly for the next person to use.

【0064】以上説明したように、光学式の読取り装置
をマウスと一体型にすることにより、別個に読取り装置
を設ける場合に比べて、より作業エリアの省スペース化
ができ、特にアイコンを表示してそれを指示するような
操作環境を備えるシステムでは、パスワードの入力と、
マウスの操作とのスムーズな連繋が取れ、マンマシンイ
ンターフェースがより的確なものになる。
As described above, by integrating the optical reading device with the mouse, the work area can be further reduced as compared with the case where a separate reading device is provided. In a system that has an operating environment that prompts you to enter it, enter a password and
The smooth interaction with the mouse operation makes the man-machine interface more accurate.

【0065】尚、本発明は複数の機器から構成されるシ
ステムに適用しても、1つの機器からなる装置に適用し
ても良い。また、本発明はシステム或は装置に、本発明
を実施するプログラムを供給することによって達成され
る場合にも適用できることはいうまでもない。
The present invention may be applied to a system composed of a plurality of devices or an apparatus composed of a single device. Further, it goes without saying that the present invention can be applied to the case where it is achieved by supplying a program for implementing the present invention to a system or an apparatus.

【0066】[0066]

【発明の効果】以上説明したように本発明によれば、画
面のウインドウに記録媒体に記憶された画像情報を読出
して表示することにより、例えばヘルプ機能等の説明を
より分かり易くできる。
As described above, according to the present invention, by reading and displaying the image information stored in the recording medium in the window of the screen, the explanation of the help function or the like can be made easier to understand.

【0067】又、暗証情報を用いて利用者を制限してい
る装置で、本人であることを確実に照合して判別できる
効果がある。
Further, there is an effect that it is possible to surely identify and identify the person himself / herself by the device that restricts the user by using the personal identification information.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1実施例の情報処理装置の概略構成
を示すブロック図である。
FIG. 1 is a block diagram showing a schematic configuration of an information processing apparatus according to a first embodiment of the present invention.

【図2】第1実施例のヘルプ機能を表示する動作を示す
フローチャートである。
FIG. 2 is a flowchart showing an operation of displaying a help function of the first embodiment.

【図3】第1実施例のヘルプ機能により表示されるウィ
ンドウのレイアウトを示す図である。
FIG. 3 is a diagram showing a layout of windows displayed by a help function of the first embodiment.

【図4】図2のステップS7のビデオヘルプ機能を説明
するための動作フローチャートである。
FIG. 4 is an operation flowchart for explaining the video help function of step S7 of FIG.

【図5】本発明の第1実施例のビデオヘルプメニュー画
面の動画制御ウィンドウを示す図である。
FIG. 5 is a diagram showing a moving picture control window of a video help menu screen according to the first embodiment of the present invention.

【図6】本発明の第2実施例の情報処理装置の概略構成
を示すブロック図である。
FIG. 6 is a block diagram showing a schematic configuration of an information processing apparatus according to a second embodiment of the present invention.

【図7】本発明の実施例の個人情報処理ボードの構成を
示すブロック図である。
FIG. 7 is a block diagram showing a configuration of a personal information processing board according to an embodiment of the present invention.

【図8】本実施例の個人情報処理ボードにおける音声情
報の入力処理を示すフローチャートである。
FIG. 8 is a flowchart showing a voice information input process in the personal information processing board according to the present embodiment.

【図9】本実施例の個人情報によるファイルオープン処
理を示すフローチャートである。
FIG. 9 is a flowchart showing a file open process by personal information of the present embodiment.

【図10】実施例の個人情報照合回路の他の構成を示す
図である。
FIG. 10 is a diagram showing another configuration of the personal information matching circuit of the embodiment.

【図11】個人情報を指紋情報とした時に、その指紋を
解析する方法を示す図である。
FIG. 11 is a diagram showing a method of analyzing a fingerprint when the personal information is fingerprint information.

【図12】パスワードがキャラクタと個人情報とで二重
化されている時、そのパスワードの照合処理を示すフロ
ーチャートである。
FIG. 12 is a flowchart showing a collation process of a password when the password is duplicated with a character and personal information.

【図13】他の実施例の指紋読取り部を有するマウスの
外観図である。
FIG. 13 is an external view of a mouse having a fingerprint reading unit of another embodiment.

【符号の説明】[Explanation of symbols]

1 システムバス 2 CPU 3,3a メインメモリ 6 表示部 8 CD−ROM 13 ハードディスク 14 フロッピーディスク 12 ディスクインターフェース 16 プリンタ 18 キーボード 19,19a マウス 20 音声ボード 21 スピーカ 60 個人情報処理ボード 61 個人情報入力部 62 デジタル信号処理プロセッサ 22 個人情報抽出回路 23 個人情報照合回路 1 System Bus 2 CPU 3, 3a Main Memory 6 Display Section 8 CD-ROM 13 Hard Disk 14 Floppy Disk 12 Disk Interface 16 Printer 18 Keyboard 19, 19a Mouse 20 Voice Board 21 Speaker 60 Personal Information Processing Board 61 Personal Information Input Section 62 Digital Signal processor 22 Personal information extraction circuit 23 Personal information collation circuit

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】 ウィンドウ表示可能な情報処理装置にお
いて、 画像情報を記憶媒体から読出す読出手段と、 前記読出手段により読出された画像情報を所定のウィン
ドウ上に表示する表示手段と、 を有することを特徴とする情報処理装置。
1. An information processing apparatus capable of displaying a window, comprising: a reading unit for reading image information from a storage medium; and a display unit for displaying the image information read by the reading unit on a predetermined window. An information processing device characterized by:
【請求項2】 前記画像情報は動画像で音声情報を含
み、前記装置のヘルプ表示として用いることを特徴とす
る請求項1に記載の情報処理装置。
2. The information processing apparatus according to claim 1, wherein the image information is a moving image and includes audio information, and is used as a help display of the apparatus.
【請求項3】 暗証情報により装置の利用権を制限して
いる情報処理装置であって、 個人の生体特有の情報を暗証情報として入力する入力手
段と、 前記入力手段により入力された暗証情報と予め登録され
ている暗証情報とを照合して、前記入力手段より入力し
た人に装置の利用権を与えるか否かを判定する判定手段
と、 を有することを特徴とする情報処理装置。
3. An information processing device for restricting the right to use the device by personal identification information, the input means for inputting information peculiar to a living body of an individual as personal identification information, and the personal identification information input by the input means. An information processing apparatus, comprising: a judgment unit that compares the personal identification information registered in advance and judges whether or not the person who inputs through the input unit is given the right to use the apparatus.
【請求項4】 前記暗証情報は音声情報の特徴を抽出し
たパラメータ情報であることを特徴とする請求項3に記
載の情報処理装置。
4. The information processing apparatus according to claim 3, wherein the personal identification information is parameter information obtained by extracting a feature of voice information.
【請求項5】 前記暗証情報は指紋の特徴を抽出したパ
ラメータ情報であることを特徴とする請求項3に記載の
情報処理装置。
5. The information processing apparatus according to claim 3, wherein the personal identification information is parameter information obtained by extracting a characteristic of a fingerprint.
【請求項6】 ウィンドウ表示する情報処理装置におけ
る処理方法であって、 ヘルプ機能を指示する工程と、ヘルプ機能を説明するた
めの画像情報を記憶媒体から読出す工程と、 その読出された画像情報を所定のウィンドウ上に表示す
る工程と、 を有することを特徴とする情報処理方法。
6. A processing method in an information processing apparatus for displaying a window, the step of instructing a help function, the step of reading image information for explaining the help function from a storage medium, and the read image information. And a step of displaying on a predetermined window.
【請求項7】 暗証情報により装置の利用権を制限して
いる情報処理方法であって、 個人の生体に特有の情報を暗証情報として入力する工程
と、 入力された暗証情報と予め登録されている暗証情報とを
照合して、その入力した人に装置の利用権を与えるか否
かを判定する工程と、 を有することを特徴とする情報処理方法。
7. An information processing method in which the right to use the device is restricted by personal identification information, which comprises a step of inputting information specific to an individual's living body as personal identification information, the input personal identification information being registered in advance. An information processing method, comprising: a step of collating the input password information to determine whether or not the input person is given the right to use the apparatus.
JP4149264A 1992-06-09 1992-06-09 Method and device for information processing Withdrawn JPH05341945A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4149264A JPH05341945A (en) 1992-06-09 1992-06-09 Method and device for information processing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4149264A JPH05341945A (en) 1992-06-09 1992-06-09 Method and device for information processing

Publications (1)

Publication Number Publication Date
JPH05341945A true JPH05341945A (en) 1993-12-24

Family

ID=15471441

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4149264A Withdrawn JPH05341945A (en) 1992-06-09 1992-06-09 Method and device for information processing

Country Status (1)

Country Link
JP (1) JPH05341945A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7159121B2 (en) 1999-12-27 2007-01-02 Canon Kabushiki Kaisha Transmission of information to a reproduction device having user identification by organism information of a specified type

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7159121B2 (en) 1999-12-27 2007-01-02 Canon Kabushiki Kaisha Transmission of information to a reproduction device having user identification by organism information of a specified type

Similar Documents

Publication Publication Date Title
US6421453B1 (en) Apparatus and methods for user recognition employing behavioral passwords
US6219657B1 (en) Device and method for creation of emotions
US11955125B2 (en) Smart speaker and operation method thereof
US5426745A (en) Apparatus including a pair of neural networks having disparate functions cooperating to perform instruction recognition
US5787414A (en) Data retrieval system using secondary information of primary data to be retrieved as retrieval key
US5583965A (en) Methods and apparatus for training and operating voice recognition systems
US20050071686A1 (en) Method and apparatus for generating and reinforcing user passwords
EA004352B1 (en) Automated transcription system and method using two speech converting instances and computer-assisted correction
JPH09510558A (en) Method and system for spatial access of time-based information
JP2003508805A (en) Apparatus, method, and manufactured article for detecting emotion of voice signal through analysis of a plurality of voice signal parameters
CN104965589A (en) Human living body detection method and device based on human brain intelligence and man-machine interaction
CN111813301B (en) Content playing method and device, electronic equipment and readable storage medium
US5511187A (en) Method and system for nonvisual groupware participant status determination in a data processing system
CN1875400B (en) Information processing apparatus, information processing method
CN111506183A (en) Intelligent terminal and user interaction method
CN112948788A (en) Voice verification method, device, computing equipment and medium
JPH05341945A (en) Method and device for information processing
JP3840221B2 (en) Speech recognition apparatus and method
US20070078563A1 (en) Interactive system and method for controlling an interactive system
KR102463243B1 (en) Tinnitus counseling system based on user voice analysis
JP3373003B2 (en) Information retrieval device
JP4685712B2 (en) Speaker face image determination method, apparatus and program
KR20210066645A (en) Stand type smart reading device and control method thereof
Goodenough-Trepagnier et al. Towards a method for computer interface design using speech recognition
JP2006185342A (en) Information processor, method and program for classifying character string, and recording medium

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 19990831