JPS63276672A - Intelligent work station - Google Patents

Intelligent work station

Info

Publication number
JPS63276672A
JPS63276672A JP62056739A JP5673987A JPS63276672A JP S63276672 A JPS63276672 A JP S63276672A JP 62056739 A JP62056739 A JP 62056739A JP 5673987 A JP5673987 A JP 5673987A JP S63276672 A JPS63276672 A JP S63276672A
Authority
JP
Japan
Prior art keywords
data
information
section
image
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP62056739A
Other languages
Japanese (ja)
Inventor
Norimasa Nomura
典正 野村
Shozo Abe
省三 阿部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP62056739A priority Critical patent/JPS63276672A/en
Publication of JPS63276672A publication Critical patent/JPS63276672A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To effectively understand contents and to form picture data which can be supplemented by analyzing a character string between instructed sentence blocks, extracting sentence information between the sentence blocks, forming and displaying an animation picture according to the extracted sentence information. CONSTITUTION:At the time of the input of sentence data or the designation of the sentence data (A), the character string of the sentence data is displayed on a display (B). At the time of designating (C) the sentence punctuation for forming the animation picture to the displayed sentence data, the character string between the sentence punctuation is analyzed to extract the sentence information required for forming the animation according to the extracted sentence information (D, E). Then, according to the extracted sentence information, the animation is formed (F), the picture is displayed (G), the data is associated with the sentence data and stored. Thereby, the element of a display graphic supplied from a data base varied according to the sentence information, numerical data or a time relation thereof and the animation picture in which the contents of the sentence data can be visually impressed is formed.

Description

【発明の詳細な説明】 [発明の目的] (産業上の利用分野) 本発明は、出力文章データの内容把握を容易ならしめる
知的ワークステーションに関する。
[Detailed Description of the Invention] [Object of the Invention] (Field of Industrial Application) The present invention relates to an intelligent workstation that facilitates understanding of the contents of output text data.

(従来の技術) ワークステーションか持つ重要な処理1次能の1つに、
種々の文章データの呈示がある。例えば表示装置を用い
て文章データを文庁二列として表示したり、或いは音声
合成機能を用いて文章データを音さ出力することか行わ
れる。
(Conventional technology) One of the important primary processing capabilities of a workstation is
There is a presentation of various text data. For example, the text data may be displayed in two lines using a display device, or the text data may be output as audible text using a speech synthesis function.

ところでワークステーションから、例えは説明文等の文
f、fデータか呈示されても、その内容、具体的には文
章内容が示す数値データを容易に理解することができな
い場合かある。このような場合には、一般的にその数値
データをグラフ化(図式化)して表示することで、その
内容理解を補助することが良く行われる。
By the way, even if sentences f and f data, such as explanatory sentences, are presented from a workstation, the contents, specifically the numerical data indicated by the contents of the sentences, may not be easily understood. In such cases, it is common practice to display the numerical data in a graph (diagrammatic form) to assist in understanding the content.

ところが従来システムにおける文章データからの図形デ
ータの作成は、一般的にグラフや対照表を、静止画とし
て作成しているたけである。この為、例えば数値の時間
的な経緯に伴う変化の状況等を容易に把握するには甚だ
不十分であった。
However, the creation of graphical data from text data in conventional systems generally only creates graphs and comparison tables as still images. For this reason, it is extremely insufficient to easily understand, for example, the state of change in numerical values over time.

(発明か解決しようとする問題点) このように従来のワークステーションにあっては、文章
データの理解を助ける為のグラフ等の図形情報を上記文
章データを解析して静止画として作成しているものの、
その静止画からだけでは上記文章データの内容理解が十
分に補助されないことがある等の問題があった。
(Problem to be solved by the invention) In this way, in conventional workstations, graphical information such as graphs to help the understanding of text data is analyzed and created as a still image by analyzing the text data. of things,
There have been problems such as the fact that understanding the content of the text data may not be sufficiently assisted only from the still image.

本発明はこのような事情を考慮してなされたもので、そ
の目的とするところは、文章データを解析してその内容
理解を効果的に補助することのできる画像データを作成
することのできる知的ワークステーションを提供するこ
とにある。
The present invention has been made in consideration of these circumstances, and its purpose is to provide knowledge that can analyze text data and create image data that can effectively assist in understanding the content. The aim is to provide a workstation with a wide range of functions.

[発明の構成] 本発明は、第1図にその概念を示すように文章データの
入力、或いは文章データの指定があったとき(処理A)
、その文章データの文字列をディスプレイ表示する(処
理B)。そしてこの表示文章データに対して動画を作成
する為の文章区間が指定されたとき(処理C)、その文
章区間の文字列を解析して動画を作成するに必要な文章
情報を抽出する(処理り、E)。そしてこの抽出文章情
報に従って動画を作成しく処理F)、その動画を表示す
ると共に(処理G)、その動画データを前記文章データ
に関連付けて記憶するようにしたものである。
[Structure of the Invention] The present invention, as shown in the concept in FIG.
, displays the character string of the text data on a display (processing B). When a text section for creating a video is specified for this display text data (processing C), the text information necessary to create a video is extracted by analyzing the character strings of the text section (processing ri, E). Then, a moving image is created according to the extracted text information (process F), the moving image is displayed (process G), and the moving image data is stored in association with the text data.

つまり文章データの指定された特定区間の文字列を解析
してその文章情報を、例えは主体、主題。
In other words, the character strings in the designated specific sections of text data are analyzed and the text information is extracted, for example, the subject or subject.

数値データ、時間的関係等を抽出し、例えばデータベー
スから与えられる表示図形の要素を上記文章情報に応じ
て、特に数値データやその時間的関係に応じて可変処理
する等して、前記文章データの内容を視覚的に印象付け
ることのできる動画を作成するようにしたものである。
Numerical data, temporal relationships, etc. are extracted and, for example, the elements of display figures given from the database are processed variably according to the above text information, especially according to the numerical data and their temporal relationships. The purpose is to create a video that can give a visual impression of the content.

(作用) 本発明によれば、文章データを解析して求められる文章
情報から各種の数値データやこれらの数値データを対応
付ける、例えば主体や時間的関係の情報が抽出される。
(Operation) According to the present invention, various numerical data and information relating to subjects and temporal relationships, which associate these numerical data, are extracted from text information obtained by analyzing text data.

そしてこれらの情報に基いてデータベースから与えられ
る図形要素の変形処理が行われて、例えば数値データの
時間的推移を表現する動画が作成されて表示される。
Then, based on this information, the graphic elements provided from the database are transformed, and, for example, a moving image expressing the temporal transition of numerical data is created and displayed.

従ってこの動画によれば、例えば数値データが急激に変
化したか、或いは緩慢に変化したか等の情報を容易に呈
示することが可能となり、前記文章データの内容理解を
極めて効果的に助けることが可能となる。つまり静止画
により固定的に数値データの変化を示すものと異なり、
動画によって上記数値データの変化を時間的な経緯を伴
う変化として表現することが可能となるので、文章デー
タの内容を適確に表現してその内容理解を効果的に助け
ることが可能となる。
Therefore, according to this video, it is possible to easily present information such as whether the numerical data has changed rapidly or slowly, and can extremely effectively help the user understand the content of the text data. It becomes possible. In other words, unlike static images that show fixed changes in numerical data,
Since the changes in the numerical data can be expressed as changes over time using a video, it is possible to accurately represent the contents of the text data and effectively aid in understanding the contents.

(実施例) 以下、図面を参照して本発明の実施例につき説明する。(Example) Embodiments of the present invention will be described below with reference to the drawings.

第2図は本発明の実施例に係る知的ワークステーション
の概略構成図である。この知的ワークステーションは、
以下の各部を備えて構成される。
FIG. 2 is a schematic diagram of an intelligent workstation according to an embodiment of the present invention. This intelligent workstation
It is composed of the following parts.

バス1 ;以下に説明する各部の間ので必要な情報転送
を行なう為に用いられる。
Bus 1: Used to transfer necessary information between each section described below.

制御部2 ;マイクロプロセッサを主体として構成され
、該知的ワークステーションの各部の動作をそれぞれ制
御するものである。
Control unit 2: Mainly composed of a microprocessor, it controls the operations of each part of the intelligent workstation.

イメージ入力装置3 ;カメラやスキャナ、或いはOC
R等からなり、各種のイメージ情報を入力する。
Image input device 3; camera, scanner, or OC
R, etc., and input various image information.

位置座標入力装置4 ;タブレットやマウス等からなり
、指定された位置座標情報を入力する。
Position coordinate input device 4: Consists of a tablet, mouse, etc., and inputs specified position coordinate information.

音声入力部5 ;マイクロフォン等により構成され、音
声情報を入力する。
Audio input unit 5: Consists of a microphone, etc., and inputs audio information.

キーボード部6 :複数のキーを備え、文字・記号コー
ドや制御コード等を入力する為のものである。
Keyboard section 6: Equipped with a plurality of keys, for inputting character/symbol codes, control codes, etc.

ICカード部7 ;後述するようにICカードが装着さ
れ、該ICカードとの間で必要な情報を人出力するもの
である。
IC card section 7: As described later, an IC card is installed, and necessary information is outputted between the IC card and the IC card.

バスコントローラ8 ;バス1を介する各部間の情報転
送を制御する。
Bus controller 8; controls information transfer between each unit via bus 1.

音声出力部9 ;スピーカ等からなり、音声情報を出力
する。
Audio output unit 9: Consists of a speaker, etc., and outputs audio information.

ディスプレイ部10;CRTディスプレイや液晶ディス
プレイ等からなり、文字・図形・画像等を表示する。
Display unit 10: Consists of a CRT display, liquid crystal display, etc., and displays characters, figures, images, etc.

イメージ出力部ff1ll;FAXやカラープリンタ等
からなり、種々のイメージ情報をプリント出力する。
Image output unit ff1ll: Consists of a FAX, color printer, etc., and prints out various image information.

通信装置12.13;該ワークステーションと電話機、
或いは遠隔地に設置された他のワークステーションや端
末等との情報通信を行なう。  。
communication device 12.13; the workstation and the telephone;
Or, it communicates information with other workstations, terminals, etc. installed in remote locations. .

切換え装置14:複数の通信装置を切換え使用する。Switching device 14: Switches and uses a plurality of communication devices.

タイマ一部15:該ワークステーションに時刻情報や時
間情報を提供する。
Timer part 15: Provides time information and time information to the workstation.

暗号化処理部167種々の情報を暗号化処理する。Encryption processing unit 167 encrypts various information.

音声照合部17を与えられた音声情報が特定の音声であ
るか否かを照合処理する。
The voice verification unit 17 performs a verification process to determine whether the given voice information is a specific voice.

イメージ照合部18:与えられたイメージ情報か特定の
イメージであるか否かを照合処理する。
Image verification unit 18: Performs verification processing to determine whether the given image information is a specific image.

音声認識部19.与えられた音声情報を認識処理する。Speech recognition unit 19. Recognize and process the given audio information.

音声分析部20;音声入力部5等から入力された音声の
特徴を抽出する等して該音声を分析処理する。
Speech analysis unit 20: Analyzes the voice input from the voice input unit 5 etc. by extracting the characteristics of the voice.

文字認識部2L;前記イメージ入力装置3等から入力さ
れた文字・記号パターンを認識処理する。
Character recognition unit 2L: Recognizes character/symbol patterns input from the image input device 3 or the like.

イメージ認識部23;前記イメージ入力装置3等から入
力された図形イメージ等を認識処理する。
Image recognition unit 23: Recognizes graphic images and the like input from the image input device 3 and the like.

出力形態選択部24;該ワークステーションから出力す
る情報の形態を選択制御する。
Output format selection unit 24: Selects and controls the format of information output from the workstation.

作業環境データ収集部25:該ワークステーショの機能
状態や、それによるオフィス内の作業環境等の情報を収
集入力する。
Work environment data collection unit 25: Collects and inputs information such as the functional status of the workstation and the work environment in the office.

音声合成部26:処理データに従って合成音声を生成す
る。
Speech synthesis unit 26: Generates synthesized speech according to the processed data.

イメージ合成部27;複数のイメージ情報を合成処理し
たり、処理データに従ってイメージの編集処理を実行す
る。
Image compositing unit 27; performs compositing processing on a plurality of pieces of image information, and executes image editing processing according to processing data.

図形合成処理部28;種々の図形を合成処理したり、処
理データに従って図形の加入・削除等の編集処理を実行
する。
Graphic composition processing unit 28: Composes various graphics and executes editing processing such as adding and deleting graphics according to processing data.

音声の圧縮・伸長部29;音声データを圧縮符号化した
り、圧縮された音声データの復元伸長を行なう。
Audio compression/expansion unit 29: compresses and encodes audio data, and restores and expands compressed audio data.

イメージの圧縮・伸長部30;イメージ・データを圧縮
符号化したり、圧縮されたイメージ・データの復元伸長
を行なう。
Image compression/expansion unit 30; compresses and encodes image data, and restores and expands compressed image data.

信号処理部31;種々の信号情報の符号化圧縮やその復
元伸長、必要な情報の付加等の一連の信号処理を実行す
る。
Signal processing unit 31: Executes a series of signal processing such as encoding and compressing various signal information, restoring and expanding it, and adding necessary information.

データベース部32;種々の情報を複数のりレーション
にそれぞれ分類し、データベースとして蓄積する。尚、
このデータベースはコード情報のみならず、イメージや
音声等としても構築される。
Database unit 32: Classifies various information into a plurality of relations and stores them as a database. still,
This database is constructed not only as code information but also as images, sounds, etc.

 9一 本発明に係る知的ワークステーションは、基本的には上
述した各部を備えて構成され、上述した各部がそれぞれ
が持つ機能を有効に利用して全体的にインテリジェンス
な機能を呈するものとなっている。
91 The intelligent workstation according to the present invention is basically configured with each of the above-mentioned parts, and each of the above-mentioned parts effectively utilizes its respective functions to exhibit an intelligent function as a whole. ing.

次に前述したキーボード部5等のように一般的ではなく
、この知的ワークステーションにおいて特徴的な機能を
呈するICカード部7や暗号化処理部16等について更
に詳しく説明する。
Next, the IC card section 7, encryption processing section 16, etc., which are not common like the aforementioned keyboard section 5, etc., but have characteristic functions in this intelligent workstation, will be explained in more detail.

先ずICカードは、例えは第3図に示すように名刺大の
大きさのカード本体7a内にマイクロプロセッサやメモ
リ回路等の半導体回路を内蔵し、カードの一端部に上述
した構成の知的ワークステーション本体に接続する為の
インターフェース部7b、および表示窓部7cを設けて
構成される。
First, an IC card has a semiconductor circuit such as a microprocessor and a memory circuit built into the card body 7a, which is about the size of a business card, as shown in FIG. It is constructed by providing an interface section 7b for connection to the station main body and a display window section 7c.

尚、表示窓部7cは透明偏光体を埋め込んで形成される
もので、その位置はインターフェース部7bや半導体回
路と乗畳しない位置に設定される。またカード本体7a
は、上記表示窓部7cに対応する部分のみか透明であっ
ても良く、またその基板全体か透明なものであっても良
い。
The display window section 7c is formed by embedding a transparent polarizer, and its position is set so as not to overlap with the interface section 7b or the semiconductor circuit. Also, the card body 7a
Only the portion corresponding to the display window 7c may be transparent, or the entire substrate may be transparent.

しかしてICカードは、具体的には第4図にその分解斜
視図を示すように、一対のカバー基板7d。
Specifically, as shown in an exploded perspective view of FIG. 4, the IC card has a pair of cover substrates 7d.

7e、これらのカバー基板7d、 7eに挟持される埋
め込み基板7r1コアシ一ト材7g1プリント基板7h
を一体的に熱圧着して構成される。
7e, a buried substrate 7r1, a core sheet material 7g1, a printed circuit board 7h, sandwiched between these cover substrates 7d and 7e.
It is constructed by integrally bonding them together by thermocompression.

このプリント基板7hの前記インターフェース部7bに
対向する位置には入出力端子71が設けられ、また表示
窓部7cに対向する位置には液晶表示装置7jが設けら
れる。更にはプリント基板71]には半導体集積回路7
kが設けられる。またカバー基板7eには前記プリント
基板7hにおける発熱を発散する為の金属箔7mが設け
られる。
An input/output terminal 71 is provided on the printed circuit board 7h at a position facing the interface portion 7b, and a liquid crystal display device 7j is provided at a position facing the display window portion 7c. Furthermore, the semiconductor integrated circuit 7 is mounted on the printed circuit board 71].
k is provided. Further, the cover substrate 7e is provided with a metal foil 7m for dissipating heat generated in the printed circuit board 7h.

尚、カバー基板7d、 7eや埋め込み基板7r、コア
シート材7gにそれぞれ穿たれた孔部はプリント基板7
hi:集積された半導体集積回路7j等にそれぞれ対向
する位置に設けられたものである。これらの孔部に−に
記半導体集積回路7に等を嵌合させて前記カバー基板7
d、 7e、埋め込み基板7「、コアシート材7g1プ
リント基板7hが積層一体化されてICカ一ドか構成さ
れる。そして入出力端子71は、カバー基板7dに穿た
れた孔部を介して露出し、ワークステーション本体に電
気的に接続されるインターフェース部7bを構成する。
Note that the holes drilled in the cover substrates 7d and 7e, the embedded substrate 7r, and the core sheet material 7g are the printed circuit board 7.
hi: Provided at positions facing the integrated semiconductor integrated circuits 7j and the like. The semiconductor integrated circuit 7 described in - is fitted into these holes, and the cover substrate 7 is inserted.
d, 7e, embedded substrate 7'', core sheet material 7g1 printed circuit board 7h are laminated and integrated to form an IC card.The input/output terminals 71 are connected through holes made in the cover substrate 7d. An interface section 7b is exposed and electrically connected to the workstation main body.

尚、前記液晶表示装置7jは、例えば第5図にプリント
基板7に部の断面構造を示すように、スペーサを介して
設けられた一対のポリエーテルサルフォンフィルム基板
の間に液晶層を挟持し、該フィルム基板の内側面に透明
導電膜をそれぞれ形成すると共に、下面側のフィルム基
板に偏光体や反射体を設けて構成される。このようにポ
リエーテルサルフォンフィルム基板を用いて液晶表示装
置7jを構成すれば、その厚みを0.6ρ以下にするこ
とも容易であり、ガラス基板を用いて液晶表示装置を構
成する場合に比較してICカード自体を薄くすることが
できる。
The liquid crystal display device 7j has a liquid crystal layer sandwiched between a pair of polyether sulfone film substrates provided with a spacer in between, as shown in FIG. , a transparent conductive film is formed on the inner surface of the film substrate, and a polarizer or a reflector is provided on the lower film substrate. If the liquid crystal display device 7j is constructed using a polyether sulfone film substrate in this way, it is easy to reduce the thickness to 0.6ρ or less, compared to the case where the liquid crystal display device is constructed using a glass substrate. This allows the IC card itself to be made thinner.

またこのICカードの駆動電源については、前記インタ
ーフェース部7bを介してワークステーション本体側か
ら供給するようにしても良いが、カード内に内蔵するよ
うにしても良い。この場合には、例えば高分子フィルム
を用いたシート状の電池として組込むようにすれば良い
Further, the driving power for this IC card may be supplied from the workstation main body via the interface section 7b, or it may be built into the card. In this case, it may be incorporated as a sheet-like battery using, for example, a polymer film.

しかして前記半導体集積回路7には、例えば第6図に示
すようにCPU7pや、データ・メモリであるPROM
7q、E2PROM7r、およびこれらのメモリに対す
る選択部78等を備えて構成される。
The semiconductor integrated circuit 7 includes, for example, a CPU 7p and a PROM which is a data memory, as shown in FIG.
7q, E2PROM 7r, and a selection section 78 for these memories.

PROM7qは消去・書替え不可能な大容量の不揮発性
メモリであり、前記CPU7pに対する制御プログラム
や、永久記録すべき情報等を格納している。またE2P
ROM7rは書替え可能な小容量の不揮発性メモリであ
り、例えば情報の取引番号や、情報取引時に用いられる
番号、およびその使用時に更新される情報が格納される
The PROM 7q is a large-capacity nonvolatile memory that cannot be erased or rewritten, and stores control programs for the CPU 7p, information to be permanently recorded, and the like. Also E2P
The ROM 7r is a rewritable, small-capacity, nonvolatile memory, and stores, for example, information transaction numbers, numbers used in information transactions, and information updated when the information is used.

これらのメモリは前記選択部7sのIl制御により選択
的に駆動され、前記CPU7pとの間で情報の入出力を
行なう。CPU7pはこれらのメモリを用いて必要な情
報処理を実行し、またそのインターフェース部から前述
した端子部71を介して知的ワークステーション本体と
の間で情報の入山力を行なう。
These memories are selectively driven by Il control of the selection section 7s and input/output information to/from the CPU 7p. The CPU 7p executes necessary information processing using these memories, and also inputs information to and from the intelligent workstation main body via the aforementioned terminal section 71 from its interface section.

前記ICカード部7は、このようなICカードを装着し
、該ICカードとの間で情報の入出力を行なうことにな
る。
The IC card unit 7 is equipped with such an IC card and inputs and outputs information to and from the IC card.

尚、ICカードは−に連した構成に限定されるものでな
いことは勿論のことであり、その構成に応じてICカー
1部7が構成されることも云うまでもない。
Incidentally, it goes without saying that the IC card is not limited to the configuration connected to -, and it goes without saying that the IC card 1 section 7 can be configured depending on the configuration.

次に暗号化処理部16について説明する。Next, the encryption processing section 16 will be explained.

この暗号化処理部】6は、例えば第7図に示すように暗
号化部16a、復号化部16b、秘密鍵ファイル部16
c、公開鍵ファイル部16d5そして鍵更新部leeを
備えて構成される。
The encryption processing section 6 includes, for example, an encryption section 16a, a decryption section 16b, and a private key file section 16, as shown in FIG.
c, a public key file section 16d5, and a key update section lee.

そして第8図にその概念を示すように、与えられた通信
原文を暗号鍵に従って暗号化してその暗号通信文を生成
したり、また逆に与えられた暗号通信文を暗号鍵に従っ
て復号してその原文を求める処理を実行する。
As the concept is shown in Figure 8, a given original communication text can be encrypted according to an encryption key to generate the encrypted message, or conversely, a given encrypted communication can be decrypted according to the encryption key to generate the encrypted message. Execute the process to obtain the original text.

秘密鍵ファイル部tCCおよび公開鍵ファイル部led
はこの暗号・復号化に用いられる鍵を記憶するものであ
り、鍵更新部180はこれらのファイルされた鍵の更新
を司る。
Private key file section tCC and public key file section led
stores the keys used for this encryption/decryption, and the key update unit 180 is in charge of updating these files.

ここで秘密鍵は、この暗号化処理部16を所有するワー
クステーションのみか知る鍵であり、他のワークステー
ション等に対しては秘密にされる。
Here, the private key is a key known only to the workstation that owns this encryption processing unit 16, and is kept secret from other workstations.

これに対して公開鍵は各ワークステーションに設定され
た各秘密鍵とそれぞれ対をなすものであり、他のワーク
ステーションにそれぞれ与えられて公開される。公開鍵
ファイル部ledは、これらの複数のワークステーショ
ンがそれぞれ公開した公開鍵を、各ワークステーション
に対応して記憶するものである。
On the other hand, the public key is paired with each private key set in each workstation, and is given to each other workstation and made public. The public key file section led stores the public keys published by these plurality of workstations in correspondence with each workstation.

暗号化部1[iaは第9図に示すように、R8A処理部
16iと暗号化種別付加部16jとを備えて構成される
。そして通信原文を暗号化して情報通信しようとすると
き、その通信相手先のワークステーションが公開した公
開鍵を用いて通信原文を暗号化し、その暗号通信文に暗
号の種別を示す情報を付加して通信情報を作成し、これ
を通信するものとなっている。尚、暗号の種別の情報は
、例えば“0”で暗号化していないこと、また“1”で
暗骨化していることを示す情報や、暗号方式を示す情報
等からなる。
As shown in FIG. 9, the encryption unit 1[ia is comprised of an R8A processing unit 16i and an encryption type addition unit 16j. When attempting to encrypt the original communication text and communicate information, the original communication text is encrypted using the public key published by the workstation of the communication partner, and information indicating the type of encryption is added to the encrypted communication text. It creates communication information and communicates it. The encryption type information includes, for example, "0" indicating that the encryption is not performed, "1" indicating that the encryption is encrypted, information indicating the encryption method, and the like.

また復号化部16bは、自己ワークステーションが公開
した公開鍵を用いて成るワークステーションか暗号化し
て通信してきた暗号通信文を入力し、これを上記秘密鍵
に対応した秘密鍵を用いて復号化するものであり、第1
0図に示すように暗号文分割部16に1暗号種別判定部
16111%切換え部16n。
In addition, the decryption unit 16b inputs the encrypted message that has been encrypted and communicated from the workstation using the public key published by the self-workstation, and decrypts it using the private key corresponding to the private key. The first
As shown in FIG. 0, the ciphertext division section 16 includes a cipher type determination section 16111% switching section 16n.

16p、R3A処理部16qを備えて構成される。16p and an R3A processing section 16q.

暗号文分割部16には、前述したフォーマットで通信さ
れてきた通信情報を前述した暗号種別の情報と暗号化通
信文とに分割するものであり、暗号種別判定部16In
は該暗号種別情報からその通信文が暗号化されているか
否かを判別している。そして暗号化されていない場合に
はその通信文を切換え部1[in、 IBpを介して出
力し、暗号化されている場合にはその通信文をR8A処
理部16qに導いている。このR3A処理部18qにて
前記秘密鍵を用いて暗号化通信文か復号化処理され、上
記切換え部1[ipを介して出力される。
The ciphertext division section 16 is for dividing the communication information communicated in the above-described format into the above-mentioned cipher type information and the encrypted message, and includes a cipher type determination section 16In.
determines whether the message is encrypted or not based on the encryption type information. If the communication is not encrypted, the communication is outputted via the switching unit 1[in, IBp, and if it is encrypted, the communication is guided to the R8A processing unit 16q. The R3A processing section 18q decrypts the encrypted message using the secret key, and outputs it via the switching section 1[ip.

尚、R3A処理部IBi、16qは、例えば第11図に
示すようにブロック分割部IBsとべき乗・剰余計算部
16t、およびブロック連結部16uとを備えて構成さ
れる。
Note that the R3A processing unit IBi, 16q is configured to include a block division unit IBs, an exponentiation/remainder calculation unit 16t, and a block connection unit 16u, as shown in FIG. 11, for example.

ここでブロック分割部18sは与えられた信号系列を一
定の長さのブロックM、に分割するものであり、べき乗
・剰余計算部111itは各ブロックM。
Here, the block division section 18s divides the given signal sequence into blocks M of a constant length, and the exponentiation/remainder calculation section 111it divides each block M.

毎に暗号化の鍵kを用いて N、=M、  k (mod n) なる信号系列N、を求めている。但し、nは固定の値で
ある。この信号系列N、かブロック連結部16uを介し
て順に連結されて出力される。
At each time, a signal sequence N, where N,=M,k (mod n), is obtained using an encryption key k. However, n is a fixed value. This signal sequence N is sequentially connected via the block connecting section 16u and output.

暗号化処理にあっては、上記信号系列M、が通信原文で
あり、この通信原文から暗号化された通信文か信号系列
N として求められる。また復号化処理にあっては上記
信号系列M、が暗号化通信文であり、この暗号化通信文
から復号化された通信原文か信号系列N、とじて求めら
れる。
In the encryption process, the signal sequence M is the original communication text, and the encrypted communication text is determined from this original communication text as the signal sequence N. In addition, in the decryption process, the signal sequence M is an encrypted message, and the decrypted original communication or signal sequence N is obtained from this encrypted message.

このような暗号化・復号化を担う鍵kが前述した公開鍵
と秘密鍵であり、これらは対をなして設 17一 定される。
The key k responsible for such encryption/decryption is the aforementioned public key and private key, which are set 17 as a pair.

従ってワークステーションは、他のワークステーション
から公開された公開鍵に従って通信情報をそれぞれ暗号
化することはできるか、その暗号化された通信文を復号
化し得るのは、その公開鍵と対をなす秘密鍵を知り得る
特定のワークステーションだけとなる。これ故、成る情
報を暗号化して通信しようとするワークステーションは
、通信相手先のワークステーションが公開した公開鍵に
従って該通信原文を暗号化して通信する。そしてその通
信情報は、秘密鍵を持つ通信相手先のワークステーショ
ンのみか復号し得るものとなっている。
Therefore, a workstation can each encrypt communication information according to a public key published by another workstation, or can decrypt the encrypted communication only by using the secret paired with the public key. Only certain workstations can know the key. Therefore, a workstation that wishes to encrypt and communicate information encrypts the original communication text according to the public key made public by the workstation with which it communicates. The communication information can only be decrypted by the communication partner's workstation that has the private key.

尚、他のワークステーションがそれぞれ公開した公開鍵
の全てを公開鍵ファイル1[idに格納しておく必要は
ない。例えはシステムに対して別に設けられた公開鍵フ
ァイル・メモリに、各ワークステーションが公開した公
開鍵を各ワークステーションに対応されてファイルして
おく。そして情報通信が必要となったとき、その通信相
手先の公開鍵を上記公開鍵ファイル・メモリから読出し
て自己のワークステーションの公開鍵ファイル部16に
格納するようにしても良い。
Note that it is not necessary to store all the public keys published by other workstations in the public key file 1[id. For example, public keys published by each workstation are stored in a file corresponding to each workstation in a public key file memory provided separately for the system. When information communication becomes necessary, the public key of the communication partner may be read from the public key file memory and stored in the public key file section 16 of the own workstation.

以上か暗号化処理部16の基本的な構成とその機能であ
る。
The above is the basic configuration of the encryption processing section 16 and its functions.

次にイメージ照合部18について説明する。Next, the image matching section 18 will be explained.

このイメージ照合部18は、前記イメージ入力装置3か
ら入力されたイメージ情報、例えば個人の顔のイメージ
を入力し、その個人同定を行なうものである。
The image matching unit 18 receives image information inputted from the image input device 3, for example, an image of an individual's face, and performs individual identification.

第12図はこのイメージ照合部の概略構成を示すもので
、18aはイメージ記憶部、18bは正規化回路、18
cは2値化(細線化)回路、18dは特徴データ抽出回
路である。また18eはイメージデータを記憶したデー
タ記憶部であり、18fは検索回路、18gは照合回路
、そして18hは出力部である。
FIG. 12 shows a schematic configuration of this image matching section, in which 18a is an image storage section, 18b is a normalization circuit, and 18a is an image storage section;
c is a binarization (thinning) circuit, and 18d is a feature data extraction circuit. Further, 18e is a data storage section that stores image data, 18f is a search circuit, 18g is a collation circuit, and 18h is an output section.

イメージ記憶部18aは前記イメージ入力装置3を介し
て入力されたイメージ情報を記憶し、そのイメージ照合
処理に供するものである。このイメージ記憶部18aに
記憶されたイメージ情報に対して正規化回路18bは正
規化処理し、また2値化回路18cは2値化処理する。
The image storage section 18a stores image information input through the image input device 3, and performs image verification processing. The normalization circuit 18b performs normalization processing on the image information stored in the image storage section 18a, and the binarization circuit 18c performs binarization processing on the image information.

具体的には、ここでは個人の顔のイメージからその個人
同定を行なうべく、正規化回路18bはその顔の大きさ
を正規化している。この正規化された顔のイメージに対
して2値化回路18cは、例えばエツジ線分検出、その
エツジ線分の細線化処理等を行なって該イメージの2値
画像を求めている。
Specifically, here, the normalization circuit 18b normalizes the size of the individual's face in order to identify the individual based on the image of the individual's face. The binarization circuit 18c performs, for example, edge line detection and thinning processing on the normalized face image to obtain a binary image of the image.

特徴データ抽出回路18dは、このようにして正規化・
2値化されたイメージ情報からその特徴データを抽出す
るものである。即ち、顔のイメージによる照合処理にあ
っては、例えば第13図に示すように顔の輪郭を1つの
特徴として抽出し、更にそのイメージ中の目、鼻、口等
の特徴を抽出している。具体的には、顔の輪郭的特徴を
分類されたコード情報として、また両眼間の距離ノ、口
の大きさm5目と口との距離n等を数値データとしてそ
のイメージの特徴として抽出している。
The feature data extraction circuit 18d performs normalization and
This method extracts feature data from binarized image information. That is, in the matching process using a face image, for example, as shown in FIG. 13, the contour of the face is extracted as one feature, and then features such as the eyes, nose, and mouth in that image are also extracted. . Specifically, the contour features of the face are extracted as classified code information, and the distance between the eyes, the size of the mouth (m5), the distance between the eyes and the mouth (n), etc. are extracted as numerical data as features of the image. ing.

しかしてデータ記憶部18eには、予め各個人について
求められた顔のイメージの特徴データか、例えば第14
図に示すように登録されている。即ち、各個人毎にその
個人名を識別名として上述した顔のイメージの特徴デー
タが登録され、且つその顔のイメージ・データかポイン
タによって結ばれている。
Therefore, the data storage unit 18e stores feature data of facial images obtained in advance for each individual, for example, the 14th
It is registered as shown in the figure. That is, the facial image characteristic data described above is registered for each individual using the individual's name as an identification name, and the facial image data are connected by pointers.

検索回路18rは前記特徴データ抽出回路18dにて抽
出された特徴データに基いて該データ記憶部18eを検
索している。そしてその検索データは照合回路18gに
与えられ、前記特徴データ抽出回路18dで求められた
特徴データと照合処理されている。
The search circuit 18r searches the data storage section 18e based on the feature data extracted by the feature data extraction circuit 18d. The search data is then given to a matching circuit 18g, where it is matched with the feature data obtained by the feature data extraction circuit 18d.

この照合処理は、例えば前記特徴データ抽出回路18d
で求められた入力イメージの特徴データをX、(1は特
徴の種別)、データ記憶部18eに登録されているイメ
ージの特徴データをY、とじたとき、 D−Σ IX、−Y、1 なる演算を行い、その演算結果りの値が最も小さいもの
を、その個人として同定することによって= 21− 行われる。この同定結果が出力部18hを介して出力さ
れる。
This matching process is carried out, for example, by the feature data extraction circuit 18d.
When the feature data of the input image obtained in is X (1 is the type of feature) and the feature data of the image registered in the data storage unit 18e is Y, then D-Σ IX, -Y, 1. = 21- is performed by performing a calculation and identifying the person with the smallest value as the calculation result. This identification result is output via the output section 18h.

イメージ照合部18は、基本的にはこのようにして入力
イメージを照合処理し、例えば該人力イメージの個人同
定等を行なう。
The image matching unit 18 basically performs matching processing on the input image in this manner, and performs, for example, individual identification of the human-powered image.

次に音声認識部19について説明する。Next, the speech recognition section 19 will be explained.

音声認識部19は、例えば第15図に示すように構成さ
れる。音声入力回路19aは、前記音声入力部5から入
力された音声信号、または公衆電話回線を介して前記通
信装置12.13にて受信された音声信号を入力するも
ので、この入力音声信号を適当な信号レベルに増幅する
増幅器や、帯域制限用のバンドパスフィルタおよびA/
D変換器等によって構成される。入力音声はこの音声入
力回路19aにて、例えは30〜3400 Hzの周波
数帯域の信号に制限され、12KHzのサンプリング周
期で12ビツトのディジタル信号に量子化される。
The speech recognition unit 19 is configured as shown in FIG. 15, for example. The audio input circuit 19a inputs the audio signal input from the audio input section 5 or the audio signal received by the communication device 12.13 via the public telephone line, and converts this input audio signal into an appropriate form. Amplifiers that amplify the signal to a certain level, bandpass filters that limit the bandwidth, and A/
It is composed of a D converter and the like. The input audio is limited to signals in the frequency band of 30 to 3400 Hz, for example, and is quantized into a 12-bit digital signal at a sampling period of 12 KHz in the audio input circuit 19a.

音響処理部19bは、例えば専用のハードウェアにより
構成された積和回路からなる。そして基本的には前記音
声入力回路19aと同期してパイプライン的に高速動作
する。
The acoustic processing section 19b is composed of, for example, a product-sum circuit constructed from dedicated hardware. Basically, it operates at high speed in a pipeline manner in synchronization with the audio input circuit 19a.

ここでの音響処理は、2種のバンドパスフィルタ群によ
り実行される。その1つは16チヤンネルのフィルタバ
ンクで、このフィルタバンクを介して入力音声信号のス
ペクトルの変化が抽出される。
The acoustic processing here is performed by two types of bandpass filter groups. One of them is a 16-channel filter bank, through which changes in the spectrum of the input audio signal are extracted.

今1つは、同じ帯域を4チヤンネルに分割したグロスフ
ィルタであり、このグロスフィルタを介して入力音声の
音響的特徴か抽出される。
The other is a gloss filter that divides the same band into four channels, and the acoustic features of the input voice are extracted through this gloss filter.

これらの2種類のフィルタ群(フィルタバンクとグロス
フィルタ)は、例えは4次巡回形のディジタルフィルタ
として構成される。そして、例えは10m5ec毎にそ
のフィルタリング出力を求めるものとなっている。尚、
この音響処理部の制御はマイクロプログラム方式にて行
われる。
These two types of filter groups (filter bank and gross filter) are configured, for example, as fourth-order cyclic digital filters. For example, the filtering output is obtained every 10 m5ec. still,
Control of this sound processing section is performed using a microprogram method.

しかして前処理・認識部19cは、高速プロセッサ19
d、パターンマッチング処理部19e1単語辞書メモリ
19f1およびバッファメモリ19gによって構成され
る。
Therefore, the preprocessing/recognition unit 19c is a high-speed processor 19.
d, a pattern matching processing section 19e1, a word dictionary memory 19f1, and a buffer memory 19g.

バッファメモリ19gは上記音響処理部19bにてフィ
ルタリング処理された音声信号を入力し、例えは最大1
.8秒分の音声データを蓄積するものとなっている。高
速プロセッサ19dはこのバッファメモリ19gに格納
されたデータに対して、音声区間検出、リサンプリング
、ラベリング、遷移ネットワークによる認識処理、およ
びその総合論理判定処理の実行を行なっている。またこ
の高速プロセッサ19dにより、ホスト計算機との間の
通信や該音声認識部19全体の動作制御か行われる。
The buffer memory 19g inputs the audio signal filtered by the audio processing section 19b, and for example, a maximum of 1
.. It stores 8 seconds worth of audio data. The high-speed processor 19d performs voice section detection, resampling, labeling, recognition processing using a transition network, and comprehensive logical judgment processing on the data stored in the buffer memory 19g. The high-speed processor 19d also performs communication with the host computer and controls the overall operation of the speech recognition section 19.

この高速プロセッサ19dにて処理された音声データに
ついて、パターンマツチング処理部19eは単語辞書メ
モリ19fに登録された単語音声の標準パターンデータ
との間で複合類似度計算等のマツチング処理を実行し、
その認識候補を求めている。
The pattern matching processing unit 19e performs matching processing such as composite similarity calculation on the audio data processed by the high-speed processor 19d with the standard pattern data of the word audio registered in the word dictionary memory 19f,
We are looking for recognition candidates.

例えば認識対象となる音声単語は離散的に発声される。For example, speech words to be recognized are uttered discretely.

そこで高速プロセッサ19dは、例えば音響処理の際に
lomsec毎に計算される人力音声エネルギを用いて
単語音声の入力区間を検出している。
Therefore, the high-speed processor 19d detects the input section of word speech using, for example, human voice energy calculated every lomsec during acoustic processing.

具体的には第16図に示すように、背景雑音レベルと入
力音声レベルとから適応的に計算される閾値E。を用い
、入力音声信号レベルか上記閾値Eoを一定時間以上継
続して越えたとき、該閾値Eoを越えた時点を音声単語
の始端Sとして検出している。その後、上記入力音声信
号のレベルか上記閾値E、を一定時間以上継続して下回
ったとき、該閾値Eeを下回った時点を音声単語の終端
Eとし一〇検出している。
Specifically, as shown in FIG. 16, the threshold E is adaptively calculated from the background noise level and the input voice level. When the input audio signal level exceeds the threshold value Eo for a certain period of time or more, the time point at which the input audio signal level exceeds the threshold value Eo is detected as the start point S of the audio word. Thereafter, when the level of the input audio signal falls below the threshold E for a certain period of time or more, the end point E of the audio word is detected as the point in time when it falls below the threshold Ee.

ところで音声認識はパターン認識の一種として考え得る
。しかし音声特有のパターン変動や、話者の性別・発声
器官の形状・発声法等に起因する個人差、また話者自身
が発生する雑音や周囲環境の雑音、更には電話音声の場
合には公衆電話回線を経由したことによるレベル差や雑
音の問題がある。この為、これらを考慮し、上述した変
動要素を吸収して、如何に精度良く、安定に音声認識す
るかが問題となる。
By the way, speech recognition can be considered as a type of pattern recognition. However, there are variations in the patterns peculiar to speech, individual differences due to the gender of the speaker, the shape of the vocal organs, the method of enunciation, etc., as well as noise generated by the speaker himself or herself, noise from the surrounding environment, and even, in the case of telephone speech, public noise. There are problems with level differences and noise caused by going through a telephone line. Therefore, the problem is how to accurately and stably recognize speech by taking these into consideration and absorbing the above-mentioned variable factors.

そこでこの前処理・認識部19cてはパターンマツチン
グ法と構造解析法とを2段階に組合せ、/’tイブリッ
ド構造マツチング法と称される認識法を採用している。
Therefore, the preprocessing/recognition section 19c employs a recognition method called hybrid structure matching method, which combines pattern matching method and structure analysis method in two stages.

即ち、上述したように単語音声区間か検出されると、先
すその音声区間(S、E)を15等分し、その16点を
それぞれリサンプル点とする。そして前述した如く音響
処理された16チヤンネルの音声データ(スペクトル時
系列)から上記各リサンプル点でのスペクトルを抽出す
る。尚、音声データのサンプル点と上記リサンプル点と
の間でずれがある場合には、リサンプル点の最近傍点の
スペクトルを抽出すれは良い。
That is, when a word voice section is detected as described above, the first voice section (S, E) is divided into 15 equal parts, and each of the 16 points is set as a resample point. Then, the spectrum at each resample point is extracted from the 16 channels of audio data (spectral time series) that have been acoustically processed as described above. Note that if there is a deviation between the sample point of the audio data and the resample point, it is better to extract the spectrum of the nearest point to the resample point.

このリサンプル処理によって例えば113XlB(〜2
56)次元の音声パターン・ベクトルXを求める。
By this resampling process, for example, 113XlB (~2
56) Find the dimensional audio pattern vector X.

即ち、第j  (j =1.2,3.〜16)番目のり
サンプル点をr、とするとき、r、での16チヤンネル
のスJ                 jベクトル
データを s  、=cs  、s  、〜S  )r JlrJ
、  2rJ、   16r、+て X=(S    S−3−8)’ lrl、   1r2.    2rl、     1
[irl[iなる音声パターンのベクトルXを求める。
That is, when the j-th (j = 1.2, 3. to 16) sample point is r, the vector data of 16 channels at r is s, = cs, s, ~S) r JlrJ
, 2rJ, 16r, +teX=(S S-3-8)' lrl, 1r2. 2rl, 1
Find the vector X of the voice pattern [irl[i.

但し、tは行列の転置を示す。However, t indicates the transposition of the matrix.

このようにして求められた人力音声パターンベクトルX
と、単語辞書メモリ19rに予め登録された単語音声の
標準パターンとの類似度が、例えば複合類似度法によっ
て計算される。
Human speech pattern vector X obtained in this way
The degree of similarity between this word and a standard pattern of word sounds registered in advance in the word dictionary memory 19r is calculated by, for example, a composite similarity method.

ここで単語辞書メモリ19fに予め登録された単語音声
の標準パターンは、その単語カテゴリωkについて、 (ψ   ψ  〜ψLk) 1に、  2k。
Here, the standard pattern of word sounds registered in advance in the word dictionary memory 19f is (ψ ψ ~ ψLk) 1 to 2k for the word category ωk.

(λ  λ  〜λ ) 1に、  2に、   Lk 但し、 (λ ≧λ ≧〜≧λLk) 1に−2に として準備されている。尚、ψ  λ はカテゴ、に、
   、に りωkに属するパターンヘクトルXの共分散行列Kにお
ける固有ベクトルとその固有値である。このような単語
辞書について、上述した複合類似度S (k)は として計算される。尚、上式においてl X IIはベ
クトルXのノルムである。
(λ λ ~ λ ) 1, 2, Lk However, (λ ≧λ ≧ ~ ≧ λLk) 1 and -2 are prepared. In addition, ψ λ is the category,
, the eigenvectors and their eigenvalues in the covariance matrix K of the pattern hector X belonging to ωk. For such a word dictionary, the above-mentioned composite similarity S (k) is calculated as follows. Note that in the above equation, l X II is the norm of the vector X.

このような複合類似度計算が全てのカテゴリについてそ
れぞれ行われ、上位に位置する類似度値と、それを得た
カテゴリ名とが対にして求められる。
Such composite similarity calculations are performed for all categories, and the top similarity value and the resulting category name are determined as a pair.

このような複合類似度法によるパターンマツチングによ
って、多くのパターン変動を救出した認識処理か可能と
なる。しかし類似パターンや雑音か加わったパターンで
は、異なるカテゴリ間でその類似度値の差か小さくなる
ことがある。
Pattern matching using such a composite similarity method enables recognition processing that eliminates many pattern variations. However, for similar patterns or patterns with added noise, the difference in similarity values between different categories may become small.

そこで前述したようにパターンマツチング法を補うもの
として、以下の構造解析の手法を導入している。この構
造解析は、単語音声を構成する音の違いに着目して認識
処理するもので、音素ラベル系列と音響的特徴系列の2
つの時系列を利用している。
Therefore, as mentioned above, the following structural analysis method has been introduced as a supplement to the pattern matching method. This structural analysis performs recognition processing by focusing on the differences in the sounds that make up word speech, and consists of two types: a phoneme label series and an acoustic feature series.
It uses two time series.

即ち、音素ラベル系列は、入力音声信号から10m5e
c毎に計算される16チヤンネルのスペクトルを用いて
音素辞書との類似度を計算し、一定値以上の類似度を持
つ音素のラベル付けして求める。尚この音素ラベルは、
例えば5つの母音と鼻音との6種類からなる。この際、
音素辞書は、男声と女声に分けてそれぞれ準備しておく
方が望ましい。
That is, the phoneme label sequence is 10m5e from the input audio signal.
The degree of similarity with the phoneme dictionary is calculated using the spectrum of 16 channels calculated for each c, and phonemes having a degree of similarity of a certain value or more are labeled and determined. This phoneme label is
For example, it consists of six types: five vowels and nasal sounds. On this occasion,
It is better to prepare separate phoneme dictionaries for male and female voices.

ここで比較的安定に発音されるの母音に比べ、子音を音
素として個々にラベル付けすることが困難である。従っ
てその子音についてはその音響的な特徴をラベル付けし
、これを特徴情報とする。
Compared to vowels, which are pronounced relatively stably, it is difficult to label consonants individually as phonemes. Therefore, the acoustic characteristics of the consonant are labeled and used as characteristic information.

具体的には、音響処理で求められる4チヤンネルのグロ
スフィルタの出力と音声エネルギとから音響的特徴を抽
出する。このようにして特徴抽出されてラベル付けされ
る音響的特徴は、例えば第17図にグロスフィルタの出
力の特徴と対比して示すように、無音性、無声性、摩擦
性、破裂性、エネルギ・ディップ等の12種類からなる
Specifically, acoustic features are extracted from the output of a four-channel gross filter and audio energy obtained through acoustic processing. The acoustic features extracted and labeled in this way include, for example, silence, voicelessness, friction, rupture, energy, etc., as shown in FIG. 17 in comparison with the output features of the gross filter. It consists of 12 types including dips.

しかして入力音声について求められた音素・音響ラベル
系列は、前記音声期間(S、E)を含む範囲に亙って、
各単語カテゴリ毎に作られた、例えば第18図に示す如
き遷移ネットワークに入力される。
Thus, the phoneme/acoustic label sequence obtained for the input speech is as follows over the range including the speech period (S, E):
The information is input to a transition network created for each word category, as shown in FIG. 18, for example.

1 この遷移ネットワークの各ノード毎に、指定された
音素ラベルや音響的特徴の有無をチェックする。そして
無であればリジェクト、有であれば次のノードに遷移さ
せ、その特徴系列が終了した時点で遷移ネットワークの
ゴールに到達した入力系列を受理し、そのカテゴリを求
める。尚、系列のチェックの方向は、ネットワーク毎に
その正逆を選択可能なものである。
1. Check whether the specified phoneme label or acoustic feature exists for each node in this transition network. Then, if there is no characteristic, it is rejected, and if it exists, it is transferred to the next node, and when that characteristic sequence is completed, the input sequence that has reached the goal of the transition network is accepted, and its category is determined. Note that the direction of sequence checking can be selected from forward to reverse for each network.

総合判定論理は、前述した如くパターンマ・ソチングに
よって順序付けられた候補カテゴリと、遷移ネットワー
クにより求められた認識結果とを総合して、その最終判
定を行なうロジックである。
The comprehensive judgment logic is a logic that synthesizes the candidate categories ordered by pattern mapping as described above and the recognition results obtained by the transition network, and makes a final judgment.

即ち、この総合判定論理は、パターンマ・ソチングで求
められた最大類似度を81としたとき、これを所定の閾
値θと比較する。そして(Slくθ)の場合、これを雑
音としてリジェクトする。
That is, in this comprehensive judgment logic, when the maximum similarity obtained by pattern mapping is set to 81, this is compared with a predetermined threshold value θ. In the case of (Sl×θ), this is rejected as noise.

また(S1≧θ)の場合には、別の閾値Δθを用いて(
S、−Δθ)以上の類似度を持つカテゴリを候補として
抽出する。そしてその抽出されたカテゴリの数nが1つ
である場合、これを認識結果として抽出する。また複数
のカテゴリが抽出された場合には、前記遷移ネットワー
クによる解析結果を参照し、遷移ネットワークで受理さ
れたカテゴリのみを抽出する。そしてその中で最大の類
似度を持つカテゴリを認識結果として求める。
In addition, in the case of (S1≧θ), another threshold value Δθ is used to
Categories with a degree of similarity greater than or equal to S, -Δθ) are extracted as candidates. If the number n of extracted categories is one, this is extracted as the recognition result. Furthermore, when a plurality of categories are extracted, only the categories accepted by the transition network are extracted by referring to the analysis results by the transition network. Then, the category with the greatest degree of similarity is determined as the recognition result.

尚、閾値処理によって抽出されたカテゴリの中に、遷移
ネットワークで受理されたものが含まれない場合には、
判定不能とする。
In addition, if the categories extracted by threshold processing do not include those accepted by the transition network,
It is assumed that it is impossible to judge.

以上のようにして複合類似度法によるパターン認識処理
結果と、遷移ネットワークを用いた認識結果とを統合し
てその入力単語音声の認識が行われる。
As described above, the input word speech is recognized by integrating the pattern recognition processing result using the composite similarity method and the recognition result using the transition network.

第19図はこの音声認識部における単語音声の認識処理
手続きの流れを示すもので、音声区間検出処理の後、リ
サンプル処理してパターンマツチングを行い、同時にラ
ベリング処理して遷移ネットワークによるチェックを行
い、しかる後、これらの各認識結果を統合してその総合
判定論理処理を行なうことが示される。このような処理
が前記高速プロセッサ19dによる処理シーケンスの下
で実行される。
Figure 19 shows the flow of the word speech recognition processing procedure in this speech recognition unit. After speech segment detection processing, resampling processing is performed to perform pattern matching, and at the same time, labeling processing is performed to check using a transition network. After that, these recognition results are integrated to perform comprehensive judgment logic processing. Such processing is executed under a processing sequence by the high-speed processor 19d.

ところで離散的に発声された単語音声ではなく、 31
一 連続発声された音声中の単語を認識する場合には次のよ
うにすれは良い。即ち、この場合には入力音声を種々の
部分区間に分割し、その部分区間毎に単語識別を行なっ
て単語類似度を求めるようにすれば良い。
By the way, it is not a discretely uttered word sound, but 31
If you want to recognize words in one continuous voice, you can do the following. That is, in this case, the input speech may be divided into various sub-intervals, and the word similarity may be determined by performing word identification for each sub-interval.

具体的には、例えば第20図に示すように入力音声区間
における全ての分析フレーム間をそれぞれ部分区間の境
界候補とし、該入力音声区間を複数の部分区間に分ける
。この際、認識対象となる単語の継続時間長については
最大時間長D  とaX 最小時間長D 、が設定できるので、その範囲内1n の部分区間だけを認識処理対象とすれば良い。
Specifically, for example, as shown in FIG. 20, all analysis frames in an input speech section are set as boundary candidates for partial sections, and the input speech section is divided into a plurality of subintervals. At this time, since the maximum time length D and the minimum time length D can be set for the duration of the word to be recognized, only a partial interval 1n within that range needs to be targeted for recognition processing.

ここで第20図に示す例では、連続発声された音声の単
語数が2個の場合を想定して2つの部分区間を求めてい
る。しかし一般的には入力音声の単語数は不明であるか
ら、2単語からn単語まてか単語候補として存在すると
仮定して部分区間をそれぞれ検出すれは良い。そして検
出された各部分区間について単語類似度の計算を行い、
その類似度結果の繋かり関係を相互に比較して最も信頼
性の高い部分区間の境界を求め、その境界によって区切
られた部分区間の各単語認識結果を求めるようにすれば
良い。
In the example shown in FIG. 20, two partial sections are calculated assuming that the number of words in the continuously uttered voice is two. However, since the number of words in the input speech is generally unknown, it is better to detect each partial interval on the assumption that 2 to n words exist as word candidates. Then, calculate the word similarity for each detected subinterval,
The connection relationships of the similarity results may be compared with each other to find the most reliable boundary of the sub-interval, and then the word recognition results for each of the sub-intervals separated by the boundary may be obtained.

然し乍ら、このようにして部分区間を求めて単語類似度
計算を行なう場合、部分区間の数が膨大なものとなる為
、処理の高速化か妨げられる。従って実際的には処理の
高速化を考慮して、例えば入力単語数が2=5単語、1
単語の継続時間長が128〜640 m5ec、 1回
の発声における単語長の比が2.5以下、フレーム周期
はIEimsec (8m5ec周期で2個に1個の単
語を取出す)等の制限を加えて部分区間を検出するよう
にすれは良い。
However, when calculating word similarity by obtaining subintervals in this manner, the number of subintervals becomes enormous, which hinders speeding up of processing. Therefore, in practice, in consideration of speeding up the processing, for example, if the number of input words is 2 = 5 words, 1
The word duration length is 128 to 640 m5ec, the ratio of word length in one utterance is 2.5 or less, and the frame period is IEimsec (one word out of every two words is extracted in an 8m5ec period). It is good to detect subintervals.

このようにすれは連続発声された音声中の単語をそれぞ
れ効果的に認識することか可能となる。
In this way, it becomes possible to effectively recognize each word in continuously uttered speech.

ところでこのような音声認識処理に供される辞書(単語
辞書)の学習は次のようにして行われる。
By the way, learning of a dictionary (word dictionary) used for such speech recognition processing is performed as follows.

この学習処理は、■母音パターンおよび子音パターンか
らその特性核を求める処理と、■その特性核に対する固
有値と固有ベクトルを求める処理とに大別される。そし
てこの固有値と固何ペクトルとを、その固有値の大きい
ものから順にN細末める。この処理は一般にK L展開
と称されるものである。
This learning process is roughly divided into (1) a process for finding the characteristic kernel from the vowel pattern and the consonant pattern, and (2) a process for finding the eigenvalue and eigenvector for the characteristic kernel. Then, these eigenvalues and eigenvalue vectors are divided into N parts in descending order of the eigenvalues. This process is generally called KL expansion.

先ず特性核を求める処理について説明すると、入力音声
パターン(学習パターン)の特性核には、その学習パタ
ーンの縦ベクトルをS としたとき、次のようにして求
められる。
First, the process of determining the characteristic kernel will be described. The characteristic kernel of an input speech pattern (learning pattern) is determined as follows, where S is the vertical vector of the learning pattern.

K = (17M)  Σ ss’ tll−1m  m 5=(S    S    −8)’ m    ml、  m2.   mn尚、この学習パ
ターンS は、子音パターンの■ 場合には64次元の縦ベクトルとして与えられる。
K = (17M) Σ ss' tll-1m m 5=(S S -8)' m ml, m2. mnIn addition, this learning pattern S is given as a 64-dimensional vertical vector in the case of the consonant pattern.

また母音パターンの場合には16次元の縦ベクトルとし
て与えられる。
In the case of a vowel pattern, it is given as a 16-dimensional vertical vector.

しかして特性核にはm個の学習パターンについて、その
縦ベクトルS と、この縦ベクトルSII+を転置した
横ベクトルS とを掛合わせて作成さ■ れる行列の各成分を、上記m個の学習パターンに亙って
平均化して求められる。従って特性核の要素数は上記ベ
クトルの要素数の2乗となる。
Therefore, for the characteristic kernel, each element of a matrix created by multiplying the vertical vector S of the m learning patterns by the horizontal vector S obtained by transposing this vertical vector SII+ is expressed as the m learning patterns. It is calculated by averaging over Therefore, the number of elements of the characteristic kernel is the square of the number of elements of the vector.

尚、このような処理によってそのカテゴリのパターン分
布を反映した特性核Kを得るには、成る程度の量の学習
パターンを必要とする。この為、学習パターン・メモリ
に予め所定数の学習パターンを蓄積しておくことが必要
となる。
Note that in order to obtain the characteristic kernel K that reflects the pattern distribution of the category through such processing, a sufficient amount of learning patterns are required. For this reason, it is necessary to store a predetermined number of learning patterns in the learning pattern memory in advance.

ところが母音の場合には16次元で最低6個のカテゴリ
の学習パターンを準備するだけで良いが、子音の場合に
は1吋カテゴリも存在し、しかも64次元のデータとし
て求める必要がある。この為、このままでは膨大なメモ
リ容量を必要とすることが否めない。
However, in the case of vowels, it is only necessary to prepare learning patterns of 16 dimensions and at least six categories, but in the case of consonants, there is also a 1-inch category, and moreover, it is necessary to obtain 64-dimensional data. For this reason, it is undeniable that a huge amount of memory capacity will be required if the system is left as it is.

そこで少数の学習パターンによってパターン分布を反映
した特性核Kを得るべく、次のような特性核の更新処理
を行い、逐次計算によってその特性核を次第にパターン
分布を反映した形に改良して行くようにする。
Therefore, in order to obtain a characteristic kernel K that reflects the pattern distribution using a small number of learning patterns, the following characteristic kernel update process is performed, and the characteristic kernel is gradually improved to reflect the pattern distribution through sequential calculations. Make it.

即ち、 K=に’+wS   S   1     n なる演算処理を繰返し実行するようにする。但し、Wは
特性核の更新時における重み係数である。この重み係数
Wは正負の値を取り、正ならば特性核行列の入カバター
ンに対する類似度を大きくし、逆に負ならば上記類似度
を小さくする作用を呈する。
That is, the arithmetic processing '+wS S 1 n is repeatedly executed on K=. However, W is a weighting coefficient when updating the characteristic kernel. This weighting coefficient W has a positive or negative value, and if it is positive, it increases the similarity of the characteristic kernel matrix to the input pattern, and if it is negative, it decreases the similarity.

またに′はS なる学習パターンを学習する前の特性核
を示しており、Kは学習パターンS の学習によって更
新された特性核を示している。
Further, ′ indicates the characteristic kernel before learning the learning pattern S, and K indicates the characteristic kernel updated by learning the learning pattern S.

しかる後、このようにして求められた特性核に対して、
その固有値と固有ベクトルを求める処理が行われ、この
固有値と固有ベクトルとに基いて前述した複合類似度計
算に用いられる標準パターンか作成される。
After that, for the characteristic kernel obtained in this way,
Processing is performed to obtain the eigenvalues and eigenvectors, and based on these eigenvalues and eigenvectors, a standard pattern used in the composite similarity calculation described above is created.

標準パターンは、上記特性核をKL展開することによっ
て求められるものであり、例えばべき東方によるKL展
開によってその標準パターンか求められる。
The standard pattern is obtained by performing KL expansion on the above-mentioned characteristic kernel. For example, the standard pattern is obtained by performing KL expansion using power east.

今、特性核Kが固有値λ1.λ2.〜λ□を持ち、これ
に対応する固有ベクトルξ1.ξ2.〜ξ。を持つもの
とする。この場合、その任意ベクトルU。
Now, the characteristic kernel K has an eigenvalue λ1. λ2. ~λ□, and the corresponding eigenvector ξ1. ξ2. ~ξ. shall have. In this case, that arbitrary vector U.

は、上記固有ベクトルξ1.ξ2.〜ξ。の線形結合し
て U 繁 Σ α、ξ。
is the above eigenvector ξ1. ξ2. ~ξ. A linear combination of U Σ α, ξ.

として表わされる。このとき、 Kξ、=λ、ξ。It is expressed as At this time, Kξ,=λ,ξ.

なる関係が成立することがら、 = ・・・・・・ =、Σ α、λ、8ξ。Since the relationship is established, = ・・・・・・=, Σ α, λ, 8ξ.

となる。becomes.

ここで 1λ11〉1λ21〉  ・・・・・・  〉1λ 1
S u [λ 、  / λ 1 コ  >  1      
(i−2,3,〜 、n)であるから、Sが十分大きく
なると上式の祐2項一  37 − がOに収束することになる。
Here 1λ11〉1λ21〉 ・・・・・・ 〉1λ 1
S u [λ, / λ 1 > 1
Since (i-2, 3, ~, n), when S becomes sufficiently large, the 2 term - 37 - in the above equation converges to O.

故に前述した式を Ku=α1 λl  ξ1 と看做すことができる。Therefore, the above formula Ku=α1 λl ξ1 It can be regarded as.

s+1 このことは、(K   u  )と(K  u  )と
の比が固有値λ1であることを示している。また(K”
u)は固有ベクトルξ1に比例していることが示される
s+1 This indicates that the ratio between (K u ) and (K u ) is the eigenvalue λ1. Also (K”
u) is shown to be proportional to the eigenvector ξ1.

ところでこのような理論に基く演算過程にありでは、そ
の演算途中結果が直ぐにスケールアウトするすることが
多い。そこでU を任意の、例えば単位ベクトルとし、 v   =Ku s+i    。
By the way, in a calculation process based on such a theory, the results often scale out immediately during the calculation. Therefore, let U be an arbitrary, for example, a unit vector, and v = Ku s + i.

u8+1=(v    )/(b    )s+1  
        s+1 (s−0,1,2,・・・) なる演算を実行するようにする。ここで(b   )o
1 は、ベクトル(V   )の絶対値が最大の要素でs+
1 ある。このとき、 Ll   =(V   )/(b   )s+1   
     s+1          so1=(Ku
)/(b     ) s         sol ち −(Kv   )/(b     −b   )s  
       sol      sとなることから、
これよりλl、bs+1.ξ1.us+1を求めること
が可能となる。
u8+1=(v)/(b)s+1
The following calculation is executed: s+1 (s-0, 1, 2, . . . ). Here (b)o
1 is the element with the largest absolute value of the vector (V), s+
1 Yes. At this time, Ll = (V)/(b)s+1
s+1 so1=(Ku
)/(b)s sol Chi-(Kv)/(b-b)s
Since it becomes sol s,
From this, λl, bs+1. ξ1. It becomes possible to obtain us+1.

このようにしてその絶対値か最大の固有値λ1と固有ベ
クトルξ1とを求めたら、次に同様にしてその絶対値が
次に大きい固有値λ2と固有ベクトルξ2とを求める。
Once the eigenvalue λ1 and the eigenvector ξ1, which have the largest absolute value, are determined in this way, the eigenvalue λ2 and the eigenvector ξ2 whose absolute value is the next largest are determined in the same way.

ここで K’  =に一λ1 ξ1 ξ1 を考えると、 ξ 1 ξ、  = O(i−2,3,〜、n)より、 K′ ξ =にξ −λ ξ ξ   ξ1=λ ξ 
−λ1ξ1 = O(1=1 )に′ ξ =にξ、−
λ  ξ、ξ、1 ξ。
Here, considering K' = one λ1 ξ1 ξ1, from ξ 1 ξ, = O(i-2, 3, ~, n), K' ξ = ξ −λ ξ ξ ξ1=λ ξ
−λ1ξ1 = O (1=1)′ ξ = ξ, −
λ ξ, ξ, 1 ξ.

1       l     1  1  1    
 l= λ 、 ξ 、              
(i≠1 )となる。従って上記に′は、 1λ21〉・・・〉lλr1〉・・・〉lλ。l>0な
る固有値を持つことがわかる。尚、ここではξ、は正規
化されているとしている。
1 l 1 1 1
l=λ, ξ,
(i≠1). Therefore, ' in the above is 1λ21>...>lλr1>...>lλ. It can be seen that it has an eigenvalue of l>0. It is assumed here that ξ is normalized.

このような処理は、前記特性核を に′ −に−λ  ξ・ξ1 ■ として変換したに′に対して、上述した処理を繰返し実
行することによって達せられる。この処理によって絶対
値の大きい固有値とそれに対応する固有ベクトルが順に
求められ、辞書の学習が行われる。
Such processing can be achieved by repeatedly performing the above-mentioned processing on the characteristic kernel converted into -λ ξ·ξ1 (2). Through this processing, eigenvalues with large absolute values and their corresponding eigenvectors are found in order, and dictionary learning is performed.

第21図はこのような計算アルゴリズムに基いて実行さ
れる辞書の学習処理の手続きを示すものである。
FIG. 21 shows a dictionary learning process executed based on such a calculation algorithm.

次に文字認識部21について説明する。Next, the character recognition section 21 will be explained.

この文字認識部21は、スキャナ等によって読取られた
文字を認識する第1の文字認識ブロックと、タブレット
等を介してオンライン入力される文字情報を認識する第
2の文字認識ブロックとによって構成される。
This character recognition unit 21 is composed of a first character recognition block that recognizes characters read by a scanner or the like, and a second character recognition block that recognizes character information input online via a tablet or the like. .

この第1の文字認識ブロックは、例えは!22図に示す
ように、スキャナ等によって読取り入力された画像デー
タを格納する画像メモリ21aと、この画像メモリ21
aに格納された画像データ中から認識対象とする文字が
記載された領域を検出する領域検出部21b、この領域
検出結果に従って前記画像メモリ21aに格納された画
像デー・タウから認識対象とする文字データを抽出する
文字抽出部21c 、’そして標準パターン辞書21d
に予め登録された認識対象文字の各標準文字パターンと
、上記文字抽出部21cにて抽出された文字パターンと
を個々に照合して文字認識する識別部21eとによって
構成される。
This first character recognition block is an analogy! As shown in FIG. 22, an image memory 21a that stores image data read and input by a scanner,
An area detection unit 21b detects an area in which a character to be recognized is written from the image data stored in the image data stored in the image data tau, and a character to be recognized is detected from the image data tau stored in the image memory 21a according to the area detection result. A character extraction unit 21c that extracts data,' and a standard pattern dictionary 21d.
The recognition unit 21e includes an identification unit 21e that performs character recognition by individually comparing each standard character pattern of recognition target characters registered in advance with the character pattern extracted by the character extraction unit 21c.

この文字認識ブロックは、例えば第23図に示すように
FAX送信原稿用紙21f上の所定の位置に設定され、
送信宛先が記入される文字枠21gに記載された文字を
認識するものである。このような送信宛先が記載される
原稿用紙21fは、送信原稿が複数枚からなる場合、そ
の一番最初(1枚目)の原稿として用いられる。そして
この1枚目の原稿の読取り人力された画像データか文字
認識処理の為に前記画像メモリ21aに蓄積される。
This character recognition block is set at a predetermined position on the FAX transmission manuscript paper 21f, for example, as shown in FIG.
It recognizes the characters written in the character box 21g in which the transmission destination is written. The manuscript paper 21f on which such a transmission destination is written is used as the first (first) manuscript when the transmission manuscript consists of a plurality of sheets. Image data obtained by manually reading the first document is stored in the image memory 21a for character recognition processing.

領域検出部21bは、予め定められているFAX送信原
稿用紙21rのフォーマット情報から前記文字枠21g
の位置情報を得、認識対象とする文字が記載される領域
を検出するものである。文字抽出部21cはこの領域検
出情報と、その画像情報の射影パターンの情報とを用い
て、例えば第24図に示すように前記文字枠21gに記
載された文字の画像データを個々に抽出している。
The area detection unit 21b detects the character frame 21g from the predetermined format information of the FAX transmission manuscript paper 21r.
The system obtains position information and detects the area where the character to be recognized is written. The character extraction unit 21c uses this area detection information and the projection pattern information of the image information to individually extract image data of the characters written in the character frame 21g, for example, as shown in FIG. 24. There is.

識別部21eは、例えば特公昭49−t277a号公報
等に開示されるように、抽出された文字画像からその文
字パターンの特徴を抽出し、その抽出した文字パターン
と標準パターン辞書21dに登録さ些た各文字の標準パ
ターンとをパターンマツチングしている。そしてこのパ
ターンマツチングによって照合の取れた標準パターンの
文字カテゴリをその認識結果として求めている。
The identification unit 21e extracts the characteristics of the character pattern from the extracted character image, and compares the extracted character pattern with the features registered in the standard pattern dictionary 21d, as disclosed in, for example, Japanese Patent Publication No. 49-T277a. Pattern matching is performed with the standard pattern of each character. Then, through this pattern matching, the character category of the standard pattern that has been successfully matched is determined as the recognition result.

= 42− 尚、パターンマツチングの手法は種々変形できることは
云うまでもない。
= 42- It goes without saying that the pattern matching method can be modified in various ways.

ところでタブレット等を介してオンライン入力される文
字情報を認識する第2の文字認識ブロックは、例えば第
25図に示すように構成される。
By the way, the second character recognition block that recognizes character information input online via a tablet or the like is configured as shown in FIG. 25, for example.

この第2の文字認識ブロックは、タブレット等を介して
オンライン入力される文字の筆記ストロークを示す位置
座標の系列を順次検出する座標検出回路21hを備えて
いる。
This second character recognition block includes a coordinate detection circuit 21h that sequentially detects a series of position coordinates indicating the writing stroke of a character input online via a tablet or the like.

この座標検出回路21hにて検出された位置座標の時系
列データは前処理回路21iに入力され、前記タブレッ
ト4における検出誤り等の微小な雑音が除去された後、
座標系列記憶回路21jにI咀に記憶され、文字認識処
理に供される。尚、この前処理回路21iにて、例えば
1文字分の文字が入力されたとき、その文字の大きさの
正規化処理等が行われる。
The time series data of the position coordinates detected by the coordinate detection circuit 21h is input to the preprocessing circuit 21i, and after removing minute noises such as detection errors in the tablet 4,
It is stored in the coordinate series storage circuit 21j and subjected to character recognition processing. In this preprocessing circuit 21i, for example, when one character is input, the size of the character is normalized, etc.

また画数検出回路21には、例えば筆記ストロークの途
切れ(位置座標データの時系列の区切り)から、その文
字パターンの筆記ストローク数、ツまり画数を検出して
いる。
Further, the stroke number detection circuit 21 detects the number of written strokes and the number of missed strokes of the character pattern from, for example, breaks in the written strokes (separations in the time series of position coordinate data).

しかして認識処理部21mは、前記画数の情報に従って
標準特徴パターンメモリ2inに登録された認識対象文
字カテゴリの標準パターンの中から、該当する画数の標
準パターンを選択的に抽出している。そしてこの標準パ
ターンの各ストロークの特徴と座標系列記憶回路21j
に記憶された入力文字パターンのストロークの特徴とを
相互に比較(マツチング処理)でいる。答決定回路2i
pはそのマツチング処理結果を判定し、入力文字パター
ンのストロークの特徴に該当するストロークを持つ認識
対象文字カテゴリを、その認識結果として求めている。
Accordingly, the recognition processing unit 21m selectively extracts the standard pattern with the corresponding number of strokes from among the standard patterns of the recognition target character category registered in the standard feature pattern memory 2in according to the information on the number of strokes. The characteristics of each stroke of this standard pattern and the coordinate series storage circuit 21j
The stroke characteristics of input character patterns stored in the input character pattern are compared with each other (matching process). Answer determination circuit 2i
p determines the matching processing result, and obtains a recognition target character category having a stroke that corresponds to the stroke characteristics of the input character pattern as the recognition result.

つまりオンライン入力される文字パターンの筆記ストロ
ークの特徴に従って、そのストロークの特徴を標準文字
パターンのストロークの特徴とマツチング処理して上記
入力文字パターンを認識するものとなっている。
In other words, the input character pattern is recognized by matching the characteristics of the stroke with the stroke characteristics of the standard character pattern according to the characteristics of the writing stroke of the character pattern input online.

尚、ストロークの特徴としては、筆記ストロークを折線
近似したときの端点や交点、折点等の位= 44− 置座標の情報を用いるようにすれば良い。
As for the characteristics of the stroke, information on position coordinates of end points, intersection points, break points, etc. when a written stroke is approximated by a broken line may be used.

以上のような機能を備えた文字認識部21によって、ス
キャナ等を介して読取り入力された文字情報や、タブレ
ット等の位置座標入力装置を介してオンライン入力され
る文字情報がそれぞれ文字認識される。
The character recognition unit 21 having the functions described above recognizes character information read and input via a scanner or the like, and character information input online via a position coordinate input device such as a tablet.

次に図形認識部22について説明する。Next, the figure recognition section 22 will be explained.

この図形認識部22は、例えば第26図に示すように構
成される。入力部22aは、例えば撮像入力された図形
画像を記憶し、図形認識処理に供する。
This figure recognition section 22 is configured as shown in FIG. 26, for example. The input unit 22a stores, for example, a captured and input graphic image, and subjects it to graphic recognition processing.

輪郭追跡部22bは、例えば線分の追跡方向を第27図
に示すように8方向に分け、入力画像中の図形の輪郭を
追跡したときにその追跡方向がどの向きであるかを順に
求めている。具体的には、例えば第28図に示すように
三角形の図形を右回りに追跡し、その追跡の向きの情報
を、例えばr 1,2.〜2,3,4.〜4,5,7.
〜7」なる方向コードの系列として求めている。
The contour tracing unit 22b divides the tracing direction of the line segment into eight directions, for example, as shown in FIG. There is. Specifically, as shown in FIG. 28, for example, a triangular figure is tracked clockwise, and the information on the tracking direction is stored as, for example, r1, 2, . ~2,3,4. ~4,5,7.
~7'' is obtained as a series of direction codes.

セグメンテーション部22cは、このようにして求めら
れる方向コードの系列から、例えばその曲りの部分等の
特異点を抽出し、この特異点に従って該図形の輪郭を複
数の特徴部分に分割している。
The segmentation unit 22c extracts singular points, such as curved parts, from the sequence of direction codes obtained in this way, and divides the outline of the figure into a plurality of characteristic parts according to the singular points.

マツチング部22dはこのようにしてセグメンテーショ
ンされた図形輪郭の情報と、辞書メモリ22eに登録さ
れている各種図形の特徴情報とをマツチング処理して入
力図形を認識するものとなっている。
The matching section 22d recognizes the input figure by matching the information on the figure outline segmented in this way with the characteristic information of various figures registered in the dictionary memory 22e.

例えば第29図に示す図形が与えられた場合には、その
輪郭追跡によって求められる方向コードの系列から、例
えば相互に隣接する3つの輪郭点(1−1) (i) 
(i+1)で方向コードの和を順に求め、これをその中
央の輪郭点iにおける方向コードとして平滑化処理する
。この平滑化処理によってノイズ成分の除去を行なう。
For example, when the figure shown in FIG. 29 is given, from the series of direction codes obtained by contour tracing, for example, three mutually adjacent contour points (1-1) (i)
At (i+1), the sum of the direction codes is calculated in order, and this is smoothed as the direction code at the central contour point i. This smoothing process removes noise components.

しかる後、セグメンテーション部22cにて輪郭の特徴
点である端点、つまり曲りが急峻な点を検出し、その端
点を中心としてその輪郭を分割する。
Thereafter, the segmentation unit 22c detects end points that are characteristic points of the contour, that is, points where the curve is steep, and divides the contour around the end points.

そして分割された輪郭部分毎に辞書メモリ22eと照合
し、その認識結果を求める。
Then, each divided contour portion is compared with the dictionary memory 22e to obtain the recognition result.

以上の処理によって、第30図に例示するように丸図形
は端点が存在しないこと、三角図形は端点が3つ検出さ
れること、四角図形は端点か4つ検出されること等から
、これらの図形がそれぞれ識別認識される。この際、上
記各端点がそれぞれ凸状であることや、端点を結ぶ輪郭
か直線・曲線である等の情報を図形識別に利用しても良
い。
Through the above processing, as shown in Fig. 30, a round figure has no end points, a triangular figure has three end points detected, and a rectangular figure has four end points detected. Each figure is identified and recognized. At this time, information such as that each of the end points is convex, or that the outline connecting the end points is a straight line or a curved line may be used for figure identification.

これに対してイメージ認識部23は次のように構成され
る。
On the other hand, the image recognition section 23 is configured as follows.

第31図はこのイメージ認識部23の概略構成を示すも
ので、原画画像メモリ23a、 2値化装置23b1処
理画像メモリ23c、細線化装置23d、そしてコード
変換装置23eによって構成される。
FIG. 31 shows a schematic configuration of this image recognition section 23, which is composed of an original image memory 23a, a binarization device 23b1, a processed image memory 23c, a thinning device 23d, and a code conversion device 23e.

画像メモリ23aは与えられた認識対象イメージ画像を
記憶するもので、2値化装置23bはこれを2値化処理
して画像メモリ23cに格納している。
The image memory 23a stores a given recognition target image, and the binarization device 23b binarizes it and stores it in the image memory 23c.

この2値化レベルは、例えば2値化画像をディスプレイ
モニタしながら可変設定される。
This binarization level is variably set, for example, while monitoring the binarized image on a display.

しかして細線化装置23dは2値化されたイメージ画像
を細線化処理してそのイメージを線図形化するものであ
る。この細線化処理されたイメージ画像によって前記画
像メモリ23cか書替えられて認識処理に供される。
The line thinning device 23d performs line thinning processing on the binarized image and converts the image into a line figure. The image memory 23c is rewritten with the thinned image and subjected to recognition processing.

コード変換装置23eは、例えば第32図に示すように
構成され、先ずセグメント分割部23fにて上記細線化
画像を複数のセグメントに分割している。このセグメン
トの分割は、例えば線図形をその端点や分岐点、交点に
て分割することによって行われる。曲率変換部23gは
このようにして分割された複数のセグメントについて、
それぞれその曲率を求めている。
The code conversion device 23e is configured as shown in FIG. 32, for example, and first divides the thinned image into a plurality of segments in a segment dividing section 23f. This segment division is performed, for example, by dividing the line figure at its end points, branch points, or intersections. The curvature conversion unit 23g converts the plurality of segments divided in this way,
The curvature of each is found.

直線・曲線分割部23h1曲線分割部231.屈折点分
割部23j、および変曲点分割部23hは、上述した如
く分割された各セグメントを、その曲率の情報に従って
更に分割するもので、これらによって屈折点や直線と曲
線との切替わり点、変曲点、曲線における半径変化点等
がそれぞれ検出される。このようなセグメント分割と特
徴点検出によって前記イメージ線図形を構成する各部の
情報がそれぞれ抽出される。
Straight line/curve dividing section 23h1 curve dividing section 231. The inflection point dividing section 23j and the inflection point dividing section 23h further divide each segment divided as described above according to the information on the curvature thereof, and by these, the inflection point, the switching point between a straight line and a curved line, Points of inflection, points of radius change in the curve, etc. are detected. Through such segment division and feature point detection, information on each part constituting the image line figure is extracted.

近似情報作成部23mは、これらの分割されたセグメン
トおよびそのセグメント中の特徴点の情報を総合して前
記イメージ図形を表現する情報、例えば各セグメントの
始点および終点の位置座標、およびそのセグメントの種
別を特定するコード情報を得る。
The approximate information creation unit 23m synthesizes information on these divided segments and feature points in the segments to express the image figure, such as the position coordinates of the starting point and ending point of each segment, and the type of the segment. Obtain code information that specifies.

例えば入力イメージ画像が第33図(a)に示す如く与
えられた場合、その入力画像中のイメージ線図形23n
を細線化して抽出し、同図(b)に示すようにセグメン
ト分割する。この例では、円図形と四角図形とが直線に
よって所謂串刺しにされたイメージ線図形23nか入力
されている。しかしてこのイメージ線図形23nは、第
33図(b)に示すようにその交点て分割され、2つの
半円と2つのコの字状図形、および4つの直線にセグメ
ント化される。
For example, when an input image is given as shown in FIG. 33(a), the image line figure 23n in the input image
is thinned and extracted, and divided into segments as shown in FIG. 3(b). In this example, an image line figure 23n in which a circular figure and a square figure are skewered by straight lines is input. As shown in FIG. 33(b), the image line figure 23n of the lever is divided at its intersection, and segmented into two semicircles, two U-shaped figures, and four straight lines.

曲率変換部23gは、第34図に示すようにセグメント
分割された各セグメントの曲率を求めており、前記直線
・曲線分割部23h9曲線分割部231.屈折点分割部
23j、および変曲点分割部23hはその曲率変化点か
ら各セグメントの特徴点を検出している。具体的には第
34図(a)に示す例では2つの直線の屈折点における
曲率が急峻に増大することから、その曲率の変化から屈
折点を検出することが可能となる。また第34図(b、
)に示す例では直線から曲線への変化部分で曲率の変化
が検出されるので、この曲率の変化からその特徴点を検
出することができる。
The curvature converting section 23g calculates the curvature of each divided segment as shown in FIG. The refraction point dividing section 23j and the inflection point dividing section 23h detect feature points of each segment from the curvature change points. Specifically, in the example shown in FIG. 34(a), the curvature of the two straight lines at the bending point increases sharply, so it is possible to detect the bending point from the change in the curvature. Also, Fig. 34 (b,
In the example shown in ), a change in curvature is detected at the transition portion from a straight line to a curve, so the feature point can be detected from this change in curvature.

同様にして第34図(c)(d)に示す列でも、その曲
率の変化点から、そのセグメントにおける特徴点を検出
することが可能となる。
Similarly, in the columns shown in FIGS. 34(c) and 34(d), it is possible to detect characteristic points in the segment from the points of change in curvature.

このようにしてイメージ認識部23では、与えられたイ
メージ図形をセグメント化し、各セグメントの特徴点を
検出している。そして該イメージ線図形を複数のセグメ
ントの各種別を示すコード情報とその位置座標として近
似表現して認識するものとなっている。
In this manner, the image recognition unit 23 segments the given image figure and detects the feature points of each segment. Then, the image line figure is approximately expressed and recognized as code information indicating each type of a plurality of segments and their position coordinates.

さて音声照合部17は次のように構成されている。Now, the voice verification section 17 is configured as follows.

この音声照合部17は、音声入力した話者を個人認識(
個人同定)するものであり、例えは第35図に示すよう
に構成される。
This voice matching unit 17 performs individual recognition (
For example, it is configured as shown in FIG. 35.

即ち、音声入力部17aを介して与えられる音声は、音
韻フィルタ17bおよび個人用フィルタ17cにてそれ
ぞれフィルタリングされ、その音声特徴が抽出される。
That is, the speech given through the speech input section 17a is filtered by the phoneme filter 17b and the personal filter 17c, and the speech characteristics are extracted.

音韻フィルタ17bの複数のチャンネルの各帯域は、例
えば第36図(a)に示すように音声周波数帯域を等分
割して設定されている。
Each band of a plurality of channels of the phoneme filter 17b is set by equally dividing the audio frequency band, for example, as shown in FIG. 36(a).

このようなフィルタ特性を備えた音韻フィルタ17bに
よって入力音声の音韻特徴を示す特徴パラメータが抽出
される。尚、各チャンネルの帯域幅を、音声周波数帯域
を対数関数的に分割設定したものとしても良い。
The phonological filter 17b having such filter characteristics extracts feature parameters indicating the phonological characteristics of the input speech. Note that the bandwidth of each channel may be set by dividing the audio frequency band logarithmically.

これに対して個人用フィルタ17cの複数のチャンネル
の各帯域幅は、第36図(b)に示すように音声周波数
帯域を指数関数的に分割して設定されている。このよう
なフィルタ特性を備えた個人用フィルタ17cによって
、前記入力音声の低域から中域にかけての音声特徴が、
高域側の特徴に比較して多く抽出されるようになってい
る。そしてこれらの各チャンネルのフィルタ出力が個人
照合用の特徴パラメータとして求められている。
On the other hand, the bandwidth of each of the plurality of channels of the personal filter 17c is set by exponentially dividing the audio frequency band, as shown in FIG. 36(b). With the personal filter 17c having such filter characteristics, the voice characteristics from the low frequency range to the middle frequency range of the input voice are
This feature is extracted more often than the features on the high frequency side. The filter output of each of these channels is obtained as a feature parameter for personal verification.

しかして単語認識部17dは、前記音韻フィルタ17b
を介して求められた音韻特徴パラメータから、その入力
音声が示す単語を単語辞書17eを参照して認識するも
のである。この単語認識の機能は前述した音声認識部1
9と同様であり、該音声認識部19の機能をそのまま利
用するようにしても良い。
Therefore, the word recognition unit 17d uses the phonological filter 17b.
The word indicated by the input speech is recognized from the phoneme feature parameters obtained through the phonological feature parameter with reference to the word dictionary 17e. This word recognition function is performed by the voice recognition unit 1 mentioned above.
9, and the function of the voice recognition unit 19 may be used as is.

そしてこの単語認識結果に従って個人辞書17fの個人
照合に供される辞書が選択される。この個人辞書17f
は、話者照合の対象とする個人が予め発声した特定の単
語の前記個人用フィルタ17cによる分析結果を、その
単語毎に分類して登録したものである。
Then, according to the word recognition result, a dictionary to be used for personal verification in the personal dictionary 17f is selected. This personal dictionary 17f
is the result of the analysis by the personal filter 17c of a specific word uttered in advance by an individual targeted for speaker verification, classified and registered for each word.

しかして話者照合部17gは、個人辞書17fから選択
された該当単語の各特徴パラメータと、前記個人用辞書
17cにて求められた入力音声の特徴パラメータとの類
似度を計算し、その類似度値を所定の閾値でそれぞれ弁
別している。そしてそれらの弁別結果を相互に比較して
、例えば類似度値が最も高く、次に高い類似度値との差
が十分にある特徴パラメータを得た個人カテゴリを該入
力音声の発声者であるとして個人同定している。
The speaker verification unit 17g calculates the degree of similarity between each feature parameter of the corresponding word selected from the personal dictionary 17f and the feature parameter of the input voice found in the personal dictionary 17c, and calculates the degree of similarity. The values are discriminated using predetermined thresholds. Then, by comparing these discrimination results with each other, for example, a personal category with the highest similarity value and a feature parameter with a sufficient difference from the next highest similarity value is determined to be the speaker of the input voice. Personally identified.

ここで個人用フィルタ17cの特性について更に詳しく
説明すると、前述したように音韻特徴フィルタ17bと
は異なる特性に設定されている。この音声の個人性の識
別性について考察してみると、その識別性は、例えは F比−(個人間分散)/(個人内分数)として与えられ
るF比によって評価することができる。
Here, the characteristics of the personal filter 17c will be explained in more detail.As mentioned above, the characteristics are set to be different from those of the phoneme feature filter 17b. Considering the distinctiveness of the individuality of this voice, the distinctiveness can be evaluated, for example, by the F ratio given as F ratio - (inter-individual variance)/(intra-individual fraction).

今、音韻フィルタ17bに設定されたフィルタ特性の各
チャンネル出力のF比について検討すると、第37図に
実線で示す指数関数的な傾向を示す。
Now, when considering the F ratio of each channel output of the filter characteristics set in the phonetic filter 17b, an exponential trend is shown by the solid line in FIG. 37.

これ故、従来では専ら高域側の音声特徴情報を利用して
個人照合を行なっている。
For this reason, in the past, individual verification has been performed exclusively using voice feature information on the high frequency side.

しかし音声の高域側の特徴だけを用いるよりも、全周波
数帯域の音声特徴を用いて個人同定が可能であれば、そ
の照合精度が更に向上すると考えられる。即ち、全周波
数帯域においてF比の値が1以」二となり、個人間分散
が個人内分数を上回れば、更に精度の高い個人照合が可
能となる。
However, if it is possible to identify individuals using voice features in the entire frequency band, rather than using only high-frequency features of the voice, it is thought that the matching accuracy will be further improved. That is, if the value of the F ratio is 1 or more in all frequency bands and the inter-individual variance exceeds the intra-individual fraction, more accurate individual matching becomes possible.

そこでここでは、前述したように個人用フィルタ17c
の特性を指数関数的に定め、個人性の特徴か顕著である
高域側については大雑把に特徴抽出し、低域側のチャン
ネル割当て数を増やすことによって該低域側の音声特徴
を細かく抽出するようにしている。
Therefore, here, as mentioned above, the personal filter 17c
The characteristics of the voice are determined exponentially, and the characteristics of the high frequency range, which is a prominent individual characteristic, are roughly extracted, and the audio characteristics of the low frequency range are extracted finely by increasing the number of channels allocated to the low frequency range. That's what I do.

具体的には各チャンネルのF比の変化が指数関数的な傾
向を示すことから、低域側チャンネルの帯域幅に比較し
て高域側チャンネルの帯域幅を指数関数的に増大させた
フィルタバンクを構成し、これを個人用フィルタ17c
としている。
Specifically, since the change in F ratio of each channel shows an exponential tendency, a filter bank in which the bandwidth of the high frequency channel is increased exponentially compared to the bandwidth of the low frequency channel. and configure this as personal filter 17c
It is said that

このように構成されたフィルタ17cの各チャンネル出
力によれば、そのF比は第37図に破線で示すようにな
り、中域でのF比の大幅な向上が認められる。この結果
、高域側の音声特徴のみならず、中域における音声特徴
をも積極的に利用して個人照合を行なうことが可能とな
り、その照合精度の向上を図ることが可能となる。
According to each channel output of the filter 17c configured in this way, the F ratio is as shown by the broken line in FIG. 37, and a significant improvement in the F ratio in the middle range is recognized. As a result, it becomes possible to carry out individual verification by actively utilizing not only the voice characteristics in the high frequency range but also the voice characteristics in the middle frequency range, and it becomes possible to improve the verification accuracy.

即ち、この音声照合部17では、入力音声の単語認識に
供する特徴とは別に、フィルタバンクの工夫によりその
個人性が顕著に現われる特徴情報を抽出している。この
結果、入力音声に対する音韻認識とは独立にその話者に
対する個人同定、つまり個人照合を高精度に行なうもの
となっている。
That is, in addition to the features used for word recognition of the input speech, the speech matching section 17 uses a filter bank to extract feature information that clearly reveals the individuality of the input speech. As a result, the individual identification of the speaker, that is, the individual verification, is performed with high precision independently of the phoneme recognition of the input speech.

次に音声合成部26について説明する。Next, the speech synthesis section 26 will be explained.

音声合成部26は、第38図に示すように判別器26a
、復号器26b、規則パラメータ生成装置28c、およ
び音声合成器2Bdを備えて構成される。
The speech synthesis section 26 includes a discriminator 26a as shown in FIG.
, a decoder 26b, a rule parameter generation device 28c, and a speech synthesizer 2Bd.

判別器28aは入力されたコード列が文字列であるか、
或いは音声合成の為の分析パラメータを示す符号列かを
判定するものである。この情報判別は、例えば入力コー
ド列の一番最初に付加された識別情報を判定することに
よって行われる。そして分析パラメータであると判定し
た場合には、その符号列を復号器26bに与え、これを
復号処理してその音韻パラメータと韻律パラメータとを
それぞれ求めている。
The discriminator 28a determines whether the input code string is a character string or not.
Alternatively, it is determined whether it is a code string indicating an analysis parameter for speech synthesis. This information discrimination is performed, for example, by determining the identification information added at the beginning of the input code string. When it is determined that the code string is an analysis parameter, the code string is provided to the decoder 26b, and it is decoded to obtain its phonetic parameters and prosodic parameters.

また文字列と判定した場合には、その文字列データを規
則合成パラメータ生成装置18cに与え、その音韻パラ
メータと韻律パラメータとの生成に供している。
Further, when it is determined that the character string is a character string, the character string data is provided to the rule synthesis parameter generation device 18c to generate its phonetic parameters and prosody parameters.

音声合成器26dは、このようにして復号器2[ibま
たは規則合成パラメータ生成装置26cにて求められた
音韻パラメータと韻律パラメータとに従い、音源波を声
道近似フィルタを介して処理して合成音声波を生成して
いる。
The speech synthesizer 26d processes the sound source wave through the vocal tract approximation filter to generate synthesized speech according to the phonological parameters and prosodic parameters thus obtained by the decoder 2[ib or the rule synthesis parameter generation device 26c. generating waves.

ここで規則合成パラメータ生成装置2[icについて更
に説明すると、該装置26cは第39図に示す如く構成
されている。文字列解析部26eは言語辞書26を参照
して入力文字列中の単語を個々に同定し、その単語につ
いてのアクセント情報や単語・文節境界、品詞・活用等
の文法情報を求めている。
To further explain the rule synthesis parameter generation device 2[ic, the device 26c is configured as shown in FIG. 39. The character string analysis unit 26e identifies each word in the input character string with reference to the language dictionary 26, and obtains grammatical information such as accent information, word/clause boundaries, part of speech, and conjugation for the word.

そしてこの解析結果に対して音韻規則、および韻律規則
がそれぞれ適用され、その制御情報が生成される。
Then, phonological rules and prosodic rules are applied to the analysis results, and control information thereof is generated.

ここで音韻規則は、解析された単語の読みの情報を与え
ると共に、単語の連接によって生じる連濁や無声化等の
現象を実現し、その音韻記号列を生成するものである。
Here, the phonological rules provide information on the pronunciation of the analyzed words, realize phenomena such as rendaku and devoicing that occur due to word concatenation, and generate the phonological symbol strings.

音声パラメータ生成部28gはこの音韻記号列を入力し
、その音節単位に従っ−56= てC■ファイル2611から音節パラメータを順次求め
て補間結合している。この音声パラメータ生成部26g
にて上記音韻記号列から音韻パラメータ系列が生成され
る。
The speech parameter generation unit 28g inputs this phoneme symbol string, and sequentially obtains syllable parameters from the C■ file 2611 according to the syllable unit, and interpolates and combines them. This audio parameter generation section 26g
A phoneme parameter sequence is generated from the phoneme symbol string.

また韻律規則は、単語・文節境界等の文法情報に従って
発話の境界や息継ぎ位置を決定し、各音の継続時間長や
ポーズ長等を決定するものである。
Prosodic rules determine the boundaries of utterances and breath positions according to grammatical information such as word and clause boundaries, and determine the duration of each sound, pause length, etc.

同時にこの韻律規則により、各単語の基本アクセントを
ベースとし、その文節アクセントを考慮した韻律記号列
が生成される。韻律パラメータ生成部2Biはこの韻律
記号列を入力し、ピッチの時間変化パターンを表わす韻
律パラメータ列を生成している。
At the same time, this prosodic rule generates a prosodic symbol string that is based on the basic accent of each word and takes into account its clause accent. The prosodic parameter generation unit 2Bi inputs this prosodic symbol string and generates a prosodic parameter string representing a temporal change pattern of pitch.

一方、入力コード列が音声合成の為の分析パラメータを
示す符号列である場合、前記復号器2ebは次のように
機能している。
On the other hand, when the input code string is a code string indicating analysis parameters for speech synthesis, the decoder 2eb functions as follows.

即ち、分析パラメータの符号列がCVファイルのケプス
トラム係数を示す場合、その符号列28mは一般に第4
0図に示すようにパラメータP(ピッチ)とC8,C1
,〜C,(ケプストラム係数)に−57一 対してビット割当てがなされて情報圧縮されている。そ
こで復号器26bではパラメータ変換テーブル26nを
用い、上記情報圧縮された分析パラメータを音声合成器
28dに合せたビット数に変換・復号している。例えは
各パラメータをそれぞれ8ビツトに変換し、音韻パラメ
ータ列(ケプストラム係数)とその韻律パラメータ列(
ピッチ)とをそれぞれ求めている。
That is, when the code string of the analysis parameter indicates the cepstral coefficient of the CV file, the code string 28m is generally the fourth
As shown in figure 0, the parameter P (pitch) and C8, C1
, ~C, (cepstral coefficients) are assigned bits of -57 and information is compressed. Therefore, the decoder 26b uses a parameter conversion table 26n to convert and decode the information-compressed analysis parameters into a bit number matching the speech synthesizer 28d. For example, each parameter is converted to 8 bits, and the phonological parameter sequence (cepstral coefficients) and its prosodic parameter sequence (
pitch).

音声合成器2Bdは、例えは第41図に示すように有声
音源26qと無声音源(M系列発生器)26rとを備え
、入力される韻律パラメータ列のピッチデータPに従っ
て有声音源波(P≠0)、または無声音源波(P=O)
を選択的に発生している。
The speech synthesizer 2Bd includes a voiced sound source 26q and an unvoiced sound source (M-sequence generator) 26r, as shown in FIG. 41, for example, and generates a voiced sound source wave (P≠0 ), or silent sound source wave (P=O)
are occurring selectively.

この音源波は前置増幅器28sに入力され、前記音韻パ
ラメータのケプストラム係数Cに応じてしベル制御され
て対数振幅近似ディジタルフィルタ2[itに入力され
る。この対数振幅近似ディジタルフィルタ26tは前記
音韻パラメータのケプストラム係数01.〜Cmに従っ
て声道特性を近似する共振回路を構成し、上記音源波を
フィルタリング処理するものである。この対数振幅近似
ディジタルフィルタ2Eitにて前記音韻パラメータお
よび韻律パラメータで示される音声データが合成出力さ
れる。
This sound source wave is input to the preamplifier 28s, subjected to signal control according to the cepstrum coefficient C of the phoneme parameter, and input to the logarithmic amplitude approximation digital filter 2[it]. This logarithmic amplitude approximation digital filter 26t has a cepstrum coefficient of 01. A resonant circuit is configured to approximate the vocal tract characteristics according to ~Cm, and the above-mentioned sound source wave is filtered. This logarithmic amplitude approximation digital filter 2Eit synthesizes and outputs speech data indicated by the phoneme parameters and prosody parameters.

そして対数振幅近似ディジタルフィルタ2Gtにて合成
された信号は、D/A変換器2[iuを介した後、L 
P F 2Bvを介してフィルタリングされて合成音声
信号(アナログ信号)として出力される。
The signal synthesized by the logarithmic amplitude approximation digital filter 2Gt is then passed through the D/A converter 2[iu, then L
The signal is filtered through P F 2Bv and output as a synthesized audio signal (analog signal).

以上のように構成された音声合成部26にて、入力デー
タ系列からそのデータ系列が示す音声が規則合成されて
出力される。
In the speech synthesis section 26 configured as described above, the speech indicated by the input data series is synthesized according to the rules and output.

次にイメージ合成部27について説明する。Next, the image composition section 27 will be explained.

イメージ合成部27は、第42図に示すように制御計算
機27a、ディスプレイファイルメモリ27b、イメー
ジ合成回路27c、イメージメモリ27d、そして必要
に応じてディスプレイ27eを偏えて構成される。
As shown in FIG. 42, the image synthesis section 27 includes a control computer 27a, a display file memory 27b, an image synthesis circuit 27c, an image memory 27d, and, if necessary, a display 27e.

尚、このディスプレイ27eは、該ワークステーション
について準偏された前記ディスプレイ部10であっても
良い。
Note that this display 27e may be the display section 10 that is semi-biased with respect to the workstation.

イメージ合成回路27は、専用の制御計算機27aの制
御の下でディスプレイファイル27bに書込まれている
ベクトルや多角形・円弧のパラメータを読出し、それに
よって示される線図形を発生してイメージ・メモリ27
dの指定されたアドレスに書込んでいる。このイメージ
合成回路27のイメージ発生機能によってイメージメモ
リ27d上に指定された線図形イメージが構築される。
The image synthesis circuit 27 reads parameters of vectors, polygons, and arcs written in the display file 27b under the control of a dedicated control computer 27a, generates line figures indicated by the parameters, and stores them in the image memory 27.
Writing to the specified address of d. The image generation function of the image synthesis circuit 27 constructs a designated line graphic image on the image memory 27d.

そしてこの線図形イメージは、制御計算機27aの制御
の下で前記ディスプレイ27eにて表示されてモニタさ
れる。
This line graphic image is displayed and monitored on the display 27e under the control of the control computer 27a.

またイメージ発生回路27bは、イメージ発生に対する
特殊処理機能と塗潰し処理機能とを備えている。この特
殊処理機能は、例えば複数のイメージ図形の重なりに対
して隠線の消去を行なったり、クリッピング処理を行な
う等の機能からなる。また塗潰し機能は、イメージ図形
の部分領域を指定された色を用いて塗潰す処理からなる
Further, the image generation circuit 27b has a special processing function for image generation and a filling processing function. This special processing function includes, for example, functions such as removing hidden lines from overlapping image figures and performing clipping processing. The filling function consists of filling a partial area of an image figure with a specified color.

このようなイメージ合成回路27bの機能によって、種
々のイメージ図形が作成され、またその合成処理等が行
われる。
Through the functions of the image synthesis circuit 27b, various image figures are created and their synthesis processing is performed.

ところで−L述した如く発生したイメージ図形と自然画
との合成は次の2つに大別される。その1つは、例えば
風景写真等の自然画を背景として、その中に計算機処理
によって求められたイメージ画像を埋め込み合成する処
理であり、他の1つのは計算機が内部モデルとして持っ
ている成る平面イメージ内に自然画を埋め込み合成する
処理からなる。
By the way, as described above, the synthesis of generated image figures and natural pictures can be roughly divided into the following two types. One is the process of embedding and compositing an image obtained by computer processing into a natural picture such as a landscape photograph, and the other is a process of composing a natural picture, such as a landscape photograph, into the background. It consists of the process of embedding and compositing a natural image within an image.

ここで前者の自然画中にイメージ画像を埋め込み処理す
る場合には、例えば第43図にその概念を例示するよう
に、計算機が発生する図形中に「透明色」を示すコード
を与えておき、これを自然画に対して重ね合せて合成す
ることによって達せられる。すると「透明色」コードが
与えられた画像領域は、自然画の情報がそのまま表示さ
れることになり、その他の部分は計算機が発生した図形
が表示されることになる。この結果、自然画を背景とし
たイメージ合成が実現されることになる。
In the case of embedding an image in the former natural image, for example, as shown in FIG. 43, a code indicating "transparent color" is given to the figure generated by the computer. This can be achieved by superimposing and compositing the natural image. Then, in the image area given the "transparent color" code, the information of the natural image will be displayed as is, and in the other parts, the computer-generated figure will be displayed. As a result, image synthesis using a natural image as a background is realized.

この手法はオーバーレイと称される。This technique is called overlay.

これに対して第44図にその概念を示すように画像メモ
リ内に自然画を書込んでおき、その上(手前)に計算機
が発生した図形を書込んで行くようにしても良い。この
手法は2バツフア法と称されるものであり、前述したオ
ーバーレイ法と共に比較的簡単に実現することができる
On the other hand, as the concept is shown in FIG. 44, a natural image may be written in the image memory, and a figure generated by a computer may be written on top (in front) of the natural image. This method is called a two-buffer method, and can be implemented relatively easily together with the above-mentioned overlay method.

ところで計算機の内部モデルとして示される平面内に自
然画を嵌め込み合成する後者の場合には、次のようにし
て高速処理される。
By the way, in the latter case, in which a natural image is inserted and synthesized within a plane shown as an internal model of a computer, high-speed processing is performed as follows.

平面−ヒにある自然画を、3次元空間内の任意の方向を
向いている平面に埋め込む為に必要な座標変換は次式で
与えられる。
The coordinate transformation required to embed a natural image on plane -H into a plane facing in an arbitrary direction in three-dimensional space is given by the following equation.

C4X十C5Y十06 但し、X、Yは表示面での座標であり、u、vは自然画
での座標である。
C4X0C5Y106 However, X and Y are the coordinates on the display surface, and u and v are the coordinates on the natural image.

この座標変換処理をそのまま実行しようとすると、1画
素を表示する毎に6回の乗算と2回の除算が必要となり
、膨大な計算量と計算処理時間を必要とする。
If this coordinate conversion process were to be executed as is, six multiplications and two divisions would be required each time one pixel is displayed, which would require an enormous amount of calculation and calculation processing time.

そこでここでは、次のような中間座標(s、t)を介し
て上述した演算を2回の変換処理に分解して実行するも
のとなっている。この演算処理は、例えばアフィン変換
を利用して高速に実行される。
Therefore, here, the above-mentioned calculation is divided into two conversion processes and executed using the following intermediate coordinates (s, t). This arithmetic processing is executed at high speed using, for example, affine transformation.

u、= (α S+α2 +αg”) / t    
(1)■ v =、 (α S+α  +α9)/1s−C5X−
C4Y          (2)t−C4X十C5Y
十C6 即ち、上述した第(1)式を用いて透視変換を行い、そ
の後、第(2)式を用いて2次元アフィン変換を行なっ
て任意の平面への透視変換を高速に行なうものとなって
いる。
u, = (α S + α2 + αg”) / t
(1) ■ v =, (α S+α + α9)/1s-C5X-
C4Y (2) t-C4X+C5Y
10C6 In other words, perspective transformation is performed using equation (1) above, and then two-dimensional affine transformation is performed using equation (2) to perform perspective transformation to an arbitrary plane at high speed. ing.

ここで、第(1)式の分母は座標tそのものであるから
、従来より知られているアフィン変換回路を若干改良す
るだけでその演算を高速に実行することが容易である。
Here, since the denominator of equation (1) is the coordinate t itself, it is easy to perform the calculation at high speed by simply slightly improving the conventionally known affine transformation circuit.

・ このようにしてイメージ合成部27では種々のイメージ
合成処理を高速に実行するものとなっている。
- In this way, the image compositing section 27 executes various image compositing processes at high speed.

次に出力形態選択部24について説明する。Next, the output format selection section 24 will be explained.

この出力形態選択部24はメディア選択要求信号を受け
て起動され、どのメディアを通じてデータ出力するかを
選択するものである。つまり種々のメディアのうち、ど
のメディアを通じて情報伝送するかを選択するものであ
る。
The output format selection section 24 is activated upon receiving a media selection request signal, and selects which medium is to be used to output data. In other words, it selects which of various media should be used to transmit information.

第45図はこの出力形態選択部24の概略構成図であり
、メディア選択制御部24a、入力メディア判定部24
b、相手メディア判定部24C,メディア変換テーブル
24d、および自己メディア機能テーブル24eを備え
て構成される。また第46図はこの出力形態選択部24
の処理の流れを示すものである。この処理手続きの流れ
に沿って該出力形態選択部240機能を説明する。
FIG. 45 is a schematic diagram of the output format selection section 24, in which the media selection control section 24a, the input media determination section 24
b, a partner media determination unit 24C, a media conversion table 24d, and a self-media function table 24e. Also, FIG. 46 shows this output format selection section 24.
This shows the flow of processing. The functions of the output format selection unit 240 will be explained along the flow of this processing procedure.

メディア選択要求信号か与えられるとメディア選択制御
部2.4aは前記制御部2に対してメディア選択動作に
必要な入力メディア情報の提供を要求する。そして入力
メディア判定部24bに対してメディア情報検出要求と
メディア機能識別要求を発する。
When the media selection request signal is given, the media selection control section 2.4a requests the control section 2 to provide input media information necessary for media selection operation. Then, it issues a media information detection request and a media function identification request to the input media determining unit 24b.

入力メディア判定部24bはメディア検出部24fとメ
ディア識別部24gとによって構成され、上記メディア
選択制御部24aによる情報要求を受けて制御部2から
与えられる人力メディアを検出し、且つその検出メディ
アの機能を識別判定するものとなっている。この入力メ
ディア判定部24bは、例えば入力メディアが音声であ
る場合、そのメディアの機能がADPCMである等とし
て識別判定する。
The input media determining section 24b is composed of a media detecting section 24f and a media identifying section 24g, and detects the manual media given from the control section 2 in response to an information request from the media selection control section 24a, and also determines the function of the detected media. It is designed to identify and judge. For example, when the input media is audio, the input media determining unit 24b identifies and determines that the function of the media is ADPCM.

しかる後、メディア選択制御部24aは制御部2に対し
てそのデータ出力の相手先が自己端末(ワークステーシ
ョン内)の他の機能ブロックであるか、或いは通信回線
等を介して接続される別のワークステーションや通信端
末であるかを間合せる。
Thereafter, the media selection control section 24a informs the control section 2 whether the destination of the data output is another functional block of its own terminal (within the workstation) or another function block connected via a communication line or the like. Determine whether it is a workstation or communication terminal.

そして別のワークステーションや通信端末に対してデー
タ出力することが指示されると、メディア選択制御部2
4aは送信相手局に関する識別情報を制御部2に対して
要求する。この要求を受けてデータ出力する相手局に関
する情報が相手メディア判定部24cに入力される。
When an instruction is given to output data to another workstation or communication terminal, the media selection control unit 2
4a requests the control unit 2 for identification information regarding the destination station. In response to this request, information regarding the partner station that outputs data is input to the partner media determining section 24c.

相手メディア判定部24cは、相手局識別部24h。The partner media determining section 24c is a partner station identifying section 24h.

相手局メディア識別部2411機能識別部24jを備え
て構成され、前記メディア選択制御部24aからの識別
情報判定要求を受けて作動する。そして相手局に対する
識別情報から、先ず相手局を識別し、相手局のメディア
を識別する。そしてその相手局メディアの機能を識別す
る。
The partner station media identification unit 2411 is configured to include a function identification unit 24j, and operates upon receiving an identification information determination request from the media selection control unit 24a. Then, first, the partner station is identified from the identification information for the partner station, and the media of the partner station is identified. Then, the function of the partner station's media is identified.

具体的には、例えばデータ出力(送信)する相手局が自
動FAXであり、その通信メディアがイメージであって
、その機能がG■タイプである等を識別する。尚、この
相手局の識別は、相手局からそのネゴツェーション(ハ
ンドシェーク)機能を用いて送られてくる情報に基いて
行うよにしても良い。またネゴツエーション機能がない
場合には、そのメディア検出機能を機能識別部24jに
持たせておけは良い。このようにすれば相手側からのメ
ゾ゛イア情報信号に従ってその機能識別を行なうことが
可能となる。
Specifically, for example, it is determined that the destination station to which data is to be outputted (transmitted) is an automatic FAX, its communication medium is an image, and its function is G type. Note that this identification of the partner station may be performed based on information sent from the partner station using its negotiation (handshake) function. Furthermore, if there is no negotiation function, it is preferable to provide the function identification section 24j with the media detection function. In this way, it is possible to identify the function according to the media information signal from the other party.

第47図はこの相手局の識別処理手続きの流れを示すも
のである。この流れに示されるように、例えは通信相手
局か電話か否かを判定し、電話である場合にはFAX信
号が到来するか否かを判定する。
FIG. 47 shows the flow of this partner station identification processing procedure. As shown in this flow, for example, it is determined whether the communication partner station is a telephone or not, and if it is a telephone, it is determined whether or not a FAX signal arrives.

そして相手局が電話であり、FAX信号が到来する場合
には、これを相手機器がFAXであると識別すれば良い
。また電話であると判定され、FAX信号が到来しない
場合には、相手機器は通常の電話であると判定すれば良
い。更に電話でないと判定された場合には、相手機器は
電話以外の他の通信機器であると判定するようにすれは
良い。
If the other party's station is a telephone and a FAX signal arrives, it is sufficient to identify this as the other party's device being a fax machine. Further, if it is determined that the device is a telephone and no FAX signal arrives, it may be determined that the other party's device is a normal telephone. Furthermore, if it is determined that the device is not a telephone, it may be determined that the other party's device is a communication device other than a telephone.

このようにして通信相手局のメディアが識別判定される
と、次にメディア選択制御部24aは、例えば第48図
に示すように構成されたメディア変換テーブル24dを
参照して、入力メディア、入力機能、相手機器、相手機
器メディア、相手機器の機能に対応したメディア変換選
択情報を得る。
When the media of the communication partner station is identified in this way, the media selection control unit 24a then refers to the media conversion table 24d configured as shown in FIG. 48, and selects the input media and input function. , obtain media conversion selection information corresponding to the destination device, the destination device media, and the function of the destination device.

例えば入力メディアが音声で、その機能がAD−PCM
であり、相手機器がGmタイプのFAXである場合、相
手機器のメディアがイメージであること、そして主なメ
ディア変換機能が(音声)to(コード文字)    
 ・= 67− (コード文字)  to  (イメージ)であること等
が求められる。同時にそのその変換機能か、 (ADPCM、音声)to  (GIII;FAX)に
よって実現できることが求められる。この際、従属的な
メディア変換情報が存在すれは、これも同時に求められ
る。
For example, the input media is audio and its function is AD-PCM.
If the destination device is a Gm type fax, the media of the destination device is an image, and the main media conversion function is (voice) to (code character).
・= 67- (code character) to (image) etc. is required. At the same time, it is required that the conversion function can be realized by (ADPCM, voice) to (GIII; FAX). At this time, if dependent media conversion information exists, this information is also obtained at the same time.

このようにして求められたメディア変換情報か制御部2
に与えられ、前記データ出力の形式が選択的に指定され
る。
Whether the media conversion information obtained in this way is
and selectively specifying the format of the data output.

尚、データ出力が自己のワークステーション内部に対し
て行われる場合には、メディア選択制御部24aは自己
メディア機能テーブル24eを参照して、データ出力が
可能な出力形式を求める。この情報に従ってメディア選
択制御部24aは前記メディア変換テーブル24dの自
己メディア変換テーブルを参照し、同様にしてメディア
変換情報を求め、これを制御部2に与える。
In addition, when data output is to be performed inside the own workstation, the media selection control unit 24a refers to the own media function table 24e to find an output format in which the data can be output. According to this information, the media selection control section 24a refers to its own media conversion table of the media conversion table 24d, similarly obtains media conversion information, and provides this to the control section 2.

このようにして求められるメディア変換情報に従って、
例えば前述した音声合成部26を用いて文字コードの系
列で与えられる文章情報を音声情報に変換してデータ出
力したり、或いは音声認識部19を用いて音声情報を文
字コード系列の情報に変換してデータ出力することにな
る。
According to the media conversion information obtained in this way,
For example, the above-mentioned speech synthesis section 26 may be used to convert text information given as a character code series to speech information and output as data, or the speech recognition section 19 may be used to convert speech information to character code series information. The data will be output.

次にデータベース部32について説明する。Next, the database section 32 will be explained.

データベース部32はコードやイメージ、音声等の各種
のデータを整理して格納し、これを種々の応用システム
に供するものである。第49図はこのデータベース部3
2の概略構成を示すもので、コマンドの解析処理等を実
行するインターフェース部32a1データベースの検索
処理等を実行するデータ操作部32b2種々のデータを
格納する記憶媒体としての磁気ディスク装置32cや光
デイスク装置32d、そしてその付加機能部32eとに
よって構成される。
The database unit 32 organizes and stores various data such as codes, images, and sounds, and provides this data to various application systems. Figure 49 shows this database section 3.
2 shows a schematic configuration of an interface section 32a that executes command analysis processing, etc., a data operation section 32b that executes database search processing, etc., 2 a magnetic disk device 32c or an optical disk device as a storage medium for storing various data. 32d, and its additional functional section 32e.

種々のデータは、そのデータの種別に従って複数のりレ
ーションに分類整理され、各リレーション毎にそれぞれ
登録されてデータベースが構築されている。
Various data are classified and organized into a plurality of relations according to the data type, and a database is constructed by registering each relation.

以下、このデータベース部32を、その論理構造、蓄え
られるデータ、物理構造、および付加機能の4つに分け
て説明する。
The database unit 32 will be explained below by dividing it into four parts: its logical structure, stored data, physical structure, and additional functions.

論理構造とはこのデータベース部32を応用システム側
から見た場合、種々のデータかどのように蓄積されてい
るかを示すものである。ここではリレーショナル・モデ
ルに従った論理構造として、例えば第50図に示すよう
な表のイメージとしてデータか取扱われるようになって
いる。
The logical structure indicates how various data are stored when the database unit 32 is viewed from the application system side. Here, data is handled as a logical structure according to the relational model, for example, as an image of a table as shown in FIG.

表(リレーション)には幾つかの欄(アトリビュート)
か設けられており、これらの各欄に所定の単位のデータ
がそれぞれ格納される。データの単位(タラプル)は、
各欄に格納すべき1組の値として定められる。このよう
なタラプルを格納した任意個数のアトリビュートによっ
て1つのりレーションが構築される。
A table (relation) has several columns (attributes)
Data in a predetermined unit is stored in each column. The unit of data (Tarapur) is
It is defined as one set of values to be stored in each column. One relation is constructed by an arbitrary number of attributes storing such Tara pulls.

しかしてこのモデルにあっては、リレーション名を指定
し、その各アトリビュートの値をそれぞれ与えることに
よってデータベースへのデータの格納が行われる。また
データベースの検索は、リレーションおよびアトリビュ
ートを指定し、そこに格納されている値が指定された値
、または別のアトリビュートに格納されている値との間
で所定の条件を満すか否かを判定し、その条件を満すタ
ラプルを抽出することによって行われる。
However, in this model, data is stored in the database by specifying a relation name and giving values for each of its attributes. Database searches also specify relations and attributes, and determine whether the value stored there satisfies a predetermined condition with the specified value or the value stored in another attribute. This is done by extracting Tarapuls that satisfy the conditions.

この検索条件は、それらの値が等しい、等しくない、小
さい、大きい等として与えられる。この際、複数のアト
リビュートについてそれぞれ検索条件を指定し、その条
件判定結果を論理処理(アンドやオア等)して行なうこ
とも可能である。更には、複数ありレーションを指定し
、成るリレーションの成るアトリビュートの値が他のリ
レーションの成るアトリビュートの値に等しい等の条件
により、複数のりローション中から所定のタラプルを求
めるようなデータベース検索も可能である。
This search condition is given as the values being equal, unequal, smaller, larger, etc. At this time, it is also possible to specify search conditions for each of a plurality of attributes and perform logical processing (AND, OR, etc.) on the results of the condition determination. Furthermore, it is also possible to perform a database search to find a predetermined combination among multiple relations by specifying multiple relations and using conditions such as the value of the attribute of one relation being equal to the value of the attribute of another relation. be.

またデータベースからのデータ削除は、基本的には上記
検索と同様に行われるが、タラプルを抽出することに代
えて、そのタラプルを抹消することによって行われる。
Furthermore, data deletion from the database is basically performed in the same manner as the above search, but instead of extracting the data, the data is deleted by deleting the data.

更にデータ更新も同様であり、得られたタラプルの指定
されたアトリビュートの値を変更し、これを格納するこ
とによって行われる。
Furthermore, the same applies to data updating, which is performed by changing the value of a specified attribute of the obtained Tara pull and storing it.

また各リレーションには、各アトリビュート毎にデータ
の読出し、追加、変更が許可された人の情報(人名や担
当者コード)等が記入され、データ保護の対策が講じら
れている。尚、・このデータ保護対策をアトリビュート
毎に行なうことに代えて、リレーション単位で行なうこ
とも可能である。
In addition, in each relation, information (person name, person in charge code), etc. of the person who is permitted to read, add, or change data for each attribute is entered, and data protection measures are taken. Note that instead of taking this data protection measure for each attribute, it is also possible to take it for each relation.

尚、ここに記載される人の情報は複数であっても良い。It should be noted that there may be more than one person's information listed here.

しかして第50図に示すリレーションの例では、文字列
としてそのデータが示されているが、各リレーションに
蓄積されるデータは単なるビット列であっても良い。つ
まりリレーションに蓄積されるデータは文字列は勿論の
こと、イメージ情報や音声情報等であっても良い。
In the relation example shown in FIG. 50, the data is shown as a character string, but the data stored in each relation may also be a simple bit string. In other words, the data stored in the relation may be not only character strings, but also image information, audio information, and the like.

さてこのデータベースに蓄積されるデータは、上述した
第50図に示す1個人スケジュール」のりレーションを
初めとして、例えは第51図に示すような「住所録」 
「個人の仕事とその代行者」「操作履歴」 「人事」 
「会議室」 「会議室予約」「会議」等の種々の“リレ
ーションからなる。
Now, the data stored in this database includes, for example, the "one-person schedule" shown in Figure 50 mentioned above, as well as the "address book" shown in Figure 51.
“Individual work and its agents” “Operation history” “Human resources”
It consists of various "relationships" such as "conference room,""conference room reservation," and "conference."

この例に示されるようにり・レーションは、主に個人用
として用いられるものと、多くの利用者によって共通に
利・用されるものとからなる・。そして個人用のりレー
ションは各個人が使用するワー・クステーション毎に設
けられ、′また共通りレーションは複数の利用者にとっ
て共通なワークステーションに設けられる。     
  ・   。
As shown in this example, rations consist of rations that are mainly used for personal use and rations that are commonly used by many users. A personal partition is provided for each workstation used by each individual, and a common partition is provided for a workstation that is common to a plurality of users.
・ .

尚、共通のワークステーションとは必ずしもそのハード
ウェアが他めワークステーションと異;なることを意味
しない。また個人用のワークステーションが共通のワー
クステーションを兼ねても良いことも勿論のことである
。更には共通のワーク・ステーションは1台に限“られ
るものではなく、システムの階層レベルに応じて複数台
設けられるものであっても良・い。要するに、複数のワ
ークステーションから容易に特定することのできるもの
として共通のワークステーションか設定される。
Note that a common workstation does not necessarily mean that its hardware is different from other workstations. It goes without saying that a personal workstation may also serve as a common workstation. Furthermore, the number of common work stations is not limited to one, but may be multiple depending on the hierarchical level of the system. In short, it is possible to easily identify a common work station from among multiple work stations. A common workstation is configured as possible.

ここで第50図に示した「個人スケジュール」リレーシ
ョンのデータ構造について簡単に説明する。  −・ このリレーションからは、そ・のりレーション名。
Here, the data structure of the "personal schedule" relation shown in FIG. 50 will be briefly explained. −・ From this relation, the relation name.

が「個人スケジュール」であり、「△△、△△」によっ
て作成された。ことが示される。、このリレー ジョン
作成者「△△△△」は該、リレ、−ジョンに対して全て
のデータ操作が許可される。
is the "personal schedule" and was created by "△△, △△". It is shown that , this relay creator "△△△△" is permitted to perform all data operations on this relay region.

またこのリレーシ・ヨ、ンに付加されたデー・夕保護機
能によれば、データの読出11J全員に、許可・さ、れ
ており、データの追加は「OO○○」と「技術部に所属
する者」に対してのみ許可され、ている。尚、この「技
術部に所属す・る煮」、は、例えば「人事、」。
Also, according to the data protection function added to this relay, all 11J members are permitted to read the data, and data additions are allowed by ``OO○○'' and ``I belong to the engineering department''. Permission is granted only to those who do. In addition, this "Runi who belongs to the technical department" is, for example, "Human Resources."

のりレーションを参照する等して求められる、。またデ
ータの変更は「人レベル」の値が「5」以上のもの、に
対して9み許可されている。この1人レベル」とは人事
リレーションに関す、るものであり、例えば(部長;8
)(次長;7)(課長、;6)(主任:5)等として役
職を表わす。
It can be found by referring to the ration. Additionally, 9 data changes are permitted for those whose "person level" value is "5" or higher. "This one-person level" refers to personnel relations, for example (general manager;
) (Deputy Manager; 7) (Section Manager; 6) (Chief: 5), etc.

更にこのリレーションには、「開始時刻」 「終。Furthermore, this relation has "start time" and "end time."

了時刻」 f種類J 「名称」 「場所」等のアトリビ
ュートか設定され、そのそれぞれにデータか書込まれる
ようになっている。
End time" f Type J Attributes such as "name" and "location" are set, and data is written to each of them.

次にこのデータベース部32における上述した各種のり
レーシゴンを実際に記憶する為の物理構造について説明
子る。
Next, the physical structure for actually storing the above-mentioned various glue ratios in this database section 32 will be explained.

情報蓄積部(記憶部)は大量データを蓄積し、その任意
の部分を比較的高速に読み書きすることかで″き、価格
的にざぼど高価でないものとして、前述した磁気ディス
ク装置32cや光デイスク装置32gが用いられる。
The information storage unit (storage unit) stores a large amount of data and can read and write any part of it at relatively high speed, and is not expensive at all, such as the magnetic disk device 32c or optical disk drive described above. Apparatus 32g is used.

・この情報蓄積部へのデータベースの蓄積は、該情報蓄
積部の記憶領域を特定の大きさく例えば数キロバイト程
度で、タラプル長や計算機の速度等に応じて定められる
)毎に区切り、各々をページとして管理して行われる。
・In order to store the database in this information storage unit, the storage area of the information storage unit is divided into sections of a specific size (for example, several kilobytes) (determined according to the length of the data pull, the speed of the computer, etc.), and each section is divided into pages. It is managed as follows.

そして第52図に示すように、例えば第0ページにペー
ジ管理の情報を、第1ページにリレーション一覧表の情
報を、また第2ページに使用中のページ情報をそれぞれ
格納する。   ′ このリレーションの一覧表によって、データベー′文中
における種々のリレーションの所在が示される。
As shown in FIG. 52, for example, page management information is stored in the 0th page, information on the relation list is stored in the 1st page, and information on pages in use is stored in the 2nd page. ' This list of relations indicates the location of various relations in the database text.

例えば第9ページおよび第11ページに格納された実デ
ータは、第5ページに格納されたりレーションのアトリ
ビュート(主アトリビュート)に基き、第10ページに
格納されたインデックスページの情報に従ってソートさ
れるようになっている。このインデックスページの情報
は、アトリビュートの値が幾つから幾つ迄のものがどの
ページに格納されているかを示すものである。
For example, the actual data stored on the 9th page and the 11th page is stored on the 5th page, and is sorted based on the ration attribute (main attribute) and according to the information on the index page stored on the 10th page. It has become. This index page information indicates in which page the number of attribute values is stored.

この主アトリビュート以外のアトリビュートによりデー
タ検索する場合には、そのアトリビュートについて第2
0ページのサブ・インデックスを経由して、先ず第21
ページや第2zページに示されるサブデータを得る。こ
のサブデータにはアトリビュートの値と前述した主アト
リビュートの値のみが入っており、ここで求められるア
トリビュートの値を用いて実際のデータが求められる。
When searching data using an attribute other than this main attribute, a second
Via the sub-index of page 0, first the 21st
Get the sub-data shown on the page and the 2nd z page. This sub-data contains only the attribute values and the above-mentioned main attribute values, and the actual data is determined using the attribute values determined here.

尚、例えば画像データや音声デニタのようにその実デー
タの量か膨大であり、その中の幾つかのビット誤りが問
題とならない場合には、これ5らの実データを光デイス
ク装置32d等の別の安価な情報記憶装置にファイルす
るようにしても良い。この場合には、第9ページや第1
1ページ等の実データ用ページには、その旨とその装置
での実デ・−タの格納位置情報を記憶しておくようにす
れば良い。
In addition, if the amount of actual data is enormous, such as image data or audio data, and some bit errors in the data are not a problem, these 5 actual data may be stored on another device such as the optical disk device 32d. The information may be stored in an inexpensive information storage device. In this case, the 9th page or the 1st page
The actual data page, such as page 1, may store information to that effect and the storage location of the actual data in the device.

しかしてこのように構築されたデータベースに対する付
加機′能は、例えば不要データの自動廃棄等からなる。
However, additional functions for the database constructed in this manner include, for example, automatic disposal of unnecessary data.

この不要データの自動廃棄は、リレーションの付加情報
として[廃棄;可/不可][廃棄の方法コ等を与えてお
き、所定の間隔でリレーション毎の、消去コマンドを動
作させて行われる。
This automatic discarding of unnecessary data is performed by providing [discarding; allowed/disabled] and [discarding method] as additional information of the relation, and by operating an erase command for each relation at predetermined intervals.

尚、タラプルの消去は、例えば会議情報についてはその
終了時刻が現在の時刻より前であるか否か等を判定して
行なうことが可能である。従ってこのようなタラプルの
消去については、格別の機能追加は不要である。
Incidentally, erasing of the table can be performed by determining, for example, whether or not the end time of conference information is before the current time. Therefore, there is no need to add any special functionality to erase such a Tara pull.

また付加機能の他の重要な機能としてデータの保全があ
る。このデータの保全機能は、例えばハ一ドウエアの故
障や停電等に原因してデータが不正(でたらめになった
り失われたりするコト)・となることを防ぐものである
。具体的にはこのデータの保全機能は、情報め二重化や
磁気データへの書出し等によって実現される。    
   ′このようにデータベース部32では、種々・の
データをリレーション毎に分類整理し、且つページ単位
に管理して種々の応用システムに供するものとなってい
る。
Another important additional function is data security. This data preservation function prevents data from becoming fraudulent (random or lost) due to, for example, hardware failure or power outage. Specifically, this data preservation function is realized by duplicating information, writing magnetic data, and the like.
'In this way, the database section 32 classifies and organizes various types of data by relation, and manages the data on a page-by-page basis to provide it to various application systems.

・次に作業環境データ収集部25について説明する。- Next, the work environment data collection section 25 will be explained.

この作業環境データ収集部25は、該ワークステーショ
ンに対する過去の操作履歴のデータを収集し、これに基
く操作ガイドを行′なうものである。゛ここで作業環境
データ収集部25には、例えば第53図に示すように当
該情報処理システムが持つ機能に対応するコマンドと、
他の情報システムが持つ機能に対応するコマンドとを対
応付けるコマンド対応テーブルが設けられている。
The work environment data collection unit 25 collects data on past operation history for the workstation, and provides operation guidance based on this data.゛Here, the work environment data collection unit 25 includes commands corresponding to the functions of the information processing system, as shown in FIG. 53, for example, and
A command correspondence table is provided that associates commands corresponding to functions of other information systems.

具体的には当該情報処理システムをA1他の情報処理シ
ステムをB、C,D、・・・とじたとき、システムAに
おけるコマンド“DELETE”に対応する他のシステ
ムのコマンドが“DEL”や”ERASE”  ”RE
MOVE”であルコとが、該コマンド対応テーブルによ
って示されるようになっている。
Specifically, when the information processing system is A1 and the other information processing systems are B, C, D, etc., the command of the other system corresponding to the command "DELETE" in system A is "DEL", etc. ERASE""RE
"MOVE" is indicated by the command correspondence table.

第54図は利用者により入力された;マントを解析し2
、所定の動作および各種ガイダンスを実行する作業環境
データ収集部25の概略構成を示すものである。
Figure 54 was input by the user; Analyzing the cloak 2
, which shows a schematic configuration of a work environment data collection unit 25 that executes predetermined operations and various guidances.

この作業環境データ収集部25では、先ずコマンド入力
部25aから入力されたコマンドをコマンド解析部25
bに与え、コマンド対応テーブル25cを参照して解析
している。具体的には第55図に示す手続きの流れに従
って入力コマンドがコマンド対応テーブル25cに登録
されているかを調べている。即ち、コマンドか入力され
ると、先ずその人力qマントがシステムAのものである
か否がが調べられる。そして入力コマンドがシステムA
のコマンドであると解析されると、前記コマンド解析部
2.5bは該入力1マントをコマンド実行部25dに与
え、そのコマンドに基く所定の動作を実行させている。
In this work environment data collection section 25, first, the command inputted from the command input section 25a is sent to the command analysis section 25.
b and is analyzed with reference to the command correspondence table 25c. Specifically, it is checked whether the input command is registered in the command correspondence table 25c according to the procedure flow shown in FIG. That is, when a command is input, it is first checked whether the human-powered cloak belongs to system A or not. And the input command is system A
When the command is analyzed as a command, the command analysis section 2.5b gives the input 1 command to the command execution section 25d, and causes the command execution section 25d to execute a predetermined operation based on the command.

一方、入力コマンドがシステムAのものでない1場合に
は、他のシステムのコマンドに該当するか否かが調べら
れ、対応付けされているコマシトが存在する場合には、
その対応コマンドを画面表示部25eにて表示する。つ
まり他のシ、ステム(システムB)で用いられているコ
マンドが、例えは“DEL”である場合には、これに対
応するシステムAのコマンド”D E L E T E
”を求め、これを操作ガイダンスとして画面表示部25
e 子嚢qすることになる。
On the other hand, if the input command is not from system A, it is checked whether it corresponds to a command from another system, and if there is an associated command,
The corresponding command is displayed on the screen display section 25e. In other words, if the command used in another system (system B) is, for example, "DEL", the corresponding system A command "DEL
” and uses this as operation guidance on the screen display section 25.
e It will produce ascus q.

尚、入力コマンドに該当するコマンドかママンド対応テ
ーブル25cに存在しなかった場合には、画面表示部2
5eにてコマンドエラーメツセージの表示を行なう。
Note that if the command corresponding to the input command does not exist in the command correspondence table 25c, the screen display section 2
A command error message is displayed in step 5e.

具体的には次のようにしてそのコマンド入力に対する処
理が行われる。今、システムB、Cの操作経験の利用者
が初吟刃システムA(当該情報処理システム)を操作す
るものとする。ここで利用省力5コマンドを入力し、て
データ“ABC”を消去する場合、従来で6槙システ4
Aの取扱い説明書に従ってデータ消去の為の”D E 
L、 E T E“なるコマ、ンドを探し、これ全入力
することが必要となる。
Specifically, the command input is processed as follows. Now, it is assumed that a user who has experience operating systems B and C operates Shouginba system A (the information processing system). If you enter the Utilization Labor Saving 5 command here and delete the data "ABC", the conventional 6Maki system 4
"D E" for data deletion according to the instruction manual of A.
It is necessary to search for the commands "L, E T E" and enter them all.

しかしここでは3、その利用者は過去省経験に1作って
、例えばシステムCで用いていたデータ消去コマンド、
“E RA S、 E  へBC”を第56図(a)(
へ示すように入力する。
However, in this case, the user has created a data deletion command based on past experience, for example, the data deletion command used in System C.
“E RA S, E to BC” in Figure 56 (a) (
Enter as shown.

すると作業環境データ収集部25ではこの入力コル4ド
を解析し、前記コマンド対応テーブル25cかう入力コ
マンド“E−RA CE“に対応するシステムAのコマ
ンド“DELETE”を*め、これをガくドとして表示
することになる。この結果、利用者は≧ステムAを初め
て操作する場合であっても]そのデータ消去のコマンド
か“I)F、LETE”で集ることを知り、そのコマン
ドをガイドに従って入力することにより、そのデータ消
去を行なうことか可能となる。
Then, the work environment data collection unit 25 analyzes this input code, identifies the command "DELETE" of the system A that corresponds to the input command "E-RA CE" in the command correspondence table 25c, and converts it into a code. It will be displayed as As a result, even if the user is operating Stem A for the first time, the user knows that the data deletion command is "I) F, LETE", and by inputting that command according to the guide, the user can It is now possible to erase data.

またファイル名のリストを表示するべく、例えは第56
図(b)に示すようにシステムBにおけ= 81− るコマンド“DjR”を入力した場合には、同様にして
該システムAにおいて対応するコマンド“CA”!’A
”が求められ、ガイド表示される。、この結果、こ9ガ
イドに従ってコマンド“CATA”を入力することによ
って1.そのファイル名のリストが表示される。
Also, in order to display a list of file names, for example, the 56th
As shown in Figure (b), when the command "DjR" is input in system B, the corresponding command "CA" in system A is input in the same way! 'A
” is requested and displayed as a guide. As a result, by inputting the command “CATA” according to this guide, 1. A list of the file names will be displayed.

このように二の作業、環境デ−タ収集部25の機能を活
用することにより、過去の操作経懇のあるシステムで用
いられていたコマ、ンドの入力によって、そのシステム
における対応コマンドがガイド表示されφ。従っ下シ冬
テム利用者は、過去に得た知識を最大限に利用駿てシス
テムを操作することが可能となる。そして当該情報処理
システムのコマンドを容易に知ることが可能となる。従
ってその都度、当該情報処理システムの操作説明書を調
べる等の煩わしさから解放される。故に、システムの操
作の習得に要する時間を大幅に短縮することができる等
の効果が期待できる。
In the second step, by utilizing the function of the environmental data collection unit 25, by inputting commands and commands used in a certain system in the past, the corresponding commands in that system can be displayed as a guide. And φ. Therefore, the system user can operate the system by making maximum use of the knowledge acquired in the past. Then, it becomes possible to easily know the commands of the information processing system. Therefore, the user is freed from the trouble of checking the operating manual of the information processing system each time. Therefore, effects such as being able to significantly shorten the time required to learn how to operate the system can be expected.

尚、入力コマンドに対応するコマンドを求め、これをガ
イド表示しなとき、その合否の判定入力を受けて、その
コマンドを実行するようにしても良い。
Incidentally, when a command corresponding to an input command is obtained and the command is not displayed as a guide, the command may be executed after receiving a judgment input of its pass/fail.

即ち、第57図にその手続きの流れを示し、第58図に
その表示例を示すように他のシステムの消去コマンド“
ERASE”し、これに対応するシステムAの消去コマ
ンド“DELETE”が求められたとき、これが正しい
か否かを間合せる。
That is, the procedure flow is shown in FIG. 57, and the display example is shown in FIG. 58.
ERASE", and when the corresponding deletion command "DELETE" of system A is requested, it is checked whether this is correct or not.

そして正(Y)なる指示入力かあったとき、その入力コ
マンドが“DELETE”を示していると判定し、これ
をコマンド実行部25dに送ってその処理を実行させる
ようにする。
When a positive (Y) instruction is input, it is determined that the input command indicates "DELETE", and this is sent to the command execution unit 25d to execute the process.

このようにすれば、コマンドの対応関係がガイド指示さ
れると同時に、その入力コマンドに従って所望とする処
理が実行されるので、改めて正しいコマンドを入力し直
す必要かなくなる。つまり入力コマンドの対応コマンド
への自動変換か行われて、その処理が実行されることに
なる。従って、更にその操作性の向上を図ることか可能
となる。
In this way, the command correspondence is guided and at the same time the desired process is executed according to the input command, so there is no need to input the correct command again. In other words, the input command is automatically converted into a corresponding command, and the process is executed. Therefore, it becomes possible to further improve the operability.

尚、対応コマンドはシステムの種類に応じて何種類存在
しても良いものである。要はコマンド対 83一 応テーブル25cに対応付けてそれぞれ格納してお。
Note that any number of compatible commands may exist depending on the type of system. In short, the command pairs 83 are stored in association with each other in the table 25c.

けば良い。またコマンドは上述した文字列形式に限定さ
れないことも云うまでもない。
It's fine if you do. It goes without saying that the command is not limited to the above-mentioned character string format.

次にこの作業環境データ収集部25におけるシステム習
熟度のデータ収集について説明する。
Next, the collection of system proficiency data by the work environment data collection unit 25 will be explained.

第59図はシステム習熟度のデータ収集処理を示す流れ
図である。
FIG. 59 is a flowchart showing the system proficiency data collection process.

利用者がその識別コード(ユーザ番号やパスワード等)
を入力すると、作業環境データ収集部25はその識別コ
ードに対応する習熟度裏を外部記憶装置から求め、装置
内部にセットする。この習熟皮表は各利用者がシステム
の様々な利用機能に対してどの程度習熟しているかを格
納したもので、例えば第60図に示す如く構成されてい
る。゛即ち、このi熟皮表は各利用機能に対して杉の利
用頻度、最終利用年月日時、ユーザが申告した該機能に
対する習熟クラス、該機能を前回利用した際の習熟度ク
ラス、更には該機能の複雑度の情報等によって構成され
ている。
When a user enters their identification code (user number, password, etc.)
When input, the work environment data collection unit 25 obtains the proficiency level corresponding to the identification code from the external storage device and sets it inside the device. This proficiency table stores the degree of proficiency of each user with respect to various functions of the system, and is structured as shown in FIG. 60, for example. In other words, this i-seasoned skin table records for each function used the frequency of use of cedar, the date and time of last use, the proficiency class for the function declared by the user, the proficiency class when the function was last used, and It is composed of information such as the complexity of the function.

ここで複雑度とは該−利用機能が専門知識を要求する程
高くなり、また基本機能より高級機能になる程高くなる
ものである。“ しかしてこのような習熟皮表は各利用者毎に設けみれ、
゛外部記憶装置にそれぞれ記憶されている。
Here, the degree of complexity increases as the function to be used requires specialized knowledge, and as the function becomes more advanced than the basic function. “However, such a learning skin table is set up for each user,
``They are each stored in an external storage device.

尚、システムを初めて利用する利用者に対しては、識別
コードの新規設定によりその利用者に対讐る習熟皮表が
作成され、外部記憶装置に登録される。
Incidentally, for a user who uses the system for the first time, a learning curve for that user is created by setting a new identification code and is registered in the external storage device.

尚、外部記憶装置には、例えば第61図に示すように上
述した脅熟皮表に加えて、前記習熟度クラスに対応した
利用機能毎のメツセージか登録されている。このメツセ
ージは習熟度のクラスが低い程、その背景説明を含む判
り易い説明となっている。また習熟−の高(:クラスは
ど、簡略な説明と専門的な機能の紹介を含んだ高度な内
容となっている。
In the external storage device, for example, as shown in FIG. 61, in addition to the above-mentioned threat skin table, messages for each function used corresponding to the proficiency class are registered. The lower the proficiency level of the message, the easier it is to understand the message, including the background explanation. The content of the class is advanced, including simple explanations and introductions to specialized functions.

また習熟度のクラスは、例えば A;初級者クラス B、中級者クラス C7習熟者クラス のように分類設定される。Also, proficiency classes are, e.g. A; Beginner class B. Intermediate class C7 expert class The classification is set as follows.

しかして入力された識別コードに対応した習熟′皮表が
求め゛られ゛ると、次にその利用機能を利用者に選択さ
せる為のメニューが表示される。このメニューに対して
利用者は、例えばその利□用機能に対応すぎ番号等を入
力する。すると制御部ではその入力情報が終了信号か利
用機能の選択信号かを判断し、利用機能選択信号の場合
には次のように動作する。
When the proficiency level corresponding to the input identification code is obtained, a menu is displayed to allow the user to select the function to be used. In this menu, the user inputs, for example, a number corresponding to the function to be used. Then, the control section determines whether the input information is an end signal or a selection signal for a function to be used, and if it is a selection signal for a function to be used, the operation is as follows.

節ち、利用機能選択信号か入力されると、先ずその利用
者に関する前記習熟皮表を参□照し、選択された利用機
能に対応する利用頻度や最終利用年月日時、申告習熟度
クラス等の情報が氷められる。
When a function selection signal is input, the user first refers to the proficiency table for that user and determines the frequency of use, date and time of last use, declared proficiency class, etc. corresponding to the selected function. information is frozen.

そしてこれらの情報に従って重み付は処理を施し、現在
の習熟度クラスの決定が行われる。
Then, weighting is performed according to this information, and the current proficiency class is determined.

この習熟度クラスの判定は、例えば利用頻度をPl、最
小利用年月日時をT 、現在の利用年月1      
                         
e日時をT 1利用者申告習熟度クラスをXl、前口利
用習熟度クラスをX2ζ(A、B、C1、複雑度をP 
1そして判別関数をF としたとき、r F  =に、P、+に2 (To−To)r 十に3G1 [X1] 十に4G2 [X2]+に5Pc として求められ。但し、上式においてKKl、  2゜ K 3 、 K 4は、実験等によって適切な値に設定
される定数である。また上記GG  は 1.2 であり、Yl、Y2.Y3.Zl、Z2.Z3は、A、
B。
To determine this proficiency class, for example, the usage frequency is Pl, the minimum usage date and time is T, and the current usage date and time is 1.

e Date and time are T 1 User declared proficiency class is Xl, front usage proficiency class is X2ζ (A, B, C1, complexity is P
1, and when the discriminant function is F, it is determined as r F =, P, + 2 (To-To) r 10 3G1 [X1] 10 4G2 [X2] + 5Pc. However, in the above equation, KKl, 2°K 3 , and K 4 are constants that are set to appropriate values through experiments or the like. Further, the above GG is 1.2, Yl, Y2. Y3. Zl, Z2. Z3 is A,
B.

Cに対する評価重みである。これらの評価重みはY く
Y くY  、ZlくZ2くZ31   .2.   
 3 なる関係を有し、実験等によって適切な値に設定される
This is the evaluation weight for C. These evaluation weights are Y, Z2, Z31. 2.
3, and is set to an appropriate value through experiments, etc.

ここでG1 [X、]は、X1=AのときYlなる値を
取り、X2=BのときY2なる値を取ることを意味する
。また(To−To)は、最終利用年月日時から現在ま
での日数を時間換算したものである。
Here, G1 [X, ] means that it takes the value Yl when X1=A, and takes the value Y2 when X2=B. Further, (To-To) is the number of days from the date and time of last use to the present time converted into time.

しかしてクラス判定は、上述した判別関数F。Therefore, class determination is performed using the above-mentioned discriminant function F.

の値により次のようにして行われる。This is done as follows depending on the value of .

F  <N   ・・Aクラス N ≦F  <N   ・・・Bクラス1、  r  
 2 N2≦Fr     ・・Cクラス 尚、判定閾値N、、N2は実験等に基いて適切に定めら
れる。
F <N...A class N ≦F <N...B class 1, r
2 N2≦Fr . . . Class C Note that the determination thresholds N, , N2 are appropriately determined based on experiments and the like.

このようにして習熟度クラスが決定されると、その決定
された習熟度クラスに対応し、且つ前述した如く指定さ
れた利用機能に該当するガイドメツセージやエラーメツ
セージを外部記憶装置から求める。
Once the proficiency class is determined in this manner, guide messages and error messages that correspond to the determined proficiency class and correspond to the specified usage function as described above are obtained from the external storage device.

しかる後、今回決定された習熟度クラスと、前記習熟度
表に格納されている前回の習熟度クラスとを比蛤照合す
る。そして習熟度クラスに変更がある場合には、その習
熟度に変更がある旨を示すメツセージを前記ガイドメツ
セージ等に付加して書込む。
Thereafter, the currently determined proficiency class is compared with the previous proficiency class stored in the proficiency table. If there is a change in the proficiency class, a message indicating that the proficiency level has changed is added to the guide message and written.

この習熟度クラス変更のメツセージは、例えば第62図
に示すような4種類のメツセージからなる。そ〔7てそ
のクラス変更の形態に応じて求められ、前記ガイドメツ
セージ等と共に表示される。
This proficiency class change message consists of four types of messages as shown in FIG. 62, for example. [7] The information is determined according to the form of the class change, and is displayed together with the guide message and the like.

利用者はこのようにして表示される各種メツセージに従
ってその処理操作を行なうことになる。
The user performs processing operations according to the various messages displayed in this way.

具体的には作成データをファイルに格納する利用機能に
対して、その利用者が初級者クラス(Aクラス)と判定
されると第63図に示す如きメツセージが表示される。
Specifically, when it is determined that the user is in the beginner class (class A) for the function used to store created data in a file, a message as shown in FIG. 63 is displayed.

そしてこのメツセージにも拘らず利用者か情報入力を誤
った場合には、例えば第64図に示すようなエラーメツ
セージの表示が行われ、その利用機能に対する操作のガ
イドか行われる。
If the user makes a mistake in inputting information despite this message, an error message as shown in FIG. 64 is displayed, for example, and instructions for operating the function to be used are provided.

またその利用者の習熟度が中級者クラス(Bクラス)と
判定された場合には、第65図に示す如きメツセージか
表示される。そしてこのメツセージにも拘らず利用者が
情報入力を誤った場合には、例えば第66図に示すよう
なエラーメツセージの表示か行われ、その利用機能に対
する操作のガイドが行われる。同様にその利用者の習熟
度か習熟者クラス(Cクラス)と判定された場合には、
第67図に示す如きメソセージか表示され、情報入力の
誤りがある場合には、例えば第68図に示すようなエラ
ーメツセージの表示が行われてその利用機能に対する操
作のガイドが行われる。
Further, if the user's proficiency level is determined to be intermediate class (B class), a message as shown in FIG. 65 is displayed. If the user makes a mistake in inputting information in spite of this message, an error message as shown in FIG. 66 is displayed, for example, and guidance on how to use the function is provided. Similarly, if the user's proficiency level is determined to be in the expert class (C class),
A message as shown in FIG. 67 is displayed, and if there is an error in the information input, an error message as shown in FIG. 68 is displayed to guide the operation of the function to be used.

しかして上述した如く表示したガイドメツセージの空欄
に対してデータ入力か行われると、制御部は前述した如
く求めている該当利用者の習熟度表の該当利用頻度を(
+1)すると共に、最終利用年月日時および前回利用習
熟クラスの更新を行なう。そして該利用機能の実行を促
すと共に、該当利用機能か終了したものと看做して前述
した利用機能選択の為のメニュー表示動作に戻る。
When data is input into the blank field of the guide message displayed as described above, the control unit calculates the frequency of use of the proficiency table of the user as described above.
+1) At the same time, the date and time of last use and the previous use proficiency class are updated. Then, it prompts the execution of the function to be used, assumes that the function to be used has been completed, and returns to the menu display operation for selecting the function to be used.

ここで再び利用機能選択信号か入力されると、上述した
処理を再び繰返して実行することになる。
If the usage function selection signal is input again here, the above-described process will be repeated again.

しかし終了選択信号か入力された場合には、」二連した
如く作成・更新した習熟度表を外部記憶装置の習熟度フ
ァイルに、その該当利用者の識別コードと共に書込み、
これを保存する。そしての一連の処理手続きを終了する
However, when an end selection signal is input, the proficiency table created and updated in duplicate is written to the proficiency file in the external storage device along with the identification code of the corresponding user.
Save this. Then, the series of processing procedures is completed.

このようにして作業環境データ収集部25では、システ
ムの操作に関する習熟度のデータを収集しながら、その
収集されたデータに従ってその操作を適切にガイダンス
するものとなっている。
In this way, the work environment data collection unit 25 collects data on proficiency regarding system operations and provides appropriate guidance for the operations based on the collected data.

以上が本ワークステーションの基本的な構成とその機能
である。
The above is the basic configuration of this workstation and its functions.

次に本ワークステーションにおける動画の作成機能につ
き説明する。
Next, the video creation function of this workstation will be explained.

この文章データに基く動画の作成機能は、前記制御部2
の制御の下で前述した各部の処理機能を用いることによ
って実現される。そして、例えばオフィス等で用いられ
る文書に関し、その文章データの文字列を解析して該文
章データで示される内容をわかり易く解説する為の動画
を作成するものであ名。
The function of creating a video based on this text data is performed by the control unit 2.
This is realized by using the processing functions of each section described above under the control of. For example, with respect to documents used in offices, etc., the character strings of text data are analyzed and videos are created to explain the content shown in the text data in an easy-to-understand manner.

第69図は動画作成処理の手続きの流れを□示すもので
ある。どの処理手続きは、処理対照とする特定の文章を
その文章IDを+1示入力することによって起動される
(ステップa)。すると制御部2は指定された文章ID
に従って前記データベース部32に格納されている該当
文章データを読出しくステップb)、この文章データを
示す文字列を表示装置(ディスプレイ部)1′0にて表
示する(ステップc)。
FIG. 69 shows the procedure flow of moving image creation processing. Which processing procedure is started by inputting the text ID of a specific text to be processed by +1 (step a). Then, the control unit 2 uses the specified text ID.
Accordingly, the corresponding text data stored in the database section 32 is read out (step b), and a character string representing this text data is displayed on the display device (display section) 1'0 (step c).

このようにしてディスプレイ表示された文章データ(文
字列)に対して、動画作成に関係のある文章区間の指定
が行われる。この文章区間の指定はカーソル制御やライ
トペンを用いる等して行われる。そして通常は時間的な
経緯を伴う動画を作成することから、前記ディスプレイ
表示された文章データに対して、複数の文章区間がそれ
ぞれ指定される(ステップd)。
For the text data (character strings) displayed in this way, a text section related to video creation is specified. This text section is specified by controlling the cursor or using a light pen. Since a moving image with a temporal sequence is usually created, a plurality of sentence sections are each specified for the text data displayed on the display (step d).

尚、この文章区間の指定は、文章区間の始点と終点とを
それぞれ指定する文章区間範囲の指定と、複数の文章区
間の相互に結び付きの深いものを結合損−示する文章区
間のリンク指定とからなる。
Note that this text section specification involves specifying a text section range that specifies the start and end points of the text section, and specifying a link for a text section that indicates the connection loss of multiple text sections that are closely related to each other. Consisting of

具体的には、例えば次のようにして文章データに対する
文章区間の指定が行われる。
Specifically, for example, a text section for text data is specified as follows.

「7山田工業株式会社では、昭和50年度の売上A 高は250億円であった。  その後、業績が向上し、
7昭和55年度は昭和50年度より80億円上昇しB 
         、  マ         Cた。
7 Yamada Kogyo Co., Ltd. had sales of 25 billion yen in fiscal 1975. After that, business performance improved.
7 In FY 1980, the amount increased by 8 billion yen from FY 1975.B
, MaCta.

   しかしながり、 昭和60年度  は需要後退の
影響を受けて、7昭和55年度に比較して15− 92
  = D %減少した。  景気の変動の波をまともに受けている
状況である。」 この例に示されるように文章区間の始点はマで指定され
、且つその終点がで指定されるようになっている。そし
て指定された文章区間毎にその管理データA、B、C,
D、・・・が付されるものとなっている。リンクの指定
は、そのような文章区間に対して、例えば各文章区間の
特定の文字を対応付ける等して行われる。
However, in 1985, due to the impact of a decline in demand, the sales in 1985 decreased by 15-92 compared to 7 in 1988.
= D % decreased. The country is currently experiencing the effects of economic fluctuations. ” As shown in this example, the start point of a sentence section is specified by M, and the end point is specified by M. Then, for each specified sentence section, the management data A, B, C,
D, . . . are attached. The link is specified by, for example, associating specific characters of each text section with such text sections.

しかしてこのようにして文章区間が特定されると、各文
章区間毎にその文字列の解析が行われ、動画作成用の文
章情報が抽出される(ステップe)。この文章区間の文
字列の解析は、上述したリンク情報を加味して行われる
ことは勿論のことである。
However, once the text sections are identified in this way, the character strings are analyzed for each text section, and text information for creating a video is extracted (step e). Of course, the analysis of the character string in this sentence section is performed by taking into account the link information described above.

文章データの解析による動画作成用データの抽出は、例
えば第70図に例示するように上記文章区間の文字列を
単語単位に分割しくステップel)、その構文を解析す
ることから行われる(ステップe2)。この構文解析に
よって文章区間の文字列に 93一 対する主語の部分、述語の部分、修飾゛の部分等がそれ
ぞれ求められる。
Extraction of data for creating a video by analyzing text data is performed, for example, by dividing the character string in the text section into word units (step el) and analyzing the syntax (step e2), as illustrated in FIG. ). Through this syntactic analysis, the subject part, predicate part, modifier part, etc. corresponding to each character string in the sentence section are determined.

その後、構文解析結果に基いて上記文章の主体を同定し
くステップe3)、更にその主題を同定する(ステップ
e4)。更に文章データ中に含まれる各種数値データの
時間的関係を解析しくステップe5)、またその述部の
意味解析を行う(ステップeB)。
Thereafter, the subject of the sentence is identified based on the syntactic analysis result (step e3), and the subject is further identified (step e4). Furthermore, the temporal relationships of various numerical data contained in the text data are analyzed (step e5), and the meaning of the predicates thereof is analyzed (step eB).

以上の処理手続きを行って、その主体、主題。The subject and subject matter of the above processing procedure.

時間的関係、述部の意味の各情報に従い、該文章区間に
含まれる数値データを数値処理する(ステップe7)。
Numerical data included in the sentence section is numerically processed according to the information on the temporal relationship and the meaning of the predicate (step e7).

この数値処理によって動画作成に必要なデータが抽出さ
れる。
This numerical processing extracts the data necessary to create the video.

具体的には前述した文章データの場合には、文章区間A
から“山田工業株式会社“が主体者であることが同定さ
れ、“売−ヒ高”が主題であると同定される。尚、主体
や主題が同定できない文章区間B、C,Dにあっては、
その主体や主題が直前の文章区間と同じであるとしてそ
の解析処理を進める。
Specifically, in the case of the text data mentioned above, the text section A
``Yamada Kogyo Co., Ltd.'' is identified as the subject, and ``Sales High'' is identified as the subject. In addition, in sentence sections B, C, and D where the subject or subject cannot be identified,
The analysis process proceeds assuming that the subject and subject are the same as the previous sentence section.

しかして時間解析は、修飾部分に含まれる時を表現する
部分を抽出してその時の情報を求める。
Therefore, time analysis extracts the part that expresses the time contained in the modified part and obtains information about that time.

例えば「昭和60年度は」なる文字列と「昭和55年度
に比較して」なる文字列とから、その時の情報を「昭和
60年度が中心である」 「その5年前が比較相手とし
て提起されている」等として抽出する。
For example, from the character strings ``in 1985'' and ``compared to 1985,'' the information at that time is ``mainly in 1985,'' or ``5 years before that was proposed as a comparison.'' Extracted as "

そして述部の意味解析処理では、「上昇した」「減少し
た」等がその意味解析結果としてそれぞれ抽出される。
In the predicate semantic analysis process, words such as "increased" and "decreased" are extracted as the semantic analysis results.

数値処理は、このようにして求められた情報から、例え
ば次のような動画作成用データを作成する。
The numerical processing creates, for example, the following video creation data from the information obtained in this way.

(a)動画モデルの指定番号; 1 (b)主題        ;売上高 (c)主題の数値     、  250.  ’33
0. 280(d)主題の単位     :億円 (e)時の数値      、 50.55.60(f
)時の単位      ;年 (g)主体者       :山田工業株式会社尚、上
記動画モデルの指定番号は、動画の表現形式として準備
されている複数のモデルのどれを用いて動画データを作
成するかを指定するものである。具体的には、モデル番
号1によってプロダクート・モデルが指定され、モデル
番号2によって形状変化モデルが指定されるようになっ
ている。
(a) Designation number of video model; 1 (b) Subject; Sales (c) Numerical value of subject, 250. '33
0. 280(d) Subject unit: Billion yen (e) hourly figure, 50.55.60 (f
) Unit of time; year (g) Subject: Yamada Kogyo Co., Ltd. The designated number of the video model above indicates which of the multiple models prepared as video expression formats will be used to create the video data. It is to be specified. Specifically, model number 1 designates a product model, and model number 2 designates a shape change model.

このようにして動画作成用データが抽出された後、これ
らのデータに従って動画データが作成される(ステップ
f)。そして、その作成動画データのディスプレイによ
る表示が行われ(ステップg)、またその動画データの
データベースへの格納が行われる。
After the moving image creation data is extracted in this way, moving image data is created according to these data (step f). Then, the created moving image data is displayed on the display (step g), and the moving image data is stored in the database.

ここで動画データの作成について、プロダクト・モデル
を使用する場合を例に説明する。動画作成部は、例えば
第71図に示すように画像生成部41、動画モデル・デ
ータベース42、動画記憶制御部43、そして画像デー
タベース44を備えて構成される。
Here, the creation of video data will be explained using a product model as an example. The video creation section is configured to include an image generation section 41, a video model database 42, a video storage control section 43, and an image database 44, as shown in FIG. 71, for example.

動画モデル・データベース42は、プロダクト・モデル
としてコンピュータ・グラフィクス画像やTV左カメラ
から入力された多値画像、およびこれを図形化した画像
を図形イメージとして格納すると共に、その図形イメー
ジを制御する制御情報を格納している。
The video model database 42 stores, as product models, computer graphics images, multi-valued images input from the TV left camera, and graphical images thereof as graphical images, as well as control information for controlling the graphical images. is stored.

画像生成部41は前述した如き動画作成用データを入力
して、その動画モデル番号から作成すべき動画の形態を
知る。そしてプロダクト・モデルが指定されている場合
には、前記動画モデル・データベース42に準備されて
いる複数種類のモデルの中から、その動画生成環境に応
じたモデルを選択する。
The image generation unit 41 inputs the moving image creation data as described above, and learns the form of the moving image to be created from the moving image model number. If a product model is specified, a model corresponding to the video generation environment is selected from among the plurality of models prepared in the video model database 42.

しかして画像生成部41では、先ず主題の単位や時の単
位等の情報に従って表示画面に対してスケールの設定を
行う。そしてこのスケール設定した表示画面に対して前
述した主題の数値、時の数値等に基き、目的とする図形
を生成していく。
The image generation unit 41 first sets a scale for the display screen according to information such as the unit of the subject and the unit of time. Then, on this scaled display screen, a desired figure is generated based on the numerical value of the subject, the numerical value of the time, etc. mentioned above.

この際、その図形表示形態を1種類に限定することなく
、その状況に応じた手法を適宜採用する。
At this time, the graphic display format is not limited to one type, and a method appropriate to the situation is adopted as appropriate.

具体的には、売上高の推移を棒、折線2円等のグラフで
表現すると共に、その数値データの変化を他の状態、例
えばその表示色を変える等して表現する。
Specifically, the trend in sales is represented by a graph of bars, broken lines, etc., and changes in the numerical data are represented by other states, such as by changing the display color.

このような画像生成処理によって、前述した各文章区間
毎にその文章区間の内容に応じた動画像が、例えば第7
2図に示すように枠囲形で表現された数値データが順に
変化する画像データとして一形成される。つまりその文
章区間が持つ時間的経緯の情報に従ってプロダクト・モ
デルの図形イメージ、或いはその属性か可変制御される
動画像データか作成される。
Through such image generation processing, a moving image corresponding to the content of each sentence section described above, for example, the seventh
As shown in FIG. 2, numerical data expressed in a frame shape is formed as image data that changes in sequence. In other words, a graphic image of the product model or moving image data whose attributes are variably controlled is created according to the information on the temporal history of the text section.

具体的には前述した文章データの例では、文章区間Bの
動画像としては昭和50年度に比較して売上高が順次増
大する過程か動画像データとして生成される。そしてこ
の場合には、売上高が増大していることから、その図形
情報か青色で表示される。またリンクされた文章区間C
,Dでは売上高が減少していることから、その売上高が
順次減少する過程の動画像か作成され、その図形情報が
赤色表示される。
Specifically, in the above-mentioned example of text data, the moving image of text section B is generated as moving image data in the process of sequentially increasing sales compared to 1975. In this case, since sales are increasing, the graphic information is displayed in blue. Also linked text section C
, D, the sales amount is decreasing, so a moving image of the process of the sales amount decreasing sequentially is created, and its graphic information is displayed in red.

つまり前述した文章データから、各文章区間毎に時間的
に経緯に伴う数値データの変化が示される動画像かそれ
ぞれ作成される。
That is, from the aforementioned text data, a moving image is created that shows changes in numerical data over time for each text section.

ちなみに従来システムにあっては、各年度の売上高のデ
ータが静止画としてグラフ表示されるたけであった。そ
して各文章区間に対応した複数枚の静止画を順次表示し
たとしても、各年度の売上高の変化がステップ的に表現
されるだけであった。
By the way, in the conventional system, sales data for each year was simply displayed as a graph as a still image. Even if a plurality of still images corresponding to each sentence section were sequentially displayed, changes in sales for each year were only expressed in steps.

これに比較して上述した動画像によれば、各文章区間毎
にその数値データがどのように変化したかか動画イメー
ジとして表現されることになるので、感覚的にもその変
化の過程が非常にわかり易くなる。
In comparison, according to the video image mentioned above, how the numerical data changes for each sentence section is expressed as a video image, so the process of change is very intuitive. It becomes easier to understand.

動画記憶制御部43はこのようにして作成された動画デ
ータを前述した文章データに対応付けて画像データベー
ス44に格納し、その再利用を可能とするものとな”っ
ている。
The video storage control unit 43 stores the video data created in this manner in the image database 44 in association with the text data described above, thereby making it possible to reuse the video data.

以上説明したように本ワークステーションにおける動画
作成機能によれば、指定された文章区間の数値データを
抽出してその図形情報を求めるたけではなく、その文章
区間が持つ時間的な関係等の情報を抽出して上記数値デ
ータがどのような推移の下で得られたかを解析、し、そ
れを動画像として表現するものとなっている。従って図
形等によって表現される数値データが、例えば時間的に
どのような経緯を持って得られたものであるがをその動
画表現によって極めて容易に理解することが可能となる
。ちなみに静止画による表現にあっては、例えば別の静
止画と比、較しなければその数値的な意味合いを理解す
ることができないと云う不具合がある。従って単に各文
章区間毎に静止画を作成し、これを順次表示する従来シ
ステムによるものとは本質的に異なって、各文章区間が
持つ意味合いを非常に効果的に表現し、文章データの内
容理解を容易ならしめる等の実用上多大なる効果が奏せ
られる。
As explained above, the video creation function of this workstation not only extracts the numerical data of a specified text section and obtains its graphical information, but also extracts information such as the temporal relationship of the text section. It extracts the numerical data, analyzes the changes under which the above numerical data was obtained, and expresses it as a moving image. Therefore, it is possible to understand very easily how the numerical data expressed by figures, etc. was obtained, for example, in terms of time, by means of the moving image representation. Incidentally, there is a problem with expressions using still images, such as the fact that the numerical meaning cannot be understood unless the image is compared with another still image. Therefore, unlike conventional systems that simply create still images for each sentence section and display them sequentially, it is possible to express the meaning of each sentence section very effectively and understand the content of the sentence data. It has great practical effects, such as making it easier.

尚、本発明は上述した実施例に限定されるものではない
。例えば動画の表現形式としては、図形の形状を変化さ
せることは勿論のこと、その表示色や表示輝度を変化さ
せても良い。またどのような図形をプロダクト・モデル
として用いるがも限定されない。更には形状変化モデル
を用いて物体の体積や形を変化させて動画を生成するよ
うにしても良い。更には、その変化の過程を急速にした
り、逆に緩やかにする等して時間的経緯を表現すること
も勿論可能である。その他、種々の動画表現を利用して
動画データを作成することが可能である。
Note that the present invention is not limited to the embodiments described above. For example, as a representation format for a moving image, not only the shape of the figure may be changed, but also the display color and display brightness may be changed. Furthermore, there is no limitation as to what kind of figure can be used as the product model. Furthermore, a moving image may be generated by changing the volume or shape of an object using a shape change model. Furthermore, it is of course possible to express the temporal process by making the process of change rapid or slow. In addition, it is possible to create video data using various video expressions.

また指定された文章区間の文字列の解析アルゴリズムや
、その解析結果に基く動画作成用データの抽出処理、ま
た数値データに対する処理アルゴリズムもその仕様に応
じて種々変更可能なものである。要するに本発明はその
要旨を逸脱しない範囲で種々変形して実施することがで
きる。
Furthermore, the algorithm for analyzing character strings in a designated text section, the process for extracting data for creating a moving image based on the analysis results, and the processing algorithm for numerical data can be changed in various ways according to the specifications. In short, the present invention can be implemented with various modifications without departing from the gist thereof.

[発明の効果] 以上説明したように本発明によれば、文章データの指定
された文章区間の情報に基いて、その内容を表現する動
画データが、例えばその時間的な経緯に伴う数値データ
の変化を表現しながら作成される。従って静止画による
情報提供に比較して、例えば数値データの変化の過程が
非常にわがり易く表現されることになるので、文章デー
タの内容理解を効果的に補助することが可能となる等の
実用上多大なる効果が奏せられる。
[Effects of the Invention] As explained above, according to the present invention, based on the information of the specified sentence section of the sentence data, the video data expressing the content is changed, for example, to the numerical data accompanying the temporal history. Created while expressing change. Therefore, compared to providing information using still images, for example, the process of change in numerical data is expressed in a much easier to understand manner, making it possible to effectively assist in understanding the content of text data. Great practical effects can be achieved.

【図面の簡単な説明】[Brief explanation of drawings]

図は本発明の一実施例を示すもので、 第1図は本発明に係るワークステーションの特徴的な処
理機能を示す図、第2図はワークステーションの概略構
成図、 第3図はワークステーションに付随するICカードの外
観図、第4図はICカードの構造を示す分解斜視図、第
5図はICカードのプリント基板部の構造を示す図、第
6図はICカードの半導体集積回路部の構成を示す図、 第7図はワークステーションにおける暗号化処理部の構
成を示す図、第8図は暗号・復号化の概念を示す図、第
9図は暗号化部の構成図、第10図は復号化部の構成図
、第11図はR3A処理部の構成図、 第12図はワークステーションにおけるイメージ照合部
の構成を示す図、第13図はイメージ処理される顔の例
を示す図、第14図は、イメージ・データの構造を示す
図、 第15図はワークステーションにおける音声認識部の構
成を示す図、第16図は入力音声パターンの例を示す図
、第17図は子音の音響的特徴を示す図、第18図は遷
移ネットワークの例を示す図、第19図は音声認識処理
の手続きを示す図、第20図は入力音声に対する部分区
間検出を説明する為の図、第21図は音声認識辞書の学
習処理手続きを示す図、 第22図はワークステーションにおける文字認識部の第
1の文字認識ブロックの構成例を示す図、第23図は認
識対象となる文字力j記載されるFAX送信原稿用紙の
例を示す図、第24図は認識対象文字の切出し処理を説
明する為の図、第25図は文字認識部における第2の文
字認識ブロックの構成を示す図、 第26図はワークステーションにおける図形認識部の構
成を示す図、第27図乃至第30図は図形認識処理を説
明する為の図、 第31図はワークステーションにおけるイメージ認識部
の構成を示す図、第32図はコード変換装置の構成図、
第33図は入力イメージに対する処理例を示す図、第3
4図はセグメントにおける特徴点検出を示す図、 第35図はワークステーションにおける音声照合部の構
成を示す図、第36図はフィルタバンクの帯域分割例を
示す図、第37図はフィルタ特性を示す図、 (等38図iより−クステーシ・ンにおける音声台ゞ、
成部の構成を示す図、第39図は規則合成パラメータ生
成装置の構成図、第40図は音声パラメータの変換構造
を示す図、第41図は音声合成器の構成図、 第42図はワークステーションにおけるイメージ合成部
゛の構成を示す図、第43図および第44図はイメージ
合成処理の概念を示す図、゛ 第45図はワークステー
ションにおける出力形態選択部の構成を示す図、第46
図は出力形態選゛択処理′手゛続きの流れを示す図、第
47図は相手局識別処理手続きの流れを示す図、第48
図はメゾ、、    −104− イア変換テーブルの構造を示す図、 第49図はワークステーションにおけるデータベース部
の構成を示す図、第50図はデータベースのデータ構造
を示す図、第51図はりレーションの例を示す図、第5
2図はりレーションの構造を示す図、 第53図はコマンド対応テーブルの構造を示す図、第5
4図はワークステーションにおける作業環境データ収集
部の構成を示す図、第55図乃至第58図はコマンド部
の処理を説明する為の図、第59図はシステム習熟度の
データ収集処理の流れを示す図、第60図は習熟度表の
構造を示す図、第61図乃至第68図は作業環境データ
収集部の処理を説明する為の図、 第69図本ワークステーションにおける動画像生成処理
の流れを示す図、第70図は指定された文章区間の解析
処理による動画像作成用データの抽出処理手続きを示す
図、第71図は動画像作成部の構成例を示す図、第72
図は文章区間に対応して生成された動画像の例を示す図
である。 1・・・バス、2・・・制御部、3・・・イメージ入力
装置、4・・・位置入力装置、5・・音声入力部、6・
・キーボー1部、7・・・ICカード部、8・・・バス
コントローラ、9・・・音声出力装置、10・・・ディ
スプレイ部、11・・・イメージ出力装置、12.13
・・通信装置、14・切換え装置、15・・・タイマ一
部、16・・・暗号化処理部、17・・・音声照合部、
18・・・イメージ照合部、19・・・音声認識部、2
0・・・音声分析部、21・・・文字認識部、22・・
・図形認識部、23・・・イメージ認識部、24・・・
出力形態選択部、25・・・作業環境データ収集部、2
6・・・音声合成部、27・・・イメージ合成部、28
・・・図形合成部、29・・・音声の圧縮・伸長部、3
0・・・イメージの圧縮・伸長部、31・・信号処理部
、32・・・データベース部、41・・・画像生成部、
42・・動画モデル・データベース、43・・動画記憶
制御部、44・・画像データベース。 出願人代理人 弁理士 鈴江武彦 第 1 因 11間日HG3−27G672  (30)第 2( )図 第21図 第24図 第53図 第54図 第55図 第65図 第66図 第67図 第68図 第69図 (中〃点PLへ用テ゛−タ) 第70図
The figures show one embodiment of the present invention. Figure 1 is a diagram showing characteristic processing functions of a workstation according to the present invention, Figure 2 is a schematic configuration diagram of the workstation, and Figure 3 is a diagram showing the workstation. Figure 4 is an exploded perspective view showing the structure of the IC card, Figure 5 is a diagram showing the structure of the printed circuit board of the IC card, and Figure 6 is the semiconductor integrated circuit part of the IC card. 7 is a diagram showing the configuration of the encryption processing section in the workstation, FIG. 8 is a diagram showing the concept of encryption/decryption, FIG. 9 is a configuration diagram of the encryption section, and FIG. Figure 11 is a diagram showing the configuration of the decoding unit, Figure 11 is a diagram showing the configuration of the R3A processing unit, Figure 12 is a diagram showing the configuration of the image matching unit in the workstation, and Figure 13 is a diagram showing an example of a face subjected to image processing. , Fig. 14 is a diagram showing the structure of image data, Fig. 15 is a diagram showing the configuration of the speech recognition section in the workstation, Fig. 16 is a diagram showing an example of an input speech pattern, and Fig. 17 is a diagram showing the structure of the consonant. 18 is a diagram showing an example of a transition network; FIG. 19 is a diagram showing a procedure for speech recognition processing; FIG. 20 is a diagram for explaining partial interval detection for input speech; Figure 21 is a diagram showing the learning processing procedure of the speech recognition dictionary, Figure 22 is a diagram showing an example of the configuration of the first character recognition block of the character recognition unit in the workstation, and Figure 23 is the description of the character strength j to be recognized. 24 is a diagram illustrating the process of cutting out characters to be recognized. FIG. 25 is a diagram illustrating the configuration of the second character recognition block in the character recognition unit. 26 is a diagram showing the configuration of the figure recognition section in the workstation, FIGS. 27 to 30 are diagrams for explaining the figure recognition process, FIG. 31 is a diagram showing the configuration of the image recognition section in the workstation, Figure 32 is a configuration diagram of the code conversion device,
Figure 33 is a diagram showing an example of processing for an input image;
Figure 4 is a diagram showing feature point detection in a segment, Figure 35 is a diagram showing the configuration of a voice verification unit in a workstation, Figure 36 is a diagram showing an example of band division of a filter bank, and Figure 37 is a diagram showing filter characteristics. Fig. 38 (From Fig. 38--Sound platform in Kusteshin,
Figure 39 is a diagram showing the configuration of the rule synthesis parameter generation device, Figure 40 is a diagram showing the speech parameter conversion structure, Figure 41 is a diagram showing the configuration of the speech synthesizer, and Figure 42 is the workpiece. 43 and 44 are diagrams illustrating the concept of image compositing processing. 45 is a diagram illustrating the configuration of an output format selection unit in the workstation.
47 is a diagram showing the flow of the output format selection process, FIG. 47 is a diagram showing the flow of the partner station identification process, and FIG.
Figure 49 shows the structure of the database part in the workstation, Figure 50 shows the data structure of the database, Figure 51 shows the structure of the meso-ear conversion table. Figure 5 showing an example
Figure 2 shows the structure of the ration, Figure 53 shows the structure of the command correspondence table, and Figure 5 shows the structure of the command correspondence table.
Figure 4 is a diagram showing the configuration of the work environment data collection unit in the workstation, Figures 55 to 58 are diagrams for explaining the processing of the command unit, and Figure 59 is a diagram showing the flow of the system proficiency data collection process. Figure 60 is a diagram showing the structure of the proficiency level table, Figures 61 to 68 are diagrams for explaining the processing of the work environment data collection unit, and Figure 69 is a diagram showing the moving image generation processing in this workstation. A diagram showing the flow, FIG. 70 is a diagram showing a procedure for extracting data for creating a moving image by analyzing a specified sentence section, FIG. 71 is a diagram showing an example of the configuration of the moving image creating section, and FIG.
The figure is a diagram showing an example of a moving image generated corresponding to a sentence section. DESCRIPTION OF SYMBOLS 1... Bus, 2... Control unit, 3... Image input device, 4... Position input device, 5... Audio input unit, 6...
- Keyboard 1 part, 7... IC card part, 8... Bus controller, 9... Audio output device, 10... Display part, 11... Image output device, 12.13
...Communication device, 14.Switching device, 15.Timer part, 16.Encryption processing section, 17.Voice verification section,
18... Image matching unit, 19... Voice recognition unit, 2
0...Speech analysis section, 21...Character recognition section, 22...
・Graphic recognition unit, 23... Image recognition unit, 24...
Output format selection unit, 25... Working environment data collection unit, 2
6... Voice synthesis section, 27... Image synthesis section, 28
... Graphic synthesis section, 29 ... Audio compression/expansion section, 3
0... Image compression/expansion unit, 31... Signal processing unit, 32... Database unit, 41... Image generation unit,
42...Movie model database, 43...Movie storage control unit, 44...Image database. Applicant's Representative Patent Attorney Takehiko Suzue No. 1 Case 11 Japan HG3-27G672 (30) Figure 2 ( ) Figure 21 Figure 24 Figure 53 Figure 54 Figure 55 Figure 65 Figure 66 Figure 67 Figure 68 Figure 69 (Data for middle point PL) Figure 70

Claims (4)

【特許請求の範囲】[Claims] (1)表示装置に文章データを文字列として表示させる
手段と、表示された文章データ中の特定の文章区間を指
示する手段と、指示された文章区間の文字列を解析して
該文章区間の文章情報を抽出する手段と、抽出された文
章情報に従って動画像を生成して表示する手段と、この
動画像の情報を記憶する手段とを具備したことを特徴と
する知的ワークステーション。
(1) A means for displaying text data as a character string on a display device, a means for indicating a specific text section in the displayed text data, and a means for analyzing the character string of the indicated text section and An intelligent workstation characterized by comprising means for extracting text information, means for generating and displaying a moving image according to the extracted text information, and means for storing information on the moving image.
(2)文章区間の指定は、複数の文章区間の指定とその
リンク関係を指定して行われるものである特許請求の範
囲第1項記載の知的ワークステーション。
(2) The intelligent workstation according to claim 1, wherein the text section is specified by specifying a plurality of text sections and their link relationships.
(3)文章情報の抽出は、指定された文章区間の文字列
を構文解析して文章の主体、主題、数値データ、時間的
関係の情報をそれぞれ抽出して行われるものである特許
請求の範囲第1項記載の知的ワークステーション。
(3) Extraction of text information is performed by parsing a character string in a specified text section and extracting information on the main body, subject matter, numerical data, and temporal relationship of the text. Intelligent workstation according to paragraph 1.
(4)動画像の生成は、数値データの変化とその時間的
関係に従って表示図形の情報を変化させて行われるもの
である特許請求の範囲第1項記載の知的ワークステーシ
ョン。
(4) The intelligent workstation according to claim 1, wherein the moving image is generated by changing the information of the displayed graphics according to changes in numerical data and their temporal relationships.
JP62056739A 1987-03-13 1987-03-13 Intelligent work station Pending JPS63276672A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP62056739A JPS63276672A (en) 1987-03-13 1987-03-13 Intelligent work station

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP62056739A JPS63276672A (en) 1987-03-13 1987-03-13 Intelligent work station

Publications (1)

Publication Number Publication Date
JPS63276672A true JPS63276672A (en) 1988-11-14

Family

ID=13035894

Family Applications (1)

Application Number Title Priority Date Filing Date
JP62056739A Pending JPS63276672A (en) 1987-03-13 1987-03-13 Intelligent work station

Country Status (1)

Country Link
JP (1) JPS63276672A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7392312B1 (en) * 1998-09-11 2008-06-24 Lv Partners, L.P. Method for utilizing visual cue in conjunction with web access
US7739353B2 (en) 1998-09-11 2010-06-15 Rpx-Lv Acquisition Llc Launching a web site using a personal device
US7822829B2 (en) 1998-09-11 2010-10-26 Rpx-Lv Acquisition Llc Method for interfacing scanned product information with a source for the product over a global network
US7819316B2 (en) 1998-09-11 2010-10-26 Lv Partners, L.P. Portable scanner for enabling automatic commerce transactions
US7870189B2 (en) 1998-09-11 2011-01-11 Rpx-Lv Acquisition Llc Input device having positional and scanning capabilities
US7925780B2 (en) 1998-09-11 2011-04-12 Rpx-Lv Acquisition Llc Method for connecting a wireless device to a remote location on a network
US7979576B2 (en) 1998-09-11 2011-07-12 Rpx-Lv Acquisition Llc Method and apparatus for connecting a user location to one of a plurality of destination locations on a network
US8005985B2 (en) 1998-09-11 2011-08-23 RPX—LV Acquisition LLC Method and apparatus for utilizing an audibly coded signal to conduct commerce over the internet
US8296440B2 (en) 1998-09-11 2012-10-23 Rpx Corporation Method and apparatus for accessing a remote location with an optical reader having a programmable memory system

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7392312B1 (en) * 1998-09-11 2008-06-24 Lv Partners, L.P. Method for utilizing visual cue in conjunction with web access
US7739353B2 (en) 1998-09-11 2010-06-15 Rpx-Lv Acquisition Llc Launching a web site using a personal device
US7822829B2 (en) 1998-09-11 2010-10-26 Rpx-Lv Acquisition Llc Method for interfacing scanned product information with a source for the product over a global network
US7819316B2 (en) 1998-09-11 2010-10-26 Lv Partners, L.P. Portable scanner for enabling automatic commerce transactions
US7870189B2 (en) 1998-09-11 2011-01-11 Rpx-Lv Acquisition Llc Input device having positional and scanning capabilities
US7912961B2 (en) 1998-09-11 2011-03-22 Rpx-Lv Acquisition Llc Input device for allowing input of unique digital code to a user's computer to control access thereof to a web site
US7912760B2 (en) 1998-09-11 2011-03-22 Rpx-Lv Acquisition Llc Method and apparatus for utilizing a unique transaction code to update a magazine subscription over the internet
US7925780B2 (en) 1998-09-11 2011-04-12 Rpx-Lv Acquisition Llc Method for connecting a wireless device to a remote location on a network
US7979576B2 (en) 1998-09-11 2011-07-12 Rpx-Lv Acquisition Llc Method and apparatus for connecting a user location to one of a plurality of destination locations on a network
US8005985B2 (en) 1998-09-11 2011-08-23 RPX—LV Acquisition LLC Method and apparatus for utilizing an audibly coded signal to conduct commerce over the internet
US8296440B2 (en) 1998-09-11 2012-10-23 Rpx Corporation Method and apparatus for accessing a remote location with an optical reader having a programmable memory system

Similar Documents

Publication Publication Date Title
JPS63223965A (en) Intellectual work station
JP3848319B2 (en) Information processing method and information processing apparatus
Chen et al. Emotional expressions in audiovisual human computer interaction
JPS6386655A (en) Meida converting system
JPS63276672A (en) Intelligent work station
CN115730203A (en) Voice emotion recognition method based on global perception cross-modal feature fusion network
US20150293902A1 (en) Method for automated text processing and computer device for implementing said method
JPS6386652A (en) Telephone incoming call information offering system
JPS6385964A (en) Schedule display system
US20170352344A1 (en) Latent-segmentation intonation model
JP2582356B2 (en) Facsimile communication system
JPH06187351A (en) Schedule management system
JPS6385934A (en) Intelligent work station
JPS6385968A (en) Schedule informing system
JPS6386648A (en) Preferential telephone system
JPS6386947A (en) Work station
JPS6385963A (en) Conference arranging system
JPS6385931A (en) Intelligent work station
JPS6385979A (en) File retrieving device
JPS6386662A (en) Fax male system
JPS6386658A (en) Voice informing equipment
JPS6385967A (en) Schedule protection system
JPS6385929A (en) File retriever
JPS6386944A (en) Inteligent work station
JPS6386647A (en) Automatic call transfer telephone system