JPH07105848B2 - Media conversion method - Google Patents

Media conversion method

Info

Publication number
JPH07105848B2
JPH07105848B2 JP61230061A JP23006186A JPH07105848B2 JP H07105848 B2 JPH07105848 B2 JP H07105848B2 JP 61230061 A JP61230061 A JP 61230061A JP 23006186 A JP23006186 A JP 23006186A JP H07105848 B2 JPH07105848 B2 JP H07105848B2
Authority
JP
Japan
Prior art keywords
media
unit
information
image
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP61230061A
Other languages
Japanese (ja)
Other versions
JPS6386655A (en
Inventor
晋 吉村
謙二 鈴木
基 栗原
裕美 斎藤
誠 根岸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP61230061A priority Critical patent/JPH07105848B2/en
Publication of JPS6386655A publication Critical patent/JPS6386655A/en
Publication of JPH07105848B2 publication Critical patent/JPH07105848B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Description

【発明の詳細な説明】 [発明の目的] (産業上の利用分野) 本発明は、マルチメディア対応のワークステーションに
おけるメディア変換方式に関する。
DETAILED DESCRIPTION OF THE INVENTION [Object of the Invention] (Field of Industrial Application) The present invention relates to a media conversion system in a workstation for multimedia.

(従来の技術) 情報処理技術の発展に伴い、種々のワークステーション
が開発されている。そして従来一般的なコード情報のみ
ならず、音声データや画像データ等の種々のメディアの
情報を処理し得るワークステーションが開発されてい
る。またその通信メディアも多様化している。
(Prior Art) With the development of information processing technology, various workstations have been developed. A workstation has been developed which can process not only general code information but information of various media such as voice data and image data. The communication media are also diversifying.

ところでこの種のマルチメディア対応のワークステーシ
ョンは、専らオフィス毎に設置され、そのオフィス内で
のみ使用されているのが実情である。また最近では複数
のワークステーションを通信網を介して相互に結び、複
数のワークステーション間で情報通信したり、また種々
の情報端末からワークステーションの処理機能を利用す
ることも行われている。
By the way, this kind of multimedia-compatible workstation is installed in each office, and is used only in that office. In recent years, a plurality of workstations are connected to each other via a communication network, information is communicated between the plurality of workstations, and the processing functions of the workstations are used from various information terminals.

然し乍ら、この種のワークステーション間や、ワークス
テーションと他の情報端末との間で情報通信する場合、
それらが取扱い得るメディアが同一、つまり情報通信を
行なう端末相互の機能が同一であることが前提となる。
しかしワークステーションとの間で情報通信する可能性
のある全ての情報端末に該ワークステーションと同じ処
理機能を持たせることは殆んど不可能である。この為、
ワークステーションが情報通信し得る通信相手端末が限
られ、通信範囲の拡大に大きな制約を受けている。
However, when communicating information between workstations of this type, or between workstations and other information terminals,
It is premised that the media that they can handle are the same, that is, the functions of the terminals that perform information communication are the same.
However, it is almost impossible to provide all the information terminals that have the possibility of communicating information with the workstation with the same processing function as the workstation. Therefore,
The communication partner terminals with which the workstation can communicate information are limited, and the expansion of the communication range is greatly restricted.

(発明が解決しようとする問題点) 本発明は、情報端末がワークステーションと同じ機能を
持たない限り、その情報端末からワークステーションが
持つ機能を有効利用することができなかったと云う不具
合に鑑みてなされたもので、その目的とするところは、
ワークステーションから通信相手端末に通信すべき情報
を、該通信相手端末が処理可能なメディアの種類に応じ
たメディアに変換して情報通信することを可能ならし
め、ワークステーションが持つ情報を種々の情報端末に
て出力できるようにしたメディア変換方式を提供するこ
とにある。
(Problems to be Solved by the Invention) The present invention has been made in view of the problem that the function of the workstation cannot be effectively used from the information terminal unless the information terminal has the same function as the workstation. It was done and the purpose is to
It makes it possible to convert the information to be communicated from the workstation to the communication partner terminal into a medium according to the type of media that can be processed by the communication partner terminal and to perform information communication, and to change the information held by the workstation into various information. It is to provide a media conversion method that can be output on a terminal.

[発明の構成] (問題点を解決するための手段) 本発明は第1図にその概略を示すように、音声認識装
置、文字認識装置、図形認識装置、イメージ認識装置、
音声合成装置、イメージ合成装置、図形合成装置や、各
種データの圧縮・伸長装置等の複数種類のメディア変換
部Aと、種々の通信相手端末Bとの間で情報通信を行な
う通信装置Cとを具備したマルチメディア対応のワーク
ステーションであって、 通信に供される情報の入力メディアを入力メディア検出
部(自局メディア識別部D)にて検出すると共に、相手
メディア検出部(相手局メディア識別部E)にて通信相
手端末が処理可能なメディアを検出して上記情報を通信
する為の通信メディアを求め、メディア選択制御部Fの
制御の下で上記入力メディアと通信メディアに従ってメ
ディア変換テーブルGを参照して前記入力情報を前記通
信相手端末に通信する為に必要なメディア変換の種別を
求め、このメディア変換の種別に応じて前記メディア変
換手段Aを選択的に起動して前記入力情報をメディア変
換して前記通信相手端末に送信するようにしたことを特
徴とするものである。
[Structure of the Invention] (Means for Solving Problems) The present invention, as schematically shown in FIG. 1, includes a voice recognition device, a character recognition device, a figure recognition device, an image recognition device,
A voice synthesizing device, an image synthesizing device, a graphic synthesizing device, a plurality of types of media converting units A such as various data compressing / expanding devices, and a communication device C that performs information communication with various communication partner terminals B. In the equipped multimedia-compatible workstation, the input medium of information to be used for communication is detected by the input medium detection unit (own-station media identification unit D), and the partner media detection unit (remote-station media identification unit) is detected. In E), a communication medium for processing the above information is detected by detecting a medium that can be processed by the communication partner terminal, and a media conversion table G is obtained according to the input medium and the communication medium under the control of the medium selection control unit F. The type of media conversion required for communicating the input information to the communication partner terminal is obtained by referring to the media conversion type according to the type of media conversion. The input information is converted into media and transmitted to the communication partner terminal.

具体的には、例えば通信相手端末がファクシミリ装置を
備えた電話端末である場合、その通信相手端末の種別を
検出して画像データや音声データを通信可能なことを求
め、この通信データのメディアに応じて、例えば文字コ
ード列で示される文書情報を文字画像情報にメディア変
換して情報通信するようにしたものである。
Specifically, for example, when the communication partner terminal is a telephone terminal equipped with a facsimile device, the type of the communication partner terminal is detected, it is requested that image data and voice data can be communicated, and the media of this communication data is used. Accordingly, for example, the document information represented by the character code string is media-converted into character image information for information communication.

またメディア選択制御部Fは必要に応じて自己メディア
機能テーブルHを参照して該ワークステーションが備え
たメディア変換機能等を求め、上記メディア変換の種別
の選択を制御するものとなっている。
Further, the media selection control section F refers to the self media function table H as needed to obtain the media conversion function and the like provided in the workstation, and controls the selection of the media conversion type.

(作用) 本発明によれば、通信相手端末がワークステーションと
同じ処理機能を備えていなくても、ワークステーション
の相手メディア検出部がその通信相手端末が処理できる
メディアの種別を、例えば通信相手端末から送られてく
るメディア識別信号から検出し、この検出結果に従って
上記通信相手端末に情報通信するに適したメディアの種
別を求めてメディア変換手段を選択的に起動し、前記入
力情報のメディアを通信相手端末が処理可能なメディア
に変換して通信する。従って通信相手端末が備えている
処理機能(処理メディア)に応じてワークステーション
が持つ情報のメディアを変換し、これを効果的に通信出
力することが可能となる。
(Operation) According to the present invention, even if the communication partner terminal does not have the same processing function as the workstation, the partner media detection unit of the workstation determines the type of media that the communication partner terminal can process, for example, the communication partner terminal. From the media identification signal sent from the communication device, and according to the detection result, the media conversion means is selectively activated to obtain the type of media suitable for information communication with the communication partner terminal, and the media of the input information is communicated. Communication is performed by converting to media that the other terminal can process. Therefore, it becomes possible to convert the information medium possessed by the workstation according to the processing function (processing medium) of the communication partner terminal, and effectively output this by communication.

例えばワークステーションに接続された通信相手端末が
ファクシミリ装置の場合、文字コード列で示される文書
情報を文字画像として情報通信して出力することが可能
となり、また電話端末が接続されている場合には文書情
報を合成音声として通信出力することが可能となる。
For example, when the communication partner terminal connected to the workstation is a facsimile machine, it becomes possible to communicate and output the document information represented by the character code string as a character image, and when the telephone terminal is connected. It becomes possible to communicate and output the document information as a synthetic voice.

またワークステーションでは、例えば文字画像として入
力された情報を文字認識して文字コード列化し、更にこ
の文字コード列の情報を音声情報に変換して電話端末に
通信出力することが可能となる。
Further, in the workstation, for example, it becomes possible to recognize the information input as a character image into a character code string, convert the information of the character code string into voice information, and output the information to the telephone terminal by communication.

(実施例) 以下、図面を参照して本発明の実施例につき説明する。Embodiments Embodiments of the present invention will be described below with reference to the drawings.

第2図は本発明の実施例に係る知的ワークステーション
の概略構成図である。この知的ワークステーションは、
以下の各部を備えて構成される。
FIG. 2 is a schematic configuration diagram of an intelligent workstation according to the embodiment of the present invention. This intelligent workstation
It is configured to include the following parts.

バス1;以下に説明する各部の間ので必要な情報転送を行
なう為に用いられる。
Bus 1; used for performing necessary information transfer between the units described below.

制御部2;マイクロプロセッサを主体として構成され、該
知的ワークステーションの各部の動作をそれぞれ制御す
るものである。
Control unit 2; which is mainly composed of a microprocessor and controls the operation of each unit of the intelligent workstation.

イメージ入力装置3;カメラやスキャナ、OCR等からな
り、各種のイメーシ情報を入力する。
Image input device 3; consisting of a camera, scanner, OCR, etc., for inputting various image information.

位置座標入力装置4;タブレットやマウス等からなり、指
定された位置座標情報を入力する。
Position coordinate input device 4; comprising a tablet, mouse, etc., for inputting specified position coordinate information.

音声入力部5;マイクロフォン等により構成され、音声情
報を入力する。
A voice input unit 5 is composed of a microphone or the like and inputs voice information.

キーボード部6;複数のキーを備え、文字・記号コードや
制御コード等を入力する為のものである。
Keyboard section 6; provided with a plurality of keys for inputting character / symbol codes, control codes, and the like.

ICカード部7;後述するようにICカードが装着され、該IC
カードとの間で必要な情報を入出力するものである。
IC card section 7; an IC card is mounted as described later
The necessary information is input to and output from the card.

バスコントローラ8;バス1を介する各部間の情報転送を
制御する。
Bus controller 8: Controls information transfer between each unit via the bus 1.

音声出力部9;スピーカ等からなり、音声情報を出力す
る。
Audio output unit 9: A speaker or the like, which outputs audio information.

ディスプレイ部10;CRTディスプレイや液晶ディスプレイ
等からなり、文字・図形・画像等を表示する。
Display unit 10: A CRT display, a liquid crystal display, or the like, which displays characters, figures, images, and the like.

イメージ出力装置11;FAXやカラープリンタ等からなり、
種々のイメージ情報をプリント出力する。
Image output device 11; consisting of fax, color printer, etc.
Print out various image information.

通信装置12,13;該ワークステーションと電話機、或いは
遠隔地に設置された他のワークステーションや端末等と
の情報通信を行なう。
Communication devices 12, 13: Performs information communication between the work station and a telephone, or another work station or terminal installed in a remote place.

切換え装置14;複数の通信装置を切換え使用する。Switching device 14; switches and uses a plurality of communication devices.

タイマー部15;該ワークステーションに時刻情報や時間
情報を提供する。
Timer unit 15; Provides time information and time information to the workstation.

暗号化処理部16;種々の情報を暗号化処理する。Encryption processing unit 16; Performs encryption processing on various information.

音声照合部17;与えられた音声情報が特定の音声である
か否かを照合処理する。
Voice collating unit 17; collates whether or not the given voice information is a specific voice.

イメージ照合部18;与えられたイメージ情報が特定のイ
メージであるか否かを照合処理する。
Image collating unit 18; collates whether or not the given image information is a specific image.

音声認識部19;与えられた音声情報を認識処理する。Voice recognition unit 19; recognizes the given voice information.

音声分析部20;音声入力部5等から入力された音声の特
徴を抽出する等して該音声を分析処理する。
Voice analysis unit 20; analyzes the voice by extracting features of the voice input from the voice input unit 5 or the like.

文字認識部21;前記イメージ入力装置3等から入力され
た文字・記号パターンを認識処理する。
Character recognition unit 21; recognizes character / symbol patterns input from the image input device 3 or the like.

イメージ認識部23;前記イメージ入力装置3等から入力
された図形イメージ等を認識処理する。
Image recognition unit 23; recognizes a graphic image or the like input from the image input device 3 or the like.

出力形態選択部24;該ワークステーションから出力する
情報の形態を選択制御する。
Output form selection unit 24: Selects and controls the form of information output from the workstation.

作業環境データ収集部25;該ワークステーションの機能
状態や、それによるオフィス内の作業環境等の情報を収
集入力する。
Work environment data collection unit 25: Collects and inputs information such as the functional status of the workstation and the work environment in the office due to the function status.

音声合成部26;処理データに従って合成音声を生成す
る。
Speech synthesizer 26; Generates synthetic speech according to the processed data.

イメージ合成部27;複数のイメージ情報を合成処理した
り、処理データに従ってイメージの編集処理を実行す
る。
Image synthesizing unit 27: Performs a synthesizing process of a plurality of image information and executes an image editing process according to the process data.

図形合成処理部28;種々の図形を合成処理したり、処理
データに従って図形の加入・削除等の編集処理を実行す
る。
Figure synthesizing processing unit 28: synthesizes various figures, and executes edit processing such as addition / deletion of figures according to processing data.

音声の圧縮・伸長部29;音声データを圧縮符号化した
り、圧縮された音声データの復元伸長を行なう。
Audio compression / decompression unit 29: Compresses and encodes audio data, and restores and expands compressed audio data.

イメージの圧縮・伸長部30;イメージ・データを圧縮符
号化したり、圧縮されたイメージ・データの復元伸長を
行なう。
Image compression / decompression unit 30; compresses and encodes image data, and restores / decompresses compressed image data.

信号処理部31;種々の信号情報の符号化圧縮やその復元
伸長、必要な情報の付加等の一連の信号処理を実行す
る。
The signal processing unit 31 executes a series of signal processing such as coding / compression of various signal information, decompression / decompression thereof, addition of necessary information, and the like.

データベース部32;種々の情報を複数のリレーションに
それぞれ分類し、データベースとして蓄積する。尚、こ
のデータベースはコード情報のみならず、イメージや音
声機としても構築される。
Database unit 32: Classifies various information into a plurality of relations and stores them as a database. It should be noted that this database is constructed not only as code information but also as an image or a voice machine.

本発明に係る知的ワークステーションは、基本的には上
述した各部を備えて構成され、上述した各部がそれぞれ
が持つ機能を有効に利用して全体的にインテリジェンス
な機能を呈するものとなっている。
The intelligent workstation according to the present invention is basically configured to include the above-described units, and effectively utilizes the functions of the above-described units to exhibit intelligent functions as a whole. .

次に前述したキーボード部5等のように一般的ではな
く、この知的ワークステーションにおいて特徴的な機能
を呈するICカード部7や暗号化処理部16等について更に
詳しく説明する。
Next, the IC card unit 7, the encryption processing unit 16, and the like, which are not general like the keyboard unit 5 and the like described above, and have a characteristic function in this intelligent workstation will be described in more detail.

先ずICカードは、例えば第3図に示すように名刺大の大
きさのカード本体7a内にマイクロプロセッサやメモリ回
路等の半導体回路を内蔵し、カードの一端部に、上述し
た構成の知的ワークステーション本体に接続する為のイ
ンターフェース部7b、および表示窓部7cを設けて構成さ
れる。
First, as shown in FIG. 3, for example, an IC card has a built-in semiconductor circuit such as a microprocessor and a memory circuit in a card body 7a having a size of a business card. An interface section 7b for connecting to the station body and a display window section 7c are provided.

尚、表示窓部7cは透明偏光体を埋め込んで形成されるも
ので、その位置はインターフェース部7bや半導体回路と
乗畳しない位置に設定される。またカード本体7aは、上
記表示窓部7cに対応する部分のみが透明であっても良
く、またその基板全体が透明なものであっても良い。
The display window portion 7c is formed by embedding a transparent polarizer, and its position is set so that it does not overlap with the interface portion 7b or the semiconductor circuit. Further, in the card body 7a, only the portion corresponding to the display window portion 7c may be transparent, or the entire substrate thereof may be transparent.

しかしてICカードは、具体的には第4図にその分解斜視
図を示すように、一対のカバー基板7d,7e、これらのカ
バー基板7d,7eに挟持される埋め込み基板7f、コアシー
ト材7g、プリント基板7hを一体的に熱圧着して構成され
る。
Therefore, as shown in its exploded perspective view in FIG. 4, the IC card has a pair of cover substrates 7d and 7e, an embedded substrate 7f sandwiched between these cover substrates 7d and 7e, and a core sheet material 7g. The printed circuit board 7h is integrally thermocompression bonded.

このプリント基板7hの前記インターフェース部7bに対向
する位置には入出力端子7iが設けられ、また表示窓部7c
に対向する位置には液晶表示装置7jが設けられる。更に
はプリント基板7hには半導体集積回路7kが設けれらる。
またカバー基板7cには前記プリント基板7hにおける発熱
を発散する為の金属箔7mが設けられる。
An input / output terminal 7i is provided at a position facing the interface portion 7b of the printed board 7h, and a display window portion 7c is provided.
A liquid crystal display device 7j is provided at a position opposed to. Furthermore, a semiconductor integrated circuit 7k can be provided on the printed board 7h.
Further, the cover substrate 7c is provided with a metal foil 7m for dissipating the heat generated in the printed circuit board 7h.

尚、カバー基板7d,7eや埋め込み基板7f、コアシート材7
gにそれぞれ穿たれた孔部はプリント基板7hに集積され
た半導体集積回路7j等にそれぞれ対向する位置に設けら
れたものである。これらの孔部に上記半導体集積回路7k
等を嵌合させて前記カバー基板7d,7e、埋め込み基板7
f、コアシート材7g、プリント基板7hが積層一体化され
てICカードが構成される。そして入出力端子7iは、カバ
ー基板7dに穿たれた孔部を介して露出し、ワークステー
ション本体に電気的に接続されるインターフェース部7b
を構成する。
The cover substrates 7d and 7e, the embedded substrate 7f, the core sheet material 7
The holes formed in g are provided at positions facing the semiconductor integrated circuits 7j and the like integrated on the printed board 7h, respectively. The semiconductor integrated circuit 7k is placed in these holes.
The cover substrates 7d and 7e, the embedded substrate 7
f, the core sheet material 7g, and the printed board 7h are laminated and integrated to form an IC card. The input / output terminal 7i is exposed through a hole formed in the cover substrate 7d and is electrically connected to the workstation main body.
Make up.

尚、前記液晶表示装置7jは、例えば第5図にプリント基
板7k部の断面構造を示すように、スペーサを介して設け
られた一対のポリエーテルサルフォンフィルム基板の間
に液晶層を挟持し、該フィルム基板の内側面に透明導電
膜をそれぞれ形成すると共に、下面側のフィルム基板に
偏光体や反射体を設けて構成される。このようにポリエ
ーテルサルフォンフィルム基板を用いて液晶表示装置7j
を構成すれば、その厚みを0.6μm以下にすることも容
易であり、ガラス基板を用いて液晶表示装置を構成する
場合に比較してICカード自体を薄くすることができる。
The liquid crystal display device 7j has a liquid crystal layer sandwiched between a pair of polyether sulfone film substrates provided with spacers, as shown in the sectional structure of the printed circuit board 7k portion in FIG. 5, for example. A transparent conductive film is formed on the inner surface of the film substrate, and a polarizer or reflector is provided on the film substrate on the lower surface side. In this way, using a polyether sulfone film substrate, a liquid crystal display device 7j
With this configuration, it is easy to reduce the thickness to 0.6 μm or less, and the IC card itself can be made thinner than when a liquid crystal display device is configured using a glass substrate.

またこのICカードの駆動電源については、前記インター
フェース部7bを介してワークステーション本体側から供
給するようにしても良いが、カード内に内蔵するように
しても良い。この場合には、例えば高分子フィルムを用
いたシート状の電池として組込むようにすれば良い。
Further, the driving power of this IC card may be supplied from the workstation main body side via the interface section 7b, or may be built in the card. In this case, for example, a sheet-shaped battery using a polymer film may be incorporated.

しかして前記半導体集積回路7kは、例えば第6図に示す
ようにCPU7pやデータメモリであるPROM7q、E2PROM7r、
およびこれらのメモリに対する選択部7s等を備えて構成
される。PROM7qは消去・書替え不可能な大容量の不揮発
性メモリであり、前記CPU7pに対する制御プログラム
や、永久記録すべき情報等を格納している。またE2PROM
7rは書替え可能な小容量の不揮発性メモリであり、例え
ば情報の取引番号や、情報通番等の使用時に更新される
情報が格納される。
Therefore, the semiconductor integrated circuit 7k includes, for example, as shown in FIG. 6, a CPU 7p, a data memory PROM 7q, an E 2 PROM 7r,
And a selection unit 7s for these memories. The PROM 7q is a large-capacity non-volatile memory that cannot be erased / rewritten, and stores a control program for the CPU 7p, information to be permanently recorded, and the like. Also E 2 PROM
Reference numeral 7r is a rewritable small-capacity non-volatile memory, and stores information such as a transaction number of information and information updated when the information is used.

これらのメモリは前記選択部7sの制御により選択的に駆
動され、前記CPU7pとの間で情報の入出力を行なう。CPU
7pはこれらのメモリを用いて必要な情報処理を実行し、
またそのインターフェース部から前述した端子部7iを介
して知的ワークステーション本体との間で情報の入出力
を行なう。
These memories are selectively driven by the control of the selecting unit 7s, and input / output of information with the CPU 7p. CPU
7p uses these memories to perform the necessary information processing,
Further, information is input / output from / to the intelligent workstation main body through the interface section through the terminal section 7i described above.

前記ICカード部7は、このようなICカードを装着し、該
ICカードとの間で情報の入出力を行なうことになる。
The IC card unit 7 is equipped with such an IC card,
Information will be input to and output from the IC card.

尚、ICカードは上述した構成に限定されるものでないこ
とは勿論のことであり、その構成に応じてICカード部7
が構成されることも云うまでもない。
It goes without saying that the IC card is not limited to the above-mentioned configuration, and the IC card unit 7 may be used depending on the configuration.
Needless to say, is configured.

次に暗号化処理部16について説明する。Next, the encryption processing unit 16 will be described.

暗号化処理部16は、例えば第7図に示すように暗号化部
16a、復号化部16b、秘密鍵ファイル部16c、公開鍵ファ
イル部16d、そして鍵更新部16eを備えて構成される。
The encryption processing unit 16 is, for example, as shown in FIG.
16a, a decryption unit 16b, a private key file unit 16c, a public key file unit 16d, and a key update unit 16e.

そして第8図にその概念を示すように、与えられた通信
原文を暗号鍵に従って暗号化してその暗号通信文を生成
したり、また逆に与えられた暗号通信文を暗号鍵に従っ
て復号してその原文を求める処理を実行する。
Then, as shown in the concept in FIG. 8, the given communication original text is encrypted according to the encryption key to generate the encrypted communication text, and conversely, the given encrypted communication text is decrypted according to the encryption key and Executes the process for obtaining the original text.

秘密鍵ファイル部16cおよび公開鍵ファイル部16dはこの
暗号・復号化に用いられる鍵を記憶するものであり、鍵
更新部16eはこれらのファイルされた鍵の更新を司る。
The private key file unit 16c and the public key file unit 16d store the keys used for this encryption / decryption, and the key updating unit 16e controls the updating of these filed keys.

ここで秘密鍵は、この暗号化処理部16を所有するワーク
ステーションのみが知る鍵であり、他のワークステーシ
ョン等に対しては秘密にされる。これに対して公開鍵は
各ワークステーションに設定された各秘密鍵とそれぞれ
対をなすものであり、他のワークステーションにそれぞ
れ与えられて公開される。公開鍵ファイル部16dは、こ
れらの複数のワークステーションがそれぞれ公開した公
開鍵を、各ワークステーションに対応して記憶するもの
である。
Here, the secret key is a key known only to the workstation that owns the encryption processing unit 16, and is kept secret from other workstations. On the other hand, the public key forms a pair with each secret key set in each workstation, and is given to other workstations and made public. The public key file unit 16d stores the public keys published by each of these workstations in association with each workstation.

暗号化部16aは第9図に示すように、RSA処理部16iと暗
号化種別付加部16jとを備えて構成される。そして通信
原文を暗号化して情報通信しようとするとき、その通信
相手先のワークステーションが公開した公開鍵を用いて
通信原文を暗号化し、その暗号通信文に暗号の種別を示
す情報を付加して通信情報を作成し、これを通信するも
のとなっている。尚、暗号の種別の情報は、例えば“0"
で暗号化していないこと、また“1"で暗号化しているこ
とを示す情報や、暗号方式を示す情報等からなる。
As shown in FIG. 9, the encryption unit 16a includes an RSA processing unit 16i and an encryption type addition unit 16j. Then, when attempting to communicate information by encrypting the communication source text, the communication source text is encrypted using the public key disclosed by the workstation of the communication partner, and information indicating the type of encryption is added to the encrypted communication text. Communication information is created and communicated. The encryption type information is, for example, "0".
It is composed of information indicating that it is not encrypted in step 1, and that it is encrypted in step 1, and information indicating the encryption method.

また復号化部16bは、自己ワークステーションが公開し
た公開鍵を用いる或るワークステーションが暗号化して
通信してきた暗号通信文を入力し、これを該秘密鍵に対
応した秘密鍵を用いて復号化するものであり、第10図に
示すように暗号文分割部16k、暗号種別判定部16m、切換
え部16n,16p、RSA処理部16qを備えて構成される。
Further, the decryption unit 16b inputs the encrypted communication text which a certain workstation using the public key published by the own workstation encrypts and communicates, and decrypts this using a secret key corresponding to the secret key. As shown in FIG. 10, it comprises a ciphertext division unit 16k, an encryption type determination unit 16m, switching units 16n and 16p, and an RSA processing unit 16q.

暗号文分割部16kは、前述したフォーマットで通信され
てきた通信情報を前述した暗号種別の情報と暗号化通信
文とに分割するものであり、暗号種別判定部16mは該暗
号種別情報からその通信文が暗号化されているか否かを
判別している。そして暗号化されていない場合にはその
通信文を切換え部16n,16pを介して出力し、暗号化され
ている場合にはさの通信文をRSA処理部16qに導いてい
る。このRSA処理部16qにて前記秘密鍵を用いて暗号化通
信文が復号化処理され、切換え部16pを介して出力され
る。
The ciphertext division unit 16k is for dividing the communication information transmitted in the above-mentioned format into the above-mentioned encryption type information and encrypted communication text, and the encryption type determination unit 16m uses the encryption type information to communicate the information. It is determined whether or not the sentence is encrypted. If it is not encrypted, the communication text is output via the switching units 16n and 16p, and if it is encrypted, the communication text is guided to the RSA processing unit 16q. The RSA processing unit 16q decrypts the encrypted communication text using the secret key, and outputs the decrypted communication text via the switching unit 16p.

尚、RSA処理部16i,16qは、例えば第11図に示すようにブ
ロック分割部16sとべき乗・剰余計算部16t、およびブロ
ック連結部16uとを備えて構成される。
The RSA processing units 16i and 16q are configured to include, for example, a block dividing unit 16s, a power / residue calculating unit 16t, and a block connecting unit 16u, as shown in FIG.

ここでブロック分割部16sは与えられた信号系列を一定
の長さのブロックMiに分割するものであり、べき乗・剰
余計算部16tは各ブロックMi毎に暗号化の鍵kを用いて Ni=Mik(mod n) なる信号系列Niを求めている。但し、nは固定の値であ
る。この信号系列Niがブロック連結部16uを介して順に
連結されて出力される。
Here, the block division unit 16s divides the given signal sequence into blocks Mi having a constant length, and the power / residue calculation unit 16t uses Ni = Mik for each block Mi using the encryption key k. (Mod n) signal sequence Ni is obtained. However, n is a fixed value. This signal series Ni is sequentially connected and output via the block connecting section 16u.

暗号化処理にあっては、上記信号系列Miが通信原文であ
り、この通信原文から暗号化された通信文が信号系列Ni
として求められる。また復号化処理にあっては上記信号
系列Miが暗号化通信文であり、この暗号化通信文から復
号化された通信原文が信号系列Niとして求められる。
In the encryption processing, the above-mentioned signal sequence Mi is the original communication text, and the encrypted communication text from this original communication text is the signal series Ni.
Is required as. Further, in the decryption process, the signal series Mi is an encrypted communication text, and the communication original text decrypted from this encrypted communication text is obtained as the signal series Ni.

このような暗号化・復号化を担う鍵kが前述した公開鍵
と秘密鍵であり、これらは対をなして設定される。
The key k responsible for such encryption / decryption is the above-mentioned public key and secret key, which are set in pairs.

従ってワークステーションは、他のワークステーション
から公開された公開鍵に従って通信情報をそれぞれ暗号
化することはできるが、その暗号化された通信文を復号
化し得るのは、その公開鍵と対をなす秘密鍵を知り得る
特定のワークステーションだけとなる。
Therefore, a workstation can encrypt communication information according to a public key published by another workstation, but can decrypt the encrypted communication text only by a secret paired with the public key. Only certain workstations can know the key.

従って或る情報を暗号化して通信しようとするワークス
テーションは、通信相手先のワークステーションが公開
した公開鍵に従って該通信原文を暗号化して通信する。
そしてその通信情報は、秘密鍵を持つ通信相手先のワー
クステーションのみが復号し得るものとなっている。
Therefore, a workstation that attempts to communicate by encrypting certain information encrypts the original communication text according to the public key disclosed by the workstation of the communication partner and communicates.
Then, the communication information can be decrypted only by the communication partner workstation having the secret key.

尚、他のワークステーションがそれぞれ公開した公開鍵
の全てを公開鍵ファイル16dに格納しておく必要はな
い。例えばシステムに対して別に設けられた公開鍵ファ
イル・メモリに、各ワークステーションが公開した公開
鍵を各ワークステーションに対応さてファイルしてお
く。そして情報通信が必要となったとき、その通信相手
先の公開鍵を上記公開鍵ファイル・メモリから読出して
自己のワークステーションの公開鍵ファイル部16に格納
するようにしても良い。
Note that it is not necessary to store all the public keys published by other workstations in the public key file 16d. For example, in a public key file memory provided separately for the system, the public key published by each workstation is filed in association with each workstation. When information communication becomes necessary, the public key of the communication partner may be read from the public key file memory and stored in the public key file unit 16 of the own workstation.

以上が暗号化処理部16の基本的な構成とその機能であ
る。
The above is the basic configuration and function of the encryption processing unit 16.

次にイメージ照合部18について説明する。Next, the image matching unit 18 will be described.

このイメージ照合部18は、前記イメージ入力装置3から
入力されたイメージ情報、例えば個人の顔のイメージを
入力し、その個人同定を行なうものである。
The image matching unit 18 inputs the image information input from the image input device 3, for example, the image of the face of an individual, and identifies the individual.

第12図はこのイメージ照合部の概略構成を示すもので、
18aはイメージ記憶部、18bは正規化回路、18cは2値化
(細線化)回路、18dは特徴データ抽出回路である。ま
た18eはイメージテータを記憶したデータ記憶部であ
り、18fは検索回路、18gは照合回路、そして18hは出力
部である。
Figure 12 shows the schematic structure of this image matching unit.
Reference numeral 18a is an image storage unit, 18b is a normalization circuit, 18c is a binarization (thinning) circuit, and 18d is a characteristic data extraction circuit. Further, 18e is a data storage unit that stores the image data, 18f is a search circuit, 18g is a matching circuit, and 18h is an output unit.

イメージ記憶部18aは前記イメージ入力装置3を介して
入力されたイメージ情報を記憶し、そのイメージ照合処
理に供するものである。このイメージ記憶部18aに記憶
されたイメージ情報に対して正規化回路18bは正規化処
理し、また2値化回路18cは2値化処理する。具体的に
は、ここでは個人の顔のイメージからその個人同定を行
なうべく、正規化回路18bはその顔の大きさを正規化し
ている。この正規化された顔のイメージに対して2値化
回路18cは、例えばエッジ線分検出、そのエッジ線分の
細線化処理等を行なって該イメージの2値画像を求めて
いる。
The image storage section 18a stores the image information input through the image input device 3 and uses it for the image matching process. The normalization circuit 18b normalizes the image information stored in the image storage unit 18a, and the binarization circuit 18c binarizes the image information. Specifically, here, the normalization circuit 18b normalizes the size of the face in order to identify the individual from the image of the face. The binarization circuit 18c performs edge line segment detection, thinning processing of the edge line segment, etc. on the normalized face image to obtain a binary image of the image.

特徴データ抽出回路18dは、このようにして正規化・2
値化されたイメージ情報からその特徴データを抽出する
ものである。即ち、顔のイメージによる照合処理にあっ
ては、例えば第13図に示すように顔の輪郭を1つの特徴
として抽出し、更にそのイメージ中の目、鼻、口等の特
徴を抽出している。具体的には、顔の輪郭的特徴を分類
されたコード情報として、また両眼間の距離l、口の大
きさm、目と口との距離n等を数値データとしてそのイ
メージの特徴として抽出している。
The feature data extraction circuit 18d thus normalizes.
The feature data is extracted from the binarized image information. That is, in the collation processing using the image of the face, for example, as shown in FIG. 13, the contour of the face is extracted as one feature, and the features such as eyes, nose, and mouth in the image are extracted. . Specifically, the contour features of the face are extracted as classified code information, and the distance 1 between the eyes, the size m of the mouth, the distance n between the eyes and the like are extracted as numerical data features of the image. is doing.

しかしてデータ記憶部18eには、予め各個人について求
めれらた顔のイメージの特徴データが、例えば第14図に
示すように登録されている。即ち、各個人毎にその個人
名を識別名として上述した顔のイメージの特徴データが
登録され、且つその顔のイメージ・データがポインタに
よって結ばれている。
In the data storage unit 18e, the feature data of the image of the face obtained for each individual is registered in advance as shown in FIG. 14, for example. That is, the feature data of the face image described above is registered for each individual with the individual name as an identification name, and the image data of the face is linked by a pointer.

検索回路18fは前記特徴データ抽出回路18dにて抽出され
た特徴データに基いて該テータ記憶部18eを検索してい
る。そしてその検索データは照合回路18gに与えられ、
前記特徴データ抽出回路18dで求められた特徴データと
照合処理されている。
The search circuit 18f searches the data storage unit 18e based on the feature data extracted by the feature data extraction circuit 18d. Then, the search data is given to the matching circuit 18g,
It is collated with the characteristic data obtained by the characteristic data extraction circuit 18d.

この照合処理は、例えば特徴データ抽出回路18dで求め
られた入力イメージの特徴データをXi(iは特徴の種
別)、データ記憶部18eに登録されているイメージの特
徴データをYiとしたとき、 なる演算を行い、その演算結果Dの値が最も小さいもの
を、この個人として同定することによって行われる。こ
の同定結果が出力部18hを介して出力される。
For example, when the characteristic data of the input image obtained by the characteristic data extraction circuit 18d is Xi (i is a characteristic type) and the characteristic data of the image registered in the data storage unit 18e is Yi, Is performed, and the one with the smallest value of the calculation result D is identified as this individual. This identification result is output via the output unit 18h.

イメージ照合部18は、基本的にはこのようにして入力イ
メージを照合処理し、例えば該入力イメージの個人同定
等を行なう。
The image collating unit 18 basically collates the input image in this way, and performs, for example, individual identification of the input image.

次に音声認識部19について説明する。Next, the voice recognition unit 19 will be described.

音声認識部19は、例えば第15図に示すように構成され
る。音声入力回路19aは、前記音声入力部5から入力さ
れた音声信号、または公衆電話回線を介して前記通信装
置12,13にて受信された音声信号を入力するもので、こ
の入力音声信号を適当な信号レベルに増幅する増幅器
や、帯域制限用のバンドパスフィルタおよびA/D変換器
等によって構成される。入力音声はこの音声入力回路19
aにて、例えば30〜3400Hzの周波数帯域の信号に制限さ
れ、12KHzのサンプリング周期で12ビットのディジタル
信号に量子化される。
The voice recognition unit 19 is configured, for example, as shown in FIG. The voice input circuit 19a inputs a voice signal input from the voice input unit 5 or a voice signal received by the communication devices 12 and 13 via a public telephone line. It is composed of an amplifier that amplifies to various signal levels, a bandpass filter for band limitation, an A / D converter, and the like. The input voice is this voice input circuit 19
At a, for example, the signal is limited to a signal in the frequency band of 30 to 3400 Hz, and is quantized into a 12-bit digital signal at a sampling period of 12 KHz.

音響処理部19bは、例えば専用のハードウェアにより構
成された積和回路からなる。そして基本的には前記音声
入力回路19aと同期してパイプライン的に高速動作す
る。
The sound processing unit 19b is composed of, for example, a sum-of-products circuit configured by dedicated hardware. Then, basically, it operates at high speed in a pipeline manner in synchronization with the voice input circuit 19a.

ここでの音響処理は、2種のバンドパスフィルタ群によ
り実行される。その1つは16チャンネルのフィルタバン
クで、このフィルタバンクを介して入力音声信号のスペ
クトルの変化が抽出される。今1つは、同じ帯域を、4
チャンネルに分割したグロスフィルタであり、このグロ
スフィルタを介して入力音声の音響的特徴が抽出され
る。
The acoustic processing here is executed by two types of band pass filter groups. One of them is a 16-channel filter bank, through which changes in the spectrum of the input audio signal are extracted. Now one has the same band, 4
This is a gross filter divided into channels, and the acoustic features of the input voice are extracted through this gross filter.

これらの2種類のフィルタ群(フィルタバンクとグロス
フィルタ)は、例えば4次巡回形のディジタルフィルタ
として構成される。そして、例えば10msec毎にそのフィ
ルタリング出力を求めるものとなっている。尚、この音
響処理部の制御はマイクロプログラム方式にて行われ
る。
These two types of filter groups (filter bank and gross filter) are configured as, for example, a fourth-order cyclic digital filter. Then, for example, the filtering output is obtained every 10 msec. The control of the acoustic processing unit is performed by a micro program method.

しかして前処理・認識部19cは、高速プロセッサ19d、パ
ターンマッチング処理部19e、単語辞書メモリ19f、およ
びバッファメモリ19gによって構成される。
Thus, the preprocessing / recognition unit 19c includes a high speed processor 19d, a pattern matching processing unit 19e, a word dictionary memory 19f, and a buffer memory 19g.

バッファメモリ19gは上記音響処理部19bにてフィルタリ
ング処理された音声信号を入力し、例えば最大1.8秒分
の音声データを蓄積するものとなっている。高速プロセ
ッサ19dはこのバッファメモリ19gに格納されたデータに
対して、音声区間検出、リサンプリング、ラベリング、
遷移ネットワークによる認識処理、およびその総合論理
判定処理の実行を行なっている。またこの高速プロセッ
サ19dにより、ホスト計算機との間の通信や該音声認識
部19全体の動作制御が行われる。
The buffer memory 19g receives the audio signal filtered by the acoustic processing unit 19b and stores, for example, a maximum of 1.8 seconds of audio data. The high speed processor 19d detects the voice section, resampling, labeling, with respect to the data stored in the buffer memory 19g.
The recognition process by the transition network and the comprehensive logic judgment process are executed. Further, the high speed processor 19d performs communication with the host computer and operation control of the entire voice recognition unit 19.

この高速プロセッサ19dにて処理された音声データにつ
いて、パターンマッチング処理部19cは単語辞書メモリ1
9fに登録された単語音声の標準パターンデータとの間で
複合類似度計算等のマッチング処理を実行し、その認識
候補を求めている。
For the voice data processed by the high speed processor 19d, the pattern matching processing unit 19c uses the word dictionary memory 1
Matching processing such as complex similarity calculation is executed with the standard pattern data of the word voice registered in 9f to obtain the recognition candidate.

例えば認識対象となる音声単語は離散的に発声される。
そこで高速プロセッサ19dは、例えば音響処理の際に10m
sec毎に計算される入力音声エネルギを用いて単語音声
の入力区間を検出している。
For example, speech words to be recognized are uttered discretely.
Therefore, the high-speed processor 19d uses, for example, 10 m for sound processing.
The input section of word speech is detected using the input speech energy calculated every sec.

具体的には第16図に示すように、背景雑音レベルと入力
音声レベルとから適応的に計算される閾値Eθを用い、
入力音声信号レベルが上記閾値Eθを一定時間以上継続
して越えたとき、該閾値Eθを越えた時点を音声単語の
始端Sとして検出している。その後、上記入力音声信号
のレベルが上記閾値Eθを一定時間以上継続して下回っ
たとき、該閾値Eθを下回った時点を音声単語の終端E
として検出している。
Specifically, as shown in FIG. 16, a threshold E θ adaptively calculated from the background noise level and the input voice level is used,
When the input voice signal level exceeds the threshold value E θ for a certain period of time or longer, the time when the input voice signal level exceeds the threshold value E θ is detected as the beginning S of the voice word. After that, when the level of the input voice signal is continuously lower than the threshold E θ for a certain period of time or more, the time point when the level is lower than the threshold E θ is the end E of the voice word
Is detected as.

ところで音声認識はパターン認識の一種として考え得
る。しかし音声特有のパターン変動や、話者の性別・発
声器官の形状・発声法等に起因する個人差、また話者自
身が発生する雑音や周囲環境の雑音、更には電話音声の
場合には公衆電話回線を経由したことによるレベル差や
雑音の問題がある。この為、これらを考慮し、上述した
変動要素を吸収して、如何に精度良く、安定に音声認識
するかか問題となる。
By the way, speech recognition can be considered as a kind of pattern recognition. However, pattern variations peculiar to voice, individual differences caused by the gender of the speaker, the shape of the vocal organs, vocalization method, etc., the noise generated by the speaker himself or the surrounding environment, and in the case of telephone voice, the public There are problems of level difference and noise due to passing through the telephone line. Therefore, in consideration of these, there is a problem of how to accurately and stably recognize the voice by absorbing the above-mentioned variable elements.

そこでこの前処理・認識部19cではパターンマッチング
法と構造解析法とを2段階に組合せ、ハイブリッド構造
マッチング法と称される認識法を採用している。
Therefore, in this preprocessing / recognition unit 19c, the pattern matching method and the structure analysis method are combined in two stages, and a recognition method called a hybrid structure matching method is adopted.

即ち、上述したように単語音声区間が検出されると、先
ずその音声区間(S,E)を15等分し、その16点をそれぞ
れリサンプル点とする。そして前述した如く音響処理さ
れた16チャンネルの音声データ(スペクトル時系列)か
ら上記各リサンプル点でのスペクトルを抽出する。尚、
音声データのサンプル点と上記リサンプル点との間でず
れがある場合には、リサンプル点の最近傍点のスペクト
ルを抽出すれば良い。
That is, when the word voice section is detected as described above, first, the voice section (S, E) is divided into 15 equal parts, and the 16 points are respectively set as resample points. Then, the spectrum at each resample point is extracted from the 16-channel audio data (spectrum time series) that has been acoustically processed as described above. still,
If there is a deviation between the sample point of the audio data and the resample point, the spectrum of the nearest point of the resample point may be extracted.

このリサンプル処理によって16×16(=256)次元の音
声パターン・ベクトルXを求める。即ち、第j(j=1,
2,3,〜16)番目のリサンプル点をrjとするとき、rjでの
16チャンネルのスペクトルデータを S(rj)=(S1rj,S2rj,〜S16rj) としてそれぞれ求め、これらのSirjを並べ換えて X=(S1r1,S1r2,〜S2r1,〜S16r16)t なる音声パターンのベクトルXを求める。但し、tは行
列の転置を示す。
By this re-sampling processing, a 16 × 16 (= 256) -dimensional voice pattern vector X is obtained. That is, j-th (j = 1,
(2,3, ~ 16) Let rj be the resample point,
16 channels spectral data S (rj) = (S 1 rj, S 2 rj, ~S 16 rj) respectively obtained as, X = and reordering these Sirj (S 1 r 1, S 1 r 2, ~S A vector X of a voice pattern of 2 r 1 to S 16 r 16 ) t is obtained. However, t indicates the transpose of the matrix.

このようにして求められた入力音声パターンベクトルX
と、単語辞書メモリ19fに予め登録された単語音声の標
準パターンとの類似度が、例えば複合類似度法によって
計算される。
The input voice pattern vector X thus obtained
And the similarity with the standard pattern of the word voice registered in advance in the word dictionary memory 19f is calculated by, for example, the composite similarity method.

ここで単語辞書メモリ19fに予め登録された単語音声の
標準パターンは、その単語カテゴリωkについて (ψ1k,ψ2k,〜ψLk) (λ1k,λ2k,〜λLk) 但し、 (λ1k≧λ2k≧〜≧λLk) として準備されている。尚、ψ,k,λ,kはカテゴリωk
に属するパターンベクトルXの分散行列Kにおける固有
ベクトルとその固有値である。このような単語辞書につ
いて、上述した複合類似度S(k)は として計算される。尚、上式において‖X‖はベクトル
Xのノルムである。
Standard patterns where pre-registered word speech the word dictionary memory 19f, the the word category ωk (ψ 1 k, ψ 2 k, ~ψ L k) (λ 1 k, λ 2 k, ~λ L k However, it is prepared as (λ 1 k ≧ λ 2 k ≧ ˜ ≧ λ L k). Note that ψ, k, λ, k is the category ωk
Are the eigenvectors and their eigenvalues in the distribution matrix K of the pattern vector X belonging to For such a word dictionary, the above-mentioned composite similarity S (k) is Calculated as In the above equation, ‖X‖ is the norm of the vector X.

このような複合類似度計算が全てのカテゴリについてそ
れぞれ行われ、上位に位置する類似度値と、それを得た
カテゴリ名とが対にして求められる。
Such a composite similarity calculation is performed for each category, and the similarity value positioned at the top and the category name that obtained it are obtained as a pair.

このような複合類似度法によるパターンマッチングによ
って、多くのパターン変動を救出した認識処理が可能と
なる。しかし類似パターンや雑音が加わったパターンで
は、異なるカテゴリ間でその類似度値の差が小さくなる
ことがある。
By the pattern matching by the composite similarity method as described above, it is possible to perform the recognition processing that rescues many pattern variations. However, in a similar pattern or a pattern in which noise is added, the difference in the similarity value between different categories may be small.

そこで前述したようにパターンマッチング法を補うもの
として、以下の構造解析の手法を導入している。この構
造解析は、単語音声を構成する音の違いに着目して認識
処理するもので、音素ラベル系列と音響的特徴系列の2
つの時系列を利用している。
Therefore, as a complement to the pattern matching method as described above, the following structural analysis method is introduced. This structural analysis focuses on the differences in the sounds that make up the word speech, and performs recognition processing. It consists of a phoneme label series and an acoustic feature series.
It uses two time series.

即ち、音素ラベル系列は、入力音声信号から10msec毎に
計算される16チャンネルのスペクトルを用いて音素辞書
との類似度を計算し、一定値以上の類似度を持つ音素の
ラベル付けして求める。尚、この音素ラベルは、例えば
5つの母音と鼻音との6種類からなる。この際、音素辞
書は、男声と女声に分けてそれぞれ準備しておく方が望
ましい。
That is, the phoneme label sequence is obtained by calculating the similarity with the phoneme dictionary using the 16-channel spectrum calculated every 10 msec from the input speech signal, and labeling the phonemes having a certain value or more. The phoneme label is composed of, for example, 6 types of 5 vowels and nasal sounds. At this time, it is desirable to prepare the phoneme dictionary separately for male voice and female voice.

ここで比較的安定に発音される母音に比べ、子音を音素
として個々にラベル付けすることが困難である。従って
その子音についてはその音響的な特徴をラベル付けし、
これを特徴情報とする。具体的には、音響処理で求めら
れる4チャンネルのグロスフィルタの出力と音声エネル
ギとから音響的特徴を抽出する。このようにして特徴抽
出されてラベル付けされる音響的特徴は、例えば第17図
にグロスフィルタの出力の特徴と対比して示すように、
無音性、無声性、摩擦性、破裂性、エネルギ・ディップ
等の12種類からなる。
Here, it is more difficult to individually label consonants as phonemes, as compared to vowels that are sounded relatively stably. So for that consonant we label its acoustic features,
This is the characteristic information. Specifically, the acoustic feature is extracted from the output of the 4-channel gloss filter and the sound energy obtained by the acoustic processing. The acoustic features that are feature-extracted and labeled in this way are, for example, as shown in FIG. 17 in comparison with the features of the output of the gross filter,
It consists of 12 types such as silence, voicelessness, friction, bursting, and energy dip.

しかして入力音声について求められた音素・音響ラベル
系列は、前記音声区間(S,E)を含む範囲に亙って、各
単語カテゴリ毎に作られた、例えば第18図に示す如き遷
移ネットワークに入力される。
Then, the phoneme / acoustic label sequence obtained for the input speech is generated for each word category over the range including the speech section (S, E), and is converted into a transition network as shown in FIG. 18, for example. Is entered.

この遷移ネットワークの各ノード毎に、指定された音素
ラベルや音響的特徴の有無をチェックする。そして無で
あればリジェクト、有であれば次のノードに遷移させ、
その特徴系列が終了した時点で遷移ネットワークのゴー
ルに到達した入力系列を受理し、そのカテゴリを求め
る。尚、系列のチェックの方向は、ネットワーク毎にそ
の正逆を選択可能なものである。
The presence or absence of a designated phoneme label or acoustic feature is checked for each node of this transition network. If it is not present, reject it, and if it is present, transition to the next node,
The input sequence that reaches the goal of the transition network at the end of the feature sequence is accepted and its category is obtained. It should be noted that the direction of checking the sequence can be selected from forward and backward for each network.

総合判定論理は、前述した如くパターンマッチングによ
って順序付けられた候補カテゴリと、遷移ネットワーク
により求められた認識結果とを総合して、その最終判定
を行なうロジックである。
The comprehensive judgment logic is a logic for making a final judgment by combining the candidate categories ordered by the pattern matching as described above and the recognition result obtained by the transition network.

即ち、この総合判定論理は、パターンマッチングで求め
られた最大類似度S1としたとき、これを所定の閾値θと
比較する。そして(S1<θ)の場合、これを雑音として
リジェクトする。
That is, this comprehensive judgment logic compares this with a predetermined threshold value θ when the maximum similarity S 1 obtained by pattern matching is set. Then, in the case of (S 1 <θ), this is rejected as noise.

また(S1≧θ)の場合には、別の閾値Δθを用いて(S1
−Δθ)以上の類似度を持つカテゴリを候補として抽出
する。そしてその抽出されたカテゴリの数nが1つであ
る場合、これを認識結果として抽出する。また複数のカ
テゴリが抽出された場合には、前記遷移ネットワークに
よる解析結果を参照し、遷移ネットワークで受理された
カテゴリのみを抽出する。そしてその中で最大の類似度
を持つカテゴリを認識結果として求める。
In the case of (S 1 ≧ θ), using a different threshold value [Delta] [theta] (S 1
A category having a degree of similarity equal to or greater than −Δθ) is extracted as a candidate. When the number n of the extracted categories is 1, this is extracted as the recognition result. When a plurality of categories are extracted, the analysis result by the transition network is referred to and only the categories accepted by the transition network are extracted. Then, the category having the highest similarity among them is obtained as the recognition result.

尚、閾値処理によって抽出されたカテゴリの中に、遷移
ネットワークで受理されたものが含まれない場合には、
判定不能とする。
In addition, when the category accepted by the transition network is not included in the categories extracted by the threshold processing,
The judgment cannot be made.

以上のようにして複合類似度法によるパターン認識処理
結果と、遷移ネットワークを用いた認識結果とを統合し
てその入力単語音声の認識が行われる。
As described above, the input word speech is recognized by integrating the pattern recognition processing result by the composite similarity method and the recognition result using the transition network.

第19図はこの音声認識部における単語音声の認識処理手
続きの流れを示すもので、音声区間検出処理の後、リサ
ンプル処理してパターンマッチングを行い、同時にラベ
リング処理して遷移ネットワークによるチェックを行
い、しかる後、これらの各認識結果を統合してその総合
判定論理処理を行なうことが示される。このような処理
が前記高速プロセッサ19dによる処理シーケンスの下で
実行される。
FIG. 19 shows the flow of the word speech recognition processing procedure in this speech recognition unit. After speech section detection processing, resample processing is performed for pattern matching, and at the same time labeling processing is performed for checking by the transition network. Then, it is shown that these recognition results are integrated to perform the comprehensive decision logic process. Such processing is executed under the processing sequence of the high speed processor 19d.

ところで離散的に発声された単語音声ではなく、連続発
声された音声中の単語を認識する場合には次のようにす
れば良い。即ち、この場合には入力音声を種々の部分区
間に分割し、その部分区間毎に単語識別を行なって単語
類似度を求めるようにすれば良い。
By the way, in the case of recognizing words in continuously uttered voices instead of discretely uttered word voices, the following may be done. That is, in this case, the input voice may be divided into various partial sections, and the word similarity may be obtained by performing word identification for each partial section.

具体的には、例えば第20図に示すように入力音声区間に
おける全ての分析フレーム間をそれぞれ部分区間の境界
候補とし、該入力音声区間を複数の部分区間に分ける。
この際、認識対象となる単語の継続時間長については最
大時間長Dmaxと最小時間長Dminが設定できるので、その
範囲内の部分区間だけを認識処理対象とすれば良い。
Specifically, for example, as shown in FIG. 20, all the analysis frames in the input speech section are set as boundary candidates of partial sections, and the input speech section is divided into a plurality of partial sections.
At this time, since the maximum time length Dmax and the minimum time length Dmin can be set for the duration time of the word to be recognized, only the partial section within the range may be the recognition processing target.

ここで第20図に示す例では、連続発声された音声の単語
数が2個の場合を想定して2つの部分区間を求めてい
る。しかし一般的には入力音声の単語数は不明であるか
ら、2単語からn単語までが単語候補として存在すると
仮定して部分区間をそれぞれ検出すれば良い。そして検
出された各部分区間について単語類似度の計算を行い、
その類似度結果の繋がり関係を相互に比較して最も信頼
性の高い部分区間の境界を求め、その境界によって区切
られた部分区間の各単語認識結果を求めるようにすれば
良い。
Here, in the example shown in FIG. 20, two partial sections are obtained on the assumption that the number of words of continuously uttered speech is two. However, since the number of words in the input voice is generally unknown, it is sufficient to detect each of the partial sections on the assumption that 2 to n words exist as word candidates. Then, the word similarity is calculated for each detected subsection,
The connection relationship of the similarity results may be compared with each other to find the boundary of the most reliable subsection, and the word recognition results of the subsections delimited by the boundary may be found.

然し乍ら、このようにして部分区間を求めて単語類似度
計算を行なう場合、部分区間の数が膨大なものとなる
為、処理の高速化が妨げられる。従って実際的には処理
の高速化を考慮して、例えば入力単語数が2〜5単語、
1単語の継続時間長が128〜640msec、1回の発声におけ
る単語長の比が2.5以下、フレーム周期は16msec(8msec
周期で2個に1個の単語を取出す)等の制限を加えて部
分区間を検出するようにすれば良い。
However, when the word similarity calculation is performed by obtaining the subsections in this way, the number of subsections becomes enormous, which hinders speeding up of processing. Therefore, in consideration of speeding up the processing, for example, the number of input words is 2 to 5 words,
The duration of one word is 128 to 640 msec, the ratio of word length in one utterance is 2.5 or less, and the frame period is 16 msec (8 msec.
A partial interval may be detected by adding a restriction such as (taking out one word every two words in a cycle).

このようにすれば連続発声された音声中の単語をそれぞ
れ効果的に認識することが可能となる。
This makes it possible to effectively recognize each word in the continuously uttered voice.

ところでこのような音声認識処理に供される辞書(単語
辞書)の学習は次のようにして行われる。
By the way, learning of a dictionary (word dictionary) used for such a voice recognition process is performed as follows.

この学習処理は、母音パターンおよび子音パターンか
らその特性核を求める処理と、その特性核に対する固
有値と固有ベクトルを求める処理とに大別される。そし
てこの固有値と固有ベクトルとを、その固有値の大きい
ものから順にN個求める。この処理は一般にKL展開と称
されるものである。
This learning process is roughly classified into a process for obtaining the characteristic nucleus from the vowel pattern and the consonant pattern, and a process for obtaining the eigenvalue and eigenvector for the characteristic nucleus. Then, N eigenvalues and eigenvectors are obtained in order from the largest eigenvalue. This process is generally called KL expansion.

先ず特性核を求める処理について説明すると、入力音声
パターン(学習パターン)の特性核Kは、その学習パタ
ーンの縦ベクトルをSmとしたとき、次のようにして求め
られる。
First, the process of obtaining the characteristic kernel will be described. The characteristic kernel K of the input voice pattern (learning pattern) is obtained as follows when the vertical vector of the learning pattern is Sm.

ここに、 Sm=(Sm1,Sm2,Smn)t 尚、この学習パターンSmは、子音パターンの場合には64
次元の縦ベクトルとして与えられる。また母音パターン
の場合には16次元の縦ベクトルとして与えられる。
Here, Sm = (Sm 1 , Sm 2 , Smn) t Note that this learning pattern Sm is 64 when it is a consonant pattern.
Given as a vertical vector of dimensions. In the case of a vowel pattern, it is given as a 16-dimensional vertical vector.

しかして特性核Kは、m個の学習パターンについて、そ
の縦ベクトルSmと、この縦ベクトルSmを転置した横ベク
トルSmとを掛合わせて作成される行列の各成分を、上記
m個の学習パターンに亙って平均化して求められる。従
って特性核の要素数は上記ベクトルの要素数の2乗とな
る。
Then, the characteristic kernel K is obtained by multiplying, for each of m learning patterns, the vertical vector Sm by the horizontal vector Sm obtained by transposing the vertical vector Sm, and calculating each element of the matrix by the above-mentioned m learning patterns. It is calculated by averaging over. Therefore, the number of elements of the characteristic kernel is the square of the number of elements of the above vector.

尚、このような処理によってそのカテゴリのパターン分
布を反映した特性核Kを得るには、或る程度の量を学習
パターンを必要とする。この為、学習パターン・メモリ
に予め所定数の学習パターンを蓄積しておくことが必要
となる。
Incidentally, in order to obtain the characteristic kernel K reflecting the pattern distribution of the category by such processing, a certain amount of learning pattern is required. Therefore, it is necessary to store a predetermined number of learning patterns in the learning pattern memory in advance.

ところが母音の場合には16次元で最低6個のカテゴリの
学習パターンを準備するだけで良いが、子音の場合には
101カテゴリを存在し、しかも64次元のデータとして求
める必要がある。この為、このままでは膨大なメモリ容
量を必要とすることが否めない。
However, in the case of vowels, it is sufficient to prepare learning patterns of at least 6 categories in 16 dimensions, but in the case of consonants,
There are 101 categories, and it is necessary to obtain them as 64-dimensional data. For this reason, it cannot be denied that a huge memory capacity is required as it is.

そこで少数の学習パターンによってパターン分布を反映
した特性核Kを得るべく、次のような特性核の更新処理
を行い、逐次計算によってその特性核を次第にパターン
分布を反映した形に改良して行くようにする。
Therefore, in order to obtain the characteristic kernel K that reflects the pattern distribution with a small number of learning patterns, the following characteristic kernel update processing is performed, and the characteristic kernel is gradually improved to a form that reflects the pattern distribution by sequential calculation. To

即ち、 K=K′+wSnSnt なる演算処理を繰返し実行するようにする。但し、wは
特性核の更新時における重み係数である。この重み係数
wは正負の値を取り、正ならば特性核行列の入力パター
ンに対する類似度を大きくし、逆に負ならば上記類似度
を小さくする作用を呈する。
That is, the arithmetic processing of K = K '+ wSnSnt is repeatedly executed. However, w is a weighting factor when updating the characteristic kernel. The weighting coefficient w takes a positive or negative value, and if it is positive, it has the effect of increasing the similarity to the input pattern of the characteristic kernel matrix, and conversely, if it is negative, it has the effect of decreasing the similarity.

またK′はSnなる学習パターンを学習する前の特性核を
示しており、Kは学習パターンSnの学習によって更新さ
れた特性核を示している。
K'denotes the characteristic nucleus before learning the learning pattern Sn, and K denotes the characteristic nucleus updated by learning the learning pattern Sn.

しかる後、このようにして求められた特性核に対して、
その固有値と固有ベクトルを求める処理が行われ、この
固有値と固有ベクトルとに基いて前述した複合類似度計
算に用いられる標準パターンが作成される。
After that, for the characteristic nucleus obtained in this way,
A process of obtaining the eigenvalue and the eigenvector is performed, and a standard pattern used for the above-described composite similarity calculation is created based on the eigenvalue and the eigenvector.

標準パターンは、上記特性核をKL展開することによって
求められるものであり、例えばべき乗方によるKL展開に
よってその標準パターンが求められる。
The standard pattern is obtained by KL expanding the characteristic kernel, and the standard pattern is obtained by, for example, KL expansion based on the power method.

今、特性核Kが固有値λ12,〜λnを持ち、これに対
応する固有ベクトルξ12,〜ξnを持つものとする。
この場合、その任意ベクトルu0は、上記固有ベクトルξ
12,〜ξnの線形結合して として表わされる。このとき、 Kξi=λiξi なる関係が成立することから、 となる。
Now, it is assumed that the characteristic kernel K has eigenvalues λ 1 , λ 2 , ... λn and corresponding eigenvectors ξ 1 , ξ 2 , ... ξn.
In this case, the arbitrary vector u 0 is the eigenvector ξ
By linearly combining 1 , ξ 2 , 〜ξn Is represented as At this time, since the relationship of Kξi = λiξi holds, Becomes

ここで であるから、Sが十分大きくなると上式の第2項が0に
収束することになる。
here Therefore, if S becomes sufficiently large, the second term of the above equation will converge to zero.

故に前述した式を Ksu0=αλ1 と看做することができる。Therefore, the above equation can be regarded as Ksu 0 = α 1 λ 11 .

このことは、(Ks+1u0)と(Ksu0)との比が固有値λ
であることを示している。また(Ksu0)は固有ベクトル
ξに比例していることが示されている。
This means that the ratio of (Ks +1 u 0 ) and (Ksu 0 ) is eigenvalue λ 1.
Is shown. It is also shown that (Ksu 0 ) is proportional to the eigenvector ξ 1 .

ところでこのような理論に基く演算過程にあっては、そ
の演算途中結果が直ぐにスケールアウトするすることが
多い。そこでu0を任意の、例えば単位ベクトルとし、 vs+1=Kus us+1=(vs+1)/(bs+1) (s=0,1,2,…) なる演算を実行するようにする。ここで(bs+1)は、ベ
クトル(vs+1)の絶対値が最大の要素である。このと
き、 となることから、これよりλ1,bs+11,us+1を求める
ことが可能となる。
By the way, in the calculation process based on such a theory, the intermediate result of the calculation often scales out immediately. Therefore, let u 0 be an arbitrary unit vector, for example, and execute an operation of vs +1 = Kus us +1 = (vs +1 ) / (bs +1 ) (s = 0,1,2, ...) To do. Here, (bs +1 ) is the element having the largest absolute value of the vector (vs +1 ). At this time, Therefore, λ 1 , bs +1 , ξ 1 , us +1 can be obtained from this.

このようにしてその絶対値が最大の固有値λと固有ベ
クトルξとを求めたら、次に同様にしてその絶対値が
次に大きい固有値λと固有ベクトルξとを求める。
When the eigenvalue λ 1 having the largest absolute value and the eigenvector ξ 1 are obtained in this way, the eigenvalue λ 2 and the eigenvector ξ 2 having the next largest absolute value are obtained in the same manner.

ここで K′=K−λξξ1t を考えると、 ξ1tξi=0 (i=2,3,〜,n) より、 K′ξ=Kξ−λξξ1 =λξ−λξ=0 (i=1) K′ξ=Kξi−λξiξitξi =λiξi (i≠1) となる。従って上記K′は、 |λ2|>…>|λr|>…>|λn|>0 なる固有値を持つことがわかる。尚、ここではξiは正
規化されているとしている。
Here Given K '= K-λ 1 ξ 1 ξ 1 t, ξ 1 tξi = 0 (i = 2,3, ~, n) from, K'ξ 1 = Kξ 1 -λ 1 ξ 1 ξ 1 tξ 1 = λ 1 ξ 1 −λ 1 ξ 1 = 0 (i = 1) K′ξ 1 = K ξi −λ 1 ξi ξit ξi = λi ξi (i ≠ 1). Therefore, it can be seen that K'has an eigenvalue of | λ 2 |>...> | λr |>...> | λn |> 0. In addition, here, it is assumed that ξi is normalized.

このような処理は、前記特性核を K′=K−λξ・ξt として変換したK′に対して、上述した処理を繰返し実
行することによって達せられる。この処理によって絶対
値の大きい固有値とそれに対応する固有ベクトルが順に
求められ、辞書の学習が行われる。
Such processing can be achieved by repeatedly executing the above-described processing on K ′ obtained by converting the characteristic kernel as K ′ = K−λ 1 ξ · ξt. By this processing, the eigenvalue having a large absolute value and the eigenvector corresponding thereto are sequentially obtained, and the dictionary is learned.

第21図はこのような計算アルゴリズムに基いて実行され
る辞書の学習処理の手続きを示すものである。
FIG. 21 shows a procedure of dictionary learning processing executed based on such a calculation algorithm.

次に文字認識部21について説明する。Next, the character recognition unit 21 will be described.

この文字認識部21は、スキャナ等によって読取られた文
字を認識する第1の文字認識ブロックと、タブレット等
を介してオンライン入力される文字情報を認識する第2
の文字認識ブロックとによって構成される。
The character recognition unit 21 includes a first character recognition block for recognizing a character read by a scanner and a second character recognition block for recognizing character information input online via a tablet or the like.
And a character recognition block of.

この第1の文字認識ブロックは、例えば第22図に示すよ
うに、スキャナ等によって読取り入力された画像データ
を格納する画像メモリ21aと、この画像メモリ21aに格納
された画像データ中から認識対象とする文字が記載され
た領域を検出する領域検出部21b、この領域検出結果に
従って前記画像メモリ21aに格納された画像データ中か
ら認識対象とする文字データを抽出する文字抽出部21
c、そして標準パターン辞書21dに予め登録された認識対
象文字の各標準文字パターンと、上記文字抽出部21cに
て抽出された文字パターンとを個々に照合して文字認識
する識別部21eとによって構成される。
This first character recognition block is, for example, as shown in FIG. 22, an image memory 21a for storing image data read and input by a scanner and an object to be recognized from the image data stored in the image memory 21a. An area detection unit 21b that detects an area in which characters are written, and a character extraction unit 21 that extracts character data to be recognized from the image data stored in the image memory 21a according to the area detection result.
c, and a recognition unit 21e for recognizing characters by individually collating the standard character patterns of the recognition target characters registered in advance in the standard pattern dictionary 21d with the character patterns extracted by the character extraction unit 21c. To be done.

この文字認識ブロックは、例えば第23図に示すようにFA
X送信原稿用紙21f上の所定の位置に設定され、送信宛先
が記入される文字枠21gに記載された文字を認識するも
のである。このような送信宛先が記載される原稿用紙21
fは、送信原稿が複数枚からなる場合、その一番最初
(1枚目)の原稿として用いられる。そしてこの1枚目
の原稿の読取り入力された画像データが文字認識処理の
為に前記画像メモリ21aに蓄積される。
This character recognition block is, for example, FA
X It recognizes a character set in a predetermined position on the transmission original paper 21f and described in a character frame 21g in which a transmission destination is entered. Manuscript paper 21 with such a transmission address
When the transmission document is composed of a plurality of sheets, the f is used as the first (first) document. The image data read and input from the first original is stored in the image memory 21a for character recognition processing.

領域検出部21bは、予め定められているFAX送信原稿用紙
21fのフォーマット情報から前記文字枠21gの位置情報を
得、認識対象とする文字が記載される領域を検出するも
のである。文字抽出部21cはこの領域検出情報と、その
画像情報の射影パターンの情報とを用いて、例えば第24
図に示すように前記文字枠21gに記載された文字の画像
データを個々に抽出している。
The area detection unit 21b is a predetermined FAX transmission document paper.
The position information of the character frame 21g is obtained from the format information of 21f, and the area in which the character to be recognized is described is detected. The character extraction unit 21c uses the area detection information and the information of the projection pattern of the image information, for example, the 24th
As shown in the figure, the image data of the characters described in the character frame 21g is individually extracted.

識別部21eは、例えば特公昭49-12778号公報等に開示さ
れるように、抽出された文字画像からその文字パターン
の特徴を抽出し、その抽出した文字パターンと標準パタ
ーン辞書21dに登録された各文字の標準パターンとをパ
ターンマッチングしている。そしてこのパターンマッチ
ングによって照合の取れた標準パターンの文字カテゴリ
をその認識結果として求めている。
The identification unit 21e extracts the characteristics of the character pattern from the extracted character image and registers the extracted character pattern and the standard pattern dictionary 21d, as disclosed in, for example, Japanese Patent Publication No. Sho 49-12778. The pattern is matched with the standard pattern of each character. Then, the character category of the standard pattern that has been matched by this pattern matching is obtained as the recognition result.

尚、パターンマッチングの手法は種々変形できることは
云うまでもない。
Needless to say, the pattern matching method can be modified in various ways.

ところでタブレット等を介してオンライン入力される文
字情報を認識する第2の文字認識ブロックは、例えば第
25図に示すように構成される。
By the way, the second character recognition block for recognizing character information input online via a tablet or the like is, for example,
It is constructed as shown in Fig. 25.

この第2の文字認識ブロックは、タブレット等を介して
オンライン入力される文字の筆記ストロークを示す位置
座標の系列を順次検出する座標検出回路21hを備えてい
る。
The second character recognition block includes a coordinate detection circuit 21h that sequentially detects a series of position coordinates indicating a writing stroke of a character that is input online via a tablet or the like.

この座標検出回路21hにて検出された位置座標の時系列
データは前処理回路21iに入力され、前記タブレット4
における検出誤り等の微小な雑音が除去された後、座標
系列記憶回路21jに順に記憶され、文字認識処理に供さ
れる。尚、この前処理回路21iにて、例えば1文字分の
文字が入力されたとき、その文字の大きさの正規化処理
等が行われる。
The time-series data of the position coordinates detected by the coordinate detection circuit 21h is input to the preprocessing circuit 21i, and the tablet 4
After a small noise such as a detection error in is removed, it is sequentially stored in the coordinate series storage circuit 21j and is used for character recognition processing. It should be noted that, for example, when a character for one character is input, the preprocessing circuit 21i performs a normalization process or the like on the size of the character.

また画数検出回路21kは、例えば筆記ストロークの途切
れ(位置座標データの時系列の区切り)から、その文字
パターンの筆記ストローク数、つまり画数を検出してい
る。
In addition, the stroke number detection circuit 21k detects the stroke number of the character pattern, that is, the stroke number, for example, from the interruption of the writing stroke (time-series division of the position coordinate data).

しかして認識処理部21mは、前記画数の情報に従って標
準特徴パターンメモリ21nに登録された認識対象文字カ
テゴリの標準パターンの中から、該当する画数の標準パ
ターンを選択的に抽出している。そしてこの標準パター
ンの各ストロークの特徴と座標系列記憶回路21jに記憶
された入力文字パターンのストロークの特徴とを相互に
比較(マッチング処理)ている。答決定回路21pはその
マッチング処理結果を判定し、入力文字パターンのスト
ロークの特徴に該当するストロークを持つ認識対象文字
カテゴリを、その認識結果として求めている。
Then, the recognition processing unit 21m selectively extracts the standard pattern of the corresponding stroke number from the standard patterns of the recognition target character category registered in the standard feature pattern memory 21n according to the stroke number information. Then, the characteristics of each stroke of the standard pattern and the characteristics of the stroke of the input character pattern stored in the coordinate series storage circuit 21j are compared with each other (matching processing). The answer determination circuit 21p determines the matching processing result, and obtains a recognition target character category having a stroke corresponding to the stroke feature of the input character pattern as the recognition result.

つまりオンライン入力される文字パターンの筆記ストロ
ークの特徴に従って、そのストロークの特徴を標準文字
パターンのストロークの特徴とマッチング処理して上記
入力文字パターンを認識するものとなっている。
That is, according to the characteristic of the writing stroke of the character pattern input online, the characteristic of the stroke is matched with the characteristic of the stroke of the standard character pattern to recognize the input character pattern.

尚、ストロークの特徴としては、筆記ストロークを折線
近似したときの端点や交点、折点等の位置座標の情報を
用いるようにすれば良い。
It should be noted that, as the feature of the stroke, it is sufficient to use the information of the position coordinates of the end point, the intersection, the folding point, etc. when the writing stroke is approximated by the broken line.

以上のような機能を備えた文字認識部21によって、スキ
ャナ等を介して読取り入力された文字情報や、タブレッ
ト等の位置座標入力装置を介してオンライン入力される
文字情報がそれぞれ文字認識される。
The character recognition unit 21 having the above-described functions character-recognizes character information read and input via a scanner or the like and character information input online via a position coordinate input device such as a tablet.

次に図形認識部22について説明する。Next, the figure recognition unit 22 will be described.

この図形認識部22は、例えば第26図に示すように構成さ
れる。入力部22aは、例えば撮像入力された図形画像を
記憶し、図形認識処理に供する。輪郭追跡部22bは、例
えば線分の追跡方向を第27図に示すように8方向に分
け、入力画像中の図形の輪郭を追跡したときにその追跡
方向がどの向きであるかを順に求めている。具体的に
は、例えば第28図に示すように三角形の図形を右回りに
追跡し、その追跡の向きの情報を、例えば 「1,2,〜2,3,4,〜4,5,7,〜7」なる方向コードの系列と
して求めている。
The figure recognition unit 22 is configured, for example, as shown in FIG. The input unit 22a stores, for example, a captured and input graphic image, and provides the graphic image for recognition processing. The contour tracking unit 22b divides the tracking direction of the line segment into, for example, eight directions as shown in FIG. 27, and sequentially determines which direction the tracking direction is when the contour of the figure in the input image is tracked. There is. Specifically, for example, as shown in FIG. 28, a triangular figure is tracked in the clockwise direction, and information on the direction of the tracking is, for example, “1,2, ~ 2,3,4, ~ 4,5,7 , ~ 7 "is obtained as a series of direction codes.

セグメンテーション部22cは、このようにして求められ
る方向コードの系列から、例えばその曲りの部分等の特
異点を抽出し、この特異点に従って該図形の輪郭を複数
の特徴部分に分割している。マッチング部22dはこのよ
うにしてセグメンテーションされた図形輪郭の情報と、
辞書メモリ22eに登録されている各種図形の特徴情報と
をマッチング処理して入力図形を認識するものとなって
いる。
The segmentation unit 22c extracts, for example, a singular point, such as a bent portion, from the direction code sequence thus obtained, and divides the contour of the figure into a plurality of characteristic portions according to the singular point. The matching unit 22d has information on the figure contour segmented in this way,
The input figure is recognized by performing a matching process with the characteristic information of various figures registered in the dictionary memory 22e.

例えば第29図に示す図形が与えられた場合には、その輪
郭追跡によって求められる方向コードの系列から、例え
ば相互に隣接する3つの輪郭点(i−1),(i),
(i+1)で方向コードの和を順に求め、これをその中
央の輪郭点iにおける方向コードとして平滑化処理す
る。この平滑化処理によってノイズ成分の除去を行な
う。
For example, when the figure shown in FIG. 29 is given, for example, three contour points (i−1), (i),
At (i + 1), the sum of the direction codes is sequentially obtained, and this is smoothed as the direction code at the central contour point i. Noise components are removed by this smoothing process.

しかる後、セグメンテーション部22cにて輪郭の特徴点
である端点、つまり曲りが急峻な点を検出し、その端点
を中心としてその輪郭を分割する。そしてその分割され
た輪郭部分毎に辞書メモリ22eと照合し、その認識結果
を求める。
After that, the segmentation unit 22c detects an end point that is a characteristic point of the contour, that is, a point having a sharp bend, and divides the contour with the end point as the center. Then, each of the divided contour portions is collated with the dictionary memory 22e to obtain the recognition result.

以上の処理によって、第30図に例示するように丸図形は
端点が存在しないこと、三角図形は端点が3つ検出され
ること、四角図形は端点が4つ検出されること等から、
これらの図形がそれぞれ識別認識される。この際、上記
各端点がそれぞれ凸状であることや、端点を結ぶ輪郭が
直線・曲線である等の情報を図形識別に利用しても良
い。
As a result of the above processing, as illustrated in FIG. 30, the circle figure has no end points, the triangle figure has three end points detected, and the square figure has four end points detected.
Each of these figures is identified and recognized. At this time, information such as the fact that each of the above-mentioned end points is convex or that the contour connecting the end points is a straight line / curve may be used for figure identification.

これに対してイメージ認識部23は次のように構成され
る。
On the other hand, the image recognition unit 23 is configured as follows.

第31図はこのイメージ認識部23の概略構成を示すもの
で、原画画像メモリ23a、2値化装置23b、処理画像メモ
リ23c、細線化装置23d、そしてコード変換装置23eによ
って構成される。
FIG. 31 shows a schematic configuration of the image recognition unit 23, which is composed of an original image memory 23a, a binarizing device 23b, a processed image memory 23c, a thinning device 23d, and a code converting device 23e.

画像メモリ23aは与えられた認識対象イメージ画像を記
憶するもので、2値化装置23bはこれを2値化処理して
画像メモリ23cに格納している。この2値化レベルは、
例えば2値化画像をディスプレイモニタしながら可変設
定される。
The image memory 23a stores the given image to be recognized, and the binarizing device 23b binarizes the image and stores it in the image memory 23c. This binarization level is
For example, the binarized image is variably set while monitoring the display.

しかして細線化装置23dは2値化されたイメージ画像を
細線化処理してそのイメージを線図形化するものであ
る。この細線化処理されたイメージ画像によって前記画
像メモリ23cが書替えられて認識処理に供される。
Then, the thinning device 23d thins the binarized image image to form a line figure of the image. The image memory 23c is rewritten by the image image subjected to the line thinning processing and provided for the recognition processing.

コード変換装置23eは、例えば第32図に示すように構成
され、先ずセグメント分割部23fにて上記細線化画像を
複数のセグメントに分割している。このセグメントの分
割は、例えば線図形をその端点や分岐点、交点にて分割
することによって行われる。曲率変換部23gはこのよう
にして分割された複数のセグメントについて、それぞれ
その曲率を求めている。
The code converting device 23e is configured, for example, as shown in FIG. 32, and first, the segment dividing unit 23f divides the thinned image into a plurality of segments. This segment division is performed, for example, by dividing the line figure at its end points, branch points, or intersections. The curvature conversion unit 23g obtains the curvature of each of the plurality of segments thus divided.

直線・曲線分割部23h,曲線分割部23i,屈折点分割部23j,
および変曲点分割部23hは、上述した如く分割された各
セグメントを、その曲率の情報に従って更に分割するも
ので、これらによって屈折点や直線と曲線との切替わり
点、変曲点、曲線における半径変化点等がそれぞれ検出
される。このようなセグメント分割と特徴点検出によっ
て前記イメージ線図形を構成する各部の情報がそれぞれ
抽出される。
Straight line / curve division unit 23h, curve division unit 23i, inflection point division unit 23j,
The inflection point dividing unit 23h further divides each segment divided as described above according to the information of the curvature thereof, and thereby, the inflection point, the switching point between the straight line and the curve, the inflection point, and the curve. A radius change point or the like is detected. By such segment division and feature point detection, information on each part constituting the image line figure is extracted.

近似情報作成部23mは、これらの分割されたセグメント
およびそのセグメント中の特徴点の情報を総合して前記
イメージ図形を表現する情報、例えば各セグメントの始
点および終点の位置座標、およびそのセグメントの種別
を特定するコード情報を得る。
Approximate information creation unit 23m, the information representing the image figure by integrating the information of these divided segments and the characteristic points in the segment, for example, the position coordinates of the start and end points of each segment, and the type of the segment Get code information that identifies

例えば入力イメージ画像が第33図(a)に示す如く与え
らえた場合、その入力画像中のイメージ線図形23nを細
線化して抽出し、同図(b)に示すようにセグメント分
割する。この例では、円図形と四角図形とが直線によっ
て所謂串刺しにされたイメージ線図形23nが入力されて
いる。しかしてこのイメージ線図形23nは、第33図
(b)に示すようにその交点で分割され、2つの半円と
2つのコの字状図形、および4つの直線にセグメント化
される。
For example, when the input image image is given as shown in FIG. 33 (a), the image line figure 23n in the input image is thinned and extracted, and segmented as shown in FIG. In this example, an image line figure 23n in which a circular figure and a square figure are so-called skewered by a straight line is input. The image line graphic 23n is divided at its intersections as shown in FIG. 33 (b), and segmented into two semicircles, two U-shaped graphics, and four straight lines.

曲率変換部23gは、第34図に示すようにセグメント分割
された各セグメントの曲率を求めており、前記直線・曲
線分割部23h,曲線分割部23i,屈折点分割部23j,および変
曲点分割部23hはその曲率変化点から各セグメントの特
徴点を検出している。具体的には第34図(a)に示す例
では2つの直線の屈折点における曲率が急峻に増大する
ことから、この曲率の変化から屈折点を検出することが
可能となる。また第34図(b)に示す例では直線から曲
線への変化部分で曲率の変化が検出されるので、この曲
率の変化からその特徴点を検出することができる。
The curvature conversion unit 23g obtains the curvature of each segment divided as shown in FIG. 34, and the straight line / curve division unit 23h, the curve division unit 23i, the inflection point division unit 23j, and the inflection point division. The section 23h detects the characteristic point of each segment from the curvature change point. Specifically, in the example shown in FIG. 34 (a), the curvature at the refraction points of the two straight lines sharply increases, so that it is possible to detect the refraction point from this change in curvature. Further, in the example shown in FIG. 34 (b), since the change in the curvature is detected at the changing portion from the straight line to the curved line, the characteristic point can be detected from the change in the curvature.

同様にして第34図(c)(d)に示す例でも、その曲率
の変化点から、そのセグメントにおける特徴点を検出す
ることが可能となる。
Similarly, also in the example shown in FIGS. 34 (c) and (d), it becomes possible to detect the feature point in the segment from the change point of the curvature.

このようにしてイメージ認識部23では、与えられたイメ
ージ図形をセグメント化し、各セグメントの特徴点を検
出している。そして該イメージ線図形を複数のセグメン
トの各種別を示すコード情報とその位置座標として近似
表現して認識するものとなっている。
In this way, the image recognition unit 23 segments the given image figure and detects the characteristic points of each segment. Then, the image line figure is recognized by approximately expressing it as code information indicating each kind of a plurality of segments and its position coordinates.

さて音声照合部17は次のように構成されている。この音
声照合部17は、音声入力した話者を個人認識(個人同
定)するものであり、例えば第35図に示すように構成さ
れる。
Now, the voice collating unit 17 is configured as follows. The voice collating unit 17 is for performing individual recognition (personal identification) of the speaker who inputs the voice, and is configured as shown in FIG. 35, for example.

即ち、音声入力部17aを介して与えられる音声は、音韻
フィルタ17bおよび個人用フィルタ17cにてそれぞれフィ
ルタリングされ、その音声特徴が抽出される。音韻フィ
ルタ17bの複数のチャンネルの各帯域は、例えば第36図
(a)に示すように音声周波数帯域を等分割して設定さ
れている。このようなフィルタ特性を備えた音韻フィル
タ17bによって入力音声の音韻特徴を示す特等パラメー
タが抽出される。尚、各チャンネルの帯域幅を、音声周
波数帯域を対数関数的に分割設定したものとしても良
い。
That is, the voice given through the voice input unit 17a is filtered by the phonological filter 17b and the personal filter 17c, respectively, and the voice feature thereof is extracted. Each band of the plurality of channels of the phonological filter 17b is set by equally dividing the audio frequency band as shown in FIG. 36 (a), for example. The phoneme filter 17b having such filter characteristics extracts the special parameter indicating the phoneme feature of the input voice. The bandwidth of each channel may be set by dividing the audio frequency band logarithmically.

これに対して個人用のフィルタ17cの複数のチャンネル
の各帯域幅は、第36図(b)に示すように音声周波数帯
域を指数関数的に分割して設定されている。このような
フィルタ特性を備えた個人用フィルタ17cによって、前
記入力音声の低域から中域にかけての音声特徴が、高域
側の特徴に比較して多く抽出されるようになっている。
そしてこれらの各チャンネルのフィルタ出力が個人照合
用の特徴パラメータとして求められている。
On the other hand, the bandwidths of the plurality of channels of the personal filter 17c are set by exponentially dividing the audio frequency band as shown in FIG. 36 (b). With the personal filter 17c having such a filter characteristic, more voice features from the low frequency band to the middle frequency band of the input voice are extracted as compared with the features on the high frequency side.
The filter output of each of these channels is obtained as a characteristic parameter for personal verification.

しかして単語認識部17dは、前記音韻フィルタ17bを介し
て求められた音韻特徴パラメータから、その入力音声が
示す単語を単語辞書17eを参照して認識するものであ
る。この単語認識の機能は前述した音声認識部19と同様
であり、該音声認識部19の機能をそのまま利用するよう
にしても良い。そしてこの単語認識結果に従って個人辞
書17fの個人照合に供される辞書が選択される。この個
人辞書17fは、話者照合の対象とする個人が予め発声し
た特定の単語の前記個人用フィルタ17cによる分析結果
を、その単語毎に分類して登録したものである。
Then, the word recognition unit 17d recognizes the word indicated by the input voice from the phoneme feature parameter obtained through the phoneme filter 17b by referring to the word dictionary 17e. The word recognition function is the same as that of the voice recognition unit 19 described above, and the function of the voice recognition unit 19 may be used as it is. Then, according to this word recognition result, a dictionary to be used for personal verification of the personal dictionary 17f is selected. In this personal dictionary 17f, the analysis results of the specific words uttered in advance by the individual subject to speaker verification by the personal filter 17c are classified and registered for each word.

しかして話者照合部17gは、個人辞書17fから選択された
該当単語の各特徴パラメータと、前記個人用辞書17cに
て求められた入力音声の特徴パラメータとの類似度を計
算し、その類似度値を所定の閾値でそれぞれ弁別してい
る。そしてそれらの弁別結果を相互に比較して、例えば
類似度値が最も高く、次に高い類似度値との差が十分に
ある特徴パラメータを得た個人カテゴリを該入力音声の
発声者であるとして個人同定している。
Then, the speaker verification unit 17g calculates the similarity between each characteristic parameter of the corresponding word selected from the personal dictionary 17f and the characteristic parameter of the input voice obtained by the personal dictionary 17c, and the similarity is calculated. The values are discriminated by a predetermined threshold value. Then, by comparing the discrimination results with each other, for example, the personal category having the highest similarity value and the characteristic parameter having a sufficient difference with the next highest similarity value is regarded as the speaker of the input voice. Individually identified.

ここで個人用フィルタ17cの特性について更に詳しく説
明すると、前述したように音韻特徴フィルタ17bとは異
なる特性に設定されている。この音声の個人性の識別性
について考察してみると、その識別性は、例えば F比=(個人間分散)/(個人内分散) として与えられるF比によって評価することができる。
Here, the characteristics of the personal filter 17c will be described in more detail. As described above, the characteristics are different from those of the phonological feature filter 17b. Considering the distinctiveness of the individuality of the voice, the distinctiveness can be evaluated by an F ratio given as, for example, F ratio = (dispersion between individuals) / (dispersion within individual).

今、音韻フィルタ17bに設定されたフィルタ特性の各チ
ャンネル出力のF比について検討すると、第37図に実線
で示す指数関数的な傾向を示す。これ故、従来では専ら
高域側の音声特徴情報を利用して個人照合を行なってい
る。
Now, when the F ratio of each channel output of the filter characteristic set in the phoneme filter 17b is examined, the exponential tendency shown by the solid line in FIG. 37 is shown. For this reason, conventionally, individual verification is performed exclusively by using the voice characteristic information on the high frequency side.

しかし音声の高域側の特徴だけを用いるよりも、全周波
数帯域の音声特徴を用いて個人同定が可能であれば、そ
の照合精度が更に向上すると考えられる。即ち、全周波
数帯域においてF比の値が1以上となり、個人間分散が
個人内分散を上回れば、更に精度の高い個人照合が可能
となる。
However, if it is possible to identify an individual by using the voice features of all frequency bands, it is considered that the matching accuracy is further improved rather than using only the features of the high frequency side of the voice. That is, if the value of the F ratio is 1 or more in all frequency bands and the inter-individual dispersion exceeds the intra-individual dispersion, it is possible to perform more accurate individual collation.

そこでここでは、前述したように個人用フィルタ17cの
特性を指数関数的に定め、個人性の特徴が顕著である高
域側については大雑把に特徴抽出し、低域側のチャンネ
ル割当て数を増やすことによって該低域側の音声特徴を
細かく抽出するようにしている。
Therefore, here, as described above, the characteristic of the personal filter 17c is set exponentially, and the high-frequency side where the characteristic of individuality is remarkable is roughly extracted, and the number of channel allocation on the low-frequency side is increased. In this way, the voice feature on the low frequency side is finely extracted.

具体的には各チャンネルのF比の変化が指数関数的な傾
向を示すことから、低域側チャンネルの帯域幅に比較し
て高域側チャンネルの帯域幅を指数関数的に増大させた
フィルタバンクを構成し、これを個人用フィルタ17cと
している。
Specifically, since the change in the F ratio of each channel shows an exponential tendency, a filter bank in which the bandwidth of the high frequency side channel is exponentially increased as compared with the bandwidth of the low frequency side channel. And is used as a personal filter 17c.

このように構成されたフィルタ17cの各チャンネル出力
によれば、そのF比は第37図に破線で示すようになり、
中域でのF比の大幅な向上が認められる。この結果、高
域側の音声特徴のみならず、中域における音声特徴をも
積極的に利用して個人照合を行なうことが可能となり、
この照合精度の向上を図ることが可能となる。
According to each channel output of the filter 17c configured in this way, the F ratio is as shown by the broken line in FIG. 37,
A significant improvement in F ratio in the mid range is recognized. As a result, it is possible to perform personal verification by positively utilizing not only the voice characteristics of the high frequency side but also the voice characteristics of the mid frequency range.
It is possible to improve the matching accuracy.

即ち、この音声照合部17では、入力音声の単語認識に供
する特徴とは別に、フィルタバンクの工夫によりその個
人性が顕著に現われる特徴情報を抽出している。この結
果、入力音声に対する音韻認識とは独立にその話者に対
する個人同定、つまり個人照合を高精度に行なうものと
なっている。
That is, the voice collating unit 17 extracts the feature information that shows the individuality remarkably by devising the filter bank, in addition to the features used for word recognition of the input voice. As a result, individual identification of the speaker, that is, individual verification is performed with high accuracy independently of phonological recognition of the input voice.

次に音声合成部26について説明する。Next, the voice synthesizer 26 will be described.

音声合成部26は、第38図に示すように判別器26a,復号器
26b,規則パラメータ生成装置26c,および音声合成器26d
を備えて構成される。
The speech synthesizer 26 includes a discriminator 26a and a decoder as shown in FIG.
26b, rule parameter generation device 26c, and speech synthesizer 26d
It is configured with.

判別器26aは入力されたコード列が文字列であるか、或
いは音声合成の為の分析パラメータを示す符号列かを判
定するものである。この情報判別は、例えば入力コード
列の一番最初に付加された識別情報を判定することによ
って行われる。そして分析パラメータであると判定した
場合には、その符号列を復号器26bに与え、これを復号
処理してその音韻パラメータと韻律パラメータとをそれ
ぞれ求めている。
The discriminator 26a determines whether the input code string is a character string or a code string indicating an analysis parameter for voice synthesis. This information determination is performed, for example, by determining the identification information added to the very beginning of the input code string. If it is determined to be an analysis parameter, the code string is given to the decoder 26b, and this is subjected to a decoding process to obtain the phoneme parameter and the prosody parameter, respectively.

また文字列と判定した場合には、その文字列データの規
則合成パラメータ生成装置26cに与え、その音韻パラメ
ータと韻律パラメータとの生成に供している。
When it is determined that the character string is the character string data, it is given to the rule synthesis parameter generation device 26c for the character string data and used for generation of the phoneme parameter and the prosody parameter.

音声合成器26dは、このようにして復号器26bまたは規則
合成パラメータ生成装置26cにて求められた音韻パラメ
ータと韻律パラメータとに従い、音源波を声道近似フィ
ルタを介して処理して合成音声波を生成している。
The speech synthesizer 26d processes the sound source wave through the vocal tract approximation filter according to the phoneme parameter and the prosody parameter thus obtained by the decoder 26b or the rule synthesis parameter generation device 26c, and synthesizes the synthesized speech wave. Is generating.

ここで規則合成パラメータ生成装置26cについて更に説
明すると、該装置26cは第39図に示す如く構成されてい
る。文字列解析部26eは言語辞書26を参照して入力文字
列中の単語を個々に同定し、その単語についてのアクセ
ント情報や単語・文節境界、品詞・活用等の文法情報を
求めている。そしてこの解析結果に対して音韻規則、お
よび韻律規則がそれぞれ適用され、その制御情報が生成
される。
Here, the rule synthesis parameter generation device 26c will be further described. The device 26c is configured as shown in FIG. The character string analysis unit 26e refers to the language dictionary 26 to identify each word in the input character string individually, and obtains accent information, word / bunsetsu boundary, grammatical information such as part-of-speech / inflection for the word. Then, the phonological rule and the prosody rule are applied to the analysis result, and the control information thereof is generated.

ここで音韻規則は、解析された単語の読みの情報を与え
ると共に、単語の連接によって生じる連濁や無声化等の
現象を実現し、その音韻記号列を生成するものである。
音声パラメータ生成部26gはこの音韻記号列を入力し、
その音節単位に従ってCVファイル26hから音節パラメー
タを順次求めて補間結合している。この音声パラメータ
生成部26gにて上記音韻記号列から音韻パラメータ系列
が生成される。
Here, the phonological rule provides information on the reading of the analyzed word, realizes phenomena such as confusion and unvoicedness caused by concatenation of words, and generates the phonological symbol string.
The voice parameter generation unit 26g inputs this phoneme symbol string,
According to the syllable unit, syllable parameters are sequentially obtained from the CV file 26h and interpolated and combined. The phoneme parameter generating unit 26g generates a phoneme parameter sequence from the phoneme symbol string.

また韻律規則は、単語・文節境界等の文法情報に従って
発話の境界や息継ぎ位置を決定し、各音の継続時間長や
ポーズ長等を決定するものである。同時にこの韻律規則
により、各単語の基本アクセントをベースとし、文節ア
クセントを考慮した韻律記号列が生成される。韻律パラ
メータ生成部26iはこの韻律記号列を入力し、ピッチの
時間変化パターンを表わす韻律パラメータ列を生成して
いる。
The prosody rule is to determine the boundaries of utterances and breathing positions according to grammatical information such as word / bunsetsu boundaries, and to determine the duration and pause length of each sound. At the same time, this prosodic rule generates a prosodic symbol string based on the basic accent of each word and considering the phrase accent. The prosody parameter generation unit 26i inputs this prosody symbol string and generates a prosody parameter string representing the time change pattern of the pitch.

一方、入力コード列が音声合成の為の分析パラメータを
示す符号列である場合、前記復号器26bは次のように機
能している。
On the other hand, when the input code string is the code string indicating the analysis parameter for speech synthesis, the decoder 26b functions as follows.

即ち、分析パラメータの符号列がCVファイルのケプスト
ラム係数を示す場合、その符号列26mは一般に第40図に
示すようにパラメータP(ピッチ)とC0,C1,〜Cm(ケプ
ストラム係数)に対してビット割当てがなされて情報圧
縮されている。そこで復号器26bではパラメータ変換テ
ーブル26nを用い、上記情報圧縮された分析パラメータ
を音声合成器26dに合せたビット数に変換・復号してい
る。例えば各パラメータをそれぞれ8ビットに変換し、
音韻パラメータ列(ケプストラム係数)とその韻律パラ
メータ列(ピッチ)とをそれぞれ求めている。
That is, when the code string of the analysis parameter indicates the cepstrum coefficient of the CV file, the code string 26m generally corresponds to the parameters P (pitch) and C 0 , C 1 , ... Cm (cepstral coefficient) as shown in FIG. Information is compressed by bit allocation. Therefore, the decoder 26b uses the parameter conversion table 26n to convert / decode the information-compressed analysis parameter into the number of bits suitable for the speech synthesizer 26d. For example, each parameter is converted to 8 bits,
A phonological parameter sequence (cepstral coefficient) and its prosodic parameter sequence (pitch) are obtained.

音声合成器26dは、例えば第41図に示すように有声音源2
6qと無声音源(M系列発生器)26rとを備え、入力され
る韻律パラメータ列のピッチデータPに従って有声音源
波(P≠0)、または無声音源波(P=0)を選択的に
発生している。この音源波は前置増幅器26cに入力さ
れ、前記音韻パラメータのケプストラム係数C0に応じて
レベル制御されて対数振幅近似ディジタルフィルタ26t
に入力される。この対数振幅近似ディジタルフィルタ26
tは前記音韻パラメータのケプストラム係数C1,〜Cmに従
って声道特性を近似する共振回路を構成し、上記音源波
をフィルタリング処理するものである。この対数振幅近
似ディジタルフィルタ26tにて前記音韻パラメータおよ
び韻律パラメータで示される音声データが合成出力され
る。
The voice synthesizer 26d uses the voice source 2 as shown in FIG. 41, for example.
6q and an unvoiced sound source (M sequence generator) 26r are provided to selectively generate a voiced sound source wave (P ≠ 0) or an unvoiced sound source wave (P = 0) according to the pitch data P of the input prosody parameter sequence. ing. This source wave is input to the preamplifier 26c, level-controlled according to the cepstrum coefficient C 0 of the phoneme parameter, and the logarithmic amplitude approximation digital filter 26t.
Entered in. This logarithmic amplitude approximation digital filter 26
Reference numeral t denotes a resonance circuit that approximates the vocal tract characteristics according to the cepstrum coefficients C 1 to Cm of the phoneme parameters, and filters the sound source wave. The logarithmic amplitude approximation digital filter 26t synthesizes and outputs the voice data represented by the phoneme parameter and the prosody parameter.

そして対数振幅近似ディジタルフィルタ26tにて合成さ
れた信号は、D/A変換器26uを介した後、LPF26vを介して
フィルタリングされて合成音声信号(アナログ信号)と
して出力される。
Then, the signal synthesized by the logarithmic amplitude approximation digital filter 26t is passed through the D / A converter 26u, filtered through the LPF 26v, and output as a synthesized voice signal (analog signal).

以上のように構成された音声合成部26にて、入力データ
系列からそのデータ系列が示す音声が規則合成されて出
力される。
In the speech synthesis unit 26 configured as described above, the speech represented by the data series is regularly synthesized and output from the input data series.

次にイメージ合成部27について説明する。Next, the image composition unit 27 will be described.

イメージ合成部27は、第42図に示すように制御演算部27
a,ディスプレイファイルメモリ27b,イメージ合成回路27
c,イメージメモリ27d,そして必要に応じてディスプレイ
27eを備えて構成される。尚、このディスプレイ27eは、
該ワークステーションについて準備された前記ディスプ
レイ部10であっても良い。
The image synthesizing unit 27, as shown in FIG.
a, display file memory 27b, image synthesis circuit 27
c, image memory 27d, and optional display
Composed of 27e. This display 27e is
It may be the display unit 10 prepared for the workstation.

イメージ合成回路27は、専用の制御演算部27aの制御の
下でディスプレイファイル27bに書込まれているベクト
ルや多角形・円弧のパラメータを読出し、それによって
示される線図形を発生してイメージ・メモリ27dの指定
されたアドレスに書込んでいる。このイメージ合成回路
27のイメージ発生機能によってイメージメモリ27d上に
指定された線図形イメージが構築される。そしてこの線
図形イメージは、制御演算部27aの制御の下で前記ディ
スプレイ27eにて表示されてモニタされる。
The image synthesizing circuit 27 reads the vector, polygon, and arc parameters written in the display file 27b under the control of the dedicated control calculation unit 27a, generates the line figure indicated thereby, and generates the image memory. Writing to the specified address in 27d. This image synthesis circuit
The specified line figure image is constructed on the image memory 27d by the image generation function 27. The line graphic image is displayed on the display 27e and monitored under the control of the control calculation unit 27a.

またイメージ発生回路27bは、イメージ発生に対する特
殊処理機能と塗潰し処理機能とを備えている。この特殊
処理機能は、例えば複数のイメージ図形の重なりに対し
て隠線の消去を行なったり、クリッピング処理を行なう
等の機能からなる。また塗潰し機能は、イメージ図形の
部分領域を指定された色を用いて塗潰す処理からなる。
The image generating circuit 27b has a special processing function for image generation and a painting processing function. This special processing function is, for example, a function of erasing hidden lines or clipping processing for overlapping of a plurality of image figures. The filling function is a process of filling a partial area of the image figure with a designated color.

このようなイメージ合成回路27bの機能によって、種々
のイメージ図形が作成され、またその合成処理等が行わ
れる。
By the function of the image synthesizing circuit 27b as described above, various image figures are created, and their synthesizing processing and the like are performed.

ところで上述した如く発生したイメージ図形と自然画と
の合成は次の2つに大別される。その1つは、例えば風
景写真等の自然画を背景として、その中に演算処理によ
って求められたイメージ画像を埋め込み合成する処理で
あり、他の1つのは制御演算部27aが内部モデルとして
持っている或る平面イメージ内に自然画を埋め込み合成
する処理からなる。
By the way, the synthesis of the image figure and the natural image generated as described above is roughly classified into the following two. One is a process of embedding and synthesizing an image image obtained by arithmetic processing in a natural image such as a landscape photograph as a background, and the other one is that the control arithmetic unit 27a has as an internal model. It consists of the process of embedding and synthesizing a natural image in a certain plane image.

ここで前者の自然画中にイメージ画像を埋め込み処理す
る場合には、例えば第43図にその概念を例示するよう
に、制御演算部27aが発生する図形中に「透明色」を示
すコードを与えておき、これを自然画に対して重ね合せ
て合成することによって達せられる。すると「透明色」
コードが与えられた画像領域は、自然画の情報がそのま
ま表示されることになり、その他の部分は制御演算部27
aが発生した図形が表示されることになる。この結果、
自然画を背景としたイメージ合成が実現されることにな
る。この手法はオーバーレイと称される。
Here, when embedding an image image in the former natural image, a code indicating "transparent color" is given to a graphic generated by the control calculation unit 27a as illustrated in FIG. 43, for example. It can be achieved by superimposing this on a natural image and synthesizing it. Then "transparent color"
In the image area to which the code is given, the information of the natural image is displayed as it is.
The figure in which a occurred is displayed. As a result,
Image composition with a natural image as a background will be realized. This technique is called overlay.

これに対して第44図にその概念を示すように画像メモリ
内に自然画を書込んでおき、その上(手前)に制御演算
部27aが発生した図形を書込んで行くようにしても良
い。この手法はzバッファ法と称されるものであり、前
述したオーバーレイ法と共に比較的簡単に実現すること
ができる。
On the other hand, as shown in the concept in FIG. 44, a natural image may be written in the image memory, and the graphic generated by the control calculation unit 27a may be written on (near) the natural image. . This method is called the z-buffer method and can be realized relatively easily together with the above-mentioned overlay method.

ところで制御演算部27aの内部モデルとして示される平
面内に自然画を嵌め込み合成する後者の場合には、次の
ようにして高速処理される。
By the way, in the latter case in which a natural image is inserted and combined in a plane shown as an internal model of the control calculation unit 27a, high speed processing is performed as follows.

平面上にある自然画を、3次元空間内の任意の方向を向
いている平面に埋め込む為に必要な座標変換は次式で与
えられる。
The coordinate transformation necessary for embedding a natural image on a plane in a plane facing an arbitrary direction in a three-dimensional space is given by the following equation.

但し、X,Yは表示面での座標であり、u,vは自然画での座
標である。
However, X and Y are coordinates on the display surface, and u and v are coordinates on the natural image.

この座標変換処理をそのまま実行しようとすると、1画
素を表示する毎に6回の乗算と2回の除算が必要とな
り、膨大な計算量と計算処理時間を必要とする。
If this coordinate conversion process is executed as it is, 6 times of multiplication and 2 times of division are required every time one pixel is displayed, which requires a huge amount of calculation and a large amount of calculation processing time.

そこでここでは、次のような中間座標(s,t)を介して
上述した演算を2回の変換処理に分解して実行するもの
となっている。この演算処理は、例えばアフィン変換を
利用して高速に実行される。
Therefore, here, the above-described calculation is divided into two conversion processes and executed via the following intermediate coordinates (s, t). This arithmetic processing is executed at high speed using, for example, affine transformation.

u=(α1s+α2t+α)/t (1) v=(α7s+α8t+α)/t s=C5X−C4Y (2) t=C4X+C5Y+C6 即ち、上述した第(1)式を用いて透視変換を行い、そ
の後、第(2)式を用いて2次元アフィン変換を行なっ
て任意の平面への透視変換を高速に行なうものとなって
いる。
u = (α 1 s + α 2 t + α 3 ) / t (1) v = (α 7 s + α 8 t + α 9 ) / t s = C 5 X−C 4 Y (2) t = C 4 X + C 5 Y + C 6 That is, the above The perspective transformation is performed using the equation (1), and then the two-dimensional affine transformation is performed using the equation (2) to perform the perspective transformation to an arbitrary plane at high speed.

ここで、第(1)式の分母は座標tそのものであるか
ら、従来より知られているアフィン変換回路を若干改良
するだけでその演算を高速に実行することが容易であ
る。
Here, since the denominator of the equation (1) is the coordinate t itself, it is easy to execute the calculation at high speed by slightly improving the conventionally known affine transformation circuit.

このようにしてイメージ合成部27では種々のイメージ合
成処理を高速に実行するものとなっている。
In this way, the image synthesizing unit 27 executes various image synthesizing processes at high speed.

次にデータベース部32について説明する。Next, the database unit 32 will be described.

データベース部32はコードやイメージ、音声等の各種の
データを整理して格納し、これを種々の応用システムに
供するものである。第45図はこのデータベース部32の概
略構成を示すもので、コマンドの解析処理等を実行する
インターフェース部32a、データベースの検索処理等を
実行するデータ操作部32b、種々のデータを格納する記
憶媒体としての磁気ディスク装置32cや光ディスク装置3
2d、そしてその付加機能部32cとによって構成される。
The database unit 32 organizes and stores various types of data such as codes, images, and voices, and supplies this to various application systems. FIG. 45 shows a schematic configuration of the database unit 32. As an interface unit 32a for executing a command analyzing process and the like, a data operating unit 32b for executing a database searching process, etc., as a storage medium for storing various data. Magnetic disk device 32c and optical disk device 3
2d and its additional function part 32c.

種々のデータは、そのデータの種別に従って複数のリレ
ーションに分類整理され、各リレーション毎にそれぞれ
登録されてデータベースが構築されている。
Various data are classified and organized into a plurality of relations according to the type of the data, and each relation is registered to construct a database.

以下、このデータベース部32を、その論理構造、蓄えら
れるデータ、物理構造、および付加機能の4つに分けて
説明する。
Hereinafter, the database unit 32 will be described by dividing it into four, that is, its logical structure, stored data, physical structure, and additional function.

論理構造とはこのデータベース部32を応用システム側か
ら見た場合、種々のデータがどのように蓄積されている
かを示すものである。ここではリレーショナル・モデル
に従った論理構造として、例えば第46図に示すような表
のイメージとしてデータが取扱われるようになってい
る。
The logical structure indicates how various data are stored when the database unit 32 is viewed from the application system side. Here, the data is handled as a logical structure according to the relational model, for example, as an image of a table as shown in FIG.

表(リレーション)には幾つかの欄(アトリビュート)
が設けられており、これらの各欄に所定の単位のデータ
がそれぞれ格納される。データの単位(タップル)は、
各欄に格納すべき1組の値として定められる。このよう
なタップルを格納した任意個数のアトリビュートによっ
て1つのリレーションが構築される。
Some columns (attributes) in the table (relation)
Is provided, and data in a predetermined unit is stored in each of these columns. The unit of data (tupple) is
It is defined as a set of values to be stored in each column. One relation is constructed by an arbitrary number of attributes storing such tuples.

しかしてこのモデルにあっては、リレーション名を指定
し、この各アトリビュートの値をそれぞれ与えることに
よってデータベースへのデータの格納が行われる。また
データベースの検索は、リレーションおよびアトリビュ
ートを指定し、そこに格納されている値が指定された
値、または別のアトリビュートに格納されている値との
間で所定の条件を満すか否かを判定し、その条件を満す
タップルを抽出することによって行われる。
In this model, however, data is stored in the database by specifying the relation name and giving the value of each attribute. Also, the database search specifies relations and attributes and determines whether the value stored therein meets the specified condition with the specified value or the value stored in another attribute. Then, a tuple that satisfies the condition is extracted.

この検索条件は、それらの値が等しい、等しくない、小
さい、大きい等として与えられる。この際、複数のアト
リビュートについてそれぞれ検索条件を指定し、その条
件判定結果を論理処理(アンドやオア等)して行なうこ
とも可能である。更には、複数のリレーションを指定
し、或るリレーションの或るアトリビュートの値が他の
リレーションの或るアトリビュートの値に等しい等の条
件により、複数のリレーション中から所定のタップルを
求めるようなデータベース検索も可能である。
The search conditions are given as their values being equal, not equal, small, large, etc. At this time, it is also possible to specify a search condition for each of the plurality of attributes and perform a logical process (AND, OR, etc.) on the result of the condition determination. Furthermore, a database search that finds a predetermined tuple from among multiple relations by specifying multiple relations and the condition that the value of a certain attribute of a certain relation is equal to the value of a certain attribute of another relation. Is also possible.

またデータベースからのデータ削除は、基本的には上記
検索と同様に行われるが、タップルを抽出することに代
えて、そのタップルを抹消することによって行われる。
Further, the data deletion from the database is basically performed in the same manner as the above search, but instead of extracting the tuple, the tuple is deleted.

更にデータ更新も同様であり、得られたタップルの指定
されたアトリビュートの値を変更し、これを格納するこ
とによって行われる。
Further, the data update is similar, and is performed by changing the value of the specified attribute of the obtained tuple and storing it.

また各リレーションには、各アトリビュート毎にデータ
の読出し,追加,変更が許可された人の情報(人名や担
当者コード)等が記入され、データ保護の対策が講じら
れている。尚、このデータ保護対策をアトリビュート毎
に行なうことに代えて、リレーション単位で行なうこと
も可能である。尚、ここに記載される人の情報は複数で
あっても良い。
In addition, information (personal name and person-in-charge code) of a person who is permitted to read, add, and change data is written in each relation for each attribute, and measures for data protection are taken. It is also possible to take this data protection measure in relation units instead of taking it for each attribute. There may be a plurality of pieces of person information described here.

しかして第46図に示すリレーションの例では、文字列と
してそのデータが示されているが、各リレーションに蓄
積されるデータは単なるビット列であっても良い。つま
りリレーションに蓄積されるデータは文字列は勿論のこ
と、イメージ情報や音声情報等であっても良い。
In the relation example shown in FIG. 46, the data is shown as a character string, but the data accumulated in each relation may be a simple bit string. In other words, the data stored in the relation may be not only a character string but also image information, voice information, or the like.

さてこのデータベースに蓄積されるデータは、上述した
第46図に示す『個人スケジュール』のリレーションを初
めとして、例えば第47図に示すような『住所録』『個人
の仕事とその代行者』『操作履歴』『人事』『会議室』
『会議室予約』『会議』等の種々のリレーションからな
る。
Now, the data accumulated in this database includes, for example, the relations of the "personal schedule" shown in Fig. 46 described above, such as "address book""personal work and its agents""operation" as shown in Fig. 47. "History""Personnel""Meetingroom"
It consists of various relations such as "meeting room reservation" and "meeting".

この例に示されるようにリレーションは、主に個人用と
して用いられるものと、多くの利用者によって共通に利
用されるものとからなる。そして個人用のリレーション
は各個人が使用するワークステーション毎に設けられ、
また共通リレーションは複数の利用者にとって共通なワ
ークステーションに設けられる。
As shown in this example, relations are mainly used for personal use and commonly used by many users. And a personal relation is provided for each workstation used by each individual,
Also, the common relation is provided in a workstation common to a plurality of users.

尚、共通のワークステーションとは必ずしもそのハード
ウェアが他のワークステーションと異なることを意味し
ない。また個人用のワークステーションが共通のワーク
ステーションを兼ねても良いことも勿論のことである。
更には共通のワークステーションは1台に限られるもの
ではなく、システムの階層レベルに応じて複数台設けら
れるものであっても良い。要するに、複数のワークステ
ーションから容易に特定することのできるものとして共
通のワークステーションが設定される。
The common workstation does not necessarily mean that its hardware is different from other workstations. Further, it goes without saying that a personal workstation may also serve as a common workstation.
Further, the common workstation is not limited to one, and a plurality of common workstations may be provided depending on the hierarchical level of the system. In short, a common workstation is set as one that can be easily specified from a plurality of workstations.

ここで第46図に示した『個人スケジュール』リレーショ
ンのデータ構造について簡単に説明する。
Here, the data structure of the "personal schedule" relation shown in FIG. 46 will be briefly described.

このリレーションからは、そのリレーション名が『個人
スケジュール』であり、『△△△△』によって作成され
たことが示される。このリレーション作成者『△△△
△』は該リレーションに対して全てのデータ操作が許可
される。
This relation indicates that the relation name is “personal schedule” and is created by “ΔΔΔΔ”. This relation creator "△△△
“A” allows all data operations for the relation.

またこのリレーションに付加されたデータ保護機能によ
れば、データの読出しは全員に許可されており、データ
の追加は『○○○○』と『技術部に所属する者』に対し
てのみ許可されている。尚、この『技術部に所属する
者』は、例えば『人事』のリレーションを参照する等し
て求められる。またデータの変更は『人レベル』の値が
『5』以上のものに対してのみ許可されている。この
『人レベル』とは人事リレーションに関するものであ
り、例えば(部長;8)(次長;7)(課長;6)(主任;5)
等として役職を表わす。
In addition, according to the data protection function added to this relation, reading of data is permitted to all, and addition of data is permitted only to "○○○○" and "persons who belong to the engineering department". ing. The “person who belongs to the engineering department” is obtained by referring to the relation of “personnel”, for example. In addition, data change is allowed only for those whose "person level" value is "5" or more. This "person level" is related to personnel relations, for example (manager; 8) (deputy manager; 7) (section manager; 6) (chief manager; 5)
Represents a position such as.

更にこのリレーションには、『開始時刻』『終了時刻』
『種類』『名称』『場所』等のアトリビュートが設定さ
れ、そのそれぞれにデータが書込まれるようになってい
る。
Furthermore, for this relation, "start time""endtime"
Attributes such as “type”, “name”, and “place” are set, and data is written in each of them.

次にこのデータベース部32における上述した各種のリレ
ーションを実際に記憶する為の物理構造について説明す
る。
Next, a physical structure for actually storing the above-mentioned various relations in the database unit 32 will be described.

情報蓄積部(記憶部)は大量データを蓄積し、その任意
の部分を比較的高速に読み書きすることができ、価格的
にさほど高価でないものとして前述した磁気ディスク装
置32cや光ディスク装置32gが用いられる。
The information storage unit (storage unit) stores a large amount of data, and can read and write any part thereof at a relatively high speed, and the magnetic disk device 32c and the optical disk device 32g described above are used as being inexpensive in terms of price. .

この情報蓄積部へのデータベースの蓄積は、該情報蓄積
部の記憶領域を特定の大きさ(例えば数キロバイト程度
で、タップル長や計算機の速度等に応じて定められる)
毎に区切り、各々をページとして管理して行われる。そ
して第48図に示すように、例えば第0ページにページ管
理の情報を、第1ページにリレーション一覧表の情報
を、また第2ページに使用中のページ情報をそれぞれ格
納する。
The storage of the database in the information storage unit has a storage area of the information storage unit of a specific size (for example, about several kilobytes, which is determined according to the tapple length, the speed of the computer, etc.).
Each page is divided and managed as a page. Then, as shown in FIG. 48, for example, page management information is stored in the 0th page, relation list information is stored in the 1st page, and page information in use is stored in the 2nd page.

このリレーションの一覧表によって、データベース中に
おける種々のリレーションの所在が示される。
This list of relations shows where the various relations are in the database.

例えば第9ページおよび第11ページに格納された実デー
タは、第5ページに格納されたリレーションのアトリビ
ュート(主アトリビュート)に基き、第10ページに格納
されたインデックスページの情報に従ってソートされる
ようになっている。このインデックスページの情報は、
アトリビュートの値が幾つから幾つ迄のものがどのペー
ジに格納されているかを示すものである。
For example, the actual data stored on the 9th and 11th pages may be sorted according to the information of the index page stored on the 10th page based on the relation attribute (main attribute) stored on the 5th page. Has become. The information on this index page is
It indicates on which page several or several attribute values are stored.

この主アトリビョート以外のアトリビュートによりデー
タ検索する場合には、そのアトリビュートについて第20
ページのサブ・インデックスを経由して、先ず第21ペー
ジや第22ページに示されるサブデータを得る。このサブ
データにはアトリビュートの値と前述した主アトリビュ
ートの値のみが入っており、ここで求められるアトリビ
ュートの値を用いて実際のデータが求められる。
If you want to search data by an attribute other than this main attribute, please refer to that attribute.
First, the sub data shown on the 21st or 22nd page is obtained via the sub index of the page. This sub data contains only the value of the attribute and the value of the above-mentioned main attribute, and the actual data is obtained using the value of the attribute obtained here.

尚、例えば画像データや音声データのようにその実デー
タの量が膨大であり、その中の幾つかのビット誤りが問
題とならない場合には、これらの実データを光ディスク
装置32d等の別の安価な情報記憶装置にファイルするよ
うにしても良い。この場合には、第9ページや第11ペー
ジ等の実データ用ページには、その旨とその装置での実
データの格納位置情報を記憶しておくようにすれば良
い。
If the amount of actual data such as image data or audio data is enormous and some bit errors in it are not a problem, these actual data can be transferred to another inexpensive optical disk device 32d or the like. You may make it file in an information storage device. In this case, the fact and the storage position information of the actual data in the device may be stored in the actual data pages such as the ninth page and the eleventh page.

しかしてこのように構築されたテータベースに対する付
加機能は、例えば不要データの自動廃棄等からなる。こ
の不要データの自動廃棄は、リレーションの付加情報と
して[廃棄;可/不可][廃棄の方法]等を与えてお
き、所定の間隔でリレーション毎の消去コマンドを動作
させて行われる。
However, the additional function to the database thus constructed consists of, for example, automatic discarding of unnecessary data. This automatic discarding of unnecessary data is performed by giving [discard; enable / disable] [discard method] and the like as additional information of the relation and operating an erase command for each relation at a predetermined interval.

尚、タップルの消去は、例えば会議情報についてはその
終了時刻が現在の時刻より前であるか否か等を判定して
行なうことが可能である。従ってこのようなタップルの
消去については、格別の機能追加は不要である。
Note that the tapple can be deleted by determining whether or not the ending time of the conference information is before the current time, for example. Therefore, it is not necessary to add a special function to erase such a tuple.

また付加機能の他の重要な機能としてのデータの保全が
ある。このデータの保全機能は、例えばハードウェアの
故障や停電等に原因してデータが不正(でたらめになっ
たり失われたりすること)となることを防ぐものであ
る。具体的にはこのデータの保全機能は、情報の二重化
や磁気テープへの書出し等によって実現される。
In addition, there is data preservation as another important function of the additional function. This data security function prevents the data from being illegal (randomized or lost) due to, for example, a hardware failure or a power failure. Specifically, this data security function is realized by duplication of information and writing on a magnetic tape.

このようにデータベース部32では、種々のデータをリレ
ーション毎に分類整理し、且つページ単位に管理して種
々の応用システムに供するものとなっている。
In this way, the database unit 32 classifies and organizes various data for each relation and manages them in page units to provide them to various application systems.

次に作業環境データ収集部25について説明する。Next, the work environment data collection unit 25 will be described.

この作業環境データ収集部25は、該ワークステーション
に対する過去の操作履歴のデータを収集し、これに基く
操作ガイドを行なうものである。
The work environment data collection unit 25 collects past operation history data for the workstation and provides operation guidance based on the collected data.

ここで作業環境データ収集部25には、例えば第49図に示
すように当該情報処理システムが持つ機能に対応するコ
マンドと、他の情報システムが持つ機能に対応するコマ
ンドとを対応付けるコマンド対応テーブルが設けられて
いる。
Here, in the work environment data collection unit 25, for example, as shown in FIG. 49, there is a command correspondence table that associates commands corresponding to functions of the information processing system with commands corresponding to functions of other information systems. It is provided.

具体的には当該情報処理システムをA、他の情報処理シ
ステムをB,C,D…としたとき、システムAにおけるコマ
ンド“DELETE"に対応する他のシステムのコマンドが“D
EL"“ERASE"“REMOVE"であることが、該コマンド対応テ
ーブルによって示されるようになっている。
Specifically, when the information processing system is A and the other information processing systems are B, C, D ..., the command of the other system corresponding to the command “DELETE” in the system A is “D”.
It is indicated by the command correspondence table that the EL is "ERASE" and "REMOVE".

第50図は利用者により入力されたコマンドを解析し、所
定の動作および各種ガイダンスを実行する作業環境デー
タ収集部25の概略構成を示すものである。
FIG. 50 shows a schematic configuration of a work environment data collection unit 25 that analyzes a command input by the user and executes a predetermined operation and various guidance.

この作業環境データ収集部25では、先ずコマンド入力部
25aから入力されたコマンドをコマンド解析部25bに与
え、コマンド対応テーブル25cを参照して解析してい
る。具体的には第51図に示す手続きの流れに従って入力
コマンドがコマンド対応テーブル25cに登録されている
かを調べている。即ち、コマンドが入力されると、先ず
その入力コマンドがシステムAのものであるか否かが調
べられる。そして入力コマンドがシステムAのコマンド
であると解析されると、コマンド解析部25bは該入力コ
マンドをコマンド実行部25dに与え、そのコマンドに基
く所定の動作を実行させている。
In this work environment data collection unit 25, first, the command input unit
The command input from 25a is given to the command analysis unit 25b and analyzed by referring to the command correspondence table 25c. Specifically, it is checked whether the input command is registered in the command correspondence table 25c according to the procedure flow shown in FIG. That is, when a command is input, it is first checked whether or not the input command belongs to the system A. Then, when the input command is analyzed as a command of the system A, the command analysis section 25b gives the input command to the command execution section 25d and causes it to execute a predetermined operation based on the command.

一方、入力コマンドがシステムAのものでない場合に
は、他のシステムのコマンドが該当するか否かが調べら
れ、対応付けされているコマンドが存在する場合には、
その対応コマンドを画面表示部25eにて表示する。つま
り他のシステム(システムB)で用いられているコマン
ド、例えば“DEL"である場合には、これに対応するシス
テムAのコマンド“DELETE"を求め、これを操作ガイダ
ンスとして画面表示部25eに表示することになる。
On the other hand, if the input command does not belong to the system A, it is checked whether or not a command from another system is applicable, and if there is a corresponding command,
The corresponding command is displayed on the screen display unit 25e. That is, in the case of a command used in another system (system B), for example, "DEL", the corresponding command "DELETE" of system A is obtained and displayed on the screen display unit 25e as operation guidance. Will be done.

尚、入力コマンドに該当するコマンドがコマンド対応テ
ーブル25cに存在しなかった場合には、画面表示部25eに
てコマンドエラーメッセージの表示を行なう。
If the command corresponding to the input command does not exist in the command correspondence table 25c, a command error message is displayed on the screen display unit 25e.

具体的には次のようにしてそのコマンド入力に対する処
理が行われる。今、システムB,Cの操作経験の利用者が
初めてシステムA(当該情報処理システム)を操作する
ものとする。ここで利用者がコマンドを入力してデータ
“ABC"を消去する場合、従来ではシステムAの取扱い説
明書に従ってデータ消去の為の“DELETE"なるコマンド
を探し、これを入力することが必要となる。
Specifically, the processing for the command input is performed as follows. Now, it is assumed that a user who has experience operating the systems B and C operates the system A (information processing system) for the first time. Here, when the user inputs a command to delete the data "ABC", conventionally, it is necessary to search for the command "DELETE" for deleting the data according to the instruction manual of system A and input it. .

しかしここでは、その利用者は過去の経験に従って、例
えばシステムCで用いていたデータ消去コマンド“ERAS
E ABC"を第52図(a)に示すように入力する。
However, here, according to past experience, the user, for example, uses the data erasure command “ERAS
Enter "E ABC" as shown in Fig. 52 (a).

すると作業環境データ収集部25ではこの入力コマンドを
解析し、前記コマンド対応テーブル25cから入力コマン
ド“ERACE"に対応するシステムAのコマンド“DELETE"
を求め、これをガイドとして表示することになる。この
結果、利用者はシステムAを初めて操作する場合であっ
ても、そのデータ消去のコマンドが“DELETE"であるこ
とを知り、そのコマンドをガイドに従って入力すること
により、そのデータ消去を行なうことが可能となる。
Then, the work environment data collection unit 25 analyzes this input command, and from the command correspondence table 25c, the command "DELETE" of the system A corresponding to the input command "ERACE".
Will be displayed as a guide. As a result, even when the user operates the system A for the first time, he / she can know that the data erasing command is “DELETE” and enter the command according to the guide to erase the data. It will be possible.

またファイル名のリストを表示するべく、第52図(b)
に示すようにシステムBにおけるコマンド“DIR"を入力
した場合には、同様にして該システムAにおける対応コ
マンド“CATA"が求められ、ガイド表示される。この結
果、このガイドに従ってコマンド“CATA"を入力するこ
とによって、そのファイル名のリストが表示される。
Also, in order to display a list of file names, FIG. 52 (b)
When the command "DIR" in the system B is input as shown in Fig. 3, the corresponding command "CATA" in the system A is similarly obtained and displayed as a guide. As a result, by entering the command "CATA" according to this guide, a list of its filenames will be displayed.

このようにこの作業環境データ収集部25の機能を活用す
ることにより、過去の操作経験のあるシステムで用いら
れていたコマンドの入力によって、そのシステムにおけ
る対応コマンドがガイド表示される。従ってシステム利
用者は、過去に得た知識を最大限に利用してシステムを
操作することが可能となる。そして当該情報処理システ
ムのコマンドを容易に知ることが可能となる。従ってそ
の都度、当該情報処理システムの操作説明書を調べる等
の煩わしさから解放される。故に、システムの操作の習
得に要する時間を大幅に短縮することができる等の効果
が期待できる。
In this way, by utilizing the function of the work environment data collection unit 25, the corresponding command in the system is guided and displayed by the input of the command used in the system having the past operation experience. Therefore, the system user can operate the system by making the most of the knowledge acquired in the past. Then, it becomes possible to easily know the command of the information processing system. Therefore, it is not necessary to check the operation manual of the information processing system each time. Therefore, it is expected that the time required for learning the operation of the system can be significantly reduced.

尚、入力コマンドに対応するコマンドを求め、これをガ
イド表示したとき、その合否の判定入力を受けて、その
コマンドを実行するようにしても良い。
Alternatively, a command corresponding to the input command may be obtained, and when this is displayed as a guide, the command may be executed in response to the determination input of the pass / fail.

即ち、第51図にその手続きの流れを示し、第54図にその
表示例を示すように他のシステムの消去コマンド“ERAS
E"し、これに対応するシステムAの消去コマンド“DELE
TE"が求められたとき、これが正しいか否かを問合せ
る。そして正(Y)なる指示入力があったとき、その入
力コマンドが“DELETE"を示していると判定し、これを
コマンド実行部25dに送ってその処理を実行させるよう
にする。
That is, FIG. 51 shows the flow of the procedure, and FIG. 54 shows a display example thereof.
E ", and the corresponding delete command“ DELE ”of system A
When "TE" is requested, it is inquired whether or not this is correct. When there is a correct (Y) instruction input, it is determined that the input command indicates "DELETE", and this is executed by the command execution unit 25d. Send it to and let it do its work.

このようにすれば、コマンドの対応関係がガイド指示さ
れると同時に、その入力コマンドに従って所望とする処
理が実行されるので、改めて正しいコマンドを入力し直
す必要がなくなる。つまり入力コマンドの対応コマンド
への自動変換が行われて、その処理が実行されることに
なる。従って、更にその操作性の向上を図ることが可能
となる。
In this way, the desired processing is executed in accordance with the input command at the same time that the command correspondence is instructed, and it is not necessary to input the correct command again. That is, the input command is automatically converted into the corresponding command, and the processing is executed. Therefore, it is possible to further improve the operability.

尚、対応コマンドはシステムの種類に応じて何種類存在
しても良いものである。要はコマンド対応テーブル25c
に対応付けしてそれぞれ格納しておけば良い。またコマ
ンドは上述した文字列形式に限定されないことも云うま
でもない。
It should be noted that there may be any number of corresponding commands depending on the type of system. In short, command correspondence table 25c
It may be stored in association with. It goes without saying that the command is not limited to the character string format described above.

次にこの作業環境データ収集部25におけるシステム習熟
度のデータ収集について説明する。この作業環境データ
収集部25の内部に、このシステム習熟度のデータ収集処
理を行なう為のハードウェアとして外部記憶装置と制御
装置がおかれる。
Next, data collection of the system proficiency level in the work environment data collection unit 25 will be described. An external storage device and a control device are provided inside the work environment data collection unit 25 as hardware for performing the data collection process of the system proficiency level.

第55図はシステム習熟度のデータ収集処理を示す流れ図
である。
FIG. 55 is a flowchart showing the data collection process of the system proficiency level.

利用者がその識別コード(ユーザ番号やパスワード等)
を入力すると、作業環境データ収集部25はその識別コー
ドに対応する習熟度表を外部記憶装置から求め、装置内
部にセットする。この習熟度表は各利用者がシステムの
様々な利用機能に対してどの程度習熟しているかを格納
したもので、例えば第56図に示す如く構成されている。
User's identification code (user number, password, etc.)
When is input, the work environment data collection unit 25 obtains a proficiency level table corresponding to the identification code from the external storage device and sets it in the device. This proficiency level table stores the level of proficiency of each user with respect to various functions of the system, and is configured as shown in FIG. 56, for example.

即ち、この習熟度表は各利用機能に対してその利用頻
度、最終利用年月日時、ユーザが申告した該機能に対す
る習熟クラス、該機能を前回利用した際の習熟度クラ
ス、更には該機能の複雑度の情報等によって構成されて
いる。
That is, this proficiency level table shows the usage frequency of each function, the last usage date, the proficiency class for the function declared by the user, the proficiency class when the function was last used, and the proficiency level of the function. It is composed of complexity information and the like.

ここで複雑度とは該当利用機能が専門知識を要求する程
高くなり、また基本機能より高級機能になる程高くなる
ものである。
Here, the complexity is higher as the applicable function requires specialized knowledge and becomes higher as the function is higher than the basic function.

しかしてこのような習熟度表は各利用者毎に設けられ、
外部記憶装置にそれぞれ記憶されている。尚、システム
を初めて利用する利用者に対しては、識別コードの新規
設定によりその利用者に対する習熟度表が作成され、外
部記憶装置に登録される。
However, such a proficiency table is provided for each user,
Each is stored in an external storage device. For the user who uses the system for the first time, a proficiency table for the user is created by newly setting the identification code and registered in the external storage device.

尚、外部記憶装置には、例えば第57図に示すように上述
した習熟度表に加えて、前記習熟度クラスに対応した利
用機能毎のメッセージが登録されている。このメッセー
ジは習熟度のクラスが低い程、その背景説明を含む判り
易い説明となっている。また習熟度の高いクラスほど、
簡略な説明と専門的に機能の紹介を含んだ高度な内容と
なっている。
Incidentally, in the external storage device, as shown in FIG. 57, for example, in addition to the proficiency level table described above, a message for each used function corresponding to the proficiency level class is registered. The lower the proficiency level of this message, the more clear the explanation including the background explanation. Also, the higher the level of proficiency,
It has a high level of content including a brief explanation and a professional introduction of the function.

また習熟度のクラスは、例えば A;初級者クラス B;中級者クラス C;習熟者クラス のように分類設定される。The proficiency classes are classified and set as, for example, A; beginner class B; intermediate class C; proficient class.

しかして入力された識別コードに対応した習熟度表が求
められると、次にその利用機能を利用者に選択させる為
のメニューが表示される。このメニューに対して利用者
は、例えばその利用機能に対応する番号等を入力する。
すると制御装置ではその入力情報が終了信号か利用機能
の選択信号かを判断し、利用機能選択信号の場合には次
のように動作する。
Then, when the proficiency level table corresponding to the input identification code is requested, a menu for allowing the user to select the function to be used is displayed next. For this menu, the user inputs, for example, a number corresponding to the used function.
Then, the control device determines whether the input information is the end signal or the selection signal of the function to be used, and in the case of the function selection signal to be used, operates as follows.

即ち、利用機能選択信号が入力されると、先ずその利用
者に関する前記習熟度表を参照し、選択された利用機能
に対応する利用頻度や最終利用年月日時,申告習熟度ク
ラス等の情報が求められる。そしてこれらの情報に従っ
て重み付け処理を施し、現在の習熟度クラスの決定が行
われる。
That is, when the use function selection signal is input, first, referring to the proficiency table for the user, information such as the use frequency, the last use date and time, the declared proficiency level, etc. corresponding to the selected use function is displayed. Desired. Then, weighting processing is performed according to these pieces of information, and the current proficiency level class is determined.

この習熟度クラスの判定は、例えば利用頻度をPi、最終
利用年月日時をTe、現在の利用年月日時をTc、利用者申
告習熟度クラスをX1、前回利用習熟度クラスをX2∈{A,
B,C}、複雑度をPc、そして判別関数をFrとしたとき、 Fr=K1Pi+K2(Tc−Te) +K3G1[X1] +K4G2[X2]+K5Pc として求められ。但し、上式においてK1,K1,K3,K4は、
実験等によって適切な値に設定される定数である。また
上記G1,G2であり、Y1,Y2,Y3,Z1,Z2,Z3は、A,B,Cに対する評価重み
である。これらの評価重みは Y1<Y2<Y3,Z1<Z2<Z3 なる関係を有し、実験等によって適切な値に設定され
る。
This proficiency class is determined, for example, by using the usage frequency Pi, the last usage date and time Te, the current usage date and time Tc, the user-reported proficiency class X 1 , and the previous usage proficiency class X 2 ε. {A,
B, C}, the complexity is Pc, and the discriminant function is Fr, Fr = K 1 Pi + K 2 (Tc-Te) + K 3 G 1 [X 1 ] + K 4 G 2 [X 2 ] + K 5 Pc Sought. However, in the above equation, K 1 , K 1 , K 3 , and K 4 are
It is a constant that is set to an appropriate value through experiments and the like. Also, G 1 and G 2 above are And Y 1 , Y 2 , Y 3 , Z 1 , Z 2 , and Z 3 are evaluation weights for A, B, and C. These evaluation weights have a relationship of Y 1 <Y 2 <Y 3 and Z 1 <Z 2 <Z 3 and are set to appropriate values by experiments or the like.

ここでG1[X1]は、X1=AのときY1なる値を取り、X2
BのときY2なる値を取ることを意味する。また(Tc−T
e)は、最終利用年月日時から現在までの日数を時間換
算したものである。
Here, G 1 [X 1 ] takes a value Y 1 when X 1 = A, and X 2 =
In the case of B, it means to take the value Y 2 . Also (Tc-T
e) is a time conversion of the number of days from the date of last use to the present.

しかしてクラス判定は、上述した判別関数Frの値により
次のようにして行われる。
Then, the class determination is performed as follows based on the value of the discriminant function Fr described above.

Fr<N1 …Aクラス N1≦Fr<N2 …Bクラス N2≦Fr …Cクラス 尚、判定閾値N1,N2は実験等に基いて適切に定められ
る。
Fr <N 1 ... A class N 1 ≦ Fr <N 2 ... B class N 2 ≦ Fr ... C class The determination thresholds N 1 and N 2 are appropriately determined based on experiments and the like.

このようにして習熟度クラスが決定されると、その決定
された習熟度クラスに対応し、且つ前述した如く指定さ
れた利用機能に該当するガイドメッセージやエラーメッ
セージを外部記憶装置から求める。
When the proficiency level is determined in this way, a guide message or an error message corresponding to the determined proficiency level and corresponding to the designated use function as described above is obtained from the external storage device.

しかる後、今回決定された習熟度クラスと、前記習熟度
表に格納されている前回の習熟度クラスとを比較照合す
る。そして習熟度クラスに変更がある場合には、その習
熟度に変更がある旨を示すメッセージを前記ガイドメッ
セージ等を付加して書込む。
Thereafter, the proficiency class determined this time and the previous proficiency class stored in the proficiency table are compared and collated. When the proficiency level is changed, a message indicating that the proficiency level is changed is added to the guide message and the like.

この習熟度クラス変更のメッセージは、例えば第58図に
示すような4種類のメッセージからなる。そしてそのク
ラス変更の形態に応じて求められ、前記ガイドメッセー
シ等と共に表示される。利用者はこのようにして表示さ
れる各種メッセージに従ってその処理操作を行なうこと
になる。
The proficiency class change message is composed of, for example, four types of messages as shown in FIG. Then, it is determined according to the mode of class change and is displayed together with the guide message and the like. The user performs the processing operation according to the various messages displayed in this way.

具体的には作成データをファイルに格納する利用機能に
対して、その利用者が初級者クラス(Aクラス)と判定
されると第59図に示す如きメッセージが表示される。そ
してこのメッセージにも拘らず利用者が情報入力を誤っ
た場合には、例えば第60図に示すようなエラーメッセー
ジの表示が行われ、その利用機能に対する操作のガイド
が行われる。
Specifically, for the use function of storing the created data in a file, when the user is judged to be a beginner class (class A), a message as shown in FIG. 59 is displayed. If the user makes a mistake in inputting the information despite this message, an error message as shown in FIG. 60, for example, is displayed to guide the operation of the function to be used.

またその利用者の習熟度が中級者クラス(Bクラス)と
判定された場合には、第61図に示す如きメッセージが表
示される。そしてこのメッセージにも拘らず利用者が情
報入力を誤った場合には、例えば第62図に示すようなエ
ラーメッセージの表示が行われ、その利用機能に対する
操作のガイドが行われる。同様にその利用者の習熟度が
習熟者クラス(Cクラス)と判定された場合には、第63
図に示す如きメッセージが表示され、情報入力の誤りが
ある場合には、例えば第64図に示すようなエラーメッセ
ージの表示が行われてその利用機能に対する操作のガイ
ドが行われる。
If the user's proficiency level is determined to be the intermediate class (B class), a message as shown in FIG. 61 is displayed. If the user makes a mistake in inputting information despite this message, an error message as shown in, for example, FIG. 62 is displayed to guide the operation of the function to be used. Similarly, if it is determined that the user's proficiency level is the proficiency class (C class), the 63rd
When a message as shown in the figure is displayed and there is an error in the information input, for example, an error message as shown in FIG. 64 is displayed to guide the operation of the function to be used.

しかして上述した如く表示したガイドメッセージの空欄
に対してデータ入力が行われると、制御装置は前述した
如く求めている該当利用者の習熟度表の該当利用頻度を
(+1)すると共に、最終利用年月日時および前回利用
習熟クラスの更新を行なう。そして該利用機能の実行を
促すと共に、該当利用機能が終了したものと看做して前
述した利用機能選択の為のメニュー表示動作に戻る。
However, if data is entered in the blank space of the guide message displayed as described above, the control device increments (+1) the corresponding usage frequency in the proficiency level table of the corresponding user, which is obtained as described above, and makes a final use. Update the date, time, and previous learning class. Then, the execution of the used function is urged, and it is considered that the corresponding used function has ended, and the process returns to the menu display operation for selecting the used function described above.

ここで再び利用機能選択信号が入力されると、上述した
処理を再び繰返して実行することになる。しかし終了選
択信号が入力された場合には、上述した如く作成・更新
した習熟度表を外部記憶装置の習熟度ファイルに、その
該当利用者の識別コードと共に書込み、これを保存す
る。そしての一連の処理手続きを終了する。
Here, when the use function selection signal is input again, the above-mentioned processing is repeated and executed again. However, when the end selection signal is input, the proficiency level table created / updated as described above is written in the proficiency level file of the external storage device together with the identification code of the corresponding user, and the proficiency level table is saved. Then, the series of processing procedures is ended.

このようにして作業環境データ収集部25では、システム
の操作に関する習熟度のデータを収集しながら、その収
集されたデータに従ってその操作を適切にガイダンスす
るものとなっている。
In this way, the work environment data collection unit 25 collects data of the proficiency level regarding the operation of the system, and appropriately guides the operation according to the collected data.

以上が本ワークステーションの基本的な構成とその機能
である。
The above is the basic configuration of this workstation and its functions.

次に本発明の特徴とするメディア変換方式について説明
する。
Next, a media conversion method which is a feature of the present invention will be described.

ここで行われるメディア変換とは、例えば前記音声認識
部19にて入力音声を認識処理して文字コード列に変換し
たり、また前記音声合成部26にて文字コード列を音声合
成処理して合成音声を生成したりする処理である。この
音声メディアと文字コードメディアとの間の変換のみな
らず、本ワークステーションは図形認識・図形合成、イ
メージ認識・イメージ合成、更には音声やイメージ等の
圧縮・伸長処理等の種々のメディア変換機能を備えてい
る。
The media conversion performed here includes, for example, recognizing the input voice by the voice recognition unit 19 and converting it into a character code string, or synthesizing the character code string by voice synthesizing process by the voice synthesizing unit 26. This is a process of generating voice. In addition to conversion between this voice media and character code media, this workstation has various media conversion functions such as figure recognition / figure synthesis, image recognition / image synthesis, and compression / decompression processing of voice and images. Is equipped with.

このようなメディア変換を情報通信する通信相手端末の
種別に応じて選択制御し、通信相手端末が処理可能なメ
ディアに変換して通信出力する機能が本発明の特徴とす
るところであり、その処理は主として出力形態選択部24
にて行われる。
A feature of the present invention is a function of selectively controlling such media conversion according to the type of a communication partner terminal for information communication, converting the media into a medium that the communication partner terminal can process, and outputting the communication. Mainly output form selection unit 24
Will be held in.

この出力形態選択部24は制御部2からのメディア選択要
求信号を受けて起動され、どのメデイアを通じてデータ
出力するかを選択するものである。つまり文字コード列
や音声、画像等の種々のメディアのうち、どのメディア
を通じて情報を通信出力するかを選択するものである。
The output form selection unit 24 is activated in response to a media selection request signal from the control unit 2 and selects which medium is used to output data. That is, it is used to select which medium, out of various media such as a character code string, voice, and image, is used to output information through communication.

第65図はこの出力形態選択部24の概略構成図であり、メ
ディア選択制御部24a,入力メディア判定部24b,相手メデ
ィア判定部24c,メディア変換テーブル24d,および自己メ
ディア機能テーブル24eを備えて構成される。また第66
図はこの出力形態選択部24の概略的な処理の流れを示す
ものである。この処理手続きの流れに沿って該出力形態
選択部24の機能を説明する。
FIG. 65 is a schematic configuration diagram of the output form selection unit 24, which is provided with a media selection control unit 24a, an input media determination unit 24b, a partner media determination unit 24c, a media conversion table 24d, and a self media function table 24e. To be done. Also 66th
The figure shows an outline of the processing flow of the output form selection unit 24. The function of the output form selection unit 24 will be described along the flow of this processing procedure.

メディア選択要求信号が与えられるとメディア選択制御
部24aは前記制御部2に対してメディア選択動作に必要
な入力メディア情報の提供を要求する。そして入力メデ
ィア判定部24bに対してメディア情報検出要求とメディ
ア機能識別要求を発する。
When the media selection request signal is given, the media selection control unit 24a requests the control unit 2 to provide the input media information necessary for the media selection operation. Then, it issues a media information detection request and a media function identification request to the input media determination unit 24b.

入力メディア判定部24bはメディア検出部24fとメディア
識別部24gとによって構成される。そして上記メディア
選択制御部24aによる情報要求を受けて制御部2から与
えられる入力メディアの情報を検出し、且つその検出メ
ディアの機能を識別判定している。この識別判定によっ
て、例えば種々の情報端末に通信するべく入力された情
報のメディアが識別検出されるようになっている。具体
的には入力メディア判定部24bは、例えば音声データが
与えられた場合、その入力メディアが音声であり、また
そのメディアの機能がADPCMである等として識別判定す
る。
The input media determination unit 24b includes a media detection unit 24f and a media identification unit 24g. Then, in response to the information request from the medium selection control section 24a, the information of the input medium given from the control section 2 is detected, and the function of the detected medium is discriminated and determined. By this identification determination, for example, the medium of information input to communicate with various information terminals is identified and detected. Specifically, for example, when audio data is given, the input media determination unit 24b identifies and determines that the input media is voice and the function of the media is ADPCM.

しかる後、メディア選択制御部24aは制御部2に対して
そのデータ出力の相手先が自己端末(ワークステーショ
ン内)の他の機能ブロックであるか、或いは通信回線等
を介して接続される別のワークステーションや通信端末
であるかを問合せる。そして別のワークステーションや
通信端末に対してデータ出力することが指示されると、
メディア選択制御部24aは送信相手局に関する識別情報
を制御部2に対して要求する。この要求を受けてデータ
出力する相手局に関する情報が相手メディア判定部24c
に入力される。
After that, the media selection control unit 24a sends a data output destination to the control unit 2 to another functional block of its own terminal (in the work station) or to another unit connected via a communication line or the like. Inquire whether it is a workstation or communication terminal. Then, when instructed to output data to another workstation or communication terminal,
The media selection control unit 24a requests the control unit 2 for identification information regarding the transmission partner station. The information about the partner station that receives this request and outputs data is the partner media determination unit 24c.
Entered in.

相手メディア判定部24cは、相手局識別部24h,相手局メ
ディア識別部24i,機能識別部24jを備えて構成され、前
記メディア選択制御部24aからの識別情報判定要求を受
けて作動する。そして相手局に関する識別情報から、先
ず相手局の種別を識別し、相手局のメディアを識別す
る。そしてその相手局メディアの機能を識別する。
The partner media determination unit 24c includes a partner station identification unit 24h, a partner station media identification unit 24i, and a function identification unit 24j, and operates in response to an identification information determination request from the media selection control unit 24a. Then, the type of the partner station is first identified from the identification information about the partner station, and the media of the partner station is identified. Then, the function of the partner station media is identified.

具体的には制御部2から与えられる情報に従って、例え
ばデータ出力(送信)する通信相手局が自動FAXであ
り、その通信メディアがイメージであって、その機能が
GIIIタイプである等を識別する。尚、この相手局の識別
を、相手局からそのネゴツェーション(ハンドシェー
ク)機能を用いて直接送られてくる情報に基いて行うよ
うにしても良い。また通信相手局にネゴツェーション機
能がない場合には、そのメディア検出機能を機能識別部
24jに持たせておけば良い。このようにすれば相手側か
らのメディア情報信号に従ってその機能識別を行なうこ
とが可能となる。
Specifically, according to the information given from the control unit 2, for example, the communication partner station that outputs (transmits) data is an automatic FAX, its communication medium is an image, and its function is
Identify GIII type, etc. The identification of the partner station may be performed based on the information directly sent from the partner station using the negotiation (handshake) function. If the communication partner station does not have the negotiation function, its media detection function is
It should be held in 24j. This makes it possible to identify the function according to the media information signal from the other party.

第67図はこの相手局の識別処理手続きの流れを示すもの
である。この流れに示されるように識別処理は、例えば
先ず通信相手局が電話端末か否かを判定し、電話端末で
ある場合には該電話端末からFAX信号が到来するか否か
を判定して行われる。
FIG. 67 shows the flow of the identification processing procedure of this partner station. As shown in this flow, the identification processing is performed, for example, by first determining whether or not the communication partner station is a telephone terminal, and if it is a telephone terminal, determining whether or not a FAX signal comes from the telephone terminal. Be seen.

そして相手局が電話であり、FAX信号が到来する場合に
は、これを相手機器がFAXであると識別すれば良い。ま
た電話であると判定され、FAX信号が到来しない場合に
は、相手機器は通常の電話であると判定すれば良い。更
に電話でないと判定された場合には、相手機器は電話以
外の他の通信機器であると判定するようにすれば良い。
このような判定処理によって、通信相手局の種別が判定
され、その通信相手局が処理可能なメディアの種別が判
定される。
Then, when the partner station is a telephone and a FAX signal arrives, it may be identified that the partner device is a FAX. If it is determined that the telephone is a telephone and the FAX signal does not arrive, it may be determined that the partner device is a normal telephone. Further, when it is determined that it is not a telephone, it is possible to determine that the partner device is a communication device other than the telephone.
Through such a determination process, the type of the communication partner station is determined, and the type of media that the communication partner station can process is determined.

しかして通信相手局のメディアが識別判定されると、次
にメディア選択制御部24aは、例えば第68図に示すよう
に構成されたメディア変換テーブル24dを参照して、入
力メディア、入力機能、相手機器、相手機器メディア、
相手機器の機能に対応したメディア変換選択情報を得
る。つまり入力情報を通信相手局に送信する場合、該入
力情報をどのようにメディア変換すれば良いか、またそ
れに必要なメディア変換手段はどれであるかの情報を求
める。
Then, when the media of the communication partner station is identified and determined, the media selection control unit 24a then refers to the media conversion table 24d configured as shown in FIG. 68, for example, to input media, input function, and partner. Device, partner device media,
Obtain media conversion selection information corresponding to the function of the partner device. That is, when the input information is transmitted to the communication partner station, information is obtained as to how the input information should be converted into media and which media conversion means is necessary.

例えば情報通信すべき入力メディアが音声で、その機能
がADPCMであり、相手機器がGIIIタイプのFAXである場合
には、相手機器が処理可能なメディアがイメージである
ことから、そのメディア変換として (音声)to(コード文字) (コード文字)to(イメージ) を実行すれば良いことを求める。同時にそのその変換機
能が、 (ADPCM;音声)to(GIII;FAX) によって実現できることを求める。この際、従属的なメ
ディア変換情報が存在すれば、これも同時に求める。
For example, if the input medium for information communication is voice, the function is ADPCM, and the partner device is a GIII type fax, the media that can be processed by the partner device is an image. It is required to execute (voice) to (code character) (code character) to (image). At the same time, we demand that the conversion function be realized by (ADPCM; voice) to (GIII; FAX). At this time, if subordinate media conversion information exists, this is also obtained at the same time.

このようにして求められたメディア変換情報が制御部2
に与えられ、前記データ出力の形式が選択的に指定され
る。この結果、前記ADPCMのデータ形式で入力される音
声データは、前記音声認識部19にて一旦文字コード列に
変換され、更にイメージ合成部27にて文字画像のイメー
ジに変換される。そして通信相手局がFAXであることか
らGIIIモードの信号(通信メディア)に変換されて通信
装置12,13から送信出力される。このようなメディア変
換機能の選択制御によってイメージデータの出力機能を
備えた通信相手端末に対して音声入力された情報が通信
出力されることになる。
The media conversion information obtained in this way is the control unit 2
And the format of the data output is selectively designated. As a result, the voice data input in the ADPCM data format is once converted into a character code string by the voice recognition unit 19 and further converted into a character image by the image synthesis unit 27. Since the communication partner station is FAX, it is converted into a GIII mode signal (communication medium) and transmitted and output from the communication devices 12 and 13. By such selection control of the media conversion function, the information input by voice is communicated and output to the communication partner terminal having the image data output function.

尚、データ出力が自己のワークステーション内部に対し
て行われる場合には、メディア選択制御部24aな自己メ
ディア機能テーブル24eを参照して、データ出力が可能
な出力形式を求める。この情報に従ってメディア選択制
御部24aは前記メディア変換テーブル24dの自己メディア
変換テーブルを参照し、同様にしてメディア変換情報を
求め、これを制御部2に与える。
When data is output to the inside of the workstation of its own, the media selection control unit 24a refers to the own media function table 24e to obtain an output format capable of outputting data. In accordance with this information, the media selection control unit 24a refers to the self media conversion table of the media conversion table 24d, similarly obtains the media conversion information, and gives this to the control unit 2.

このようにして求められるメディア変換情報に従って、
例えば前述した音声合成部26を用いて文字コードの系列
で与えられる文章情報を音声情報にメディア変換した
り、或いは音声認識部19を用いて音声情報を文字コード
系列の情報にメディア変換される。
According to the media conversion information obtained in this way,
For example, the sentence synthesizing unit 26 described above is used for media conversion of sentence information given as a character code sequence into voice information, or the voice recognition unit 19 is used for media conversion of voice information into character code sequence information.

尚、通信相手端末が複数種類のメディアに対応可能な場
合には、その中の1つを選択してメディア変換を選択制
御するようにすれば良い。この際、選択した相手メディ
アが使用中であれば空きメディアを探し出して選択制御
するようにすれば良い。
If the communication partner terminal is compatible with a plurality of types of media, one of the media may be selected to selectively control the media conversion. At this time, if the selected partner medium is in use, a free medium may be searched for and the selection may be controlled.

更には通信相手端末がワークステーションに対して、該
ワークステーションが対処可能なメディアの種別の問合
せを行なってきた場合には、前記自己メディア機能テー
ブル24eを参照してその問合せに応答し、該ワークステ
ーションの種別や該ワークステーションが出力可能なメ
ディアの種別を通知するようにしても良い。その上で、
通信相手端末との協議によって通信メディアを選択する
ようにしても良い。
Further, when the communication partner terminal inquires of the workstation about the type of media that the workstation can handle, it responds to the inquiry by referring to the self media function table 24e, The type of station or the type of media that can be output by the workstation may be notified. Moreover,
The communication medium may be selected in consultation with the communication partner terminal.

また通信相手端末がメディア選択の自動モードに設定さ
れているか、或いは手動モードに設定されているかを判
定してメディア変換の選択制御を行なうようにしても良
い。
Alternatively, the selection control for media conversion may be performed by determining whether the communication partner terminal is set to the automatic mode for media selection or the manual mode.

[発明の効果] 以上説明したように本発明によれば、通信すべき情報の
入力メディアを検出すると共に、通信相手端末が処理可
能なメディアを検出し、その検出結果に従ってメディア
変換の形態を選択するので、通信端末の機能がワークス
テーションと同一でない場合であっても、その通信相手
端末に効果的に情報通信することができる。従って種々
の形態の端末に対して、その端末が取扱い得るメディア
で情報を通信出力することが可能となり、通信範囲の拡
大と、ワークステーション利用者への便宜の拡大を図る
ことが可能となる。また種々のメディアを有効に利用し
た情報通信を行なうことが可能となる等の実用上多大な
る効果が奏せられる。
[Effects of the Invention] As described above, according to the present invention, an input medium of information to be communicated is detected, a medium that can be processed by a communication partner terminal is detected, and a media conversion mode is selected according to the detection result. Therefore, even if the function of the communication terminal is not the same as that of the workstation, information communication can be effectively performed with the communication partner terminal. Therefore, it becomes possible to communicate and output information to various types of terminals by using media that can be handled by the terminals, and it is possible to expand the communication range and convenience for workstation users. In addition, a great effect in practical use can be obtained such that information communication can be performed by effectively using various media.

【図面の簡単な説明】[Brief description of drawings]

図は本発明の一実施例を示すもので、 第1図は本発明に係るワークステーションの特徴的な処
理機能を示す図、第2図はワークステーションの概略構
成図、 第3図はワークステーションに付随するICカードの外観
図、第4図はICカードの構造を示す分解斜視図、第5図
はICカードのプリント基板部の構造を示す図、第6図は
ICカードの半導体集積回路部の構成を示す図、 第7図はワークステーションにおける暗号化処理部の構
成を示す図、第8図は暗号・復号化の概念を示す図、第
9図は暗号化部の構成図、第10図は復号化部の構成図、
第11図はRSA処理部の構成図、 第12図はワークステーションにおけるイメージ照合部の
構成を示す図、第13図はイメージ処理される顔の例を示
す図、第14図はイメージ・データの構成を示す図、 第15図はワークステーションにおける音声認識部の構成
を示す図、第16図は入力音声パターンの例を示す図、第
17図は子音の音響的特徴を示す図、第18図は遷移ネット
ワークの例を示す図、第19図は音声認識処理の手続きを
示す図、第20図は入力音声に対する部分区間検出を説明
する為の図、第21図は音声認識辞書の学習処理手続きを
示す図、 第22図はワークステーションにおける文字認識部の第1
の文字認識ブロックの構成を示す図、第23図は認識対象
となる文字が記載されるFAX送信原稿用紙の例を示す
図、第24図は認識対象文字の切出し処理を説明する為の
図、第25図は文字認識部における第2の文字認識ブロッ
クの構成を示す図、 第26図はワークステーションにおける図形認識部の構成
を示す図、第27図乃至第30図は図形認識処理を説明する
為の図、 第31図はワークステーションにおけるイメージ認識部の
構成を示す図、第32図はコード変換装置の構成図、第33
図は入力イメージに対する処理例を示す図、第34図はセ
グメントにおける特徴点検出を示す図、 第35図はワークステーションにおける音声照合部の構成
を示す図、第36図はフィルタバンクの帯域分割例を示す
図、第37図はフィルタ特性を示す図、 第38図はワークステーションにおける音声合成部の構成
を示す図、第39図は規則合成パラメータ生成装置の構成
図、第40図は音声パラメータの変換構造を示す図、第41
図は音声合成器の構成図、 第42図はワークステーションにおけるイメージ合成部の
構成を示す図、第43図および第44図はイメージ合成処理
の概念を示す図、 第45図はワークステーションにおけるデータベース部の
構成を示す図、第46図はデータベースのデータ構成を示
す図、第47図はリレーションの例を示す図、第48図はリ
レーションの構造を示す図、 第49図はコマンド対応テーブルの構造を示す図、第50図
はワークステーションにおける作業環境データ収集部の
構成を示す図、第51図乃至第54図はコマンド部の処理を
説明する為の図、第55図はシステム習熟度のデータ収集
処理の流れを示す図、第56図は習熟度表の構造を示す
図、第57図乃至第64図は作業環境データ収集部の処理を
説明する為の図、 第65図は本発明に係るメディア変換の選択制御を司る出
力形態選択部の構成を示す図、第66図は出力形態選択処
理手続きの流れを示す図、第67図は相手局識別処理手続
きの流れを示す図、第68図はメディア変換テーブルの構
造を示す図である。 1……バス、2……制御部、3……イメージ入力装置、
4……位置入力装置、5……音声入力部、6……キーボ
ート部、7……ICカード部、8……バスコントローラ、
9……音声出力装置、10……ディスプレイ部、11……イ
メージ出力装置、12,13……通信装置、14……切換え装
置、15……タイマー部、16……暗号化処理部、17……音
声照合部、18……イメージ照合部、19……音声認識部、
20……音声分析部、21……文字認識部、22……図形認識
部、23……イメージ認識部、24……出力形態選択部、25
……作業環境データ収集部、26……音声合成部、27……
イメージ合成部、28……図形合成部、29……音声の圧縮
・伸長部、30……イメージの圧縮・伸長部、31……信号
処理部、32……データベース部。
FIG. 1 shows an embodiment of the present invention. FIG. 1 is a diagram showing characteristic processing functions of a workstation according to the present invention, FIG. 2 is a schematic configuration diagram of the workstation, and FIG. 3 is a workstation. 4 is an external view of the IC card attached to the IC card, FIG. 4 is an exploded perspective view showing the structure of the IC card, FIG. 5 is a view showing the structure of the printed circuit board portion of the IC card, and FIG.
FIG. 7 is a diagram showing a configuration of a semiconductor integrated circuit unit of an IC card, FIG. 7 is a diagram showing a configuration of an encryption processing unit in a workstation, FIG. 8 is a diagram showing a concept of encryption / decryption, and FIG. 9 is encryption. Fig. 10 is a block diagram of the section, Fig. 10 is a block diagram of the decoding section,
FIG. 11 is a block diagram of the RSA processing unit, FIG. 12 is a diagram showing the configuration of the image matching unit in the workstation, FIG. 13 is a diagram showing an example of a face subjected to image processing, and FIG. 14 is a diagram showing image data. FIG. 15 is a diagram showing a configuration, FIG. 15 is a diagram showing a configuration of a voice recognition unit in a workstation, and FIG. 16 is a diagram showing an example of an input voice pattern.
FIG. 17 is a diagram showing acoustic characteristics of consonants, FIG. 18 is a diagram showing an example of a transition network, FIG. 19 is a diagram showing a procedure of a voice recognition process, and FIG. 20 is a description of partial segment detection for an input voice. FIG. 21 is a diagram showing a learning processing procedure of the voice recognition dictionary, and FIG. 22 is a first part of the character recognition unit in the workstation.
FIG. 23 is a diagram showing the configuration of a character recognition block of FIG. 23, FIG. 23 is a diagram showing an example of a FAX transmission original sheet in which characters to be recognized are described, and FIG. FIG. 25 is a diagram showing the configuration of the second character recognition block in the character recognition unit, FIG. 26 is a diagram showing the configuration of the graphic recognition unit in the workstation, and FIGS. 27 to 30 are for explaining the graphic recognition processing. FIG. 31 is a diagram showing the configuration of the image recognition unit in the workstation, FIG. 32 is a configuration diagram of the code conversion device, and FIG.
Fig. 34 is a diagram showing an example of processing for an input image. Fig. 34 is a diagram showing feature point detection in a segment. Fig. 35 is a diagram showing the structure of a voice collating unit in a workstation. Fig. 36 is a band division example of a filter bank. FIG. 37 is a diagram showing a filter characteristic, FIG. 38 is a diagram showing a configuration of a voice synthesis unit in a workstation, FIG. 39 is a configuration diagram of a rule synthesis parameter generation device, and FIG. 40 is a voice parameter. FIG. 41 is a diagram showing a conversion structure.
Fig. 42 is a block diagram of a speech synthesizer, Fig. 42 is a diagram showing the configuration of an image synthesis unit in a workstation, Figs. 43 and 44 are diagrams showing the concept of image synthesis processing, and Fig. 45 is a database in a workstation. Fig. 46 shows the structure of parts, Fig. 46 shows the data structure of the database, Fig. 47 shows an example of relations, Fig. 48 shows the structure of relations, and Fig. 49 shows the structure of command correspondence table. FIG. 50 is a diagram showing the configuration of the work environment data collection unit in the workstation, FIGS. 51 to 54 are diagrams for explaining the processing of the command unit, and FIG. 55 is system proficiency level data. FIG. 56 is a diagram showing the flow of the collection process, FIG. 56 is a diagram showing the structure of the proficiency level table, FIGS. 57 to 64 are diagrams for explaining the process of the work environment data collection unit, and FIG. 65 is the present invention. Select control of media conversion FIG. 66 is a diagram showing the configuration of the output form selection unit, FIG. 66 is a diagram showing the flow of the output form selection processing procedure, FIG. 67 is a diagram showing the flow of the partner station identification processing procedure, and FIG. 68 is the structure of the media conversion table. FIG. 1 ... bus, 2 ... control unit, 3 ... image input device,
4 ... Position input device, 5 ... Voice input part, 6 ... Keyboard part, 7 ... IC card part, 8 ... Bus controller,
9 ... Voice output device, 10 ... Display unit, 11 ... Image output device, 12, 13 ... Communication device, 14 ... Switching device, 15 ... Timer unit, 16 ... Encryption processing unit, 17 ... … Voice verification unit, 18 …… Image verification unit, 19 …… Voice recognition unit,
20 …… Speech analysis section, 21 …… Character recognition section, 22 …… Figure recognition section, 23 …… Image recognition section, 24 …… Output form selection section, 25
…… Work environment data collection unit, 26 …… Speech synthesis unit, 27 ……
Image synthesizing unit, 28 ... Graphic synthesizing unit, 29 ... Voice compression / decompression unit, 30 ... Image compression / decompression unit, 31 ... Signal processing unit, 32 ... Database unit.

フロントページの続き (72)発明者 斎藤 裕美 神奈川県川崎市幸区小向東芝町1番地 株 式会社東芝総合研究所内 (72)発明者 根岸 誠 神奈川県川崎市幸区小向東芝町1番地 株 式会社東芝総合研究所内 (56)参考文献 特開 昭58−194454(JP,A) 特開 昭57−185535(JP,A) 特開 昭61−187451(JP,A)Front page continuation (72) Inventor Hiromi Saito 1 Komukai Toshiba-cho, Sachi-ku, Kawasaki-shi, Kanagawa Inside the Toshiba Research Institute Co., Ltd. (72) Inventor Makoto Negishi Komukai Toshiba-cho, Kawasaki-shi, Kanagawa (56) Reference JP-A-58-194454 (JP, A) JP-A-57-185535 (JP, A) JP-A-61-187451 (JP, A)

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】複数種類のメディア変換手段を備えたマル
チメディア対応のワークステーションであって、 該ワークステーションは、通信に供される情報の入力メ
ディアを検出する入力メディア検出部と、通信相手端末
が処理可能なメディアを検出して上記情報を通信する為
の通信メディアを求める相手メディア検出部と、メディ
ア変換テーブルを参照して上記入力メディアと通信メデ
ィアに応じてメディア変換の種別を求める手段とを具備
し、 求められたメディア変換の種別に応じて前記メディア変
換手段を選択的に起動して前記入力情報をメディア変換
して前記通信相手端末に送信してなることを特徴とする
メディア変換方式。
1. A multimedia-compatible workstation comprising a plurality of types of media conversion means, the workstation comprising an input media detection unit for detecting an input media of information used for communication, and a communication partner terminal. A partner media detection unit that detects a processable media and obtains a communication medium for communicating the information, and a unit that refers to a media conversion table and obtains the type of media conversion according to the input media and the communication medium. A media conversion system comprising: a media conversion means for selectively activating the media conversion means in accordance with a required type of media conversion, converting the input information into a media, and transmitting the media to the communication partner terminal. .
【請求項2】メディア変換手段は、音声認識装置、文字
認識装置、図形認識装置、イメージ認識装置、音声合成
装置、イメージ合成装置、図形合成装置や、各種データ
の圧縮・伸長装置等からなり、メディア変換の種別に応
じて選択的に用いられるものである特許請求の範囲第1
項記載のメディア変換方式。
2. The media converting means comprises a voice recognition device, a character recognition device, a figure recognition device, an image recognition device, a voice synthesis device, an image synthesis device, a graphic synthesis device, and a compression / expansion device for various data. Claim 1 that is selectively used according to the type of media conversion
Media conversion method described in section.
【請求項3】相手メディア判定部は、通信相手端末の種
別を検知して該通信相手端末が処理可能なメディアの種
別を求めるものである特許請求の範囲第1項記載のメデ
ィア変換方式。
3. The media conversion method according to claim 1, wherein the partner media determination unit detects the type of the communication partner terminal and obtains the type of media that can be processed by the communication partner terminal.
【請求項4】相手メディア判定部は、通信相手端末が処
理可能なメディアが複数種類あるとき、その1つを選択
して通信メディアを定めるものである特許請求の範囲第
1項記載のメディア変換方式。
4. The media conversion according to claim 1, wherein the partner media determination unit determines the communication media by selecting one of a plurality of media that can be processed by the communication partner terminal. method.
【請求項5】相手メディア判定部は、通信相手端末が通
信メディアに応じて処理メディアを自動設定するか否か
を判定して情報を通信するに適した通信メディアを求め
るものである特許請求の範囲第1項記載のメディア変換
方式。
5. The partner media determination unit determines whether or not the communication partner terminal automatically sets the processing media according to the communication media, and determines a communication media suitable for communicating information. The media conversion method described in the first item of the range.
【請求項6】相手メディア判定部は、通信相手端末の要
求に応じて該ワークステーションの種別、または該ワー
クステーションが出力可能なメディアの種別を該通信相
手端末に通知する機能を備えてなるものである特許請求
の範囲第1項記載のメディア変換方式。
6. The partner media determination unit is provided with a function of notifying the communication partner terminal of the type of the workstation or the type of media that can be output by the workstation in response to a request from the communication partner terminal. The media conversion system according to claim 1.
JP61230061A 1986-09-30 1986-09-30 Media conversion method Expired - Lifetime JPH07105848B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP61230061A JPH07105848B2 (en) 1986-09-30 1986-09-30 Media conversion method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP61230061A JPH07105848B2 (en) 1986-09-30 1986-09-30 Media conversion method

Publications (2)

Publication Number Publication Date
JPS6386655A JPS6386655A (en) 1988-04-18
JPH07105848B2 true JPH07105848B2 (en) 1995-11-13

Family

ID=16901937

Family Applications (1)

Application Number Title Priority Date Filing Date
JP61230061A Expired - Lifetime JPH07105848B2 (en) 1986-09-30 1986-09-30 Media conversion method

Country Status (1)

Country Link
JP (1) JPH07105848B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6253167B1 (en) 1997-05-27 2001-06-26 Sony Corporation Client apparatus, image display controlling method, shared virtual space providing apparatus and method, and program providing medium

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2568183B2 (en) * 1986-10-23 1996-12-25 キヤノン株式会社 Data communication method
JPH01307346A (en) * 1988-06-06 1989-12-12 Nippon Telegr & Teleph Corp <Ntt> Connection system for composite terminal equipment
JPH07105113A (en) * 1993-10-06 1995-04-21 Canon Inc Communication server system
JP3547191B2 (en) * 1995-01-23 2004-07-28 シャープ株式会社 Communication device
US6789263B1 (en) 1995-05-17 2004-09-07 Hitachi, Ltd. Data conversion method and apparatus
JP3533811B2 (en) * 1995-05-17 2004-05-31 株式会社日立製作所 Data conversion device, network system including data conversion device, and data transmission method
US5727159A (en) * 1996-04-10 1998-03-10 Kikinis; Dan System in which a Proxy-Server translates information received from the Internet into a form/format readily usable by low power portable computers
US6553410B2 (en) 1996-02-27 2003-04-22 Inpro Licensing Sarl Tailoring data and transmission protocol for efficient interactive data transactions over wide-area networks
US6076109A (en) 1996-04-10 2000-06-13 Lextron, Systems, Inc. Simplified-file hyper text protocol
TW347498B (en) * 1996-09-30 1998-12-11 Casio Computer Co Ltd Information supply system
US6055566A (en) 1998-01-12 2000-04-25 Lextron Systems, Inc. Customizable media player with online/offline capabilities

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6253167B1 (en) 1997-05-27 2001-06-26 Sony Corporation Client apparatus, image display controlling method, shared virtual space providing apparatus and method, and program providing medium

Also Published As

Publication number Publication date
JPS6386655A (en) 1988-04-18

Similar Documents

Publication Publication Date Title
JP2558682B2 (en) Intellectual work station
JP3848319B2 (en) Information processing method and information processing apparatus
JPH07105848B2 (en) Media conversion method
US11580971B2 (en) Photo album management method, storage medium and electronic device
JPS63276672A (en) Intelligent work station
JP2582356B2 (en) Facsimile communication system
JPH06187351A (en) Schedule management system
JPS6386652A (en) Telephone incoming call information offering system
JPS6385968A (en) Schedule informing system
JPS6385964A (en) Schedule display system
JPH0824323B2 (en) Intellectual work station
JPS6385963A (en) Conference arranging system
JPS6385934A (en) Intelligent work station
JPS6386648A (en) Preferential telephone system
JPS6386947A (en) Work station
JPS6385979A (en) File retrieving device
JPS6385929A (en) File retriever
JPS6386662A (en) Fax male system
JPS6386647A (en) Automatic call transfer telephone system
JPS6386646A (en) Work station
JPS6386658A (en) Voice informing equipment
JPS6385967A (en) Schedule protection system
JPS6385916A (en) Abbreviated key system
JPS6385931A (en) Intelligent work station
JPH01853A (en) intellectual workstation