JPH04340681A - Character recognition system - Google Patents

Character recognition system

Info

Publication number
JPH04340681A
JPH04340681A JP3112784A JP11278491A JPH04340681A JP H04340681 A JPH04340681 A JP H04340681A JP 3112784 A JP3112784 A JP 3112784A JP 11278491 A JP11278491 A JP 11278491A JP H04340681 A JPH04340681 A JP H04340681A
Authority
JP
Japan
Prior art keywords
section
information
unit
character
recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP3112784A
Other languages
Japanese (ja)
Inventor
Kensuke Uehara
上原 堅助
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP3112784A priority Critical patent/JPH04340681A/en
Publication of JPH04340681A publication Critical patent/JPH04340681A/en
Pending legal-status Critical Current

Links

Landscapes

  • Character Discrimination (AREA)
  • Character Input (AREA)

Abstract

PURPOSE:To easily execute the set of a recognizing area, the instruction of recognition start and the correction of uncertain characters or the like entirely by a pen touch in character recognition and to considerably improve operability. CONSTITUTION:This system is composed of a main body part A equipped with an image input part 1 to input image information and a character recognition part 2 to execute the character recognition, and a portable part B which can exchange data with this main body part A and is equipped with an online character recognition part 4, and the image information inputted at the main body part A and the recognized result are transmitted to the portable part B. The portable part B integrates a display part 5 and a position input part (tablet) 7 and enables handwriting pen input, and the image information transmitted from the main body part A and the recognized result are displayed at the display part 5. Then, various instructions and operations related to the character recognition can be executed by operating a pen 6 on the tablet 7.

Description

【発明の詳細な説明】[Detailed description of the invention]

【0001】0001

【産業上の利用分野】本発明は、たとえば印刷された文
字、特にテキストとして印刷された文字を認識する文字
認識方式に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a character recognition system for recognizing, for example, printed characters, particularly characters printed as text.

【0002】0002

【従来の技術】従来、文字を認識する方式は、手書き文
字が主体であった。特に、伝票に記入された文字を高速
に認識することにより、大量の伝票の内容を計算機など
に入力する用途に適していた。当初、認識の対象とする
文字は、英数字あるいは仮名が主体であった。しかし、
住所などを入力する必要が出てきたために、漢字認識が
できるようになってきた。
2. Description of the Related Art Conventionally, methods for recognizing characters have mainly been based on handwritten characters. In particular, by quickly recognizing characters written on slips, it was suitable for inputting the contents of large amounts of slips into computers and the like. Initially, the characters targeted for recognition were mainly alphanumeric characters or kana. but,
Since it became necessary to input information such as addresses, it became possible to recognize kanji.

【0003】そこで、最近、オフィスの事務の合理化の
ため、印刷文字を認識の対象としたテキストリーダ認識
システムが実用化されている。このテキストリーダ認識
システムは、テキストファイルの形式になっていない種
々の印刷物を認識対象とする。一般的に、このシステム
は、対象とする印刷物の文字をイメージスキャナでイメ
ージ情報として読込んだ後に認識し、テキストファイル
の形式で格納した後、ワードプロセッサを併用すること
により、前記テキスト情報を適当に追加削除したりして
、新しい文書を作成する用途に適している。
[0003] Recently, text reader recognition systems that recognize printed characters have been put into practical use in order to streamline office operations. This text reader recognition system recognizes various printed materials that are not in the form of text files. Generally, this system reads the characters of the target printed material as image information using an image scanner, then recognizes them, stores them in the form of a text file, and then uses a word processor in combination to process the text information appropriately. Suitable for creating new documents by adding or deleting.

【0004】以下、従来のテキストリーダ認識システム
について詳細を説明する。図22はシステムの構成を概
略的に示しており、CRT表示部101、イメージスキ
ャナ102、文字認識部103、キーボード104、マ
ウス105、これらを制御する制御部106によって構
成されている。
[0004] The conventional text reader recognition system will be explained in detail below. FIG. 22 schematically shows the configuration of the system, which includes a CRT display section 101, an image scanner 102, a character recognition section 103, a keyboard 104, a mouse 105, and a control section 106 that controls these.

【0005】一般の印刷物は、図形、写真など、イメー
ジ情報も一緒に印刷されている例が多いので、希望する
文字領域の文字を認識するために、まずイメージスキャ
ナ102でページ全体をイメージ情報として読込んだ後
、マウス105を使って認識対象としている文字領域を
指定する。
In many cases, general printed matter is printed with image information such as figures and photographs, so in order to recognize the characters in the desired character area, the entire page is first scanned as image information using the image scanner 102. After reading, use the mouse 105 to specify the character area to be recognized.

【0006】図23は、イメージスキャナ102で読込
んだテキストの表示部101の表示画面の一例を示した
図である。図中、201,203は文字が印刷された領
域で、201はこの文章のタイトルで、203は本文に
相当する。205は写真が印刷された領域である。
FIG. 23 is a diagram showing an example of a display screen of the display unit 101 of text read by the image scanner 102. In the figure, 201 and 203 are areas in which characters are printed, 201 is the title of this text, and 203 corresponds to the main text. 205 is an area where a photograph is printed.

【0007】そして、マウス105により、領域指定の
アイコン206をクリックした後、領域202を指定す
る。同様に、アイコン206をクリックした後、領域2
04を指定する。そして、認識のアイコン207をクリ
ックすると、文字認識処理が開始される。文字認識処理
は、処理量が多いため、高速の演算部を必要とするので
、独立な文字認識部103を設けてあり、ここで文字認
識処理を行なう。
[0007] Then, after clicking the area designation icon 206 with the mouse 105, the area 202 is designated. Similarly, after clicking icon 206, area 2
Specify 04. Then, when the recognition icon 207 is clicked, character recognition processing is started. Character recognition processing involves a large amount of processing and requires a high-speed arithmetic unit, so an independent character recognition unit 103 is provided, which performs character recognition processing.

【0008】文字認識処理が終了すると、表示部101
は図24に示す表示画面に変わる。図中、209と21
2は認識結果で、208と211は指定された文字領域
である。また、210,213,214の文字は認識結
果が不確実で、反転表示されていることを示す。そして
、これから不確定な文字を確認するために、まず、文字
210の位置にマウス105のポイントを移してクリッ
クすると、領域216に認識過程における第1位候補の
文字が表示される。
[0008] When the character recognition process is completed, the display unit 101
changes to the display screen shown in FIG. 24. In the figure, 209 and 21
2 is the recognition result, and 208 and 211 are designated character areas. Further, characters 210, 213, and 214 indicate that the recognition results are uncertain and are displayed in reverse. Then, in order to confirm an uncertain character, first move the point of the mouse 105 to the position of the character 210 and click, and the first candidate character in the recognition process will be displayed in the area 216.

【0009】また、領域218には、図19における文
字210の元のイメージ画像が部分的に表示され、オペ
レータが認識候補を選択する際の参考にすることができ
る。216の文字が正しければ、マウス105によりア
イコン215をクリックすると、その文字は216に表
示された文字として確定する。
Further, in area 218, the original image of character 210 in FIG. 19 is partially displayed, and can be used as a reference by the operator when selecting a recognition candidate. If the character 216 is correct, clicking the icon 215 with the mouse 105 confirms that character as the character displayed at 216.

【0010】また、216に表示された文字が間違って
いる場合、さらに、マウス105により文字210をク
リックすると、第2位候補の文字が216に表示される
。この文字が正しければ、アイコン215をマウス10
5によりクリックすると、この文字は確定する。また、
間違っている場合は、もう一度、文字210をマウス1
05によりクリックして、第3位候補を216に表示さ
せる。この文字が正しければ、アイコン215をマウス
105によりクリックすることにより、この文字は確定
する。
If the character displayed at 216 is incorrect, if the character 210 is further clicked with the mouse 105, the second candidate character is displayed at 216. If this character is correct, move the icon 215 to the mouse 10
Clicking on 5 confirms this character. Also,
If you are wrong, move the mouse 1 over the character 210 again.
05 to display the third candidate in 216. If this character is correct, clicking the icon 215 with the mouse 105 confirms this character.

【0011】このシステムでは、認識の候補は第3位ま
で選択できるようになっているため、第3位候補が間違
っている場合は、人手により正しい文字を入力する必要
がある。そこで、今度は、マウス105により訂正のア
イコン217をクリックする。そして、キーボード10
4から、この漢字の読みを仮名で入力する。219は仮
名入力した結果を表示している。
[0011] In this system, up to the third candidate for recognition can be selected, so if the third candidate is incorrect, it is necessary to input the correct character manually. Therefore, this time, the correction icon 217 is clicked using the mouse 105. And keyboard 10
From 4 onwards, enter the reading of this kanji in kana. 219 displays the result of inputting a kana.

【0012】次に、キーボード104内のスペースキー
あるいは専用の変換キーを押すことにより、220のよ
うに仮名が漢字に変換されて同音異義な漢字が複数個表
示される。この表示220の中で正しい漢字について、
その漢字の前に付いた数字をキーボード104から入力
することにより、選択することができる。
Next, by pressing the space key or a dedicated conversion key on the keyboard 104, the kana is converted to a kanji as shown in 220, and a plurality of homonym kanji are displayed. Regarding the correct kanji in this display 220,
The kanji can be selected by inputting the number in front of the kanji from the keyboard 104.

【0013】以下、同様に、認識結果が不確実な文字2
13,214についても、キーボード104から正しい
文字を入力することができる。また、認識結果が不確実
ではなく、完全に誤っている文字の場合、訂正のアイコ
ン217をマウス105でクリックして、該当文字にマ
ウス105のポイントを移してクリックした後、前記と
同様に、キーボード104から仮名入力してから仮名漢
字変換を行ない、表示220の中から正しい漢字を選択
することにより、漢字を入力することができる。以下、
同様に、認識結果の不確実な文字213,214につい
ても、前記と同様に修正または訂正することができる。
[0013] Similarly, character 2 for which the recognition result is uncertain
13 and 214 as well, the correct characters can be input from the keyboard 104. In addition, if the recognition result is not uncertain and is a completely incorrect character, click the correction icon 217 with the mouse 105, move the point of the mouse 105 to the relevant character, click it, and then do the same as above. Kanji can be input by inputting kana from the keyboard 104, converting the kana to kanji, and selecting the correct kanji from the display 220. below,
Similarly, characters 213 and 214 whose recognition results are uncertain can also be corrected or corrected in the same manner as described above.

【0014】[0014]

【発明が解決しようとする課題】このように、従来のテ
キストリーダ認識システムにおいては、認識に係る処理
、すなわち、認識領域の設定、認識開始の指示、不確実
な文字の修正、および、誤認識した文字の訂正などは全
てマウスおよびキーボードによる操作によって行なって
いた。このため、操作が非常に煩雑で効率がよくなかっ
た。
[Problems to be Solved by the Invention] As described above, in the conventional text reader recognition system, processing related to recognition, that is, setting of a recognition area, instruction to start recognition, correction of uncertain characters, and erroneous recognition. All corrections to the written characters were performed using the mouse and keyboard. Therefore, the operation was extremely complicated and inefficient.

【0015】そこで、本発明は、認識に係る指示および
操作、すなわち、認識領域の設定、認識開始の指示、お
よび、不確実な文字の修正などを全てペンタッチで簡単
に行なえ、著しく操作性が向上する文字認識方式を提供
することを目的とする。
Therefore, the present invention enables instructions and operations related to recognition, such as setting a recognition area, instructing to start recognition, and correcting uncertain characters, to be easily performed with a pen touch, thereby significantly improving operability. The purpose is to provide a character recognition method for

【0016】[0016]

【課題を解決するための手段】本発明の文字認識方式は
、少なくとも文字を含むイメージ情報を入力する手段を
有する第1電子機器と、この第1電子機器との間でデー
タ交換が可能な携帯形の第2電子機器とからなり、第1
電子機器および第2電子機器のうち少なくともいずれか
一方は文字認識手段を有し、第2電子機器は表示部とタ
ブレットとが一体となり手書きペン入力が可能な手書き
入力手段を有し、第1電子機器で入力したイメージ情報
から前記文字認識手段で文字認識を行なう際、その前に
第2電子機器の手書き入力手段により文字が存在するイ
メージ部分を領域指定し、認識処理後、その認識結果に
ついて認識の不確実な文字の候補選択および誤認識した
文字の訂正などを第2電子機器の手書き入力手段により
行なうことが可能なことを特徴とする。
[Means for Solving the Problems] The character recognition method of the present invention provides a first electronic device having means for inputting image information including at least characters, and a mobile phone capable of exchanging data between the first electronic device and the first electronic device. a second electronic device of the shape;
At least one of the electronic device and the second electronic device has a character recognition means, the second electronic device has a handwriting input means in which a display unit and a tablet are integrated and can input handwritten pen input, and the first electronic device has a character recognition means. When the character recognition means performs character recognition from the image information inputted by the device, before that, an area of the image where the characters exist is designated by the handwriting input means of the second electronic device, and after recognition processing, the recognition result is recognized. The present invention is characterized in that it is possible to select uncertain character candidates and correct erroneously recognized characters using the handwriting input means of the second electronic device.

【0017】[0017]

【作用】本発明は、たとえば、イメージ情報を入力する
手段、および、文字認識を行なう文字認識手段を有する
第1電子機器と、この第1電子機器との間でデータ交換
が可能な携帯形の第2電子機器とによって構成し、第1
電子機器で入力したイメージ情報、および、その認識結
果を第2電子機器に送る。第2電子機器は、表示部とタ
ブレットとが一体となり手書きペン入力が可能な手書き
入力手段を有しており、第1電子機器から送られたイメ
ージ情報、および、その認識結果を表示部に表示して、
タブレット上でペン操作により文字認識に係る指示およ
び操作を行なうことができる。これにより、第2電子機
器側で文字認識に係る指示および操作、すなわち、認識
領域の設定、認識開始の指示、および、不確実な文字の
修正などをペンタッチで簡単に行なうことができ、従来
から行なわれているマウスおよびキーボードによる操作
に比較すると著しく操作性が向上する。
[Operation] The present invention provides, for example, a first electronic device having a means for inputting image information and a character recognition means for performing character recognition, and a portable device capable of exchanging data between the first electronic device and the first electronic device. a second electronic device;
The image information inputted by the electronic device and the recognition result thereof are sent to the second electronic device. The second electronic device has a handwriting input means in which the display unit and the tablet are integrated and can perform handwritten pen input, and displays the image information sent from the first electronic device and the recognition result on the display unit. do,
Instructions and operations related to character recognition can be performed using a pen on the tablet. As a result, instructions and operations related to character recognition on the second electronic device side, such as setting a recognition area, instructions to start recognition, and correcting uncertain characters, can be easily performed with a pen touch. The operability is significantly improved compared to the conventional mouse and keyboard operations.

【0018】[0018]

【実施例】以下、本発明の一実施例について図面を参照
して説明する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below with reference to the drawings.

【0019】図1は、本発明の文字認識方式が適用され
る、たとえば、個人複合化OA(オフイスオートメーシ
ョン)機器の概略構成を示すもので、第1電子機器とし
ての本体部Aと携帯形の第2電子機器としての携帯部B
とから構成されていて、これら本体部Aと携帯部Bとの
間でデータ交換が可能になっている。本体部Aは、各種
のイメージ情報を入力するイメージ入力部1、文字認識
を行なう文字認識部2、これらの制御などを行なう制御
部3によって構成される。また、携帯部Bは、オンライ
ン文字認識を行なうオンライン文字認識部4、イメージ
情報などを表示する表示部5、この表示部5上に一体化
され、ペン6を用いて手書きで情報入力などを行なうた
めの位置入力部(透明タブレット)7、これらの制御な
どを行なう制御部8によって構成される。
FIG. 1 shows a schematic configuration of, for example, a personal complex OA (office automation) device to which the character recognition method of the present invention is applied. Portable unit B as a second electronic device
The main unit A and the portable unit B can exchange data. The main body section A is composed of an image input section 1 for inputting various image information, a character recognition section 2 for performing character recognition, and a control section 3 for controlling these. The mobile unit B also includes an online character recognition unit 4 that performs online character recognition, a display unit 5 that displays image information, etc., and is integrated on the display unit 5, and is used to input information by hand using a pen 6. It is composed of a position input section (transparent tablet) 7 for controlling the camera, and a control section 8 for controlling these operations.

【0020】このような構成の個人複合化OA機器は、
たとえば、机上で使用する場合は、本体部Aあるいは携
帯部Bをそれぞれ単独に使用することも、本体部Aと携
帯部Bを、たとえば、携帯部Bを本体部Aの入力装置と
して用いるといったように、一体化して使用することも
可能である。また、外出時などは、携帯部Bのみを外し
て持ち歩くことができるようになっている。次に、この
個人複合化OA機器の具体的な構成について詳細に説明
する。
[0020] The personal complex OA equipment with such a configuration is
For example, when using on a desk, main unit A or mobile unit B may be used independently, or main unit A and mobile unit B may be used, for example, mobile unit B may be used as an input device for main unit A. It is also possible to use it in an integrated manner. Further, when going out, only the portable part B can be removed and carried around. Next, the specific configuration of this personal complex OA device will be explained in detail.

【0021】まず、本体部Aは図2に示すように構成さ
れる。すなわち、位置入力部11は、指定された位置座
標情報を入力するもので、たとえば、マウスなどからな
る。キーボード部12は、数字、文字・記号コードや制
御コードなどを入力するもので、複数のキーを備えてい
る。イメージ入力部13(図1のイメージ入力部1に相
当)は、各種のイメージ情報などを入力するもので、た
とえば、静止画データを入力するイメージスキャナや電
子カメラ、動画データを入力するビデオテープレコーダ
などからなる。
First, the main body A is constructed as shown in FIG. That is, the position input unit 11 is for inputting specified position coordinate information, and is composed of, for example, a mouse. The keyboard section 12 is used to input numbers, character/symbol codes, control codes, etc., and includes a plurality of keys. The image input unit 13 (corresponding to the image input unit 1 in FIG. 1) inputs various image information, such as an image scanner or electronic camera that inputs still image data, or a video tape recorder that inputs video data. Consists of etc.

【0022】制御部14(図1の制御部3に相当)は、
本個人複合化OA機器の各部の動作をそれぞれ制御する
もので、たとえば、マイクロプロセッサを主体として構
成される。バスコントローラ15は、バス16を介して
各部間の情報転送を制御するものである。バス16は、
本体部Aの各部の間での必要な情報転送を行なうために
用いられる。
The control unit 14 (corresponding to the control unit 3 in FIG. 1)
It controls the operation of each part of the personal complex OA device, and is mainly composed of, for example, a microprocessor. The bus controller 15 controls information transfer between each section via the bus 16. Bus 16 is
It is used to transfer necessary information between each section of the main body section A.

【0023】暗号化処理部17は、種々の情報を暗号化
処理する。イメージ処理部18は、イメージ情報の合成
や認識、圧縮/伸長などのイメージ処理を行なう。メモ
リ部19は、イメージ処理や音声処理などの一連の処理
を行なう場合に使用する汎用的なメモリである。テキス
トデータ処理部20は、テキストデータの各種編集処理
などを行なう。
[0023] The encryption processing section 17 encrypts various information. The image processing unit 18 performs image processing such as composition, recognition, compression/expansion, etc. of image information. The memory unit 19 is a general-purpose memory used when performing a series of processes such as image processing and audio processing. The text data processing unit 20 performs various editing processes on text data.

【0024】データベース部21は、種々の情報を複数
のクラスにそれぞれ分類し、データベースとして蓄積す
る。なお、このデータベースはコード情報のみならず、
イメージ情報や音声情報などから構築される。メディア
変換部22(図1の文字認識部2に相当)は、たとえば
、イメージ入力部13により入力されたイメージ情報か
ら文字認識を行なって文字コードに変換するといった処
理を行なったり、作成した文書をイメージ情報に変換し
てファクシミリ送信が可能なデータ形式にするといった
処理を行なう。
The database section 21 classifies various information into a plurality of classes and stores them as a database. This database not only contains code information, but also
It is constructed from image information, audio information, etc. The media conversion unit 22 (corresponding to the character recognition unit 2 in FIG. 1) performs processing such as character recognition from the image information input by the image input unit 13 and converting it into a character code, or converts the created document. It performs processing such as converting it into image information and making it into a data format that can be sent by facsimile.

【0025】音声入力部23は、音声情報を入力するも
ので、たとえば、マイクロフォンなどにより構成される
。音声処理部24は、音声の認識、合成、圧縮/伸長な
どの音声処理を行なう。タイマ部25は、本個人複合化
OA機器に時刻情報や時間情報を提供する。本体部イン
タフェイス(I/F)26は、本体部A側の携帯部Bと
のインタフェイスで、たとえば、赤外線あるいは無線な
どによるワイヤレスインタフェイスである。
[0025] The audio input unit 23 is for inputting audio information, and is composed of, for example, a microphone. The audio processing unit 24 performs audio processing such as audio recognition, synthesis, and compression/expansion. The timer unit 25 provides time information and time information to the personal complex OA device. The main body interface (I/F) 26 is an interface with the mobile unit B on the main body A side, and is, for example, a wireless interface using infrared rays or radio.

【0026】ディスプレイ部27は、本体部A側の表示
装置であり、入力されたイメージ情報の表示、作成した
文書や図形の表示、あるいは、操作メニューの表示など
を行なうもので、たとえば、液晶ディスプレイなどから
なる。音声出力部28は、音声情報を出力するもので、
たとえば、スピーカなどからなる。イメージ出力部29
は、種々のイメージ情報をプリントアウトするもので、
たとえば、レーザープリンタやカラープリンタなどから
なる。通信部30は、本個人複合化OA機器と電話回線
、あるいは、ファクシミリ回線などの通信回線を介して
他の電話機、ファクシミリ装置、あるいは、個人複合化
OA機器や端末装置などとの情報通信を行なう。
The display section 27 is a display device on the side of the main body section A, and is used to display input image information, display created documents and figures, display operation menus, etc. Consists of etc. The audio output unit 28 outputs audio information,
For example, it consists of a speaker, etc. Image output section 29
is for printing out various image information.
Examples include laser printers and color printers. The communication unit 30 communicates information between the personal complex OA device and other telephones, facsimile machines, personal complex OA devices, terminal devices, etc. via communication lines such as telephone lines or facsimile lines. .

【0027】次に、携帯部Bは図3に示すように構成さ
れる。すなわち、携帯部インタフェイス(I/F)31
は、携帯部B側の本体部Aとのインタフェイスで、たと
えば、赤外線あるいは無線などによるワイヤレスインタ
フェイスである。制御部32(図1の制御部8に相当)
は、携帯部Bのみで使用する際、あるいは、本体部Aと
携帯部Bとを連結して使用する際に、携帯部Bの各部の
動作をそれぞれ制御するもので、たとえば、マイクロプ
ロセッサを主体として構成される。
Next, the portable unit B is constructed as shown in FIG. That is, the mobile unit interface (I/F) 31
is an interface with the main body part A on the side of the portable part B, and is, for example, a wireless interface using infrared rays or radio. Control unit 32 (corresponds to control unit 8 in FIG. 1)
controls the operation of each part of the mobile unit B when the mobile unit B is used alone or when the main unit A and the mobile unit B are connected. Constructed as.

【0028】位置入力部33(図1の位置入力部7に相
当)は、携帯部Bを使用して、指定された位置座標情報
を入力するもので、たとえば、透明タブレットなどによ
って構成され、ペン34(図1のペン6に相当)を使用
して手書きでタブレットの上で図形および文字の入力を
行なうことが可能であり、後述するディスプレイ部40
上に載置される。なお、マウスの代わりにペン34をタ
ブレット上に触れることにより、位置座標情報を入力す
ることもできる(以下、ポインティングと称する)。
The position input unit 33 (corresponding to the position input unit 7 in FIG. 1) is for inputting specified position coordinate information using the portable unit B, and is configured by, for example, a transparent tablet or the like, and is configured with a pen or the like. 34 (corresponding to the pen 6 in FIG. 1) to input figures and characters by hand on the tablet.
placed on top. Note that position coordinate information can also be input by touching the pen 34 on the tablet instead of using the mouse (hereinafter referred to as pointing).

【0029】オンライン文字認識部35(図1のオンラ
イン文字認識部4に相当)は、携帯部Bを使用して文字
入力するためのものである。イメージ入力部36は、静
止画などの各種イメージ情報を入力するもので、たとえ
ば、イメージスキャナや電子カメラなどにより構成され
る。音声入力部37は、音声情報を入力するもので、た
とえば、マイクロフォンなどにより構成される。バスコ
ントローラ38は、バス39を介して行なわれる各部間
の情報転送を制御する。バス39は、携帯部Bの各部の
間での必要な情報転送を行なうために用いられる。
The online character recognition unit 35 (corresponding to the online character recognition unit 4 in FIG. 1) is for inputting characters using the portable unit B. The image input unit 36 inputs various image information such as still images, and is configured by, for example, an image scanner or an electronic camera. The audio input unit 37 is for inputting audio information, and is composed of, for example, a microphone. The bus controller 38 controls information transfer between each unit via the bus 39. The bus 39 is used to transfer necessary information between each section of the portable section B.

【0030】ディスプレイ部40(図1の表示部5に相
当)は、文字,図形,画像などを表示するもので、たと
えば液晶ディスプレイなどからなり、その表示画面上に
位置入力部33が載置される。通信部41は、携帯部B
と電話回線、あるいは、ファクシミリ回線などの通信回
線を介して他の電話機、ファクシミリ装置、あるいは、
個人複合化OA機器や端末装置などとの情報通信を行な
う。
The display unit 40 (corresponding to the display unit 5 in FIG. 1) displays characters, figures, images, etc., and is composed of, for example, a liquid crystal display, and the position input unit 33 is placed on the display screen. Ru. The communication section 41 is a mobile section B.
and other telephones, facsimile devices, or via communication lines such as telephone lines or facsimile lines.
It performs information communication with personal complex OA equipment, terminal devices, etc.

【0031】音声出力部42は、音声情報を出力するも
ので、たとえば、スピーカなどからなる。メモリカード
部43は、メモリカードが装着され、メモリカードとの
間で必要な情報を入出力する。メモリ部44は、各種処
理、データ蓄積のためのメモリである。テキストデータ
処理部45は、テキストデータの各種編集処理などを行
なう。
[0031] The audio output unit 42 outputs audio information and is composed of, for example, a speaker. A memory card is inserted into the memory card section 43, and necessary information is input/output between the memory card and the memory card. The memory unit 44 is a memory for various processing and data storage. The text data processing unit 45 performs various editing processes on text data.

【0032】本実施例に係る個人複合化OA機器は、基
本的には上述した各部を備えた本体部Aと携帯部Bとで
構成され、上述した各部がそれぞれ持つ機能を有効に利
用して、全体的にインテリジェントな機能を呈するもの
となっている。また、この個人複合化OA機器のイメー
ジ入力部、位置入力部、音声入力部、ディスプレイ部、
音声出力部などの各入出力部については、必ずしも本体
部Aおよび携帯部Bそれぞれに持つ必要はなく、本体部
Aのみ、あるいは、携帯部Bのみに装備し、それぞれの
バスおよび本体部インタフェイス、携帯部インタフェイ
スを介して、必要なセクションに情報を伝送して使用す
るようにしても何等かまわない。さらに、幾つかの特徴
的な構成要素について詳細に述べる。
The personal complex OA device according to this embodiment basically consists of a main body part A and a portable part B, which are equipped with the above-mentioned parts, and effectively utilizes the functions of each of the above-mentioned parts. , exhibiting overall intelligent functionality. In addition, the image input section, position input section, voice input section, display section,
Each input/output section, such as the audio output section, does not necessarily have to be provided in main unit A and mobile unit B, but can be provided only in main unit A or only in mobile unit B, and can be connected to each bus and main unit interface. There is no problem even if the information is transmitted to the necessary section for use via the mobile interface. Furthermore, some characteristic components will be described in detail.

【0033】暗号化処理部17は、与えられた通信原文
を暗号鍵にしたがって暗号化して、その暗号通信分を生
成したり、また、逆に、与えられた暗号通信文を暗号鍵
にしたがって復号化して、その原文を求める処理を実行
する。このような暗号化処理は、たとえば、特開昭63
−85931号において記載されている技術などにより
実現される。
The encryption processing unit 17 encrypts the given communication original text according to the encryption key to generate the encrypted communication, or conversely decrypts the given encrypted communication according to the encryption key. , and execute the process to find the original text. Such encryption processing is described, for example, in Japanese Unexamined Patent Publication No. 63
This is realized by the technology described in No.-85931.

【0034】イメージ処理部18は、たとえば、図4に
示すように、イメージ生成部51、イメージ合成部52
、およびイメージ圧縮/伸長部53から構成される。 イメージ生成部51は、与えられたベクトルや多角形、
円弧などのパラメータによって示される線図形を生成し
、また、イメージ合成部52は、塗り潰し処理や、たと
えば、クリッピング処理といった特殊処理、自然画との
合成処理などを行なう。このようなイメージ生成処理お
よびイメージ合成処理は、たとえば、特開昭63−85
931号において記載されている技術などにより実現さ
れる。なお、図4において、16aは汎用バス、167
bは画像バスである。
The image processing section 18 includes, for example, an image generation section 51 and an image composition section 52, as shown in FIG.
, and an image compression/expansion section 53. The image generation unit 51 generates a given vector or polygon,
The image synthesis unit 52 generates a line figure indicated by a parameter such as a circular arc, and also performs filling processing, special processing such as clipping processing, and synthesis processing with a natural image. Such image generation processing and image composition processing are described in, for example, Japanese Patent Application Laid-Open No. 63-85
This is realized by techniques such as those described in No. 931. In addition, in FIG. 4, 16a is a general-purpose bus, 167
b is an image bus.

【0035】また、図4では、イメージ入力には本体部
A側のイメージ入力部13を記載しているが、イメージ
入力に携帯部B側のイメージ入力部36を使用し、携帯
部B側のバス39、携帯部インタフェイス31および本
体部インタフェイス26を介して本体部Aにイメージ情
報を伝送するようにしたり、あるいは、本体部A側と携
帯部B側の入出力部を組合わせて使用するようにしても
よい。
In addition, in FIG. 4, the image input section 13 on the main body section A side is used for image input, but the image input section 36 on the portable section B side is used for image input, and the image input section 36 on the portable section B side is used for image input. The image information is transmitted to the main body A via the bus 39, the mobile interface 31, and the main body interface 26, or the input/output units on the main body A side and the mobile unit B side are used in combination. You may also do so.

【0036】データベース部21は、コード情報やイメ
ージ情報、音声情報などの各種情報を整理して格納し、
これを種々の応用システムに供するものである。図6は
、このデータベース部21の既略構成を示すもので、コ
マンドの解析処理などを実行するインタフェイス部61
、蓄積された情報(データベース)の検索処理などを実
行するデータ操作部62、種々のデータを格納する記憶
媒体としての磁気ディスク装置63や光ディスク装置6
4、および、その付加機能部65などによって構成され
る。種々のデータは、そのデータの種別にしたがって複
数のクラスに分類整理され、各クラスごとにそれぞれ登
録されている。以下、このデータベース部21を、その
論理構造、蓄えられるデータ、物理構造、および付加機
能の4つに別けて説明する。
The database unit 21 organizes and stores various information such as code information, image information, and audio information.
This is used for various application systems. FIG. 6 shows a schematic configuration of this database section 21, in which an interface section 61 executes command analysis processing, etc.
, a data operation unit 62 that executes search processing of accumulated information (database), etc., a magnetic disk device 63 and an optical disk device 6 as storage media for storing various data.
4 and its additional function section 65. Various data are classified and organized into a plurality of classes according to the type of data, and are registered for each class. The database unit 21 will be explained below in four parts: its logical structure, stored data, physical structure, and additional functions.

【0037】論理構造とは、このデータベース部21を
応用システム側から見た場合、種々のデータがどのよう
に蓄積されているかを示すものである。ここでは、オブ
ジェクトオリエンティド・モデルにしたがった論理構造
として、たとえば、図7に示すような構造でデータが扱
われるようになっている。クラスには、いくつかの欄(
アトリビュート)が設けられており、これらの各欄に所
定のデータがそれぞれ格納される。データの単位(オブ
ジェクト)は、それ自身が複雑な構造を持つことが可能
である。このようなオブジェクトを格納した任意個数の
アトリビュートによって1つのクラスが構築される。
The logical structure indicates how various data are stored when the database section 21 is viewed from the application system side. Here, data is handled in a logical structure according to an object-oriented model, such as the structure shown in FIG. 7, for example. The class has several fields (
Attributes) are provided, and predetermined data is stored in each of these columns. A data unit (object) can itself have a complex structure. One class is constructed by an arbitrary number of attributes storing such objects.

【0038】しかして、このモデルにあっては、クラス
名を指定し、その各アトリビュートの値をそれぞれ与え
ることによって、データベースへのデータの格納が行な
われる。また、データベースの検索は、クラスおよびア
トリビュートを指定し、そこに格納されているオブジェ
クトが指定されたオブジェクト、または、別のアトリビ
ュートに格納されているオブジェクトとの間で所定の条
件を満たすか否かを判定し、その条件を満たすオブジェ
クトを抽出することによって行なわれる。
In this model, data is stored in the database by specifying a class name and providing values for each of its attributes. Also, when searching a database, specify a class and attribute, and check whether the object stored there satisfies a predetermined condition with the specified object or with an object stored in another attribute. This is done by determining the condition and extracting objects that meet the condition.

【0039】この検索条件は、それらのオブジェクトが
等しい、等しくない、小さい、大きい、などとして与え
られる。この際、複数のアトリビュートについてそれぞ
れ検索条件を指定し、その条件判定結果を論理処理(A
NDやORなど)して行なうことも可能である。さらに
は、複数のクラスを指定し、あるクラスのあるアトリビ
ュートのオブジェクトが他のクラスのあるアトリビュー
トのオブジェクトに等しいなどの条件により、複数のク
ラスの中から所定のオブジェクトを求めるようなデータ
ベース検索も可能である。
This search condition is given as whether the objects are equal, unequal, smaller, larger, etc. At this time, specify search conditions for each of multiple attributes, and apply logical processing (A
(ND, OR, etc.) is also possible. Furthermore, it is also possible to search a database by specifying multiple classes and searching for a given object from among multiple classes based on conditions such as an object with a certain attribute in one class being equal to an object with a certain attribute in another class. It is.

【0040】また、データベースからのデータの削除は
、基本的には上記検索と同様に行なわれるが、オブジェ
クトを抽出することに代えて、そのオブジェクトを抹消
することによって行なわれる。さらに、データ更新も同
様であり、得られたクラスの指定されたアトリビュート
の値を変更し、これを格納することによって行なわれる
Furthermore, data is deleted from the database basically in the same manner as the above search, but instead of extracting the object, it is performed by deleting the object. Furthermore, data updating is similar, and is performed by changing the value of a specified attribute of the obtained class and storing it.

【0041】また、各クラスには、各アトリビュートご
とにデータの読出し、追加、変更が許可された人の情報
(人名、担当者コードなど)が記入され、データ保護の
対策が講じられている。なお、このデータ保護対策をア
トリビュートごとに行なうことに代えて、クラス単位で
行なうことも可能である。また、ここに記載されている
人の情報は複数であってもよい。
Furthermore, in each class, information (person name, person in charge code, etc.) who is permitted to read, add, or change data for each attribute is entered, and data protection measures are taken. Note that instead of taking this data protection measure for each attribute, it is also possible to take it for each class. Moreover, the information on a plurality of people may be listed here.

【0042】しかして、図7に示すクラスの例では、文
字列としてそのデータが示されているが、各クラスに蓄
積されるデータは単なるビト列であってもよい。つまり
、クラスに蓄積されるデータは、文字列は勿論のこと、
イメージ情報や音声情報であってもよい。さらには、こ
のデータが構造を持つものであってもよい。
In the class example shown in FIG. 7, the data is shown as a character string, but the data stored in each class may also be a simple bit string. In other words, the data stored in the class is of course strings,
It may be image information or audio information. Furthermore, this data may have a structure.

【0043】さて、このデータベース部21に蓄積され
るデータは、上述した図7に示す「個人スケジュール」
のクラスを初めとして、たとえば、図8(a)〜(g)
に示すような「住所録」「個人の仕事とその代行者」「
操作履歴」「人事」「会議室」「会議室予約」「会議」
などの種々のクラスからなる。
Now, the data stored in this database section 21 is the "personal schedule" shown in FIG. 7 mentioned above.
For example, starting from the class of FIG. 8(a) to (g)
``Address book,'' ``Individual work and its agents,'' and
Operation history”, “Human resources”, “Conference room”, “Conference room reservation”, “Meeting”
It consists of various classes such as.

【0044】この例に示されるようにクラスは、主に個
人用として用いられるものと、多くの利用者によって共
通に利用されるものからなる。そして、個人用のクラス
は、各個人が使用する本実施例装置ごとに設けられ、ま
た、共通のクラスは、複数の利用者にとって共通な本実
施例装置に設けられる。
As shown in this example, classes consist of classes that are mainly used for personal use and classes that are commonly used by many users. A personal class is provided for each device of this embodiment used by each individual, and a common class is provided for each device of this embodiment that is common to a plurality of users.

【0045】なお、共通の本実施例装置とは、必ずしも
そのハードウェアが他の本実施例装置と異なることを意
味しない。また、個人用の本実施例装置が共通の本実施
例装置を兼ねてもよいことも勿論のことである。さらに
は、共通の本実施例装置は、1台に限られるものではな
く、システムの階層レベルに応じて複数台設けられるも
のであってもよい。
Note that the term "common device of this embodiment" does not necessarily mean that its hardware is different from other devices of this embodiment. It goes without saying that the personal device of this embodiment may also serve as a common device of this embodiment. Furthermore, the number of common devices of this embodiment is not limited to one, and a plurality of devices may be provided depending on the hierarchical level of the system.

【0046】ここで、図7に示した「個人スケジュール
」クラスのデータ構造について簡単に説明する。このク
ラスからは、そのクラス名が「個人スケジュール」であ
り、「△△△△」によって作成されたことが示される。 このクラス作成者「△△△△」は、該クラスに対して全
てのデータ操作が許可される。
The data structure of the "Personal Schedule" class shown in FIG. 7 will now be briefly explained. This class indicates that the class name is "Personal Schedule" and that it was created by "△△△△". This class creator "△△△△" is permitted to perform all data operations on this class.

【0047】また、このクラスに付加されたデータ保護
機能によれば、データの読出しは全員に許可されており
、データの追加は「○○○○」と「技術部に属する者」
に対してのみ許可されている。なお、この「技術部に属
する者」は、たとえば「人事」のクラスを参照するなど
して求められる。また、データの変更は、「人レベル」
の値が「5」以上のものに対してのみ許可される。 この「人レベル」とは、人事クラスに関するものであり
、たとえば(部長:8)(次長:7)(課長:6)(主
任:5)などとして役職を表す。
[0047] Furthermore, according to the data protection function added to this class, everyone is permitted to read data, and only "○○○○" and "persons belonging to the engineering department" can add data.
allowed only for Note that this "person belonging to the engineering department" is found by, for example, referring to the "Human Resources" class. In addition, data changes can be made at the “person level”
Only those with a value of ``5'' or higher are allowed. This "person level" relates to personnel classes, and represents positions, for example, (manager: 8) (deputy manager: 7) (section manager: 6) (supervisor: 5).

【0048】さらに、このクラスには、「開始時刻」「
終了時刻」「種類」「名称」「場所」などのアトリビュ
ートが設定され、そのそれぞれにデータが書込まれるよ
うになっている。
[0048] Furthermore, this class includes "start time" and "
Attributes such as end time, type, name, and location are set, and data is written to each of them.

【0049】また、付加機能としては、たとえば不要デ
ータの自動廃棄などがある。この不要データの自動廃棄
は、クラスの付加情報として[廃棄:可/不可][廃棄
の方法]などを与えておき、所定の間隔でクラスごとの
消去コマンドを動作させて行なわれる。
[0049]Additional functions include automatic disposal of unnecessary data, for example. This automatic discarding of unnecessary data is performed by providing additional information for the class such as [discarding: allowed/disabled] and [discarding method], and by operating an erase command for each class at predetermined intervals.

【0050】なお、オブジェクトの消去は、たとえば会
議情報については、その終了時刻が現在の時刻よりも前
であるか否かなどを判定して行なうことが可能である。 したがって、このようなオブジェクトの消去については
、格別の機能追加は不要である。
Note that, for example, regarding conference information, an object can be deleted by determining whether or not the end time is earlier than the current time. Therefore, there is no need to add any special functionality to erase such objects.

【0051】また、付加機能の他の重要な機能としてデ
ータの保全がある。このデータの保全機能は、たとえば
、ハードウェアの故障や停電などに原因してデータが不
正となることを防ぐものである。具体的には、このデー
タの保全機能は、情報の二重化や磁気テープへの書き出
しなどによって実現される。このように、データベース
部21では、種々のデータをクラスごとに分類整理し、
種々の応用システムに供するものとなっている。
[0051] Another important function of the additional functions is data security. This data protection function prevents data from becoming invalid due to, for example, hardware failure or power outage. Specifically, this data preservation function is achieved by duplicating information, writing it to magnetic tape, etc. In this way, the database unit 21 sorts and organizes various data by class,
It is used for various application systems.

【0052】メディア変換部22は、制御部14から出
力されるメディア変換要求信号を受けて起動され、たと
えば、送信すべきソース情報のメディアと送信相手先の
メディアをそれぞれ判定し、送信相手先メディアに対応
したメディア変換をソース情報に施す。たとえば、AD
PCMの音声で与えられる情報を、G3規格のファクシ
ミリ装置である相手機器に送信する場合、ソース情報の
メディアが音声情報であり、送信相手先のメディアがイ
メージ情報であることを判定し、音声情報→文字コード
→イメージ情報の順にメディア変換することで、相手先
に情報を送信することが可能となる。
The media conversion unit 22 is activated upon receiving a media conversion request signal output from the control unit 14, and determines, for example, the medium of the source information to be transmitted and the medium of the transmission destination, and determines the medium of the transmission destination. Apply media conversion to the source information that is compatible with . For example, A.D.
When transmitting information given by PCM voice to a destination device that is a G3 standard facsimile device, it is determined that the source information medium is voice information and the destination medium is image information, and the voice information is transmitted. By converting the media in the order of → character code → image information, it becomes possible to send the information to the other party.

【0053】音声入力部23は、たとえばマイクロフォ
ンにより音声を電気的な信号に変換するとともに、たと
えば、バンドパスフィルタにより30〜3400Hzの
周波数帯域の信号に制限し、たとえば、12KHzのサ
ンプリング周波数で12ビットのデジタル信号に量子化
する。このようにして得られた音声情報は、音声処理部
24などに送られる。
The audio input unit 23 converts audio into an electrical signal using, for example, a microphone, and limits the audio to signals in a frequency band of 30 to 3,400 Hz using, for example, a bandpass filter, and converts the audio into an electrical signal using, for example, a 12-bit sampling frequency of 12 KHz. quantize into a digital signal. The audio information obtained in this way is sent to the audio processing section 24 or the like.

【0054】音声処理部24は、音声情報に対する様々
な処理を行なうもので、たとえば、図5に示すように、
音声認識部54、音声判別部55、音声合成部56、お
よび音声圧縮/伸長部57によって構成されており、以
下、それぞれの構成要素について説明する。音声認識部
54は、音声情報専用の音声バス16cから得た音声情
報を認識し、その認識結果として文字コードを汎用バス
16aに出力する。音声判別部55は、入力された音声
情報が特定の話者によるものであるか否かを判別する。 音声合成部56は、文書などのデータにしたがって音声
情報を合成し、音声バス16cに出力する。このような
音声の認識、判別、合成処理は、たとえば、特開昭63
−85931号において記載されている技術などにより
実現される。
The audio processing section 24 performs various processing on audio information, for example, as shown in FIG.
It is composed of a speech recognition section 54, a speech discrimination section 55, a speech synthesis section 56, and a speech compression/expansion section 57, and each component will be explained below. The voice recognition unit 54 recognizes the voice information obtained from the voice bus 16c dedicated to voice information, and outputs a character code to the general-purpose bus 16a as the recognition result. The voice determination unit 55 determines whether the input voice information is by a specific speaker. The speech synthesis unit 56 synthesizes speech information according to data such as documents and outputs the synthesized speech information to the speech bus 16c. Such speech recognition, discrimination, and synthesis processing is described, for example, in Japanese Unexamined Patent Publication No. 63
This is realized by the technology described in No.-85931.

【0055】音声圧縮/伸長部57は、音声情報を圧縮
符号化してデータベース部21に蓄積したり、逆に、圧
縮された音声情報の復元伸長を行なう。このような音声
情報の圧縮/伸長処理は、たとえば、「コンピュータ音
声処理」(安居院猛他著  秋葉出版  P30 P4
2 参照)において記載されている技術などにより実現
される。
The audio compression/expansion unit 57 compresses and encodes audio information and stores it in the database unit 21, or conversely restores and expands compressed audio information. Such audio information compression/expansion processing is described, for example, in "Computer Audio Processing" (written by Takeshi Yasuin et al., Akiba Publishing, P30 P4).
This is realized by the technology described in 2).

【0056】このような音声処理部24の各構成要素は
、汎用バス16aを介して制御部14により制御される
。また、図5では、音声の入力には本体部A側の音声入
力部23を、音声の出力には本体部A側の音声出力部2
8を記載しているが、音声の入力に携帯部B側の音声入
力部37を、音声の出力に携帯部B側の音声出力部42
を使用し、携帯部B側のバス39、携帯部インタフェイ
ス31、および本体部インタフェイス26を介して、本
体部Aに音声情報を伝送するようにしたり、あるいは、
本体部A側と携帯部B側の入出力部を組合わせて使用す
るようにしてもよい。
Each component of the audio processing section 24 is controlled by the control section 14 via the general-purpose bus 16a. In addition, in FIG. 5, the audio input section 23 on the main body A side is used for inputting audio, and the audio output section 2 on the main body A side is used for outputting audio.
8, the audio input unit 37 on the mobile unit B side is used for audio input, and the audio output unit 42 on the mobile unit B side is used for audio output.
is used to transmit audio information to the main unit A via the bus 39 on the mobile unit B side, the mobile unit interface 31, and the main unit interface 26, or,
The input/output sections on the main body part A side and the portable part B side may be used in combination.

【0057】音声出力部28は、図5における音声バス
16cから得られるデジタルの音声情報をアナログの電
気信号に変換し、たとえば、スピーカから音声として出
力する。
The audio output unit 28 converts the digital audio information obtained from the audio bus 16c in FIG. 5 into an analog electrical signal, and outputs it as audio from a speaker, for example.

【0058】オンライン文字認識部35は、たとえば、
タブレットなどを介してオンライン入力される文字情報
を認識し、その認識結果として文字コードを出力する。 このようなオンラインの文字認識は、たとえば、特開昭
63−85931号において記載されている技術などに
より実現される。次に、このような構成において、本実
施例において実現し得る幾つかの特徴的な機能について
説明する。
[0058] The online character recognition unit 35, for example,
Recognizes character information input online via a tablet, etc., and outputs a character code as the recognition result. Such online character recognition is realized, for example, by the technique described in Japanese Patent Application Laid-open No. 85931/1983. Next, some characteristic functions that can be realized in this embodiment in such a configuration will be described.

【0059】まず、音声情報記録機能について説明する
。音声入力部23や通信部30による電話機能から得ら
れる音声を音声圧縮/伸長部57で圧縮処理し、音声バ
ス16cを介してデータベース部21に音声情報として
記録することができる。
First, the audio information recording function will be explained. The voice obtained from the telephone function of the voice input section 23 and the communication section 30 can be compressed by the voice compression/expansion section 57 and recorded as voice information in the database section 21 via the voice bus 16c.

【0060】音声を入力する場合や電話機能を用いて通
話を行なう場合は、たとえば、図9に示すような送受話
器71を用いる。送受話器71は、受話部(スピーカ、
音声出力部28に相当)72および送話部(マイクロフ
ォン、音声入力部23に相当)73を有し、たとえば、
通常の電話機のようにフックスイッチにより使用状態を
検知する。使用されている状態ならば、たとえば、ディ
スプレイ部27のメニュー画面に「録音」メニューが表
示される。記録は、「録音」メニューをタッチすること
により開始される。途中で記録を終了したいときは、た
とえば、「停止」メニューをタッチする。また、送受話
器71を置くと、フックスイッチによりその状態を検知
して自動的に記録を終了する。
[0060] When inputting voice or making a call using the telephone function, for example, a handset/receiver 71 as shown in FIG. 9 is used. The handset 71 includes a receiver section (speaker,
72 (corresponding to the audio output section 28) and a speaking section 73 (corresponding to the microphone, the audio input section 23), for example,
The usage status is detected by a hook switch like a normal telephone. If it is in use, a "recording" menu is displayed on the menu screen of the display section 27, for example. Recording is started by touching the "Record" menu. If you want to stop recording midway through, for example, touch the "Stop" menu. Furthermore, when the handset 71 is put down, the hook switch detects the state and automatically ends recording.

【0061】その場合、電話機能での通話途中に記録の
必要性があると判断してから「録音」メニューをタッチ
すると、会話の頭が欠けてしまうというような不具合が
生じる。そこで、通話中であることを通信部30より検
知すると、メモリ部19を一時的な記録領域として用い
、音声を常にある一定時間一時的に記録しておく。 「録音」メニューがタッチされると、メモリ部19で一
時的に蓄えられている音声情報を頭に付け、以降の音声
情報を続けてデータベース部21に記録する。このよう
な処理により、「録音」メニューがタッチされた一定時
間前からの音声情報を記録することができる。
[0061] In this case, if the user touches the "Record" menu after determining that there is a need for recording during a call using the telephone function, a problem occurs in which the beginning of the conversation is cut off. Therefore, when the communication unit 30 detects that a call is in progress, the memory unit 19 is used as a temporary recording area, and the voice is always temporarily recorded for a certain period of time. When the "Record" menu is touched, the audio information temporarily stored in the memory section 19 is prefixed, and subsequent audio information is continuously recorded in the database section 21. Through such processing, it is possible to record audio information from a certain period of time before the "recording" menu was touched.

【0062】記録された音声情報には、後で検索を容易
にするためにタイトルやキーワードを付けることができ
る。記録を停止すると、たとえば、ディスプレイ部27
の表示画面上にマルチウィンドウによる表示で図10に
示すようなメニュー画面が表示される。メニューでタイ
トルかキーワードを選択した後、キーボード部12によ
りタイトルやキーワードを入力する。入力されたタイト
ル並びにキーワードは、図11に示すように音声情報ヘ
ッダとして付加される。音声情報ヘッダには、音声情報
への付加情報としてタイトルやキーワード、リンク情報
、記録日時、記録時間などの情報が格納される。
[0062] Recorded audio information can be given a title or keyword to facilitate later retrieval. When recording is stopped, for example, the display section 27
A menu screen as shown in FIG. 10 is displayed on the display screen using a multi-window display. After selecting a title or keyword from the menu, the user inputs the title or keyword using the keyboard section 12. The input title and keyword are added as an audio information header as shown in FIG. 11. The audio information header stores information such as a title, keywords, link information, recording date and time, and recording time as additional information to the audio information.

【0063】さらに、「リンク」メニューのタッチによ
り、図12に示すように、文書や画像などのメディア情
報、あるいは、アドレスやスケジュールの情報に対して
、記録した音声情報を音声メモとしてリンクすることが
できる。リンクを接続させる情報は、たとえば、メニュ
ーによる選択で行なわれる。もし、図13に示すように
、現在の表示画面上にオープンされている文書あるいは
画像情報などが直接タッチされた場合は、その情報にリ
ンクされる。これらのリンク情報もヘッダに、たとえば
、図11のように格納される。
Furthermore, by touching the "Link" menu, recorded voice information can be linked as a voice memo to media information such as documents and images, or address and schedule information, as shown in FIG. Can be done. Information for connecting links is selected, for example, from a menu. As shown in FIG. 13, if an open document or image information on the current display screen is directly touched, the information will be linked. These link information are also stored in the header as shown in FIG. 11, for example.

【0064】以上のメニュー操作により、ヘッダに検索
情報を設定することができるが、あらかじめ設定されて
いる一定時間内にメニューの指定がない場合や、別の操
作が開始された場合は、とりあえずブランクコード+シ
リアル番号をヘッダに格納して、記録する。しかる後、
ブランクコードにより、これら一時的に格納された音声
情報を一括検索し、タイトルやキーワード、リンク情報
を同様の操作により付加することができる。
Search information can be set in the header by the above menu operations, but if no menu is specified within a preset period of time or if another operation is started, the header will be blank for the time being. Store the code + serial number in the header and record it. After that,
Using the blank code, these temporarily stored audio information can be searched all at once, and titles, keywords, and link information can be added by the same operation.

【0065】記録された音声情報は、メニュー選択およ
びキーワード検索によりデータベース部21から取出し
、音声圧縮/伸長部57において伸長処理がなされ、音
声出力部28から出力される。
The recorded audio information is retrieved from the database section 21 by menu selection and keyword search, subjected to decompression processing in the audio compression/expansion section 57, and outputted from the audio output section 28.

【0066】また、リンク情報が存在する場合は、文書
、画像などのメディア情報やアドレス、スケジュールな
どのデータから音声情報を直接呼び出すことができる。 たとえば、ディスプレイ部27の表示画面上の文書に音
声情報が音声メモとしてリンクされている場合、ディス
プレイ部27の表示画面上に図14に示すようなアイコ
ン74が表示されるので、そのアイコン74をタッチす
ることにより、リンクされている音声情報が出力される
Furthermore, if link information exists, voice information can be directly called up from media information such as documents and images, and data such as addresses and schedules. For example, when voice information is linked as a voice memo to a document on the display screen of the display unit 27, an icon 74 as shown in FIG. 14 is displayed on the display screen of the display unit 27. By touching, the linked audio information is output.

【0067】次に、電話機能について説明する。電話機
能は、音声入力部23、音声出力部28、および通信部
30を用いて実現する。音声入力用のマイクロフォンお
よび出力用のスピーカは、たとえば、図9のように電話
機の送受話器71の形態を取るが、勿論、電話機能の送
受話器71としてだけではなく、たとえば、音声認識や
音声分析のための音声入力、音声合成された音声の出力
など、汎用の音声入出力装置としても機能する。音声出
力用のスピーカは、送受話器71以外にも備えられ、送
受話器71がオンフック状態のとき用いられる。
Next, the telephone function will be explained. The telephone function is realized using the voice input section 23, the voice output section 28, and the communication section 30. The microphone for voice input and the speaker for output take the form of a telephone handset 71, for example, as shown in FIG. It also functions as a general-purpose audio input/output device, such as inputting audio for audio and outputting synthesized audio. A speaker for audio output is provided in addition to the handset 71, and is used when the handset 71 is in an on-hook state.

【0068】電話機能の制御も、当然のことながら制御
部14において行なわれる。制御部14では、時分割制
御や電話機能専用の制御部を持つことにより、たとえば
、ワープロなど別の機能を使用しているときでも、電話
機能を使用することができるようになっている。電話機
能の操作メニューは、「電話」メニューをタッチするか
、または、送受話器71が取られた状態をフックスイッ
チで検知することにより、ディスプレイ部27の表示画
面上にマルチウィンドウ表示で、たとえば、図15に示
すように表示される。操作メニューをタッチすることに
より、主な操作は実行される。
[0068] Naturally, control of telephone functions is also performed by the control section 14. The control section 14 has time division control and a control section dedicated to the telephone function, so that the telephone function can be used even when another function such as a word processor is being used. The operation menu for the telephone function is displayed in a multi-window on the display screen of the display section 27 by touching the "Telephone" menu or by detecting with a hook switch that the handset 71 is disconnected, for example. The screen is displayed as shown in FIG. Main operations are executed by touching the operation menu.

【0069】ダイヤルは以下のような操作によってなさ
れる。通常の電話のように、相手先の電話番号をそのま
まダイヤルする場合は、番号メニューをタッチするか、
キーボード部12のテンキーにより電話番号をキーイン
する。キーボード部12は、電話機能の操作メニューの
オープンに伴ない、テンキーがダイヤル番号に対応する
ようになっている。電話番号がダイヤルされ、通信部3
0が呼出しを開始すると、その状態を通信部30より検
知し、キーボード部12を電話機能から開放して、たと
えば、ワープロなどの他の機能に使用できる状態にする
[0069] Dial is performed by the following operation. If you want to dial the other party's phone number as is, like a normal phone call, touch the number menu or
The telephone number is keyed in using the ten keys on the keyboard section 12. In the keyboard section 12, the numeric keypad corresponds to a dial number when the operation menu of the telephone function is opened. The telephone number is dialed and the communication department 3
0 starts making a call, the communication section 30 detects this state and releases the keyboard section 12 from the telephone function, making it available for other functions such as a word processor.

【0070】また、五十音順メニューをタッチすると、
データベース部21に蓄えられたアドレス帳情報に対し
て五十音検索が行なわれる。たとえば、「あ」をタッチ
すると、あ行の頁が開くので、「次頁」/「前頁」メニ
ューにより必要な電話番号を目視で捜す。必要な頁が開
けたら、掛けたい相手先の電話番号をタッチする。ディ
スプレイ部27の表示画面のアドレス帳情報は、メニュ
ー同様、タッチされた座標とその情報とが対応しており
、制御部14は対応する電話番号をデータベース部21
から取出し、通信部30に対しダイヤル操作を行なう。 勿論、データベース部21内のアドレス帳情報は、相手
先の名前などをキーボード部12やオンライン文字認識
で入力することにより、直接検索することもできる。こ
のような操作により、検索されたアドレス帳情報は、デ
ィスプレイ部27の表示画面上で確認の後、タッチして
同様にダイヤルすることができる。
[0070] Also, if you touch the alphabetical order menu,
A Japanese syllabary search is performed on the address book information stored in the database section 21. For example, if you touch "A", the page in the A row will open, and you can visually search for the necessary phone number using the "Next page"/"Previous page" menu. When the required page opens, touch the phone number of the person you want to call. The address book information on the display screen of the display unit 27, like the menu, corresponds to the touched coordinates and the information, and the control unit 14 stores the corresponding telephone number in the database unit 21.
, and perform a dial operation on the communication section 30. Of course, the address book information in the database section 21 can also be directly searched by inputting the name of the other party using the keyboard section 12 or online character recognition. Through such operations, the retrieved address book information can be checked on the display screen of the display unit 27, and then touched and dialed in the same manner.

【0071】リダイヤルは以下のような操作によってな
される。以前にかけた電話番号の履歴情報は、一定期間
メモリ部19に蓄えられており、「リダイヤル」メニュ
ーがタッチされると、それをディスプレイ部27に一括
表示する。その電話番号がデータベース部21内のアド
レス帳情報に存在する電話番号の場合は、電話番号によ
る検索でアドレス帳情報内の情報から名前なども参照し
、付随して表示する。一括表示された画面は、メニュー
画面としてなりたつ。すなわち、リダイヤルしたい電話
番号にタッチすると、制御部14が通信部30に対しそ
の電話番号でリダイヤルを行なう。なお、留守録機能や
伝言板機能などは、音声合成部56による応答メッセー
ジの読上げや、先に説明した音声情報記録機能により実
現される。
[0071] Redialing is performed by the following operation. History information of previously called telephone numbers is stored in the memory section 19 for a certain period of time, and when the "redial" menu is touched, it is displayed all at once on the display section 27. If the telephone number is a telephone number that exists in the address book information in the database section 21, the name etc. are also referenced from the information in the address book information by searching by telephone number and displayed accordingly. The screens displayed all at once become a menu screen. That is, when a user touches a telephone number to redial, the control section 14 causes the communication section 30 to redial the telephone number. Note that the answering machine function, the message board function, and the like are realized by reading out the response message by the voice synthesis unit 56 and the voice information recording function described above.

【0072】さて、送受話器71を置くと、フックスイ
ッチにより、その状態を検知して電話機能を終了する。 終了時は、電話機能の操作メニューを表示画面から消去
し、元の機能に戻す。勿論、電話機能を使用中に行なわ
れた元の機能に対する操作は、そのまま有効となる。
Now, when the handset 71 is put down, the hook switch detects the state and terminates the telephone function. When finished, the telephone function operation menu is erased from the display screen and the original function is restored. Of course, operations performed on the original function while using the telephone function remain valid.

【0073】次に、ファクシミリ機能について説明する
。ファクシミリ機能は、イメージ入力部13、イメージ
出力部29、イメージ圧縮/伸長部53、メディア変換
部22、および通信部30を用いて実現される。ファク
シミリ機能の制御も、当然のことながら制御部14にお
いて行なわれる。制御部14では、時分割制御やファク
シミリ機能専用の制御部を持つことにより、たとえば、
ワープロなど別の機能を使用しているときでも、ファク
シミリ機能を使用することができるようになっている。 ファクシミリ機能の操作メニューは、「FAX]メニュ
ーをタッチすることにより、ディスプレイ部27の表示
画面上にマルチウィンドウ表示で、たとえば、図16に
示すように表示される。操作メニューをタッチすること
により、主な操作は実行される。
Next, the facsimile function will be explained. The facsimile function is realized using the image input section 13, the image output section 29, the image compression/expansion section 53, the media conversion section 22, and the communication section 30. Naturally, the facsimile function is also controlled by the control section 14. The control unit 14 has a control unit dedicated to time division control and facsimile functions, so that, for example,
It is now possible to use the facsimile function even when using another function such as a word processor. By touching the "FAX" menu, the operation menu for the facsimile function is displayed in a multi-window display on the display screen of the display unit 27, for example, as shown in FIG. 16. By touching the operation menu, The main operations are performed.

【0074】ファクシミリ機能の受信動作は以下のよう
になされる。通信部30がファクシミリの受信を検知す
ると、制御部14は受信したファクシミリ情報をとりあ
えずデータベース部21のイメージ領域に蓄える。ファ
クシミリ情報ヘッダには、図17に示すように受信日時
などの情報が格納される。同時に、制御部14は、ディ
スプレイ部27の表示画面上の特定領域に、現在行なっ
ている操作の妨げにならないように、たとえば、「ファ
ックス受信中」の表示を行なう。以上の受信動作は、制
御部14の制御により自動的に行なわれる。
The receiving operation of the facsimile function is performed as follows. When the communication section 30 detects reception of a facsimile, the control section 14 stores the received facsimile information in the image area of the database section 21 for the time being. The facsimile information header stores information such as the date and time of reception, as shown in FIG. At the same time, the control section 14 displays, for example, "Receiving fax" in a specific area on the display screen of the display section 27 so as not to interfere with the operation currently being performed. The above receiving operation is automatically performed under the control of the control section 14.

【0075】データベース部21に蓄えられたファクシ
ミリ情報は、必要に応じてイメージ圧縮/伸長部53に
おいて伸長処理がなされ、たとえば、「表示」メニュー
のタッチにより、ディスプレイ部27によって表示した
り、「プリント」メニューのタッチにより、イメージ出
力部29によってプリントアウトする。
The facsimile information stored in the database section 21 is decompressed in the image compression/decompression section 53 as necessary. For example, by touching the "Display" menu, the facsimile information can be displayed on the display section 27, ” menu, the image output unit 29 prints out the image.

【0076】ファクシミリ機能の送信動作は以下のよう
になされる。「送信」メニューのタッチにより、イメー
ジ入力部13から入力されれたイメージ情報は、必要な
らばイメージ圧縮/伸長部53において圧縮処理がなさ
れ、通信部30により送信される。圧縮処理されたイメ
ージ情報は、同時にメモリ部19にも一時的に蓄えられ
、再送信や確認に使用される。また、後述する文書作成
機能により作成された文書情報を、メディア変換部22
においてイメージ情報に変換し、通信部30によって送
信するといったことも可能である。
The transmission operation of the facsimile function is performed as follows. Image information input from the image input section 13 by touching the "send" menu is compressed by the image compression/expansion section 53 if necessary, and then transmitted by the communication section 30. The compressed image information is also temporarily stored in the memory unit 19 and used for retransmission and confirmation. In addition, the document information created by the document creation function described later is transferred to the media conversion unit 22.
It is also possible to convert the image information into image information and transmit it by the communication unit 30.

【0077】ファクシミリ送信先番号のダイヤルやリダ
イヤルは、電話機能と同様に行なえる。すなわち、番号
メニューやテンキーにより直接ダイヤルを行なったり、
データベース部21のアドレス帳情報や、以前にかけた
ファクシミリ送信先番号の履歴からワンタッチでダイヤ
ルが行なえる。なお、詳細は電話機能の説明において述
べてある。
Dial or redial of a facsimile destination number can be performed in the same way as a telephone function. In other words, you can dial directly using the number menu or numeric keypad,
One-touch dialing can be performed from the address book information in the database section 21 or from the history of previously called facsimile destination numbers. Note that the details are described in the explanation of the telephone function.

【0078】次に、文書作成機能について説明する。文
書作成機能は、たとえば、図18に示すように、入力装
置81、編集装置82、記憶装置83、表示装置84、
制御装置85により実現される。
Next, the document creation function will be explained. For example, as shown in FIG. 18, the document creation function includes an input device 81, an editing device 82, a storage device 83, a display device 84,
This is realized by the control device 85.

【0079】入力装置81は、キーボード部12、位置
入力部11,33、イメージ入力部13,36、音声入
力部23,37などである。編集装置82は、テキスト
データ処理部20,45である。記憶装置83は、メモ
リ部19、データベース部21、メモリカード部43の
メモリカードなどである。表示装置84は、ディスプレ
イ部27,40である。編集装置82は、入力装置81
からの指示にしたがって応用処理機能を行なうもので、
たとえばワードプロセッサにおける文書の編集、座標デ
ータによる作図の編集、画像単位のデータ操作による描
画の編集などを行なう。制御装置85は、制御部14や
制御部32などからなり、入力装置81、編集装置82
、記憶装置83、表示装置84を制御する。
The input device 81 includes a keyboard section 12, position input sections 11 and 33, image input sections 13 and 36, and voice input sections 23 and 37. The editing device 82 is the text data processing section 20, 45. The storage device 83 includes the memory section 19, the database section 21, a memory card of the memory card section 43, and the like. The display device 84 is the display units 27 and 40. The editing device 82 is the input device 81
It performs applied processing functions according to instructions from
For example, editing a document using a word processor, editing a drawing using coordinate data, editing a drawing using data manipulation on an image basis, etc. The control device 85 includes the control section 14, the control section 32, etc., and includes an input device 81, an editing device 82, etc.
, the storage device 83, and the display device 84.

【0080】作成されたファイルには、タイトルやキー
ワードを付加することができる。以下、タイトルを付加
する場合について説明するが、キーワードを付加する場
合にも、同様な手順をふむことができる。たとえば、表
示装置84の表示画面上に表示されたメニュー項目から
タイトルを選択すると、図19に示すようなメニュー画
面が表示される。
[0080] A title and keywords can be added to the created file. The case of adding a title will be described below, but the same procedure can be followed when adding a keyword. For example, when a title is selected from the menu items displayed on the display screen of the display device 84, a menu screen as shown in FIG. 19 is displayed.

【0081】このとき、メニュー項目からタイトルを選
択する以前に、たとえば、マウスなどでファイルの任意
の領域を指定してあった場合には、メニューが選択され
た時点で、その領域内にキャラクタコードかイメージ情
報が存在するかを判断し、キャラクタコードが存在した
場合には、文字バッファにそのデータを格納し、イメー
ジ情報が存在した場合には、文字認識によりキャラクタ
コード化した後、文字バッファにそのデータを入力する
。また、そのいずれも存在しなかった場合には、文字バ
ッファには何も入力しない。そして、図19のようなメ
ニュー画面を表示する際に、タイトルの部分91に文字
バッファの情報を同時に表示する。次に、たとえば、キ
ーボード部12あるいはオンライン文字認識部35によ
り、文字バッファ内の情報に対してタイトルの入力ある
いは変更を行なう。
[0081] At this time, if an arbitrary area of the file has been specified using the mouse or the like before selecting a title from the menu item, the character code will be added to that area when the menu is selected. If a character code exists, the data is stored in the character buffer. If image information exists, it is converted into a character code by character recognition and then stored in the character buffer. Enter that data. If none of them exist, nothing is input to the character buffer. When displaying the menu screen as shown in FIG. 19, character buffer information is also displayed in the title section 91. Next, for example, using the keyboard section 12 or the online character recognition section 35, a title is input or changed for the information in the character buffer.

【0082】最後に、図19のメニュー画面で決定コマ
ンド92を選択することにより、文字バッファ内のタイ
トルをファイル情報のヘッダとして付加する。キャンセ
ルコマンド93を選択した場合には、上記作業を直ちに
中止する。
Finally, by selecting the determination command 92 on the menu screen of FIG. 19, the title in the character buffer is added as the header of the file information. If the cancel command 93 is selected, the above operation is immediately canceled.

【0083】次に、本発明に係る文字認識方式について
説明する。印刷物は、イメージ入力部13において(主
にイメージスキャナを使用する)、イメージ情報として
入力する。このイメージ情報は、メモリ部19に格納し
た後、その同じイメージ情報は、そのまま本体部インタ
フェイス26と携帯部インタフェイス31を介して携帯
部Bに送られる。携帯部Bの制御部32は、このイメー
ジ情報に操作用のアイコンを加えて、図20に示すよう
な画面をディスプレイ部40に表示する。図20におい
て、301と303は文字情報で、305はイメージ情
報である。
Next, a character recognition method according to the present invention will be explained. The printed material is input as image information in the image input section 13 (mainly using an image scanner). After this image information is stored in the memory section 19, the same image information is sent as is to the portable section B via the main body section interface 26 and the portable section interface 31. The control unit 32 of the mobile unit B adds operation icons to this image information and displays a screen as shown in FIG. 20 on the display unit 40. In FIG. 20, 301 and 303 are character information, and 305 is image information.

【0084】そして、ペン34により認識すべき文字の
領域を手書きで指定する。図20において、まず、領域
指定のアイコン306をペン34でポインティングし(
アイコン306をペン34で触る)、次に領域302を
ペン34による手書きにより指定する。同様に、アイコ
ン306をポインティングした後、領域304を手書き
により指定する。
Then, the area of characters to be recognized is handwritten using the pen 34. In FIG. 20, first, point the area designation icon 306 with the pen 34 (
(touching the icon 306 with the pen 34), and then specifying the area 302 by handwriting with the pen 34. Similarly, after pointing to the icon 306, the area 304 is specified by hand.

【0085】次に、認識のアイコン307をペン34で
ポインティングする。ここで、アイコン306のポイン
ティング情報、手書きにより指定した領域302と30
4の情報、アイコン307のポインティング情報は、順
番に携帯部Bから携帯部インタフェイス31と本体部イ
ンタフェイス26とを介して本体部Aに送られる。本体
部Aの制御部14は、アイコン306のポインティング
情報と、その後に続く領域302の情報を受取ると、あ
らかじめメモリ部19に格納されたイメージ情報から、
指定された領域302の文字情報301をイメージ情報
の形で切り出し、一時的にメモリ部19に格納する。
Next, the recognition icon 307 is pointed with the pen 34. Here, the pointing information of the icon 306, the areas 302 and 30 specified by hand
4 and the pointing information of the icon 307 are sequentially sent from the mobile unit B to the main unit A via the mobile unit interface 31 and the main unit interface 26. Upon receiving the pointing information of the icon 306 and the information of the area 302 that follows, the control unit 14 of the main body A receives the pointing information of the icon 306 and the information of the area 302 that follows it, and uses the image information stored in the memory unit 19 in advance.
The character information 301 in the designated area 302 is cut out in the form of image information and temporarily stored in the memory unit 19.

【0086】同様に、次の文字領域304について、前
記と同じ動作を繰り返し、文字情報303をイメージ情
報の形でメモリ部19に格納する。そして、アイコン3
07のポインティング情報(認識開始)を受取ると、制
御部14は、メモリ部19から前記のあらかじめ格納さ
れている文字情報(イメージ情報の形式)301を読出
して、メディア変換部22に送る。
Similarly, the same operation as described above is repeated for the next character area 304, and the character information 303 is stored in the memory section 19 in the form of image information. And icon 3
Upon receiving the pointing information (recognition start) of 07, the control unit 14 reads out the previously stored character information (image information format) 301 from the memory unit 19 and sends it to the media conversion unit 22.

【0087】メディア変換部22は、入力されたイメー
ジ情報から文字認識して文字コードに変換する。制御部
14は、この変換された文字コードを本体部インタフェ
イス26と携帯部インタフェイス31とを介して携帯部
Bに送る。ここで、メディア変換部22で認識が不確実
な文字は、第2位および第3位の候補も一緒に携帯部B
に送る。次に、制御部14は、イメージ生成部51を制
御することにより、領域302に相当する長方形の線図
形を生成して(図21における領域308に相当する)
、イメージ情報の形で本体部インタフェイス26と携帯
部インタフェイス31とを介して携帯部Bに送る。
[0087] The media conversion unit 22 recognizes characters from input image information and converts the information into character codes. The control unit 14 sends this converted character code to the mobile unit B via the main unit interface 26 and the mobile unit interface 31. Here, characters that are uncertain to be recognized by the media conversion unit 22 are also processed by the mobile unit B along with the second and third candidates.
send to Next, the control unit 14 controls the image generation unit 51 to generate a rectangular line figure corresponding to the area 302 (corresponding to the area 308 in FIG. 21).
, is sent to the portable unit B via the main unit interface 26 and the portable unit interface 31 in the form of image information.

【0088】以下、同様に、領域304に囲まれた文字
情報303についても、本体部Aで文字認識し、文字コ
ード、認識の不確実な文字について第1位、第2位と第
3位の候補、前記認識の不確実な文字に対する部分的な
イメージ情報、および領域304に相当する長方形のイ
メージ情報(図21における領域311に相当する)を
携帯部Bに送る。携帯部Bの制御部32は、本体部Aか
ら送られてきた前記情報をディスプレイ部40に表示し
、その表示画面は、たとえば、図21に示すようになる
。このとき、前記の表示内容と同時に各種操作用のアイ
コンも同時に表示する。
[0088] Similarly, the character information 303 surrounded by the area 304 is also recognized by the main body part A, and the character codes and the first, second and third places of characters whose recognition is uncertain are determined. The candidate, partial image information for the character whose recognition is uncertain, and rectangular image information corresponding to area 304 (corresponding to area 311 in FIG. 21) are sent to portable unit B. The control section 32 of the portable section B displays the information sent from the main body section A on the display section 40, and the display screen is as shown in FIG. 21, for example. At this time, icons for various operations are also displayed simultaneously with the above-mentioned display contents.

【0089】図21において、309と312は、本体
部Aから送られてきた認識結果である文字情報、308
と311は、文字領域を分割する長方形の線図形である
。310,313,314は、それぞれ認識が不確実で
反転表示された文字である。315〜321は、それぞ
れ操作のために必要とするアイコンと表示である。
In FIG. 21, 309 and 312 are the character information 308 which is the recognition result sent from the main body A.
and 311 are rectangular line figures that divide the character area. 310, 313, and 314 are characters whose recognition is uncertain and are displayed in reverse video. 315 to 321 are icons and displays required for operation, respectively.

【0090】次に、認識が不確実な文字を修正する方法
について説明する。まず、オペレータは、ペン34によ
り文字310をポインティングすると、領域316に認
識における第1候補の文字が表示され、同時に領域31
8に、その文字における元の部分的なイメージ情報が表
示される。領域318における表示は、オペレータに対
して正しい文字を判断するための目安とすることができ
る。そして、この文字が正しければ、確定のアイコン3
15をペン34によりポインティングすることにより、
この文字は確定される。
Next, a method for correcting characters whose recognition is uncertain will be explained. First, when the operator points the character 310 with the pen 34, the first candidate character for recognition is displayed in the area 316, and at the same time, the character 310 is displayed in the area 316.
8, the original partial image information of the character is displayed. The display in area 318 can serve as a guide for the operator to determine the correct character. If this character is correct, confirm icon 3
15 with the pen 34,
This character is confirmed.

【0091】しかし、領域316に表示された文字が、
まだ間違っていた場合、さらに、文字310をペン34
によりポインティングすると、領域316に認識におけ
る第2候補の文字が表示される。この文字が正しければ
、アイコン315をペン34によりポインティングする
ことにより、この文字は確定する。間違っている場合、
さらに、文字310をペン34によりポインティングす
ると、領域316に認識における第3候補の文字が表示
される。この文字が正しければ、アイコン315をペン
34によりポインティングすることにより、この文字は
確定する。
However, the characters displayed in area 316 are
If it's still wrong, add the character 310 to the pen 34.
When pointing with , the second candidate character for recognition is displayed in area 316. If this character is correct, by pointing the icon 315 with the pen 34, this character is confirmed. If it's wrong,
Further, when the character 310 is pointed with the pen 34, a third candidate character for recognition is displayed in the area 316. If this character is correct, by pointing the icon 315 with the pen 34, this character is confirmed.

【0092】そして、第3位候補の文字も間違っていた
場合、オペレータは、訂正のアイコン317をペン34
によりポインティングし、領域319の部分に、ペン3
4を使用して手書きにより正しい文字を記入する。その
後、認識開始のアイコン320をペン34によりポイン
ティングすることにより、制御部32は、前記手書きで
行なった文字のイメージ情報をオンライン文字認識部3
5に送る。オンライン文字認識部35は、入力される文
字情報を認識し、その認識結果は領域321に表示され
る。また、同時に文字310も、この認識した結果に置
き代わる。
[0092] If the third candidate character is also incorrect, the operator presses the correction icon 317 on the pen 34.
Pointing to the area 319, pen 3
4. Fill in the correct characters by hand. Thereafter, by pointing the recognition start icon 320 with the pen 34, the control unit 32 transfers the image information of the handwritten character to the online character recognition unit 32.
Send to 5. The online character recognition unit 35 recognizes input character information, and the recognition result is displayed in the area 321. At the same time, the character 310 is also replaced by the recognized result.

【0093】ここで、オンライン文字認識部35の認識
結果が間違っていた場合、再び、文字310をポインテ
ィングし、アイコン317をポインティングし、領域3
19に手書きにより文字を記入し、アイコン320をポ
インティングする操作を行ない、領域321に認識結果
を表示させる。オペレータは、この認識結果が正しいか
否かを確認する。そして、また間違っていたら、再び、
前記の動作を繰り返し、認識結果が正しくなるまで操作
を繰り返す。
[0093] Here, if the recognition result of the online character recognition unit 35 is wrong, point at the character 310 again, point at the icon 317,
19 by handwriting, and by pointing at the icon 320, the recognition result is displayed in the area 321. The operator confirms whether this recognition result is correct. And if I'm wrong again,
Repeat the above operation until the recognition result is correct.

【0094】以上の操作は、認識の不確実な文字に対す
る操作に限らず、表示した文字309あるいは312の
どの文字に対しても適用することができ、間違った文字
が見つかったら最初にその文字をポインティングしてか
ら、前記の動作を行なうことにより、その文字を訂正す
ることができる。以下同様に、認識が不確実な文字31
3,314についても前記と同様な操作により修正また
は訂正することができる。
The above operations are not limited to operations on characters whose recognition is uncertain, but can be applied to any of the displayed characters 309 or 312. If an incorrect character is found, first select that character. By pointing and performing the above operations, the character can be corrected. Similarly, characters 31 whose recognition is uncertain
3,314 can also be corrected or corrected by the same operation as above.

【0095】なお、上記実施例は、間違っていた文字を
訂正する場合、オンライン文字認識機能を利用し、手書
きにより漢字を直接入力する例である。しかし、仮名文
字を手書きにより入力して認識し、しかる後、図24の
ように、仮名漢字変換機能により漢字に変換する方法で
もよい。この方法は、認識対象とする文字の範囲が仮名
文字に限られているために、漢字を直接認識する方法に
比較して、オンライン文字認識部35の処理量が少なく
てよいため、ハードウェアの簡素化および認識性能の向
上が期待できる。
[0095] In the above embodiment, when correcting an incorrect character, an online character recognition function is used to directly input a kanji character by hand. However, it is also possible to use a method in which kana characters are input by hand, recognized, and then converted into kanji using a kana-kanji conversion function, as shown in FIG. In this method, since the range of characters to be recognized is limited to kana characters, the amount of processing required by the online character recognition unit 35 is smaller compared to the method of directly recognizing kanji, so it requires less hardware. Simplification and improvement of recognition performance can be expected.

【0096】また、漢字を入力する方法として、たとえ
ば、携帯部Bのディスプレイ部40にキーボードを縮小
した図形を表示し、ペン34により直接ポインティング
することにより仮名文字を入力する。その後、仮名漢字
変換により漢字に変換する方法もある。この方法は、オ
ンライン文字認識に係る認識の不確実さを回避できる長
所がある。
Furthermore, as a method for inputting kanji, for example, a reduced-sized keyboard is displayed on the display section 40 of the portable section B, and kana characters are input by directly pointing with the pen 34. After that, there is also a method of converting to kanji using kana-kanji conversion. This method has the advantage of avoiding recognition uncertainty associated with online character recognition.

【0097】以上説明した操作を行なうことにより、希
望する文字の領域の指定、認識における不確実な文字の
修正、および、間違っている文字の訂正が行なうことが
でき、完全なテキストを完成させることができる。そし
て、このテキストを本体部Aに再び送り、データベース
部21に格納して、後のテキストを作成する際の文章の
一部にすることができる。また、携帯部Bにおいて、前
記操作により作成したテキストに対し、さらに、オンラ
イン文字認識により追加の文章を作成し、再び本体部A
に送り、データベース部21に格納することも可能であ
る。
[0097] By performing the operations described above, it is possible to specify the desired character area, correct characters that are uncertain in recognition, and correct characters that are incorrect, thereby completing a complete text. Can be done. Then, this text is sent again to the main body part A, stored in the database part 21, and can be used as part of a sentence when creating a later text. In addition, on the mobile unit B, an additional sentence is created using online character recognition for the text created by the above operation, and then again on the main unit A.
It is also possible to send the data to the database unit 21 and store it in the database unit 21.

【0098】また、前記実施例は、本体部Aでイメージ
情報を読込んだ後、そのイメージ情報を一度携帯部Bに
送り、携帯部Bで認識文字領域を指定し、その領域情報
を利用して再び本体部Aで文字認識を行ない、その認識
結果を携帯部Bに送り、文字の修正あるいは訂正を行な
っていた。しかし、本体部Aからイメージ情報を送った
後、認識領域の指定、オンライン文字認識部35を利用
して文字認識を行ない、認識の不確実な文字の修正と訂
正など、全ての処理を携帯部Bで行なってもよい。その
他、本発明はその要旨を逸脱しない範囲で種々変形して
実施することができる。
Furthermore, in the above embodiment, after the image information is read in the main body part A, the image information is once sent to the mobile part B, the recognition character area is specified in the mobile part B, and the area information is used. Then, the main unit A performs character recognition again, and the recognition result is sent to the mobile unit B, where the characters are corrected or corrected. However, after sending the image information from the main unit A, the mobile unit performs all processing such as specifying the recognition area, performing character recognition using the online character recognition unit 35, and modifying and correcting characters that are uncertain about recognition. You can also use B. In addition, the present invention can be implemented with various modifications without departing from the gist thereof.

【0099】以上説明したように、テキストリーダ認識
に係る指示および操作、すなわち、認識文字領域の切り
出し、および、認識の不確実な文字の修正などについて
、従来はマウスおよびキーボードを使用して行なってい
たが、上記実施例によれば、携帯部Bのタブレット(位
置入力部33)上で、ディスプレイ部40の画面を見な
がらペン34により筆記するような感覚で行なうため、
極めて自然で効率が著しく向上する。特に、文字を訂正
する場合、従来はキーボードから仮名漢字変換により漢
字を入力していたが、上記実施例によれば、手書きのオ
ンライン文字認識機能を利用することにより、煩雑なキ
ーボードの操作が必要がなく、直接筆記により文字を入
力することができる。
As explained above, instructions and operations related to text reader recognition, such as cutting out a recognized character area and correcting characters whose recognition is uncertain, have conventionally been performed using a mouse and keyboard. However, according to the above embodiment, writing is performed with the pen 34 on the tablet (position input section 33) of the portable section B while looking at the screen of the display section 40, so
Extremely natural and significantly improved efficiency. In particular, when correcting characters, conventionally the kanji were entered using a keyboard through kana-kanji conversion, but according to the above example, by using the handwritten online character recognition function, complicated keyboard operations are no longer necessary. It is possible to input characters directly by writing.

【0100】[0100]

【発明の効果】以上詳述したように本発明によれば、認
識に係る指示および操作、すなわち、認識領域の設定、
認識開始の指示、および、不確実な文字の修正などを全
てペンタッチで簡単に行なえ、著しく操作性が向上する
文字認識方式を提供することができる。
Effects of the Invention As detailed above, according to the present invention, instructions and operations related to recognition, that is, setting of a recognition area,
It is possible to provide a character recognition method in which the command to start recognition and the correction of uncertain characters can all be easily performed with a pen touch, and the operability is significantly improved.

【図面の簡単な説明】[Brief explanation of the drawing]

【図1】本発明の一実施例に係る文字認識方式が適用さ
れる個人複合化OA機器の概略構成を示すブロック図。
FIG. 1 is a block diagram showing a schematic configuration of a personal complex OA device to which a character recognition method according to an embodiment of the present invention is applied.

【図2】本体部の具体的な構成例を示すブロック図。FIG. 2 is a block diagram showing a specific example of the configuration of the main body.

【図3】携帯部の具体的な構成例を示すブロック図。FIG. 3 is a block diagram showing a specific example of the configuration of a portable unit.

【図4】イメージ処理部の構成を詳細に示すブロック図
FIG. 4 is a block diagram showing in detail the configuration of an image processing section.

【図5】音声処理部の構成を詳細に示すブロック図。FIG. 5 is a block diagram showing in detail the configuration of an audio processing section.

【図6】データベース部の構成を詳細に示すブロック図
FIG. 6 is a block diagram showing in detail the configuration of a database unit.

【図7】データベース部内に蓄積されるデータの構造を
示す図。
FIG. 7 is a diagram showing the structure of data stored in the database section.

【図8】データベース部内に蓄積されるデータのクラス
を示す図。
FIG. 8 is a diagram showing classes of data stored in the database section.

【図9】音声入出力部としての送受話器を示す斜視図。FIG. 9 is a perspective view showing a handset as an audio input/output unit.

【図10】音声情報記録メニューの表示画面例を示す図
FIG. 10 is a diagram showing an example of a display screen of an audio information recording menu.

【図11】音声情報ヘッダの構成例を示す図。FIG. 11 is a diagram showing a configuration example of an audio information header.

【図12】記録した音声情報を他のデータとリンクする
ことを説明する図。
FIG. 12 is a diagram illustrating linking recorded audio information with other data.

【図13】リンクの直接指定を行なう際の表示画面例を
示す図。
FIG. 13 is a diagram showing an example of a display screen when directly specifying a link.

【図14】音声メモのアイコンの一例を示す図。FIG. 14 is a diagram showing an example of a voice memo icon.

【図15】電話機能メニューの表示画面例を示す図。FIG. 15 is a diagram showing an example of a display screen of a telephone function menu.

【図16】ファクシミリ機能メニューの表示画面例を示
す図。
FIG. 16 is a diagram showing an example of a display screen of a facsimile function menu.

【図17】ファクシミリ情報ヘッダの構成例を示す図。FIG. 17 is a diagram showing a configuration example of a facsimile information header.

【図18】文書作成機能を実現するために必要な装置の
構成を示すブロック図。
FIG. 18 is a block diagram showing the configuration of a device required to implement a document creation function.

【図19】文書作成機能で作成したファイルにタイトル
を付加する際のメニュー画面の一例を示す図。
FIG. 19 is a diagram showing an example of a menu screen when adding a title to a file created using a document creation function.

【図20】テキストの表示画面(イメージ情報)例を示
す図。
FIG. 20 is a diagram showing an example of a text display screen (image information).

【図21】テキストの表示画面(認識結果)例を示す図
FIG. 21 is a diagram showing an example of a text display screen (recognition results).

【図22】従来方式によるテキストリーダ認識システム
の構成を示すブロック図。
FIG. 22 is a block diagram showing the configuration of a conventional text reader recognition system.

【図23】従来方式によるテキストの表示画面(イメー
ジ情報)例を示す図。
FIG. 23 is a diagram showing an example of a text display screen (image information) according to a conventional method.

【図24】従来方式によるテキストの表示画面(認識結
果)例を示す図。
FIG. 24 is a diagram showing an example of a text display screen (recognition result) according to a conventional method.

【符号の説明】[Explanation of symbols]

A……本体部(第1電子機器)、B……携帯部(第2電
子機器)、1……イメージ入力部、2……文字認識部、
3……制御部、4……オンライン文字認識部、5……表
示部、6……ペン、7……位置入力部(タブレット)、
8……制御部、11……位置入力部、12……キーボー
ド部、13……イメージ入力部、14……制御部、18
……イメージ処理部、19……メモリ部、20……テキ
ストリーダ処理部、21……データベース部、22……
メディア変換部、26……本体部インタフェイス、31
……携帯部インタフェイス、32……制御部、33……
位置入力部(タブレット)、34……ペン、35……オ
ンライン文字認識部、36……イメージ入力部、40…
…ディスプレイ部、44……メモリ部、45……デキス
トデータ処理部。
A...Main unit (first electronic device), B...Mobile unit (second electronic device), 1...Image input section, 2...Character recognition section,
3...Control unit, 4...Online character recognition unit, 5...Display unit, 6...Pen, 7...Position input unit (tablet),
8...Control unit, 11...Position input unit, 12...Keyboard unit, 13...Image input unit, 14...Control unit, 18
...Image processing section, 19...Memory section, 20...Text reader processing section, 21...Database section, 22...
Media converter, 26... Main unit interface, 31
...Mobile unit interface, 32...Control unit, 33...
Position input section (tablet), 34... Pen, 35... Online character recognition section, 36... Image input section, 40...
...Display section, 44...Memory section, 45...Text data processing section.

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】  少なくとも文字を含むイメージ情報を
入力する手段を有する第1電子機器と、この第1電子機
器との間でデータ交換が可能な携帯形の第2電子機器と
からなり、第1電子機器および第2電子機器のうち少な
くともいずれか一方は文字認識手段を有し、第2電子機
器は表示部とタブレットとが一体となり手書きペン入力
が可能な手書き入力手段を有し、第1電子機器で入力し
たイメージ情報から前記文字認識手段で文字認識を行な
う際、その前に第2電子機器の手書き入力手段により文
字が存在するイメージ部分を領域指定し、認識処理後、
その認識結果について認識の不確実な文字の候補選択お
よび誤認識した文字の訂正などを第2電子機器の手書き
入力手段により行なうことが可能なことを特徴とする文
字認識方式。
Claim 1: A first electronic device comprising: a first electronic device having means for inputting image information including at least characters; and a portable second electronic device capable of exchanging data with the first electronic device; At least one of the electronic device and the second electronic device has a character recognition means, the second electronic device has a handwriting input means in which a display unit and a tablet are integrated and can input handwritten pen input, and the first electronic device has a character recognition means. When the character recognition means performs character recognition from the image information inputted by the device, before that, the handwriting input means of the second electronic device specifies an area of the image where the characters exist, and after recognition processing,
A character recognition system characterized in that it is possible to select candidates for characters whose recognition is uncertain and to correct characters that have been erroneously recognized based on the recognition results using handwriting input means of a second electronic device.
JP3112784A 1991-05-17 1991-05-17 Character recognition system Pending JPH04340681A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3112784A JPH04340681A (en) 1991-05-17 1991-05-17 Character recognition system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3112784A JPH04340681A (en) 1991-05-17 1991-05-17 Character recognition system

Publications (1)

Publication Number Publication Date
JPH04340681A true JPH04340681A (en) 1992-11-27

Family

ID=14595421

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3112784A Pending JPH04340681A (en) 1991-05-17 1991-05-17 Character recognition system

Country Status (1)

Country Link
JP (1) JPH04340681A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012507063A (en) * 2009-07-21 2012-03-22 上海合合信息科技発展有限公司 Character input method and system, electronic equipment, and keyboard thereof
JP2012128789A (en) * 2010-12-17 2012-07-05 Casio Comput Co Ltd Electronic apparatus comprising dictionary function, and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012507063A (en) * 2009-07-21 2012-03-22 上海合合信息科技発展有限公司 Character input method and system, electronic equipment, and keyboard thereof
US10248878B2 (en) 2009-07-21 2019-04-02 Intsig Information Co., Ltd. Character input method and system as well as electronic device and keyboard thereof
JP2012128789A (en) * 2010-12-17 2012-07-05 Casio Comput Co Ltd Electronic apparatus comprising dictionary function, and program

Similar Documents

Publication Publication Date Title
EP1104151A2 (en) Mobile station having improved user interface providing application management and other functions
JP4382654B2 (en) Message processing apparatus and method using avatar in portable terminal
EP0917038B1 (en) Utilizing the contents of a message
JP2830957B2 (en) Workstation device with e-mail function
GB2276520A (en) Computer interface method and system
US6252948B1 (en) Telephone note-taking device
JP3098783B2 (en) Facsimile machine with image storage function
EP1624378A1 (en) Electronic mail read device and electronic mail edition device
JPH09152955A (en) Portable information communicating terminal equipment
KR100774187B1 (en) Mobile communication terminal and method for displaying SMS therefor
KR20090008853A (en) Apparatus and method for providing phonebook using image in portable terminal
US20020142758A1 (en) Message communication device
JPH07306933A (en) Image data filing system having communicating function
JPH01152566A (en) Information processor
EP1781001A2 (en) Portable terminal including a mail transmission function
JPH04340681A (en) Character recognition system
JP2004021596A (en) Information processing device having communication function
CN112866469A (en) Method and device for recording call content
JP2000201234A (en) Call terminal use environment setting method/device
JP2001356991A (en) Mail receiver and storage medium
JPH1027141A (en) Electronic mail system
KR0170664B1 (en) Touch screen driving method and apparatus thereof
JP3680813B2 (en) Communication device
JPH04186952A (en) Composite information apparatus
JPH10134003A (en) Handwritten data managing device