JPS6218883A - Image processor - Google Patents

Image processor

Info

Publication number
JPS6218883A
JPS6218883A JP60157796A JP15779685A JPS6218883A JP S6218883 A JPS6218883 A JP S6218883A JP 60157796 A JP60157796 A JP 60157796A JP 15779685 A JP15779685 A JP 15779685A JP S6218883 A JPS6218883 A JP S6218883A
Authority
JP
Japan
Prior art keywords
image
color
area
data
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP60157796A
Other languages
Japanese (ja)
Other versions
JPH0821072B2 (en
Inventor
Osamu Watanabe
修 渡辺
Tadashi Fujiwara
藤原 忠士
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP60157796A priority Critical patent/JPH0821072B2/en
Publication of JPS6218883A publication Critical patent/JPS6218883A/en
Publication of JPH0821072B2 publication Critical patent/JPH0821072B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PURPOSE:To perform image conversion without spoiling features of a current input image by removing small area images present in an input image and reducing the quantity of converted codes, and also converting the small area images which are removed to the color of images of other areas that the image contacts. CONSTITUTION:The small area image is determined when the number of picture elements of an area encircled with the same color is <=N. When plural areas 12-16 are present, picture elements of each area are counted when there is an unprocessed image area, picture elements in the area are counted; when the counted number (n) is <=N, the area is regarded as the small area image and outer periphery tracking and conversion color specification are carried out. Consequently, when there are small area images 14 and 16 among plural areas 12-16 which are present in an indicated area 11 and has a specific color, those areas are detected and removed automatically.

Description

【発明の詳細な説明】 以下の順序でこの発明を説明する。[Detailed description of the invention] The invention will be explained in the following order.

A 産業上の利用分野 B 発明の概要 C従来の技術 D 発明が解決しようとする問題点 E 問題点を解決するだめの手段(第1図)F 作用 G 実施例 G1ビデオテックス画像作成装置の説明(第2図) G2小領域画像除去処理の説明 (第3図〜第7図) 03同 上(第8図以下) H発明の効果 A 産業上の利用分野 この発明は例えばビデオテックス画像作成装置において
、ビデオテックス画像データにエンコードする前のデー
タ削減処理をする場合に通用して好適な小領域画像除去
機能を有する画像処理装置に関する。
A. Field of industrial application B. Overview of the invention C. Prior art D. Problem to be solved by the invention E. Means for solving the problem (Fig. 1) F. Effect G. Example G1 Description of Videotex image creation device (Fig. 2) Explanation of G2 small area image removal processing (Figs. 3 to 7) 03 Same as above (Fig. 8 and following) Effects of the H invention A Industrial application field This invention is applicable to, for example, a videotex image creation device. The present invention relates to an image processing apparatus having a small area image removal function suitable for performing data reduction processing before encoding into videotex image data.

B 発明の概要 この発明は例えばビデオテックス画像作成装置において
、ビデオテックス画像データにエンコードする前のデー
タ削減処理をする場合に適用して好適な画像処理装置に
関し、特に特定領域内に存在する小領域画像を除去する
に際し、除去すべき領域をこの小領域画像が接する他の
領域の画像の色に変換することによって、この小領域画
像を現入力画像の特徴を損なうことなく除去できるよう
にしたものである。
B. Summary of the Invention The present invention relates to an image processing device that is suitable for use in a videotex image creation device, for example, when performing data reduction processing before encoding into videotex image data, and particularly relates to an image processing device that is suitable for applying data reduction processing before encoding to videotex image data. When removing an image, this small area image can be removed without damaging the characteristics of the current input image by converting the area to be removed into the color of the image of another area that this small area image is in contact with. It is.

C従来の技術 ]ンピュータ技術と通信技術とを融合させた双方向画面
情報通信システム、すなわちビデオテックスが知られて
いる。
C. Prior Art] Videotex, which is a two-way screen information communication system that combines computer technology and communication technology, is known.

このビデオテックスの表示方式は、いくつか知られてい
るが、その一つとして例えばNAPLPS方式がある。
There are several known videotex display methods, one of which is the NAPLPS method.

この方式は図形の情報は後述するような幾何図形コマン
ドで表現して、これをコード化するものである。
In this method, graphical information is expressed using geometrical graphical commands as described later, and this is encoded.

NAPLPS方式のコードには大きくわけて制御セット
と図形セントがあり、図形セントは英字、数字、記号な
どの基本キャラクタセット、図形記述命令であるPDI
セント、その他からなる。
NAPLPS code can be broadly divided into control sets and graphic cents, and graphic cents are basic character sets such as alphabets, numbers, and symbols, and PDI, which is graphic description instructions.
Consists of cents, etc.

NAPLPS方式の特徴はこのPDIセントにあり、こ
れは画像の構成要素を点、線、弧、四角形、多角形の5
つの基本的幾何図形に分けて記述し、大きさや位置、座
標、色彩は数値で指定して表示するものである。
The feature of the NAPLPS method is this PDI cent, which divides the image components into 5 types: points, lines, arcs, rectangles, and polygons.
It is divided into two basic geometric figures, and the size, position, coordinates, and color are specified and displayed using numerical values.

そして、このPDIセントには次のような6種類のジオ
メトリツク・グラフインク・プリミティブと呼ぶ作図命
令がある。
This PDI cent has the following six types of drawing commands called geometric graph ink primitives.

POINT :点を打つ LINE  :線を引く ARC:円弧を描く 1?ECTANGLE  :矩形を描くPOLYGON
   :多角形を描く INCREMENTAL 二手さな図形で描く画像デー
タは、原画像がこのPDIセットの図形コード及びその
属性コードや制御コード、また制御セットのコードに描
画作業順に時系列データとしてコード変換されたもので
、デコード時はその時系列の順番にコードがデコードさ
れて画像が描画されて再現される。
POINT: Draw a point LINE: Draw a line ARC: Draw an arc 1? ECTANGLE: POLYGON that draws a rectangle
: INCREMENTAL drawing a polygon Image data drawn with a two-handed figure is code-converted from the original image to the figure code of this PDI set, its attribute code, control code, and code of the control set as time-series data in the order of drawing operations. When decoding, the codes are decoded in chronological order and the image is drawn and reproduced.

このNAPLPS方式によれば、1ドツト毎にコード化
して伝送するものに比べて、伝送画像情報量を大幅に削
減することができ、伝送効率の高い画像伝送ができると
ともに位置座標のデータは縦方向、横方向における相対
座標であるので端末側の解像度に応じたきめ細かさで画
像が表示されるという特長がある。
According to this NAPLPS method, the amount of image information to be transmitted can be significantly reduced compared to the method in which each dot is encoded and transmitted, and it is possible to transmit images with high transmission efficiency, and the position coordinate data is transmitted in the vertical direction. , is a relative coordinate in the horizontal direction, so it has the advantage that the image is displayed with a fineness that corresponds to the resolution of the terminal side.

D 発明が解決しようとする問題点 ところで、ビデオカメラやVTRなどから得た入力画像
信号をデジタル化して形成された画像データを、上述し
たようなNAPLPSコードに変換する場合、PDTコ
ード、例えばPOLYGONやINCREMENTAL
などの作図命令コードを使用すると、画像データ中に含
まれる小領域画像データのコーディングが比較的面倒な
ため、その変換コード量としては数バイト必要となり、
一つの入力画像信号をコード化するには30〜60にバ
イトの容量を必要とする。
D Problems to be Solved by the Invention By the way, when converting image data formed by digitizing an input image signal obtained from a video camera, VTR, etc. into a NAPLPS code as described above, a PDT code such as POLYGON or INCREMENTAL
When using drawing instruction codes such as , it is relatively troublesome to code the small area image data included in the image data, and the conversion code requires several bytes.
Encoding one input image signal requires a capacity of 30 to 60 bytes.

このような問題点を解決するためには、完成画像のコー
ド量を2〜8にバイトに抑えるのが好ましい。すなわち
、入力画像信号になんらかの前処理を施してそのコード
量を削減することにより、NAPLPSコード化に通し
た画像データに変換する必要がある。
In order to solve these problems, it is preferable to limit the code amount of the completed image to 2 to 8 bytes. That is, it is necessary to perform some kind of preprocessing on the input image signal to reduce the amount of code, thereby converting it into image data that can be passed through NAPLPS encoding.

しかし、従来の画像処理装置では、そのようなデータ処
理はなされていない。
However, conventional image processing devices do not perform such data processing.

そこで、この発明ではこのような従来の問題点を解決し
たものであって、NAPLPSコードなどのビデオテッ
クス画像データに変換する場合に、入力画像に存在する
小領域画像を除去して、変換コード量を削減すると共に
、除去すべき小領域画像を、この画像が接する他の領域
の画像の色に変換するようにして、現入力画像の特徴を
損うことなく、画像変換できるようにしたものである。
Therefore, the present invention solves these conventional problems, and when converting to videotex image data such as NAPLPS code, small area images existing in the input image are removed to reduce the amount of converted code. At the same time, the small area image to be removed is converted to the color of the image of the other area that this image is in contact with, making it possible to perform image conversion without damaging the characteristics of the current input image. be.

E 問題点を解決するための手段 上述の問題点を解決するため、この発明では第1図に示
すように、小領域画像除去手段(2)が設けられる。小
領域画像を除去した画像データが所定のビデオテックス
画像データに変換される。
E. Means for Solving the Problems In order to solve the above-mentioned problems, the present invention is provided with a small area image removal means (2) as shown in FIG. The image data from which the small area image has been removed is converted into predetermined videotex image data.

F 作用 この構成において、小領域画像除去手段(2)では、次
のようなデータ処理が実行される。
F Effect In this configuration, the small area image removal means (2) performs the following data processing.

すなわち、カーソルで特定された領域内に存在する小領
域画像に対し、その外周を追跡して、その外周に最も多
く現れた色を検出し、小領域画像の色を上述の検出色の
いずれかに変換することによって、小領域画像を除去す
る。
In other words, the outer periphery of the small area image existing within the area specified by the cursor is tracked, the color that appears most frequently on the outer periphery is detected, and the color of the small area image is set to one of the detected colors described above. The small area image is removed by converting it into .

小領域画像の色を他の色で変換する場合、この小領域画
像に接する領域の画像の色に変換したので、現入力画像
の特徴を損なうことなく、画像処理が可能となり、また
この画像処理によって画像データのコード量を従来より
も大幅に削減することができる。
When converting the color of a small region image to another color, the color of the image of the region adjacent to this small region image is converted, so image processing is possible without damaging the characteristics of the current input image, and this image processing This allows the amount of code for image data to be significantly reduced compared to the conventional method.

G 実施例 G1ビデオテックス画像作成装五の説明第1図はこの発
明の要部の構成の一例を示すもので、(1)はビデオR
AM12]は小領域画像処理手段、(3)はディスプレ
イ、(4)はディスプレイコントローラ、(5)はビデ
オRA M (11のアドレスをディスレイ(3)の画
面上のカーソル位置に応じて指定できる座標入力手段、
(6)はバッファRAM、(7)はビデオRA M (
11及びバッファRA M (71のメモリコントロー
ル手段である。
G Embodiment G1 Explanation of the Videotex image creation device 5 FIG.
AM12] is a small area image processing means, (3) is a display, (4) is a display controller, and (5) is a video RAM (coordinates that can specify the address of 11 according to the cursor position on the screen of display (3). input means,
(6) is buffer RAM, (7) is video RAM (
11 and buffer RAM (71).

第2図はこの発明装置をビデオテックス画像作成装置に
通用した場合の一例で、この例では装置は入力カラー画
像情報を1画面分毎のデータに変換するフレームデータ
作成部(100)と、その1画面分毎のデータからビデ
オテックス画像データを作成するビデオテックス装置部
(200)とからなる。
Figure 2 shows an example of the device of the present invention applied to a Videotex image creation device. In this example, the device includes a frame data creation section (100) that converts input color image information into data for each screen, and It consists of a videotex device section (200) that creates videotex image data from data for each screen.

フレームデータ作成部(100)において、(101)
はアナログカラービデオ信号の入力端子で、ビデオカメ
ラ、VTR,ビデオディスク等のカラービデオ信号の発
生源(10)からのNTSCカラービデオ信号がこの入
力端子(101)を通じてNTSCデコーダ(102)
に供給されてデコードされ、3原色信号R,G、Bとし
てこれより得られる。
In the frame data creation section (100), (101)
is an analog color video signal input terminal, and an NTSC color video signal from a color video signal generation source (10) such as a video camera, VTR, or video disc is passed through this input terminal (101) to an NTSC decoder (102).
The three primary color signals R, G, and B are obtained from the three primary color signals R, G, and B.

また(103 )は3原色信号R,G、 Bの入力端子
で、マイクロコンピュータ等の画像情報作成装置よりの
3原色ビデオ信号R,G、Hの発生源(20)からこの
入力端子(103)を通じてフレームデータ作成部(1
00)にこの3原色信号が入力される。
Further, (103) is an input terminal for the three primary color signals R, G, and B, and the input terminal (103) is connected to the source (20) of the three primary color video signals R, G, and H from an image information creation device such as a microcomputer. Through the frame data creation section (1
00), these three primary color signals are input.

そして、NTSCデコーダ(102)からの3原色信号
と入力端子(103)からの3原色信号が入力選択回路
(104)によって選択されて取り出され、その選択出
力がA/Dコンバータ(105)に供給される。このA
/Dコンバータ(105)においては1サンプル毎に3
原色信号R,G、Bを夫々4ビツトのデータとして1サ
ンプル(1ドツト)を12ビツトのデジタル信号に変換
する。この12ビツトのデジタル信号はフィールドメモ
リ (106)に供給されて1フイ一ルド分ずつこのメ
モリ (106)に書き込まれる。
The three primary color signals from the NTSC decoder (102) and the three primary color signals from the input terminal (103) are selected and extracted by the input selection circuit (104), and the selected output is supplied to the A/D converter (105). be done. This A
In the /D converter (105), 3
The primary color signals R, G, and B are each converted into 4-bit data and one sample (one dot) is converted into a 12-bit digital signal. This 12-bit digital signal is supplied to a field memory (106) and written into this memory (106) one field at a time.

このフィールドメモリ (106)の書き込み及び読み
出しは後述するようにビデオテックス装置部(200)
のマイクロコンピュータ(201)からの指令により行
われるものである。また、入力選択回路(104)の切
り換えも同様にビデオテックス装置部(200)側から
のコマンドにより行われるようにされている。(108
)はそのタイミングをコントロールするためのタイミン
グコントロール回路である。
Writing and reading of this field memory (106) is performed by the Videotex equipment unit (200) as described later.
This is performed based on instructions from the microcomputer (201). Furthermore, switching of the input selection circuit (104) is similarly performed by a command from the Videotex device section (200). (108
) is a timing control circuit for controlling the timing.

したがって、フィールドメモリ (106)からはlフ
ィールド単位の信号が得られ、これがD/Aコンバータ
(107)によりアナログ3原色信号R9G、Bに戻さ
れ、これがビデオテックス装置部(200)のセレクタ
(231)を通じてモニタ受像機(230)に供給され
てその画像が画面に映出される。
Therefore, a signal in units of l field is obtained from the field memory (106), which is returned to the analog three primary color signals R9G and B by the D/A converter (107), and this is converted into the selector (231 ) is supplied to the monitor receiver (230), and the image is displayed on the screen.

ビデオテックス装置部(200)においてはマイクロコ
ンピュータ(201)が設けられる。
A microcomputer (201) is provided in the Videotex equipment section (200).

即ち、(202)はそのCPUであり、(203)は後
述するようなデータ処理のプログラムが記憶されている
ROMであり、また(204 )はワークエリア用のR
AMである。さらに(205)はデータバスである。
That is, (202) is its CPU, (203) is a ROM in which a data processing program as described below is stored, and (204) is an R for the work area.
It is AM. Furthermore, (205) is a data bus.

また、(211)はフレームデータ作成部(100)か
らの1ドツト12ビツトのデジタルデータを取り込むた
めのバッファRAMである。
Further, (211) is a buffer RAM for taking in digital data of 1 dot and 12 bits from the frame data creation section (100).

(212)はこのバッファRAM(211)に取り込ま
れた1画面分のデータに対し、後述するようにして作成
された16色のカラーバレットによって各ドツトの色を
表すデータに変換された変換デジタルビデオデータが記
憶されるビデオRAMである。この場合、このビデオR
AM(212)にはフレームデータ作成部(100)よ
りのビデオデータの他に、このビデオデータに対し操作
者の意図する処理をなすための複数のコマンドをメニュ
ー表として画面上に表すためのメニューデータが記憶さ
れている。なお、このコマンドメニューはコマンドをタ
ブレット(216)で選択するときのみ画面上に表れる
ようにされており、通常はほぼ画面全体にデータ画像が
表される。
(212) is a converted digital video in which one screen worth of data loaded into this buffer RAM (211) is converted into data representing the color of each dot using a 16-color color bullet created as described below. A video RAM in which data is stored. In this case, this video R
In addition to the video data from the frame data creation unit (100), the AM (212) has a menu for displaying a plurality of commands on the screen as a menu table for performing the processing intended by the operator on this video data. Data is stored. Note that this command menu appears on the screen only when a command is selected with the tablet (216), and normally the data image is displayed on almost the entire screen.

(213)はこのビデオRAM(212)のコントロー
ラであり、夫々データバス(205)と接続されている
(213) is a controller for this video RAM (212), and each is connected to a data bus (205).

(214)はカラーバレットメモリで、これには後述す
るようにして設定された16色のビデオデータ、部ち3
原色信号R,G、Bが夫々4ビツトのデジタル信号で表
現されるデータが16色分記憶されている。
(214) is a color bullet memory, which contains 16 color video data set as described later, part 3.
Data representing primary color signals R, G, and B each as a 4-bit digital signal is stored for 16 colors.

また、(215)はビデオRAM(212)に記憶され
ている変換デジタルビデオデータから幾何図形コード及
びその属性コードからなるNAPLPSのPDIコード
に変換されたデータを記憶するRAMである。
Further, (215) is a RAM that stores data converted from the converted digital video data stored in the video RAM (212) to a NAPLPS PDI code consisting of a geometric figure code and its attribute code.

(216”)は外部入力装置としてのタブレフトで、こ
のタブレット(216)はモニタ受像機(230)の画
面上の位置を指定する座標入力装置である。
(216'') is a tablet left as an external input device, and this tablet (216) is a coordinate input device for specifying a position on the screen of the monitor receiver (230).

この座標入力装置としてはいわゆるマウスその他の入力
装置であってもよい。
This coordinate input device may be a so-called mouse or other input device.

このタブレット (216)で前述のコマンドメニュー
の一つのコマンドを選択すれば、そのコマンドが実行さ
れるようにされるものである。即ち、ビデオRAM(2
12)のアドレスをこのタブレット(216)上でスタ
イラスによって指定することができるようにされており
、スタイラスで指定した画面上の位置はカーソルにより
画面中に表示される。このタブレット (216)  
はインターフェース(221)を介してデータバス(2
05)に接続されている。
When one command from the aforementioned command menu is selected on this tablet (216), that command is executed. That is, video RAM (2
12) can be specified with a stylus on this tablet (216), and the position on the screen specified with the stylus is displayed on the screen by a cursor. This tablet (216)
connects the data bus (221) via the interface (221).
05).

(217)はフロッピーディスクで、RAM(2I5)
に記憶されている1画面分毎のNAPLPSのコードを
記憶しておき、またこれから読み出すことができるよう
にされているもので、これもインターフェース(222
)を介してデータバス(205)と接続されている。
(217) is a floppy disk with RAM (2I5)
The NAPLPS code for each screen stored in the 222
) is connected to a data bus (205).

(218)はモデムであり、RAM(215)のNAP
LPSのコードを変調して、例えば電話線を通じて送信
するようにするもので、これもインターフェース(22
3)を介してデータバス(205)  と接続されてい
る。
(218) is a modem, and the NAP of RAM (215)
It modulates the LPS code and transmits it, for example, through a telephone line, which also uses an interface (22
3) is connected to the data bus (205).

そして、(220)はフレームデータ作成部(100)
からの1画面分のデジタルビデオデータを取り込むため
のインターフェースであり、これを通じてデータバス(
205)に供給されたビデオデータはバッファRAM 
(211)に生データとして先ず取り込まれる。
And (220) is a frame data creation unit (100)
An interface for importing one screen worth of digital video data from a data bus (
205), the video data supplied to the buffer RAM
(211) is first imported as raw data.

以上のように構成されるビデオテックス装置において、
先ずフレームデータの作成部(100)のフィールドメ
モリ (106)よりビデオテックス装置(200)に
おいて、タブレット(216>によりメニュー上で選択
された指令に応じて1画面分のビデオデータがインター
フェース(220)を介してデータバス(205)に取
り込まれる。
In the Videotex device configured as described above,
First, video data for one screen is transferred from the field memory (106) of the frame data creation unit (100) to the interface (220) in the Videotex device (200) according to the command selected on the menu by the tablet (216). The data is taken into the data bus (205) via the data bus (205).

こうして取り込まれたデータはバッファRAM(211
)に転送されて一時スドアされる。
The data captured in this way is stored in the buffer RAM (211
) and temporarily suspended.

そして、このバッファRAM(211)に取り込まれた
データから各ドツト毎の色の出現頻度がROM(203
)のプログラムに従って求められ、その頻度数の高い色
から順に上位16色のデジタルビデオデータ(12ビツ
ト)がカラーパレットメモリ (214)に書き込まれ
る。
Then, from the data taken into this buffer RAM (211), the frequency of appearance of each color for each dot is stored in the ROM (203).
), and the digital video data (12 bits) of the top 16 colors are written into the color palette memory (214) in order of frequency.

こうして、カラーパレットメモリ (214)に記憶さ
れた全画面の画像データから自動的に選ばれた16色の
データによってバッファRAM (211)の生データ
の各ドツトの色が再色付けされる。
In this way, each dot of the raw data in the buffer RAM (211) is recolored by 16 color data automatically selected from the full screen image data stored in the color palette memory (214).

この場合、各ドツトの情報がバッファRAM(212)
のビデオデータの元の色に対し最も近いカラーバレット
メモリ (214)の16色の内の1色のデータに変換
され、その変換テーブルのデータがビデオRAM(21
2)に各ドツトのデータとして書き込まれる。即ち、こ
のビデオRAM(212)に記憶されるデータは12ビ
ツトのビデオデータではなく、カラーバレットメモリ 
(214’)のその変換される色のビデオデータのアド
レスデータ(4ビツト)である。
In this case, the information of each dot is stored in the buffer RAM (212).
The original color of the video data is converted to one of the 16 colors in the color bullet memory (214) that is closest to the original color of the video data, and the data in the conversion table is stored in the video RAM (214).
2) is written as data for each dot. That is, the data stored in this video RAM (212) is not 12-bit video data, but color bullet memory.
(214') is the address data (4 bits) of the video data of the color to be converted.

そして、タブレット(216)において、モニタ受像機
(230’)の画面上に表示されたコマンドメニューに
おいてタブレット(216)でこの再色付けした画像を
表示するコマンドを選定したときは、選択回路(231
)が図の状態とは逆の状態に切り換えられる。そして、
コントローラ(213)の制御に従ってビデオRAM(
212)より水平及び垂直方向に順次与ドツトの色指定
のためのアドレスデータが読み出され、そのアドレスデ
ータによりカラーバレットメモリ (214)より選定
された色データ(即ち3原色信号R,G、Bが4ビー/
 トで表された信号)が得られ、これがD/Aコンバー
タ(233)によってアナログ信号に戻され、このアナ
ログ3原色信号R,G、 Bが選択回路(231)を介
してモニタ受像ti (230)に供給されて、その画
面に再色付は画像が映出される。
Then, when the tablet (216) selects a command to display this recolored image in the command menu displayed on the screen of the monitor receiver (230'), the selection circuit (231
) is switched to the opposite state from that shown. and,
The video RAM (
Address data for specifying the color of a given dot is read out sequentially in the horizontal and vertical directions from 212), and the selected color data (i.e., three primary color signals R, G, B) is read out from the color bullet memory (214) using the address data. is 4bee/
This signal is converted back to an analog signal by the D/A converter (233), and these analog three primary color signals R, G, B are sent to the monitor image ti (230) via the selection circuit (231). ), and the recolored image is displayed on the screen.

G2小領域画像除去処理の説明 こうして作成された再色付は画像データに対し、次のよ
うにしてコンピュータ(201)のプログラムにしたが
った小領域画像の除去処理が実行される。
G2 Description of small area image removal processing The recoloring image data thus created is subjected to small area image removal processing according to the program of the computer (201) as follows.

第2図において、(224)はこの処理のための高速処
理回路であり、(225)はバッファRAMである。
In FIG. 2, (224) is a high-speed processing circuit for this processing, and (225) is a buffer RAM.

ここで、小領域画像とは、同一色で囲まれる領域の絵素
数がN以下の場合を言うものとする。従って、小領域の
孤立画像やノイズも含まれる。Nはユーザが任意に設定
できる。この例では、■≦N≦64の範囲で任意に設定
できるようになっている。
Here, the term "small area image" refers to a case where the number of picture elements in an area surrounded by the same color is N or less. Therefore, isolated images of small areas and noise are also included. N can be set arbitrarily by the user. In this example, it can be set arbitrarily within the range ■≦N≦64.

第3図Aはカーソルによって指定された画像データ(入
力画@!領領域して示す)の指示領域(11)を示し、
指示領域(11)内に存在する所定の色を持つ複数の領
域(12)〜(16)のうち、小領域画像(14) 、
  (16)が存在する場合、この領域が自動的に検出
されたのち除去される。小領域除去後の入力画像は、第
3図Bのようになる。
FIG. 3A shows the designated area (11) of the image data (indicated as input image @! area) specified by the cursor,
Among the plurality of regions (12) to (16) having a predetermined color existing in the designated region (11), a small region image (14),
(16), this region is automatically detected and removed. The input image after small area removal becomes as shown in FIG. 3B.

第4図は小画像領域の除去処理の一例を示すフローチャ
ートである。
FIG. 4 is a flowchart showing an example of small image area removal processing.

制御プログラムがスタートし、小領域画像除去処理のた
めのメニューが選択されたことがステップ(20)で判
断されると、画像除去領域の変更、すなわちNの設定変
更の有無がステップ(21)でチェックされ、変更があ
った場合には、ステップ(23)で再設定され、再設定
終了後又は設定変更がないと、ステップ(23)でカー
ソルによる処理領域が設定される。
When the control program starts and it is determined in step (20) that the menu for small area image removal processing has been selected, it is determined in step (21) whether or not to change the image removal area, that is, change the setting of N. If it is checked and there is a change, it is reset in step (23), and after the reset is completed or if there is no change in the setting, the processing area by the cursor is set in step (23).

カーソルによって処理領域が設定されると、ステップ(
30)でこのカーソルで囲まれる領域内での小領域画像
の除去処理が行われる。
Once the processing area is set by the cursor, the step (
In step 30), the small area image within the area surrounded by this cursor is removed.

この除去処理ステップ(30)は第5図に示すようなサ
ブルーチンとして構成される。
This removal processing step (30) is structured as a subroutine as shown in FIG.

サブルーチン(30)がコールされると、画像除去領域
内での未処理画@!領域が存在するかが、ステップ(3
1)でチェックされる。例えば、第3図Aに示すように
複数の領域(12)〜(16)が存在する場合には各領
域毎に、画像領域の処理の有無がチェックされ、未処理
の画像領域が存在する場合には、ステップ(32)でそ
の領域内の絵素数がカウントされ、ステップ(33)で
カウント数nの大小が判別される。
When the subroutine (30) is called, the unprocessed image @! Step (3)
1) is checked. For example, if there are multiple regions (12) to (16) as shown in FIG. 3A, the presence or absence of processing of the image region is checked for each region, and if there is an unprocessed image region, In step (32), the number of picture elements in the area is counted, and in step (33), the size of the counted number n is determined.

カウント数nがN以下である場合には、その領域を小領
域画像とみなし、ステップ(40)のサブルーチンで外
周追跡処理及び変換色指定処理が実行される。変換色が
指定されると、ステップ(35)でその処理領域の色を
指定された色に変換処理してから、ステップ(36)で
処理済みフラグをセットし、そののちステップ(31)
に戻って再度同様な処理が未処理領域がなくなるまで実
行される。
If the count number n is less than or equal to N, the area is regarded as a small area image, and outer circumference tracking processing and conversion color designation processing are executed in the subroutine of step (40). When a conversion color is specified, the color of the processing area is converted to the specified color in step (35), a processed flag is set in step (36), and then step (31) is performed.
The process returns to , and the same process is executed again until there are no more unprocessed areas.

第6図は外周追跡処理及び変換色指定処理のだめのサブ
ルーチン(40)を示す。
FIG. 6 shows a subroutine (40) for outer circumference tracking processing and conversion color designation processing.

まず、ステップ(41)において、処理領域における外
周追跡のスタート点が決定される。スタート点は、処理
領域が接する水平及び垂直走査方向を基準にしてその最
初の座標に設定される(第7図参照)。
First, in step (41), a starting point for outer circumferential tracking in the processing area is determined. The starting point is set at the first coordinate of the processing area with respect to the horizontal and vertical scanning directions that it touches (see Figure 7).

このスタート点Pが決定されると、このスタート点Pを
囲む上下左右の4つの絵素領域の同一の色の数がステッ
プ(42)でカウントされる。カウントが終了すると、
外面追跡点Pは第7図の矢印で示す方向に移動し、その
点での色がカウントされる(ステップ(43) )。
Once this starting point P is determined, the number of identical colors in the four picture element areas on the upper, lower, left and right sides surrounding this starting point P is counted in step (42). When the count is finished,
The outer surface tracking point P moves in the direction indicated by the arrow in FIG. 7, and the colors at that point are counted (step (43)).

外周追跡点Pはステップ(44)でスタート点に戻った
かどうかがチェックされ、そうでなければステップ(4
2)に戻り、処理領域の外周の色が順次決定される。外
周追跡点Pがスタート点に戻ると、外周追跡点を囲む色
の内、最も多く現れた色を処理領域の指定色として決定
しくステップ(45) )第5図のステップ(35)に
リターンする。
The outer tracking point P is checked in step (44) to see if it has returned to the starting point, and if not, it is returned to the starting point in step (44).
Returning to step 2), the colors of the outer periphery of the processing area are sequentially determined. When the outer tracking point P returns to the starting point, the color that appears most frequently among the colors surrounding the outer tracking point is determined as the designated color of the processing area (step (45)). Return to step (35) in FIG. 5. .

これによって、ステップ(35)で処理領域、すなわち
小画像領域の色が上述の指定色に変換されることになる
As a result, in step (35), the color of the processing area, that is, the small image area, is converted to the above-mentioned specified color.

このような一連の処理で小領域画像は指定された色に変
換され、第3図Aの入力画像は同図Bのような画像に変
換される。すなわち、結果的には、このような画像処理
で小領域画像が除去されると共に、除去された領域の色
が上述の指定色で塗りつふされたことになる。
Through this series of processing, the small area image is converted into a designated color, and the input image shown in FIG. 3A is converted into an image like that shown in FIG. 3B. That is, as a result, the small area image is removed by such image processing, and the color of the removed area is filled in with the above specified color.

G3小領域画像除去処理の他の例の説明ところで、第8
図Aに示すように、小領域画像が他の画像領域(17)
と(18)の間に挟まった状態で存在する場合で、しか
も一方の画像領域(I7)に接する長さが他方の画像領
域(18)に接する長さよりも長いときには、画像領域
(17)の色の方が優位に立つため、上述した一連の画
像処理によると、第8図Bに示すような状態に処理され
、非常に不自然な処理結果となってしまう。
Explanation of another example of G3 small area image removal process By the way, the eighth
As shown in Figure A, the small area image is located in another image area (17).
and (18), and the length of contact with one image area (I7) is longer than the length of contact with the other image area (18), the length of contact with image area (17) Since color is more dominant, the series of image processing described above results in processing as shown in FIG. 8B, resulting in a very unnatural processing result.

このような場合には、同図Cに示すように処理された方
が好ましい。
In such a case, it is preferable to process as shown in FIG.

同図Cに示すような小領域画像の除去処理は、小領域画
像内の1点の絵素(処理点の絵素)の色を、 k、l域境界点に存在するある色の全てA:数 のように処理点からの小領域画像の境界までの距離の関
数として算出し、領域境界点に存在する色について実行
された色ごとの算出データの総和の大小から処理点の絵
素の色を決定すればよい。算出された色で変換すれば、
第9図の各画像境界に近似した領域が新たに求められる
ので、小領域画像を除去しても、現入方画像の特徴を損
なうことのない画像処理を実現できる。
In the removal process of a small area image as shown in C in the same figure, the color of one pixel (picture element at the processing point) in the small area image is changed to A for all colors existing at the k and l area boundary points. : Calculated as a function of the distance from the processing point to the boundary of the small area image, like a number, and calculate the pixel of the processing point from the size of the sum of the calculation data for each color executed for the colors existing at the area boundary point. All you have to do is decide on the color. If you convert using the calculated color,
Since regions approximate to each image boundary in FIG. 9 are newly found, image processing can be realized without damaging the characteristics of the current image even if the small region image is removed.

処理点の色の算出は第10図に示すように、処理点の絵
素を通る水平及び垂直軸と画像領域との交点の距離から
算出してもよい。こめ簡易形の算出方法は、第9図の処
理よりも雑になるが、第8図Bの処理よりは画像処理の
不自然さがなく、しがもその画像処理は第9図より簡易
化される。
As shown in FIG. 10, the color of the processing point may be calculated from the distance of the intersection of the horizontal and vertical axes passing through the picture element of the processing point and the image area. Although the calculation method for the simplified form is more complicated than the process shown in Figure 9, the image processing is less unnatural than the process shown in Figure 8B, and the image processing is simpler than that shown in Figure 9. be done.

第11図以下の画像処理は、第9図の処理を実現するた
めの具体例である。
The image processing shown in FIG. 11 and subsequent figures is a specific example for realizing the processing shown in FIG.

この場合の小領域除去のための処理ルーチン(30)は
第11図に示すようになり、第5図の場合と比較すると
、ステップ(5o)のサブルーチンが相違するだけであ
る。このサブルーチン(5o)は処理点の色決定処理ス
テップである。
The processing routine (30) for small area removal in this case is as shown in FIG. 11, and compared to the case in FIG. 5, only the subroutine of step (5o) is different. This subroutine (5o) is a processing step for determining the color of the processing point.

第12図はこのサブルーチン(50)の−例を示し、サ
ブルーチン(50)がコールされると、まず外周追跡に
よるデータテーブル作成の処理ステップ(サブルーチン
構成)  (60)に移り、処理点の絵素における色決
定と、この絵素と小領域画像の境界までの距離が算出さ
れる。
FIG. 12 shows an example of this subroutine (50). When the subroutine (50) is called, the process first moves to the processing step (subroutine configuration) (60) of creating a data table by tracking the outer circumference, and The color is determined at , and the distance between this picture element and the boundary of the small area image is calculated.

データテーブルの作成が終了すると、ステ、7プ(51
)で小領域画像内の未処理点の有無がチェックされ、未
処理点が存在する場合には、ステップ(70)で上述の
データテーブルを使用して処理点の絵素の指定色が決定
される。このステップ(6o)もサブルーチン構成であ
る。
When the creation of the data table is complete, go to Step 7 (51).
), the presence or absence of an unprocessed point in the small area image is checked, and if an unprocessed point exists, the specified color of the pixel at the processed point is determined in step (70) using the above-mentioned data table. Ru. This step (6o) also has a subroutine configuration.

変換色を決定したのちはステップ(52)でその処理点
の絵素の色が上述のステップ(70)で算出された指定
の色に変換されると共に、処理フラグがセントされる。
After determining the conversion color, in step (52), the color of the pixel at the processing point is converted to the specified color calculated in step (70) described above, and a processing flag is set.

このような走査が終了すると、第11図のステップ(3
6)に戻る。
When such scanning is completed, step (3) in FIG.
Return to 6).

第13図に示すサブルーチン(60)では処理点での絵
素の色が演算処理によって指定される。すなわち、ステ
ップ(61)で第7図に示す外周追跡点Pが設定され、
ステップ(62)でその外周追跡点Pの色と、この外周
追跡点Pの座標がデータテーブルにセットされる。
In the subroutine (60) shown in FIG. 13, the color of the picture element at the processing point is designated by arithmetic processing. That is, in step (61), the outer circumferential tracking point P shown in FIG. 7 is set,
In step (62), the color of the outer circumference tracking point P and the coordinates of this outer circumference tracking point P are set in the data table.

次にステップ(63)において、外周追跡点Pを時計方
向に1つ移動させ、ステップ(64)でその移動点が外
周追跡点のスタート点でないことが判断されると、再び
ステップ(62)に戻って移動した外周追跡点Pにおけ
る色とその座標がデータテーブルにセットされる。
Next, in step (63), the outer circumferential tracking point P is moved one position clockwise, and if it is determined in step (64) that the moving point is not the starting point of the outer circumferential tracking point, the process returns to step (62). The color and its coordinates at the outer circumferential tracking point P that has been moved back are set in the data table.

第15図はデータテーブルの一例を示し、外周追跡点の
色と、その点の座標(X、Y座標)が、各外周追跡点ご
とにセントされる。
FIG. 15 shows an example of a data table, in which the color of the outer circumferential tracking point and the coordinates (X, Y coordinates) of that point are marked for each outer circumferential tracking point.

このようなデータテーブル作成処理が全ての外周追跡点
で実行され、外周追跡点Pがスタート点に戻ると、デー
タテーブルはエンド・オブ・テーブルとなり、ステップ
(51)にリターンする。
Such a data table creation process is executed at all the outer circumference tracking points, and when the outer circumference tracking point P returns to the starting point, the data table becomes an end of table, and the process returns to step (51).

第14図はデータテーブルを使用して処理点の絵素の色
を、処理点の座標と外周追跡点の座標から決定する処理
ステップ(70)の−例であって、まずステップ(71
)でヒストグラムを初期化したのち、ステップ(72)
でデータテーブルにセットされたデータの有無がチェッ
クされ、データが存在する場合には、ステップ(73)
で処理点の座標と外周追跡点の座標から、処理点とその
外周追跡点の距離が算出されると共に、この距離と常数
Aの比Zが算出される。
FIG. 14 is an example of a processing step (70) in which the color of a pixel at a processing point is determined from the coordinates of the processing point and the coordinates of the outer tracking point using a data table.
), then step (72)
The presence or absence of data set in the data table is checked in step (73) if the data exists.
From the coordinates of the processing point and the coordinates of the outer tracking point, the distance between the processing point and the outer tracking point is calculated, and the ratio Z between this distance and the constant A is calculated.

この比Zはステップ(74)でヒストグラムにセットさ
れ、セットされるとステップ(72)に戻り、同様の処
理が各外周追跡点ごとに実行されて上述のヒストグラム
にセットされたデータに加算される。この加算は外周追
跡点の同一の色ごとに実行される。従って、このような
一連の処理は、fl1式を算出する処理となる。
This ratio Z is set in the histogram in step (74), and once set, the process returns to step (72), where the same process is executed for each outer circumferential tracking point and added to the data set in the above-mentioned histogram. . This addition is performed for each outer tracking point of the same color. Therefore, such a series of processes is a process for calculating the fl1 formula.

さて、上述の比Zは処理点の絵素がどの画像領域に接近
しているかを示すものであるから、処理点の絵素に対す
る各画像領域の色における(1)式の算出結果を判断す
ることによって処理点の絵素の色をどの画像領域の色に
変換すれば、現入力画像の特徴を損なうことなく変換で
きるかを知ることができる。
Now, since the ratio Z mentioned above indicates which image area the pixel at the processing point is close to, the calculation result of equation (1) for the color of each image area with respect to the pixel at the processing point is determined. By doing this, it is possible to know to which image area the color of the pixel at the processing point should be converted to the color of the current input image without impairing the characteristics of the current input image.

そのため、小画像領域内の全ての絵素に対して上述の処
理を実行したのち、ステップ(75)でヒストグラムの
データ(各色ごとの(1)式のデータ)のうち最大のデ
ータをもつ色がその処理点の絵素の色として使用される
Therefore, after performing the above processing on all picture elements in the small image area, the color with the largest data among the histogram data (data in equation (1) for each color) is selected in step (75). It is used as the color of the pixel at that processing point.

例えば、第9図の任意の絵素Qiについて注目すると、
絵素Qiにおける領域(17)のデータの総和を71、
領域(18)のデータの総和を22、領域(19)のデ
ータの総和を73とすれば、この絵素Qiは領域(17
)に一番接近しているので、Z 1> 23  > 2
2 のような関係となる。従って、絵素Qiの色は領域(1
7)の色に指定される。
For example, if we pay attention to an arbitrary picture element Qi in FIG.
The total sum of data in area (17) in picture element Qi is 71,
If the sum of data in area (18) is 22 and the sum of data in area (19) is 73, then this picture element Qi is in area (17).
), so Z 1 > 23 > 2
The relationship is as shown in 2. Therefore, the color of picture element Qi is the area (1
7) is specified as the color.

このような色変換処理は小領域(14)に含まれる全て
の絵素に対して実行される。
Such color conversion processing is executed for all picture elements included in the small area (14).

このようなことから、第8図Aに示すような入力画像の
場合には、上述の演算結果により、同図Bの破線より左
側の小領域画像が画像領域(17)の色に塗りつぶされ
、右側の小領域画像が画像領域(18)の色に塗りつぶ
されることになるから、上述の小領域画像除去処理を行
うと、同図Cに示すような画像に変換されることになる
For this reason, in the case of an input image as shown in FIG. 8A, the small area image to the left of the broken line in FIG. Since the small area image on the right side will be filled in with the color of the image area (18), if the above-mentioned small area image removal process is performed, it will be converted into an image as shown in FIG.

従って、第8図Bに示すような不自然な画像処理を大幅
に改善できる。
Therefore, unnatural image processing as shown in FIG. 8B can be significantly improved.

以上のようにしてビデオRAM(212)にストアされ
た冗長データ削減処理後の画像データについてはタブレ
ット(216)による入力走査によりさらに不用画像部
分の塗りつぶし等のマニュアル修正がなされ、その結果
としての画像データは、マイクロコンピュータ(201
’)のROM(203)のプログラムに従って前述した
5種類の基本幾何図形からなる図形コードと色、大きさ
及びその座標位置等を示す属性コードからなるNAPL
PS方式のコードにエンコードされ、そのエンコードさ
れたコードがRAM(215)に書き込まれる。さらに
、場合に応じてインターフェース(222) を通じて
、このNAPl、PSコードの画像データがデータ画像
ファイルとしてフロッピーディスク(217)にストア
される。
The image data after the redundant data reduction process stored in the video RAM (212) as described above is further manually corrected by filling in unnecessary image parts by input scanning with the tablet (216), and the resulting image is The data is a microcomputer (201
NAPL consists of a figure code consisting of the above-mentioned five types of basic geometric figures and an attribute code indicating color, size, coordinate position, etc. according to the program in the ROM (203) of
It is encoded into a PS system code, and the encoded code is written into the RAM (215). Furthermore, the image data of this NAP1 and PS code is stored as a data image file on the floppy disk (217) through the interface (222) depending on the case.

上述では、入力画像情報をNAPLPSコードに変換す
る場合の処理装置に通用したが、入力画像を基本的幾何
学図形に分けて記述するような画像変換処理であればそ
の全てに通用できる。従って、上述の他にPRES置 
、 5EPT、 CAPTENシステムなどのビデオテ
ックス画像処理装置にこの発明を適用できる。
In the above description, the present invention is applicable to a processing device that converts input image information into NAPLPS code, but it is also applicable to any image conversion process that describes an input image by dividing it into basic geometric figures. Therefore, in addition to the above, PRES
The present invention can be applied to videotex image processing devices such as , 5EPT, and CAPTEN systems.

H発明の詳細 な説明したように、この発明では入力画像をデジタル化
してNAPLPSコードのような所定のビデオテックス
画像データに変換する場合、入力画像情報からカーソル
で指定された画像領域に存在する小領域画像をこれに接
する画像領域との相互の関係を勘案して除去すると共に
、除去された領域の色をこの小領域画像に接する他の画
像領域の色に対応させて変換するようにしたものである
As described in detail of the invention H, in this invention, when an input image is digitized and converted into predetermined videotex image data such as NAPLPS code, small objects existing in the image area specified by the cursor are extracted from the input image information. A region image is removed by taking into consideration the mutual relationship with the adjacent image region, and the color of the removed region is converted to correspond to the color of other image regions adjacent to this small region image. It is.

そのため、この発明ではNAPLPSコード等に変換す
る場合のコード量をこのような処理を行わないときより
も大幅に削減することができる。これに加えて、現入力
画像の特徴を大幅に損なうことなく小領域画像除去でき
るから、より自然な状態で画像処理を実現できる。
Therefore, according to the present invention, the amount of code when converting to NAPLPS code or the like can be significantly reduced compared to when such processing is not performed. In addition, since small area images can be removed without significantly impairing the characteristics of the current input image, image processing can be realized in a more natural state.

従って、この発明は上述したNAPLPSコード変換な
どの前処理に通用して極めて好適である。
Therefore, the present invention is extremely suitable for use in preprocessing such as the above-mentioned NAPLPS code conversion.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図はこの発明に係る画像処理装置の一例を示す系統
図、第2図は第1図をさらに具体化したこの発明の要部
の一例を示す系統図、第3図は小画像領域の除去処理の
一例を示す説明図、第4図〜第6図は小画像領域処理動
作の一例を示すフローチャート、第7図は外周追跡操作
の説明図、第8図〜第10図はこの発明の更に他の例の
説明に供する説明図、第11図〜第14図はその場合の
小画像領域除去動作の一例を示すフローチャート、第1
5図はデータテーブルの一例を示す説明図である。 (1)はビデオRAM121は小領域画像除去のための
処理手段、(3)はディスプレー、(5)は座標入力手
段、(14) 、  (16)は小領域画像、Pは外周
追跡点である。 同  松隈秀盛″1″ 第3図^     第3図B
FIG. 1 is a system diagram showing an example of an image processing device according to the present invention, FIG. 2 is a system diagram showing an example of the main part of the invention that further embodies FIG. 1, and FIG. An explanatory diagram showing an example of a removal process, FIGS. 4 to 6 are flowcharts showing an example of a small image area processing operation, FIG. 7 is an explanatory diagram of an outer circumference tracking operation, and FIGS. FIGS. 11 to 14 are explanatory diagrams for explaining other examples, and FIGS.
FIG. 5 is an explanatory diagram showing an example of a data table. In (1), the video RAM 121 is a processing means for removing small area images, (3) is a display, (5) is a coordinate input means, (14) and (16) are small area images, and P is an outer circumferential tracking point. . Hidemori Matsukuma ``1'' Figure 3 ^ Figure 3 B

Claims (1)

【特許請求の範囲】 ビデオカメラなどから出力された画像信号がデジタル変
換された上で小領域画像除去手段に供給され、 この除去手段では、カーソルで特定された領域内に存在
する小領域画像に対し、その外周を追跡して、その外周
に最も多く現れた色を検出し、上記小領域画像の色を上
記検出色のいずれかに変換することによって、上記小領
域画像が除去されるようになされた画像処理装置。
[Claims] An image signal output from a video camera or the like is digitally converted and then supplied to a small area image removal means, which eliminates the small area image existing within the area specified by the cursor. On the other hand, the small area image can be removed by tracking its outer periphery, detecting the color that appears most often on the outer periphery, and converting the color of the small area image to one of the detected colors. Image processing device.
JP60157796A 1985-07-17 1985-07-17 Image processing device Expired - Fee Related JPH0821072B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP60157796A JPH0821072B2 (en) 1985-07-17 1985-07-17 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP60157796A JPH0821072B2 (en) 1985-07-17 1985-07-17 Image processing device

Publications (2)

Publication Number Publication Date
JPS6218883A true JPS6218883A (en) 1987-01-27
JPH0821072B2 JPH0821072B2 (en) 1996-03-04

Family

ID=15657472

Family Applications (1)

Application Number Title Priority Date Filing Date
JP60157796A Expired - Fee Related JPH0821072B2 (en) 1985-07-17 1985-07-17 Image processing device

Country Status (1)

Country Link
JP (1) JPH0821072B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS4888843A (en) * 1972-02-23 1973-11-21
JPS5533348A (en) * 1978-08-31 1980-03-08 Fuji Xerox Co Ltd Noise elimination system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS4888843A (en) * 1972-02-23 1973-11-21
JPS5533348A (en) * 1978-08-31 1980-03-08 Fuji Xerox Co Ltd Noise elimination system

Also Published As

Publication number Publication date
JPH0821072B2 (en) 1996-03-04

Similar Documents

Publication Publication Date Title
JP3720425B2 (en) Information processing apparatus and method
JPS6218883A (en) Image processor
US5227770A (en) Electronic boundary generation
JPS5938612B2 (en) information input device
EP0439333B1 (en) Electronic image modification
JPH06301792A (en) Texture mapping device
EP0441499A2 (en) Electronic brush generation
JPH0720240B2 (en) Image creation device
JPH06100906B2 (en) Character processing method
JPH02199579A (en) Method of forming animation
JPS62170287A (en) Apparatus for forming stitch data of embroidering machine
JPH05342340A (en) Method for picture processing and device therefor
JPS63241625A (en) Line drawing input device
JPS6226581A (en) Picture processor
JPS61214679A (en) Picture data forming device
JPH0763185B2 (en) Image processing device
JPS6145363A (en) Drawing producer
JPH04167080A (en) Image processor
JPS61214672A (en) Picture encoder
CN117453082A (en) Display method of selected area on virtual desktop and cloud desktop system
JPH0793524A (en) Picture processor
JPS60258680A (en) Image processor
JPH0465429B2 (en)
JPH0546757B2 (en)
JPS63184474A (en) Picture processing unit

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees