JP2625452B2 - Image data encoding and decoding methods - Google Patents
Image data encoding and decoding methodsInfo
- Publication number
- JP2625452B2 JP2625452B2 JP30455287A JP30455287A JP2625452B2 JP 2625452 B2 JP2625452 B2 JP 2625452B2 JP 30455287 A JP30455287 A JP 30455287A JP 30455287 A JP30455287 A JP 30455287A JP 2625452 B2 JP2625452 B2 JP 2625452B2
- Authority
- JP
- Japan
- Prior art keywords
- difference
- coordinate value
- code
- prediction point
- error
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Description
【発明の詳細な説明】 (産業上の利用分野) 本発明は手書きの文字や図形等の描画像を表わす一連
の座標値を効率良く符号化及び復号する方式に関するも
のである。Description: TECHNICAL FIELD The present invention relates to a method for efficiently encoding and decoding a series of coordinate values representing a drawn image such as a handwritten character or a graphic.
(従来の技術) 従来より、デジタイザや該デジタイザと同様な原理の
タブレットを備えた電子黒板装置は、手書きの文字や図
形等の描画像を表わす一連の座標値を順次検出し、出力
する如くなしていた。(Prior Art) Conventionally, an electronic blackboard device equipped with a digitizer and a tablet having the same principle as the digitizer has been configured to sequentially detect and output a series of coordinate values representing a drawn image of a handwritten character or a figure. I was
前記デジタイザや電子黒板装置を用いてテレビ会議シ
ステム等を構成する場合、前記得られた一連の座標値を
電話回線等を介してリアルタイムで伝送する必要があ
る。When a video conference system or the like is configured using the digitizer or the electronic blackboard device, it is necessary to transmit the obtained series of coordinate values in real time via a telephone line or the like.
この際、前記一連の座標値をそのまま伝送することも
できるが、伝送すべきデータ量が膨大となり、特に安価
で低速なモデムを用いた場合、伝送に要する時間が長く
なるため、通常、データ量を圧縮して伝送するようにな
していた。At this time, the series of coordinate values can be transmitted as they are, but the amount of data to be transmitted becomes enormous, and particularly when an inexpensive and low-speed modem is used, the time required for transmission becomes longer. Was compressed and transmitted.
従来のこの種のデータ圧縮方式として差分法というも
のがあった。As a conventional data compression method of this type, there has been a difference method.
これは送信側において、前回の座標検出の際に得られ
た座標値(前座標値)と、前々回の座標検出の際に得ら
れた座標値との差分を算出し、該差分と前座標値とを加
算した値を予測点の座標値とし、該予測点の座標値と実
際に得られた座標値との誤差を符号化して伝送し、受信
側では送信側と同様にして算出した予測点の座標値と受
信データを復号して得られた誤差とを加算して実際に得
られた座標値を再生するものであった。This is because the transmitting side calculates the difference between the coordinate value (previous coordinate value) obtained at the previous coordinate detection and the coordinate value obtained at the last two coordinate detections, and calculates the difference and the previous coordinate value. Is calculated as the coordinate value of the predicted point, and the error between the coordinate value of the predicted point and the actually obtained coordinate value is encoded and transmitted. And the error obtained by decoding the received data is added to reproduce the actually obtained coordinate value.
(発明が解決しようとする問題点) しかしながら、前記従来の方式では等速直線運動に基
づく画像、例えば板面上に定規を当てて引いた直線等に
ついては予測点の座標値と実際の座標値との誤差が小さ
く、有効なデータ圧縮をなし得るが、実際の描画像中に
は等速直線運動に規づく画像は少なく、従って、実際に
はあまり大きなデータ圧縮の効果は得られず、特に電子
黒板装置の広い板面上においてマーカを素早く動かして
描画した時のように大きな誤差が連続的に得られる場合
には著しくデータの伝送が遅れ、リアルタイム性が損わ
れるという問題点があった。(Problems to be Solved by the Invention) However, in the above-mentioned conventional method, for an image based on constant velocity linear motion, for example, for a straight line drawn with a ruler on a plate surface, a coordinate value of a predicted point and an actual coordinate value Error is small, and effective data compression can be achieved.However, there are few images based on constant velocity linear motion in actual drawn images, and therefore, in practice, a very large data compression effect is not obtained. When large errors are continuously obtained, such as when a marker is quickly moved and drawn on a wide board of an electronic blackboard device, there has been a problem that data transmission is significantly delayed and real-time performance is impaired.
本発明は前記問題点を除去し、誤差の小さい予測点を
求めることができ、画像データを効率良く圧縮すること
のできる画像データの符号化及び復号方式を提供するこ
とを目的とする。SUMMARY OF THE INVENTION It is an object of the present invention to provide an image data encoding and decoding method capable of eliminating the above-mentioned problems, obtaining a prediction point with a small error, and efficiently compressing the image data.
(問題点を解決するための手段) 第1図は本願の第1発明の画像データの符号化方式の
概要を示すもので、現在の座標値の1つ前の座標値(以
下、前座標値と称す。)と2つ前の座標値(以下、前々
座標値と称す。)との差分を算出する差分算出手段1
と、該差分と前座標値とを加算して第1予測点の座標値
を算出する第1予測点算出手段2と、前記差分とその1
つ前の差分との差(以下、差分差と称す。)を算出する
差分差算出手段3と、該差分差と第1予測点の座標値と
を加算して第2予測点の座標値を算出する第2予測点算
出手段4と、現在の座標値と第2予測点の座標値との誤
差を算出する誤差算出手段5と、該誤差を符号化する符
号化手段6とからなり、また、第2図は本願の第2発明
の画像データの復号方式の概要を示すもので、符号化デ
ータを復号して誤差を求める復号化手段7と、前座標値
と前々座標値との差分を算出する差分算出手段1と、該
素分と前座標値とを加算して第1予測点の座標値を算出
する第1予測点算出手段2と、前記差分とその1つ前の
差分との差分差を算出する差分差算出手段3と、該差分
差と第1予測点の座標値とを加算して第2予測点の座標
値を算出する第2予測点算出手段4と、第2予測点の座
標値と誤差とを加算して現在の座標値を求める座標値算
出手段8とからなっている。(Means for Solving the Problems) FIG. 1 shows an outline of an image data encoding method according to the first invention of the present application, in which a coordinate value immediately before a current coordinate value (hereinafter referred to as a preceding coordinate value). Difference calculating means 1 for calculating a difference between the previous coordinate value (hereinafter referred to as the coordinate value before the previous one).
A first predicted point calculating means 2 for calculating the coordinate value of the first predicted point by adding the difference and the previous coordinate value;
A difference difference calculating means 3 for calculating a difference from the immediately preceding difference (hereinafter referred to as a difference difference), and adding the difference difference and the coordinate value of the first prediction point to obtain the coordinate value of the second prediction point. A second prediction point calculating means 4 for calculating; an error calculating means 5 for calculating an error between the current coordinate value and the coordinate value of the second prediction point; and an encoding means 6 for encoding the error. FIG. 2 shows an outline of a decoding method for image data according to the second invention of the present application, in which a decoding means 7 for decoding encoded data to obtain an error, and a difference between a preceding coordinate value and a preceding coordinate value. , A first prediction point calculation means 2 for adding the element and the previous coordinate value to calculate a coordinate value of the first prediction point, and a difference between the difference and the immediately preceding difference. A difference difference calculating means 3 for calculating a difference difference between the first prediction point and a second difference value for calculating a coordinate value of the second prediction point by adding the difference difference and the coordinate value of the first prediction point. A measuring point calculation unit 4 consists of a coordinate value calculating means 8 which adds the coordinate value and the error of the second predicted point obtains the current coordinate values.
(作 用) 第1発明において、差分算出手段1は図示しない画像
入力装置等より入力される一連の座標値から送出しよう
としている座標値、即ち現在の座標値の前座標値と前々
座標値との差分を算出し、これを第1予測点算出手段2
及び差分差算出手段3へ送出する。(Operation) In the first invention, the difference calculating means 1 calculates a coordinate value to be transmitted from a series of coordinate values input from an image input device (not shown), that is, a coordinate value before and a coordinate value before the current coordinate value. Is calculated, and this is calculated by the first prediction point calculation means 2.
And to the difference calculating means 3.
第1予測算出手段2は前記差分と前座標値とを加算
し、第1予測点の座標値を算出し、これを第2予測点算
出手段4に送出する。The first prediction calculation means 2 adds the difference and the previous coordinate value to calculate the coordinate value of the first prediction point, and sends it to the second prediction point calculation means 4.
差分差算出手段3は前記差分とその1つの前の差分
(即ち、前々座標値とその1つ前の座標値との差分)と
の差分差を算出し、これを第2予測点算出手段4に送出
する。The difference difference calculating means 3 calculates a difference difference between the difference and the immediately preceding difference (that is, the difference between the two-preceding coordinate value and the immediately preceding coordinate value), and calculates the difference between the difference and the second predicted point calculating means. 4
第2予測点算出手段4は前記第1予測点の座標値と前
記差分差とを加算し、第2予測点の座標値を算出し、こ
れを誤差算出手段5へ送出する。The second prediction point calculation means 4 adds the coordinate value of the first prediction point and the difference difference, calculates the coordinate value of the second prediction point, and sends it to the error calculation means 5.
誤差算出手段5は現在の座標値と前記第2予測点の座
標値との誤差を算出し、これを符号化手段6に送出す
る。The error calculating means 5 calculates an error between the current coordinate value and the coordinate value of the second prediction point, and sends it to the encoding means 6.
符号化手段6は前記誤差を予め設定した規則に従って
符号化し、符号化データとなす。The encoding means 6 encodes the error according to a preset rule to form encoded data.
なお、初期状態において、前座標値及び前々座標値と
も現在の座標値、即ち最初の座標値と同一に設定され、
また、差分及びその1つ前の差分とも0に設定される。In the initial state, the previous coordinate value and the coordinate value before the previous coordinate value are set to the current coordinate value, that is, the same as the first coordinate value,
The difference and the immediately preceding difference are both set to zero.
また、第2発明において、現在の座標値に対応する符
号化データが復号化手段7に入力される直前であるとす
ると、後述する現在の座標値と同様にして座標値算出手
段8により算出される前座標値及び前々座標値が差分算
出手段1及び第1予測点算出手段2に供給されており、
これらによって前記同様に差分、差分差、第1予測点の
座標値及び第2予測点の座標値が算出され、該第2予測
点の座標値が座標値算出手段8に送出される。Further, in the second invention, assuming that the encoded data corresponding to the current coordinate value is immediately before being input to the decoding means 7, it is calculated by the coordinate value calculating means 8 in the same manner as the current coordinate value described later. The previous coordinate value and the previous coordinate value are supplied to the difference calculating means 1 and the first predicted point calculating means 2,
With these, the difference, the difference difference, the coordinate value of the first predicted point, and the coordinate value of the second predicted point are calculated in the same manner as described above, and the coordinate value of the second predicted point is sent to the coordinate value calculating means 8.
復号化手段7は前記符号化データを復号し、誤差に変
換し、座標値算出手段8に送出する。The decoding means 7 decodes the encoded data, converts it into an error, and sends it to the coordinate value calculating means 8.
座標値算出手段8は該誤差と前記第2予測点の座標値
とを加算し、現在の座標値を算出する。The coordinate value calculation means 8 adds the error and the coordinate value of the second prediction point to calculate a current coordinate value.
該座標値は画像データとして送出されるとともに差分
算出手段1及び第1予測点算出手段2に送出され、次の
第2予測点の座標値の算出に使用される。The coordinate values are sent as image data and sent to the difference calculation means 1 and the first prediction point calculation means 2 to be used for calculating the coordinate values of the next second prediction point.
なお、初期状態において、前座標値及び前々座標値と
も最初の座標値と同一に設定され、また、差分及びその
1つ前の差分とも0に設定される。In the initial state, both the previous coordinate value and the before-last coordinate value are set to be the same as the first coordinate value, and both the difference and the immediately preceding difference are set to 0.
(実施例) 第3図は本発明方式を適用した画像データの処理装置
の一実施例を示すもので、図中、11は画像入力装置、12
は画像処理装置、13は符号化装置、14は復号装置、15は
伝送装置、16はデータ回線、17は表示装置、18は出力装
置である。(Embodiment) FIG. 3 shows one embodiment of an image data processing apparatus to which the method of the present invention is applied.
Denotes an image processing device, 13 denotes an encoding device, 14 denotes a decoding device, 15 denotes a transmission device, 16 denotes a data line, 17 denotes a display device, and 18 denotes an output device.
画像入力装置11は、例えばデジタイザや電子黒板装置
等であり、手書きの文字や図形等の描画像を一定の時間
間隔でサンプリングした点(標本点)の座標値を画像処
理装置12及び符号化装置13に順次送出する。The image input device 11 is, for example, a digitizer or an electronic blackboard device. The image input device 11 converts the coordinate values of points (sample points) obtained by sampling a drawn image of a handwritten character, a figure, or the like at regular time intervals. Send to 13 sequentially.
符号化装置13は、前記座標値を後述する如くして符号
化データとなし、これを伝送装置15に送出する。The encoding device 13 converts the coordinate values into encoded data as described later, and sends the encoded data to the transmission device 15.
伝送装置15は、例えばモデム等であり、前記符号化デ
ータを変調し、これを電話回線等のデータ回線16を介し
て他の同様な画像データの処理装置に送出する。The transmission device 15 is, for example, a modem or the like, modulates the coded data, and sends it to another similar image data processing device via a data line 16 such as a telephone line.
また一方、他の同様な画像データの処理装置からデー
タ回線16を経て送られて来たデータは伝送装置15にて復
調され、符号化データとなり、復号装置14に送出され
る。On the other hand, data transmitted from another similar image data processing device via the data line 16 is demodulated by the transmission device 15, becomes encoded data, and is transmitted to the decoding device 14.
復号装置14は該符号化データを符号化の場合の逆の手
順により一連の座標値に復号し、画像処理装置12に送出
する。The decoding device 14 decodes the coded data into a series of coordinate values by the reverse procedure of the coding, and sends the data to the image processing device 12.
画像処理装置12は画像入力装置11又は復号装置14から
入力される座標値に基づいて画像を構成し、これをCRT
等の表示装置17に表示し、また、必要に応じてプロッタ
等の出力装置18によりハードコピー化する。The image processing device 12 forms an image based on the coordinate values input from the image input device 11 or the decoding device 14, and
And a hard copy by an output device 18 such as a plotter if necessary.
なお、画像入力装置11からは実際には座標値の外に各
種の命令を示すデータも出力されるが、これらはそのま
ま画像処理装置12及び符号化装置13に送出される。The image input device 11 actually outputs data indicating various commands in addition to the coordinate values, but these are sent to the image processing device 12 and the encoding device 13 as they are.
次に、符号化装置13における符号化のようすを詳細に
説明する。Next, the manner of encoding in the encoding device 13 will be described in detail.
第4図は符号化装置13をマイクロプロセッサで構成し
た場合のハードウェア構成を示すもので、図中、21は中
央処理装置(CPU)、22はリードオンメモリ(ROM)、23
はランダムアクセスメモリ(RAM)、24は入力ポート、2
5は出力ポート、26はバスである。FIG. 4 shows a hardware configuration when the encoding device 13 is constituted by a microprocessor. In the drawing, reference numeral 21 denotes a central processing unit (CPU), 22 denotes a read-on memory (ROM), 23
Is random access memory (RAM), 24 is input port, 2
5 is an output port and 26 is a bus.
ROM22内には第5図に示すフローチャートに従うプロ
グラムが内蔵され、また、RAM23には個のワークエリアX
i,Yi,Yi−1,Yi−1,AXi,AYi,dXj,dYj,dXj−1及びdYj−
1が設定されている。A program according to the flowchart shown in FIG. 5 is built in the ROM 22, and a work area X is stored in the RAM 23.
i, Yi, Yi−1, Yi−1, AXi, AYi, dXj, dYj, dXj−1 and dYj−
1 is set.
第6図は画像入力装置11における描画像の一例を示す
もので、図中、30は描画像の軌跡、P0,P1,P2,……Pk−
3,Pk−2,Pk−1,Pk,Pk+1,……PNは該軌跡30を一定の時
間間隔でサンプリングした標本点を示す。FIG. 6 shows an example of a drawn image in the image input device 11, in which 30 is the locus of the drawn image, and P0, P1, P2,.
3, Pk-2, Pk-1, Pk, Pk + 1,... PN indicate sample points obtained by sampling the trajectory 30 at fixed time intervals.
前記各標本点Pn(但し、n=0,1,2,……k−3,k−2,k
−1,k,k+1,……N)のx方向及びy方向の座標値(Xn,
Yn)は画像入力装置1から入力ポート24を介して順次入
力される。Each of the sample points Pn (where n = 0, 1, 2,..., K−3, k−2, k
-1, k, k + 1,... N) in the x and y directions (Xn,
Yn) are sequentially input from the image input device 1 via the input port 24.
最初の標本点P0の座標値(X0,Y0)が入力されると、
前記RAM23内のワークエリアをXi=Xi−1=X0,Yi=Yi−
1=Y0,dXj=dYj=0及びdXj−1=dYj−1=0に初期
化するとともに、符号化データとして前記座標値(X0,Y
0)(以下、これを全体座標値と称す。)をそのまま出
力する。When the coordinates (X0, Y0) of the first sample point P0 are input,
The work area in the RAM 23 is defined as Xi = Xi-1 = X0, Yi = Yi-
1 = Y0, dXj = dYj = 0 and dXj-1 = dYj-1 = 0, and the coordinate values (X0, Y
0) (hereinafter, this is referred to as a whole coordinate value) is output as it is.
また、2番目以降の任意の標本点Pk(Xk,Yk)に対し
ては以下に述べるような処理を行なう。The following processing is performed on the second and subsequent arbitrary sample points Pk (Xk, Yk).
まず、ワークエリアdXj−1,dYj−1にワークエリアdX
j,dYjのデータをそのまま格納し、ワークエリアdXj,dYj
にワークエリアXi,Yi及びXi−1,Yi−1の差、即ち dXj=Xi−Xi−1 ……(1) dYj=Yi−Yi−1 ……(2) を格納し、ワークエリアXi−1,Yi−1にワークエリアX
i,Yiのデータをそのまま格納し、ワークエリアAXi,AYi
にワークエリアXi−1,Yi−1及びdXj,dYjの和、即ち AXi=Xi−1+dXj ……(3) AYi=Yi−1+dYj ……(4) を格納するとともに、ワークエリアXi,Yiに新たなデー
タXk,Ykを格納する。First, the work areas dXj−1 and dYj−1 are stored in the work areas dXj−1 and dYj−1.
j, dYj data is stored as it is, and the work area dXj, dYj
And the difference between the work areas Xi, Yi and Xi−1, Yi−1, that is, dXj = Xi−Xi−1 (1) dYj = Yi−Yi−1 (2), and the work area Xi− 1, Work area X on Yi-1
i, Yi data is stored as is, and the work area AXi, AYi
And the sum of the work areas Xi−1, Yi−1 and dXj, dYj, that is, AXi = Xi−1 + dXj (3) AYi = Yi−1 + dYj (4), and a new work area Xi, Yi. Data Xk and Yk.
この時、ワークエリアXi−1,Yi−1には標本点Pkの1
つ前の標本点Pk−1の座標値(Xk−1,Yk−1)が格納さ
れ、また、ワークエリアAXi,AYiには標本点Pkに対応す
る第1予測点APkの座標値(AXk,AYk)が格納され、ま
た、ワークエリアdXj,dYjには標本点Pk−1並びに標本
点Pkの2つ前の標本点Pk−2の差分dXi,dYiが格納さ
れ、また、ワークエリアdXj−1,dXj−1には標本Pk−2
並びに標本点Pkの3つ前の標本点Pk−3の差分dX2,dY2
が格納される。At this time, the work area Xi-1 and Yi-1 have 1
The coordinate values (Xk-1, Yk-1) of the immediately preceding sample point Pk-1 are stored, and the work areas AXi, AYi have the coordinate values (AXk, AXk) of the first prediction point APk corresponding to the sample point Pk. AYk) is stored, and the work areas dXj and dYj store the sample points Pk-1 and the differences dXi and dYi between the sample points Pk-2 immediately before the sample points Pk and the work areas dXj-1. , dXj-1 contains the sample Pk-2
And the difference dX2, dY2 between the sample point Pk−3 before the sample point Pk
Is stored.
次に、ワークエリアdXj,dYj及びdXj−1,dYj−1のデ
ータ、即ちdX1,dY1及びdX2,dY2の差分aX,aYを求め、 aX=dXj−dXj−1=dX1−dX2 ……(5) aY=dYj−dYj−1=dY1−dY2 ……(6) 該差分差aX,aY及びワークエリアAXi,AYiのデータ、即
ちAXk,AYkの和を取り、標本点Pkに対応する第2予測点B
Pkの座標値(BXk,BYk)を求める。Next, the data of the work areas dXj, dYj and dXj−1, dYj−1, that is, the differences aX, aY of dX1, dY1 and dX2, dY2 are obtained, and aX = dXj−dXj−1 = dX1−dX2 (5) AY = dYj−dYj−1 = dY1−dY2 (6) The data of the difference difference aX, aY and the work area AXi, AYi, that is, the sum of AXk, AYk is taken, and the second prediction corresponding to the sample point Pk is taken. Point B
Find the coordinate value (BXk, BYk) of Pk.
BXk=AXi+aX=AXK+aX ……(7) BYk=AYi+aY=AYK+aY ……(8) 該第2予測点BPkの座標値(BXk,BYk)が標本点Pkに対
する最終的な予測点の座標値となる。第6図において、
第2予測点BPkは第1予測点APkより標本点Pkに近接して
いることがわかる。BXk = AXi + aX = AXK + aX (7) BYk = AYi + aY = AYK + aY (8) The coordinate value (BXk, BYk) of the second prediction point BPk is the coordinate value of the final prediction point with respect to the sample point Pk. In FIG.
It can be seen that the second prediction point BPk is closer to the sample point Pk than the first prediction point APk.
さらに、標本点Pkの座標値(Xk,Yk)及び第2予測点B
Pkの座標値(BXk,BYk)より、次のような誤差(ΔXk,Δ
Yk)を求める。Further, the coordinate value (Xk, Yk) of the sample point Pk and the second prediction point B
From the coordinate value of Pk (BXk, BYk), the following error (ΔXk, Δ
Yk).
ΔXk=Xk−BXk ……(9) ΔYk=Yk−BYk ……(10) 次に、前記誤差(ΔXk,ΔYk)を以下に述べるように
して符号化する。ΔXk = Xk−BXk (9) ΔYk = Yk−BYk (10) Next, the error (ΔXk, ΔYk) is encoded as described below.
まず、該誤差(ΔXk,ΔYk)の大きさが下記4つの範
囲のいずれに属するかを判定する。First, it is determined which of the following four ranges the magnitude of the error (ΔXk, ΔYk) belongs to.
I)−2≦ΔXk≦2且つ−2≦ΔYk≦2 II)(−2>ΔXk又はΔXk>2)且つ(−2>ΔYk又は
ΔYk>2)且つ(−4≦ΔXk≦4且つ−4≦ΔYk≦4) III)(−4>ΔXk又はΔXk>4)且つ(−4>ΔYk又
はΔYk>4)且つ(−8≦ΔXk≦8且つ−8≦ΔYk≦
8) IV)(−8>ΔXk又はΔXk>8)且つ(−8>ΔYk又は
ΔYk>8) 第7図は前記範囲I〜IVを表わしたもので、図中、31
は予測点、32は範囲Iに属するドット範囲、33は範囲II
に属するドット範囲、34は範囲IIIに属するドット範囲
であり、範囲IVに属するドット範囲はドット範囲34の外
側に図示しない部分に対応する。I) -2 ≦ ΔXk ≦ 2 and −2 ≦ ΔYk ≦ 2 II) (-2> ΔXk or ΔXk> 2) and (-2> ΔYk or ΔYk> 2) and (−4 ≦ ΔXk ≦ 4 and −4 ≦ ΔYk ≦ 4) III) (−4> ΔXk or ΔXk> 4) and (−4> ΔYk or ΔYk> 4) and (−8 ≦ ΔXk ≦ 8 and −8 ≦ ΔYk ≦
8) IV) (−8> ΔXk or ΔXk> 8) and (−8> ΔYk or ΔYk> 8) FIG. 7 shows the above ranges I to IV.
Is a prediction point, 32 is a dot range belonging to range I, 33 is a range II
The dot range belonging to the range III is a dot range belonging to the range III, and the dot range belonging to the range IV corresponds to a portion (not shown) outside the dot range.
前記範囲によって符号化のようすが異なる。 Encoding differs depending on the range.
まず、範囲Iの符号化(以下、モードI符号化と称
す。)について述べる。First, encoding of range I (hereinafter, referred to as mode I encoding) will be described.
第8図(a)はモードI符号化における範囲I内のド
ットとその位置を示す番号との対応を示すもので、図
中、×は予測点のドットを示し、●(黒丸)及び○(白
丸)は予測点に対して範囲I内のドットを示す。ここ
で、各ドットに付された番号0〜24は各ドットの位置を
示すものである。また、●は4ビットコード化されるド
ットを示し、○は6ビットコード化されるドットを示
す。FIG. 8 (a) shows the correspondence between the dots in the range I in the mode I encoding and the numbers indicating their positions. In the figure, x indicates the dot at the prediction point, and ● (black circle) and ○ ( (White circles) indicate dots within the range I with respect to the prediction points. Here, numbers 0 to 24 assigned to the dots indicate the positions of the dots. Also, ● indicates a dot that is coded in 4 bits, and ○ indicates a dot that is coded in 6 bits.
実際の符号化は標本点Pkの位置を示す番号mを前記誤
差ΔXk,ΔYkに基づいて下記(11)式より求め、 m=(ΔYk+2)・5+(ΔXk+2) ……(11) その番号mに対応するコードを第9図(a)に示す符
号化表に従って出力する。なお、第9図(a)中、コー
ド「1010」及び「1011」は後述するESC1及びESC2の識別
コードとして用いられ、また、コード「111111」は後述
するフラグ(スタート)として用いられる。In the actual encoding, a number m indicating the position of the sample point Pk is obtained from the following equation (11) based on the errors ΔXk and ΔYk, and m = (ΔYk + 2) · 5 + (ΔXk + 2) (11) The corresponding code is output according to the encoding table shown in FIG. 9 (a). In FIG. 9A, codes "1010" and "1011" are used as identification codes of ESC1 and ESC2 described later, and code "111111" is used as a flag (start) described later.
次に、範囲IIの符号化(以下、モードII符号化と称
す。)について述べる。Next, encoding of the range II (hereinafter, referred to as mode II encoding) will be described.
第8図(b)はモードII符号化における範囲II内のド
ットとその位置を示す番号との対応を示すもので、図
中、×は予測点のドットを示し、○は予測点に対して範
囲II内のドットを示す。ここで、各ドットに付された番
号0〜80は各ドットの位置を示すものである。FIG. 8 (b) shows the correspondence between the dots in the range II and the numbers indicating their positions in the mode II encoding. In the figure, x indicates the dot at the prediction point, and o indicates the dot at the prediction point. Show dots in range II. Here, the numbers 0 to 80 assigned to each dot indicate the position of each dot.
但し、ここでは前記モードIにおける符号化範囲内に
符号化を行なう必要がないので、番号20〜24,29〜33,38
〜42,47〜51,56〜60に対応するドットについては符号化
の必要がない。従って、実際に符号化しなければならな
い点の総数は 81−25=56 であり、6ビットコードで符号化することができる。However, here, since it is not necessary to perform encoding within the encoding range in the mode I, the numbers 20 to 24, 29 to 33, 38
There is no need to encode dots corresponding to ~ 42,47 ~ 51,56 ~ 60. Therefore, the total number of points that actually need to be coded is 81-25 = 56, and can be coded with a 6-bit code.
実際の符号化は標本点Pkの位置を示す番号mを前記誤
差ΔXk,ΔYkに基づいて下記(12)式より求め、 m=(ΔYk+4)・9+(ΔXk+4) ……(12) その番号mに対応するコードを第9図(b)に示す符
号化表に従って出力する。但し、この場合はモードI中
の6ビットコードと区別するため、前述したESC1識別コ
ードをその前に付加して出力する。In the actual encoding, a number m indicating the position of the sample point Pk is obtained from the following equation (12) based on the errors ΔXk and ΔYk, and m = (ΔYk + 4) · 9 + (ΔXk + 4) (12) The corresponding code is output according to the encoding table shown in FIG. 9 (b). However, in this case, in order to distinguish it from the 6-bit code in Mode I, the above-described ESC1 identification code is added before the output and output.
次に、範囲IIIと符号化(以下、モードIII符号化と称
す。)について述べる。Next, range III and encoding (hereinafter, referred to as mode III encoding) will be described.
第8図(c)はモードIII符号化における範囲III内の
ドットとその位置を示す番号との対応を示すもので、図
中、×は予測点のドットを示し、○は予測点に対して範
囲III内のドットを示す。ここで、各ドットに付された
番号0〜288は各ドットの位置を示すものである。FIG. 8 (c) shows the correspondence between the dots in the range III and the numbers indicating their positions in the mode III encoding. In the figure, x indicates the dot at the prediction point, and ○ indicates the dot at the prediction point. Shows dots within range III. Here, numbers 0 to 288 assigned to each dot indicate the position of each dot.
但し、ここでは前記モードI及びIIにおける符号化範
囲内の符号化を行なう必要がないので、番号72〜80,89
〜97,106〜114,123〜131,140〜148,157〜165,174〜182,
191〜199,208〜216に対応するドットについては符号化
の必要がない。従って、実際に符号化しなければならな
い点の総数は 289−81=208 であり、8ビットコードで符号化することができる。However, here, since it is not necessary to perform encoding within the encoding range in the modes I and II, the numbers 72 to 80, 89
~ 97,106 ~ 114,123 ~ 131,140 ~ 148,157 ~ 165,174 ~ 182,
The dots corresponding to 191 to 199 and 208 to 216 do not need to be encoded. Therefore, the total number of points that need to be actually encoded is 289−81 = 208, and it is possible to encode with an 8-bit code.
実際の符号化は標本点Pkの位置を示す番号mを前記誤
差ΔXk,ΔYkに基づいて下記(13)式より求め、 m=(ΔYk+8)・17+(ΔXk+8) ……(13) その番号mに対応するコードを第9図(c)に示す符
号化表に従って出力する。但し、この場合も他のモード
のコードと区別するため、前述したESC2の識別コードを
その前に付加して出力する。In actual encoding, a number m indicating the position of the sample point Pk is obtained from the following equation (13) based on the errors ΔXk and ΔYk, and m = (ΔYk + 8) · 17 + (ΔXk + 8) (13) The corresponding code is output according to the encoding table shown in FIG. 9 (c). However, in this case as well, in order to distinguish it from the codes of other modes, the above-mentioned ESC2 identification code is added before the output and output.
なお、範囲IVについては符号化不可として、フラグ
(エンド)を出力し、初期状態に戻す。It should be noted that for the range IV, encoding is disabled, a flag (end) is output, and the initial state is returned.
第10図(a)は前述した符号化処理によって構成さ
れ、出力ポート25より出力される1フレーム(256バイ
ト以下)の符号化データの全体の概要を示すもので、図
中、faはフラグ(スタート)、Cはコントロールバイ
ト、X0,Y0は最初の標本点の絶対座標値、Dは2番目以
降の標本点について符号化されたデータ、fbはフラグ
(エンド)である。FIG. 10 (a) shows an overview of the entire encoded data of one frame (256 bytes or less) outputted from the output port 25, which is constituted by the above-mentioned encoding process. (Start), C is a control byte, X0 and Y0 are absolute coordinate values of the first sample point, D is data encoded for the second and subsequent sample points, and fb is a flag (end).
また第10図(b)はデータDの一部を詳細に示したも
ので、図中、4ビットコード、6ビットコードは前記モ
ードIによる符合化コードを示し、また、ESC1識別コー
ドに続く6ビットコードは前記モードIIによる符号化コ
ードを示し、さらにまた、ESC2識別コードに続くビット
コードは前記モードIIIによる符号化コードを示す。FIG. 10 (b) shows a part of the data D in detail. In FIG. 10 (b), the 4-bit code and the 6-bit code indicate the coding codes according to the mode I, and 6 bits following the ESC1 identification code. The bit code indicates the encoded code according to the mode II, and the bit code following the ESC2 identification code indicates the encoded code according to the mode III.
通常、ペンダウンからペンアップまでの座標値は1個
又はそれ以上のフレームで構成される。なお、モードI
V、即ち符合化不可の場合はその直前までのデータが1
つのフレームとして構成され、その後のデータは新しい
フレームに組込まれる。Usually, the coordinate values from pen down to pen up are composed of one or more frames. Mode I
V, that is, if encoding is impossible, data up to immediately before is 1
One frame is formed, and the subsequent data is incorporated into a new frame.
なお、復号処理は前記符号化処理と逆のプロセスとな
るので、前記符号化処理を逆の手順で行なえば、符号化
データより誤差ΔXk,ΔYkを求めることができ、これか
ら前述したように一連の座標値を算出することができ
る。Since the decoding process is the reverse process of the encoding process, if the encoding process is performed in a reverse procedure, the errors ΔXk and ΔYk can be obtained from the encoded data. Coordinate values can be calculated.
(発明の効果) 以上説明したように本発明によれば、手書きの文字や
図形等の一連の画像データに対して、前座標値及び前々
座標値の差分、即ち描画像における速度を算出するとと
もに、該差分及びその1つ前の差分の差分差、即ち描画
像における加速度を算出し、これに基づいて予測点の座
標値を算出するようになしたので、実際の座標値により
近似した予測点の座標値を得ることができ、また、この
予測点の座標値と実際の座標値との誤差を符号化するよ
うになしたので、データ量を効率良く圧縮することがで
き、通信機能を備えた電子黒板装置等に用いて、大量の
データをリアルタイムで伝送することができる等の利点
がある。(Effects of the Invention) As described above, according to the present invention, the difference between the previous coordinate value and the coordinate value before the previous coordinate value, that is, the speed in the drawn image is calculated for a series of image data such as handwritten characters and figures. In addition, the difference between the difference and the immediately preceding difference, that is, the acceleration in the drawn image is calculated, and the coordinate value of the prediction point is calculated based on the difference. Since the coordinate values of the points can be obtained, and the error between the coordinate values of the predicted points and the actual coordinate values is coded, the data amount can be efficiently compressed, and the communication function can be improved. There is an advantage that a large amount of data can be transmitted in real time when used in an electronic blackboard device provided.
第1図は本発明の画像データの符号化方式の概要を示す
図、第2図は本発明の画像データを復号方式の概要を示
す図、第3図は本発明方式を適用した画像データの処理
装置の一実施例を示す図、第4図は符号化装置のハード
ウェア構成を示す図、第5図は符号化装置における処理
の流れ図、第6図は描画像の一例を示す図、第7図は符
号化範囲を示す図、第8図(a)(b)(c)は符号化
範囲I,II及びIII内のドットをその位置を示す番号との
対応をそれぞれ示す図、第9図(a)(b)(c)はモ
ードI,II及びIIIにおけるドット位置とコードとの対応
を示す図、第10図(a)は1フレームの符号化データの
全体の概要を示す図、第10図(b)はデータDの一部を
詳細に示す図である。 1……差分算出手段、2……第1予測点算出手段、3…
…差分差算出手段、4……第2予測点算出手段、5……
誤差算出手段、6……符号化手段、7……復号化手段、
8……座標値算出手段。FIG. 1 is a diagram showing an outline of an image data encoding system of the present invention, FIG. 2 is a diagram showing an outline of an image data decoding system of the present invention, and FIG. FIG. 4 is a diagram showing an embodiment of a processing device, FIG. 4 is a diagram showing a hardware configuration of an encoding device, FIG. 5 is a flowchart of processing in the encoding device, FIG. FIG. 7 is a diagram showing a coding range, FIGS. 8 (a), (b) and (c) are diagrams showing correspondences between dots in the coding ranges I, II and III and numbers indicating their positions, respectively. FIGS. 10 (a), 10 (b) and 10 (c) show the correspondence between dot positions and codes in modes I, II and III, and FIG. 10 (a) shows an overview of the encoded data of one frame. FIG. 10 (b) is a diagram showing a part of the data D in detail. 1... Difference calculating means, 2... First predicted point calculating means, 3.
... Difference difference calculation means, 4 ... Second prediction point calculation means, 5 ...
Error calculating means, 6 ... coding means, 7 ... decoding means,
8 ... Coordinate value calculating means.
Claims (6)
連の座標値からなる画像データを符号化及び復号する画
像データの符号化及び復号方式において、 現在の座標値の1つ前の座標値(前座標値)と2つ前の
座標値(前々座標値)との差分を算出する差分算手段
と、 該差分と前座標値とを加算して第1予測点の座標値を算
出する第1予測点算出手段と、 前記差分とその1つ前の差分との差(差分差)を算出す
る差分差算出手段と、 該差分差と第1予測点の座標値とを加算して第2予測点
の座標値を算出する第2予測点算出手段と、 現在の座標値と第2予測点の座標値との誤差を算出する
誤差算出手段と、 該誤差を符号化する符号化手段とを設けた ことを特徴とする画像データの符号化方式。An image data encoding / decoding system for encoding / decoding image data composed of a series of coordinate values representing a drawn image of a handwritten character, a figure, or the like, in a coding system preceding a current coordinate value. Difference calculating means for calculating a difference between a value (preceding coordinate value) and a coordinate value immediately before (coordinate value before two), and calculating the coordinate value of the first prediction point by adding the difference and the preceding coordinate value A first prediction point calculation unit that calculates a difference between the difference and the immediately preceding difference (difference difference); a difference calculation unit that calculates a difference between the difference and a coordinate value of the first prediction point. Second prediction point calculation means for calculating the coordinate value of the second prediction point; error calculation means for calculating the error between the current coordinate value and the coordinate value of the second prediction point; encoding means for coding the error And a coding method for image data.
属するかを判定し、 最も小さな範囲に含まれる場合はその範囲内の全ての位
置に順次付されたコードのうちの対応するコードに変換
し、 最も小さな範囲以外の範囲に含まれる場合はその範囲内
のより小さな範囲に含まれる部分を除いた各位置に順次
付されたコードのうちの対応するコードに変換するとと
もに、該コードが前記複数の範囲のうちのいずれの範囲
に対応するコードであるかを示す識別コードをそのコー
ドの直前に付与する符号化手段を備えた ことを特徴とする特許請求の範囲第1項記載の画像デー
タの符号化方式。2. A method for determining whether an error belongs to one of a plurality of predetermined ranges. If the error is included in the smallest range, a code corresponding to the code sequentially assigned to all positions in the range is determined. If the code is included in a range other than the smallest range, the code is converted to a corresponding code among codes sequentially added to each position except for a portion included in a smaller range within the range, and the code is 2. The image according to claim 1, further comprising: an encoding unit that adds an identification code immediately before the code to indicate which of the plurality of ranges corresponds to the code. Data encoding method.
ほどそれより一つ小さな範囲との差が大きくなるように
設定したことを特徴とする特許請求の範囲第2項記載の
画像データの符号化方式。3. The image data according to claim 2, wherein the size of each of the plurality of ranges is set such that the larger the range is, the larger the difference from the one smaller range is. Encoding scheme.
ビット数を該範囲が小さなものほど少なくしたことを特
徴とする特許請求の範囲第3項記載の画像データの符号
化方式。4. The image data encoding method according to claim 3, wherein the number of bits of a code sequentially assigned to each position in one range is reduced as the range becomes smaller.
連の座標値からなる画像データを符号化及び復号する画
像データの符号化及び復号方式において、 符号化データを復号して誤差を求める復合化手段と、 現在の座標値の1つ前の座標値(前座標値)と2つ前の
座標値(前々座標値)との差分を算出する差分算出手段
と、 該差分と前座標値とを加算して第1予測点の座標値を算
出する第1予測点算出手段と、 前記差分とその1つ前の差分との差(差分差)を算出す
る差分差算出手段と、 該差分差と第1予測点の座標値とを加算して第2予測点
の座標値を算出する第2予測点算出手段と、 第2予測点の座標値と誤差とを加算して現在の座標値を
求める座標値算出手段とを設けた ことを特徴とする画像データの復合方式。5. An image data encoding and decoding method for encoding and decoding image data consisting of a series of coordinate values representing a drawn image of a handwritten character, figure, or the like, wherein an error is obtained by decoding the encoded data. Decoding means; difference calculating means for calculating a difference between the immediately preceding coordinate value (previous coordinate value) and the immediately preceding coordinate value (two-preceding coordinate value); A first prediction point calculation unit that calculates a coordinate value of the first prediction point by adding the value to the first prediction point; a difference difference calculation unit that calculates a difference (difference difference) between the difference and the immediately preceding difference. Second prediction point calculating means for calculating the coordinate value of the second prediction point by adding the difference difference and the coordinate value of the first prediction point; and adding the coordinate value of the second prediction point and the error to obtain the current coordinate. And a coordinate value calculating means for obtaining a value.
判定し、 識別コードがない場合は予め設定した複数の範囲のうち
の最も小さな範囲内の前記コードにより指定される位置
に対応する誤差に変換し、 識別コードがある場合は予め設定した複数の範囲のうち
の該識別コードにより特定される範囲内の前記コードに
より指定される位置に対応する誤差に変換する復合化手
段を備えた ことを特徴とする特許請求の範囲第5項記載の画像デー
タの復合方式。6. A method for determining whether or not an identification code is present immediately before a code. If there is no identification code, the identification code corresponds to a position designated by the code in the smallest range among a plurality of preset ranges. A decoding unit for converting the error into an error and, if there is an identification code, converting the error into an error corresponding to a position designated by the code within a range specified by the identification code among a plurality of preset ranges. 6. A method for reconstructing image data according to claim 5, wherein:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP30455287A JP2625452B2 (en) | 1987-12-03 | 1987-12-03 | Image data encoding and decoding methods |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP30455287A JP2625452B2 (en) | 1987-12-03 | 1987-12-03 | Image data encoding and decoding methods |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH01146466A JPH01146466A (en) | 1989-06-08 |
JP2625452B2 true JP2625452B2 (en) | 1997-07-02 |
Family
ID=17934367
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP30455287A Expired - Fee Related JP2625452B2 (en) | 1987-12-03 | 1987-12-03 | Image data encoding and decoding methods |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2625452B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3066721B2 (en) * | 1995-03-23 | 2000-07-17 | 矢崎総業株式会社 | Crimp joint connector |
-
1987
- 1987-12-03 JP JP30455287A patent/JP2625452B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH01146466A (en) | 1989-06-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6741749B2 (en) | System, device, computer program product, and method for representing a plurality of electronic ink data points | |
AU632333B2 (en) | Method and apparatus for processing digital data | |
US6549675B2 (en) | Compression of digital ink | |
JPS62204955A (en) | Character image generation circuit | |
CN109754046B (en) | Two-dimensional code, encoding method, decoding method, device and equipment of two-dimensional code | |
US7302106B2 (en) | System and method for ink or handwriting compression | |
WO2000017730A2 (en) | Method of compressing and decompressing graphic images | |
JP2625452B2 (en) | Image data encoding and decoding methods | |
US7457469B2 (en) | Lossless variable-bit signature compression | |
EP1093078A3 (en) | Reducing apprearance differences between coded and noncoded units of text | |
JPH0695727B2 (en) | Image data compression device | |
US9697413B2 (en) | System and method for compressing electronic signatures | |
JPS60189350A (en) | Handwritten graphic transmitting device | |
JPS5856872B2 (en) | Expanded character pattern encoder | |
CN115205563A (en) | ORB feature point matching method for two adjacent frame images for visual SLAM | |
JPH042999B2 (en) | ||
JPH041400B2 (en) | ||
JPS60178599A (en) | Handwritten graphic transmitter | |
JPS6365190B2 (en) | ||
AU2002333062B2 (en) | Method of compressing digital ink | |
JPH02213921A (en) | Coordinate input device | |
CN1040447A (en) | Hand-written charactor recognition apparatus | |
JPS60178600A (en) | Handwritten graphic transmitter | |
JPH09237150A (en) | Prediction encoding device and decoding device | |
JPS58213384A (en) | Display processing method of drawing picture signal |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |