JPH0311482A - Method and device for recording and reproducing voice - Google Patents

Method and device for recording and reproducing voice

Info

Publication number
JPH0311482A
JPH0311482A JP1145258A JP14525889A JPH0311482A JP H0311482 A JPH0311482 A JP H0311482A JP 1145258 A JP1145258 A JP 1145258A JP 14525889 A JP14525889 A JP 14525889A JP H0311482 A JPH0311482 A JP H0311482A
Authority
JP
Japan
Prior art keywords
image
data
audio
mesh
array
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP1145258A
Other languages
Japanese (ja)
Inventor
Kunio Sato
邦雄 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP1145258A priority Critical patent/JPH0311482A/en
Publication of JPH0311482A publication Critical patent/JPH0311482A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To easily preserve data by realizing recording even on paper, etc., other than a tape or a CD by encoding the data obtained by digitizing voice by using light-and-shade formed selectively on each stitch of net shape pattern, and printing image encoded data on a medium as a net shape pattern image. CONSTITUTION:The voice of analog electric audio signal format is inputted to an A/D converter 1 comprising a voice recorder 10A, and converted digital data is compressed with a compressor 2, and is inputted to an encoder 3. After that, an image having a net shape pattern is recorded on a printable recording medium 5 such as the paper by using a printer 4. Next, the image is read with an image scanner 6 comprising a voice reproducing device 10B, and is inputted to a decoder 7 as image data, and the image data is decoded according to the light-and-shade of the stitch of two-dimensional arrangement, and voice compression data similar to compression data being inputted to the encoder 3 can be obtained, and the data is expanded with an expander 8, then, it is converted to an analog signal with a D/A converter 9, and is reproduced as the voice.

Description

【発明の詳細な説明】 [発明の技術分野] この発明は音声記録方法及び装置並びに音声再生方法及
び装置に関し、特に音声を紙等の印刷可能な媒体に記録
し、そのような媒体から再生する技術に関する。
[Detailed Description of the Invention] [Technical Field of the Invention] The present invention relates to an audio recording method and device, and an audio reproducing method and device, and in particular to recording audio on a printable medium such as paper and reproducing it from such a medium. Regarding technology.

[背 景l 音声は空気等の通常媒体中では音響エネルギーとして伝
搬するだけであって一時的にしか存在し得ず、このため
、音声を保存可能な媒体上に記録し、再生する試みが長
年に亘って続けられ、輝かしい技術上の成功、産業の発
展、文化への寄与を果たしてきた0代表的な音声記録媒
体として古くはレコード、磁気テープ、最近ではCD等
が登場してさた。これらの媒体は記録密度、再現性とも
申し分がないほどの能力をもち得るものであるが、いず
れも専用の特殊な構造の媒体である。
[Background l: Sound only propagates as acoustic energy in normal media such as air, and can only exist temporarily. For this reason, attempts have been made for many years to record and reproduce sound on a medium that can store it. Records, magnetic tapes, and more recently CDs have appeared as typical audio recording media that have continued for centuries and have contributed to brilliant technological success, industrial development, and culture. Although these media can have impeccable recording density and reproducibility, they are all dedicated and specially constructed media.

音声が聴覚を通じて知覚、認識される対象であるのに対
し、画像は視覚を通じて知覚、認識される対象である0
画ff1(絵や文字)の記録媒体として古くから紙等の
印刷可能な媒体が知られている。
While sound is an object that is perceived and recognized through the auditory sense, images are an object that is perceived and recognized through the visual sense.
Printable media such as paper have been known for a long time as recording media for images ff1 (pictures and characters).

人間による画像認識・理解のプロセスは十分には解明さ
れておらず、手書き文字等を認識する技術は非常な努力
が続けられているがなお多くの課題を残している。
The process of image recognition and understanding by humans is not fully understood, and although great efforts are being made to develop technology for recognizing handwritten characters, many issues remain.

これらの問題は特別のフォーマット化を施した符号化画
像の場合には大幅に軽減される。このような符号化画′
像の代表例としてバーコードが知られている。バーコー
ドのフォーマットの基本的な特徴は画像を一次元的な配
列としたところにあり、走査方向におけるバーの幅や間
隔が情報の単位であるビットを表現している。この強力
なフォーマット化により、バーコードの認識は一般的な
画像認識と比べ格段に容易となり、誤りなく情報を再生
可能になっている。
These problems are greatly reduced in the case of encoded images with special formatting. Such encoded image′
A barcode is known as a typical example of an image. The basic feature of the barcode format is that the image is arranged in a one-dimensional manner, and the width and spacing of the bars in the scanning direction represent bits, which are units of information. This powerful formatting makes barcode recognition much easier than general image recognition, and allows information to be reproduced without errors.

残念ながら、バーコードによって紙等に記録できる情報
はわずかであり、その用途は限定され、音声の符号化画
像とはなり得ない。
Unfortunately, only a small amount of information can be recorded on paper or the like using barcodes, and their uses are limited, and they cannot be used as encoded images of audio.

一方で音声として人にとって意味のあるものがあり、一
方で紙等の通常の記録媒体があり、この両者を結びつけ
る音声記録、再生技術を提供することの意義は明白であ
る。
On the one hand, there are sounds that are meaningful to people, and on the other hand, there are ordinary recording media such as paper, and the significance of providing audio recording and playback technology that connects these two is obvious.

[発明の目的1 したがって、この発明の目的は音声を紙等の印刷可能な
媒体に画像として記録する音声記録方法及び装置を提供
すること、並びに印刷媒体に記録されたこの種の画像か
ら音声を再生する音声再生方法及び装置を提供すること
である。
[Objective of the Invention 1 Therefore, the object of the present invention is to provide an audio recording method and apparatus for recording audio as an image on a printable medium such as paper, and to provide an audio recording method and apparatus for recording audio as an image on a printable medium such as paper, and to provide an audio recording method and apparatus for recording audio as an image on a printable medium such as paper. An object of the present invention is to provide a method and apparatus for reproducing audio.

[発明の構成、作用] 上記の目的を達成するため、この発明による音声記録方
法、装置は、音声をデジタル化してデジタルデータを生
成し、生成されたデジタルデータを網状パターンの各網
目に選択的に形成される明暗により符号化してイメージ
符号化データを生成し、生成されたイメージ符号化デー
タを網状パターンの画像として印刷可能な媒体に印刷す
ることを特徴としている。
[Structure and operation of the invention] In order to achieve the above object, an audio recording method and apparatus according to the present invention digitizes audio to generate digital data, and selectively applies the generated digital data to each mesh of a mesh pattern. The present invention is characterized in that encoded image data is generated by encoding the brightness and darkness formed in the image, and the generated encoded image data is printed on a printable medium as a mesh pattern image.

更に、この発明による音声再生方法、装置は。Furthermore, the audio reproduction method and device according to the present invention are as follows.

音声の情報をもつ網状パターンの画像が印刷された印刷
媒体から該画像を読み取ってイメージデータを生成し、
生成されたイメージデータを網状パターンの各網目に選
択的に形成された明暗に従って復号化して音声をデジタ
ル化したデジタルデータを生成し、生成されたデジタル
データを音声に変換することを特徴としている。
Generating image data by reading an image of a mesh pattern having audio information from a print medium on which the image is printed;
The system is characterized in that the generated image data is decoded according to the brightness and darkness selectively formed in each mesh of the mesh pattern to generate digital data in which audio is digitized, and the generated digital data is converted into audio.

窮状パターンの場合1画像の2次元的配Aに情報をもた
らすことができるので高密度記録が可能である1例えば
16ドツト/厘朧の線分解能をもつイメージセンサ−を
考慮すると、ドツト換算で8ドツト×8ドツトのサイズ
の網目の実寸は0,5I×0.5■鳳となり、1つの網
目で1ビツトを表現するとして、1mm2当りの記録媒
体lよ4ビツトとなる。この場合、例えば、l Ocm
X 10cmのなかには40にビットの情報を記録でき
る。実際には、8ドツト×8ドツトのサイズの網目は十
分すぎる大きさであり、2値化のイメージデータ上での
理論限界は2ドツト×2ドツトであり(サンプリング定
理から)、更に、イメージセンサ−の分解能を上げるこ
とにより、−層、大量の情報が記録可能となる。電話帯
域の音声を例にとると、約8Kbpsのサンプリングレ
ートでサンプリングしたデータから電話品質の音声が再
現可能であり。
In the case of a predicament pattern, information can be brought to the two-dimensional distribution of one image, so high-density recording is possible.1 For example, considering an image sensor with a line resolution of 16 dots/dimensions, the number of dots is 8 in terms of dots. The actual size of a mesh having a size of dot x 8 dots is 0.5 I x 0.5 square, and assuming that one mesh expresses 1 bit, it becomes 4 bits per 1 mm 2 of the recording medium. In this case, for example, l Ocm
40 bits of information can be recorded in a 10 cm x 10 cm. In reality, a mesh size of 8 dots x 8 dots is more than sufficient, and the theoretical limit for binarization on image data is 2 dots x 2 dots (from the sampling theorem). By increasing the resolution of - layer, a large amount of information can be recorded. Taking telephone band audio as an example, it is possible to reproduce telephone quality audio from data sampled at a sampling rate of about 8 Kbps.

更には音声圧・縮(伸張)技術を利用することにより、
サンプリングした音声データの圧縮が可能である。
Furthermore, by using audio compression/compression (expansion) technology,
It is possible to compress sampled audio data.

以上の点から、比較的短い音声であれば普通のサイズの
紙に網状パターンの画像として記録できることが判明し
た。これにより、符号化画像を介する音声の記録、再生
の実現性が開けた。上述したこの発明による音声記録方
法、装置及び音声再生方法、装置は正に符号化画像によ
る音声の記録、再生を可能にするものである。
From the above points, it has been found that relatively short sounds can be recorded as a mesh pattern image on normal size paper. This has opened up the possibility of recording and reproducing audio via encoded images. The above-described audio recording method, device, and audio reproducing method and device according to the present invention make it possible to record and reproduce audio using encoded images.

[実施例] 以下1図面を参照してこの発明の詳細な説明する。[Example] The present invention will be described in detail below with reference to one drawing.

実施例に係る音声記録装置装MlOの全体m成を第1図
に示す、装置lOの全体の目的は音声を網状パターン化
した符号化画像として記録し、再生することである0図
中、要素lから4により音声記録装置10Aが構成され
、要素6から9により音声再生装置2210Bが構成さ
れる。音声記録装gilOAと音声再生装置10Bは別
体でもよいし、一体化したものであってもよい。
The overall configuration of the audio recording device MIO according to the embodiment is shown in FIG. Elements 1 to 4 constitute an audio recording device 10A, and elements 6 to 9 constitute an audio reproduction device 2210B. The audio recording device gilOA and the audio reproducing device 10B may be separate units or may be integrated.

概要を述べると、音声記録装ff1l OAのアナログ
、デジタル変換器(A/D)1にアナログ電気オーディ
オ信号の形式の音声が入力され、所定のサンプリングプ
レートでディジタルデータに変換される。変換されたデ
ータは圧縮波M2に入力され、ここでデータ量が圧縮さ
れる。圧縮波N2で圧縮されたデータは符号化装置3に
入力され、ここで網状パターンをもつ符号化画像に対応
する形式に符号化され、その符号化イメージデータが印
刷装δ4により、紙等の印刷可能な記録媒体5上に第1
2図に例示するような網状パターン22をもつ画像20
として印刷される。このようにして記録媒体5に印刷さ
れた画像20は音声再生装置10Bのイメージスキャナ
ー6によって読み取られ、イメージデータとなり、復号
化装置7に入力される。復号化装置7では網状パターン
22を構成する2次元的配列の網目の明暗に従ってイメ
ージデータを復号化して符号化装置3に入力される圧縮
データと同様な音声圧縮データを得る。伸張装置8は復
号化装置7からの復号化された圧縮データを伸張し、伸
張したデジタル音声データをデジタルアナログ変換器(
D/A)9に供給し、デジタルアナログ変換器9はそれ
をアナログ信号に変換して音声を再生する。
Briefly, audio in the form of an analog electrical audio signal is input to the analog-to-digital converter (A/D) 1 of the audio recording device ff11OA, and is converted into digital data using a predetermined sampling plate. The converted data is input to the compression wave M2, where the amount of data is compressed. The data compressed by the compression wave N2 is input to the encoding device 3, where it is encoded into a format corresponding to an encoded image having a mesh pattern, and the encoded image data is printed on paper etc. by a printing device δ4. The first on the possible recording medium 5
An image 20 having a mesh pattern 22 as illustrated in FIG.
is printed as . The image 20 thus printed on the recording medium 5 is read by the image scanner 6 of the audio reproduction device 10B, becomes image data, and is input to the decoding device 7. The decoding device 7 decodes the image data according to the brightness of the two-dimensional array of meshes forming the mesh pattern 22 to obtain compressed audio data similar to the compressed data input to the encoding device 3. The decompression device 8 decompresses the decoded compressed data from the decoding device 7, and sends the decompressed digital audio data to a digital-to-analog converter (
D/A) 9, and the digital-to-analog converter 9 converts it into an analog signal to reproduce audio.

音声デジタルデータの圧縮装置2と伸張装置8は有線通
信等の分野で研究、開発されている任意の適当な音声圧
縮伸張技術ないし音声分析合成技術の1つあるいはその
組合せによって実現できる0例えば、音声の時系列にお
ける相関を利用して、音声の現在の値を既にコード化し
た過去の値から予測し、それとの誤差をコード化する予
測符号化方式ないし適応量子化方式に属するDPCM;
差分パルス符号化変調、ADPCM、適応形差分PCM
、APC,適応形予測符号化、APC−AB 、適応ビ
ット割当APC等の方式を採用することにより、Trt
話品質の音声を約32kbpS〜16kbpsのビット
レート(1秒間当りのデータ量)まで圧縮できる。更に
、これらの適応量子化技術に加え1時間軸上での圧縮、
伸張(1&り返し波形の間引きや補間等)を行うより特
に母音部についての大幅なデータ圧縮が可能であり、電
話品質よりは若干下がるが十分話しの内容が聞きとれる
再生を8kbpsまたはそれ以下のビットレートで実現
できる。また、時間軸上での音声生成機構モデルに基づ
< PARCOR(偏自己相関ボコーダ)方式を採用す
ることにより、約2400bps程度までデータ圧縮が
可能であり1周波数軸上でのモデルLSP(mスペクト
ラム対ボコーダ)を採用することにより約1500bp
s程度までデータ圧縮が可能である。更には、特徴パラ
メータの時間的変化をベクトルとしてベクトル量子化を
行うベクトル量子化LPC(線形予測符号化)ボコーダ
方式や、1フレーム内の特徴パラメータをベクトルとし
てその時間的変化を2次元的マトリクスとしてマトリク
ス量子化を行うマトリクス量子化ボコーダ、あるいは可
変長レート符号化のためのフレーム長を音声の特徴によ
り可変制御するセグメントボコーダ方式等を採用するこ
とにより、音質は低下するが1ooObps以下、例え
ば800bps〜200bpS程度までのデータ圧縮が
可能である。
The audio digital data compression device 2 and decompression device 8 can be realized by one or a combination of any suitable audio compression/decompression technology or audio analysis/synthesis technology that has been researched and developed in the field of wired communications. DPCM that belongs to the predictive coding method or adaptive quantization method that uses the correlation in the time series to predict the current value of the audio from the past value that has already been coded, and codes the error from that value;
Differential pulse coded modulation, ADPCM, adaptive differential PCM
By adopting methods such as , APC, adaptive predictive coding, APC-AB, and adaptive bit allocation APC, Trt
It is possible to compress speech quality audio to a bit rate (amount of data per second) of approximately 32 kbps to 16 kbps. Furthermore, in addition to these adaptive quantization techniques, compression on the 1-time axis,
It is possible to significantly compress data, especially for the vowel part, compared to decompression (thinning of 1&repeat waveforms, interpolation, etc.), and it is possible to perform playback at 8 kbps or less, which is slightly lower than telephone quality, but allows you to clearly hear the content of the speech. This can be achieved with bitrate. In addition, by adopting the PARCOR (partial autocorrelation vocoder) method based on the voice generation mechanism model on the time axis, data compression is possible to approximately 2400 bps, and the model LSP (m spectrum Approximately 1500bp by adopting
It is possible to compress data to about s. Furthermore, vector quantization LPC (Linear Predictive Coding) vocoder method, which performs vector quantization using temporal changes in feature parameters as vectors, and vector quantization LPC (Linear Predictive Coding) vocoder method, which performs vector quantization using temporal changes in feature parameters as vectors, and vector quantization, which uses feature parameters within one frame as vectors and converts the temporal changes into a two-dimensional matrix. By adopting a matrix quantization vocoder that performs matrix quantization, or a segment vocoder method that variably controls the frame length for variable length rate encoding depending on the characteristics of the voice, the sound quality will deteriorate, but the speed will be 1ooObps or less, for example 800bps or more. Data compression of up to about 200 bpS is possible.

符号化IItM3の機能は圧縮装N2からの音声圧縮デ
ータを原データ(復号化装置7の目的データ)として、
符号化画像である網状パターン22に対応するデータ(
イメージデータ)を生成することであり、復号化装置7
の機能はその逆にイメージデータ上に示される網状パタ
ーン22に従つてイメージデータを復号化して目的デー
タを復元することである0前装223.7の間には印刷
装置4、記録媒体5、イメージスキャナー6が介されて
おり、これらは情報の伝搬手段であるとともにこれらの
媒体のどこかで発生するノイズ、エラーの伝搬手段でも
ある。即ち、印刷装置4の有限な印刷精度、取扱い中に
生じる記録媒体5の汚れ、きす、イメージスキャナー6
で生じる画像の歪み、画像読取りの有限な分解能、画像
のデジタル化(代表的には2値化)のエラー等の問題が
装置の性能、使用環境に依存して存在する。したがって
、基本的符号化は、情報の最小単位であるビットを網状
パターン22の各網目の明暗で表現すること、例えばビ
ット“l”を黒の網目、ビット“O″を白の網目で表現
することで与えられるが、音声再生装置10B側で符号
化画像20のイメージデータから逆方向の変換によって
戻されたビットの2次元的配列、即ち網状パターン22
の各網目の明暗の解読結果はエラーのために、音声記録
装置10A側が意図したビットの2次元的配列と完全に
同一にはなりにくい、そこで、本実施例で、音声記録装
gll OAの符号化装置3において、圧縮装置2から
与えられたデータに対し、誤り検査符号の付加、配列要
素の順序変更(スクランブル)等のエラ一対策を施すと
ともに、音声再生装置10Bの復号化装M7において、
各網目の明暗の識別の後、配列の再配置(デスクランブ
ル)、誤り検査符号による誤り訂正等の処理を行うこと
によって実用に耐えるデータの復元を図っている。
The function of the encoder IItM3 is to use the audio compressed data from the compression device N2 as original data (target data of the decoding device 7).
Data (
image data), and the decoding device 7
On the contrary, the function of is to decode the image data according to the mesh pattern 22 shown on the image data to restore the target data. An image scanner 6 is used as a means for transmitting information as well as a means for transmitting noise and errors occurring somewhere in these media. That is, the limited printing accuracy of the printing device 4, the dirt and scratches on the recording medium 5 that occur during handling, and the image scanner 6.
Problems such as image distortion caused by image processing, finite resolution of image reading, and errors in image digitization (typically, binarization) exist depending on the performance of the device and the environment in which it is used. Therefore, basic encoding is to express the bit, which is the smallest unit of information, by the brightness and darkness of each mesh of the mesh pattern 22, for example, the bit "l" is represented by a black mesh, and the bit "O" is represented by a white mesh. This is given by the two-dimensional array of bits returned by reverse conversion from the image data of the encoded image 20 on the audio reproduction device 10B side, that is, the net pattern 22.
Due to errors, the result of decoding the brightness and darkness of each mesh is unlikely to be completely the same as the two-dimensional arrangement of bits intended by the audio recording device 10A.Therefore, in this embodiment, the code of the audio recording device gll OA is In the decoding device 3, error countermeasures such as adding an error check code and changing the order of array elements (scrambling) are applied to the data provided from the compression device 2, and in the decoding device M7 of the audio reproduction device 10B,
After identifying the brightness and darkness of each mesh, processes such as rearranging the array (descrambling) and error correction using an error check code are performed to restore data that is suitable for practical use.

以下、音声記録装置10Aにおける音声データの符号化
と音声再生装置10Bにおける復号化の処理について詳
細に説明する。
The encoding of audio data in the audio recording device 10A and the decoding processing in the audio reproducing device 10B will be described in detail below.

第2図に256バイト(2048ビツト)をブロック単
位として行われる符号化処理の全体のフローチャートを
示す、これに対応する符号化画像の窮状パターンのフォ
ーマットは後述する誤り検査符号の数を176バイトと
して、第12図に例示するように48網目(縦)×72
網目(横)となる、第4図は符号化画像を拡大して示し
たちので試作例の網目の実寸は約0.5腸層X O,5
m曹である。音声圧縮データはビットレートが約8kb
PSであり、3秒間で約24にビットであり、256バ
イトを1ブロツクとして、10ブロツクに分けられる。
Figure 2 shows an overall flowchart of the encoding process performed in blocks of 256 bytes (2048 bits). , 48 meshes (vertical) x 72 as illustrated in Figure 12
The mesh (horizontal) is shown in Fig. 4, which shows an enlarged encoded image, so the actual size of the mesh in the prototype example is approximately 0.5 intestinal layer X O,5
He is a master lieutenant. The bit rate of compressed audio data is approximately 8kb.
The PS is approximately 24 bits per 3 seconds, and is divided into 10 blocks, each block consisting of 256 bytes.

符号化画像20をブロック化したのは、イメージスキャ
ナーの大きさ、スキャン方式(実施例では手動のライン
イメージセンサ−による走査を採用した)網目のイメー
ジビットのサンプリングのし易さ、記録媒体5上の表面
の有効利用(文字等の筆記や印刷)等を考慮したもので
ある。もっとも、この発明はこれらの点に限定されるも
のではなく1例えば、0.5鵬菖XQ、5m厘の網目の
大きさは線分解能16ビツト/層膳のイメージセンサ−
からみて平均8ドツト×8ドツトのサイズとなり、これ
はイメージセンサ−で2値化を通して網目のイメージド
ツトを検出できる限界2ドツト×2ドツトより十分大き
く、イメージセンサ−の分解能の向上(例えば、2列あ
るいはそれ以上の列の線状検出素子アレイをドツトの列
数分の1だけずらして配置したり、2値化でなく多値化
を採用する等)も考慮して相当の縮小化が可能である。
The encoded image 20 was divided into blocks due to the size of the image scanner, the scanning method (scanning using a manual line image sensor was adopted in the embodiment), the ease of sampling image bits of the mesh, and the recording medium 5. This takes into consideration the effective use of the surface (writing and printing of characters, etc.). However, the present invention is not limited to these points, and for example, the mesh size of 0.5 mm x
The average size is 8 dots x 8 dots, which is sufficiently larger than the limit of 2 dots x 2 dots, which is the limit for detecting mesh image dots through binarization with an image sensor. It is possible to significantly reduce the size by considering the following methods: arranging one or more rows of linear detection element arrays by shifting them by a fraction of the number of dot rows, or adopting multi-value conversion instead of binary conversion. It is.

第2図のフローに従うと、ステップ20−1において8
ビツトX256のブロックサイズをもつ音声圧縮データ
が目的データとしてRAM等のメモリにロードされる。
According to the flow shown in FIG. 2, in step 20-1, 8
Compressed audio data having a block size of 256 bits is loaded into a memory such as a RAM as target data.

この目的データの2次元的ビット配列を第3図に参照番
号30で示す0図示のように、目的データピッ)do−
d2047を64ビツト×32ビツトの2次元的配列3
0として取り扱っている。
The two-dimensional bit array of this target data is indicated by reference numeral 30 in FIG.
d2047 as a 64-bit x 32-bit two-dimensional array 3
It is treated as 0.

続いてステップ20−2 (第2図)でこのビット配列
30における各8ビツトを1シンボルとして考えて25
6シンボルから成る目的データ5o−s255を第4図
に示すような8×32の2次元的シンボル配列40とす
る。シンボルの大きさは後続するステップ20−3と2
0−4でのデータの単位(ワード)としての意味をもっ
ている。なおブロック20−2で1シンボルを8ビツト
としたのは単なる例示にすぎない。
Next, in step 20-2 (Fig. 2), each 8 bit in this bit array 30 is considered as one symbol, and 25
The target data 5o-s 255 consisting of 6 symbols is assumed to be an 8×32 two-dimensional symbol array 40 as shown in FIG. The symbol size is determined in subsequent steps 20-3 and 2.
It has a meaning as a data unit (word) in 0-4. Note that it is merely an example that one symbol is 8 bits in block 20-2.

次にステップ2O−3(@2図)でこの目的データの2
次元的シンボル配列40に対し、誤り検査符号を付加し
て第5図に例示するような誤り検査符号材のシンボル配
列50を作成する。誤り検査符号としては任意の適当な
ものが使用できるが、図示のものは目的データのシンボ
ル配列40の各フロー(横の行)に4つの検査シンボル
pを付け、それによって形成される2次元的配列の12
のコラム(縦の列)の各々に4つの検査シンボルqを付
けたものである。この場合、lブロック(横の1行また
は縦の1列)当り4つの誤り検査シンボル(ブロック検
査符号)が付くので、各々の4つの検査符号自体で2重
シンボル誤りの訂正能力があり、更に、横のpと縦のq
の2系列の検査符号が目的データの各シンボルSに付く
ので、目的データの各ブロックにおける4重消失(イレ
ージヤ−)の訂正が可能である。第5図に示す行列を含
む計算式は誤り検査シンボルp、  qとしていわゆる
リードソロモン符号を想定した場合の各検査シンボルが
満足すべき条件を示したものである。改めて、ここに示
すと、 るようになっている(α255=l)0式(1)、式(
2)の右辺のゼロはいわゆるシンドロームがゼロである
ことを示している。
Next, in step 2O-3 (@Figure 2), 2 of this target data
An error check code is added to the dimensional symbol array 40 to create a symbol array 50 of error check code material as illustrated in FIG. Although any suitable error check code can be used, the one shown in the figure attaches four check symbols p to each flow (horizontal row) of the target data symbol array 40, and the two-dimensional error check code formed thereby array of 12
Four test symbols q are attached to each column (vertical column) of . In this case, since four error check symbols (block check codes) are attached per l block (one horizontal row or one vertical column), each of the four check codes itself has the ability to correct double symbol errors, and , horizontal p and vertical q
Since two series of check codes are attached to each symbol S of the target data, it is possible to correct quadruple erasures in each block of the target data. The calculation formula including the matrix shown in FIG. 5 shows the conditions to be satisfied by each check symbol when so-called Reed-Solomon codes are assumed as the error check symbols p and q. Once again, as shown here, (α255=l)0 Equation (1), Equation (
The zero on the right side of 2) indicates that the so-called syndrome is zero.

例えば(式1)をqについて解くと [Q] = [A+]−’・[A21・[W](式3) である、ここに、ガロア体GF (28)の原始元であ
るαは例えば多項式 %式% の根の1つであり、10進数では2の値をとり2進数で
示すと 00000010 (B) である、ちなみに、αB=α4+α3+α2+1=16
+8+4+1=29であり、αI〜α255は1から2
55のなかからいずれかの固有値をとである、同様にし
て(式2)を解くことによりpも計算される(説明省略
)。
For example, solving (Equation 1) for q gives [Q] = [A+]-'・[A21・[W] (Equation 3), where α, which is the primitive element of the Galois field GF (28), is for example It is one of the roots of the polynomial % expression %, and it takes the value 2 in decimal and is 00000010 (B) when expressed in binary. By the way, αB = α4 + α3 + α2 + 1 = 16
+8+4+1=29, and αI~α255 is 1 to 2
55, p is also calculated by solving (Equation 2) in the same way (description omitted).

このようにして誤り検査符号p、qを付加した結果、1
2X3Bシンボルのサイズをもつ2次元配列50が得ら
れる。
As a result of adding error check codes p and q in this way, 1
A two-dimensional array 50 having a size of 2×3B symbols is obtained.

上述したようなブロックタイプの誤り検査符号P、qは
主としてランダムエラ一対策用のものであり、バースト
的なエラーに対しては有効ではない0例えば、符号化画
像上の連続する(contiguousな)相当広い範
囲にわたって汚れ等が付着したような場合には、誤り検
査符号による訂正住方をはるかに超えるエラーが発生し
得る。
The block type error check codes P and q described above are mainly for dealing with random errors and are not effective against burst errors. If dirt or the like is deposited over a fairly wide area, errors that are far greater than those that can be corrected using error checking codes may occur.

第2図のステップ20−4はバーストエラ一対策用の処
理であり、誤り検査符号付加熱Flj20−3で得た2
次元的シンボル配列50上において連続する領域が符号
化画像上ではとびとびの小さな領域となるように、配列
50の要素の順序を変更している。この処理20−4の
ことをスクランブルあるいはインターリーブと呼ぶこと
にする。第6図、第7図、第8図にそれぞれ、1回目、
2回[1,3回目のスクランブル後のシンボル配列60
.70.80を例示する。1回目のスクランブルでは誤
り検査符号付加後のシンボル配列50に対し5行データ
の入替を行っている。即ち、元の配列50の第3行と第
4行のところに元の配列の第9行と第10行目のデータ
を移動し1元の配列50の第3行から第6行は2行下に
移動し1元の配列50の第9行と第10行のところには
元の配列50の第11行と第12行のデータを入れ元の
配列50の第7行と第9行のデータは第11行と第12
行に移動して、第1のスクランブルド配列60を作成し
ている。配列60のおおまかな構成を60sで示してい
るので参照されたい、第1に続く第2のスクランブルで
は第1のスクランブルド配夕噌60の下半分を上半分の
右横に付けて6×72シンボル構成の第2のスクランブ
ルド配列70を作成している。最後に第3のスクランブ
ルでは、第2のスクランブルド配列70を横方向に16
個分移動させている。この結果、第8図に示すような第
3のスクランブルド配列80が得られる。
Step 20-4 in FIG. 2 is a process to prevent burst errors, and the error check code added heat Flj 20-3
The order of the elements of the array 50 is changed so that continuous areas on the dimensional symbol array 50 become discrete small areas on the encoded image. This processing 20-4 will be referred to as scrambling or interleaving. Figures 6, 7, and 8 show the first time,
2 times [Symbol arrangement after 1st and 3rd scrambling 60
.. 70.80 is exemplified. In the first scrambling, five rows of data are replaced in the symbol array 50 after the addition of the error check code. That is, the data in the 9th and 10th rows of the original array are moved to the 3rd and 4th rows of the original array 50, and the 3rd to 6th rows of the original array 50 are changed to 2 rows. Move down and put the data from the 11th and 12th rows of the original array 50 in the 9th and 10th rows of the 1-element array 50. The data is in rows 11 and 12
The first scrambled array 60 is created by moving to the row. Please refer to the rough structure of the array 60 shown in 60s. In the second scramble following the first, the lower half of the first scrambled mailer 60 is attached to the right side of the upper half to form a 6x72 A second scrambled array 70 of symbol configuration is created. Finally, in the third scramble, the second scrambled array 70 is
I'm moving it individually. As a result, a third scrambled array 80 as shown in FIG. 8 is obtained.

この最後のスクランブルド配列80は位l的には符号化
画像上における網目の2次元配列と同様であり、スクラ
ンブルド配列80上で連続する要素は符号化画像上でも
同じように連続する要素となっている。しかし、スクラ
ンブルされる前の配列50との関係は、配列50で連続
する部分が配列80上ではとびとびの位置に分かれるよ
うになっている0例えば、スクランブル前の配列50の
第33]目の第9行〜第12行にあるq128、q12
9、q130.q131はスクランブル後の配列80で
はq128とq129が第17]目の第3行と第4行に
位置しており、q130と9131は第53]目の第3
行と第4行に位置している。この結果、符号化画像上で
のバースト的なエラーが、スクランブルされる前の配列
50上では短かい長さのエラーとして分散することにな
るので、誤り検査符号p、qの能力の範囲内での誤り訂
正が実現可能となる。また80sで概略を示すように図
示のスクランブルド配列80上ではqの部分が配列80
の中央部を占めるようになっている。これは誤り訂正符
号の付は方(第5図)やデータ再生装置側での網目デー
タサンプリング方式等を考慮したものである。即ち、第
5図かられかるように、目的データSにはいずれも2系
列の誤り検査符号p、qが関連するのに対し、誤り検査
符号qにはその横方向のブロック(行)をチエツクする
符号は付かない、このため、もしこの部分で符号誤りが
発生したとしてもその誤りの位置を確認する手段がない
、ブロック検査符号や有限のたたみ込み検査符号を有限
の配列上で使用するかぎり、この問題は完全には避けら
れない、換言すると、第5図の配列50において1例え
ばシンボルSOでの誤りは第1行のシンドローム値と第
1列のシンドローム値の両方に反映される(シンドロー
ム値がゼロでなくなる)が、シンボルqtzgでの誤り
はq128が属する列(第33列)ノシンドローム値に
しか反映されない、このため1例えば、シンボルq12
8、q129.q130の3箇所で誤りが発生した場合
には訂正不可能になる。要するに、qの領域でのエラー
は重大であり、したがってその発生率を他の部分でのエ
ラー発生率より低く押えることができると好都合である
。一方、後の音声再生装fit OBの復号化装置7の
ところで説明する主走査デコード処理では網状パターン
22(第12図)の上下に付くガイドライン21を主走
査基準として、ガイドライン21間の間隔を等分した点
のイメージビットをサンプリングする。このサンプリン
グ方式の場合、真の位置からの等分点のずれはガイドラ
イン21に近い方で最大になり、最も安全なのは網状パ
ターン22の中央部である。したがって、第8図に示す
ように誤り検査符号qを配480の中央部に置くことに
より、これらの符号qのエラー発生率を他の符号より低
く押えることが可1tになる。
This final scrambled array 80 is positionally similar to a two-dimensional array of mesh on the encoded image, and consecutive elements on the scrambled array 80 are also consecutive elements on the encoded image. It has become. However, the relationship with the array 50 before being scrambled is such that consecutive parts of the array 50 are divided into discrete positions on the array 80. For example, the 33rd] q128, q12 in lines 9 to 12
9, q130. In the scrambled array 80, q128 and q129 are located in the 3rd and 4th rows of the 17th], and q130 and 9131 are located in the 3rd and 4th rows of the 53rd].
It is located in the row and the fourth row. As a result, burst errors on the encoded image will be dispersed as short errors on the array 50 before being scrambled, so that within the capabilities of the error checking codes p and q. error correction becomes possible. Also, as schematically shown in 80s, on the scrambled array 80 shown in the figure, the part q is the array 80.
It occupies the central part of the This is done in consideration of the method of attaching error correction codes (FIG. 5), the mesh data sampling method on the data reproducing device side, etc. That is, as can be seen from FIG. 5, two series of error check codes p and q are associated with the target data S, whereas the error check code q checks the block (row) in the horizontal direction. Therefore, even if a code error occurs in this part, there is no way to confirm the location of the error.As long as a block check code or finite convolution check code is used on a finite array, , this problem cannot be completely avoided. In other words, in the array 50 of FIG. However, the error in symbol qtzg is reflected only in the no syndrome value in the column (33rd column) to which q128 belongs.
8, q129. If an error occurs at three locations in q130, it cannot be corrected. In short, errors in the q region are serious, and it is therefore advantageous to keep the rate of occurrence lower than the rate of error in other parts. On the other hand, in the main scanning decoding process that will be explained later in the decoding device 7 of the audio playback device fit OB, the guidelines 21 attached to the top and bottom of the mesh pattern 22 (FIG. 12) are used as main scanning standards, and the intervals between the guidelines 21 are made equal. Sample the image bits of the divided points. In the case of this sampling method, the deviation of the equal division points from the true position is greatest near the guideline 21, and the safest position is at the center of the mesh pattern 22. Therefore, by placing the error check codes q in the center of the array 480 as shown in FIG. 8, it is possible to suppress the error rate of these codes q to be lower than that of other codes.

このスクランブル化された2次元的シンボル配列80は
第9図に示すように各シンボルを縦の8ビツトとみて4
8X72ビツトの2次元的ビット配列90に変換される
(第2図のステップ2〇=5)。
As shown in FIG.
It is converted into a two-dimensional bit array 90 of 8×72 bits (step 20=5 in FIG. 2).

次のステップ20−6は音声再生装2i10B側で使用
されるイメージセンサ−の変換特性の変動に起因するエ
ラーの発生を防止するためのものである。即ち、イメー
ジ検出素子の光電変換特性は入射光の瞬時値に完全には
追従し得ないので、このような検出素子を使って画像を
走査した場合において、黒い(または白い)領域が長く
続いた後での白い(黒い)領域に入ったときと白い(黒
い)領域を続けて見ているときとではその変換出力が異
なる。このため、例えば黒い領域のなかに孤立した白い
部分がまわりの黒い領域に侵されて縮少して検出された
り、ときにはすべて黒画素として検出されて正確なイメ
ージデータを提供できなくなる。一方、第12図に例示
するように本符号化画像は網状パターン22の明暗の網
目の2次元的配列で構成され、それぞれの網目の明暗で
1ビツトを表現するので、画素値は正確に得られること
が望まれ、特に網目が小さくて記録密度が高い場合には
必要となる。一方、データはしばしば同じビット値を続
けることがあるので、そのような領域で上述したような
画素値の検出エラーが発生しやすい、第2図のステップ
20−6では、スクランブルされた2次元的ビット配列
90上の各ビット値に対し、擬似乱数による乱数化を施
すことにより、長い距離にわたって同じビット値が続か
ないようにして上述の問題の改善を図っている。
The next step 20-6 is to prevent errors from occurring due to variations in the conversion characteristics of the image sensor used on the audio reproduction device 2i10B side. In other words, since the photoelectric conversion characteristics of an image detection element cannot completely follow the instantaneous value of incident light, when an image is scanned using such a detection element, a black (or white) area continues for a long time. The conversion output is different when the viewer enters the white (black) area later and when the viewer continues to view the white (black) area. For this reason, for example, an isolated white part in a black area is invaded by the surrounding black area and is detected as being reduced, or sometimes all pixels are detected as black pixels, making it impossible to provide accurate image data. On the other hand, as illustrated in FIG. 12, this encoded image is composed of a two-dimensional array of bright and dark meshes of the mesh pattern 22, and one bit is expressed by the brightness and darkness of each mesh, so pixel values can be accurately obtained. It is desirable to have a high recording density, and it is especially necessary when the mesh size is small and the recording density is high. On the other hand, since data often continues to have the same bit value, the above-mentioned pixel value detection error is likely to occur in such areas.In step 20-6 of FIG. By applying randomization to each bit value on the bit array 90 using pseudo-random numbers, the above-mentioned problem is improved by preventing the same bit value from continuing over a long distance.

乱数化の一例を第1O図に示す0図示の擬似乱数発生器
P−RNDは、16ビツトのシフトレジスタ(1−16
で示すDフリップフロップで構成されている)の015
からの出力とDIからの出力とのEXORをとり、シフ
トレジスタの各ビットを右にシフトしてDlにはEXO
Hの結果のビットを入力する。擬似乱数出力rid(n
)は016から取り出され、この乱数ビットrid(n
)とビット配列90上の対応要素bnとのEXORをと
ることで(b n = b nernd(n)) 、配
列90の各要素が乱数化される。動作の始めにシフトレ
ジスタには適当な初期値(例えば、BH3(16進))
をセットしておくとよい、この結果、第11図に示すよ
うな乱数化された48X72の2次元ビット配列110
が作成される。
An example of random number generation is shown in FIG. 1O. The pseudorandom number generator P-RND shown in FIG.
015 (composed of D flip-flops shown in )
Exor the output from DI with the output from DI, shift each bit of the shift register to the right, and set EXO to DI.
Enter the bits of the H result. Pseudo-random number output rid(n
) is taken from 016 and this random number bit rid(n
) and the corresponding element bn on the bit array 90 (bn = b nernd(n)), each element of the array 90 is made into a random number. At the beginning of operation, the shift register is set to an appropriate initial value (for example, BH3 (hexadecimal)).
As a result, a randomized 48x72 two-dimensional bit array 110 as shown in Figure 11 is created.
is created.

乱数化された2次元ビット配列110は記録媒体に記録
する網状パターン22の網目の2次元的配列と配列上の
位置を一致させながら1ビツト対l網目の関係で対応し
、かつ各網目の明暗はビット値によって特定される関係
にある。
The randomized two-dimensional bit array 110 corresponds to the two-dimensional array of meshes of the mesh pattern 22 recorded on the recording medium in a 1-bit to l-mesh relationship while matching the positions on the array, and the brightness and darkness of each mesh corresponds. are in a relationship specified by bit values.

これを達成するため、ステップ20−7でビット配列1
10に従う網状パターン22を記録媒体に印刷している
。即ち、ビット配列110上の各ビットを網目のイメー
ジデータに画像化して、各ビットの配列上における位置
に対応する記録媒体5上の位置に印刷装置4を介して記
録している。
To accomplish this, in step 20-7 the bit array 1
A reticular pattern 22 according to No. 10 is printed on the recording medium. That is, each bit on the bit array 110 is imaged into mesh image data and recorded via the printing device 4 at a position on the recording medium 5 corresponding to the position of each bit on the array.

更に、ステップ20−7では網状パターン22と所定の
位置関係にあるサンプリング基準マークも印刷している
。このサンプリング基準マークは第12図において、ガ
イドライン21、同期マーク列22.データ開始マーク
23及びデータ終了マーク24で示されている。後述す
るように、音声再生装置10B側では取り込んだ符号化
画像20のデータからこれらのサンプリング基準マーク
を見つけ、その位置を基準として窮状パターン22内の
各網目の位置を求め、そこにあるイメージビットをサン
プリングするようにしている。
Furthermore, in step 20-7, sampling reference marks in a predetermined positional relationship with the mesh pattern 22 are also printed. In FIG. 12, these sampling reference marks include a guideline 21, a synchronization mark row 22, and so on. It is indicated by a data start mark 23 and a data end mark 24. As will be described later, on the audio playback device 10B side, these sampling reference marks are found from the data of the captured encoded image 20, the position of each mesh in the distress pattern 22 is determined using the position as a reference, and the image bits located there are found. I try to sample.

第13図は音声再生装置10Bのイメージスキャナー6
で記録媒体5上の符号化画像20を読み込み、復号化装
置7にて元の音声圧縮データである目的データを復元す
る復号化処理の全体的なフローチャートを示している。
Figure 13 shows the image scanner 6 of the audio playback device 10B.
The figure shows an overall flowchart of a decoding process in which the encoded image 20 on the recording medium 5 is read in and the decoding device 7 restores the target data, which is the original compressed audio data.

ちなみに第14図は手動のラインイメージセンサ−で第
121fflの符号化画像20をややていねいに走査し
た場合に得られたイメージ例であり、手動ラインイメー
ジセンサ−で生じる画像の歪みを物語っている。
Incidentally, FIG. 14 is an example of an image obtained when the encoded image 20 of the 121st ffl is scanned rather carefully with a manual line image sensor, and it shows the distortion of the image that occurs with the manual line image sensor.

復号化作業は基本的には符号化装R3が行った符号化処
理を後戻りすることによって行われる。
The decoding work is basically performed by backtracking the encoding process performed by the encoding device R3.

最初に主走査サンプリング14−2(第13図)と副走
査サンプリング14−3を行って取り込んだイメージデ
ータ上から各網目の中心位置にある網目の明暗を代表す
るイメージビットをサンブリソゲして、データ記録で述
べた最後の2次元的ビット配列110に相当する配列を
得る0次にDC(乱数除去)ステップ14−4で第1O
図に関連して述べた擬似乱数を用いてその配列上の各要
素をデランダマイズして第9図に示す乱a以前のビット
配列90に相当するものを作成する。乱数以前のビット
配列90に戻る理由は、乱数化が、b n = b n
 ernd(n) で与えられ、乱数除去が bn=bn■rnd(n) で与えられ1両式が同一の擬似乱数rnd(n)につい
て互に導かれることから明らかである。DC処理自体は
rnd(n)とEXO1’lをとるべきデータがbn(
乱数化前のデータ)であるかbn(乱数化後のデータ)
であるかの点を除き、乱数化処理20−6と同一である
ので、これ以上の説明は省略する。
First, image bits representing the brightness and darkness of the mesh at the center position of each mesh are sampled from the image data captured by performing main scanning sampling 14-2 (Fig. 13) and sub-scanning sampling 14-3. At the 0th order DC (random number removal) step 14-4 to obtain an array corresponding to the last two-dimensional bit array 110 mentioned in the record, the 1st O
Each element on the array is derandomized using the pseudo-random numbers described in connection with the figure to create an array corresponding to the bit array 90 before random a shown in FIG. The reason for returning to the bit array 90 before the random number is that the random numberization is b n = b n
It is clear from the fact that the random number removal is given by bn=bn■rnd(n) and both equations are mutually derived for the same pseudorandom number rnd(n). In DC processing itself, the data to take rnd(n) and EXO1'l is bn(
data before randomization) or bn (data after randomization)
Since this process is the same as the randomization process 20-6 except for the point that , further explanation will be omitted.

乱数化前のシンボル配列が得られたら、第8図、第9図
、第10図に関連して述べたスクランブル処理20−4
と逆の処理(デスクランブル)を行ってシンボルを再配
置し、スクランブル前の誤り検査符号はシンボル配3A
50に相当する配列を得る(14−5)、このデスクテ
ンプル処理14−5もスクランブル処理に関する説明か
ら明らかであるのでこれ以上の説明は省略する。
Once the symbol array before randomization is obtained, the scrambling process 20-4 described in connection with FIGS. 8, 9, and 10 is performed.
The reverse process (descrambling) is performed to rearrange the symbols, and the error check code before scrambling is the symbol arrangement 3A.
This desk temple processing 14-5, in which an array corresponding to 50 is obtained (14-5), is also clear from the explanation regarding the scrambling processing, so further explanation will be omitted.

復号化過程において得られる、デスクランブルされた誤
り検査符号付シンボル配列と、符号化において作成され
る誤り検査符号付シンボル配列との差はエラーである。
The difference between the descrambled error check coded symbol array obtained in the decoding process and the error check coded symbol array created during encoding is an error.

そこで、14−6で誤り検査符号による誤り訂正を行い
、目的データを得る。
Therefore, in step 14-6, error correction is performed using an error check code to obtain target data.

以下、第13図の処理のうち14−1−14−3と14
−6についてその詳細を説明する。
Below, 14-1-14-3 and 14 of the processing in FIG.
-6 will be explained in detail.

tj415図は符号化画像20を走査したイメージデー
タのストアと、ストアされたイメージデータから主走査
基準パターンであるガイドライン21を認識して、イメ
ージデータを主走査サンプリングする処理のフローチャ
ートであり、第16図は主走査サンプリングされたイメ
ージデータから。
tj415 is a flowchart of the process of storing the image data obtained by scanning the encoded image 20, recognizing the guideline 21 which is the main scanning reference pattern from the stored image data, and sampling the image data in the main scanning. The figure is from image data sampled in the main scan.

副走査基準パターンである同期マーク列25を認識して
イメージデータの副走査サンプリングを行う処理のフロ
ーチャートである。
7 is a flowchart of a process for performing sub-scanning sampling of image data by recognizing a synchronization mark row 25 that is a sub-scanning reference pattern.

第15図において、4−1から4−5は記録媒体の符号
化画像20をイメージスキャナー6で読み取ってイメー
ジRAM15(第17図)に書き込む工程である。なお
、4−3に示す走査終了条件(メモリー杯)は単なる例
示であり、他の任意の適当なイベント発生を走査終了の
合図とすることができる。また、4−4に示すように、
イメージRAMとしてバイトメモリを想定している。第
17図はイメージRAM15のメモリマツプを示したも
ので1図の横の1行(イメージRAM15の交信の連続
アドレス)に、1ライン分のイメージ(ラインイメージ
)が書き込まれる。
In FIG. 15, 4-1 to 4-5 are steps in which the encoded image 20 on the recording medium is read by the image scanner 6 and written into the image RAM 15 (FIG. 17). Note that the scan end condition (memory cup) shown in 4-3 is merely an example, and the occurrence of any other appropriate event can be used as a signal for the end of the scan. Also, as shown in 4-4,
Byte memory is assumed as the image RAM. FIG. 17 shows a memory map of the image RAM 15, and one line of image (line image) is written in one horizontal line (continuous address of communication in the image RAM 15).

イメージの解読作業は第15図の4−6から始まる。4
−6において、第17図のような形式で記憶されたイメ
ージデータの全体から、ガイドラインセット(主走査基
準であるガイドラインを特徴づける画素群)の探索が行
われる。第12因に示すようにガイドライン21は黒の
連続線であり、符号化画像20の他の要素にはない特徴
をもっている。したがって、例えば、第18図に例示す
るように、適当な間隔をもつ白、黒、白の3本の平行な
うンレングス73.74.75でガイドラインセットを
定義し得る。ガイドラインセットを見つけるために必要
なランレングスの間隔ないし幅76の初期値は固定の標
準の限界値を用いてもよいし、あるいは、ラインイメー
ジに最も高い頻度で現われる白や黒ドツトの幅を測定す
るなどして決定してもよい、適当な3木のランレングス
73.74.75で定められるガイドラインセットの探
索は、イメージRAM15の適当なラインイメージ上に
おいて適当な間隔をもつ白ドツト、黒ドツト、白ドツト
の位置から、ラインイメージと垂直な深さ方向(第17
図の場合、縦の方向)に、イメージを追跡して、白、黒
、白の各ビー2トの統〈数(ランレングス)を調べ、そ
の結果をガイドラインセットの条件と比較する処理を繰
り返すなどして行える。探索に失敗したときは解読不可
なのでエラーとなるが(4−7)探索に成功したときに
はガイドラインセットの情報からイメージデータ上のガ
イドラインの幅や走査方向の傾きの標準値が定まる。更
に、4−8において走査方向の傾きの標準値からの変動
を考慮したマージンを左右(第12図の場合は上下であ
るが、第17図に従い、以下左右ということにする)の
ガイドラインセットの位置に加えることにより、以降の
処理で扱うイメージデータの左右の探索領域(第19図
の探索幅81)が求められる。なお、この探索幅81の
制限は、第19図に示すように、符号化画像20のまわ
りに文字等のその他のイメージ(解読中にノイズとなる
おそれのあるイメージ)がある場合に望まれる処理であ
り、符号化画像20の周囲が余白になっている場合は格
別に必要ない。
The image decoding operation begins at 4-6 in FIG. 4
-6, a guideline set (a group of pixels characterizing the guideline, which is the main scanning reference) is searched from the entire image data stored in the format shown in FIG. As shown in the twelfth factor, the guideline 21 is a continuous black line and has characteristics that other elements of the encoded image 20 do not have. Therefore, for example, as illustrated in FIG. 18, a guideline set can be defined by three parallel lengths 73, 74, and 75 of white, black, and white with appropriate intervals. The initial value of the run length spacing or width 76 needed to find the guideline set can be a fixed standard limit, or it can be determined by measuring the width of the white or black dots that appear most frequently in the line image. The search for a guideline set defined by an appropriate three-tree run length 73, 74, 75, which may be determined by , from the position of the white dot in the depth direction perpendicular to the line image (17th
In the case of the figure, the process of tracing the image in the vertical direction, checking the run length of each white, black, and white beat, and comparing the results with the conditions of the guideline set is repeated. You can do this by doing something like this. If the search fails, an error occurs because the information cannot be deciphered (4-7); however, if the search succeeds (4-7), standard values for the width of the guideline on the image data and the inclination in the scanning direction are determined from the information in the guideline set. Furthermore, in 4-8, the margins that take into account the variation of the tilt in the scanning direction from the standard value are set for the left and right (top and bottom in the case of Figure 12, but in accordance with Figure 17, hereinafter referred to as left and right) guideline set. By adding this to the position, the left and right search areas (search width 81 in FIG. 19) of the image data to be handled in subsequent processing can be found. Note that this restriction of the search width 81 is a process that is desired when there are other images such as characters (images that may become noise during decoding) around the encoded image 20, as shown in FIG. This is not particularly necessary if the encoded image 20 has a blank space around it.

4−9から4−11まではイメージデータの深さ方向の
探索領域の限定のための処理であり、そのためにデータ
開始マーク23とデータ終了マーク24を検出してこれ
らのマーク23.24が検出されたラインイメージにお
ける左右のガイドラインの位置を求めている。データ開
始マーク23と終了マーク24は、ラインイメージが周
期的な白黒のパターンを含むことで検出でき、例えば、
第12図の符号化画像の場合、開始、終了マーク23.
24は24個の白黒の対の繰り返しであるので、マージ
ンを見込んで20個程度の同じ周期をもつ白黒の対が見
つかったら、これらのマークであるとする条件で十分で
ある。データ開始マーク23はイメージデータの上のラ
イン(最初のライン)から探索し、データ終了マーク2
4はイメージデータの下のライン(最後のライン)から
探索すると都合がよい、開始マーク23または終了マー
ク24が検出できなかったときは、符号化画像20の一
部だけが走査された等の誤った操作等が原因と考えられ
るのでエラーとして処理する(4−10.4−12)。
4-9 to 4-11 are processes for limiting the search area in the depth direction of image data, and for this purpose, the data start mark 23 and data end mark 24 are detected, and these marks 23 and 24 are detected. The position of the left and right guidelines in the line image is determined. The data start mark 23 and end mark 24 can be detected because the line image includes a periodic black and white pattern, for example,
In the case of the encoded image shown in FIG. 12, start and end marks 23.
24 is a repetition of 24 black and white pairs, so if about 20 black and white pairs with the same period are found, taking into account the margin, it is sufficient to identify these marks. The data start mark 23 is searched from the top line (first line) of the image data, and the data end mark 2
4, it is convenient to search from the bottom line (last line) of the image data.If the start mark 23 or the end mark 24 cannot be detected, it may be due to an error such as only a part of the encoded image 20 being scanned. This is considered to be caused by an operation, etc., so it is treated as an error (4-10.4-12).

4−13から4−18までは、上述の処理によって探索
幅81と探索深さ(第19図でいえばスタートライン8
2からエンドライン83まで)とが制限されたイメージ
データをサーチブロックと呼ばれる深さ方向で仕切られ
た複数の部分イメージにセグメント化し、各セグメント
におけるガイドラインの破壊の有無を調べているところ
である。第19図の場合、イメージデータは8つのサー
チブロック84に分けられている。このようなサーチブ
ロックの大きさ(深さ)を4−13で決めスタートライ
ン82の次のラインから始まる最初のサーチブロックを
選択する。サーチブロックの深さは1例えば4−6で得
ているガイドラインセットの情報や処理時間、精度等を
考慮して決定でき、その値が4−14で探索されるガイ
ドラインセットに関する白、黒、白のランレングスの必
要な長さを定める。即ち、白、黒、白の深さ方向のラン
レングスとして、間隔が適当で、サーチブロックの深さ
(以上)の長さをもつものが見つかった場合、ガイドラ
インセットありとなり、その位置(ガイドラインセット
で囲まれる矩形領域)が記憶される。探索に失敗した場
合はそのサーチブロックのガイドラインに何らかの欠損
が生じていることになるので、左右どちらのガイドライ
ンについて失敗したか、あるいは両方失敗したか等、失
敗状態に従うフラグを立てておき、後でガイドライン位
置の補間ができるようにしておく(4−15,4−16
)、例えば、第19図の場合、上から4番目と5番目の
サーチブロックの右ガイドライン部分に汚れ85が付い
ているので、これらのサーチブロー、りでは右ガイドラ
インはエラーとして検出される。
From 4-13 to 4-18, the search width 81 and search depth (start line 8 in FIG. 19) are
2 to the end line 83) is segmented into a plurality of partial images partitioned in the depth direction called search blocks, and the presence or absence of guideline destruction in each segment is being investigated. In the case of FIG. 19, the image data is divided into eight search blocks 84. The size (depth) of such a search block is determined by 4-13, and the first search block starting from the line next to the start line 82 is selected. The depth of the search block can be determined by taking into consideration the information, processing time, accuracy, etc. of the guideline set obtained in 4-6, for example, and its value can be determined by white, black, and white related to the guideline set searched in 4-14. Determine the required run length. In other words, if a run length in the depth direction of white, black, and white with an appropriate interval and a length (greater than or equal to the depth of the search block) is found, a guideline set is present, and the position (guideline set) is found. (a rectangular area surrounded by ) is stored. If the search fails, it means that there is some kind of deficiency in the guideline of that search block, so set a flag according to the failure status, such as whether the guideline has failed on the left or right, or both. Make it possible to interpolate the guideline position (4-15, 4-16)
), for example, in the case of FIG. 19, there is dirt 85 on the right guideline portions of the fourth and fifth search blocks from the top, so the right guideline is detected as an error in these search blows.

1つのサーチブロックについてガイドラインの状態を検
査したら次のサーチブロックを選択しく4−17)、 
検fし、エンドライン83で終わる最後のサーチブロッ
クまで検査を繰り返す(4−18)。
After inspecting the guideline status for one search block, select the next search block (4-17).
The search f is repeated until the last search block ending at the end line 83 (4-18).

なお、第15図のフローでは行っていないが。Note that this is not done in the flow shown in FIG.

サーチブロックのサイズを探索結果に従って可変に局所
化するようにしてもよい0例えば、4−15でガイドラ
インのエラーがあるサーチブロックについて検出された
ら、そのサーチブロックの深さを半分にして再度、半分
の深さの2つのサーチブロックの各々についてガイドラ
インの探索を行ったり、あるいは半分の深さのサーチブ
ロックで4−13から4−18のループを再開するよう
にしてもよい。
The size of the search block may be localized variably according to the search results.0 For example, if a search block with a guideline error is detected in 4-15, the depth of the search block is halved and the depth is halved again. The guideline search may be performed for each of two search blocks of depth, or the loop from 4-13 to 4-18 may be restarted with a search block of half depth.

第15図の4−19から最後までは、各サーチブロック
について、各主走査ラインイメージにおける左右のガイ
ドラインの各位置を決定し、その位ご情報を基に、等分
力式で各ラインイメージの主走査サンプリング位置(そ
の全体の軌跡が第14図に参!vA番号31で示されて
いる)を求め。
From 4-19 to the end in Figure 15, for each search block, the positions of the left and right guide lines in each main scanning line image are determined, and based on the position information, the positions of each line image are determined using the equal force formula. The main scanning sampling position (the entire trajectory is shown in FIG. 14! vA number 31) is determined.

各サンプリング位置のイメージデータビット(画素、ド
ツト)をラインイメージから取り出して主走査デコード
配列220(第21図参照)を作成している。各主走査
ラインイメージ上のガイドラインの位22(ガイドライ
ン幅の中心位置)の決定は、その主走査ラインイメージ
が属するサーチブロックのそのガイドラインについてエ
ラーないし破壊を示す失敗フラグが立っていない場合に
は、実測によって行われるが、失敗フラグが立っている
場合にはガイドラインが正常な部分について実測したガ
イドラインの位置から補間によって行われる0例えば第
15図に示すように失敗フラグのリストを参照して、前
後のサーチブロックの端の主走査ラインイメージにおけ
るガイドラインの位置からの直線的な補間により、問題
の主走査ラインイメージにおけるガイドラインの位置を
得ることができる。
Image data bits (pixels, dots) at each sampling position are extracted from the line image to create a main scanning decoding array 220 (see FIG. 21). The guideline position 22 (the center position of the guideline width) on each main scanning line image is determined by This is done by actual measurement, but if a failure flag is set, the guideline is interpolated from the actually measured position of the guideline in a normal part. The position of the guideline in the main scan line image in question can be obtained by linear interpolation from the position of the guideline in the main scan line image at the end of the search block.

フローに従うとチエツク4−20でNOとなるのは現サ
ーチブロックの左右のガイドラインがともに正常である
場合であり(対応する失敗フラグが下がっていることか
られかる)、その場合は4−29で現サーチブロック内
の各主走査ラインイメージについて左右のガイドライン
の中心位置を実測し1両位置の間において符号化画像の
フォーマットに応じた等分点の位置を主走査のサンプリ
ング点として得、各サンプリング点にあるイメージビッ
トを取り出す、4−20で左右のガイドラインのうち少
なくとも一方に失敗フラグが立っている場合には、4−
21以下に進み、失敗フラグが立っているガイドライン
の位置を補間するため、現サーチブロックより1ライン
上のガイドライン位置、即ち、前サーチブロックの最後
の主走査ラインイメージにおけるガイドライン位置(現
サーチブロックが最初のサーチブロックの場合には4−
9で得ているスタートラインのガイドライン位置)を補
間始端としく4−21)、次サーチブロック以降におい
て正常なガイドラインのサーチブロックを捜し出しく4
−22.4−26)、その正常サーチブロックの最上の
主走査ラインイメージにおけるガイドラインの位置を補
間候補として検出しく4−27)、補間の始端と終端と
の間にある問題のサーチブロックにおける各主走査ライ
ンイメージ上のガイドラインの位置を補間によって割り
出し、主走査サンプリングを行う(4−28)、なお、
フローには明記していないが一方のガイドラインが正常
な場合、その位置は直接的に実測されるようになってい
る。また、エンドライン近くでのガイドラインが破壊さ
れている場合には、4−11で評価したエンドラインの
ガイド位置が補間終端とされる(4−23.4−24)
According to the flow, the check 4-20 will be NO if both the left and right guidelines of the current search block are normal (this can be seen because the corresponding failure flag is lowered), and in that case, the check 4-29 will be NO. The center positions of the left and right guide lines are actually measured for each main scanning line image in the current search block, and the positions of equally divided points according to the format of the encoded image are obtained between the two positions as main scanning sampling points, and each sampling Extract the image bit at the point, if at least one of the left and right guidelines has a failure flag in 4-20,
21 and below, in order to interpolate the position of the guideline with the failure flag set, the guideline position one line higher than the current search block, that is, the guideline position in the last main scanning line image of the previous search block (the current search block is 4- for the first search block
Set the guideline position of the start line obtained in step 9 as the interpolation starting point 4-21), and search for a search block with a normal guideline from the next search block onwards.
-22.4-26), detect the position of the guideline in the uppermost main scanning line image of the normal search block as an interpolation candidate 4-27), and detect each position of the guideline in the problem search block between the start and end of interpolation. The position of the guideline on the main scanning line image is determined by interpolation, and main scanning sampling is performed (4-28).
Although it is not specified in the flow, if one guideline is normal, its position is directly measured. Additionally, if the guideline near the end line is destroyed, the guide position of the end line evaluated in 4-11 is taken as the interpolation end (4-23.4-24)
.

このようにしてエラーがあるガイドラインの区間は他の
正常なガイドラインの区間で実測した位置に基づいて補
間し、精度の高い主走査サンプリングを行う、この結果
、第21図のような主走査デコードの配列220が完成
する。ここにおいて、この主走査デコードされたイメー
ジデータ220の両側の列は副走査基準パターンである
同期マーク列25の主走査中心軌跡31(第14図)に
沿うイメージドツトの一次元配列(ドツト列)となって
いる、この左右の同期マーク列25のドツト列を9調べ
て、同期マーク列25の各クロックにおける副走査方向
の中心位置を決定し、その結果を基に網状パターン22
の副走査データサンプリングを行って、各網目の明暗を
識別しているのが第16図のフローである。
In this way, the guideline sections with errors are interpolated based on the positions actually measured in other normal guideline sections, and highly accurate main scanning sampling is performed.As a result, main scanning decoding as shown in Figure 21 is performed. Array 220 is completed. Here, the columns on both sides of the main scanning decoded image data 220 are one-dimensional arrays of image dots (dot columns) along the main scanning center locus 31 (FIG. 14) of the synchronization mark column 25, which is the sub-scanning reference pattern. The dot rows of the left and right synchronization mark rows 25 are examined to determine the center position in the sub-scanning direction for each clock of the synchronization mark row 25, and based on the result, the mesh pattern 22 is
The flow in FIG. 16 shows how sub-scanning data sampling is performed to identify the brightness and darkness of each mesh.

第16図において5−1で主走査幅、即ち左右のガイド
ライン21の間隔(第15図で得られている)から、ス
タートクロックのチエツク5−3で標準値(比較参照値
)となるクロックの深さ方向(副走査方向、第21図に
おいて縦の方向)の長さを決定する。ただし、この実施
例は手動でイメージスキャナー6を符号化画像20に対
して走査することを想定しており、そのためクロック長
に相当量の変動が予想されるので標準値にかなり大きめ
のマージンを付ける必要がある。なお、主走査幅から標
準値を算出する代りに、例えば、主走査デコード配列2
20上の同期マーク列25のドツト列を調べて平均的な
白、黒のランレングスを求めて、それを標準値とするよ
うにしてもよい、5−2で主走査デコードされたイメー
ジデータ220から、両側にある左右の同期マーク列2
5の最初の(黒の)クロックを検出し、その中心点、長
さ、左右の最初のクロック間の、イメージデータ220
の主走査方向(第21図の水平方向)に対する傾き等を
実測する。そして、5−3で実測結果のクロック長を5
−1で得ていて標準値の範囲内にあるかどうか判別する
。この段階で標準値の範囲内にないものは読み取りエラ
ーとなる。標準値内のときには、副走査サンプリングの
ため、左右のスタートクロックの中心位置を結ぶ直線上
のトフトの値を主走査デコードされたイメージデータ2
20から取り出して、網状パターン22における最初の
列の網目の明暗を示すデータを得るとともに、5−2で
実測した各特徴パラメータ(中心位置、長さ、傾き等)
を次クロックに対する標準値としてセットする。
In Fig. 16, from the main scanning width, that is, the interval between the left and right guidelines 21 (obtained in Fig. 15) in step 5-1, check the start clock in step 5-3 to determine the standard value (comparison reference value) of the clock. The length in the depth direction (sub-scanning direction, vertical direction in FIG. 21) is determined. However, this embodiment assumes that the encoded image 20 is scanned manually with the image scanner 6, and therefore a considerable amount of variation in clock length is expected, so a fairly large margin is added to the standard value. There is a need. Note that instead of calculating the standard value from the main scanning width, for example, the main scanning decoding array 2
Image data 220 decoded in main scanning in 5-2 From left and right synchronization mark rows 2 on both sides
Detect the first (black) clock of No. 5, and calculate its center point, length, and image data 220 between the left and right first clocks.
The inclination, etc. with respect to the main scanning direction (horizontal direction in FIG. 21) is actually measured. Then, in 5-3, set the clock length of the actual measurement result to 5
-1 and determines whether it is within the standard value range. At this stage, anything that is not within the standard value range will result in a reading error. When it is within the standard value, for sub-scan sampling, the toft value on the straight line connecting the center positions of the left and right start clocks is used as main-scan decoded image data 2.
20 to obtain data indicating the brightness and darkness of the first row of meshes in the mesh pattern 22, and each characteristic parameter actually measured in 5-2 (center position, length, inclination, etc.)
is set as the standard value for the next clock.

5−5で前クロックの長さを前クロックの中心位置に加
え2次のクロックの中心位置を予測する。この予測は、
この実施例の場合、記録媒体上において符号化画像20
(第12図)の同期マーク列が等しい長さの黒と白のク
ロックの繰り返しパターンであること、したがって、ク
ロック長がクロック間隔に等しくなっていることによる
ものである0次に5−6でこの予測点から主走査デコー
ドされたイメージデータ上の同期マークのドツト列に沿
って、上下に予測点のドツト値と異なるドツト値が出る
まで探索して、次クロックを実測する0例えば予測点が
黒画素を示す“l”であれば、そこを中心に上下に連続
する“l”を次のクロックとするわけである。そして、
実測結果として次クロックの長さ、中心、左右の傾き等
を得る(5−7)、このようにして、予測と実測を行っ
た場合、クロックにエラーがなければ予測の中心点と実
測の中心点とはある範囲内に収まるはずであるが、その
クロックが潰れていたりすると、第20図と第21図に
示すように、クロック長や傾きは標準値(前のクロー2
りの長さや前の左右のクロックの傾き)から大きく変化
するはずである。
In step 5-5, the length of the previous clock is added to the center position of the previous clock to predict the center position of the secondary clock. This prediction is
In this embodiment, the encoded image 20 is
This is due to the fact that the synchronization mark sequence in (Figure 12) is a repeating pattern of black and white clocks of equal length, so that the clock length is equal to the clock interval. From this predicted point, search along the dot row of the synchronization mark on the main scanning decoded image data until a dot value different from the dot value of the predicted point is found above and below, and then actually measure the next clock. If "l" indicates a black pixel, the next clock will be "l"s that are continuous up and down with that as the center. and,
Obtain the length, center, left and right slope, etc. of the next clock as actual measurement results (5-7). When prediction and actual measurement are performed in this way, if there is no error in the clock, the predicted center point and the actual measurement center are obtained. The point should fall within a certain range, but if the clock is distorted, the clock length and slope will be set to standard values (previous clock 2), as shown in Figures 20 and 21.
It should vary greatly depending on the length of the run and the inclination of the previous left and right clocks).

第20図でいえば、汚れ63が右の同期マーク列25の
2番目の黒のクロックを潰しているため、第21図の主
走査デコードされたイメージデータ220上においてこ
の同期マーク列25のドツト列(第20図の軌跡31上
の画素の列)のなかに第21図中、点線で囲んだ汚れ6
3の断片を示す黒ドツト列が形成される。したがって、
右の同期マーク列25のドツト列における前のクロック
(白クロックであり、実測の中心をPiで示しである)
の長さより次クロックの長さの方が汚れの分だけ長くな
って観測される。また、予測した次クロックの中心P2
も、実測した中心P3から大きくずれることになる。一
方、左側の同期マーク列25の対応する部分には汚れが
ないので前のクロック(中心をPlで示している)から
予測した次クロックの中心P2と実測値P3との差はあ
ってもわずかである。したがって1次クロックについて
予測した特徴パラメータと実測した特徴パラメータとを
比較し、両者の差を調べることで汚れ等によるクロック
のエラーの発生を検出できる。
In FIG. 20, since the dirt 63 destroys the second black clock of the right synchronization mark row 25, the dots of this synchronization mark row 25 appear on the main scanning decoded image data 220 of FIG. In the column (column of pixels on the locus 31 in FIG. 20), there is a stain 6 surrounded by a dotted line in FIG.
A row of black dots representing the 3 fragments is formed. therefore,
The previous clock in the dot row of the synchronization mark row 25 on the right (it is a white clock, and the center of actual measurement is indicated by Pi)
The length of the next clock is observed to be longer than the length of , by the amount of dirt. Also, the predicted next clock center P2
It also deviates greatly from the actually measured center P3. On the other hand, since there is no dirt on the corresponding part of the synchronization mark row 25 on the left, the difference between the center P2 of the next clock predicted from the previous clock (the center is indicated by Pl) and the actual value P3 is small, if any. It is. Therefore, by comparing the predicted characteristic parameters of the primary clock with the actually measured characteristic parameters and checking the difference between the two, it is possible to detect the occurrence of a clock error due to dirt or the like.

第16図のフローでは、予測した次クロックの中心点と
実測した次クロックの中心点との差を左右の同期マーク
のそれぞれについて求め(5−8)、その差が許容範囲
内かどうかを調べる(5−9.5−io、5−13)こ
とで1次クロックが適正かどうかを判別している。5−
11は左右ともクロックが適正でないときに行われる処
理であり、このような状況では同期マーク列25の前の
状態しか確実視できないので5−5で求めた左右の予測
点を次クロ7りの中心点として確定させる。そして、5
−16でその中心点同士を結ぶ直線上のドツト列を主走
査デコード配列220からサンプリングして関連する各
網目の明暗を示すデータとする。5−12と5−14と
左右の次クロックのうち一方が適正で他方が不正であっ
たときの処理で、この場合は、不正な方のクロックの中
心点は前クロックからの予測点を用いてもよいが、少し
でも精度が上がるように、適正な方のクロックの実測中
心点から、傾きを基に不正クロックの中心点を求めてい
る0例えば、第20図、第21図において上方に見える
左右の適正な白クロックの傾きはその左クロックの中心
点Piと右クロックの中心点P1との間の縦方向の差2
(ドツト)で評価でき1これらの2つの白クロックのそ
れぞれ下に位置する黒クロックのうち右側が不正であり
、左側は適正でその中心点は図示のP2で実測されてい
るので、この点を通る水平線と右の同期マーク列25の
ドツト列である直線との交点から2ドツト上の位置(こ
の場合、たまたま、右側の前のクロック中心P1から予
測した位NP2と一致している)が右側の不正クロック
の中心点として決定される。そして、5−15において
、適正だった方のクロック長のみをクロック間隔の標準
値として更新し、5−16で左右のクロック中心間のド
ツト列をサンプリングする0両クロックとも適正な場合
は、実測したクロック中心を確定させその間のドツト列
を取り出す、この場合5−15で標準パラメータは実測
したクロックの特徴パラメータによってすべて更新され
る。
In the flow shown in Figure 16, the difference between the predicted center point of the next clock and the measured center point of the next clock is determined for each of the left and right synchronization marks (5-8), and it is checked whether the difference is within the allowable range. (5-9.5-io, 5-13) It is determined whether the primary clock is appropriate. 5-
11 is a process that is performed when both the left and right clocks are incorrect. In this situation, only the state before the synchronization mark row 25 can be seen with certainty, so the left and right predicted points obtained in 5-5 are used for the next clock 7. Set it as the center point. And 5
-16, a row of dots on a straight line connecting the center points is sampled from the main scanning decoding array 220 and used as data indicating the brightness and darkness of each related mesh. 5-12 and 5-14, when one of the left and right next clocks is correct and the other is incorrect, in this case, the center point of the incorrect clock uses the predicted point from the previous clock. However, in order to improve the accuracy as much as possible, the center point of the incorrect clock is calculated based on the slope from the actual measured center point of the correct clock. For example, in Figs. The proper slope of the visible left and right white clocks is the vertical difference 2 between the center point Pi of the left clock and the center point P1 of the right clock.
(dot) 1 Of the black clocks located below each of these two white clocks, the right one is invalid, the left one is correct, and its center point is actually measured at P2 in the figure, so this point can be evaluated. The position two dots above the intersection of the passing horizontal line and the straight line that is the dot row of the right synchronization mark row 25 (in this case, coincidentally coincides with the predicted position NP2 from the previous clock center P1 on the right) is the right side. is determined as the center point of the incorrect clock. Then, in 5-15, update only the clock length that was appropriate as the standard value of the clock interval, and in 5-16, sample the dot row between the centers of the left and right clocks. If both clocks are appropriate, the actual measurement The center of the clock is determined and the dot row between them is taken out. In this case, in step 5-15, the standard parameters are all updated by the characteristic parameters of the actually measured clock.

5−17はデコードの終了判定であり、ここで符号化画
像20のフォーマットに従い予め定められたデータ数と
デコード処理5−16の実行回数とが比較される。デコ
ード処理5−16の実行回数がフォーマットの定める回
数に等しく、かつその後の同期マーク列25のドツト列
のなかにクロックがエンドラインのところまでない場合
(5−18)、即ち、主走査デコードされたイメージデ
ータ220上の同期マーク列25のドツト列から実測ま
たは補間によって検出されるクロック数がフォーマット
の定める数に等しい場合に、適正な処理が行われたもの
としてサンプリング処理が完了する。途中で誤ったクロ
ック補間等が行われた場合は、フォーマットのデータ数
が得られる前に配列220のエンドラインに達したり(
5−19でNo)、あるいはフォーマットのデータ数が
得られた後で更にクロックが見つかる(5−18でNo
)のでエラーとして検出できる。
5-17 is a decoding end determination, in which a predetermined number of data according to the format of the encoded image 20 is compared with the number of executions of the decoding process 5-16. If the number of executions of the decoding process 5-16 is equal to the number specified by the format, and the clock does not reach the end line in the subsequent dot row of the synchronization mark row 25 (5-18), that is, main scanning decoding is performed. If the number of clocks detected from the dot row of the synchronization mark row 25 on the image data 220 by actual measurement or interpolation is equal to the number determined by the format, it is assumed that proper processing has been performed and the sampling processing is completed. If incorrect clock interpolation is performed on the way, the end line of array 220 may be reached before the number of data in the format is obtained (
No at 5-19), or more clocks are found after the number of data in the format is obtained (No at 5-18)
), so it can be detected as an error.

走査基準パターンに基づくサンプリング処理の結果、符
号化における最後の2次元ビット配列110に相当する
。°各網目の明暗をビットで示す配列が得られるわけで
あるが、イメージセンサ−として機械走査タイプ等を用
いて走査速度や方向が一定に保たれるような使用環境下
では格別に走査基準パターンを設けなくても、画像歪み
が十分に小さいイメージデータから直接的に各網目を認
識することが可能である。
The result of the sampling process based on the scanning reference pattern corresponds to the last two-dimensional bit array 110 in encoding. °An array is obtained that indicates the brightness and darkness of each mesh using bits, but when a mechanical scanning type image sensor is used and the scanning speed and direction are kept constant, the scanning reference pattern becomes Even without providing a mesh, it is possible to directly recognize each mesh from image data with sufficiently small image distortion.

次に誤り訂正14−6の詳細を述べる。誤り訂正の全体
のフローを第23図に示す、このフローに入る段階で第
22図に示すようなデスクランブルされた誤り検査符号
材の2次元シンボル配列50Rが得られている。第22
図に示すPO〜P7は2次元配列50Rの第1行から第
8行をそれぞれを指しており、これらの各行には誤り検
査符号pが付くので第23図ではこれらの各行のことを
pベクトルと呼んでいる。また、2次元配列の縦の各列
(QO−Q35で示しである)には誤り検査符号qがつ
く第23図ではQベクトルと読んでいる。第23図の2
4−1から24−3のループで36個のQベクトルのそ
れぞれについて−通り誤り訂正処理24−2を行い、そ
の後の24−4から24−6のループで8個のPベクト
ルのそれぞれについて−通り誤り訂正処理24−5を行
っている。その後、24−7へ進み、ここで処理ルーチ
ン24−2.24−5のなかで実際に訂正に行われたか
どうか、あるいは訂正は行われなくても後の訂正に必要
なイレージヤ−登録がなされたかどうかを判別する。い
ずれもなしの場合を除いてはまたエラーが残っていると
考えられるので、訂正カウントをゼロに戻した後、ルー
プ回数が少ない(図では5以下)ことを条件として再度
、24−1〜24−6を実行している。なお、ループ回
数が多いときには、かなりのエラーが配列50Rに含ま
れる場合であり、それ以上、誤り訂正を行っても、誤り
訂正を行う可能性が高いので処理を打ち切っている。
Next, details of the error correction 14-6 will be described. The entire flow of error correction is shown in FIG. 23. At the stage of entering this flow, a two-dimensional symbol array 50R of descrambled error check code material as shown in FIG. 22 has been obtained. 22nd
PO to P7 shown in the diagram refer to the first to eighth rows of the two-dimensional array 50R, and each of these rows has an error check code p, so in FIG. It is called. Furthermore, in FIG. 23, each vertical column (indicated by QO-Q35) of the two-dimensional array is labeled with an error check code q, and is read as a Q vector. Figure 23-2
In the loop from 4-1 to 24-3, the -wise error correction processing 24-2 is performed on each of the 36 Q vectors, and in the subsequent loop from 24-4 to 24-6, on each of the 8 P vectors. Error correction processing 24-5 is performed. After that, the process proceeds to 24-7, where it is checked in processing routine 24-2.24-5 whether or not correction has actually been made, or even if no correction has been made, erasure registration necessary for later correction has been made. Determine whether or not. Unless there is no error in either case, it is considered that there is still an error, so after returning the correction count to zero, repeat 24-1 to 24-24 again, provided that the number of loops is small (5 or less in the figure). -6 is running. Note that when the number of loops is large, this means that a considerable number of errors are included in the array 50R, and there is a high possibility that further error correction will be performed even if error correction is performed, so the process is discontinued.

誤り訂正処理ルーチン24−2.24−5の詳細を第2
4図に示す、25−1ではQベクトルの場合には上述し
た(式l)の左辺に相当する計算を行いPベクトルの場
合には(式2)の左辺に相当する計算を行ってシンドロ
ーム値を得る。即ち、問題のベクトルにシンドローム行
列を乗算するわけである0問題のベクトル(ブロック)
内にエラーがなければ、(式1)や(式2)に示すよう
にシンドローム値(So 、St 、32 、S3)は
ゼロになる。そこで、2−2でシンドローム値を調べて
すべてゼロであれば、エラーなしとしてメインルーチン
にリターンする。これにより、肩山性として一番高いと
考えられる誤りなしのチエツクが完了した0次に高い可
能性の誤りは単一シンボルのエラーであり、その次の可
能性は2重シンボルエラーと考えられる。また、lベク
トル当り、4つの誤り検査符号が付いていてその訂正俺
力は2重誤りまでである。そこでシンドローム値が非ゼ
ロになったときは一応、l乃至2のシンボル誤りを想定
する。仮に、ベクトル内の2つのシンボルが誤っている
とし、その誤りの位置を表わすロケーション数をXI 
、 X2 、誤りのパターンをY、 、Y2 とすると
、25−1で計算済のシンドローム値So 、31 、
S2 、S3 についてSo =Y1 +Y2 S 1 = X + Y + + X2 Y 2S2 
=X+2Y1 +X22Y2 s3 =X13Y、+X23Y2 が成立1.、4ツノ未知数XI 、X2 、Y+ 、Y
2についての4つの連立方程式が得られる。ここに、ロ
ケーション数XI とx2は、 A=So ll52+512 B=S+  ・32 +sQ  @ 53C=SI l
l53+S22 と置くと、AX2 +BX+C=O(7)根トナル。
The details of the error correction processing routine 24-2.24-5 are explained in the second section.
In 25-1 shown in Figure 4, in the case of a Q vector, the calculation corresponding to the left side of (formula 1) described above is performed, and in the case of a P vector, the calculation corresponding to the left side of (formula 2) is performed to obtain the syndrome value. get. In other words, the problem vector is multiplied by the syndrome matrix.0 problem vector (block)
If there is no error within, the syndrome values (So, St, 32, S3) will be zero as shown in (Equation 1) and (Equation 2). Therefore, in step 2-2, the syndrome values are checked and if they are all zero, it is assumed that there is no error and the process returns to the main routine. As a result, the error with the 0th highest possibility of completion of the error-free check, which is considered to be the most likely to be a shoulder peak, is a single-symbol error, and the next possibility is considered to be a double-symbol error. . Additionally, four error check codes are attached to each l vector, and the correction power thereof is limited to double errors. Therefore, when the syndrome value becomes non-zero, one to two symbol errors are assumed. Suppose that two symbols in the vector are wrong, and the number of locations representing the position of the error is XI
, X2, If the error pattern is Y, , Y2, the syndrome value So calculated in 25-1 is 31,
Regarding S2 and S3, So = Y1 + Y2 S 1 = X + Y + + X2 Y 2S2
=X+2Y1 +X22Y2 s3 =X13Y, +X23Y2 holds true 1. , 4-horn unknowns XI , X2 , Y+ , Y
Four simultaneous equations for 2 are obtained. Here, the number of locations XI and x2 are A=So ll52+512 B=S+ ・32 +sQ @ 53C=SI l
If we put l53+S22, then AX2 +BX+C=O(7) root tonal.

25−3ではこのA、B、Cの値を計算している。ここ
で単一シンボルエラーの回走性を考慮すると、Ylまた
はY2がゼロであるのでA=Oが成立する。そこで25
−4でA=Oかどうかを調べ、A=0なら単一シンボル
エラーとみなしてその誤りパターン(y=so)とロケ
ーション数(X=Sl/So)を求め、ロケーション数
で特定されるシンボルに誤りパターンを加えて(EXO
Rをとり)、単一シンボルの訂正を実行し、訂正カウン
トをプラス1する(25−5〜25−7)。
In 25-3, the values of A, B, and C are calculated. Here, considering the propagation of single symbol errors, A=O holds true since Yl or Y2 is zero. So 25
-4, check whether A=O, and if A=0, consider it as a single symbol error, find the error pattern (y=so) and number of locations (X=Sl/So), and find the symbol specified by the number of locations. Add error pattern to (EXO
R), performs single symbol correction, and increments the correction count by 1 (25-5 to 25-7).

A=Oが不成立であればD (=B/A)とE(=C/
A)を計算しく25−8)、2次式(X/D)2 + 
(X/D)=E/D2   (式3)を解< (25−
9)、2重シンボル誤りなら2つの実根値が得られる。
If A=O does not hold, D (=B/A) and E(=C/
Calculate A)25-8), quadratic formula (X/D)2 +
(X/D)=E/D2 Solve (Equation 3)< (25-
9), if there is a double symbol error, two real root values are obtained.

そこでこのチエツク25−10を行って2実根値なら2
重シンボル誤りとみて誤りロケーションaXi、X2 
(片方Xiは(式3)の解RのD倍、即ちDHであり他
方はX2=D+X1である) と誤’Jパ9−7Y1.
Y2(Y2 = (XI  SO+31)/ (X1+
X2)、Y1=SO+Y2)を計算し、2つの誤りロケ
ーション数で指示される2つのシンボルのそれぞれに誤
りパターンを加えて訂正し、訂正カウントをプラス2す
る(25−11〜25−13)、実根値チエツク25−
10が不成立のときは3重以上の誤りであり、単独では
訂正できないので他の系列のベクトルの結果を利用する
イレージヤ処理25−14に進む。
So we do this check 25-10 and if the real root value is 2, then it is 2.
Error location aXi, X2 as a heavy symbol error
(One side Xi is D times the solution R of (Equation 3), that is, DH, and the other side is X2=D+X1) and the error 'JP9-7Y1.
Y2(Y2 = (XI SO+31)/(X1+
X2), Y1=SO+Y2), corrects each of the two symbols indicated by the two error location numbers by adding an error pattern, and adds 2 to the correction count (25-11 to 25-13); Actual root value check 25-
If 10 does not hold, there is a triple or more error, and it cannot be corrected by itself, so the process proceeds to erasure processing 25-14, which uses the results of vectors of other series.

イレージヤ処理25−14の一例を第26図に示す、ま
ず26−1で問題のベクトルのなかでイレージヤ登録さ
れている位置をカウントする0例えば第22図において
、ベクトルQOに関してPO〜P2ベクトルがイレージ
ヤ登録されていれば、シンボルSo、Sl、S2の位2
が誤っている可能性が高い、このイレージヤ登録数が3
かどうかを26−2でチエツクする。ここにくるまでに
誤った訂正がなければ、イレージヤ登録されていない位
置のシンボルは正しいことになる。したがって3重シン
ボル誤りならば、それらの位置がイレージヤ登録されて
いることになる。そこでチエ−2り26−2が成立する
ときは3重誤りとみてイレージヤ登録されている3つの
位置を誤りロケーションとして、誤りパターンを算出す
る0例えば3つの誤りロケーション数をXi、X2゜x
3、ソノ誤りパターンをYl、Y2、Y3とすると、 so = yl  + Y2  + Y3Sl  =X
I Y+  +X2 Y2 +X3 Y3S2 =X1
2Y1  +X22Y2 +X32Y3が成立し、この
3つの連立方程式のなかで未知なのは誤りパターンYl
、Y2、Y3だけなのでその解が得られる0例えばY3
は で求められる。26−5で誤りに係る配列上の3つのシ
ンボルに各々、誤りパターンを加えて訂正し、26−6
で訂正カウントをプラス3する。
An example of erasure processing 25-14 is shown in FIG. 26. First, in step 26-1, the positions where erasure is registered in the vector in question are counted. For example, in FIG. If registered, symbols So, Sl, S2 digit 2
There is a high possibility that this is incorrect, and the number of erasure registrations is 3.
Check with 26-2 whether or not. If there is no erroneous correction before reaching this point, the symbol at the position where erasure has not been registered will be correct. Therefore, if there are triple symbol errors, those positions are registered as erasures. Therefore, when Che-2 26-2 holds true, it is considered a triple error and the three positions registered as erasures are used as error locations to calculate the error pattern. For example, the number of three error locations is Xi, X2゜x
3. Let the sono error patterns be Yl, Y2, Y3, so = yl + Y2 + Y3Sl =X
I Y+ +X2 Y2 +X3 Y3S2 =X1
2Y1 +X22Y2 +X32Y3 is established, and the unknown among these three simultaneous equations is the error pattern Yl
, since there are only Y2 and Y3, the solution can be obtained 0 For example, Y3
It is calculated by . In 26-5, each of the three symbols on the array related to the error is corrected by adding an error pattern, and in 26-6
Add 3 to the correction count.

26−2でイレージヤ数が3にならないときは問題のベ
クトル(例えばPベクトル)とは別の系列のベクトル(
Qベクトル)によるイレージヤ処理の機会を与えるため
、問題のベクトルの位置をイレージヤ登録する(26−
7)。
26-2, if the number of erasures is not 3, use a vector of a different series (for example, P vector) than the vector in question (for example, P vector).
In order to give an opportunity for erasure processing using Q vector), register the position of the vector in question as erasure (26-
7).

以上で実施例の説明を終えるが、この発明の範囲内で種
々の変形、変更が可能である0例えば手動式、光電変換
、ライン型のイメージスキャナー6の代りに、モータ等
による機械走査式のもの、磁気インク等に感応する磁気
/電気変換タイプのもの、面lt&型のもの等、任意の
適当なその他のイメージセンサ−が使用できる。また機
械走査式のイメージセンサ−等の使用により、画像の歪
みがほとんどないイメージデータが得られる場合にはイ
メージデータ上から直接的に各網目を認識可能であり、
あるいは少ない数の基準位置から各網目の位置を正確に
算出でき、実施例の符号化画像におけるガイドライン2
1や同期マーク列25のようなサンプリング基準マーク
は不要となる。また符号化(復号化)処理において、実
施例では配列の順序のスクランブル(デスクランブル)
と配列要素値の乱数化(乱数除去化)とを分けて処理し
ているが1例えば、2次元配列上の要素の位置(i、j
)を乱数テーブル等を参照して別の位置に移動させるよ
うな位置スクランブル(位置デスクランブル)処理で一
括して行ってもよい。あるいはビット数は若干犠牲にな
るが、ビット配列にP E (phase encod
ing)やFM、MFM(Modified  fre
quenc7  modulation  )  、 
I  DM(identified delay mo
dulation )等のデジタル変調をかけることに
より、網目パターンにおけるDC成分を除去でき、実施
例の乱数化に代用できる。
This concludes the description of the embodiment, but various modifications and changes are possible within the scope of the present invention.For example, instead of the manual type, photoelectric conversion, or line type image scanner 6, a mechanical scanning type using a motor or the like may be used. Any other suitable image sensor can be used, such as one of the magnetic/electric conversion type sensitive to magnetic ink, etc., one of the surface lt& type, etc. In addition, if image data with almost no image distortion can be obtained by using a mechanical scanning image sensor, etc., each mesh can be recognized directly from the image data.
Alternatively, the position of each mesh can be calculated accurately from a small number of reference positions, and the guideline 2 in the encoded image of the embodiment
1 and the sampling reference marks such as the synchronization mark row 25 are no longer necessary. In addition, in the encoding (decoding) process, in the embodiment, the order of the array is scrambled (descrambled).
For example, if the position of an element on a two-dimensional array (i, j
) may be performed all at once by position scrambling (position descrambling) processing in which the positions are moved to another position by referring to a random number table or the like. Alternatively, the number of bits may be sacrificed slightly, but it is possible to use P E (phase encode) in the bit array.
ing), FM, MFM (Modified frequency)
quenc7 modulation),
I DM (identified delay mo)
By applying digital modulation such as duration), the DC component in the mesh pattern can be removed and can be used as a substitute for random number generation in the embodiment.

[発明の効果] 以上の説明から明らかなように、この発明の音声記録方
法、装N(請求項1.2)によれば、音声を網状パター
ンという高密度な2次元的配列の画像として符号化する
ので、音声の情報をレコード、磁気テープ、CD等の特
殊媒体ではなくどこにでもある紙等の通常媒体に有効に
記録し、保存することが実用上可能となった。
[Effects of the Invention] As is clear from the above description, according to the audio recording method and device N (claim 1.2) of the present invention, audio can be encoded as images in a high-density two-dimensional array called a reticular pattern. As a result, it has become practically possible to effectively record and store audio information not on special media such as records, magnetic tapes, and CDs, but on ordinary media such as paper, which is ubiquitous.

また、この発明の音声再生方法、装置(請求項3.4)
によれば、印刷媒体に記録した網状パターンの画像を復
号化することにより音声を再生することができる。
Furthermore, the audio reproduction method and device of the present invention (Claim 3.4)
According to the publication, audio can be reproduced by decoding an image of a mesh pattern recorded on a print medium.

したがって、本発明により紙等の通常媒体に、これまで
なかった記録媒体機部、即ち音声の記録保存機部を有効
に付加することができ、コストのかからない音声記録媒
体を提供することができる。
Therefore, according to the present invention, it is possible to effectively add a recording medium unit, that is, an audio recording/storage unit, which has not existed heretofore, to a normal medium such as paper, and it is possible to provide an inexpensive audio recording medium.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図はこの発明の実施例に係る音声記録媒体装この全
体構成図、 第2図は第1図の符号化の全体的なフローチャート、 第3図は音声圧縮された目的データのビット配夕鴫を示
す図、 第4図は目的データのシンボル配列を示す図、第5図は
目的データに誤り検査符号を付加した配列を示す図、 第6図は誤り検査符号性のデータ配列に対する1回目の
スクランブル後の配列を示す図、第7図は2回目のスク
ランブル後の配列を示す図、 第8図は3回目のスクランブル後の配列を示す図 第9図はスクランブル後のビット配列を示す図、 第10図はスクランブル後のビット配列のDC成分を除
去するための擬似乱数発生器の構成例を示す図、 第11図はDC成分が除去されたビット配列(最終的な
ビット配列)を示す図、 第12図は第11図に示すビット配列に従って記録媒体
に印刷される符号化画像を例示する図、第13図は復号
化の全体的なフローチャート。 第14図は第12図の符号化画像を手動のイメージセン
サ−で走査して得られるイメージ例を示す図 第15図は符号化画像の走査によるイメージデータをス
トアし、ストアされたイメージデータから主走査基準パ
ターンであるガイドラインを認識して主走査デコードを
行うためのフローチャート、 i16図は主走査デコードされたイメージデータから副
走査基準パターンである同期マーク列を認識して副走査
デコードを行うためのフローチャート、 第17図はイメージRAMのメモリマップヲ示す図。 第18図はガイドラインの断片を特徴づけるガイドライ
ンセットの説明図、 第19図は周囲に文字等がある符号化画像を示すととも
に符号化画像を区分けした複数のサーチブロックを示す
図。 第20図は汚れの付いたガイドラインと同期マーク列の
画像を例示した図、 第21図は第20図の画像に対応する主走査デコードさ
れたイメージデータを示す図、第22図はデータ再生に
おけるシンボル再配置(デスクランブル)後の誤り検査
符号付データのシンボル配列を誤り訂正処理で取り扱う
P、Qベクトルとともに示す図、 第23図は誤り訂正処理の全体のフローチャート、 第24図は第23図の処理24−2.24−5の詳細な
フローチャート、 第25図は第24図のイレージヤ処理の詳細なフローチ
ャートである。 l・・・・・・アナログ・デジタル変換器、2・・・・
・・圧縮装置、3・・・・・・符号化装置、4・・・・
・・印刷装置、5・・・・・・記録媒体、6・・・・・
・イメージスキャナー、7・・・・・・復号化装置、8
・・・・・・伸張装置、9・・・・・・D/A変換器、
20・・・・・・符号化画像、22・・・・・・網状パ
ターン。
Fig. 1 is an overall configuration diagram of an audio recording medium device according to an embodiment of the present invention, Fig. 2 is an overall flowchart of the encoding shown in Fig. 1, and Fig. 3 is a bit arrangement of audio-compressed target data. Figure 4 is a diagram showing the symbol arrangement of the target data, Figure 5 is a diagram showing the array in which an error check code is added to the target data, and Figure 6 is the first time for the error check code data array. Figure 7 shows the arrangement after the second scramble. Figure 8 shows the arrangement after the third scramble. Figure 9 shows the bit arrangement after the scramble. , Figure 10 is a diagram showing an example of the configuration of a pseudorandom number generator for removing the DC component of the bit array after scrambling, and Figure 11 shows the bit array from which the DC component has been removed (final bit array). FIG. 12 is a diagram illustrating an encoded image printed on a recording medium according to the bit arrangement shown in FIG. 11, and FIG. 13 is an overall flowchart of decoding. Figure 14 shows an example of an image obtained by scanning the encoded image in Figure 12 with a manual image sensor. Figure 15 shows an example of an image obtained by scanning the encoded image in Figure 12. A flowchart for performing main scanning decoding by recognizing a guideline, which is a main scanning reference pattern, Figure i16 is a flowchart for performing sub scanning decoding by recognizing a synchronization mark string, which is a sub scanning reference pattern, from main scanning decoded image data. FIG. 17 is a diagram showing a memory map of the image RAM. FIG. 18 is an explanatory diagram of a guideline set that characterizes guideline fragments, and FIG. 19 is a diagram showing an encoded image with characters surrounding it and a plurality of search blocks in which the encoded image is divided. Fig. 20 is a diagram illustrating an image of a smudged guideline and a synchronization mark row, Fig. 21 is a diagram illustrating main scanning decoded image data corresponding to the image in Fig. 20, and Fig. 22 is a diagram illustrating images of a smudged guideline and synchronization mark row. Figure 23 shows the symbol arrangement of error check coded data after symbol rearrangement (descrambling) along with P and Q vectors handled in error correction processing, Figure 23 is an overall flowchart of error correction processing, and Figure 24 is Figure 23. 25 is a detailed flowchart of the erasure process in FIG. 24. l...Analog-to-digital converter, 2...
...Compression device, 3... Encoding device, 4...
...Printing device, 5...Recording medium, 6...
・Image scanner, 7...Decoding device, 8
...... decompression device, 9... D/A converter,
20...Encoded image, 22...Mesh pattern.

Claims (4)

【特許請求の範囲】[Claims] (1)音声をデジタル化してデジタルデータを生成し、 該生成されたデジタルデータを網状パターンの各網目に
選択的に形成される明暗により符号化してイメージ符号
化データを生成し、 該生成されたイメージ符号化データを網状パターンの画
像として印刷媒体に印刷する 工程を有することを特徴とする音声記録方法。
(1) Digitizing audio to generate digital data, encoding the generated digital data by brightness and darkness selectively formed in each mesh of a mesh pattern to generate image encoded data, and generating encoded image data. 1. A sound recording method comprising the step of printing image encoded data as a mesh pattern image on a print medium.
(2)音声をデジタル化してデジタルデータを生成する
音声デジタル化手段と、 該生成されたデジタルデータを網状パターンの各網目に
選択的に形成される明暗により符号化してイメージ符号
化データを生成する符号化手段と、 該生成されたイメージ符号化データを網状パターンの画
像として印刷媒体に印刷する印刷手段と、 を有することを特徴とする音声記録装置。
(2) audio digitization means for digitizing audio to generate digital data; and encoding the generated digital data using brightness and darkness selectively formed in each mesh of the mesh pattern to generate image encoded data. An audio recording device comprising: encoding means; and printing means for printing the generated encoded image data on a printing medium as a mesh pattern image.
(3)音声の情報をもつ網状パターンの画像が印刷され
た記録媒体から、該画像を読み取ってイメージデータを
生成し、 該生成されたイメージデータを上記網状パターンの各網
目に選択的に形成された明暗に従って復号化して音声を
デジタル化したデジタルデータを生成し、 該生成されたデジタルデータを音声に変換する工程を有
することを特徴とする音声再生方法。
(3) Generate image data by reading the image from a recording medium on which a mesh pattern image having audio information is printed, and selectively form the generated image data in each mesh of the mesh pattern. 1. An audio reproduction method comprising the steps of: generating digital data in which audio is digitized by decoding it according to brightness and darkness; and converting the generated digital data into audio.
(4)音声の情報をもつ網状パターンの画像が印刷され
た記録媒体から、該画像を読み取ってイメージデータを
生成するイメージリーダー手段と、該生成されたイメー
ジデータを上記網状パターンの各網目に選択的に形成さ
れた明暗に従って復号化して音声をデジタル化したデジ
タルデータを生成する復号化手段と、 該生成されたデジタルデータを音声に変換する変換手段
と、 を有することを特徴とする音声再生装置。
(4) image reader means for generating image data by reading an image of a mesh pattern having audio information from a recording medium printed thereon; and selecting the generated image data for each mesh of the mesh pattern. an audio reproduction device comprising: decoding means for decoding and digitizing audio to generate digital data according to the brightness and darkness formed by the image; and conversion means for converting the generated digital data into audio. .
JP1145258A 1989-06-09 1989-06-09 Method and device for recording and reproducing voice Pending JPH0311482A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1145258A JPH0311482A (en) 1989-06-09 1989-06-09 Method and device for recording and reproducing voice

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1145258A JPH0311482A (en) 1989-06-09 1989-06-09 Method and device for recording and reproducing voice

Publications (1)

Publication Number Publication Date
JPH0311482A true JPH0311482A (en) 1991-01-18

Family

ID=15380977

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1145258A Pending JPH0311482A (en) 1989-06-09 1989-06-09 Method and device for recording and reproducing voice

Country Status (1)

Country Link
JP (1) JPH0311482A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1995034049A1 (en) * 1994-06-02 1995-12-14 Olympus Optical Co., Ltd. Information recording medium and information reproducing device
WO1996003710A1 (en) * 1994-07-26 1996-02-08 Olympus Optical Co., Ltd. Information recording medium and information reproducing device
EP0720121A2 (en) * 1994-12-28 1996-07-03 Sharp Kabushiki Kaisha Information reproducer and information creating unit
US5680558A (en) * 1993-12-09 1997-10-21 Canon Kabushiki Kaisha Multimedia file management in which specialized icons can be created for different file types
US5802179A (en) * 1995-05-18 1998-09-01 Sharp Kabushiki Kaisha Information processor having two-dimensional bar code processing function
EP0706149A3 (en) * 1994-10-06 1999-10-06 Olympus Optical Co., Ltd. Code data processing apparatus
JP2005228357A (en) * 1992-09-28 2005-08-25 Olympus Corp Code information and code information generation method
US7950589B2 (en) 2006-03-03 2011-05-31 Namco Bandai Games Inc. Program, information storage medium, two-dimensional code generation system, image generation system and printed material
JP2015084264A (en) * 2013-10-25 2015-04-30 株式会社大入 Two-dimensional grayscale image creation method and device related on audio, manufacturing method of two-dimensional grayscale image print related on audio, acoustic waveform reproduction method and device, and acoustic waveform noise removal method and device
CN108027815A (en) * 2015-09-17 2018-05-11 成都雅致奢品网络科技有限公司 A kind of voice and the personalized associated method and system of pattern

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59228700A (en) * 1983-06-10 1984-12-22 松下電器産業株式会社 Information recording

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59228700A (en) * 1983-06-10 1984-12-22 松下電器産業株式会社 Information recording

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005228357A (en) * 1992-09-28 2005-08-25 Olympus Corp Code information and code information generation method
US5680558A (en) * 1993-12-09 1997-10-21 Canon Kabushiki Kaisha Multimedia file management in which specialized icons can be created for different file types
US5898709A (en) * 1994-06-02 1999-04-27 Olympus Optical Co., Ltd. Information recording medium and information reproducing apparatus
US6543697B1 (en) 1994-06-02 2003-04-08 Olympus Optical Co., Ltd. Information recording medium and information reproducing apparatus
US6216238B1 (en) 1994-06-02 2001-04-10 Olympus Optical Co., Ltd. Information recording medium and information reproducing apparatus
WO1995034049A1 (en) * 1994-06-02 1995-12-14 Olympus Optical Co., Ltd. Information recording medium and information reproducing device
AU703385B2 (en) * 1994-06-02 1999-03-25 Olympus Optical Co., Ltd. Information recording medium and information reproducing apparatus
US5920661A (en) * 1994-07-26 1999-07-06 Olympus Optical Co., Ltd. Information recording medium and information reproducing apparatus
WO1996003710A1 (en) * 1994-07-26 1996-02-08 Olympus Optical Co., Ltd. Information recording medium and information reproducing device
EP0706149A3 (en) * 1994-10-06 1999-10-06 Olympus Optical Co., Ltd. Code data processing apparatus
US5873735A (en) * 1994-12-28 1999-02-23 Sharp Kabushiki Kaisha Information reproducer and information creating unit
EP0720121A3 (en) * 1994-12-28 2000-05-31 Sharp Kabushiki Kaisha Information reproducer and information creating unit
EP0720121A2 (en) * 1994-12-28 1996-07-03 Sharp Kabushiki Kaisha Information reproducer and information creating unit
US5802179A (en) * 1995-05-18 1998-09-01 Sharp Kabushiki Kaisha Information processor having two-dimensional bar code processing function
US7950589B2 (en) 2006-03-03 2011-05-31 Namco Bandai Games Inc. Program, information storage medium, two-dimensional code generation system, image generation system and printed material
JP2015084264A (en) * 2013-10-25 2015-04-30 株式会社大入 Two-dimensional grayscale image creation method and device related on audio, manufacturing method of two-dimensional grayscale image print related on audio, acoustic waveform reproduction method and device, and acoustic waveform noise removal method and device
CN108027815A (en) * 2015-09-17 2018-05-11 成都雅致奢品网络科技有限公司 A kind of voice and the personalized associated method and system of pattern

Similar Documents

Publication Publication Date Title
US5153928A (en) Method and apparatus for recording/reproducing mesh pattern data
US5287203A (en) Apparatus for encoding and decoding information on recording medium
JP3628312B2 (en) Watermark information embedding device and watermark information detection device
JP5848464B2 (en) Two-dimensional code, two-dimensional code creation system and analysis program
WO2008118419A1 (en) Method and apparatus for reading a printed indicia with a limited field of view sensor
US8226007B2 (en) Method and apparatus for using a limited capacity portable data carrier
US20060193522A1 (en) Printed material having location identification function, two-dimensional coordinate identification apparatus, image-forming apparatus and the method thereof
JP3742389B2 (en) Cyclic position code
US7532738B2 (en) Print medium quality adjustment system, inspection watermark medium output device for outputting watermark medium to undergo inspection, watermark quality inspection device, adjusted watermark medium output device, print medium quality adjustment method and inspection watermark medium to undergo inspection
US20090010487A1 (en) Processor and method for processing image to update information embedded unreadably in a printed document
EP1410310B1 (en) Fault tolerant data storage on photographs
JPH06199078A (en) Recording body with coded data
JP2007501976A (en) Background data channel on paper or other carrier
JPH0311482A (en) Method and device for recording and reproducing voice
JPH09509795A (en) Verification / authentication encoding method and apparatus
KR19990029417A (en) Data transfer method, data transfer and playback device for embedded data, and information recording medium therefor
JPH0766429B2 (en) Recording method using self-clocking symbol shape code
JP4400565B2 (en) Watermark information embedding device and watermark information detection device
EP1333979B1 (en) Method and apparatus for fault tolerant data storage on photographs
GB2348585A (en) Method and apparatus for watermarking digital data
WO2006035677A1 (en) Image processing method and image processing device
KR20050099852A (en) Apparatus and method for post-processing hologram data reproduced from medium in holographic system
JP3058491B2 (en) Recording and playback system
CN101149934A (en) Method and recording system for encoding data to record in holographic medium
JPH0311481A (en) Method and device for recording data, recording medium, and method and device for reproducing data