JPH0737076A - Image processing device - Google Patents
Image processing deviceInfo
- Publication number
- JPH0737076A JPH0737076A JP5173315A JP17331593A JPH0737076A JP H0737076 A JPH0737076 A JP H0737076A JP 5173315 A JP5173315 A JP 5173315A JP 17331593 A JP17331593 A JP 17331593A JP H0737076 A JPH0737076 A JP H0737076A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- input
- data
- output
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000012545 processing Methods 0.000 title claims abstract description 226
- 239000000872 buffer Substances 0.000 claims abstract description 82
- 238000000034 method Methods 0.000 claims abstract description 31
- 238000001914 filtration Methods 0.000 claims abstract description 20
- 230000001360 synchronised effect Effects 0.000 abstract description 3
- 238000010586 diagram Methods 0.000 description 28
- 238000001514 detection method Methods 0.000 description 16
- 230000003111 delayed effect Effects 0.000 description 4
- 101000685663 Homo sapiens Sodium/nucleoside cotransporter 1 Proteins 0.000 description 3
- 101100328521 Schizosaccharomyces pombe (strain 972 / ATCC 24843) cnt6 gene Proteins 0.000 description 3
- 102100023116 Sodium/nucleoside cotransporter 1 Human genes 0.000 description 3
- 230000004913 activation Effects 0.000 description 3
- 238000007781 pre-processing Methods 0.000 description 3
- 101000821827 Homo sapiens Sodium/nucleoside cotransporter 2 Proteins 0.000 description 2
- 101000822028 Homo sapiens Solute carrier family 28 member 3 Proteins 0.000 description 2
- 102100021541 Sodium/nucleoside cotransporter 2 Human genes 0.000 description 2
- 102100021470 Solute carrier family 28 member 3 Human genes 0.000 description 2
- 230000001934 delay Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000011084 recovery Methods 0.000 description 2
- 230000000630 rising effect Effects 0.000 description 2
- 238000011144 upstream manufacturing Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000012447 hatching Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Landscapes
- Memory System (AREA)
- Controls And Circuits For Display Device (AREA)
- Image Input (AREA)
- Image Processing (AREA)
Abstract
(57)【要約】 (修正有)
【目的】高速に、又任意の走査方式を選択でき、且つ出
力演算結果が不自然にならない画像処理装置を提供す
る。
【構成】ビデオバスと画像データを入出力するインタフ
ェース部22は入出力用に2つの入力バッファ、及び2
つの出力バッファを備え、画像処理装置21内では外部
の同期周波数より高い周波数の同期信号に同期する。一
方の入力バッファに入力された1フレームの画像データ
は、他方の入力バッファに次の1フレームの画像データ
が入力されている間に読み出されて画像処理装置21内
で高速に処理される。ビデオバスの画像データ転送がイ
ンタレースの場合、偶数フィールドのとき0、奇数フィ
ールドのとき1をアドレスポインタに設定し、データ転
送サイクル毎に2インクリメントして、線順次の1フレ
ームの画像データを入力バッファに記憶する。XY方向
の処理領域を設定制御し、必要部分のみを高速に処理す
る。また処理領域境界を検出し、フィルタリング処理を
行う。
(57) [Summary] (Correction) [Purpose] To provide an image processing device which can select an arbitrary scanning method at high speed and which does not cause unnatural output calculation results. [Structure] An interface unit 22 for inputting and outputting a video bus and image data includes two input buffers for input and output, and two input buffers.
The image processing device 21 is provided with two output buffers and is synchronized with a synchronizing signal having a frequency higher than an external synchronizing frequency. The image data of one frame input to one input buffer is read while the image data of the next one frame is input to the other input buffer, and is processed at high speed in the image processing device 21. When the video bus image data transfer is interlaced, 0 is set in the even field and 1 is set in the odd field in the address pointer, and 2 is incremented every data transfer cycle to input the image data of one line-sequential frame. Store in buffer. The processing area in the XY directions is set and controlled, and only the necessary portion is processed at high speed. Also, the processing area boundary is detected and filtering processing is performed.
Description
【0001】[0001]
【産業上の利用分野】本発明は、画像処理装置にに関す
る。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus.
【0002】[0002]
【従来の技術】一般に、図16に示すような画像処理装
置がある。同図に示す画像処理装置では、画像データ
は、カメラ1により撮像されてフレームメモリ2に一旦
取り込まれた後、ビデオバス3b及びビデオバスインタ
ーフェース部4を介して画像処理装置内部に取り込まれ
る。内部に取り込まれた画像データは3個のマルチプレ
クサ5(5−1、5−2、5−3)及び2個のマルチプ
レクサ6(6−1、6−2)を介して画像処理部7に入
る。画像処理部7に入った画像データは、画像処理制御
部8の制御に基づいて各種画像処理が実行された後、4
個のメモリプレーン9(9−1、9−2、9−3、9−
4)の中の選択されたメモリプレーン9に格納される。
画像処理装置は、上記一連の処理をカメラ1の同期信号
に同期し、ビデオバス3b上の1スキャンで実行する。2. Description of the Related Art Generally, there is an image processing apparatus as shown in FIG. In the image processing apparatus shown in the figure, image data is captured by the camera 1 and once captured in the frame memory 2, and then captured in the image processing apparatus via the video bus 3b and the video bus interface unit 4. The image data taken in enters the image processing unit 7 through the three multiplexers 5 (5-1, 5-2, 5-3) and the two multiplexers 6 (6-1, 6-2). . The image data entered into the image processing unit 7 is subjected to various image processing under the control of the image processing control unit 8 and then 4
Memory planes 9 (9-1, 9-2, 9-3, 9-
It is stored in the memory plane 9 selected in 4).
The image processing apparatus executes the above-described series of processing in one scan on the video bus 3b in synchronization with the synchronization signal of the camera 1.
【0003】上記4個のメモリプレーン9は、メモリ制
御部12によりランダムアクセス及び連続リード・ライ
トのシリアルアクセスの制御がなされ、それぞれ上記格
納された画像データを4個のマルチプレクサ10(10
−1、10−2、10−3、10−4)へ出力する。マ
ルチプレクサ10は、マスクプレーン11から入力され
るデータに基づいて、それぞれ画像データを取り込むべ
きメモリプレーン9を選択し、出力されている画像デー
タを取り込み、取り込んだ画像データを切り換えて出力
する。上記マスクプレーン11も、メモリ制御部12に
よりランダムアクセス及び連続リード・ライトのシリア
ルアクセスの制御がなされる。上記の画像処理制御部8
及びメモリ制御部12はシステムバス3aを介して不図
示のCPU(Central Processing Unit) に接続され、そ
のCPUにより制御されている。The four memory planes 9 are controlled by a memory controller 12 for random access and serial read / write serial access, and the stored image data are respectively stored in four multiplexers 10 (10).
-1, 10-2, 10-3, 10-4). Based on the data input from the mask plane 11, the multiplexer 10 selects the memory plane 9 into which each of the image data is to be captured, captures the output image data, and switches and outputs the captured image data. The mask plane 11 is also controlled by the memory control unit 12 for random access and serial read / write serial access. Image processing controller 8
The memory control unit 12 is connected to a CPU (Central Processing Unit) (not shown) via the system bus 3a and is controlled by the CPU.
【0004】上記マルチプレクサ10−4の出力は、出
力用インターフェース14、ビデオバス3b、フレーム
メモリ15を介してCRT表示装置16に画像表示さ
れ、他方、マルチプレクサ10−1、10−2及び10
−3の出力は、上述したマルチプレクサ5(5−1、5
−2、5−3)に入力される。これらの入力をマルチプ
レクサ5−1は直接に、マルチプレクサ5−2、5−3
は、それぞれマルチプレクサ6−1、6−2を介して、
画像処理部7の3本の入力ラインA、B、Cに出力し、
画像処理部7は、これら入力される画像データに基づい
て画像間演算を実行する。The output of the multiplexer 10-4 is image-displayed on the CRT display device 16 via the output interface 14, the video bus 3b and the frame memory 15, while the multiplexers 10-1, 10-2 and 10 are used.
The output of -3 is the multiplexer 5 (5-1, 5) described above.
-2, 5-3). These inputs are directly input to the multiplexer 5-1 and to the multiplexers 5-2 and 5-3.
Through multiplexers 6-1 and 6-2,
Output to the three input lines A, B, C of the image processing unit 7,
The image processing unit 7 executes inter-image calculation based on the input image data.
【0005】また、フィルタリング実行時には、ビデオ
バスインターフェース部4を介してビデオバス3から入
力される画像データ及びマルチプレクサ10を介してメ
モリプレーン9から入力される画像データがマルチプレ
クサ5に入力され、マルチプレクサ5にて、入力される
画像データの切り換え可能となる。マルチプレクサ5−
1からの画像データは、画像処理部7の入力ラインAに
出力されると共にラインバッファ13−1に出力され
る。ラインバッファ13−1は入力データを画像の水平
方向に1H(horizontal:走査ライン)遅延させる回路
であり、その出力はマルチプレクサ6−1に入力される
と共に他のラインバッファ13−2に入力される。マル
チプレクサ6−1はラインバッファ13−1の出力とマ
ルチプレクサ5−2の出力とを入力されているが、フィ
ルタリング実行時は、ラインバッファ13−1からの出
力を画像処理部7の入力ラインBへ出力する。また、マ
ルチプレクサ6−2はラインバッファ13−2の出力と
マルチプレクサ5−3の出力とを入力されているが、ラ
インバッファ13−2からの出力を画像処理部7の入力
ラインCへ出力する。画像処理部7は、3本の入力ライ
ンA、B、Cに並列に入力される画像データによりフィ
ルタリング処理を実行する。During filtering, the image data input from the video bus 3 via the video bus interface unit 4 and the image data input from the memory plane 9 via the multiplexer 10 are input to the multiplexer 5, and the multiplexer 5 Then, the input image data can be switched. Multiplexer 5-
The image data from 1 is output to the input line A of the image processing unit 7 and also to the line buffer 13-1. The line buffer 13-1 is a circuit that delays input data by 1H (horizontal: scanning line) in the horizontal direction of the image, and its output is input to the multiplexer 6-1 and the other line buffer 13-2. . The multiplexer 6-1 receives the output of the line buffer 13-1 and the output of the multiplexer 5-2, but at the time of performing filtering, the output from the line buffer 13-1 is input to the input line B of the image processing unit 7. Output. Further, the multiplexer 6-2 receives the output of the line buffer 13-2 and the output of the multiplexer 5-3, but outputs the output from the line buffer 13-2 to the input line C of the image processing unit 7. The image processing unit 7 executes the filtering process with the image data input in parallel to the three input lines A, B, and C.
【0006】上記画像処理部7は画像データ間演算、及
びフィルタリング演算を共に図17に示すように一定の
遅延期間をもって連続的に複数の画像データの処理を行
って、あたかもパイプライン的に動作する。同図は、上
からそれぞれクロックCK、入力ラインAの入力デー
タ、入力ラインBの入力データ、入力ラインCの入力デ
ータ、及び処理後の出力データである。同図は、クロッ
クCKに同期して入力ラインA、B、及びCに、時刻t
0 から1H分の有効データ0、1、2、・・・がそれぞ
れ入力され、所定の遅延期間後(パイプラインディレイ
後)の時刻t1 から各種画像処理結果である1H分の有
効出力データ0、1、2、・・・の出力が開始されるこ
とを示している。The image processing unit 7 continuously processes a plurality of image data with a constant delay period as shown in FIG. 17 for both the image data calculation and the filtering calculation, and operates as if in a pipeline. . The drawing shows the clock CK, the input data of the input line A, the input data of the input line B, the input data of the input line C, and the output data after processing, respectively from the top. In the figure, the input lines A, B, and C are synchronized with the clock CK at the time t.
0 to 1H worth of valid data 0, 1, 2, ... Are respectively input, and 1H worth of valid output data 0 which is various image processing results from time t1 after a predetermined delay period (after pipeline delay), The output of 1, 2, ... Is started.
【0007】ここで、従来の、1枚の画像に対する入出
力タイミングを図18(a) に示す。同図(a) は、上から
クロックCK、入力データ、及び出力データである。ま
た、同図(b) の左に上記入力データが読み出された入力
画像データ、右に上記出力データにより形成される出力
画像データを示す。The conventional input / output timing for one image is shown in FIG. 18 (a). FIG. 6A shows the clock CK, the input data, and the output data from the top. The left side of FIG. 3B shows the input image data obtained by reading the input data, and the right side thereof shows the output image data formed by the output data.
【0008】同図(b) の左に示すように、入力画像デー
タは、最初の1Hが画素D00、D01、・・・、D0
nで構成され、次の1Hが画素D10、・・・と順次n
+1個の画素で構成されるラインが、0ラインからmラ
インまでm+1ライン構成されている。この入力画像デ
ータが図16に示したフレームメモリ2又はメモリプレ
ーン9から順次に読み出されて図18(a) に示す入力デ
ータとして画像処理部7の選択されているいずれかの入
力ラインA、B又はCに入力される。画像処理部7から
は、上記入力データに対応する処理済みの画像データが
順次数クロック遅れて、最初の1H分の画像データO0
0、O01、・・・、O0n、次の1H分の画像データ
O10、・・・とn+1個づつの1H分の画像データ
(有効データ)が出力される。尚、同図(a) に示す斜線
部分は無効データである。As shown on the left side of FIG. 1B, in the input image data, the first 1H has pixels D00, D01, ..., D0.
n, and the next 1H is the pixel D10, ...
Lines composed of +1 pixels are composed of m + 1 lines from 0 line to m line. This input image data is sequentially read from the frame memory 2 or the memory plane 9 shown in FIG. 16, and any one of the input lines A selected by the image processing unit 7 as the input data shown in FIG. Input to B or C. From the image processing unit 7, the processed image data corresponding to the input data is sequentially delayed by several clocks, and the first 1H of image data O0 is output.
0, O01, ..., O0n, and the next 1H worth of image data O10, ... And n + 1 pieces of 1H worth of image data (valid data) are output. The shaded area in Fig. 6 (a) is invalid data.
【0009】この画像処理を、図16に示した画像処理
装置で処理した場合の動作タイミングを、図19に示
す。同図は、上からカメラ1の同期信号、ビデオバス3
及びビデオバスインタフェースを介してカメラ1から画
像処理装置に転送される画像データ、画像処理部7に入
力される画像データ、画像処理部7から出力される画像
データ、及びメモリプレーン9又はビデオバス3bに出
力される画像データの出力タイミングである。同図にお
いて、矢印で示す期間の白無地で示す信号は有効デー
タ、斜線で示す信号は無効データである。いずれもカメ
ラ1の同期信号に同期し、上から順次処理が進行してい
る。FIG. 19 shows the operation timing when this image processing is processed by the image processing apparatus shown in FIG. In the figure, the synchronization signal of the camera 1 and the video bus 3 are shown from the top.
And image data transferred from the camera 1 to the image processing apparatus via the video bus interface, image data input to the image processing unit 7, image data output from the image processing unit 7, and the memory plane 9 or the video bus 3b. This is the output timing of the image data output to. In the same figure, the signal shown by the white solid color in the period shown by the arrow is valid data, and the signal shown by the diagonal line is invalid data. All of them are synchronized with the synchronization signal of the camera 1, and the processes are sequentially performed from the top.
【0010】また、前述したフィルタリング処理では、
画像データの処理領域の境界部で不定データとの演算が
行われる。この境界部における不定データとの演算につ
いて、図18に示した入力画像データをさらに詳しく図
20に示して説明する。同図に示す画像データにおい
て、フィルタリング処理では、処理対象となる1画素に
対して、その画素を取り巻く上下左右斜めの8画素を合
わせた合計9画素の画像データによる演算がなされる。Further, in the above-mentioned filtering process,
Arithmetic with undefined data is performed at the boundary of the processing area of the image data. The calculation with the indefinite data in this boundary portion will be described in more detail with reference to FIG. 20 showing the input image data shown in FIG. In the image data shown in the figure, in the filtering process, for one pixel to be processed, a total of nine pixels of image data including eight vertically, horizontally and obliquely surrounding the pixel are calculated.
【0011】画像中央部の画素の場合は、その画素を取
り巻く8画素は全て有効データであり、自画素も含めて
有効な9画素による演算が行われる。しかし、同図に示
すように、最上段の第0走査ライン17、最下段の第m
走査ライン18、第0走査ライン17と第m走査ライン
18の中間にある各走査ラインの先頭画素からなる画素
列19及び終端画素からなる画素列20を構成する各画
素は、処理領域境界部になっており、それらの外側に当
たる領域には有効な画像データが存在せず同図に斜線で
示す不定データ領域になっている。In the case of the pixel at the center of the image, all 8 pixels surrounding the pixel are valid data, and the calculation is performed by 9 effective pixels including the own pixel. However, as shown in the figure, the 0th scan line 17 in the top row and the mth scan line in the bottom row
Each pixel forming the pixel row 19 consisting of the first pixel and the pixel row 20 consisting of the end pixel of each scanning line in the middle of the scanning line 18, the 0th scanning line 17 and the mth scanning line 18 is at the boundary of the processing area. Therefore, there is no valid image data in the area outside of these areas, and the area is an indefinite data area shown by hatching in FIG.
【0012】即ち、第0走査ライン17には前走査ライ
ンのデータが無く、画像処理部7には前走査ラインデー
タの代りに不定データ領域の不定データが入力される。
したがって、第0走査ライン17の各画素の画像データ
に対しては、画素3個分の上記不定データ、当該画素前
後(左右)の2個の画素、及び第1走査ラインの3個の
画素による演算が行われる。特に第0走査ライン17の
先頭画素D00及び終端画素D0nは、さらに横に隣接する
1画素分と斜め下の1画素分のデータが不定データであ
り、演算に用いられるデータの内、合計5画素分のデー
タが不定データの状態で演算される。That is, the 0th scan line 17 has no data of the previous scan line, and the image processing section 7 receives undefined data in the undefined data area instead of the previous scan line data.
Therefore, for the image data of each pixel on the 0th scan line 17, the indefinite data for three pixels, two pixels before and after the pixel (left and right), and three pixels on the first scan line are used. Calculation is performed. In particular, for the first pixel D00 and the last pixel D0n of the 0th scan line 17, the data for one pixel that is further adjacent in the horizontal direction and the data for one pixel that is diagonally below are undefined data, and a total of 5 pixels out of the data used for calculation Minute data is calculated in the state of indefinite data.
【0013】最下段の第m走査ライン18も同様に有効
な後続の走査ラインデータが無く、この場合も画像処理
部7には後続走査ラインデータとして斜線で示す領域の
不定データが入力される。したがって、第m走査ライン
18の各画素の画像データに対しても、第m−1走査ラ
インの3個の画素、当該画素前後(左右)の2個の画
素、及び画素3個分の不定データによる演算が行われ
る。そして、この場合も第m走査ライン18の先頭画素
Dm0及び終端画素Dmnは、さらに横に隣接する1画素分
と斜め上の1画素分のデータが不定データであり、やは
り演算に用いられるデータの内、合計5画素分のデータ
が不定データの状態で演算される。Similarly, the m-th scanning line 18 at the bottom has no valid subsequent scanning line data, and in this case also, the indeterminate data in the hatched area is input to the image processing unit 7 as the subsequent scanning line data. Therefore, for the image data of each pixel of the m-th scanning line 18, three pixels of the m-1th scanning line, two pixels before and after the pixel (left and right), and indeterminate data for three pixels are also included. Is calculated. Also in this case, in the first pixel Dm0 and the last pixel Dmn of the m-th scanning line 18, the data of one pixel which is further adjacent in the horizontal direction and the data of one pixel which is diagonally above are indefinite data, and the data used for the calculation is also used. Of these, a total of 5 pixels of data is calculated in the state of indefinite data.
【0014】第0走査ライン17と第m走査ライン18
の中間にある各走査ラインの、先頭画素列19を構成す
る各画素は左と左斜め上下に隣接すべき画素3個分のデ
ータが不定データの状態、終端画素列20を構成する各
画素は右と右斜め上下に隣接すべき画素3個分のデータ
が不定データの状態でそれぞれ演算される。0th scan line 17 and mth scan line 18
In each scanning line in the middle of each of the pixels forming the top pixel column 19, the data of three pixels which should be adjacent to the left and the left diagonally up and down are indefinite data, and each pixel forming the end pixel column 20 is Data for three pixels that should be adjacent to the right and diagonally to the right and below are calculated in the state of indefinite data.
【0015】[0015]
【発明が解決しようとする課題】一般に、画像処理は大
別して、画像データの取り込み、取り込んだ画像データ
の前処理、及び前処理後の画像データを用いた計測や認
識、の3つのステップを踏んで進められる。上記前処理
は、雑音除去、閾値による2値化、細線化、ひずみ補
正、ぼけの回復、特徴抽出等、極めて多岐にわたり、1
枚(1フレーム)の入力画像データに対して、数回にわ
たる様々な処理が実行される。Generally, image processing is roughly divided into three steps: capturing image data, preprocessing the captured image data, and measuring and recognizing using the preprocessed image data. You can proceed with. The above-mentioned pre-processing covers a wide variety of fields such as noise removal, binarization by a threshold, thinning, distortion correction, blur recovery, and feature extraction.
Various processes are performed several times on one (1 frame) input image data.
【0016】ところで、従来の画像処理装置では、ビデ
オバスから転送されてくる画像データを1画面毎に処理
するためにはビデオバスの処理タイミングに同期して処
理を行う必要がある。このため、ビデオバスの1画面の
1スキャンに対応して1度(1種類)の処理しか実行で
きない。したがって複数種類の処理が要求される場合
は、静止画面を複数回スキャンして実行することにな
り、したがって撮像画面をリアルタイムで処理できない
ばかりでなく、静止画面で処理しても時間がかかり過ぎ
るという問題があった。By the way, in the conventional image processing apparatus, in order to process the image data transferred from the video bus for each screen, it is necessary to perform the processing in synchronization with the processing timing of the video bus. Therefore, only one (one type) process can be executed in response to one scan of one screen of the video bus. Therefore, if multiple types of processing are required, the still screen will be scanned and executed multiple times, so not only can the imaging screen not be processed in real time, but processing on the still screen will take too much time. There was a problem.
【0017】また、画像処理を行う場合、前後する走査
ラインの画像データを用いるためには、ビデオバスによ
る画像データの転送は線順次走査すなわち第0ライン、
第1ライン、第2ライン、・・・と順次1ライン毎に走
査して画像データを処理するノン・インタレース方式に
限定される。したがってインタレース方式で行う他の処
理を併用することができず不便であるという問題があっ
た。Further, in the case of performing image processing, in order to use the image data of the preceding and following scanning lines, the transfer of the image data by the video bus is line sequential scanning, that is, the 0th line,
It is limited to the non-interlaced method in which the image data is processed by sequentially scanning the first line, the second line, ... Therefore, there is a problem that it is inconvenient because other processing performed by the interlace system cannot be used together.
【0018】さらに、フィルタリング処理に際しては、
図20で説明したように、画像データ領域の処理領域境
界部では、領域外の不定データと演算が実行される。し
たがって、結果が不自然になるという欠点もあった。Further, in the filtering process,
As described with reference to FIG. 20, in the processing area boundary portion of the image data area, the indefinite data outside the area is calculated. Therefore, there is also a drawback that the result becomes unnatural.
【0019】本発明の課題は、画像処理を高速に行うと
共に任意の走査方式を選択でき且つ出力される演算結果
が不自然にはならない画像処理装置を提供することであ
る。An object of the present invention is to provide an image processing apparatus which can perform image processing at a high speed, can select an arbitrary scanning method, and which does not cause an unnatural output of a calculation result.
【0020】[0020]
【課題を解決するための手段】請求項1記載の発明の画
像処理装置21は(図1のブロック図参照)、外部から
取り込まれた画像データ又は内部で処理された画像デー
タを外部から入力する同期信号に同期して外部と入出力
し外部から取り込まれた画像データ又は内部で処理され
た画像データを内部の同期信号に同期して内部と入出力
するビデオバスインタフェース手段22を有して、外部
の同期周波数と内部の同期周波数とを分離して画像処理
を高速に行う。An image processing apparatus 21 according to the invention described in claim 1 (see the block diagram of FIG. 1) inputs image data fetched from the outside or image data internally processed from the outside. A video bus interface means 22 for inputting / outputting to / from the outside in synchronization with the synchronization signal and for inputting / outputting image data fetched from the outside or image data processed inside from the inside in synchronization with the internal synchronization signal, Image processing is performed at high speed by separating the external synchronizing frequency and the internal synchronizing frequency.
【0021】上記ビデオバスインタフェース手段22は
(図2のブロック図参照)、例えば請求項2記載のよう
に、入力部に並列に設けられた2つのビデオ入力バッフ
ァ22−1、22−2を有する。The video bus interface means 22 (see the block diagram of FIG. 2) has, for example, two video input buffers 22-1 and 22-2 provided in parallel with the input section as described in claim 2. .
【0022】また、上記ビデオバスインタフェース手段
22は(図3のブロック図参照)、例えば請求項3記載
のように、外部からインタレース方式で転送されてくる
偶数フィールドの画像データを入力するときはビデオ入
力バッファ22−1、22−2の垂直方向のスタートア
ドレスを「0」に設定し、奇数フィールドの画像データ
を入力するときは前記ビデオ入力バッファ22−1、2
2−2の垂直方向のスタートアドレスを「1」に設定
し、外部からノン・インタレース方式で転送されてくる
画像データを入力するときは前記ビデオ入力バッファ2
2−1、22−2の垂直方向のスタートアドレスを
「0」に設定するスタートアドレス設定手段23と、外
部からインタレース方式で転送されてくる画像データを
入力するときは前記ビデオ入力バッファ22−1、22
−2の垂直方向のアドレスのインクリメントを「2」に
切り換え、外部からノン・インタレース方式で転送され
てくる画像データを入力するときは前記ビデオ入力バッ
ファ22−1、22−2の垂直方向のアドレスのインク
リメントを「1」に切り換えるインクリメント切換手段
24とを有する。Further, the video bus interface means 22 (see the block diagram of FIG. 3) receives the even field image data transferred from the outside in the interlace system as described in claim 3, for example. When the vertical start addresses of the video input buffers 22-1 and 22-2 are set to "0" and the image data of the odd field is input, the video input buffers 22-1 and 22-2 are input.
When the vertical start address 2-2 is set to "1" and the image data transferred from the outside in the non-interlaced mode is input, the video input buffer 2 is used.
The start address setting means 23 for setting the vertical start addresses of 2-1 and 22-2 to "0", and the video input buffer 22- when inputting image data transferred from the outside by the interlace method 1, 22
-2, the vertical address increment is switched to "2", and when the image data transferred from the outside in the non-interlaced mode is input, the video input buffers 22-1 and 22-2 in the vertical direction are input. And an increment switching means 24 for switching the increment of the address to "1".
【0023】更に、上記ビデオバスインタフェース手段
22は(図4のブロック図参照)、例えば請求項4記載
のように、出力部に並列に設けられた2つのビデオ出力
バッファを有する。Further, the video bus interface means 22 (see the block diagram of FIG. 4) has, for example, two video output buffers provided in parallel with the output section as described in claim 4.
【0024】請求項5記載の発明の画像処理装置は(図
5のブロック図参照)、上記ビデオバスインタフェース
手段22、ビデオ入力バッファ22−1、22−2、ス
タートアドレス設定手段23、及びインクリメント切換
手段24に加えて、画像データのXY方向の処理領域を
設定するXY領域設定手段25と、画像データの処理領
域のスタートアドレスを設定する領域アドレス設定手段
26を更に有して、領域アドレス設定手段26により設
定されたスタートアドレス及びXY領域設定手段25に
より設定された処理領域とに基づいて画像データを処理
する。The image processing apparatus according to the fifth aspect of the present invention (see the block diagram of FIG. 5) includes the video bus interface means 22, the video input buffers 22-1 and 22-2, the start address setting means 23, and the increment switching. In addition to the means 24, an XY area setting means 25 for setting a processing area in the XY directions of the image data, and an area address setting means 26 for setting a start address of the processing area of the image data are further provided, and the area address setting means is provided. The image data is processed based on the start address set by 26 and the processing area set by the XY area setting means 25.
【0025】請求項6記載の発明は、入力される画像デ
ータを画像処理回路に出力する出力回路と、この出力回
路の出力を1走査ライン分遅延させて画像処理回路に出
力する第1の遅延回路と、この第1の遅延回路の出力を
更に1走査ライン分遅延させて画像処理回路に出力する
第2の遅延回路とを有して画像データのフィルタリング
処理を行う画像処理装置に適用される。According to a sixth aspect of the present invention, an output circuit for outputting the input image data to the image processing circuit, and a first delay for delaying the output of the output circuit by one scanning line and outputting the delayed image data to the image processing circuit. The present invention is applied to an image processing apparatus having a circuit and a second delay circuit that further delays the output of the first delay circuit by one scanning line and outputs the delayed image to the image processing circuit. .
【0026】本発明の画像処理装置は(図6のブロック
図参照)、画像データの処理領域の境界を検出する検出
手段27と、この検出手段27により画像データの処理
領域の境界が検出されたとき、その検出された画像デー
タの処理領域境界に応じて上記出力回路、第1の遅延回
路、又は第2の遅延回路の出力に代えて予め設定されて
いる固定データを出力する固定データ出力手段28−
1、28−2及び28−3とを有する。The image processing apparatus of the present invention (see the block diagram of FIG. 6) detects the boundary of the processing area of the image data, and the detecting means 27 detects the boundary of the processing area of the image data. At this time, fixed data output means for outputting preset fixed data in place of the output of the output circuit, the first delay circuit, or the second delay circuit according to the processing area boundary of the detected image data. 28-
1, 28-2 and 28-3.
【0027】[0027]
【作用】請求項1記載の発明の画像処理装置1では、ビ
デオバスインタフェース手段22により外部の同期周波
数と内部の同期周波数とが分離され、画像データが内部
の同期信号に同期して高速に処理される。According to the first aspect of the present invention, the video bus interface means 22 separates the external synchronizing frequency from the internal synchronizing frequency, and the image data is processed at high speed in synchronization with the internal synchronizing signal. To be done.
【0028】例えば、ビデオバスインタフェース手段2
2の入力部に並列に設けられた2つのビデオ入力バッフ
ァ22−1、22−2の一方に外部から画像データが入
力されているとき、他方のビデオ入力バッファの画像デ
ータが高速に処理される。For example, the video bus interface means 2
When image data is input from the outside to one of the two video input buffers 22-1 and 22-2 provided in parallel to the two input units, the image data of the other video input buffer is processed at high speed. .
【0029】また、例えば、ビデオバスインタフェース
手段22に外部からインタレース方式で転送されてくる
偶数フィールドの画像データと奇数フィールドの画像デ
ータがビデオ入力バッファ22−1又は22−2に線順
次の1フレームの画像データの状態で格納される。これ
によって、ノン・インタレース方式で転送されてくる画
像データの場合と同様にインタレース方式で転送されて
くる画像データの場合でも、一方のビデオ入力バッファ
22−1又は22−2に外部から画像データが入力され
ているとき、他方のビデオ入力バッファの画像データを
高速に処理できる。Further, for example, even field image data and odd field image data which are transferred from the outside to the video bus interface means 22 by an interlace method are line-sequential 1 to the video input buffer 22-1 or 22-2. It is stored in the state of frame image data. As a result, even in the case of image data transferred by the interlace method as in the case of image data transferred by the non-interlace method, the image is externally supplied to one of the video input buffers 22-1 or 22-2. When data is being input, the image data in the other video input buffer can be processed at high speed.
【0030】更に、ビデオバスインタフェース手段22
の出力部に並列に設けられた2つのビデオ出力バッファ
により、外部への出力が内部処理と切り離して行える。
請求項5記載の発明の画像処理装置21では、上記の各
作用に加えて、画像データのXY方向の処理領域を設定
し、この設定された領域内の画像データを高速に処理で
きる。Further, the video bus interface means 22
With the two video output buffers provided in parallel with the output section of, the output to the outside can be performed separately from the internal processing.
In the image processing device 21 according to the fifth aspect of the present invention, in addition to the above respective operations, a processing area in the XY directions of the image data is set, and the image data in the set area can be processed at high speed.
【0031】請求項6記載の発明の画像処理装置では、
フィルタリング処理の行われる画像データの処理領域の
境界で、処理領域外のデータが予め設定されている固定
データと入れ換えられる。これによって、処理結果が安
定する。According to the image processing apparatus of the invention described in claim 6,
At the boundary of the processing area of the image data on which the filtering processing is performed, the data outside the processing area is replaced with the preset fixed data. This stabilizes the processing result.
【0032】[0032]
【実施例】以下、図面を参照しながら、本発明の実施例
について説明する。図7は、一実施例に係わる画像処理
装置の回路ブロック図である。同図に示す画像処理装置
は、ビデオバス31を介して画像データを入出力するビ
デオバスインタフェース部32、その画像データの雑音
除去、閾値による2値化、細線化、ひずみ補正、ぼけの
回復、特徴抽出等の処理を行う画像処理部33、及びそ
れらの画像データを一時的に記憶し出力する記憶部34
から構成される。Embodiments of the present invention will be described below with reference to the drawings. FIG. 7 is a circuit block diagram of the image processing apparatus according to the embodiment. The image processing apparatus shown in the figure includes a video bus interface unit 32 for inputting and outputting image data via a video bus 31, noise removal of the image data, binarization by a threshold, thinning, distortion correction, blur recovery, An image processing unit 33 that performs processing such as feature extraction, and a storage unit 34 that temporarily stores and outputs those image data.
Composed of.
【0033】ビデオバスインタフェース部32は、デー
タ入力部32−1とデータ出力部32−2からなる。デ
ータ入力部32−1は、カメラ35により撮像されて一
旦フレームメモリ36に記憶された画像データをビデオ
バス31を介して取り込む2つの入力インタフェース3
2−1a、32−1a′を備えている。そして、さら
に、これら2つの入力インタフェース32−1a、32
−1a′から画像データをそれぞれ入力されて記憶する
2つのビデオ入力バッファ32−1b、32−1b′、
これら2つのビデオ入力バッファ32−1b、32−1
b′からそれぞれ画像データを読み出して画像処理部3
3に出力する2つの出力インタフェース32−1c、3
2−1c′、上記2つのビデオ入力バッファ32−1
b、32−1b′の入出力を制御する入力部バッファ制
御部32−1d、及びそれら2つのビデオ入力バッファ
32−1b、32−1b′の入出力データのスタートア
ドレスを指定するアドレスレジスタ32−1eを備えて
いる。上記2つのビデオ入力バッファ32−1b、32
−1b′はそれぞれVRAM(Video RAM )で構成さ
れ、入力部バッファ制御部32−1dは、ビデオ入力バ
ッファ32−1b、32−1b′のシリアルポート側か
ら連続リード(読み出し)及び連続ライト(書き込み)
ができる構成となっている。The video bus interface section 32 comprises a data input section 32-1 and a data output section 32-2. The data input section 32-1 has two input interfaces 3 that take in image data, which is picked up by the camera 35 and temporarily stored in the frame memory 36, via the video bus 31.
2-1a and 32-1a '. Then, further, these two input interfaces 32-1a, 32
-1a ', two video input buffers 32-1b, 32-1b' for receiving and storing image data respectively,
These two video input buffers 32-1b and 32-1
The image processing unit 3 reads out image data from b '.
Two output interfaces 32-1c, 3 which output to 3
2-1c ', the above two video input buffers 32-1
b, 32-1b ', an input section buffer control section 32-1d for controlling input / output, and an address register 32-for designating start addresses of input / output data of these two video input buffers 32-1b, 32-1b'. 1e. The above two video input buffers 32-1b and 32
-1b 'is composed of VRAM (Video RAM), and the input buffer control unit 32-1d continuously reads (reads) and continuously writes (writes) from the serial port side of the video input buffers 32-1b and 32-1b'. )
It is configured to be able to.
【0034】また、ビデオバスインタフェース部32の
データ出力部32−2は、画像データの入出力方向が、
上記データ入力部32−1と反対になるのみで構成は同
一である。即ち、データ出力部32−2の構成は、記憶
部34から出力された画像データを入力される2つの入
力インタフェース32−2a、32−2a′、これら2
つの入力インタフェース32−2a、32−2a′から
画像データをそれぞれ入力される2つのビデオ出力バッ
ファ32−2b、32−2b′、これら2つのビデオ出
力バッファ32−2b、32−2b′の画像データをビ
デオバス31を介してフレームメモリ37にそれぞれ出
力する2つの出力インタフェース32−2c、32−2
c′、上記2つのビデオ出力バッファ32−2b、32
−2b′の入出力を制御する出力部バッファ制御部32
−2d、及びそれら2つのビデオ出力バッファ32−2
b、32−2b′の入出力データのスタートアドレスを
指定するアドレスレジスタ32−2eを備えている。上
記2つのビデオ出力バッファ32−2b、32−2b′
もそれぞれVRAMで構成され、そのシリアルポート側
から、出力部バッファ制御部32−2dにより、連続リ
ード及び連続ライトの制御が可能なように構成される。
また、上記フレームメモリ37に一旦取り込まれた画像
データはCRTディスプレイ38に出力されて画面表示
される。Further, the data output section 32-2 of the video bus interface section 32 is
The configuration is the same as that of the data input section 32-1. That is, the configuration of the data output unit 32-2 has two input interfaces 32-2a and 32-2a 'to which the image data output from the storage unit 34 is input, and these two input interfaces 32-2a and 32-2a'.
Two video output buffers 32-2b and 32-2b 'to which image data are respectively input from one input interface 32-2a and 32-2a', and image data of these two video output buffers 32-2b and 32-2b ' Of two output interfaces 32-2c and 32-2 for respectively outputting the data to the frame memory 37 via the video bus 31.
c ', the above two video output buffers 32-2b, 32
-2b 'input / output control section buffer control section 32
-2d and those two video output buffers 32-2
An address register 32-2e for designating a start address of input / output data of b, 32-2b 'is provided. The two video output buffers 32-2b and 32-2b '
Each of them is also composed of a VRAM, and the output buffer control section 32-2d can control continuous reading and writing from the serial port side.
Further, the image data once captured in the frame memory 37 is output to the CRT display 38 and displayed on the screen.
【0035】次に、記憶部34は、それぞれ4つのイン
タフェース40(40−1、40−2、40−3及び4
0−4)、メモリプレーン41(41−1、41−2、
41−3及び41−4)、及びマルチプレクサ42(4
2−1、42−2、42−3及び42−4)を備えてい
る。上記4つのインタフェース40は、それぞれ対応す
るメモリプレーン41(41−1、41−2、41−3
又は41−4)に、画像処理部33から入力される画像
データを出力すると共に、それぞれが4つのマルチプレ
クサ42(42−1、42−2、42−3及び42−
4)へ上記画像データを出力する。また、4つのメモリ
プレーン41も、入力された画像データを、それぞれが
4つのマルチプレクサ42(42−1、42−2、42
−3及び42−4)へ出力する。さらに、記憶部34
は、上記4つのマルチプレクサ42を制御するマスクプ
レーン43、そのマスクプレーン43及び4つのメモリ
プレーン41の入出力を制御するメモリ制御部44、マ
スクプレーン43のスタートアドレスを指定するアドレ
スレジスタ45並びに4つのメモリプレーン41のスタ
ートアドレスをそれぞれ指定する4つのアドレスレジス
タ46(46−1、46−2、46−3、46−4)を
備えている。上記メモリ制御部44は、システムバス4
7を介して不図示のCPU(Central Processing Unit)
に接続されており、そのCPUからの制御に基づいて、
マスクプレーン43及び4つのメモリプレーン41の入
出力をランダムアクセス又は連続リード・ライトのシリ
アルアクセス制御する。Next, the storage unit 34 has four interfaces 40 (40-1, 40-2, 40-3 and 4), respectively.
0-4), the memory plane 41 (41-1, 41-2,
41-3 and 41-4), and the multiplexer 42 (4
2-1, 42-2, 42-3 and 42-4). The four interfaces 40 are respectively associated with the corresponding memory planes 41 (41-1, 41-2, 41-3).
Or 41-4), the image data input from the image processing unit 33 is output, and each of the four multiplexers 42 (42-1, 42-2, 42-3 and 42-).
The image data is output to 4). In addition, the four memory planes 41 also input the input image data into four multiplexers 42 (42-1, 42-2, 42).
-3 and 42-4). Further, the storage unit 34
Is a mask plane 43 that controls the four multiplexers 42, a memory control unit 44 that controls the input and output of the mask plane 43 and the four memory planes 41, an address register 45 that specifies the start address of the mask plane 43, and four memory planes. It is provided with four address registers 46 (46-1, 46-2, 46-3, 46-4) which respectively specify the start address of the memory plane 41. The memory control unit 44 is the system bus 4
CPU (Central Processing Unit) (not shown)
Connected to, and based on the control from that CPU,
Input / output of the mask plane 43 and the four memory planes 41 is controlled by random access or serial access of continuous read / write.
【0036】上記のマルチプレクサ42は、マスクプレ
ーン43から入力されるデータに基づいてメモリプレー
ン41を選択し、選択されたメモリプレーン41が出力
している画像データを取り込んで、その取り込んだ画像
データをそのまま又は切り換えて他の回路へ出力する。
上記4つのマルチプレクサ42の内、マルチプレクサ4
2−4の画像データは、ビデオバスインタフェース部3
2のデータ出力部32−2に出力され、残る3つのマル
チプレクサ42−1、42−2及び42−3の画像デー
タは、画像処理部33へ出力される。The multiplexer 42 selects the memory plane 41 based on the data input from the mask plane 43, takes in the image data output from the selected memory plane 41, and fetches the taken image data. It is output as it is or switched to another circuit.
Of the four multiplexers 42, the multiplexer 4
The image data 2-4 is stored in the video bus interface unit 3
The image data of the remaining three multiplexers 42-1, 42-2, and 42-3 is output to the image processing unit 33.
【0037】画像処理部33は、システムバス47を介
して不図示のCPUから制御される画像処理制御部5
0、この画像処理制御部50の制御のもとに各種の画像
処理を行う画像処理回路51、上記ビデオバスインタフ
ェース部32のデータ入力部32−1から入力される画
像データと記憶部34の3つのマルチプレクサ42−
1、42−2及び42−3から入力される画像データを
そのまま又は切り換えて画像処理回路51側へ出力する
3つのマルチプレクサ52(52−1、52−2、52
−3)、並びにこれら3つのマルチプレクサ52と画像
処理回路51の間に介在する2つの1Hディレイ回路5
3(53−1、53−2)、3つの固定データ出力回路
54(54−1、54−2、54−3)、2つのマルチ
プレクサ55(55−1、55−2)、及び境界検出部
56から構成される。The image processing unit 33 is controlled by a CPU (not shown) via the system bus 47.
0, an image processing circuit 51 that performs various image processes under the control of the image processing control unit 50, image data input from the data input unit 32-1 of the video bus interface unit 32, and a storage unit 34. Two multiplexers 42-
Three multiplexers 52 (52-1, 52-2, 52) that output the image data input from 1, 42-2 and 42-3 as they are or by switching them to the image processing circuit 51 side.
-3), and two 1H delay circuits 5 interposed between these three multiplexers 52 and the image processing circuit 51.
3 (53-1, 53-2), three fixed data output circuits 54 (54-1, 54-2, 54-3), two multiplexers 55 (55-1, 55-2), and a boundary detection unit It is composed of 56.
【0038】上記マルチプレクサ52−1の出力は、固
定データ出力回路54−1を介して画像処理回路51へ
画像データAとして入力すると共に、1Hディレイ回路
53−1へも分岐して入力する。また、マルチプレクサ
52−2の出力は、下流のマルチプレクサ55−1に入
力し、マルチプレクサ52−3の出力は、他の下流のマ
ルチプレクサ55−2に入力する。The output of the multiplexer 52-1 is input as image data A to the image processing circuit 51 via the fixed data output circuit 54-1 and is also branched and input to the 1H delay circuit 53-1. The output of the multiplexer 52-2 is input to the downstream multiplexer 55-1 and the output of the multiplexer 52-3 is input to the other downstream multiplexer 55-2.
【0039】上記マルチプレクサ52−1から分岐して
1Hディレイ回路53−1へ入力した画像データは、1
走査ライン分の時間の遅れをもって出力され、固定デー
タ出力回路54−2を介して下流のマルチプレクサ55
−1に入力すると共に、他の1Hディレイ回路53−2
へも分岐して入力する。この1Hディレイ回路53−2
へ入力した画像データは、さらに1走査ライン分の時間
の遅れをもって出力され、固定データ出力回路54−3
を介して他の下流のマルチプレクサ55−2に入力す
る。The image data branched from the multiplexer 52-1 and input to the 1H delay circuit 53-1 is 1
The data is output with a time delay corresponding to the scanning line, and the downstream multiplexer 55 passes through the fixed data output circuit 54-2.
-1 and the other 1H delay circuit 53-2
Also branch to and enter. This 1H delay circuit 53-2
The image data input to the fixed data output circuit 54-3 is output with a time delay of one scanning line.
Input to the other downstream multiplexer 55-2 via.
【0040】マルチプレクサ55−1に上流のマルチプ
レクサ52−2から入力した画像データ及び固定データ
出力回路54−2を介して1Hディレイ回路53−1か
ら入力した画像データは、画像処理のモードに応じて選
択されて、画像データBとして画像処理回路51に入力
する。また、マルチプレクサ55−2に上流のマルチプ
レクサ52−3から入力した画像データ及び固定データ
出力回路54−3を介して1Hディレイ回路53−2か
ら入力した画像データは、画像処理のモードに応じて選
択されて、画像データCとして画像処理回路51に入力
する。画像処理回路51は、これら入力する画像データ
A、B、Cを処理して、その処理した画像データを記憶
部34に出力する。The image data input from the upstream multiplexer 52-2 to the multiplexer 55-1 and the image data input from the 1H delay circuit 53-1 via the fixed data output circuit 54-2 depend on the image processing mode. It is selected and input to the image processing circuit 51 as image data B. Further, the image data input from the upstream multiplexer 52-3 to the multiplexer 55-2 and the image data input from the 1H delay circuit 53-2 via the fixed data output circuit 54-3 are selected according to the image processing mode. Then, the image data C is input to the image processing circuit 51. The image processing circuit 51 processes the input image data A, B, and C and outputs the processed image data to the storage unit 34.
【0041】尚、上記画像処理部33の境界検出部5
6、及び記憶部34のメモリプレーン41(41−1、
41−2、41−3及び41−4)には、詳しくは後述
する処理領域制御部57が接続しており処理領域制御部
57には起動回路58が接続している。The boundary detecting section 5 of the image processing section 33 is
6, and the memory plane 41 (41-1, 4-1,
41-2, 41-3, and 41-4) are connected to a processing area control unit 57, which will be described later in detail, and a startup circuit 58 is connected to the processing area control unit 57.
【0042】次に、図8(a),(b)に、上述したビデオバ
スインタフェース部32におけるデータ入力部32−1
の2つのビデオ入力バッファ32−1b及び32−1
b′とデータ出力部32−2の2つのビデオ出力バッフ
ァ32−2b及び32−2b′、並びに記憶部34の4
つのメモリプレーン41(41−1、41−2、41−
3、41−4)及びマスクプレーン43をそれぞれ構成
するVRAMのデータ入出力について説明する。Next, in FIGS. 8A and 8B, the data input section 32-1 in the above-mentioned video bus interface section 32 is shown.
Two video input buffers 32-1b and 32-1
b ′ and the two video output buffers 32-2b and 32-2b ′ of the data output unit 32-2, and 4 of the storage unit 34.
One memory plane 41 (41-1, 41-2, 41-
3, 41-4) and the data input / output of the VRAM forming the mask plane 43 will be described.
【0043】同図(a) に示すように、本実施例において
用いられるVRAMは、512×512×4ビット構成
のメモリセルアレイ61からなっている。これは、画像
データの縦横の画素数が512×512の場合の例であ
る。マスクプレーン43は、1画素毎に4つのメモリプ
レーン41の組み合わせを指定するためには1画素毎に
4ビットあればよく、したがって1個のメモリセルアレ
イ61で構成される。また、通常画像データは1画素が
8ビット構成であるので、ビデオ入力バッファ32−1
b、32−1b′、ビデオ出力バッファ32−2b、3
2−2b′、メモリプレーン41−1、41−2、41
−3、及び41−4の場合はいずれも同図(a) に示すメ
モリセルアレイ61を2個重ねて配設することによって
構成し、例えば、同図(a) に見えるメモリセルアレイ6
1に512×512の各画素の下位4ビットを割り当
て、他方、同図(a) には見えないメモリセルアレイ61
に各画素の上位4ビットを割り当てるようにする。以下
の説明では、1個のメモリセルアレイ61のデータ入出
力について述べるが、2個重ねて配設される場合の他の
1個についても同様である。また、メモリプレーン又は
入出力バッファの画像データの入出力について述べる
が、マスクプレーン43のメモリプレーン選択データの
場合も同様である。As shown in FIG. 7A, the VRAM used in this embodiment is composed of a memory cell array 61 of 512 × 512 × 4 bits. This is an example when the number of vertical and horizontal pixels of the image data is 512 × 512. The mask plane 43 only needs to have 4 bits for each pixel in order to specify a combination of four memory planes 41 for each pixel, and thus is composed of one memory cell array 61. Further, since one pixel of normal image data has an 8-bit configuration, the video input buffer 32-1
b, 32-1b ', video output buffer 32-2b, 3
2-2b ′, memory planes 41-1, 41-2, 41
-3 and 41-4 are both constructed by arranging two memory cell arrays 61 shown in FIG. 10A so as to overlap each other. For example, the memory cell array 6 shown in FIG.
The lower 4 bits of each pixel of 512 × 512 are assigned to 1, while the memory cell array 61 which is not visible in FIG.
The upper 4 bits of each pixel are assigned to. In the following description, the data input / output of one memory cell array 61 will be described, but the same applies to the other one when two memory cells are arranged in an overlapping manner. Further, the input / output of the image data of the memory plane or the input / output buffer will be described, but the same applies to the case of the memory plane selection data of the mask plane 43.
【0044】同図(a),(b) において、メモリセルアレイ
61には、水平方向(X方向)にSAM(sequential ac
cess method)回路61−1が接続され、垂直方向(Y方
向)にローデコーダ61−2が接続されている。また、
SAM回路61−1にはスイッチ回路61−3を介して
SIO(serial I/O interface)1〜SIO4が接続され
ている。In FIGS. 1A and 1B, the memory cell array 61 has a SAM (sequential accumulative) in the horizontal direction (X direction).
cess method) circuit 61-1 and a row decoder 61-2 are connected in the vertical direction (Y direction). Also,
SIOs (serial I / O interfaces) 1 to SIO 4 are connected to the SAM circuit 61-1 via a switch circuit 61-3.
【0045】SAM回路61−1は、画像データの読み
出し/書き込みを画素の走査ライン(水平方向)毎に行
う。ローデコーダ61−2は、メモリ制御部44から入
力するロー選択信号A0〜A8をデコードし、上記走査
1ライン毎に対応して選択される512ビット×(下位
又は上位の)4ビットのメモリ領域(ロー)を画像デー
タの読み出し先又は書き込み先として指定する。SIO
1〜SIO4は、画像データのシリアルリード及びシリ
アルライトを行うための直列入出力インタフェースであ
り、スイッチ回路61−3を介して1画素毎に4ビット
の水平方向の画像データを順次シリアルにSAM回路6
1−1と入出力する。スイッチ回路61−3は、同図
(a) に示すシリアルライトの動作時には、スイッチがS
IO1〜SIO4からメモリセルアレイ61向きにON
となり、特にはタイミングチャートを図示しないがスイ
ッチ回路61−3はシリアルクロックに同期して、上記
SIO1〜SIO4から入力される画像データを、予め
指定されているSAM回路61−1のスタートアドレス
から順次書き込んでいく。The SAM circuit 61-1 reads / writes image data for each pixel scanning line (horizontal direction). The row decoder 61-2 decodes the row selection signals A0 to A8 input from the memory control unit 44, and a 512-bit × (lower-order or higher-order) 4-bit memory area selected corresponding to each scanning line. (Low) is designated as the read or write destination of the image data. SIO
Reference numerals 1 to SIO4 are serial input / output interfaces for serially reading and serially writing image data, and sequentially serially SAM four-bit horizontal image data for each pixel via the switch circuit 61-3. Circuit 6
Input and output with 1-1. The switch circuit 61-3 is shown in FIG.
During the serial write operation shown in (a), the switch is set to S
ON from IO1 to SIO4 toward the memory cell array 61
Although not shown in the timing chart in particular, the switch circuit 61-3 synchronizes the image data input from the SIO1 to SIO4 with the start address of the SAM circuit 61-1 which is designated in advance, in synchronization with the serial clock. I will write it.
【0046】そして、所定の画像データが書き込まれた
後、VRAMに対するライト転送サイクルが実行される
ことにより、選択されているローアドレスのメモリセル
アレイに1ライン分の画像データ(512ビット×4ビ
ット)が転送されて書き込まれる。Then, after a predetermined image data is written, a write transfer cycle to the VRAM is executed, so that one line of image data (512 bits × 4 bits) is written in the memory cell array of the selected row address. Is transferred and written.
【0047】また、スイッチ回路61−3は、同図(b)
に示すシリアルリードの動作時には、スイッチがメモリ
セルアレイ61からSIO1〜SIO4向きにONとな
る。そして、VRAMに対するリード転送サイクルが実
行されることによって、選択されているローアドレスの
メモリセルアレイから1ライン分の画像データがSAM
回路61−1転送され、その転送後、スイッチ回路61
−3によりシリアルクロックに同期して予め指定されて
いるSAM回路61−1のスタートアドレスから、画像
データが順次シリアルに読み出され、SIO1〜SIO
4へ出力される。このようにして、画像データがVRA
Mへ(から)入力(出力)される。The switch circuit 61-3 has the same structure as that shown in FIG.
During the serial read operation shown in (1), the switches are turned on from the memory cell array 61 in the directions of SIO1 to SIO4. Then, a read transfer cycle for the VRAM is executed, so that the image data for one line from the memory cell array of the selected row address is SAM.
The circuit 61-1 is transferred, and after the transfer, the switch circuit 61
-3, the image data is sequentially read serially from the start address of the SAM circuit 61-1 specified in advance in synchronization with the serial clock, and SIO1 to SIO
4 is output. In this way, the image data is VRA
Input (output) to (from) M.
【0048】図7に示したように、ビデオバスインタフ
ェース部32のデータ入力部32−1とデータ出力部3
2−2には、それぞれ2つずつのビデオ入力バッファ3
2−1b、32−1b′及びビデオ出力バッファ32−
2b、32−2b′が設けられており、例えば上述した
データ入力の場合は、カメラ35から取り込まれる1ス
キャン分(1フレーム分)の画像データがビデオ入力バ
ッファ32−1bと32−1b′に交互に格納される。As shown in FIG. 7, the data input section 32-1 and the data output section 3 of the video bus interface section 32.
2-2 has two video input buffers 3 each.
2-1b, 32-1b 'and video output buffer 32-
2b and 32-2b 'are provided, for example, in the case of the above-mentioned data input, the image data for one scan (one frame) captured from the camera 35 is stored in the video input buffers 32-1b and 32-1b'. Stored alternately.
【0049】一方のビデオ入力バッファ32−1bに、
画像データが、ビデオバス31の処理周波数に基づいて
ビデオバス31を介してフレームメモリ36から転送さ
れている間、他方のビデオ入力バッファ32−1b′
は、ビデオバス31の処理周期に関係なく画像処理部3
3の処理周波数に基づいて画像データを画像処理部33
に転送する。反対に、ビデオ入力バッファ32−1b′
が画像データ入力中は、ビデオ入力バッファ32−1b
が画像データを画像処理部33に出力する。In one video input buffer 32-1b,
While the image data is being transferred from the frame memory 36 via the video bus 31 based on the processing frequency of the video bus 31, the other video input buffer 32-1b '
Is the image processing unit 3 regardless of the processing cycle of the video bus 31.
The image processing unit 33 converts the image data based on the processing frequency of 3
Transfer to. On the contrary, the video input buffer 32-1b '
Is inputting image data, the video input buffer 32-1b
Outputs the image data to the image processing unit 33.
【0050】このように、ビデオバスインタフェース部
32に2つのビデオ入力バッファ32−1b、32−1
b′を設けたことにより、一方では、ビデオバス31か
らの画像データ入力を妨げることなく、他方では、ビデ
オバス31の処理周期に関係なく画像処理部33の処理
周期で画像データが処理される。したがって、ビデオバ
ス31の画像データ1スキャンの間に、画像処理部33
の処理周期に応じて、例えばその処理周期がビデオバス
31の処理周期の2倍であれば2倍の処理速度で、3倍
であれば3倍の処理速度で、画像データを処理すること
ができる。As described above, the video bus interface unit 32 has two video input buffers 32-1b and 32-1.
By providing b ′, on the one hand, the image data is processed in the processing cycle of the image processing unit 33 without disturbing the input of the image data from the video bus 31, and on the other hand, regardless of the processing cycle of the video bus 31. . Therefore, during one scan of the image data of the video bus 31, the image processing unit 33
Depending on the processing cycle, the image data can be processed at a processing speed of twice the processing cycle of the video bus 31 and a processing speed of three times the processing cycle of the video bus 31. it can.
【0051】図9は、画像処理部33の処理周期をビデ
オバス31の処理周期の2倍にした場合の画像処理部3
3のタイミングチャートである。同図は、(a) は同期信
号、(b) はカメラ35からフレームメモリ36及びビデ
オバス31を介して画像処理装置のビデオバスインタフ
ェース部32へ転送される画像データ、(c) はビデオバ
スインタフェース部32から画像処理部33に入力され
る画像データ、(d) は画像処理部33から出力される画
像データ、(e) は画像処理装置のビデオバスインタフェ
ース部32から、ビデオバス31及びフレームメモリ3
7を介してCRTディスプレイ38に出力される画像デ
ータ、(f) は同期期間内の処理内容である。FIG. 9 shows the image processing section 3 when the processing cycle of the image processing section 33 is twice as long as the processing cycle of the video bus 31.
3 is a timing chart of No. 3; In the figure, (a) is a sync signal, (b) is image data transferred from the camera 35 to the video bus interface unit 32 of the image processing apparatus via the frame memory 36 and the video bus 31, and (c) is a video bus. Image data input from the interface unit 32 to the image processing unit 33, (d) image data output from the image processing unit 33, and (e) from the video bus interface unit 32 of the image processing apparatus to the video bus 31 and the frame. Memory 3
Image data output to the CRT display 38 via (7), (f) is the processing content within the synchronization period.
【0052】同図(f) に示すように、先ず同期信号に同
期して画像データAがビデオバス31からビデオバスイ
ンタフェース部32へ転送(入力)され、続いて次の同
期信号に同期して画像データBが転送(入力)される
(同図(a),(b) 参照)。この画像データBの転送(入
力)の間に、画像処理部33では入力された画像データ
Aに対して入力された処理周期の2倍の処理周期で処理
1及び処理2がなされ(同図(c) 参照)、処理結果は装
置内の他の回路(ビデオバスインタフェース部32又は
記憶部34)へ出力される(同図(d) 参照)。このよう
な処理の結果の画像データAは、次の同期信号に同期し
て、ビデオバスインタフェース部32から、ビデオバス
31及びフレームメモリ37を介してCRTディスプレ
イ38に出力される(同図(e) 参照)。そして、入力さ
れた画像データBも同様の処理周期で処理される(同図
(e),(f) 参照)。As shown in FIG. 7F, first, the image data A is transferred (input) from the video bus 31 to the video bus interface section 32 in synchronization with the synchronization signal, and then in synchronization with the next synchronization signal. The image data B is transferred (input) (see (a) and (b) in the same figure). During the transfer (input) of the image data B, the image processing unit 33 performs processing 1 and processing 2 at a processing cycle twice as long as the processing cycle input to the input image data A (see FIG. (See c)), and the processing result is output to another circuit (video bus interface unit 32 or storage unit 34) in the apparatus (see (d) in the same figure). The image data A as a result of such processing is output from the video bus interface unit 32 to the CRT display 38 via the video bus 31 and the frame memory 37 in synchronization with the next synchronization signal ((e in the figure). )). Then, the input image data B is processed in the same processing cycle (see FIG.
(See (e) and (f)).
【0053】即ち、例えばビデオ入力バッファから入力
された画像データを画像処理回路51で処理し、処理し
た結果の画像データをメモリプレーン41に格納し、格
納した画像データをメモリプレーン41からシリアルに
連続して読出し、読出した画像データを画像処理回路5
1で更に処理を施し、再びメモリプレーン41に格納
し、あるいはビデオ出力バッファ32−2b又は32−
2b′に格納するという複数種類の処理を、ビデオバス
31の画像データ1スキャン分の時間で実行できる。That is, for example, the image data input from the video input buffer is processed by the image processing circuit 51, the processed image data is stored in the memory plane 41, and the stored image data is serially serially output from the memory plane 41. Read out, and the read image data is read by the image processing circuit 5
1 further processes and stores again in the memory plane 41, or the video output buffer 32-2b or 32--
A plurality of types of processing of storing in 2b 'can be executed in a time corresponding to one scan of the image data of the video bus 31.
【0054】画像処理部33の処理周波数をビデオバス
31の処理周波数の3倍、4倍と可能な限り上げるよう
にすれば、それに応じて、ビデオバスによる画像データ
1スキャン分の転送の間に、多種類のデータ処理が可能
になる。If the processing frequency of the image processing unit 33 is set as high as possible to 3 times or 4 times as high as the processing frequency of the video bus 31, accordingly, during the transfer of one scan of image data by the video bus. It enables various kinds of data processing.
【0055】次に、ビデオ入力バッファ32−1b、3
2−1b′の垂直方向のアドレス(図8(a),(b) で説明
したローアドレス)を、図7の入力部バッファ制御部3
2−1dで、「1」インクリメント又は「2」インクリ
メントのいずれかに切換えが出来るように構成する。Next, the video input buffers 32-1b, 3-1
The address 2-1b 'in the vertical direction (the row address described in FIGS. 8 (a) and 8 (b)) is input to the input buffer control unit 3 in FIG.
In 2-1d, it is possible to switch to either "1" increment or "2" increment.
【0056】即ち、図10(a) に示すように、ビデオバ
ス31の画像データ転送がノン・インタレース(線順
次)方式の場合は、入力部バッファ制御部32−1d内
蔵の垂直方向アドレスポインタに初期値「0」を設定し
て、同図の垂直同期信号が示すデータ転送サイクル毎に
「1」インクリメントする。これによって、ビデオ入力
バッファ32−1b又は32−1b′には1フレームの
画像データが格納される。That is, as shown in FIG. 10A, when the image data transfer on the video bus 31 is a non-interlaced (line-sequential) system, a vertical direction address pointer built in the input buffer controller 32-1d. Is set to the initial value "0" and incremented by "1" for each data transfer cycle indicated by the vertical synchronizing signal in the figure. As a result, one frame of image data is stored in the video input buffer 32-1b or 32-1b '.
【0057】他方、同図(b) に示すように、ビデオバス
31の画像データ転送がインタレース(飛び越し走査)
方式の場合は、偶数フィールド(第0ライン、第2ライ
ン、第4ライン、・・・で構成される1画面分データ)
のときはアドレスポインタに初期値「0」を設定し、奇
数フィールド(第1ライン、第3ライン、第5ライン、
・・・で構成される1画面分データ)のときは初期値
「1」を設定して、データ転送サイクル毎に「2」イン
クリメントする。これによって、偶数フィールドのデー
タ転送のときはアドレス「0」、「2」、「4」、・・
・に画像データが格納され、次の奇数フィールドのデー
タ転送のときはアドレス「1」、「3」、「5」、・・
・に画像データが格納されて、1フレームの画像データ
がビデオ入力バッファ32−1b又は32−1b′に完
成する。On the other hand, as shown in FIG. 7B, the image data transfer on the video bus 31 is interlaced (interlaced scanning).
In the case of the system, an even field (1 screen data composed of 0th line, 2nd line, 4th line, ...)
In the case of, the initial value “0” is set in the address pointer, and the odd field (first line, third line, fifth line,
(1 screen data composed of ...), an initial value "1" is set, and "2" is incremented for each data transfer cycle. As a result, at the time of data transfer of an even field, addresses "0", "2", "4", ...
Image data is stored in, and at the time of data transfer of the next odd field, addresses "1", "3", "5", ...
Image data is stored in, and one frame of image data is completed in the video input buffer 32-1b or 32-1b '.
【0058】このように、ノン・インタレース方式のデ
ータ転送の場合は勿論のこと、インタレース方式の場合
でも1フレームの線順次構成の画像データをビデオ入力
バッファ32−1b(又は32−1b′)に格納でき
る。したがって、他方のビデオ入力バッファ32−1
b′(又は32−1b)にインタレース方式による次の
1フレーム分の画像データが入力(格納)されている間
に、一方の入力バッファ32−1bに完成されている1
フレーム分の画像データを用いて、前述した画像データ
処理が可能になる。すなわち、従来インタレース方式の
入力画像データに対して処理が不可能であったリアルタ
イムのフィルタリング処理等が可能になる。As described above, not only in the case of non-interlace type data transfer but also in the case of interlace type, one frame of line-sequential image data is used as the video input buffer 32-1b (or 32-1b '). ) Can be stored. Therefore, the other video input buffer 32-1
While the image data for the next one frame by the interlace method is input (stored) to b '(or 32-1b), one input buffer 32-1b is completed.
The image data processing described above can be performed using the image data for the frames. That is, it becomes possible to perform a real-time filtering process or the like which could not be performed on the input image data of the conventional interlace system.
【0059】ところで、例えば人物の顔などに着目点を
絞って画像データの処理範囲を限定すれば、上記の画像
処理の効率がさらに向上する。例えば、画像データの中
央部に処理範囲を設定して処理する場合は、例えば図1
1(a) に示すように、それぞれ水平方向のメモリサイズ
をXmax 、垂直方向のメモリサイズをYmax とする4つ
のメモリプレーン41の内、2つのメモリプレーン41
−1、41−2の中央部に指定された処理範囲xi ×y
j のメモリ領域Aをそれぞれ設定し、この領域からそれ
ぞれ読み出した画像データに所定の処理(演算)を施し
て、同図(b) に示すように、他のメモリプレーン41−
3の左上部に格納する。この場合、処理時間は「(xi
×yj )/(Xmax ×Ymax )」の割合で短縮され、処
理速度が向上する。By the way, if the processing range of the image data is limited by focusing on the face of a person or the like, the efficiency of the above-mentioned image processing is further improved. For example, when a processing range is set in the central portion of image data for processing, for example, as shown in FIG.
As shown in FIG. 1 (a), two memory planes 41 out of the four memory planes 41 having a horizontal memory size of Xmax and a vertical memory size of Ymax, respectively.
-1, 41-2 processing range specified in the central part xi xy
Each memory area A of j is set, and the image data read out from this area is subjected to predetermined processing (calculation), and as shown in FIG.
Stored in the upper left part of 3. In this case, the processing time is "(xi
Xyj) / (Xmax * Ymax) ", and the processing speed is improved.
【0060】本実施例では、処理範囲の設定は、図7の
4つのアドレスレジスタ46(46−1、46−2、4
6−3、46−4)により処理領域の処理前データのス
タートアドレス「(a、b)」及び処理後データのスタ
ートアドレス「(0、0)」を設定し、処理領域制御部
57の2つの領域設定レジスタに処理領域のサイズxi
及びyj を設定することによって行う。In this embodiment, the processing range is set by setting the four address registers 46 (46-1, 46-2, 4 and 4 in FIG. 7).
6-3, 46-4) to set the start address “(a, b)” of the pre-processing data and the start address “(0, 0)” of the post-processing data in the processing area. Size of processing area x i in one area setting register
And yj by setting.
【0061】図12に、この処理領域制御部57の回路
ブロック図を示す。同図に示すように、処理領域制御部
57は、Yサイズレジスタ57−1、Yサイズカウンタ
57−2、Xサイズレジスタ57−3、Xサイズカウン
タ57−4、及びディレイ57−5から構成される。上
記Yサイズレジスタ57−1は、図7のシステムバス4
7を介してCPUから入力されるデータDATAにより
処理領域のサイズデータyj を設定され、その設定され
たサイズデータyj を、**制御信号YLDの入力タイ
ミングでYサイズカウンタ57−2に出力する。Xサイ
ズレジスタ57−3は、データDATAの入力により処
理領域のサイズデータxi を設定され、その設定された
サイズデータxi を画像処理制御部50から制御信号X
LDが入力される都度、Xサイズカウンタ57−4に出
力する。Xサイズカウンタ57−4は、起動信号*EN
の入力により起動され、Xサイズレジスタ57−3によ
り入力されたサイズデータxi をクロックCLKに同期
して減算を繰り返し、減算が繰り返されている期間、状
態信号*XSTATEを出力し、減算結果が「0」にな
ると状態信号*XSTATEの出力を停止すると共にキ
ャリー信号CYをディレイ57−6へ出力する。これに
より、アドレスレジスタ46に設定されたスタートアド
レス「(a、b)」を起点とする走査ライン上から図8
(a) に示したSAM回路61−1に順次転送されてくる
処理前の画像データが、スタートアドレス「a」からサ
イズデータxi の範囲で、SIO1〜SIO4によりス
イッチ回路61−3を介して読み出される。あるいは処
理後の画像データがスタートアドレス「0」からサイズ
データxi の範囲でSIO1〜SIO4からスイッチ回
路61−3を介して図8(b) に示したSAM回路61−
1に書き込まれる。FIG. 12 shows a circuit block diagram of the processing area control unit 57. As shown in the figure, the processing area control unit 57 includes a Y size register 57-1, a Y size counter 57-2, an X size register 57-3, an X size counter 57-4, and a delay 57-5. It The Y size register 57-1 is the system bus 4 of FIG.
The size data yj of the processing area is set by the data DATA input from the CPU via 7, and the set size data yj is output to the Y size counter 57-2 at the input timing of the ** control signal YLD. The size data xi of the processing area is set in the X size register 57-3 by the input of the data DATA, and the set size data xi is sent from the image processing control section 50 to the control signal X.
Whenever LD is input, it outputs to the X size counter 57-4. The X size counter 57-4 has a start signal * EN.
Is started, the size data xi input by the X size register 57-3 is repeatedly subtracted in synchronization with the clock CLK, and the state signal * XSTATE is output while the subtraction is repeated, and the subtraction result is " When it becomes "0", the output of the status signal * XSTATE is stopped and the carry signal CY is output to the delay 57-6. As a result, from the scan line starting from the start address “(a, b)” set in the address register 46, as shown in FIG.
The unprocessed image data sequentially transferred to the SAM circuit 61-1 shown in (a) are read by the SIO1 to SIO4 via the switch circuit 61-3 in the range from the start address "a" to the size data xi. Be done. Alternatively, the processed image data is from the start address "0" to the size data xi, and from the SIO1 to SIO4 through the switch circuit 61-3, the SAM circuit 61-shown in FIG.
Written to 1.
【0062】ディレイ57−5は、メモリセルアレイ6
1(メモリプレーン41)からSAM回路61−1に又
はSAM回路61−1からメモリセルアレイ61に、1
ライン分のデータが転送されるタイミングの期間だけ遅
延して、上記入力されたキャリー信号CYをYサイズカ
ウンタ57−2へ出力する。Yサイズカウンタ57−2
は、Yサイズレジスタ57−1により設定されているサ
イズデータyj を、キャリー信号CYの入力の都度クロ
ックCLKに同期して減算を行い、この期間、状態信号
*YSTATEを出力し、減算結果が「0」になると状
態信号*YSTATEの出力を停止すると共にキャリー
信号*YCYを出力する。これにより、アドレスレジス
タ46に設定されたスタートアドレス「(a、b)」を
起点とする垂直方向の処理範囲が制御される。The delay 57-5 is for the memory cell array 6
1 (memory plane 41) to SAM circuit 61-1 or SAM circuit 61-1 to memory cell array 61
The carry signal CY that has been input is output to the Y size counter 57-2 with a delay of the timing at which the data for the line is transferred. Y size counter 57-2
Subtracts the size data yj set by the Y size register 57-1 in synchronization with the clock CLK each time the carry signal CY is input, outputs the state signal * YSTATE during this period, and the subtraction result is " When it becomes "0", the output of the status signal * YSTATE is stopped and the carry signal * YCY is output. As a result, the vertical processing range starting from the start address “(a, b)” set in the address register 46 is controlled.
【0063】この処理領域制御部57を起動する起動部
を図13に示す。同図に示す起動部58はレジスタであ
り、画像処理制御部50から入力される命令信号CMD
によりシステムバス47を介して入力されるデータDA
TAをセットされ、セットされたデータDATAの所定
ビットが「1」であるとき起動して、処理領域制御部5
7に起動信号*ENを出力し、処理領域制御部57のY
サイズカウンタ57−2からのキャリー信号*YCYに
よりリセットされて起動信号*ENの出力を停止する。FIG. 13 shows an activation unit that activates the processing area control unit 57. The activation unit 58 shown in the figure is a register, and a command signal CMD input from the image processing control unit 50.
Data DA input via the system bus 47 by
When the TA is set and the predetermined bit of the set data DATA is "1", the processing area control unit 5 is activated.
The start signal * EN is output to 7 and Y of the processing area control unit 57 is output.
The carry signal * YCY from the size counter 57-2 resets the output of the start signal * EN.
【0064】このように、任意の処理範囲を指定して画
像データを処理することが容易にできる。本実施例で
は、フィルタリング処理の際には、処理領域の境界を検
出し、境界外の不定データに代えて固定データを出力す
る。処理領域の境界は、上述した処理領域制御部57か
ら出力されるY方向を制御する状態信号*YSTATE
及びX方向を制御する状態信号*XSTATEの前後の
エッジを認識することにより容易に検出できる。In this way, it is possible to easily process image data by designating an arbitrary processing range. In the present embodiment, at the time of filtering processing, the boundary of the processing area is detected, and fixed data is output instead of indefinite data outside the boundary. The boundary of the processing area is a status signal * YSTATE that controls the Y direction output from the processing area control unit 57 described above.
And the edge before and after the state signal * XSTATE for controlling the X direction can be easily detected.
【0065】図14及び図15に、フィルタリング処理
のタイミングを示す。図14は、垂直方向の処理タイミ
ングであり、(a) は処理期間、(b) は処理領域制御部5
7から出力される状態信号CNT1(図12では状態信
号*YSTATE)、(c) は境界検出部56から出力さ
れる上部境界検出信号CNT2、(d)は同じく下部境界
検出信号CNT3であり、(e) はマルチプレクサ52−
1から画像処理回路51に入力される画像データA、
(f) は1Hディレイ回路53−1から画像処理回路51
に入力される画像データB、(g) は1Hディレイ回路5
3−2から画像処理回路51に入力される画像データC
を示す。FIGS. 14 and 15 show the timing of the filtering process. FIG. 14 shows the processing timing in the vertical direction, where (a) is the processing period and (b) is the processing area control unit 5.
7 is a state signal CNT1 (state signal * YSTATE in FIG. 12), (c) is an upper boundary detection signal CNT2 output from the boundary detection unit 56, (d) is a lower boundary detection signal CNT3, e) is the multiplexer 52-
Image data A input to the image processing circuit 51 from 1;
(f) is the 1H delay circuit 53-1 to the image processing circuit 51
Image data B and (g) input to the 1H delay circuit 5
Image data C input from 3-2 to the image processing circuit 51
Indicates.
【0066】同図(a) に示すように、処理期間は時刻t
0 に開始され、ビデオバス及びメモリプレーンから出力
された画像データがマルチプレクサ52−1で選択さ
れ、この選択された画像データAが、1V(垂直方向の
処理範囲)の1H(水平方向1ライン)毎に、期間t0
〜t1 、t1 〜t2 、・・・、tn-1 〜tn で、順次画
像処理回路51へ出力される。同図(e),(f),(g) に示す
ように、連続する3ラインの画像データが1H分の期
間、及び2H分の期間遅延して、画像処理回路51に入
力される。同図(a')に示すように、1Vのフィルタリン
グ処理は、1H分遅延して入力される画像データB(同
図(f) 参照)の画素を中心にして、これに対して1H分
先行する画像データA(同図(e) 参照)及びさらに1H
分遅延している画像データC(同図(g) 参照)の画素と
で演算される。As shown in FIG. 9A, the processing period is time t.
Image data output from the video bus and the memory plane starting at 0 is selected by the multiplexer 52-1 and the selected image data A is 1V (horizontal direction 1 line) of 1V (vertical processing range). Every time period t0
... t1, t1 to t2, ..., Tn-1 to tn are sequentially output to the image processing circuit 51. As shown in (e), (f), and (g) of the same figure, the image data of continuous three lines is input to the image processing circuit 51 with a delay of 1H period and 2H period. As shown in (a ') of the figure, the filtering process of 1V is preceded by 1H with respect to the pixel of the image data B (see (f) in the figure) that is input with a delay of 1H. Image data A (see (e) in the figure) and 1H
It is calculated with the pixels of the image data C (see FIG. 9 (g)) delayed by an amount.
【0067】したがって、1Vのフィルタリング処理期
間において、マルチプレクサ52−1から出力される画
像データAは、先頭の第0ラインが無視され、最終ライ
ンである第nラインの次に1H分の不定データが出力さ
れる。そして、1Hディレイ回路53−2から出力され
る画像データCは、最初の1H分の期間、有効な画像デ
ータが無くこの期間は不定データが出力される。また、
最終の第nラインが無視される。Therefore, in the image data A output from the multiplexer 52-1 during the filtering process of 1V, the leading 0th line is ignored, and 1H of indefinite data is added to the nth line which is the last line. Is output. The image data C output from the 1H delay circuit 53-2 has no valid image data during the first 1H period, and indefinite data is output during this period. Also,
The final nth line is ignored.
【0068】図7の境界検出部56は、図14(a) の時
刻t0 で、処理開始を示す状態信号CNT1の立ち下が
りを検出し(同図(b) 参照)、この検出に基づいて1H
分の期間経過後から、即ち時刻t1 から、次の1H分の
期間、上部境界検出信号CNT2を固定データ出力回路
54−3に出力する(同図(c) 参照)。これによって固
定データ出力回路54−3は、上記1Hディレイ回路5
3−2から出力される画像データCの不定データに代え
て1H分の固定データを出力する。本実施例においては
固定データは予め「0」に設定されている。The boundary detecting section 56 in FIG. 7 detects the falling edge of the status signal CNT1 indicating the start of processing at time t0 in FIG. 14 (a) (see FIG. 14 (b)), and 1H is detected based on this detection.
After the lapse of the minute period, that is, from the time t1, the upper boundary detection signal CNT2 is output to the fixed data output circuit 54-3 for the next 1H period (see FIG. 7C). As a result, the fixed data output circuit 54-3 causes the 1H delay circuit 5 to
The fixed data of 1H is output instead of the indefinite data of the image data C output from 3-2. In this embodiment, the fixed data is set to "0" in advance.
【0069】また、境界検出部56は、時刻tn で、処
理終了を示す状態信号CNT1の立ち上がりを検出し
(同図(b) 参照)、この検出に基づいて時刻tn から1
H分の期間、下部境界検出信号CNT3を固定データ出
力回路54−1に出力する(同図(d) 参照)。これによ
って固定データ出力回路54−1は、上記マルチプレク
サ42−1から出力される画像データAの不定データに
代えて1H分の固定データ「0」を出力する。Further, the boundary detecting section 56 detects the rising edge of the status signal CNT1 indicating the end of processing at time tn (see FIG. 9B), and based on this detection, 1 from time tn.
During the period of H minutes, the lower boundary detection signal CNT3 is output to the fixed data output circuit 54-1 (see FIG. 7D). As a result, the fixed data output circuit 54-1 outputs 1H of fixed data “0” instead of the indefinite data of the image data A output from the multiplexer 42-1.
【0070】このようにして、フィルタリング処理で
は、処理領域の上の境界においては固定データ、第0ラ
インデータ、及び第1ラインデータによる演算が行わ
れ、処理領域の下の境界においては、第n−1ラインデ
ータ、第nラインデータ、及び固定データによる演算が
行われるため、上下の境界における安定した演算結果が
得られる。In this way, in the filtering process, the fixed data, the 0th line data, and the 1st line data are calculated at the upper boundary of the processing region, and the n-th line is calculated at the lower boundary of the processing region. Since the -1 line data, the nth line data, and the fixed data are calculated, stable calculation results at the upper and lower boundaries can be obtained.
【0071】次に、図15はフィルタリング処理の水平
方向の処理タイミングであり、(a)は処理クロックC
K、(b) は1Hの画素データD0 、D1 、D2 、・・
・、Dn、(c) は水平方向データの有効期間、(d) は処
理領域制御部57から出力される状態信号CNT4(図
12では状態信号*XSTATE)、(e) は境界検出部
56から出力される左方境界検出信号CNT5、(f) は
同じく右方境界検出信号CNT6、及び(g) は前後に1
画素分の固定データを付加されたて画像処理回路51に
入力される1Hの画像データA(B及びC)を示す。Next, FIG. 15 shows the processing timing in the horizontal direction of the filtering processing, and (a) shows the processing clock C.
K, (b) is 1H pixel data D0, D1, D2, ...
, Dn, (c) is the valid period of the horizontal data, (d) is the status signal CNT4 (status signal * XSTATE in FIG. 12) output from the processing area control unit 57, and (e) is the boundary detection unit 56. The left boundary detection signals CNT5 and (f) output are the same as the right boundary detection signal CNT6, and (g) is 1 before and after.
The image data A (B and C) of 1H to which the fixed data for pixels is added and which is input to the image processing circuit 51 is shown.
【0072】境界検出部56は、水平方向の出力開始を
示す状態信号CNT4の立ち下がりを検出し(同図(d)
参照)、この検出に基づいて1クロックの期間、左方境
界検出信号CNT5を出力し、また、水平方向の出力終
了を示す状態信号CNT4の立ち上がりを検出し、この
検出に基づいて1クロック後に1クロックの期間、右方
境界検出信号CNT6を出力する。これらの出力は、そ
れぞれ固定データ出力回路54−1、54−2、及び5
4−3に入力され、これら入力される検出信号CNT5
及びCNT6に基づいて、固定データ出力回路54−
1、54−2、及び54−3は1画素分の固定データ
「0」をそれぞれ出力する。これによって、左右の処理
領域外データ部分に1画素分の固定データ「0」を付加
された画像データA、B、及びCが画像処理回路51に
入力される。The boundary detecting section 56 detects the trailing edge of the state signal CNT4 indicating the start of horizontal output ((d) in the figure).
Based on this detection, the left boundary detection signal CNT5 is output for one clock period, and the rising edge of the status signal CNT4 indicating the end of horizontal output is detected. The right boundary detection signal CNT6 is output during the clock period. These outputs are fixed data output circuits 54-1, 54-2, and 5 respectively.
4-3, and these input detection signals CNT5
And CNT6 based on the fixed data output circuit 54-
1, 54-2, and 54-3 output fixed data "0" for one pixel, respectively. As a result, the image data A, B, and C to which the fixed data “0” for one pixel is added to the left and right non-processing area data are input to the image processing circuit 51.
【0073】このようにして、フィルタリング処理で
は、処理領域の左の境界においては3ライン毎に固定デ
ータ「0」、画素D0、及び画素D1が演算され、右の
境界においては3ライン毎に画素Dn−1、画素Dn、
固定データ「0」による演算が行われるため、左右の境
界における安定した演算結果が得られる。In this way, in the filtering process, the fixed data "0", the pixel D0, and the pixel D1 are calculated for every three lines at the left boundary of the processing region, and the pixel for every three lines is calculated at the right boundary. Dn-1, pixel Dn,
Since the calculation is performed using the fixed data “0”, stable calculation results at the left and right boundaries can be obtained.
【0074】[0074]
【発明の効果】以上詳述したように、本発明によれば、
ビデオバスのインタフェース部に入出力共に2つのビデ
オバッファを並列に設け、2つのビデオバッファで交互
にデータを入出力し、且つ外部の同期周波数と内部の同
期周波数とを分離するので、内部の高い周波数の同期信
号に同期して画像データの処理ができ、したがって、外
部の低速なデータ転送速度に影響されることなく高速な
画像データの処理が可能になる。As described in detail above, according to the present invention,
Two video buffers for input and output are provided in parallel in the interface part of the video bus, data is alternately input and output by the two video buffers, and an external synchronization frequency and an internal synchronization frequency are separated, so that the internal high frequency is high. Image data can be processed in synchronization with a frequency synchronization signal, and therefore high-speed image data can be processed without being affected by a low external data transfer rate.
【0075】また、インタレース方式で転送される偶数
フィールドと奇数フィールドの画像データを線順次の1
フレームの画像データの状態でバッファに格納するの
で、一方のビデオバッファにインタレース方式でデータ
転送中に他方のビデオバッファに格納された線順次の1
フレームの画像データの処理ができ、したがって、ノン
インタレース方式の場合と同様にインタレース方式の場
合でも容易に画像データをリアルタイムでフィルタリン
グ処理することが可能になる。Further, the image data of the even field and the odd field transferred by the interlace system are line-sequentially 1
Since the image data of the frame is stored in the buffer, the line-sequential 1 stored in the other video buffer during data transfer by the interlace method to one of the video buffers.
The image data of the frame can be processed. Therefore, the image data can be easily filtered in real time in the case of the interlace system as well as the case of the non-interlace system.
【0076】画像データに任意の処理領域を設定できる
ので、必要な部分のみに範囲を限定して画像データを処
理することができ、したがって、範囲を限定した分、処
理速度を向上させることが可能になる。Since an arbitrary processing area can be set in the image data, the image data can be processed by limiting the range only to the necessary portion, and therefore the processing speed can be improved by the limited range. become.
【0077】画像データの処理領域の境界を検出して領
域外に対応する不定データに代えて固定データを出力す
るので、処理領域の境界においても安定した演算結果が
得られ、したがって、フィルタリング処理において自然
で良好な処理結果を得ることができる。Since the boundary of the processing area of the image data is detected and fixed data is output instead of the indefinite data corresponding to the outside of the area, a stable calculation result can be obtained even at the boundary of the processing area. Natural and good processing results can be obtained.
【図1】本発明のブロック図(その1)である。FIG. 1 is a block diagram (1) of the present invention.
【図2】本発明のブロック図(その2)である。FIG. 2 is a block diagram (2) of the present invention.
【図3】本発明のブロック図(その3)である。FIG. 3 is a block diagram (No. 3) of the present invention.
【図4】本発明のブロック図(その4)である。FIG. 4 is a block diagram (No. 4) of the present invention.
【図5】本発明のブロック図(その5)である。FIG. 5 is a block diagram (No. 5) of the present invention.
【図6】本発明のブロック図(その6)である。FIG. 6 is a block diagram (6) of the present invention.
【図7】一実施例に係わる画像処理装置の回路ブロック
図である。FIG. 7 is a circuit block diagram of an image processing apparatus according to an embodiment.
【図8】VRAMへの画像データ書き込みを説明する
図、及びVRAMからの画像データ読み出しを説明する
図である。8A and 8B are diagrams illustrating writing of image data to a VRAM and reading of image data from the VRAM.
【図9】画像処理部の処理周期をビデオバスの処理周期
の2倍にした場合のタイミングチャートである。FIG. 9 is a timing chart when the processing cycle of the image processing unit is set to be twice the processing cycle of the video bus.
【図10】ノンインタレース(線順次)方式の画像デー
タ転送を説明する図、及びインタレース(飛び越し走
査)方式の画像データ転送を説明する図である。10A and 10B are diagrams illustrating non-interlaced (line-sequential) system image data transfer and interlaced (interlaced scanning) system image data transfer.
【図11】処理範囲を限定した画像データの処理方法を
説明する図である。FIG. 11 is a diagram illustrating a method of processing image data with a limited processing range.
【図12】処理領域制御部の回路ブロック図である。FIG. 12 is a circuit block diagram of a processing area control unit.
【図13】処理領域制御部を起動する起動部を示す図で
ある。FIG. 13 is a diagram showing an activation unit that activates a processing area control unit.
【図14】パイプライン処理の垂直方向の処理タイミン
グを説明する図である。FIG. 14 is a diagram illustrating vertical processing timing of pipeline processing.
【図15】パイプライン処理の水平方向の処理タイミン
グを説明する図である。FIG. 15 is a diagram illustrating a horizontal processing timing of pipeline processing.
【図16】従来の画像処理装置を説明する図である。FIG. 16 is a diagram illustrating a conventional image processing apparatus.
【図17】従来のフィルタリング演算のパイプライン動
作を説明する図である。FIG. 17 is a diagram illustrating a pipeline operation of a conventional filtering operation.
【図18】従来の画像データの入出力タイミングを示す
図、及び入力画像データ及び出力画像データを示す図で
ある。FIG. 18 is a diagram showing input / output timing of conventional image data, and a diagram showing input image data and output image data.
【図19】従来の画像処理装置で処理した場合の動作タ
イミングを示す図である。FIG. 19 is a diagram showing operation timing when processing is performed by the conventional image processing apparatus.
【図20】従来のフィルタリング処理に用いられる画像
データを説明する図である。FIG. 20 is a diagram illustrating image data used for conventional filtering processing.
21 画像処理装置 22 ビデオバスインタフェース手段 22−1、22−2 ビデオ入力バッファ 23 スタートアドレス設定手段 24 インクリメント切換手段 25 XY領域設定手段 26 領域アドレス設定手段 27 検出手段 28−1、28−2、28−3 固定データ出力手段 31 ビデオバス 32 ビデオバスインタフェース部 32−1 データ入力部 32−1a、32−1a′ 入力インタフェース 32−1b、32−1b′ ビデオ入力バッファ 32−1c、32−1c′ 出力インタフェース 32−1d 入力部バッファ制御部 32−1e アドレスレジスタ 32−2 データ出力部 32−2a、32−2a′ 入力インタフェース 32−2b、32−2b′ ビデオ出力バッファ 32−2c、32−2c′ 出力インタフェース 32−2d 出力部バッファ制御部 32−2e アドレスレジスタ 33 画像処理部 34 記憶部 35 カメラ 36 フレームメモリ 37 フレームメモリ 38 CRTディスプレイ 40(40−1、40−2、40−3、40−4) イ
ンタフェース 41(41−1、41−2、41−3、41−4) メ
モリプレーン 42(42−1、42−2、42−3、42−4) マ
ルチプレクサ 43 マスクプレーン 44 メモリ制御部 45 アドレスレジスタ 46(46−1、46−2、46−3、46−4) ア
ドレスレジスタ 47 システムバス 50 画像処理制御部 51 画像処理回路 52(52−1、52−2、52−3) マルチプレク
サ 53(53−1、53−2) 1Hディレイ回路 54(54−1、54−2、54−3) 固定データ出
力回路 55(55−1、55−2) マルチプレクサ 56 境界検出部 57 処理領域制御部 58 起動回路21 Image Processing Device 22 Video Bus Interface Means 22-1, 22-2 Video Input Buffer 23 Start Address Setting Means 24 Increment Switching Means 25 XY Area Setting Means 26 Area Address Setting Means 27 Detecting Means 28-1, 28-2, 28 -3 Fixed Data Output Means 31 Video Bus 32 Video Bus Interface Section 32-1 Data Input Section 32-1a, 32-1a 'Input Interface 32-1b, 32-1b' Video Input Buffer 32-1c, 32-1c 'Output Interface 32-1d Input section Buffer control section 32-1e Address register 32-2 Data output section 32-2a, 32-2a 'Input interface 32-2b, 32-2b' Video output buffer 32-2c, 32-2c 'Output Interface 32- d output unit buffer control unit 32-2e address register 33 image processing unit 34 storage unit 35 camera 36 frame memory 37 frame memory 38 CRT display 40 (40-1, 40-2, 40-3, 40-4) interface 41 ( 41-1, 41-2, 41-3, 41-4) Memory plane 42 (42-1, 42-2, 42-3, 42-4) Multiplexer 43 Mask plane 44 Memory control unit 45 Address register 46 (46 -1, 46-2, 46-3, 46-4) Address register 47 System bus 50 Image processing control unit 51 Image processing circuit 52 (52-1, 52-2, 52-3) Multiplexer 53 (53-1, 53-1) 53-2) 1H delay circuit 54 (54-1, 54-2, 54-3) Fixed data output circuit 55 55-1) multiplexer 56 boundary detection unit 57 processing area controller 58 the starting circuit
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 G09G 5/12 9471−5G ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification code Internal reference number FI technical display location G09G 5/12 9471-5G
Claims (6)
部で処理された画像データを外部から入力する同期信号
に同期して外部と入出力し外部から取り込まれた画像デ
ータ又は内部で処理された画像データを内部の同期信号
に同期して内部と入出力するビデオバスインタフェース
手段(22)を有して、 外部の同期周波数と内部の同期周波数とを分離して画像
処理を高速に行うことを特徴とする画像処理装置。1. Image data externally input or externally input / output in synchronization with a synchronizing signal input externally, and externally input image data or externally processed image data. A video bus interface means (22) for inputting / outputting data to / from the inside in synchronization with an internal synchronizing signal is provided, and image processing is performed at high speed by separating an external synchronizing frequency and an internal synchronizing frequency. Image processing device.
2)は入力部に並列に設けられた2つのビデオ入力バッ
ファ(22−1、22−2)を有することを特徴とする
請求項1記載の画像処理装置。2. The video bus interface means (2)
2. The image processing apparatus according to claim 1, wherein 2) has two video input buffers (22-1, 22-2) provided in parallel in the input section.
2)は、外部からインタレース方式で転送されてくる偶
数フィールドの画像データを入力するときは前記ビデオ
入力バッファ(22−1、22−2)の垂直方向のスタ
ートアドレスを「0」に設定し、奇数フィールドの画像
データを入力するときは前記ビデオ入力バッファ(22
−1、22−2)の垂直方向のスタートアドレスを
「1」に設定し、外部からノン・インタレース方式で転
送されてくる画像データを入力するときは前記ビデオ入
力バッファ(22−1、22−2)の垂直方向のスター
トアドレスを「0」に設定するスタートアドレス設定手
段(23)と、 外部からインタレース方式で転送されてくる画像データ
を入力するときは前記ビデオ入力バッファ(22−1、
22−2)の垂直方向のアドレスのインクリメントを
「2」に切り換え、外部からノン・インタレース方式で
転送されてくる画像データを入力するときは前記ビデオ
入力バッファ(22−1、22−2)の垂直方向のアド
レスのインクリメントを「1」に切り換えるインクリメ
ント切換手段(24)と、 を有することを特徴とする請求項2記載の画像処理装
置。3. The video bus interface means (2)
2) sets the vertical start address of the video input buffers (22-1, 22-2) to "0" when inputting the image data of the even field transferred from the outside by the interlace method. , When inputting image data of odd fields, the video input buffer (22
-1, 22-2) has a vertical start address set to "1", and when inputting image data transferred from the outside in a non-interlace system, the video input buffer (22-1, 22-2) 2) start address setting means (23) for setting the vertical start address to "0", and the video input buffer (22-1) when inputting image data transferred from the outside in the interlace system. ,
The video input buffer (22-1, 22-2) is used when inputting image data transferred from the outside in the non-interlace mode by switching the vertical address increment of 22-2) to "2". 3. The image processing apparatus according to claim 2, further comprising increment switching means (24) for switching the increment of the address in the vertical direction to "1".
2)は出力部に並列に設けられた2つのビデオ出力バッ
ファ(22−3、22−4)を有することを特徴とする
請求項1、2又は3記載の画像処理装置。4. The video bus interface means (2)
The image processing apparatus according to claim 1, 2 or 3, wherein 2) has two video output buffers (22-3, 22-4) provided in parallel in the output section.
するXY領域設定手段(25)と、 画像データの処理領域のスタートアドレスを設定する領
域アドレス設定手段(26)と、 を更に有して、 前記領域アドレス設定手段(26)により設定されたス
タートアドレス及び前記XY領域設定手段(25)によ
り設定された処理領域とに基づいて画像データを処理す
ることを特徴とする請求項1、2、3又は4記載の画像
処理装置。5. An XY area setting means (25) for setting a processing area in the XY directions of the image data, and an area address setting means (26) for setting a start address of the processing area of the image data. The image data is processed based on the start address set by the area address setting means (26) and the processing area set by the XY area setting means (25). The image processing device according to 3 or 4.
力回路と、この入力回路の入力を1走査ライン分遅延さ
せて画像処理回路に入力する第1の遅延回路と、この第
1の遅延回路の入力を更に1走査ライン分遅延させて画
像処理回路に入力する第2の遅延回路とを有して画像デ
ータのフィルタリング処理を行う画像処理装置におい
て、 画像データの処理領域の境界を検出する検出手段(2
7)と、 この検出手段(27)により画像データの処理領域の境
界が検出されたとき、その検出された画像データの処理
領域境界に応じて前記入力回路、第1の遅延回路、又は
第2の遅延回路の入力に代えて予め設定されている固定
データを前記画像処理回路に入力する固定データ出力手
段(28−1、28−2、28−3)と、 を有することを特徴とする画像処理装置。6. An input circuit for inputting image data to an image processing circuit, a first delay circuit for delaying the input of this input circuit by one scanning line and inputting to the image processing circuit, and this first delay circuit. A second delay circuit for further delaying the input of 1 to one scanning line and inputting it to the image processing circuit, and detecting the boundary of the processing area of the image data in the image processing apparatus for filtering the image data. Means (2
7) and, when the boundary of the processing area of the image data is detected by the detecting means (27), the input circuit, the first delay circuit, or the second delay circuit is selected according to the detected processing area boundary of the image data. Fixed data output means (28-1, 28-2, 28-3) for inputting preset fixed data to the image processing circuit instead of the input of the delay circuit of Processing equipment.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP5173315A JPH0737076A (en) | 1993-07-13 | 1993-07-13 | Image processing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP5173315A JPH0737076A (en) | 1993-07-13 | 1993-07-13 | Image processing device |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH0737076A true JPH0737076A (en) | 1995-02-07 |
Family
ID=15958167
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP5173315A Withdrawn JPH0737076A (en) | 1993-07-13 | 1993-07-13 | Image processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH0737076A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002032749A (en) * | 2000-07-17 | 2002-01-31 | Texas Instr Japan Ltd | Image processor |
-
1993
- 1993-07-13 JP JP5173315A patent/JPH0737076A/en not_active Withdrawn
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002032749A (en) * | 2000-07-17 | 2002-01-31 | Texas Instr Japan Ltd | Image processor |
JP4540191B2 (en) * | 2000-07-17 | 2010-09-08 | 日本テキサス・インスツルメンツ株式会社 | Image processing device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20050117815A1 (en) | Scaling images for display | |
EP0772353B1 (en) | An apparatus for displaying a plurality of compressed images | |
US6067120A (en) | Video signal conversion device for reducing flicker in non-interlaced to interlaced signal conversion | |
US20040183945A1 (en) | Image processor with frame-rate conversion | |
JPH0737076A (en) | Image processing device | |
US20020180746A1 (en) | Interpolation method for a video signal, and display device with function of interpolation for a video signal | |
JP3717648B2 (en) | Method for creating enlarged image signal using field memory | |
JPH05100647A (en) | Picture display device | |
RU2003137844A (en) | METHOD FOR IMPLEMENTING MULTI-SETS OF MULTI-DIGITAL DIGITAL IMAGES COMBINING AND TIRE INTERFACE EQUIPMENT | |
KR20020053262A (en) | Infrared camera system | |
JPH01174186A (en) | Liquid crystal drive circuit | |
JPH0773096A (en) | Image processing device | |
JPH06261299A (en) | Scan converter | |
JPH1013710A (en) | Display method and its device | |
JPH02254883A (en) | Non-interlace reduced display converter | |
JP3643020B2 (en) | Data transfer method and apparatus, and data processing apparatus using the apparatus | |
JPH06292152A (en) | Video signal converter | |
KR20040108464A (en) | Image Processing Device And The Method | |
JPH11220731A (en) | Picture processor | |
JPH0370288A (en) | Scan converter | |
JPH06195038A (en) | Method and device for controlling liquid crystal display | |
JP2001243446A (en) | Device and method for image input processing | |
JPS6365575A (en) | Detecting method for singular point by image processing | |
JPH052380A (en) | Display device | |
JPH03278185A (en) | Picture processing device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20001003 |