JP4056511B2 - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP4056511B2
JP4056511B2 JP2004280015A JP2004280015A JP4056511B2 JP 4056511 B2 JP4056511 B2 JP 4056511B2 JP 2004280015 A JP2004280015 A JP 2004280015A JP 2004280015 A JP2004280015 A JP 2004280015A JP 4056511 B2 JP4056511 B2 JP 4056511B2
Authority
JP
Japan
Prior art keywords
image
processing
line
image processing
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004280015A
Other languages
Japanese (ja)
Other versions
JP2005011380A (en
Inventor
義春 神前
幹泰 岡本
守人 塩原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2004280015A priority Critical patent/JP4056511B2/en
Publication of JP2005011380A publication Critical patent/JP2005011380A/en
Application granted granted Critical
Publication of JP4056511B2 publication Critical patent/JP4056511B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)

Description

本発明は画像処理装置に関し、特に画像信号をリアルタイムに処理して対象物の存在を検知し、画像認識を行う画像処理装置に関する。   The present invention relates to an image processing apparatus, and more particularly to an image processing apparatus that processes an image signal in real time to detect the presence of an object and performs image recognition.

画像認識技術は、CCDカメラ等で撮像された画像から対象物の存在を検知し、その画像内容を解析する技術である。
ITS(Intelligent Transport Systems:高速道路交通システム)では、道路上の車両停止の検知や落下物の検知等に、画像認識技術を利用している。
The image recognition technique is a technique for detecting the presence of an object from an image captured by a CCD camera or the like and analyzing the image content.
In ITS (Intelligent Transport Systems), image recognition technology is used for detecting vehicle stops on roads, detecting falling objects, and the like.

また、電力設備の短絡・地絡の事故検知、さらにはゴミ焼却場の火災検知等、幅広い分野で利用されている。
一方、画像認識を行うアルゴリズムとしては、例えば、背景画像を記憶しておき、一定周期で入力する画像との差分から物体を検知する背景差分、画像から特徴事項を抽出して物体を検知する特徴抽出等、その他多様なアルゴリズムがある。
In addition, it is used in a wide range of fields, such as detecting short-circuit / ground faults in power facilities, and detecting fires in garbage incinerators.
On the other hand, as an algorithm for performing image recognition, for example, a background image is stored, a background difference for detecting an object from a difference from an image input at a fixed period, and a feature for detecting an object by extracting feature items from the image There are various other algorithms such as extraction.

一般に画像認識技術では、これらアルゴリズムの内容が大きい場合、1つの画像処理プロセッサでは処理できないので、フレーム単位に間引きを行った後、フレーム単位のパイプライン制御を行って処理速度を上げている。   In general, in the image recognition technique, when the contents of these algorithms are large, the processing cannot be performed by one image processor. Therefore, after thinning out in units of frames, pipeline processing is performed in units of frames to increase the processing speed.

また、処理速度を上げるために、プロセッサでは、画像データの入力/出力及び画像認識の処理に対して、同時に並列処理を行っている。さらに、画像処理アルゴリズムは、画像をいくつかに分割し、通常は分散処理されている。   In order to increase the processing speed, the processor simultaneously performs parallel processing for image data input / output and image recognition processing. Further, the image processing algorithm divides an image into several parts and is usually subjected to distributed processing.

しかし、上記のような従来のパイプライン制御は、未処理データが処理済みデータに変換されるまでに、複数のプロセッサによる時間的遅れを生じながら処理結果が連続して得られるので、遅延時間が発生する。   However, in the conventional pipeline control as described above, since the processing results are continuously obtained while causing the time delay by a plurality of processors before the unprocessed data is converted into the processed data, the delay time is increased. appear.

この遅延時間は、プロセッサの接続段数に比例して大きくなるため、高速で動く画像から早い事象を検知する際には問題となる。
例えば、ITSで開発が進められているドライバを介さない無人自動運転では、事故防止のために落下物や異常事態を、事象が発生してから即座に検知しなければならない。このように車載の画像認識では、高速検知は必須である。
Since this delay time increases in proportion to the number of connected stages of the processor, it becomes a problem when an early event is detected from an image that moves at high speed.
For example, in unattended automatic driving without a driver being developed by ITS, a fallen object or an abnormal situation must be detected immediately after an event occurs in order to prevent an accident. Thus, high-speed detection is indispensable for in-vehicle image recognition.

さらに、従来のアルゴリズム分散処理では、分散処理後、画像を合成する際にデータ転送能力の低いシリアル通信ポートが使われていたために、リアルタイム(1/30秒)の合成ができず、高速検知の障害となっていた。   Furthermore, in the conventional algorithm distributed processing, since a serial communication port with low data transfer capability is used when combining images after distributed processing, real-time (1/30 second) combining is not possible, and high-speed detection is possible. It was an obstacle.

本発明はこのような点に鑑みてなされたものであり、画像処理速度を向上させ、対象物の存在を高速に検知する画像処理装置を提供することを目的とする。   The present invention has been made in view of these points, and an object thereof is to provide an image processing apparatus that improves the image processing speed and detects the presence of an object at high speed.

本発明では上記課題を解決するために、図1に示すような画像信号をリアルタイムで処理する画像処理装置1において、画像信号のフレーム処理にフレームが間引かれた場合、画像信号のラインの間隔を拡張するライン間隔拡張手段11と、間隔が拡張されたラインのライン処理をパイプライン制御で行う複数の画像処理手段12a〜12nと、を有し、画像信号のラインの間隔は、1ライン単位の画像信号の入力が終了した時点から、次の1ライン単位の画像信号の入力が開始される時点までの時間間隔であって、ライン間隔拡張手段11は、フレームが間引かれた数がn(n=1、2、・・・)のときは、各ライン間の時間間隔を、nライン分の時間だけ空けて、画像信号のラインの間隔を拡張する、ことを特徴とする画像処理装置1が提供される。 In the present invention, in order to solve the above-described problem, in the image processing apparatus 1 that processes an image signal as shown in FIG. 1 in the case where the frame is thinned out during the frame processing of the image signal, possess a line interval expanding means 11 which extends the interval, and a plurality of image processing means 12a~12n for performing line processing line interval is extended pipeline control, the interval of the image signal line, 1 The time interval from the time when the input of the image signal in units of lines is completed until the time when the input of the next image signal in units of one line is started, and the line interval expansion means 11 is the number of frames thinned out. Is n (n = 1, 2,...), The time interval between the lines is increased by the time corresponding to n lines, and the image signal line interval is expanded. Processing device 1 It is provided.

ここで、ライン間隔拡張手段11は、画像信号のフレーム処理にフレームが間引かれた場合、画像信号のラインの間隔を拡張する。画像処理手段12a〜12nは、間隔が拡張されたラインのライン処理をパイプライン制御で行う。また、画像信号のラインの間隔は、1ライン単位の画像信号の入力が終了した時点から、次の1ライン単位の画像信号の入力が開始される時点までの時間間隔であって、ライン間隔拡張手段11は、フレームが間引かれた数がn(n=1、2、・・・)のときは、各ライン間の時間間隔を、nライン分の時間だけ空けて、画像信号のラインの間隔を拡張する。 Here, the line interval extension means 11, when the frame during the frame processing of the image signal is decimated, extend the interval of the image signal line. The image processing units 12a to 12n perform line processing of lines with extended intervals by pipeline control. Also, the line interval of the image signal is a time interval from the time when the input of the image signal in units of one line is completed until the time when the input of the image signal in the next unit of one line is started. When the number of thinned frames is n (n = 1, 2,...), The means 11 sets the time interval between the lines by a time corresponding to n lines, and sets the lines of the image signal. Extend the interval.

本発明の画像処理装置は、画像信号のフレーム処理時、フレームが間引かれた数がn(n=1、2、・・・)のときは、各ライン間の時間間隔を、nライン分の時間だけ空けて、ラインの間隔を拡張して、ライン処理をパイプライン制御で行う構成とした。これにより、画像処理速度を向上させ、対象物の存在を高速に検知することが可能になる。 In the image processing apparatus of the present invention, when the number of thinned frames is n (n = 1, 2,...) During frame processing of an image signal, the time interval between the lines is set to n lines. The interval between the lines is extended and the line processing is performed by pipeline control. Thereby, it is possible to improve the image processing speed and to detect the presence of the object at high speed.

以下、本発明の実施の形態を図面を参照して説明する。図1は第1の実施の形態の画像処理装置の原理図である。画像処理装置1は、画像信号をリアルタイム(1/30秒)で処理して、対象物の存在を検知し、画像認識を行う。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a principle diagram of the image processing apparatus according to the first embodiment. The image processing apparatus 1 processes an image signal in real time (1/30 second), detects the presence of an object, and performs image recognition.

ライン間隔拡張手段11は、画像信号のフレーム処理を行った場合、リアルタイムに処理するためにフレームを間引いた際に、画像信号のラインの間隔をフレームを間引いた数だけ拡張する。   When the frame processing of the image signal is performed, the line interval extending unit 11 extends the line interval of the image signal by the number of thinned frames when the frame is thinned out for real-time processing.

例えば図では、フレーム処理時は2フレーム間引いており、その場合にはラインの間隔を2ライン分空けて拡張する。
画像処理手段12a〜12nは、間隔が拡張されたラインのライン処理をパイプライン制御で行う。
For example, in the figure, two frames are thinned out at the time of frame processing, and in that case, the line interval is extended by two lines.
The image processing units 12a to 12n perform line processing of lines with extended intervals by pipeline control.

ここでフレーム処理、ライン処理及び間引きの意味について説明する。フレーム処理は、1フレーム(1画面)全体の画像を対象として処理を行うもので、複雑な特徴を有する画像処理や環境変化のある状態での検知に使用できる。   Here, the meaning of frame processing, line processing, and thinning will be described. The frame processing is performed on the entire image of one frame (one screen), and can be used for image processing having complicated features and detection in a state where the environment changes.

フレーム処理を行う画像処理手段のアルゴリズムとしては、特徴抽出やラベリング等がある。
ライン処理は、基本的に画面の1水平ライン(640ピクセル)の画像信号を対象として行うもので、処理対象ピクセルは、1ピクセル単位、周辺の数ピクセル単位、1ライン単位及び近傍の数ライン単位等である。
Examples of the algorithm of the image processing means that performs frame processing include feature extraction and labeling.
The line processing is basically performed on the image signal of one horizontal line (640 pixels) of the screen. The processing target pixel is one pixel unit, several peripheral pixel units, one line unit, and several neighboring line units. Etc.

これらの小単位処理でも、単純画像で環境条件のあまり変化しない状態であれば、ライン処理での検知は十分可能である。
また、ライン処理を行う画像処理手段のアルゴリズムとしては、マスク、背景差分、投影、2値化等がある。
Even in these small unit processes, detection by line processing is sufficiently possible if the environmental conditions are not changed so much in a simple image.
Also, the algorithm of the image processing means for performing line processing includes mask, background difference, projection, binarization and the like.

間引きとは、CCDカメラ等から1/30秒毎に入力される画像信号を1フレーム単位で間引くものである。間引きにより、その分の情報量が削減されるが、低速な動画像でS/N比が高い場合や、検知までに時間を要しても構わない場合等では、間引いても問題はない。   The thinning is a thinning of image signals input every 1/30 seconds from a CCD camera or the like in units of one frame. Although the amount of information is reduced by thinning, there is no problem even if thinning is performed when a low-speed moving image has a high S / N ratio or when it may take time to detect.

次に動作について説明する。画像処理手段12a〜12nのそれぞれのフレーム処理が1/30×3秒かかるとすると、リアルタイムでフレーム処理を行うためには、2フレーム間引いた画像信号を入力する必要がある。   Next, the operation will be described. If each frame processing of the image processing means 12a to 12n takes 1/30 × 3 seconds, it is necessary to input an image signal obtained by thinning out two frames in order to perform frame processing in real time.

したがって、画像処理手段12a〜12nでフレーム処理のパイプライン制御を行うと、1フレームが処理されるまでに、1/30×3×n(n:画像処理手段12a〜12nの数)秒の処理時間の遅延となる。   Therefore, when pipeline processing of frame processing is performed by the image processing means 12a to 12n, 1/30 × 3 × n (n: number of image processing means 12a to 12n) seconds are processed before one frame is processed. Time delay.

一方、ライン間隔拡張手段11により、フレームのライン間隔を拡張(ここでは2ライン分)する。そして、画像処理手段12a〜12nで拡張されたラインを入力して、ライン単位のパイプライン制御を行う。これにより、1ラインが処理されるまでに、1/30×3秒以内でライン単位の処理を終わらせることができる。   On the other hand, the line interval extending means 11 extends the line interval of the frame (in this case, two lines). Then, the line extended by the image processing means 12a to 12n is input to perform pipeline control in units of lines. As a result, the processing for each line can be completed within 1/30 × 3 seconds before one line is processed.

このように、単純画像で環境条件のあまり変化しない画像等に対しては、フレーム処理ではなく、ライン処理で対象物の検知を十分行うことができるので、ライン間隔を拡張してのライン処理をパイプライン制御で行えば、処理時間を大幅に削減でき、対象物の高速検知が可能になる。   In this way, for simple images that do not change much in environmental conditions, it is possible to sufficiently detect the object by line processing instead of frame processing. By performing pipeline control, the processing time can be greatly reduced, and high-speed detection of an object becomes possible.

次にライン間隔拡張手段11でライン間隔が拡張された波形のタイムシーケンスについて説明する。図2はライン間隔拡張波形のタイムシーケンスを示す図である。
波形Laは、通常のライン構成を持つ波形である。波形Lbは、ライン間隔が拡張されたライン波形であり、2ライン分間隔が拡張されている。
Next, the time sequence of the waveform in which the line interval is extended by the line interval extension means 11 will be described. FIG. 2 is a diagram showing a time sequence of a line interval extended waveform.
The waveform La is a waveform having a normal line configuration. The waveform Lb is a line waveform in which the line interval is extended, and the interval for two lines is extended.

図3はライン間隔が拡張された場合のフレーム波形のタイムシーケンスを示す図である。
波形Faは通常のフレーム構成を持つ波形である。波形Fbはライン間隔が2ライン分拡張された場合のフレーム波形であり、もとのフレームの3倍に拡大される。また、この場合、垂直ブランキング期間も3倍に拡大される。
FIG. 3 is a diagram showing a time sequence of the frame waveform when the line interval is extended.
The waveform Fa is a waveform having a normal frame configuration. The waveform Fb is a frame waveform when the line interval is expanded by two lines, and is expanded to three times the original frame. In this case, the vertical blanking period is also expanded three times.

次にフレーム間引き後にフレーム処理のパイプライン制御を行う従来の画像処理について図4、図5を用いて説明する。図4はフレーム処理を行う場合の画像処理構成を示す図であり、図5は図4のタイムシーケンスを示す図である。   Next, conventional image processing that performs pipeline control of frame processing after frame thinning will be described with reference to FIGS. 4 is a diagram showing an image processing configuration when frame processing is performed, and FIG. 5 is a diagram showing a time sequence of FIG.

図4では、入力する画像信号は、フレーム間引き部101でフレームの間引きが行われる。そして、画像処理手段12a〜12eで画像処理が施され、対象物が検知された場合には、検知出力部102からその旨を通知する検知通知信号W1kが出力される。   In FIG. 4, the input image signal is subjected to frame thinning by the frame thinning unit 101. Then, when image processing is performed by the image processing means 12a to 12e and an object is detected, a detection notification signal W1k that notifies the fact is output from the detection output unit 102.

ここでの画像処理として、画像処理手段12a〜12eは、それぞれマスク、背景差分、投影、2値化及び特徴抽出を行って、画像認識を行うものとする。また、各画像処理手段12a〜12eのフレーム処理時間は、1/30×3秒である。   As image processing here, the image processing means 12a to 12e perform image recognition by performing masking, background difference, projection, binarization, and feature extraction, respectively. The frame processing time of each of the image processing units 12a to 12e is 1/30 × 3 seconds.

図5では、波形W1aは垂直同期信号である。波形W1bは事象発生信号であり、図の示す位置に事象が発生したものとする(事象発生から次のフレームまでの間隔が0.03秒)。波形W1cはフレームである。波形W1dは間引き後の垂直同期信号である。波形W1eは間引き後のフレームf1〜f5である。   In FIG. 5, the waveform W1a is a vertical synchronization signal. The waveform W1b is an event occurrence signal, and it is assumed that an event has occurred at the position shown in the figure (the interval from the event occurrence to the next frame is 0.03 seconds). Waveform W1c is a frame. A waveform W1d is a vertical synchronizing signal after thinning. Waveform W1e is frames f1 to f5 after thinning.

そして、このフレームf1〜f5が、画像処理手段12a〜12eでのパイプライン制御により、画像処理が順次施されていく。
波形W1f〜W1jは、それぞれ画像処理手段12a〜12eの出力信号である。図のようにフレームのパイプラインの多段処理を行うと、検知通知信号W1kが出力するまでに(1/30)×3×5+0.03≒530mSの遅延時間となる。
The frames f1 to f5 are sequentially subjected to image processing by pipeline control in the image processing means 12a to 12e.
Waveforms W1f to W1j are output signals of the image processing means 12a to 12e, respectively. When multi-stage processing of the pipeline of the frame is performed as shown in the figure, the delay time is (1/30) × 3 × 5 + 0.03≈530 mS until the detection notification signal W1k is output.

次にライン間隔拡張後にライン処理のパイプライン制御を行う画像処理について図6、図7を用いて説明する。図6はライン処理を行う場合の画像処理構成を示す図であり、図7は図6のタイムシーケンスを示す図である。   Next, image processing for performing pipeline control of line processing after extending the line interval will be described with reference to FIGS. FIG. 6 is a diagram showing an image processing configuration when line processing is performed, and FIG. 7 is a diagram showing a time sequence of FIG.

図6では、入力する画像信号は、ライン間隔拡張手段11でライン間隔が拡張される。そして、画像処理手段12a〜12eで画像処理が施され、対象物が検知された場合には、検知出力部102からその旨を通知する検知通知信号W2kが出力される。また、ここでの画像処理の内容は図4と同様である。   In FIG. 6, the line interval of the input image signal is extended by the line interval extension means 11. Then, when image processing is performed by the image processing means 12a to 12e and an object is detected, a detection notification signal W2k for notifying that is output from the detection output unit 102. The contents of the image processing here are the same as those in FIG.

図7では、波形W2cは事象発生信号であり、図の示す位置に事象が発生したものとする。波形W2dはライン間隔拡張後の垂直同期信号である。波形W2eはライン間隔が拡張されたフレームF1〜F5である。   In FIG. 7, waveform W2c is an event occurrence signal, and it is assumed that an event has occurred at the position shown in the figure. A waveform W2d is a vertical synchronization signal after the line interval is expanded. A waveform W2e is frames F1 to F5 in which the line interval is extended.

そして、このフレームF1〜F5の拡張ラインが、画像処理手段12a〜12eでのパイプライン制御により、画像処理が順次施されていく。
波形W2f〜W2jは、それぞれ画像処理手段12a〜12eの出力信号である。図のようにラインのパイプラインの多段処理を行うと、検知通知信号W2kが出力するまでに(1/30)×3+0.03≒130mSの遅延時間となる。このように、ライン間隔を拡張してのライン処理をパイプライン制御で行うことにより、処理時間を大幅に削減することができる。
The extended lines of the frames F1 to F5 are sequentially subjected to image processing by pipeline control in the image processing means 12a to 12e.
Waveforms W2f to W2j are output signals of the image processing means 12a to 12e, respectively. When multi-stage processing of the pipeline of the line is performed as shown in the figure, a delay time of (1/30) × 3 + 0.03≈130 ms is required until the detection notification signal W2k is output. In this way, processing time can be significantly reduced by performing line processing with expanded line spacing by pipeline control.

次に画像信号をフレームメモリに蓄積してからライン間隔拡張処理を行う場合について説明する。図8はライン間隔拡張を行う際のフレームメモリを示す図である。
フレームメモリ11aは、A面、B面に対し、交互に書き込み及び読み出しを行うダブルバッファ構造のメモリであり、画像信号をフレーム単位で一旦、格納した後、ラインの間隔を拡張しながら出力する。
Next, a case where line interval expansion processing is performed after an image signal is stored in the frame memory will be described. FIG. 8 is a diagram showing a frame memory when line interval expansion is performed.
The frame memory 11a has a double buffer structure in which writing and reading are alternately performed with respect to the A side and the B side. After the image signal is temporarily stored in units of frames, the frame memory 11a outputs it while expanding the line interval.

このため例えば、フレームAが書き込まれてから読み出されるまでには、1フレーム分の遅延が発生し、その遅延にライン間隔拡張分の遅延が加算されることになる。
したがって、フレームメモリ11aに蓄積してからライン間隔拡張を行った場合の遅延時間は、1/30(1フレーム時間)+(1+ライン間隔拡張数)/30(秒)となる。
For this reason, for example, a delay of one frame occurs between the time when frame A is written and the time when the frame A is read, and the delay corresponding to the extension of the line interval is added to the delay.
Therefore, the delay time when the line interval is expanded after being stored in the frame memory 11a is 1/30 (one frame time) + (1 + number of line interval extensions) / 30 (seconds).

次に画像信号を1フレームのFIFO(First-In First-Out) に蓄積してからライン間隔拡張処理を行う場合について説明する。図9はライン間隔拡張を行う際の内部データメモリを示す図である。   Next, the case where the line interval expansion process is performed after the image signal is accumulated in a first-in first-out (FIFO) of one frame will be described. FIG. 9 is a diagram showing an internal data memory when line interval expansion is performed.

図8で示したフレームメモリ11aの代わりに、1フレーム分の内部データメモリ123aを設け、内部データメモリ123aに入力してくる画像信号をライン間隔拡張の時間だけ遅延しながら順次出力する。   In place of the frame memory 11a shown in FIG. 8, an internal data memory 123a for one frame is provided, and the image signals input to the internal data memory 123a are sequentially output while being delayed by the time of the line interval expansion.

外部のフレームメモリに一旦蓄積する必要がなくなるので、1フレーム分の遅延がなくなる。したがって、内部データメモリ123aに蓄積してからライン間隔拡張処理を行う場合の遅延時間は、(1+ライン間隔拡張数)/30(秒)となる。   Since there is no need to temporarily store in an external frame memory, there is no delay for one frame. Therefore, the delay time when the line interval extension process is performed after accumulating in the internal data memory 123a is (1 + number of line interval extensions) / 30 (seconds).

次にライン処理とフレーム処理を複合した場合について図10、図11を用いて説明する。図10はライン処理とフレーム処理を複合して行う場合の画像処理構成を示す図であり、図11は図10のタイムシーケンスを示す図である。   Next, a case where line processing and frame processing are combined will be described with reference to FIGS. FIG. 10 is a diagram showing an image processing configuration when performing line processing and frame processing in combination, and FIG. 11 is a diagram showing a time sequence of FIG.

図10では、入力する画像信号は、ライン間隔拡張手段11でライン間隔が拡張される。そして、画像処理手段12a〜12eで画像処理が施され、対象物が検知された場合には、検知出力部102からその旨を通知する検知通知信号W3kが出力される。   In FIG. 10, the line interval of the input image signal is extended by the line interval extension means 11. Then, when image processing is performed by the image processing means 12a to 12e and an object is detected, a detection notification signal W3k for notifying that is output from the detection output unit 102.

また、ここでの画像処理は、画像処理手段12a〜12cのマスク、背景差分及び投影までがライン処理であり、画像処理手段12d、12eの2値化、特徴抽出をフレーム処理で行うものとする。   In this image processing, line processing includes masking, background difference and projection of the image processing units 12a to 12c, and binarization and feature extraction of the image processing units 12d and 12e are performed by frame processing. .

図11では、波形W3cは事象発生信号であり、図の示す位置に事象が発生したものとする。波形W3dはライン間隔拡張後の垂直同期信号である。波形W3eはライン間隔が拡張されたフレームF1〜F5である。   In FIG. 11, waveform W3c is an event occurrence signal, and it is assumed that an event has occurred at the position shown in the figure. A waveform W3d is a vertical synchronization signal after the line interval is expanded. A waveform W3e is frames F1 to F5 in which the line interval is extended.

そして、このフレームF1〜F5の拡張ラインが、画像処理手段12a〜12eでのパイプライン制御により、画像処理が順次施されていく。波形W3f〜W3jは、それぞれ画像処理手段12a〜12eの出力信号である。   The extended lines of the frames F1 to F5 are sequentially subjected to image processing by pipeline control in the image processing means 12a to 12e. Waveforms W3f to W3j are output signals of the image processing means 12a to 12e, respectively.

また、ここでは、波形W3f〜W3hがライン処理、W3i、W3jがフレーム処理である。
したがって、図のようにパイプラインの多段処理を行うと、検知通知信号W3kが出力するまでに(1/30)×3×3+0.03≒330mSの遅延時間となる。
Here, the waveforms W3f to W3h are line processing, and W3i and W3j are frame processing.
Therefore, when pipeline multi-stage processing is performed as shown in the figure, a delay time of (1/30) × 3 × 3 + 0.03≈330 mS is required until the detection notification signal W3k is output.

このように、ライン処理に向いているマスクや背景差分等のアルゴリズムや、フレーム処理に向いている特徴抽出等のアルゴリズムを複合して、効率よく画像処理することが可能になる。   In this way, it is possible to efficiently perform image processing by combining algorithms such as masks and background differences suitable for line processing and algorithms such as feature extraction suitable for frame processing.

以上説明したように、第1の実施の形態の画像処理装置1は、画像信号のラインの間隔を拡張して、ライン処理をパイプライン制御で行う構成とした。これにより、画像処理速度を向上させ、対象物の存在を高速に検知することが可能になる。   As described above, the image processing apparatus 1 according to the first embodiment has a configuration in which line processing is performed by pipeline control by expanding the line interval of the image signal. Thereby, it is possible to improve the image processing speed and to detect the presence of the object at high speed.

次に第2の実施の形態の画像処理装置について説明する。図12は第2の実施の形態の画像処理装置の原理図である。ホスト200を除く図の各構成要素からなる画像処理装置2は、画像入力処理、画像処理、画像出力処理の同時並列処理を行う。   Next, an image processing apparatus according to a second embodiment will be described. FIG. 12 is a principle diagram of the image processing apparatus according to the second embodiment. The image processing apparatus 2 including the components shown in the drawing excluding the host 200 performs simultaneous parallel processing of image input processing, image processing, and image output processing.

入力画像信号格納手段21は、入力された画像信号を格納して、入力画像データD1として出力する。
画像信号処理手段22は、入力画像データD1を画像処理して、画像処理データD2を生成する。
The input image signal storage means 21 stores the input image signal and outputs it as input image data D1.
The image signal processing means 22 performs image processing on the input image data D1 to generate image processing data D2.

出力画像信号格納手段23は、画像処理データD2を格納して、出力画像データD3として外部出力する。
格納領域制御手段24は、入力側格納領域部24−1と出力側格納領域部24−2を持つ。入力側格納領域部24−1は、入力画像信号格納手段21と入力バスBiで接続され、一方が入力画像データD1を格納している場合は、他方が格納済みの入力画像データD1を画像信号処理手段22に出力するダブルバッファ構造のメモリである。また、後述する設定データD4と通知データD5の格納制御も行う。
The output image signal storage means 23 stores the image processing data D2 and outputs it as output image data D3.
The storage area control means 24 has an input side storage area part 24-1 and an output side storage area part 24-2. The input-side storage area 24-1 is connected to the input image signal storage means 21 by the input bus Bi, and when one side stores the input image data D1, the other side stores the stored input image data D1 as an image signal. This is a double buffer memory that is output to the processing means 22. Also, storage control of setting data D4 and notification data D5 described later is performed.

図ではメモリAが入力画像データD1を格納、メモリBからは格納済みの入力画像データD1を出力している。切替え後は、互いに逆の処理となる。
また、出力側格納領域部24−2は、出力画像信号格納手段23と出力バスBoで接続され、一方が画像処理データD2を格納している場合は、他方が格納済みの画像処理データD2を出力画像信号格納手段23に出力するダブルバッファ構造のメモリである。
In the figure, the memory A stores the input image data D1, and the memory B outputs the stored input image data D1. After switching, the processes are opposite to each other.
The output-side storage area unit 24-2 is connected to the output image signal storage means 23 by the output bus Bo, and when one stores the image processing data D2, the other stores the stored image processing data D2. This is a double buffer memory that outputs to the output image signal storage means 23.

図ではメモリCが画像処理データD2を格納、メモリDからは格納済みの画像処理データD2を出力している。切替え後は、互いに逆の処理となる。
また、データ切替え制御手段25は、画像信号処理手段22へ送信される、入力画像データD1またはワークステーション等のホスト200からの設定データD4の切替え制御を行う。さらに、画像信号処理手段22からホスト200への通知データD5の送信制御を行う。
In the figure, the memory C stores the image processing data D2, and the memory D outputs the stored image processing data D2. After switching, the processes are opposite to each other.
Further, the data switching control unit 25 performs switching control of the input image data D1 transmitted to the image signal processing unit 22 or the setting data D4 from the host 200 such as a workstation. Further, transmission control of the notification data D5 from the image signal processing means 22 to the host 200 is performed.

設定データD4とは、例えば、プログラムやマスクデータ等に該当する。また、通知データD5とは、画像信号処理手段22で対象物を検知した検知結果通知データ等に該当する。   The setting data D4 corresponds to, for example, a program or mask data. Further, the notification data D5 corresponds to detection result notification data or the like in which an object is detected by the image signal processing means 22.

次に画像処理装置2の具体的な構成及び動作について説明する。図13は画像処理装置2の構成を示す図である。画像信号処理手段22と格納領域制御手段24が、1つのDSP(ディジタルシグナルプロセッサ)内20に含まれる。   Next, a specific configuration and operation of the image processing apparatus 2 will be described. FIG. 13 is a diagram illustrating a configuration of the image processing apparatus 2. The image signal processing means 22 and the storage area control means 24 are included in one DSP (digital signal processor) 20.

CPU22aは画像信号処理手段22に該当し、内部データメモリ24aとHPI(ホストポートインタフェース)24bとI/F24cは格納領域制御手段24に該当する。
また、入力FIFO21aと入力FIFO制御部21bは入力画像信号格納手段21に該当し、出力FIFO23aと出力FIFO制御部23bは出力画像信号格納手段23に該当する。さらに、データ切替え制御手段25は、ゲート回路25aで構成される。
The CPU 22 a corresponds to the image signal processing means 22, and the internal data memory 24 a, HPI (host port interface) 24 b and I / F 24 c correspond to the storage area control means 24.
The input FIFO 21 a and the input FIFO control unit 21 b correspond to the input image signal storage unit 21, and the output FIFO 23 a and the output FIFO control unit 23 b correspond to the output image signal storage unit 23. Further, the data switching control means 25 is composed of a gate circuit 25a.

DSP20の内部データメモリ24aが複数バンク構成(メモリA〜D)になっており、それぞれ独立してアクセス可能である。
ここでは、メモリA、Bを画像入力のラインメモリとして交互に切り替えて、画像ライン信号の入出力を行う。
The internal data memory 24a of the DSP 20 has a multi-bank configuration (memory A to D) and can be accessed independently.
Here, the memories A and B are alternately switched as image input line memories to input and output image line signals.

すなわち、メモリAがHPI24bを介して、画像ライン信号を入力して格納している場合は、メモリBは画像ライン信号をCPU22aに出力して、CPU22aは画像処理を行う。このような動作をメモリA/B交互に行うことで、画像ライン信号の入力及び画像処理を平行して行うことができる。   That is, when the memory A receives and stores an image line signal via the HPI 24b, the memory B outputs the image line signal to the CPU 22a, and the CPU 22a performs image processing. By performing such an operation alternately in the memory A / B, the input of the image line signal and the image processing can be performed in parallel.

また、メモリC/Dでは、メモリCが画像処理データを入力して格納している場合は、メモリDは画像処理データをI/F24cを介して、出力FIFO23aに出力する。このような動作をメモリC/D交互に行う。   In the memory C / D, when the memory C inputs and stores image processing data, the memory D outputs the image processing data to the output FIFO 23a via the I / F 24c. Such an operation is performed alternately for the memory C / D.

また、入力FIFO制御部21bは、ライン単位の動作の基準となる水平同期信号を割り込み信号としてDSP20に入力する。
なお、上記の説明では、メモリA/B、C/Dを、ライン単位のダブルバッファ構造のメモリとしたが、フレーム単位のダブルバッファ構造のメモリにして、フレーム処理を行ってもよい。
Further, the input FIFO control unit 21b inputs a horizontal synchronization signal serving as a reference for operation in units of lines to the DSP 20 as an interrupt signal.
In the above description, the memories A / B and C / D are memories having a double buffer structure in units of lines. However, frame processing may be performed by using memories having a double buffer structure in units of frames.

次に画像信号の流れについて説明する。画像信号は、入力FIFO21a、ゲート回路25a、DSP20内のHPI24b及び内部データメモリA/Bへと送信される。
画像信号の出力は、DSP20の内部データメモリC/D、出力FIFO23aへと送信される。
Next, the flow of the image signal will be described. The image signal is transmitted to the input FIFO 21a, the gate circuit 25a, the HPI 24b in the DSP 20, and the internal data memory A / B.
The output of the image signal is transmitted to the internal data memory C / D of the DSP 20 and the output FIFO 23a.

ここで、画像信号処理は、DSP20内のCPU22aが、内部データメモリA/Bのいずれかから画像信号を読み出して行い(画像信号が入力されるメモリとは別のメモリをアクセスする)、その結果を内部データメモリC/D(同様に出力されるメモリとは別のメモリをアクセスする)へ格納する。   Here, the image signal processing is performed by the CPU 22a in the DSP 20 reading out the image signal from one of the internal data memories A / B (accessing a memory different from the memory to which the image signal is input), and as a result. Are stored in the internal data memory C / D (accessing a memory different from the memory similarly output).

次に動作について詳しく説明する。入力FIFO21aは、ライン単位の画像信号を1ラインずつ受け取る。
入力FIFO制御部21bは、入力FIFO21aが1ライン分受け取った時点で、DSP20に対して割り込みを上げるとともに、入力FIFO制御部21bの制御により、HPI24bを経由して内部データメモリA/Bへ送信する。内部データメモリA/Bいずれに転送するかは、入力FIFO制御部21bで発生した転送アドレスで指定する。
Next, the operation will be described in detail. The input FIFO 21a receives line-by-line image signals line by line.
When the input FIFO 21a receives one line, the input FIFO controller 21b raises an interrupt to the DSP 20, and transmits to the internal data memory A / B via the HPI 24b under the control of the input FIFO controller 21b. . The internal data memory A / B is designated by the transfer address generated by the input FIFO control unit 21b.

そして、内部データメモリAに入力画像データ転送中は、CPU22aは内部データメモリBとの間で画像処理を行い、次のライン入力タイミングでは内部データメモリBに入力画像データは転送され、CPU22aと内部データメモリAとの間で画像処理を行う。   While the input image data is being transferred to the internal data memory A, the CPU 22a performs image processing with the internal data memory B, and at the next line input timing, the input image data is transferred to the internal data memory B. Image processing is performed with the data memory A.

画像処理結果は、内部データメモリCまたはD(必ず出力されているメモリとは別のメモリへアクセスする)へ保存する。そして、出力FIFO23aからの出力では、出力画像データD3のタイミングをピクセルクロックで制御しながら画像バスへ出力する。   The image processing result is stored in the internal data memory C or D (access to a memory different from the memory that is always output). The output from the output FIFO 23a is output to the image bus while controlling the timing of the output image data D3 with the pixel clock.

以上説明したように、第2の実施の形態の画像処理装置2は、入力バスBiで接続されて入力画像データD1を格納制御し、出力バスBoで接続されて画像処理データD2を格納制御する格納領域制御手段24を用いて、画像処理を行う構成とした。これにより、入出力のバスを分離できるので、コンフリクトの発生をなくし、装置の品質及び信頼性の向上を図ることが可能になる。   As described above, the image processing apparatus 2 according to the second embodiment is connected via the input bus Bi and controls storage of the input image data D1, and is connected via the output bus Bo and controls storage of the image processing data D2. The storage area control means 24 is used to perform image processing. As a result, since the input / output buses can be separated, it is possible to eliminate the occurrence of conflicts and improve the quality and reliability of the apparatus.

次に第3の実施の形態の画像処理装置について説明する。図14は第3の実施の形態の画像処理装置の原理図である。ホスト200を除く図の各構成要素からなる画像処理装置3は、画像入力処理、画像処理、画像出力処理の同時並列処理を行う。   Next, an image processing apparatus according to a third embodiment will be described. FIG. 14 is a principle diagram of the image processing apparatus according to the third embodiment. The image processing apparatus 3 including the constituent elements in the drawing excluding the host 200 performs simultaneous parallel processing of image input processing, image processing, and image output processing.

入力画像信号格納手段31は、入力された画像信号を格納して、入力画像データD1として時分割で出力する。
画像信号処理手段32は、入力画像データD1を時分割で画像処理して画像処理データD2を生成し、画像処理データD2を出力する。
The input image signal storage means 31 stores the input image signal and outputs it as time-division as input image data D1.
The image signal processing means 32 performs image processing on the input image data D1 in a time division manner to generate image processing data D2, and outputs the image processing data D2.

出力画像信号格納手段33は、画像処理データD2を格納して、出力画像データD3として外部出力する。
入力画像データ格納手段36は、一方が入力画像データD1を格納している場合は、他方が格納済みの入力画像データD1を画像信号処理手段32に出力するダブルバッファ構造をとる。
The output image signal storage means 33 stores the image processing data D2 and externally outputs it as output image data D3.
When one of the input image data storage means 36 stores the input image data D1, the other has a double buffer structure for outputting the stored input image data D1 to the image signal processing means 32.

入出力インタフェース手段37は、入力画像データ格納手段36から画像信号処理手段32への入力画像データD1の入力インタフェース、画像信号処理手段32から出力画像信号格納手段33への画像処理データD2の出力インタフェースを行う。   The input / output interface unit 37 is an input interface for input image data D1 from the input image data storage unit 36 to the image signal processing unit 32, and an output interface for image processing data D2 from the image signal processing unit 32 to the output image signal storage unit 33. I do.

また、データ切替え制御手段35は、画像信号処理手段32へ送信される、入力画像データD1またはワークステーション等のホスト200からの設定データD4の切替え制御を行う。さらに、画像信号処理手段32からホスト200への通知データD5の送信制御を行う。   Further, the data switching control means 35 performs switching control of the input image data D1 transmitted to the image signal processing means 32 or the setting data D4 from the host 200 such as a workstation. Further, transmission control of the notification data D5 from the image signal processing means 32 to the host 200 is performed.

次に画像処理装置3の具体的な構成及び動作について説明する。図15は画像処理装置3の構成を示す図である。DSP30は、画像信号処理手段32に該当するCPU32aを内部に含み、図13で説明した内部データメモリ24aを内部に持たない。そして、フレームメモリA/B36aは、入力画像データ格納手段36に該当する。   Next, a specific configuration and operation of the image processing apparatus 3 will be described. FIG. 15 is a diagram showing the configuration of the image processing apparatus 3. The DSP 30 includes a CPU 32a corresponding to the image signal processing means 32 and does not have the internal data memory 24a described with reference to FIG. The frame memory A / B 36a corresponds to the input image data storage means 36.

また、入力FIFO31aと入力FIFO制御部31bは入力画像信号格納手段31に該当し、出力FIFO33aと出力FIFO制御部33bは出力画像信号格納手段33に該当する。さらに、データ切替え制御手段35は、ゲート回路35aで構成される。   The input FIFO 31 a and the input FIFO control unit 31 b correspond to the input image signal storage unit 31, and the output FIFO 33 a and the output FIFO control unit 33 b correspond to the output image signal storage unit 33. Further, the data switching control means 35 is composed of a gate circuit 35a.

第3の実施の形態では、内部データメモリ24aの代わりに、フレーム単位でダブルバッファ可能なフレームメモリA/B36aに変更して、フレーム単位での並列動作をする。   In the third embodiment, instead of the internal data memory 24a, the frame memory A / B 36a that can be double-buffered in units of frames is changed to perform parallel operations in units of frames.

この場合、入出力インタフェース手段37でコンフリクトの発生の可能性があるため、画像入出力データの転送速度を2〜3倍に上げ、時分割で転送することによりコンフリクトを避ける。   In this case, since there is a possibility of conflict in the input / output interface means 37, the transfer speed of the image input / output data is increased 2 to 3 times, and the conflict is avoided by transferring in time division.

例えば、画像入力をフレーム時間の最初の1/3の時間で転送し、次の1/3でDSP30の画像処理を行い、最後の1/3の時間で出力FIFO33aへ出力するようにタイミングをプログラムして動作させる。   For example, the timing is programmed so that the image input is transferred in the first 1/3 of the frame time, the DSP 30 performs image processing in the next 1/3, and is output to the output FIFO 33a in the last 1/3 time. And make it work.

このように、第3の実施の形態では、内部データメモリ24aを持たないDSP30に対し、時分割で動作させることにより、インタフェース部でのコンフリクトを発生させずに高速に動作させることが可能になる。   As described above, in the third embodiment, the DSP 30 that does not have the internal data memory 24a is operated in a time-sharing manner, so that it can be operated at high speed without causing a conflict in the interface unit. .

次に第4の実施の形態について説明する。図16は第4の実施の形態の画像処理装置の原理図である。画像処理装置4は、画像処理の速度が要求性能に間に合わない場合に、画像信号の分割処理及び合成を行って処理速度を高める。   Next, a fourth embodiment will be described. FIG. 16 is a principle diagram of an image processing apparatus according to the fourth embodiment. When the image processing speed does not meet the required performance, the image processing apparatus 4 performs image signal division processing and synthesis to increase the processing speed.

画像信号分割手段41は、画像信号を分割する。ここでは2系統の分割を行うものとする。
第1の分割処理信号生成手段42aは、2系統に分割された画像信号の一方を画像処理して、第1の分割処理信号Daを生成する。
The image signal dividing unit 41 divides the image signal. Here, two systems are divided.
The first divided processing signal generation means 42a performs image processing on one of the image signals divided into two systems to generate a first divided processing signal Da.

第2の分割処理信号生成手段42bは、2系統に分割された画像信号の他方を画像処理して、第2の分割処理信号Dbを生成する。
第1の分割処理信号格納手段43aは、一方が第1の分割処理信号Daを格納している場合は、他方が格納済みの第1の分割処理信号Daを出力するダブルバッファ構造(フレームメモリA1/B1)で構成される。
The second divided processing signal generation means 42b performs image processing on the other of the two image signals divided into two systems to generate a second divided processing signal Db.
When one of the first divided processing signal storage means 43a stores the first divided processing signal Da, the other one outputs the first divided processing signal Da that has been stored (frame memory A1). / B1).

第2の分割処理信号格納手段43bは、一方が第2の分割処理信号Dbを格納している場合は、他方が格納済みの第2の分割処理信号Dbを出力するダブルバッファ構造(フレームメモリA2/B2)で構成される。   When one of the second divided processing signal storage means 43b stores the second divided processing signal Db, the other outputs the second divided processing signal Db stored in the other (frame memory A2). / B2).

フォーマット変換手段44は、第1及び第2の分割処理信号格納手段43a、43bから出力された出力信号Da1、Db1をハードウェアで合成してフォーマット変換を行う。   The format conversion means 44 performs format conversion by synthesizing the output signals Da1 and Db1 output from the first and second divided processing signal storage means 43a and 43b with hardware.

次に従来の画像信号の分割処理及び合成について説明する。図17は従来の画像信号の分割処理及び合成を示す図である。
2系統に分割された画像分割信号は、画像処理部420a、420bで画像処理が行われる。
Next, conventional image signal division processing and synthesis will be described. FIG. 17 is a diagram showing conventional image signal division processing and synthesis.
The image division signals divided into the two systems are subjected to image processing by the image processing units 420a and 420b.

合成部440は、画像処理部420aで処理された信号と、画像処理部420bで処理され、1ビットのシリアルの通信ポートPを介して送信された信号と、を合成して出力する。   The combining unit 440 combines and outputs the signal processed by the image processing unit 420a and the signal processed by the image processing unit 420b and transmitted via the 1-bit serial communication port P.

このように、従来の合成処理では、1ビットのシリアル通信ポートPを利用して行っているために、データ転送能力が低く、リアルタイムの画像処理を行うことができなかった。   As described above, since the conventional synthesis processing is performed using the 1-bit serial communication port P, the data transfer capability is low, and real-time image processing cannot be performed.

次に第1及び第2の分割処理信号格納手段43a、43b及びフォーマット変換手段44について説明する。
図16に示すように、フレームメモリA1/B1を交互に切り替えて、第1の分割処理信号Daの入出力を行う。
Next, the first and second divided processing signal storage means 43a and 43b and the format conversion means 44 will be described.
As shown in FIG. 16, the frame memories A1 / B1 are alternately switched to input / output the first divided processing signal Da.

例えば、フレームメモリA1が第1の分割処理信号Daを入力して格納している場合は、フレームメモリB1は格納済みの第1の分割処理信号Daをフォーマット変換手段44に出力する。このような動作をフレームメモリA1/B1交互に行う。   For example, when the frame memory A1 receives and stores the first divided processing signal Da, the frame memory B1 outputs the stored first divided processing signal Da to the format conversion means 44. Such an operation is performed alternately on the frame memories A1 / B1.

また、同様にフレームメモリA2/B2を交互に切り替えて、第2の分割処理信号Dbの入出力を行う。
例えば、フレームメモリA2が第1の分割処理信号Dbを入力して格納している場合は、フレームメモリB2は格納済みの第1の分割処理信号Dbをフォーマット変換手段44に出力する。このような動作をフレームメモリA2/B2交互に行う。
Similarly, the frame memories A2 / B2 are alternately switched to input / output the second divided processing signal Db.
For example, when the frame memory A2 receives and stores the first divided processing signal Db, the frame memory B2 outputs the stored first divided processing signal Db to the format conversion means 44. Such an operation is performed alternately on the frame memories A2 / B2.

そして、フォーマット変換手段44は、出力信号Da1、Db1をハードウェアで合成してフォーマット変換を行う。なぜなら、画像処理を行うDSPチップで画像信号の合成を行うと、DSPチップに負担がかかり、処理速度が遅くなるためである。   The format conversion means 44 performs format conversion by synthesizing the output signals Da1 and Db1 with hardware. This is because if a DSP chip that performs image processing synthesizes an image signal, the DSP chip is burdened and the processing speed is reduced.

このように、第1及び第2の分割処理信号Da、Dbをそれぞれダブルバッファ構造の第1及び第2の分割処理信号格納手段43a、43bで格納し、その出力信号Da1、Db1の合成及びフォーマット変換をハードウェアで行う構成とした。これにより、画像合成時のフォーマット変換を高速に行うことが可能になる。   In this way, the first and second divided processing signals Da and Db are respectively stored in the first and second divided processing signal storage means 43a and 43b having a double buffer structure, and the output signals Da1 and Db1 are combined and formatted. The conversion is performed by hardware. This makes it possible to perform format conversion at the time of image composition at high speed.

次にフォーマット変換について図18〜図21を用いて説明する。分割された画像信号を合成する際には、分割パターンに対応したフォーマット変換を行って、元の画像に戻す必要がある。   Next, format conversion will be described with reference to FIGS. When the divided image signals are combined, it is necessary to perform format conversion corresponding to the division pattern to restore the original image.

図18は分割を行わない場合のフォーマット変換を示す図である。分割を行わない場合は、出力信号Da1のライン配列は図に示すようになる。
なお、以降の説明では、1フレームは480本のラインからなり、奇数フィールドのライン番号を中括弧で囲み、偶数フィールドのライン番号を小括弧で囲んで表示する。
FIG. 18 is a diagram showing format conversion when division is not performed. When division is not performed, the line arrangement of the output signal Da1 is as shown in the figure.
In the following description, one frame consists of 480 lines, and the line numbers of odd fields are enclosed in braces and the line numbers of even fields are enclosed in parentheses.

第1の分割処理信号格納手段43aからの出力信号Da1を奇数ラインを出力した後に偶数ラインを出力する。この場合、第2の分割処理信号格納手段43bからの出力信号Db1は無視される。   The output signal Da1 from the first division processing signal storage means 43a outputs the even line after outputting the odd line. In this case, the output signal Db1 from the second divided processing signal storage means 43b is ignored.

図19は1ライン毎に分割した場合のフォーマット変換を示す図である。奇数フィールドを1ライン毎に分割し、その後偶数フィールドを1ライン毎に分割した場合は、出力信号Da1、Db1のライン配列は図に示すようになる。   FIG. 19 is a diagram showing format conversion in the case of division for each line. When the odd field is divided for each line and then the even field is divided for each line, the line arrangement of the output signals Da1 and Db1 is as shown in the figure.

第1の分割処理信号格納手段43aからの出力信号Da1と、第2の分割処理信号格納手段43bからの出力信号Db1と、を1ライン毎に交互に出力する。
図20は奇数/偶数フィールドに分割した場合のフォーマット変換を示す図である。第1の分割処理信号格納手段43aからの出力信号Da1を出力し、第2の分割処理信号格納手段43bからの出力信号Db1を出力して合成する。
The output signal Da1 from the first divided processing signal storage unit 43a and the output signal Db1 from the second divided processing signal storage unit 43b are alternately output for each line.
FIG. 20 is a diagram showing format conversion when dividing into odd / even fields. The output signal Da1 from the first divided processing signal storage means 43a is output, and the output signal Db1 from the second divided processing signal storage means 43b is output and synthesized.

図21は1フレーム画面を上下に分割した場合のフォーマット変換を示す図である。第1及び第2の分割処理信号格納手段43a、43bからの出力信号Da1、Db1の奇数ラインを出力した後に、偶数ラインを出力する。   FIG. 21 is a diagram showing format conversion when one frame screen is divided vertically. After the odd lines of the output signals Da1 and Db1 from the first and second divided processing signal storage means 43a and 43b are output, the even lines are output.

なお、上記のようなフォーマット変換を行わず、出力信号Da1、Db1のいずれかだけをそのまま出力してもよい。すなわち、第1及び第2の分割処理信号格納手段43a、43bのいずれか一方からの出力信号Da1、Db1をライン毎に出力する。   Note that only one of the output signals Da1 and Db1 may be output as it is without performing the format conversion as described above. That is, output signals Da1 and Db1 from either one of the first and second divided processing signal storage means 43a and 43b are output for each line.

以上説明したように、第4の実施の形態の画像処理装置4は、2つの分割処理信号をそれぞれダブルバッファ構造の第1及び第2の分割処理信号格納手段43a、43bで格納し、その出力信号Da1、Db1の合成及びフォーマット変換をハードウェアで行う構成とした。これにより、画像合成時のフォーマット変換をリアルタイムに行うことが可能になる。   As described above, the image processing apparatus 4 according to the fourth embodiment stores the two divided processed signals in the first and second divided processed signal storage means 43a and 43b having a double buffer structure, and outputs them. The signals Da1 and Db1 are synthesized and format converted by hardware. As a result, format conversion at the time of image synthesis can be performed in real time.

次に画像処理装置を適用した画像処理ボードについて図22、23を用いて説明する。図22は画像処理ボードのビデオ部を示す図であり、図23は画像処理ボードの画像処理部を示す図である。画像処理ボード100は、ビデオ部110と画像処理部120からなる。   Next, an image processing board to which the image processing apparatus is applied will be described with reference to FIGS. FIG. 22 is a diagram showing a video unit of the image processing board, and FIG. 23 is a diagram showing an image processing unit of the image processing board. The image processing board 100 includes a video unit 110 and an image processing unit 120.

ビデオ部110に対し、ビデオデコーダ111aはビデオ入力のA/D変換を行い、ビデオエンコーダは111bはD/A変換を行って、処理後の信号を出力する。
フレームメモリ113は、フレーム間引き部112でフレーム間引きされたディジタル画像データを2画面分交互に蓄積する。
For the video unit 110, the video decoder 111a performs A / D conversion of the video input, and the video encoder 111b performs D / A conversion, and outputs a processed signal.
The frame memory 113 alternately stores the digital image data thinned out by the frame thinning unit 112 for two screens.

モード選択部114は、蓄積した画像データをフレームメモリ113から画像バスB1へ出力する形式を1/30秒毎のノーマル出力/フレーム単位での間引き出力/ライン間隔拡張出力の3種類のモードを選択して出力する。   The mode selection unit 114 selects three types of modes for outputting the stored image data from the frame memory 113 to the image bus B1: normal output every 1/30 seconds / decimation output per frame / line interval extended output. And output.

分割処理信号格納部115は、画像バスB2、B3を通じて2系統からなる画像データを、各2画面のフレームメモリA1/B1、A2/B2へ交互に蓄積する。
フォーマット変換部116は、分割処理信号格納部115から出力された画像データからライン毎に選択してフォーマット変換する。
The division processing signal storage unit 115 alternately accumulates image data of two systems through the image buses B2 and B3 in the frame memories A1 / B1 and A2 / B2 of two screens.
The format conversion unit 116 selects and converts the format for each line from the image data output from the division processing signal storage unit 115.

ビデオコントロール部117は、ビデオ部110を構成する各処理部の全体制御を行う。
画像処理部120に対し、入力FIFO121aは、画像バスB4からの画像データを1ライン分入力する。
The video control unit 117 performs overall control of each processing unit constituting the video unit 110.
The input FIFO 121a inputs one line of image data from the image bus B4 to the image processing unit 120.

入力FIFO制御部121bは、入力FIFO121aを制御するとともにDSP123へ水平/垂直同期割り込みを行う。
出力FIFO122aは、処理後の画像データを1ライン分入力して画像バスB5へ出力する。出力FIFO制御部122bは、出力FIFO122aを制御する。
The input FIFO control unit 121b controls the input FIFO 121a and issues a horizontal / vertical synchronization interrupt to the DSP 123.
The output FIFO 122a inputs one line of processed image data and outputs it to the image bus B5. The output FIFO control unit 122b controls the output FIFO 122a.

DSP123は、複数バンクの内部データメモリ123aとHPI123bを有し画像処理を実行する。
ワーク/プログラムメモリ124は、プログラムの記憶、ワーク領域またはフレームメモリA/Bとして使用できる。
The DSP 123 includes a plurality of banks of internal data memories 123a and HPIs 123b, and executes image processing.
The work / program memory 124 can be used as a program storage, work area, or frame memory A / B.

ゲート回路125はDSP123のHPI123bへアクセスするポートを入力FIFO121a側またはホスト200側に切り替える。
DSPコントロール部126は、画像処理部120を構成する各処理部の全体制御を行う。
The gate circuit 125 switches the port for accessing the HPI 123b of the DSP 123 to the input FIFO 121a side or the host 200 side.
The DSP control unit 126 performs overall control of each processing unit included in the image processing unit 120.

以上説明したように、画像処理装置を適用した画像処理ボード100は、対象物の高速検知、画像バス上に発生するコンフリクトの低減及び画像の高速合成処理を行うことが可能になる。   As described above, the image processing board 100 to which the image processing apparatus is applied can perform high-speed detection of an object, reduction of conflicts generated on the image bus, and high-speed image synthesis processing.

第1の実施の形態の画像処理装置の原理図である。1 is a principle diagram of an image processing apparatus according to a first embodiment. ライン間隔拡張波形のタイムシーケンスを示す図である。It is a figure which shows the time sequence of a line space | interval expansion waveform. ライン間隔が拡張された場合のフレーム波形のタイムシーケンスを示す図である。It is a figure which shows the time sequence of a frame waveform when a line space | interval is extended. フレーム処理を行う場合の画像処理構成を示す図である。It is a figure which shows the image processing structure in the case of performing a frame process. 図4のタイムシーケンスを示す図である。It is a figure which shows the time sequence of FIG. ライン処理を行う場合の画像処理構成を示す図である。It is a figure which shows the image processing structure in the case of performing a line process. 図6のタイムシーケンスを示す図である。It is a figure which shows the time sequence of FIG. ライン間隔拡張を行う際のフレームメモリを示す図である。It is a figure which shows the frame memory at the time of performing line space | interval expansion. ライン間隔拡張を行う際の内部データメモリを示す図である。It is a figure which shows the internal data memory at the time of performing line space | interval expansion. ライン処理とフレーム処理を複合して行う場合の画像処理構成を示す図である。It is a figure which shows the image processing structure in the case of performing combining line processing and frame processing. 図10のタイムシーケンスを示す図である。It is a figure which shows the time sequence of FIG. 第2の実施の形態の画像処理装置の原理図である。It is a principle figure of the image processing apparatus of 2nd Embodiment. 画像処理装置の構成を示す図である。It is a figure which shows the structure of an image processing apparatus. 第3の実施の形態の画像処理装置の原理図である。It is a principle figure of the image processing apparatus of 3rd Embodiment. 画像処理装置の構成を示す図である。It is a figure which shows the structure of an image processing apparatus. 第4の実施の形態の画像処理装置の原理図である。It is a principle figure of the image processing apparatus of 4th Embodiment. 従来の画像信号の分割処理及び合成を示す図である。It is a figure which shows the division | segmentation process and the synthesis | combination of the conventional image signal. 分割を行わない場合のフォーマット変換を示す図である。It is a figure which shows the format conversion when not dividing. 1ライン毎に分割した場合のフォーマット変換を示す図である。It is a figure which shows the format conversion at the time of dividing | segmenting for every line. 奇数/偶数フィールドに分割した場合のフォーマット変換を示す図である。It is a figure which shows the format conversion at the time of dividing | segmenting into an odd / even field. 1フレーム画面を上下に分割した場合のフォーマット変換を示す図である。It is a figure which shows the format conversion at the time of dividing | segmenting 1 frame screen up and down. 画像処理ボードのビデオ部を示す図である。It is a figure which shows the video part of an image processing board. 画像処理ボードの画像処理部を示す図である。It is a figure which shows the image processing part of an image processing board.

符号の説明Explanation of symbols

1 画像処理装置
11 ライン間隔拡張手段
12a〜12n 画像処理手段
DESCRIPTION OF SYMBOLS 1 Image processing apparatus 11 Line space | interval expansion means 12a-12n Image processing means

Claims (4)

画像信号をリアルタイムで処理する画像処理装置において、
前記画像信号のフレーム処理にフレームが間引かれた場合、前記画像信号のラインの間隔を拡張するライン間隔拡張手段と、
間隔が拡張された前記ラインのライン処理をパイプライン制御で行う複数の画像処理手段と、
を有し、
前記画像信号のラインの間隔は、1ライン単位の画像信号の入力が終了した時点から、次の1ライン単位の画像信号の入力が開始される時点までの時間間隔であって、
前記ライン間隔拡張手段は、前記フレームが間引かれた数がn(n=1、2、・・・)のときは、各ライン間の時間間隔を、nライン分の時間だけ空けて、前記画像信号のラインの間隔を拡張する、
ことを特徴とする画像処理装置。
In an image processing apparatus that processes an image signal in real time,
When said frame during the frame processing of the image signal is decimated, and the line interval extension means extend the interval between lines of the image signal,
A plurality of image processing means for performing line processing of the line with an extended interval by pipeline control;
I have a,
The interval between the lines of the image signal is a time interval from the time when the input of the image signal in units of one line is completed to the time when the input of the image signal in units of the next one line is started,
When the number of frames thinned out is n (n = 1, 2,...), The line interval extending means leaves a time interval between the lines by a time corresponding to n lines. Extend the line spacing of the image signal,
An image processing apparatus.
前記ライン間隔拡張手段は、ダブルバッファ構造のフレームメモリで前記画像信号を格納した後、前記ラインの間隔を拡張して出力することを特徴とする請求項1記載の画像処理装置。   2. The image processing apparatus according to claim 1, wherein the line interval expanding means stores the image signal in a frame memory having a double buffer structure, and then extends and outputs the line interval. 前記ライン間隔拡張手段は、1フレームを格納できるFIFOで前記画像信号を格納した後、前記ラインの間隔を拡張して出力することを特徴とする請求項1記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the line interval expansion unit stores the image signal in a FIFO that can store one frame, and then expands and outputs the line interval. 前記画像処理手段は、前記ライン処理と前記フレーム処理を複合して行うことを特徴とする請求項1記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the image processing unit performs the line processing and the frame processing in combination.
JP2004280015A 2004-09-27 2004-09-27 Image processing device Expired - Fee Related JP4056511B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004280015A JP4056511B2 (en) 2004-09-27 2004-09-27 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004280015A JP4056511B2 (en) 2004-09-27 2004-09-27 Image processing device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP10215342A Division JP2000048189A (en) 1998-07-30 1998-07-30 Image processor

Publications (2)

Publication Number Publication Date
JP2005011380A JP2005011380A (en) 2005-01-13
JP4056511B2 true JP4056511B2 (en) 2008-03-05

Family

ID=34101556

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004280015A Expired - Fee Related JP4056511B2 (en) 2004-09-27 2004-09-27 Image processing device

Country Status (1)

Country Link
JP (1) JP4056511B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5185242B2 (en) 2009-12-04 2013-04-17 株式会社東芝 Compilation device
JP7322576B2 (en) * 2019-07-31 2023-08-08 株式会社リコー Information processing device, imaging device, and moving object

Also Published As

Publication number Publication date
JP2005011380A (en) 2005-01-13

Similar Documents

Publication Publication Date Title
US20120026367A1 (en) System and method for maintaining maximum input rate while up-scaling an image vertically
CN101370089B (en) Split joint display parallel processing system
JP4346591B2 (en) Video processing apparatus, video processing method, and program
CN111669648B (en) Video frequency doubling method
US6546156B1 (en) Image processing device
JP4056511B2 (en) Image processing device
US20060126967A1 (en) Image scaler and method of the same
US10037169B2 (en) Image processing semiconductor device and image processing device
WO2020071467A1 (en) Video processing device, display device, and video processing method
CN101984668B (en) Real-time image scaling engine suitable for various 4*4 interpolation filters
US6437835B1 (en) System and method for transfer of an interlaced video signal over a data bus for use by a non-interlace video signal device
JP6501861B1 (en) Image processing system
JP2007221538A (en) Device and method for scene change determination data transfer device, and data transfer method
US20150304572A1 (en) Video processing device and video processing method
JPH1013710A (en) Display method and its device
JP2007020019A (en) Memory controller and synchronization device of signal string
JP2005117554A (en) Vehicle surrounding image converting apparatus
JPH07101449B2 (en) Singularity detection method by image processing
WO2004112388A1 (en) Image processing device and the method
JPH08190368A (en) Device and method video signal converter
JPH03216691A (en) Moving image and still image display controller
JPH04165577A (en) Image processor
JP2006245998A (en) Image processor and image processing method
JPH08160939A (en) Buffer circuit for fetching digital video data
JP2002006831A (en) Image processor

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070906

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070918

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071211

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071211

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101221

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees