JP4056511B2 - Image processing device - Google Patents
Image processing device Download PDFInfo
- Publication number
- JP4056511B2 JP4056511B2 JP2004280015A JP2004280015A JP4056511B2 JP 4056511 B2 JP4056511 B2 JP 4056511B2 JP 2004280015 A JP2004280015 A JP 2004280015A JP 2004280015 A JP2004280015 A JP 2004280015A JP 4056511 B2 JP4056511 B2 JP 4056511B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- processing
- line
- image processing
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Processing (AREA)
Description
本発明は画像処理装置に関し、特に画像信号をリアルタイムに処理して対象物の存在を検知し、画像認識を行う画像処理装置に関する。 The present invention relates to an image processing apparatus, and more particularly to an image processing apparatus that processes an image signal in real time to detect the presence of an object and performs image recognition.
画像認識技術は、CCDカメラ等で撮像された画像から対象物の存在を検知し、その画像内容を解析する技術である。
ITS(Intelligent Transport Systems:高速道路交通システム)では、道路上の車両停止の検知や落下物の検知等に、画像認識技術を利用している。
The image recognition technique is a technique for detecting the presence of an object from an image captured by a CCD camera or the like and analyzing the image content.
In ITS (Intelligent Transport Systems), image recognition technology is used for detecting vehicle stops on roads, detecting falling objects, and the like.
また、電力設備の短絡・地絡の事故検知、さらにはゴミ焼却場の火災検知等、幅広い分野で利用されている。
一方、画像認識を行うアルゴリズムとしては、例えば、背景画像を記憶しておき、一定周期で入力する画像との差分から物体を検知する背景差分、画像から特徴事項を抽出して物体を検知する特徴抽出等、その他多様なアルゴリズムがある。
In addition, it is used in a wide range of fields, such as detecting short-circuit / ground faults in power facilities, and detecting fires in garbage incinerators.
On the other hand, as an algorithm for performing image recognition, for example, a background image is stored, a background difference for detecting an object from a difference from an image input at a fixed period, and a feature for detecting an object by extracting feature items from the image There are various other algorithms such as extraction.
一般に画像認識技術では、これらアルゴリズムの内容が大きい場合、1つの画像処理プロセッサでは処理できないので、フレーム単位に間引きを行った後、フレーム単位のパイプライン制御を行って処理速度を上げている。 In general, in the image recognition technique, when the contents of these algorithms are large, the processing cannot be performed by one image processor. Therefore, after thinning out in units of frames, pipeline processing is performed in units of frames to increase the processing speed.
また、処理速度を上げるために、プロセッサでは、画像データの入力/出力及び画像認識の処理に対して、同時に並列処理を行っている。さらに、画像処理アルゴリズムは、画像をいくつかに分割し、通常は分散処理されている。 In order to increase the processing speed, the processor simultaneously performs parallel processing for image data input / output and image recognition processing. Further, the image processing algorithm divides an image into several parts and is usually subjected to distributed processing.
しかし、上記のような従来のパイプライン制御は、未処理データが処理済みデータに変換されるまでに、複数のプロセッサによる時間的遅れを生じながら処理結果が連続して得られるので、遅延時間が発生する。 However, in the conventional pipeline control as described above, since the processing results are continuously obtained while causing the time delay by a plurality of processors before the unprocessed data is converted into the processed data, the delay time is increased. appear.
この遅延時間は、プロセッサの接続段数に比例して大きくなるため、高速で動く画像から早い事象を検知する際には問題となる。
例えば、ITSで開発が進められているドライバを介さない無人自動運転では、事故防止のために落下物や異常事態を、事象が発生してから即座に検知しなければならない。このように車載の画像認識では、高速検知は必須である。
Since this delay time increases in proportion to the number of connected stages of the processor, it becomes a problem when an early event is detected from an image that moves at high speed.
For example, in unattended automatic driving without a driver being developed by ITS, a fallen object or an abnormal situation must be detected immediately after an event occurs in order to prevent an accident. Thus, high-speed detection is indispensable for in-vehicle image recognition.
さらに、従来のアルゴリズム分散処理では、分散処理後、画像を合成する際にデータ転送能力の低いシリアル通信ポートが使われていたために、リアルタイム(1/30秒)の合成ができず、高速検知の障害となっていた。 Furthermore, in the conventional algorithm distributed processing, since a serial communication port with low data transfer capability is used when combining images after distributed processing, real-time (1/30 second) combining is not possible, and high-speed detection is possible. It was an obstacle.
本発明はこのような点に鑑みてなされたものであり、画像処理速度を向上させ、対象物の存在を高速に検知する画像処理装置を提供することを目的とする。 The present invention has been made in view of these points, and an object thereof is to provide an image processing apparatus that improves the image processing speed and detects the presence of an object at high speed.
本発明では上記課題を解決するために、図1に示すような画像信号をリアルタイムで処理する画像処理装置1において、画像信号のフレーム処理時にフレームが間引かれた場合、画像信号のラインの間隔を拡張するライン間隔拡張手段11と、間隔が拡張されたラインのライン処理をパイプライン制御で行う複数の画像処理手段12a〜12nと、を有し、画像信号のラインの間隔は、1ライン単位の画像信号の入力が終了した時点から、次の1ライン単位の画像信号の入力が開始される時点までの時間間隔であって、ライン間隔拡張手段11は、フレームが間引かれた数がn(n=1、2、・・・)のときは、各ライン間の時間間隔を、nライン分の時間だけ空けて、画像信号のラインの間隔を拡張する、ことを特徴とする画像処理装置1が提供される。
In the present invention, in order to solve the above-described problem, in the
ここで、ライン間隔拡張手段11は、画像信号のフレーム処理時にフレームが間引かれた場合、画像信号のラインの間隔を拡張する。画像処理手段12a〜12nは、間隔が拡張されたラインのライン処理をパイプライン制御で行う。また、画像信号のラインの間隔は、1ライン単位の画像信号の入力が終了した時点から、次の1ライン単位の画像信号の入力が開始される時点までの時間間隔であって、ライン間隔拡張手段11は、フレームが間引かれた数がn(n=1、2、・・・)のときは、各ライン間の時間間隔を、nライン分の時間だけ空けて、画像信号のラインの間隔を拡張する。
Here, the line interval extension means 11, when the frame during the frame processing of the image signal is decimated, extend the interval of the image signal line. The
本発明の画像処理装置は、画像信号のフレーム処理時、フレームが間引かれた数がn(n=1、2、・・・)のときは、各ライン間の時間間隔を、nライン分の時間だけ空けて、ラインの間隔を拡張して、ライン処理をパイプライン制御で行う構成とした。これにより、画像処理速度を向上させ、対象物の存在を高速に検知することが可能になる。 In the image processing apparatus of the present invention, when the number of thinned frames is n (n = 1, 2,...) During frame processing of an image signal, the time interval between the lines is set to n lines. The interval between the lines is extended and the line processing is performed by pipeline control. Thereby, it is possible to improve the image processing speed and to detect the presence of the object at high speed.
以下、本発明の実施の形態を図面を参照して説明する。図1は第1の実施の形態の画像処理装置の原理図である。画像処理装置1は、画像信号をリアルタイム(1/30秒)で処理して、対象物の存在を検知し、画像認識を行う。
Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a principle diagram of the image processing apparatus according to the first embodiment. The
ライン間隔拡張手段11は、画像信号のフレーム処理を行った場合、リアルタイムに処理するためにフレームを間引いた際に、画像信号のラインの間隔をフレームを間引いた数だけ拡張する。
When the frame processing of the image signal is performed, the line
例えば図では、フレーム処理時は2フレーム間引いており、その場合にはラインの間隔を2ライン分空けて拡張する。
画像処理手段12a〜12nは、間隔が拡張されたラインのライン処理をパイプライン制御で行う。
For example, in the figure, two frames are thinned out at the time of frame processing, and in that case, the line interval is extended by two lines.
The
ここでフレーム処理、ライン処理及び間引きの意味について説明する。フレーム処理は、1フレーム(1画面)全体の画像を対象として処理を行うもので、複雑な特徴を有する画像処理や環境変化のある状態での検知に使用できる。 Here, the meaning of frame processing, line processing, and thinning will be described. The frame processing is performed on the entire image of one frame (one screen), and can be used for image processing having complicated features and detection in a state where the environment changes.
フレーム処理を行う画像処理手段のアルゴリズムとしては、特徴抽出やラベリング等がある。
ライン処理は、基本的に画面の1水平ライン(640ピクセル)の画像信号を対象として行うもので、処理対象ピクセルは、1ピクセル単位、周辺の数ピクセル単位、1ライン単位及び近傍の数ライン単位等である。
Examples of the algorithm of the image processing means that performs frame processing include feature extraction and labeling.
The line processing is basically performed on the image signal of one horizontal line (640 pixels) of the screen. The processing target pixel is one pixel unit, several peripheral pixel units, one line unit, and several neighboring line units. Etc.
これらの小単位処理でも、単純画像で環境条件のあまり変化しない状態であれば、ライン処理での検知は十分可能である。
また、ライン処理を行う画像処理手段のアルゴリズムとしては、マスク、背景差分、投影、2値化等がある。
Even in these small unit processes, detection by line processing is sufficiently possible if the environmental conditions are not changed so much in a simple image.
Also, the algorithm of the image processing means for performing line processing includes mask, background difference, projection, binarization and the like.
間引きとは、CCDカメラ等から1/30秒毎に入力される画像信号を1フレーム単位で間引くものである。間引きにより、その分の情報量が削減されるが、低速な動画像でS/N比が高い場合や、検知までに時間を要しても構わない場合等では、間引いても問題はない。 The thinning is a thinning of image signals input every 1/30 seconds from a CCD camera or the like in units of one frame. Although the amount of information is reduced by thinning, there is no problem even if thinning is performed when a low-speed moving image has a high S / N ratio or when it may take time to detect.
次に動作について説明する。画像処理手段12a〜12nのそれぞれのフレーム処理が1/30×3秒かかるとすると、リアルタイムでフレーム処理を行うためには、2フレーム間引いた画像信号を入力する必要がある。 Next, the operation will be described. If each frame processing of the image processing means 12a to 12n takes 1/30 × 3 seconds, it is necessary to input an image signal obtained by thinning out two frames in order to perform frame processing in real time.
したがって、画像処理手段12a〜12nでフレーム処理のパイプライン制御を行うと、1フレームが処理されるまでに、1/30×3×n(n:画像処理手段12a〜12nの数)秒の処理時間の遅延となる。 Therefore, when pipeline processing of frame processing is performed by the image processing means 12a to 12n, 1/30 × 3 × n (n: number of image processing means 12a to 12n) seconds are processed before one frame is processed. Time delay.
一方、ライン間隔拡張手段11により、フレームのライン間隔を拡張(ここでは2ライン分)する。そして、画像処理手段12a〜12nで拡張されたラインを入力して、ライン単位のパイプライン制御を行う。これにより、1ラインが処理されるまでに、1/30×3秒以内でライン単位の処理を終わらせることができる。 On the other hand, the line interval extending means 11 extends the line interval of the frame (in this case, two lines). Then, the line extended by the image processing means 12a to 12n is input to perform pipeline control in units of lines. As a result, the processing for each line can be completed within 1/30 × 3 seconds before one line is processed.
このように、単純画像で環境条件のあまり変化しない画像等に対しては、フレーム処理ではなく、ライン処理で対象物の検知を十分行うことができるので、ライン間隔を拡張してのライン処理をパイプライン制御で行えば、処理時間を大幅に削減でき、対象物の高速検知が可能になる。 In this way, for simple images that do not change much in environmental conditions, it is possible to sufficiently detect the object by line processing instead of frame processing. By performing pipeline control, the processing time can be greatly reduced, and high-speed detection of an object becomes possible.
次にライン間隔拡張手段11でライン間隔が拡張された波形のタイムシーケンスについて説明する。図2はライン間隔拡張波形のタイムシーケンスを示す図である。
波形Laは、通常のライン構成を持つ波形である。波形Lbは、ライン間隔が拡張されたライン波形であり、2ライン分間隔が拡張されている。
Next, the time sequence of the waveform in which the line interval is extended by the line interval extension means 11 will be described. FIG. 2 is a diagram showing a time sequence of a line interval extended waveform.
The waveform La is a waveform having a normal line configuration. The waveform Lb is a line waveform in which the line interval is extended, and the interval for two lines is extended.
図3はライン間隔が拡張された場合のフレーム波形のタイムシーケンスを示す図である。
波形Faは通常のフレーム構成を持つ波形である。波形Fbはライン間隔が2ライン分拡張された場合のフレーム波形であり、もとのフレームの3倍に拡大される。また、この場合、垂直ブランキング期間も3倍に拡大される。
FIG. 3 is a diagram showing a time sequence of the frame waveform when the line interval is extended.
The waveform Fa is a waveform having a normal frame configuration. The waveform Fb is a frame waveform when the line interval is expanded by two lines, and is expanded to three times the original frame. In this case, the vertical blanking period is also expanded three times.
次にフレーム間引き後にフレーム処理のパイプライン制御を行う従来の画像処理について図4、図5を用いて説明する。図4はフレーム処理を行う場合の画像処理構成を示す図であり、図5は図4のタイムシーケンスを示す図である。 Next, conventional image processing that performs pipeline control of frame processing after frame thinning will be described with reference to FIGS. 4 is a diagram showing an image processing configuration when frame processing is performed, and FIG. 5 is a diagram showing a time sequence of FIG.
図4では、入力する画像信号は、フレーム間引き部101でフレームの間引きが行われる。そして、画像処理手段12a〜12eで画像処理が施され、対象物が検知された場合には、検知出力部102からその旨を通知する検知通知信号W1kが出力される。
In FIG. 4, the input image signal is subjected to frame thinning by the
ここでの画像処理として、画像処理手段12a〜12eは、それぞれマスク、背景差分、投影、2値化及び特徴抽出を行って、画像認識を行うものとする。また、各画像処理手段12a〜12eのフレーム処理時間は、1/30×3秒である。
As image processing here, the image processing means 12a to 12e perform image recognition by performing masking, background difference, projection, binarization, and feature extraction, respectively. The frame processing time of each of the
図5では、波形W1aは垂直同期信号である。波形W1bは事象発生信号であり、図の示す位置に事象が発生したものとする(事象発生から次のフレームまでの間隔が0.03秒)。波形W1cはフレームである。波形W1dは間引き後の垂直同期信号である。波形W1eは間引き後のフレームf1〜f5である。 In FIG. 5, the waveform W1a is a vertical synchronization signal. The waveform W1b is an event occurrence signal, and it is assumed that an event has occurred at the position shown in the figure (the interval from the event occurrence to the next frame is 0.03 seconds). Waveform W1c is a frame. A waveform W1d is a vertical synchronizing signal after thinning. Waveform W1e is frames f1 to f5 after thinning.
そして、このフレームf1〜f5が、画像処理手段12a〜12eでのパイプライン制御により、画像処理が順次施されていく。
波形W1f〜W1jは、それぞれ画像処理手段12a〜12eの出力信号である。図のようにフレームのパイプラインの多段処理を行うと、検知通知信号W1kが出力するまでに(1/30)×3×5+0.03≒530mSの遅延時間となる。
The frames f1 to f5 are sequentially subjected to image processing by pipeline control in the image processing means 12a to 12e.
Waveforms W1f to W1j are output signals of the image processing means 12a to 12e, respectively. When multi-stage processing of the pipeline of the frame is performed as shown in the figure, the delay time is (1/30) × 3 × 5 + 0.03≈530 mS until the detection notification signal W1k is output.
次にライン間隔拡張後にライン処理のパイプライン制御を行う画像処理について図6、図7を用いて説明する。図6はライン処理を行う場合の画像処理構成を示す図であり、図7は図6のタイムシーケンスを示す図である。 Next, image processing for performing pipeline control of line processing after extending the line interval will be described with reference to FIGS. FIG. 6 is a diagram showing an image processing configuration when line processing is performed, and FIG. 7 is a diagram showing a time sequence of FIG.
図6では、入力する画像信号は、ライン間隔拡張手段11でライン間隔が拡張される。そして、画像処理手段12a〜12eで画像処理が施され、対象物が検知された場合には、検知出力部102からその旨を通知する検知通知信号W2kが出力される。また、ここでの画像処理の内容は図4と同様である。
In FIG. 6, the line interval of the input image signal is extended by the line interval extension means 11. Then, when image processing is performed by the image processing means 12a to 12e and an object is detected, a detection notification signal W2k for notifying that is output from the
図7では、波形W2cは事象発生信号であり、図の示す位置に事象が発生したものとする。波形W2dはライン間隔拡張後の垂直同期信号である。波形W2eはライン間隔が拡張されたフレームF1〜F5である。 In FIG. 7, waveform W2c is an event occurrence signal, and it is assumed that an event has occurred at the position shown in the figure. A waveform W2d is a vertical synchronization signal after the line interval is expanded. A waveform W2e is frames F1 to F5 in which the line interval is extended.
そして、このフレームF1〜F5の拡張ラインが、画像処理手段12a〜12eでのパイプライン制御により、画像処理が順次施されていく。
波形W2f〜W2jは、それぞれ画像処理手段12a〜12eの出力信号である。図のようにラインのパイプラインの多段処理を行うと、検知通知信号W2kが出力するまでに(1/30)×3+0.03≒130mSの遅延時間となる。このように、ライン間隔を拡張してのライン処理をパイプライン制御で行うことにより、処理時間を大幅に削減することができる。
The extended lines of the frames F1 to F5 are sequentially subjected to image processing by pipeline control in the image processing means 12a to 12e.
Waveforms W2f to W2j are output signals of the image processing means 12a to 12e, respectively. When multi-stage processing of the pipeline of the line is performed as shown in the figure, a delay time of (1/30) × 3 + 0.03≈130 ms is required until the detection notification signal W2k is output. In this way, processing time can be significantly reduced by performing line processing with expanded line spacing by pipeline control.
次に画像信号をフレームメモリに蓄積してからライン間隔拡張処理を行う場合について説明する。図8はライン間隔拡張を行う際のフレームメモリを示す図である。
フレームメモリ11aは、A面、B面に対し、交互に書き込み及び読み出しを行うダブルバッファ構造のメモリであり、画像信号をフレーム単位で一旦、格納した後、ラインの間隔を拡張しながら出力する。
Next, a case where line interval expansion processing is performed after an image signal is stored in the frame memory will be described. FIG. 8 is a diagram showing a frame memory when line interval expansion is performed.
The frame memory 11a has a double buffer structure in which writing and reading are alternately performed with respect to the A side and the B side. After the image signal is temporarily stored in units of frames, the frame memory 11a outputs it while expanding the line interval.
このため例えば、フレームAが書き込まれてから読み出されるまでには、1フレーム分の遅延が発生し、その遅延にライン間隔拡張分の遅延が加算されることになる。
したがって、フレームメモリ11aに蓄積してからライン間隔拡張を行った場合の遅延時間は、1/30(1フレーム時間)+(1+ライン間隔拡張数)/30(秒)となる。
For this reason, for example, a delay of one frame occurs between the time when frame A is written and the time when the frame A is read, and the delay corresponding to the extension of the line interval is added to the delay.
Therefore, the delay time when the line interval is expanded after being stored in the frame memory 11a is 1/30 (one frame time) + (1 + number of line interval extensions) / 30 (seconds).
次に画像信号を1フレームのFIFO(First-In First-Out) に蓄積してからライン間隔拡張処理を行う場合について説明する。図9はライン間隔拡張を行う際の内部データメモリを示す図である。 Next, the case where the line interval expansion process is performed after the image signal is accumulated in a first-in first-out (FIFO) of one frame will be described. FIG. 9 is a diagram showing an internal data memory when line interval expansion is performed.
図8で示したフレームメモリ11aの代わりに、1フレーム分の内部データメモリ123aを設け、内部データメモリ123aに入力してくる画像信号をライン間隔拡張の時間だけ遅延しながら順次出力する。
In place of the frame memory 11a shown in FIG. 8, an
外部のフレームメモリに一旦蓄積する必要がなくなるので、1フレーム分の遅延がなくなる。したがって、内部データメモリ123aに蓄積してからライン間隔拡張処理を行う場合の遅延時間は、(1+ライン間隔拡張数)/30(秒)となる。
Since there is no need to temporarily store in an external frame memory, there is no delay for one frame. Therefore, the delay time when the line interval extension process is performed after accumulating in the
次にライン処理とフレーム処理を複合した場合について図10、図11を用いて説明する。図10はライン処理とフレーム処理を複合して行う場合の画像処理構成を示す図であり、図11は図10のタイムシーケンスを示す図である。 Next, a case where line processing and frame processing are combined will be described with reference to FIGS. FIG. 10 is a diagram showing an image processing configuration when performing line processing and frame processing in combination, and FIG. 11 is a diagram showing a time sequence of FIG.
図10では、入力する画像信号は、ライン間隔拡張手段11でライン間隔が拡張される。そして、画像処理手段12a〜12eで画像処理が施され、対象物が検知された場合には、検知出力部102からその旨を通知する検知通知信号W3kが出力される。
In FIG. 10, the line interval of the input image signal is extended by the line interval extension means 11. Then, when image processing is performed by the image processing means 12a to 12e and an object is detected, a detection notification signal W3k for notifying that is output from the
また、ここでの画像処理は、画像処理手段12a〜12cのマスク、背景差分及び投影までがライン処理であり、画像処理手段12d、12eの2値化、特徴抽出をフレーム処理で行うものとする。
In this image processing, line processing includes masking, background difference and projection of the
図11では、波形W3cは事象発生信号であり、図の示す位置に事象が発生したものとする。波形W3dはライン間隔拡張後の垂直同期信号である。波形W3eはライン間隔が拡張されたフレームF1〜F5である。 In FIG. 11, waveform W3c is an event occurrence signal, and it is assumed that an event has occurred at the position shown in the figure. A waveform W3d is a vertical synchronization signal after the line interval is expanded. A waveform W3e is frames F1 to F5 in which the line interval is extended.
そして、このフレームF1〜F5の拡張ラインが、画像処理手段12a〜12eでのパイプライン制御により、画像処理が順次施されていく。波形W3f〜W3jは、それぞれ画像処理手段12a〜12eの出力信号である。 The extended lines of the frames F1 to F5 are sequentially subjected to image processing by pipeline control in the image processing means 12a to 12e. Waveforms W3f to W3j are output signals of the image processing means 12a to 12e, respectively.
また、ここでは、波形W3f〜W3hがライン処理、W3i、W3jがフレーム処理である。
したがって、図のようにパイプラインの多段処理を行うと、検知通知信号W3kが出力するまでに(1/30)×3×3+0.03≒330mSの遅延時間となる。
Here, the waveforms W3f to W3h are line processing, and W3i and W3j are frame processing.
Therefore, when pipeline multi-stage processing is performed as shown in the figure, a delay time of (1/30) × 3 × 3 + 0.03≈330 mS is required until the detection notification signal W3k is output.
このように、ライン処理に向いているマスクや背景差分等のアルゴリズムや、フレーム処理に向いている特徴抽出等のアルゴリズムを複合して、効率よく画像処理することが可能になる。 In this way, it is possible to efficiently perform image processing by combining algorithms such as masks and background differences suitable for line processing and algorithms such as feature extraction suitable for frame processing.
以上説明したように、第1の実施の形態の画像処理装置1は、画像信号のラインの間隔を拡張して、ライン処理をパイプライン制御で行う構成とした。これにより、画像処理速度を向上させ、対象物の存在を高速に検知することが可能になる。
As described above, the
次に第2の実施の形態の画像処理装置について説明する。図12は第2の実施の形態の画像処理装置の原理図である。ホスト200を除く図の各構成要素からなる画像処理装置2は、画像入力処理、画像処理、画像出力処理の同時並列処理を行う。
Next, an image processing apparatus according to a second embodiment will be described. FIG. 12 is a principle diagram of the image processing apparatus according to the second embodiment. The
入力画像信号格納手段21は、入力された画像信号を格納して、入力画像データD1として出力する。
画像信号処理手段22は、入力画像データD1を画像処理して、画像処理データD2を生成する。
The input image signal storage means 21 stores the input image signal and outputs it as input image data D1.
The image signal processing means 22 performs image processing on the input image data D1 to generate image processing data D2.
出力画像信号格納手段23は、画像処理データD2を格納して、出力画像データD3として外部出力する。
格納領域制御手段24は、入力側格納領域部24−1と出力側格納領域部24−2を持つ。入力側格納領域部24−1は、入力画像信号格納手段21と入力バスBiで接続され、一方が入力画像データD1を格納している場合は、他方が格納済みの入力画像データD1を画像信号処理手段22に出力するダブルバッファ構造のメモリである。また、後述する設定データD4と通知データD5の格納制御も行う。
The output image signal storage means 23 stores the image processing data D2 and outputs it as output image data D3.
The storage area control means 24 has an input side storage area part 24-1 and an output side storage area part 24-2. The input-side storage area 24-1 is connected to the input image signal storage means 21 by the input bus Bi, and when one side stores the input image data D1, the other side stores the stored input image data D1 as an image signal. This is a double buffer memory that is output to the processing means 22. Also, storage control of setting data D4 and notification data D5 described later is performed.
図ではメモリAが入力画像データD1を格納、メモリBからは格納済みの入力画像データD1を出力している。切替え後は、互いに逆の処理となる。
また、出力側格納領域部24−2は、出力画像信号格納手段23と出力バスBoで接続され、一方が画像処理データD2を格納している場合は、他方が格納済みの画像処理データD2を出力画像信号格納手段23に出力するダブルバッファ構造のメモリである。
In the figure, the memory A stores the input image data D1, and the memory B outputs the stored input image data D1. After switching, the processes are opposite to each other.
The output-side storage area unit 24-2 is connected to the output image signal storage means 23 by the output bus Bo, and when one stores the image processing data D2, the other stores the stored image processing data D2. This is a double buffer memory that outputs to the output image signal storage means 23.
図ではメモリCが画像処理データD2を格納、メモリDからは格納済みの画像処理データD2を出力している。切替え後は、互いに逆の処理となる。
また、データ切替え制御手段25は、画像信号処理手段22へ送信される、入力画像データD1またはワークステーション等のホスト200からの設定データD4の切替え制御を行う。さらに、画像信号処理手段22からホスト200への通知データD5の送信制御を行う。
In the figure, the memory C stores the image processing data D2, and the memory D outputs the stored image processing data D2. After switching, the processes are opposite to each other.
Further, the data switching
設定データD4とは、例えば、プログラムやマスクデータ等に該当する。また、通知データD5とは、画像信号処理手段22で対象物を検知した検知結果通知データ等に該当する。 The setting data D4 corresponds to, for example, a program or mask data. Further, the notification data D5 corresponds to detection result notification data or the like in which an object is detected by the image signal processing means 22.
次に画像処理装置2の具体的な構成及び動作について説明する。図13は画像処理装置2の構成を示す図である。画像信号処理手段22と格納領域制御手段24が、1つのDSP(ディジタルシグナルプロセッサ)内20に含まれる。
Next, a specific configuration and operation of the
CPU22aは画像信号処理手段22に該当し、内部データメモリ24aとHPI(ホストポートインタフェース)24bとI/F24cは格納領域制御手段24に該当する。
また、入力FIFO21aと入力FIFO制御部21bは入力画像信号格納手段21に該当し、出力FIFO23aと出力FIFO制御部23bは出力画像信号格納手段23に該当する。さらに、データ切替え制御手段25は、ゲート回路25aで構成される。
The
The
DSP20の内部データメモリ24aが複数バンク構成(メモリA〜D)になっており、それぞれ独立してアクセス可能である。
ここでは、メモリA、Bを画像入力のラインメモリとして交互に切り替えて、画像ライン信号の入出力を行う。
The
Here, the memories A and B are alternately switched as image input line memories to input and output image line signals.
すなわち、メモリAがHPI24bを介して、画像ライン信号を入力して格納している場合は、メモリBは画像ライン信号をCPU22aに出力して、CPU22aは画像処理を行う。このような動作をメモリA/B交互に行うことで、画像ライン信号の入力及び画像処理を平行して行うことができる。
That is, when the memory A receives and stores an image line signal via the
また、メモリC/Dでは、メモリCが画像処理データを入力して格納している場合は、メモリDは画像処理データをI/F24cを介して、出力FIFO23aに出力する。このような動作をメモリC/D交互に行う。
In the memory C / D, when the memory C inputs and stores image processing data, the memory D outputs the image processing data to the
また、入力FIFO制御部21bは、ライン単位の動作の基準となる水平同期信号を割り込み信号としてDSP20に入力する。
なお、上記の説明では、メモリA/B、C/Dを、ライン単位のダブルバッファ構造のメモリとしたが、フレーム単位のダブルバッファ構造のメモリにして、フレーム処理を行ってもよい。
Further, the input
In the above description, the memories A / B and C / D are memories having a double buffer structure in units of lines. However, frame processing may be performed by using memories having a double buffer structure in units of frames.
次に画像信号の流れについて説明する。画像信号は、入力FIFO21a、ゲート回路25a、DSP20内のHPI24b及び内部データメモリA/Bへと送信される。
画像信号の出力は、DSP20の内部データメモリC/D、出力FIFO23aへと送信される。
Next, the flow of the image signal will be described. The image signal is transmitted to the
The output of the image signal is transmitted to the internal data memory C / D of the
ここで、画像信号処理は、DSP20内のCPU22aが、内部データメモリA/Bのいずれかから画像信号を読み出して行い(画像信号が入力されるメモリとは別のメモリをアクセスする)、その結果を内部データメモリC/D(同様に出力されるメモリとは別のメモリをアクセスする)へ格納する。
Here, the image signal processing is performed by the
次に動作について詳しく説明する。入力FIFO21aは、ライン単位の画像信号を1ラインずつ受け取る。
入力FIFO制御部21bは、入力FIFO21aが1ライン分受け取った時点で、DSP20に対して割り込みを上げるとともに、入力FIFO制御部21bの制御により、HPI24bを経由して内部データメモリA/Bへ送信する。内部データメモリA/Bいずれに転送するかは、入力FIFO制御部21bで発生した転送アドレスで指定する。
Next, the operation will be described in detail. The
When the
そして、内部データメモリAに入力画像データ転送中は、CPU22aは内部データメモリBとの間で画像処理を行い、次のライン入力タイミングでは内部データメモリBに入力画像データは転送され、CPU22aと内部データメモリAとの間で画像処理を行う。
While the input image data is being transferred to the internal data memory A, the
画像処理結果は、内部データメモリCまたはD(必ず出力されているメモリとは別のメモリへアクセスする)へ保存する。そして、出力FIFO23aからの出力では、出力画像データD3のタイミングをピクセルクロックで制御しながら画像バスへ出力する。
The image processing result is stored in the internal data memory C or D (access to a memory different from the memory that is always output). The output from the
以上説明したように、第2の実施の形態の画像処理装置2は、入力バスBiで接続されて入力画像データD1を格納制御し、出力バスBoで接続されて画像処理データD2を格納制御する格納領域制御手段24を用いて、画像処理を行う構成とした。これにより、入出力のバスを分離できるので、コンフリクトの発生をなくし、装置の品質及び信頼性の向上を図ることが可能になる。
As described above, the
次に第3の実施の形態の画像処理装置について説明する。図14は第3の実施の形態の画像処理装置の原理図である。ホスト200を除く図の各構成要素からなる画像処理装置3は、画像入力処理、画像処理、画像出力処理の同時並列処理を行う。
Next, an image processing apparatus according to a third embodiment will be described. FIG. 14 is a principle diagram of the image processing apparatus according to the third embodiment. The
入力画像信号格納手段31は、入力された画像信号を格納して、入力画像データD1として時分割で出力する。
画像信号処理手段32は、入力画像データD1を時分割で画像処理して画像処理データD2を生成し、画像処理データD2を出力する。
The input image signal storage means 31 stores the input image signal and outputs it as time-division as input image data D1.
The image signal processing means 32 performs image processing on the input image data D1 in a time division manner to generate image processing data D2, and outputs the image processing data D2.
出力画像信号格納手段33は、画像処理データD2を格納して、出力画像データD3として外部出力する。
入力画像データ格納手段36は、一方が入力画像データD1を格納している場合は、他方が格納済みの入力画像データD1を画像信号処理手段32に出力するダブルバッファ構造をとる。
The output image signal storage means 33 stores the image processing data D2 and externally outputs it as output image data D3.
When one of the input image data storage means 36 stores the input image data D1, the other has a double buffer structure for outputting the stored input image data D1 to the image signal processing means 32.
入出力インタフェース手段37は、入力画像データ格納手段36から画像信号処理手段32への入力画像データD1の入力インタフェース、画像信号処理手段32から出力画像信号格納手段33への画像処理データD2の出力インタフェースを行う。
The input /
また、データ切替え制御手段35は、画像信号処理手段32へ送信される、入力画像データD1またはワークステーション等のホスト200からの設定データD4の切替え制御を行う。さらに、画像信号処理手段32からホスト200への通知データD5の送信制御を行う。
Further, the data switching control means 35 performs switching control of the input image data D1 transmitted to the image signal processing means 32 or the setting data D4 from the
次に画像処理装置3の具体的な構成及び動作について説明する。図15は画像処理装置3の構成を示す図である。DSP30は、画像信号処理手段32に該当するCPU32aを内部に含み、図13で説明した内部データメモリ24aを内部に持たない。そして、フレームメモリA/B36aは、入力画像データ格納手段36に該当する。
Next, a specific configuration and operation of the
また、入力FIFO31aと入力FIFO制御部31bは入力画像信号格納手段31に該当し、出力FIFO33aと出力FIFO制御部33bは出力画像信号格納手段33に該当する。さらに、データ切替え制御手段35は、ゲート回路35aで構成される。
The
第3の実施の形態では、内部データメモリ24aの代わりに、フレーム単位でダブルバッファ可能なフレームメモリA/B36aに変更して、フレーム単位での並列動作をする。
In the third embodiment, instead of the
この場合、入出力インタフェース手段37でコンフリクトの発生の可能性があるため、画像入出力データの転送速度を2〜3倍に上げ、時分割で転送することによりコンフリクトを避ける。 In this case, since there is a possibility of conflict in the input / output interface means 37, the transfer speed of the image input / output data is increased 2 to 3 times, and the conflict is avoided by transferring in time division.
例えば、画像入力をフレーム時間の最初の1/3の時間で転送し、次の1/3でDSP30の画像処理を行い、最後の1/3の時間で出力FIFO33aへ出力するようにタイミングをプログラムして動作させる。
For example, the timing is programmed so that the image input is transferred in the first 1/3 of the frame time, the
このように、第3の実施の形態では、内部データメモリ24aを持たないDSP30に対し、時分割で動作させることにより、インタフェース部でのコンフリクトを発生させずに高速に動作させることが可能になる。
As described above, in the third embodiment, the
次に第4の実施の形態について説明する。図16は第4の実施の形態の画像処理装置の原理図である。画像処理装置4は、画像処理の速度が要求性能に間に合わない場合に、画像信号の分割処理及び合成を行って処理速度を高める。
Next, a fourth embodiment will be described. FIG. 16 is a principle diagram of an image processing apparatus according to the fourth embodiment. When the image processing speed does not meet the required performance, the
画像信号分割手段41は、画像信号を分割する。ここでは2系統の分割を行うものとする。
第1の分割処理信号生成手段42aは、2系統に分割された画像信号の一方を画像処理して、第1の分割処理信号Daを生成する。
The image
The first divided processing signal generation means 42a performs image processing on one of the image signals divided into two systems to generate a first divided processing signal Da.
第2の分割処理信号生成手段42bは、2系統に分割された画像信号の他方を画像処理して、第2の分割処理信号Dbを生成する。
第1の分割処理信号格納手段43aは、一方が第1の分割処理信号Daを格納している場合は、他方が格納済みの第1の分割処理信号Daを出力するダブルバッファ構造(フレームメモリA1/B1)で構成される。
The second divided processing signal generation means 42b performs image processing on the other of the two image signals divided into two systems to generate a second divided processing signal Db.
When one of the first divided processing signal storage means 43a stores the first divided processing signal Da, the other one outputs the first divided processing signal Da that has been stored (frame memory A1). / B1).
第2の分割処理信号格納手段43bは、一方が第2の分割処理信号Dbを格納している場合は、他方が格納済みの第2の分割処理信号Dbを出力するダブルバッファ構造(フレームメモリA2/B2)で構成される。 When one of the second divided processing signal storage means 43b stores the second divided processing signal Db, the other outputs the second divided processing signal Db stored in the other (frame memory A2). / B2).
フォーマット変換手段44は、第1及び第2の分割処理信号格納手段43a、43bから出力された出力信号Da1、Db1をハードウェアで合成してフォーマット変換を行う。 The format conversion means 44 performs format conversion by synthesizing the output signals Da1 and Db1 output from the first and second divided processing signal storage means 43a and 43b with hardware.
次に従来の画像信号の分割処理及び合成について説明する。図17は従来の画像信号の分割処理及び合成を示す図である。
2系統に分割された画像分割信号は、画像処理部420a、420bで画像処理が行われる。
Next, conventional image signal division processing and synthesis will be described. FIG. 17 is a diagram showing conventional image signal division processing and synthesis.
The image division signals divided into the two systems are subjected to image processing by the
合成部440は、画像処理部420aで処理された信号と、画像処理部420bで処理され、1ビットのシリアルの通信ポートPを介して送信された信号と、を合成して出力する。
The combining
このように、従来の合成処理では、1ビットのシリアル通信ポートPを利用して行っているために、データ転送能力が低く、リアルタイムの画像処理を行うことができなかった。 As described above, since the conventional synthesis processing is performed using the 1-bit serial communication port P, the data transfer capability is low, and real-time image processing cannot be performed.
次に第1及び第2の分割処理信号格納手段43a、43b及びフォーマット変換手段44について説明する。
図16に示すように、フレームメモリA1/B1を交互に切り替えて、第1の分割処理信号Daの入出力を行う。
Next, the first and second divided processing signal storage means 43a and 43b and the format conversion means 44 will be described.
As shown in FIG. 16, the frame memories A1 / B1 are alternately switched to input / output the first divided processing signal Da.
例えば、フレームメモリA1が第1の分割処理信号Daを入力して格納している場合は、フレームメモリB1は格納済みの第1の分割処理信号Daをフォーマット変換手段44に出力する。このような動作をフレームメモリA1/B1交互に行う。 For example, when the frame memory A1 receives and stores the first divided processing signal Da, the frame memory B1 outputs the stored first divided processing signal Da to the format conversion means 44. Such an operation is performed alternately on the frame memories A1 / B1.
また、同様にフレームメモリA2/B2を交互に切り替えて、第2の分割処理信号Dbの入出力を行う。
例えば、フレームメモリA2が第1の分割処理信号Dbを入力して格納している場合は、フレームメモリB2は格納済みの第1の分割処理信号Dbをフォーマット変換手段44に出力する。このような動作をフレームメモリA2/B2交互に行う。
Similarly, the frame memories A2 / B2 are alternately switched to input / output the second divided processing signal Db.
For example, when the frame memory A2 receives and stores the first divided processing signal Db, the frame memory B2 outputs the stored first divided processing signal Db to the format conversion means 44. Such an operation is performed alternately on the frame memories A2 / B2.
そして、フォーマット変換手段44は、出力信号Da1、Db1をハードウェアで合成してフォーマット変換を行う。なぜなら、画像処理を行うDSPチップで画像信号の合成を行うと、DSPチップに負担がかかり、処理速度が遅くなるためである。 The format conversion means 44 performs format conversion by synthesizing the output signals Da1 and Db1 with hardware. This is because if a DSP chip that performs image processing synthesizes an image signal, the DSP chip is burdened and the processing speed is reduced.
このように、第1及び第2の分割処理信号Da、Dbをそれぞれダブルバッファ構造の第1及び第2の分割処理信号格納手段43a、43bで格納し、その出力信号Da1、Db1の合成及びフォーマット変換をハードウェアで行う構成とした。これにより、画像合成時のフォーマット変換を高速に行うことが可能になる。 In this way, the first and second divided processing signals Da and Db are respectively stored in the first and second divided processing signal storage means 43a and 43b having a double buffer structure, and the output signals Da1 and Db1 are combined and formatted. The conversion is performed by hardware. This makes it possible to perform format conversion at the time of image composition at high speed.
次にフォーマット変換について図18〜図21を用いて説明する。分割された画像信号を合成する際には、分割パターンに対応したフォーマット変換を行って、元の画像に戻す必要がある。 Next, format conversion will be described with reference to FIGS. When the divided image signals are combined, it is necessary to perform format conversion corresponding to the division pattern to restore the original image.
図18は分割を行わない場合のフォーマット変換を示す図である。分割を行わない場合は、出力信号Da1のライン配列は図に示すようになる。
なお、以降の説明では、1フレームは480本のラインからなり、奇数フィールドのライン番号を中括弧で囲み、偶数フィールドのライン番号を小括弧で囲んで表示する。
FIG. 18 is a diagram showing format conversion when division is not performed. When division is not performed, the line arrangement of the output signal Da1 is as shown in the figure.
In the following description, one frame consists of 480 lines, and the line numbers of odd fields are enclosed in braces and the line numbers of even fields are enclosed in parentheses.
第1の分割処理信号格納手段43aからの出力信号Da1を奇数ラインを出力した後に偶数ラインを出力する。この場合、第2の分割処理信号格納手段43bからの出力信号Db1は無視される。 The output signal Da1 from the first division processing signal storage means 43a outputs the even line after outputting the odd line. In this case, the output signal Db1 from the second divided processing signal storage means 43b is ignored.
図19は1ライン毎に分割した場合のフォーマット変換を示す図である。奇数フィールドを1ライン毎に分割し、その後偶数フィールドを1ライン毎に分割した場合は、出力信号Da1、Db1のライン配列は図に示すようになる。 FIG. 19 is a diagram showing format conversion in the case of division for each line. When the odd field is divided for each line and then the even field is divided for each line, the line arrangement of the output signals Da1 and Db1 is as shown in the figure.
第1の分割処理信号格納手段43aからの出力信号Da1と、第2の分割処理信号格納手段43bからの出力信号Db1と、を1ライン毎に交互に出力する。
図20は奇数/偶数フィールドに分割した場合のフォーマット変換を示す図である。第1の分割処理信号格納手段43aからの出力信号Da1を出力し、第2の分割処理信号格納手段43bからの出力信号Db1を出力して合成する。
The output signal Da1 from the first divided processing signal storage unit 43a and the output signal Db1 from the second divided processing
FIG. 20 is a diagram showing format conversion when dividing into odd / even fields. The output signal Da1 from the first divided processing signal storage means 43a is output, and the output signal Db1 from the second divided processing signal storage means 43b is output and synthesized.
図21は1フレーム画面を上下に分割した場合のフォーマット変換を示す図である。第1及び第2の分割処理信号格納手段43a、43bからの出力信号Da1、Db1の奇数ラインを出力した後に、偶数ラインを出力する。 FIG. 21 is a diagram showing format conversion when one frame screen is divided vertically. After the odd lines of the output signals Da1 and Db1 from the first and second divided processing signal storage means 43a and 43b are output, the even lines are output.
なお、上記のようなフォーマット変換を行わず、出力信号Da1、Db1のいずれかだけをそのまま出力してもよい。すなわち、第1及び第2の分割処理信号格納手段43a、43bのいずれか一方からの出力信号Da1、Db1をライン毎に出力する。 Note that only one of the output signals Da1 and Db1 may be output as it is without performing the format conversion as described above. That is, output signals Da1 and Db1 from either one of the first and second divided processing signal storage means 43a and 43b are output for each line.
以上説明したように、第4の実施の形態の画像処理装置4は、2つの分割処理信号をそれぞれダブルバッファ構造の第1及び第2の分割処理信号格納手段43a、43bで格納し、その出力信号Da1、Db1の合成及びフォーマット変換をハードウェアで行う構成とした。これにより、画像合成時のフォーマット変換をリアルタイムに行うことが可能になる。
As described above, the
次に画像処理装置を適用した画像処理ボードについて図22、23を用いて説明する。図22は画像処理ボードのビデオ部を示す図であり、図23は画像処理ボードの画像処理部を示す図である。画像処理ボード100は、ビデオ部110と画像処理部120からなる。
Next, an image processing board to which the image processing apparatus is applied will be described with reference to FIGS. FIG. 22 is a diagram showing a video unit of the image processing board, and FIG. 23 is a diagram showing an image processing unit of the image processing board. The
ビデオ部110に対し、ビデオデコーダ111aはビデオ入力のA/D変換を行い、ビデオエンコーダは111bはD/A変換を行って、処理後の信号を出力する。
フレームメモリ113は、フレーム間引き部112でフレーム間引きされたディジタル画像データを2画面分交互に蓄積する。
For the video unit 110, the
The
モード選択部114は、蓄積した画像データをフレームメモリ113から画像バスB1へ出力する形式を1/30秒毎のノーマル出力/フレーム単位での間引き出力/ライン間隔拡張出力の3種類のモードを選択して出力する。
The
分割処理信号格納部115は、画像バスB2、B3を通じて2系統からなる画像データを、各2画面のフレームメモリA1/B1、A2/B2へ交互に蓄積する。
フォーマット変換部116は、分割処理信号格納部115から出力された画像データからライン毎に選択してフォーマット変換する。
The division processing signal storage unit 115 alternately accumulates image data of two systems through the image buses B2 and B3 in the frame memories A1 / B1 and A2 / B2 of two screens.
The
ビデオコントロール部117は、ビデオ部110を構成する各処理部の全体制御を行う。
画像処理部120に対し、入力FIFO121aは、画像バスB4からの画像データを1ライン分入力する。
The
The
入力FIFO制御部121bは、入力FIFO121aを制御するとともにDSP123へ水平/垂直同期割り込みを行う。
出力FIFO122aは、処理後の画像データを1ライン分入力して画像バスB5へ出力する。出力FIFO制御部122bは、出力FIFO122aを制御する。
The input
The
DSP123は、複数バンクの内部データメモリ123aとHPI123bを有し画像処理を実行する。
ワーク/プログラムメモリ124は、プログラムの記憶、ワーク領域またはフレームメモリA/Bとして使用できる。
The
The work /
ゲート回路125はDSP123のHPI123bへアクセスするポートを入力FIFO121a側またはホスト200側に切り替える。
DSPコントロール部126は、画像処理部120を構成する各処理部の全体制御を行う。
The
The
以上説明したように、画像処理装置を適用した画像処理ボード100は、対象物の高速検知、画像バス上に発生するコンフリクトの低減及び画像の高速合成処理を行うことが可能になる。
As described above, the
1 画像処理装置
11 ライン間隔拡張手段
12a〜12n 画像処理手段
DESCRIPTION OF
Claims (4)
前記画像信号のフレーム処理時にフレームが間引かれた場合、前記画像信号のラインの間隔を拡張するライン間隔拡張手段と、
間隔が拡張された前記ラインのライン処理をパイプライン制御で行う複数の画像処理手段と、
を有し、
前記画像信号のラインの間隔は、1ライン単位の画像信号の入力が終了した時点から、次の1ライン単位の画像信号の入力が開始される時点までの時間間隔であって、
前記ライン間隔拡張手段は、前記フレームが間引かれた数がn(n=1、2、・・・)のときは、各ライン間の時間間隔を、nライン分の時間だけ空けて、前記画像信号のラインの間隔を拡張する、
ことを特徴とする画像処理装置。 In an image processing apparatus that processes an image signal in real time,
When said frame during the frame processing of the image signal is decimated, and the line interval extension means extend the interval between lines of the image signal,
A plurality of image processing means for performing line processing of the line with an extended interval by pipeline control;
I have a,
The interval between the lines of the image signal is a time interval from the time when the input of the image signal in units of one line is completed to the time when the input of the image signal in units of the next one line is started,
When the number of frames thinned out is n (n = 1, 2,...), The line interval extending means leaves a time interval between the lines by a time corresponding to n lines. Extend the line spacing of the image signal,
An image processing apparatus.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004280015A JP4056511B2 (en) | 2004-09-27 | 2004-09-27 | Image processing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004280015A JP4056511B2 (en) | 2004-09-27 | 2004-09-27 | Image processing device |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP10215342A Division JP2000048189A (en) | 1998-07-30 | 1998-07-30 | Image processor |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005011380A JP2005011380A (en) | 2005-01-13 |
JP4056511B2 true JP4056511B2 (en) | 2008-03-05 |
Family
ID=34101556
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004280015A Expired - Fee Related JP4056511B2 (en) | 2004-09-27 | 2004-09-27 | Image processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4056511B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5185242B2 (en) | 2009-12-04 | 2013-04-17 | 株式会社東芝 | Compilation device |
JP7322576B2 (en) * | 2019-07-31 | 2023-08-08 | 株式会社リコー | Information processing device, imaging device, and moving object |
-
2004
- 2004-09-27 JP JP2004280015A patent/JP4056511B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2005011380A (en) | 2005-01-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20120026367A1 (en) | System and method for maintaining maximum input rate while up-scaling an image vertically | |
CN101370089B (en) | Split joint display parallel processing system | |
JP4346591B2 (en) | Video processing apparatus, video processing method, and program | |
CN111669648B (en) | Video frequency doubling method | |
US6546156B1 (en) | Image processing device | |
JP4056511B2 (en) | Image processing device | |
US20060126967A1 (en) | Image scaler and method of the same | |
US10037169B2 (en) | Image processing semiconductor device and image processing device | |
WO2020071467A1 (en) | Video processing device, display device, and video processing method | |
CN101984668B (en) | Real-time image scaling engine suitable for various 4*4 interpolation filters | |
US6437835B1 (en) | System and method for transfer of an interlaced video signal over a data bus for use by a non-interlace video signal device | |
JP6501861B1 (en) | Image processing system | |
JP2007221538A (en) | Device and method for scene change determination data transfer device, and data transfer method | |
US20150304572A1 (en) | Video processing device and video processing method | |
JPH1013710A (en) | Display method and its device | |
JP2007020019A (en) | Memory controller and synchronization device of signal string | |
JP2005117554A (en) | Vehicle surrounding image converting apparatus | |
JPH07101449B2 (en) | Singularity detection method by image processing | |
WO2004112388A1 (en) | Image processing device and the method | |
JPH08190368A (en) | Device and method video signal converter | |
JPH03216691A (en) | Moving image and still image display controller | |
JPH04165577A (en) | Image processor | |
JP2006245998A (en) | Image processor and image processing method | |
JPH08160939A (en) | Buffer circuit for fetching digital video data | |
JP2002006831A (en) | Image processor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20070906 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070918 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20071112 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20071211 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20071211 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101221 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |