JP4401861B2 - Image processing apparatus and control method thereof - Google Patents

Image processing apparatus and control method thereof Download PDF

Info

Publication number
JP4401861B2
JP4401861B2 JP2004136019A JP2004136019A JP4401861B2 JP 4401861 B2 JP4401861 B2 JP 4401861B2 JP 2004136019 A JP2004136019 A JP 2004136019A JP 2004136019 A JP2004136019 A JP 2004136019A JP 4401861 B2 JP4401861 B2 JP 4401861B2
Authority
JP
Japan
Prior art keywords
processing
image
compression
image data
measurement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004136019A
Other languages
Japanese (ja)
Other versions
JP2005318411A5 (en
JP2005318411A (en
Inventor
俊之 福井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2004136019A priority Critical patent/JP4401861B2/en
Priority to US11/119,055 priority patent/US8219702B2/en
Publication of JP2005318411A publication Critical patent/JP2005318411A/en
Publication of JP2005318411A5 publication Critical patent/JP2005318411A5/ja
Application granted granted Critical
Publication of JP4401861B2 publication Critical patent/JP4401861B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本発明は、画像処理装置およびその制御方法に関し、例えば、ネットワークを利用して映像ストリームを配信する画像配信システムに適用されるものである。   The present invention relates to an image processing apparatus and a control method thereof, and is applied to, for example, an image distribution system that distributes a video stream using a network.

近年、インターネットが普及し、WWW ( World Wide Web ) 等による情報発信が一般的に行なわれるようになってきた。その様な中で、映像を撮影し、その映像をリアルタイムにネットワーク上に発信する機能を持つシステムが出現している。   In recent years, the Internet has become widespread, and information transmission by WWW (World Wide Web) or the like has been generally performed. Under such circumstances, systems have emerged that have the function of shooting video and transmitting the video to the network in real time.

一方、ネットワークを利用した画像の配信を行うにあたっては、様々な圧縮方式が用いられている。例えば、広く一般的に用いられているものでは静止画像の圧縮方式としてはJPEG(Joint Photograph coding Experts Group)がある。また動画像の圧縮方式としては、このJPEG方式を動画像の配信に応用したM-JPEG(Motion-JPEG)や、MPEG2及びMPEG4(Moving Picture Experts Group phase 2 / 4)などが存在する。これらのうち、どの方式を用いて画像の配信を行うかは、映像配信側のシステム構成、及びユーザの選択などによって様々に考えられる。   On the other hand, various image compression methods are used for distributing images using a network. For example, as a still image compression method widely used, there is JPEG (Joint Photograph coding Experts Group). As a moving image compression method, there are M-JPEG (Motion-JPEG) in which this JPEG method is applied to moving image distribution, MPEG2 and MPEG4 (Moving Picture Experts Group phase 2/4), and the like. Of these methods, which method is used to distribute an image can be variously considered depending on the system configuration on the video distribution side, the user's selection, and the like.

更に、最近では、様々なデータ転送速度の異なる複数種類の通信回線が提供されている。また、配信された映像を見るための端末も、携帯電話クラスの比較的小さな画面のものから、PCを用いてその表示画面の一部を利用するもの、専用端末を用いるものなど様々である。画像データを配信するシステムを構築する側は、これらユーザの多種多様な要求に応えてサービスを提供することが求められる。なおかつ、カメラの遠隔からの操作を実現したネットワークカメラサーバにおいては、リアルタイムかつ低遅延であることが求められる。   Furthermore, recently, a plurality of types of communication lines having various data transfer rates have been provided. Also, the terminals for viewing the distributed video vary from those having a relatively small screen of the cellular phone class, those using a part of the display screen using a PC, and those using a dedicated terminal. The side that constructs a system for distributing image data is required to provide services in response to the various demands of these users. In addition, a network camera server that realizes remote camera operation is required to have real time and low delay.

ここで、ユーザの多種多様な要求に応じてサービスを提供するような仕組みを持った従来の映像配信システムの第1の例としては、図17に示すような画像処理装置200を持つように構成されたものがある。   Here, as a first example of a conventional video distribution system having a mechanism for providing a service in response to various requests of a user, an image processing apparatus 200 as shown in FIG. 17 is provided. There is something that was done.

図17に示すような画像処理装置200では、ビデオカメラなどから供給される画像データが画像処理ユニット210a,b,cのそれぞれにフレーム単位で与えられる。画像処理ユニット210a,b,cはそれぞれ、解像度変換部201a,b,c、コーデック処理部202a,b,c、FIFO203a,b,cを含む構成である。画像処理ユニット210a,b,cのそれぞれでは、ユーザの要求に応じてユニットごとに異なる処理パラメータが与えられており、そのパラメータに応じた処理がそれぞれ独立して行われるが、それぞれのコーデックはある特定の符号化方式にのみ対応している。   In the image processing apparatus 200 as shown in FIG. 17, image data supplied from a video camera or the like is given to each of the image processing units 210a, 210b, and 210c in units of frames. Each of the image processing units 210a, 210b, and 210c includes a resolution conversion unit 201a, b, c, a codec processing unit 202a, b, c, and a FIFO 203a, b, c. In each of the image processing units 210a, b, and c, different processing parameters are given for each unit according to a user's request, and processing according to the parameters is performed independently, but each codec is provided. Only specific encoding methods are supported.

この従来の映像配信システムの第1の例では、画像処理装置200に含まれる画像処理ユニットの数が3であり、ユーザの要求する画像処理の種類がその数を超える場合には、それに対応することができない。一般に、従来の映像配信システムのように、画像処理ユニットを複数持つことで複数の画像処理の要求に対応しようとする場合は、その処理ユニット数によってサービスできる内容が制限を受けることになる。処理ユニットの数を増やせば制限は緩くなるが、映像配信システムの撮影機能をもつネットワークカメラサーバなどは一般に小型化を要求されるものであり、そこに実装できる処理ユニットの数は基板面積や発熱量などによって制限を受けるので、実際には処理ユニットの数は限られたものになる。   In the first example of this conventional video distribution system, the number of image processing units included in the image processing apparatus 200 is 3, and when the number of types of image processing requested by the user exceeds that number, it corresponds to that. I can't. In general, when a plurality of image processing units are provided to satisfy a plurality of image processing requests as in a conventional video distribution system, the contents that can be serviced are limited by the number of processing units. If the number of processing units is increased, the limit will be relaxed, but network camera servers and other devices that have the shooting function of the video distribution system are generally required to be downsized. In practice, the number of processing units is limited because the amount is limited.

この処理ユニット数の制限を外すためには、画像処理をプログラマブルに変えることのできる画像処理部を持つシステムが必要になる。   In order to remove the restriction on the number of processing units, a system having an image processing unit capable of changing image processing in a programmable manner is required.

そのようにした従来の映像配信システムとして、画像処理装置は予めROMに格納している各種変換アルゴリズムを必要に応じて読み出し、DSPにそのアルゴリズムの処理を行わせることによってユーザの多様な要求に答えようとするものが存在する(例えば特許文献1参照。)。   As such a conventional video distribution system, the image processing apparatus reads various conversion algorithms stored in the ROM in advance as needed, and responds to various requests of the user by causing the DSP to process the algorithms. There is something to be tried (for example, see Patent Document 1).

特開平6−125411号公報(第8頁、第1図、及び第10頁、第4図)Japanese Patent Laid-Open No. 6-125411 (page 8, FIG. 1 and page 10, FIG. 4)

一方、リアルタイムに映像を撮影し、その映像を監視用途などに蓄積及び配信に利用する場合には、撮像装置から入ってくる映像を取りこぼすことは許されない。例えば、1秒間に30フレームの映像を撮影するNTSC準拠のビデオカメラ入力から映像入力を得る場合、1フレームの処理に許される時間は原則1/30秒に過ぎず、その中で先に述べた多種多様なユーザの要求に応えることがシステムに求められる。   On the other hand, when taking a video in real time and using the video for storage and distribution for monitoring purposes, it is not allowed to miss the video coming from the imaging device. For example, when video input is obtained from an NTSC-compliant video camera input that captures 30 frames of video per second, the time allowed for processing of one frame is only 1/30 seconds in principle, and that was mentioned earlier. The system is required to meet the demands of a wide variety of users.

また、とりわけ映像撮影部を遠隔から操作できることのできるネットワークカメラサーバにおいては、リアルタイムかつ低遅延であることが求められる。   In particular, a network camera server capable of remotely operating the video shooting unit is required to have real time and low delay.

しかしながら、特許文献1に記載の技術では、単純に複数の画像処理がアルゴリズムに従って時分割的に並行して処理されるのみであり、それによって実時間で処理が完了するという保証はない。たとえば、複数の処理を同時に行っている場合に、入力される画像信号などの変動に伴う画像処理部の処理に要する処理時間の変動などを検出することができず、実時間性を保ちながらサービスを実現することの保証ができなかった。また、新規にユーザからサービスの要求が発生した場合に、その要求に対して全て応じてよいかどうかを実時間性の保証の面から判断することができなかった。   However, in the technique described in Patent Document 1, a plurality of image processes are simply processed in parallel in a time division manner according to an algorithm, and there is no guarantee that the processes are completed in real time. For example, when multiple processes are performed at the same time, it is not possible to detect changes in the processing time required for processing by the image processing unit due to changes in the input image signal, etc. Could not be guaranteed. Further, when a service request is newly generated from a user, it has not been possible to determine whether or not all requests can be satisfied from the aspect of guaranteeing real-time performance.

本発明は、少なくとも上記の課題を解決するためになされたもので、例えば実時間性を維持しながら映像配信サービスを提供できるようにすることを目的としている。   SUMMARY An advantage of some aspects of the invention is to provide a video distribution service while maintaining real-time performance, for example.

上記した課題は、本発明の画像処理装置およびその制御方法によって解決される。本発明の一側面に係る画像処理装置は、画像データに対して複数の圧縮処理を行う画像処理手段と、前記画像処理手段によって圧縮処理された画像データを配信する配信手段と、前記画像処理手段が画像データに対して行う複数の圧縮処理のうちの一の圧縮処理に要した処理能力を計測する計測手段と、前記計測手段による計測の結果に基づいて、前記計測を行った圧縮処理以外の複数の圧縮処理に要する処理能力を予測する予測手段とを有し、前記画像処理手段は、前記予測手段による予測の結果に基づいて、それぞれの処理を完了するためにかかる時間の合計が所定の単位時間内に収まる圧縮処理を実行することを特徴とする。 The above-described problems are solved by the image processing apparatus and the control method thereof according to the present invention. The image processing apparatus according to an aspect of the present invention, an image processing means for performing a plurality of compression processing against the image data, a distribution means for distributing the image data compressed by the image processing unit, said image processing measuring means means for measuring the processing power required for the single compression processing of a plurality of compression processing performed on the image data, based on a result of measurement by said measuring means, other than the compression process performed the measurement Prediction means for predicting the processing capacity required for the plurality of compression processes, and the image processing means has a predetermined total time required to complete each process based on a prediction result by the prediction means. characterized by executing the compression processing falls within a unit of time.

本発明の別の側面に係る画像処理装置は、画像データに対して複数の圧縮処理を行う画像処理手段と、前記画像処理手段によって圧縮処理された画像データを配信する配信手段と、前記画像処理手段が画像データに対して第1のパラメータに基づいて行う圧縮処理に要した処理能力を計測する計測手段と、前記計測に用いた画像データに対して第2のパラメータに基づいて行う新たな圧縮処理の要求を受けたときに前記計測に用いた画像データに対して前記第1のパラメータに基づいて行う圧縮処理を受け付けている場合、前記計測手段による計測の結果に基づいて、前記計測に用いた画像データに対して前記第2のパラメータに基づいて行う新たな圧縮処理に要する処理能力を予測する予測手段と、記予測手段による予測の結果と前記受け付けている圧縮処理に要する処理能力に基づいて、所定の単位時間内に完了可能と判定された場合は新たな圧縮処理の要求を受け入れ、前記所定の単位時間内に完了不可能と判定された場合は新たな圧縮処理の要求を拒否する制御手段とを有することを特徴とする。 The image processing apparatus according to another aspect of the present invention, a distribution means for distributing an image processing means for performing a plurality of compression processing against the image data, the image data compressed by said image processing means, the image Measurement means for measuring the processing capacity required for the compression processing performed on the image data based on the first parameter by the processing means, and a new value performed on the image data used for the measurement based on the second parameter If accepting the compression process performed on the basis of the first parameter to the image data used in the measurement when receiving a request for compression processing, based on the results of measurement by said measuring means, said measuring prediction means for predicting a processing capability required for new compression, the results of prediction by the previous SL predicting means receiving the relative image data using performed based on the second parameter Based on the processing capacity required for it is compression processing with, accept the request for a new compression when it is judged that the completed within the unit of Jo Tokoro time, it is determined that not completed within the predetermined unit time And control means for rejecting a request for a new compression process .

本発明の更に別の側面は、画像処理を行う画像処理装置の制御方法に係り、画像データに対して複数の圧縮処理を行う画像処理ステップと、前記画像処理ステップで圧縮処理された画像データを配信する配信ステップと、前記画像処理ステップで画像データに対して行う複数の圧縮処理のうちの一の圧縮処理に要した処理能力を計測する計測ステップと、前記計測ステップにおける計測の結果に基づいて、前記計測を行った圧縮処理以外の複数の圧縮処理に要する処理能力を予測する予測ステップとを有し前記画像処理ステップは、前記予測ステップにおける予測の結果に基づいて、それぞれの処理を完了するためにかかる時間の合計が所定の単位時間内に収まる圧縮処理を実行することを特徴とする。 Yet another aspect of the present invention relates to a method of controlling an image processing apparatus that performs image processing, an image processing step of performing a plurality of compression processing on the image data, the image data compressed by the image processing step a distribution step of distributing the step of measuring the processing power required for the single compression processing of a plurality of compression processing to be performed on image data by the image processing step, based on the result of measurement in said measuring step A prediction step for predicting the processing capability required for a plurality of compression processes other than the compression process for which the measurement has been performed , and the image processing step completes each process based on a prediction result in the prediction step total time to is characterized that you perform the compression process within a predetermined unit time.

本発明の更に別の側面は、画像処理装置の制御方法に係り、画像データに対して複数の圧縮処理を行う画像処理ステップと、前記画像処理ステップで圧縮処理された画像データを配信する配信ステップと、前記画像処理ステップで画像データに対して第1のパラメータに基づいて行う圧縮処理に要した処理能力を計測する計測ステップと、前記計測に用いた画像データに対して第2のパラメータに基づいて行う新たな圧縮処理の要求を受けたときに前記計測に用いた画像データに対して前記第1のパラメータに基づいて行う圧縮処理を受け付けている場合、前記計測ステップにおける計測の結果に基づいて、前記計測に用いた画像データに対して前記第2のパラメータに基づいて行う新たな圧縮処理に要する処理能力を予測する予測ステップと、前記予測ステップでの予測の結果と前記受け付けている圧縮処理に要する処理能力に基づいて、所定の単位時間内に完了可能と判定された場合は新たな圧縮処理の要求を受け入れ、前記所定の単位時間内に完了不可能と判定された場合は新たな圧縮処理の要求を拒否する制御ステップとを有することを特徴とする。 Still another aspect of the present invention relates to an image processing apparatus control method, an image processing step for performing a plurality of compression processes on image data, and a distribution step for distributing the image data compressed in the image processing step. If, on the basis of a measurement step of measuring the processing power required for the compression process performed on the basis of the first parameter to the image data in the image processing step, the second parameter to the image data used for the measurement In the case where the compression processing performed based on the first parameter is received for the image data used for the measurement when a request for a new compression processing performed is received, based on the measurement result in the measurement step , prediction step you predict capacity required for the new compression processing performed based on the second parameter to the image data used for the measurement , On the basis of the processing capacity result and required for the accepted and compression of the prediction in the prediction step, if it is determined to be completed within a predetermined unit time accepted the request for a new compression of the predetermined A control step of rejecting a request for a new compression process when it is determined that the completion cannot be completed within a unit time .

本発明によれば、リアルタイム性に重点をおいたモニタリングシステムに利用されるネットワークカメラサーバのような映像配信システムにおいて、ユーザから要求されている画像処理装置に対する処理が、所定の単位時間内に終了するかどうかを判断することが可能になり、映像配信システムにおいて、複数のユーザからの様々な解像度・圧縮方式・品質での接続要求が重なった場合に、どの処理であれば実時間内に処理を終わらせることができるかの判断をすることができるようになる。その結果、実時間性を失うことなく、複数のユーザに映像配信サービスを提供することが可能になる。   According to the present invention, in a video distribution system such as a network camera server used in a monitoring system with an emphasis on real-time characteristics, processing for an image processing apparatus requested by a user is completed within a predetermined unit time. In the video distribution system, when multiple requests from multiple users with various resolutions, compression methods, and quality overlap, which processing is processed in real time You will be able to judge whether you can finish As a result, it is possible to provide a video distribution service to a plurality of users without losing real-time characteristics.

更に、複数の処理ユニットを並列に実装すること無しにサービスを実現するので、実時間性を失わない範囲でサービスの内容(映像圧縮方式の種類・解像度・Q値・フレームレート)を予め処理ユニット数などで制限すること無しにサービスの提供をすることが可能になる。   Furthermore, since the service is realized without mounting a plurality of processing units in parallel, the contents of the service (type of video compression method, resolution, Q value, frame rate) are processed in advance within a range not losing the real-time property. It becomes possible to provide services without being limited by the number.

以下、図面を参照して本発明の好適な実施形態について詳細に説明する。   DESCRIPTION OF EMBODIMENTS Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings.

(第1の実施形態)
図1は、本実施形態に係る画像処理装置を示す構成図である。図1において、画像処理装置10には処理制御部100と画像処理部200の大きく分けて2つの構成要素が存在する。
(First embodiment)
FIG. 1 is a configuration diagram illustrating an image processing apparatus according to the present embodiment. In FIG. 1, the image processing apparatus 10 includes two components roughly divided into a processing control unit 100 and an image processing unit 200.

画像処理部200には、まず、 処理順序制御部101により、処理制御部100内部のパラメータレジスタ104に保存されているパラメータの値がパラメータ設定信号152として与えられる。次いで画像処理部200には、処理順序制御部101によって処理開始信号154が与えられる。ここで指示された処理が画像圧縮処理であった場合には、入力された画像データ150を設定されたパラメータの値に基づいて処理し、符号化データ151を出力する。一方、指示された処理が画像伸張処理であった場合には、入力された符号化データ151を設定されたパラメータに基づいて伸張し、画像データ150として出力する。これらの処理を実施している期間、画像処理部200は処理ビジー信号153をアサートする。処理能力計測部102は処理ビジー信号153がアサートされている時間を計測する。   First, the parameter value stored in the parameter register 104 in the processing control unit 100 is given to the image processing unit 200 as the parameter setting signal 152 by the processing order control unit 101. Next, a processing start signal 154 is given to the image processing unit 200 by the processing order control unit 101. If the process instructed here is an image compression process, the input image data 150 is processed based on the set parameter value, and the encoded data 151 is output. On the other hand, if the instructed process is an image expansion process, the input encoded data 151 is expanded based on the set parameters and output as image data 150. During the period when these processes are performed, the image processing unit 200 asserts the processing busy signal 153. The processing capacity measuring unit 102 measures the time during which the processing busy signal 153 is asserted.

処理能力計測部102は、その計測結果を処理能力予測部103に提供する。処理能力予測部103はその処理を実施した際のパラメータと、処理能力計測結果から、処理を要求されている後続の画像処理に関してどのくらいの処理時間が必要になるかを予測して、処理順序制御部101に提示する。その提示を受けた処理順序制御部101は、要求されている処理の優先順位とその処理に必要になる画像処理部200の処理能力から、次にどの処理を実施するかを決定して、画像処理部200に次の処理を指示する。   The processing capacity measurement unit 102 provides the measurement result to the processing capacity prediction unit 103. The processing capability prediction unit 103 predicts how much processing time is required for the subsequent image processing that is requested for processing from the parameters when the processing is performed and the processing capability measurement result, and performs processing order control. Presented in part 101. Upon receiving the presentation, the processing order control unit 101 determines which processing is to be performed next from the priority order of the requested processing and the processing capability of the image processing unit 200 required for the processing, and The processing unit 200 is instructed to perform the next process.

図2に画像処理部200の詳細な構成を示す。   FIG. 2 shows a detailed configuration of the image processing unit 200.

図2において、画像処理部200は解像度変換部201、コーデック処理部202、FIFO203、バッファ204を有する。入力された画像データ150は、一旦バッファ204に例えばフレーム単位で蓄積される。解像度変換部201より先の部分は、与えられたパラメータに基づく画像処理を1つの映像入力データ単位(例えば1フレーム単位)で取り扱う。解像度変換部201は、指示された処理が画像圧縮処理であった場合には、まず、入力された画像データ150をバッファ204より読み出し、パラメータレジスタ104より与えられたパラメータ設定信号152に基づいて、必要に応じて解像度変換処理を行う。このバッファ204への画像データ150の入力は画像処理部200の外部からの入力の速度に支配されるのに対して、バッファから解像度変換部201以降への画像データの転送におけるbit幅及び転送速度を画像データ150の入力速度に比べて大きくすることができる。よって、画像処理部200は画像データ150の1フレームを入力するのために必要となる時間の間に、解像度変換部201、コーデック処理部202、FIFO203を処理能力の限界まで利用して、同じ入力データフレーム画像を用いて複数回の異なるパラメータに基づく画像圧縮処理が可能である。   2, the image processing unit 200 includes a resolution conversion unit 201, a codec processing unit 202, a FIFO 203, and a buffer 204. The input image data 150 is temporarily stored in the buffer 204 in units of frames, for example. The portion before the resolution conversion unit 201 handles image processing based on given parameters in one video input data unit (for example, one frame unit). If the instructed process is an image compression process, the resolution conversion unit 201 first reads the input image data 150 from the buffer 204, and based on the parameter setting signal 152 given from the parameter register 104, Resolution conversion processing is performed as necessary. The input of the image data 150 to the buffer 204 is governed by the speed of the input from the outside of the image processing unit 200, whereas the bit width and transfer speed in the transfer of the image data from the buffer to the resolution conversion unit 201 and thereafter. Can be made larger than the input speed of the image data 150. Therefore, during the time required for the image processing unit 200 to input one frame of the image data 150, the resolution conversion unit 201, the codec processing unit 202, and the FIFO 203 are used up to the limit of processing capability, and the same input is performed. Image compression processing based on a plurality of different parameters can be performed using a data frame image.

解像度変換部201は、解像度変換が終わったデータをコーデック処理部202に、パラメータによって指定されている符号化形式に応じた単位で渡す。コーデック処理部202は、入力されたデータを画像処理用メモリ12を必要に応じて用いながら圧縮処理し、作成した圧縮済データをFIFO203に出力する。FIFO203は一定量以上の圧縮済データが溜まるなどのイベントを契機にそのデータを符号化データ151として画像処理部200の外に送出する。   The resolution conversion unit 201 passes the data after resolution conversion to the codec processing unit 202 in units corresponding to the encoding format specified by the parameters. The codec processing unit 202 compresses the input data while using the image processing memory 12 as necessary, and outputs the created compressed data to the FIFO 203. The FIFO 203 sends the data as encoded data 151 to the outside of the image processing unit 200 in response to an event such as accumulation of a predetermined amount or more of compressed data.

なお、解像度変換された画像データはコーデック処理部202へ送られる以外に、画像処理用メモリ12に一時的に蓄えられる。これは、後続の処理で同一の入力画像データに対して同じ解像度変換処理を求められる場合に備えるものである。もし、後続の処理で先に実施したものと同一の解像度処理を求められた場合には、解像度変換部201は画像処理用メモリ12から先に実施した解像度変換処理の結果を読み出し、それをコーデック処理部202に供給する。   Note that the resolution-converted image data is temporarily stored in the image processing memory 12 in addition to being sent to the codec processing unit 202. This is for the case where the same resolution conversion processing is required for the same input image data in the subsequent processing. If the same resolution processing as that previously performed in the subsequent processing is requested, the resolution conversion unit 201 reads the result of the resolution conversion processing previously performed from the image processing memory 12 and uses it as the codec. The data is supplied to the processing unit 202.

一方、指示された処理が画像伸張処理であった場合には、データの流れる方向が逆になる。入力された符号化データ151は、まずFIFO203 に蓄えられる。コーデック処理部202は、パラメータレジスタ104より与えられたパラメータ設定信号152に基づいて、入力される符号化データの符号化形式を判断し、FIFO203からそのデータを順次読み出して伸張処理を実施する。伸張処理された画像データは、表示用に求められている解像度に解像度変換部201で必要に応じて変換され、バッファ204に蓄積される。バッファ204に蓄積された画像データ150は、画像を出力するのにふさわしいデータレートの画像として画像処理部200の外に出力される。   On the other hand, if the instructed process is an image expansion process, the data flow direction is reversed. The input encoded data 151 is first stored in the FIFO 203. The codec processing unit 202 determines the encoding format of the input encoded data based on the parameter setting signal 152 given from the parameter register 104, sequentially reads the data from the FIFO 203, and performs the expansion processing. The decompressed image data is converted into the resolution required for display by the resolution conversion unit 201 as necessary, and stored in the buffer 204. The image data 150 stored in the buffer 204 is output to the outside of the image processing unit 200 as an image having a data rate suitable for outputting an image.

ここでは、バッファ204は画像処理部の内部に存在するものとして記述したが、場合によっては画像処理用メモリ12と同じメモリを使用することも可能である。図示はしないが、その場合は、入力される画像データ150は解像度変換部201を経由せず、直接画像処理用メモリ12に一旦蓄えられ、解像度変換部201は蓄えられたデータを画像用メモリ12から読み出しながら処理をすることになる。   Here, the buffer 204 is described as existing inside the image processing unit, but in some cases, the same memory as the image processing memory 12 can be used. Although not shown, in that case, the input image data 150 is temporarily stored directly in the image processing memory 12 without going through the resolution conversion unit 201, and the resolution conversion unit 201 stores the stored data in the image memory 12. The processing is performed while reading from.

なお、これらの圧縮もしくは伸張処理を実施している期間、画像処理部200のコーデック処理部202が処理ビジー信号153をアサートする。   Note that the codec processing unit 202 of the image processing unit 200 asserts the processing busy signal 153 during the period during which the compression or expansion processing is performed.

図3は、図1に示した画像処理装置10を内蔵する映像配信サーバと、その映像配信サーバを用いて構成されるモニタリングシステムの構成例を示したものである。   FIG. 3 shows a configuration example of a video distribution server incorporating the image processing apparatus 10 shown in FIG. 1 and a monitoring system configured using the video distribution server.

1は映像配信サーバであり、カメラ6、もしくは映像配信サーバ1に付属するレンズ及びCCD等によって構成されるカメラ18から入力された映像信号をキャプチャ・圧縮して、公衆回線網4やLAN回線網5等のネットワーク上に送出する。送出された映像データは公衆回線網4に接続される携帯端末3もしくはLAN回線網5に接続される端末2(例えば2a〜2c)等のクライアントによって受信され、それぞれのビューワ31もしくは21によって表示される。また、場合によっては、相手側端末から送信された映像データを受信、伸張して接続されるモニタ7によって表示をする。   Reference numeral 1 denotes a video distribution server, which captures and compresses a video signal input from the camera 6 or a camera 18 composed of a lens attached to the video distribution server 1 and a CCD, etc. Send to 5 etc. on the network. The transmitted video data is received by a client such as the mobile terminal 3 connected to the public line network 4 or the terminal 2 (for example, 2a to 2c) connected to the LAN line network 5, and is displayed by the respective viewer 31 or 21. The In some cases, the video data transmitted from the counterpart terminal is received, decompressed, and displayed on the connected monitor 7.

以下、映像配信サーバ1の内部構成とその基本動作等について詳細に説明する。   Hereinafter, the internal configuration and basic operation of the video distribution server 1 will be described in detail.

まず、カメラ6、もしくは映像配信サーバ1に付属するレンズ及びCCD等によって構成されるカメラ18から映像信号が入力画像変換装置11によって取り込まれる。このとき、カメラ6から与えられるデータはNTSC/PAL/SECAMなどの方式に基づいたアナログ映像信号であるとする。このようなアナログ映像信号は入力画像変換装置11でA/D変換した後、画像処理装置10の入力として適当なディジタルデータ形式、例えばY:U:V=4:2:2の形式に変換される。また、映像入力部18から出力される映像データは、既にディジタル形式になっているものの、カメラ18から映像データが出力される信号線がLVDS(Low Voltage Differential Signaling)形式に準拠するものであるため、入力画像変換装置11で一旦受信し、画像処理装置10が扱いやすいパラレルデータの形式に変換される。そして、画像処理装置10に対して画像データ150として入力される。   First, a video signal is taken in by the input image conversion device 11 from the camera 6 or a camera 18 constituted by a lens attached to the video distribution server 1 and a CCD. At this time, it is assumed that the data given from the camera 6 is an analog video signal based on a system such as NTSC / PAL / SECAM. Such an analog video signal is A / D converted by the input image converter 11 and then converted into an appropriate digital data format, for example, Y: U: V = 4: 2: 2, as an input to the image processor 10. The Further, although the video data output from the video input unit 18 is already in the digital format, the signal line from which the video data is output from the camera 18 conforms to the LVDS (Low Voltage Differential Signaling) format. The image is once received by the input image conversion device 11 and converted into a parallel data format that is easy for the image processing device 10 to handle. Then, it is input as image data 150 to the image processing apparatus 10.

画像データ150を取得した画像処理装置10は一旦バッファ204で画像データを保持した後、その映像をユーザによって指示された方式に基づいて圧縮する。例えば、M−JPEG方式やMPEG4方式に基づいて圧縮をかける。圧縮後の符号化データ151はマイクロプロセッサ13を経由してマイクロプロセッサ13に接続されている演算用RAM15に格納される。   The image processing apparatus 10 that has acquired the image data 150 once holds the image data in the buffer 204, and then compresses the video based on the method instructed by the user. For example, compression is applied based on the M-JPEG system or the MPEG4 system. The compressed encoded data 151 is stored in the arithmetic RAM 15 connected to the microprocessor 13 via the microprocessor 13.

符号化データが演算用RAM15に転送されると、マイクロプロセッサ13は、FlashROM14に格納されたプログラムに従って、演算用RAM15から符号化データを取り出し、ネットワークに向けて配送するために適当な大きさに分割する、ヘッダを付けるなどの処理を行う。そして、PCカードI/F17に挿された通信用PCカード171(モデムカードやISDNカードなど)を介して公衆回線網4上の携帯端末などへ、もしくはLANインタフェース16を介してLAN回線網5上の他の端末等へ符号化データを送信する。   When the encoded data is transferred to the operation RAM 15, the microprocessor 13 takes out the encoded data from the operation RAM 15 according to the program stored in the Flash ROM 14, and divides it into an appropriate size for delivery to the network. And processing such as adding a header. Then, via a communication PC card 171 (modem card, ISDN card, etc.) inserted in the PC card I / F 17 to a portable terminal on the public line network 4 or on the LAN line network 5 via the LAN interface 16 The encoded data is transmitted to other terminals.

また、マイクロプロセッサ13は符号化データをネットワーク上に配信するだけでなく、蓄積することも可能である。例えば、PCカードスロット17に蓄積用PCカード172(ハードディスクカードもしくはFlashROMカードなど)を挿せば、その蓄積用PCカード172上に映像データを記録することが可能になる。また、蓄積先としては、FlashROM14や維持的な蓄積としては演算用RAM15を選択することも可能である。   Further, the microprocessor 13 can not only distribute the encoded data on the network but also store it. For example, if a storage PC card 172 (such as a hard disk card or a Flash ROM card) is inserted into the PC card slot 17, video data can be recorded on the storage PC card 172. Further, the flash ROM 14 can be selected as the storage destination, and the arithmetic RAM 15 can be selected as the sustainable storage.

なお、映像配信サーバ1は商用AC電源91からAC−DCアダプタ90を介して直流にされた電力を電力供給部9において取得し、それをさらに装置内部のICなどが動作するに相応しい電圧と安定度に電力供給部9で変換したうえで、システム全体に電力を供給している。   Note that the video distribution server 1 obtains the DC power from the commercial AC power supply 91 via the AC-DC adapter 90 in the power supply unit 9 and further stabilizes the voltage to a voltage suitable for the operation of the IC in the apparatus. Power is supplied to the entire system after conversion by the power supply unit 9 each time.

まず、この映像配信サーバ1が、画像処理装置10の性能を予測しながら、複数のユーザに対して映像を配信する場合の動作について図1から3を参照しながら図4から6を用いて説明する。   First, the operation when the video distribution server 1 distributes video to a plurality of users while predicting the performance of the image processing apparatus 10 will be described using FIGS. 4 to 6 with reference to FIGS. To do.

図4は、この映像配信サーバ1が現在要求されている処理のパラメータリストの一例を示す図である。このパラメータリストは図示のように、処理番号、優先度、処理種別、符号化方式、解像度、品質1および2、接続数に関するパラメータが記述される。なおここでは、優先度を示す値が小さいものほど優先度が高いとする。また、このパラメータリストの内容は画像処理装置10のパラメータレジスタ104内部にもコード化して含有されているものとする。本実施形態では、図4のパラメータリストに示されているとおり、処理番号0〜5の6つの処理が要求されていることとし、各処理番号と優先度とが一致しているものとする。   FIG. 4 is a diagram showing an example of a parameter list of processing currently requested by the video distribution server 1. As shown in the figure, the parameter list describes parameters relating to the processing number, priority, processing type, encoding method, resolution, quality 1 and 2, and the number of connections. Here, it is assumed that the smaller the value indicating the priority, the higher the priority. Further, it is assumed that the contents of the parameter list are encoded and contained in the parameter register 104 of the image processing apparatus 10. In the present embodiment, as shown in the parameter list of FIG. 4, it is assumed that six processes with process numbers 0 to 5 are requested, and that each process number and the priority coincide.

図4では、優先度0の処理が存在している(処理番号0)。この処理は基準処理として取り扱われ、ユーザからの処理要求の有無にかかわらず、全ての処理に先立ってまずこの画像の処理が実施される。その上で、この基準処理を行うのに要した画像処理部の処理量が測定され、それに基づき実時間内の処理が可能になるように後続の処理1から5の実施が検討されることになる。   In FIG. 4, there is a process with priority 0 (process number 0). This process is treated as a reference process, and this image is first processed prior to all processes regardless of whether there is a processing request from the user. After that, the processing amount of the image processing unit required for performing the reference processing is measured, and the subsequent processing 1 to 5 is examined so as to enable processing in real time based on the measured amount. Become.

図5は、画像処理装置10における処理を示すフローチャートである。   FIG. 5 is a flowchart showing processing in the image processing apparatus 10.

映像配信サーバ1にはカメラ18から連続的に画像データがフレーム単位で入力されており、フレームの更新間隔は1/30秒、入力される画像の解像度はSVGA(800x600)であるとする。まず、入力画像変換装置11から、画像処理装置10 にフレーム単位の画像が入力される。バッファ204に1フレーム分のフレーム画像データが蓄積された段階で、そのタイミングに同期した新しい単位時間の開始が示される(ステップS501)。   It is assumed that image data is continuously input from the camera 18 to the video distribution server 1 in units of frames, the frame update interval is 1/30 seconds, and the resolution of the input image is SVGA (800 × 600). First, an image in units of frames is input from the input image conversion device 11 to the image processing device 10. When the frame image data for one frame is stored in the buffer 204, the start of a new unit time synchronized with the timing is indicated (step S501).

本実施形態では、上記のとおり優先度0の処理0が存在する。この処理は全ての画像処理に先立って実施されることが決まっているので、予め [Motion−JPEGによる圧縮、解像度320x240、品質Q=50]等の処理0に関するパラメータ情報が、パラメータレジスタ104からパラメータ設定信号152として、解像度変換部201、及びコーデック処理部202に与えられる(ステップS502)。   In the present embodiment, there is a process 0 with a priority 0 as described above. Since this processing is determined to be performed prior to all image processing, parameter information related to processing 0 such as [Motion-JPEG compression, resolution 320 × 240, quality Q = 50] is previously stored in the parameter register 104. The setting signal 152 is given to the resolution conversion unit 201 and the codec processing unit 202 (step S502).

これにより、まず解像度変換部201は、処理開始信号154によって処理開始の指示が与えられると、バッファ204に蓄えられた画像データに対して、800x600から320x240への解像度変換の処理を実施し、解像度変換した結果の画像をコーデック処理部202に送り出す。この場合はMotion−JPEGの処理であるので、8x8bitのブロックの単位で順次コーデック処理部202に入力していく。コーデック処理部202は、ブロック化されたデータ解像度変換部201から受け取って処理を開始すると、処理ビジー信号153をアサートする。そして、与えられた品質パラメータQ=50を用いてMotion−JPEG符号化を実施し、加工した符号化データをFIFO203に入力する。FIFO203に入力された符号化データは演算用RAM15宛に転送される(ステップS503)。   Thereby, first, when an instruction to start processing is given by the processing start signal 154, the resolution conversion unit 201 performs resolution conversion processing from 800 × 600 to 320 × 240 on the image data stored in the buffer 204, and resolution The converted image is sent to the codec processing unit 202. In this case, since Motion-JPEG processing is performed, the data is sequentially input to the codec processing unit 202 in units of 8 × 8 bit blocks. When the codec processing unit 202 receives the block from the data resolution conversion unit 201 and starts processing, the codec processing unit 202 asserts a processing busy signal 153. Then, Motion-JPEG encoding is performed using the given quality parameter Q = 50, and the processed encoded data is input to the FIFO 203. The encoded data input to the FIFO 203 is transferred to the arithmetic RAM 15 (step S503).

処理番号0で予定された320x240の画面全てに対応する画像データの処理が終了すると、処理ビジー信号153がネゲートされる。これに応じて処理能力計測部102は、処理ビジー信号153がアサートされていた時間を計測し、この処理番号0の画像処理に必要だった時間を算出する(ステップS504)。   When the processing of the image data corresponding to all 320 × 240 screens scheduled for the processing number 0 is completed, the processing busy signal 153 is negated. In response to this, the processing capacity measurement unit 102 measures the time during which the processing busy signal 153 has been asserted, and calculates the time required for the image processing of the processing number 0 (step S504).

処理番号0の画像処理に要した時間がt0であったとする。その計測結果を受けて予測性能計算部132は、後続に要求されている処理1〜5の内容をパラメータレジスタ104から取り出して、それらにかかる処理時間の予測を行う(ステップS505)。   Assume that the time required for the image processing of process number 0 is t0. In response to the measurement result, the prediction performance calculation unit 132 extracts the contents of processes 1 to 5 requested subsequently from the parameter register 104 and predicts the processing time required for them (step S505).

たとえば、優先度0である基準処理の符号化処理がMotion−JPEGの圧縮であるとする。その処理の解像度をR0、その処理に要した時間をt0とするとき、解像度Rnである処理nの処理の処理時間tnは以下のようにして求めることができる。   For example, it is assumed that the encoding process of the reference process with priority 0 is Motion-JPEG compression. When the resolution of the process is R0 and the time required for the process is t0, the processing time tn of the process n having the resolution Rn can be obtained as follows.

tn = (Rn / R0) ×t0 × M × Q (1−1)
ただし、M:経験的に求められる符号化方式における要因ファクタ、
M=1(符号化方式がMotion−JPEGである場合)、
M=1.05(符号化方式がMPEG4、処理フレームがIフレームのとき)、
M=1.75(符号化方式がMPEG4、処理フレームがPフレームのとき)、
Q:品質ファクタ (ここでは簡略化のために全ての場合において1とする)
tn = (Rn / R0) × t0 × M × Q (1-1)
Where M is a factor factor in an empirically required encoding method,
M = 1 (when the encoding method is Motion-JPEG),
M = 1.05 (when the encoding method is MPEG4 and the processing frame is an I frame),
M = 1.75 (when the encoding method is MPEG4 and the processing frame is P frame),
Q: Quality factor (Here, it is set to 1 in all cases for simplification)

n=1〜5について、上式を計算すると、処理1〜5のそれぞれにかかる処理時間が予測される。次いで、このようにして予測した処理時間がすべて単位時間内に処理可能かどうかを判断する(ステップS506)。この場合のステップS506の判断は例えば次式によって行われる。   When the above equation is calculated for n = 1 to 5, the processing time for each of the processes 1 to 5 is predicted. Next, it is determined whether or not all the processing times predicted in this way can be processed within the unit time (step S506). In this case, the determination in step S506 is performed by the following equation, for example.

(t0+P)+(t1+P)+…+(tn+P) < 処理単位時間 (1−2)
ただし、P:画像処理部へのパラメータ設定等に必要となる時間、
n:要求されている処理の処理番号
(T0 + P) + (t1 + P) +... + (Tn + P) <processing unit time (1-2)
However, P: time required for parameter setting to the image processing unit,
n: Process number of the requested process

本実施形態では、フレームの更新間隔が1/30秒であるので、処理単位時間は1/30秒となり、その時間内に全ての処理を終える必要がある。nを順に増やして行き、現在要求を受け付けているところまで増やしても式1−2が成立した場合にはステップS506の条件が成立してYESの分岐に進むが、nの数を最後まで増やさないうちにこの式が成立しなくなった場合には、NOの分岐へと進む。   In this embodiment, since the frame update interval is 1/30 seconds, the processing unit time is 1/30 seconds, and it is necessary to finish all the processing within that time. If n is increased in order and Formula 1-2 is satisfied even if it is increased to the point where the current request is accepted, the condition of step S506 is satisfied and the process proceeds to the YES branch, but the number of n is increased to the end. If this equation does not hold before this time, the process proceeds to the NO branch.

この処理の予測の様子を図6に示す。図6の第1のフレーム時間の処理では、処理性能予測の結果、処理4の処理までが処理単位時間内に処理されることが予測される(すなわち式1−2が成立する)が、処理5の処理まで実施すると所定の時間内に全ての処理が終了しないと判断されている(ステップS506→NO)。   FIG. 6 shows how this process is predicted. In the process of the first frame time in FIG. 6, it is predicted that the process up to the process 4 is processed within the process unit time as a result of the process performance prediction (that is, the expression 1-2 is established). When the process up to 5 is performed, it is determined that all processes are not completed within a predetermined time (step S506 → NO).

このような場合には、ポリシーに基づく処理優先度の決定が行われる(ステップS507)。仮に、ここでの映像配信サーバのサービスポリシーが優先度優先ポリシーであり、実時間処理に間に合わない処理は実施しないというものであった場合には、処理優先度の一番低い5の処理が第1のフレーム時間では実施しないという決定がなされる。そして、その結果を受けて処理5を除いた残りの処理について、順次処理が行われていくことになる(ステップS508〜S510)。そして、処理4の処理が終了した時点で画像処理部200は次の新しい単位時間が始まるまで待機状態に入ることになる(ステップS511)。   In such a case, the processing priority is determined based on the policy (step S507). If the service policy of the video distribution server here is a priority priority policy, and processing that is not in time for real-time processing is not performed, the fifth processing with the lowest processing priority is the first. A decision is made not to implement in one frame time. Then, in response to the result, the remaining processes excluding the process 5 are sequentially performed (steps S508 to S510). When the process 4 is completed, the image processing unit 200 enters a standby state until the next new unit time starts (step S511).

なお、図6の第2のフレーム時間の処理では、処理3の圧縮処理がMPEG4のIフレーム処理であったため、第1のフレーム時間に比べて処理時間が短くなり、処理5までの処理を全て実施することが可能と判断され(S506→YES)、全ての要求された処理が実施されている。   In the process of the second frame time in FIG. 6, since the compression process of process 3 is an MPEG4 I frame process, the process time is shorter than the first frame time, and all the processes up to process 5 are performed. It is determined that it can be performed (S506 → YES), and all requested processes are performed.

また、図4において処理2はM−JPEGの伸張処理であるが、その処理が行われる際の処理の流れを、再び図2及び図3を参照して説明する。   In FIG. 4, process 2 is an M-JPEG decompression process. The flow of the process when the process is performed will be described with reference to FIGS. 2 and 3 again.

図3において、端末2Cに取り付けられているカメラ22によって映像が撮影され、それがMotion−JPEG方式によって圧縮され、端末2CからLAN回線網5を経由して映像配信システム1に入力されているものとする。映像配信システム1はLAN I/F 16を介してMotion−JPEG形式で符号化された映像データを受け取り演算用RAM15に格納する。マイクロプロセッサ13はネットワーク通信用のヘッダを取り除いた後、画像処理装置10が符号化データ入力として受入可能な形に整えてから、符号化データを画像処理部200のFIFO203 に対して送り込み、同時にパラメータレジスタ104に対して要求する処理の内容を伝達する。画像処理部200は所定の処理の順番が来ると、コーデック処理部202を伸張処理に利用して符号化データ151を伸張して解像度変換部201に出力する。本実施形態ではそのまま解像度は変換せずに出力されるので、伸張された画像データ150はバッファ204を介して出力画像変換装置19に対して渡され、そこでD/A変換された後、外部接続モニタ7に表示される。   In FIG. 3, a video is taken by a camera 22 attached to the terminal 2C, compressed by the Motion-JPEG method, and inputted to the video distribution system 1 from the terminal 2C via the LAN network 5. And The video distribution system 1 receives video data encoded in the Motion-JPEG format via the LAN I / F 16 and stores it in the arithmetic RAM 15. After removing the header for network communication, the microprocessor 13 prepares the image processing apparatus 10 to accept the encoded data as input, and then sends the encoded data to the FIFO 203 of the image processing unit 200. The contents of requested processing are transmitted to the register 104. When the predetermined order of processing comes, the image processing unit 200 expands the encoded data 151 using the codec processing unit 202 for expansion processing and outputs it to the resolution conversion unit 201. In this embodiment, since the resolution is output without being converted as it is, the decompressed image data 150 is transferred to the output image conversion device 19 via the buffer 204, where it is D / A converted and then externally connected. It is displayed on the monitor 7.

以上のようにして、一連の処理が行われる。   A series of processing is performed as described above.

なお、本実施形態においては、画像処理装置10における処理制御部100の各構成要素はそれぞれ独立した制御部として記述したが、この処理制御部100として専用のコントローラ等を準備して、ソフトウェアによって実現する方法を取ることも可能である。更に言えば、処理制御部100として専用のコントローラを準備せずに、処理制御部の全ての処理をマイクロプロセッサ13上で専用のソフトウェアを用いる形で実現することも可能である。   In this embodiment, each component of the processing control unit 100 in the image processing apparatus 10 is described as an independent control unit. However, a dedicated controller or the like is prepared as the processing control unit 100 and realized by software. It is also possible to take a method. Furthermore, it is also possible to implement all processing of the processing control unit in the form of using dedicated software on the microprocessor 13 without preparing a dedicated controller as the processing control unit 100.

(第2の実施形態)
第1の実施形態においては、処理能力予測部における予測性能の計算は式1−1、1−2に示したような固定された予測式によって行われていた。しかし現実には撮影する映像の内容等によってその予測結果と実際の処理時間に食い違いが生じてくることもあり得る。
(Second Embodiment)
In the first embodiment, the calculation of the prediction performance in the processing capacity prediction unit is performed by a fixed prediction equation as shown in equations 1-1 and 1-2. However, in reality, there may be a discrepancy between the prediction result and the actual processing time depending on the content of the video to be shot.

そこで、本実施形態では、撮影対象の変化等による予測結果と実際の処理時間の相違を検出し、その差異を小さくするようにフィードバック系を入れた場合の例を、図1〜5を援用しつつ図7、図8を用いて説明する。図1〜5に関しては第1の実施形態と共通であるので、ここでは説明を省略する。   Therefore, in the present embodiment, FIGS. 1 to 5 are used as an example in which a difference between a prediction result and an actual processing time due to a change in a shooting target is detected and a feedback system is inserted so as to reduce the difference. This will be described with reference to FIGS. 1 to 5 are the same as those in the first embodiment, and a description thereof will be omitted here.

図7は、本実施形態における処理能力予測部103の構成例である。処理能力予測部103は予測結果比較部131、予測性能計算部132、及び予測用条件変数格納部133から構成されている。   FIG. 7 is a configuration example of the processing capability prediction unit 103 in the present embodiment. The processing capacity prediction unit 103 includes a prediction result comparison unit 131, a prediction performance calculation unit 132, and a prediction condition variable storage unit 133.

図8A、図8Bは、本実施形態における画像処理装置10における処理を示すフローチャートである。   8A and 8B are flowcharts showing processing in the image processing apparatus 10 according to the present embodiment.

このフローチャートの「A」で示された箇所は、本処理の初めに、図5の「A」で示された箇所までのステップ(すなわち、ステップS501〜S507)と同様の処理が行われることを示している。したがってここではこれらの処理についての説明は省略し、ステップS801以降の処理から説明を始める。   In the part indicated by “A” in this flowchart, the same process as the steps up to the part indicated by “A” in FIG. 5 (ie, steps S501 to S507) is performed at the beginning of this process. Show. Therefore, the description of these processes is omitted here, and the description starts with the processes after step S801.

図5の「A」まで(すなわち、ステップS501〜S507)で次に処理するべき処理の内容が決まるので、その内容に従って画像処理部200に対してパラメータレジスタ104からパラメータを設定する(ステップS801)。パラメータ設定が終了すると、 処理順序制御部101は、処理開始信号154を用いて画像処理部200に対して次の処理を実施するように指示をする。   Since the contents of the process to be processed next are determined up to “A” in FIG. 5 (that is, steps S501 to S507), parameters are set from the parameter register 104 to the image processing unit 200 according to the contents (step S801). . When the parameter setting is completed, the processing order control unit 101 instructs the image processing unit 200 to perform the next processing using the processing start signal 154.

その指示を受けた画像処理部200は画像処理を開始し、その処理を行っている間処理ビジー信号153をアサートする(ステップS802) 。処理能力計測部102は、処理ビジー信号153がアサートされている時間を計測する(ステップS803)。そしてその計測された処理時間と、その前にステップS505において予測性能計算部132によって予測されていた処理時間を、予測結果比較部131において比較する(ステップS804)。   Upon receiving the instruction, the image processing unit 200 starts image processing, and asserts a processing busy signal 153 while performing the processing (step S802). The processing capacity measurement unit 102 measures the time during which the processing busy signal 153 is asserted (step S803). Then, the measured processing time is compared with the processing time previously predicted by the prediction performance calculation unit 132 in step S505 in the prediction result comparison unit 131 (step S804).

予測された時間内に処理が終了していた場合には(ステップS804→YES)、処理はそのまま継続される。すなわち、予定された画像処理がすべて終了しているかどうかを確認し(ステップS807)、未実施の処理があるような場合には(ステップS807→NO)、次の処理を実施するために次の画像処理のパラメータ設定(ステップS801)に戻る。全ての予定された処理が実施されていた場合には、次の新しい単位時間が始まるまで待機状態に入ることになる(ステップS808)。   If the process has been completed within the predicted time (step S804 → YES), the process continues. That is, it is confirmed whether all scheduled image processing has been completed (step S807). If there is an unexecuted process (step S807 → NO), the next process is performed to execute the next process. Returning to the image processing parameter setting (step S801). If all the scheduled processes have been performed, a standby state is entered until the next new unit time starts (step S808).

一方、予測された時間内に処理が終了していなかった場合には(ステップS804→NO)、まず、後続で要求されている処理が次の単位時間の開始までに処理可能かどうかの検討を行う(ステップS805)。処理可能であった場合には(ステップS805→YES)、以前にスケジューリングされたとおりの処理の流れに戻って処理を実施していく(ステップS807)。一方、後続で要求されている処理が次の単位時間の開始までに処理可能でなかった場合には(ステップS805→NO)、ポリシーに基づく処理優先度の決定が再度実施されることになる(ステップS806)。これは、優先度の低い処理が長期間処理されないことを防ぐためである。   On the other hand, if the process has not been completed within the predicted time (step S804 → NO), first, it is examined whether or not the subsequent requested process can be processed by the start of the next unit time. This is performed (step S805). If the process is possible (step S805 → YES), the process returns to the previously scheduled process and the process is performed (step S807). On the other hand, when the subsequent requested processing cannot be performed by the start of the next unit time (step S805 → NO), the determination of the processing priority based on the policy is performed again (step S805). Step S806). This is to prevent a low priority process from being processed for a long time.

画像処理部200の処理の流れは概ね上記のようなものであるが、処理能力予測部103としては、同時に予測用条件変数の確認作業を実施する必要がある。このため、処理はステップS803から図8BのステップS809にも分岐し、処理能力計測部102が処理ビジー信号153のアサートされている時間を計測した結果を受けて、計測された処理時間が予測性能計算部132において先に計算した結果と一定誤差の範囲内で一致したかどうかを判断する(ステップS809)。実測値と予測値とが一定誤差の範囲内で一致していた場合には(ステップS809→YES)、予測用条件変数には修正を加えないで終了する(S811)。一方、実測値と予測値とが食い違っていた場合には(ステップS809→NO)、その差異を小さくするように予測用条件変数に修正が加えられる。修正を加える方法としては、例えば以下のようなものが考えられる。   The processing flow of the image processing unit 200 is generally as described above. However, the processing capability prediction unit 103 needs to simultaneously check the prediction condition variable. For this reason, the process branches from step S803 to step S809 in FIG. 8B, and the processing time measurement process 102 receives the result of measuring the assertion time of the processing busy signal 153, and the measured processing time is predicted performance. It is determined whether or not the calculation unit 132 matches the previously calculated result within a certain error range (step S809). If the measured value and the predicted value match within a certain error range (step S809 → YES), the process ends without correcting the prediction condition variable (S811). On the other hand, if the measured value and the predicted value are different (step S809 → NO), the prediction condition variable is modified so as to reduce the difference. For example, the following can be considered as a method of adding correction.

まず、第1の実施形態における処理時間の予測式を以下のように変更する。優先度0である基準処理の符号化処理をMotion−JPEGであるとする。その処理の解像度をR0、その処理に要した時間をt0とするとき、解像度Rnである処理nの処理の処理時間tnは以下のようにする。   First, the processing time prediction formula in the first embodiment is changed as follows. Assume that the encoding process of the reference process with priority 0 is Motion-JPEG. When the resolution of the process is R0 and the time required for the process is t0, the process time tn of the process n having the resolution Rn is as follows.

tn = (Rn / R0) × r × t0 × M × m× Q ×C (2−1)
ただし、M:符号化方式における要因ファクタ、
M=1(符号化方式がJPEGである場合)、
M=1.05+i(符号化方式がMPEG4、処理フレームがIフレームのとき)、
M=1.75+p(符号化方式がMPEG4、処理フレームがPフレームのとき)、
r:解像度の比に関する処理時間の補正項、
i:MPEG4,Iフレーム処理時の処理時間の補正項、
p:MPEG4,Pフレーム処理時の処理時間の補正項、
m:MPEG4,Pフレーム処理時における動きベクトルの検索範囲制限などに関する処理時間の補正項、
Q:品質ファクタ (Motion−JPEGのQ値などの違いによる補正項)、
C:圧縮処理と伸張処理の違いに基づく補正項
tn = (Rn / R0) * r * t0 * M * m * Q * C (2-1)
Where M is the factor in the encoding method,
M = 1 (when the encoding method is JPEG),
M = 1.05 + i (when the encoding method is MPEG4 and the processing frame is I frame),
M = 1.75 + p (when the encoding method is MPEG4 and the processing frame is P frame),
r: processing time correction term for resolution ratio,
i: correction term of processing time at the time of MPEG4, I frame processing,
p: correction term of processing time at the time of MPEG4, P frame processing,
m: correction term of processing time related to motion vector search range limitation during MPEG4, P frame processing,
Q: Quality factor (correction term due to differences in Motion-JPEG Q value, etc.),
C: Correction term based on the difference between compression processing and decompression processing

第1の実施形態の式1−1は、式2−1においてi=p=0、r=M=m=Q=C=1であり、これが固定であったと考えることができる。   Formula 1-1 of the first embodiment is i = p = 0 and r = M = m = Q = C = 1 in Formula 2-1, and it can be considered that this was fixed.

上記補正項のうちmは、カメラの首振りなどの指示により撮影対象の画像に動きがあると予測される場合に、動きベクトルの検索範囲を制限することで処理速度を上げることができるが、その要素を加味するための補正項である。   Of the correction terms, m can increase the processing speed by limiting the search range of the motion vector when it is predicted that there is a motion in the image to be photographed by an instruction such as camera swinging. This is a correction term for taking that element into account.

上記補正項の内容を予測値と実測値との差異が小さくなるように補正をかけることで、予測用条件変数の修正が実施される。   The condition variable for prediction is corrected by correcting the content of the correction term so that the difference between the predicted value and the actually measured value is small.

(第3の実施形態)
上述の第1及び第2の実施形態は現在処理要求を受け付けている処理に関するものであったが、映像のリアルタイム性を保った配信という観点から、新規の処理要求に対してどのようにサービス要求に対して対応するべきかという観点からも考える必要がある。
(Third embodiment)
The first and second embodiments described above relate to processing that currently accepts processing requests. However, in terms of distribution that maintains real-time video, how to service requests for new processing requests It is also necessary to consider from the perspective of whether or not

また、第1の実施形態のように、基準処理として優先度0のユーザからの処理要求の有無にかかわらず特定の決め打ちの処理を実施するということは、場合によっては資源の有効利用に繋がらない場合もある。   In addition, as in the first embodiment, performing a specific definite process as a standard process regardless of whether or not a process request is received from a user with a priority of 0 may lead to effective use of resources in some cases. There may be no.

これに対し本実施形態では、新規のサービス要求への対応の仕方に関して、処理能力の予測処理を判断基準に利用した場合の例と、受け入れた新規の処理によって基準処理を変更する場合の例を図9、図10、図11を用いて示す。それ以外の図は第1及び第2の実施形態と共通であるので、それらに対する説明は省略する。ただし、ここではカメラ18から入力されている入力画像の解像度はXGAサイズ(1024×768)であるとする。   On the other hand, in this embodiment, with respect to how to respond to a new service request, an example in which the processing capacity prediction process is used as a determination criterion, and an example in which the reference process is changed by the accepted new process. It shows using FIG. 9, FIG. 10, FIG. Since other figures are common to the first and second embodiments, description thereof will be omitted. However, it is assumed here that the resolution of the input image input from the camera 18 is XGA size (1024 × 768).

図9Aは、ある時刻1において映像配信サーバ1が要求されている処理のパラメータリストである。時刻1の時点では、処理0〜2までの3つの処理が画像処理装置10上で実施されている。ここに、新規の処理3の要求がユーザから発生した場合の処理を図10のフローチャートを用いて説明する。   FIG. 9A is a parameter list of processing for which the video distribution server 1 is requested at a certain time 1. At time 1, three processes from process 0 to process 2 are performed on the image processing apparatus 10. Here, a process when a request for a new process 3 is generated from the user will be described with reference to the flowchart of FIG.

図10において、新規処理サービスの要求が発生すると(ステップS1001)、まず、画像処理装置10では、現在受け付けている画像処理全体に要する処理能力の計測および/または予測を実施する(ステップS1002)。これは、基準処理(時刻1の時点では処理0)の実測結果と、そこから導き出される他の処理の予測結果でも構わないし、新規サービス要求が待てるようであれば、現在受け付けている画像処理の全てについて実測した結果を用いてもよい。   In FIG. 10, when a request for a new processing service is generated (step S1001), first, the image processing apparatus 10 measures and / or predicts the processing capability required for the entire currently accepted image processing (step S1002). This may be the actual measurement result of the reference process (process 0 at time 1) and the prediction result of other processes derived therefrom, and if a new service request can be waited for, the currently accepted image process is accepted. You may use the result measured about all.

一方、処理能力予測部103は、新規に処理を要求されている処理のパラメータと基準処理の実測結果とから、新規に要求された処理に要する画像処理部10の処理能力の見積りを行う(ステップS1003)。   On the other hand, the processing capability prediction unit 103 estimates the processing capability of the image processing unit 10 required for the newly requested processing from the parameters of the processing that is newly requested for processing and the actual measurement result of the reference processing (step S1003).

その上で、新規に要求されている処理を受け入れても全ての処理を単位時間内に処理することが可能かどうかの見積りを行う(ステップS1004)。本実施形態の場合は、比較的処理時間に余裕があるのと、要求された新規処理の解像度が小さいものであり、画像処理部の処理能力にあまり影響を与えないものであったことから(ステップS1004→YES)、新規サービスの要求は受け入れられる(ステップS1005)。   Then, it is estimated whether all the processes can be processed within the unit time even if the newly requested processes are accepted (step S1004). In the case of this embodiment, the processing time is relatively large, the resolution of the requested new processing is small, and the processing capability of the image processing unit is not significantly affected ( Step S1004 → YES), the request for a new service is accepted (Step S1005).

新規サービス要求が受け入れられると、優先度0の絶対的な基準処理が存在しない場合には、今度は新規に受け入れた処理(この場合は処理3)が基準処理としてふさわしいかどうかを判断する(ステップS1006)。時刻1時点での基準処理は処理0が選定され、他の処理1,2に比べて1段高い優先度1が与えられていた。処理0と処理3を比較すると、同じMotion−JPEG処理であるが、処理0に比べて処理3の方が解像度が小さいことがわかる。ここで、この映像配信システム1の基準処理の選定ポリシーとして、解像度が小さいものの方が基準として好ましいというポリシーがあった場合には、処理3を基準処理として採用するべきであるという判断が下される(ステップS1006→YES)。その場合、基準処理の変更が行われ(ステップS1007)、処理の優先度も変更される。基準が変わったために、それと同時に予測用条件変数の修正も実施される(ステップS1008)。そして、一連の新規処理サービスへの対応が終了することになる(S1009)。   When a new service request is accepted, if there is no absolute reference process with priority 0, it is determined whether or not the newly accepted process (in this case, process 3) is suitable as a reference process (step S1006). The reference process at time 1 was selected as process 0, and priority 1 higher than the other processes 1 and 2 was given. Comparing process 0 and process 3, it can be seen that the same Motion-JPEG process is used, but the resolution of process 3 is smaller than that of process 0. Here, when there is a policy that a smaller resolution is preferable as a reference policy as a reference process selection policy of the video distribution system 1, it is determined that the process 3 should be adopted as the reference process. (Step S1006 → YES). In that case, the reference process is changed (step S1007), and the priority of the process is also changed. Since the reference has changed, the prediction condition variable is also corrected at the same time (step S1008). Then, the correspondence to a series of new processing services is completed (S1009).

次いで、時刻1よりしばらく経過した時刻2時点において、映像配信サーバ1に3つの新規の処理要求が与えられた場合を考える。図9Bは時刻2において映像配信システム1が要求されている処理のパラメータリストである。時刻2の時点において処理としては処理0から処理3までの4つの処理が画像処理装置10上で実施されている。図9Aと比較して、基準処理が処理0から処理3に変更になったため、処理3の優先度が1、それ以外の処理の優先度が2に変更されている。   Next, let us consider a case where three new processing requests are given to the video distribution server 1 at time 2 after a while has elapsed since time 1. FIG. 9B is a parameter list of processing for which the video distribution system 1 is requested at time 2. At time 2, four processes from process 0 to process 3 are performed on the image processing apparatus 10. Compared to FIG. 9A, since the reference process is changed from process 0 to process 3, the priority of process 3 is changed to 1, and the priority of other processes is changed to 2.

ここで、新規の処理4から6の要求がユーザから発生した場合の処理について図10及び図11を用いて説明する。   Here, processing when a request for new processing 4 to 6 is generated from the user will be described with reference to FIGS. 10 and 11.

図10のS1001〜S1003のステップを経て、新規に処理要求されたものの処理に要する時間の予測結果を図11に示す。図9B及び図11からわかるように、新規に処理を要求されたもののうち、処理4に関してはそれを実施することにより、単位時間内での処理が不可能になるので(ステップS1004→NO)、新規処理サービスの要求は拒否される(ステップS1010)。一方、処理5に関してはその処理を追加して実施しても単位時間内での処理が可能であるという判断が図11から下されるので(ステップS1004→YES)、新規処理サービスとしての要求が受け入れられる。ただし、処理4は時刻2時点における基準処理である処理3に比べて解像度が大きいので、基準処理の変更は発生しない(ステップS1006→NO)。   FIG. 11 shows a prediction result of the time required for processing of a newly requested process through steps S1001 to S1003 in FIG. As can be seen from FIG. 9B and FIG. 11, among the newly requested processing, the processing 4 is performed, so that processing within the unit time becomes impossible (step S1004 → NO). The request for the new processing service is rejected (step S1010). On the other hand, with respect to the process 5, since it is determined from FIG. 11 that the process within the unit time is possible even if the process is added and implemented (step S1004 → YES), a request as a new process service is made. Accepted. However, since the resolution of the process 4 is larger than that of the process 3 that is the reference process at the time point 2, the change of the reference process does not occur (step S1006 → NO).

また、処理6に関しては、圧縮方式、解像度及び品質が処理0と同一であり、異なるのは要求フレームレートだけであるので、この場合、処理0で実施された画像圧縮処理の出力結果である符号化データを演算用RAM15の上でコピーしてネットワークに出力することで要求が満たされることがわかる。そのため、新規に画像処理装置に処理を設定しなくてもサービスが追加できるので、この処理6も新規処理サービスとして追加される。ただし、処理6はパラメータリストの上では処理0にマージされて、処理0の接続数が10.5と示されることになり、処理6のエントリは消去される。   Regarding process 6, the compression method, resolution, and quality are the same as process 0, and only the required frame rate is different. In this case, the code that is the output result of the image compression process performed in process 0 is It can be seen that the request is satisfied by copying the digitized data on the arithmetic RAM 15 and outputting it to the network. For this reason, a service can be added without newly setting a process in the image processing apparatus. Therefore, this process 6 is also added as a new process service. However, the process 6 is merged with the process 0 on the parameter list, so that the number of connections of the process 0 is 10.5, and the entry of the process 6 is deleted.

(第4の実施形態)
第1から第3の実施形態では、性能予測を行う際の基準処理として、実際の配信に用いられている画像圧縮処理が用いられていたが、基準処理の選び方にも様々な方法が考えられる。
(Fourth embodiment)
In the first to third embodiments, the image compression process used for actual distribution is used as the reference process when performing performance prediction. However, various methods can be considered for selecting the reference process. .

例えば、この映像配信サーバ1において監視用の画像蓄積も同時に行っていた場合には、その処理を基準処理として採用することも可能である。監視用の映像蓄積を実施する際には、特に映像の取りこぼしを無くすために、実時間内に処理が終了することが必要であり、本提案における処理時間の予測による画像処理装置の負荷の制限は効果が大きい。そのような場合の例を図12に示す。   For example, when the video distribution server 1 is also accumulating images for monitoring, the processing can be adopted as the reference processing. When performing video accumulation for monitoring, it is necessary to finish the processing within real time, in particular to eliminate video omissions, and the load on the image processing device is limited by the prediction of the processing time in this proposal. Is very effective. An example of such a case is shown in FIG.

図12は本実施形態における要求されている処理のパラメータリストである。この例では処理1が監視用の映像蓄積ということで最優先の処理を実施されている。そのため、接続数が0であるにもかかわらず優先度0として取り扱われている。このような場合には、この処理1を性能予測の基準処理として取り扱うことがシステムの処理性能を有効に利用することになる。処理1によって処理された画像は蓄積用PCカード172上に蓄積される。   FIG. 12 is a parameter list of requested processing in this embodiment. In this example, processing 1 is the highest priority processing because it is video storage for monitoring. Therefore, the priority is treated as 0 even though the number of connections is 0. In such a case, handling the process 1 as a reference process for performance prediction effectively uses the processing performance of the system. The image processed by the process 1 is stored on the storage PC card 172.

なお、この例では、現在処理1は画像蓄積のみに利用されているが、この映像を配信に利用することが可能であることは言うまでも無い。   In this example, the current process 1 is used only for image storage, but it goes without saying that this video can be used for distribution.

(第5の実施形態)
画像処理装置の処理性能が可変である場合にも、処理性能の予測機能は非常に有効である。そのような場合の例を図13及び図14を用いて説明する。
(Fifth embodiment)
Even when the processing performance of the image processing apparatus is variable, the processing performance prediction function is very effective. An example of such a case will be described with reference to FIGS.

図13は、画像処理装置の処理性能が可変である場合の映像配信サーバ1の構成例を示したものである。図13の構成要素で図3と異なるのは、電源供給部にバッテリ92が接続されており、電力供給部9に処理速度制御部93が接続され、処理速度制御部93から画像処理装置10に対して画像処理部の処理速度を制御するための信号線が接続されていることである。   FIG. 13 shows an example of the configuration of the video distribution server 1 when the processing performance of the image processing apparatus is variable. 13 differs from FIG. 3 in that a battery 92 is connected to the power supply unit, a processing speed control unit 93 is connected to the power supply unit 9, and the processing speed control unit 93 connects to the image processing apparatus 10. On the other hand, a signal line for controlling the processing speed of the image processing unit is connected.

図13において、電力供給部9は、映像配信サーバ1に関する電力供給がどのように実現されているかを監視している。そして、その電力が主としてバッテリ92から供給されている場合には、バッテリ92の消耗を抑えるべく映像配信システム1の消費電力を下げるため、処理速度制御部93を用いて、画像処理装置10に供給しているクロックの周波数を落とす等の制御を実施する。   In FIG. 13, the power supply unit 9 monitors how the power supply related to the video distribution server 1 is realized. When the power is mainly supplied from the battery 92, the power is supplied to the image processing apparatus 10 using the processing speed control unit 93 in order to reduce the power consumption of the video distribution system 1 in order to suppress the consumption of the battery 92. Control such as reducing the frequency of the clock that is running is performed.

画像処理装置10は処理速度制御部93によって供給されるクロックの周波数が落とされると画像処理能力が低下して、周波数が落とされる前に実施することが可能であった処理も全てを実施することが難しくなってくる。そのような場合を考慮した処理のパラメータリストを図14に示す。ここでは、品質3のパラメータに実時間性への考慮を要求される処理かどうかのフラグを立てている。本実施形態では処理0と1に実時間性要求のパラメータが設定されている。処理の優先度としては処理0と処理2は同等であるが、さらにこのパラメータの存在により、画像処理装置10の処理性能が低下しているような場合には、処理0と処理1が優先的に処理能力を分配されることになる。具体的には、まず、基準処理としての処理1の処理が行われ、その処理能力の測定結果から、処理1から処理5までの処理時間が予測され、実時間でのサービスができる範囲で処理0、2、3、4、5の順に画像処理装置10の処理能力が分配されていくことになる。(処理4と5のどちらが優先されるかはこのパラメータリストの情報からだけでは判断できず、他の優先度ポリシーが利用される。)   When the frequency of the clock supplied by the processing speed control unit 93 is lowered, the image processing apparatus 10 has a reduced image processing capability, and performs all the processes that could be performed before the frequency was lowered. Becomes difficult. FIG. 14 shows a parameter list of processing considering such a case. Here, a flag is set as to whether or not the quality 3 parameter is a process that requires real-time consideration. In the present embodiment, parameters for requesting real time are set for the processes 0 and 1. As processing priorities, processing 0 and processing 2 are the same. However, when the processing performance of the image processing apparatus 10 is degraded due to the presence of this parameter, processing 0 and processing 1 have priority. Will be distributed processing power. Specifically, first, the processing of the processing 1 as the reference processing is performed, and the processing time from the processing 1 to the processing 5 is predicted from the measurement result of the processing capacity, and the processing is performed within the range where the service can be performed in real time. The processing capability of the image processing apparatus 10 is distributed in the order of 0, 2, 3, 4, and 5. (Whether processing 4 or 5 is prioritized cannot be determined from the information in this parameter list alone, and other priority policies are used.)

(第6の実施形態)
第1〜5の実施形態においては主としてコーデック処理部202の処理が実施されていることを示す処理ビジー信号153を処理性能判断の基準としていたが、画像処理部200の処理性能を決めるものはコーデック処理部202の利用状況だけとは限らない。そのような場合の例を図15に示す。
(Sixth embodiment)
In the first to fifth embodiments, the processing busy signal 153 indicating that the processing of the codec processing unit 202 is mainly performed is used as a criterion for determining the processing performance. However, what determines the processing performance of the image processing unit 200 is the codec. It is not limited to the usage status of the processing unit 202. An example of such a case is shown in FIG.

図15は本実施形態における画像処理部200の構成を示したものである。図2と比較するとわかるように、図15ではコーデック処理部202から出力される処理ビジー信号153以外に、FIFO203から出力されるFIFOビジー信号155が処理能力計測部102に入力されている。   FIG. 15 shows the configuration of the image processing unit 200 in this embodiment. As can be seen from comparison with FIG. 2, in FIG. 15, in addition to the processing busy signal 153 output from the codec processing unit 202, the FIFO busy signal 155 output from the FIFO 203 is input to the processing capability measurement unit 102.

FIFOビジー信号155は、コーデック処理部202から出力された符号化データ151をマイクロプロセッサ13に接続される演算用RAM15に対して転送する際に利用する内部バスの混み具合等を通知する信号線である。一般的にMotion−JPEG等の圧縮方法を用いる場合、圧縮後の画像の品質を調整するために品質パラメータであるQ値を変化させると、コーデック処理部202から出力される符号化データ量もそれに伴って大きく変化する。そのため、符号化データを転送する際のバスの込み具合等もそのデータ転送量に応じて変化するが、場合によってはデータを1単位処理時間中に転送しきれない場合も発生し得る。そのような場合、コーデック処理部202での処理能力が十分であっても、結果的に処理の実時間性が失われることになる。FIFOビジー信号155はそのような観点から、FIFO203と演算用RAM15との間の転送処理能力を示すために用いられる信号である。この信号はFIFO203と演算用RAM15との間でのデータ転送が順調に行われているかどうか、FIFO203と演算用RAMの間で転送されているデータ量はどのくらいかなどの情報を処理能力計測部102に対して通知する。処理能力計測部102はこれらのデータ転送にかかわる処理情報とコーデック処理部202の利用状況を示す処理ビジー信号153の両方から、実際に処理に要している画像処理部200の全体としての処理能力を判断し、その結果を処理能力予測部103に渡して利用することになる。   The FIFO busy signal 155 is a signal line for notifying the degree of congestion of the internal bus used when transferring the encoded data 151 output from the codec processing unit 202 to the arithmetic RAM 15 connected to the microprocessor 13. is there. In general, when a compression method such as Motion-JPEG is used, if the Q value that is a quality parameter is changed in order to adjust the quality of the compressed image, the amount of encoded data output from the codec processing unit 202 is also changed. It changes greatly with it. For this reason, the degree of bus congestion at the time of transferring encoded data also changes according to the amount of data transfer, but in some cases, data may not be transferred during one unit processing time. In such a case, even if the processing capability of the codec processing unit 202 is sufficient, the real-time property of processing is lost as a result. The FIFO busy signal 155 is a signal used to indicate the transfer processing capability between the FIFO 203 and the arithmetic RAM 15 from such a viewpoint. This signal indicates information such as whether or not the data transfer between the FIFO 203 and the arithmetic RAM 15 is performed smoothly, and how much data is transferred between the FIFO 203 and the arithmetic RAM. Notify against. The processing capability measuring unit 102 uses the processing information relating to the data transfer and the processing busy signal 153 indicating the usage status of the codec processing unit 202 as a whole as a whole processing capability of the image processing unit 200 required for processing. And the result is passed to the processing capability prediction unit 103 for use.

(第7の実施形態)
先に述べた実施形態では圧縮処理されるべく入力画像変換装置11から画像処理装置10に入力された画像データ151は全て一旦バッファ204に1フレーム分蓄積され、そこからデータを高速に読み出して処理することによって複数の画像処理を1フレーム分の画像を入力するのに要する単位時間内に実現していた。
(Seventh embodiment)
In the above-described embodiment, all the image data 151 input from the input image conversion apparatus 11 to the image processing apparatus 10 to be subjected to compression processing is temporarily stored in the buffer 204 for one frame, from which data is read out at a high speed and processed. As a result, a plurality of image processes are realized within a unit time required to input an image for one frame.

これに対し本実施形態では、バッファ204に1フレーム分の画像蓄積を行うこと無しに、同等の処理を実現する場合の例として図16を用いて示す。   On the other hand, in the present embodiment, FIG. 16 is used as an example of realizing equivalent processing without accumulating an image for one frame in the buffer 204.

図16では、図2及び図15と異なり、バッファ204の代わりにラインバッファ205a及び205bが準備されている。これらのラインバッファ205a、205bは例えばY:U:V=4:2:2のフォーマットに応じて入力される画像サイズの横方向最大値の2倍幅をもち、16ライン分のデータを保存できるものである。本実施形態においてXGAサイズのデータが画像データとして入力されるとすると、ラインバッファの大きさは1024×2=2048であることから、2048byte×16ライン分ということになる。   In FIG. 16, unlike FIGS. 2 and 15, line buffers 205 a and 205 b are prepared instead of the buffer 204. These line buffers 205a and 205b have a double width of the maximum horizontal value of the image size inputted according to the format of Y: U: V = 4: 2: 2, for example, and can store data for 16 lines. Is. In the present embodiment, if XGA size data is input as image data, the size of the line buffer is 1024 × 2 = 2048, so that it is 2048 bytes × 16 lines.

画像データ150は映像データを16ラインごとにラインバッファ205a、205bに交互に入力する。16ライン分のデータがラインバッファにたまると、解像度変換部201はそのデータを高速に読み出し、圧縮処理に応じたブロック単位に変換してコーデック処理部202に与えると同時に、解像度変換処理を実施して要求されている圧縮処理用の解像度に変換する。解像度処理変換結果は画像処理メモリ12に蓄積される。   As the image data 150, video data is alternately input to the line buffers 205a and 205b every 16 lines. When the data for 16 lines is accumulated in the line buffer, the resolution conversion unit 201 reads the data at high speed, converts the data into block units corresponding to the compression processing, and supplies the data to the codec processing unit 202. At the same time, the resolution conversion processing is performed. To the required resolution for compression processing. The resolution processing conversion result is stored in the image processing memory 12.

この場合、基準処理としては、データの読み出しの負荷を最小化するために、なるべく解像度の大きい処理を用いることが、全体の処理性能最適化の面から望ましい。また、このような処理を行う場合には、基準処理に基づく処理性能の予測等はこのラインバッファ単位で実施される。そして、ラインバッファ単位での基準処理が終了した段階で、予測した結果に応じて、画像用メモリ12からコーデック変換部202は必要に応じた解像度のデータを読み出し、順次次の圧縮処理を行っていく。この場合、先頭のラインバッファで予測を行った結果が、同一フレームの他のラインバッファ単位での処理にも適用されることになる。もし、先頭のラインバッファでの予測した結果で同一フレームの他のラインバッファの処理をしている際に不都合が発生した場合には、不都合が発生した時点で処理の予測結果が見直され、その結果がそれ以降の同一フレームの処理に適用されることになる。
In this case, as the standard process, it is desirable to use a process having a resolution as high as possible in order to minimize the load of reading data, from the viewpoint of optimizing the overall processing performance. When such processing is performed, processing performance prediction based on the reference processing is performed in units of this line buffer. Then, at the stage where the reference processing in units of line buffers is completed, the codec conversion unit 202 reads out the data with the necessary resolution from the image memory 12 according to the predicted result, and sequentially performs the next compression processing. Go. In this case, the result of the prediction performed in the head line buffer is also applied to processing in other line buffer units of the same frame. If an inconvenience occurs when processing the other line buffer in the same frame as a result of prediction in the first line buffer, the prediction result of the process is reviewed at the time when the inconvenience occurs. The result is applied to subsequent processing of the same frame.

(他の実施形態)
以上、本発明の実施形態を詳述したが、本発明は、複数の機器から構成されるシステムに適用してもよいし、また、一つの機器からなる装置に適用してもよい。
(Other embodiments)
As mentioned above, although embodiment of this invention was explained in full detail, this invention may be applied to the system comprised from several apparatuses, and may be applied to the apparatus which consists of one apparatus.

なお、本発明は、前述した実施形態の機能を実現するソフトウェアのプログラムを、システムあるいは装置に直接あるいは遠隔から供給し、そのシステムあるいは装置のコンピュータがその供給されたプログラムコードを読み出して実行することによっても達成される。その場合、プログラムの機能を有していれば、その形態はプログラムである必要はない。   In the present invention, a software program that realizes the functions of the above-described embodiments is directly or remotely supplied to a system or apparatus, and the computer of the system or apparatus reads and executes the supplied program code. Is also achieved. In that case, as long as it has the function of a program, the form does not need to be a program.

従って、本発明の機能処理をコンピュータで実現するために、そのコンピュータにインストールされるプログラムコード自体およびそのプログラムを格納した記憶媒体も本発明を構成することになる。つまり、本発明の特許請求の範囲には、本発明の機能処理を実現するためのコンピュータプログラム自体、およびそのプログラムを格納した記憶媒体も含まれる。   Therefore, in order to realize the functional processing of the present invention with a computer, the program code itself installed in the computer and the storage medium storing the program also constitute the present invention. In other words, the claims of the present invention include the computer program itself for realizing the functional processing of the present invention and a storage medium storing the program.

その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等、プログラムの形態を問わない。   In this case, the program may be in any form as long as it has a program function, such as an object code, a program executed by an interpreter, or script data supplied to the OS.

プログラムを供給するための記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、MO、CD−ROM、CD−R、CD−RW、磁気テープ、不揮発性のメモリカード、ROM、DVD(DVD−ROM,DVD−R)などがある。   As a storage medium for supplying the program, for example, flexible disk, hard disk, optical disk, magneto-optical disk, MO, CD-ROM, CD-R, CD-RW, magnetic tape, nonvolatile memory card, ROM, DVD (DVD-ROM, DVD-R).

その他、プログラムの供給方法としては、クライアントコンピュータのブラウザを用いてインターネットのホームページに接続し、そのホームページから本発明のコンピュータプログラムそのもの、もしくは圧縮され自動インストール機能を含むファイルをハードディスク等の記憶媒体にダウンロードすることによっても供給できる。また、本発明のプログラムを構成するプログラムコードを複数のファイルに分割し、それぞれのファイルを異なるホームページからダウンロードすることによっても実現可能である。つまり、本発明の機能処理をコンピュータで実現するためのプログラムファイルを複数のユーザに対してダウンロードさせるWWWサーバも、本発明のクレームに含まれるものである。   As another program supply method, a client computer browser is used to connect to an Internet homepage, and the computer program of the present invention itself or a compressed file including an automatic installation function is downloaded from the homepage to a storage medium such as a hard disk. Can also be supplied. It can also be realized by dividing the program code constituting the program of the present invention into a plurality of files and downloading each file from a different homepage. That is, a WWW server that allows a plurality of users to download a program file for realizing the functional processing of the present invention on a computer is also included in the claims of the present invention.

また、本発明のプログラムを暗号化してCD−ROM等の記憶媒体に格納してユーザに配布し、所定の条件をクリアしたユーザに対し、インターネットを介してホームページから暗号化を解く鍵情報をダウンロードさせ、その鍵情報を使用することにより暗号化されたプログラムを実行してコンピュータにインストールさせて実現することも可能である。   In addition, the program of the present invention is encrypted, stored in a storage medium such as a CD-ROM, distributed to users, and key information for decryption is downloaded from a homepage via the Internet to users who have cleared predetermined conditions. It is also possible to execute the encrypted program by using the key information and install the program on a computer.

また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される他、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどが、実際の処理の一部または全部を行い、その処理によっても前述した実施形態の機能が実現され得る。   In addition to the functions of the above-described embodiments being realized by the computer executing the read program, the OS running on the computer based on the instruction of the program is a part of the actual processing. Alternatively, the functions of the above-described embodiment can be realized by performing all of the processes.

さらに、記憶媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によっても前述した実施形態の機能が実現される。   Furthermore, after the program read from the storage medium is written to a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, the function expansion board or The CPU or the like provided in the function expansion unit performs part or all of the actual processing, and the functions of the above-described embodiments are realized by the processing.

本発明の実施形態に係る画像処理装置の構成を示す図である。It is a figure which shows the structure of the image processing apparatus which concerns on embodiment of this invention. 本発明の第1の実施形態に係る画像処理装置における画像処理部の詳細な構成を示す図である。It is a figure which shows the detailed structure of the image process part in the image processing apparatus which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態における映像配信システムを用いたモニタリングシステムを示す図である。It is a figure which shows the monitoring system using the video delivery system in the 1st Embodiment of this invention. 本発明の第1の実施形態における映像配信システムに要求されている処理のパラメータリストの一例を示す図である。It is a figure which shows an example of the parameter list | wrist of the process requested | required of the video delivery system in the 1st Embodiment of this invention. 本発明の第1の実施形態における画像処理装置における処理を示すフローチャートである。It is a flowchart which shows the process in the image processing apparatus in the 1st Embodiment of this invention. 本発明の第1の実施形態における処理性能予測処理を説明する図である。It is a figure explaining the processing performance prediction process in the 1st Embodiment of this invention. 本発明の第2の実施形態における処理能力予測部の構成を示す図である。It is a figure which shows the structure of the processing capability estimation part in the 2nd Embodiment of this invention. , 本発明の第2の実施形態における画像処理装置における処理を示すフローチャートである。It is a flowchart which shows the process in the image processing apparatus in the 2nd Embodiment of this invention. , 本発明の第3の実施形態における映像配信システムに要求されている処理のパラメータリストの例を示す図である。It is a figure which shows the example of the parameter list | wrist of the process requested | required of the video delivery system in the 3rd Embodiment of this invention. 本発明の第3の実施形態における新規要求処理の受け入れの可否を判断する際の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process at the time of determining whether the acceptance of the new request process in the 3rd Embodiment of this invention is possible. 本発明の第3の実施形態における処理性能予測の結果を示す図である。It is a figure which shows the result of the processing performance prediction in the 3rd Embodiment of this invention. 本発明の第4 の実施形態における映像配信システムに要求されている処理のパラメータリストの一例を示す図である。It is a figure which shows an example of the parameter list | wrist of the process requested | required of the video delivery system in the 4th Embodiment of this invention. 本発明の第5の実施形態における映像配信システムの構成を示す図である。It is a figure which shows the structure of the video delivery system in the 5th Embodiment of this invention. 本発明の第5の実施形態における映像配信システムに要求されている処理のパラメータリストの例を示す図である。It is a figure which shows the example of the parameter list | wrist of the process requested | required of the video delivery system in the 5th Embodiment of this invention. 本発明の第6の実施形態に係る画像処理装置における画像処理部の詳細な構成を示す図である。It is a figure which shows the detailed structure of the image process part in the image processing apparatus which concerns on the 6th Embodiment of this invention. 本発明の第7の実施形態に係る画像処理装置における画像処理部の詳細な構成を示す図である。It is a figure which shows the detailed structure of the image process part in the image processing apparatus which concerns on the 7th Embodiment of this invention. 従来の映像配信システムにおける画像処理装置の構成を示す図である。It is a figure which shows the structure of the image processing apparatus in the conventional video delivery system.

Claims (11)

画像データに対して複数の圧縮処理を行う画像処理手段と、
前記画像処理手段によって圧縮処理された画像データを配信する配信手段と、
前記画像処理手段が画像データに対して行う複数の圧縮処理のうちの一の圧縮処理に要した処理能力を計測する計測手段と、
前記計測手段による計測の結果に基づいて、前記計測を行った圧縮処理以外の複数の圧縮処理に要する処理能力を予測する予測手段とを有し、
前記画像処理手段は、前記予測手段による予測の結果に基づいて、それぞれの処理を完了するためにかかる時間の合計が所定の単位時間内に収まる圧縮処理を実行することを特徴とする画像処理装置。
Image processing means for performing a plurality of compression processing against the image data,
Distribution means for distributing the image data compressed by the image processing means;
Measuring means said image processing means measures the capacity required for the single compression processing of a plurality of compression processing performed on the image data,
Predicting means for predicting the processing capacity required for a plurality of compression processes other than the compression process that performed the measurement , based on the measurement result by the measurement means;
Said image processing means on the basis of the results of prediction by the prediction unit, the image total time it takes to complete each process is characterized in that perform compression processing falls within a predetermined unit time processing apparatus.
前記計測を行った圧縮処理以外の複数の圧縮処理に要する処理能力の前記計測手段による計測結果に応じて、前記予測手段の予測条件を修正する修正手段を有することを特徴とする請求項1に記載の画像処理装置。 The measurement was in accordance with the by that meter Hakayui result to said measuring means processing power required for the plurality of compression processing other than the compression process performed, characterized by having a correction means for correcting the predicted condition of the prediction means The image processing apparatus according to claim 1. 画像データに対して複数の圧縮処理を行う画像処理手段と、
前記画像処理手段によって圧縮処理された画像データを配信する配信手段と、
前記画像処理手段が画像データに対して第1のパラメータに基づいて行う圧縮処理に要した処理能力を計測する計測手段と、
前記計測に用いた画像データに対して第2のパラメータに基づいて行う新たな圧縮処理の要求を受けたときに前記計測に用いた画像データに対して前記第1のパラメータに基づいて行う圧縮処理を受け付けている場合、前記計測手段による計測の結果に基づいて、前記計測に用いた画像データに対して前記第2のパラメータに基づいて行う新たな圧縮処理に要する処理能力を予測する予測手段と、
記予測手段による予測の結果と前記受け付けている圧縮処理に要する処理能力に基づいて、所定の単位時間内に完了可能と判定された場合は新たな圧縮処理の要求を受け入れ、前記所定の単位時間内に完了不可能と判定された場合は新たな圧縮処理の要求を拒否する制御手段と、
を有することを特徴とする画像処理装置。
Image processing means for performing a plurality of compression processing against the image data,
Distribution means for distributing the image data compressed by the image processing means;
Measuring means for measuring the processing capacity required for the compression processing performed by the image processing means on the image data based on the first parameter ;
Compression processing performed on the image data used for the measurement based on the first parameter when a request for a new compression processing performed on the image data used for the measurement based on the second parameter is received If the are accepted, and predicting means based on the result of measurement by said measuring means, for predicting the processing power required for a new compression processing performed based on the second parameter to the image data used for the measurement ,
Based on the processing power required for the compression process is accepting the results of the prediction by the previous SL predicting means, receiving a request for a new compression process when it is judged that the completed within the unit of Jo Tokoro time, the predetermined A control means for rejecting a request for a new compression process when it is determined that it cannot be completed within a unit time ;
An image processing apparatus comprising:
前記制御手段によって前記第2のパラメータに基づく新たな縮処理の要求を受け入れ、当該第2のパラメータに基づく解像度が、前記第1のパラメータに基づく解像度よりも小さいときは、前記計測手段は、前記計測に用いた画像データに対する前記第2のパラメータに基づく新たな圧縮処理に要した処理能力を計測し、
前記予測手段は、前記計測手段によって計測された、前記計測に用いた画像データに対する前記第2のパラメータに基づく新たな圧縮処理に要した処理能力に基づいて、前記新たな圧縮処理以外の圧縮処理の要求を受けたときに要する処理能力を予測することを特徴とする請求項3に記載の画像処理装置。
Accepts the request of a new compression processing based on a result the second parameter to the control hand stage, the resolution based on the second parameter, wherein when less than the resolution based on the first parameter, said measuring means Measures the processing capacity required for the new compression processing based on the second parameter for the image data used for the measurement,
The prediction means is a compression process other than the new compression process based on the processing capacity required for the new compression process based on the second parameter for the image data used for the measurement, measured by the measurement means. The image processing apparatus according to claim 3, wherein the processing capability required when receiving the request is predicted .
前記所定の単位時間は、1フレームの画像データの入力に要する時間であることを特徴とする請求項1から4までのいずれか1項に記載の画像処理装置。   5. The image processing apparatus according to claim 1, wherein the predetermined unit time is a time required to input image data of one frame. 前記画像処理手段は、圧縮処理の優先度に関する情報に基づいて、実行する圧縮処理を選択することを特徴とする請求項1または2に記載の画像処理装置。 The image processing apparatus according to claim 1 , wherein the image processing unit selects a compression process to be executed based on information related to a priority of the compression process. 前記予測手段は、前記計測手段による計測の結果に基づいて、前記画像データに対する伸張処理に要する処理能力を予測し、The predicting means predicts the processing capacity required for the decompression process on the image data based on the measurement result of the measuring means;
前記画像処理手段は、前記予測手段による予測の結果に基づいて、前記伸張処理を実行することを特徴とする請求項1に記載の画像処理装置。The image processing apparatus according to claim 1, wherein the image processing unit executes the expansion processing based on a result of prediction by the prediction unit.
像処理装置の制御方法であって、
画像データに対して複数の圧縮処理を行う画像処理ステップと、
前記画像処理ステップで圧縮処理された画像データを配信する配信ステップと、
前記画像処理ステップで画像データに対して行う複数の圧縮処理のうちの一の圧縮処理に要した処理能力を計測する計測ステップと、
前記計測ステップにおける計測の結果に基づいて、前記計測を行った圧縮処理以外の複数の圧縮処理に要する処理能力を予測する予測ステップとを有し
前記画像処理ステップは、前記予測ステップにおける予測の結果に基づいて、それぞれの処理を完了するためにかかる時間の合計が所定の単位時間内に収まる圧縮処理を実行する
とを特徴とする画像処理装置の制御方法。
A method for controlling an image picture processor,
An image processing step for performing a plurality of compression processes on the image data;
A distribution step of distributing the image data compressed in the image processing step;
A step of measuring the processing power required for the single compression processing of a plurality of compression processing to be performed on image data by the image processing step,
On the basis of the results of the measurement in the measurement step, and a prediction step of predicting a processing capability required for the plurality of compression processing other than the compression process performing the measurement,
In the image processing step , based on the prediction result in the prediction step, a compression process is performed in which the total time taken to complete each process falls within a predetermined unit time.
Method of controlling an image processing apparatus according to claim and this.
像処理装置の制御方法であって、
画像データに対して複数の圧縮処理を行う画像処理ステップと、
前記画像処理ステップで圧縮処理された画像データを配信する配信ステップと、
前記画像処理ステップで画像データに対して第1のパラメータに基づいて行う圧縮処理に要した処理能力を計測する計測ステップと、
前記計測に用いた画像データに対して第2のパラメータに基づいて行う新たな圧縮処理の要求を受けたときに前記計測に用いた画像データに対して前記第1のパラメータに基づいて行う圧縮処理を受け付けている場合、前記計測ステップにおける計測の結果に基づいて、前記計測に用いた画像データに対して前記第2のパラメータに基づいて行う新たな圧縮処理に要する処理能力を予測する予測ステップと、
前記予測ステップでの予測の結果と前記受け付けている圧縮処理に要する処理能力に基づいて、所定の単位時間内に完了可能と判定された場合は新たな圧縮処理の要求を受け入れ、前記所定の単位時間内に完了不可能と判定された場合は新たな圧縮処理の要求を拒否する制御ステップと、
を有することを特徴とする画像処理装置の制御方法。
A method for controlling an image picture processor,
An image processing step for performing a plurality of compression processes on the image data;
A distribution step of distributing the image data compressed in the image processing step;
A measurement step for measuring the processing capacity required for the compression processing performed on the image data based on the first parameter in the image processing step;
Compression processing performed on the image data used for the measurement based on the first parameter when a request for a new compression processing performed on the image data used for the measurement based on the second parameter is received If the are accepted on the basis of the results of the measurement in the measurement step, I predict you predict capacity required for the new compression processing on the image data performed based on the second parameter used for the measurement Steps,
Based on the prediction result in the prediction step and the processing capacity required for the accepted compression process, if it is determined that the process can be completed within a predetermined unit time, a request for a new compression process is accepted, and the predetermined unit A control step for rejecting a request for a new compression process when it is determined that the process cannot be completed in time;
A control method for an image processing apparatus, comprising:
コンピュータに、
画像データに対して複数の圧縮処理を行う画像処理手順と、
前記画像処理手順において圧縮処理された画像データを配信する配信手順と、
前記画像処理手順で画像データに対して行う複数の圧縮処理のうちの一の圧縮処理に要した処理能力を計測する計測手順と、
前記計測手順での計測の結果に基づいて、前記計測を行った圧縮処理以外の複数の圧縮処理に要する処理能力を予測する予測手順とを実行させ、
前記画像処理手順は、前記予測手順による予測の結果に基づいて、それぞれの処理を完了するためにかかる時間の合計が所定の単位時間内に収まる圧縮処理を実行する
ことを特徴とするプログラム。
On the computer,
An image processing procedure for performing a plurality of compression processes on the image data;
A delivery procedure for delivering the image data compressed in the image processing procedure;
A measurement procedure for measuring the processing capacity required for one of the plurality of compression processes performed on the image data in the image processing procedure;
Based on the measurement result in the measurement procedure, a prediction procedure for predicting the processing capacity required for a plurality of compression processes other than the compression process that performed the measurement is performed,
The image processing procedure executes a compression process in which the total time required to complete each process is within a predetermined unit time based on the prediction result of the prediction procedure.
A program characterized by that .
コンピュータに、On the computer,
画像データに対して複数の圧縮処理を行う画像処理手順と、An image processing procedure for performing a plurality of compression processes on the image data;
前記画像処理手順において圧縮処理された画像データを配信する配信手順と、A delivery procedure for delivering the image data compressed in the image processing procedure;
前記画像処理手順で画像データに対して第1のパラメータに基づいて行う圧縮処理に要した処理能力を計測する計測手順と、A measurement procedure for measuring the processing capacity required for the compression processing performed on the image data based on the first parameter in the image processing procedure;
前記計測に用いた画像データに対して第2のパラメータに基づいて行う新たな圧縮処理の要求を受けたときに前記計測に用いた画像データに対して前記第1のパラメータに基づいて行う圧縮処理を受け付けている場合、前記計測手順における計測の結果に基づいて、前記計測に用いた画像データに対して前記第2のパラメータに基づいて行う新たな圧縮処理に要する処理能力を予測する予測手順と、Compression processing performed on the image data used for the measurement based on the first parameter when a request for a new compression processing performed on the image data used for the measurement based on the second parameter is received A prediction procedure for predicting the processing capacity required for a new compression process based on the second parameter for the image data used for the measurement, based on the measurement result in the measurement procedure, ,
前記予測手順による予測の結果と前記受け付けている圧縮処理に要する処理能力に基づいて、所定の単位時間内に完了可能と判定された場合は新たな圧縮処理の要求を受け入れ、前記所定の単位時間内に完了不可能と判定された場合は新たな圧縮処理の要求を拒否する制御手順と、Based on the result of prediction by the prediction procedure and the processing capability required for the accepted compression process, if it is determined that the process can be completed within a predetermined unit time, a request for a new compression process is accepted, and the predetermined unit time A control procedure for rejecting a request for a new compression process when it is determined that the process cannot be completed,
を実行させることを特徴とするプログラム。A program characterized by having executed.
JP2004136019A 2004-04-30 2004-04-30 Image processing apparatus and control method thereof Expired - Fee Related JP4401861B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2004136019A JP4401861B2 (en) 2004-04-30 2004-04-30 Image processing apparatus and control method thereof
US11/119,055 US8219702B2 (en) 2004-04-30 2005-04-29 Video delivery apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004136019A JP4401861B2 (en) 2004-04-30 2004-04-30 Image processing apparatus and control method thereof

Publications (3)

Publication Number Publication Date
JP2005318411A JP2005318411A (en) 2005-11-10
JP2005318411A5 JP2005318411A5 (en) 2007-06-14
JP4401861B2 true JP4401861B2 (en) 2010-01-20

Family

ID=35445359

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004136019A Expired - Fee Related JP4401861B2 (en) 2004-04-30 2004-04-30 Image processing apparatus and control method thereof

Country Status (1)

Country Link
JP (1) JP4401861B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5076587B2 (en) * 2007-03-27 2012-11-21 富士通株式会社 Sensor information management system, sensor information management method, sensor information management program
US8737825B2 (en) * 2009-09-10 2014-05-27 Apple Inc. Video format for digital video recorder
EP2744186B1 (en) * 2011-09-14 2016-05-25 Nec Corporation Resource optimization method, ip network system and resource optimization program
JP6203515B2 (en) * 2013-03-29 2017-09-27 株式会社メガチップス Image processing device
US10567765B2 (en) * 2014-01-15 2020-02-18 Avigilon Corporation Streaming multiple encodings with virtual stream identifiers
JP6744187B2 (en) * 2016-09-30 2020-08-19 株式会社東芝 Encoder device and encoding method

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4371288B2 (en) * 2000-08-23 2009-11-25 Kddi株式会社 Moving image processing capability judgment device
JP3670566B2 (en) * 2000-10-03 2005-07-13 日本電信電話株式会社 Processing time adaptive image encoding method and program recording medium
JP2003015836A (en) * 2001-06-27 2003-01-17 Canon Inc Printing system and printing control method
JP4007084B2 (en) * 2002-06-12 2007-11-14 コニカミノルタビジネステクノロジーズ株式会社 Print program

Also Published As

Publication number Publication date
JP2005318411A (en) 2005-11-10

Similar Documents

Publication Publication Date Title
US8219702B2 (en) Video delivery apparatus and method
US8160129B2 (en) Image pickup apparatus and image distributing method
JP4341616B2 (en) Network camera system and network camera control program
US7623718B2 (en) Data processing apparatus and control method thereof
WO2008100725A2 (en) Fast channel change on a bandwidth constrained network
JP3668110B2 (en) Image transmission system and image transmission method
KR20080007141A (en) Improved pre-alarm video buffer
US20050015808A1 (en) Camera server and image distribution method
WO2017203790A1 (en) Video splitting device and monitoring method
JP4401861B2 (en) Image processing apparatus and control method thereof
JP4915208B2 (en) Stream data playback system
US6412013B1 (en) System for controlling data output to a network
JP2000515711A (en) Video sequence switching method, switching device thereof, and decoding system
US8571379B2 (en) Video reproduction method, video reproduction device, and video distribution system
JP2013012833A (en) Transmission apparatus and control method for transmission apparatus
JP6089846B2 (en) Video distribution system, decoder, and video distribution method
JP2005130041A (en) Band control system of image accumulation/distribution system
JP4371859B2 (en) Video information transmission method and apparatus
JP2006279233A (en) Video distribution device, display device, network system, information processing method, and storage medium
JP5353837B2 (en) COMMUNICATION DEVICE, COMMUNICATION METHOD, AND COMMUNICATION PROGRAM
JP2003309847A (en) Image transmission method and image transmission apparatus
KR101732995B1 (en) System with minimized streaming latency and the method using thereof
JP7327953B2 (en) Video distribution device, video distribution method and program
JP2018139349A (en) Video processing apparatus and video processing program
JP4458923B2 (en) Image processing device

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070426

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070426

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090401

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090410

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090601

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091026

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091028

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121106

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131106

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees