JP2005318411A - 画像処理装置およびその制御方法 - Google Patents

画像処理装置およびその制御方法 Download PDF

Info

Publication number
JP2005318411A
JP2005318411A JP2004136019A JP2004136019A JP2005318411A JP 2005318411 A JP2005318411 A JP 2005318411A JP 2004136019 A JP2004136019 A JP 2004136019A JP 2004136019 A JP2004136019 A JP 2004136019A JP 2005318411 A JP2005318411 A JP 2005318411A
Authority
JP
Japan
Prior art keywords
image processing
processing
image
prediction
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004136019A
Other languages
English (en)
Other versions
JP2005318411A5 (ja
JP4401861B2 (ja
Inventor
Toshiyuki Fukui
俊之 福井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2004136019A priority Critical patent/JP4401861B2/ja
Priority to US11/119,055 priority patent/US8219702B2/en
Publication of JP2005318411A publication Critical patent/JP2005318411A/ja
Publication of JP2005318411A5 publication Critical patent/JP2005318411A5/ja
Application granted granted Critical
Publication of JP4401861B2 publication Critical patent/JP4401861B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】 実時間性を維持しながら映像配信サービスを提供できるようにすること。
【解決手段】 現在複数の画像処理が要求されている場合において、当該複数の画像処理のうちの一の画像処理に係るパラメータを画像処理手段に供給し、当該一の画像処理に要した処理能力を計測する(S504)。次に、前記計測の結果に基づいて、他の画像処理に要する処理能力を予測し(S505)、その予測結果に基づいて、所定の単位時間内に処理を完了可能な画像処理を前記他の画像処理から選択し(S507)、選択した各画像処理に係るパラメータを画像処理手段に順次供給する(S508〜S510)。
【選択図】 図5

Description

本発明は、画像処理装置およびその制御方法に関し、例えば、ネットワークを利用して映像ストリームを配信する画像配信システムに適用されるものである。
近年、インターネットが普及し、WWW ( World Wide Web ) 等による情報発信が一般的に行なわれるようになってきた。その様な中で、映像を撮影し、その映像をリアルタイムにネットワーク上に発信する機能を持つシステムが出現している。
一方、ネットワークを利用した画像の配信を行うにあたっては、様々な圧縮方式が用いられている。例えば、広く一般的に用いられているものでは静止画像の圧縮方式としてはJPEG(Joint Photograph coding Experts Group)がある。また動画像の圧縮方式としては、このJPEG方式を動画像の配信に応用したM-JPEG(Motion-JPEG)や、MPEG2及びMPEG4(Moving Picture Experts Group phase 2 / 4)などが存在する。これらのうち、どの方式を用いて画像の配信を行うかは、映像配信側のシステム構成、及びユーザの選択などによって様々に考えられる。
更に、最近では、様々なデータ転送速度の異なる複数種類の通信回線が提供されている。また、配信された映像を見るための端末も、携帯電話クラスの比較的小さな画面のものから、PCを用いてその表示画面の一部を利用するもの、専用端末を用いるものなど様々である。画像データを配信するシステムを構築する側は、これらユーザの多種多様な要求に応えてサービスを提供することが求められる。なおかつ、カメラの遠隔からの操作を実現したネットワークカメラサーバにおいては、リアルタイムかつ低遅延であることが求められる。
ここで、ユーザの多種多様な要求に応じてサービスを提供するような仕組みを持った従来の映像配信システムの第1の例としては、図17に示すような画像処理装置200を持つように構成されたものがある。
図17に示すような画像処理装置200では、ビデオカメラなどから供給される画像データが画像処理ユニット210a,b,cのそれぞれにフレーム単位で与えられる。画像処理ユニット210a,b,cはそれぞれ、解像度変換部201a,b,c、コーデック処理部202a,b,c、FIFO203a,b,cを含む構成である。画像処理ユニット210a,b,cのそれぞれでは、ユーザの要求に応じてユニットごとに異なる処理パラメータが与えられており、そのパラメータに応じた処理がそれぞれ独立して行われるが、それぞれのコーデックはある特定の符号化方式にのみ対応している。
この従来の映像配信システムの第1の例では、画像処理装置200に含まれる画像処理ユニットの数が3であり、ユーザの要求する画像処理の種類がその数を超える場合には、それに対応することができない。一般に、従来の映像配信システムのように、画像処理ユニットを複数持つことで複数の画像処理の要求に対応しようとする場合は、その処理ユニット数によってサービスできる内容が制限を受けることになる。処理ユニットの数を増やせば制限は緩くなるが、映像配信システムの撮影機能をもつネットワークカメラサーバなどは一般に小型化を要求されるものであり、そこに実装できる処理ユニットの数は基板面積や発熱量などによって制限を受けるので、実際には処理ユニットの数は限られたものになる。
この処理ユニット数の制限を外すためには、画像処理をプログラマブルに変えることのできる画像処理部を持つシステムが必要になる。
そのようにした従来の映像配信システムとして、画像処理装置は予めROMに格納している各種変換アルゴリズムを必要に応じて読み出し、DSPにそのアルゴリズムの処理を行わせることによってユーザの多様な要求に答えようとするものが存在する(例えば特許文献1参照。)。
特開平6−125411号公報(第8頁、第1図、及び第10頁、第4図)
一方、リアルタイムに映像を撮影し、その映像を監視用途などに蓄積及び配信に利用する場合には、撮像装置から入ってくる映像を取りこぼすことは許されない。例えば、1秒間に30フレームの映像を撮影するNTSC準拠のビデオカメラ入力から映像入力を得る場合、1フレームの処理に許される時間は原則1/30秒に過ぎず、その中で先に述べた多種多様なユーザの要求に応えることがシステムに求められる。
また、とりわけ映像撮影部を遠隔から操作できることのできるネットワークカメラサーバにおいては、リアルタイムかつ低遅延であることが求められる。
しかしながら、特許文献1に記載の技術では、単純に複数の画像処理がアルゴリズムに従って時分割的に並行して処理されるのみであり、それによって実時間で処理が完了するという保証はない。たとえば、複数の処理を同時に行っている場合に、入力される画像信号などの変動に伴う画像処理部の処理に要する処理時間の変動などを検出することができず、実時間性を保ちながらサービスを実現することの保証ができなかった。また、新規にユーザからサービスの要求が発生した場合に、その要求に対して全て応じてよいかどうかを実時間性の保証の面から判断することができなかった。
本発明は、少なくとも上記の課題を解決するためになされたもので、例えば実時間性を維持しながら映像配信サービスを提供できるようにすることを目的としている。
上記した課題は、本発明の画像処理装置およびその制御方法によって解決される。本発明の一側面に係る画像処理装置は、画像データの画像処理を行う画像処理手段と、現在複数の画像処理が要求されている場合において、当該複数の画像処理のうちの一の画像処理に要した処理能力を計測する計測手段と、前記計測の結果に基づいて、前記複数の画像処理のうちの前記一の画像処理を除く他の画像処理に要する処理能力を予測する予測手段とを有し、前記画像処理手段は、前記予測の結果に基づいて、所定の単位時間内に処理を完了可能な画像処理を前記他の画像処理から選択し、前記選択した各画像処理を実行することを特徴とする。
本発明の別の側面に係る画像処理装置は、画像データの画像処理を行う画像処理手段と、現在要求されている一の画像処理に要した処理能力を計測する計測手段と、前記計測の結果に基づいて、現在要求されている他の画像処理に要する処理能力を予測するとともに、新たな画像処理の要求を更に受けた際に、当該新たな画像処理に要する処理能力を予測する予測手段と、前記計測手段による計測の結果および前記予測手段による予測の結果に基づいて、前記一の画像処理および前記他の画像処理に加え前記新たな画像処理を所定の単位時間内に処理可能かどうかを判断し、その判断結果に応じて当該新たな画像処理の要求の許否を決定する制御手段とを有することを特徴とする。
本発明の更に別の側面は、画像データの画像処理を行う画像処理装置の制御方法に係り、現在複数の画像処理が要求されている場合において、当該複数の画像処理のうちの一の画像処理に要した処理能力を計測するステップと、前記計測の結果に基づいて、前記複数の画像処理のうちの前記一の画像処理を除く他の画像処理に要する処理能力を予測するステップと、前記予測の結果に基づいて、所定の単位時間内に処理を完了可能な画像処理を前記他の画像処理から選択し、選択した各画像処理に係るパラメータに基づいて画像処理するステップとを有することを特徴とする。
本発明の更に別の側面は、画像データの画像処理を行う画像処理装置の制御方法に係り、現在要求されている一の画像処理に要した処理能力を計測するステップと、前記計測の結果に基づいて、現在要求されている他の画像処理に要する処理能力を予測するステップと、新たな画像処理の要求を更に受けた際に、当該新たな画像処理に要する処理能力を予測するステップと、計測された前記一の画像処理に要した処理能力、予測された前記他の画像処理に要する処理能力、および、予測された前記新たな画像処理に要する処理能力に基づいて、前記一の画像処理および前記他の画像処理に加え前記新たな画像処理を所定の単位時間内に処理可能かどうかを判断し、その判断結果に応じて当該新たな画像処理の要求の許否を決定するステップとを有することを特徴とする。
本発明によれば、リアルタイム性に重点をおいたモニタリングシステムに利用されるネットワークカメラサーバのような映像配信システムにおいて、ユーザから要求されている画像処理装置に対する処理が、所定の単位時間内に終了するかどうかを判断することが可能になり、映像配信システムにおいて、複数のユーザからの様々な解像度・圧縮方式・品質での接続要求が重なった場合に、どの処理であれば実時間内に処理を終わらせることができるかの判断をすることができるようになる。その結果、実時間性を失うことなく、複数のユーザに映像配信サービスを提供することが可能になる。
更に、複数の処理ユニットを並列に実装すること無しにサービスを実現するので、実時間性を失わない範囲でサービスの内容(映像圧縮方式の種類・解像度・Q値・フレームレート)を予め処理ユニット数などで制限すること無しにサービスの提供をすることが可能になる。
以下、図面を参照して本発明の好適な実施形態について詳細に説明する。
(第1の実施形態)
図1は、本実施形態に係る画像処理装置を示す構成図である。図1において、画像処理装置10には処理制御部100と画像処理部200の大きく分けて2つの構成要素が存在する。
画像処理部200には、まず、 処理順序制御部101により、処理制御部100内部のパラメータレジスタ104に保存されているパラメータの値がパラメータ設定信号152として与えられる。次いで画像処理部200には、処理順序制御部101によって処理開始信号154が与えられる。ここで指示された処理が画像圧縮処理であった場合には、入力された画像データ150を設定されたパラメータの値に基づいて処理し、符号化データ151を出力する。一方、指示された処理が画像伸張処理であった場合には、入力された符号化データ151を設定されたパラメータに基づいて伸張し、画像データ150として出力する。これらの処理を実施している期間、画像処理部200は処理ビジー信号153をアサートする。処理能力計測部102は処理ビジー信号153がアサートされている時間を計測する。
処理能力計測部102は、その計測結果を処理能力予測部103に提供する。処理能力予測部103はその処理を実施した際のパラメータと、処理能力計測結果から、処理を要求されている後続の画像処理に関してどのくらいの処理時間が必要になるかを予測して、処理順序制御部101に提示する。その提示を受けた処理順序制御部101は、要求されている処理の優先順位とその処理に必要になる画像処理部200の処理能力から、次にどの処理を実施するかを決定して、画像処理部200に次の処理を指示する。
図2に画像処理部200の詳細な構成を示す。
図2において、画像処理部200は解像度変換部201、コーデック処理部202、FIFO203、バッファ204を有する。入力された画像データ150は、一旦バッファ204に例えばフレーム単位で蓄積される。解像度変換部201より先の部分は、与えられたパラメータに基づく画像処理を1つの映像入力データ単位(例えば1フレーム単位)で取り扱う。解像度変換部201は、指示された処理が画像圧縮処理であった場合には、まず、入力された画像データ150をバッファ204より読み出し、パラメータレジスタ104より与えられたパラメータ設定信号152に基づいて、必要に応じて解像度変換処理を行う。このバッファ204への画像データ150の入力は画像処理部200の外部からの入力の速度に支配されるのに対して、バッファから解像度変換部201以降への画像データの転送におけるbit幅及び転送速度を画像データ150の入力速度に比べて大きくすることができる。よって、画像処理部200は画像データ150の1フレームを入力するのために必要となる時間の間に、解像度変換部201、コーデック処理部202、FIFO203を処理能力の限界まで利用して、同じ入力データフレーム画像を用いて複数回の異なるパラメータに基づく画像圧縮処理が可能である。
解像度変換部201は、解像度変換が終わったデータをコーデック処理部202に、パラメータによって指定されている符号化形式に応じた単位で渡す。コーデック処理部202は、入力されたデータを画像処理用メモリ12を必要に応じて用いながら圧縮処理し、作成した圧縮済データをFIFO203に出力する。FIFO203は一定量以上の圧縮済データが溜まるなどのイベントを契機にそのデータを符号化データ151として画像処理部200の外に送出する。
なお、解像度変換された画像データはコーデック処理部202へ送られる以外に、画像処理用メモリ12に一時的に蓄えられる。これは、後続の処理で同一の入力画像データに対して同じ解像度変換処理を求められる場合に備えるものである。もし、後続の処理で先に実施したものと同一の解像度処理を求められた場合には、解像度変換部201は画像処理用メモリ12から先に実施した解像度変換処理の結果を読み出し、それをコーデック処理部202に供給する。
一方、指示された処理が画像伸張処理であった場合には、データの流れる方向が逆になる。入力された符号化データ151は、まずFIFO203 に蓄えられる。コーデック処理部202は、パラメータレジスタ104より与えられたパラメータ設定信号152に基づいて、入力される符号化データの符号化形式を判断し、FIFO203からそのデータを順次読み出して伸張処理を実施する。伸張処理された画像データは、表示用に求められている解像度に解像度変換部201で必要に応じて変換され、バッファ204に蓄積される。バッファ204に蓄積された画像データ150は、画像を出力するのにふさわしいデータレートの画像として画像処理部200の外に出力される。
ここでは、バッファ204は画像処理部の内部に存在するものとして記述したが、場合によっては画像処理用メモリ12と同じメモリを使用することも可能である。図示はしないが、その場合は、入力される画像データ150は解像度変換部201を経由せず、直接画像処理用メモリ12に一旦蓄えられ、解像度変換部201は蓄えられたデータを画像用メモリ12から読み出しながら処理をすることになる。
なお、これらの圧縮もしくは伸張処理を実施している期間、画像処理部200のコーデック処理部202が処理ビジー信号153をアサートする。
図3は、図1に示した画像処理装置10を内蔵する映像配信サーバと、その映像配信サーバを用いて構成されるモニタリングシステムの構成例を示したものである。
1は映像配信サーバであり、カメラ6、もしくは映像配信サーバ1に付属するレンズ及びCCD等によって構成されるカメラ18から入力された映像信号をキャプチャ・圧縮して、公衆回線網4やLAN回線網5等のネットワーク上に送出する。送出された映像データは公衆回線網4に接続される携帯端末3もしくはLAN回線網5に接続される端末2(例えば2a〜2c)等のクライアントによって受信され、それぞれのビューワ31もしくは21によって表示される。また、場合によっては、相手側端末から送信された映像データを受信、伸張して接続されるモニタ7によって表示をする。
以下、映像配信サーバ1の内部構成とその基本動作等について詳細に説明する。
まず、カメラ6、もしくは映像配信サーバ1に付属するレンズ及びCCD等によって構成されるカメラ18から映像信号が入力画像変換装置11によって取り込まれる。このとき、カメラ6から与えられるデータはNTSC/PAL/SECAMなどの方式に基づいたアナログ映像信号であるとする。このようなアナログ映像信号は入力画像変換装置11でA/D変換した後、画像処理装置10の入力として適当なディジタルデータ形式、例えばY:U:V=4:2:2の形式に変換される。また、映像入力部18から出力される映像データは、既にディジタル形式になっているものの、カメラ18から映像データが出力される信号線がLVDS(Low Voltage Differential Signaling)形式に準拠するものであるため、入力画像変換装置11で一旦受信し、画像処理装置10が扱いやすいパラレルデータの形式に変換される。そして、画像処理装置10に対して画像データ150として入力される。
画像データ150を取得した画像処理装置10は一旦バッファ204で画像データを保持した後、その映像をユーザによって指示された方式に基づいて圧縮する。例えば、M−JPEG方式やMPEG4方式に基づいて圧縮をかける。圧縮後の符号化データ151はマイクロプロセッサ13を経由してマイクロプロセッサ13に接続されている演算用RAM15に格納される。
符号化データが演算用RAM15に転送されると、マイクロプロセッサ13は、FlashROM14に格納されたプログラムに従って、演算用RAM15から符号化データを取り出し、ネットワークに向けて配送するために適当な大きさに分割する、ヘッダを付けるなどの処理を行う。そして、PCカードI/F17に挿された通信用PCカード171(モデムカードやISDNカードなど)を介して公衆回線網4上の携帯端末などへ、もしくはLANインタフェース16を介してLAN回線網5上の他の端末等へ符号化データを送信する。
また、マイクロプロセッサ13は符号化データをネットワーク上に配信するだけでなく、蓄積することも可能である。例えば、PCカードスロット17に蓄積用PCカード172(ハードディスクカードもしくはFlashROMカードなど)を挿せば、その蓄積用PCカード172上に映像データを記録することが可能になる。また、蓄積先としては、FlashROM14や維持的な蓄積としては演算用RAM15を選択することも可能である。
なお、映像配信サーバ1は商用AC電源91からAC−DCアダプタ90を介して直流にされた電力を電力供給部9において取得し、それをさらに装置内部のICなどが動作するに相応しい電圧と安定度に電力供給部9で変換したうえで、システム全体に電力を供給している。
まず、この映像配信サーバ1が、画像処理装置10の性能を予測しながら、複数のユーザに対して映像を配信する場合の動作について図1から3を参照しながら図4から6を用いて説明する。
図4は、この映像配信サーバ1が現在要求されている処理のパラメータリストの一例を示す図である。このパラメータリストは図示のように、処理番号、優先度、処理種別、符号化方式、解像度、品質1および2、接続数に関するパラメータが記述される。なおここでは、優先度を示す値が小さいものほど優先度が高いとする。また、このパラメータリストの内容は画像処理装置10のパラメータレジスタ104内部にもコード化して含有されているものとする。本実施形態では、図4のパラメータリストに示されているとおり、処理番号0〜5の6つの処理が要求されていることとし、各処理番号と優先度とが一致しているものとする。
図4では、優先度0の処理が存在している(処理番号0)。この処理は基準処理として取り扱われ、ユーザからの処理要求の有無にかかわらず、全ての処理に先立ってまずこの画像の処理が実施される。その上で、この基準処理を行うのに要した画像処理部の処理量が測定され、それに基づき実時間内の処理が可能になるように後続の処理1から5の実施が検討されることになる。
図5は、画像処理装置10における処理を示すフローチャートである。
映像配信サーバ1にはカメラ18から連続的に画像データがフレーム単位で入力されており、フレームの更新間隔は1/30秒、入力される画像の解像度はSVGA(800x600)であるとする。まず、入力画像変換装置11から、画像処理装置10 にフレーム単位の画像が入力される。バッファ204に1フレーム分のフレーム画像データが蓄積された段階で、そのタイミングに同期した新しい単位時間の開始が示される(ステップS501)。
本実施形態では、上記のとおり優先度0の処理0が存在する。この処理は全ての画像処理に先立って実施されることが決まっているので、予め [Motion−JPEGによる圧縮、解像度320x240、品質Q=50]等の処理0に関するパラメータ情報が、パラメータレジスタ104からパラメータ設定信号152として、解像度変換部201、及びコーデック処理部202に与えられる(ステップS502)。
これにより、まず解像度変換部201は、処理開始信号154によって処理開始の指示が与えられると、バッファ204に蓄えられた画像データに対して、800x600から320x240への解像度変換の処理を実施し、解像度変換した結果の画像をコーデック処理部202に送り出す。この場合はMotion−JPEGの処理であるので、8x8bitのブロックの単位で順次コーデック処理部202に入力していく。コーデック処理部202は、ブロック化されたデータ解像度変換部201から受け取って処理を開始すると、処理ビジー信号153をアサートする。そして、与えられた品質パラメータQ=50を用いてMotion−JPEG符号化を実施し、加工した符号化データをFIFO203に入力する。FIFO203に入力された符号化データは演算用RAM15宛に転送される(ステップS503)。
処理番号0で予定された320x240の画面全てに対応する画像データの処理が終了すると、処理ビジー信号153がネゲートされる。これに応じて処理能力計測部102は、処理ビジー信号153がアサートされていた時間を計測し、この処理番号0の画像処理に必要だった時間を算出する(ステップS504)。
処理番号0の画像処理に要した時間がt0であったとする。その計測結果を受けて予測性能計算部132は、後続に要求されている処理1〜5の内容をパラメータレジスタ104から取り出して、それらにかかる処理時間の予測を行う(ステップS505)。
たとえば、優先度0である基準処理の符号化処理がMotion−JPEGの圧縮であるとする。その処理の解像度をR0、その処理に要した時間をt0とするとき、解像度Rnである処理nの処理の処理時間tnは以下のようにして求めることができる。
tn = (Rn / R0) ×t0 × M × Q (1−1)
ただし、M:経験的に求められる符号化方式における要因ファクタ、
M=1(符号化方式がMotion−JPEGである場合)、
M=1.05(符号化方式がMPEG4、処理フレームがIフレームのとき)、
M=1.75(符号化方式がMPEG4、処理フレームがPフレームのとき)、
Q:品質ファクタ (ここでは簡略化のために全ての場合において1とする)
n=1〜5について、上式を計算すると、処理1〜5のそれぞれにかかる処理時間が予測される。次いで、このようにして予測した処理時間がすべて単位時間内に処理可能かどうかを判断する(ステップS506)。この場合のステップS506の判断は例えば次式によって行われる。
(t0+P)+(t1+P)+…+(tn+P) < 処理単位時間 (1−2)
ただし、P:画像処理部へのパラメータ設定等に必要となる時間、
n:要求されている処理の処理番号
本実施形態では、フレームの更新間隔が1/30秒であるので、処理単位時間は1/30秒となり、その時間内に全ての処理を終える必要がある。nを順に増やして行き、現在要求を受け付けているところまで増やしても式1−2が成立した場合にはステップS506の条件が成立してYESの分岐に進むが、nの数を最後まで増やさないうちにこの式が成立しなくなった場合には、NOの分岐へと進む。
この処理の予測の様子を図6に示す。図6の第1のフレーム時間の処理では、処理性能予測の結果、処理4の処理までが処理単位時間内に処理されることが予測される(すなわち式1−2が成立する)が、処理5の処理まで実施すると所定の時間内に全ての処理が終了しないと判断されている(ステップS506→NO)。
このような場合には、ポリシーに基づく処理優先度の決定が行われる(ステップS507)。仮に、ここでの映像配信サーバのサービスポリシーが優先度優先ポリシーであり、実時間処理に間に合わない処理は実施しないというものであった場合には、処理優先度の一番低い5の処理が第1のフレーム時間では実施しないという決定がなされる。そして、その結果を受けて処理5を除いた残りの処理について、順次処理が行われていくことになる(ステップS508〜S510)。そして、処理4の処理が終了した時点で画像処理部200は次の新しい単位時間が始まるまで待機状態に入ることになる(ステップS511)。
なお、図6の第2のフレーム時間の処理では、処理3の圧縮処理がMPEG4のIフレーム処理であったため、第1のフレーム時間に比べて処理時間が短くなり、処理5までの処理を全て実施することが可能と判断され(S506→YES)、全ての要求された処理が実施されている。
また、図4において処理2はM−JPEGの伸張処理であるが、その処理が行われる際の処理の流れを、再び図2及び図3を参照して説明する。
図3において、端末2Cに取り付けられているカメラ22によって映像が撮影され、それがMotion−JPEG方式によって圧縮され、端末2CからLAN回線網5を経由して映像配信システム1に入力されているものとする。映像配信システム1はLAN I/F 16を介してMotion−JPEG形式で符号化された映像データを受け取り演算用RAM15に格納する。マイクロプロセッサ13はネットワーク通信用のヘッダを取り除いた後、画像処理装置10が符号化データ入力として受入可能な形に整えてから、符号化データを画像処理部200のFIFO203 に対して送り込み、同時にパラメータレジスタ104に対して要求する処理の内容を伝達する。画像処理部200は所定の処理の順番が来ると、コーデック処理部202を伸張処理に利用して符号化データ151を伸張して解像度変換部201に出力する。本実施形態ではそのまま解像度は変換せずに出力されるので、伸張された画像データ150はバッファ204を介して出力画像変換装置19に対して渡され、そこでD/A変換された後、外部接続モニタ7に表示される。
以上のようにして、一連の処理が行われる。
なお、本実施形態においては、画像処理装置10における処理制御部100の各構成要素はそれぞれ独立した制御部として記述したが、この処理制御部100として専用のコントローラ等を準備して、ソフトウェアによって実現する方法を取ることも可能である。更に言えば、処理制御部100として専用のコントローラを準備せずに、処理制御部の全ての処理をマイクロプロセッサ13上で専用のソフトウェアを用いる形で実現することも可能である。
(第2の実施形態)
第1の実施形態においては、処理能力予測部における予測性能の計算は式1−1、1−2に示したような固定された予測式によって行われていた。しかし現実には撮影する映像の内容等によってその予測結果と実際の処理時間に食い違いが生じてくることもあり得る。
そこで、本実施形態では、撮影対象の変化等による予測結果と実際の処理時間の相違を検出し、その差異を小さくするようにフィードバック系を入れた場合の例を、図1〜5を援用しつつ図7、図8を用いて説明する。図1〜5に関しては第1の実施形態と共通であるので、ここでは説明を省略する。
図7は、本実施形態における処理能力予測部103の構成例である。処理能力予測部103は予測結果比較部131、予測性能計算部132、及び予測用条件変数格納部133から構成されている。
図8A、図8Bは、本実施形態における画像処理装置10における処理を示すフローチャートである。
このフローチャートの「A」で示された箇所は、本処理の初めに、図5の「A」で示された箇所までのステップ(すなわち、ステップS501〜S507)と同様の処理が行われることを示している。したがってここではこれらの処理についての説明は省略し、ステップS801以降の処理から説明を始める。
図5の「A」まで(すなわち、ステップS501〜S507)で次に処理するべき処理の内容が決まるので、その内容に従って画像処理部200に対してパラメータレジスタ104からパラメータを設定する(ステップS801)。パラメータ設定が終了すると、 処理順序制御部101は、処理開始信号154を用いて画像処理部200に対して次の処理を実施するように指示をする。
その指示を受けた画像処理部200は画像処理を開始し、その処理を行っている間処理ビジー信号153をアサートする(ステップS802) 。処理能力計測部102は、処理ビジー信号153がアサートされている時間を計測する(ステップS803)。そしてその計測された処理時間と、その前にステップS505において予測性能計算部132によって予測されていた処理時間を、予測結果比較部131において比較する(ステップS804)。
予測された時間内に処理が終了していた場合には(ステップS804→YES)、処理はそのまま継続される。すなわち、予定された画像処理がすべて終了しているかどうかを確認し(ステップS807)、未実施の処理があるような場合には(ステップS807→NO)、次の処理を実施するために次の画像処理のパラメータ設定(ステップS801)に戻る。全ての予定された処理が実施されていた場合には、次の新しい単位時間が始まるまで待機状態に入ることになる(ステップS808)。
一方、予測された時間内に処理が終了していなかった場合には(ステップS804→NO)、まず、後続で要求されている処理が次の単位時間の開始までに処理可能かどうかの検討を行う(ステップS805)。処理可能であった場合には(ステップS805→YES)、以前にスケジューリングされたとおりの処理の流れに戻って処理を実施していく(ステップS807)。一方、後続で要求されている処理が次の単位時間の開始までに処理可能でなかった場合には(ステップS805→NO)、ポリシーに基づく処理優先度の決定が再度実施されることになる(ステップS806)。これは、優先度の低い処理が長期間処理されないことを防ぐためである。
画像処理部200の処理の流れは概ね上記のようなものであるが、処理能力予測部103としては、同時に予測用条件変数の確認作業を実施する必要がある。このため、処理はステップS803から図8BのステップS809にも分岐し、処理能力計測部102が処理ビジー信号153のアサートされている時間を計測した結果を受けて、計測された処理時間が予測性能計算部132において先に計算した結果と一定誤差の範囲内で一致したかどうかを判断する(ステップS809)。実測値と予測値とが一定誤差の範囲内で一致していた場合には(ステップS809→YES)、予測用条件変数には修正を加えないで終了する(S811)。一方、実測値と予測値とが食い違っていた場合には(ステップS809→NO)、その差異を小さくするように予測用条件変数に修正が加えられる。修正を加える方法としては、例えば以下のようなものが考えられる。
まず、第1の実施形態における処理時間の予測式を以下のように変更する。優先度0である基準処理の符号化処理をMotion−JPEGであるとする。その処理の解像度をR0、その処理に要した時間をt0とするとき、解像度Rnである処理nの処理の処理時間tnは以下のようにする。
tn = (Rn / R0) × r × t0 × M × m× Q ×C (2−1)
ただし、M:符号化方式における要因ファクタ、
M=1(符号化方式がJPEGである場合)、
M=1.05+i(符号化方式がMPEG4、処理フレームがIフレームのとき)、
M=1.75+p(符号化方式がMPEG4、処理フレームがPフレームのとき)、
r:解像度の比に関する処理時間の補正項、
i:MPEG4,Iフレーム処理時の処理時間の補正項、
p:MPEG4,Pフレーム処理時の処理時間の補正項、
m:MPEG4,Pフレーム処理時における動きベクトルの検索範囲制限などに関する処理時間の補正項、
Q:品質ファクタ (Motion−JPEGのQ値などの違いによる補正項)、
C:圧縮処理と伸張処理の違いに基づく補正項
第1の実施形態の式1−1は、式2−1においてi=p=0、r=M=m=Q=C=1であり、これが固定であったと考えることができる。
上記補正項のうちmは、カメラの首振りなどの指示により撮影対象の画像に動きがあると予測される場合に、動きベクトルの検索範囲を制限することで処理速度を上げることができるが、その要素を加味するための補正項である。
上記補正項の内容を予測値と実測値との差異が小さくなるように補正をかけることで、予測用条件変数の修正が実施される。
(第3の実施形態)
上述の第1及び第2の実施形態は現在処理要求を受け付けている処理に関するものであったが、映像のリアルタイム性を保った配信という観点から、新規の処理要求に対してどのようにサービス要求に対して対応するべきかという観点からも考える必要がある。
また、第1の実施形態のように、基準処理として優先度0のユーザからの処理要求の有無にかかわらず特定の決め打ちの処理を実施するということは、場合によっては資源の有効利用に繋がらない場合もある。
これに対し本実施形態では、新規のサービス要求への対応の仕方に関して、処理能力の予測処理を判断基準に利用した場合の例と、受け入れた新規の処理によって基準処理を変更する場合の例を図9、図10、図11を用いて示す。それ以外の図は第1及び第2の実施形態と共通であるので、それらに対する説明は省略する。ただし、ここではカメラ18から入力されている入力画像の解像度はXGAサイズ(1024×768)であるとする。
図9Aは、ある時刻1において映像配信サーバ1が要求されている処理のパラメータリストである。時刻1の時点では、処理0〜2までの3つの処理が画像処理装置10上で実施されている。ここに、新規の処理3の要求がユーザから発生した場合の処理を図10のフローチャートを用いて説明する。
図10において、新規処理サービスの要求が発生すると(ステップS1001)、まず、画像処理装置10では、現在受け付けている画像処理全体に要する処理能力の計測および/または予測を実施する(ステップS1002)。これは、基準処理(時刻1の時点では処理0)の実測結果と、そこから導き出される他の処理の予測結果でも構わないし、新規サービス要求が待てるようであれば、現在受け付けている画像処理の全てについて実測した結果を用いてもよい。
一方、処理能力予測部103は、新規に処理を要求されている処理のパラメータと基準処理の実測結果とから、新規に要求された処理に要する画像処理部10の処理能力の見積りを行う(ステップS1003)。
その上で、新規に要求されている処理を受け入れても全ての処理を単位時間内に処理することが可能かどうかの見積りを行う(ステップS1004)。本実施形態の場合は、比較的処理時間に余裕があるのと、要求された新規処理の解像度が小さいものであり、画像処理部の処理能力にあまり影響を与えないものであったことから(ステップS1004→YES)、新規サービスの要求は受け入れられる(ステップS1005)。
新規サービス要求が受け入れられると、優先度0の絶対的な基準処理が存在しない場合には、今度は新規に受け入れた処理(この場合は処理3)が基準処理としてふさわしいかどうかを判断する(ステップS1006)。時刻1時点での基準処理は処理0が選定され、他の処理1,2に比べて1段高い優先度1が与えられていた。処理0と処理3を比較すると、同じMotion−JPEG処理であるが、処理0に比べて処理3の方が解像度が小さいことがわかる。ここで、この映像配信システム1の基準処理の選定ポリシーとして、解像度が小さいものの方が基準として好ましいというポリシーがあった場合には、処理3を基準処理として採用するべきであるという判断が下される(ステップS1006→YES)。その場合、基準処理の変更が行われ(ステップS1007)、処理の優先度も変更される。基準が変わったために、それと同時に予測用条件変数の修正も実施される(ステップS1008)。そして、一連の新規処理サービスへの対応が終了することになる(S1009)。
次いで、時刻1よりしばらく経過した時刻2時点において、映像配信サーバ1に3つの新規の処理要求が与えられた場合を考える。図9Bは時刻2において映像配信システム1が要求されている処理のパラメータリストである。時刻2の時点において処理としては処理0から処理3までの4つの処理が画像処理装置10上で実施されている。図9Aと比較して、基準処理が処理0から処理3に変更になったため、処理3の優先度が1、それ以外の処理の優先度が2に変更されている。
ここで、新規の処理4から6の要求がユーザから発生した場合の処理について図10及び図11を用いて説明する。
図10のS1001〜S1003のステップを経て、新規に処理要求されたものの処理に要する時間の予測結果を図11に示す。図9B及び図11からわかるように、新規に処理を要求されたもののうち、処理4に関してはそれを実施することにより、単位時間内での処理が不可能になるので(ステップS1004→NO)、新規処理サービスの要求は拒否される(ステップS1010)。一方、処理5に関してはその処理を追加して実施しても単位時間内での処理が可能であるという判断が図11から下されるので(ステップS1004→YES)、新規処理サービスとしての要求が受け入れられる。ただし、処理4は時刻2時点における基準処理である処理3に比べて解像度が大きいので、基準処理の変更は発生しない(ステップS1006→NO)。
また、処理6に関しては、圧縮方式、解像度及び品質が処理0と同一であり、異なるのは要求フレームレートだけであるので、この場合、処理0で実施された画像圧縮処理の出力結果である符号化データを演算用RAM15の上でコピーしてネットワークに出力することで要求が満たされることがわかる。そのため、新規に画像処理装置に処理を設定しなくてもサービスが追加できるので、この処理6も新規処理サービスとして追加される。ただし、処理6はパラメータリストの上では処理0にマージされて、処理0の接続数が10.5と示されることになり、処理6のエントリは消去される。
(第4の実施形態)
第1から第3の実施形態では、性能予測を行う際の基準処理として、実際の配信に用いられている画像圧縮処理が用いられていたが、基準処理の選び方にも様々な方法が考えられる。
例えば、この映像配信サーバ1において監視用の画像蓄積も同時に行っていた場合には、その処理を基準処理として採用することも可能である。監視用の映像蓄積を実施する際には、特に映像の取りこぼしを無くすために、実時間内に処理が終了することが必要であり、本提案における処理時間の予測による画像処理装置の負荷の制限は効果が大きい。そのような場合の例を図12に示す。
図12は本実施形態における要求されている処理のパラメータリストである。この例では処理1が監視用の映像蓄積ということで最優先の処理を実施されている。そのため、接続数が0であるにもかかわらず優先度0として取り扱われている。このような場合には、この処理1を性能予測の基準処理として取り扱うことがシステムの処理性能を有効に利用することになる。処理1によって処理された画像は蓄積用PCカード172上に蓄積される。
なお、この例では、現在処理1は画像蓄積のみに利用されているが、この映像を配信に利用することが可能であることは言うまでも無い。
(第5の実施形態)
画像処理装置の処理性能が可変である場合にも、処理性能の予測機能は非常に有効である。そのような場合の例を図13及び図14を用いて説明する。
図13は、画像処理装置の処理性能が可変である場合の映像配信サーバ1の構成例を示したものである。図13の構成要素で図3と異なるのは、電源供給部にバッテリ92が接続されており、電力供給部9に処理速度制御部93が接続され、処理速度制御部93から画像処理装置10に対して画像処理部の処理速度を制御するための信号線が接続されていることである。
図13において、電力供給部9は、映像配信サーバ1に関する電力供給がどのように実現されているかを監視している。そして、その電力が主としてバッテリ92から供給されている場合には、バッテリ92の消耗を抑えるべく映像配信システム1の消費電力を下げるため、処理速度制御部93を用いて、画像処理装置10に供給しているクロックの周波数を落とす等の制御を実施する。
画像処理装置10は処理速度制御部93によって供給されるクロックの周波数が落とされると画像処理能力が低下して、周波数が落とされる前に実施することが可能であった処理も全てを実施することが難しくなってくる。そのような場合を考慮した処理のパラメータリストを図14に示す。ここでは、品質3のパラメータに実時間性への考慮を要求される処理かどうかのフラグを立てている。本実施形態では処理0と1に実時間性要求のパラメータが設定されている。処理の優先度としては処理0と処理2は同等であるが、さらにこのパラメータの存在により、画像処理装置10の処理性能が低下しているような場合には、処理0と処理1が優先的に処理能力を分配されることになる。具体的には、まず、基準処理としての処理1の処理が行われ、その処理能力の測定結果から、処理1から処理5までの処理時間が予測され、実時間でのサービスができる範囲で処理0、2、3、4、5の順に画像処理装置10の処理能力が分配されていくことになる。(処理4と5のどちらが優先されるかはこのパラメータリストの情報からだけでは判断できず、他の優先度ポリシーが利用される。)
(第6の実施形態)
第1〜5の実施形態においては主としてコーデック処理部202の処理が実施されていることを示す処理ビジー信号153を処理性能判断の基準としていたが、画像処理部200の処理性能を決めるものはコーデック処理部202の利用状況だけとは限らない。そのような場合の例を図15に示す。
図15は本実施形態における画像処理部200の構成を示したものである。図2と比較するとわかるように、図15ではコーデック処理部202から出力される処理ビジー信号153以外に、FIFO203から出力されるFIFOビジー信号155が処理能力計測部102に入力されている。
FIFOビジー信号155は、コーデック処理部202から出力された符号化データ151をマイクロプロセッサ13に接続される演算用RAM15に対して転送する際に利用する内部バスの混み具合等を通知する信号線である。一般的にMotion−JPEG等の圧縮方法を用いる場合、圧縮後の画像の品質を調整するために品質パラメータであるQ値を変化させると、コーデック処理部202から出力される符号化データ量もそれに伴って大きく変化する。そのため、符号化データを転送する際のバスの込み具合等もそのデータ転送量に応じて変化するが、場合によってはデータを1単位処理時間中に転送しきれない場合も発生し得る。そのような場合、コーデック処理部202での処理能力が十分であっても、結果的に処理の実時間性が失われることになる。FIFOビジー信号155はそのような観点から、FIFO203と演算用RAM15との間の転送処理能力を示すために用いられる信号である。この信号はFIFO203と演算用RAM15との間でのデータ転送が順調に行われているかどうか、FIFO203と演算用RAMの間で転送されているデータ量はどのくらいかなどの情報を処理能力計測部102に対して通知する。処理能力計測部102はこれらのデータ転送にかかわる処理情報とコーデック処理部202の利用状況を示す処理ビジー信号153の両方から、実際に処理に要している画像処理部200の全体としての処理能力を判断し、その結果を処理能力予測部103に渡して利用することになる。
(第7の実施形態)
先に述べた実施形態では圧縮処理されるべく入力画像変換装置11から画像処理装置10に入力された画像データ151は全て一旦バッファ204に1フレーム分蓄積され、そこからデータを高速に読み出して処理することによって複数の画像処理を1フレーム分の画像を入力するのに要する単位時間内に実現していた。
これに対し本実施形態では、バッファ204に1フレーム分の画像蓄積を行うこと無しに、同等の処理を実現する場合の例として図16を用いて示す。
図16では、図2及び図15と異なり、バッファ204の代わりにラインバッファ205a及び205bが準備されている。これらのラインバッファ205a、205bは例えばY:U:V=4:2:2のフォーマットに応じて入力される画像サイズの横方向最大値の2倍幅をもち、16ライン分のデータを保存できるものである。本実施形態においてXGAサイズのデータが画像データとして入力されるとすると、ラインバッファの大きさは1024×2=2048であることから、2048byte×16ライン分ということになる。
画像データ150は映像データを16ラインごとにラインバッファ205a、205bに交互に入力する。16ライン分のデータがラインバッファにたまると、解像度変換部201はそのデータを高速に読み出し、圧縮処理に応じたブロック単位に変換してコーデック処理部202に与えると同時に、解像度変換処理を実施して要求されている圧縮処理用の解像度に変換する。解像度処理変換結果は画像処理メモリ12に蓄積される。
この場合、基準処理としては、データの読み出しの負荷を最小化するために、なるべく解像度の大きい処理を用いることが、全体の処理性能最適化の面から望ましい。また、このような処理を行う場合には、基準処理に基づく処理性能の予測等はこのラインバッファ単位で実施される。そして、ラインバッファ単位での基準処理が終了した段階で、予測した結果に応じて、画像用メモリ12からコーデック変換部202は必要に応じた解像度のデータを読み出し、順次次の圧縮処理を行っていく。この場合、先頭のラインバッファで予測を行った結果が、同一フレームの他のラインバッファ単位での処理にも適用されることになる。もし、先頭のラインバッファでの予測した結果で同一フレームの他のラインバッファの処理をしている際に不都合が発生した場合には、不都合が発生した時点で処理の予測結果が見直され、その結果がそれ以降の同一フレームの処理に適用されることになる。
(他の実施形態)
以上、本発明の実施形態を詳述したが、本発明は、複数の機器から構成されるシステムに適用してもよいし、また、一つの機器からなる装置に適用してもよい。
なお、本発明は、前述した実施形態の機能を実現するソフトウェアのプログラムを、システムあるいは装置に直接あるいは遠隔から供給し、そのシステムあるいは装置のコンピュータがその供給されたプログラムコードを読み出して実行することによっても達成される。その場合、プログラムの機能を有していれば、その形態はプログラムである必要はない。
従って、本発明の機能処理をコンピュータで実現するために、そのコンピュータにインストールされるプログラムコード自体およびそのプログラムを格納した記憶媒体も本発明を構成することになる。つまり、本発明の特許請求の範囲には、本発明の機能処理を実現するためのコンピュータプログラム自体、およびそのプログラムを格納した記憶媒体も含まれる。
その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等、プログラムの形態を問わない。
プログラムを供給するための記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、MO、CD−ROM、CD−R、CD−RW、磁気テープ、不揮発性のメモリカード、ROM、DVD(DVD−ROM,DVD−R)などがある。
その他、プログラムの供給方法としては、クライアントコンピュータのブラウザを用いてインターネットのホームページに接続し、そのホームページから本発明のコンピュータプログラムそのもの、もしくは圧縮され自動インストール機能を含むファイルをハードディスク等の記憶媒体にダウンロードすることによっても供給できる。また、本発明のプログラムを構成するプログラムコードを複数のファイルに分割し、それぞれのファイルを異なるホームページからダウンロードすることによっても実現可能である。つまり、本発明の機能処理をコンピュータで実現するためのプログラムファイルを複数のユーザに対してダウンロードさせるWWWサーバも、本発明のクレームに含まれるものである。
また、本発明のプログラムを暗号化してCD−ROM等の記憶媒体に格納してユーザに配布し、所定の条件をクリアしたユーザに対し、インターネットを介してホームページから暗号化を解く鍵情報をダウンロードさせ、その鍵情報を使用することにより暗号化されたプログラムを実行してコンピュータにインストールさせて実現することも可能である。
また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される他、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどが、実際の処理の一部または全部を行い、その処理によっても前述した実施形態の機能が実現され得る。
さらに、記憶媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によっても前述した実施形態の機能が実現される。
本発明の実施形態に係る画像処理装置の構成を示す図である。 本発明の第1の実施形態に係る画像処理装置における画像処理部の詳細な構成を示す図である。 本発明の第1の実施形態における映像配信システムを用いたモニタリングシステムを示す図である。 本発明の第1の実施形態における映像配信システムに要求されている処理のパラメータリストの一例を示す図である。 本発明の第1の実施形態における画像処理装置における処理を示すフローチャートである。 本発明の第1の実施形態における処理性能予測処理を説明する図である。 本発明の第2の実施形態における処理能力予測部の構成を示す図である。 本発明の第2の実施形態における画像処理装置における処理を示すフローチャートである。 本発明の第3の実施形態における映像配信システムに要求されている処理のパラメータリストの例を示す図である。 本発明の第3の実施形態における新規要求処理の受け入れの可否を判断する際の処理の流れを示すフローチャートである。 本発明の第3の実施形態における処理性能予測の結果を示す図である。 本発明の第4 の実施形態における映像配信システムに要求されている処理のパラメータリストの一例を示す図である。 本発明の第5の実施形態における映像配信システムの構成を示す図である。 本発明の第5の実施形態における映像配信システムに要求されている処理のパラメータリストの例を示す図である。 本発明の第6の実施形態に係る画像処理装置における画像処理部の詳細な構成を示す図である。 本発明の第7の実施形態に係る画像処理装置における画像処理部の詳細な構成を示す図である。 従来の映像配信システムにおける画像処理装置の構成を示す図である。

Claims (11)

  1. 画像データの画像処理を行う画像処理手段と、
    現在複数の画像処理が要求されている場合において、当該複数の画像処理のうちの一の画像処理に要した処理能力を計測する計測手段と、
    前記計測の結果に基づいて、前記複数の画像処理のうちの前記一の画像処理を除く他の画像処理に要する処理能力を予測する予測手段とを有し、
    前記画像処理手段は、前記予測の結果に基づいて、所定の単位時間内に処理を完了可能な画像処理を前記他の画像処理から選択し、前記選択した各画像処理を実行することを特徴とする画像処理装置。
  2. 前記予測手段による予測の結果に対する実際の計測結果との誤差に応じて、前記予測手段の予測条件を修正する手段を更に有することを特徴とする請求項1に記載の画像処理装置。
  3. 画像データの画像処理を行う画像処理手段と、
    現在要求されている一の画像処理に要した処理能力を計測する計測手段と、
    前記計測の結果に基づいて、現在要求されている他の画像処理に要する処理能力を予測するとともに、新たな画像処理の要求を更に受けた際に、当該新たな画像処理に要する処理能力を予測する予測手段と、
    前記計測手段による計測の結果および前記予測手段による予測の結果に基づいて、前記一の画像処理および前記他の画像処理に加え前記新たな画像処理を所定の単位時間内に処理可能かどうかを判断し、その判断結果に応じて当該新たな画像処理の要求の許否を決定する制御手段と、
    を有することを特徴とする画像処理装置。
  4. 前記制御手段の処理によって前記新たな画像処理の要求を受け入れた場合、前記制御手段は、当該新たな画像処理に係る画像データの解像度が前記一の画像処理に係る画像データの解像度よりも小さいときは、当該新たな画像処理を前記一の画像処理に変更することを特徴とする請求項3に記載の画像処理装置。
  5. 前記所定の単位時間は、1フレームの画像データの入力に要する時間であることを特徴とする請求項1から4までのいずれかに記載の画像処理装置。
  6. 前記制御手段は、処理速度が低下した場合、画像処理の優先度に関する情報に基づいて、処理すべき画像処理を選択することを特徴とする請求項1または2に記載の画像処理装置。
  7. 請求項1から6までのいずれかに記載の画像処理装置を含み、前記所定の単位時間内に複数の映像ストリームをネットワークを介しクライアントに配信する映像配信システム。
  8. 画像データの画像処理を行う画像処理装置の制御方法であって、
    現在複数の画像処理が要求されている場合において、当該複数の画像処理のうちの一の画像処理に要した処理能力を計測するステップと、
    前記計測の結果に基づいて、前記複数の画像処理のうちの前記一の画像処理を除く他の画像処理に要する処理能力を予測するステップと、
    前記予測の結果に基づいて、所定の単位時間内に処理を完了可能な画像処理を前記他の画像処理から選択し、選択した各画像処理に係るパラメータに基づいて画像処理を行うステップと、
    を有することを特徴とする画像処理装置の制御方法。
  9. 画像データの画像処理を行う画像処理装置の制御方法であって、
    現在要求されている一の画像処理に要した処理能力を計測するステップと、
    前記計測の結果に基づいて、現在要求されている他の画像処理に要する処理能力を予測するステップと、
    新たな画像処理の要求を更に受けた際に、当該新たな画像処理に要する処理能力を予測するステップと、
    計測された前記一の画像処理に要した処理能力、予測された前記他の画像処理に要する処理能力、および、予測された前記新たな画像処理に要する処理能力に基づいて、前記一の画像処理および前記他の画像処理に加え前記新たな画像処理を所定の単位時間内に処理可能かどうかを判断し、その判断結果に応じて当該新たな画像処理の要求の許否を決定するステップと、
    を有することを特徴とする画像処理装置の制御方法。
  10. 請求項8または9に記載の画像処理装置の制御方法を実現するためのプログラム。
  11. 請求項10に記載のプログラムを格納したコンピュータ読み取り可能な記憶媒体。
JP2004136019A 2004-04-30 2004-04-30 画像処理装置およびその制御方法 Expired - Fee Related JP4401861B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2004136019A JP4401861B2 (ja) 2004-04-30 2004-04-30 画像処理装置およびその制御方法
US11/119,055 US8219702B2 (en) 2004-04-30 2005-04-29 Video delivery apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004136019A JP4401861B2 (ja) 2004-04-30 2004-04-30 画像処理装置およびその制御方法

Publications (3)

Publication Number Publication Date
JP2005318411A true JP2005318411A (ja) 2005-11-10
JP2005318411A5 JP2005318411A5 (ja) 2007-06-14
JP4401861B2 JP4401861B2 (ja) 2010-01-20

Family

ID=35445359

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004136019A Expired - Fee Related JP4401861B2 (ja) 2004-04-30 2004-04-30 画像処理装置およびその制御方法

Country Status (1)

Country Link
JP (1) JP4401861B2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008244810A (ja) * 2007-03-27 2008-10-09 Fujitsu Ltd センサ情報管理システム、センサ情報管理方法、センサ情報管理プログラム
JP2014200038A (ja) * 2013-03-29 2014-10-23 株式会社メガチップス 画像処理装置
JP2014220818A (ja) * 2009-09-10 2014-11-20 アップル インコーポレイテッド デジタルビデオレコーダのための動画像編集および再フォーマット
JPWO2013038585A1 (ja) * 2011-09-14 2015-03-23 日本電気株式会社 リソース最適化方法、ipネットワークシステムおよびリソース最適化プログラム
JP2017509203A (ja) * 2014-01-15 2017-03-30 アビジロン コーポレイション 異なる符号化パラメータを用いて符号化された複数の符号化物のストリーミング
JP2018056948A (ja) * 2016-09-30 2018-04-05 株式会社東芝 エンコーダ装置およびエンコード方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002064841A (ja) * 2000-08-23 2002-02-28 Kddi Corp 動画像処理能力判定装置
JP2002112274A (ja) * 2000-10-03 2002-04-12 Nippon Telegr & Teleph Corp <Ntt> 処理時間適応画像符号化方法およびそのプログラムの記録媒体
JP2003015836A (ja) * 2001-06-27 2003-01-17 Canon Inc 印刷システム及び印刷制御方法
JP2004021329A (ja) * 2002-06-12 2004-01-22 Minolta Co Ltd プリントプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002064841A (ja) * 2000-08-23 2002-02-28 Kddi Corp 動画像処理能力判定装置
JP2002112274A (ja) * 2000-10-03 2002-04-12 Nippon Telegr & Teleph Corp <Ntt> 処理時間適応画像符号化方法およびそのプログラムの記録媒体
JP2003015836A (ja) * 2001-06-27 2003-01-17 Canon Inc 印刷システム及び印刷制御方法
JP2004021329A (ja) * 2002-06-12 2004-01-22 Minolta Co Ltd プリントプログラム

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008244810A (ja) * 2007-03-27 2008-10-09 Fujitsu Ltd センサ情報管理システム、センサ情報管理方法、センサ情報管理プログラム
US8495188B2 (en) 2007-03-27 2013-07-23 Fujitsu Limited Sensor information management system, sensor information management method, and computer-readable storage medium
JP2014220818A (ja) * 2009-09-10 2014-11-20 アップル インコーポレイテッド デジタルビデオレコーダのための動画像編集および再フォーマット
JPWO2013038585A1 (ja) * 2011-09-14 2015-03-23 日本電気株式会社 リソース最適化方法、ipネットワークシステムおよびリソース最適化プログラム
US9438498B2 (en) 2011-09-14 2016-09-06 Nec Corporation Resource optimization method, IP network system and resource optimization program
JP2014200038A (ja) * 2013-03-29 2014-10-23 株式会社メガチップス 画像処理装置
US9986243B2 (en) 2013-03-29 2018-05-29 Megachips Corporation Image processor
JP2017509203A (ja) * 2014-01-15 2017-03-30 アビジロン コーポレイション 異なる符号化パラメータを用いて符号化された複数の符号化物のストリーミング
US10567765B2 (en) 2014-01-15 2020-02-18 Avigilon Corporation Streaming multiple encodings with virtual stream identifiers
US11228764B2 (en) 2014-01-15 2022-01-18 Avigilon Corporation Streaming multiple encodings encoded using different encoding parameters
JP2018056948A (ja) * 2016-09-30 2018-04-05 株式会社東芝 エンコーダ装置およびエンコード方法

Also Published As

Publication number Publication date
JP4401861B2 (ja) 2010-01-20

Similar Documents

Publication Publication Date Title
US8219702B2 (en) Video delivery apparatus and method
US8160129B2 (en) Image pickup apparatus and image distributing method
JP4341616B2 (ja) ネットワークカメラシステムおよびネットワークカメラ制御プログラム
JP3668110B2 (ja) 画像伝送システムおよび画像伝送方法
AU2005306791A1 (en) Method and apparatus for controlling a video surveillance display
KR20080007141A (ko) 개선된 사전-알람 비디오 버퍼
EP1480460A1 (en) Camera server and image distribution method
WO2017203790A1 (ja) 動画分割装置及び監視方法
JP4401861B2 (ja) 画像処理装置およびその制御方法
US6412013B1 (en) System for controlling data output to a network
CN108696505A (zh) 视频分发设备、视频接收设备、视频分发方法和记录介质
JP2013012833A (ja) 送信装置及び送信装置の制御方法
JP6089846B2 (ja) 映像配信システム及びデコーダ並びに映像配信方法
JP2006174280A (ja) 画像処理装置、画像処理方法及びそのプログラム
JP2008263443A (ja) 情報処理装置および方法、並びにプログラム
JP2012137900A (ja) 映像出力システム、映像出力方法及びサーバ装置
JP4371859B2 (ja) 動画情報伝送方法および装置
JP5353837B2 (ja) 通信装置、通信方法、および通信プログラム
JP2011234233A (ja) 映像配信装置及び映像配信方法
JP2003309847A (ja) 画像伝送方法および画像伝送装置
KR101732995B1 (ko) 스트리밍 레이턴시 최소화 시스템 및 이를 사용하는 방법
JP7327953B2 (ja) 動画配信装置、動画配信方法及びプログラム
JP2018139349A (ja) 映像処理装置及び映像処理プログラム
JP4892541B2 (ja) 画像伝送方法および画像伝送システム
JP2008278378A (ja) 撮像装置、ネットワークデバイス、情報処理方法

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070426

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070426

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090401

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090410

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090601

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091026

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091028

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121106

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131106

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees