JPH0844678A - 画像処理装置及びシステム - Google Patents

画像処理装置及びシステム

Info

Publication number
JPH0844678A
JPH0844678A JP6177953A JP17795394A JPH0844678A JP H0844678 A JPH0844678 A JP H0844678A JP 6177953 A JP6177953 A JP 6177953A JP 17795394 A JP17795394 A JP 17795394A JP H0844678 A JPH0844678 A JP H0844678A
Authority
JP
Japan
Prior art keywords
image
cpu
image data
processing
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP6177953A
Other languages
English (en)
Inventor
Shinichi Tanaka
伸一 田中
Tomoaki Kawai
智明 河合
Hideo Noro
英生 野呂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP6177953A priority Critical patent/JPH0844678A/ja
Publication of JPH0844678A publication Critical patent/JPH0844678A/ja
Withdrawn legal-status Critical Current

Links

Landscapes

  • Multi Processors (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

(57)【要約】 【目的】 複数のCPUを備え、各CPUの負荷が動的
に変化したり、各CPUの性能が異なったり、また、そ
れらが組み合わされた状況においても、全体として最も
処理効率が高くなるように画像データを分割して処理す
ることができる画像処理装置及びシステムを提供する。 【構成】 CPU16〜18の性能及び現在の負荷状況
をCPU管理テーブル14で管理し、それより各CPU
の予測効率を算出して、その結果に応じて画像データ管
理部13で分割された画像データをスケジューラ12が
各CPUに分配する。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は画像処理装置及びシステ
ムに関し、特にマルチプロセッシングが可能な画像処理
装置及びシステムに関する。
【0002】
【従来の技術】従来より、画像処理においては大量の画
像データを高速に処理したいというニーズが大きい。従
って、複数のCPUを1台の計算機上に載せた、SIM
D(Single Instruction Multiple Data stream)型や
MIMD(Multiple Instruction Multiple Data strea
m)型のコンピュータを使用して画像処理を行う技術が
開発されてきた。SIMD型のコンピュータを使用する
場合には、処理対象である画像データを複数領域に分割
して各CPUに各領域毎の処理を割り振ることにより、
複数領域に対して同時に同じ処理を行う。また、MIM
D型のコンピュータを使用する場合には、処理対象であ
る画像データを複数領域に分割してSIMD型のように
各CPUに割りあてて処理したり、また、画像処理を各
プロセス毎に、各CPUに割りあてることもある。
【0003】また、複数台のコンピュータが高速のネッ
トワークで接続されている場合には、ネットワークで接
続された複数のコンピュータに対して画像処理を割りあ
てて分散処理を行うことにより、全体の処理速度の向上
を図っている。
【0004】
【発明が解決しようとする課題】しかしながら、上述し
た従来のSIMD型コンピュータや、各CPUの役割が
予め決められているMIMD型コンピュータにおいて、
各CPUの性能は一定であり、各CPUにかかる負荷も
予測できる。従って画像処理を行う場合に、処理効率が
最適となるように、画像データの分割方法を予め決めて
おくことができる。しかし、他の処理が同時に実行され
るようなMIMD型のコンピュータを使用する場合に
は、他の処理の実行状況によって画像処理の処理時間が
変動するために、画像処理をするのに最も処理効率が良
いCPUは、実際に処理を行う時点でないと決定できな
い。そのために、MIMD型のコンピュータを用いて複
数のCPUに処理を分割させようとする場合、画像デー
タの分割方法やCPUの割りあて方を固定としていたの
では、全体的な処理効率が最適とはならないという問題
があった。
【0005】また、ネットワーク上に接続された複数台
のコンピュータに処理を分散させて実行効率を上げよう
とする場合においても、上述した場合と同様に実行時点
での各コンピュータの状況及びネットワークの状況を判
断して、画像データの分割方法や各処理装置の割りあて
を決定しなければ、処理効率は良くならないという問題
があった。
【0006】さらに、複数のCPUを備えるマルチCP
Uタイプのシステムにおいても、ネットワーク上に複数
のコンピュータが接続されたシステムでも、処理実行途
中に各CPUの負荷状況は変化してしまう可能性があ
り、従って処理実行前に各CPうに最適のジョブスケジ
ューリングを行っても、実際に最適な処理効率が得られ
るとは限らないという問題があった。
【0007】従って本発明においては、上述した課題を
解決するために、各CPUの負荷が動的に変化したり、
各CPUの性能が異なったり、また、それらが組み合わ
された状況においても、全体として最も処理効率が高く
なるように画像データを分割して処理することができる
画像処理装置及びシステムを提供することを目的とす
る。
【0008】
【課題を解決するための手段】上述した目的を達成する
ために、本発明は以下の構成を備える。
【0009】即ち、複数のCPUを有する画像処理装置
において、各CPUの負荷の状況を判断する負荷判断手
段と、画像処理対象の画像データを保持する画像データ
保持手段と、前記画像データ保持手段に保持された画像
データを複数の部分画像に分割し、前記負荷判断手段の
判断結果に基づいて前記複数の部分画像のそれぞれを前
記CPUに割り当てるデータ割り当て手段と、各CPU
により処理された部分画像を統合して処理済み画像デー
タとして出力する画像統合手段とを備えることを特徴と
する。
【0010】更に、各CPUの性能を判断する性能判断
手段を更に含み、前記データ割り当て手段は前記負荷判
断手段の判断結果と前記性能判断手段の判断結果とに基
づいて各CPUにデータを割り当てることを特徴とす
る。
【0011】例えば、前記データ割り当て手段は画像デ
ータをCPUの数以上の部分画像に分割し、処理が終了
したCPUに順次部分画像を表わす画像データを割り当
てることを特徴とする。
【0012】例えば、前記データ割り当て手段により各
CPUに割り当てられた部分画像の処理結果が画像デー
タ全体に影響を及ぼす場合に、前記画像統合手段は各C
PUの処理結果である全画像分の画像データを統合する
ことを特徴とする。
【0013】例えば、前記データ割り当て手段は画像デ
ータの特徴により処理時間のかかる領域は小さく分割
し、処理時間のかからない領域は大きく分割することを
特徴とする。
【0014】また、複数のCPUを有する画像処理装置
において、各CPUの負荷の状況を判断する負荷判断手
段と、画像処理対象の画像データを保持するために各C
PUに接続されたデータ保持手段と、画像データを複数
の部分画像に分割し、前記負荷判断手段の判断結果に基
づいて前記複数の部分画像のそれぞれを各CPUのデー
タ保持手段に割り当てるデータ割り当て手段と、部分画
像毎の各CPUの処理結果を統合して1つの画像データ
として出力する画像統合手段とを備えることを特徴とす
る。
【0015】
【作用】以上の構成により、各CPUの負荷が動的に変
化したり、各CPUの性能が異なったり、また、それら
が組み合わされた状況においても、各CPUの予測効率
を判断して全体で最も処理効率が高くなるように画像デ
ータを分割して処理することができるという特有の作用
効果が得られる。
【0016】
【実施例】以下、本発明に係る一実施例について図面を
参照して詳細に説明する。
【0017】<第1実施例>図1は、本実施例の画像処
理装置の構成を示すブロック図である。図1において、
1は画像データを入力するスキャナ,TVカメラ等の画
像入力部、2は画像データを表示するCRT等の画像表
示部、3は操作者が手操作入力を行うキーボード等の手
操作入力部、4は画像を出力するプリンタ等の画像出力
部、5は画像入力部1から入力された画像データに対し
て、後述する種々の画像処理を行って、画像表示部2や
画像出力部4に出力する画像処理部である。尚、画像入
力部1及び画像出力部4は他装置との通信による画像デ
ータの入出力を行ってもよい。
【0018】次に、上述した画像処理部5の詳細構成を
図2のブロック図に示す。本実施例の画像処理装置はC
PUを複数備えたマルチプロセッサ型となっている。図
2において、16、17、18は実際に画像処理を実行
するCPUである。11はRAM又はROM等により構
成され、実行する画像処理プログラムを格納しているプ
ログラム管理部、12は画像処理要求に従って、各CP
U16〜18に処理を分散して割り振る、いわゆるスケ
ジューリングを行うスケジューラ、13は処理対象の画
像データを管理する画像データ管理部、14は例えばC
PU16〜18等、本実施例装置において使用可能なC
PUのアドレス及び性能、また、現在の負荷状況を管理
しているCPU管理テーブルである。15は各種画像処
理に関する基本的なアルゴリズム情報が関数として格納
されているアルゴリズムテーブルである。22はRAM
であり、各CPU16〜18において作業領域として共
有して使用される。図2に示す各構成は、バスにより接
続されている。
【0019】尚、スケジューラ12は、CPU16〜1
8のうちのいずれかにより、制御されている。また、プ
ログラム管理部11に格納されている画像処理プログラ
ムは操作者により作成され、アルゴリズムテーブル15
に登録されている関数を利用して動作する。また、アル
ゴリズムテーブル15内の関数のアルゴリズムを変更し
て利用する場合には、変更したアルゴリズムの関数を作
成し、アルゴリズムテーブル15に登録する。尚、アル
ゴリズムテーブル15に新たに関数を登録する場合、該
関数が画像データをどのように分割して処理できるかの
情報も登録しておく必要がある。
【0020】一般に画像処理においては、その処理のア
ルゴリズムによって画像データの分割方法が制限され
る。この画像データの分割処理は、例えば図3に示すよ
うに分類される。図3は、入力画像の画素範囲と、画像
処理の結果の出力画像の画素範囲との関係を分類して示
す図である。図3に示すように画像処理のタイプとして
は、1画素を処理して1画素を得るタイプ、ある近傍領
域を処理して1画素を得るタイプ、ある近傍領域を処理
して近傍領域を得るタイプ、全体を処理して1画素を得
るタイプ、全体を処理してある近傍領域を得るタイプ、
全体を処理して全体を得るタイプ、1ラインを処理して
1ラインを得るタイプ等がある。尚、画像全体を処理し
て全体を得る場合には、分割処理できないことは自明で
ある。
【0021】次に、上述した図2に示すスケジューラ1
2の動作について説明する。スケジューラ12は、画像
処理の要求が発生した場合に、使用可能な複数のCPU
(CPU16〜18)またはコンピュータに対して処理
をそれぞれ分割して割り振り、全体としての処理効率を
最大にすることを目的としている。
【0022】以降、複数のCPUへの処理の割り振り結
果、即ち、どのCPUにどれだけの画像処理を分担させ
るかをスケジュールと称する。スケジューラ12におい
ては、スケジュールを決定するための情報として、画像
処理アルゴリズムテーブル15から画像処理で使用する
各関数における画像データの分割方法、また、CPU管
理テーブル14から各CPU16〜18の性能を調べ
て、利用する。
【0023】スケジューラ12の動作を図4のフローチ
ャートを参照して説明する。ステップS601におい
て、スケジューラ12は画像処理プログラム管理部11
からの処理要求を待ち、処理要求が発生すればステップ
S602に進み、アルゴリズムテーブル15を調べるこ
とによって、画像をどう分割できるかの情報を得る。次
にステップS603に進み、CPU管理テーブル14に
基づいて現在利用可能なCPU(例えば、CPU16〜
18)の数、及びそれぞれのCPUの性能を調べ、ステ
ップS604でスケジューラは各CPUに現在の負荷の
状態を問い合わせる。ここで、CPU16〜18が利用
可能であるとする。そして、スケジューラ12はステッ
プS602〜604で得られた情報を基に、ステップS
605でどのCPUにどれだけの画像データを渡して処
理させるか、即ちスケジュールを決定する。
【0024】本実施例においては、全画像データを後述
する各CPUの予測効率の比に基づいて分割し、各CP
Uに割り当てる。従って、利用可能なCPUのそれぞれ
に割り当てられる画像データ量は異なっている。
【0025】スケジュールが決まれば、その後ステップ
S606において、各CPU16〜18へ画像データの
分割方法とその割当を通知する。次に、ステップS60
7において各CPU16〜18へ画像処理コマンドを通
知する。各CPU16〜18では、スケジューラ12か
ら通知された画像処理コマンドに基づいて画像データ管
理部13で管理されているRAM22上の画像データを
処理し、処理が終了するとその旨のメッセージをスケジ
ューラ12へ通知する。尚、この時、画像データ管理部
13では、RAM22上において画像の同一領域を複数
のCPUが同時にアクセスすることが無いように排他制
御を行う。スケジューラ12は、各CPUが画像処理を
実行している間は各CPUからの通知を待っているか、
又は待ちながら別の処理を実行していてもよい。
【0026】ステップS608において、スケジューラ
12はCPU16〜18のうちの1つからの終了メッセ
ージを受け取ると、ステップS609で処理を割り当て
られたCPU16〜18の全てから終了メッセージを受
け取ったか否か、即ち、全CPUが処理終了したか否か
を確認し、終了していなければステップS608へ戻
り、他のCPUからのメッセージを待つ。全てのCPU
の処理が終了したのであればステップS610へ進み、
スケジューラ12はプログラム管理部11へ画像処理の
終了を通知し、画像データ管理部13で各部分画像の処
理結果をRAM22上で統合して1つの画像とするよう
に依頼する。
【0027】以上説明したようにして、スケジューラ1
2では各CPUの画像処理のスケジュールを制御する。
【0028】次に、図2に示す画像データ管理部13に
ついて、詳細に説明する。画像データ管理部13は入力
画像、及び処理後の画像を管理しており、スケジューラ
12の指示に従って画像データの流れを制御する。ただ
し、画像データ管理部13は画像データの管理を行えば
よく、画像データはプロセス内、RAM22内、その他
のファイル等、どこに存在していてもよい。本実施例で
は、不図示のファイル内に画像データが格納されている
とする。
【0029】RAM22も画像データ管理部13によっ
て管理されており、画像データの流れは次のようにな
る。画像データ管理部13はプログラム管理部11から
スケジューラ12へ要求した処理対象画像データをファ
イルI/Oの機能を用いて読み出し、RAM22上に展
開する。この画像データをスケジューラ12の指示に従
って分割し、各CPU16〜18へ転送する。各CPU
で処理が終了すると、画像データ管理部13はそれぞれ
のCPUから処理結果の画像データを回収して統合し、
処理結果としてファイルへ書き出し、プログラム管理部
11へ通知する。
【0030】本実施例においては、スケジューラ12に
より使用可能な複数のCPUに対して処理をそれぞれ分
割して割り振るが、この時、各CPUの処理効率を予め
予測することが必要となる。この予測されるCPUの処
理効率を以下、予測効率と称し、本実施例における各C
PUの予測効率の求めかた、及び画像の分割方法につい
て説明する。
【0031】CPUの性能をs、CPUの負荷をloa
d(100%の負荷で“1”となる)とすると、CPU
の予測効率peは以下の式で表わされる。
【0032】pe=(1−load)×s ここで、CPUの性能sは実測値を基にして決定するの
が最も良いが、例えばSPECint92(整数演算性
能)や、SPECft92(浮動小数点演算性能)といっ
たベンチマークプログラムによるCPUの性能の指標を
基にして決めてもよい。また、CPUの負荷load
は、CPUが現在どれだけ利用されているかを表すもの
であるため、CPUに実際に問い合わせることにより求
められる。
【0033】また、画像の分割は、各CPUに対する処
理の割り当てが予測効率peに比例するように決定す
る。ただし、画像によってはその処理の種類によって、
分割できる場所が限定される場合がある。そのような場
合には、なるべく予測効率と比例するように、分割可能
な場所で分割するように調整する。
【0034】以下、本実施例における画像分割の例を示
す。
【0035】例えば、6つのCPUが利用可能であり、
それぞれの予測効率が1.0,0.6,0.5,0.
2,0.2,0.0であり、画像の大きさが512×5
12であり、処理はライン単位であってラインの途中で
切断できないとする。この場合に、512ラインの画像
を10:6:5:2:2に比例配分すると、それぞれ2
0,12,10,4,4,0ラインの割り当てとなる。
しかし、これでは2ライン余ってしまうため、実際には
予測効率の最も高いCPUに余りを割り当て、それぞれ
22,12,10,4,4,0ラインに分割して、処理
を行う。
【0036】一方、処理が画素単位の場合には、512
×512を10:6:5:2:2に比例分配し、余りを
予測効率に応じて分配して割り当てると、それぞれ10
4860,62914,52428,20971,20
971が割り当てられる。
【0037】以上説明したように本実施例によれば、複
数のCPUを備えるシステムにおいて、各CPUが他の
ジョブを同時に処理するために動的に負荷が変化する状
況や、各CPUの性能が異なる状況等においても、各C
PUの予測効率を判断することにより、最も効率良く画
像処理を行うことが可能となる。
【0038】<第2実施例>以下、本発明に係る第2実
施例について、図面を参照して説明する。
【0039】第2実施例における画像処理装置の構成は
上述した第1実施例に示す図1と同様であるが、画像処
理部5の詳細構成が第1実施例と異なる。第2実施例に
おける画像処理部5の詳細構成を図5のブロック図に示
す。
【0040】図5において、上述した図2と同様の構成
には同一番号を付し、説明を省略する。図5において、
CPU16〜18は、それぞれ固有のRAM23,2
4,25を備える。
【0041】以下、第2実施例におけるスケジューラ1
2の処理を、図6のフローチャートを参照して説明す
る。
【0042】図6は第2実施例のスケジューラ12の動
作を説明するフローチャートであり、ステップS701
〜ステップS705までは上述した第1実施例の図4に
示すステップS601〜ステップS605と同様の処理
であるため、説明を省略する。
【0043】ステップS706において、スケジューラ
12は画像データの分割方法をCPUではなく、画像デ
ータ管理部13へ送る。そして、ステップS707でス
ケジューラ12は画像データ管理部13に対して、各C
PU16〜18へ分割した画像データを転送するように
要求を出す。そしてステップS708において、各CP
U16〜18に対して画像処理コマンドを発行する。す
ると各CPU16〜18では、スケジューラ12から通
知された画像処理コマンドに基づいて、画像データ管理
部13から送られた画像データそれぞれのRAM23〜
25上で処理し、処理が終了するとその旨のメッセージ
をスケジューラ12へ通知する。また、処理された画像
データは、画像データ管理部13へ送られる。
【0044】そしてステップS709において、スケジ
ューラ12はCPU16〜18のうちの1つからの終了
メッセージを受け取ると、ステップS710で処理を割
り当てられたCPU16〜18の全てから終了メッセー
ジを受け取ったか否か、即ち、全CPUが処理終了した
か否かを確認し、終了していなければステップS709
へ戻り、他のCPUからのメッセージを待つ。全てのC
PUにおいて処理が終了したのであればステップS71
1へ進み、プログラム管理部11へ画像処理の終了を通
知し、画像データ管理部13へ各部分画像の処理結果の
統合を依頼する。
【0045】以上説明したようにして、スケジューラ1
2では各CPUの画像処理のスケジュールを制御する。
【0046】即ち、第2実施例においては、スケジュー
ラ12において画像データの分割方法を画像データ管理
部13へ送り、画像データ管理部13では、その分割方
法に従って分割した画像データを各CPUへ転送するこ
とにより、各CPUの作業領域が共通でない場合にも、
効率良く画像処理を行うことができる。
【0047】また、第2実施例における方法は、図5に
示す複数のCPUを備える画像処理装置のみでなく、例
えば図7に示すように、複数のコンピュータ41〜44
をネットワーク45で接続した画像処理システムにおい
ても適用可能である。この場合、コンピュータ41〜4
4のうちのいずれかが図5に示すCPU16〜18及び
RAM23〜25以外の構成を備えており、そのコンピ
ュータにより第2実施例における画像処理が統括され
る。
【0048】<第3実施例>以下、本発明に係る第3実
施例について、図面を参照して説明する。
【0049】第3実施例における画像処理装置の構成及
び画像処理部5の詳細構成は、上述した第1実施例に示
す図1及び図2と同様であるため、説明を省略する。
【0050】以下、第3実施例におけるスケジューラ1
2の処理を、図8のフローチャートを参照して説明す
る。
【0051】図8は第3実施例のスケジューラ12の動
作を説明するフローチャートであり、ステップS801
〜ステップS805までは上述した第1実施例の図4に
示すステップS601〜ステップS605と同様の処理
であるため、説明を省略する。
【0052】ステップS806において、スケジューラ
12は各CPUへ画像処理コマンド及び処理する部分画
像の情報を送る。そして、ステップS807で、処理を
終了したCPUが現れるのを待つ。処理を終了したCP
Uが現れるとステップS808に進み、全部分画像につ
いて処理が終了したか否かを判定する。未処理の部分画
像があればステップS809に進み、ステップS807
で処理終了を確認されたCPUに未処理の部分画像情報
を転送する。一方、ステップS808において全部分画
像、即ち全画像領域について処理が終了したと判定され
ると、ステップS810に進んで処理結果の画像データ
を画像データ管理部13で統合するよう指示し、プログ
ラム管理部11へ通知する。
【0053】以上説明したようにして、スケジューラ1
2では各CPUの画像処理のスケジュールを制御する。
【0054】例えば、利用可能なCPU数が5である場
合には、画像データをCPUの数5より大きな数の同じ
大きさの部分画像に分割する。例えば、画像データを1
5個の部分画像に分割する。そして、まずそのうちの5
個の部分画像をそれぞれのCPUへ割り当てる。各CP
Uの負荷の状況や性能の差により、処理が終了する時間
はそれぞれ異なるため、第3実施例においては早く終了
したCPUに、順次他の部分画像を転送して処理を行
う。このとき、利用可能なCPUの数と画像データを分
割する数の関係はあらかじめ定めておいてもよいし、何
らかの評価関数を用いて、画像処理装置内で自動的に決
定されるようにしてもよい。
【0055】また、第3実施例は図7に示す複数台のコ
ンピュータを接続したネットワークシステムにおいても
適用可能である。この場合、CPUの数に対する画像デ
ータの分割数の関係が、通信時間とも関係してくる。ネ
ットワークシステムにおいては処理時間全体に占める通
信時間の割合が大きいため、処理する画像データの分割
数を大きくすると、各コンピュータへ通信時間がかかっ
てしまい効率的ではない。しかし、画像データの分割数
を小さくすると、一部のコンピュータのみに負荷が集中
してしまう可能性がある。そのため、例えば利用可能な
CPUの数の2倍とか3倍といったように、画像データ
の分割数にはある程度の範囲を設定すると良い。
【0056】尚、第3実施例におけるスケジューラの処
理は、上述した図5に示す構成でももちろん適用可能で
ある。
【0057】以上説明したように第3実施例によれば、
各CPUの処理途中でその負荷が大きく変化するような
場合でも、処理可能なCPUの数以上に入力画像を分割
し、処理が終了したCPUに順次部分領域を割り当てる
ことにより、負荷の変化に関らず処理効率を高めること
ができる。
【0058】<第4実施例>以下、本発明に係る第4実
施例について、図面を参照して説明する。
【0059】第4実施例における画像処理装置の構成及
び画像処理部5の詳細構成は、上述した第2実施例に示
す図1及び図5と同様であるため、説明を省略する。
【0060】第4実施例においては、画像の部分領域を
対象とした処理が全体の領域に影響を及ぼす場合の例を
示す。
【0061】画像の部分領域を対象とした処理が全体の
領域に影響を及ぼす場合の例として、例えば画像中から
直線等、パラメータで表現できる図形を抽出するハフ
(Hough)変換について考える。ハフ変換は、入力
画像の各画素毎に処理を実行し、結果のパラメータ空間
の2次元配列上の何処かのセルの値を変化させる。以
下、ハフ変換の処理例を図9を参照して説明する。ハフ
変換は、図9の(a)に示すように、点A,B,C,D
を含む直線αを ρ=x・cosθ+y・sinθ ・・・ (式1) で表現したときに、x軸、y軸の2次元で表せる画像
を、図9の(b)に示すρ軸、θ軸の2次元のパラメー
タ空間上の正弦曲線に変換するものである。尚、図9の
(a)においてρは原点から直線へ降ろした垂線の長
さ、θは垂線とx軸とのなす角である。即ち、例えば図
9の(a)に示す点Aを通る全ての直線群が、図9の
(b)に示す曲線Aで表わされる。そして、図9の
(a)に示されるxy空間の各点(例えば、A,B,
C,D)について、式1を満足するような図9の(b)
に示す(ρ,θ)の曲線(例えばA,B,C,D)を計
算し、ρθ空間上の対応する曲線をカウントアップして
いく。そして最終的に、図9の(b)に示すρθ空間で
のピークαを検出することにより、そのピークαを通る
(ρ,θ)パラメータ空間上の曲線A,B,C,Dに対
応する、xy空間中の点A,B,C,Dを通る直線αが
存在することがわかる。即ちハフ変換においては、xy
空間の直線がρθ空間上の1点で表現される。
【0062】以上説明したような処理の場合、入力画像
を適当な方法で分割して各CPUに割り当てることは可
能であるが、同時に処理を行う全てのCPUが、処理結
果であるρθ空間を格納するための、同サイズの画像デ
ータ領域をそれぞれ独立して持つことが必要である。
【0063】これに対して、上述した第1実施例〜第3
実施例においては、入力画像内における処理対象の部分
領域の位置と、その部分領域を処理した結果の出力画像
内における位置とは一致していた。従って、入力画像を
分割した方法と全く逆に処理結果を統合すれば、出力画
像を得ることができた。
【0064】しかしながら第4実施例においては、同じ
座標に対する各CPUの処理結果をそれぞれ加算すると
いう画像の統合を行う必要がある。この様子を図10、
図11に示す。図10は、上述した第1実施例〜第3実
施例における画像の統合方法を示しており、入力画像、
出力画像ともに同じ位置、同じ大きさで画像が分割され
る。一方、図11は第4実施例における画像の統合方法
を示しており、入力画像の分割方法に関わらず、各CP
Uは同じ大きさの画像データ領域(P1,P2,P3)
を有しており、そこに処理結果を格納する。そして、各
CPUの画像データ領域(P1,P2,P3)におい
て、その同じ位置の処理結果を加算することにより、出
力結果を得る。
【0065】従って第4実施例においては、入力画像の
各部分領域を処理した結果が出力画像の全体に影響する
ような場合でも、入力画像を分割して複数のCPUに割
り当てて、その結果を上記説明したように統合すること
によって、効率良く画像処理を行うことができる。
【0066】尚、第4実施例はハフ変換を例として説明
を行ったが、本実施例はこの例に限定されるものではな
く、パラメータ変換等、部分画像の処理結果が画像全体
に影響を及ぼすような全ての画像処理に対して、適用可
能である。
【0067】また、例えば図2に示すように複数のCP
Uが1つの共有メモリを有する場合には、共有メモリ上
に結果の配列の領域を確保し、複数のCPUからアクセ
スすることにより、処理を行えばよいが、但しこの場合
には、同じアドレスを同時に複数のCPUがアクセスす
ることがないように、排他制御を行う必要がある。
【0068】<第5実施例>以下、本発明に係る第5実
施例について、図面を参照して説明する。
【0069】第5実施例における画像処理装置の構成及
び画像処理部5の詳細構成は、上述した第2実施例に示
す図1及び図5と同様であるため、説明を省略する。
【0070】第5実施例においては、画像の全体領域を
処理対象とし、部分領域の性質によって処理速度が異な
るような画像処理を行う場合の例を示す。このような処
理としては、例えば、ラベリングした領域の特徴量の計
測、特徴点のマッチング、領域分割等がある。
【0071】ラベリングした領域の特徴量の計測におい
て、処理に要する時間は、部分画像中に存在するラベル
リングされた領域数に依存する。従って、各部分画像に
含まれるラベリング領域数が一定になるように画像デー
タを分割することにより、画像全体の処理効率は向上す
る。
【0072】図12に、黒く塗りつぶした領域の特徴量
を計算する例を示す。このような場合には、例えば図1
2の破線の上下の領域に入力画像を分割すると、各領域
とも6個のラベリング領域を有することにより、2つの
CPUに負荷を均等に分割できる。また、各CPUの予
測効率を調べ、その予測効率に合わせて分割位置を変更
することによって、予測効率の高いCPUにはラベル領
域の多い領域を、予測効率の低いCPUにはラベル領域
の少ない領域を割り当てれば良い。こうすることによ
り、全体としての処理効率の向上を図ることができる。
【0073】次に、特徴点のマッチング処理について説
明する。特徴点のマッチングとは、なんらかの方法で画
像中の特徴点を抽出し、それぞれの特徴点が他の画像の
どの画素位置に対応するかを調べる処理である。この処
理は、例えば3次元座標情報を抽出可能なステレオ画像
の対応点を抽出して、特徴点での奥行き情報を得る場合
等に重要な処理である。このような場合には、全体の処
理時間は特徴点の数に依存する。そのため、特徴点の数
が一定になるように、画像を部分領域に分割して各CP
Uに割り当てることにより、全体の処理効率は向上す
る。また、特徴点に対応する位置を調べる必要がある領
域は、撮影条件による拘束からある程度限定することが
できる。従って、例えば図2又は図7に示すように各C
PU又はコンピュータが共有領域を持たない場合には、
全ての画像を各CPUに送る必要はなく、必要な部分だ
けを送ることにより、画像データの転送によるオーバー
ヘッドを少なくすることが可能である。
【0074】また、領域分割処理においては、近傍の画
素の輝度値を比較し、その差が所定値未満である場合
に、それらの画素は同一の領域にあると見なす。そし
て、この処理をその輝度値の差が所定値以上であるよう
な画素がなくなるまで繰り返す。また、各領域の大きさ
を計測して、各領域の大きさが一定以上になるように領
域の統合処理を行う場合もある。
【0075】このような分割処理においては、分割する
画像の特徴に応じて、予めどの程度の繰り返しで処理が
収束するかを予測できることがある。例えば、初めから
同一輝度値の領域に関しては領域の統合処理は不要であ
り、また、同一輝度値でなくても輝度値の差が小さいこ
とから予め分かっている領域については、収束が速いこ
とが予測される。このような統計的な手法を利用するこ
とによって、予め収束の速い領域と、収束の遅い領域と
を区別することが可能である。そして、この情報を利用
して画像の分割方法を決定することができる。
【0076】以上説明したように第5実施例によれば、
画像の全体領域を処理対象とし、部分領域の性質によっ
て処理速度が異なるような画像処理を行う場合において
も、複数のCPUに画像を効率良く割り当てることによ
り、効率良く画像処理を行うことができる。
【0077】また、第5実施例における画像処理装置
は、図2、又は図7に示すように構成でも実現可能であ
る。
【0078】尚、本発明は、複数の機器から構成される
システムに適用しても1つの機器から成る装置に適用し
ても良い。また、本発明は、システム或は装置にプログ
ラムを供給することによって達成される場合にも適用で
きることはいうまでもない。
【0079】
【発明の効果】以上説明したように、本発明によれば、
複数のCPUからなり、処理を各CPUに分割して割り
当てることによって画像処理を行う画像処理システムに
おいて、各CPUの負荷が動的に変化する状況や、各C
PUの性能が異なる状況、またそれらが組み合わされた
状況においても、処理を実行する時点で、各CPUの予
測効率を動的に判断しながら、全体で最も処理効率が高
くなるように入力画像を分割して画像処理を行うことが
可能となる。
【0080】更に、処理途中で負荷が大きく変化するよ
うな場合には、処理可能なCPUの数以上に入力画像を
分割し、処理が終了したCPUに順次部分領域を割り当
てることにより、負荷の変化に関らず処理効率を高める
ことができる。
【0081】また、入力画像の各部分領域を処理した結
果が出力画像の全体に影響するような場合でも、入力画
像を分割して複数のCPUに割り当てて、その結果を全
て統合することによって、効率良く画像処理を行うこと
ができる。
【0082】更に、入力画像の部分領域の性質によって
処理速度が異なるような処理をする場合には、部分領域
の性質に従って分割方法を変えることによって、各CP
Uの処理時間の差が少なくなるように分割することが可
能となり、全体としての処理効率の向上を図ることがで
きる。
【0083】
【図面の簡単な説明】
【図1】本発明に係る第1実施例における画像処理装置
の構成を示すブロック図である。
【図2】本実施例における画像処理部の詳細構成を示す
ブロック図である。
【図3】本実施例における入力画像の画素範囲と画像処
理の結果の出力画像の画素範囲との関係を分類して示す
図である。
【図4】本実施例におけるスケジューラの動作を説明す
るフローチャートである。
【図5】本発明に係る第2実施例における画像処理部の
詳細構成を示すブロック図である。
【図6】本発明に係る第2実施例におけるスケジューラ
の動作を説明するフローチャートである。
【図7】本発明に係る第2実施例における画像処理ネッ
トワーク構成を示す図である。
【図8】本発明に係る第3実施例におけるスケジューラ
の動作を説明するフローチャートである。
【図9】本発明に係る第4実施例におけるハフ変換を説
明するための図である。
【図10】本発明に係る第1実施例から第3実施例まで
の処理における入力画像と出力画像との分割領域の対応
を示す図である。
【図11】本発明に係る第4実施例における入力画像と
出力画像との対応を示す図である。
【図12】本発明に係る第5実施例におけるラベリング
された入力画像の分割例を示す図である。
【符号の説明】
1 画像入力部 2 表示部 3 手操作入力部 4 画像出力部 5 画像処理部 11 プログラム管理部 12 スケジューラ 13 画像データ管理部 14 CPU管理テーブル 15 アルゴリズムテーブル 16,17,18 CPU 22 RAM
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 G06T 1/20 // G06T 7/00

Claims (15)

    【特許請求の範囲】
  1. 【請求項1】 複数のCPUを有する画像処理装置にお
    いて、 各CPUの負荷の状況を判断する負荷判断手段と、 画像処理対象の画像データを保持する画像データ保持手
    段と、 前記画像データ保持手段に保持された画像データを複数
    の部分画像に分割し、前記負荷判断手段の判断結果に基
    づいて前記複数の部分画像のそれぞれを前記CPUに割
    り当てるデータ割り当て手段と、 各CPUにより処理された部分画像を統合して処理済み
    画像データとして出力する画像統合手段とを備えること
    を特徴とする画像処理装置。
  2. 【請求項2】 各CPUの性能を判断する性能判断手段
    を更に含み、 前記データ割り当て手段は前記負荷判断手段の判断結果
    と前記性能判断手段の判断結果とに基づいて各CPUに
    データを割り当てることを特徴とする請求項1記載の画
    像処理装置。
  3. 【請求項3】 前記データ割り当て手段は画像データを
    CPUの数以上の部分画像に分割し、処理が終了したC
    PUに順次部分画像を表わす画像データを割り当てるこ
    とを特徴とする請求項1記載の画像処理装置。
  4. 【請求項4】 前記データ割り当て手段により各CPU
    に割り当てられた部分画像の処理結果が画像データ全体
    に影響を及ぼす場合に、前記画像統合手段は各CPUの
    処理結果である全画像分の画像データを統合することを
    特徴とする請求項1記載の画像処理装置。
  5. 【請求項5】 前記データ割り当て手段は画像データの
    特徴により処理時間のかかる領域は小さく分割し、処理
    時間のかからない領域は大きく分割することを特徴とす
    る請求項1記載の画像処理装置。
  6. 【請求項6】 複数のCPUを有する画像処理装置にお
    いて、 各CPUの負荷の状況を判断する負荷判断手段と、 画像処理対象の画像データを保持するために各CPUに
    接続されたデータ保持手段と、 画像データを複数の部分画像に分割し、前記負荷判断手
    段の判断結果に基づいて前記複数の部分画像のそれぞれ
    を各CPUのデータ保持手段に割り当てるデータ割り当
    て手段と、 部分画像毎の各CPUの処理結果を統合して1つの画像
    データとして出力する画像統合手段とを備えることを特
    徴とする画像処理装置。
  7. 【請求項7】 各CPUの性能を判断する性能判断手段
    を更に含み、 前記データ割り当て手段は前記負荷判断手段の判断結果
    と前記性能判断手段の判断結果とに基づいて各CPUに
    データを割り当てることを特徴とする請求項6記載の画
    像処理装置。
  8. 【請求項8】 前記データ割り当て手段は画像データを
    CPUの数以上の部分画像に分割し、処理が終了したC
    PUに順次部分画像を表わす画像データを割り当てるこ
    とを特徴とする請求項6記載の画像処理装置。
  9. 【請求項9】 前記データ割り当て手段により各CPU
    に割り当てられた部分画像の処理結果が画像データ全体
    に影響を及ぼす場合に、前記画像統合手段は各CPUの
    処理結果である全画像分の画像データを統合することを
    特徴とする請求項6記載の画像処理装置。
  10. 【請求項10】 前記データ割り当て手段は画像データ
    の特徴により処理時間のかかる領域は小さく分割し、処
    理時間のかからない領域は大きく分割することを特徴と
    する請求項6記載の画像処理装置。
  11. 【請求項11】 複数のコンピュータを有する画像処理
    システムにおいて、 各コンピュータの負荷の状況を判断する負荷判断手段
    と、 画像データを複数の部分画像に分割し、前記負荷判断手
    段の判断結果に基づいて前記複数の部分画像のそれぞれ
    を各コンピュータに割り当てるデータ割り当て手段と、 部分画像毎の各コンピュータの処理結果を統合して1つ
    の画像データとして出力する画像統合手段とを備えるこ
    とを特徴とする画像処理システム。
  12. 【請求項12】 各コンピュータの性能を判断する性能
    判断手段を更に含み、 前記データ割り当て手段は前記負荷判断手段の判断結果
    と前記性能判断手段の判断結果とに基づいて各コンピュ
    ータにデータを割り当てることを特徴とする請求項11
    記載の画像処理システム。
  13. 【請求項13】 前記データ割り当て手段は画像データ
    をコンピュータの数以上の部分画像に分割し、処理が終
    了したコンピュータに順次部分画像を表わす画像データ
    を割り当てることを特徴とする請求項11記載の画像処
    理システム。
  14. 【請求項14】 前記データ割り当て手段により各コン
    ピュータに割り当てられた部分画像の処理結果が画像デ
    ータ全体に影響を及ぼす場合に、前記画像統合手段は各
    コンピュータの処理結果である全画像分の画像データを
    統合することを特徴とする請求項11記載の画像処理シ
    ステム。
  15. 【請求項15】 前記データ割り当て手段は画像データ
    の特徴により処理時間のかかる領域は小さく分割し、処
    理時間のかからない領域は大きく分割することを特徴と
    する請求項11記載の画像処理システム。
JP6177953A 1994-07-29 1994-07-29 画像処理装置及びシステム Withdrawn JPH0844678A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6177953A JPH0844678A (ja) 1994-07-29 1994-07-29 画像処理装置及びシステム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6177953A JPH0844678A (ja) 1994-07-29 1994-07-29 画像処理装置及びシステム

Publications (1)

Publication Number Publication Date
JPH0844678A true JPH0844678A (ja) 1996-02-16

Family

ID=16039975

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6177953A Withdrawn JPH0844678A (ja) 1994-07-29 1994-07-29 画像処理装置及びシステム

Country Status (1)

Country Link
JP (1) JPH0844678A (ja)

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005332298A (ja) * 2004-05-21 2005-12-02 Ricoh Co Ltd 情報処理装置、情報処理方法、情報処理プログラム及び記録媒体
JP2006065459A (ja) * 2004-08-25 2006-03-09 Seiko Epson Corp 画像処理を並列処理で実行する際の負荷の割り付け
JP2006065460A (ja) * 2004-08-25 2006-03-09 Seiko Epson Corp 画像処理を並列処理で実行する際の負荷の割り付け
US7035991B2 (en) 1999-11-01 2006-04-25 Sony Computer Entertainment Inc. Surface computer and computing method using the same
JP2007318420A (ja) * 2006-05-25 2007-12-06 Canon Inc 画像処理装置、画像処理方法、プログラム、及び記憶媒体
JP2007538334A (ja) * 2004-05-20 2007-12-27 インテル コーポレイション ビデオ処理のための階層的プロセッサ構造
JP2008058514A (ja) * 2006-08-30 2008-03-13 Brother Ind Ltd 通信装置及びプログラム
JP2008243216A (ja) * 2002-01-10 2008-10-09 Massively Parallel Technologies Inc 並列処理システム及び方法
JP2009075689A (ja) * 2007-09-19 2009-04-09 Nec Corp データ変換システム
JP2009086789A (ja) * 2007-09-28 2009-04-23 Hitachi Ltd 並列型画像処理装置
JP2009140418A (ja) * 2007-12-10 2009-06-25 Toshiba Corp 電子機器および画像処理方法
US7587716B2 (en) 2003-02-21 2009-09-08 Sharp Kabushiki Kaisha Asymmetrical multiprocessor system, image processing apparatus and image forming apparatus using same, and unit job processing method using asymmetrical multiprocessor
JP2009259231A (ja) * 2008-04-16 2009-11-05 Sharp Corp プリンタコントローラにおける改善されたマルチ処理利用のための方法およびシステム
JP2009271830A (ja) * 2008-05-09 2009-11-19 Nuflare Technology Inc 描画データ分散処理方法およびマスク描画装置
JP2010039511A (ja) * 2008-07-31 2010-02-18 Toshiba Corp パイプライン処理装置、パイプライン処理方法及びパイプライン制御プログラム
JP2010517198A (ja) * 2007-01-30 2010-05-20 アリババ グループ ホールディング リミテッド 分散タスクシステムおよび分散タスク管理方法
JP2010122758A (ja) * 2008-11-17 2010-06-03 Fujitsu Ltd ジョブ管理装置、ジョブ管理方法およびジョブ管理プログラム
WO2010106677A1 (ja) * 2009-03-19 2010-09-23 富士通株式会社 分散処理システム、情報処理装置、分散処理プログラム及び分散処理方法
US7872769B2 (en) 2004-06-09 2011-01-18 Canon Kabushiki Kaisha Divided job scheduler
JP2011123900A (ja) * 2003-02-28 2011-06-23 Aperio Technologies Inc 画像処理及び画像解析用フレームワーク
US8199358B2 (en) 2003-02-28 2012-06-12 Aperio Technologies, Inc. Digital slide image analysis
JP2012514791A (ja) * 2009-01-07 2012-06-28 ソニー株式会社 並列タスクアプリケーションフレームワーク
JPWO2011141992A1 (ja) * 2010-05-10 2013-07-22 トヨタ自動車株式会社 故障診断装置及び故障診断方法
US8571782B2 (en) 2003-01-31 2013-10-29 Robert Bosch Gmbh Computer system for use in vehicles
US8705825B2 (en) 2009-12-11 2014-04-22 Leica Biosystems Imaging, Inc. Signal to noise ratio in digital pathology image analysis
WO2014132608A1 (ja) * 2013-02-26 2014-09-04 日本電気株式会社 並列処理装置、並列処理方法、および並列処理プログラム記憶媒体
JP2017058738A (ja) * 2015-09-14 2017-03-23 富士ゼロックス株式会社 情報処理装置および画像形成装置
WO2017163441A1 (ja) * 2016-03-24 2017-09-28 富士ゼロックス株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
JP2018512081A (ja) * 2015-01-23 2018-05-10 浙江吉利控股集団有限公司Zhejiang Geely Holding Group Co.,Ltd. 移動端末、組合型端末装置、及び、寄せ集め制御方法
US10743009B2 (en) 2015-05-20 2020-08-11 Socionext Inc. Image processing apparatus and image processing method

Cited By (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7035991B2 (en) 1999-11-01 2006-04-25 Sony Computer Entertainment Inc. Surface computer and computing method using the same
JP2008243216A (ja) * 2002-01-10 2008-10-09 Massively Parallel Technologies Inc 並列処理システム及び方法
US8571782B2 (en) 2003-01-31 2013-10-29 Robert Bosch Gmbh Computer system for use in vehicles
US7587716B2 (en) 2003-02-21 2009-09-08 Sharp Kabushiki Kaisha Asymmetrical multiprocessor system, image processing apparatus and image forming apparatus using same, and unit job processing method using asymmetrical multiprocessor
US8780401B2 (en) 2003-02-28 2014-07-15 Leica Biosystems Imaging, Inc. Systems and methods for analyzing digital slide images using algorithms constrained by parameter data
JP2011123900A (ja) * 2003-02-28 2011-06-23 Aperio Technologies Inc 画像処理及び画像解析用フレームワーク
US8199358B2 (en) 2003-02-28 2012-06-12 Aperio Technologies, Inc. Digital slide image analysis
US8467083B2 (en) 2003-02-28 2013-06-18 Aperio Technologies, Inc. Framework for processing the content of a digital image of a microscope sample
US9019546B2 (en) 2003-02-28 2015-04-28 Leica Biosystems Imaging, Inc. Image processing of digital slide images based on a macro
JP2007538334A (ja) * 2004-05-20 2007-12-27 インテル コーポレイション ビデオ処理のための階層的プロセッサ構造
JP4494866B2 (ja) * 2004-05-21 2010-06-30 株式会社リコー 情報処理装置、情報処理方法、情報処理プログラム及び記録媒体
JP2005332298A (ja) * 2004-05-21 2005-12-02 Ricoh Co Ltd 情報処理装置、情報処理方法、情報処理プログラム及び記録媒体
US7872769B2 (en) 2004-06-09 2011-01-18 Canon Kabushiki Kaisha Divided job scheduler
JP2006065460A (ja) * 2004-08-25 2006-03-09 Seiko Epson Corp 画像処理を並列処理で実行する際の負荷の割り付け
JP2006065459A (ja) * 2004-08-25 2006-03-09 Seiko Epson Corp 画像処理を並列処理で実行する際の負荷の割り付け
JP4556554B2 (ja) * 2004-08-25 2010-10-06 セイコーエプソン株式会社 画像処理を並列処理で実行する際の負荷の割り付け
JP2007318420A (ja) * 2006-05-25 2007-12-06 Canon Inc 画像処理装置、画像処理方法、プログラム、及び記憶媒体
JP2008058514A (ja) * 2006-08-30 2008-03-13 Brother Ind Ltd 通信装置及びプログラム
JP4725462B2 (ja) * 2006-08-30 2011-07-13 ブラザー工業株式会社 通信装置及びプログラム
US8533729B2 (en) 2007-01-30 2013-09-10 Alibaba Group Holding Limited Distributed task system and distributed task management method
JP2010517198A (ja) * 2007-01-30 2010-05-20 アリババ グループ ホールディング リミテッド 分散タスクシステムおよび分散タスク管理方法
JP4569614B2 (ja) * 2007-09-19 2010-10-27 日本電気株式会社 データ変換システム
JP2009075689A (ja) * 2007-09-19 2009-04-09 Nec Corp データ変換システム
JP2009086789A (ja) * 2007-09-28 2009-04-23 Hitachi Ltd 並列型画像処理装置
JP2009140418A (ja) * 2007-12-10 2009-06-25 Toshiba Corp 電子機器および画像処理方法
JP2009259231A (ja) * 2008-04-16 2009-11-05 Sharp Corp プリンタコントローラにおける改善されたマルチ処理利用のための方法およびシステム
JP2009271830A (ja) * 2008-05-09 2009-11-19 Nuflare Technology Inc 描画データ分散処理方法およびマスク描画装置
JP2010039511A (ja) * 2008-07-31 2010-02-18 Toshiba Corp パイプライン処理装置、パイプライン処理方法及びパイプライン制御プログラム
JP2010122758A (ja) * 2008-11-17 2010-06-03 Fujitsu Ltd ジョブ管理装置、ジョブ管理方法およびジョブ管理プログラム
US8812639B2 (en) 2008-11-17 2014-08-19 Fujitsu Limited Job managing device, job managing method and job managing program
JP2012514791A (ja) * 2009-01-07 2012-06-28 ソニー株式会社 並列タスクアプリケーションフレームワーク
WO2010106677A1 (ja) * 2009-03-19 2010-09-23 富士通株式会社 分散処理システム、情報処理装置、分散処理プログラム及び分散処理方法
JP5321680B2 (ja) * 2009-03-19 2013-10-23 富士通株式会社 情報処理システム、情報処理装置、分散処理プログラム及び分散処理方法
US8705825B2 (en) 2009-12-11 2014-04-22 Leica Biosystems Imaging, Inc. Signal to noise ratio in digital pathology image analysis
JPWO2011141992A1 (ja) * 2010-05-10 2013-07-22 トヨタ自動車株式会社 故障診断装置及び故障診断方法
WO2014132608A1 (ja) * 2013-02-26 2014-09-04 日本電気株式会社 並列処理装置、並列処理方法、および並列処理プログラム記憶媒体
JPWO2014132608A1 (ja) * 2013-02-26 2017-02-02 日本電気株式会社 並列処理装置、並列処理方法、および並列処理プログラム記憶媒体
US10025603B2 (en) 2013-02-26 2018-07-17 Nec Corporation Parallel processing device, parallel processing method, and parallel processing program storage medium
JP2018512081A (ja) * 2015-01-23 2018-05-10 浙江吉利控股集団有限公司Zhejiang Geely Holding Group Co.,Ltd. 移動端末、組合型端末装置、及び、寄せ集め制御方法
US10743009B2 (en) 2015-05-20 2020-08-11 Socionext Inc. Image processing apparatus and image processing method
JP2017058738A (ja) * 2015-09-14 2017-03-23 富士ゼロックス株式会社 情報処理装置および画像形成装置
WO2017163441A1 (ja) * 2016-03-24 2017-09-28 富士ゼロックス株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
US10650481B2 (en) 2016-03-24 2020-05-12 Fuji Xerox Co., Ltd. Image processing device, image processing method, and non-transitory computer readable medium for image processing

Similar Documents

Publication Publication Date Title
JPH0844678A (ja) 画像処理装置及びシステム
EP1386226B1 (en) Resource balancing in a partitioned processing environment
US6360263B1 (en) Dynamic resource allocation for user management in multi-processor time shared computer systems
JP4621999B2 (ja) 情報処理システム
CN1036877C (zh) 一条多处理器流水线的动态工作量平衡
EP0693737A2 (en) Method and apparatus for managing multiprocessor graphical workload distribution
JP2011230470A (ja) 印刷文書変換装置およびプログラム
US8804145B2 (en) Image processing apparatus, image processing method, and storage medium for realizing high-speed rendering processing
WO2020125396A1 (zh) 一种共享数据的处理方法、装置及服务器
KR20130088513A (ko) 멀티코어 시스템의 태스크 분배 방법 및 장치
US7007150B2 (en) Memory balancing and optimization services
JPH012145A (ja) 仮想計算機システムの資源管理方式
KR20110109074A (ko) 그리드 컴퓨팅 시스템 및 그리드 컴퓨팅 서비스 제공방법
CN117058288A (zh) 图形处理器及方法、多核图形处理系统、电子装置及设备
US20060195608A1 (en) Method and apparatus for distributed processing, and computer product
CN111158904A (zh) 一种任务调度方法、装置、服务器及介质
JP4211645B2 (ja) 専用プロセッサの備わった計算機システム
CN112882787A (zh) 一种数据可视化处理方法、装置、介质及电子设备
JP3728820B2 (ja) 描画処理装置
WO2012107988A1 (ja) メモリ管理プログラム、メモリ管理方法及び情報処理装置
CN115237605B (zh) Cpu与gpu间的数据传输方法及计算机设备
JP2013073570A (ja) 画像処理システム、印刷システム、制御装置、画像処理方法およびプログラム
CN116028183A (zh) 一种图像识别方法、装置、设备及存储介质
CN118277103B (zh) 资源调度管理方法、智能计算云操作系统及计算平台
US11586624B2 (en) Integrated native vectorized engine for computation

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20011002