JP2002259986A - Moving image processing optimizing device and its method - Google Patents

Moving image processing optimizing device and its method

Info

Publication number
JP2002259986A
JP2002259986A JP2001056214A JP2001056214A JP2002259986A JP 2002259986 A JP2002259986 A JP 2002259986A JP 2001056214 A JP2001056214 A JP 2001056214A JP 2001056214 A JP2001056214 A JP 2001056214A JP 2002259986 A JP2002259986 A JP 2002259986A
Authority
JP
Japan
Prior art keywords
observation
moving image
processing
person
template
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2001056214A
Other languages
Japanese (ja)
Inventor
Akira Uchiumi
章 内海
Yasuyuki Sumi
康之 角
Kenji Mase
健二 間瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Media Integration and Communication Research Laboratories
Original Assignee
ATR Media Integration and Communication Research Laboratories
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Media Integration and Communication Research Laboratories filed Critical ATR Media Integration and Communication Research Laboratories
Priority to JP2001056214A priority Critical patent/JP2002259986A/en
Publication of JP2002259986A publication Critical patent/JP2002259986A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a moving image processing optimizing device and its method for making effective use of a usable calculation source for giving best precision thereto by selecting a processing method while considering a calculation amount. SOLUTION: When inputting image signals from cameras 21, 22...2n, observation parts 41, 42,...4n transmit observation times to a trace part 8, receive predicted values for the number of observed people, observation sizes and positional attitudes calculated from trace models and the observation times from the trace part 8, determine the types of necessary template images, and select optimum approximate templates for the template images from the usable calculation source. Person detection processing is performed for each selected approximate template by template matching, and if a detected person is on a list, observation information is transmitted to the trace part 8, and the trace part 8 transmits the observation information in a non-corresponding area to a discovery part 6.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は動画像処理最適化
装置および動画像処理最適化方法に関し、特に、画像処
理において利用可能な計算時間を基準として処理方法を
選択することにより最適な精度が得られる動画像処理最
適化装置および動画像処理最適化方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a moving image processing optimizing apparatus and a moving image processing optimizing method, and more particularly, to selecting a processing method based on a calculation time available in image processing to obtain an optimum accuracy. The present invention relates to a moving image processing optimizing apparatus and a moving image processing optimizing method.

【0002】[0002]

【従来の技術】本願発明者は、特願平11−30818
7号において移動物体追跡装置を提案した。この移動物
体追跡装置では、複数のカメラでそれぞれ独立して画像
を取り込み、観測部で対応するカメラで得られた入力画
像に対して特徴抽出処理を行う。その処理によって得ら
れた特徴量は、追跡部から送られてくる予測位置をもと
に各追跡目標と対応付けられた後、追跡部に送信され
る。
2. Description of the Related Art The present inventor has filed Japanese Patent Application No. Hei 11-30818.
No.7 proposed a moving object tracking device. In this moving object tracking device, images are independently captured by a plurality of cameras, and a feature extraction process is performed on an input image obtained by a corresponding camera in an observation unit. The feature amount obtained by the processing is associated with each tracking target based on the predicted position sent from the tracking unit, and then transmitted to the tracking unit.

【0003】一方、対応がとれなかった特徴量は発見部
に送られ、その発見部では未対応点情報を用いて新規人
物の検出を行い、新規人物の検出結果は、追跡部に送信
される。そして、追跡部では、カルマンフイルタを用い
ることにより、各人物情報が更新される。
[0003] On the other hand, a feature amount that cannot be corresponded is sent to a discovery unit, which uses the uncorresponding point information to detect a new person, and transmits the result of the detection of the new person to the tracking unit. . Then, in the tracking unit, each person information is updated by using the Kalman filter.

【0004】[0004]

【発明が解決しようとする課題】上述の移動物体追跡装
置に代表される画像処理は一般に計算コストが高く、そ
の傾向は解像度,階調数が上がるにつれてより顕著にな
る。たとえば、一辺N画素の正方形画素を処理する場
合、参照される画素数から一般的にO(N2)以上の計
算コストがかかると考えられる。
The image processing represented by the above-described moving object tracking apparatus generally has a high calculation cost, and the tendency becomes more remarkable as the resolution and the number of gradations increase. For example, when processing a square pixel having N pixels on one side, it is generally considered that a calculation cost of O (N 2 ) or more is required from the number of pixels referred to.

【0005】一方でオンライン画像処理システムのよう
に、時系列で連続的に取得される画像群を限られた時間
内に処理しなければならないなど、計算コストの制約を
持つ場合も多く、計算コストの制約を満たすために画像
の解像度を落としたり、処理の一部を省略するという簡
略化が行われてきた。その際、簡略化の結果として、一
般に処理精度は低下する。ここで処理精度とは、たとえ
ばテンプレートマッチングにおける位置推定精度や特徴
判別処理の正答率などを想定している。
[0005] On the other hand, as in an online image processing system, there are many cases in which the calculation cost is restricted, such as the need to process a group of images continuously acquired in time series within a limited time. In order to satisfy the above restrictions, simplification has been performed in which the resolution of the image is reduced or a part of the processing is omitted. At that time, as a result of the simplification, the processing accuracy generally decreases. Here, the processing accuracy is assumed to be, for example, the position estimation accuracy in template matching, the correct answer rate of the feature determination process, and the like.

【0006】オンライン画像処理実現のためには処理の
簡略化事態は避けられないが、計算資源の最適な利用と
いう点では改善の余地が残っている。従来一般に行われ
てきた計算処理の簡略化の程度は画像の内容や撮影対象
の状態に関わらず一律であり、結果としてフレーム落ち
や計算時間の余剰が頻繁に起こっていた。
Although simplification of processing is inevitable for realizing online image processing, there is room for improvement in terms of optimal use of computational resources. Conventionally, the degree of simplification of calculation processing has been uniform irrespective of the content of an image or the state of a shooting target, and as a result, dropped frames and excess calculation time have frequently occurred.

【0007】それゆえに、この発明の主たる目的は、利
用可能な計算時間を考慮しながら処理方法を選択するこ
とで利用可能な計算資源を有効に利用し、最良の精度を
与える動画像処理最適化装置および動画像処理最適化方
法を提供することである。
Therefore, a main object of the present invention is to select a processing method in consideration of an available calculation time, to effectively use available calculation resources, and to optimize moving picture processing to give the best accuracy. It is an object to provide an apparatus and a moving image processing optimization method.

【0008】[0008]

【課題を解決するための手段】この発明は、利用可能な
計算時間を基準として処理方法を選択する選択手段と、
選択手段によって選択された処理方法で許される計算資
源の中で最適な精度を与える最適精度付与手段とを備え
たことを特徴とする。
According to the present invention, there is provided a selection means for selecting a processing method based on available calculation time;
And an optimum accuracy providing means for providing an optimum accuracy among calculation resources permitted by the processing method selected by the selecting means.

【0009】また、他の発明は、利用可能な計算時間を
基準として処理方法を選択することで許される計算資源
の中で最適な精度を与える。
Further, another invention provides an optimum accuracy among calculation resources allowed by selecting a processing method based on available calculation time.

【0010】さらに、計算資源の中で最適な精度で動画
像から画像特徴を抽出することを特徴とする。
Further, the present invention is characterized in that an image feature is extracted from a moving image with an optimum accuracy among calculation resources.

【0011】さらに、計算資源の中で最適な精度で動画
像から画像特徴を抽出し、物体を追跡することを特徴と
する。
Further, the present invention is characterized in that an image feature is extracted from a moving image with an optimum accuracy among calculation resources, and an object is tracked.

【0012】[0012]

【発明の実施の形態】図1はこの発明の一実施形態のブ
ロック図である。図1に示す動画像処理最適化装置は、
カメラ21,22…2nと、観測部41,42…4n
と、発見部6と、追跡部8とから構成されている。観測
部41,42…4nは、それぞれカメラ21,22…2
nに対応して設けられている。観測部41,42…4n
と、発見部6と、追跡部8はそれぞれ互いに独立して動
作することが可能になっている。たとえば、これらは異
なる計算機で構成され、それぞれの計算機はローカルエ
リアネットワークLANで接続されている。
FIG. 1 is a block diagram of one embodiment of the present invention. The moving image processing optimization device shown in FIG.
The cameras 21, 22,... 2n and the observation units 41, 42,.
, A discovery unit 6 and a tracking unit 8. The observation units 41, 42,... 4n are cameras 21, 22,.
n. Observation units 41, 42 ... 4n
, The discovery unit 6 and the tracking unit 8 can operate independently of each other. For example, they are composed of different computers, and each computer is connected by a local area network LAN.

【0013】記号A0は観測部41,42…4nから追
跡部8に送信される対応点(追跡目標)の観測情報を示
し、記号A1は観測部41,42…4nから発見部6に
送信される未対応点(追跡目標と対応の取れない点)の
観測情報を示し、記号A2は追跡部8から観測部41,
42…4nに送信される予測位置情報を示し、記号A3
は発見部6から追跡部8に送信される新規人物の位置情
報(初期値)を示し、記号A4は追跡部8から発見部6
に送信される位置情報(更新後)を示している。
The symbol A0 indicates the observation information of the corresponding point (tracking target) transmitted from the observation units 41, 42... 4n to the tracking unit 8, and the symbol A1 is transmitted from the observation units 41, 42. A2 indicates observation information of an uncorresponding point (a point which cannot correspond to the tracking target), and a symbol A2 indicates the tracking information from the tracking unit 8 to the observation unit 41,
42n indicates predicted position information transmitted to 4n,
Indicates the position information (initial value) of the new person transmitted from the discovery unit 6 to the tracking unit 8;
Shows the position information (after updating) transmitted to the user.

【0014】観測部41,42…4nは、対応するカメ
ラから得られる入力画像に基づき特徴抽出処理を行う。
各観測部41,42…4nは独立に動作し、各観測部4
1,42…4nで得られた特徴量(重心点および距離変
換値)は、後述する追跡部8から送られてくる予測位置
情報A2をもとに追跡目標と対応付けられた後に、観察
時間の情報とともに追跡部8に送信される。対応がとれ
なかった情報量は未対応点の観測情報A1として、発見
部6に送信される。
The observation units 41, 42,... 4n perform feature extraction processing based on input images obtained from corresponding cameras.
Each of the observation units 41, 42,.
The feature amounts (center-of-gravity points and distance conversion values) obtained at 1, 42... 4n are associated with the tracking target based on the predicted position information A2 sent from the tracking unit 8, which will be described later. Is transmitted to the tracking unit 8 together with the information of The information amount for which no correspondence was obtained is transmitted to the discovery unit 6 as observation information A1 of an uncorresponding point.

【0015】発見部6では、送信されてきた未対応点の
観測情報A1を用いて、シーンの中に新たに現れた人物
(新規人物)の検出を行う。新規人物についての検出結
果、すなわち新規人物の位置情報A3は、追跡部8に送
信される。これにより、新規人物は、新たな追跡目標と
して追加される。そして、送信部8において追跡が開始
される。
The discovering unit 6 detects a newly appearing person (new person) in the scene by using the transmitted uncorresponding observation information A1. The detection result of the new person, that is, the position information A3 of the new person is transmitted to the tracking unit 8. Thereby, a new person is added as a new tracking target. Then, tracking is started in the transmission unit 8.

【0016】追跡部8では、発見部6から得られた新規
人物の位置情報A3を初期値とし、各観測部41,42
…4nからの観測情報A0を入力値として、カルマンフ
ィルタを用いて人物の位置情報を更新し、さらに観測モ
デルに基づき位置を予測する。予測位置情報A0は、追
跡部8に送信される。発見部6では、後述するように位
置情報(更新後)A4が更新される。
In the tracking section 8, the position information A3 of the new person obtained from the discovery section 6 is used as an initial value, and the observation sections 41, 42
... Using the observation information A0 from 4n as an input value, the position information of the person is updated using the Kalman filter, and the position is predicted based on the observation model. The predicted position information A0 is transmitted to the tracking unit 8. In the discovery unit 6, the position information (after the update) A4 is updated as described later.

【0017】図2はこの発明の一実施形態で用いられる
人体モデルを示す図である。図2において、X,Y,Z
は世界座標系の3軸を示している。人物MANは楕円柱
hでモデル化している。人物モデルhの中心軸Xhを人
物の回転軸とし、法線軸(回転軸Xhと垂直な短軸方向
の軸)とX軸とがなす角rを人物の姿勢角とする。な
お、人物MANの回転軸Xhは、床面(X軸およびY軸
がなす平面)に対して垂直であると仮定する。カメラ2
1,22…2nは人物の回転軸Xh、すなわちZ軸に垂
直に配置される。
FIG. 2 is a diagram showing a human body model used in one embodiment of the present invention. In FIG. 2, X, Y, Z
Indicates three axes of the world coordinate system. The person MAN is modeled by an elliptic cylinder h. The center axis Xh of the person model h is defined as the rotation axis of the person, and the angle r between the normal axis (the axis in the short axis direction perpendicular to the rotation axis Xh) and the X axis is defined as the posture angle of the person. It is assumed that the rotation axis Xh of the person MAN is perpendicular to the floor (the plane defined by the X axis and the Y axis). Camera 2
.., 2n are arranged perpendicular to the rotation axis Xh of the person, that is, the Z axis.

【0018】図3はこの発明の一実施形態の動作を説明
するためのフローチャートであり、図4は図3の人物検
出処理の具体的な動作を示すフローチャートである。
FIG. 3 is a flow chart for explaining the operation of the embodiment of the present invention, and FIG. 4 is a flow chart showing a specific operation of the person detecting process of FIG.

【0019】次に、図1〜4を参照してこの発明の一実
施形態の動作について説明する。観測部41,42…4
nは、図3に示すステップSP(図示ではSPと略称す
る)1において、それぞれ対応するカメラから画像信号
が入力されると、ステップSP2において追跡部8に対
して観測時刻を送信する。ステップSP3において、観
測部41,42…4nは、追跡部8から追跡モデルと観
測時刻とにより算出した観測人数と観測サイズと位置姿
勢などの予測値を受信する。ステップSP4において、
観測部41,42…4nは、観測人数と観測サイズに応
じた人物領域検出処理を行なう。
Next, the operation of the embodiment of the present invention will be described with reference to FIGS. Observation units 41, 42 ... 4
n transmits an observation time to the tracking unit 8 in step SP2 when an image signal is input from the corresponding camera in step SP (abbreviated as SP in the figure) 1 shown in FIG. In step SP3, the observation units 41, 42,..., 4n receive, from the tracking unit 8, prediction values such as the number of observed persons, the observed size, and the position and orientation calculated based on the tracking model and the observation time. In step SP4,
The observation units 41, 42,... 4n perform a person area detection process according to the number of observers and the observation size.

【0020】より具体的には、図4に示すステップSP
41において、観測人数とそれぞれの予測される観測サ
イズから必要なテンプレート画像の種類を決定する。そ
して、ステップSP42において、利用可能な計算資源
から各テンプレート画像について最適な近似テンプレー
トを選択する。すなわち観測サイズとしての所要計算時
間がたとえば0.3秒に制約されていれば、図5(a)
に示す比較的粗い近似テンプレートを選択し、所要計算
時間が0.5秒に制約されていれば図5(b)に示す中
程度の粗さの近似テンプレートを選択し、計算所要時間
が比較的長い9秒に設定されていれば、精細な図5
(c)に示す近似テンプレートを選択する。これらの近
似テンプレートは予めメモリに記憶されている。
More specifically, step SP shown in FIG.
At 41, a required template image type is determined from the number of observers and the respective predicted observation sizes. Then, in step SP42, an optimal approximate template for each template image is selected from available calculation resources. That is, if the required calculation time as the observation size is restricted to, for example, 0.3 second, FIG.
Is selected, and if the required calculation time is restricted to 0.5 second, an approximate template having a medium roughness shown in FIG. 5B is selected, and the required calculation time is relatively large. If set to 9 seconds long, fine
Select the approximate template shown in (c). These approximation templates are stored in the memory in advance.

【0021】ステップSP43において、選択した各近
似テンプレートについてテンプレートマッチングにより
人物検出処理を行う。ここで、選択した近似テンプレー
トの粗ければテンプレートマッチングの計算に要する時
間が少なくて済み、精細な近似テンプレートであればテ
ンプレートマッチングの計算に要する時間が長くなる。
したがって、計算所要時間にゆとりがあるほど、精細な
人物画像の抽出が可能になる。
In step SP43, a person detection process is performed on each selected approximate template by template matching. Here, if the selected approximate template is coarse, the time required for calculating the template matching is short, and if the approximate template is fine, the time required for calculating the template matching is long.
Therefore, the more the time required for the calculation is, the more precise a person image can be extracted.

【0022】ステップSP44において、検出した人物
画像をリストに追加し、ステップSP45において、ル
ープ終了の判定を行い、終了していなければステップS
P43に戻る。終了していれば、図3に示すステップS
P5にリターンする。
In step SP44, the detected person image is added to the list. In step SP45, the loop end is determined.
It returns to P43. If it has been completed, step S shown in FIG.
Return to P5.

【0023】ステップSP5において、観測部41,4
2…4nは、ステップSP44での検出結果であるリス
トに人物画像があるか否かを判別する。リストになけれ
ばステップSP1に戻り、ステップSP1〜ステップS
P5の動作を繰り返す。人物画像がリストにあれば、ス
テップSP6に進み、このステップSP6において各人
物領域と追跡モデルとを対応付ける。ステップSP7に
おいて、観測部41,42…4nは、位置,姿勢および
人物特徴からなる観測情報を追跡部8に送信する。ステ
ップSP8において、追跡部8は位置,姿勢および人物
特徴からなる未対応領域の位置情報を発見部6に送信す
る。
In step SP5, the observation units 41 and 4
2... 4n determine whether or not there is a human image in the list as the detection result in step SP44. If not, the process returns to step SP1 and returns to steps SP1 to S
The operation of P5 is repeated. If the person image is on the list, the process proceeds to step SP6, where each person region is associated with the tracking model. In step SP7, the observation units 41, 42,..., 4n transmit observation information including the position, the posture, and the person characteristics to the tracking unit 8. In step SP <b> 8, the tracking unit 8 transmits to the discovery unit 6 the position information of the uncorresponding area including the position, the posture, and the person feature.

【0024】上述のごとく、処理計算時間が長くなるほ
ど精細なテンプレートを選択することにより、精度の良
好な人物情報を得ることができる。
As described above, by selecting a finer template as the processing calculation time becomes longer, it is possible to obtain highly accurate person information.

【0025】ここで、追跡中の対象物体の運動におい
て、白色ガウス誤差が生じると仮定し、数値計算により
追跡精度を計算した。
Here, assuming that a white Gaussian error occurs in the motion of the target object during tracking, the tracking accuracy was calculated by numerical calculation.

【0026】図6および図7は対象物体が1種類である
場合の利用可能な計算時間と処理可能な画像解像度の関
係を示し、特に図6は縦軸に解像度を示し、横軸にステ
ップ数を示し、図7は縦軸に誤差を示し、横軸にステッ
プ数を示す。
FIGS. 6 and 7 show the relationship between the available calculation time and the image resolution that can be processed when there is only one type of target object. In particular, FIG. FIG. 7 shows the error on the vertical axis and the number of steps on the horizontal axis.

【0027】図6および図7に示すように計算時間が短
くなって処理ステップ数が減少すると、処理可能な解像
度が低下するとともに、誤差が増加して処理精度の低下
することがわかる。逆に、計算時間が長くなって処理ス
テップ数が増加すると処理可能な解像度が増加するとと
もに、誤差が減少する。
As shown in FIGS. 6 and 7, when the calculation time is shortened and the number of processing steps is reduced, the resolution that can be processed is reduced, and the error is increased so that the processing accuracy is reduced. Conversely, when the calculation time becomes longer and the number of processing steps increases, the resolution that can be processed increases, and the error decreases.

【0028】次に、利用可能な計算資源が変化する例と
して、対象物体の種類Nが変化する場合を考える。この
場合、前述の仮定から1種類あたり利用可能な計算時間
は1種類の場合の1/Nとなるため、たとえば5種類の
物体を追跡対象とする場合、処理方法を固定したシステ
ムでは1/5の計算資源を前提としてシステムを設計す
る必要が生じる。ここでは図6および図7の関係に従
い、利用可能な計算資源の減少に応じて、処理方法(解
像度)を適切に選択することができる。
Next, as an example where the available computational resources change, consider the case where the type N of the target object changes. In this case, the calculation time available for each type is 1 / N of that for one type based on the above assumption. For example, when five types of objects are to be tracked, 1/5 is used in a system with a fixed processing method. It is necessary to design a system on the premise of the computational resources. Here, according to the relationship between FIG. 6 and FIG. 7, the processing method (resolution) can be appropriately selected according to the decrease in the available computational resources.

【0029】図8は4種類の異なる制約条件のもとでの
種類数Nの増加による推定精度の悪化の度合いを示す図
であり、縦軸は誤差を示し、横軸は種類数を示す。図8
において、制約条件は処理ステップ数を400,60
0,800および1000に定めたものである。種類数
が1のときに比べて種類数が増えるにしたがって処理ス
テップ数が少ないほど誤差が増大していくのがわかる。
したがって、この図8から種類がいくつのときに誤差を
どの程度に抑えるために、処理ステップ数をいくらに選
べばよいかを判断することができる。
FIG. 8 is a diagram showing the degree of deterioration of the estimation accuracy due to an increase in the number N of types under four different constraint conditions. The vertical axis shows the error, and the horizontal axis shows the number of types. FIG.
, The constraint condition is that the number of processing steps is 400, 60
0, 800 and 1000. It can be seen that the error increases as the number of processing steps decreases as the number of types increases as compared to when the number of types is one.
Therefore, from FIG. 8, it is possible to judge how many types of processing steps should be selected in order to suppress the error and the number of types.

【0030】今回開示された実施の形態はすべての点で
例示であって制限的なものではないと考えられるべきで
ある。本発明の範囲は上記した説明ではなくて特許請求
の範囲によって示され、特許請求の範囲と均等の意味お
よび範囲内でのすべての変更が含まれることが意図され
る。
The embodiments disclosed this time are to be considered in all respects as illustrative and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

【0031】[0031]

【発明の効果】以上のように、この発明によれば、利用
可能な計算時間を基準として処理方法を選択することで
許される計算資源の中で最適な精度を与えることによ
り、利用可能な計算資源を有効に利用し、最良の精度を
与えることができる。
As described above, according to the present invention, by selecting the processing method based on the available calculation time, the optimum accuracy can be given among the calculation resources allowed, and the available calculation can be performed. Resources can be used effectively and the best accuracy can be given.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 この発明の一実施形態のブロック図である。FIG. 1 is a block diagram of one embodiment of the present invention.

【図2】 この発明の一実施形態で用いられる人体モデ
ルを示す図である。
FIG. 2 is a diagram showing a human body model used in an embodiment of the present invention.

【図3】 この発明の一実施形態の動作を説明するため
のフローチャートである。
FIG. 3 is a flowchart for explaining the operation of the embodiment of the present invention;

【図4】 図3の人物検出処理の具体的な動作を示すフ
ローチャートである。
FIG. 4 is a flowchart showing a specific operation of the person detection process of FIG. 3;

【図5】 近似テンプレートの選択例を示す図である。FIG. 5 is a diagram illustrating an example of selecting an approximate template.

【図6】 対象物体が1種類である場合の利用可能な計
算時間と処理可能な画像解像度の関係を示す図であり、
縦軸に解像度を示し、横軸にステップ数を示す。
FIG. 6 is a diagram showing a relationship between available calculation time and a processable image resolution when there is only one type of target object;
The vertical axis indicates the resolution, and the horizontal axis indicates the number of steps.

【図7】 対象物体が1種類である場合の利用可能な計
算時間と処理可能な画像解像度の関係を示す図であり、
縦軸に誤差を示し、横軸にステップ数を示す。
FIG. 7 is a diagram illustrating a relationship between available calculation time and a processable image resolution when there is only one type of target object;
The vertical axis indicates the error, and the horizontal axis indicates the number of steps.

【図8】 4種類の異なる制約条件のもとでの種類数N
の増加による推定精度の悪化の度合いを示す図である。
FIG. 8 shows the number N of types under four different constraints.
FIG. 9 is a diagram showing a degree of deterioration of estimation accuracy due to an increase in the number of the estimation results.

【符号の説明】[Explanation of symbols]

21,22…2n カメラ、41,42…4n 観測
部、6 発見部、8 追跡部。
21, 22 ... 2n cameras, 41, 42 ... 4n observation units, 6 discovery units, 8 tracking units.

フロントページの続き (72)発明者 角 康之 京都府相楽郡精華町光台二丁目2番地2 株式会社エイ・ティ・アール知能映像通信 研究所内 (72)発明者 間瀬 健二 京都府相楽郡精華町光台二丁目2番地2 株式会社エイ・ティ・アール知能映像通信 研究所内 Fターム(参考) 5C054 AA01 AA05 CA04 CC02 CH01 EA01 EA03 FA09 FC12 HA18 5L096 BA02 CA02 FA52 FA59 FA67 FA69 HA05 HA09 JA09 JA11 JA13 JA16 LA01 Continued on the front page (72) Inventor Yasuyuki Kado 2-2-2 Kodaidai, Seika-cho, Soraku-gun, Kyoto ATI R & D Co., Ltd. Intelligent Video Communications Laboratory (72) Inventor Kenji Mase Hikari, Seika-cho, Kyoto 2nd-2nd-2nd AT R & Co., Inc. Intelligent Video Communication Laboratory F-term (reference) 5C054 AA01 AA05 CA04 CC02 CH01 EA01 EA03 FA09 FC12 HA18 5L096 BA02 CA02 FA52 FA59 FA67 FA69 HA05 HA09 JA09 JA11 JA13 JA16 LA01

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 利用可能な計算時間を基準として処理方
法を選択する選択手段と、 前記選択手段によって選択された処理方法で許される計
算資源の中で最適な精度を与える最適精度付与手段とを
備えたことを特徴とする、動画像処理最適化装置。
1. A selecting means for selecting a processing method on the basis of an available calculation time, and an optimum accuracy providing means for providing an optimum accuracy among calculation resources allowed by the processing method selected by the selecting means. A moving image processing optimization device, comprising:
【請求項2】 利用可能な計算時間を基準として処理方
法を選択することで許される計算資源の中で最適な精度
を与えることを特徴とする、動画像処理最適化方法。
2. A moving image processing optimizing method characterized in that an optimum accuracy is given among calculation resources allowed by selecting a processing method based on available calculation time.
【請求項3】 前記計算資源の中で最適な精度で動画像
から画像特徴を抽出することを特徴とする、請求項2に
記載の動画像処理最適化方法。
3. The moving image processing optimizing method according to claim 2, wherein an image feature is extracted from the moving image with an optimum accuracy among the calculation resources.
【請求項4】 前記計算資源の中で最適な精度で動画像
から画像特徴を抽出し、物体を追跡することを特徴とす
る、請求項2に記載の動画像処理最適化方法。
4. The moving image processing optimization method according to claim 2, wherein an image feature is extracted from the moving image with an optimum accuracy in the calculation resources, and the object is tracked.
JP2001056214A 2001-03-01 2001-03-01 Moving image processing optimizing device and its method Withdrawn JP2002259986A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001056214A JP2002259986A (en) 2001-03-01 2001-03-01 Moving image processing optimizing device and its method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001056214A JP2002259986A (en) 2001-03-01 2001-03-01 Moving image processing optimizing device and its method

Publications (1)

Publication Number Publication Date
JP2002259986A true JP2002259986A (en) 2002-09-13

Family

ID=18916271

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001056214A Withdrawn JP2002259986A (en) 2001-03-01 2001-03-01 Moving image processing optimizing device and its method

Country Status (1)

Country Link
JP (1) JP2002259986A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101003362B1 (en) 2008-09-09 2010-12-22 전자부품연구원 Apparatus for determining size template
JPWO2021014643A1 (en) * 2019-07-25 2021-01-28

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101003362B1 (en) 2008-09-09 2010-12-22 전자부품연구원 Apparatus for determining size template
JPWO2021014643A1 (en) * 2019-07-25 2021-01-28
WO2021014643A1 (en) * 2019-07-25 2021-01-28 日本電気株式会社 Object tracking device, object tracking method, and recording medium
JP7315002B2 (en) 2019-07-25 2023-07-26 日本電気株式会社 Object tracking device, object tracking method, and program

Similar Documents

Publication Publication Date Title
JP4345722B2 (en) Moving object tracking control device, moving object tracking system, moving object tracking control method, and program
JP2002334338A (en) Device and method for object tracking and recording medium
JP2020507850A (en) Method, apparatus, equipment, and storage medium for determining the shape of an object in an image
US7686454B2 (en) Image combining system, image combining method, and program
JP6141079B2 (en) Image processing system, image processing apparatus, control method therefor, and program
WO2011080900A1 (en) Moving object detection device and moving object detection method
US20070189584A1 (en) Specific expression face detection method, and imaging control method, apparatus and program
CN110111388B (en) Three-dimensional object pose parameter estimation method and visual equipment
CN109087261B (en) Face correction method based on unlimited acquisition scene
JPWO2003092291A1 (en) Object detection apparatus, object detection server, and object detection method
JP2004318823A (en) Information display system, information processing apparatus, pointing device and pointer mark displaying method in information display system
JP2004513442A (en) Tagging People in Image Processing Systems Utilizing Statistical Models Based on Appearance and Geometric Features
CN112362068B (en) Unmanned aerial vehicle surveying and mapping method, device and system
CN112405530B (en) Robot vision tracking control system and control method based on wearable vision
JP2021039625A (en) Object number estimation device, object number estimation method, and object number estimation program
JP3836814B2 (en) Image processing method, image processing apparatus, and image processing program
WO2022009944A1 (en) Video analysis device, wide-area monitoring system, and method for selecting camera
JP5319867B2 (en) Information terminal equipment
JP2002259986A (en) Moving image processing optimizing device and its method
JP2009302731A (en) Image processing apparatus, image processing program, image processing method, and electronic device
JP2002218449A (en) Device for tracking moving object
JP2008217330A (en) Speed estimation method and speed estimation program
CN113688680B (en) Intelligent recognition and tracking system
US20230245340A1 (en) Information processing device, information processing method, and program
WO2022018811A1 (en) Three-dimensional posture of subject estimation device, three-dimensional posture estimation method, and program

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20080513