WO2015178148A1 - 状態推定装置、プログラムおよび集積回路 - Google Patents

状態推定装置、プログラムおよび集積回路 Download PDF

Info

Publication number
WO2015178148A1
WO2015178148A1 PCT/JP2015/062057 JP2015062057W WO2015178148A1 WO 2015178148 A1 WO2015178148 A1 WO 2015178148A1 JP 2015062057 W JP2015062057 W JP 2015062057W WO 2015178148 A1 WO2015178148 A1 WO 2015178148A1
Authority
WO
WIPO (PCT)
Prior art keywords
probability distribution
data
likelihood
observation
posterior probability
Prior art date
Application number
PCT/JP2015/062057
Other languages
English (en)
French (fr)
Inventor
哲一 生駒
長谷川 弘
Original Assignee
株式会社メガチップス
国立大学法人九州工業大学
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社メガチップス, 国立大学法人九州工業大学 filed Critical 株式会社メガチップス
Priority to EP15795830.7A priority Critical patent/EP3136342B1/en
Publication of WO2015178148A1 publication Critical patent/WO2015178148A1/ja
Priority to US15/355,532 priority patent/US9805285B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing

Definitions

  • the present invention relates to a technique for estimating the state of an observable event using a time series filter, for example, a technique for tracking an object on a moving image using a time series filter.
  • Time The series filter, the internal state of the object at time t and state vector x t, when the observed feature at time t and the observation vector y t, from the observed observation vector y t, the object that can not be directly observed a method of estimating the internal state x t.
  • the time series filter is the following state space model: System model: x t to f (x t
  • the system model of the target internal state and the observation model when the target is observed can be expressed as follows.
  • System model of target internal state: x t f (x t ⁇ 1 , v t )
  • Observation model when the object is observed: y t h (x t , w t ) f (x t ⁇ 1 , v t ): State transition function representing state change between time t ⁇ 1 and time t h (x t , w t ): Function representing observation vector obtained at state x t
  • y 1: t ) at time t is It becomes.
  • x t ) is a likelihood (probability of obtaining an observation vector y t in the state x t )
  • y 1: t ⁇ 1 ) is a prediction probability distribution.
  • the probability distribution of the internal state to be observed is expressed as a particle distribution, and the posterior probability distribution of the state at the current time is set as the prior probability distribution of the state at the next time.
  • the particle filter then observes a template (predicted sample) estimated from the state of particles representing the prior probability distribution (a sample set generated according to the prior probability distribution) and an actual image (actual observation) at the next time. ) And the likelihood is obtained.
  • the posterior probability distribution of the particles is estimated from the obtained likelihood and the predicted probability distribution.
  • the state of the observation object (for example, the tracking object) that dynamically changes is sequentially estimated in the particle filter.
  • a predicted sample at time t is generated for each sample (each particle) by processing corresponding to the following mathematical formula. That is, the probability distribution (predicted probability distribution) predicted by the system model (state transition function) is acquired from the posterior probability distribution at time t-1 (probability distribution of the internal state to be observed at time t-1). Specifically, according to the system model f, each sample (each particle) at time t ⁇ 1 is transitioned to generate a predicted sample.
  • xa t (i) ⁇ f ( x t
  • xa t ⁇ xa t (1 ), xa t (2), xa t (3), ⁇ , xa t (M) ⁇ xa t : prediction (estimation) of state vector x t by state transition function f () vector (2) weight calculation (likelihood calculation)
  • a weight (likelihood) is calculated for each prediction sample generated in process (1) by a process corresponding to the following equation. That is, according to the observation model h, to estimate the probability of obtaining observation vector y t (likelihood).
  • the particle filter estimates the parameter that represents the state of the observation target that changes from time to time by repeatedly predicting the prior probability distribution of the parameter that represents the state of the observation target and calculating the posterior probability distribution. To do.
  • a particle filter is used for tracking the position of an object (object) on a moving image, for example.
  • the parameter indicating the state of the tracking target is, for example, a parameter indicating the position of the object.
  • the particle filter calculates the likelihood by comparing the observation (predicted sample) estimated from the parameter representing the position of the object and the actual observation (for example, an image captured by a camera or the like), By performing resampling of particles based on the calculated likelihood, a posterior probability distribution of a parameter representing the state of the observation target can be acquired (for example, Patent Document 1 (Japanese Patent Laid-Open No. 2012-234466)). .
  • the object tracking process is executed using a single observation data
  • the appropriate observation data cannot be stably acquired when the environment where the observation data is acquired is changed.
  • the internal state may not be estimated properly.
  • the object tracking process is executed using a single observation data, it is difficult to appropriately detect and track various objects.
  • the present invention acquires a plurality of observation data for an object to be tracked, and uses a plurality of likelihoods derived from each of the acquired plurality of observation data, and uses the internal state of the object. It is an object of the present invention to realize a state estimation device, a program, and an integrated circuit that can perform object detection processing and tracking processing more accurately and robustly.
  • the first invention is a state estimation device that estimates an internal state of an observation target, and includes a first observation acquisition unit, a second observation acquisition unit, a possibility measure acquisition unit, An inevitable measure acquisition unit, a prediction unit, a likelihood acquisition unit, a posterior probability distribution estimation unit, and a prior probability distribution output unit are provided.
  • the first observation acquisition unit acquires first observation data obtained from observable events at arbitrary time intervals.
  • the second observation acquisition unit acquires second observation data obtained from observable events at arbitrary time intervals.
  • the possibility measure acquisition unit acquires possibility measure data by performing addition processing or logical sum operation on the first observation data and the second observation data.
  • the inevitability measure acquisition unit acquires inevitability measure data by performing multiplication processing or logical product operation on the first observation data and the second observation data.
  • the prediction unit performs prediction processing on the posterior probability distribution data that is the probability distribution of the internal state of the observation target acquired at the previous time t ⁇ 1, and predicts the probability distribution of the internal state of the observation target at the current time t. Obtain probability distribution data.
  • the likelihood acquisition unit acquires the first likelihood based on the predicted probability distribution data and the possibility measure data, and acquires the second likelihood based on the predicted probability distribution data and the necessity measure data.
  • the posterior probability distribution estimation unit estimates posterior probability distribution data that is the probability distribution of the internal state of the observation target at the current time t from the first likelihood and the predicted probability distribution data.
  • the prior probability distribution output unit outputs prior probability distribution data based on the posterior probability distribution data estimated by the posterior probability distribution estimation unit as prior probability distribution data at the next time t + 1.
  • this state estimation device the first observation data and the second observation data which are a plurality of observation data are acquired, and the possibility measure data and the necessity measure data are acquired from the acquired plurality of observation data.
  • a plurality of likelihoods (first likelihood and second likelihood) are acquired from the likelihood measure data and the necessity measure data by the likelihood acquisition unit, and the plurality of acquired likelihoods.
  • the internal state of the object can be estimated using (first likelihood and second likelihood). Therefore, this state estimation apparatus can perform various object detection processing and tracking processing more accurately and robustly.
  • time is a concept including, for example, a time based on a time interval for sampling an observation target, and for example, time t ⁇ 1 indicates a sampling time immediately before sampling at time t.
  • the time interval between “current time t” and “next time t + 1”, or “previous time t ⁇ 1” and “current time t” is, for example, a unit image (for example, in the posterior probability distribution estimation unit). It is sufficient that the time is sufficient to acquire the posterior probability distribution data of one frame), for example, a time corresponding to one frame (one frame time).
  • 2nd invention is 1st invention, Comprising:
  • the posterior probability distribution estimation part is 2nd acquired by the likelihood acquisition part to the internal variable of the particle
  • the posterior probability distribution (a posteriori probability distribution data) S t
  • the object detection process and tracking process can be performed more accurately and robustly.
  • t has an internal variable that inherits (reflects) the value of the second likelihood wn. And, by examining the internal variable that inherits (reflects) the value of the second likelihood wn, various values are obtained using the particle (the posterior probability distribution data reflecting the first likelihood and the second likelihood). Tracking processing and detection processing can be executed.
  • the third invention is the second invention, wherein the posterior probability distribution data is S t
  • t (i) wn Is included in the internal variable of the particle that is restored and extracted according to the posterior probability distribution data at the current time t.
  • the posterior probability distribution (a posteriori probability distribution data) S t
  • the object detection process and tracking process can be performed more accurately and robustly.
  • t each have an internal variable wn t
  • the particle the first likelihood and the second likelihood
  • various tracking processes and detection processes can be executed using the posterior probability distribution data reflecting the above.
  • the fourth invention is the second invention, wherein the posterior probability distribution data is S t
  • T (i) the first likelihood corresponding to the particle acquired by the likelihood acquisition unit is set to wp, and the second likelihood corresponding to the particle acquired by the likelihood acquisition unit is set to wn.
  • the number of particles restored and extracted according to the posterior probability distribution data at the current time t is M1 (M1: natural number), and the internal variable based on the first likelihood wp of the particles restored and extracted according to the posterior probability distribution data at the current time t is wp t
  • t (i) wp t
  • t (i) ⁇ wn / wp (1 / M1) ⁇ wn / wp Is included in the internal variable of the particle that is restored and extracted according to the posterior probability distribution data at the current time t.
  • the posterior probability distribution (a posteriori probability distribution data) S t
  • the object detection process and tracking process can be performed more accurately and robustly.
  • t is an internal variable wn that inherits (reflects) the value of the second likelihood wn by the ratio (wn / wp) to the first likelihood. Since t
  • Various tracking processes and detection processes can be executed using the particles (a posteriori probability distribution data reflecting the first likelihood and the second likelihood).
  • the ratio (wn / wp) between the value of the second likelihood wn and the first likelihood may be a ratio (wp / wn) other than the above.
  • the fifth invention is the second invention, wherein the posterior probability distribution data is S t
  • T (i) the first likelihood corresponding to the particle acquired by the likelihood acquisition unit is set to wp, and the second likelihood corresponding to the particle acquired by the likelihood acquisition unit is set to wn.
  • the number of particles restored and extracted according to the posterior probability distribution data at the current time t is M1 (M1: natural number), and the internal variable based on the first likelihood wp of the particles restored and extracted according to the posterior probability distribution data at the current time t is wp t
  • t (i) wp t
  • t (i) ⁇ (wp ⁇ wn) (1 / M1)-(wp-wn) Is included in the internal variable of the particle that is restored and extracted according to the posterior probability distribution data at the current time t.
  • the posterior probability distribution (a posteriori probability distribution data) S t
  • the object detection process and tracking process can be performed more accurately and robustly.
  • t is an internal variable wn that inherits (reflects) the value of the second likelihood wn from the difference (wp ⁇ wn) from the first likelihood. Since t
  • Various tracking processes and detection processes can be executed using the particles (a posteriori probability distribution data reflecting the first likelihood and the second likelihood).
  • the difference (wp ⁇ wn) between the value of the second likelihood wn and the first likelihood may be a difference (wn ⁇ wp) in addition to the above.
  • the sixth invention is the second invention, wherein the posterior probability distribution data is S t
  • T (i) the first likelihood corresponding to the particle acquired by the likelihood acquisition unit is set to wp, and the second likelihood corresponding to the particle acquired by the likelihood acquisition unit is set to wn.
  • the number of particles restored and extracted according to the posterior probability distribution data at the current time t is M1 (M1: natural number), and the internal variable based on the first likelihood wp of the particles restored and extracted according to the posterior probability distribution data at the current time t is wp t
  • the posterior probability distribution estimation unit uses a function ⁇ having at least one of the three variables M1, wp, wn as a variable, wn t
  • t (i) ⁇ (M1) wn t
  • t (i) ⁇ (wp) wn t
  • t (i) ⁇ (wn) wn t
  • t (i) ⁇ (M1, wp) wn t
  • t (i) ⁇ (M1, wn) wn t
  • t (i) ⁇ (M1, wn) wn t
  • t (i) ⁇ (M1, wn) wn t
  • t reflecting the first likelihood and the second likelihood can be acquired.
  • t (i) of the second likelihood wn is defined by a function ⁇ having at least one of the three variables M1, wp, and wn as a variable. Therefore, the internal state of the object can be estimated with higher accuracy based on the second likelihood wn defined by various variables.
  • the seventh invention is any one of the second to sixth inventions, and when performing tracking processing for an object, the following processing is performed. That is, the posterior probability distribution data is S t
  • the posterior probability distribution estimation unit executes a determination process of whether to continue or stop the tracking process on the object based on the first likelihood wp.
  • this state estimation device it is possible to execute a determination process as to whether the tracking process for the object is continued or stopped based on the first likelihood wp.
  • the eighth invention is the seventh invention, wherein the predicted probability distribution data S t
  • the internal variable for the first likelihood of the j-th particle obtained by the likelihood obtaining unit is represented by wp (j).
  • the posterior probability distribution estimation unit To obtain the integrated value sum of the internal variable wp (j) . Then, the posterior probability distribution estimation unit performs the following processing. (1) When the integrated value sum is smaller than the predetermined threshold Th1, the posterior probability distribution estimation unit stops the tracking process for the object. (2) When the integrated value sum is equal to or greater than the predetermined threshold Th1, the posterior probability distribution estimation unit continues the tracking process on the object.
  • the internal variable about the first likelihood is determined based on the integrated value of wp (j) to determine whether to continue tracking the object or stop it. Can do.
  • a ninth invention is the seventh invention, wherein the predicted probability distribution data S t
  • the internal variable for the first likelihood of the j-th particle obtained by the likelihood obtaining unit is represented by wp (j).
  • the posterior probability distribution estimation unit obtains the maximum value among the internal variables wp (j) for the N1 first likelihoods as the maximum value wp_max. Then, the posterior probability distribution estimation unit performs the following processing.
  • the posterior probability distribution estimation unit stops the tracking process for the object.
  • the posterior probability distribution estimation unit continues the tracking process on the object.
  • this state estimation apparatus based on the maximum value of the internal variable wp (j) for the first likelihood, a determination process for whether to continue or stop the tracking process for the object may be executed. it can.
  • the tenth aspect of the invention is any one of the second to sixth aspects of the invention, in which the following processing is performed when performing tracking processing on an object. That is, the posterior probability distribution data is S t
  • the posterior probability distribution estimation unit obtains estimation result data for estimating the internal state of the tracking target object based on the second likelihood wn.
  • this state estimation device it is possible to acquire estimation result data for estimating the internal state of the tracking target object based on the second likelihood wn.
  • the eleventh invention is the tenth invention, wherein the posterior probability distribution estimation unit obtains vector data of internal variables related to the position of the i-th particle acquired according to the posterior probability distribution data S t
  • this state estimation device since the vector data of the particle having the maximum value of the internal variable wn t
  • the twelfth invention is the tenth invention, wherein the posterior probability distribution estimation unit obtains vector data of internal variables relating to the position of the i-th particle acquired according to the posterior probability distribution data S t
  • Vector data (wgt ⁇ X t (i) , wgt ⁇ Y t (i) , wgt ⁇ W t (i) , wgt ⁇ H t (i) acquired using the acquired weighted average value wgt ) Is obtained as estimation result data.
  • this state estimation device the internal state of the tracking target can be accurately estimated using the vector data acquired using the weighted average value wgt.
  • this state estimation apparatus can execute the object tracking process with high accuracy.
  • the thirteenth invention is a program for causing a computer to execute a state estimation method for estimating an internal state of an observation target.
  • the state estimation method includes a first observation acquisition step, a second observation acquisition step, a possibility measure acquisition step, a necessity measure acquisition step, a prediction step, a likelihood acquisition step, a posterior probability distribution estimation step, A probability distribution output step.
  • the first observation acquisition step acquires first observation data obtained from observable events at arbitrary time intervals.
  • the second observation acquisition step acquires second observation data obtained from observable events at arbitrary time intervals.
  • the possibility measure acquisition step acquires possibility measure data by performing addition processing or logical sum operation on the first observation data and the second observation data.
  • the necessity measure acquisition step acquires the necessity measure data by performing multiplication processing or logical product operation on the first observation data and the second observation data.
  • the prediction step performs a prediction process on the posterior probability distribution data that is the probability distribution of the internal state of the observation target acquired at the previous time t ⁇ 1, and predicts the probability distribution of the internal state of the observation target at the current time t. Obtain probability distribution data.
  • the likelihood acquisition step acquires the first likelihood based on the predicted probability distribution data and the possibility measure data, and acquires the second likelihood based on the predicted probability distribution data and the necessity measure data.
  • the posterior probability distribution estimation step estimates posterior probability distribution data that is the probability distribution of the internal state of the observation target at the current time t from the first likelihood and the predicted probability distribution data.
  • the prior probability distribution output step outputs prior probability distribution data based on the posterior probability distribution data estimated by the posterior probability distribution estimation step as prior probability distribution data at the next time t + 1.
  • a fourteenth aspect of the invention is an integrated circuit for state estimation processing for estimating an internal state of an observation target, and includes a first observation acquisition unit, a second observation acquisition unit, a possibility measure acquisition unit, and a necessity measure acquisition unit.
  • the first observation acquisition unit acquires first observation data obtained from observable events at arbitrary time intervals.
  • the second observation acquisition unit acquires second observation data obtained from observable events at arbitrary time intervals.
  • the possibility measure acquisition unit acquires possibility measure data by performing addition processing or logical sum operation on the first observation data and the second observation data.
  • the inevitability measure acquisition unit acquires inevitability measure data by performing multiplication processing or logical product operation on the first observation data and the second observation data.
  • the prediction unit performs prediction processing on the posterior probability distribution data that is the probability distribution of the internal state of the observation target acquired at the previous time t ⁇ 1, and predicts the probability distribution of the internal state of the observation target at the current time t. Obtain probability distribution data.
  • the likelihood acquisition unit acquires the first likelihood based on the predicted probability distribution data and the possibility measure data, and acquires the second likelihood based on the predicted probability distribution data and the necessity measure data.
  • the posterior probability distribution estimation unit estimates posterior probability distribution data that is the probability distribution of the internal state of the observation target at the current time t from the first likelihood and the predicted probability distribution data.
  • the prior probability distribution output unit outputs prior probability distribution data based on the posterior probability distribution data estimated by the posterior probability distribution estimation unit as prior probability distribution data at the next time t + 1.
  • a state estimation device, a program, and an integrated circuit capable of performing object detection processing and tracking processing more accurately and robustly can be realized.
  • the schematic block diagram of the state estimation apparatus 1000 which concerns on 1st Embodiment The figure which shows typically the input data Din which is the moving image (captured moving image) imaged by the imaging device (not shown). The figure which shows typically the 1st observation data D1 acquired by the 1st observation acquisition part 1.
  • FIG. The figure which shows the 2nd observation data D2 acquired by the 2nd observation acquisition part 2 typically.
  • FIG. 1 is a schematic configuration diagram of a state estimation apparatus 1000 according to the first embodiment.
  • the state estimation apparatus 1000 includes a first observation acquisition unit 1, a second observation acquisition unit 2, a possibility measure acquisition unit 3, a necessity measure acquisition unit 4, and a likelihood acquisition unit 5.
  • the first observation acquisition unit 1 receives the input data Din.
  • the first observation acquisition unit 1 acquires the first observation data D1 from the input data Din, and outputs the acquired first observation data D1 to the possibility measure acquisition unit 3 and the necessity measure acquisition unit 4.
  • the first observation acquisition unit 1 uses, as input data Din, an image (captured image) picked up by an image pickup device, and performs first observation on an image feature amount extracted image obtained by extracting a predetermined image feature amount from the input data Din. Get as data.
  • the second observation acquisition unit 2 receives the input data Din.
  • the second observation acquisition unit 2 acquires the second observation data D2 from the input data Din, and outputs the acquired second observation data D2 to the possibility measure acquisition unit 3 and the necessity measure acquisition unit 4.
  • the second observation acquisition unit 2 uses an image (captured image) captured by the imaging device as input data Din, and performs second observation on an image feature amount extracted image obtained by extracting a predetermined image feature amount from the input data Din. Get as data.
  • the possibility measure acquisition unit 3 inputs the first observation data D1 output from the first observation acquisition unit 1 and the second observation data D2 output from the second observation acquisition unit 2.
  • the possibility measure acquisition unit 3 acquires the possibility measure data Dp by performing addition or OR operation (OR operation) on the first observation data D1 and the second observation data D2. Then, the possibility measure acquisition unit 3 outputs the acquired possibility measure data Dp to the likelihood acquisition unit 5.
  • the inevitability measure acquisition unit 4 receives the first observation data D1 output from the first observation acquisition unit 1 and the second observation data D2 output from the second observation acquisition unit 2.
  • the inevitability measure acquisition unit 4 acquires the inevitability measure data Dn by performing multiplication or logical product operation (AND operation) on the first observation data D1 and the second observation data D2. Then, the necessity measure acquisition unit 4 outputs the acquired necessity measure data Dn to the likelihood acquisition unit 5.
  • Likelihood acquisition unit 5 includes possibility measure data Dp output from possibility measure acquisition unit 3, necessity measure data Dn output from necessity measure acquisition unit 4, and prediction probability distribution data output from prediction unit 9. Enter.
  • the likelihood acquisition unit 5 acquires the first likelihood wp based on the prediction probability distribution data and the possibility measure data Dp.
  • the likelihood acquisition unit 5 acquires the second likelihood wn based on the predicted probability distribution data and the necessity measure data Dn. Then, the likelihood acquisition unit 5 outputs the acquired first likelihood wp and second likelihood wn to the posterior probability distribution estimation unit 6.
  • the posterior probability distribution estimation unit 6 inputs the first likelihood wp and the second likelihood wn output from the likelihood acquisition unit 5 and the prediction probability distribution data output from the prediction unit 9.
  • the posterior probability distribution estimation unit 6 estimates (acquires) the posterior probability distribution (posterior probability distribution data) based on the first likelihood wp, the second likelihood wn, and the predicted probability distribution data. Then, the posterior probability distribution estimation unit 6 outputs the estimated (acquired) posterior probability distribution (a posteriori probability distribution data) to the prior probability distribution output unit 7.
  • the prior probability distribution output unit 7 inputs the initial state setting data output from the initial state setting unit 8 and the posterior probability distribution (post-probability distribution data) output from the posterior probability distribution estimation unit 6. In the initial state, the prior probability distribution output unit 7 generates a prior probability distribution (prior probability distribution data) based on the initial state setting data output from the initial state setting unit 8, and generates the generated prior probability distribution (prior Probability distribution data) is output to the prediction unit 9.
  • the prior probability distribution output unit 7 outputs the posterior probability distribution (a posteriori probability distribution data) at time t output from the posterior probability distribution estimation unit 6 in a state other than the initial state at the next time t + 1. It outputs to the prediction part 9 as distribution (prior probability distribution data).
  • the initial state setting unit 8 holds data (initial value) for generating a prior probability distribution (prior probability distribution) in the initial state, and outputs the data (initial value) to the prior probability distribution output unit 7. .
  • the prediction unit 9 receives the prior probability distribution data output from the prior probability distribution output unit 7 as input.
  • the prediction unit 9 acquires probability distribution data predicted by the system model (state transition function) from the input prior probability distribution data. Then, the prediction unit 9 outputs the acquired probability distribution data to the likelihood acquisition unit 5 and the posterior probability distribution estimation unit 6 as prediction probability distribution data.
  • a moving image captured moving image
  • an imaging device not shown
  • the first observation acquisition unit 1 extracts an area corresponding to a person from the input data Din.
  • a quantity extraction image is acquired as first observation data
  • the second observation acquisition unit 2 acquires an image feature quantity extraction image obtained by extracting a region corresponding to a moving object from the input data Din as second observation data.
  • FIG. 2 is a diagram schematically showing input data Din which is a moving image (captured moving image) captured by an imaging device (not shown).
  • FIG. 3 is a diagram schematically showing the first observation data D1 acquired by the first observation acquisition unit 1.
  • FIG. 4 is a diagram schematically showing the second observation data D2 acquired by the second observation acquisition unit 2.
  • the input data Din shown in FIG. 2 is input to the first observation acquisition unit 1 and the second observation acquisition unit 2.
  • the input data Din at time t includes four objects TG1 to TG4.
  • the objects TG1, TG2, and TG3 are persons, and the object TG4 is an object other than a person.
  • the objects TG1 and TG2 are assumed to be moving objects. That is, the objects TG1 and TG2 are objects that have moved by a predetermined distance or more on the image from the previous time t-1 (time one frame before) to the current time t (current frame time).
  • the first observation acquisition unit 1 acquires the first observation data D1 by extracting an image region corresponding to a person from the input data Din.
  • the first observation acquisition unit 1 corresponds to a person on the image of the input data Din, for example, by detecting a region containing a lot of skin color in the input data Din and / or by pattern matching of the shape of a person. Detect the image area. Then, the first observation acquisition unit 1 acquires the detected result image as the first observation data D1. In this manner, the first observation acquisition unit 1 acquires the first observation data D1 shown in FIG. As can be seen from FIG.
  • image regions TG1_D1, TG2_D1, and TG3_D1 corresponding to the objects TG1, TG2, and TG3 that are persons included in the input data Din are detected.
  • the pixels in the image areas TG1_D1, TG2_D1, and TG3_D1 have pixel values other than “0”, and other than the image areas TG1_D1, TG2_D1, and TG3_D1. It is assumed that the pixel value of the pixel in the image area is “0”.
  • the first observation data D1 acquired by the first observation acquisition unit 1 is output to the possibility measure acquisition unit 3 and the necessity measure acquisition unit 4.
  • the second observation acquisition unit 2 acquires the second observation data D2 by extracting the image area corresponding to the moving object from the input data Din. For example, in the input data Din, the second observation acquisition unit 2 detects an image region of an object that has moved a predetermined distance or more on the image in one frame period (time from the previous time t-1 to the current time t). Thus, an image area corresponding to a moving object is detected on the image of the input data Din. Then, the second observation acquisition unit 2 acquires the detected result image as the second observation data D2. In this way, the second observation acquisition unit 2 acquires the second observation data D2 shown in FIG. In FIG.
  • the second observation acquisition unit 2 uses the input data Din to capture an image of an object that has moved a predetermined distance or more on the image during one frame period (the time from the previous time t ⁇ 1 to the current time t).
  • the detected image regions TG1_D2 and TG2_D2 in the case where the region is detected as a circular region having a predetermined radius centered on the center of gravity of the object at time t are shown.
  • image regions TG1_D2 and TG2_D2 respectively corresponding to the moving objects TG1 and TG2 included in the input data Din are detected.
  • image D2 image D2 (image D2) in FIG.
  • the pixels in the image areas TG1_D2 and TG2_D2 have pixel values other than “0”, and the pixels in the image areas other than the image areas TG1_D2 and TG2_D2 The pixel value of is assumed to be “0”.
  • the second observation data D2 acquired by the second observation acquisition unit 2 is output to the possibility measure acquisition unit 3 and the necessity measure acquisition unit 4.
  • the possibility measure acquisition unit 3 acquires possibility measure data Dp from the first observation data D1 and the second observation data D2.
  • the possibility measure acquisition unit 3 performs the following “(1) Method by addition processing” or “(2) Method by OR operation” on the first observation data D1 and the second observation data D2.
  • the possibility measure data Dp is acquired.
  • the possibility measure acquisition unit 3 adds pixel values of pixels at the same coordinate position in the first observation data D1 (image D1) and the second observation data D2 (image D2). As a result, the pixel value of the pixel at the coordinate position of the possibility measure data Dp is acquired.
  • the pixel value at the coordinates (x1, y1) of the first observation data D1 (image D1) is D1 (x1, y1)
  • the pixel value at the coordinates (x1, y1) of the second observation data D2 (image D2) is D2 ( x1, y1)
  • the pixel value at the coordinates (x1, y1) of the possibility measure data Dp (image Dp) is Dp (x1, y1)
  • the possibility measure acquisition unit 3 Dp (x1, y1) D1 (x1, y1) + D2 (x1, y1)
  • the pixel value of the pixel at the coordinates (x1, y1) of the possibility measure data Dp (image Dp) is acquired.
  • limit processing may be performed with the upper limit value and / or the lower limit value so that Dp (x1, y1) is within a predetermined dynamic range (for example, within a range of 0 to 255).
  • normalization processing may be performed so that the dynamic range of Dp (x1, y1) is a predetermined dynamic range (for example, a range of 0 to 255 or a range of 0 to 1).
  • the possibility measure acquisition unit 3 acquires the pixel values of all the pixels of the possibility measure data Dp (image Dp) by performing the above addition processing on all the pixels in the image. In this manner, the possibility measure acquisition unit 3 acquires the possibility measure data Dp (image Dp).
  • FIG. 5 shows possibility measure data Dp (image Dp) acquired from the first observation data D1 (image D1) in FIG. 3 and the second observation data D2 (image D2) in FIG.
  • grains) (an example) used in order to detect (track) an object are also typically drawn.
  • the possibility measure acquisition unit 3 performs binarization processing with a predetermined threshold on the first observation data D1 (image D1), and the second observation data D2 (image D2) A binarization process is performed with respect to a predetermined threshold. Then, the possibility measure acquisition unit 3 uses the pixels of the same coordinate position in the first observation data D1 (binarized image D1) and the second observation data D2 (binarized image D2) after the binarization process. By taking the logical sum of the values, the pixel value of the pixel at the corresponding coordinate position of the possibility measure data Dp is acquired.
  • the pixel value at the coordinates (x1, y1) of the first observation data D1 (image D1) is D1 (x1, y1)
  • the pixel value at the coordinates (x1, y1) of the second observation data D2 (image D2) is D2 ( x1, y1)
  • the pixel value at the coordinates (x1, y1) of the possibility measure data Dp (image Dp) is Dp (x1, y1)
  • the possibility measure acquisition unit 3 Dp (x1, y1) D1 (x1, y1)
  • the pixel value of the pixel at the coordinates (x1, y1) of the possibility measure data Dp (image Dp) is acquired.
  • indicates an operator that takes a logical sum.
  • the possibility measure acquisition unit 3 acquires the pixel values of all the pixels of the possibility measure data Dp (image Dp) by performing the above OR operation on all the pixels in the image. In this manner, the possibility measure acquisition unit 3 acquires the possibility measure data Dp (image Dp).
  • the possibility measure data Dp (image Dp) obtained by the logical OR operation from the first observation data D1 (image D1) in FIG. 3 and the second observation data D2 (image D2) in FIG. 4 is the image shown in FIG. Dp.
  • the possibility measure data Dp (image Dp) acquired by the logical sum operation the pixel values of the pixels in the image areas TG1_Dp, TG2_Dp, and TG3_Dp are “1” (value representing “true”), and the image area
  • the pixel values of pixels other than TG1_Dp, TG2_Dp, and TG3_Dp are “0”.
  • the pixel values of the pixels in the image areas TG1_Dp, TG2_Dp, and TG3_Dp may be values representing “true”. For example, when the pixel value is 8-bit data and takes a value of 0 to 255, the image area The pixel value of the pixels in TG1_Dp, TG2_Dp, and TG3_Dp may be “255”.
  • the possibility measure data Dp acquired by the possibility measure acquisition unit 3 is transferred to the likelihood acquisition unit 5 by performing the above “(1) Method by addition processing” or “(2) Method by OR operation”. Is output.
  • the inevitability measure acquisition unit 4 acquires inevitability measure data Dn from the first observation data D1 and the second observation data D2.
  • the inevitability measure acquisition unit 4 performs the following “(1) method by multiplication processing” or “(2) method by logical product operation” on the first observation data D1 and the second observation data D2. Necessity measure data Dn is acquired.
  • the necessity measure acquiring unit 4 multiplies pixel values of pixels at the same coordinate position in the first observation data D1 (image D1) and the second observation data D2 (image D2). Thus, the pixel value of the pixel at the coordinate position of the necessity measure data Dn is acquired.
  • the pixel value at the coordinates (x1, y1) of the first observation data D1 (image D1) is D1 (x1, y1)
  • the pixel value at the coordinates (x1, y1) of the second observation data D2 (image D2) is D2 ( x1, y1)
  • the pixel value at the coordinates (x1, y1) of the necessity measure data Dn (image Dn) is Dn (x1, y1)
  • the necessity measure acquisition unit 4 Dn (x1, y1) D1 (x1, y1) ⁇ D2 (x1, y1)
  • the pixel value of the pixel at the coordinates (x1, y1) of the necessity measure data Dn (image Dn) is acquired.
  • limit processing may be performed with an upper limit value and / or a lower limit value so that Dn (x1, y1) is within a predetermined dynamic range (for example, within a range of 0 to 255).
  • the normalization process may be performed so that the dynamic range of Dn (x1, y1) becomes a predetermined dynamic range (for example, a range of 0 to 255 or a range of 0 to 1).
  • the inevitable measure acquisition unit 4 acquires the pixel values of all the pixels in the inevitable measure data Dn (image Dn) by performing the multiplication process on all the pixels in the image. In this way, the necessity measure acquisition unit 4 acquires the necessity measure data Dn (image Dn).
  • FIG. 6 shows the necessity measure data Dn (image Dn) acquired from the first observation data D1 (image D1) in FIG. 3 and the second observation data D2 (image D2) in FIG.
  • image Dn image regions TG1_Dn and TG2_Dn corresponding to the image regions TG1_D2 and TG2_D2 of the second observation data D2 (image D2) are detected. That is, in the necessity measure data Dn (image Dn), the pixel values of the pixels in the image regions TG1_Dn and TG2_Dn are pixel values other than “0”, and the pixel values of the pixels other than the image regions TG1_Dn and TG2_Dn are “0”. is there.
  • the necessity measure acquisition unit 4 performs binarization processing with a predetermined threshold on the first observation data D1 (image D1), and also performs the second observation data D2 (image D2). On the other hand, a binarization process using a predetermined threshold is performed. Then, the necessity measure acquisition unit 4 uses the pixel values of the pixels at the same coordinate position in the first observation data D1 (binarized image D1) and the second observation data D2 (binarized image D2) after the binarization process. By taking the logical product of each other, the pixel value of the pixel at the coordinate position of the necessity measure data Dn is acquired.
  • the pixel value at the coordinates (x1, y1) of the first observation data D1 (image D1) is D1 (x1, y1)
  • the pixel value at the coordinates (x1, y1) of the second observation data D2 (image D2) is D2 ( x1, y1)
  • the pixel value at the coordinates (x1, y1) of the necessity measure data Dn (image Dn) is Dn (x1, y1)
  • the necessity measure acquisition unit 4 Dn (x1, y1) D1 (x1, y1) & D2 (x1, y1)
  • the pixel value of the pixel at the coordinates (x1, y1) of the necessity measure data Dn (image Dn) is acquired.
  • the “&” indicates an operator that takes a logical product.
  • the inevitable measure acquisition unit 4 acquires the pixel values of all the pixels of the inevitable measure data Dn (image Dn) by performing the above AND operation on all the pixels in the image. In this way, the necessity measure acquisition unit 4 acquires the necessity measure data Dn (image Dn).
  • Necessity measure data Dn (image Dn) obtained from the first observation data D1 (image D1) in FIG. 3 and the second observation data D2 (image D2) in FIG. 4 by the logical product operation is the image Dn shown in FIG. It becomes.
  • the pixel values of the pixels in the image regions TG1_Dn and TG2_Dn are “1” (value representing “true”), and the image regions TG1_Dn and TG2_Dn.
  • the pixel values of the other pixels are “0”.
  • the pixel values of the pixels in the image regions TG1_Dn and TG2_Dn may be values representing “true”. For example, when the pixel value is 8-bit data and takes a value of 0 to 255, the image regions TG1_Dn, The pixel value of the pixels in TG2_Dn may be “255”.
  • the necessity measure data Dn acquired by the necessity measure acquisition unit 4 is output to the likelihood acquisition unit 5 by performing the above “(1) method by multiplication processing” or “(2) method by logical product operation”.
  • the state vector indicating the internal state of the object that is the observation target (tracking target) at time t is x t
  • the feature observed at time t is the observation vector y t
  • t ⁇ 1 ⁇ s t
  • y t ) is represented by S t
  • t ⁇ s t
  • t ⁇ s t
  • t is the coordinate position (X t (i) , and Y t (i)), a width centered at the coordinate position W t, the height H t width W t to determine the rectangular image area, the height H t, first likelihood wp t It is assumed that the vector data has (i) and the second likelihood wn t (i) as internal variables.
  • an object number is assigned to each observation target, and a sample set (a set of particles) S t generated according to the predicted probability distribution in the same manner as described above for each observation target.
  • t generated according to the posterior probability distribution may be set.
  • observation target is the object TG1
  • the prediction unit 9 performs a prediction process.
  • the prediction unit 9 is based on a set of particles S t ⁇ 1
  • t ⁇ 1 (which is referred to as “prior probability distribution data S t ⁇ 1
  • v t (i) is a system noise according to a Gaussian distribution
  • the prediction unit 9 s t
  • t ⁇ 1 (i) f (s t ⁇ 1
  • the internal state of the i-th particle according to the prior probability distribution (prior probability distribution data) of the object TG1 at time t ⁇ 1 is (X t ⁇ 1
  • t (i) X t ⁇ 1
  • t ⁇ 1 after the prediction processing of the object TG1 obtained in this way is output from the prediction unit 9 to the likelihood acquisition unit 5 as prediction probability distribution data.
  • the first likelihood wp is acquired based on the prediction probability distribution data and the possibility measure data Dp acquired by the prediction unit 9, and the prediction probability distribution data and inevitability acquired by the prediction unit 9 Based on the measure data Dn, the second likelihood wn is acquired.
  • FIG. 7 is a diagram for explaining prediction processing, likelihood acquisition processing, and resampling processing when the observation target (tracking target) is the object TG1.
  • FIG. 7 schematically shows only particles in the vertical direction (Y-axis direction). Specifically, in FIG. 7, only the particles arranged on the vertical straight line A1-A2 shown in FIGS. 5 and 6 are schematically shown. Further, in FIG. 7, a curve Dp indicating the value of the possibility measure data Dp (pixel value of the image Dp) on the straight line A1-A2 and the value of the necessity measure data Dn (pixel value of the image Dn) on the straight line A1-A2. The curve Dn shown is shown. In FIG. 7, the curve Dp and the curve Dn are drawn with the left direction in FIG. 7 as the direction in which the pixel value increases (positive direction).
  • the likelihood acquisition unit 5 calculates the first likelihood wp using the prediction probability distribution data S t
  • the prediction unit 9 executes the prediction process on the particle set S t ⁇ 1
  • the likelihood acquisition unit 5 is the value of the probability measure data Dp (image Dp) in the image area occupied by each particle acquired according to the predicted probability distribution data S t
  • the first likelihood wp acquired in this manner is indicated by a circle in FIG. 7, and the larger the first likelihood wp is, the larger the circle is drawn.
  • the image area occupied by the i-th particle after the prediction processing has an internal state of the particle (X t
  • the value of the possibility measure data Dp (image Dp) and the value of the necessity measure data Dn (image Dn) are normalized data (values) and take values of 0 to 1.
  • t ⁇ 1 are i1 to i9 and the first likelihood value of the i-th particle is wp (i) , wp (I1) , wp (i2) , wp (i7) , wp (i8) , wp (i9) have a first likelihood value of “0”.
  • the likelihood acquisition unit 5 calculates the second likelihood wn using the prediction probability distribution data S t
  • the prediction unit 9 executes the prediction process on the particle set S t ⁇ 1
  • the likelihood acquisition unit 5 calculates the value of the necessity measure data Dn (image Dn) in the image area occupied by each particle acquired according to the predicted probability distribution data S t
  • the image area occupied by the i-th particle after the prediction processing has an internal state of the particle (X t
  • the value of the necessity measure data Dn (image Dn) is normalized data (value) and takes a value of 0 to 1.
  • t ⁇ 1 are i1 to i9 and the second likelihood value of the i-th particle is wn (i) , wn (I1) , wn (i2) , wn (i3) , wn (i6) , wn (i7) , wn (i8) , wn (i9) have a second likelihood value of “0”.
  • the posterior probability distribution estimation unit 6 estimates (acquires) the posterior probability distribution (posterior probability distribution data) based on the first likelihood wp, the second likelihood wn, and the predicted probability distribution data.
  • the posterior probability distribution estimation unit 6 restores and extracts M1 particles (particles) at a ratio proportional to the first likelihood wp (i) of the object TG1 at time t (particle xa t (i) ( i of the object TG1 Extract the second particle)). At this time, the posterior probability distribution estimation unit 6 takes over the second likelihood wn to the restored and extracted particles. That is, the posterior probability distribution estimation unit 6 sets the second likelihood wn acquired by the likelihood acquisition unit 5 to wn (i) which is an internal variable of s t
  • predicted probability distribution data S t is obtained according to t-1
  • one particle is restored by proportional distribution. In other words, the i1th particle acquired according to the posterior probability distribution data S t
  • the second likelihood wn (i4) 0.6 is acquired from the i4th particle acquired according to the predicted probability distribution data S t
  • the second likelihood wn 0.6 acquired by the likelihood acquiring unit 5 is set to wn (i) which is the internal variable. That is, the internal variables of the i2 to i5th particles acquired according to the posterior probability distribution data S t
  • predicted probability distribution data S t is obtained according to t-1
  • three particles are restored by proportional distribution. That is, the i6 to i8th particles acquired according to the posterior probability distribution data S t
  • the second likelihood wn (i5) 0.2 is acquired from the i5th particle acquired according to the predicted probability distribution data S t
  • the second likelihood wn 0.2 acquired by the likelihood acquiring unit 5 is set to wn (i) which is the internal variable. That is, the internal variables of the i6th to i8th particles acquired according to the posterior probability distribution data S t
  • predicted probability distribution data S t is obtained according to t-1
  • t is restored.
  • the second likelihood wn (i6) 0.0 is acquired from the i6th particle acquired according to the predicted probability distribution data S t
  • the posterior probability distribution estimation unit 6 restores and extracts M1 particles (particles) at a proportion proportional to the first likelihood wp (i) of the object TG1 at time t (particle xa t (i) (I-th particle of the object TG1) is extracted), and the second likelihood wn is inherited to the restored extracted particle. That is, the posterior probability distribution estimation unit 6 sets the second likelihood wn acquired by the likelihood acquisition unit 5 to wn (i) which is an internal variable of s t
  • the determination of whether to continue the tracking process for the tracking target or stop the tracking process is as follows: You may make it perform based on 1st likelihood value wp (i) .
  • the posterior probability distribution estimation unit 6 performs a determination process on whether to continue or stop the tracking process on the object TG1 by the following process. That is, the posterior probability distribution estimation unit 6 calculates the determination value DS by integrating the M1 first likelihood values wp (i) acquired for the object TG1 according to the following (Equation 4). Then, the posterior probability distribution estimation unit 6 performs the following processing. (1) When the determination value DS is smaller than the threshold th1, the posterior probability distribution estimation unit 6 stops the tracking process for the object TG1. That is, the posterior probability distribution estimation unit 6 excludes the object TG1 from the tracking target after the next time. (2) When the determination value DS is equal to or greater than the threshold th1, the posterior probability distribution estimation unit 6 continues the tracking process for the object TG1. That is, the posterior probability distribution estimation unit 6 sets the object TG1 as a tracking target after the next time.
  • the posterior probability distribution estimation unit 6 sets the object TG1 as the tracking target after the next time (continues the tracking process of the object TG1).
  • the value of the second likelihood wn acquired by the likelihood acquiring unit 5 is set as it is (inherited ) to wn (i) which is an internal variable of s t
  • the present invention is not limited to this, and the second likelihood is calculated using the ratio or difference between the first likelihood value wp and the second likelihood value wn acquired by the likelihood acquiring unit 5 as follows. You may make it take over the value of degree wn. That is, according to the following (1) to (2), the posterior probability distribution estimation unit 6 uses the ratio or difference between the first likelihood value wp and the second likelihood value wn to determine the value of the second likelihood wn. So that the internal variable wn t
  • t (i) of the i2 to i5th particles is given by wn t
  • t (i) wp t
  • t (i) ⁇ wn / wp (1 / M1) ⁇ 0.6 / 0.95 Is set.
  • i is any one of i2 to i5.
  • t (i) of the i2 to i5th particles is given by wn t
  • t (i) wp t
  • t (i) ⁇ (wp ⁇ wn) (1 / M1)-(0.95-0.6) Is set.
  • i is any one of i2 to i5.
  • the posterior probability distribution estimation unit 6 generates a sample set (particle set) S generated according to the posterior probability distribution p (x t
  • t (a posteriori probability distribution data S t
  • t ⁇ s t
  • the posterior probability distribution estimation unit 6 uses the above method to inherit the value of the second likelihood wn, and the wn t
  • the posterior probability distribution estimation unit 6 outputs the estimated (acquired) posterior probability distribution (a posteriori probability distribution data) from the state estimation device 1000 and also outputs it to the prior probability distribution output unit 7.
  • t (i) t (i) , Yt (i) , Wt (i) , Ht (i) ) may be acquired as estimation result data.
  • the posterior probability distribution estimation unit 6 may acquire estimation result data in the following processing. That is, the posterior probability distribution estimation unit 6 calculates the weighted average value wgt of the internal variables wn t
  • the prior probability distribution output unit 7 predicts the posterior probability distribution (posterior probability distribution data) at the time t input from the posterior probability distribution estimation unit 6 as the prior probability distribution (prior probability distribution data) at the next time t + 1. To the unit 9.
  • the state estimation apparatus 1000 repeats the same processing as described above.
  • the state estimation apparatus 1000 can acquire the posterior probability distribution (a posteriori probability distribution data) S t
  • t inherits (reflects) the value of the second likelihood wn, and is an internal variable wn t
  • the possibility measure data Dp includes first observation data D1 (observation data obtained by extracting an image region corresponding to a person) and second observation data D2 (observation obtained by extracting an image region corresponding to a moving object).
  • Data is obtained by performing addition or logical OR operation (OR operation). Therefore, a portion where the data value (pixel value) of the possibility measure data Dp is large indicates that there is a high possibility that the portion is a person or a moving object.
  • the first likelihood wp is derived from the likelihood measure data Dp, and M1 particles are restored and extracted at a ratio proportional to the value of the first likelihood wp. That is, a large number of particles are restored and extracted (placed) in the portion where the value of the first likelihood wp is large. Thereby, it is shown that the part where many particles are restored and extracted (arranged) is a person or a moving object.
  • the necessity measure data Dn is obtained by extracting the first observation data D1 (observation data obtained by extracting an image region corresponding to a person) and the second observation data D2 (an image region corresponding to a moving object). Observation data) is obtained by performing multiplication or logical product operation (AND operation). Therefore, the portion where the data value (pixel value) of the inevitability measure data Dn is large indicates that the person is likely to be a moving object. Since the second likelihood wn is a value derived from the inevitability measure data Dn, the large value of the second likelihood wn means that the particle having the second likelihood wn is a person, It also means that there is a high possibility that the particle is tracking a moving object.
  • the first likelihood wp is reflected in the number of particles
  • the second likelihood wn is reflected in an internal variable of each particle. Therefore, various tracking processes and detection processes can be realized by examining internal variables reflecting the arrangement position and number of particles and the second likelihood wn of particles.
  • the first embodiment there is a high possibility that a part where many particles are arranged is a person, and further, by examining an internal variable reflecting the second likelihood wn of the particle, an image region where the particle exists It is possible to detect whether or not there is a high possibility that the person is moving.
  • the state estimation apparatus 1000 the first likelihood wp is reflected in the number of particles, and the second likelihood wn is reflected in the internal variable of each particle. For example, in the part where many particles are arranged. It is possible to detect that the portion where the second likelihood wn of the particle is large is a moving person. Therefore, the state estimation apparatus 1000 can appropriately perform various object detection processing and tracking processing.
  • the state estimation apparatus 1000 acquires a plurality of observation data (possibility measure data Dp and necessity measure data Dn), and a plurality of likelihoods (first likelihood) derived from each of the acquired plurality of observation data.
  • a plurality of observation data possibly measure data Dp and necessity measure data Dn
  • first likelihood a plurality of likelihoods derived from each of the acquired plurality of observation data.
  • FIG. 8 is a schematic configuration diagram of a state estimation device 1000A according to a first modification of the first embodiment.
  • the first input data Din1 is input to the first observation acquisition unit 1, and the second input data Din2 is input to the second observation acquisition unit 2. That is, in the state estimation device 1000 of the first embodiment, one input data Din is input to the first observation acquisition unit 1 and the second observation acquisition unit 2, but in the state estimation device 1000A of the present modification, Different data is input to the first observation acquisition unit 1 and the second observation acquisition unit 2. In this respect, the state estimation device 1000A of the present modification is different from the state estimation device 1000 of the first embodiment.
  • the state estimation apparatus 1000A of the present modification since different data can be input to the first observation acquisition unit 1 and the second observation acquisition unit 2, for example, the first sensor (for example, an image sensor for visible light) ) (Not shown), the signal (data) Din1 is input to the first observation acquisition unit 1, and the signal (data) is acquired by the second sensor (for example, an infrared image sensor) (not shown). Din2 can be input to the second observation acquisition unit 2.
  • the state estimation apparatus 1000A of the present modification a plurality of observation data is acquired using a plurality of input data, and a plurality of likelihoods derived from each of the acquired plurality of observation data are used to obtain an object. By estimating the internal state of the object, it is possible to perform object detection processing and tracking processing more accurately and robustly.
  • FIG. 9 is a schematic configuration diagram of a state estimation device 1000B according to a second modification of the first embodiment.
  • the state estimation apparatus 1000B of the second modified example has N (N: natural number of 3 or more) observation acquisition units as shown in FIG.
  • the state estimation device 1000B replaces the possibility measure acquisition unit 3 with the possibility measure acquisition unit 3A in the state estimation device 1000 of the first embodiment, and acquires the necessity measure.
  • the unit 4 is replaced with the necessity measure acquisition unit 4A.
  • the first observation acquisition unit 1 receives input data Din1 acquired by a first sensor (not shown), acquires first observation data D1 obtained by extracting a predetermined image feature amount from the input data Din1, and acquires the first observation data D1
  • the first observation data D1 is output to the possibility measure acquisition unit 3A and the necessity measure acquisition unit 4A.
  • the second observation acquisition unit 2 receives the input data Din2 acquired by a second sensor (not shown), acquires the second observation data D2 obtained by extracting a predetermined image feature amount from the input data Din2, and acquires it.
  • the second observation data D2 is output to the possibility measure acquisition unit 3A and the necessity measure acquisition unit 4A.
  • the Kth observation acquisition unit receives input data DinK acquired by a Kth sensor (not shown) and extracts a predetermined image feature amount from the input data DinK.
  • the Kth observation data DK is acquired, and the acquired Kth observation data DK is output to the possibility measure acquisition unit 3A and the necessity measure acquisition unit 4A.
  • the possibility measure acquisition unit 3A receives the N observation data acquired by the N observation acquisition units, respectively.
  • the possibility measure acquisition unit 3A performs addition or logical OR operation (OR operation) on two or more (or all) of the input N observation data as in the first embodiment.
  • OR operation addition or logical OR operation
  • the possibility measure acquisition unit 3 ⁇ / b> A outputs the acquired possibility measure data Dp to the likelihood acquisition unit 5.
  • the inevitability measure acquisition unit 4A receives the N observation data acquired by the N observation acquisition units, respectively.
  • the inevitability measure acquisition unit 4A performs multiplication or logical product operation (AND operation) on two or more (or all) of the input N observation data as in the first embodiment. By doing so, inevitability measure data Dn is acquired. Then, the inevitability measure acquisition unit 4A outputs the acquired inevitability measure data Dn to the likelihood acquisition unit 5.
  • the subsequent processing is the same as in the first embodiment.
  • a plurality of observation data is acquired using various input data, and a plurality of likelihoods derived from the acquired plurality of observation data are used to determine the object.
  • object detection processing and tracking processing can be performed more accurately and robustly.
  • the observation data acquired by the first observation acquisition unit 1 and the second observation acquisition unit 2 is the same as that in the first embodiment, and the observation data acquired by the third observation acquisition unit is converted into an infrared image sensor.
  • the inevitability measure data Dn is acquired from the above three observation data and the inevitability measure data Dn is acquired from the input data acquired using the above-described observation data, the inevitability measure data Dn is a person and moves.
  • the pixel value is large in an image area corresponding to a moving object and an object having a high temperature.
  • the 2nd likelihood wn is acquired from the said necessity measure data Dn.
  • the state estimation apparatus 1000B according to the present modification detects a portion (image region) where many particles having a high second likelihood value wn are concentrated based on the acquired posterior probability distribution data S t
  • the state estimation apparatus 1000B of the present modification for example, it is possible to appropriately perform tracking processing and detection processing for a person, a moving object, and an object having a high temperature. That is, in the state estimation device 1000B of the present modification, a plurality of observation data is acquired using a plurality of various input data, and a plurality of likelihoods are used using a plurality of likelihoods by the same processing as in the first embodiment. The internal state can be estimated appropriately. As a result, the state estimation apparatus 1000B according to the present modification can perform various object detection processing and tracking processing more accurately and robustly.
  • input data acquired from one sensor may be input to any two or more observation acquisition units as in the first modification.
  • the said embodiment (a modification is included) demonstrated the case where the likelihood acquisition part 5 was one, it is not limited to this,
  • a likelihood acquisition part is made into a possibility measure.
  • the first likelihood acquisition unit for acquiring the first likelihood wp from the data Dp and the second likelihood acquisition unit for acquiring the second likelihood wn from the necessity measure data Dn are configured separately. May be. In this case, when threshold processing or the like is performed, individual threshold setting or the like can be easily performed in the first likelihood acquisition unit and the second likelihood acquisition unit.
  • the parameters for obtaining the likelihood are the coordinate position (X t (i) , Y t (i) ) on the image of the i-th particle,
  • the width W and height H for determining a rectangular image area having a width W and a height H centered on the coordinate position are set as parameters for setting the rectangular area, the present invention is not limited to this.
  • the parameters for obtaining the likelihood are the coordinate position (X t (i) , Y t (i) ) on the image of the i-th particle and a circular shape with a radius R centered on the coordinate position.
  • the radius R for determining the image area may be used as a parameter for setting the circular area.
  • the parameters for obtaining the likelihood are the coordinate position ( Xt (i) , Yt (i) ) on the image of the i-th particle, the long axis 2A centered on the coordinate position, and the short axis.
  • the value A (half value of the length of the major axis) and the value B (value of half the length of the minor axis) for determining the 2B elliptical image region may be used as parameters for setting the ellipse region.
  • the angle ⁇ formed by the major axis and the minor axis may be added as a parameter for setting the elliptical region.
  • each block may be individually made into one chip by a semiconductor device such as an LSI, or may be made into one chip so as to include a part or all of the blocks.
  • LSI LSI
  • IC system LSI
  • super LSI ultra LSI depending on the degree of integration
  • the method of circuit integration is not limited to LSI, and may be realized by a dedicated circuit or a general-purpose processor.
  • An FPGA Field Programmable Gate Array
  • a reconfigurable processor that can reconfigure the connection and setting of circuit cells inside the LSI may be used.
  • part or all of the processing of each functional block in each of the above embodiments may be realized by a program.
  • a part or all of the processing of each functional block in each of the above embodiments is performed by a central processing unit (CPU) in the computer.
  • a program for performing each processing is stored in a storage device such as a hard disk or a ROM, and is read out and executed in the ROM or the RAM.
  • each process of the above embodiment may be realized by hardware, or may be realized by software (including a case where it is realized together with an OS (operating system), middleware, or a predetermined library). Further, it may be realized by mixed processing of software and hardware.
  • OS operating system
  • middleware middleware
  • predetermined library predetermined library
  • execution order of the processing methods in the above embodiment is not necessarily limited to the description of the above embodiment, and the execution order can be changed without departing from the gist of the invention.
  • a computer program that causes a computer to execute the above-described method and a computer-readable recording medium that records the program are included in the scope of the present invention.
  • the computer-readable recording medium include a flexible disk, hard disk, CD-ROM, MO, DVD, DVD-ROM, DVD-RAM, large-capacity DVD, next-generation DVD, and semiconductor memory. .
  • the computer program is not limited to the one recorded on the recording medium, and may be transmitted via a telecommunication line, a wireless or wired communication line, a network represented by the Internet, or the like.
  • the word “part” may be a concept including “circuitry”.
  • the circuit may be realized in whole or in part by hardware, software, or a mixture of hardware and software.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

追跡対象の物体について、複数の観測データを取得し、取得した複数の観測データのそれぞれから導出された複数の尤度を用いて、物体の内部状態を推定することにより、より正確かつロバストに、物体の検出処理や追跡処理を行うことができる状態推定装置を実現する。状態推定装置(1000)では、複数の観測データである第1観測データおよび第2観測データが取得され、取得した複数の観測データから、可能性測度データおよび必然性測度データが取得される。そして、状態推定装置(1000)では、尤度取得部(5)により、可能性測度データおよび必然性測度データから、第1尤度wpおよび第2尤度wnが取得され、取得された第1尤度wpおよび第2尤度wnを用いて、物体の内部状態を推定することができる。したがって、状態推定装置(1000)では、より正確かつロバストに、多様な物体の検出処理や追跡処理を行うことができる。

Description

状態推定装置、プログラムおよび集積回路
 本発明は、時系列フィルタを用いて観測可能な事象の状態推定を行う技術に関し、例えば、時系列フィルタを用いて動画像上の物体を追跡する技術に関する。
 時々刻々変化する観測対象の内部状態を推定する技術として、時系列フィルタを用いた技術がある。時系列フィルタとは、時刻tにおける対象の内部状態を状態ベクトルxとし、時刻tにおいて観測された特徴を観測ベクトルyとしたとき、観測された観測ベクトルyから、直接観測できない対象の内部状態xを推定する手法である。
 つまり、時系列フィルタとは、以下の状態空間モデル、すなわち、
  システムモデル:x~f(x|xt-1
  観測モデル:y~h(y|x
から、観測系列(時刻tまでの観測ベクトルの集合)y1:t={y,y,・・・,y}が与えられたとき、状態系列x0:t={x,x,・・・,x}の条件付確率分布p(x|y1:t)を求める手法である。
 システムノイズをvとし、観測ノイズをwとすると、対象の内部状態のシステムモデルおよび対象を観測した時の観測モデルは、以下のように表すことができる。
  対象の内部状態のシステムモデル:x=f(xt-1,v
  対象を観測した時の観測モデル:y=h(x,w
  f(xt-1,v):時刻t-1と時刻tとの状態変化を表す状態遷移関数
  h(x,w):状態xのときに得られる観測ベクトルを表す関数
 このとき、1期先予測は、
Figure JPOXMLDOC01-appb-M000003

であり、ベイズ則により、時刻tにおける事後確率分布p(x|y1:t)は、
Figure JPOXMLDOC01-appb-M000004

となる。なお、h(y|x)は尤度(状態xのときに、観測ベクトルyを得る確率)であり、p(x|y1:t-1)は予測確率分布である。
 時系列フィルタの実装の一手法としてパーティクルフィルタがある。パーティクルフィルタでは、観測対象の内部状態の確率分布をパーティクルの分布で表現し、現時刻における状態の事後確率分布を次時刻における状態の事前確率分布とする。そして、パーティクルフィルタでは、当該事前確率分布を表すパーティクル(当該事前確率分布に従って生成されたサンプル集合)の状態から推定されたテンプレートの観測(予測サンプル)と、次時刻における実際の画像(実際の観測)とを比較することで尤度を求める。
 そして、パーティクルフィルタでは、求めた尤度と予測確率分布とからパーティクルの事後確率分布を推定する。
 次時刻以降、前述の処理を繰り返すことで、パーティクルフィルタでは、動的に変化する観測対象(例えば、追跡対象)の状態が逐次的に推定される。
 パーティクルフィルタでは、粒子数(パーティクルの数)をM(M:自然数)とし、1≦i≦M(i:整数)としたとき、以下の(1)~(4)の処理を行う。
(1)粒子生成(1期先予測)
 以下の数式に相当する処理により、各サンプル(各パーティクル)について、時刻tにおける予測サンプルを生成する。つまり、時刻t-1の事後確率分布(時刻t-1の観測対象の内部状態の確率分布)から、システムモデル(状態遷移関数)により予測した確率分布(予測確率分布)を取得する。具体的には、システムモデルfに従って、時刻t-1の各サンプル(各パーティクル)を遷移させて予測サンプルを生成する。
  xa (i)~f(x|xt-1 (i)
  xa={xa (1),xa (2),xa (3),・・・,xa (M)
  xa:状態遷移関数f()による状態ベクトルxの予測(推定)ベクトル
(2)重みの計算(尤度計算)
 以下の数式に相当する処理により、処理(1)で生成された各予測サンプルについて、重み(尤度)を算出する。つまり、観測モデルhに従って、観測ベクトルyを得る確率(尤度)を推定する。
  wa (i)~h(y|xa (i)
  wa={wa (1),wa (2),wa (3),・・・,wa (M)
  wa:関数h()による重み(尤度)wの予測(推定)ベクトル(尤度の予測値の集合)
(3)リサンプリング
 重み(尤度)wa (i)に比例する割合でM個の粒子を復元抽出する(粒子xa (i)を抽出する)。このようにして復元抽出されたM個の粒子の分布から、時刻tの事後確率分布(時刻tの観測対象の内部状態の確率分布)を取得する。
(4)時刻tを進めて(1)に戻る。このとき、処理(3)で取得した事後確率分布(時刻tでの事後確率分布)を、次の時刻(時刻t+1)の事前確率分布とする。
 このように、パーティクルフィルタとは、観測対象の状態を表すパラメータの事前確率分布の予測と、事後確率分布の計算とを繰り返し行うことで、時々刻々変化する、観測対象の状態を表すパラメータを推定するものである。このようなパーティクルフィルタは、例えば、動画像上の物体(オブジェクト)の位置の追跡に利用される。パーティクルフィルタを用いて物体(オブジェクト)の位置追跡処理を行う場合、追跡対象(観測対象の一例)の状態を表すパラメータは、例えば、物体の位置を表すパラメータである。この場合、パーティクルフィルタでは、物体の位置を表すパラメータから推定される観測(予測サンプル)と、実際の観測(例えば、カメラ等により撮像される画像)とを比較することによって尤度を算出し、算出した尤度に基づいて、粒子のリサンプリングを行うことで、観測対象の状態を表すパラメータの事後確率分布を取得することができる(例えば、特許文献1(特開2012-234466号公報))。
 しかしながら、従来技術では、単一の観測データを用いて物体の追跡処理を実行するので、観測データを取得する環境が変化した場合等において、適切な観測データを安定して取得できず、その結果、内部状態の推定を適切に行うことができないことがある。また、従来技術では、単一の観測データを用いて、物体の追跡処理が実行されるので、多様な対象物を適切に検出・追跡処理することが困難である。
 そこで、本発明は、上記問題点に鑑み、追跡対象の物体について、複数の観測データを取得し、取得した複数の観測データのそれぞれから導出された複数の尤度を用いて、物体の内部状態を推定することにより、より正確かつロバストに、物体の検出処理や追跡処理を行うことができる状態推定装置、プログラム、および、集積回路を実現することを目的とする。
 上記課題を解決するために、第1の発明は、観測対象の内部状態を推定する状態推定装置であって、第1観測取得部と、第2観測取得部と、可能性測度取得部と、必然性測度取得部と、予測部と、尤度取得部と、事後確率分布推定部と、事前確率分布出力部と、を備える。
 第1観測取得部は、観測可能な事象から得られる第1観測データを、任意の時間間隔で取得する。
 第2観測取得部は、観測可能な事象から得られる第2観測データを、任意の時間間隔で取得する。
 可能性測度取得部は、第1観測データおよび第2観測データに対して、加算処理あるいは論理和演算を行うことで可能性測度データを取得する。
 必然性測度取得部は、第1観測データおよび第2観測データに対して、乗算処理あるいは論理積演算を行うことで必然性測度データを取得する。
 予測部は、前時刻t-1に取得された観測対象の内部状態の確率分布である事後確率分布データに対して予測処理を行い、現時刻tにおける観測対象の内部状態の確率分布である予測確率分布データを取得する。
 尤度取得部は、予測確率分布データおよび可能性測度データに基づいて、第1尤度を取得するともに、予測確率分布データおよび必然性測度データに基づいて、第2尤度を取得する。
 事後確率分布推定部は、第1尤度と予測確率分布データとから、現時刻tにおける観測対象の内部状態の確率分布である事後確率分布データを推定する。
 事前確率分布出力部は、事後確率分布推定部により推定された事後確率分布データに基づく事前確率分布データを、次時刻t+1において、事前確率分布データとして出力する。
 この状態推定装置では、複数の観測データである第1観測データおよび第2観測データが取得され、取得した複数の観測データから、可能性測度データおよび必然性測度データが取得される。そして、この状態推定装置では、尤度取得部により、可能性測度データおよび必然性測度データから、複数の尤度(第1尤度および第2尤度)が取得され、取得された複数の尤度(第1尤度および第2尤度)を用いて、物体の内部状態を推定することができる。したがって、この状態推定装置では、より正確かつロバストに、多様な物体の検出処理や追跡処理を行うことができる。
 なお、「時刻」とは、例えば、観測対象をサンプリングする時間間隔に基づく時刻を含む概念であり、例えば、時刻t-1は、時刻tのサンプリングの1つ前のサンプリング時刻を示す。
 また、「現時刻t」と「次時刻t+1」、あるいは、「前時刻t-1」と「現時刻t」との時間間隔は、例えば、事後確率分布推定部において、単位画像分(例えば、1フレーム分)の事後確率分布データを取得するのに十分な時間であればよく、例えば、1フレームに相当する時間(1フレーム時間)である。
 第2の発明は、第1の発明であって、事後確率分布推定部は、現時刻tにおける事後確率分布データに従い復元抽出されるパーティクルの内部変数に、尤度取得部により取得された第2尤度に基づいて設定される値を含める。
 この状態推定装置では、第1尤度と第2尤度とを反映させた事後確率分布(事後確率分布データ)St|tを取得することができる。つまり、この状態推定装置では、複数の観測データ(可能性測度データおよび必然性測度データ)を取得し、取得した複数の観測データのそれぞれから導出された複数の尤度(第1尤度wpおよび第2尤度wn)を用いて、物体の内部状態を推定することにより、より正確かつロバストに、物体の検出処理や追跡処理を行うことができる。
 例えば、事後確率分布データSt|tにより取得されたパーティクルは、それぞれ、第2尤度wnの値を承継した(反映させた)内部変数を有しているので、各パーティクルが存在する位置、および、第2尤度wnの値を承継した(反映させた)内部変数を調べることで、当該パーティクル(第1尤度と第2尤度とを反映させた事後確率分布データ)を用いて多様な追跡処理、検出処理を実行することができる。
 第3の発明は、第2の発明であって、事後確率分布データをSt|tとし、事後確率分布データSt|tに従って取得されたi番目のパーティクルの内部変数の1つをwnt|t (i)とし、尤度取得部により取得された、当該パーティクルに対応する第2尤度をwnとすると、事後確率分布推定部は、
  wnt|t (i)=wn
により規定される値を、現時刻tにおける事後確率分布データに従い復元抽出されるパーティクルの内部変数に含める。
 この状態推定装置では、第1尤度と第2尤度とを反映させた事後確率分布(事後確率分布データ)St|tを取得することができる。つまり、この状態推定装置では、複数の観測データ(可能性測度データおよび必然性測度データ)を取得し、取得した複数の観測データのそれぞれから導出された複数の尤度(第1尤度wpおよび第2尤度wn)を用いて、物体の内部状態を推定することにより、より正確かつロバストに、物体の検出処理や追跡処理を行うことができる。
 例えば、事後確率分布データSt|tにより取得されたパーティクルは、それぞれ、第2尤度wnの値を承継した(反映させた)内部変数wnt|t (i)を有しているので、各パーティクルが存在する位置、および、第2尤度wnの値を承継した(反映させた)内部変数wnt|t (i)を調べることで、当該パーティクル(第1尤度と第2尤度とを反映させた事後確率分布データ)を用いて多様な追跡処理、検出処理を実行することができる。
 第4の発明は、第2の発明であって、事後確率分布データをSt|tとし、事後確率分布データSt|tに従って取得されたi番目のパーティクルの内部変数の1つをwnt|t (i)とし、尤度取得部により取得された、当該パーティクルに対応する第1尤度をwpとし、尤度取得部により取得された、当該パーティクルに対応する第2尤度をwnとし、現時刻tにおける事後確率分布データに従い復元抽出されるパーティクル数をM1(M1:自然数)とし、現時刻tにおける事後確率分布データに従い復元抽出されるパーティクルの第1尤度wpに基づく内部変数をwpt|t (i)すると、事後確率分布推定部は、
  wnt|t (i)=wpt|t (i)×wn/wp
        =(1/M1)×wn/wp
により規定される値を、現時刻tにおける事後確率分布データに従い復元抽出されるパーティクルの内部変数に含める。
 この状態推定装置では、第1尤度と第2尤度とを反映させた事後確率分布(事後確率分布データ)St|tを取得することができる。つまり、この状態推定装置では、複数の観測データ(可能性測度データおよび必然性測度データ)を取得し、取得した複数の観測データのそれぞれから導出された複数の尤度(第1尤度wpおよび第2尤度wn)を用いて、物体の内部状態を推定することにより、より正確かつロバストに、物体の検出処理や追跡処理を行うことができる。
 例えば、事後確率分布データSt|tにより取得されたパーティクルは、それぞれ、第2尤度wnの値を第1尤度との比(wn/wp)により承継した(反映させた)内部変数wnt|t (i)を有しているので、各パーティクルが存在する位置、および、第2尤度wnの値を承継した(反映させた)内部変数wnt|t (i)を調べることで、当該パーティクル(第1尤度と第2尤度とを反映させた事後確率分布データ)を用いて多様な追跡処理、検出処理を実行することができる。
 なお、第2尤度wnの値と第1尤度との比(wn/wp)は、上記以外にも、比(wp/wn)としてもよい。
 第5の発明は、第2の発明であって、事後確率分布データをSt|tとし、事後確率分布データSt|tに従って取得されたi番目のパーティクルの内部変数の1つをwnt|t (i)とし、尤度取得部により取得された、当該パーティクルに対応する第1尤度をwpとし、尤度取得部により取得された、当該パーティクルに対応する第2尤度をwnとし、現時刻tにおける事後確率分布データに従い復元抽出されるパーティクル数をM1(M1:自然数)とし、現時刻tにおける事後確率分布データに従い復元抽出されるパーティクルの第1尤度wpに基づく内部変数をwpt|t (i)すると、事後確率分布推定部は、
  wnt|t (i)=wpt|t (i)-(wp-wn)
        =(1/M1)-(wp-wn)
により規定される値を、現時刻tにおける事後確率分布データに従い復元抽出されるパーティクルの内部変数に含める。
 この状態推定装置では、第1尤度と第2尤度とを反映させた事後確率分布(事後確率分布データ)St|tを取得することができる。つまり、この状態推定装置では、複数の観測データ(可能性測度データおよび必然性測度データ)を取得し、取得した複数の観測データのそれぞれから導出された複数の尤度(第1尤度wpおよび第2尤度wn)を用いて、物体の内部状態を推定することにより、より正確かつロバストに、物体の検出処理や追跡処理を行うことができる。
 例えば、事後確率分布データSt|tにより取得されたパーティクルは、それぞれ、第2尤度wnの値を第1尤度との差(wp-wn)により承継した(反映させた)内部変数wnt|t (i)を有しているので、各パーティクルが存在する位置、および、第2尤度wnの値を承継した(反映させた)内部変数wnt|t (i)を調べることで、当該パーティクル(第1尤度と第2尤度とを反映させた事後確率分布データ)を用いて多様な追跡処理、検出処理を実行することができる。
 なお、第2尤度wnの値と第1尤度との差(wp-wn)は、上記以外にも、差(wn-wp)としてもよい。
 第6の発明は、第2の発明であって、事後確率分布データをSt|tとし、事後確率分布データSt|tに従って取得されたi番目のパーティクルの内部変数の1つをwnt|t (i)とし、尤度取得部により取得された、当該パーティクルに対応する第1尤度をwpとし、尤度取得部により取得された、当該パーティクルに対応する第2尤度をwnとし、現時刻tにおける事後確率分布データに従い復元抽出されるパーティクル数をM1(M1:自然数)とし、現時刻tにおける事後確率分布データに従い復元抽出されるパーティクルの第1尤度wpに基づく内部変数をwpt|t (i)すると、
 事後確率分布推定部は、M1、wp、wnの3つの変数のうち、少なくとも1つを変数とする関数Φにより、
  wnt|t (i)=Φ(M1)
  wnt|t (i)=Φ(wp)
  wnt|t (i)=Φ(wn)
  wnt|t (i)=Φ(M1,wp)
  wnt|t (i)=Φ(M1,wn)
  wnt|t (i)=Φ(wp,wn)
  wnt|t (i)=Φ(M1,wp,wn)
のいずれかで規定される値を、現時刻tにおける事後確率分布データに従い復元抽出されるパーティクルの内部変数に含める。
 この状態推定装置では、第1尤度と第2尤度とを反映させた事後確率分布(事後確率分布データ)St|tを取得することができる。そして、この状態推定装置では、第2尤度wnの内部変数wnt|t (i)を、M1、wp、wnの3つの変数のうち、少なくとも1つを変数とする関数Φにより規定されるので、物体の内部状態を、多様な変数により規定された第2尤度wnに基づいて、より精度良く推定することができる。
 第7の発明は、第2から第6のいずれかの発明であって、物体に対する追跡処理を行う場合、以下の処理を行う。すなわち、事後確率分布データをSt|tとし、事後確率分布データSt|tに従って取得されたi番目のパーティクルの内部変数の1つをwnt|t (i)とし、尤度取得部により取得された、当該パーティクルに対応する第1尤度をwpとし、尤度取得部により取得された、当該パーティクルに対応する第2尤度をwnとし、現時刻tにおける事後確率分布データに従い復元抽出されるパーティクル数をM1(M1:自然数)とし、現時刻tにおける事後確率分布データに従い復元抽出されるパーティクルの第1尤度wpに基づく内部変数をwpt|t (i)すると、
 事後確率分布推定部は、第1尤度wpに基づいて、物体に対する追跡処理を継続するか、あるいは、停止させるかの判定処理を実行する。
 これにより、この状態推定装置では、第1尤度wpに基づいて、物体に対する追跡処理を継続するか、あるいは、停止させるかの判定処理を実行することができる。
 第8の発明は、第7の発明であって、予測確率分布データSt|t-1とし、予測確率分布データSt|t-1に従って取得されたパーティクルであって、物体に対する追跡処理を行うために用意されたN1個(N1:自然数)のパーティクルのj番目のパーティクルについて、尤度取得部により取得された、当該j番目のパーティクルの第1尤度についての内部変数をwp(j)とすると、
 事後確率分布推定部は、
Figure JPOXMLDOC01-appb-M000005

により内部変数wp(j)の積算値sumを取得する。そして、事後確率分布推定部は、以下の処理を行う。
(1)積算値sumが所定の閾値Th1よりも小さい場合、事後確率分布推定部は、物体に対する追跡処理を停止させる。
(2)積算値sumが所定の閾値Th1以上である場合、事後確率分布推定部は、物体に対する追跡処理を継続させる。
 これにより、この状態推定装置では、第1尤度についての内部変数をwp(j)の積算値に基づいて、物体に対する追跡処理を継続するか、あるいは、停止させるかの判定処理を実行することができる。
 第9の発明は、第7の発明であって、予測確率分布データSt|t-1とし、予測確率分布データSt|t-1に従って取得されたパーティクルであって、物体に対する追跡処理を行うために用意されたN1個(N1:自然数)のパーティクルのj番目のパーティクルについて、尤度取得部により取得された、当該j番目のパーティクルの第1尤度についての内部変数をwp(j)とすると、
 事後確率分布推定部は、N1個の第1尤度についての内部変数wp(j)の中の最大値を最大値wp_maxとして取得する。そして、事後確率分布推定部は、以下の処理を行う。
(1)最大値wp_maxが所定の閾値Th2よりも小さい場合、事後確率分布推定部は、物体に対する追跡処理を停止させる。
(2)最大値wp_maxが所定の閾値Th2以上である場合、事後確率分布推定部は、物体に対する追跡処理を継続させる。
 これにより、この状態推定装置では、第1尤度についての内部変数wp(j)の最大値に基づいて、物体に対する追跡処理を継続するか、あるいは、停止させるかの判定処理を実行することができる。
 第10の発明は、第2から第6のいずれかの発明であって、物体に対する追跡処理を行う場合、以下の処理を行う。すなわち、事後確率分布データをSt|tとし、事後確率分布データSt|tに従って取得されたi番目のパーティクルの内部変数の1つをwnt|t (i)とし、尤度取得部により取得された、当該パーティクルに対応する第1尤度をwpとし、尤度取得部により取得された、当該パーティクルに対応する第2尤度をwnとし、現時刻tにおける事後確率分布データに従い復元抽出されるパーティクル数をM1(M1:自然数)とし、現時刻tにおける事後確率分布データに従い復元抽出されるパーティクルの第1尤度wpに基づく内部変数をwpt|t (i)すると、
 事後確率分布推定部は、第2尤度wnに基づいて、追跡対象の物体の内部状態を推定するための推定結果データを取得する。
 これにより、この状態推定装置では、第2尤度wnに基づいて、追跡対象の物体の内部状態を推定するための推定結果データを取得することができる。
 第11の発明は、第10の発明であって、事後確率分布推定部は、事後確率分布データSt|tに従って取得されたi番目のパーティクルの位置に関する内部変数のベクトルデータを、ベクトルデータ(X (i),Y (i),W (i),H (i))とすると、
 事後確率分布データSt|tに従って取得されたM1個のパーティクルのうち、内部変数wnt|t (i)の値が最大であるパーティクルのベクトルデータ(X (i),Y (i),W (i),H (i))を推定結果データとして取得する。
 この状態推定装置では、内部変数wnt|t (i)の値が最大であるパーティクルのベクトルデータを推定結果データとして取得するので、少ない演算量で、精度良く、追跡対象の内部状態を推定することができる。その結果、この状態推定装置では、少ない演算量で、精度良く、物体の追跡処理を実行することができる。
 第12の発明は、第10の発明であって、事後確率分布推定部は、事後確率分布データSt|tに従って取得されたi番目のパーティクルの位置に関する内部変数のベクトルデータを、ベクトルデータ(X (i),Y (i),W (i),H (i))とすると、
 事後確率分布データSt|tに従って取得されたM1個のパーティクルの前記内部変数wnt|t (i)の重み付き平均値wgtを
Figure JPOXMLDOC01-appb-M000006

により取得し、取得した重み付き平均値wgtを用いて取得したベクトルデータ(wgt×X (i),wgt×Y (i),wgt×W (i),wgt×H (i))を推定結果データとして取得する。
 これにより、この状態推定装置では、重み付き平均値wgtを用いて取得したベクトルデータを用いて、精度良く、追跡対象の内部状態を推定することができる。その結果、この状態推定装置では、精度良く、物体の追跡処理を実行することができる。
 第13の発明は、観測対象の内部状態を推定する状態推定方法をコンピュータで実行するためのプログラムである。状態推定方法は、第1観測取得ステップと、第2観測取得ステップと、可能性測度取得ステップと、必然性測度取得ステップと、予測ステップと、尤度取得ステップと、事後確率分布推定ステップと、事前確率分布出力ステップと、を備える。
 第1観測取得ステップは、観測可能な事象から得られる第1観測データを、任意の時間間隔で取得する。
 第2観測取得ステップは、観測可能な事象から得られる第2観測データを、任意の時間間隔で取得する。
 可能性測度取得ステップは、第1観測データおよび第2観測データに対して、加算処理あるいは論理和演算を行うことで可能性測度データを取得する。
 必然性測度取得ステップは、第1観測データおよび第2観測データに対して、乗算処理あるいは論理積演算を行うことで必然性測度データを取得する。
 予測ステップは、前時刻t-1に取得された観測対象の内部状態の確率分布である事後確率分布データに対して予測処理を行い、現時刻tにおける観測対象の内部状態の確率分布である予測確率分布データを取得する。
 尤度取得ステップは、予測確率分布データおよび可能性測度データに基づいて、第1尤度を取得するともに、予測確率分布データおよび必然性測度データに基づいて、第2尤度を取得する。
 事後確率分布推定ステップは、第1尤度と予測確率分布データとから、現時刻tにおける観測対象の内部状態の確率分布である事後確率分布データを推定する。
 事前確率分布出力ステップは、事後確率分布推定ステップにより推定された事後確率分布データに基づく事前確率分布データを、次時刻t+1において、事前確率分布データとして出力する。
 これにより、第1の発明と同様の効果を奏する状態推定方法をコンピュータに実行させるプログラムを実現することができる。
 第14の発明は、観測対象の内部状態を推定する状態推定処理用の集積回路であって、第1観測取得部と、第2観測取得部と、可能性測度取得部と、必然性測度取得部と、予測部と、尤度取得部と、事後確率分布推定部と、事前確率分布出力部と、を備える。
 第1観測取得部は、観測可能な事象から得られる第1観測データを、任意の時間間隔で取得する。
 第2観測取得部は、観測可能な事象から得られる第2観測データを、任意の時間間隔で取得する。
 可能性測度取得部は、第1観測データおよび第2観測データに対して、加算処理あるいは論理和演算を行うことで可能性測度データを取得する。
 必然性測度取得部は、第1観測データおよび第2観測データに対して、乗算処理あるいは論理積演算を行うことで必然性測度データを取得する。
 予測部は、前時刻t-1に取得された観測対象の内部状態の確率分布である事後確率分布データに対して予測処理を行い、現時刻tにおける観測対象の内部状態の確率分布である予測確率分布データを取得する。
 尤度取得部は、予測確率分布データおよび可能性測度データに基づいて、第1尤度を取得するともに、予測確率分布データおよび必然性測度データに基づいて、第2尤度を取得する。
 事後確率分布推定部は、第1尤度と予測確率分布データとから、現時刻tにおける観測対象の内部状態の確率分布である事後確率分布データを推定する。
 事前確率分布出力部は、事後確率分布推定部により推定された事後確率分布データに基づく事前確率分布データを、次時刻t+1において、事前確率分布データとして出力する。
 これにより、第1の発明と同様の効果を奏する集積回路を実現することができる。
 本発明によれば、追跡対象の物体について、複数の観測データを取得し、取得した複数の観測データのそれぞれから導出された複数の尤度を用いて、物体の内部状態を推定することにより、より正確かつロバストに、物体の検出処理や追跡処理を行うことができる状態推定装置、プログラム、および、集積回路を実現することができる。
第1実施形態に係る状態推定装置1000の概略構成図。 撮像装置(不図示)により撮像された動画像(撮像動画像)である入力データDinを模式的に示す図。 第1観測取得部1により取得された第1観測データD1を模式的に示す図。 第2観測取得部2により取得された第2観測データD2を模式的に示す図。 図3の第1観測データD1(画像D1)および図4の第2観測データD2(画像D2)から取得された可能性測度データDp(画像Dp)を示す図。 図3の第1観測データD1(画像D1)および図4の第2観測データD2(画像D2)から取得された必然性測度データDn(画像Dn)を示す図。 観測対象(追跡対象)を物体TG1とした場合における、予測処理、尤度取得処理、リサンプリング処理を説明するための図。 第1実施形態の第1変形例に係る状態推定装置1000Aの概略構成図。 第1実施形態の第2変形例に係る状態推定装置1000Bで概略構成図。
 [第1実施形態]
 第1実施形態について、図面を参照しながら、以下、説明する。
 <1.1:状態推定装置の構成>
 図1は、第1実施形態に係る状態推定装置1000の概略構成図である。
 状態推定装置1000は、図1に示すように、第1観測取得部1と、第2観測取得部2と、可能性測度取得部3と、必然性測度取得部4と、尤度取得部5と、事後確率分布推定部6と、事前確率分布出力部7と、初期状態設定部8と、予測部9と、を備える。
 第1観測取得部1は、入力データDinを入力とする。第1観測取得部1は、入力データDinから第1観測データD1を取得し、取得した第1観測データD1を可能性測度取得部3と、必然性測度取得部4とに出力する。第1観測取得部1は、例えば、撮像装置により撮像された画像(撮像画像)を入力データDinとし、当該入力データDinから、所定の画像特徴量を抽出した画像特徴量抽出画像を第1観測データとして取得する。
 第2観測取得部2は、入力データDinを入力とする。第2観測取得部2は、入力データDinから第2観測データD2を取得し、取得した第2観測データD2を可能性測度取得部3と、必然性測度取得部4とに出力する。第2観測取得部2は、例えば、撮像装置により撮像された画像(撮像画像)を入力データDinとし、当該入力データDinから、所定の画像特徴量を抽出した画像特徴量抽出画像を第2観測データとして取得する。
 可能性測度取得部3は、第1観測取得部1から出力される第1観測データD1と、第2観測取得部2から出力される第2観測データD2と、を入力する。可能性測度取得部3は、第1観測データD1と第2観測データD2とに対して、加算または論理和演算(OR演算)を行うことで、可能性測度データDpを取得する。そして、可能性測度取得部3は、取得した可能性測度データDpを尤度取得部5に出力する。
 必然性測度取得部4は、第1観測取得部1から出力される第1観測データD1と、第2観測取得部2から出力される第2観測データD2と、を入力する。必然性測度取得部4は、第1観測データD1と第2観測データD2とに対して、乗算または論理積演算(AND演算)を行うことで、必然性測度データDnを取得する。そして、必然性測度取得部4は、取得した必然性測度データDnを尤度取得部5に出力する。
 尤度取得部5は、可能性測度取得部3から出力される可能性測度データDpと、必然性測度取得部4から出力される必然性測度データDnと、予測部9から出力される予測確率分布データとを入力する。尤度取得部5は、予測確率分布データおよび可能性測度データDpに基づいて、第1尤度wpを取得する。また、尤度取得部5は、予測確率分布データおよび必然性測度データDnに基づいて、第2尤度wnを取得する。そして、尤度取得部5は、取得した第1尤度wpおよび第2尤度wnを事後確率分布推定部6に出力する。
 事後確率分布推定部6は、尤度取得部5から出力される第1尤度wpおよび第2尤度wnと、予測部9から出力される予測確率分布データとを入力する。事後確率分布推定部6は、第1尤度wpおよび第2尤度wnと予測確率分布データとに基づいて、事後確率分布(事後確率分布データ)を推定(取得)する。そして、事後確率分布推定部6は、推定(取得)した事後確率分布(事後確率分布データ)を、事前確率分布出力部7に出力する。
 事前確率分布出力部7は、初期状態設定部8から出力される初期状態の設定データと、事後確率分布推定部6から出力される事後確率分布(事後確率分布データ)とを入力する。事前確率分布出力部7は、初期状態では、初期状態設定部8から出力される初期状態の設定データに基づいて、事前確率分布(事前確率分布データ)を生成し、生成した事前確率分布(事前確率分布データ)を予測部9に出力する。
 また、事前確率分布出力部7は、初期状態以外の状態では、事後確率分布推定部6から出力される、時刻tにおける事後確率分布(事後確率分布データ)を、次の時刻t+1において、事前確率分布(事前確率分布データ)として、予測部9に出力する。
 初期状態設定部8は、初期状態における事前確率分布(事前確率分布)を生成するためのデータ(初期値)を保持しており、当該データ(初期値)を事前確率分布出力部7に出力する。
 予測部9は、事前確率分布出力部7から出力される事前確率分布データを入力とする。予測部9は、入力された事前確率分布データから、システムモデル(状態遷移関数)により予測した確率分布データを取得する。そして、予測部9は、取得した確率分布データを、予測確率分布データとして、尤度取得部5および事後確率分布推定部6に出力する。
 <1.2:状態推定装置の動作>
 以上のように構成された状態推定装置1000の動作について、以下、説明する。
 なお、以下では、撮像装置(不図示)により撮像された動画像(撮像動画像)を入力データDinとし、第1観測取得部1が、入力データDinから人に相当する領域を抽出した画像特徴量抽出画像を第1観測データとして取得し、第2観測取得部2が、入力データDinから動く物体に相当する領域を抽出した画像特徴量抽出画像を第2観測データとして取得する場合を一例として、説明する。
 図2は、撮像装置(不図示)により撮像された動画像(撮像動画像)である入力データDinを模式的に示す図である。
 図3は、第1観測取得部1により取得された第1観測データD1を模式的に示す図である。
 図4は、第2観測取得部2により取得された第2観測データD2を模式的に示す図である。
 現時刻(時刻t)において、図2に示す入力データDinが、第1観測取得部1および第2観測取得部2に入力される。
 図2に示すように、時刻tの入力データDinには、4つの物体TG1~TG4が含まれているものとする。そして、物体TG1、TG2、TG3は、人であり、物体TG4は、人以外の物体であるものとする。また、物体TG1、TG2は、動く物体であるものとする。つまり、物体TG1、TG2は、前時刻t-1(1フレーム前の時刻)から現時刻t(現フレームの時刻)において、画像上において、所定の距離以上移動した物体であるものとする。
 第1観測取得部1は、入力データDinから、人に相当する画像領域を抽出することで、第1観測データD1を取得する。第1観測取得部1は、例えば、入力データDinにおいて、肌色を多く含む領域を検出することにより、および/または、人の形状のパターンマッチング等により、入力データDinの画像上において人に相当する画像領域を検出する。そして、第1観測取得部1は、検出した結果画像を、第1観測データD1として取得する。このようにして、第1観測取得部1により、図3に示す第1観測データD1が取得される。図3から分かるように、第1観測データD1では、入力データDinに含まれる人である物体TG1、TG2、TG3にそれぞれ相当する画像領域TG1_D1、TG2_D1、TG3_D1が検出されている。なお、図3の第1観測データD1(画像D1)において、画像領域TG1_D1、TG2_D1、TG3_D1内の画素は、「0」以外の画素値を有しており、画像領域TG1_D1、TG2_D1、TG3_D1以外の画像領域の画素の画素値は「0」であるものとする。
 第1観測取得部1により取得された第1観測データD1は、可能性測度取得部3および必然性測度取得部4に出力される。
 第2観測取得部2は、入力データDinから、動く物体に相当する画像領域を抽出することで、第2観測データD2を取得する。第2観測取得部2は、例えば、入力データDinにおいて、1フレーム期間(前時刻t-1から現時刻tまでの時間)において、画像上において所定の距離以上移動した物体の画像領域を検出することにより、入力データDinの画像上において動く物体に相当する画像領域を検出する。そして、第2観測取得部2は、検出した結果画像を、第2観測データD2として取得する。このようにして、第2観測取得部2により、図4に示す第2観測データD2が取得される。なお、図4では、第2観測取得部2が、入力データDinにおいて、1フレーム期間(前時刻t-1から現時刻tまでの時間)において、画像上において所定の距離以上移動した物体の画像領域を、当該物体の時刻tにおける重心を中心とした所定の半径の円領域として検出する場合について、検出した画像領域TG1_D2およびTG2_D2を示している。図4から分かるように、第2観測データD2では、入力データDinに含まれる動く物体TG1、TG2にそれぞれ相当する画像領域TG1_D2、TG2_D2が検出されている。なお、図4の第2観測データD2(画像D2)において、画像領域TG1_D2、TG2_D2内の画素は、「0」以外の画素値を有しており、画像領域TG1_D2、TG2_D2以外の画像領域の画素の画素値は「0」であるものとする。
 第2観測取得部2により取得された第2観測データD2は、可能性測度取得部3および必然性測度取得部4に出力される。
 可能性測度取得部3では、第1観測データD1および第2観測データD2から、可能性測度データDpが取得される。可能性測度取得部3は、第1観測データD1と第2観測データD2とに対して、下記の「(1)加算処理による方法」または「(2)論理和演算による方法」を行うことで、可能性測度データDpを取得する。
 (1)加算処理による方法
 可能性測度取得部3は、第1観測データD1(画像D1)と、第2観測データD2(画像D2)とにおいて、同一座標位置の画素の画素値同士を加算することで、可能性測度データDpの当該座標位置の画素の画素値を取得する。第1観測データD1(画像D1)の座標(x1,y1)における画素値をD1(x1,y1)とし、第2観測データD2(画像D2)の座標(x1,y1)における画素値をD2(x1,y1)とし、可能性測度データDp(画像Dp)の座標(x1,y1)における画素値をDp(x1,y1)とすると、可能性測度取得部3は、
  Dp(x1,y1)=D1(x1,y1)+D2(x1,y1)
により、可能性測度データDp(画像Dp)の座標(x1,y1)における画素の画素値を取得する。なお、このとき、Dp(x1,y1)が所定のダイナミックレンジ内(例えば、0~255の範囲内)となるように、上限値、および/または、下限値によりリミット処理を行うようにしてもよい。また、Dp(x1,y1)のダイナミックレンジが、所定のダイナミックレンジ(例えば、0~255の範囲や0~1の範囲)となるように、正規化処理を行うようにしてもよい。
 上記加算処理を、画像内の全ての画素に対して行うことで、可能性測度取得部3は、可能性測度データDp(画像Dp)の全ての画素の画素値を取得する。このようにして、可能性測度取得部3は、可能性測度データDp(画像Dp)を取得する。
 図5に、図3の第1観測データD1(画像D1)および図4の第2観測データD2(画像D2)から取得された可能性測度データDp(画像Dp)を示す。なお、図5では、物体を検出(追跡)するために用いられるパーティクル(粒子)(一例)も模式的に描いている。
 図5に示すように、可能性測度データDp(画像Dp)では、第1観測データD1(画像D1)の画像領域TG1_D1、TG2_D1、TG3_D1に対応する画像領域TG1_Dp、TG2_Dp、TG3_Dpが検出されている。つまり、可能性測度データDp(画像Dp)では、画像領域TG1_Dp、TG2_Dp、TG3_Dp内の画素の画素値が「0」以外の画素値であり、画像領域TG1_Dp、TG2_Dp、TG3_Dp以外の画素の画素値は「0」である。
 (2)論理和演算による方法
 可能性測度取得部3は、第1観測データD1(画像D1)に対して所定の閾値による2値化処理を行い、また、第2観測データD2(画像D2)に対して所定の閾値による2値化処理を行う。そして、可能性測度取得部3は、2値化処理後の第1観測データD1(2値化画像D1)および第2観測データD2(2値化画像D2)において、同一座標位置の画素の画素値同士の論理和をとることで、可能性測度データDpの当該座標位置の画素の画素値を取得する。第1観測データD1(画像D1)の座標(x1,y1)における画素値をD1(x1,y1)とし、第2観測データD2(画像D2)の座標(x1,y1)における画素値をD2(x1,y1)とし、可能性測度データDp(画像Dp)の座標(x1,y1)における画素値をDp(x1,y1)とすると、可能性測度取得部3は、
  Dp(x1,y1)=D1(x1,y1)|D2(x1,y1)
により、可能性測度データDp(画像Dp)の座標(x1,y1)における画素の画素値を取得する。なお、上記「|」は、論理和をとる演算子を示している。
 上記論理和演算を、画像内の全ての画素に対して行うことで、可能性測度取得部3は、可能性測度データDp(画像Dp)の全ての画素の画素値を取得する。このようにして、可能性測度取得部3は、可能性測度データDp(画像Dp)を取得する。
 図3の第1観測データD1(画像D1)および図4の第2観測データD2(画像D2)から上記論理和演算により取得された可能性測度データDp(画像Dp)は、図5に示す画像Dpとなる。なお、論理和演算により取得された可能性測度データDp(画像Dp)では、画像領域TG1_Dp、TG2_Dp、TG3_Dp内の画素の画素値が「1」(「真」を表す値)であり、画像領域TG1_Dp、TG2_Dp、TG3_Dp以外の画素の画素値は「0」である。なお、画像領域TG1_Dp、TG2_Dp、TG3_Dp内の画素の画素値は、「真」を表す値とすればよく、例えば、画素値が8ビットデータであり、0~255の値をとる場合、画像領域TG1_Dp、TG2_Dp、TG3_Dp内の画素の画素値を「255」としてもよい。
 上記の「(1)加算処理による方法」または「(2)論理和演算による方法」を行うことで、可能性測度取得部3により取得された可能性測度データDpは、尤度取得部5に出力される。
 必然性測度取得部4では、第1観測データD1および第2観測データD2から、必然性測度データDnが取得される。必然性測度取得部4は、第1観測データD1と第2観測データD2とに対して、下記の「(1)乗算処理による方法」または「(2)論理積演算による方法」を行うことで、必然性測度データDnを取得する。
 (1)乗算処理による方法
 必然性測度取得部4は、第1観測データD1(画像D1)と、第2観測データD2(画像D2)とにおいて、同一座標位置の画素の画素値同士を乗算することで、必然性測度データDnの当該座標位置の画素の画素値を取得する。第1観測データD1(画像D1)の座標(x1,y1)における画素値をD1(x1,y1)とし、第2観測データD2(画像D2)の座標(x1,y1)における画素値をD2(x1,y1)とし、必然性測度データDn(画像Dn)の座標(x1,y1)における画素値をDn(x1,y1)とすると、必然性測度取得部4は、
  Dn(x1,y1)=D1(x1,y1)×D2(x1,y1)
により、必然性測度データDn(画像Dn)の座標(x1,y1)における画素の画素値を取得する。なお、このとき、Dn(x1,y1)が所定のダイナミックレンジ内(例えば、0~255の範囲内)となるように、上限値、および/または、下限値によりリミット処理を行うようにしてもよい。また、Dn(x1,y1)のダイナミックレンジが、所定のダイナミックレンジ(例えば、0~255の範囲や0~1の範囲)となるように、正規化処理を行うようにしてもよい。
 上記乗算処理を、画像内の全ての画素に対して行うことで、必然性測度取得部4は、必然性測度データDn(画像Dn)の全ての画素の画素値を取得する。このようにして、必然性測度取得部4は、必然性測度データDn(画像Dn)を取得する。
 図6に、図3の第1観測データD1(画像D1)および図4の第2観測データD2(画像D2)から取得された必然性測度データDn(画像Dn)を示す。
 図6に示すように、必然性測度データDn(画像Dn)では、第2観測データD2(画像D2)の画像領域TG1_D2、TG2_D2に対応する画像領域TG1_Dn、TG2_Dnが検出されている。つまり、必然性測度データDn(画像Dn)では、画像領域TG1_Dn、TG2_Dn内の画素の画素値が「0」以外の画素値であり、画像領域TG1_Dn、TG2_Dn以外の画素の画素値は「0」である。
 (2)論理積演算による方法
 必然性測度取得部4は、第1観測データD1(画像D1)に対して所定の閾値による2値化処理を行い、また、第2観測データD2(画像D2)に対して所定の閾値による2値化処理を行う。そして、必然性測度取得部4は、2値化処理後の第1観測データD1(2値化画像D1)および第2観測データD2(2値化画像D2)において、同一座標位置の画素の画素値同士の論理積をとることで、必然性測度データDnの当該座標位置の画素の画素値を取得する。第1観測データD1(画像D1)の座標(x1,y1)における画素値をD1(x1,y1)とし、第2観測データD2(画像D2)の座標(x1,y1)における画素値をD2(x1,y1)とし、必然性測度データDn(画像Dn)の座標(x1,y1)における画素値をDn(x1,y1)とすると、必然性測度取得部4は、
  Dn(x1,y1)=D1(x1,y1)&D2(x1,y1)
により、必然性測度データDn(画像Dn)の座標(x1,y1)における画素の画素値を取得する。なお、上記「&」は、論理積をとる演算子を示している。
 上記論理積演算を、画像内の全ての画素に対して行うことで、必然性測度取得部4は、必然性測度データDn(画像Dn)の全ての画素の画素値を取得する。このようにして、必然性測度取得部4は、必然性測度データDn(画像Dn)を取得する。
 図3の第1観測データD1(画像D1)および図4の第2観測データD2(画像D2)から上記論理積演算により取得された必然性測度データDn(画像Dn)は、図6に示す画像Dnとなる。なお、論理積演算により取得された必然性測度データDn(画像Dn)では、画像領域TG1_Dn、TG2_Dn内の画素の画素値が「1」(「真」を表す値)であり、画像領域TG1_Dn、TG2_Dn以外の画素の画素値は「0」である。なお、画像領域TG1_Dn、TG2_Dn内の画素の画素値は、「真」を表す値とすればよく、例えば、画素値が8ビットデータであり、0~255の値をとる場合、画像領域TG1_Dn、TG2_Dn内の画素の画素値を「255」としてもよい。
 上記の「(1)乗算処理による方法」または「(2)論理積演算による方法」を行うことで、必然性測度取得部4により取得された必然性測度データDnは、尤度取得部5に出力される。
 ここで、観測対象(追跡対象)である物体の時刻tの内部状態を示す状態ベクトルをxとし、時刻tにおいて観測された特徴を観測ベクトルyとし、予測確率分布p(x|yt-1)に従って生成されたサンプル集合(パーティクルの集合)St|t-1
  St|t-1={st|t-1 (1),st|t-1 (2),・・・,st|t-1 (M)
とし、事後確率分布p(x|y)に従って生成されたサンプル集合(パーティクルの集合)St|t
  St|t={st|t (1),st|t (2),・・・,st|t (M)
とする。
 また、サンプル集合(パーティクルの集合)St|tのi番目のサンプル(パーティクル)st|t (i)は、i番目のサンプル(パーティクル)の画像上の座標位置(X (i),Y (i))と、当該座標位置を中心とする幅W、高さHの矩形状の画像領域を決定するための幅W、高さHと、第1尤度wp (i)と、第2尤度wn (i)とを内部変数とするベクトルデータであるものとする。つまり、サンプル(パーティクル)st|t (i)は、
  st|t (i)=(X (i),Y (i),W (i),H (i),wn (i),wp (i)
であるものとする。
 なお、観測対象(追跡対象)が複数ある場合、観測対象ごとにオブジェクト番号を付与し、観測対象ごとに、上記と同様にして、予測確率分布に従って生成されたサンプル集合(パーティクルの集合)St|t-1や、事後確率分布に従って生成されたサンプル集合(パーティクルの集合)St|tを設定すればよい。
 以下では、説明を簡単にするため、観測対象(追跡対象)を物体TG1とした場合について、説明する。
 予測部9では、予測処理が実行される。
 具体的には、予測部9は、事前確率分布出力部7により生成された時刻t-1における事前確率分布(事前確率分布データ)に従うパーティクルの集合St-1|t-1に基づいて、予測処理を行い、予測処理後のパーティクルの集合St|t-1を取得する。
 例えば、時刻t-1における物体TG1の状態を表すパラメータの事前確率分布(事前確率分布データ)に従うパーティクルの集合St-1|t-1(これを「事前確率分布データSt-1|t-1」と表記する。)に含まれる各パーティクルの状態に対して、ランダムウォークのダイナミクスを仮定したガウシアンノイズを重畳させることで、予測処理後のパーティクルの集合St|t-1(これを「予測確率分布データSt|t-1」と表記する。)を取得する。つまり、v (i)がガウス分布に従うシステムノイズとし、予測部9は、
  st|t-1 (i)=f(st-1|t-1 (i),v (i)
  f():時刻t-1と時刻tとの状態変化を表す状態遷移関数
  v (i):システムノイズ
により、予測処理後のパーティクルの集合St|t-1を取得する。
 具体的には、時刻t-1における物体TG1の事前確率分布(事前確率分布データ)に従う、i番目のパーティクルの内部状態は、(Xt-1|t-1 (i),Yt-1|t-1 (i),Wt-1|t-1 (i),Ht-1|t-1 (i),wnt-1|t-1 (i),wpt-1|t-1 (i))であり、予測処理後のi番目のパーティクルの内部状態は、(Xt|t-1 (i),Yt|t-1 (i),Wt|t-1 (i),Ht|t-1 (i),wnt|t-1 (i),wpt|t-1 (i))であるので、
  Xt-1|t (i)=Xt-1|t-1 (i)+ΔX(i)
  Yt-1|t (i)=Yt-1|t-1 (i)+ΔY(i)
  Wt-1|t (i)=Wt-1|t-1 (i)+W(i)
  Ht-1|t (i)=Ht-1|t-1 (i)+H(i)
により、予測部9は、物体TG1の予測処理後のパーティクルの集合st|t-1を取得する。なお、ΔX(i)、ΔY(i)(#i)、ΔW(i)、ΔH(i)は、それぞれ、ガウス分布に従う。
 このようにして取得された、物体TG1の予測処理後のパーティクルの集合st|t-1は、予測確率分布データとして、予測部9から尤度取得部5に出力される。
 尤度取得部5では、予測部9が取得した予測確率分布データおよび可能性測度データDpに基づいて、第1尤度wpが取得され、また、予測部9が取得した予測確率分布データおよび必然性測度データDnに基づいて、第2尤度wnが取得される。
 図7は、観測対象(追跡対象)を物体TG1とした場合における、予測処理、尤度取得処理、リサンプリング処理を説明するための図である。なお、図7では、垂直方向(Y軸方向)のパーティクルのみを模式的に示している。具体的には、図7では、図5、図6に示した垂直方向の直線A1-A2上において配置されるパーティクルのみを模式的に示している。また、図7では、直線A1-A2における可能性測度データDpの値(画像Dpの画素値)を示す曲線Dpと、直線A1-A2における必然性測度データDnの値(画像Dnの画素値)を示す曲線Dnとを示している。なお、図7において、曲線Dpおよび曲線Dnは、図7の左方向が画素値が大きくなる方向(正の方向)として描いている。
 (1.2.1:第1尤度wpの取得処理)
 尤度取得部5は、予測部9から出力される予測確率分布データSt|t-1と、可能性測度データDp(画像Dp)とを用いて、第1尤度wpを算出する。
 図7に示すように、時刻tの事前確率分布(時刻t-1の事後確率分布)に従うパーティクル集合St-1|t-1に対して、予測部9により予測処理が実行されることで、予測確率分布データSt|t-1が取得される。
 尤度取得部5は、予測確率分布データSt|t-1に従って取得された各パーティクルが占める画像領域内の可能性測度データDp(画像Dp)の値(画像Dpにおいて、各パーティクルが占める画像領域内の画素の画素値)を積算し、その積算値を第1尤度wpとする。このようにして取得された第1尤度wpを、図7では、円で示しており、第1尤度wpが大きい値である程、大きな円として描いている。
 なお、画像Dpにおいて、予測処理後のi番目のパーティクルが占める画像領域は、当該パーティクルの内部状態が(Xt|t-1 (i),Yt|t-1 (i),Wt|t-1 (i),Ht|t-1 (i),wnt|t-1 (i),wpt|t-1 (i))であるので、座標(Xt|t-1 (i),Yt|t-1 (i))を中心とし、幅(水平方向の長さ)Wt|t-1 (i)、高さ(垂直方向の長さ)Ht|t-1 (i)である矩形領域である。
 図7では、可能性測度データDp(画像Dp)の値および必然性測度データDn(画像Dn)の値は、正規化されたデータ(値)であり、0~1の値をとるものとする。
 図7に示すように、予測確率分布データSt|t-1に従って取得されたパーティクルの粒子番号をi1~i9とし、i番目のパーティクルの第1尤度値をwp(i)とすると、wp(i1)、wp(i2)、wp(i7)、wp(i8)、wp(i9)は、第1尤度の値が「0」である。
 そして、i3~i6番目のパーティクルの第1尤度値は、以下の通りである。
  wp(i3)=0.4
  wp(i4)=0.95
  wp(i5)=0.8
  wp(i6)=0.25
 (1.2.2:第2尤度wnの取得処理)
 尤度取得部5は、予測部9から出力される予測確率分布データSt|t-1と、必然性測度データDn(画像Dn)とを用いて、第2尤度wnを算出する。
 図7に示すように、時刻tの事前確率分布(時刻t-1の事後確率分布)に従うパーティクル集合St-1|t-1に対して、予測部9により予測処理が実行されることで、予測確率分布データSt|t-1が取得される。
 尤度取得部5は、予測確率分布データSt|t-1に従って取得された各パーティクルが占める画像領域内の必然性測度データDn(画像Dn)の値(画像Dnにおいて、各パーティクルが占める画像領域内の画素の画素値)を積算し、その積算値を第2尤度wnとする。
 なお、画像Dnにおいて、予測処理後のi番目のパーティクルが占める画像領域は、当該パーティクルの内部状態が(Xt|t-1 (i),Yt|t-1 (i),Wt|t-1 (i),Ht|t-1 (i),wnt|t-1 (i),wpt|t-1 (i))であるので、座標(Xt|t-1 (i),Yt|t-1 (i))を中心とし、幅(水平方向の長さ)Wt|t-1 (i)、高さ(垂直方向の長さ)Ht|t-1 (i)である矩形領域である。
 図7では、必然性測度データDn(画像Dn)の値は、正規化されたデータ(値)であり、0~1の値をとる。
 図7に示すように、予測確率分布データSt|t-1に従って取得されたパーティクルの粒子番号をi1~i9とし、i番目のパーティクルの第2尤度値をwn(i)とすると、wn(i1)、wn(i2)、wn(i3)、wn(i6)、wn(i7)、wn(i8)、wn(i9)は、第2尤度の値が「0」である。
 そして、i4~i5番目のパーティクルの第2尤度値は、以下の通りである。
  wn(i4)=0.6
  wn(i5)=0.2
 以上のようにして、予測確率分布データSt|t-1に従って取得されたパーティクルごとに取得された第1尤度値wpおよび第2尤度値wnは、尤度取得部5から事後確率分布推定部6に出力される。
 事後確率分布推定部6では、第1尤度wpおよび第2尤度wnと予測確率分布データとに基づいて、事後確率分布(事後確率分布データ)が推定(取得)される。
 事後確率分布推定部6は、時刻tにおける物体TG1の第1尤度wp(i)に比例する割合でM1個のパーティクル(粒子)を復元抽出する(パーティクルxa (i)(物体TG1のi番目の粒子)を抽出する)。このとき、事後確率分布推定部6は、復元抽出したパーティクルに第2尤度wnを引き継ぐ。つまり、事後確率分布推定部6は、st|t (i)の内部変数であるwn(i)に、尤度取得部5により取得された第2尤度wnを設定する。
 例えば、図7の場合、画像領域TG1_Dpに含まれる直線A1-A2上において、9個のパーティクルが復元抽出されている。
 予測確率分布データSt|t-1に従って取得されたi3番目のパーティクルから第1尤度wp(i3)=0.4が取得されるので、予測確率分布データSt|t-1に従って取得されたi3番目のパーティクルの位置において、比例配分により、1個のパーティクルが復元される。つまり、事後確率分布データSt|tに従って取得されたi1番目のパーティクルが復元される。
 そして、予測確率分布データSt|t-1に従って取得されたi3番目のパーティクルから第2尤度wn(i3)=0.0が取得されるので、事後確率分布データSt|tに従って取得されたi1番目のパーティクルにおいて、その内部変数であるwn(i1)に、尤度取得部5により取得された第2尤度wn=0.0が設定される。すなわち、事後確率分布データSt|tに従って取得されたi1番目のパーティクルの内部変数は、以下のように設定される。
  (Xt|t (i1),Yt|t (i1),Wt|t (i1),Ht|t (i1),wnt|t (i1),wpt|t (i1))=(Xt|t (i1),Yt|t (i1),Wt|t (i1),Ht|t (i1),0.0,1/M1)
 予測確率分布データSt|t-1に従って取得されたi4番目のパーティクルから第1尤度wp(i3)=0.95が取得されるので、予測確率分布データSt|t-1に従って取得されたi4番目のパーティクルの位置において、比例配分により、4個のパーティクルが復元される。つまり、事後確率分布データSt|tに従って取得されたi2~i5番目のパーティクル、すなわち、合計4個のパーティクルが復元される。
 そして、予測確率分布データSt|t-1に従って取得されたi4番目のパーティクルから第2尤度wn(i4)=0.6が取得されるので、事後確率分布データSt|tに従って取得されたi2~i5番目のパーティクルにおいて、その内部変数であるwn(i)に、尤度取得部5により取得された第2尤度wn=0.6が設定される。すなわち、事後確率分布データSt|tに従って取得されたi2~i5番目のパーティクルの内部変数は、以下のように設定される。
  (Xt|t (i),Yt|t (i),Wt|t (i),Ht|t (i),wnt|t (i),wpt|t (i)
  =(Xt|t (i),Yt|t (i),Wt|t (i),Ht|t (i),0.6,1/M1)
 なお、上記において、iは、i2~i5のいずれかである。
 予測確率分布データSt|t-1に従って取得されたi5番目のパーティクルから第1尤度wp(i3)=0.8が取得されるので、予測確率分布データSt|t-1に従って取得されたi5番目のパーティクルの位置において、比例配分により、3個のパーティクルが復元される。つまり、事後確率分布データSt|tに従って取得されたi6~i8番目のパーティクル、すなわち、合計3個のパーティクルが復元される。
 そして、予測確率分布データSt|t-1に従って取得されたi5番目のパーティクルから第2尤度wn(i5)=0.2が取得されるので、事後確率分布データSt|tに従って取得されたi6~i8番目のパーティクルにおいて、その内部変数であるwn(i)に、尤度取得部5により取得された第2尤度wn=0.2が設定される。すなわち、事後確率分布データSt|tに従って取得されたi6~i8番目のパーティクルの内部変数は、以下のように設定される。
  (Xt|t (i),Yt|t (i),Wt|t (i),Ht|t (i),wnt|t (i),wpt|t (i)
  =(Xt|t (i),Yt|t (i),Wt|t (i),Ht|t (i),0.2,1/M1)
 なお、上記において、iは、i6~i8のいずれかである。
 予測確率分布データSt|t-1に従って取得されたi6番目のパーティクルから第1尤度wp(i3)=0.25が取得されるので、予測確率分布データSt|t-1に従って取得されたi6番目のパーティクルの位置において、比例配分により、1個のパーティクルが復元される。つまり、事後確率分布データSt|tに従って取得されたi9番目のパーティクルが復元される。
 そして、予測確率分布データSt|t-1に従って取得されたi6番目のパーティクルから第2尤度wn(i6)=0.0が取得されるので、事後確率分布データSt|tに従って取得されたi9番目のパーティクルにおいて、その内部変数であるwn(i9)に、尤度取得部5により取得された第2尤度wn=0.0が設定される。すなわち、事後確率分布データSt|tに従って取得されたi9番目のパーティクルの内部変数は、以下のように設定される。
  (Xt|t (i9),Yt|t (i9),Wt|t (i9),Ht|t (i9),wnt|t (i9),wpt|t (i9))=(Xt|t (i9),Yt|t (i9),Wt|t (i9),Ht|t (i9),0.0,1/M1)
 以上のように、事後確率分布推定部6は、時刻tにおける物体TG1の第1尤度wp(i)に比例する割合でM1個のパーティクル(粒子)を復元抽出する(パーティクルxa (i)(物体TG1のi番目の粒子)を抽出する)とともに、復元抽出したパーティクルに第2尤度wnを引き継ぐ。つまり、事後確率分布推定部6は、st|t (i)の内部変数であるwn(i)に、尤度取得部5により取得された第2尤度wnを設定する。
 なお、物体TG1を追跡するためのパーティクル数がM1個である場合、追跡対象に対する追跡処理を継続させるか、それとも、追跡処理を停止させるかの判定(追跡対象のDiscard/Survive判定処理)は、第1尤度値wp(i)に基づいて、行うようにしてもよい。
 例えば、事後確率分布推定部6は、物体TG1に対する追跡処理を継続させるか、あるいは、停止させるかの判定処理を、以下の処理により実行する。すなわち、事後確率分布推定部6は、下記(数式4)により、物体TG1について取得された、M1個の第1尤度値wp(i)を積算することで、判定値DSを求める。
Figure JPOXMLDOC01-appb-M000007

 そして、事後確率分布推定部6は、以下の処理を行う。
(1)判定値DSが閾値th1よりも小さい場合、事後確率分布推定部6は、物体TG1に対する追跡処理を停止させる。つまり、事後確率分布推定部6は、次時刻以降、物体TG1を追跡対象から除外する。
(2)判定値DSが閾値th1以上である場合、事後確率分布推定部6は、物体TG1に対する追跡処理を継続させる。つまり、事後確率分布推定部6は、次時刻以降も、物体TG1を追跡対象とする。
 例えば、図2の場合、閾値th1を「0.2」に設定すると、
  DS=0.4+0.95+0.8+0.25=2.4
となり、DS>0.2であるので、事後確率分布推定部6は、次時刻以降も、物体TG1を追跡対象とする(物体TG1の追跡処理を継続させる)。
 また、上記では、st|t (i)の内部変数であるwn(i)に、尤度取得部5により取得された第2尤度wnの値をそのまま設定している(引き継いでいる)が、これに限定されることはなく、以下のように、尤度取得部5により取得された第1尤度値wpと第2尤度値wnとの比または差を用いて、第2尤度wnの値を引き継ぐようにしてもよい。すなわち、以下の(1)~(2)により、事後確率分布推定部6は、第1尤度値wpと第2尤度値wnとの比または差を用いて、第2尤度wnの値を引き継ぐように、事後確率分布データSt|tに従って取得されたi番目のパーティクルの内部変数のwnt|t (i)を設定するようにしてもよい。
 (1)第1尤度値wpと第2尤度値wnとの比による承継
  wnt|t (i)=wpt|t (i)×wn/wp
        =(1/M1)×wn/wp
 例えば、図7の予測確率分布データSt|t-1に従って取得されたi4番目のパーティクルから第1尤度wp(i4)=0.95、第2尤度wn(i4)=0.6が取得されるので、予測確率分布データSt|t-1に従って取得されたi4番目のパーティクルの位置において、比例配分により、復元されるパーティクル、すなわち、事後確率分布データSt|tに従って取得されたi2~i5番目のパーティクルの内部変数wnt|t (i)は、上記数式により、
  wnt|t (i)=wpt|t (i)×wn/wp
        =(1/M1)×0.6/0.95
と設定される。なお、上式のiは、i2~i5のいずれかである。
 上式において、wp=0となる場合、「0」で除算されることになるため、これを防ぐために、第1尤度wpが所定の値thよりも小さい場合、所定の値thでクリップ処理を行うようにしてもよい。例えば、第1尤度wpが所定の値0.001よりも小さい場合、第1尤度wpを0.001としてもよい。これにより、「0」で除算されることを防止することができる。
 (2)第1尤度値wpと第2尤度値wnとの差による承継
  wnt|t (i)=wpt|t (i)-(wp-wn)
        =(1/M1)-(wp-wn)
 例えば、図7の予測確率分布データSt|t-1に従って取得されたi4番目のパーティクルから第1尤度wp(i4)=0.95、第2尤度wn(i4)=0.6が取得されるので、予測確率分布データSt|t-1に従って取得されたi4番目のパーティクルの位置において、比例配分により、復元されるパーティクル、すなわち、事後確率分布データSt|tに従って取得されたi2~i5番目のパーティクルの内部変数wnt|t (i)は、上記数式により、
  wnt|t (i)=wpt|t (i)-(wp-wn)
        =(1/M1)-(0.95-0.6)
と設定される。なお、上式のiは、i2~i5のいずれかである。
 このように、事後確率分布推定部6は、復元抽出されたM1個のパーティクルの分布から、時刻tの事後確率分布p(x|y)に従って生成されたサンプル集合(パーティクルの集合)St|t(事後確率分布データSt|t)、すなわち、
  St|t={st|t (1),st|t (2),・・・,st|t (M1)
を取得する。そして、事後確率分布推定部6は、上記の方法により、第2尤度wnの値を引き継ぐように、事後確率分布データSt|tに従って取得されたi番目のパーティクルの内部変数のwnt|t (i)を設定する。
 そして、事後確率分布推定部6は、推定(取得)した事後確率分布(事後確率分布データ)を、状態推定装置1000から出力するとともに、事前確率分布出力部7に出力する。
 なお、事後確率分布推定部6は、事後確率分布データSt|tに従って取得されたM1個のパーティクルのうち、内部変数wnt|t (i)の値が最大であるパーティクルのベクトルデータ(X (i),Y (i),W (i),H (i))を推定結果データとして取得するようにしてもよい。
 また、事後確率分布推定部6は、以下の処理に推定結果データを取得するようにしてもよい。すなわち、事後確率分布推定部6は、下記(数式5)により、事後確率分布データSt|tに従って取得されたM1個のパーティクルの内部変数wnt|t (i)の重み付き平均値wgtを取得する。
Figure JPOXMLDOC01-appb-M000008

 そして、事後確率分布推定部6は、取得した重み付き平均値wgtを用いて取得したベクトルデータ(wgt×X (i),wgt×Y (i),wgt×W (i),wgt×H (i))を推定結果データとして取得するようにしてもよい。
 事前確率分布出力部7は、事後確率分布推定部6から入力された時刻tにおける事後確率分布(事後確率分布データ)を、次の時刻t+1において、事前確率分布(事前確率分布データ)として、予測部9に出力する。
 そして、以降、状態推定装置1000では、上記と同様の処理を繰り返される。
 以上のように、状態推定装置1000では、第1尤度wpと第2尤度wnとを反映させた事後確率分布(事後確率分布データ)St|tを取得することができる。つまり、状態推定装置1000では、複数の観測データ(可能性測度データDpおよび必然性測度データDn)を取得し、取得した複数の観測データのそれぞれから導出された複数の尤度(第1尤度wpおよび第2尤度wn)を用いて、物体の内部状態を推定することにより、より正確かつロバストに、物体の検出処理や追跡処理を行うことができる。
 例えば、図7に示すように、事後確率分布データSt|tにより取得されたパーティクルは、それぞれ、第2尤度wnの値を承継した(反映させた)内部変数wnt|t (i)を有しているので、各パーティクルが存在する位置、および、第2尤度wnの値を承継した(反映させた)内部変数wnt|t (i)を調べることで、当該パーティクル(第1尤度と第2尤度とを反映させた事後確率分布データ)を用いて多様な追跡処理、検出処理を実行することができる。
 第1実施形態の場合、可能性測度データDpは、第1観測データD1(人に相当する画像領域を抽出した観測データ)と第2観測データD2(動く物体に相当する画像領域を抽出した観測データ)とに対して、加算または論理和演算(OR演算)を行うことで、取得されたデータである。したがって、可能性測度データDpのデータ値(画素値)が大きい部分は、人であるか、動いている物体である可能性が高いことを示している。そして、第1尤度wpは、可能性測度データDpより導出され、第1尤度wpの値に比例する割合で、M1個のパーティクルが復元抽出される。つまり、第1尤度wpの値が大きい部分に、多数のパーティクルが復元抽出(配置)される。これにより、多数のパーティクルが復元抽出(配置)されている部分が、人であるか、動いている物体であることを示す。
 また、第1実施形態の場合、必然性測度データDnは、第1観測データD1(人に相当する画像領域を抽出した観測データ)と第2観測データD2(動く物体に相当する画像領域を抽出した観測データ)とに対して、乗算または論理積演算(AND演算)を行うことで、取得されたデータである。したがって、必然性測度データDnのデータ値(画素値)が大きい部分は、人であり、かつ、動いている物体である可能性が高いことを示している。そして、第2尤度wnは、必然性測度データDnより導出された値であるので、第2尤度wnの値が大きいということは、当該第2尤度wnを有するパーティクルが、人であり、かつ、動いている物体を追跡しているパーティクルである可能性が高いことを意味する。
 つまり、状態推定装置1000では、第1尤度wpは、パーティクル数に反映され、第2尤度wnは、各パーティクルの内部変数に反映される。したがって、パーティクルの配置位置、数、パーティクルの第2尤度wnを反映させた内部変数を調べることで、多様な追跡処理、検出処理を実現することができる。第1実施形態では、パーティクルが多く配置されている部分が人である可能性が高く、さらに、パーティクルの第2尤度wnを反映させた内部変数を調べることで、当該パーティクルが存在する画像領域が動いている人である可能性が高いか、否かを検出することができる。すなわち、状態推定装置1000では、第1尤度wpは、パーティクル数に反映され、第2尤度wnは、各パーティクルの内部変数に反映されるので、例えば、パーティクルが多く配置されている部分であり、かつ、当該パーティクルの第2尤度wnの値が大きい部分が、動いている人であると検知することができる。したがって、状態推定装置1000では、多様な物体の検出処理や追跡処理を、適切に行うことができる。
 このように、状態推定装置1000では、複数の観測データ(可能性測度データDpおよび必然性測度データDn)を取得し、取得した複数の観測データのそれぞれから導出された複数の尤度(第1尤度wpおよび第2尤度wn)を用いて、物体の内部状態を推定することにより、より正確かつロバストに、物体の検出処理や追跡処理を行うことができる。
 ≪第1変形例≫
 次に、第1実施形態の第1変形例について、説明する。
 本変形例において、第1実施形態と同様の部分については、同一符号を付し、詳細な説明を省略する。
 図8は、第1実施形態の第1変形例に係る状態推定装置1000Aの概略構成図である。
 第1変形例の状態推定装置1000Aでは、第1観測取得部1に、第1入力データDin1が入力され、第2観測取得部2に、第2入力データDin2が入力される。つまり、第1実施形態の状態推定装置1000では、1つの入力データDinが、第1観測取得部1および第2観測取得部2に入力されていたが、本変形例の状態推定装置1000Aでは、第1観測取得部1および第2観測取得部2には、別のデータが入力される。この点において、本変形例の状態推定装置1000Aは、第1実施形態の状態推定装置1000と相違する。
 本変形例の状態推定装置1000Aでは、第1観測取得部1および第2観測取得部2に別のデータを入力することができるので、例えば、第1のセンサー(例えば、可視光用イメージセンサー等)(不図示)により取得した信号(データ)Din1を第1観測取得部1に入力し、第2のセンサー(例えば、赤外光用イメージセンサー等)(不図示)により取得した信号(データ)Din2を第2観測取得部2に入力することができる。これにより、本変形例の状態推定装置1000Aでは、複数の入力データを用いて、複数の観測データを取得し、取得した複数の観測データのそれぞれから導出された複数の尤度を用いて、物体の内部状態を推定することにより、より正確かつロバストに、物体の検出処理や追跡処理を行うことができる。
 ≪第2変形例≫
 次に、第1実施形態の第2変形例について、説明する。
 本変形例において、上記実施形態および変形例と同様の部分については、同一符号を付し、詳細な説明を省略する。
 図9は、第1実施形態の第2変形例に係る状態推定装置1000Bの概略構成図である。
 第2変形例の状態推定装置1000Bは、図9に示すように、N個(N:3以上の自然数)の観測取得部を有する。
 また、本変形例の状態推定装置1000Bは、図9に示すように、第1実施形態の状態推定装置1000において、可能性測度取得部3を可能性測度取得部3Aに置換し、必然性測度取得部4を必然性測度取得部4Aに置換した構成を有している。
 第1観測取得部1は、第1のセンサー(不図示)により取得された入力データDin1を入力とし、入力データDin1から、所定の画像特徴量を抽出した第1観測データD1を取得し、取得した第1観測データD1を可能性測度取得部3Aおよび必然性測度取得部4Aに出力する。
 第2観測取得部2は、第2のセンサー(不図示)により取得された入力データDin2を入力とし、入力データDin2から、所定の画像特徴量を抽出した第2観測データD2を取得し、取得した第2観測データD2を可能性測度取得部3Aおよび必然性測度取得部4Aに出力する。
 第K観測取得部(K:自然数、3≦k≦N)は、第Kのセンサー(不図示)により取得された入力データDinKを入力とし、入力データDinKから、所定の画像特徴量を抽出した第K観測データDKを取得し、取得した第K観測データDKを可能性測度取得部3Aおよび必然性測度取得部4Aに出力する。
 可能性測度取得部3Aは、N個の観測取得部により、それぞれ、取得されたN個の観測データを入力とする。可能性測度取得部3Aは、入力されたN個の観測データの2つ以上(全部であってもよい。)のデータについて、第1実施形態と同様に、加算または論理和演算(OR演算)を行うことで、可能性測度データDpを取得する。そして、可能性測度取得部3Aは、取得した可能性測度データDpを尤度取得部5に出力する。
 必然性測度取得部4Aは、N個の観測取得部により、それぞれ、取得されたN個の観測データを入力とする。必然性測度取得部4Aは、入力されたN個の観測データの2つ以上(全部であってもよい。)のデータについて、第1実施形態と同様に、乗算または論理積演算(AND演算)を行うことで、必然性測度データDnを取得する。そして、必然性測度取得部4Aは、取得した必然性測度データDnを尤度取得部5に出力する。
 以降の処理は、第1実施形態と同様である。
 このように、本変形例の状態推定装置1000Bでは、多様な入力データを用いて、複数の観測データを取得し、取得した複数の観測データから導出された複数の尤度を用いて、物体の内部状態を推定することにより、より正確かつロバストに、物体の検出処理や追跡処理を行うことができる。
 例えば、第1観測取得部1および第2観測取得部2により取得される観測データは、第1実施形態と同様のものとし、第3観測取得部により取得される観測データを、赤外線イメージセンサーを用いて取得した入力データから取得した温度の高い物体を検出した観測データであるとし、上記3つの観測データから必然性測度データDnを取得した場合、当該必然性測度データDnは、人、かつ、移動している物体、かつ、温度の高い物体に相当する画像領域において、大きな画素値となる。そして、本変形例の状態推定装置1000Bでは、当該必然性測度データDnから第2尤度wnを取得する。したがって、本変形例の状態推定装置1000Bにより、取得された事後確率分布データSt|tに基づいて、第2尤度wnの値が高いパーティクルが多数集中している部分(画像領域)を検出することで、人、かつ、移動している物体、かつ、温度の高い物体を適切に検出することができる。これにより、本変形例の状態推定装置1000Bでは、例えば、人、かつ、移動している物体、かつ、温度の高い物体についての追跡処理や検出処理を適切に行うことができる。つまり、本変形例の状態推定装置1000Bでは、複数の多様な入力データを用いて、複数の観測データを取得し、第1実施形態と同様の処理により、複数の尤度を用いて、物体の内部状態を適切に推定することができる。その結果、本変形例の状態推定装置1000Bでは、より正確かつロバストに、多様な物体の検出処理や追跡処理を行うことができる。
 なお、本変形例の状態推定装置1000Bにおいて、第1変形例のように、任意の2つ以上の観測取得部に、1つのセンサーから取得された入力データが入力されるようにしてもよい。
 [他の実施形態]
 上記実施形態および変形例を組み合わせて状態推定装置を構成するようにしてもよい。
 また、上記実施形態(変形例を含む。)では、尤度取得部5が1つである場合について説明したが、これに限定されることはなく、例えば、尤度取得部を、可能性測度データDpから第1尤度wpを取得するための第1尤度取得部と、必然性測度データDnから第2尤度wnを取得するための第2尤度取得部とに分けて構成するようにしてもよい。この場合、閾値処理等を行う場合、第1尤度取得部および第2尤度取得部に、個別の閾値設定等が容易にできるようになる。
 また、上記実施形態(変形例を含む。)では、尤度を取得するときのパラメータを、i番目のパーティクルの画像上の座標位置(X (i),Y (i))と、当該座標位置を中心とする幅W、高さHの矩形状の画像領域を決定するための幅W、高さHとし、矩形領域を設定するパラメータとしたが、これに限定されることはない。
 例えば、尤度を取得するときのパラメータを、i番目のパーティクルの画像上の座標位置(X (i),Y (i))と、当該座標位置を中心とする半径Rの円状の画像領域を決定するための半径Rとし、円領域を設定するパラメータとしてもよい。
 また、尤度を取得するときのパラメータを、i番目のパーティクルの画像上の座標位置(X (i),Y (i))と、当該座標位置を中心とする長軸2A、短軸2Bの楕円状の画像領域を決定するための値A(長軸の長さの半分の値)、値B(短軸の長さの半分の値)とし、楕円領域を設定するパラメータとしてもよい。さらに、長軸と短軸とのなす角度θを楕円領域を設定するパラメータとして追加してもよい。
 また、上記実施形態で説明した状態推定装置において、各ブロックは、LSIなどの半導体装置により個別に1チップ化されても良いし、一部又は全部を含むように1チップ化されても良い。
 なお、ここでは、LSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。
 また、集積回路化の手法はLSIに限るものではなく、専用回路又は汎用プロセサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサーを利用しても良い。
 また、上記各実施形態の各機能ブロックの処理の一部または全部は、プログラムにより実現されるものであってもよい。そして、上記各実施形態の各機能ブロックの処理の一部または全部は、コンピュータにおいて、中央演算装置(CPU)により行われる。また、それぞれの処理を行うためのプログラムは、ハードディスク、ROMなどの記憶装置に格納されており、ROMにおいて、あるいはRAMに読み出されて実行される。
 また、上記実施形態の各処理をハードウェアにより実現してもよいし、ソフトウェア(OS(オペレーティングシステム)、ミドルウェア、あるいは、所定のライブラリとともに実現される場合を含む。)により実現してもよい。さらに、ソフトウェアおよびハードウェアの混在処理により実現しても良い。
 また、上記実施形態における処理方法の実行順序は、必ずしも、上記実施形態の記載に制限されるものではなく、発明の要旨を逸脱しない範囲で、実行順序を入れ替えることができるものである。
 前述した方法をコンピュータに実行させるコンピュータプログラム及びそのプログラムを記録したコンピュータ読み取り可能な記録媒体は、本発明の範囲に含まれる。ここで、コンピュータ読み取り可能な記録媒体としては、例えば、フレキシブルディスク、ハードディスク、CD-ROM、MO、DVD、DVD-ROM、DVD-RAM、大容量DVD、次世代DVD、半導体メモリを挙げることができる。
 上記コンピュータプログラムは、上記記録媒体に記録されたものに限られず、電気通信回線、無線又は有線通信回線、インターネットを代表とするネットワーク等を経由して伝送されるものであってもよい。
 また、文言「部」は、「サーキトリー(circuitry)」を含む概念であってもよい。サーキトリーは、ハードウェア、ソフトウェア、あるいは、ハードウェアおよびソフトウェアの混在により、その全部または一部が、実現されるものであってもよい。
 なお、本発明の具体的な構成は、前述の実施形態に限られるものではなく、発明の要旨を逸脱しない範囲で種々の変更および修正が可能である。
1000、1000A、1000B 状態推定装置
1 第1観測取得部
2 第2観測取得部
3、3A 可能性測度取得部
4、4A 必然性測度取得部
5 尤度取得部
6 事後確率分布推定部
7 事前確率分布出力部
8 初期状態設定部
9 予測部

Claims (14)

  1.  観測対象の内部状態を推定する状態推定装置であって、
     観測可能な事象から得られる第1観測データを、任意の時間間隔で取得する第1観測取得部と、
     観測可能な事象から得られる第2観測データを、任意の時間間隔で取得する第2観測取得部と、
     前記第1観測データおよび前記第2観測データに対して、加算処理あるいは論理和演算を行うことで可能性測度データを取得する可能性測度取得部と、
     前記第1観測データおよび前記第2観測データに対して、乗算処理あるいは論理積演算を行うことで必然性測度データを取得する必然性測度取得部と、
     前時刻t-1に取得された観測対象の内部状態の確率分布である事後確率分布データに対して予測処理を行い、現時刻tにおける観測対象の内部状態の確率分布である予測確率分布データを取得する予測部と、
     前記予測確率分布データおよび前記可能性測度データに基づいて、第1尤度を取得するともに、前記予測確率分布データおよび前記必然性測度データに基づいて、第2尤度を取得する尤度取得部と、
     前記第1尤度と前記予測確率分布データとから、現時刻tにおける観測対象の内部状態の確率分布である事後確率分布データを推定する事後確率分布推定部と、
     前記事後確率分布推定部により推定された前記事後確率分布データに基づく事前確率分布データを、次時刻t+1において、事前確率分布データとして出力する事前確率分布出力部と、
    を備える状態推定装置。
  2.  前記事後確率分布推定部は、
     現時刻tにおける事後確率分布データに従い復元抽出されるパーティクルの内部変数に、前記尤度取得部により取得された前記第2尤度に基づいて設定される値を含める、
     請求項1に記載の状態推定装置。
  3.  前記事後確率分布データをSt|tとし、前記事後確率分布データSt|tに従って取得されたi番目のパーティクルの内部変数の1つをwnt|t (i)とし、前記尤度取得部により取得された、当該パーティクルに対応する前記第2尤度をwnとすると、
     前記事後確率分布推定部は、
      wnt|t (i)=wn
    により規定される値を、現時刻tにおける事後確率分布データに従い復元抽出されるパーティクルの内部変数に含める、
     請求項2に記載の状態推定装置。
  4.  前記事後確率分布データをSt|tとし、前記事後確率分布データSt|tに従って取得されたi番目のパーティクルの内部変数の1つをwnt|t (i)とし、前記尤度取得部により取得された、当該パーティクルに対応する前記第1尤度をwpとし、前記尤度取得部により取得された、当該パーティクルに対応する前記第2尤度をwnとし、現時刻tにおける事後確率分布データに従い復元抽出されるパーティクル数をM1(M1:自然数)とし、現時刻tにおける事後確率分布データに従い復元抽出されるパーティクルの第1尤度wpに基づく内部変数をwpt|t (i)すると、
     前記事後確率分布推定部は、
      wnt|t (i)=wpt|t (i)×wn/wp
            =(1/M1)×wn/wp
    により規定される値を、現時刻tにおける事後確率分布データに従い復元抽出されるパーティクルの内部変数に含める、
     請求項2に記載の状態推定装置。
  5.  前記事後確率分布データをSt|tとし、前記事後確率分布データSt|tに従って取得されたi番目のパーティクルの内部変数の1つをwnt|t (i)とし、前記尤度取得部により取得された、当該パーティクルに対応する前記第1尤度をwpとし、前記尤度取得部により取得された、当該パーティクルに対応する前記第2尤度をwnとし、現時刻tにおける事後確率分布データに従い復元抽出されるパーティクル数をM1(M1:自然数)とし、現時刻tにおける事後確率分布データに従い復元抽出されるパーティクルの第1尤度wpに基づく内部変数をwpt|t (i)すると、
     前記事後確率分布推定部は、
      wnt|t (i)=wpt|t (i)-(wp-wn)
            =(1/M1)-(wp-wn)
    により規定される値を、現時刻tにおける事後確率分布データに従い復元抽出されるパーティクルの内部変数に含める、
     請求項2に記載の状態推定装置。
  6.  前記事後確率分布データをSt|tとし、前記事後確率分布データSt|tに従って取得されたi番目のパーティクルの内部変数の1つをwnt|t (i)とし、前記尤度取得部により取得された、当該パーティクルに対応する前記第1尤度をwpとし、前記尤度取得部により取得された、当該パーティクルに対応する前記第2尤度をwnとし、現時刻tにおける事後確率分布データに従い復元抽出されるパーティクル数をM1(M1:自然数)とし、現時刻tにおける事後確率分布データに従い復元抽出されるパーティクルの第1尤度wpに基づく内部変数をwpt|t (i)すると、
     前記事後確率分布推定部は、M1、wp、wnの3つの変数のうち、少なくとも1つを変数とする関数Φにより、
      wnt|t (i)=Φ(M1)
      wnt|t (i)=Φ(wp)
      wnt|t (i)=Φ(wn)
      wnt|t (i)=Φ(M1,wp)
      wnt|t (i)=Φ(M1,wn)
      wnt|t (i)=Φ(wp,wn)
      wnt|t (i)=Φ(M1,wp,wn)
    のいずれかで規定される値を、現時刻tにおける事後確率分布データに従い復元抽出されるパーティクルの内部変数に含める、
     請求項2に記載の状態推定装置。
  7.  物体に対する追跡処理を行う場合、
     前記事後確率分布データをSt|tとし、前記事後確率分布データSt|tに従って取得されたi番目のパーティクルの内部変数の1つをwnt|t (i)とし、前記尤度取得部により取得された、当該パーティクルに対応する前記第1尤度をwpとし、前記尤度取得部により取得された、当該パーティクルに対応する前記第2尤度をwnとし、現時刻tにおける事後確率分布データに従い復元抽出されるパーティクル数をM1(M1:自然数)とし、現時刻tにおける事後確率分布データに従い復元抽出されるパーティクルの第1尤度wpに基づく内部変数をwpt|t (i)すると、
     前記事後確率分布推定部は、
     前記第1尤度wpに基づいて、前記物体に対する追跡処理を継続するか、あるいは、停止させるかの判定処理を実行する、
     請求項2に記載の状態推定装置。
  8.  前記予測確率分布データSt|t-1とし、前記予測確率分布データSt|t-1に従って取得されたパーティクルであって、前記物体に対する追跡処理を行うために用意されたN1個(N1:自然数)のパーティクルのj番目のパーティクルについて、前記尤度取得部により取得された、当該j番目のパーティクルの前記第1尤度についての内部変数をwp(j)とすると、
     前記事後確率分布推定部は、
    Figure JPOXMLDOC01-appb-I000001

    により前記内部変数wp(j)の積算値sumを取得し、
    (1)前記積算値sumが所定の閾値Th1よりも小さい場合、前記物体に対する追跡処理を停止させ、
    (2)前記積算値sumが所定の閾値Th1以上である場合、前記物体に対する追跡処理を継続させる、
     請求項7に記載の状態推定装置。
  9.  前記予測確率分布データSt|t-1とし、前記予測確率分布データSt|t-1に従って取得されたパーティクルであって、前記物体に対する追跡処理を行うために用意されたN1個(N1:自然数)のパーティクルのj番目のパーティクルについて、前記尤度取得部により取得された、当該j番目のパーティクルの前記第1尤度についての内部変数をwp(j)とすると、
     前記事後確率分布推定部は、
     N1個の前記第1尤度についての内部変数wp(j)の中の最大値を最大値wp_maxとして取得し、
    (1)前記最大値wp_maxが所定の閾値Th2よりも小さい場合、前記物体に対する追跡処理を停止させ、
    (2)前記最大値wp_maxが所定の閾値Th2以上である場合、前記物体に対する追跡処理を継続させる、
     請求項7に記載の状態推定装置。
  10.  物体に対する追跡処理を行う場合、
     前記事後確率分布データをSt|tとし、前記事後確率分布データSt|tに従って取得されたi番目のパーティクルの内部変数の1つをwnt|t (i)とし、前記尤度取得部により取得された、当該パーティクルに対応する前記第1尤度をwpとし、前記尤度取得部により取得された、当該パーティクルに対応する前記第2尤度をwnとし、現時刻tにおける事後確率分布データに従い復元抽出されるパーティクル数をM1(M1:自然数)とし、現時刻tにおける事後確率分布データに従い復元抽出されるパーティクルの第1尤度wpに基づく内部変数をwpt|t (i)すると、
     前記事後確率分布推定部は、
     前記第2尤度wnに基づいて、追跡対象の前記物体の内部状態を推定するための推定結果データを取得する、
     請求項2に記載の状態推定装置。
  11.  前記事後確率分布推定部は、
     前記事後確率分布データSt|tに従って取得されたi番目のパーティクルの位置に関する内部変数のベクトルデータを、ベクトルデータ(X (i),Y (i),W (i),H (i))とすると、
     前記事後確率分布データSt|tに従って取得されたM1個のパーティクルのうち、前記内部変数wnt|t (i)の値が最大であるパーティクルのベクトルデータ(X (i),Y (i),W (i),H (i))を前記推定結果データとして取得する、
     請求項10に記載の状態推定装置。
  12.  前記事後確率分布推定部は、
     前記事後確率分布データSt|tに従って取得されたi番目のパーティクルの位置に関する内部変数のベクトルデータを、ベクトルデータ(X (i),Y (i),W (i),H (i))とすると、
     前記事後確率分布データSt|tに従って取得されたM1個のパーティクルの前記内部変数wnt|t (i)の重み付き平均値wgtを
    Figure JPOXMLDOC01-appb-I000002

    により取得し、取得した前記重み付き平均値wgtを用いて取得したベクトルデータ(wgt×X (i),wgt×Y (i),wgt×W (i),wgt×H (i))を推定結果データとして取得する、
     請求項10に記載の状態推定装置。
  13.  観測対象の内部状態を推定する状態推定方法をコンピュータで実行するためのプログラムであって、
     観測可能な事象から得られる第1観測データを、任意の時間間隔で取得する第1観測取得ステップと、
     観測可能な事象から得られる第2観測データを、任意の時間間隔で取得する第2観測取得ステップと、
     前記第1観測データおよび前記第2観測データに対して、加算処理あるいは論理和演算を行うことで可能性測度データを取得する可能性測度取得ステップと、
     前記第1観測データおよび前記第2観測データに対して、乗算処理あるいは論理積演算を行うことで必然性測度データを取得する必然性測度取得ステップと、
     前時刻t-1に取得された観測対象の内部状態の確率分布である事後確率分布データに対して予測処理を行い、現時刻tにおける観測対象の内部状態の確率分布である予測確率分布データを取得する予測ステップと、
     前記予測確率分布データおよび前記可能性測度データに基づいて、第1尤度を取得するともに、前記予測確率分布データおよび前記必然性測度データに基づいて、第2尤度を取得する尤度取得ステップと、
     前記第1尤度と前記予測確率分布データとから、現時刻tにおける観測対象の内部状態の確率分布である事後確率分布データを推定する事後確率分布推定ステップと、
     前記事後確率分布推定ステップにより推定された前記事後確率分布データに基づく事前確率分布データを、次時刻t+1において、事前確率分布データとして出力する事前確率分布出力ステップと、
    を備える状態推定方法をコンピュータで実行するためのプログラム。
  14.  観測対象の内部状態を推定する状態推定処理用の集積回路であって、
     観測可能な事象から得られる第1観測データを、任意の時間間隔で取得する第1観測取得部と、
     観測可能な事象から得られる第2観測データを、任意の時間間隔で取得する第2観測取得部と、
     前記第1観測データおよび前記第2観測データに対して、加算処理あるいは論理和演算を行うことで可能性測度データを取得する可能性測度取得部と、
     前記第1観測データおよび前記第2観測データに対して、乗算処理あるいは論理積演算を行うことで必然性測度データを取得する必然性測度取得部と、
     前時刻t-1に取得された観測対象の内部状態の確率分布である事後確率分布データに対して予測処理を行い、現時刻tにおける観測対象の内部状態の確率分布である予測確率分布データを取得する予測部と、
     前記予測確率分布データおよび前記可能性測度データに基づいて、第1尤度を取得するともに、前記予測確率分布データおよび前記必然性測度データに基づいて、第2尤度を取得する尤度取得部と、
     前記第1尤度と前記予測確率分布データとから、現時刻tにおける観測対象の内部状態の確率分布である事後確率分布データを推定する事後確率分布推定部と、
     前記事後確率分布推定部により推定された前記事後確率分布データに基づく事前確率分布データを、次時刻t+1において、事前確率分布データとして出力する事前確率分布出力部と、
    を備える集積回路。
PCT/JP2015/062057 2014-05-22 2015-04-21 状態推定装置、プログラムおよび集積回路 WO2015178148A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP15795830.7A EP3136342B1 (en) 2014-05-22 2015-04-21 State estimation apparatus and program
US15/355,532 US9805285B2 (en) 2014-05-22 2016-11-18 State estimation apparatus, state estimation method, and integrated circuit

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014106073A JP6366999B2 (ja) 2014-05-22 2014-05-22 状態推定装置、プログラムおよび集積回路
JP2014-106073 2014-05-22

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/355,532 Continuation US9805285B2 (en) 2014-05-22 2016-11-18 State estimation apparatus, state estimation method, and integrated circuit

Publications (1)

Publication Number Publication Date
WO2015178148A1 true WO2015178148A1 (ja) 2015-11-26

Family

ID=54553824

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/062057 WO2015178148A1 (ja) 2014-05-22 2015-04-21 状態推定装置、プログラムおよび集積回路

Country Status (4)

Country Link
US (1) US9805285B2 (ja)
EP (1) EP3136342B1 (ja)
JP (1) JP6366999B2 (ja)
WO (1) WO2015178148A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6366999B2 (ja) * 2014-05-22 2018-08-01 株式会社メガチップス 状態推定装置、プログラムおよび集積回路
WO2016025507A1 (en) * 2014-08-12 2016-02-18 Joseph Cole Harper System and method for accurately analyzing sensed data
JP6217733B2 (ja) 2015-11-12 2017-10-25 トヨタ自動車株式会社 車両用施解錠システム
US10127417B2 (en) * 2016-01-08 2018-11-13 Disney Enterprises, Inc. Systems and methods for determining interaction states of wireless tags based on probability distributions
CN109509214B (zh) * 2018-10-15 2021-07-16 杭州电子科技大学 一种基于深度学习的船舶目标跟踪方法
US20210110089A1 (en) * 2019-10-10 2021-04-15 Nvidia Corporation Generating computer simulations of manipulations of materials based on machine learning from measured statistics of observed manipulations

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008262331A (ja) * 2007-04-11 2008-10-30 Toshiba Corp オブジェクト追跡装置およびオブジェクト追跡方法
JP2014081863A (ja) * 2012-10-18 2014-05-08 Sony Corp 情報処理装置、情報処理方法、及び、プログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6882959B2 (en) * 2003-05-02 2005-04-19 Microsoft Corporation System and process for tracking an object state using a particle filter sensor fusion technique
JP4208898B2 (ja) * 2006-06-09 2009-01-14 株式会社ソニー・コンピュータエンタテインメント 対象物追跡装置および対象物追跡方法
JP4582174B2 (ja) * 2008-03-28 2010-11-17 ソニー株式会社 追跡処理装置、追跡処理方法、プログラム
US20110279475A1 (en) * 2008-12-24 2011-11-17 Sony Computer Entertainment Inc. Image processing device and image processing method
JP5674550B2 (ja) 2011-05-09 2015-02-25 日本電信電話株式会社 状態追跡装置、方法、及びプログラム
JP6194450B2 (ja) * 2013-04-15 2017-09-13 株式会社メガチップス 状態推定装置、プログラムおよび集積回路
JP6295122B2 (ja) * 2014-03-27 2018-03-14 株式会社メガチップス 状態推定装置、プログラムおよび集積回路
JP6366999B2 (ja) * 2014-05-22 2018-08-01 株式会社メガチップス 状態推定装置、プログラムおよび集積回路

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008262331A (ja) * 2007-04-11 2008-10-30 Toshiba Corp オブジェクト追跡装置およびオブジェクト追跡方法
JP2014081863A (ja) * 2012-10-18 2014-05-08 Sony Corp 情報処理装置、情報処理方法、及び、プログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
KEIICHI SATO: "An Experimental Study on Object Location in 3D Space with Particle Filter", KENKYUKAI SHIRYO, 24 August 2012 (2012-08-24), pages 27 - 30, XP008183016 *
See also references of EP3136342A4 *

Also Published As

Publication number Publication date
EP3136342A4 (en) 2017-05-17
EP3136342A1 (en) 2017-03-01
EP3136342B1 (en) 2018-03-07
JP6366999B2 (ja) 2018-08-01
US20170069106A1 (en) 2017-03-09
JP2015222473A (ja) 2015-12-10
US9805285B2 (en) 2017-10-31

Similar Documents

Publication Publication Date Title
WO2015178148A1 (ja) 状態推定装置、プログラムおよび集積回路
JP6295122B2 (ja) 状態推定装置、プログラムおよび集積回路
WO2017084094A1 (zh) 烟雾检测装置、方法以及图像处理设备
JP6194450B2 (ja) 状態推定装置、プログラムおよび集積回路
US20160071284A1 (en) Video processing for motor task analysis
JP6482844B2 (ja) 状態推定装置、プログラムおよび集積回路
JP6024658B2 (ja) 物体検出装置、物体検出方法及びプログラム
US8582810B2 (en) Detecting potential changed objects in images
US9076075B2 (en) Method and device for following an object in a sequence of at least two images
KR101969623B1 (ko) 병렬 검출과 추적, 및/또는 그룹화된 피처 모션 시프트 추적을 이용한 얼굴 인식
Wong et al. RigidFusion: RGB‐D Scene Reconstruction with Rigidly‐moving Objects
JPWO2010052874A1 (ja) 物体位置推定システム、物体位置推定装置、物体位置推定方法、及び、物体位置推定プログラム
JP2015222473A5 (ja)
US8879831B2 (en) Using high-level attributes to guide image processing
JP6452324B2 (ja) 画像処理装置、画像処理方法及びプログラム
Pu et al. Particle filter based on color feature with contour information adaptively integrated for object tracking
Nieto et al. Measurement-based reclustering for multiple object tracking with particle filters
JP2011185699A (ja) 画像処理装置
JP2012242947A (ja) 通過物体数計測方法、通過物体数計測装置、及びプログラム
EP2214138A1 (en) Detecting potential changed objects in images
Wang et al. Mitigating imbalances in heterogeneous feature fusion for multi-class 6D pose estimation

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15795830

Country of ref document: EP

Kind code of ref document: A1

REEP Request for entry into the european phase

Ref document number: 2015795830

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2015795830

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE