WO2004021281A1 - 物体追跡装置、物体追跡方法および物体追跡プログラム - Google Patents

物体追跡装置、物体追跡方法および物体追跡プログラム Download PDF

Info

Publication number
WO2004021281A1
WO2004021281A1 PCT/JP2003/010837 JP0310837W WO2004021281A1 WO 2004021281 A1 WO2004021281 A1 WO 2004021281A1 JP 0310837 W JP0310837 W JP 0310837W WO 2004021281 A1 WO2004021281 A1 WO 2004021281A1
Authority
WO
WIPO (PCT)
Prior art keywords
region
information
feature amount
state
correspondence
Prior art date
Application number
PCT/JP2003/010837
Other languages
English (en)
French (fr)
Inventor
Hirokazu Koizumi
Original Assignee
Nec Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nec Corporation filed Critical Nec Corporation
Priority to EP03791330A priority Critical patent/EP1538565A4/en
Priority to US10/525,874 priority patent/US20050254686A1/en
Publication of WO2004021281A1 publication Critical patent/WO2004021281A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • G06V10/7515Shifting the patterns to accommodate for positional errors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking

Definitions

  • the present invention relates to an object tracking device, an object tracking method, and an object tracking program.
  • the present invention relates to an object tracking device, an object tracking method, and an object tracking program that track an object based on image information, and more particularly to an object tracking device that can continue tracking even when a plurality of objects overlap on an image, Related to tracking methods and object tracking programs. Background art
  • An object tracking device that tracks an object such as a person based on image information that is input momentarily from a video camera or the like needs to continue tracking the object to be tracked even when multiple objects overlap on the image. is there.
  • Japanese Patent Application Laid-Open No. H6-16-169458 describes an object tracking device capable of continuing to track an object even when a plurality of objects intersect during tracking.
  • FIG. 1 is a block diagram showing the configuration of a conventional object tracking device described in Japanese Patent Application Laid-Open No. H06-169458.
  • the object tracking device includes an object region extracting means 41 for extracting an object region from image information periodically input from a video camera or the like to an image input terminal 40, Tracking state detection means 42 for comparing the area with the tracking target object area output by the area selection means 45 described later to detect the state of the tracking target object, based on the image information and the tracking target object area Means for generating the feature amount of the object based on the image information and the object area extracted by the object area extracting means 41, and the feature amount generation means.
  • the object identification unit 44 for selecting an object region having a feature amount closest to the feature amount of the object input from the stage 43, and an area selection unit 45 for outputting a tracking target object region.
  • the object area is an area including an object in the image.
  • the state of the tracked object output by the tracking state detecting means 42 includes an overlap state in which the tracked object intersects with another object and a tracked object that exists and is tracked independently. And And a tracking state.
  • the feature value generation means 43 has a storage means for storing the generated feature value, and further includes an updating means for updating the feature value stored in the storage means.
  • the characteristic amount generating means 43 updates the characteristic amount stored in the storage means.
  • the feature amount generation unit 43 maintains the feature amount stored in the storage unit.
  • the object identification unit 44 selects an object region having a feature amount closest to the feature amount of the object region stored in the feature amount generation unit 43 only when the state of the object is an overlapping state. 'And, when the state of the object changes from the overlapping state to the tracking state, the area selecting means 45 selects the object area selected by the object identifying means 44 as the tracking target object area. In cases other than the case where the state of the object has changed from the overlapping state to the tracking state, the region selecting means 45 selects the previous tracking target among all the object regions newly extracted by the object region extracting means 41. The object area closest to the position of the object area is selected and output. Then, the area selecting means 45 outputs the selected object area as a new object area to be tracked.
  • the previous tracking target object region is, for example, a tracking target object region determined based on image information one frame before image information newly input from a video camera or the like.
  • the object tracking apparatus continues to track the object area using the newly input image information.
  • the state of the object changes from the tracking state to the overlapping state
  • the feature amount of the object immediately before the change is stored.
  • the tracking of the object area is continued with the object area selected by the object identifying means 44 as the tracking target object area. Therefore, when the state of the object changes from the tracking state to the overlapping state and then returns to the tracking state, the tracking of the object area can be continued.
  • the plurality of objects intersect by associating the object with the object region based on the feature amount of the object immediately before changing to the overlapping state. In this case, the tracking of the object area can be continued.
  • the object tracking device Incorrect association with the object area.
  • the conventional object tracking device selects a region that is most similar to each object, but does not necessarily provide a consistent association for the entire object.
  • an object of the present invention is to provide a method in which, even when a plurality of objects are separated from a state of overlapping on an image, there are still a plurality of objects in an image area, or before and after the separation, an object which overlaps on the image is removed. It is an object of the present invention to provide an object tracking device, an object tracking method, and an object tracking program that do not erroneously associate an object with an object region even when the combinations are switched. Another object of the present invention is to make it possible to select an optimum association as a whole object when associating an object with an object region.
  • An object tracking device is an object tracking device that tracks an object based on image information, and generates a combined feature amount by combining an object feature amount indicating a feature amount of each object included in the image information.
  • a feature amount synthesizing unit that associates the object region with the object based on the similarity between the feature amount of the object region extracted from the image information and the region including the object and the combined feature amount Associating means.
  • the feature amount synthesizing means synthesizes feature amounts for all necessary combinations of a plurality of objects to generate respective synthetic feature amounts, and the associating means generates each synthesized feature amount and the object It is preferable to associate the object with the object region by comparing the region feature amount indicating the feature amount of the region.
  • An object tracking device extracts an object region from image information and outputs object region information including image information of the object region, and a tracking state indicating a relative positional relationship with another object for each object.
  • a tracking state determination unit that determines for each object region, and a feature amount generation unit that generates an area feature amount and an object feature amount using the image information, the object region information, and the determination result of the tracking state determination unit.
  • the feature amount synthesizing unit generates the synthetic feature amount using the object feature amount and the determination result of the tracking state determining unit. According to such a configuration, it is possible to generate a combined feature based on a relative positional relationship with another object.
  • the tracking state determination means determines the tracking state for each object or each object region from the object region information and the fixed correspondence information indicating the correspondence between the object region and the object before the current time.
  • the feature amount and the object feature amount are generated, and the feature amount synthesizing unit generates, from the object feature amount and the first area correspondence information, each combined feature amount that is a candidate associated with the object region (that is, the object feature amount).
  • the feature amount of the object is synthesized for the region), and the synthesized feature amount information, which is information including the correspondence between the synthesized feature amount and the object used for generating the synthesized feature amount and the synthesized feature amount, is output.
  • the associating means is first area correspondence information
  • the information processing apparatus includes a correspondence determining means for associating the object with the object area from the area feature information and the combined feature information which are information indicating the area feature, and outputting fixed correspondence information for the current time. According to such a configuration, when there are a plurality of objects after the object separation or when the objects are interchanged at the time of intersection, it is possible to prevent an erroneous association between the object and the object region.
  • the tracking state may be a single state in which only one object exists in the object area, an overlapping state in which multiple objects correspond in the object area, or multiple object areas. It is preferable that the separation state is a transitional state in which a force is applied to a number of object regions. By doing so, the relative positional relationship with another object can be determined.
  • the feature amount generating means generates, as the region feature amount, one or a combination of the color histogram of the object region, the area, the image template, and the color histogram normalized by the area, and generates the object region corresponding to the object. Generated from the first area correspondence information, the color histogram, area, and image template of the object area, the color histogram that is normalized by the area, and / or a combination thereof are generated as object feature amounts. It may be.
  • the tracking state determination means tracks the object from the object area storage means for storing the object area information, the object area information, the determined correspondence information, and the object area information before the current time outputted from the object area storage means, Object tracking means for outputting second area correspondence information indicating the correspondence between the object and the object area, and determining the tracking state of the object from the second area correspondence information, the object area information and the object area information before the current time. And state determination means for outputting the first area correspondence information.
  • the state determination means determines, based on the second area correspondence information and the object area information, a correspondence between the objects and the object areas, a distance between the object areas, a duration during which the object areas are separated, or a combination thereof.
  • Objects that have a common region in the corresponding object regions are grouped based on the object regions, and those objects and the corresponding object regions are classified into one class.For objects whose corresponding object regions are different from any objects, By classifying the object and the corresponding object region into one class, the object and the object region are classified into a plurality of classes, and based on the classified class! It is also possible to determine the tracking state.
  • the tracking state includes a separation state in which the object area is a transient state in which the object area is divided into a plurality of object areas, and the state determination unit determines that the classified class includes two or more object areas, the class is in the separation state. If it is determined that a certain condition is satisfied and the condition that the class is in the separated state is satisfied, the tracking state of the object and the object area included in the class may be determined as the separated state.
  • the state determination means satisfies the condition that the classified class is in a separated state, and furthermore, the class includes two or more objects, and a distance between object regions included in the class is equal to or greater than a predetermined threshold.
  • Duration during separation of object regions included in the class May be configured to determine a tracking state of an object and an object region included in a class as a separated state when any one of a predetermined threshold or more is satisfied or a combination thereof is satisfied. According to such a configuration, it is possible to prevent erroneous determination that the relative positional relationship with another object is in a separated state.
  • the tracking state includes a separated state and a single state in which only one object is present in the object area, and the state determination means includes a single classified object, and the tracking state of the object and the object area included in the class. If is not the separated state, the tracking state of the object and the object area included in the class may be determined to be a single state.
  • the tracking state includes a separation state and an overlapping state in which a plurality of objects correspond to each other in the object region.
  • the state determination unit includes a classified class including two or more objects, and includes an object and an object region included in the class. When the tracking state is not the separation state, the tracking state of the object and the object area included in the class may be determined to be the overlapping state.
  • a feature amount extracting unit that extracts a region feature amount from the image information, the object region information, and the first region correspondence information, and outputs region feature amount information that is information indicating the region feature amount;
  • a feature amount storing means for storing the feature amount and selecting an object feature amount to be stored according to a request; area feature amount information and first area correspondence information; fixed correspondence information and current time It may be configured to include a feature amount updating unit that updates the object feature amount stored in the feature amount storing unit and the object feature amount and the force parameter generated earlier.
  • the tracking state includes a separation state in which the object area is a transient state in which the object area is divided into a plurality of object areas
  • the feature amount extraction means determines that the tracking state is other than the separation state
  • the correspondence with the object Includes information indicating that attachment is not required in the area feature information
  • the correspondence determination means
  • the object area for which the association with the object is indicated by the area feature information is unnecessary. May be configured to be excluded from. According to such a configuration, the amount of calculation for calculating the similarity can be reduced.
  • the tracking state includes a single state in which only one object exists in the object area, and the feature amount updating unit determines whether the tracking state of the object is the single state based on the first area correspondence information or the fixed correspondence information.
  • the feature amount storage unit may not be configured to update the object feature amount.
  • the feature synthesizing means determines all combinations of the combineable object and the object area based on the object feature quantity generated by the feature quantity generating means and the first area correspondence information, and determines the determined object.
  • the configuration may be such that only the combination of the object and the object region is combined with the object feature to generate a combined feature. According to such a configuration, it is possible to reduce the processing of generating unnecessary combined feature amounts.
  • the feature amount synthesizing means may be configured to obtain a synthesis ratio, which is a coefficient for correcting a ratio of synthesizing the object feature amount, and generate the synthetic feature amount from the synthesis ratio and the object feature amount. . According to such a configuration, when the size of the object on the image is different from the actual size of the object, an error based on the size of the object can be corrected.
  • the feature amount synthesizing unit inputs the region feature amount together with the object feature amount from the feature amount generation unit, and based on the input region feature amount information and the object feature amount, calculates the combined feature amount according to an arbitrary synthesis ratio. May be calculated, and a combined feature amount corresponding to the combining ratio when the similarity between the calculated combined feature amount and the region feature amount is the highest may be output. According to such a configuration, it is only necessary to calculate the similarity for each combination of the object and the object region based on only one combined feature amount, and unnecessary calculation processing can be omitted.
  • the tracking state includes a separation state in which the object area is a transient state in which the object area is divided into a plurality of object areas, and the feature amount synthesizing means synthesizes only for the object area in which the tracking state is indicated as being in the separation state. It may be configured to generate a feature amount. According to such a configuration, it is possible to reduce the processing of generating unnecessary combined feature amounts.
  • the object feature amount includes the area of the object, and the feature amount synthesizing means obtains a synthesis ratio which is a coefficient for correcting a ratio of synthesizing the object feature amount from the area of the object included in the object feature amount. It may be configured to generate a combined feature amount from the object feature amount. According to such a configuration, the calculation amount for calculating the combination ratio can be reduced.
  • the feature amount synthesizing unit may be configured to limit the synthesis ratio to a predetermined range based on a change in the area of the object. According to such a configuration, even when the area of the object on the image changes, a correct combination ratio can be obtained.
  • the feature amount synthesizing unit inputs the area feature amount together with the object feature amount from the feature amount generating unit. Then, based on the input region feature and the object feature, a combined feature is generated within the range of the change in the area of the object, and the combined feature having the highest similarity with the object region is output. May be. According to such a configuration, it is only necessary to output one composite feature for each combination of objects, and unnecessary processing can be omitted.
  • the object feature amount includes an image template, and the feature amount synthesizing unit determines the anterior-posterior relationship of each object from the image template and the region feature amount, and based on the determined anterior-posterior relationship of each object! /, May be configured to combine the image templates. According to such a configuration, even when an object is partially hidden behind another object, it is possible to correctly calculate the correspondence between the object and the object region.
  • the correspondence determining unit is configured to determine, based on the combined feature amount information, the region feature amount information, and the first region correspondence information, a most similar combination from all possible combinations of combinations of the object and the object region.
  • a correspondence calculating means for obtaining a combination, selecting a combination of the obtained object and the object region as an optimum correspondence, and generating optimum correspondence information indicating an optimum correspondence between the object and the object region;
  • a response determining means for determining the correspondence between the object and the object region based on the region correspondence information and the optimal correspondence information, and outputting the determined correspondence information which is information including the correspondence between the determined object and the object region; and It may be configured to include: According to such a configuration, when associating an object with an object region, an optimal correspondence between the object and the object region can be selected.
  • the correspondence calculation means obtains the total similarity, which is the sum of the similarity between the feature amount of the object region and the combined feature amount in each combination, and obtains all possible combinations.
  • the combination with the highest total similarity is configured to be the most similar combination.
  • the first area correspondence information includes information on a static state indicating whether the object area is in a stationary state or in a moving state
  • the correspondence calculation means includes information on the static state. Therefore, the combination of the object region and the object may be excluded from all possible combinations. According to such a configuration, the amount of calculation of the correspondence calculation means can be reduced by calculating only the ray combination in which the object region in which the stationary state indicates the stationary state is not associated with any object. Can be.
  • the correspondence calculation means determines that the combination similarity obtained from the similarity of the set of the object and the object region constituting the combination determined as the most similar combination is equal to or less than a predetermined threshold, the object and the object region Of all possible combinations with the combination having the maximum combination similarity, select a combination having a combination similarity within a predetermined threshold from the combination similarity of the combination having the largest combination similarity, and select an object which is present in common with the selected combination.
  • the correspondence between the object and the object region is included in the optimal correspondence information as the optimal correspondence, and the object and the object region are not included in the correspondence between the commonly existing object and the object region.
  • the information that indicates that there is no optimal response is included in the optimal response information, and the response determination means indicates that there is no corresponding relationship between the optimal object and the object region.
  • the information indicating the correspondence between the object and the object region included in the optimal correspondence information is output as finalized correspondence information, and the optimal correspondence information is output.
  • the information indicating the correspondence between the object and the object region included in the first region correspondence information is determined. It may be configured to output as According to such a configuration, it is possible to prevent selection of the correspondence between the erroneous object and the object region.
  • the tracking state includes a separation state in which the object area is a transient state in which the object area is divided into a plurality of object areas, and the correspondence determination means determines the optimal correspondence information only for the object area in which the separation state is indicated as the tracking state. It may be configured to determine the correspondence between the indicated object and the object region. According to such a configuration, the process of determining the correspondence between the object and the object area can be reduced.
  • the tracking state includes a separated state in which the object area is a transient state in which the object area is divided into a plurality of object areas, and the correspondence determination means determines that only the object area in which a state other than the separated state is indicated as the tracking state.
  • the correspondence between the object and the object region included in the first region correspondence information may be output as finalized correspondence information. According to such a configuration, the process of determining the correspondence between the object and the object region can be reduced.
  • An object tracking method is an object tracking method for tracking an object based on image information, and generates a combined feature amount by combining an object feature amount indicating a feature amount of each object included in the image information.
  • the area extracted from the image information and contains the object The object region is associated with the object based on the similarity between the feature amount of the object region and the combined feature amount.
  • a feature amount is synthesized for all necessary combinations of a plurality of objects to generate respective combined feature amounts, and a region feature amount indicating each of the generated combined feature amounts and the feature amount of the object region. It is preferable to associate the object with the object region by comparing According to such a method, when associating an object with an object region, an optimal correspondence between the object and the object region can be selected.
  • the object tracking method extracts an object region from image information, outputs object region information including image information of the object region, and changes a tracking state indicating a relative positional relationship with another object for each object or each object region. It is preferable to make a determination, generate a region feature and an object feature using the image information, the object region information, and the determination result, and generate a combined feature using the object feature and the determination result. According to such a method, a composite feature can be generated based on a relative positional relationship with another object.
  • the tracking state is determined for each object or each object region from the object region information and the determined correspondence information indicating the correspondence between the object region and the object before the current time, and the object region and the object and the tracking state are determined.
  • the first area correspondence information indicating the correspondence relationship with the area information is output, and the area feature information is obtained from the image information at the current time, the area feature information which is information indicating the area feature, the first area correspondence information and the determined correspondence information.
  • an object feature amount, and from the object feature amount and the first region correspondence information generate each candidate feature amount to be associated with the object region, and generate the combined feature amount and the combined feature amount.
  • Outputs the combined feature information which is information including the correspondence between the object used in the process and the combined feature, and associates the object with the object region from the first area correspondence information, the area feature information, and the combined feature information.
  • the tracking state is a single state in which only one object exists in the object area, an overlapping state in which multiple objects correspond in the object area, or the object area is divided into multiple object areas Includes the transitional state of separation.
  • Object tracking methods include color histogram, area, image template and A color histogram normalized by the area, a deviation or a combination thereof is generated as a region feature, an object region corresponding to the object is obtained from the first region correspondence information, and the color histogram, the area, Image histogram and color histogram that has been regularized by area! It may be configured to generate /, a shift, or a combination thereof as an object feature amount.
  • the object tracking method stores the object region information, tracks the object based on the object region information, the fixed correspondence information, and the object region information before the current time, and displays a second correspondence indicating the correspondence between the object and the object region. It is configured to output region correspondence information, determine the tracking state of the object from the second region correspondence information, the object region information, and the object region information before the current time, and output the first region correspondence information. You may.
  • the object tracking method uses the second area correspondence information and the object area information to determine the correspondence between the objects and the object areas, the distance between the object areas, the deviation of the duration during the separation of the object areas, or a combination thereof.
  • Objects that have a common region in the corresponding object regions are grouped based on, and these objects and the corresponding object regions are classified into one class.For objects whose corresponding object regions are different from any objects, By classifying the object region corresponding to the object into one class, the object and the object region are classified into a plurality of classes, and the tracking state is determined based on the classified class. Good.
  • the tracking state includes a separation state in which the object region is a transient state in which the object region is divided into a plurality of object regions.
  • the object tracking method is such that when the classified class includes two or more object regions, the class is in the separated state. If it is determined that a certain condition is satisfied and the condition that the class is in the separated state is satisfied, the tracking state of the object and the object area included in the class is determined as the separated state.
  • the object tracking method satisfies the condition that the classified class is in the separated state, and the class includes two or more objects, and the distance between the object regions included in the class is equal to or greater than a predetermined threshold. If the duration of separation of the object region included in the class is equal to or greater than a predetermined threshold or a combination thereof, the tracking state of the object and the object region included in the class is separated. It may be configured to determine the state. According to such a method, relative to other objects It is possible to prevent erroneous determination that the physical positional relationship is in the separated state.
  • the tracking state includes a separated state and a single state in which only one object exists in the object region.
  • the object tracking method uses a method in which the classified class includes one object, and the object and the object region included in the class are included. When the tracking state is not the separated state, the tracking state of the objects and the object area included in the class may be determined to be the single state.
  • the tracking state includes a separated state and an overlapping state in which a plurality of objects correspond to each other in the object area.
  • the object tracking method includes an object in which the classified class includes two or more classes, and includes an object and an object area included in the class. When the tracking state is not the separation state, the tracking state of the object and the object area included in the class may be determined to be the overlapping state.
  • the object tracking method extracts an area feature from the image information, the object area information, and the first area correspondence information, outputs area feature information that is information indicating the area feature, and stores the object feature.
  • the stored object feature amount is selected and output, and the object feature amount to be stored is selected based on the region feature amount information and the first region correspondence information or the fixed correspondence information, and the region feature amount is selected.
  • the stored object feature amount may be updated from the feature amount information, the determination correspondence information, and the object feature amount generated before the current time.
  • the object tracking method is a transient state in which the tracking state includes a separation state in which the object region is a component of a plurality of object regions, and the object region is a transient state in which the object region is a component of a plurality of object regions. If the tracking state is other than the separation state, including the separation state, information indicating that the association with the object is unnecessary is included in the area feature information, and the association with the object is performed using the area feature information. May be configured to exclude from the object of association the object region indicated as unnecessary. According to such a method, the amount of calculation for calculating the similarity can be reduced.
  • the tracking state includes a single state in which only one object exists in the object area, and it is determined whether the tracking state of the object is the single state from the first area correspondence information or the fixed correspondence information, If the tracking state of the object is not a single state, the stored feature value of the object may not be updated. According to such a method, unnecessary update processing of the object feature amount can be reduced.
  • the object tracking method is based on the generated object feature amount and the first area correspondence information, It is configured to determine all possible combinations of an object and an object region that can be combined, and combine only the determined combination of the object and the object region to generate a combined feature amount by combining the object feature amounts. May be. According to such a method, it is possible to reduce the processing of generating the unnecessary synthetic feature quantity.
  • the object tracking method may be configured to obtain a combination ratio, which is a coefficient for correcting the ratio of combining the object feature amounts, and generate the combined feature amount from the combination ratio and the object feature amount. According to such a method, when the size of the object on the image is different from the actual size of the object, an error based on the size of the object can be corrected.
  • an area feature amount is input together with an object feature amount, a combined feature amount is calculated according to an arbitrary combination ratio based on the input area feature amount information and the object feature amount, and the calculated combined feature amount is calculated. It may be configured to output a combined feature amount according to the combination ratio when the similarity between the and the region feature amount is the highest. According to such a configuration, similarity may be calculated based on only one combined feature amount for each combination of an object and an object region, and unnecessary calculation processing can be omitted.
  • the object tracking method includes a separation state in which the tracking state is a transient state in which the object area is divided into a plurality of object areas, and only for an object area in which the tracking state is indicated to be in the separation state. It may be configured to generate a composite feature. According to such a method, it is possible to reduce the processing of generating unnecessary combined feature amounts.
  • the object feature amount includes the area of the object, and a combination ratio which is a coefficient for correcting a ratio of combining the object feature amount from the area of the object included in the object feature amount is obtained. It may be configured to generate a composite feature from the object feature. According to such a method, the amount of calculation for calculating the combination ratio can be reduced.
  • the object tracking method may be configured to limit the combination ratio to a predetermined range based on a change in the area of the object. According to such a method, even when the area of the object on the image changes, the correctness and the composition ratio can be obtained.
  • an area feature amount is input together with the object feature amount, a synthetic feature amount is generated from the input area feature amount and the object feature amount within an area change of the object, and the similarity with the object region is generated. It may be configured to output the combined feature value having the highest degree. According to such a configuration, one combined feature is provided for each combination of objects. It is only necessary to output, and unnecessary processing can be omitted.
  • the object feature amount includes an image template
  • the feature amount synthesizing unit determines an anteroposterior relationship of each object from the image template and the region feature amount, and determines an image template based on the determined anterior / posterior relationship of each object. May be configured to synthesize According to such a configuration, even when an object is partially hidden behind another object, the correspondence between the object and the object region can be correctly calculated.
  • the object tracking method is based on the combined feature amount information, the region feature amount information, and the first region correspondence information, and is most similar to all possible combinations of combinations of the object and the object region.
  • a combination is obtained, a combination of the obtained object and the object region is selected as an optimum association, and optimal correspondence information indicating an optimal correspondence between the object and the object region is generated.
  • the configuration may be such that the correspondence between the object and the object region is determined based on the optimum correspondence information, and the determined correspondence information that is information including the correspondence between the determined object and the object region is output.
  • the total similarity which is the sum of the similarity between the feature amount of the object region and the combined feature amount in each combination.
  • the combination with the highest total similarity may be configured as the most similar combination.
  • the first area correspondence information includes information of a static state indicating whether the object area is in a stationary state or in a force acting state, and is based on the information of the static state.
  • the combination of the object region and the object that is shown to be stationary may be excluded from all possible combinations. According to such a configuration, the amount of calculation can be reduced by calculating only combinations and combinations in which the object region in which the stationary state indicates the stationary state is not associated with any object.
  • the object tracking method uses an object and an object region when the combination similarity obtained from the similarity between the object and the object region constituting the combination determined as the most similar combination is equal to or less than a predetermined threshold. Of all possible combinations with the combination having the maximum combination similarity, select a combination having a combination similarity within a predetermined threshold from the combination similarity, and select the selected combination.
  • the correspondence between the object and the object region that exist in common is included in the optimal correspondence information as the optimal correspondence, and the object and the object region that are not included in the correspondence between the object and the object region that exist in common
  • the information that indicates that there is no optimal correspondence between the object and the object area is included in the optimal correspondence information, and for the object that does not indicate that there is no correspondence between the optimal object and the object area, Information indicating the correspondence between the object and the object area included in the optimal correspondence information is output as finalized correspondence information, and the object indicating that there is no correspondence between the optimal object and the object area is indicated in the optimal correspondence information.
  • the information indicating the correspondence between the object and the object region included in the first region correspondence information may be output as finalized correspondence information. According to such a method, it is possible to prevent an incorrect correspondence between the object and the object region from being selected.
  • the object tracking method may be configured to determine the correspondence between the object indicated by the optimal correspondence information and the object region only for the object region for which the separation state is indicated as the tracking state. According to such a method, the processing for determining the correspondence between the object and the object area can be reduced.
  • the object tracking method is configured to output the correspondence between the object and the object region included in the first region correspondence information as fixed correspondence information only for the object region for which a state other than the separated state is indicated as the tracking state. It may be done. According to such a method, the process of determining the correspondence between the object and the object area can be reduced.
  • An object tracking program is an object tracking program that tracks an object based on image information, and includes a process of inputting image information to a computer, and a feature amount of each object included in the input image information. Processing for generating a combined feature by combining the object features shown in the image data; and processing of the region based on the similarity between the feature of the object region extracted from the image information and the region including the object and the combined feature. And executing a process of associating the object region with the object.
  • An object tracking program is an object tracking program for associating an object with an object region in input image information, the processing comprising: inputting image information to a computer; A process of extracting the region and outputting the object region information including the image information of the object region; determining the correspondence between the object region information and the determined correspondence information indicating the correspondence between the object region and the object before the current time; Tracking status for each object Or, processing is performed by outputting the first area correspondence information indicating the correspondence between the object area and the object and the tracking state by making a determination for each object area, and using the image information, the object area information, and the first area correspondence information.
  • a process of outputting the combined feature amount information and a process of associating the object with the object region from the first region correspondence information, the region feature amount information and the combined feature amount information, and outputting the fixed correspondence information with respect to the current time are executed. It may be configured as .
  • An object tracking program is an object tracking program for associating an object with an object area in input image information, the processing comprising: inputting image information to a computer; Determining correspondence information indicating the correspondence between the object area and the object before the current time, the force, and the tracking state are determined for each object or each object area, and the correspondence between the object area and the object and the tracking state is indicated.
  • the region feature indicating the feature of the object region and the object indicating the feature of the object The process of generating feature values and the tracking state of each object are determined for objects whose object region is determined to be in a state other than the separated state, which is a transient state in which the object region is divided into multiple object regions. Then, the correspondence between the object and the object region included in the first region correspondence information is determined as the correspondence between the object and the object region, and the object feature amount is determined for the object for which the tracking state is determined to be the separated state.
  • the processing may be configured to execute a process of associating an object corresponding to the combined feature with the highest similarity with an object region.
  • the present invention has the following effects.
  • the feature amounts of a plurality of objects are combined, and the degree of similarity of the feature amount between the object and the object region is obtained using the combined feature amounts. If the objects are switched at the time of intersection or Can be done. In particular, the correspondence between the object and the object region when the overlapping state is resolved can be prevented so that the correspondence between the object and the object region is not mistaken.
  • FIG. 1 is a block diagram showing the configuration of a conventional object tracking device.
  • FIG. 2 is a block diagram illustrating an example of the configuration of the object tracking device according to the present invention
  • FIG. 3 is a block diagram illustrating an example of the configuration of the association unit.
  • FIG. 4 is a flowchart showing an example of the processing progress of the object tracking device according to the present invention.
  • FIG. 5 is an explanatory diagram showing an example of the first area correspondence information.
  • FIG. 6 is a block diagram illustrating an example of the configuration of the tracking state determination unit.
  • FIG. 7 is an explanatory diagram showing an example of the second area correspondence information.
  • FIG. 8 is a block diagram illustrating an example of the configuration of the feature amount generation unit.
  • FIG. 9 is a block diagram showing an example of the configuration of the correspondence determination unit.
  • FIG. 10 is an explanatory diagram showing an example of a feature amount synthesizing method using a template.
  • FIG. 11 is a block diagram showing another example of the configuration of the object tracking device according to the present invention. Is a block diagram showing still another example of the configuration of the object tracking device according to the present invention,
  • FIG. 13 is a block diagram illustrating an example of a configuration of the first control unit.
  • FIG. 14 is a flowchart showing another example of the processing progress of the object tracking device according to the present invention.
  • FIG. 2 shows an object according to the present invention. It is a block diagram which shows an example of a structure of a body tracking device.
  • the object tracking device includes an image input terminal 11 to which image information is input momentarily from a video camera or the like, and an object region to extract an object region from image information input to the image input terminal 11.
  • Extraction unit 12 Feature generation unit 14 that generates the feature of the object and the feature of the object area based on the image information input to image input terminal 11, Synthesizes the feature of multiple objects
  • an associating unit 17 for associating an object with an object region.
  • the object region extracting unit 12, the feature amount generating unit 14, the feature amount synthesizing unit 15 and the associating unit 17 can be realized by hardware, but can also be realized by software. That is, the object region extracting unit 12, the feature amount generating unit 14, the feature amount synthesizing unit 15 and the associating unit 17 are provided with a CPU that executes processing based on a program, and an object region extracting unit 1 described below. 2. It can be realized by a program stored in a storage device for realizing the functions of the feature amount generating unit 14, the feature amount synthesizing unit 15, and the associating unit 17. .
  • the object tracking device continuously captures an image in a predetermined range (hereinafter, referred to as a tracking range) using a video camera or the like, and recognizes the object in the captured image to identify the object.
  • a tracking range a predetermined range
  • a video camera is fixed so that it does not move, and the video camera continuously captures a predetermined range of images.
  • the video camera may be capable of changing the shooting range in the vertical and horizontal directions.
  • another image capturing device that captures images at fixed time intervals may be used.
  • a device that captures image information as a still image such as a digital camera, may be used.
  • the object area is an area including an object in an image.
  • the object region is extracted, for example, as follows. That is, the video camera or the like causes the tracking area to be photographed beforehand when no object is present at all, and the object region extracting unit 12 stores information of the photographed image in the background image storage unit as background image information. Then, the object region extraction unit 12 compares the image information input to the image input terminal 11 with the background image information stored in the background image storage unit on a pixel-by-pixel basis, and calculates a difference between pixel values. Calculated difference Pixels whose minutes are equal to or larger than a predetermined threshold (hereinafter referred to as object pixels) are extracted. The object region extraction unit 12 selects all adjacent object pixels among the extracted object pixels. The object area extraction unit 12 extracts the area by connecting the selected object pixels. Then, the object area extracting unit 12 assigns an area number to the extracted area and outputs the extracted area as an object area.
  • a predetermined threshold hereinafter referred to as object pixels
  • the background image storage unit may store a plurality of pieces of background image information instead of storing only one piece of background image information.
  • the background image storage unit stores background image information captured during the day (hereinafter, referred to as daytime image) and background image information captured at night (hereinafter, nighttime image). ) May be stored, and daytime images may be used during the day, and nighttime images may be used at night.
  • the object tracking device does not have a background image storage unit, but instead uses information such as the shape, color, and motion of the object as object model information in advance. It may have an object model storage device for storing. Then, the object region extraction unit 12 may collate the input image information with the object model stored in the object model storage device and extract a region matching the object model as the object region.
  • the feature amount is an amount used when associating an object with an object region.
  • the feature amount of the object region indicates a feature amount obtained from each object region, and the feature amount of the object indicates a feature amount obtained from a set of object regions constituting the object.
  • the feature amount generation unit 14 calculates, for example, a color histogram of the object area. Then, the calculated color histogram of the object region is output as the feature amount of the object region.
  • the feature amount of the object region may be the area of the object region, or may be an image template or the like. Also, a color histogram that is normalized by area may be used. Further, a combination of two or more of a color histogram, an area, an image template, and a color histogram normalized by the area may be used.
  • the feature amount of an object is a feature amount obtained from a set of object regions constituting the object
  • the feature amount of the object is also determined by the color histogram, the area, the image template, and the deviation of the color histogram normalized by the area. Or a combination thereof.
  • the feature amount generation unit 14 calculates the feature amount of the object based on the feature amount of the object region.
  • the feature amount of the object region is a feature amount obtained from each object region, and the feature amount of the object is a feature amount obtained from a set of object regions constituting the object.
  • the feature amount of the object is determined based on the feature amount of the object region, and when the object is composed of a plurality of object regions, The features of the object are determined from the sum of the features of those object regions.
  • the object region extracting unit 12 is a specific example (specific example) of an object region extracting unit that extracts an object region from image information and outputs object region information including image information of the object region.
  • the feature amount generation unit 14 is a specific example of a feature amount generation unit that generates an area feature amount and an object feature amount.
  • the feature amount synthesis unit 15 includes a feature amount generation unit 15 for all combinations required for a plurality of objects. It is a specific example of a feature amount synthesizing unit that synthesizes amounts to generate respective combined feature amounts.
  • FIG. 3 is a block diagram illustrating an example of the configuration of the association unit 17.
  • the association unit 17 includes a tracking state determination unit 13 and a correspondence determination unit 16.
  • the tracking state determination unit 13 determines the tracking state by associating the object with the object area.
  • the correspondence determination unit 16 determines the correspondence between the object and the object region based on the tracking state of the object.
  • the tracking state is a state indicating a positional relationship with respect to another object, such as overlapping with or separating from another object.
  • Tracking states include, for example, a single state in which only one object exists in the object area, an overlapping state in which multiple objects correspond in the object area, and a transient state in which the object area is divided into multiple object areas.
  • separation states There are certain separation states. That is, in the present embodiment, the tracking state includes an independent state, an overlapping state, and a separated state. In general, transition from the overlapping state to the single state via the separation state.
  • the tracking state determination unit 13 is a specific example of a tracking state determination unit that determines a tracking state indicating a relative positional relationship with another object for each object or each object region.
  • the correspondence determining unit 16 is a unit for associating the object region with the object based on the similarity between the feature amount of the object region that is the region including the object and the combined feature amount, and determining the current time. It is a specific example of correspondence determination means for outputting correspondence information.
  • the feature amount corresponding to the object region is synthesized using the feature amount of the object, and the object is associated with the object region.
  • the reliability of object determination in the object area can be improved as compared with the case where no object is determined.
  • the feature amounts of the plurality of objects are combined, and the plurality of objects are present in the separated object region using the combined feature amount. Since the similarity of the feature amount between the object and the object region is calculated in the case, even if there are multiple objects in the separated region or if the objects are switched when the objects intersect, the association between the object and the object region Misleading,
  • FIG. 4 is a flowchart showing an example of the processing progress of the object tracking device according to the present invention.
  • the object area extraction unit 12 inputs image information via the image input terminal 11 (step S310).
  • the object area extraction unit 12 extracts an object area from the input image information (step S302).
  • the object region extraction unit 12 outputs object region information including image information of the object region (object region image information).
  • the tracking state determination unit 13 stores the object region information output by the object region extraction unit 12.
  • the tracking state determination unit 13 receives the current time object region information output from the object region extraction unit 12, the past object region information stored by the tracking state determination unit 13 itself, and the input from the correspondence determination unit 16. Based on the determined past correspondence information, the object is tracked to associate the object with the object region, and the tracking state of the object and the object region is determined for each object or for each object region.
  • the tracking state of the object when it is focused on, it is expressed as the tracking state of the object, and when it is focused on the object area, it is expressed as the tracking state of the object area, but when the object is associated with the object area. In fact, those expressions are substantially synonymous.
  • the tracking state determination unit 13 outputs the first area correspondence information (Step S303).
  • the first area correspondence information is information indicating the correspondence between the object and the object area and the tracking state (information indicating the correspondence between the object area and the object and the tracking state).
  • the determined correspondence information is information indicating the correspondence between the object determined by the correspondence determining unit 16 and the object region. The procedure by which the correspondence determination unit 16 determines the correspondence between the object and the object area will be described later.
  • FIG. 5 is an explanatory diagram showing an example of the first area correspondence information.
  • the first area correspondence information is, for example, object area information includes image information of three object areas ⁇ , ⁇ , and ⁇ , and four If objects A, B, C, and D exist, the correspondence between object regions ⁇ and ⁇ ⁇ and objects A, B, C, and D as shown in FIG. This is information as shown in Fig. 5A, which shows the correspondence between the object and the tracking state. Further, for example, information indicating the correspondence between the object area and the tracking state for each object as shown in FIG. 5B may be used.
  • Object tracking is to associate the tracked object with the object region.
  • the position of the object is obtained from the object region corresponding to the past object, and the closest near object region is obtained from the position of the object. It can be realized by associating the obtained object region with the object being tracked.
  • the position of the center of gravity of the object area is set as the position of the object. A method of associating an object with an object region will be described later.
  • the feature amount generation unit 14 generates a feature amount of the object region based on the image information input via the image input terminal 11 and the object region information input from the object region extraction unit 12. (Step S 304), the area feature amount information is output to the feature amount synthesis unit 15 and the association unit 17.
  • the region feature amount information is information indicating a feature amount (region feature amount) of each object region extracted by the object region extraction unit 12. Further, the feature amount generation unit 14 calculates the feature amount of the object based on the first region correspondence information output from the tracking state determination unit 13 and the feature amount of the object region generated in step S304.
  • the feature amount of the object to be determined and stored is updated (step S305). Then, the feature amount generation unit 14 outputs the feature amount of the object in response to a request from the feature amount synthesis unit 15.
  • the feature amount generation unit 14 updates the feature amount of the object whose tracking state is single in the first area correspondence information output by the tracking state determination unit 13. If the objects overlap on the image, the feature amount of the object cannot be accurately calculated.Therefore, when the tracking state is a state other than the single state, the feature amount generation unit 14 stores the stored features. Do not update the quantity.
  • the update of the feature amount of the object is performed based on, for example, Expression (1).
  • H in indicates the currently observed characteristic quantity of an object (feature amount obtained from the set of the body area of the current time constituting the object).
  • H t and H t _! Shows the feature amount of the object to be stored at a time t of the features of the memory that the object time t one 1 Tokyo, H t represents the characteristic quantity of an object after the update.
  • indicates the update coefficient of the feature value of the object.
  • the feature amount synthesizing unit 15 performs all necessary combinations of a plurality of objects based on the feature amount of the object stored in the feature amount generating unit 14 and the first area correspondence information output by the tracking state determination unit 13. Then, a feature amount obtained by combining the feature amounts of the objects (hereinafter, referred to as a combined feature amount) is calculated (step S306). That is, the feature amount synthesizing unit 15 determines all possible combinations of the object and the object region that can be combined based on the feature amount of the object generated by the feature amount generating unit 14 and the first area correspondence information. Then, only for the determined combination of the object and the object region, a combined feature amount (a concept including the object feature amount of a single object) is generated.
  • the feature amount synthesizing unit 15 outputs combined feature amount information including the calculated combined feature amount.
  • the combined feature information is information including the calculated combined feature and the correspondence between the object used for calculating the combined feature and the combined feature.
  • the feature amount generation unit 14 selects the stored feature amount of the object in response to a request from the feature amount synthesis unit 15 and outputs the feature amount of the selected object to the feature amount synthesis unit 15.
  • the feature amount synthesizing unit 15 determines the feature amount of the object requested to the feature amount generating unit 14 based on the first area correspondence information.
  • All the necessary combinations of multiple objects are, for example, after the objects A, ⁇ , and C are superimposed on the image (that is, the superimposed state), and then the objects of some force are separated and the two object regions are combined.
  • ⁇ ) (AB, C) indicates that object areas c and A and B exist, and object C exists in the object area.
  • the combined feature amount information includes, for example, a combined feature amount of ⁇ , and information indicating that the object associated with the calculated combined feature amount of ⁇ is an object ⁇ and an object ⁇ .
  • the correspondence determining unit 16 includes: a region feature amount information output by the feature amount generation unit 14; a synthesized feature amount information output by the feature amount synthesis unit 15; and a first feature amount output by the tracking state determination unit 13. The correspondence between the object and the object region is determined based on the region correspondence information (step S307). Then, the correspondence determining unit 16 outputs the determined correspondence information.
  • the correspondence determination unit 16 determines the region feature amount information and the combined feature amount for an object whose tracking state is indicated as being separated in the first region correspondence information output from the tracking state determination unit 13. The correspondence between the object and the object region is determined based on the information. Further, for an object whose tracking state is indicated to be other than the separated state in the first area correspondence information ⁇ : the object area included in the first area correspondence information output by the tracking state determination unit 13 Is determined as the correspondence between the object and the object region. Then, the correspondence determining unit 16 sets information on the correspondence between the determined object and the object region as determined correspondence information.
  • the tracking state determination unit 13 determines whether the tracking state of the object is a single state, an overlapping state, or a separated state by the following method.
  • the tracking state determination unit 13 outputs the current time object region information from the object region extraction unit 12, the past object region information stored in the tracking state determination unit 13 itself, and the correspondence determination unit 16.
  • the object and the object region are classified as a whole based on the past determined correspondence information.
  • the tracking state determination unit 13 classifies the object A and the object area ⁇ ; into a class X. I do.
  • the tracking state determination unit 13 classifies the object B and the object region] 3 into a class Y different from the class X.
  • the tracking state determination unit 13 associates the object ⁇ included in the class X with the object ⁇ included in the class ⁇ . It is assumed that the object region ⁇ and all the elements included in the class X and all the elements included in the class ⁇ belong to the same class.
  • each object and each object region is associated with at least one other object or other object region, Classify.
  • the tracking state determination unit 13 determines whether the tracking state is a single state, an overlapping state, or a separated state based on the number of elements of each class. When only one element of the object is included in the elements of the class, the tracking state determination unit 13 determines that the tracking state is a single state. When two or more elements of the object are included in the elements of the class and only one element of the force and the object area is included, the tracking state determination unit 13 determines that the tracking state is an overlapping state. When two or more elements of the object are included in the elements of the class and two or more elements of the object area are included, the tracking state determination unit 13 determines the tracking state to be the separated state.
  • the correspondence determination unit 16 calculates the combination similarity for all combinations of the object and the object region. Then, the correspondence determining unit 16 selects a combination of the object and the object region having the highest combination similarity. The selected combination is the correspondence between the object and the object area.
  • the combination similarity is an index indicating the validity of the combination obtained from the similarity of the pair of the object and the object region constituting the combination. A high combination similarity indicates that the combination is valid and that the pair of the object and the object region constituting the combination is similar.
  • the combination similarity the total similarity, which is the sum of the similarity between the feature amount of the object region and the combined feature amount in each combination, is used. Not limited to
  • ( ⁇ C, ⁇ ), ( ⁇ , ABC), (A, BC), (B, CA), (C,
  • AB object and object region
  • the correspondence determination unit 16 sets the combination of the object and the object region in the case where the calculated combination similarity is the largest as the optimum association.
  • the correspondence determining unit 16 calculates the distance between the combined features of the object and the features of the object region (hereinafter referred to as the distance between the features), and calculates the distance between the features. From the combination.
  • the correspondence determination unit 16 determines that the combination similarity is high when the calculated combination distance is small, and determines that the calculated combination distance is large, and the combination similarity is low! / I do.
  • the distance of the combination is, for example, the sum of the distances between the feature amounts, and is calculated as in equation (2).
  • i is the number of the object area
  • k is the combination number of the object and the object area
  • Hri is the feature amount of the i-th object area
  • Hg ki is the object corresponding to the i-th object area in the k-th combination.
  • D k indicates the distance of the k-th combination.
  • the distance (Dk) of the combination is obtained from the distance between the feature values of the pair consisting of A and the color, and the pair consisting of and BC.
  • the feature amount synthesizing unit 1'5 calculates a combined feature amount according to an arbitrary synthesis ratio ⁇ . Then, the correspondence determination unit 16 calculates a combination similarity based on the combined feature amount calculated according to the combination ratio ⁇ , and selects an optimal combination of the object and the object region.
  • Synthesis ratio £. A is a coefficient for positively catching the ratio of feature amount of each object included in the object territory ⁇ . For example, images differ due to the distance from the camera between objects. The apparent size of the object on the image may be different. In this case, if the combined features are simply calculated by summing the features of the object, the calculated combined features are different from the features of the actual object region. The association with can not be determined. Since the feature amount synthesizing unit 15 calculates the synthesized feature amount according to the predetermined synthesis ratio ⁇ , the correspondence determination unit 16 can prevent the erroneous association between the object and the object region from being determined.
  • the feature amount combining unit 15 when combining the feature amounts of two objects A and ⁇ , the feature amount combining unit 15 generates a combined feature amount based on Expression (3). Then, the correspondence determination unit 16 calculates the combination distance based on the equation (4).
  • g (e) (l -e) H A + s B ( ⁇ ⁇ ⁇ U%)
  • the feature amount synthesizing unit 15 changes the synthesis ratio ⁇ from 0 to 1 (for example, changes the synthesis ratio from 0 to 1 at intervals of 0.1), and changes all the changed synthesis ratios ⁇ .
  • the composite feature is calculated based on the value of.
  • the correspondence determination unit 16 selects a combined feature amount that minimizes the distance between the feature amount of the object region and the combined feature amount of the object. Then, the correspondence determining unit 16 calculates the combination distance based on the selected combined feature amount as in Equation (4), and combines the object and the object region when the combination distance becomes the smallest. Is the optimal correspondence.
  • the correspondence determination unit 16 calculates the distance between the feature amounts based on the L2 norm. However, if the calculation method is capable of calculating the similarity, the feature amount is determined based on another distance scale. The distance between them may be calculated.
  • the L 2 norm refers to a distance scale calculated by the sum of squared differences shown in equations (2) and (4).
  • the object tracking device calculates the combined feature amount of the objects in the overlapping state, calculates the similarity between the feature amount of the object region and the combined feature amount, and based on the calculated similarity degree.
  • the object tracking device calculates the similarity between the feature amount of the object region and the combined feature amount based on all combinations of the object and the object region, and based on the calculated similarity. Since the optimal combination of the object and the object area is selected, when the object to be tracked is associated with the area where the object to be tracked exists, the optimum association can be selected for the entire object.
  • FIG. 6 is a block diagram illustrating an example of the configuration of the tracking state determination unit 13.
  • the tracking state determination unit 13 includes an object tracking unit 131, a state determination unit 132, and an object area information storage unit 133.
  • the object tracking unit 1331 tracks the object from the object region information, the determined correspondence information, and the past object region information output from the object region storage unit, and indicates the correspondence between the object and the object region.
  • 7 is a specific example of an object tracking unit that outputs area correspondence information of No. 2;
  • the object area information storage unit 133 is a specific example of an object area storage unit that stores the object area information and the first area correspondence information.
  • This is a specific example of a state determination unit that determines the tracking state of an object from information, object area information, and past object area information, and outputs first area correspondence information.
  • the object tracking unit 13 1 outputs the current time object region information output by the object region extraction unit 12, the past object region information stored by the object region information storage unit 13 3, and the correspondence determination unit 16. The object is tracked based on the past correspondence information and the object is correlated with the object area. Then, the object tracking unit 1331 generates the second region correspondence information, and outputs the generated second region correspondence information to the state determination unit 1332.
  • the second area correspondence information is information indicating a correspondence between an object and an object area. Unlike the first area correspondence information, the second area correspondence information does not include the tracking state information.
  • FIG. 7 is an explanatory diagram showing an example of the second area correspondence information.
  • the second region correspondence information includes, for example, image information of three object regions of object region information, ⁇ , and ⁇ , and four objects A, ⁇ , C, and D as past correspondence information.
  • the object regions ⁇ ,] 3 and ⁇ as shown in Fig. 7C correspond to the objects A, B, C, and D
  • the information shown in FIG. 7A indicates the correspondence between each object region and the object. Further, for example, information indicating the correspondence between each object and the object region as shown in FIG. 7B may be used.
  • the state determination unit 1332 determines the tracking state of the object based on the object region information output by the object region extraction unit 12 and the second region correspondence information output by the object tracking unit 1331. Then, the state determination unit 132 outputs the first area correspondence information based on the second area correspondence information and the determination result.
  • the object area information storage unit 133 stores the object area information output by the object area extraction unit 12.
  • the object area information stored in the object area information storage unit 133 becomes past object area information used for generating the second area correspondence information at the next time.
  • FIG. 8 is a block diagram illustrating an example of the configuration of the feature amount generation unit 14.
  • the feature amount generation unit 14 includes a feature amount extraction unit 141, a feature amount update unit 142, and a feature amount storage unit 144.
  • the feature quantity extraction unit 1441 extracts a feature quantity from the image information, the object area information, and the first area correspondence information, and outputs feature quantity information that is information including the feature quantity. It is a specific example of an extraction unit.
  • the feature amount storage unit 144 is a specific example of a feature amount storage unit that selects and outputs an object feature amount to be stored according to a request, and the feature amount update unit 1442 includes area feature amount information, 9 is a specific example of a feature amount updating unit that updates the object feature amount stored in the feature amount storage unit from the first area correspondence information and the object feature amount generated before the current time.
  • the feature amount extraction unit 1441 calculates the feature amount of each object region based on the image information input via the image input terminal 11 and the object region information output by the object region extraction unit 12 . Then, the feature amount extracting unit 141 outputs region feature amount information including the calculated feature amount of the object region. The output region feature amount information is input to the feature amount update unit 144 and the correspondence determination unit 16.
  • the feature amount updating unit 1442 determines, based on the region feature amount information output from the feature amount extracting unit 141, for an object whose tracking state is indicated to be a single state in the first region correspondence information. Then, the feature amount stored in the feature amount storage unit 144 is updated. The feature update unit 144 displays the tracking status other than the single status in the first area correspondence information. The feature amount stored in the feature amount storage unit 144 is not updated for the object that has been set. The feature amount of the object stored in the feature amount storage unit 144 is used by the feature amount synthesis unit 15 to generate a synthesized feature amount. That is, in response to a request from the feature amount synthesizing unit 15, the feature amount of the stored object is selected, and the feature amount of the selected object is output to the feature amount synthesizing unit 15.
  • FIG. 9 is a block diagram illustrating an example of the configuration of the correspondence determination unit 16.
  • the correspondence determination unit 16 includes a correspondence calculation unit 161 and a correspondence determination unit 162.
  • the correspondence calculation unit 161 is a specific example of a correspondence calculation unit that generates optimal correspondence information indicating an optimal correspondence between an object and an object region.
  • the correspondence determining unit 162 is a specific example of a correspondence determining unit that outputs fixed correspondence information, which is information including the correspondence between the determined object and the object region.
  • the correspondence calculation unit 16 1 includes the region feature amount information output by the feature amount generation unit 14, the combined feature amount information output by the feature amount synthesis unit 15, and the first feature information output by the tracking state determination unit 13. Based on the region correspondence information, the similarity between the feature amount of the object region and the combined feature amount is calculated for all possible combinations of the combinations of the object and the object region. Calculate the similarity. Then, the correspondence calculation unit 161 selects the combination of the object and the object region having the largest combination similarity as the optimal correspondence, generates the optimal correspondence information, and outputs the optimal correspondence information.
  • the optimal correspondence information is information indicating an optimal correspondence relationship between an object and an object region (a combination of an object and an object region when the combination similarity is maximized).
  • the correspondence determining unit 162 determines whether the tracking state of the first area correspondence information output from the tracking state determining unit 13 is in the separated state.
  • the information on the correspondence relationship with the object region included in the output optimal correspondence information is determined as the information on the correspondence relationship between this object and the object region.
  • the correspondence determination unit 162 determines the correspondence between the object region included in the first region correspondence information output by the tracking state determination unit 13. The information is determined as information on the correspondence between the object and the object region.
  • the correspondence determination unit 162 compares the information of the object included in the first area correspondence information with the information on the correspondence between the determined object and the object area, and includes the information in the first area correspondence information. If an uncorresponding object area occurs that is not associated with a displaced or displaced object, a new object is generated and associated with the uncorresponding object area. Then, the correspondence determining unit 162 outputs information on the correspondence between the determined object and the object region as the determined correspondence information. For example, because two objects A and ⁇ exist in the object area ⁇ in a completely overlapping state, the object tracking device may not be able to recognize the force due to the presence of one object ⁇ in the object area ⁇ .
  • the correspondence determination unit 162 newly generates the object ⁇ and associates the object ⁇ with the object region 3.
  • FIGS. 2, 3, 6, 8, and 9 can be realized by software. That is, in the present embodiment, image input processing for inputting image information to a computer, object area extraction for extracting an object area from the input image information and outputting object area information including image information of the object area, From the processing, the object area information, and the determined correspondence information indicating the correspondence between the object area and the object before the current time, the tracking state is determined for each object or each object area, and the object area and the object and the tracking state are determined.
  • a feature amount generation process for generating an object feature amount indicating the feature amount of the object, and a feature amount based on all necessary combinations of a plurality of objects from the object feature amount and the first area correspondence information.
  • Synthesize A feature that outputs the combined feature information, which is information including the combined feature and the correspondence between the object used for generating the combined feature and the combined feature.
  • Volume synthesis processing and correspondence determination processing for associating an object with an object area from the object area information, the first area correspondence information, the area feature information, and the combined feature information, and outputting a determined correspondence information ⁇ for the current time.
  • An object tracking device can be realized by an object tracking program to be executed.
  • the tracking state determination unit 13 may determine the tracking state of the object based on a determination method described below. For example, one object in the object area If only the association is made, the tracking state is determined to be the single state. When the object area is divided into a plurality of components from that state, it is not determined that the state has transitioned from the overlapping state to the separated state because there is only one object, and it may be determined that the state remains alone. . In order to cope with the separation of multiple objects from the single state object, the tracking state determination unit 13 determines that the class has two or more object area elements even if the class contains only one element element. If it is included, the tracking state may be determined to be the separation state.
  • the object region extraction unit 12 extracts the force object region by extracting the difference between the pixel value of the image information input via the image input terminal 11 and the background image information captured in advance.
  • An example of calculation is shown.
  • the object region extraction unit 1 2 force correctly due to factors such as the fact that the object has features similar to the background (for example, when the color of the object and the background are similar).
  • the object area cannot be extracted.
  • the state determination unit 132 of the tracking state determination unit 13 may erroneously determine that the tracking state has transitioned to the separation state. In such a case, in order to correctly extract the object region, the state determination unit 132 may use the spatial distance between the object regions.
  • the state determination unit 1332 determines whether the distance between the object regions is less than or equal to a certain threshold.
  • the objects to be associated are all classified into the same class. For example, let us consider a case where there are objects A and B and an object region,] 3, and the object region and object A are associated with each other, and the object region
  • the state determination unit 132 generates two classes, a class to which the object region ⁇ and the object A belong, and a class to which the object region and the object B belong. .
  • the state determination unit 13 2 determines that the object region H,] 3 and the object A, ⁇ May be combined into one class.
  • the state determination unit 1332 can determine the tracking state even if the object area is separated into two or more in a class that includes two or more objects. If the distance is less than or equal to the threshold, it can be determined that the tracking state does not change with the overlapping state. Then, the state determination unit 1 3 2 When the distance exceeds the threshold, the tracking state is determined to be the separated state.
  • the state determination unit 1332 may deal with a case where the object region is partly separated by chance based on the duration during separation of the object region.
  • the duration during separation means that when the former one object region is separated, the object region can be separated when the distance between the separated object regions is greater than or equal to a certain threshold (may be 0). Indicates the duration of the state where the object area can be separated when the state is set.
  • the state determination unit 1332 when classifying, classifies the object region corresponding to the object region and the object region whose duration during separation is less than a certain threshold and maintains the previous tracking state. To do. Then, when the duration during separation exceeds the threshold, the state determination unit 1332 determines the tracking state to be the separation state.
  • the duration during separation is updated and stored as follows.
  • the duration during separation is stored in the object area information storage unit 133.
  • the object tracking unit 133 acquires the duration during separation stored in the object area information storage unit 133, associates the duration during separation with each object area, and calculates a new duration during separation. Then, the object tracking unit 1331 updates the duration during separation stored in the object region information storage unit 133.
  • the object tracking unit 1331 associates the object region with the duration during separation as follows.
  • the object tracking unit 131 based on the object region at the current time included in the object region information output by the object region extraction unit 12 and the past determined correspondence information output by the correspondence determination unit 16 based on the current The object area is associated with the past object area.
  • the object tracking unit 1331 associates the separation duration duration corresponding to the past object region stored in the object region information storage unit 133 with the current object region corresponding to the past object region.
  • the object tracking unit 131 associates the largest duration during separation among the plurality of durations during separation with the object area.
  • the object tracking unit 1331 may associate the minimum duration during separation among the plurality of durations during separation with the current object area.
  • the object tracking unit 131 may calculate the average time of the duration during separation and associate the calculated average time with the current object area.
  • the state determination unit 1332 acquires the duration during separation from the object region information storage unit 133.
  • the state determination unit 132 determines the tracking state of the object area.
  • the state The determination unit 1332 updates the in-separation duration stored in the object area information storage unit 133 based on the determination result. For example, when the state determination unit 13 2 determines that the tracking state of the object area is separable, the state determination unit 13 2 continues the separation duration stored in the object area information storage unit 13 3 during the separation.
  • the state determination unit 1332 resets the duration during separation. Also, instead of storing the duration during separation, a separation start time indicating the time when separation started may be stored. At this time, the duration during separation can be obtained by taking the difference between the current time and the separation start time.
  • the object tracking unit 1331 may generate the second area correspondence information including the separation duration, instead of storing the separation duration in the object area information storage unit 133. ,.
  • the state determination unit 132 acquires the duration during separation from the second area correspondence information. In this way, by directly transmitting and receiving the duration during separation from the object tracking unit 131 to the state determination unit 132 without passing through the object region information storage unit 133, the object region information storage is performed. There is an advantage that the processing of the part 133 can be reduced.
  • Modification Example 1 and Modification Example 2 may be used in combination.
  • objects having a common region in the corresponding object region are put together.
  • the object region corresponding to the object may be classified into one class.
  • the classified class satisfies the condition of being in a separated state, and furthermore, the class includes two or more objects, the distance between object regions included in the class is equal to or greater than a predetermined threshold, and If the duration of separation of the object regions included in the class is greater than or equal to a predetermined threshold or a combination thereof, the tracking state of the objects or object regions included in the class is satisfied. May be determined to be in the separated state.
  • the object tracking device may combine the feature amounts of the object and associate the object with the object region by the following method. That is, the feature amount synthesizing unit 15 acquires not only the feature amount of the object but also the region feature amount information from the feature amount generating unit 14. The feature amount synthesizing unit 15 calculates the region feature amount information output from the feature amount generating unit 14 and the feature amount of the object. Based on, the combined feature amount is calculated according to an arbitrary combining ratio E. Then, the feature amount synthesizing unit 15 outputs a synthesized feature amount according to the synthesis ratio ⁇ when the similarity between the calculated synthesized feature amount and the feature amount of the object region included in the region feature amount information is highest. . The correspondence determination unit 16 calculates the similarity between the feature amount of the object region and the combined feature amount of each combination of the object and the object region based on the output combined feature amount, and outputs the combination similarity. ⁇ ⁇ ⁇ .
  • the feature generation unit 14 outputs a synthesized feature amount corresponding to the synthesis ratio ⁇ at which the similarity between the object and the object region is the highest, so that the correspondence determination unit 16 determines the combination of the object and the object region for each combination. ; Similarity may be calculated based on only the L composite features. Therefore, the correspondence determination unit 16 can omit useless calculation processing.
  • the object tracking device may combine the feature amounts and associate the object with the object region by the following method. That is, the feature amount synthesizing unit 15 acquires not only the feature amount of the object but also the region feature amount information from the feature amount generating unit 14, and calculates the value of the synthesis ratio ⁇ that minimizes the distance according to the equations (5) to (7). calculate. Equation (5) is an equation for calculating the distance f ( ⁇ ) between the feature quantity of the object and the feature quantity of the object area based on the area feature quantity information output by the feature quantity generation unit 14 and the feature quantity of the object. It is.
  • the feature amount synthesis unit 15 calculates the value of the synthesis ratio ⁇ when the equation obtained by partially differentiating the distance f ( ⁇ ) with the synthesis ratio ⁇ becomes “0”. Is calculated. That is, the feature amount synthesis unit 15 calculates the synthesis ratio ⁇ at which the distance f ( ⁇ ) is minimized. The feature amount synthesizing unit 15 generates a synthesized feature amount by Expression (3) based on the calculated synthesis ratio ⁇ . Then, the correspondence determination unit 16 calculates the similarity based on the generated combined feature amount.
  • an example is given of the combined feature amounts of the objects A and ⁇ .
  • Hg ki is a combined feature amount of the feature amount H A of the object A and the feature amount H B of the object B
  • H ri is a feature amount of the object region.
  • the feature quantity is a color histogram and the number of bins in the color histogram is n
  • the value of the combined ratio ⁇ calculated by the equation (7) out of 0 or 1 is A close value is selected as the value of the synthesis ratio ⁇ .
  • the feature amount synthesizing unit 15 generates a synthesized feature amount based on the calculated synthesis ratio ⁇ .
  • the correspondence determination unit 16 obtains the distance of the combination shown in Expression (2) based on the generated combined feature amount, and determines the combination of the object and the object region that minimizes the distance of the combination as the optimal correspondence. I do.
  • the feature amount synthesizing unit 15 may generate the combined feature amount only for a specific combination ratio ⁇ . Therefore, the amount of calculation for calculating the similarity can be reduced as compared with the case where the combined feature is generated for various combination ratios ⁇ . Note that the feature amount synthesizing unit 15 can generate a synthesized feature amount by the same method as described above even when three or more objects overlap. Further, here, the feature amount synthesizing unit 15 uses the L2 norm as a distance scale between the feature amounts, but may use another distance scale.
  • the object tracking device may be a device that combines a feature amount and selects a region and an object by the following method. That is, the feature amount synthesizing unit 15 generates a synthesized feature amount using the area ratio of the object as the synthesis ratio. Then, the correspondence determination unit 16 calculates the similarity based on the generated combined feature amount. This method is based on the fact that the composition ratio of the features when the objects overlap is almost equal to the ratio of the areas of the objects. By using the area ratio of the object as the synthesis ratio, The component 15 can reduce the calculation for calculating the combination ratio.
  • the combined feature is calculated by equation (8).
  • H A and H B indicate the feature amounts of the objects A and B, respectively.
  • S A and S B indicate the areas of the objects A and B on the image information, respectively.
  • Hg is a combined feature value.
  • the correspondence determination unit 16 obtains the sum of the distances shown in Expression (2) using the generated combined feature amount Hg, and determines the combination of the object and the object region that minimizes the sum of the distances as the optimum association. Set.
  • the feature amount generation unit 14 sets the number of pixels included in the image of the object region as the area of the object, and generates a value obtained by adding the area to the feature amount of the object in the same manner as the feature amount of another object. Then, the feature amount storage unit 143 of the feature amount generation unit 14 stores the feature amount to which the area is added, and adds the area when the tracking state indicates a state other than the overlap state in the first area correspondence information. The updated feature value is updated.
  • the object tracking device may combine the feature amounts and associate the object with the object region by the following method.
  • the area of each of the overlapping objects may change in the range of S1 to S2, and the feature amount synthesizing unit 15 calculates the combined feature amount by the equation (9) within the change range.
  • Generate Equation (9) is an equation for calculating a combined feature amount of the feature amount of the object A and the feature amount of the object B.
  • the correspondence determination unit 16 determines the similarity between the object and the object region based on the combined feature that has the highest similarity with the region feature among the generated combined features according to Expression (10). The degree is calculated, and the combination similarity is calculated.
  • ⁇ S indicates the amount of change in the area of the object A immediately before the object A and the object B overlap.
  • the feature amount synthesizing unit 15 acquires not only the feature amount of the object from the feature amount generating unit 14 but also the region feature amount information, and obtains the region feature amount information input from the feature amount generating unit 14 and the object feature amount. From the body features, a combined feature is generated within the range of the area change, and the combined feature having the highest similarity to the object region is output.
  • the correspondence determining unit 16 determines the object based on the combined feature.
  • the combination similarity of each combination of the object and the object region may be obtained. That is, the composition ratio ⁇ may be limited to a predetermined range based on the change of the area of the object. Even in such a case, the feature amount synthesizing unit 15 only needs to output one combined feature amount for each combination of objects, and generates a combined feature amount for various combination ratios ⁇ . As compared with, useless processing can be omitted.
  • the feature amount synthesizing unit 15 may calculate the synthesized feature amount using the template of the object as the feature amount.
  • a template is a partial image obtained by extracting a portion corresponding to an object from an image, and corresponds to a description of the shape and color of the object.
  • the template is generated by extracting a region corresponding to the object in the image based on the correspondence between the object and the object region.
  • an image modeled in advance such as a standard face image, may be used as a template.
  • the feature amount synthesizing unit 15 scans the template in the object region, and calculates the similarity between the template and the object region at each position in the object region. Calculate the degree. The feature amount synthesizing unit 15 obtains the position where the similarity becomes maximum. The feature amount synthesizing unit 15 calculates the similarity using the equations (11) and (12). (A,)-R (x, y) f,... (1 1)
  • the feature amount synthesizing unit 15 calculates a sum of squares of differences between pixel values of the template and the object region as a distance between feature amounts. Then, as shown in Expression (12), the case where the distance between the feature amounts is minimum is determined to be the maximum similarity between the template and the object region. Further, the feature amount synthesizing unit 15 sets the position ( a , b) at which the similarity between the template and the object region becomes maximum as the position of the object.
  • the feature amount synthesizing unit 15 determines the order of the overlapping objects based on the similarity between the template and the object region.
  • the feature amount synthesizing unit 15 determines that a template having a high similarity to the object region blocks a template having a low similarity to the object region.
  • the feature amount synthesizing unit 15 generates a synthesized template corresponding to the synthesized feature amount by synthesizing the template.
  • the feature amount synthesizing unit 15 determines the order of each object from the image template and the feature amount of the object region, and synthesizes and synthesizes the image template based on the determined order of each object.
  • the characteristic amount may be obtained.
  • the feature amount synthesizing unit 15 may select a template having the maximum similarity with the object region and determine that the selected template is blocking a template that is not selected. At this time, a region where the object region overlaps with the selected template (the template having the highest similarity) is excluded from the object region, and based on the remaining object region and the unselected template, The calculation of the similarity between the template and the object region, the selection of the template having the maximum similarity, the calculation of the position of the template when the similarity is the maximum, and the determination of occlusion may be repeatedly performed.
  • FIG. 10 is an explanatory diagram showing the concept of generating a combined feature using a template.
  • the feature amount synthesizing unit 15 runs the template A and the template B in the object area. Since the maximum value of the similarity between template B and object region a is larger than the maximum value of the similarity between template A and object region a, feature amount synthesizing unit 15 blocks template B from template A3 ⁇ 4r. Can be determined. As shown in Fig. 10 ⁇ , the feature amount synthesizing unit 15 calculates the similarity with the object area. The template A and the template B are combined at each of the maximum positions to generate a combined template X.
  • the feature amount synthesizing unit 15 When generating the synthetic template X, the feature amount synthesizing unit 15 performs synthesis using the value of the template B for a portion where the template A and the template B overlap. Note that (a 1, b 1) is the position where the similarity between the template A and the object region is maximum, and (a 2, b 2) is the position where the similarity between the template B and the object region is maximum. is there.
  • the correspondence determination unit 16 can calculate the similarity between the feature amount of the object region and the combined feature amount by Expression (2) based on the color histogram in the combined template, and can calculate the combined similarity. Further, the correspondence determination unit 16 calculates the similarity between the feature amount of the object region and the combined feature amount by comparing the object region with the combined template, as in Equation (12), and calculates the similarity of the combination. You can calculate the degree. By using a template, even when an object is partially hidden behind another object, the correspondence between the object and the object region can be correctly calculated.
  • the correspondence determination unit 16 when associating an object with an object region, the correspondence determination unit 16 forcibly performs association even when the combination similarity is low. May not be correctly correlated. Therefore, when the combination similarity of the optimal combination (that is, the combination similarity of the combination having the largest combination similarity) is low, the correspondence determination unit 16 does not perform the association between the object and the object region.
  • the correspondence calculation unit 16 1 selects an optimal combination of the object and the object region, and when the combination similarity is equal to or less than a predetermined threshold, the correspondence calculation unit 16 1 Judge that there is no optimal object area. Then, the correspondence calculation unit 161 outputs optimal correspondence information including information indicating that there is no correspondence between the optimal object and the object region.
  • the correspondence determination unit 162 determines that the object includes the object included in the first region correspondence information.
  • the information on the correspondence relationship with the object region is determined as it is as the correspondence relationship between the object and the object region, and is output as the determined correspondence information. Otherwise, the information indicating the correspondence between the object and the object region included in the optimal correspondence information is output as the determined correspondence information.
  • the correspondence calculation unit 16 1 has a set of ⁇ and A
  • the combination similarity is calculated from the similarity and the similarity of the set consisting of j8 and BC, and it is determined whether or not the combination similarity is equal to or smaller than a threshold. If the combination similarity is equal to or smaller than the threshold, the correspondence determination unit 162 determines that the object A and the object B and the object A and the object B included in the first area correspondence information
  • the information on the correspondence between the object C and the object region is determined as it is as the correspondence between the objects A and B and the object C and the object region.
  • the correspondence determination unit 16 when associating an object with an object region, the correspondence determination unit 16 forcibly performs association even when the combination similarity is low. May not be correctly correlated. Therefore, when the combination similarity of the optimal combination (that is, the combination similarity of the combination having the largest combination similarity) is low, the correspondence determination unit 16 does not perform the association between the object and the object region.
  • the correspondence calculation unit 16 1 selects the optimal combination of the object and the object region, and when the similarity between the object region and the object pair is equal to or less than a predetermined threshold, the correspondence calculation unit 16 1 It is determined that there is no corresponding optimal object area.
  • the correspondence calculation unit 161 outputs optimal correspondence information including information indicating that there is no correspondence between the optimal object and the object region.
  • the correspondence determination unit 162 determines the object region corresponding to the object A as the object region corresponding to the object A and the object region included in the first region correspondence information.
  • the correspondence information As it is, the correspondence between the object A and the object area is determined.
  • the correspondence calculation unit 161 may associate only the clearly identifiable object with the object region among the optimal combinations of the object and the object region. In that case, the correspondence calculation unit 16 1 arranges the combinations of all the objects and the object regions in descending order of the value of the combination similarity. Then, when the difference in the value of the combination similarity between the upper combinations is small (for example, equal to or less than a predetermined threshold value), and there is an object and an object region common to the upper combinations, the correspondence calculation unit 1 6 1 sets only the combination of the object and the object region as the optimum association.
  • the correspondence calculation unit 161 outputs optimal correspondence information including information on only the combination of the object and the object region. Therefore, the optimal correspondence information includes information indicating that there is no combination that provides an optimal correspondence between another object and another object region.
  • the correspondence calculation unit 16 1 sets only the combination of the object C and the object region V to the optimal correspondence.
  • the 161 outputs optimal correspondence information including information that makes only the combination of the object C and the object region ⁇ an optimal correspondence.
  • This method may be combined with the seventh modification. That is, when the similarity between the object region and the object pair is equal to or less than a predetermined threshold value for the optimal combination of the object and the object region, the difference in the value of the total similarity between the higher-order combinations is small (for example, If there is no object and object region common to the higher-level combination, the correspondence calculation unit 161 sets the optimal correspondence information to the other object and other object region. May include information indicating that there is no combination having the optimum correspondence.
  • the correspondence determination unit 162 determines the correspondence between the object and the object region included in the first region correspondence information for the object for which the optimum correspondence information indicates that there is no optimal correspondence, with the object. It is determined as the correspondence with the object area.
  • the correspondence calculation unit 16 1 sets a threshold determined in advance from the combination similarity of the combination having the maximum combination similarity among all the possible combinations. For the combinations having the combination similarity within the combination, the combination having the combination similarity within the predetermined threshold is selected from the combination similarity of the combination having the maximum combination similarity, and the combination common to the selected combination is selected.
  • the correspondence between the existing object and the object region is included in the optimal correspondence information as an optimal correspondence, and the object and the object region that are not included in the correspondence between the commonly existing object and the object region are optimized.
  • the information indicating that there is no correspondence is included in the optimal correspondence information.
  • the information indicating the correspondence between the object and the object area included in the optimum correspondence information is output as finalized correspondence information, and it is optimal that there is no correspondence between the optimum object and the object area.
  • the object shown in the response information may be output information indicating the correspondence between the object and the object area included in the first region correspondence information as a defined correspondence information.
  • the feature amount generation unit 14 may change information included in the area feature amount information output to the correspondence determination unit 16 according to the tracking state.
  • the area feature information is the area area Including features.
  • an object region whose tracking state is indicated to be in a state other than the separated state may include a feature amount, but the correspondence determination unit 16 does not need the feature amount, so that nothing is performed. It may not be included.
  • the correspondence determination unit 16 may exclude information indicating that the association is unnecessary.
  • the correspondence determination unit 16 excludes, from the target of the association, an object area for which the association with the object is indicated by the area feature amount information. As a result, the amount of calculation of the correspondence determination unit 16 can be reduced.
  • the feature amount synthesizing unit 15 does not acquire the feature amounts of all the objects stored in the feature amount storage unit 142, but uses the first area correspondence information output from the tracking state determination unit 13.
  • the feature amount of the object stored in the feature amount storage unit 142 may be acquired only for the object whose tracking state is indicated to be the separated state. By doing so, It is possible to omit the useless processing of acquiring the feature amount of the object necessary for generating the feature amount, and the feature amount synthesizing unit 15 can speed up the processing of the synthesis feature amount generation. it can.
  • the first area correspondence information and the confirmed correspondence information are the same.
  • the information included in the confirmed response information fed back to step 3 may be limited to the correspondence only for the separated object.
  • the tracking state determination unit 13 obtains in the past the tracking state determination unit 13 itself instead of the confirmed correspondence information (included in the first area correspondence information). Use correspondence. Even in such a case, a device equivalent to the object tracking device using each of the above-described methods can be realized.
  • the feature amount updating unit 1442 updates the feature amount of the object based on the first region correspondence information.
  • the feature amount of the object may be updated based on the correspondence information.
  • the feature amount extraction ⁇ 14 1 is based on the region feature amount information output to the feature amount updating unit 14 2
  • the tracking state is a single state or a separated state based on the first area correspondence information. Include the feature amount of the object region that is indicated.
  • the feature update unit 144 determines the tracking state of the object based on the determined correspondence information output by the correspondence determination unit 16 after the correspondence determination unit 16 determines the association between the object and the object region. .
  • the feature amount updating unit 144 based on the feature amount information of the object area output by the feature amount extracting unit 141 only for the object whose tracking state is the single state, Update the feature of the object to be stored. Even in such a case, a device equivalent to the object tracking device using each of the above-described methods can be realized.
  • the correspondence determining unit 16 may determine the tracking state of the object. In this case, the correspondence determining unit 16 outputs the determined correspondence information including the information on the tracking state of the determined object. By doing so, the feature amount updating unit 14 4 2 force S, determines the tracking state of the object Processing can be omitted. Even in such a case, a device equivalent to the object tracking device using each of the above-described methods can be realized.
  • the feature amount updating unit 144 does not update the feature amount of the object stored in the feature amount storage unit 144 based on only the first region correspondence information, but determines the first region correspondence information.
  • the feature value of the object stored in the feature value storage unit 144 may be updated based on the correspondence information.
  • the feature amount extraction unit 1441 determines whether the region feature amount information output to the feature amount update unit 142 indicates that the object is in the single state or the separated state in the first region correspondence information. Include the feature of the region.
  • the feature amount update unit 1442 determines the tracking state independently based on the region feature amount information output from the feature amount extraction unit 141 and the first region correspondence information output from the tracking state determination unit 13
  • the feature amount of the object stored in the feature amount storage unit 144 is updated only for the object that is shown to be in the state.
  • the feature amount update unit 14 2 determines the tracking state of the object based on the determined correspondence information output by the correspondence determination unit 16, Only for the object whose tracking state has transitioned from the separated state to the single state, the feature amount of the object stored in the feature amount storage unit 144 is stored based on the area feature amount information output by the feature amount extraction unit 141. Update.
  • the correspondence determining unit 16 may determine the tracking state of the object. Then, the correspondence determining unit 16 outputs the determined correspondence information including the information on the tracking state of the determined object. By doing so, it is possible to omit the process of determining the tracking state of the object.
  • the first area correspondence information in the present embodiment includes information of a static state indicating whether the object area is in a stationary state or in a key operation state.
  • the static motion state includes a stationary state indicating that the object area is stationary and an operating state indicating that the object area is operating.
  • the object tracking device treats an object region whose stationary state is a stationary state as a background.
  • the first area correspondence information includes a background indicating whether or not the object area is handled as a background. Contains scenery update information.
  • the background update information is represented by, for example, binary values “0” and “1”. If the background update information of the object region is “1”, the object amount region is taken as the background. If the background update information of the object area is “0”, the object area is not set as the background.
  • the object tracking device can track only a person by regarding a stationary object separated from the person as the background.
  • a method for determining the still / moving state for example, when the continuation time of the stationary state (hereinafter, referred to as a quiescent duration period) in the extracted object region is equal to or greater than a predetermined threshold, the object region Is determined to be in a stationary state, and when the stationary duration is smaller than a predetermined threshold, a method is used in which the stationary state of the object area is determined to be an operating state.
  • the object tracking device By introducing background update information, the object tracking device considers the object area regarded as the background as an object area that does not need to be tracked and excludes it from the tracking target, and only the objects that need tracking are tracked. Can be. That is, the information of the stationary state indicates that the object is in a stationary state! /, And the combination of the object region and the object is excluded from all possible combinations. For example, in the object region, it is determined that the stationary continuation period exceeds a predetermined threshold value, the squeezing and moving state is a stationary state, and further, there is no object associated with the fixed correspondence information. Only for the object area, the object tracker treats the object area as a part of the background. In addition, by setting a threshold for determining whether the object is the background, even if the object tracking fails, the object tracking device prevents the object area where the object to be tracked exists from being mistakenly regarded as the background. can do.
  • FIG. 11 is a block diagram showing a second embodiment of the object tracking device according to the present invention.
  • the components of the object tracking device are the same as those in the first embodiment, but the object region extraction unit 12 is input via the image input terminal 11
  • the object region is extracted based on not only the image information but also the image information and the determined correspondence information of the associating unit 17.
  • the configuration of the association unit 17 is the same as the configuration shown in FIG. 3, and the configuration of the tracking state determination unit 13 is the same as the configuration shown in FIG.
  • the configuration of this is the same as the configuration shown in FIG.
  • the configuration is the same as the configuration shown in FIG.
  • the object area information storage unit 133 stores the stationary duration of the object area.
  • the object tracking unit 1331 associates the stationary duration of each past object region stored in the object region information storage unit 133 with the object region at the current time. Then, the object tracking unit 1331 calculates the stationary duration at the current time.
  • the object area information storage unit 133 stores the calculated continuation duration of the object area at the current time.
  • the object tracking unit 1331 selects the largest stationary duration from the plurality of past stationary durations, and associates the largest stationary duration with the stationary duration at the current time. Note that the shortest stationary duration may be selected and associated with the stationary duration at the current time, or the average duration of the stationary duration may be calculated, and the calculated average time may correspond to the stationary duration at the current time. May be attached.
  • the object tracking unit 1331 calculates the stationary duration at the current time by updating the stationary duration according to the following procedure.
  • the object tracking unit 13 1 calculates a difference vector between the center of gravity of the past object region and the center of gravity of the latest object region for each object region. If the magnitude of the difference vector is equal to or smaller than a predetermined threshold, the object tracking unit 1331 determines that the object is stationary, and updates the stationary duration. If the magnitude of the difference vector exceeds a predetermined threshold, the object tracking unit 131 determines that the object area is moving, and resets the stationary duration.
  • the state determination unit 132 determines the static state of the object region based on the continuation duration of the object region stored in the object region information storage unit 133. Then, the state determining unit 132 'outputs the first area correspondence information including the information on the continuation duration of the object area and the still / moving state. In addition, the object area information storage unit 133 updates the static state of the object area based on the determination by the statelessness determination unit 132.
  • the correspondence calculation unit 16 1 calculates, for all combinations (all possible combinations) of the combinations of the object and the object region, The similarity with the composite feature was calculated, but in the present embodiment, the combination of the object region in which the stationary state indicates the stationary state does not correspond to any object Calculate only for That is, a combination that associates an object with an object region in which the static state indicates stationary is excluded from all possible combinations. By doing so, the correspondence calculation unit 161 can reduce the amount of calculation for calculating the similarity between the object and the object region.
  • the correspondence determining unit 162 outputs the determined correspondence information including the information on the continuation duration of the object area calculated by the object tracking unit 131.
  • the correspondence determination unit 162 determines whether or not the object area can be regarded as the background based on the information of the stationary continuation period and the information of the stationary state. Specifically, if the stationary duration exceeds a predetermined threshold, the stationary state is the stationary state, and there is no object associated with the fixed correspondence information, the object area can be regarded as the background. Is determined. If the object area can be regarded as the background, the 'correspondence determination unit 162 includes background update information indicating that the background in the object area is updated in the determined correspondence information.
  • the object area extraction unit 12 compares the object area information with the image information input via the image input terminal 11. Based on the fixed correspondence information output by the associating unit 17, the background image in the object area is updated. The object region extraction unit 12 updates the background image based on Expression (13).
  • B t (x, y) (1- ⁇ ) B t _ t (x, y) + ⁇ ⁇ ( ⁇ ⁇ ) ... (13)
  • ( ⁇ , y) is the pixel coordinates
  • It0 (X, y) indicates the pixel value of the image information at the coordinates (x, y).
  • B t (x, y) and B t — (x, y) denote the pixel values of the background image at the coordinates (x, y) at times t and t ⁇ 1, respectively. Indicates the update coefficient.
  • the state determination unit 132 outputs the first region correspondence information including the information of the stationary duration and the still / moving state of the object region, and the correspondence unit 17 outputs the fixed correspondence information including the background update information.
  • the object tracking device excludes the stationary object from the candidates associated with the object region by including the static region information in the first region correspondence information.
  • the amount of calculation for calculating the similarity performed by the correspondence calculation unit 161 can be reduced.
  • only the moving object can be tracked.
  • the object area information storage unit 133 stores the stationary duration
  • the state determination unit 132 acquires the stationary duration stored in the object area information storage 133, instead of tracking the object.
  • the unit 1331 may output the second area correspondence information including the information of the stationary duration to the state determination unit 1332. By doing so, the state determination unit 1332 can acquire the information on the continuation period of rest without passing through the object area information storage unit 133.
  • the feature amount extraction unit 1441 calculates the feature amount in the region feature amount information for an object region in which the tracking state is indicated as being in the separated state and the still / moving state is indicated as being in the stationary state. May be included, but may not be included because it is unnecessary in the correspondence calculation unit 16 1. Alternatively, instead of including nothing, information indicating that no association is necessary may be included. As a result, unnecessary output of unnecessary feature amounts can be eliminated.
  • FIG. 12 is a configuration diagram showing a third embodiment of the object tracking device according to the present invention.
  • the object tracking device includes an image input terminal 21, a first control unit 22, an object region extraction unit 23, a feature amount generation unit 24, and a feature amount synthesis unit 25. Including.
  • the first control unit 22 is connected to the image input terminal 21, the object region extraction unit 23, the feature amount generation unit 24, and the feature amount synthesis unit 25, and controls them. In addition, the first control unit 22 associates the object with the object region and outputs fixed correspondence information.
  • the object region extraction unit 23 extracts the object region based on the image information of the first control unit 22 and outputs the object region information including the image information of the object region with the region number to the first control unit 22. Output to control unit 22.
  • the feature amount generation unit 24 extracts the feature amount of the object region based on the image information of the first control unit 22 and the object region information. Then, it outputs area feature information including the extracted feature of the object area to the first control unit 22.
  • the feature amount synthesizing unit 25 performs, based on the area feature amount information from the first control unit 22 and the first area correspondence information, based on all necessary combinations of a plurality of objects. Calculate a combined feature amount obtained by combining the feature amounts of the objects. Then, the feature amount combining unit 25 calculates the combined space amount. The included combined feature information is output to the first control unit 22.
  • the first region correspondence information includes information on the correspondence between the object and the object region and information on the tracking state of the object, as in the first embodiment.
  • the first control unit 22 generates first area correspondence information.
  • the first control unit 22 inputs image information via an image input terminal 21 to which an image signal is input from a video camera or the like.
  • the first control unit 22 outputs the image information to the object region extraction unit 23, and inputs the object region information output by the object region extraction unit 23.
  • first area correspondence information is generated based on the object area information and the past confirmed correspondence information, and the generated first area correspondence information, image information, and object area information are sent to the feature amount generation unit 24.
  • it inputs the region feature amount information output by the feature amount generation unit 24, and outputs the region feature amount information and the first region correspondence information to the feature amount synthesis unit 25.
  • the combined feature amount information output by the feature amount combining unit 25 is input.
  • the first control unit 22 calculates the similarity between the feature amount of the object region included in the region feature amount information and the combined feature amount included in the combined feature amount information, calculates the combination similarity, and calculates Determine the optimal association with the object area. Then, information on the correspondence between the determined object and the object area is output as the determined correspondence information.
  • FIG. 13 is a block diagram showing an example of the configuration of the first control unit 22.
  • the first control unit 22 includes a second control unit 221, an object tracking unit 222, a state determination unit 223, and a correspondence calculation unit 224.
  • the first control unit 22 (the second control unit 221, the object tracking unit 222, the state determination unit 23, and the correspondence calculation unit 22), the object region extraction unit 23, the feature value The generating unit 24 and the feature amount synthesizing unit 25 can be realized by hardware, but can also be realized by software. That is, the first control unit 22, the object region extraction unit 23, the feature value generation unit 24, and the feature value synthesis unit 25 include a CPU that executes a process based on a program, and a first control unit that will be described below. And a program stored in a storage device for realizing the functions of the control unit 22, the object region extracting unit 23, the feature amount generating unit 24, and the feature amount synthesizing unit 25.
  • the second control unit 22 1 When image information is input via the image input terminal 21, the second control unit 22 1 outputs the image information to the object area extraction unit 23.
  • the second control unit 2 2 1 The current time object region information output by the region extraction unit 23, the past object region information stored by the second control unit 221 itself, and the past determination stored by the second control unit 221 itself The corresponding information is output to the object tracking unit 222.
  • the second control unit 221 sends the image information input via the image input terminal 21 and the object region information output by the object region extraction unit 23 to the region feature amount generation unit 24. Output.
  • the contents of the confirmation correspondence information are the same as those in the first embodiment.
  • the second control section 221 judges the second area correspondence information and the object area information as the state determination section 223. Output to. Note that the contents of the second area correspondence information are the same as those in the first embodiment.
  • the second control section 221 checks that the tracking state is in the separated state based on the first area correspondence information. Only for the object region indicated by, is output the feature amount of the object and the first region correspondence information to the feature amount synthesizing unit 25. The contents of the first area correspondence information are the same as those in the first embodiment.
  • the second control unit 221 converts the area feature information, the combined feature information, and the first area correspondence information into a correspondence calculation unit.
  • Output to 2 2 4 For the first area correspondence information output by the state determination unit 222, an object whose tracking state is indicated to be a state other than the separated state is the object included in the first area correspondence information.
  • the correspondence with the region is determined as the correspondence between the object and the object region.
  • the correspondence between the object area included in the optimal correspondence information output by the correspondence calculation unit 224 and the object and the object Determine the correspondence with the area. Note that the contents of the optimal correspondence information output by the correspondence calculation unit 224 are the same as those in the first embodiment.
  • the object tracking unit 222 includes current object region information input from the second control unit 222, past object region information stored by the second control unit 222, and past determination. The object is tracked based on the correspondence information, and the second area correspondence information is output to the second control unit 221. Note that the method of tracking the object by the object tracking unit 222 is the same as the method of tracking the object in the first embodiment.
  • the state determination unit 222 determines the tracking state of the object based on the second region correspondence information and the object region information input from the second control unit 221. The area correspondence information is output to the second control unit 221.
  • FIG. 14 is a flowchart illustrating an example of the processing progress of the object tracking device.
  • the object region extraction unit 23 extracts an object region from the image information (step S1402). Then, object region information including image information of the object region is output.
  • the object tracking unit 222 tracks the object, associates the object with the object area, and outputs second area correspondence information.
  • the state determination unit 222 determines the tracking state of the object based on the second area correspondence information and the object area information (Step S1403).
  • the feature amount generation unit 24 calculates the feature amount of the object region (step S144).
  • the second control unit 222 has a counter i.
  • the second control unit 222 sets the number of objects in the counter i (step S1405).
  • the second control unit 221 determines whether the value of the counter i is “0” (step S 1 406), and if the value of the counter i is “0 J”, performs the processing. When the value of the counter i is not “0”, the second control unit 221 instructs the state determination unit 223 to execute the process of the next step S 1407.
  • the state determination unit 223 determines whether the tracking state of the object is the separation state (step S 1407).
  • the feature amount synthesis unit 25 synthesizes and synthesizes the feature amounts of the objects for all necessary combinations of a plurality of objects.
  • a feature is generated (step S1408).
  • Correspondence calculation unit 2 2 4 is used for all possible combinations of the object and the object area.
  • the similarity between the combined feature of the body and the feature of the object region is calculated, and the combination similarity is calculated.
  • the second control unit 222 determines the combination of the object and the object region having the highest combination similarity calculated by the correspondence calculation unit 222 as the correspondence between the optimal object and the object region (step S 1 409).
  • step S 1407 when the state determination unit 223 determines that the tracking state is a state other than the separation state, the second control unit 221 sets the first area correspondence information to The correspondence between the included object and the object region is determined as the corresponding relationship between the optimal object and the object region (step S 14 09) 0
  • the feature amount generation unit 14 updates the feature amount of the object whose correspondence has been determined (step S 1410). However, the feature amount generation unit 14 updates the feature amount only for an object whose tracking state is indicated to be a single state.
  • step S14411 decreases the value of the counter by “1” (step S14411). Then, in step S1406, the processing from step S1407 to step S14010 is repeatedly executed until the value of the counter is determined to be "0". That is, for all objects, the processing from step S 1407 to step S 1410 is performed until the correspondence force with the optimal object region is determined. After the processing for determining the correspondence between all objects and the object area (steps S1407 to S1401) is completed, the processing is executed again from step S1401. .
  • an object tracking device having the same function as that of the first embodiment can be realized.
  • the tracking state is determined for each object or based on image input processing for inputting image information, object area information, and fixed correspondence information indicating the correspondence between the object area and the object before the current time.
  • a tracking state determination process for determining for each object region and outputting first region correspondence information indicating a correspondence between the object region and the object and the tracking state; and a determination result of the image information, the object region information, and the tracking state determination unit.
  • the feature amount generation processing for generating an area feature amount indicating the feature amount of the object region and an object feature amount indicating the feature amount of the object, and a tracking state for each object, an object region having a plurality of object regions.
  • the correspondence between the object and the object area included in the first area correspondence information is determined by comparing the object to the object area.
  • all necessary combinations of a plurality of objects are obtained from the object feature amount and the first area correspondence information.
  • a combining process for generating the combined feature amounts by combining the feature amounts, comparing each combined feature amount with the region feature amount, and associating the object corresponding to the combined feature amount with the highest similarity with the object region;
  • An object tracking device can be realized by an object tracking program for executing the following.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

 物体領域抽出部(12)は、画像入力端子(11)を介して画像情報を入力し、入力された画像情報から物体領域を抽出する。特徴量生成部(14)は、物体の特徴量と物体領域の特徴量とを生成する。特徴量合成部(15)は、複数の物体の特徴量を合成して合成特徴量を生成する。対応付け部(17)は、物体領域の特徴量と合成特徴量との類似度を算出して、算出した類似度に基づいて最適な物体と物体領域との対応付けを行う。

Description

物体追跡装置、 物体追跡方法および物体追跡プログラム 技術分野
本発明は、 画像情報に基づいて物体を追跡する物体追跡装置、 物体追跡方法、 および物体追跡プログラムに関し、 特に、 複数の物体が画像上で重なった場合に も追跡を継続できる物体追跡装置、 物体追跡方法、 および物体追跡プログラムに 関する。 背景技術
ビデオカメラ等から時々刻々と入力される画像情報に基づいて人などの物体を 追跡する物体追跡装置は、 複数の物体が画像上で重なり合った場合にも追跡対象 の物体の追跡を継続する必要がある。 例えば、 特開平 0 6— 1 6 9 4 5 8号公報 には、 追跡中に複数の物体が交差した場合にも物体の追跡を継続できる物体追跡 装置が記載されている。
図 1は、 特開平 0 6— 1 6 9 4 5 8号公報に記載された従来の物体追跡装置の 構成を示すブロック図である。 この物体追跡装置は、 図 1に示すように、 画像入 力端子 4 0にビデオカメラ等から定期的に入力される画像情報から物体領域を抽 出する物体領域抽出手段 4 1、 抽出された物体領域と後述する領域選択手段 4 5 が出力する追跡対象の物体領域とを比較して追跡対象の物体の状態を検出する追 尾状態検出手段 4 2、 画像情報と追跡対象の物体領域とに基づいて物体の特徴量 を生成する特徴量生成手段 4 3、 画像情報と物体領域抽出手段 4 1が抽出した物 体領域とに基づいて全ての物体領域の特徴量を生成するとともに、 特徴量生成手 段 4 3から入力された物体の特徴量に最も近い特徴量の物体領域を選択する物体 同定手段 4 4、 および追跡対象の物体領域を出力する領域選択手段 4 5を含む。 ここで、 物体領域とは、 画像における物体を含む領域である。 追尾状態検出手 段 4 2が出力する追跡対象の物体の状態には、 追跡対象の物体が他の物体と交差 している状態である重なり状態と、 追跡対象の物体が単独で存在し追跡されてい る状態である追跡状態とがある。 また、 特徴量生成手段 4 3は、 生成した特徴量 を記憶する記憶手段を有し、 さらに記憶手段が記憶する特徴量を更新する更新手 段を含む。 特徴量生成手段 4 3は、 物体の状態が追跡状態の場合には、 記憶手段 が記憶する特徴量を更新する。 し力 し、 特徴量生成手段 4 3は、 物体の状態が重 なり状態の場合には、 記憶手段が記憶する特徴量を維持する。
物体同定手段 4 4は、 物体の状態が重なり状態の場合にのみ、 特徴量生成手段 4 3が記憶している物体領域の特徴量に最も近い特徴量の物体領域を選択する。 'そして、 領域選択手段 4 5は、 物体の状態が重なり状態から追跡状態に変化した 場合に、 物体同定手段 4 4が選択した物体領域を追跡対象の物体領域として選択 する。 物体の状態が重なり状態から追跡状態に変化した場合以外の場合には、 領 域選択手段 4 5は、 物体領域抽出手段 4 1が新たに抽出した全ての物体領域のう ち、 前回の追跡対象の物体領域の位置に最も近レヽ位置にある物体領域を選択して 出力する。 そして、 領域選択手段 4 5は、 選択した物体領域を新たな追跡対象の 物体領域として出力する。 なお、 前回の追跡対象の物体領域とは、 例えば、 ビデ ォカメラ等から新たに入力された画像情報の 1フレーム分前の画像情報に基づい て決定された追跡対象の物体領域である。
このように、 物体追跡装置は、 物体の状態が追跡状態である場合には、 新たに 入力される画像情報を用いて物体領域の追跡を継続する。 また、 物体の状態が追 跡状態から重なり状態に変化したときには、 変化する直前の物体の特徴量が保存 される。 そして、 物体の状態が重なり状態から追跡状態に変化したときに、 物体 同定手段 4 4が選択していた物体領域を追跡対象の物体領域として、 物体領域の 追跡を継続する。 従って、 物体の状態が追跡状態から重なり状態に変化し、 その 後追跡状態に戻った場合に、 物体領域の追跡を継続することができる。
以上のように、 従来の物体追跡装置は、 重なり状態が解消したときに、 重なり 状態に変化する直前の物体の特徴量に基づいて物体と物体領域とを対応付けるこ とによって、 複数の物体が交差した場合でも物体領域の追跡を継続することがで さる。
なお、 Proceedings of the Fourth IEEE International Conference on Automatic Face and Gesture Recognition March 28-30, 2000 の p. 348- p. 353 に記載の Tracking Interacting People (S. J. McKenna, S. Jabri, Z. Duric, H. Wechsler ) には、 交差中の物体が分離して重なり状態が解消された場合に、 物体が各物体領 域に属する確率を算出して、 算出した確率が最も大きくなる物体領域に物体を対 応付けることによって物体の追跡を継続する方法が記載されている。
しかし、 複数の個々の物体が交差して重なり状態になった後に重なり状態が解 消したときに 1つの物体領域に複数の物体が存在する場合や、 重なり状態になる 前と後とで 1つの物体領域に存在する物体が入れ替わった場合には、 重なり状態 に変化する直前の物体の特徴量が、 重なり状態が解消したとき後のいずれの物体 の特徴量とも一致しないので、 従来の物体追跡装置は、 物体と物体領域との対応 付けを誤る。 例えば 4人の個々の人間 (A, B , C , D) が交差し、 その後 2人 ずつのグループ (A, Bのグループと C , Dのグループ) に分かれた場合や、 2 人の人間 (A, B) と 1人の人間 (C) が交差した後に人間の組み合わせが入れ 替わって 1人 (A) と 2人 (B , C) になった場合には、 物体追跡装置は、 物体 と物体領域との対応付けを誤る。 また、 従来の物体追跡装置は個々の物体に対し て最も類似している領域を選択しているが、 物体全体として整合のとれた対応付 けになるとは限らない。 ' 発明の開示
そこで、 本発明の目的は、 複数の物体が画像上で重なり合った状態から分離し てもなお画像領域に複数の物体が存在する場合や、 分離する前後にぉレ、て画像上 で重なり合う物体の組み合わせが入れ替わつた場合でも、 物体と物体領域との対 応付けを誤ることのない物体追跡装置、 物体追跡方法および物体追跡プログラム を提供することを目的とする。 また、 物体と物体領域とを対応付ける際に、 物体 全体として最適な対応付けを選択できるようにすることも本発明の目的である。 本発明による物体追跡装置は、 画像情報に基づいて物体を追跡する物体追跡装 置であって、 画像情報に含まれる各物体の特徴量を示す物体特徴量を合成して合 成特徴量を生成する特徴量合成手段と、 画像情報から抽出された領域であって物 体を含む領域である物体領域の特徴量と合成特徴量との類似度に基づレヽて物体領 域と物体とを対応付ける対応付け手段とを備える。 特徴量合成手段が、 複数の物体の必要な全ての組み合わせについて特徴量を合 成して各合成特徴量を生成し、 対応付け手段が、 特徴量合成手段が生成した各合 成特徴量と物体領域の特徴量を示す領域特徴量とを比較することによって物体と 物体領域とを対応付けることが好ましい。 そのような構成によれば、 物体と物体 領域とを対応付ける際に、 最適な物体と物体領域との対応関係を選択できる。 物体追跡装置が、 画像情報から物体領域を抽出して物体領域の画像情報を含む 物体領域情報を出力する物体領域抽出手段と、 他の物体との相対的な位置関係を 表す追跡状態を物体毎または物体領域毎に判定する追跡状態判定手段と、 画像情 報、 物体領域情報および追跡状態判定手段の判定結果を用いて、 領域特徴量およ ぴ物体特 ί敷量を生成する特徴量生成手段とを備え、 特徴量合成手段が、 物体特徴 量および追跡状態判定手段の判定結果を用いて合成特徴量を生成するものである ことが好ましい。 そのような構成によれば、 他の物体との相対的な位置関係に基 づレヽて合成特徴量を生成できる。
追跡状態判定手段が、 物体領域情報と、 現時刻以前の物体領域と物体との対応 関係を示す確定対応情報とから、 追跡状態を物体毎または物体領域毎に判定し、 物体領域およぴ物体と追跡状態との対応関係を示す第 1の領域対応情報を出力し、 特徴量生成手段が、 現時刻の画像情報、 物体領域情報、 第 1の領域対応情報およ び確定対応情報から、 領域特徴量と物体特徴量とを生成し、 特徴量合成手段が、 物体特徴量と第 1の領域対応情報とから、 物体領域に対応付けられる候補となる 各合成特徴量を生成し(すなわち、物体領域について物体の特徴量を合成し)、合 成特徴量およぴ合成特徴量生成のために用いられた物体と合成特徴量との対応関 係を含む情報である合成特徴量情報を出力し、 対応付け手段が、 第 1の領域対応 情報、 領域特徴量を示す情報である領域特徴量情報および合成特徴量情報から物 体と物体領域とを対応付け、 現時刻に対する確定対応情報を出力する対応確定手 段を含むものであることが好ましい。 そのような構成によれば、 物体分離後に複 数の物体が存在する場合や交差時に物体が入れ替わった場合に、 物体と物体領域 との対応づけを誤らないようにすることができる。
物体追跡装置において、 追跡状態が、 物体領域内に 1つの物体のみが存在する 単独状態、 物体領域内に複数の物体が対応する重なり状態、 または物体領域が複 数の物体領域に分力^る過渡的な状態である分離状態であることが好ましい。 そ のようにすれば、 他の物体との相対的な位置関係を判定することができる。
特徴量生成手段が、 物体領域の色ヒストグラム、 面積、 画像テンプレートおよ び面積で正規化された色ヒストグラムのいずれかまたはそれらの組み合わせを領 域特徴量として生成し、物体に対応する物体領域を第 1の領域対応情報から求め、 その物体領域に対する色ヒストグラム、 面積、 画像テンプレートおよび面積で正 規ィ匕された色ヒストグラムのレ、ずれかまたはそれらの組み合わせを物体特徴量と して生成するものであってもよレ、。
追跡状態判定手段が、 物体領域情報を記憶する物体領域記憶手段と、 物体領域 情報、 確定対応情報、 および物体領域記憶手段から出力される現時刻以前の物体 領域情報とから物体を追跡し、 物体と物体領域との対応を示す第 2の領域対応情 報を出力する物体追跡手段と、 第 2の領域対応情報、 物体領域情報および現時刻 以前の物体領域情報とから物体の追跡状態を判定し、 第 1の領域対応情報を出力 する状態判定手段とを含むものであってもよい。
状態判定手段が、 第 2の領域対応情報と物体領域情報とから、 物体と物体領域 との対応、 物体領域間の距離、 物体領域の分離中の継続時間のいずれかまたはそ れらの組み合わせに基づいて、 対応する物体領域に共通の領域が存在する物体同 士をまとめ、 これらの物体と対応する物体領域を 1つのクラスに分類し、 対応す る物体領域がどの物体とも異なる物体については、 その物体と対応する物体領域 を 1つのクラスに分類することによって、 物体および物体領域を複数のクラスに 分類し、 分類したクラスに基づ!/ヽて追跡状態を判定するものであってもよい。 追跡状態が、 物体領域が複数の物体領域に分かれる過渡的な状態である分離状 態を含み、 状態判定手段が、 分類したクラスに 2以上の物体領域が含まれる場合 に、 クラスは分離状態である条件を満たすと判断し、 クラスが分離状態である条 件を満たす場合に、 クラスに含まれる物体および物体領域の追跡状態を分離状態 と判定するものであってもよい。
状態判定手段が、 分類したクラスが分離状態である条件を満たし、 さらに、 ク ラスに 2以上の物体が含まれること、 クラスに含まれる物体領域間の距離が予め 決められた閾値以上であること、 クラスに含まれる物体領域の分離中の継続時間 が予め決められた閾値以上であることのいずれかまたはそれらの組み合わせを満 たす場合に、 クラスに含まれる物体および物体領域の追跡状態を分離状態と判定 するように構成されていてもよい。 そのような構成によれば、 他の物体との相対 的な位置関係が分離状態であると誤って判定するのを防止できる。
追跡状態が、 分離状態と物体領域内に 1つの物体のみが存在する単独状態とを 含み、 状態判定手段が、 分類したクラスが 1つの物体を含み、 クラスに含まれる 物体および物体領域の追跡状態が分離状態でない場合に、 クラスに含まれる物体 および物体領域の追跡状態を単独状態と判定するように構成されていてもよレ、。 追跡状態が、 分離状態と、 物体領域内に複数の物体が対応する重なり状態とを 含み、 状態判定手段が、 分類したクラスが 2以上の物体を含み、 クラスに含まれ る物体および物体領域の追跡状態が分離状態でない場合に、 クラスに含まれる物 体および物体領域の追跡状態を重なり状態と判定するように構成されていてもよ い。
特徴量生成手段が、 画像情報と物体領域情報と第 1の領域対応情報とから領域 特徴量を抽出し、 領域特徴量を示す情報である領域特徴量情報を出力する特徴量 抽出手段と、 物体特徴量を記憶し、 要求に応じて、 記憶する物体特徴量を選択す る特徴量記憶手段と、 領域特徴量情報、 第 1の領域対応情報あるレ、は確定対応情 報およぴ現時刻より以前に生成した物体特徴量と力ゝら、 特徴量記憶手段が記憶す る物体特徴量を更新する特徴量更新手段とを含むように構成されていてもよい。 追跡状態が、 物体領域が複数の物体領域に分力ゝれる過渡的な状態である分離状 態を含み、 特徴量抽出手段が、 追跡状態が分離状態以外である場合には、 物体と の対応付けが不要であることを示す情報を領域特徴量情報に含め、 対応確定手段 ί 領域特徴量情報によつて物体との対応付けが不要であることが示されている 物体領域を対応付けの対象から除外するように構成されていてもよい。 そのよう な構成によれば、 類似度の算出のための計算量を削減できる。
追跡状態が、 物体領域内に 1つの物体のみが存在する単独状態を含み、 特徴量 更新手段が、 第 1の領域対応情報あるいは確定対応情報から物体の追跡状態が単 独状態であるかを判定し、 物体の追跡状態が単独状態以外の場合には、 特徴量記 憶手段が記憶する物体特徴量を更新しないように構成されていてもよい。 特徴量合成手段が、 特徴量生成手段が生成する物体特徴量と第 1の領域対応情 報とに基づいて、 組み合わせが可能な物体と物体領域との全ての組み合わせを決 定し、 決定した物体と物体領域との組み合わせについてのみ、 物体特徴量を合成 して合成特徴量を生成するように構成されていてもよレ、。 そのような構成によれ ば、 不要な合成特徴量の生成の処理を削減できる。
特徴量合成手段が、 物体特徴量を合成する割合を補正するための係数である合 成比率を求め、 合成比率と物体特徴量とから合成特徴量を生成するように構成さ れていてもよい。 そのような構成によれば、 画像上での物体の大きさが実際の物 体の大きさとは異なる場合に、 物体の大きさに基づく誤差を補正できる。
特徴量合成手段は、 特徴量生成手段から物体特徴量とともに領域特徴量を入力 し、 入力した領域特徴量情報と物体の特徴量とに基づレ、て任意の合成比率に応じ て合成特徴量を算出し、 算出した合成特徴量と領域特徴量との類似度が最も高く なる場合の合成比率に応じた合成特徴量を出力するように構成されていてもよい。 そのような構成によれば、 物体と物体領域との各組み合わせに対して 1つの合成 特徴量のみに基づいて類似度を算出すればよく、 無駄な算出処理を省くことがで きる。
追跡状態が、 物体領域が複数の物体領域に分かれる過渡的な状態である分離状 態を含み、 特徴量合成手段が、 追跡状態が分離状態であることが示されている物 体領域についてのみ合成特徴量を生成するように構成されていてもよレ、。 そのよ うな構成によれば、 不要な合成特徴量の生成の処理を削減できる。
物体特徴量が、 物体の面積を含み、 特徴量合成手段が、 物体特徴量に含まれる 物体の面積から物体特徴量を合成する割合を補正するための係数である合成比率 を求め、 合成比率と物体特徴量とから合成特徴量を生成するように構成されてい てもよい。 そのような構成によれば、 合成比率の算出のための計算量を削減でき る。
特徴量合成手段が、 合成比率を、 物体の面積の変化に基づく所定範囲内に制限 するように構成されていてもよい。 そのような構成によれば、 画像上での物体の 面積が変化する場合でも、 正しい合成比率を求めることができる。
特徴量合成手段は、 特徴量生成手段から物体特徴量とともに領域特徴量を入力 し、 入力された領域特徴量と物体特徴量とから、 物体の面積変化の範囲内で合成 特徴量を生成し、 物体領域との類似度が最も高くなる合成特徴量を出力するよう に構成されていてもよい。 そのような構成によれば、 物体の各組み合わせに対し て 1つの合成特徴量を出力するだけでよく、 無駄な処理を省くことができる。 物体特徴量が、 画像テンプレートを含み、 特徴量合成手段が、 画像テンプレー トと領域特徴量とから各物体の前後関係を判定し、 判定した各物体の前後関係に 基づ!/、て画像テンプレートを合成するように構成されていてもよい。 そのような 構成によれば、 物体が他の物体の背後に部分的に隠れている場合でも、 物体と物 体領域の対応関係を正しく算出することができる。
対応確定手段が、 合成特徴量情報、 領域特徴量情報および第 1の領域対応情報 に基づいて、 物体と物体領域との組み合わせのうち対応付けられる可能性のある 全ての可能な組み合わせから最も類似した組み合わせを求め、 求められた物体と 物体領域との組み合わせを最適な対応付けとして選択して、 物体と物体領域との 最適な対応関係を示す最適対応情報を生成する対応計算手段と、 第 1の領域対応 情報および最適対応情報に基づいて、 物体と物体領域との対応関係を確定し、 確 定した物体と物体領域との対応関係を含む情報である確定対応情報を出力する対 応決定手段とを含むように構成されていてもよレ、。 そのような構成によれば、 物 体と物体領域とを対応付ける際に、 最適な物体と物体領域との対応関係を選択で きる。
対応計算手段が、 物体と物体領域との全ての可能な組み合わせについて、 各組 み合わせにおける物体領域の特徴量と合成特徴量との類似度の合計である合計類 似度を求め、 全ての可能な組み合わせのうち、 合計類似度が最大となる組み合わ せを最も類似した組み合わせとするように構成されて 、てもよレ、。
第 1の領域対応情報が、 物体領域が静止している状態であるカゝ動作している状 態であるかを示す静動状態の情報を含み、 対応計算手段が、 静動状態の情報によ つて静止している状態であることが示されてレ、る物体領域と物体との組み合わせ を、 .全ての可能な組み合わせから除外するように構成されていてもよい。 そのよ うな構成によれば、 静動状態が静止状態を示す物体領域がどの物体とも対応付か なレヽ組み合わせのみ計算することにより、 対応計算手段の計算量を削減すること ができる。
対応計算手段が、 最も類似した組み合わせとして決定した組み合わせを構成す る物体と物体領域との組の類似度から得られる組み合わせ類似度が予め決められ た閾値以下である場合には、物体と物体領域との全ての可能な組み合わせのうち、 組み合わせ類似度が最大となる組み合わせの組み合わせ類似度から予め決められ た閾値以内の組み合わせ類似度を持つ組み合わせを選択し、 選択した組み合わせ に共通して存在する物体と物体領域との対応関係を、 最適な対応付けとして最適 対応情報に含め、 共通して存在する物体と物体領域との対応関係に含まれなレヽ物 体と物体領域については、 物体と物体領域には最適な対応がないことを示す情報 を最適対応情報に含め、 対応決定手段が、 最適な物体と物体領域との対応関係が ない旨が最適対応情敎に示されていなレ、物体にっレ、ては、 その最適対応情報に含 まれる物体と物体領域との対応関係を示す情報を確定対応情報として出力し、 最 適な物体と物体領域との対応関係がなレヽ旨が最適対応情報に示されている物体に ついては、 第 1の領域対応情報に含まれる物体と物体領域との対応関係を示す情 報を確定対応情報として出力するように構成されてもよい。 そのような構成によ れば、 誤つた物体と物体領域との対応関係を選択するのを防止できる。
追跡状態が、 物体領域が複数の物体領域に分かれる過渡的な状態である分離状 態を含み、 対応決定手段が、 追跡状態として分離状態が示されている物体領域に ついてのみ、 最適対応情報に示される物体と物体領域との対応関係を確定するよ うに構成されていてもよい。 そのような構成によれば、 物体と物体領域との対応 関係の確定の処理を削減できる。
追跡状態が、 物体領域が複数の物体領域に分力ゝれる過渡的な状態である分離状 態を含み、 対応決定手段が、 追跡状態として分離状態以外の状態が示されている 物体領域についてのみ、 第 1の領域対応情報に含まれる物体と物体領域との対応 を確定対応情報として出力するように構成されていてもよい。 そのような構成に よれば、 物体と物体領域との対応関係の確定の処理を削減できる。
本発明による物体追跡方法は、 画像情報に基づいて物体を追跡する物体追跡方 法であって、 画像情報に含まれる各物体の特徴量を示す物体特徴量を合成して合 成特徴量を生成し、 画像情報から抽出された領域であつて物体を含む領域である 物体領域の特徴量と合成特徴量との類似度に基づいて物体領域と物体とを対応付 ける。
物体追跡方法は、 複数の物体の必要な全ての組み合わせにつレヽて特徴量を合成 して各合成特徴量を生成し、 生成された各合成特徴量と物体領域の特徴量を示す 領域特徴量とを比較することによつて物体と物体領域とを対応付けることが好ま しい。 そのような方法によれば、 物体と物体領域とを対応付ける際に、 最適な物 体と物体領域との対応関係を選択できる。
物体追跡方法は、 画像情報から物体領域を抽出して物体領域の画像情報を含む 物体領域情報を出力し、 他の物体との相対的な位置関係を表す追跡状態を物体毎 または物体領域毎に判定し、 画像情報、 物体領域情報および判定結果を用いて、 領域特徴量およぴ物体特徴量を生成し、 物体特徴量および判定結果を用レ、て合成 特徴量を生成することが好ましい。 そのような方法によれば、 他の物体との相対 的な位置関係に基づいて、 合成特徴量を生成できる。
物体追跡方法は、 物体領域情報と、 現時刻以前の物体領域と物体との対応関係 を示す確定対応情報とから、 追跡状態を物体毎または物体領域毎に判定し、 物体 領域および物体と追跡状態との対応関係を示す第 1の領域対応情報を出力し、 現 時刻の画像情報、 領域特徴量を示す情報である領域特徴量情報、 第 1の領域対応 情報および確定対応情報から、 領域特徴量と物体特徴量とを生成し、 物体特徴量 と第 1の領域対応情報とから、 物体領域に対応付けられる候補となる各合成特徴 量を生成して、 合成特徴量および合成特徴量生成のために用いられた物体と合成 特徴量との対応関係を含む情報である合成特徴量情報を出力し、 第 1の領域対応 情報、 領域特徴量情報および合成特徴量情報から物体と物体領域とを対応付け、 現時刻に対する確定対応情報を出力することが好ましい。 そのような方法によれ ば、 物体分離後に複数の物体が存在する場合や交差時に物体が入れ替わった場合 に、 物体と物体領域との対応づけを誤らないようにすることができる。
物体追跡方法において、 追跡状態は、 物体領域内に 1つの物体のみが存在する 単独状態、 物体領域内に複数の物体が対応する重なり状態、 または物体領域が複 数の物体領域に分力ゝれる過渡的な状態である分離状態を含む。
物体追跡方法は、 物体領域の色ヒストグラム、 面積、 画像テンプレートおよび 面積で正規化された色ヒストグラムのレ、ずれかまたはそれらの組み合わせを領域 特徴量として生成し、 物体に対応する物体領域を第 1の領域対応情報から求め、 その物体領域に対する色ヒストグラム、 面積、 画像テンプレートおよび面積で正 規ィ匕された色ヒストグラムの!/、ずれかまたはそれらの組み合わせを物体特徴量と して生成するように構成されていてもよい。
物体追跡方法は、 物体領域情報を記憶し、 物体領域情報、 確定対応情報、 およ ぴ現時刻以前の物体領域情報とから物体を追跡し、 物体と物体領域との対応を示 す第 2の領域対応情報を出力し、 第 2の領域対応情報、 物体領域情報および現時 刻以前の物体領域情報とから物体の追跡状態を判定して第 1の領域対応情報を出 力するように構成されていてもよい。
物体追跡方法は、 第 2の領域対応情報と物体領域情報とから、 物体と物体領域 との対応、 物体領域間の距離、 物体領域の分離中の継続時間のレヽずれかまたはそ れらの組み合わせに基づいて、 対応する物体領域に共通の領域が存在する物体同 士をまとめ、 これらの物体と対応する物体領域を 1つのクラスに分類し、 対応す る物体領域がどの物体とも異なる物体については、 その物体と対応する物体領域 を 1つのクラスに分類することによって、 物体およぴ物体領域を複数のクラスに 分類し、 分類したクラスに基づいて追跡状態を判定するように構成されていても よい。
追跡状態は、 物体領域が複数の物体領域に分かれる過渡的な状態である分離状 態を含み、 物体追跡方法は、 分類したクラスに 2以上の物体領域が含まれる場合 に、 クラスは分離状態である条件を満たすと判断し、 クラスが分離状態である条 件を満たす場合に、 クラスに含まれる物体および物体領域の追跡状態を分離状態 と判定するように構成されて 、てもよレ、。
物体追跡方法は、 分類したクラスが分離状態である条件を満たし、 さらに、 ク ラスに 2以上の物体が含まれること、 クラスに含まれる物体領域間の距離が予め 決められた閾値以上であること、 クラスに含まれる物体領域の分離中の継続時間 が予め決められた閾値以上であることのいずれかまたはそれらの組み合わせを満 たす場合に、 クラスに含まれる物体および物体領域の追跡状態を分離状態と判定 するように構成されていてもよい。 そのような方法によれば、 他の物体との相対 的な位置関係が分離状態であると誤って判定するのを防止できる。
追跡状態は、 分離状態と、 物体領域内に 1つの物体のみが存在する単独状態と を含み、 物体追跡方法は、 分類したクラスが 1つの物体を含み、 クラスに含まれ る物体および物体領域の追跡状態が分離状態でない場合に、 クラスに含まれる物 体および物体領域の追跡状態を単独状態と判定するように構成されていてもよい。 追跡状態は、 分離状態と、 物体領域内に複数の物体が対応する重なり状態とを 含み、 物体追跡方法は、 分類したクラスが 2以上の物体を含み、 クラスに含まれ る物体および物体領域の追跡状態が分離状態でない場合に、 クラスに含まれる物 体および物体領域の追跡状態を重なり状態と判定するように構成されていてもよ い。
物体追跡方法は、 画像情報と物体領域情報と第 1の領域対応情報とから領域特 徴量を抽出し、 領域特徴量を示す情報である領域特徴量情報を出力し、 物体特徴 量を記憶し、 要求に応じて、 記憶している物体特徴量を選択して出力し、 領域特 徴量情報と、 第 1の領域対応情報あるいは確定対応情報に基づいて記憶する物体 特徴量を選択し、 領域特徴量情報と確定対応情報と現時刻より以前に生成した物 体特徴量とから、記憶される物体特徴量を更新するように構成されていてもよい。 物体追跡方法は、 追跡状態が、 物体領域が複数の物体領域に分力ゝれる過渡的な 状態である分離状態を含み、 物体領域が複数の物体領域に分力ゝれる過渡的な状態 である分離状態を含み、 追跡状態が分離状態以外である場合には、 物体との対応 付けが不要であることを示す情報を領域特徴量情報に含め、 領域特徴量情報によ つて物体との対応付けが不要であることが示されている物体領域を対応付けの対 象から除外するように構成されていてもよい。 そのような方法によれば、 類似度 の算出のための計算量を削減できる。
物体追跡方法は、 追跡状態が物体領域内に 1つの物体のみが存在する単独状態 を含み、 第 1の領域対応情報あるいは確定対応情報から物体の追跡状態が単独状 態であるかを判定し、 物体の追跡状態が単独状態でない場合には、 記憶される物 体特徴量を更新しないように構成されていてもよい。 そのような方法によれば、 不要な物体特徴量の更新の処理を削減できる。
物体追跡方法は、 生成された物体特徴量と第 1の領域対応情報とに基づレヽて、 組み合わせが可能な物体と物体領域との全ての組み合わせを決定し、 決定した物 体と物体領域との組み合わせにつレヽてのみ、 物体特徴量を合成して合成特徴量を 生成するように構成されていてもよい。 そのような方法によれば、 不要な合成特 徴量の生成の処理を削減できる。
物体追跡方法は、 物体特徴量を合成する割合を補正するための係数である合成 比率を求め、 合成比率と物体特徴量とから合成特徴量を生成するように構成され ていてもよい。 そのような方法によれば、 画像上での物体の大きさが実際の物体 の大きさとは異なる場合に、 物体の大きさに基づく誤差を補正できる。
物体追跡方法は、 物体特徵量とともに領域特徴量を入力し、 入力した領域特徴 量情報と物体の特徴量とに基づいて任意の合成比率に応じて合成特徴量を算出し、 算出した合成特徴量と領域特徴量との類似度が最も高くなる場合の合成比率に応 じた合成特徴量を出力するように構成されていてもよい。 そのような構成によれ ば、 物体と物体領域との各組み合わせに対して 1つの合成特徴量のみに基づレ、て 類似度を算出すればよく、 無駄な算出処理を省くことができる。
物体追跡方法は、 追跡状態が物体領域が複数の物体領域に分力ゝれる過渡的な状 態である分離状態を含み、 追跡状態が分離状態であることが示されている物体領 域についてのみ合成特徴量を生成するように構成されていてもよレヽ。 そのような 方法によれば、 不要な合成特徴量の生成の処理を削減できる。
物体追跡方法は、 物体特徴量が物体の面積を含み、 物体特徴量に含まれる物体 の面積から物体特徴量を合成する割合を捕正するための係数である合成比率を求 め、 合成比率と物体特徴量とから合成特徴量を生成するように構成されていても よレ、。 そのような方法によれば、 合成比率の算出のための計算量を削減できる。 物体追跡方法は、 合成比率を、 物体の面積の変化に基づく所定範囲内に制限す るように構成されていてもよい。 そのような方法によれば、 画像上での物体の面 積が変化する場合でも、 正しレ、合成比率を求めることができる。
物体追跡方法は、 物体特徴量とともに領域特徴量を入力し、 入力された領域特 徴量と物体特徴量とから、 物体の面積変化の範囲内で合成特徴量を生成し、 物体 領域との類似度が最も高くなる合成特徴量を出力するように構成されていてもよ い。 そのような構成によれば、 物体の各組み合わせに対して 1つの合成特徴量を 出力するだけでよく、 無駄な処理を省くことができる。
物体追跡方法は、 物体特徴量が画像テンプレートを含み、 特徴量合成手段が、 画像テンプレートと領域特徴量とから各物体の前後関係を判定し、 判定した各物 体の前後関係に基づいて画像テンプレートを合成するように構成されていてもよ レ、。 そのような構成によれば、 物体が他の物体の背後に部分的に隠れている場合 でも、 物体と物体領域の対応関係を正しく算出することができる。
物体追跡方法は、 合成特徴量情報、 領域特徴量情報および第 1の領域対応情報 に基づいて、 物体と物体領域との組み合わせのうち対応付けられる可能性のある 全ての可能な組み合わせから最も類似した組み合わせを求め、 求められた物体と 物体領域との組み合わせを最適な対応付けとして選択して、 物体と物体領域との 最適な対応関係を示す最適対応情報を生成し、 第 1の領域対応情報および最適対 応情報に基づいて、 物体と物体領域との対応関係を確定し、 確定した物体と物体 領域との対応関係を含む情報である確定対応情報を出力するように構成されてい てもよい。
物体追跡方法は、 物体と物体領域との全ての可能な組み合わせについて、 各組 み合わせにおける物体領域の特徴量と合成特徴量との類似度の合訐である合計類 似度を求め、 全ての可能な組み合わせのうち、 合計類似度が最大となる組み合わ せを最も類似した組み合わせとするように構成されていてもよい。
物体追跡方法は、 第 1の領域対応情報が、 物体領域が静止している状態である 力働作している状態であるかを示す静動状態の情報を含み、 静動状態の情報によ つて静止している状態であることが示されている物体領域と物体との組み合わせ を、 全ての可能な組み合わせから除外するように構成されていてもよレ、。 そのよ うな構成によれば、 静動状態が静止状態を示す物体領域がどの物体とも対応付か なレ、組み合わせのみ計算することにより、 計算量を削減することができる。
物体追跡方法は、 最も類似した組み合わせとして決定した組み合わせを構成す る物体と物体領域との組の類似度から得られる組み合わせ類似度が予め決められ た閾値以下である場合には、物体と物体領域との全ての可能な組み合わせのうち、 組み合わせ類似度が最大となる組み合わせの組み合わせ類似度から予め決められ た閾値以内の組み合わせ類似度を持つ組み合わせを選択し、 選択した組み合わせ に共通して存在する物体と物体領域との対応関係を、 最適な対応付けとして最適 対応情報に含め、 共通して存在する物体と物体領域との対応関係に含まれない物 体と物体領域については、 物体と物体領域には最適な対応がないことを示す情報 を最適対応情報に含め、 最適な物体と物体領域との対応関係がない旨が最適対応 情報に示されていない物体については、 その最適対応情報に含まれる物体と物体 領域との対応関係を示す情報を確定対応情報として出力し、 最適な物体と物体領 域との対応関係がない旨が最適対応情報に示されている物体については、 第 1の 領域対応情報に含まれる物体と物体領域との対応関係を示す情報を確定対応情報 として出力するように構成されていてもよい。 そのような方法によれば、 誤った 物体と物体領域との対応関係を選択するのを防止できる。
物体追跡方法は、 追跡状態として分離状態が示されている物体領域についての み、 最適対応情報に示される物体と物体領域との対応関係を確定するように構成 されていてもよい。 そのような方法によれば、 物体と物体領域との対応関係の確 定の処理を削減できる。
物体追跡方法は、 追跡状態として分離状態以外の状態が示されている物体領域 についてのみ、 第 1の領域対応情報に含まれる物体と物体領域との対応を確定対 応情報として出力するように構成されていてもよレ、。 そのような方法によれば、 物体と物体領域との対応関係の確定の処理を削減できる。
本発明による物体追跡プログラムは、 画像情報に基づいて物体を追跡する物体 追跡プログラムであって、 コンピュータに、 画像情報を入力する処理と、 入力さ れた画像情報に含まれる各物体の特徴量を示す物体特徴量を合成して合成特徴量 を生成する処理と、 画像情報から抽出された領域であつて物体を含む領域である 物体領域の特徴量と合成特徴量との類似度に基づレヽて物体領域と物体とを対応付 ける処理とを実行させることを特徴とする。
本発明による他の態様の物体追跡プログラムは、 入力された画像情報における 物体と物体領域とを対応付ける物体追跡プログラムであって、 コンピュータに、 画像情報を入力する処理と、 入力された画像情報から物体領域を抽出して物体領 域の画像情報を含む物体領域情報を出力する処理と、 物体領域情報と、 現時刻以 前の物体領域と物体との対応関係を示す確定対応情報と力 >ら、 追跡状態を物体毎 または物体領域毎に判定し、 物体領域および物体と追跡状態との対応関係を示す 第 1の領域対応情報を出力する処理と、 画像情報、 物体領域情報および第 1の領 域対応情報を用いて、 物体領域の特徴量を示す領域特徴量および物体の特徴量を 示す物体特徴量を生成する処理と、 物体特徴量と第 1の領域対応情報とから、 複 数の物体の必要な全ての組み合わせにつレ、て特徴量を合成して各合成特徴量を生 成し、 合成特徴量およぴ合成特徴量生成のために用いられた物体と合成特徴量と の対応関係を含む情報である合成特徴量情報を出力する処理と、 第 1の領域対応 情報、 領域特徴量情報および合成特徴量情報から物体と物体領域とを対応付け、 現時刻に対する確定対応情報を出力する処理とを実行させるように構成されてい てもよい。
本発明によるさらに他の態様の物体追跡プログラムは、 入力された画像情報に おける物体と物体領域とを対応付ける物体追跡プログラムであって、 コンビユー タに、 画像情報を入力する処理と、 物体領域情報と、 現時刻以前の物体領域と物 体との対応関係を示す確定対応情報と力ゝら、 追跡状態を物体毎または物体領域毎 に判定し、 物体領域および物体と追跡状態との対応関係を示す第 1の領域対応情 報を出力する処理と、 画像情報、 物体領域情報および第 1の領域対応情報を用い て、 物体領域の特徴量を示す領域特徴量およぴ物体の特徴量を示す物体特徴量を 生成する処理と、 各物体を対象として、 追跡状態が、 物体領域が複数の物体領域 に分力れる過渡的な状態である分離状態以外の状態であると判定されている物体 について、 第 1の領域対応情報に含まれる物体と物体領域との対応を、 物体と物 体領域との対応として確定し、 追跡状態が分離状態であると判定されている物体 について、 物体特徴量と第 1の領域対応情報とから複数の物体の必要な ¾ての組 み合わせにっレヽて特徴量を合成して各合成特徴量を生成し、 各合成特徴量と領域 特徴量とを比較し、 最も類似度が高い合成特徴量に対応した物体と物体領域とを 対応付ける処理とを実行させるように構成されていてもよい。
以上、 本発明には以下の効果がある。
本発明によれば、 複数の物体の特徴量を合成し、 合成特徴量を用いて物体と物 体領域との特徴量の寧似度を求めるので、 物体分離後に複数の物体が存在する場 合や交差時に物体が入れ替わった場合に、 物体と物体領域との対応づけを誤らな いようにすることができる。 特に、 重なり状態が解消された際の物体と物体領域 との対応付けにお!/、て、 物体と物体領域との対応づけを誤らないようにすること ができる。
また、 領域と物体との組み合わせを考え、 各組み合わせについて類似度を求め ることによって、 物体と領域を対応付ける際に、 全体として最適となる対応付け を選択できる。 図面の簡単な説明
図 1は、 従来の物体追跡装置の構成を示すプロック図であり、
図 2は、 本発明による物体追跡装置の構成の一例を示すプロック図であり、 図 3は、 対応付け部の構成の一例を示すプロック図であり、
図 4は、 本発明による物体追跡装置の処理経過の一例を示すフローチヤ一トで あり、
図 5は、 第 1の領域対応情報の一例を示す説明図であり、
図 6は、 追跡状態判定部の構成の一例を示すプロック図であり、
図 7は、 第 2の領域対応情報の一例を示す説明図であり、
図 8は、 特徴量生成部の構成の一例を示すプロック図であり、
図 9は、 対応確定部の構成の一例を示すプロック図であり、
図 1 0は、テンプレートを用いた特徴量の合成方法の一例を示す説明図であり、 図 1 1は、本発明による物体追跡装置の構成の他の例を示すプロック図であり、 図 1 2は、 本発明による物体追跡装置の構成のさらに他の例を示すブロック図 であり、
図 1 3は、 第 1の制御部の構成の一例を示すブロック図であり、
図 1 4は、 本発明による物体追跡装置の処理経過の他の例を示すフローチヤ一 トである。 発明を実施するための最良の形態
(発明の第 1の実施の形態)
本発明の第 1の実施の形態を図面を用いて説明する。 図 2は、 本発明による物 体追跡装置の構成の一例を示すプロック図である。 図 2に示すように、 物体追跡 装置は、ビデオカメラ等から時々刻々と画像情報が入力される画像入力端子 1 1、 画像入力端子 1 1に入力される画像情報から物体領域を抽出する物体領域抽出部 1 2、 画像入力端子 1 1に入力される画像情報に基づいて物体の特徴量と物体領 域の特徴量とを生成する特徴量生成部 1 4、 複数の物体の特徴量を合成して新た な特徴量を生成する特徴量合成部 1 5、 および物体と物体領域との対応付けを行 う対応付け部 1 7を含む。
なお、 物体領域抽出部 1 2、 特徴量生成部 1 4、 特徴量合成部 1 5および対応 付け部 1 7は、 ハードウェアでも実現可能であるが、 ソフトウェアでも実現可能 である。 すなわち、 物体領域抽出部 1 2、 特徴量生成部 1 4、 特徴量合成部 1 5 および対応付け部 1 7を、 プログラムに基づいて処理を実行する C P Uと、 以下 に説明する物体領域抽出部 1 2、 特徴量生成部 1 4、 特徴量合成部 1 5および対 応付け部 1 7の機能を実現するために記憶装置に格納されているプログラムとで 実現することができる。 .
物体追跡装置は、 ビデオカメラなどを用いて予め特定された範囲 (以下、 追跡 範囲という。)の画像を連続して撮影して、撮影した画像内に映る物体を認識する ことによつて物体を追跡する。
例えば、 ビデオカメラは動かないように固定され、 ビデオカメラは予め決めら れた範囲の画像を連続して撮影する。 なお、 ビデオカメラは、 上下方向や左右方 向に撮影範囲を変更することができるものであってもよい。 また、 ビデオカメラ を用いて画像を連続して撮影するのでなく、 一定の時間の間隔で画像を撮像する 他の攝像装置を用いてもよい。 例えば、 デジタルカメラなど静止画として画像情 報を取り込む装置を用いてもよい。
物体領域とは、 画像における物体を含む領域である。 物体領域は、 例えば、 以 下のようにして抽出される。 すなわち、 ビデオカメラ等に、 予め全く物体が存在 していないときに追跡範囲を撮影させ、 物体領域抽出部 1 2は、 撮影された画像 の情報を背景画像情報として背景画像記憶部に記憶する。 そして、 物体領域抽出 部 1 2は、 画像入力端子 1 1に入力される画像情報と背景画像記憶部に記憶され ている背景画像情報とを画素単位で比較レ画素値の差分を算出して、 算出した差 分が予め決められた閾値以上である画素 (以下、 物体画素という。) を抽出する。 物体領域抽出部 1 2は、 抽出した物体画素のうち互いに隣接する物体画素を全て 選択する。 物体領域抽出部 1 2は、 選択した物体画素同士をつなぎ合わせて領域 を抽出する。 そして、 物体領域抽出部 1 2は、 抽出した領域に領域番号を付与し て物体領域として出力する。
なお、 背景画像記憶部は、 背景画像情報を 1つだけ記憶するのでなく、 複数の 背景画像情報を記憶してもよい。 例えば、 追跡範囲が屋外である場合には、 背景 画像記憶部は、 日中に撮像した背景画像情報(以下、 日中画像という。) と夜間に 撮像した背景画像情報(以下、夜間画像という。) とを記憶し、 日中は日中画像を 用い、 夜間は夜間画像を用いるようにしてもよい。
追跡対象の物体の形状などの特徴が既知である場合には、 物体追跡装置は、 背 景画像記憶部を有するのではなく、 予め物体の形状や色や動作などの情報を物体 モデルの情報として記憶する物体モデル記憶装置を有してもよい。 そして、 物体 領域抽出部 1 2は、 入力された画像情報と物体モデル記憶装置が記憶する物体モ デルとを照合し、 物体モデルに整合する領域を物体領域として抽出してもよい。 特徴量とは、 物体と物体領域とを対応付ける際に用いられる量である。 特徴量 には、 物体領域の特徴量と物体の特徴量との 2種類が存在する。 物体領域の特徴 量は、 各物体領域から求められる特徴量を示し、 物体の特徴量は物体を構成する 物体領域の集合から求められる特徴量を示す。
特徴量生成部 1 4は、例えば、物体領域の色ヒストグラムを算出する。そして、 算出した物体領域の色ヒストグラムを物体領域の特徴量として出力する。 なお、 物体領域の特徴量は、 物体領域の面積であってもよく、 また、 画像テンプレート などでもよい。 また、 面積で正規ィ匕した色ヒストグラムでもよい。 さらに、 色ヒ ストグラム、 面積、 画像テンプレートおよび面積で正規化された色ヒストグラム のうちの 2つ以上の組み合わせであつてもよい。
物体の特徴量は物体を構成する物体領域の集合から求められる特徴量であるか ら、 物体の特徴量も、 色ヒストグラム、 面積、 画像テンプレートおよび面積で正 規ィ匕された色ヒストグラムのレヽずれかまたはそれらの組み合わせで表される。 特徴量生成部 1 4は、 物体領域の特徴量に基づいて物体の特徴量を算出する。 物体領域の特徴量は各物体領域から求められる特徴量であり、 物体の特徴量は物 体を構成する物体領域の集合から求められる特徴量である。 すなわち、 物体が 1 つの物体領域に対応している場合には、 物体の特徴量は、 物体領域の特徴量に基 づいて決定され、 物体が複数の物体領域から構成されている場合には、 物体の特 徴量は、 それらの物体領域の特徴量を合成したものから決定される。
なお、 物体領域抽出部 1 2は、 画像情報から物体領域を抽出して物体領域の画 像情報を含む物体領域情報を出力する物体領域抽出手段の具体的な一例 (具体例) である。 また、 特徴量生成部 1 4は、 領域特徴量および物体特徴量を生成する特 徴量生成手段の具体例であり、 特徴量合成部 1 5は、 複数の物体の必要な全ての 組み合わせについて特徴量を合成して各合成特徴量を生成する特徴量合成手段の 具体例である。
図 3は、 対応付け部 1 7の構成の一例を示すプロック図である。 図 3に示すよ うに、 対応付け部 1 7は、 追跡状態判定部 1 3と対応確定部 1 6とを含む。 追跡 状態判定部 1 3は、 物体と物体領域との対応付けを行って追跡状態を判定する。 対応確定部 1 6は、 物体の追跡状態に基づいて物体と物体領域との対応付けを確 定する。
なお、 追跡状態とは、 他の物体との重なりや分離などの他の物体とのネ目対的な 位置関係を示す状態である。 追跡状態として、 例えば、 物体領域内に 1つの物体 のみが存在する単独状態、 物体領域内に複数の物体が対応する重なり状態、 物体 領域が複数の物体領域に分力ゝれる過渡的な状態である分離状態がある。すなわち、 本実施の形態では、 追跡状態には、 単独状態、 重なり状態および分離状態が含ま れる。 一般に、 重なり状態から分離状態を経て単独状態に遷移する。
また、 追跡状態判定部 1 3は、 他の物体との相対的な位置関係を表す追跡状態 を物体毎または物体領域毎に判定する追跡状態判定手段の具体例である。 また、 対応確定部 1 6は、 物体を含む領域である物体領域の特徴量と合成特徴量との類 似度に基づいて物体領域と物体とを対応付ける対応付け手段、 および現時刻に対 する確定対応情報を出力する対応確定手段の具体例である。
本実施の形態では、 以下に説明するように、 物体の特徴量を用いて物体領域に 対応する特徴量を合成し、 物体と物体領域の対応付けを行うことによって、 合成 しない場合に比べて物体領域中の物体判定の信頼性を高めることができる。また、 特に、 重なり状態が解消された際の物体と物体領域との対応付けにおいて、 複数 の物体の特徴量を合成し、 合成特徴量を用いて分離後の物体領域に複数の物体が 存在した場合の物体と物体領域との特徴量の類似度を求めるので、 分離後の領域 に複数の物体が存在する場合や物体の交差時に物体が入れ替わった場合でも、 物 体と物体領域との対応づけを誤らなレ、。
次に、 図 4のフローチャートを参照して本実施の形態の動作を説明する。 図 4 は、 本発明による物体追跡装置の処理経過の一例を示すフローチヤ一トである。 物体領域抽出部 1 2は、 画像入力端子 1 1を介して画像情報を入力する (ステ ップ S 3 0 1 )。物体領域抽出部 1 2は、入力された画像情報から物体領域を抽出 する (ステップ S 3 0 2 )。 そして、物体領域抽出部 1 2は、物体領域の画像情報 (物体領域画像情報) を含む物体領域情報を出力する。
追跡状態判定部 1 3は、 物体領域抽出部 1 2が出力する物体領域情報を記憶す る。 追跡状態判定部 1 3は、 物体領域抽出部 1 2が出力した現時刻の物体領域情 報と、 追跡状態判定部 1 3自身が記憶する過去の物体領域情報と、 対応確定部 1 6から入力される過去の確定対応情報とに基づいて、 物体を追跡することで物体 と物体領域とを対応付け、 物体と物体領域との追跡状態を物体毎に、 または物体 領域毎に判定する。 なお、 以下、 物体を着目しているときには物体の追跡状態と 表現し、 物体領域に着目しているときには物体領域の追跡状態と表現するが、 物 体と物体領域とが対応付けされている場合には、 それらの表現は実質的に同義で ある。
そして、 追跡状態判定部 1 3は、 第 1の領域対応情報を出力する (ステップ S 3 0 3 )。第 1の領域対応情報は、物体と物体領域との対応関係と、追跡状態とを 示す情報 (物体領域および物体と追跡状態との対応関係を示す情報) である。 ま た、 確定対応情報とは、 対応確定部 1 6によって確定された物体と物体領域との 対応関係を示す情報である。 対応確定部 1 6が物体と物体領域との対応関係を確 定する手順は後述する。
図 5は、第 1の領域対応情報の例を示す説明図である。第 1の領域対応情報は、 例えば、 物体領域情報に α , β , γの 3つの物体領域の画像情報が存在し、 4つ の物体 A, B, C, Dが存在している場合, 図 5 Cに示すような物体領域 α、 β γ と物体 A、 B、 C、 Dとの対応を示すために、 各物体領域に対する物体および追 跡状態との対応関係を示す図 5 Aに示すような情報である。 また、 例えば図 5 B に示すような各物体に対する物体領域および追跡状態との対応関係を示す情報で もよい。
また、物体の追跡は、追跡している物体と物体領域とを対応付けることであり、 例えば過去の物体に対応する物体領域から物体の位置を求め、 物体の位置から最 も近レヽ物体領域を求め、 求められた物体領域と追跡している物体とを対応付ける といった方法で実現できる。 ここで、 例えば物体領域の重心位置を物体の位置と する。 物体と物体領域の対応付け方法については後述する。
特徴量生成部 1 4は、 画像入力端子 1 1を介して入力された画像情報と物体領 域抽出部 1 2から入力された物体領域情報とに基づいて、 物体領域の特徴量を生 成し(ステップ S 3 0 4 )、領域特徴量情報を特徴量合成部 1 5および対応付け 1 7に出力する。 領域特徴量情報とは、 物体領域抽出部 1 2が抽出した各物体領域 の特徴量 (領域特徴量) を示す情報である。 また、 特徴量生成部 1 4は、 追跡状 態判定部 1 3が出力する第 1の領域対応情報とステップ S 3 0 4で生成した物体 領域の特徴量とに基づいて、 物体の特徴量を決定し、 記憶する物体の特徴量を更 新する (ステップ S 3 0 5 )。 そして、特徴量生成部 1 4は、特徴量合成部 1 5か らの要求に応じて物体の特徴量を出力する。
なお、 特徴量生成部 1 4は、 追跡状態判定部 1 3が出力する第 1の領域対応情 報において追跡状態が単独状態である物体の特徴量を更新する。 画像上で物体が 重なり合っている場合には正確な物体の特徴量の算出はできないので、 特徴量生 成部 1 4は、 追跡状態が単独状態以外の状態である場合には、 記憶される特徴量 の更新を行わない。 物体の特徴量の更新は、 例えば、 式 (1 ) に基づいて行われ る。
Figure imgf000024_0001
ここで、 H i nは物体の現在観測された特徴量 (物体を構成する現時刻の 体領 域の集合から求められた特徴量) を示す。 H t , H t_ ! は、 特徴量生成部 1 4が 記憶する物体の特徴量のうち時刻 tと時刻 t一 1とにおいて記憶される物体の特 徴量を示し、 Ht が更新後の物体の特徴量を示す。 また、 ηは物体の特徴量の更 新係数を示す。
特徴量合成部 15は、 特徴量生成部 14に記憶された物体の特徴量と追跡状態 判定部 13が出力する第 1の領域対応情報とに基づいて、 複数の物体の必要な全 ての組み合わせについて物体の特徴量を合成した特徴量 (以下、 合成特徴量とい う。) を算出する (ステップ S 306)。 すなわち、 特徴量合成部 15は、 特徴量 生成部 14が生成する物体の特徴量と第 1の領域対応情報とに基づいて、 組み合 わせが可能な物体と物体領域との全ての組み合わせを決定し、 決定した物体と物 体領域との組み合わせについてのみ合成特徴量 (物体単体の物体特徴量を含む概 念) を生成する。 そして、 特徴量合成部 15は、 算出した合成特徴量を含む合成 特徴量情報を出力する。 合成特徴量情報とは、 算出した合成特徴量と、 合成特徴 量算出のために用いられた物体と合成特徴量との対応関係とを含む情報である。 なお、 特徴量生成部 14は、 特徴量合成部 15の要求に応じて、 記憶している物 体の特徴量を選択し、 選択した物体の特徴量を特徴量合成部 15に出力する。 特 徴量合成部 15は、 第 1の領域対応情報に基づいて、 特徴量生成部 14に要求す る物体の特^ [量を決める。
複数の物体の必要な全ての組み合わせとは、 例えば物体 A, Β, Cが画像上で 重なり合った状態 (すなわち、 重なり状態) になった後、 いくつ力の物体が分離 して 2つの物体領域ひ, に分離した状態 (すなわち、 分離状態) になった場合 には、 物体と物体領域との組み合わせは、 (a, j8) = (ABC, Φ), (Φ, ΑΒ C), (A, BC), (Β, CA), (C, ΑΒ), (BC, A), (CA, Β), (ΑΒ, C)の 8通りの組み合わせが発生しうるので、特徴量合成部 15は、 A, Β, C, ΑΒ, BC, CA, ABCの組み合わせについての物体の合成特徴量を生成する。 なお、 例えば , β) = (AB, C) は、 物体領域 c こ物体 A, Bが存在し、 物体領域 に物体 Cが存在することを示す。 また、 Φは、 対応付けられる物体が ないことを示す。 合成特徴量情報は、 例えば、 ΑΒの合成特徴量と、 算出された ΑΒの合成特徴量に対応付けられる物体は物体 Αおよび物体 Βであることを示す 情報とを含む。 対応確定部 1 6は、 特徴量生成部 1 4が出力する領域特徴量情報と、 特徴量合 成部 1 5が出力する合成特徴量情報と、 追跡状態判定部 1 3が出力する第 1の領 域対応情報とに基づいて、 物体と物体領域との対応関係を確定する (ステップ S 3 0 7 )。 そして、 対応確定部 1 6は、 確定対応情報を出力する。
対応確定部 1 6は、 追跡状態判定部 1 3が出力する第 1の領域対応情報におい て追跡状態が分離状態であることが示されている物体については、 領域特徴量情 報と合成特徴量情報とに基づいて物体と物体領域との対応関係を確定する。また、 第 1の領域対応情報^:おいて追跡状態が分離状態以外であることが示されている 物体については、 追跡状態判定部 1 3が出力する第 1の領域対応情報に含まれる 物体領域との対応関係の情報を、 物体と物体領域との対応関係として確定する。 そして、 対応確定部 1 6は、 確定した物体と物体領域との対応関係の情報を確定 対応情報とする。
追跡状態判定部 1 3は、 物体の追跡状態が、 単独状態、 重なり状態または分離 状態であるかを以下のような方法で判定する。 追跡状態判定部 1 3は、 物体領域 抽出部 1 2からの現時刻の物体領域情報と、 追跡状態判定部 1 3自身が記憶して いる過去の物体領域情報と、 対応確定部 1 6が出力する過去の確定対応情報とに 基づいて、 物体および物体領域を全体としてクラス分けをする。
例えば、 確定対応情報にぉレヽて物体 Aと物体領域 aとが対応付けられている場 合には、 追跡状態判定部 1 3は、 物体 Aと物体領域 α;とをクラス Xにクラス分け をする。 また、 物体 Bと物体領域 ]3とが対応付けられている場合には、 追跡状態 判定部 1 3は、 クラス Xとは別のクラス Yに物体 Bと物体領域 ]3とをクラス分け する。さらに、物体 Aと物体 Bとが物体領域 γにも対応付けられている場合には、 追跡状態判定部 1 3は、 クラス Xに含まれる物体 Αとクラス Υに含まれる物体 Β とが対応付けられているとして、 物体領域 Ύとクラス Xに含まれる全ての要素と クラス Υに含まれる全ての要素とを同じクラスに属させる。 すなわち、 クラス X に、 物体領域 γとクラス Υの要素である物体 Βおよび物体領域 とを属させる。 その結果、 クラス Υは削除され、 クラス Xには、 物体 Α, Βと物体領域 α, β , yとが属することになる。 このように、 1つのクラスでは各物体と各物体領域と が少なくとも 1つの他の物体または他の物体領域と対応付けられているように、 クラス分けを行う。
物体および物体領域のクラス分けを行うと、 追跡状態判定部 13は、 各クラス の要素の数に基づいて、 追跡状態が、 単独状態、 重なり状態または分離状態であ るかを判定する。 クラスの要素中に物体の要素が 1個のみ含まれる場合には、 追 跡状態判定部 13は、 追跡状態を単独状態と判定する。 クラスの要素中に物体の 要素が 2個以上含まれ、 力 、 物体領域の要素が 1個のみ含まれる場合には、 追 跡状態判定部 13は、 追跡状態を重なり状態と判定する。 クラスの要素中に物体 の要素が 2個以上含まれ、 つ、 物体領域の要素が 2個以上含まれている場合に は、 追跡状態判定部 13は、 追跡状態を分離状態と判定する。
次に、特徴量の合成から領域と物体の選択までの一連の処理にっレヽて説明する。 対応確定部 16は、 物体と物体領域との全ての組み合わせにつレヽて組み合わせ類 似度を算出する。 そして、 対応確定部 16は、 組み合わせ類似度が最も高い物体 と物体領域との組み合わせを選択する。 選択された組み合わせが、 物体と物体領 域との対応付けである。 ここで、 組み合わせ類似度とは、 組み合わせを構成する 物体と物体領域との組の類似度から得られる、 組み合わせの妥当性を示す指標で ある。 組み合わせ類似度が高いと、 組み合わせが妥当であり、 組み合わせを構成 する物体と物体領域との組が類似していることを示す。 なお、 ここでは、 組み合 わせ類似度として、 それぞれの組み合わせにおける物体領域の特徴量と合成特徴 量との類似度の合計である合計類似度を使用するが、 組み合わせ類似度は、 類似 度の合計に限られない。
例えば、物体 A, B, Cが重なった後に分離した場合には、 , β) = (ΑΒ C, Φ), (Φ, ABC), (A, BC), (B, CA), (C, AB), (BC, A), (C A, B), (AB, C) の 8通りの物体と物体領域との組み合わせについて、 物体 領域の特徴量と合成特徴量とから組み合わせ類似度を算出する。 そして、 対応確 定部 16は、 算出した組み合わせ類似度が最も大きくなる場合の物体と物体領域 との組み合わせを最適な対応付けとする。
例えば、 物体領域 に対応しうる物体が Aおよび Bで、 物体領域 j8に対応しう る物体が A、 Bおよび Cの場合のように、 物体 Cと物体領域 αが対応付かないの が明らかな場合には、対応確定部 16は、 (ひ, ]3) = (AB, C), (Φ, ABC), (A, BC), (B, CA) の 4通りの組み合わせについてのみ組み合わせ類似度 を算出してもよい。 そうすることにより、 対応確定部 1 6は、 類似度の算出の計 算量を削減することができる。
組み合わせ類似度を算出するために、 対応確定部 1 6は、 物体の合成特徴量と 物体領域の特徴量との距離(以下、特徴量間の距離という。) を算出し、特徴量間 の距離から組み合わせの距離を算出する。 対応確定部 1 6は、 算出した組み合わ せの距離が小さい場合には組み合わせ類似度が高いと判定し、 算出した組み合わ せの距離が大きレ、場合には組み合わせ類似度が低!/、と判定する。 組み合わせの距 離は例えば特徴量間の距離の和とし、 式 (2) のように算出される。
Figure imgf000028_0001
ここで、 iは物体領域の番号、 kは物体と物体領域との組み合わせ番号、 Hri は i番目の物体領域の特徴量、 Hgk iは k番目の組み合わせにおける i番目の物 体領域に対応させる物体の合成特徴量を示す。 D kは k番目の組み合わせにおけ る組み合わせの距離を示す。
上記の (α, β) = (ABC, Φ), (Φ, ABC), (A, BC), (B, CA),
(C, AB), (BC, A), (CA, B), (AB, C) の 8通りの物体と物体領域 との組み合わせの場合には、 2であり、 k = l〜8である。 すなわち、 対応確定部 1 6は、 全ての可能な組み合わせ (この例では 8通りの組み合わせ) について物体領域と物体との各組 ((α, β) = (A, BC) を例にすると、 ひと Aとカゝらなる組と、 と BCとからなる組) の特徴量間の距離から組み合わせの 距離 (Dk) を求めて ( , β) = (A, BC) の組み合わせを例にすると、 ひ と Aの距離と、 j3と B Cの距離との合計)、全ての可能な組み合わせのうち、組み 合わせの距離が最小となる組み合わせを最も類似した組み合わせとする。
特徴量合成部 1 '5は、 任意の合成比率 εに応じて合成特徴量を算出することが 好ましい。 そして、 対応確定部 1 6は、 合成比率 εに応じて算出された合成特徴 量に基づレ、て組み合わせ類似度を算出して、 最適な物体と物体領域との組み合わ せを選択する。 合成比率 £.とは、 物体領塽に含まれる各物体の特徴量の割合を捕 正するための係数である。 例えば、 物体間でカメラからの距離が異なるために画 像上での見かけ上の物体の大きさが異なる場合がある。 この場合に、 単純に物体 の特徴量を合計して合成特徴量を算出すると、 算出した合成特徴量が現実の物体 領域の特徴量と異なるので、 対応確定部 1 6は、 正しく物体と物体領域との対応 付けを確定できない。 特徴量合成部 1 5が所定の合成比率 εに応じて合成特徴量 を算出することによって、 対応確定部 1 6は、 物体と物体領域との誤った対応付 けを確定するのを防止できる。
例えば、 物体 A , Βの 2つの物体の特徴量を合成する場合には、 特徴量合成部 1 5は、式(3 )に基づいて合成特徴量を生成する。そして、対応確定部 1 6は、 式 (4 ) に基づいて、 組み合わせの距離を算出する。 g(e) = (l -e)HA +s B (θ <ε <U … )
Figure imgf000029_0001
特徴量合成部 1 5は、 合成比率 εを 0から 1まで変ィ匕させて (例えば、 合成比 率を 0から 1まで 0 . 1間隔に変化させて)、変化させた全ての合成比率 εの値に 基づいて合成特徴量を算出する。 対応確定部 1 6は、 物体領域の特徴量と物体の 合成特徴量との特徴量間の距離が最小となる合成特徴量を選択する。 そして、 対 応確定部 1 6は、 選択した合成特徴量に基づいて式 (4 ) のように組み合わせの 距離を算出し、 組み合わせの距離が最も小さくなる場合の物体と物体領域との組 み合わせを最適な対応付けとする。
なお、 本例では、 対応確定部 1 6は、 L 2ノルムに基づいて特徴量間の距離を 算出したが、 類似度の算出ができる計算手法であれば、 他の距離尺度に基づいて 特徴量間の距離を算出してもよい。 L 2ノルムとは、 式 (2 ) および式 (4 ) に 示される差分二乗和によって算出される距離尺度をいう。
以上のように、 本発明による物体追跡装置は、 重なり状態の物体の合成特徴量 を算出して、 物体領域の特徴量と合成特徴量との類似度を算出し、 算出した類似 度に基づいて物体と物体領域の対応付けを行うことによって、 複数の物体が交差 した後に分離してもなお複数の物体の組が存在する場合や、 交差の前後にぉレ、て 交差する物体の組み合わせが入れ替わつた場合でも、 追跡対象の物体の追跡を継 続することができる。
また、 本発明による物体追跡装置は、 物体と物体領域との全ての組み合わせに っレヽて物体領域の特徴量と合成特徴量との類似度を算出して、 算出した類似度に 基づレヽて最適な物体と物体領域との組み合わせを選択するので、 追跡対象の物体 と追跡対象の物体が存在する領域とを対応付ける際に、 物体全体として最適な対 応付けを選択できる。
次に、 追跡状態判定部 1 3、 特徴量生成部 1 4および対応確定部 1 6の詳細な 構成について説明する。 まず、 追跡状態判定部 1 3の構成を説明する。 図 6は、 追跡状態判定部 1 3の構成の一例を示すブロック図である。 図 6に示す例では、 追跡状態判定部 1 3は、 物体追跡部 1 3 1、 状態判定部 1 3 2および物体領域情 報記憶部 1 3 3を含む。
なお、 物体追跡部 1 3 1は、 物体領域情報、 確定対応情報、 および物体領域記 憶手段から出力される過去の物体領域情報とから物体を追跡して物体と物体領域 との対応を示す第 2の領域対応情報を出力する物体追跡手段の具体例である。 ま た、 物体領域情報記憶部 1 3 3は、 物体領域情報と第 1の領域対応情報とを記憶 する物体領域記憶手段の具体例であり、 状態判定部 1 3 2は、 第 2の領域対応情 報、 物体領域情報および過去の物体領域情報とから物体の追跡状態を判定し、 第 1の領域対応情報を出力する状態判定手段の具体例である。
物体追跡部 1 3 1は、 物体領域抽出部 1 2が出力する現時刻の物体領域情報、 物体領域情報記憶部 1 3 3が記憶する過去の物体領域情報、 および対応確定部 1 6が出力する過去の確定対応情報に基づいて物体を追跡し物体と物体領域とを対 応付ける。 そして、 物体追跡部 1 3 1は、 第 2の領域対応情報を生成して、 生成 した第 2の領域対応情報を状態判定部 1 3 2に出力する。
第 2の領域対応情報とは、 物体と物体領域の対応関係を示す情報である。 第 2 の領域対応情報は、 第 1の領域対応情報と異なり追跡状態の情報が含まれない。 図 7は、 第 2の領域対応情報の例を示す説明図である。 第 2の領域対応情報は、 例えば、 物体領域情 こひ, β , γの 3つの物体領域の画像情報が存在し、 過去 の確定対応情報として 4つの物体 A, Β, C, Dが存在していることを認識した場合 には, 図 7 Cに示すような物体領域 α、 ]3、 γと物体 A、 B、 C、 Dとの対応を 示すために、各物体領域と物体の対応関係を示す図 7 Aに示すような情報である。 また、 例えば図 7 Bに示すような各物体と物体領域との対応関係を示す情報でも よい。
状態判定部 1 3 2は、 物体領域抽出部 1 2が出力した物体領域情報と物体追跡 部 1 3 1が出力した第 2の領域対応情報とに基づいて、 物体の追跡状態の判定を 行う。 そして、 状態判定部 1 3 2は、 第 2の領域対応情報と判定結果とに基づい て第 1の領域対応情報を出力する。
物体領域情報記憶部 1 3 3は、 物体領域抽出部 1 2が出力する物体領域情報を 記憶する。 物体領域情報記憶部 1 3 3が記憶する物体領域情報は、 次時刻におい て第 2の領域対応情報の生成に用いられる過去の物体領域情報となる。
図 8は、 特徴量生成部 1 4の構成の一例を示すプロック図である。 図 8に示す 例では、 特徴量生成部 1 4は、 特 ί敫量抽出部 1 4 1、 特徴量更新部 1 4 2および 特徴量記憶部 1 4 3を含む。
なお、 特徴量抽出部 1 4 1は、 画像情報と物体領域情報と第 1の領域対応情報 とから領域特徴量を抽出し領域特徴量を含む情報である領域特徴量情報を出力す る特徴量抽出手段の具体例である。 また、 特徴量記憶部 1 4 3は、 要求に応じて 記憶する物体特徴量を選択して出力する特徴量記憶手段の具体例であり、 特徴量 更新部 1 4 2は、 領域特徴量情報、 第 1の領域対応情報および現時刻より以前に 生成した物体特徴量とから、 特徴量記憶手段が記憶する物体特徴量を更新する特 徴量更新手段の具体例である。
特徴量抽出部 1 4 1は、 画像入力端子 1 1を介して入力された画像情報と物体 領域抽出部 1 2が出力した物体領域情報とに基づレヽて各物体領域の特徴量を算出 する。 そして、 特徴量抽出部 1 4 1は、 算出した物体領域の特徴量を含む領域特 徴量情報を出力する。 出力された領域特徴量情報は、 特徴量更新部 1 4 2と対応 確定部 1 6とに入力される。
特徴量更新部 1 4 2は、 第 1の領域対応情報において追跡状態が単独状態であ ることが示されている物体については、 特徴量抽出部 1 4 1が出力した領域特徴 量情報に基づいて特徴量記憶部 1 4 3に記憶される特徴量を更新する。 特徴量更 新部 1 4 2は、 第 1の領域対応情報において追跡状態が単独状態以外の状態が示 されている物体については、 特徴量記憶部 1 4 3に記憶される特徴量を更新しな い。 特徴量記憶部 1 4 3が記憶する物体の特徴量は、 特徴量合成部 1 5が合成特 徴量を生成するために用いられる。すなわち、特徴量合成部 1 5の要求に応じて、 記憶している物体の特徴量を選択し、 選択した物体の特徴量を特徴量合成部 1 5 に出力する。
図 9は、 対応確定部 1 6の構成の一例を示すプロック図である。 図 9に示す例 では、 対応確定部 1 6は、 対応計算部 1 6 1および対応決定部 1 6 2を含む。 なお、 対応計算部 1 6 1は、 物体と物体領域との最適な対応関係を示す最適対 応情報を生成する対応計算手段の具体例である。 また、 対応決定部 1 6 2は、 確 定した物体と物体領域との対応関係を含む情報である確定対応情報を出力する対 応決定手段の具体例である。
対応計算部 1 6 1は、 特徴量生成部 1 4が出力した領域特徴量情報、 特徴量合 成部 1 5が出力した合成特徴量情報、 および追跡状態判定部 1 3が出力した第 1 の領域対応情報に基づレ、て、 物体と物体領域との組み合わせのうち対応付けられ る可能性のある全ての組み合わせについて、 物体領域の特徴量と合成特徴量との 類似度を算出し、 組み合わせ類似度を算出する。 そして、 対応計算部 1 6 1は、 組み合わせ類似度が最も大きくなる物体と物体領域との組み合わせを最適な対応 付けとして選択して、 最適対応情報を生成し、 最適対応情報を出力する。 なお、 最適対応情報とは、 物体と物体領域との最適な対応関係 (組み合わせ類似度が最 も大きくなる場合の物体と物体領域との組み合わせ) を示す情報である。
対応決定部 1 6 2は、 追跡状態判定部 1 3が出力した第 1の領域対応情報にお いて追跡状態が分離状態であることが示されている物体については、 対応計算部 1 6 1が出力した最適対応情報に含まれる物体領域との対応関係の情報を.、 この 物体と物体領域との対応関係の情報として確定する。 分離状態以外の状態である ことが示されている物体については、 対応決定部 1 6 2は、 追跡状態判定部 1 3 が出力した第 1の領域対応情報に含まれる物体領域との対応関係の情報を、 この 物体と物体領域との対応関係の情報として確定する。
また、 対応決定部 1 6 2は、 第 1の領域対応情報に含まれる物体の情報と、 確 定した物体と物体領域との対応付けの情報とを比較し、 第 1の領域対応情報に含 まれるレ、ずれの物体とも対応付けられなレ、未対応物体領域が発生した場合には、 新しい物体を生成し未対応物体領域と対応付ける。そして、対応決定部 1 6 2は、 確定された物体と物体領域との対応関係の情報を確定対応情報として出力する。 例えば、 物体領域 αに A, Βの 2つの物体が完全に重なった状態で存在してい たために、 物体追跡装置は、 物体領域 αに 1つの物体 Αの存在し力認識できなか つた場合がある。 この場合に、 物体 Aと物体 Bとが分離状態に遷移すると、 物体 領域 αから未対応物体領域としての新たな物体領域 が分離する。 しカゝし、 物体 追跡装置は、 物体 Βの存在を認識していないため、 いずれの物体にも対応付けら れない物体領域 が発生することになる。 従って、 対応決定部 1 6 2は、 新たに 物体 Βを生成して、 物体 Βを物体領域 ]3に対応付ける。
なお、 図 2、 図 3、 図 6、 図 8およぴ図 9に示された構成は、 ソフトウェアに よって実現可能である。 すなわち、 本実施の形態では、 コンピュータに、 画像情 報を入力する画像入力処理と、 入力された画像情報から物体領域を抽出して物体 領域の画像情報を含む物体領域情報を出力する物体領域抽出処理と、 物体領域情 報と、 現時刻以前の物体領域と物体との対応関係を示す確定対応情報とから、 追 跡状態を物体毎または物体領域毎に判定し、 物体領域および物体と追跡状態との 対応関係を示す第 1の領域対応情報を出力する追跡状態判定処理と、 画像情報、 物体領域情報および追跡状態判定手段の判定結果を用いて、 物体領域の特徴量を 示す領域特徴量および物体の特徴量を示す物体特 ί敷量を生成する特徴量生成処理 と、 物体特徴量と第 1の領域対応情報とから、 複数の物体の必要な全ての組み合 わせにっレヽて特徴量を合成して各合成特徴量を生成し、 合成特徴量およぴ合成特 徴量生成のために用いられた物体と合成特徴量との対応関係を含む情報である合 成特徴量情報を出力する特徴量合成処理と、物体領域情報、第 1の領域対応情報、 領域特徴量情報および合成特徴量情報から物体と物体領域とを対応付け、 現時刻 に対する確定対応情^を出力する対応確定処理とを実行させるための物体追跡プ ログラムによつて物体追跡装置を実現することが可能である。
(変形例 1 )
追跡状態判定部 1 3は、 以下に述べる判定方法に基づいて物体の追跡状態を判 定してもよい。 例えば、 始めに物体が重なっていたために物体領域に一つの物体 のみ対応付けられている場合には追跡状態は単独状態であると判定される。 その 状態から物体領域が複数に分力れた際に物体は一つであるために重なり状態から 分離状態に遷移したとは判定されず、 単独状態のままであると判定される可能性 がある。 単独状態の物体から複数の物体が分離することに対処するために、 追跡 状態判定部 1 3は、 クラスに含まれる物体の要素が 1つであってもクラスに物体 領域の要素が 2個以上含まれる場合には、追跡状態を分離状態と判定してもよい。 上記の実施の形態では、 物体領域抽出部 1 2力 物体領域を抽出する方法とし て、 画像入力端子 1 1を介して入力された画像情報と予め撮像した背景画像情報 との画素値の差分を算出する例を示した。 画素値の差分を算出する際に、 物体が 背景と類似した特徴 (例えば、 物体の色と背景の色が類似している場合) を持つ などの原因によって、.物体領域抽出部 1 2力 正しく物体領域の抽出が行えない 場合がある。 物体領域の抽出が正しく行えない場合には、 追跡状態判定部 1 3の 状態判定部 1 3 2は、 追跡状態が分離状態に遷移したと誤って判断する可能性が ある。 このような場合に正しく物体領域の抽出をおこなうために、 状態判定部 1 3 2は、 物体領域間の空間的な距離を用いて対処すればよい。
すなわち、状態判定部 1 3 2は、物体および物体領域のクラス分けをする際に、 物体領域聞の距離がある閾値以下である物体領域にっレヽては、 それらの物体領域 と各物体領域に対応付けられる物体とを全て同じクラスにクラス分けする。 例え ば、 物体 A, Bと物体領域 , ]3とがある場合に、 物体領域 と物体 Aとが対応 付けられ、 物体領域 |3と物体 Bとが対応付けられている場合を考える。 上記の実 施の形態で示された方法では、 状態判定部 1 3 2は、 物体領域 αと物体 Aとが属 するクラスと、物体領域 と物体 Bとが属するクラスと 2つのクラスを生成する。 これに対して、 物体領域 αと物体領域; δとの間の距離が予め決められた閾値以下 である場合には、 状態判定部 1 3 2は、 物体領域ひ, ]3と物体 A, Βとを全てま とめて 1つのクラスとしてもよい。
まとめて 1つのクラスにすることにより、 状態判定部 1 3 2は、 追跡状態を判 定する際に、 物体が 2個以上含まれるクラスにおいて物体領域が 2個以上に分離 しても物体領域間の距離が閾値以下の場合には、 追跡状態は重なり状態のまま変 化しないと判定することができる。 そして、 状態判定部 1 3 2は、 物体領域間の 距離が閾値を超えた時点で、 追跡状態は分離状態であると判定する。
(変形例 2 )
さらに、 状態判定部 1 3 2は、 物体領域の分離中継続期間に基づいて物体領域 が一部偶然に分離する場合に対処するようにしてもよい。 分離中継続期間とは、 以前は 1つであった物体領域が分離するときに, 分離した物体領域間の距離があ る閾値(0でもよい。)以上であるときに物体領域が分離可能な状態とした場合の、 物体領域が分離可能な状態の継続時間を示す。 この場合、 状態判定部 1 3 2は、 クラス分けをする際に、 分離中継続時間がある閾値未満の物体領域および物体領 域に対応する物体を同じクラスに属させ、以前の追跡状態を維持するようにする。 そして、 状態判定部 1 3 2は、 分離中継続期間が閾値を超えた場合には、 追跡状 態を分離状態と判定する。
分離中継続期間は、.以下のように更新されて記憶される。 分離中継続期間は、 物体領域情報記憶部 1 3 3に記憶される。 物体追跡部 1 3 1は、 物体領域情報記 憶部 1 3 3が記憶する分離中継続期間を取得し、 各物体領域に分離中継続期間を 対応付け、 新たな分離中継続期間を算出する。 そして、 物体追跡部 1 3 1は、 物 体領域情報記憶部 1 3 3が記憶する分離中継続期間を更新する。
物体追跡部 1 3 1は、 以下のように物体領域と分離中継続期間との対応付けを 行う。 物体追跡部 1 3 1は、 物体領域抽出部 1 2が出力する物体領域情報に含ま れる現時刻の物体領域と対応確定部 1 6が出力する過去の確定対応情報とに基づ いて、 現在の物体領域と過去の物体領域との対応付けを行う。 そして、 物体追跡 部 1 3 1は、 物体領域情報記憶部 1 3 3が記憶する過去の物体領域に対応する分 離中継続期間を当該過去の物体領域に対応する現在の物体領域に対応付ける。 対 応付けられた分離中継続期間が複数ある場合には、 物体追跡部 1 3 1は、 複数あ る分離中継続期間のうち最大の分離中継続期間を物体領域に対応付ける。 なお、 物体追跡部 1 3 1は、 複数ある分離中継続期間のうち最小の分離中継続期間を現 在の物体領域に対応付けてもよい。 また、 物体追跡部 1 3 1は、 分離中継続期間 の平均時間を算出して、算出した平均時間を現在の物体領域に対応付けてもよレ、。 状態判定部 1 3 2は、 物体領域情報記憶部 1 3 3から分離中継続期間を取得す る。 また、 状態判定部 1 3 2は、 物体領域の追跡状態を判定する。 そして、 状態 判定部 1 3 2は、 判定結果に基づいて物体領域情報記憶部 1 3 3が記憶する分離 中継続期間を更新する。 例えば、 状態判定部 1 3 2は、 物体領域の追跡状態が分 離可能な状態であると判定した場合には、 物体領域情報記憶部 1 3 3が記憶する 分離中継続期間を当該分離中継続期間と現在の時刻とに基づいて更新する。また、 状態判定部 1 3 2は、 物体領域の追跡状態が分離可能な状態でない場合には、 分 離中継続期間をリセットする。 また、 分離中継続期間を記憶する代わりに分離が 開始した時刻を示す分離開始時刻を記憶してもよい。 このとき、 分離中継続期間 は現在の時刻と分離開始時刻との差をとることにより求めることができる。
また、 物体追跡部 1 3 1は、 分離中継続期間を物体領域情報記憶部 1 3 3に記 憶するのでなく、分離中継続期間を含んだ第 2の領域対応情報を生成してもよレ、。 このとき、 状態判定部 1 3 2は分離中継続時間を第 2の領域対応情報から取得す る。 このように、 物体領域情報記憶部 1 3 3を介さずに物体追跡部 1 3 1カ ら状 態判定部 1 3 2へ分離中継続時間を直接的に送受信することで、 物体領域情報記 憶部 1 3 3の処理を削減できるという利点がある。
なお、 第 1の実施の形態、 変形例 1および変形例 2の方法を組み合わせて使用 してもよい。 すなわち、 物体と物体領域との対応、 物体領域間の距離、 物体領域 の分離中の継続時間の組み合わせに基づレ、て、 対応する物体領域に共通の領域が 存在する物体同士をまとめ、 これらの物体と対応する物体領域を 1つのクラスに 分類するようにしてもよい。 また、 分類したクラスが分離状態である条件を満た し、 さらに、 クラスに 2以上の物体が含まれること、 クラスに含まれる物体領域 間の距離が予め決められた閾値以上であること、 およびクラスに含まれる物体領 域の分離中の継続時間が予め決められた閾値以上であることのうちのいずれかま たはそれらの組み合わせを満たす場合に、 クラスに含まれる物体おょぴ物体領域 の追跡状態を分離状態と判定するようにしてもよい。
(変形例 3 )
物体追跡装置は、 以下のような方法によって、 物体の特徴量の合成を行って、 物体と物体領域との対応付けを行ってもよい。 すなわち、 特徴量合成部 1 5は、 特徴量生成部 1 4から物体の特徴量だけでなく領域特徴量情報も取得する。 特徴 量合成部 1 5は、 特徴量生成部 1 4が出力する領域特徴量情報と物体の特徴量と に基づいて任意の合成比率 Eに応じて合成特徴量を算出する。 そして、 特徴量合 成部 15は、 算出した合成特徴量と領域特徴量情報に含まれる物体領域の特徴量 との類似度が最も高くなる場合の合成比率 εに応じた合成特徴量を出力する。 対 応確定部 16は、 出力された合成特徴量に基づいて物体と物体領域との各組み合 わせの物体領域の特徴量と合成特徴量との類似度を算出し、 組み合わせ類似度を ^出 Γ·ο。
特徴量生成部 14が物体と物体領域との類似度が最も高くなる合成比率 εに応 じた合成特徴量を出力することによって、 対応確定部 16は、 物体と物体領域と の各組み合わせに対して ;Lつの合成特徴量のみに基づいて類似度を算出すればよ レ、。 従って、 対応確定部 16は、 無駄な算出処理を省くことができる。
(変形例 4)
また、 物体追跡装置は、 以下のような方法によって、 特徴量の合成を行い物体 と物体領域との対応付けを行ってもよい。 すなわち、 特徴量合成部 15は、 特徴 量生成部 14から物体の特徴量だけでなく領域特徴量情報も取得し、 式 (5) 〜 (7) に従って距離を最小にする合成比率 εの値を算出する。 式 (5) は、 特徴 量生成部 14が出力した領域特徴量情報と物体の特徴量とに基づいて、 物体の特 徴量と物体領域の特徴量との距離 f (ε) を算出する式である。 特徴量合成部 1 5は、 式 (6) と式 (7) とに示すように、 距離 f (ε) を合成比率 εで偏微分 した式が 「0」 となる場合の合成比率 εの値を算出する。 すなわち、 特徴量合成 部 15は、 距離 f (ε) が最小となる合成比率 εを算出する。 特徴量合成部 15 は、 算出した合成比率 εに基づいて、 式 (3) によって合成特徴量を生成する。 そして、対応確定部 16は、生成された合成特徴量に基づレヽて類似度を算出する。 なお、 ここでは、 物体 A, Βについての合成特徴量を例にする。
/(ε) + xn-an
Figure imgf000037_0001
.... (5)
Figure imgf000037_0002
3010837
e = ^ ~ r ... (7)
Λ一 ")
η
ここで、 Hgki は物体 Aの特徴量 HAと物体 Bの特徴量 HBとの合成特徴量、 H riは物体領域の特徴量を示す。 また、 例えば特徴量が色ヒストグラムで、 色ヒス トグラムの階級 (ビン) の数が n個である場合には、 特徴量 HA, HB
Hr;, Hgkiはそれぞれ η次元ベクトルであり、 HA= (aい a 2,...
, a n), HB= (b 1; b 2, ... , b n), Hrs= (χい % 2. · ·
., % n). Hgk j = (% k l, % k 2> · · · . % kn) と表? れる。
式 (7) によって算出された合成比率 εが 0未満である力、 または 1より大き な値となった場合には、 0または 1のうち式 (7) によって算出された合成比率 εの値に近い値を選択して合成比率 εの値とする。 特徴量合成部 15は、 算出し た合成比率 εに基づいて合成特徴量を生成する。 対応確定部 16は、 生成された 合成特徴量に基づいて、 式 (2) に示す組み合わせの距離を求め、 組み合わせの 距離を最小化する物体と物体領域との組み合わせを、 最適な対応付けとして確定 する。
式 (5), (6), (7) を用いることにより、 特徴量合成部 15は、 特定の合成 比率 εに対してのみ合成特徴量を生成すればよい。 従って、 様々な合成比率 εに 対して合成特徴量を生成する場合と比較して、 類似度の算出のための計算量を削 減することができる。 なお、 特徴量合成部 15は、 物体が 3つ以上重なった場合 にも、 上述した方法と同様の方法で合成特徴量を生成できる。 また、 ここでは、 特徴量合成部 15は、 特徴量間の距離尺度として L 2ノルムを用いたが、 他の距 離尺度を用いてもよい。
また、 物体追跡装置は、 以下のような方法によって、 特徴量の合成を行い領域 と物体との選択を行うものであってもよレ、。 すなわち、 特徴量合成部 15は、 物 体の面積比を合成比率として用いて合成特徴量を生成する。 そして、 対応確定部 16は、 生成された合成特徴量に基づいて類似度を算出する。 この方法は、 物体 の重なり時の特徴量の合成比率は、 物体と物体との面積の比にほぼ等しいという 事実に基づく方法である。 物体の面積比を合成比率とすることにより、 特徴量合 成部 15は、 合成比率の算出のための計算を削減することができる。 合成特徴量 は、 式 (8) によって算出される。
Figure imgf000039_0001
HA, HBは、 それぞれ物体 A, Bの特徴量を示す。 SA, SBは、 それぞれ物体 A, Bの画像情報上での面積を示す。 また、 Hgは合成特徴量である。 対応確定 部 16は、生成された合成特徴量 Hg を用いて、式(2)に示す距離の和を求め、 距離の和を最小化する物体と物体領域との組み合わせを最適な対応付けとして確 定する。
例えば、 特徴量生成部 14は、 物体領域の画像に含まれる画素数を物体の面積 とし、 その面積を物体の特徴量に加えたものを、 他の物体の特徴量と同様に生成 する。 そして、 特徴量生成部 14の特徴量記憶部 143は、 面積を加えた特徴量 を記憶し、 第 1の領域対応情報において追跡状態が重なり状態以外の状態を示し ている場合に、 面積を加えた特徴量を更新する。
さらに、 物体追跡装置は、 以下のような方法によって、 特徴量の合成を行い物 体と物体領域との対応付けを行ってもよい。 すなわち、 重なっている物体のそれ ぞれの面積が S 1から S 2の範囲で変化する可能性があるとし、 特徴量合成部 1 5は、 その変化範囲内で式 (9) によって合成特徴量を生成する。 式 (9) は、 物体 Aの特徴量と物体 Bの特徴量との合成特徴量を算出する式である。 そして、 対応確定部 16は、 式 (10) によって、 生成された合成特徴量のうち領域特徴 量との類似度が最も高くなる合成特徴量に基づ!/ヽて物体と物体領域との類似度を 算出し、 組み合わせ類似度を算出する。
Hg(As) = ^ -HA+^ -HB (sl≤^≤s2) ... (9) =〉 mia(Hri-Hgi(As)f ... (10)
i
Δ Sは、 物体 Aと物体 Bとが重なる直前からの物体 Aの面積の変化量を示す。 物体の面積の変化量を考慮した合成特徴量を算出することにより、 物体の面積に 多少変化があった場合にも、 特徴量合成部 15は、 実際とはかけはなれた合成比 率を選択することを回避することができ、 正しい合成比率に基づいて合成特徴量 を生成することができる。 その結果、 対応確定部 1 6は、 最適な物体と物体領域 との対応付けを確定することができる。
(変形例 5 )
また、 特徴量合成部 1 5は、 特徴量生成部 1 4から物体の特徴量だけでなく領 域特徴量情報も取得して、 特徴量生成部 1 4から入力された領域特徴量情報と物 体の特徴量とから、 面積変化の範囲内で合成特徴量を生成し、 物体領域との類似 度が最も高くなる合成特徴量を出力し、 対応確定部 1 6が合成特徴量に基づいて 物体と物体領域との各組み合わせの組み合わせ類似度を求めるようにしてもよレ、。 すなわち、 合成比率 εを、 物体の面積の変ィ匕に基づく所定範囲内に制限してもよ い。 そのようにしても、 特徴量合成部 1 5は、 物体の各組み合わせに対して 1つ の合成特徴量を出力するだけでよく、 様々な合成比率 εに対して合成特徴量を生 成する場合に比べて、 無駄な処理を省くことができる。
(変形例 6 )
また、 特徴量合成部 1 5は、 物体のテンプレートを特徴量として用いて、 合成 特徴量を求めてもよい。 ここで、 テンプレートとは、 画像中から物体に相当する 部分を抽出して得られる部分画像であり、 物体の形状や色を記述されたものに相 当する。 テンプレートは、 物体と物体領域との対応関係に基づいて画像中の物体 に相当する領域を抽出することによって生成される。 また、 標準顔画像などのよ うに、 予めモデルィヒされた画像がテンプレートとして用いられてもよい。
例えば、 2つの物体が 1つの物体領域にある場合には、 特徴量合成部 1 5は、 テンプレートを物体領域内で走査させて、 物体領域内の各位置におけるテンプレ ートと物体領域との類似度を算出する。 特徴量合成部 1 5は、 類似度が最大とな る位置を求める。 特徴量合成部 1 5は、 式 (1 1 ) と式 (1 2 ) とによって類似 度を算出する。 (な, ) - R(x, y)f , . . ( 1 1 )
Figure imgf000040_0001
dx == min dt (a, b) ( 1 2 ) (x, y) は i番目のテンプレートの座標を示し、 R (x, y) は物体領 域の座標を示す。 また、 Hi;は i番目のテンプレート (x, y) の領域全体を 示す。 特徴量合成部 1 5は、 式 (1 1) に示すように、 テンプレートと物体領域 との画素値の差分二乗和を特徴量間の距離として算出する。 そして、 式 (1 2) に示すように、 特徴量間の距離が最小となる場合をテンプレートと物体領域との 類似度が最大であると判定する。 また、 特徴量合成部 1 5は、 テンプレートと物 体領域との類似度が最大となる位置 (a, b) を物体の位置とする。
次に、 特徴量合成部 1 5は、 テンプレートと物体領域との類似度に基づいて、 重なっている物体の前後関係を判定する。 特徴量合成部 1 5は、 物体領域との類 似度の高いテンプレートが物体領域との類似度の低いテンプレートを遮蔽してい ると判定する。 そして、 特徴量合成部 1 5は、 テンプレートを合成することによ つて合成特徴量に相当する合成テンプレートを生成する。 このように、 特徴量合 成部 1 5は、 画像テンプレートと物体領域の特徴量とから各物体の前後関係を判 定し、 判定した各物体の前後関係に基づいて画像テンプレートを合成して合成特 徴量を得るようにしてもよい。
また、 特徴量合成部 1 5は、 物体領域との類似度の最大値が最大であるテンプ レートを選択し、 選択されたテンプレートが選択されないテンプレートを遮蔽し ていると判定してもよい。 このとき、 物体領域と選択されたテンプレート (類似 度が最大となる場合のテンプレート) とが重複する領域を物体領域から除外し、 残った物体領域と選択されなかつたテンプレートとに基づレヽて、 テンプレートと 物体領域との類似度の算出、 類似度が最大となるテンプレートの選択、 類似度が 最大となる場合のテンプレートの位置の算出、 および遮蔽の判定を繰り返し行つ てもよい。
図 10は、 テンプレートを用いて合成特徴量を生成する概念を示した説明図で ある。 図 10 Aに示すように、 特徴量合成部 1 5は、 物体領域 においてテンプ レート Aとテンプレート Bとを走查する。 テンプレート Bと物体領域 aとの類似 度の最大値がテンプレート Aと物体領域 aとの類似度の最大値より大きくなるの で、 特徴量合成部 1 5は、 テンプレート Bがテンプレート A¾r遮蔽していると判 断できる。 図 10 Βに示すように、 特徴量合成部 1 5は、 物体領域との類似度が 最大となるそれぞれの位置でテンプレート Aとテンプレート Bとを合成して、 合 成テンプレート Xを生成する。 合成テンプレート Xを生成する際に、 特徴量合成 部 1 5は、 テンプレート Aとテンプレート Bとが重なっている部分については、 テンプレート Bの値を用いて合成を行う。 なお、 (a 1 , b 1 ) がテンプレート A と物体領域との類似度が最大となる位置であり、 (a 2 , b 2 ) がテンプレート B と物体領域との類似度が最大となる位置である。
対応確定部 1 6は、合成テンプレート内の色ヒストグラムに基づいて、式(2 ) によって物体領域の特徴量と合成特徴量との類似度を算出し、 組み合わせ類似度 を算出することができる。 また、 対応確定部 1 6は、 式 (1 2 ) と同様に、 物体 領域と合成テンプレートとを照合することによつて物体領域の特徴量と合成特徴 量との類似度を算出し、 組み合わせ類似度を算出してもよレ、。 テンプレートを用 いることにより、 物体が他の物体の背後に部分的に隠れている場合でも、 物体と 物体領域の対応関係を正しく算出することができる。
(変形例 7 )
また、 上述した各方法において、 物体と物体領域との対応付けを行う際に、 対 応確定部 1 6は、組み合わせ類似度が低い場合にも強制的に対応付けを行うので、 物体と物体領域との対応付けが正しく行われない場合がある。 そこで、 対応確定 部 1 6は、 最適な組み合わせの組み合わせ類似度 (すなわち、 組み合わせ類似度 が最大となる組み合わせの組み合わせ類似度) が低い場合には、 物体と物体領域 との対応付けを行わないようにしてもよレ、。 その場合に、 対応計算部 1 6 1は、 物体と物体領域との最適な組み合わせにつレ、て、 組み合わせ類似度が予め決めら れた閾値以下であるときには、 組み合わせを構成する物体に対応する最適な物体 領域は無いと判断する。 そして、 対応計算部 1 6 1は、 最適な物体と物体領域と の対応関係が無いことを示す情報を含んだ最適対応情報を出力する。 対応決定部 1 6 2は、 最適対応情報が、 物体に対応する最適な物体領域が無いことを示す情 報を含む場合には、 その物体については、 第 1の領域対応情報に含まれる物体と 物体領域との対応関係の情報をそのまま物体と物体領域との対応関係として確定 し、 確定対応情報と'して出力する。 そうでない場合には、 最適対応情報に含まれ る物体と物体領域との対応関係を示す情報を確定対応情報として出力する。 例え ば、対応計算部 1 6 1が、 (a , J3 ) = (A, B C) を最適な組み合わせとした場 合を例にすると、 対応計算部 1 6 1は、 αと Aとからなる組の類似度、 および j8 と B Cとからなる組の類似度から組み合わせ類似度を算出し、 組み合わせ類似度 が閾値以下であるか否か判断する。 そして、 組み合わせ類似度が閾値以下であれ ば、 対応決定部 1 6 2は、 物体 Aおよび物体 Bおよび物体 Cに対応する物体領域 として、 第 1の領域対応情報に含まれる物体 Aおよび物体 Bおよび物体 Cと物体 領域との対応関係の情報をそのまま物体 Aおよび物体 Bおよび物体 Cと物体領域 との対応関係として確定する。
(変形例 8 )
また、 上述した各方法において、 物体と物体領域との対応付けを行う際に、 対 応確定部 1 6は、組み合わせ類似度が低い場合にも強制的に対応付けを行うので、 物体と物体領域との対応付けが正しく行われない場合がある。 そこで、 対応確定 部 1 6は、 最適な組み合わせの組み合わせ類似度 (すなわち、 組み合わせ類似度 が最大となる組み合わせの組み合わせ類似度) が低い場合には、 物体と物体領域 との対応付けを行わないようにしてもよレ、。 その場合に、 対応計算部 1 6 1は、 物体と物体領域との最適な組み合わせにつレ、て、物体領域と物体の組の類似度が 予め決められた閾値以下であるときには、 その物体に対応する最適な物体領域は 無いと判断する。 そして、 対応計算部 1 6 1は、 最適な物体と物体領域との対応 関係が無いことを示す情報を含んだ最適対応情報を出力する。 対応決定部 1 6 2 は、 最適対応情報が、 物体に対応する最適な物体領域が無いことを示す情報を含 む場合には、 その物体については、 第 1の領域対応情報に含まれる物体と物体領 域との対応関係の情報をそのまま物体と物体領域との対応関係として確定し、 確 定対応情報として出力する。 そうでない場合には、 最適対応情報に含まれる物体 と物体領域との対応関係を示す情報を確定対応情報として出力する。 例えば、 対 応計算部 1 6 1力 S、 (a , j3 ) = (A, B C) を最適な組み合わせとした場合を例 にすると、 対応計算部 1 6 1は、 aと Aとからなる組の類似度、 および^と B C とからなる組の類似度が閾値以下である力否カ判断する。 そして、 ひと Aとの類 似度が閾値以下であれば、 対応決定部 1 6 2は、 物体 Aに対応する物体領域とし て、 第 1の領域対応情報に含まれる物体 Aと物体領域との対応関係の情報をその まま物体 Aと物体領域との対応関係として確定する。
(変形例 9 )
対応計算部 1 6 1は、 最適な物体と物体領域との組み合わせのうち、 明らかに 判別が可能な物体のみを物体領域と対応付けるようにしてもよい。 その場合、 対 応計算部 1 6 1は、 全ての物体と物体領域との組み合わせについて組み合わせ類 似度の値が高い順番に並べる。 そして、 上位の組み合わせ間の組み合わせ類似度 の値の差が小さく (例えば、予め決められたある閾値以下)、上位の組み合わせに 共通する物体と物体領域とが存在する場合には、 対応計算部 1 6 1は、 その物体 と物体領域との組み合わせのみを最適な対応付けとする。 対応計算部 1 6 1は、 その物体と物体領域との組み合わせのみの情報を含んだ最適対応情報を出力する。 従って、 最適対応情報には、 他の物体と他の物体領域とには最適な対応関係とな る組み合わせが無いことを示す情報が含まれることになる。
例えば、 物体 A , B , Cと物体領域 a , β , γとの対応付けにおいて、 組み合 わせ類似度の値の高い上位 3つの組み合わせが (α, β , y ) = (A, B , C) ,
(A B , Φ , C), (B , A, C) である場合には、 対応計算部 1 6 1は、 物体 C と物体領域 Vとの組み合わせのみを最適な対応関係とする。 そして、 対応計算部
1 6 1は、 物体 Cと物体領域 γとの組み合わせのみを最適な対応関係とする情報 を含んだ最適対応情報を出力する。 なお、 この方法を、 変形例 7と組み合わせて もよい。 すなわち、 物体と物体領域との最適な組み合わせについて物体領域と物 体の組の類似度が予め決められた閾値以下である場合に、 上位の組み合わせ間の 合計類似度の値の差が小さく (例えば、予め決められたある閾値以下)、上位の組 み合わせに共通する物体と物体領域とが存在しないときには、 対応計算部 1 6 1 は、 最適対応情報に、 他の物体と他の物体領域とには最適な対応関係となる組み 合わせが無レヽことを示す情報を含めるようにしてもよい。
対応決定部 1 6 2は、 最適対応情報において最適な対応関係が無いことが示さ れている物体についてには、 第 1の領域対応情報に含まれる物体と物体領域との 対応関係を、 物体と物体領域との対応関係として確定する。
以上のように、 対応計算部 1 6 1は、 全ての可能な組み合わせのうち、 組み合 わせ類似度が最大となる組み合わせの組み合わせ類似度から予め決められた閾値 以内の組み合わせ類似度を持つ組み合わせにつ 、て、 組み合わせ類似度が最大と なる組み合わせの組み合わせ類似度から予め決められた閾値以内の組み合わせ類 似度を持つ組み合わせを選択し、 選択した組み合わせに共通して存在する物体と 物体領域との対応関係を、 最適な対応付けとして最適対応情報に含め、 共通して 存在する物体と物体領域との対応関係に含まれない物体と物体領域については、 最適な対応がないことを示す情報を最適対応情報に含め、 対応決定部 1 6 2は、 最適な物体と物体領域との対応関係がなレヽ旨が最適対応情報に示されていない物 体については、 その最適対応情報に含まれる物体と物体領域との対応関係を示す 情報を確定対応情報として出力し、 最適な物体と物体領域との対応関係がない旨 が最適対応情報に示されている物体については、 第 1の領域対応情報に含まれる 物体と物体領域との対応関係を示す情報を確定対応情報として出力するようにし てもよい。
(変形例 1 0 )
また、 上述した各方法において、 特徴量生成部 1 4は、 追跡状態に応じて対応 確定部 1 6に出力する領域特徴量情報に含む情報を変更してもよい。 その場合、 例えば、 追跡状態判定部 1 3が出力する第 1の領域対応情報の追跡状態が分離状 態であることが示されている物体領域については、 領域特徴量情報はその物体領 域の特徴量を含む。 また、 追跡状態が分離状態以外の状態であることが示されて いる物体領域については、 特徴量を含んでいてもよいが、 対応確定部 1 6ではそ の特徴量を必要としないので何も含まなくてもよい。 また、 特徴量を含まない代 わりに対応付けが不要であることを示す情報を含んでいてもよレ、。 対応確定部 1 6は、 領域特徴量情報によつて物体との対応付けが不要であることが示されてい る物体領域を対応付けの対象から除外する。 これにより、 対応確定部 1 6の計算 量を削減することができる。
(変形例 1 1 )
また、 特徴量合成部 1 5は、 特徴量記憶部 1 4 2が記憶する全ての物体の特徴 量を取得するのでなく、 追跡状態判定部 1 3が出力する第 1の領域対応情報にお いて追跡状態が分離状態であることが示されている物体についてのみ、 特徴量記 憶部 1 4 2が記憶する物体の特徴量を取得してもよい。 そうすることにより、 合 成特徴量の生成に必要のな ヽ物体の特徴量を取得するという無駄な処理を省くこ とができ、 特徴量合成部 1 5は、 合成特徴量生成の処理の迅速ィ匕を図ることがで きる。
(変形例 1 2 )
また、 上述した各方法において、 追跡状態が分離状態以外の状態である物体に ついては、 第 1の領域対応情報と確定対応情報とは同じになるので、 対応確定部 1 6から追跡状態判定部 1 3にフィードバックされる確定对応情報に含まれる情 報を、 分離状態の物体のみについての対応関係に限定してもよい。 その場合、 そ れ以外の物体については、 追跡状態判定部 1 3は、 確定対応情報の代わりに、 追 跡状態判定部 1 3自身が過去に求めた (第 1の領域対応情報に含まれる) 対応関 係を用いるようにする。 そのようにしても、 上述した各方法を用いた物体追跡装 置と等価な装置を実現できる。
(変形例 1 3 ) また、 上述した各方法において、 特徴量更新部 1 4 2は第 1の領域対応情報に基づいて物体の特徴量を更新したが、 第 1の領域対応情報で はなく確定対応情報に基づいて物体の特徴量を更新してもよい。 その場合には、 特徴量抽出^ 1 4 1は、 特徴量更新部 1 4 2に出力する領域特徴量情報に、 第 1 の領域対応情報にぉ ヽて追跡状態が単独状態または分離状態であることが示され ている物体領域の特徴量を含める。 特徴量更新部 1 4 2は、 対応確定部 1 6が物 体と物体領域との対応付けを確定した後に、 対応確定部 1 6が出力する確定対応 情報に基づいて物体の追跡状態を判定する。 そして、 特徴量更新部 1 4 2は、 追 跡状態が単独状態である物体についてのみ、 特徴量抽出部 1 4 1が出力する物体 領域の特徴量情報に基づいて特徴量記憶部 1 4 3が記憶する物体の特徴量を更新 する。 そのようにしても、 上述した各方法を用いた物体追跡装置と等価な装置を 実現できる。
(変形例 1 4 )
また、 特徴量更新部 1 4 2が確定対応情報に基づいて物体の追跡状態を判定す るのでなく、 対応確定部 1 6力 S、 物体の追跡状態を判定してもよレ、。 その場合、 対応確定部 1 6は、 判定した物体の追跡状態の情報を含んだ確定対応情報を出力 する。 そうすることにより、 特徴量更新部 1 4 2力 S、 物体の追跡状態を判定する 処理を省くことができる。 そのようにしても、 上述した各方法を用いた物体追跡 装置と等価な装置を実現できる。
(変形例 1 5 )
特徴量更新部 1 4 2は、 第 1の領域対応情報のみに基づレ、て特徴量記憶部 1 4 3が記憶する物体の特徴量を更新するのでなく、 第 1の領域対応情報と確定対応 情報とに基づレヽて特徴量記憶部 1 4 3が記憶する物体の特徴量を更新してもよレ、。 その場合、 特徴量抽出部 1 4 1は、 特徴量更新部 1 4 2に出力する領域特徴量情 報に、 第 1の領域対応情報において単独状態または分離状態であることが示され ている物体領域の特徴量を含める。 特徴量更新部 1 4 2は、 特徴量抽出部 1 4 1 が出力する領域特徴量情報と追跡状態判定部 1 3が出力する第 1の領域対応情報 とに基づレヽて、追跡状態が単独状態であることが示されてレヽる物体にっレヽてのみ、 特徴量記憶部 1 4 3が記憶する物体の特徴量を更新する。特徴量更新部 1 4 2は、 対応確定部 1 6が物体と物体領域との対応付けを確定した後に、 対応確定部 1 6 が出力する確定対応情報に基づいて物体の追跡状態を判定し、 追跡状態が分離状 態から単独状態に遷移した物体についてのみ、 特徴量抽出部 1 4 1が出力する領 域特徴量情報に基づいて、 特徴量記憶部 1 4 3が記憶する物体の特徴量を更新す る。
この場合にも、 さらに、 特徴量更新部 1 4 2が確定対応情報に基づいて物体の 追跡状態を判定するのでなく、 対応確定部 1 6が、 物体の追跡状態を判定しても よい。 そして、 対応確定部 1 6は、 判定した物体の追跡状態の情報を含んだ確定 対応情報を出力する。 そうすることにより、 特徴量更新部 1 4 2力 物体の追跡 状態を判定する処理を省くことができる。
(発明の第 2の実施の形態)
次に、 本発明の第 2の実施の形態を図面を参照して説明する。 本実施の形態に おける第 1の領域対応情報は、 物体領域が静止している状態であるカゝ動作してい る状態であるかを示す静動状態の情報を含む。 静動状態には、 物体領域が静止し ていることを示す静止状態と物体領域が動作していることを示す動作状態とがあ る。物体追跡装置は、静動状態が静止状態である物体領域を背景として取り扱う。 また、 第 1の領域対応情報は、 物体領域を背景として取り扱うカゝ否かを示す背 景更新情報を含む。背景更新情報は、例えば、「0」 と「1」の 2値で表現される。 物体領域の背景更新情報が 「1」 である場合には、 物体量領域は背景として取り 极われる。 物体領域の背景更新情報が 「0」 である場合には、 物体領域を背景と はしない。
例えば、 人物を追跡する物体追跡装置である場合に、 人物から分離した静止物 体を背景と見なすことにより、 物体追跡装置は、 人物のみを追跡対象とすること ができる。 静動状態の判定方法として、 例えば、 抽出した物体領域のうち静止し ている状態の継続時間(以下、静止継続期間という。)が予め決められた閾値以上 になった場合には、 その物体領域は静止状態であると判定し、 静止継続期間が予 め決められた閾値より小さい場合には、 その物体領域の静動状態を動作状態であ ると判定する方法を用いる。
物体追跡装置は、 背景更新情報を導入することによって、 背景とみなした物体 領域を追跡が不要な物体領域とみなして追跡対象から除外して、 追跡が必要な物 体のみを追跡対象とすることができる。 すなわち、 静動状態の情報によって、 静 止している状態であることが示されて!/、る物体領域と物体との組み合わせを、 全 ての可能な組み合わせから除外する。 例えば、 物体領域のうち、 静止継続期間が 予め決められた閾値を超え、 力ゝっ静動状態が静止状態であり、 さらに確定対応情 報に基づいて対応付けられる物体が存在しないと判断される物体領域についての み、 物体追跡装置は、 物体領域を背景の一部とみなして取り扱う。 また、 背景で あるかの判定のために閾値を設けることによって、 物体の追跡に失敗した場合に も、 物体追跡装置は、 追跡対象の物体が存在する物体領域を誤って背景とみなす ことを防止することができる。
図 1 1は、 本発明による物体追跡装置の第 2の実施の形態を示すプロック図で ある。 図 1 1に示すように、 物体追跡装置の構成要素は、 第 1の実施の形態の場 合と同じであるが、 物体領域抽出部 1 2は、 画像入力端子 1 1を介して入力され る画像情報だけでなく、 画像情報と対応付け部 1 7カゝらの確定対応情報とに基づ いて、 物体領域の抽出を行う。 なお、 対応付け部 1 7の構成は図 3に示された構 成と同じであり、追跡状態判定部 1 3の構成は図 6に示された構成と同じであり、 特徴量生成部 1 4の構成は図 8に示された構成と同じであり、 対応確定部 1 6の 構成は図 9に示された構成と同じである。
物体領域情報記憶部 1 3 3は、 物体領域の静止継続期間を記憶する。 物体追跡 部 1 3 1は、 物体領域情報記憶部 1 3 3が記憶する過去の各物体領域の静止継続 期間と現時刻の物体領域とを対応付ける。 そして、 物体追跡部 1 3 1は、 現時刻 における静止継続期間を算出する。 物体領域情報記憶部 1 3 3は、 算出された現 時刻における物体領域の静止継続期間を記憶する。
最新の静止継続期間の算出の際に、 物体領域に対応付けられる過去の静止継続 期間が複数存在する場合も考えられる。 過去の静止継続期間が複数存在する場合 には、 物体追跡部 1 3 1は、 複数存在する過去の静止継続期間のうち最大の静止 継続期間を選択して、 現時刻における静止継続期間に対応付ける。 なお、 最短の 静止継続期間を選択して現時刻における静止継続期間に対応付けてもよいし、 静 止継続期間の平均時間を算出し、 算出した平均時間を現時刻における静止継続期 間に対応付けてもよい。
そして、 物体追跡部 1 3 1は、 静止継続期間の更新を以下の手順により行うこ とで現時刻における静止継続期間を算出する。 物体追跡部 1 3 1は、 各物体領域 について過去の物体領域の重心と最新の物体領域の重心との差分べクトルを求め る。 差分べクトルの大きさが予め決められた閾値以下である場合には、 物体追跡 部 1 3 1は、 物体は静止していると判断して、 静止継続期間を更新する。 差分べ クトルの大きさが予め決められた閾値を超える場合には、 物体追跡部 1 3 1は、 物体領域が動いていると判断して、 静止継続期間をリセットする。
状態判定部 1 3 2は、 物体領域情報記憶部 1 3 3に記憶される物体領域の静止 継続期間に基づいて物体領域の静動状態を判定する。 そして、 状態判定部 1 3 2' は、 物体領域の静止継続時間と静動状態の情報を含んだ第 1の領域対応情報を出 力する。 また、 物体領域情報記憶部 1 3 3は、 状無判定部 1 3 2の判定に基づい て物体領域の静動状態を更新する。
第 1の実施の形態では、 対応計算部 1 6 1は、 物体と物体領域との組み合わせ のうち対応付けられる可能性のある全ての組み合わせ (全ての可能な組み合わせ) について、 物体領域の特徴量と合成特徴量との類似度を計算したが、 本実施の形 態では、 静動状態が静止状態を示す物体領域がどの物体とも対応付かない組み合 わせのみについて計算する。 すなわち、 静動状態が静止を示す物体領域に物体を 対応付ける組み合わせを、 全ての可能な組み合わせから除外する。 そうすること により、 対応計算部 161は、 物体と物体領域との類似度の算出のための計算量 を削減することができる。
対応確定部 162は、 物体追跡部 131が算出する物体領域の静止継続期間の 情報を含んだ確定対応情報を出力する。 対応確定部 162は、 静止継続期間の情 報と静動状態の情報とに基づレ、て物体領域が背景とみなせるかを判定する。 具体 的には、 静止継続期間が予め決められた閾値を超え、 かつ静動状態が静止状態で あり、 さらに確定対応情報に基づいて対応付けられる物体が存在しない場合に、 物体領域が背景とみなせると判定する。 物体領域を背景とみなせる場合には、'対 応確定部 162は、 物体領域内の背景を更新することを示す背景更新情報を確定 対応情報に含める。
確定対応情報が物体領域内の背景を更新することを示す背景更新情報を含んで いる場合には、 物体領域抽出部 12は、 物体領域情報と画像入力端子 11を介し て入力された画像情報と対応付け部 17が出力する確定対応情報とに基づいて、 物体領域の領域内の背景の画像を更新する。 物体領域抽出部 12は、 式 (13) に基づレ、て背景の画像の更新を行う。
Bt (x, y ) = (1 - μ )Bt_t (x, y) + μΐ^ (θ≤μ<ΐ) ... (13) ここで、 (χ, y) は画素の座標を示し、 I t0 (X, y) は座標 (x, y) に おける画像情報の画素値を示す。 Bt (x, y) と Bt— (x, y) とはそれぞれ 座標 (x, y) における時刻 t, t— 1の背景画像の画素値を示す。 また、 は 更新係数を示す。
以上のように、 状態判定部 132が物体領域の静止継続時間と静動状態の情報 を含んだ第 1の領域対応情報を出力し、 対応付け部 17が背景更新情報を含んだ 確定対応情報を出力することによって、 物体と背景とを区別することができる。 そして、 第 1の領域対応情報が静動状態の情報を含むことにより、 物体追跡装置 は、静止している物体を物体領域と対応付けられる候補から除外する。その結果、 対応計算部 161が行う類似度の算出のための計算量を低減することができる。 また、 動作中の物体のみを追跡することができる。
なお、 物体領域情報記憶部 1 3 3が静止継続期間を記憶して、 物体領域情報記 憶部 1 3 3が記憶する静止継続期間を状態判定部 1 3 2が取得するのでなく、 物 体追跡部 1 3 1が静止継続期間の情報を含んだ第2の領域対応情報を状態判定部 1 3 2に出力してもよい。 そうすることにより、 状態判定部 1 3 2は、 物体領域 情報記憶部 1 3 3を介することなく静止継続期間の情報を取得できる。
また、 特徴量抽出部 1 4 1は、 追跡状態が分離状態であることが示され、 かつ 静動状態が静止状態であることが示されている物体領域については、 領域特徴量 情報に特徴量を含んでもよいが、 対応計算部 1 6 1では不要なため、 何も含まな くてもよい。 あるいは、 何も含まない代わりに対応付けが不要であることを示す 情報を含んでもよい。 これにより、 不要な特徴量を出力する無駄を省くことがで きる。
(発明の第 3の実施の形態)
次に、 本発明の第 3の実施の形態を図面を参照して説明する。 図 1 2は、 本発 明による物体追跡装置の第 3の実施の形態を示す構成図である。 図 1 2に示すよ うに、 物体追跡装置は、 画像入力端子 2 1、 第 1の制御部 2 2、 物体領域抽出部 2 3、 特徴量生成部 2 4およぴ特徴量合成部 2 5を含む。
第 1の制御部 2 2は、 画像入力端子 2 1、 物体領域抽出部 2 3、 特徴量生成部 2 4および特徴量合成部 2 5に接続され、 それらを制御する。 また、 第 1の制御 部 2 2は、 物体と物体領域との対応付けを行って、 確定対応情報を出力する。 物体領域抽出部 2 3は、 第 1の制御部 2 2力 の画像情報に基づレ、て物体領域 を抽出し、 領域番号を付与した物体領域の画像情報を含む物体領域情報を第 1の 制御部 2 2に出力する。
特徴量生成部 2 4は、 第 1の制御部 2 2力らの画像情報と物体領域情報とに基 づいて物体領域の特徴量を抽出する。 そして、 抽出した物体領域の特徴量を含む 領域特徴量情報を第 1の制御部 2 2に出力する。
特徴量合成部 2 5は、 第 1の制御部 2 2力 らの領域特徵量情報と第 1の領域対 応情報とに基づ 、て、 複数の物体の必要な全ての組み合わせにつ 、て物 ίキの特徴 量を合成した合成特徴量を算出するそして、 特徴量合成部2 5は、 合成 敷量を 含んだ合成特徴量情報を第 1の制御部 2 2に出力する。
なお、 第 1の領域対応情報は、 第 1の実施の形態と同様に、 物体と物体領域と の対応関係の情報と物体の追跡状態の情報とを含む。 また、 本実施の形態では、 第 1の制御部 2 2力 第 1の領域対応情報を生成する。
ビデオカメラ等から、 画像信号が入力される画像入力端子 2 1を介して、 第 1 の制御部 2 2は画像情報を入力する。 第 1の制御部 2 2は、 画像情報を物体領域 抽出部 2 3に出力し、 物体領域抽出部 2 3が出力する物体領域情報を入力する。 また、 物体領域情報と過去の確定対応情報とに基づいて、 第 1の領域対応情報を 生成し、 生成した第 1の領域対応情報、 画像情報および物体領域情報を特徴量生 成部 2 4に出力する。 さらに、 特徴量生成部 2 4が出力する領域特徴量情報を入 力し、領域特徴量情報および第 1の領域対応情報を特徴量合成部 2 5に出力する。 また、 特徴量合成部 2 5が出力する合成特徴量情報を入力する。
第 1の制御部 2 2は、 領域特徴量情報に含まれる物体領域の特徴量と合成特徴 量情報に含まれる合成特徴量との類似度を算出し、組み合わせ類似度を算出して、 物体と物体領域との最適な対応付けを確定する。 そして、 確定した物体と物体領 域との対応関係の情報を確定対応情報として出力する。
図 1 3は、 第 1の制御部 2 2の構成の一例を示すプロック図である。 図 1 3に 示すように、 第 1の制御部 2 2は、 第 2の制御部 2 2 1、 物体追跡部 2 2 2、 状 態判定部 2 2 3および対応計算部 2 2 4を含む。
なお、 第 1の制御部 2 2 (第 2の制御部 2 2 1、 物体追跡部 2 2 2、 状態判定 部 2 2 3および対応計算部 2 2 4 )、物体領域抽出部 2 3、特徴量生成部 2 4およ ぴ特徴量合成部 2 5は、 ハードウェアでも実現可能であるが、 ソフトウェアでも 実現可能である。 すなわち、 第 1の制御部 2 2、 物体領域抽出部 2 3、 特徴量生 成部 2 4および特徴量合成部 2 5を、 プログラムに基づいて処理を実行する C P Uと、 以下に説明する第 1の制御部 2 2、 物体領域抽出部 2 3、 特徴量生成部 2 4および特徴量合成部 2 5の機能を実現するために記憶装置に格納されている プログラムとで実現することができる。
第 2の制御部 2 2 1は、 画像入力端子 2 1を介して画像情報が入力されると、 画像情報を物体領域抽出部 2 3に出力する。 また、 第 2の制御部 2 2 1は、 物体 領域抽出部 2 3が出力した現時刻の物体領域情報と、 第 2の制御部 2 2 1自身が 記憶する過去の物体領域情報と、 第 2の制御部 2 2 1自身が記憶する過去の確定 対応情報とを物体追跡部 2 2 2に出力する。 さらに、 第 2の制御部 2 2 1は、 画 像入力端子 2 1を介して入力された画像情報と、 物体領域抽出部 2 3が出力した 物体領域情報とを領域特徴量生成部 2 4に出力する。 なお、 確定対応情報の内容 は、 第 1の実施の形態の場合と同じである。
また、 第 2の制御部 2 2 1は、 物体追跡部 2 2 2から第 2の領域対応情報が入 力されると、 第 2の領域対応情報と物体領域情報とを状態判定部 2 2 3に出力す る。なお、第 2の領域対応情報の内容は、第 1の実施の形態の場合と同じである。 また、 第 2の制御部 2 2 1は、 状態判定部 2 2 3から第 1の領域対応情報が入 力されると、 第 1の領域対応情報にぉレヽて追跡状態が分離状態であることが示さ れている物体領域についてのみ、 物体の特徴量と第 1の領域対応情報とを特徴量 合成部 2 5に出力する。 なお、 第 1の領域対応情報の内容は、 第 1の実施の形態 の場合と同じである。
さらに、 第 2の制御部 2 2 1は、 特徴量合成部 2 5から合成特徴量情報が入力 されると、 領域特徴量情報と合成特徴量情報と第 1の領域対応情報とを対応計算 部 2 2 4に出力する。 また、 状態判定部 2 2 3が出力する第 1の領域対応情報に おいて追跡状態が分離状態以外の状態であることが示されている物体については、 第 1の領域対応情報に含まれる物体領域との対応を、 この物体と物体領域との対 応関係として確定する。 第 1の領域対応情報において追跡状態が分離状態である ことが示されている物体については、 対応計算部 2 2 4が出力する最適対応情報 に含まれる物体領域との対応を、 この物体と物体領域との対応関係として確定す る。 なお、 対応計算部 2 2 4が出力する最適対応情報の内容は、 第 1の実施の形 態の場合と同じである。
物体追跡部 2 2 2は、 第 2の制御部 2 2 1から入力された現時刻の物体領域情 報と、 第 2の制御部 2 2 1が記憶する過去の物体領域情報と、 過去の確定対応情 報とに基づいて物体を追跡し、 第 2の領域対応情報を第 2の制御部 2 2 1に出力 する。 なお、 物体追跡部 2 2 2が物体を追跡する方法は、 第 1の実施の形態にお ける物体を追跡する方法と同じである。 状態判定部 2 2 3は、 第 2の制御部 2 2 1から入力された第 2の領域対応情報 と物体領域情報とに基づレ、て物体の追跡状態の判定を行レヽ、 第 1の領域対応情報 を第 2の制御部 2 2 1に出力する。
対応計算部 2 2 4は、 第.2の制御部 2 2 1から入力された領域特徴量情報と、 合成特徴量情報と、 第 1の領域対応情報とに基づレヽて、 物体と物体領域との全て の可能な組み合わせにつレヽて物体の合成特徴量と物体領域の特徴量との類似度を 算出し、 組み合わせ類似度を算出し、 組み合わせ類似度が最も高くなる物体と物 体領域との組み合わせを最適な物体と物体領域との対応付けと確定して、 最適対 応情報を生成する。 そして、 最適対応情報を第 2の制御部 2 2 1に出力する。 次に、 第 3の実施の形態による物体追跡装置の動作を説明する。 図 1 4は、 物 体追跡装置の処理経過の一例を示すフローチャートである。 画像入力端子 2 1を 介して画像情報が入力されると (ステップ S 1 4 0 1 )、 物体領域抽出部 2 3は、 画像情報から物体領域を抽出する (ステップ S 1 4 0 2 )。 そして、物体領域の画 像情報を含む物体領域情報を出力する。
物体追跡部 2 2 2は、 物体を追跡して物体と物体領域とを対応付け、 第 2の領 域対応情報を出力する。 状態判定部 2 2 3は、 第 2の領域対応情報と物体領域情 報とに基づいて物体の追跡状態を判定する (ステップ S 1 4 0 3 )。特徴量生成部 2 4は、 物体領域の特徴量を算出する (ステップ S 1 4 0 4 )。
第 2の制御部 2 2 1は、 カウンタ iを有する。 第 2の制御部 2 2 1は、 物体の 数をカウンタ iに設定する (ステップ S 1 4 0 5 )。第 2の制御部 2 2 1は、カウ ンタ iの値が 「0」 であるかを判定して (ステップ S 1 4 0 6 )、 カウンタ iの値 が 「0 J である場合には処理を終了する。 カウンタ iの値が 「0」 でない場合に は、 第 2の制御部 2 2 1は、 状態判定部 2 2 3に次のステップ S 1 4 0 7の処理 の実行を指示する。
状態判定部 2 2 3は、 物体の追跡状態が分離状態であるかを判定する (ステツ プ S 1 4 0 7 )。状態判定部 2 2 3が物体の追跡状態が分離状態であると判定した 場合には、 特徴量合成部 2 5は、 複数の物体の必要な全ての組み合わせについて 物体の特徴量を合成して合成特徴量を生成する (ステップ S 1 4 0 8 )。
対応計算部 2 2 4は、 物体と物体領域との全ての可能な組み合わせについて物 体の合成特徴量と物体領域の特徴量との類似度を算出し、 組み合わせ類似度を算 出する。 第 2の制御部 2 2 1は、 対応計算部 2 2 4が算出した組み合わせ類似度 が最も高くなる物体と物体領域との組み合わせを最適な物体と物体領域との対応 関係として確定する (ステップ S 1 4 0 9 )。
ステップ S 1 4 0 7において、 追跡状態が分離状態以外の状態であると状態判 定部 2 2 3が判定した場合には、 第 2の制御部 2 2 1は、 第 1の領域対応情報に 含まれる物体と物体領域との対応を、 最適な物体と物体領域との対応関係として 確定する (ステップ S 1 4 0 9 )0
特徴量生成部 1 4は、 対応が確定した物体の特徴量を更新する (ステップ S 1 4 1 0 )。 ただし、特徴量生成部 1 4は、追跡状態が単独状態であることが示され ている物体についてのみ、 特徴量を更新する。
次いで、 第 2の制御部 2 2 1は、 カウンタの値を 「1」 減らす (ステップ S 1 4 1 1 )。 そして、 ステップ S 1 4 0 6において、 カウンタの値が 「0」 と判断さ れるまでステップ S 1 4 0 7からステップ S 1 4 1 0までの処理が繰り返し実行 される。 すなわち、 全ての物体について、 最適な物体領域との対応関係力確定す るまでステップ S 1 4 0 7からステップ S 1 4 1 0までの処理が実行される。 全 ての物体について物体領域との対応関係を確定するための処理 (ステップ S 1 4 0 7〜S 1 4 1 0 ) が終了したら、 再ぴ、 ステップ S 1 4 0 1から処理を実行す る。
以上のように物体追跡装置を構成することにより、 第 1の実施の形態と同様の 機能を有する物体追跡装置を実現することができる。
なお、 図 1 2および図 1 3に示された構成は、 ソフトウェアによって実現可能 である。 すなわち、 本実施の形態では、 画像情報を入力する画像入力処理と、 物 体領域情報と、 現時刻以前の物体領域と物体との対応関係を示す確定対応情報と から、 追跡状態を物体毎または物体領域毎に判定し、 物体領域および物体と追跡 状態との対応関係を示す第 1の領域対応情報を出力する追跡状態判定処理と、 画 像情報、 物体領域情報および追跡状態判定手段の判定結果を用いて、 物体領域の 特徴量を示す領域特徴量および物体の特徴量を示す物体特徴量を生成する特徴量 生成処理と、 各物体を対象として、 追跡状態が、 物体領域が複数の物体領域に分 力れる過渡的な状態である分離状態以外の状態であると判定されている物体につ いて、 第 1の領域対応情報に含まれる物体と物体領域との対応を、 物体と物体領 域との対応として確定し、 追跡状態が分離状態であると判定されている物体につ いて、 物体特徴量と第 1の領域対応情報とから複数の物体の必要な全ての組み合 わせにっレ、て特徴量を合成して各合成特徴量を生成し、 各合成特徴量と領域特徴 量とを比較し、 最も類似度が高い合成特徴量に対応した物体と物体領域とを対応 付ける対応付け処理とを実行させるための物体追跡プログラムによって物体追跡 装置を実現可能である。

Claims

請求の範囲
1 . 画像情報に基づいて物体を追跡する物体追跡装置であって、
前記画像情報に含まれる各物体の.特徴量を示す物体特徴量を合成して合成特徴 量を生成する特徴量合成手段と、
前記画像情報から抽出された領域であって物体を含む領域である物体領域の特 徴量と前記合成特徴量との類似度に基づいて物体領域と物体とを対応付ける対応 付け手段と
を備えた物体追跡装置。
2. 前記特徴量合成手段は、 複数の物体の必要な全ての組み合わせについて 特徴量を合成して各合成特徴量を生成し、
前記対応付け手段は、 前記特徴量合成手段が生成した各合成特徴量と物体領域 の特徴量を示す領域特徴量とを比較することによって物体と物体領域とを対応付 ける
請求項 1に記載の物体追跡装置。
3 . 画像情報から物体領域を抽出して物体領域の画像情報を含む物体領域情報 を出力する物体領域抽出手段と、
他の物体との相対的な位置関係を表す追跡状態を物体毎または物体領域毎に判 定する追跡状態判定手段と、
前記画像情報、 前記物体領域情報および前記追跡状態判定手段の判定結果を用 いて、 領域特徴量および物体特徴量を生成する特徴量生成手段とを備え、 前記特徴量合成手段は、 前記物体特徴量および前記追跡状態判定手段の判定結 果を用いて合成特徴量を生成する
請求項 2に記載の物体追跡装置。
4. 前記追跡状態判定手段は、 物体領域情報と、 現時刻以前の物体領域と物 体との対応関係を示す確定対応情報と力ゝら、 追跡状態を物体毎または物体領域毎 に判定し、 物体領域および物体と追跡状態との対応関係を示す第 1の領域対応情 報を出力し、
前記特徴量生成手段は、 現時刻の画像情報、 前記物体領域情報、 前記第 1の頜 域対応情報および前記確定対応情報から、 領域特徴量と物体特徴量とを生成し、 前記特徴量合成手段は、 前記物体特徴量と前記第 1の領域対応情報とから、 物 体領域に対応付けられる候補となる各合成特徴量を生成し、 合成特徴量およぴ合 成特徴量生成のために用いられた物体と合成特徴量との対応関係を含む情報であ る合成特徴量情報を出力し、
前記対応付け手段は、 前記第 1の領域対応情報、 前記領域特徴量を示す情報で ある領域特徴量情報および前記合成特徴量情報から物体と物体領域とを対応付け、 現時刻に対する前記確定対応情報を出力する対応確定手段を含む
請求項 3に記載の物体追跡装置。
5. 前記追跡状態には、 物体領域内に 1つの物体のみが存在する単独状態、 物体領域内に複数の物体が対応する重なり状態、 および物体領域が複数の物体領 域に分力ゝれる過渡的な状態である分離状態のいずれかもしくはそれらの組み合わ せが含まれる
請求項 3に記載の物体追跡装置。
6 . 前記追跡状態には、 物体領域内に 1つの物体のみが存在する単独状態、 物体領域内に複数の物体が対応する重なり状態、 および物体領域が複数の物体領 域に分力^ bる過渡的な状態である分離状態のいずれかもしくはそれらの組み合わ せが含まれる
請求項 4に記載の物体追跡装置。
7. 前記特徴量生成手段は、
物体領域の色ヒストグラム、 面積、 画像テンプレートおよび面積で正規ィ匕され た色ヒストグラムのいずれかまたはそれらの組み合わせを少なくとも 1つ含む領 域特徴量として生成し、
前記物体に対応する物体領域を前記第 1の領域対応情報から求め、 その物体領 域に対する色ヒストグラム、 面積、 画像テンプレートおよび面積で正規ィ匕された 色ヒストグラムのいずれかまたはそれらの組み合わせを物体特徴量として生成す る
請求項 4に記載の^体追跡装置。
8 . 前記追跡状態判定手段は、 物体領域情報を記憶する物体領域記憶手段と、
前記物体領域情報、 確定対応情報、 および前記物体領域記憶手段から出力され る現時刻以前の物体領域情報とから物体を追跡し、 物体と物体領域との対応を示 す第 2の領域対応情報を出力する物体追跡手段と、
前記第 2の領域対応情報、 前記物体領域情報およぴ現時刻以前の前記物体領域 情報とから物体の追跡状態を判定し、 前記第 1の領域対応情報を出力する状態判 定手段とを含む
請求項4に記載の物体追跡装置。
9. 前記状態判定手段は、
第 2の領域対応情報と物体領域情報とから、 物体と物体領域との対応、 物体領 域間の距離、 物体領域の分離中の継続時間のいずれかまたはそれらの組み合わせ に基づいて、 対応する前記物体領域に共通の領域が存在する物体同士をまとめ、 これらの物体と対応する物体領域を 1つのクラスに分類し、 対応する物体領域が どの物体とも異なる物体については、 その物体と対応する物体領域を 1つのクラ スに分類することによって、 物体および物体領域を複数のクラスに分類し、 分類 したクラスに基づいて追跡状態を判定する
請求項 8に記載の物体追跡装置。
1 0. 前記追跡状態は、 物体領域が複数の物体領域に分かれる過渡的な状態 である分離状態を含み、
前記状態判定手段は、
分類したクラスに 2以上の物体領域が含まれる場合に、 そのクラスは分離状態 である条件を満たすと判断し、
クラスが分離状態である条件を満たす場合に、 そのクラスに含まれる物体およ ぴ物体領域の追跡状態を分離状態と判定する
請求項 9に記載の物体追跡装置。
1 1 . 前記状態判定手段は、
分類したクラスが分離状態である条件を満たし、 さらに、
前記クラスに 2以上の物体が含まれること、 前記クラスに含まれる物体領域間 の距離が予め決められた閾値以上であること、 前記クラスに含まれる物体領域の 分離中の継続時間が予め決められた閾値以上であることのいずれかまたはそれら の組み合わせを満たす場合に、 前記クラスに含まれる物体および物体領域の追跡 状態を分離状態と判定する
請求項 9に記載の物体追跡装置。
1 2. 前記追跡状態は、 分離状態と、 物体領域内に 1つの物体のみが存在す る単独状態とを含み、
前記状態判定手段は、 分類したクラスが 1つの物体を含み、 前記クラスに含ま れる物体および物体領域の追跡状態が分離状態でない場合に、 前記クラスに含ま れる物体および物体領域の追跡状態を単独状態と判定する
請求項 1 0に記載の物体追跡装置。
1 3. 前記追跡状態は、 分離状態と、 物体領域内に 1つの物体のみが存在す る単独状態とを含み、
前記状態判定手段は、 分類したクラスが 1つの物体を含み、 前記クラスに含ま れる物体および物体領域の追跡状態が分離状態でない場合に、 前記クラスに含ま れる物体および物体領域の追跡状態を単独状態と判定する
請求項 1 1に記載の物体追跡装置。
1 4. 前記追跡状態は、 分離状態と、 物体領域内に複数の物体が対応する重 なり状態とを含み、
前記状態判定手段は、 分類したクラスが 2以上の物体を含み、 前記クラスに含 まれる物体おょぴ物体領域の追跡状態が分離状態でない場合に、 前記クラスに含 まれる物体および物体領域の追跡状態を重なり状態と判定する
請求項 1 0に記載の物体追跡装置。
1 5. 前記追跡状態は、 分離状態と、 物体領域内に複数の物体が対応する重 なり状態とを含み、
前記状態判定手段は、 分類したクラスが 2以上の物体を含み、 前記クラスに含 まれる物体および物体領域の追跡状態が分離状態でない場合に、 前記クラスに含 まれる物体および物体領域の追跡状態を重なり状態と判定する
請求項 1 1に記載の物体追跡装置。
1 6 . 前記特徴量生成手段は、 画像情報と物体領域情報と第 1の領域対応情報とから領域特徴量を抽出し、 前 記領域特徴量を示す情報である領域特徴量情報を出力する特徴量抽出手段と、 物体特徴量を記憶し、 要求に応じて、 記憶する物体特徴量を選択して出力する 特徴量記憶手段と、
前記領域特徴量情報、 前記第 1の領域対応情報あるいは確定対応情報および現 時刻より以前に生成した物体特徴量とから、 特徴量記憶手段が記憶する前記物体 特徴量を更新する特徴量更新手段とを含む
請求項4に記載の物体追跡装置。
1 7. 前記追跡状態は、 物体領域が複数の物体領域に分力れる過渡的な状態 である分離状態を含み、
前記特徴量抽出手段は、 追跡状態として分離状態以外の状態が示されている物 体領域については、 物体との対応付けが不要であることを示す情報を領域特徴量 情報に含め、
前記対応確定手段は、 前記領域特徴量情報によつて物体との対応付けが不要で あることが示されている物体領域を対応付けの対象から除外する
請求項 1 6に記載の物体追跡装置。
1 8 . 前記追跡状態は、 物体領域内に 1つの物体のみが存在する単独状態を 含み、
前記特徴量更新手段は、
第 1の領域対応情報あるいは確定対応情報から物体の追跡状態が単独状態であ るかを判定し、
物体の追跡状態が単独状態以外の場合には、 特徴量記憶手段が記憶する物体特 徴量を更新しない
請求項 1 6に記載の物体追跡装置。 ,
1 9 . 前記特徴量合成手段は、
前記特徴量生成手段が生成する物体特徴量と第 1の領域対応情報とに基づレヽて、 組み合わせが可能な物体と物体領域との全ての組み合わせを決定し、
決定した物体と物体領域との組み合わせにつレヽてのみ、 物体特徴量を合成して 合成特徴量を生成する 請求項 4に記載の物体追跡装置。
2 0 . 前記特徴量合成手段は、 物体特徴量を合成する割合を補正するための 係数である合成比率を求め、 前記合成比率と物体特徴量とから合成特徴量を生成 する
請求項 4に記載の物体追跡装置。
2 1 . 前記特徴量合成手段は、 特徴量生成手段から物体特徴量とともに領域 特徴量を入力し、 入力した領域特徴量情報と物体の特徵量とに基づレヽて任意の合 成比率に応じて合成特徴量を算出し、 算出した合成特徴量と領域特徴量との類似 度が最も高くなる場合の合成比率に応じた合成特徴量を出力する
請求項 4に記載の物体追跡装置。
2 2. 前記追跡状態は、 物体領域が複数の物体領域に分かれる過渡的な状態 である分離状態を含み、
前記特徴量合成手段は、 追跡状態として分離状態であることが示されている物 体領域についてのみ合成特徴量を生成する
請求項4に記載の物体追跡装置。
2 3. 前記物体特徴量は、 物体の面積を含み、
前記特徴量合成手段は、 前記物体特徴量に含まれる物体の面積から物体特徴量 を合成する割合を補正するための係数である合成比率を求め、 前記合成比率と前 記物体特徴量とから合成特徴量を生成する
請求項 4に記載の物体追跡装置。
2 4. 前記特徴量合成手段は、 合成比率を、 物体の面積の変化に基づく所定 範囲内に制限する
請求項 2 3に記載の物体追跡装置。
2 5 . 前記特徴量合成手段は、 特徴量生成手段から物体特徴量とともに領域 特徴量を入力し、 入力された領域特徴量と物体特徴量とから、 物体の面積変化の 範囲内で合成特徴量を生成し、 物体領域との類似度が最も高くなる合成特徴量を 出力する
請求項 4に記載の物体追跡装置。
2 6 . 前記物体特徴量は、 物体の形状や色を記述した画像テンプレートを含 み、
前記特徴量合成手段は、 画像テンプレートと領域特徴量とから各物体の前後関 係を判定し、 判定した各物体の前後関係に基づいて画像テンプレートを合成して 合成特徴量を得る
請求項 4に記載の物体追跡装置。
2 7 . 前記対応確定手段は、
前記合成特徴量情報、 前記領域特徴量情報および前記第 1の領域対応情報に基 づいて、 物体と物体領域との組み合わせのうち対応付けられる可能性のある全て の可能な組み合わせから最も類似した組み合わせを求め、 求められた物体と物体 領域との組み合わせを最適な対応付けとして選択して、 物体と物体領域との最適 な対応関係を示す最適対応情報を生成する対応計算手段と、
前記第 1の領域対応情報および前記最適対応情報に基づいて、 物体と物体領域 との対応関係を確定し、 確定した物体と物体領域との対応関係を含む情報である 確定対応情報を出力する対応決定手段とを含む
請求項 4に記載の物体追跡装置。 .
2 8 . 前記対応計算手段は、 物体と物体領域との全ての可能な組み合わせに ついて、 各組み合わせにおける物体領域の特徵量と合成特徴量との類似度の合計 である合計類似度を求め、 前記全ての可能な組み合わせのうち、 合計類似度が最 大となる組み合わせを最も類似した組み合わせとする
請求項 2 7に記載の物体追跡装置。
2 9 . 前記第 1の領域対応情報は、 物体領域が静止している状態であるカゝ動 作している状態であるかを示す静動状態の情報を含み、
前記対応計算手段は、 前記静動状態の情報によって、 静止している状態である ことが示されている物体領域と物体との組み合わせを、 全ての可能な組み合わせ から除外する +
請求項 2 7に記載の物体追跡装置。
3 0. 前記対応計算手段は、 最も類似した組み合わせとして決定した組み合 わせを構成する物体と物体領域との組の輝似度から得られる組み合わせ類似度が 予め決められた閾値 下である場合には、 物体と物体領域との全ての可能な組み 合わせのうち、 組み合わせ類似度が最大となる組み合わせの組み合わせ類似度か ら予め決められた閾値以内の組み合わせ類似度を持つ組み合わせを選択し、 選択 した組み合わせに共通して存在する物体と物体領域との対応関係を、 最適な対応 付けとして最適対応情報に含め、 前記共通して存在する物体と物体領域との対応 関係に含まれなレ、物体と物体領域にっレ、ては、 物体と物体領域には最適な対応が ないことを示す情報を最適対応情報に含め、
前記対応決定手段は、
最適な物体と物体領域との対応関係がない旨が前記最適対応情報に示されてい ない物体については、 その最適対応情報に含まれる物体と物体領域との対応関係 を示す情報を確定対応情報として出力し、
最適な物体と物体領域との対応関係がない旨が前記最適対応情報に示されてい る物体については、 第 1の領域対応情報に含まれる物体と物体領域との対応関係 を示す情報を確定対応情報として出力する
請求項 2 7に記載の物体追跡装置。
3 1 . 前記対応計算手段は、 最も類似した組み合わせとして決定した組み合 わせを構成する物体と物体領域との組の類似度から得られる組み合わせ類似度が 予め決められた閾値以下である場合には、 物体と物体領域との全ての可能な組み 合わせのうち、 組み合わせ類似度が最大となる組み合わせの組み合わせ類似度か ら予め決められた閾値以内の組み合わせ類似度を持つ組み合わせを選択し、 選択 した組み合わせに共通して存在する物体と物体領域との対応関係を、 最適な対応 付けとして最適対応情報に含め、 前記共通して存在する物体と物体領域との対応 関係に含まれな 、物体と物体領域にっレ、ては、 物体と物体領域には最適な対応が ないことを示す情報を最適対応情報に含め、 .
前記対応決定手段は、
最適な物体と物体領域との対応 M係がなレヽ旨が前記最適対応情報に示されてい ない物体については、 その最適対応情報に含まれる物体と物体領域との対応関係 を示す情報を確定対応情報として出力し、
最適な物体と物体領域との対応関係がなレヽ旨が前記最適対 情報に示されてい る物体については、 第 1の領域対応情報に含まれる物体と物体領域との对応関係 を示す情報を確定対応情報として出力する
請求項 2 8に記載の物体追跡装條。
3 2. 前記追跡状態は、 物体領域が複数の物体領域に分かれる過渡的な状態 である分離状態を含み、
前記対応決定手段は、 追跡状態として分離状態が示されている物体領域につい てのみ、 最適対応情報に示される物体と物体領域との対応関係を確定する 請求項 2 7に記載の物体追跡装置。
3 3 , 前記追跡状態は、 物体領域が複数の物体領域に分力ゝれる過渡的な状態 である分離状態を含み、
前記対応決定手段は、 追跡状態として分離状態以外の状態が示されている物体 領域についてのみ、 第 1の領域対応情報に含まれる物体と物体領域との対応を確 定対応情報として出力する
請求項 2 7に記載の物体追跡装置。
3 4 . 画像情報に基づいて物体を追跡する物体追跡方法であって、 前記画像情報に含まれる各物体の特徴量を示す物体特徴量を合成して合成特徴 量を生成し、
前記画像情報から抽出された領域であって物体を含む領域である物体領域の特 徴量と前記合成特徴量との類似度に基づレヽて物体領域と物体とを対応付ける 物体追跡方法。
3 5. 複数の物体の必要な全ての組み合わせについて特徴量を合成して各合 成特徴量を生成し、'
生成された各合成特徴量と物体領域の特徴量を示す領域特徴量とを比較するこ とによつて物体と物体領域とを対応付ける
請求項 3 4に記載の物体追跡方法。
3 6 . 前記画像情報から物体領域を抽出して物体領域の画像情報を含む物体 領域情報を出力し、
他の物体との相対的な位置関係を表す追跡状態を物体毎または物体領域毎に判 定し、
前記画像情報、 前記物体領域情報および前記判定結果を用いて、 領域特徴量お よび物体特徴量を生成し、
前記物体特徴量および前記判定結果を用いて合成特徴量を生成する
請求項 3 5に記載の物体追跡方法。
3 7. 前記物体領域情報と、 現時刻以前の物体領域と物体との対応関係を示 す確定対応情報とから、 追跡状態を物体毎または物体領域毎に判定し、 物体領域 および物体と追跡状態との対応関係を示す第 1の領域対応情報を出力し、 現時刻の画像情報、 前記物体領域情報、 前記第 1の領域対応情報および前記確 定対応情報から、 領域特徴量と物体特徴量とを生成し、
前記物体特徴量と前記第 1の領域対応情報とから、 物体領域に対応付けられる 候補となる各合成特徴量を生成し、 合成特徴量および合成特徴量生成のために用
Vヽられた物体と合成特徴量との対応関係を含む情報である合成特徴量情報を出力 し、
前記第 1の領域対応情報、 前記領域特徴量を示す情報である領域特徴量情報お よび前記合成特徴量情報から物体と物体領域とを対応付け、 現時刻に対する前記 確定対応情報を出力する
請求項 3 6に記載の物体追跡方法。
3 8 . 前記追跡状態には、物体領域内に 1つの物体のみが存在する単独状態、 物体領域內に複数の物体が対応する重なり状態、 および物体領域が複数の物体領 域に分力ゝれる過渡的な状態である分離状態のいずれかもしくはそれらの組み合わ せが含まれる
請求項 3 6に記載の物体追跡方法。
3 9 . 前記追跡状態には、物体領域内に 1つの物体のみが存在する単独状態、 物体領域内に複数の物体が対応する重なり状態、 および物体領域が複数の物体領 域に分かれる過渡的な状態である分離状態のいずれかもしくはそれらの組み合わ せが含まれる
請求項 3 7に記載の物体追跡方法。
4 0. 物体領域の色ヒストグラム、 面積、 画像テンプレートおよび面積で正 規ィ匕された色ヒストグラムの!/ヽずれかまたはそれらの組み合わせを領域特徴量と して生成し、 前記物体に対応する物体領域を前記第 1の領域対応情報から求め、 その物体領 域に対する色ヒストグラム、 面積、 画像テンプレートおよび面積で正規化された 色ヒストグラムのいずれかまたはそれらの組み合わせを物体特徴量として生成す る
請求項 3 7に記載の物体追跡方法。
4 1 . 前記物体領域情報を記憶し、
前記物体領域情報、 確定対応情報、 および現時刻以前の物体領域情報とから物 体を追跡し、 物体と物体領域との対応を示す第 2の領域対応情報を出力し、 前記第 2の領域対応情報、 前記物体領域情報およぴ現時刻以前の前記物体領域 情報とから物体の追跡状態を判定し、 前記第 1の領域対応情報を出力する 請求項 3 7に記載の物体追跡方法。
4 2. 前記第 2の領域対応情報と物体領域情報と力ゝら、 物体と物体領域との 対応、 物体領域間の距離、 物体領域の分離中の継続時間のいずれかまたはそれら の組み合わせに基づいて、 対応する前記物体領域に共通の領域が存在する物体同 士をまとめ、 これらの物体と対応する物体領域を 1つのクラスに分類し、 対応す る物体領域がどの物体とも異なる物体については、 その物体と対応する物体領域 を 1つのクラスに分類することによって、 物体および物体領域を複数のクラスに 分類し、
分類したクラスに基づいて追跡状態を判定する
請求項 4 1に記載の物体追跡方法。
4 3 . 前記追跡状態は、 物体領域が複数の物体領域に分かれる過渡的な状態 である分離状態を含み、
分類したクラスに 2以上の物体領域が含まれる場合に、 そのクラスは分離状態 である条件を満たすと判断し、
クラスが分離状態である条件を満たす場合に、 そのクラスに含まれる物体およ ぴ物体領域の追跡状態を分離状態と判定する
請求項 4 2に記載の物体追跡方法。
4 4. 前記分類したクラスが分離状態である条件を満たし、 さらに、 前記ク ラスに 2以上の物体が含まれること、 前記クラスに含まれる物体領域間の距離が 予め決められた閾値以上であること、 前記クラスに含まれる物体領域の分離中の 継続時間が予め決められた閾値以上であることのいずれかまたはそれらの組み合 わせを満たす場合に、 前記クラスに含まれる物体および物体領域の追跡状態を分 離状態と判定する
請求項 4 3に記載の物体追跡方法。
4 5. 前記追跡状態は、 分離状態と、 物体領域内に 1つの物体のみが存在す る単独状態とを含み、 ·
前記分類したクラスが 1つの物体を含み、 前記クラスに含まれる物体および物 体領域の追跡状態が分離状態でない場合に、 前記クラスに含まれる物体および物 体領域の追跡状態を単独状態と判定する
請求項 4 3に記載の物体追跡方法。
4 6. 前記追跡状態は、 分離状態と、 物体領域内に 1つの物体のみが存在す る単独状態とを含み、
前記分類したクラスが 1つの物体を含み、 前記クラスに含まれる物体および物 体領域の追跡状態が分離状態でない場合に、 前記クラスに含まれる物体および物 体領域の追跡状態を単独状態と判定する
請求項 4 4に記載の物体追跡方法。
4 7. 前記追跡状態は、 分離状態と、 物体領域内に複数の物体が対応する重 なり状態とを含み、
前記分類したクラスが 2以上の物体を含み、 前記クラスに含まれる物体および 物体領域の追跡状態が分離状態でない場合に、 前記クラスに含まれる物体および 物体領域の追跡状態を重なり状態と判定する , 請求項 4 3に記載の物体追跡方法。
4 8 . 前記追跡状態は、 分離状態と、 物体領域内に複数の物体が対応する重 なり状態とを含み、
前記分類したクラスが 2以上の物体を含み、 前記クラスに食まれる物体および 物体領域の追跡状態が分離状態でない場合に、 前記クラスに含まれる物体および 物体領域の追跡状態を重なり状態と判定する
請求項 4 に記載の物体追跡方法。
4 9 . 前記画像情報と前記物体領域情報と前記第 1の領域対応情報とから領 域特徴量を抽出し、 前記領域特徴量を示す情報である領域特徵量情報を出力し、 前記物体特徴量を記憶し、 要求に応じて、 記憶している物体特徴量を選択して 出力し、
前記領域特徴量情報と、 前記第 1の領域対応情報あるいは確定対応情報と、 現 時刻より以前に生成した物体特徴量とから、 記憶される前記物体特徴量を更新す る
請求項 3 7に記載の物体追跡方法。
5 0 . 前記追跡状態は、 物体領域が複数の物体領域に分力ゝれる過渡的な状態 である分離状態を含み、
前記追跡状態として分離状態以外の状態が示されている物体領域については、 物体との対応付けが不要であることを示す情報を領域特徴量情報に含め、 前記領域対応情報によつて物体との対応付けが不要であることが示されている 物体領域を対応付けの対象から除外する
請求項 4 9に記載の物体追跡方法。
5 1 . 前記追跡状態は、 物体領域内に 1つの物体のみが存在する単独状態を 含み、
前記第 1の領域対応情報あるいは確定対応情報から物体の追跡状態が単独状態 であるかを判定し、
物体の追跡状態が単独状態以外の場合には、 記憶される物体特徴量を更新しな い
請求項 4 9に記載の物体追跡方法。
5 2. 前記物体特徴量と前記第 1の領域対応情報とに基づいて、 組み合わせ が可能な物体と物体領域との全ての組み合わせを決定し、
決定した物体と物体領域との組み合わせにつレヽてのみ、 物体特徴量を合成して 合成特徴量を生成する
請求項 3 7に記載の物体追跡方法。
5 3. 前記物体特徴量を合成する割合を補正するための係数である合成比率 を求め、 前記合成比率と物体特徴量とから合成特徴量を生成する
請求項 3 7に記載の物体追跡方法。
5 4. 前記物体特徴量とともに領域特徴量を入力し、 入力した領域特徴量情 報と物体の特徴量とに基づ!/、て任意の合成比率に応じて合成特徴量を算出し、 算 出した合成特徴量と領域特徴量との類似度が最も高くなる場合の合成比率に応じ た合成特徴量を出力する
請求項 3 7に記載の物体追跡方法。
5 5 . 前記追跡状態は、 物体領域が複数の物体領域に分かれる過渡的な状態 である分離状態を含み、
前記追跡状態として分離状態であることが示されている物体領域についてのみ 合成特徴量を生成する
請求項 3 7に記載の物体追跡方法。
5 6 . 前記物体特徴量は、 物体の面積を含み、
該物体の面積に基づいて物体特徴量を合成する割合を補正するための係数であ る合成比率を求め、 求められた合成比率と物体特徴量とから合成特徴量を生成す る
請求項 3 7に記載の物体追跡方法。
5 7. 前記合成比率を、 物体の面積の変化に基づく所定範囲內に制限する 請求項 5 6に記載の物体追跡方法。
5 8 . 前記物体特徴量とともに前記領域特徴量を入力し、 入力された領域特 徴量と物体特徴量とから、 物体の面積変化の範囲内で合成特徴量を生成し、 物体 領域との類似度が最も高くなる合成特徴量を出力する
請求項 3 7に記載の物体追跡方法。
5 9 . 前記物体特徴量が物体の形状や色を記述した画像テンプレートを含み、 該画像テンプレートと領域特徴量とから各物体の前後関係を判定し、 判定した 各物体の前後闋係に基づいて画像テンプレートを合成して合成特徴量を得る 請求項 3 7に記載の物体追跡方法。
6 0 · 前記合成特徴量情報、 前記領域特徴量情報およぴ前記第 1の領域対応 情報に基づいて、 物体と物体領域との組み合わせのうち対応付けられる可能性の ある全ての可能な組み合わせから最も類似した組み合わせを求め、 求められた物 体と物体領域との組み合わせを最適な対応付けとして選択して、 物体と物体領域 との最適な対応関係を示す最適対応情報を生成し、
前記第 1の領域対応情報および前記最適対応情報に基づレヽて、 物体と物体領域 との対応関係を確定し、 確定した物体と物体領域との対応関係を含む情報である 確定対応情報を出力する
請求項 3 7に記載の物体追跡方法。
6 1 . 物体と物体領域との全ての可能な組み合わせについて、 各組み合わせ における物体領域の特徴量と合成特徴量との類似度の合計である合計類似度を求 め、 前記全ての可能な組み合わせのうち、 合計類似度が最大となる組み合わせを 最も類似した組み合わせとする
請求項 6 0に記載の物体追跡方法。
6 2. 前記第 1の領域対応情報が、 物体領域が静止している状態であるカ動 作している状態であるかを示す静動状態の情報を含み、
俞記静動状態の情報によって、 静止している状態であることが示されている物 体領域と物体との組み合わせを、 全ての可能な組み合わせから除外する
請求項 6 0に記載の物体追跡方法。
6 3 . 最も類似した組み合わせとして決定した組み合わせを構成する物体と 物体領域との組の類似度から得られる組み合わせ類似度が予め決められた閾値以 下である場合には、 物体と物体領域との全ての可能な組み合わせのうち、 組み合 わせ類似度が最大となる組み合わせの組み合わせ類似度から予め決められた閾値 以内の組.み合わせ類似度を持つ組み合わせを選択し、 選択した組み合わせに共通 して存在する物体と物体領域との対応関係を、 最適な対応付けとして最適対応情 報に含め、 前記共通して存在する物体と物体領域との対応関係に含まれない物体 と物体領域については、 物体と物体領域には最適な対応がないことを示す情報を 最適対応情報に含め、
最適な物体と物体領域との対応関係がない旨が前記最適対応情報に示さ.れてレヽ ない物体については、 その最適対応情報に含まれる物体と物体領域との対 関係 を示す情報を確定対応情報として出力し、 最適な物体と物体領域との対応関係がなレ、旨が前記最適対応情報に示されてい る物体については、 第 1の領域対応情報に含まれる物体と物体領域との対応関係 を示す情報を確定対応情報として出力する
請求項 6 0に記載の物体追跡方法。
6 4. 最も類似した組み合わせとして決定した組み合わせを構成する物体と 物体領域との組の類似度から得られる組み合わせ類似度が予め決められた閾値以 下である場合には、 物体と物体領域との全ての可能な組み合わせのうち、 組み合 わせ類似度が最大となる組み合わせの組み合わせ類似度から予め決められた閾値 以内の組み合わせ類似度を持つ組み合わせを選択し、 選択した組み合わせに共通 して存在する物体と物体領域との対応関係を、 最適な対応付けとして最適対応情 報に含め、 前記共通して存在する物体と物体領域との対応関係に含まれない物体 と物体領域については、 物体と物体領域には最適な対応がないことを示す情報を 最適対応情報に含め、
最適な物体と物体領域との対応関係がなレヽ旨が前記最適対応情報に示されてい ない物体については、 その最適対応情報に含まれる物体と物体領域との対応関係 を示す情報を確定対応情報として出力し、
最適な物体と物体領域との対応関係がな!/ヽ旨が前記最適対応情報に示されてい る物体については、 第 1の領域対応情報に含まれる物体と物体領域との対応関係 を示す情報を確定対応情報として出力する
請求項 6 1に記載の物体追跡方法。
6 5 . 前記追跡状態は、 物体領域が複数の物体領域に分力ゝれる過渡的な状態 である分離状態を含み、
前記追跡状態として分離状態が示されている物体領域についてのみ、 最適対応 情報に示される物体と物体領域との対応関係を確定する
請求項 6 0に記載の物体追跡方法。
6 6 . 前記追跡状態は、 物体領域が複数の物体領域に分かれる過渡的な状態 である分離状態を含み、
前記追跡状態として分離状態以外の状態が示されている物体領域にっレヽてのみ、 第 1の領域対応情報に含まれる物体と物体領域との対応を確定対応情報として出 力する
請求項 6 0に記載の物体追跡方法。
6 7. 画像情報に基づいて物体を追跡する物体追跡プログラムであって、 コンピュータに、
画像情報を入力する処理と、
入力された前記画像情報に含まれる各物体の特徴量を示す物体特徴量を合成し て合成特徴量を生成する処理と、
前記画像情報から抽出された領域であって物体を含む領域である物体領域の特 徴量と前記合成特徴量との類似度に基づいて物体領域と物体とを対応付ける処理 と
を実行させるための物体追跡プログラム。
6 8 . 入力された画像情報における物体と物体領域とを対応付ける物体追跡 プログラムであって、
コンピュータに、
画像情報を入力する処理と、
入力された前記画像情報から物体領域を抽出して物体領域の画像情報を含む物 体領域情報を出力する処理と、
前記物体領域情報と、 現時刻以前の物体領域と物体との対応関係を示す確定対 応情報とから、 追跡状態を物体毎または物体領域毎に判定し、 前記物体領域およ ぴ前記物体と前記追跡状態との対応関係を示す第 1の領域対応情報を出力する処 理と、
前記画像情報、 前記物体領域情報および前記第 1の領域対応情報を用いて、 物 体領域の特徴量を示す領域特徴量および物体の特徴量を示す物体特徴量を生成す る処理と、
前記物体特徴量と前記第 1の領域対応情報とから、 複数の物体の必要な全ての 組み合わせにつレ、て特徴量を合成して各合成特徴量を生成し、 合成特徴量および 合成特徴量生成のために用いられた物体と合成特徴量との対応関係を含む情報で ある合成特徴量情報を出力する処理と、
前記第 1の領域対応情報、 前記領域特徴量情報および前記合成特徴量情報から 物体と物体領域とを対応付け、 現時刻に対する前記確定対応情報を出力する処理 と
を実行させるための物体追跡プログラム。
6 9 . 入力された画像情報における物体と物体領域とを対応付ける物体追跡 プログラムであって、
コンピュータに、
画像情報を入力する処理と、
前記物体領域情報と、 現時刻以前の物体領域と物体との対応関係を示す確定対 応情報とから、 追跡状態を物体毎または物体領域毎に判定し、 物体領域お び物 体と追跡状態との対応関係を示す第 1の領域対応情報を出力する処理と、 前記画像情報、 前記物体領域情報および前記第 1の領域対応情報を用いて、 物 体領域の特徴量を示す領域特徴量および物体の特徴量を示す物体特徴量を生成す る処理と、
各物体を対象として、 追跡状態が、 物体領域が複数の物体領域に分力ゝれる過渡 的な状態である分離状態以外の状態であると判定されている物体について、 前記 第 1の領域対応情報に含まれる物体と物体領域との対応を、 物体と物体領域との 対応として確定し、 追跡状態が分離状態であると判定されている物体について、 前記物体特徴量と前記第 1の領域対応情報とから複数の物体の必要な全ての組み 合わせにっレヽて特徴量を合成して各合成特徴量を生成し、 各合成特徴量と領域特 徴量とを比較し、 最も類似度が高い合成特徴量に対応した物体と物体領域とを対 応付ける処理と
を実行させるための物体追跡プログラム。
PCT/JP2003/010837 2002-08-30 2003-08-27 物体追跡装置、物体追跡方法および物体追跡プログラム WO2004021281A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP03791330A EP1538565A4 (en) 2002-08-30 2003-08-27 OBJECT TRACKING DEVICE, OBJECT TRACKING PROCEDURE AND OBJECT PURPOSE PROGRAM
US10/525,874 US20050254686A1 (en) 2002-08-30 2003-08-27 Object trace device, object method, and object trace program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2002254493A JP4240957B2 (ja) 2002-08-30 2002-08-30 物体追跡装置、物体追跡方法および物体追跡プログラム
JP2002-254493 2002-08-30

Publications (1)

Publication Number Publication Date
WO2004021281A1 true WO2004021281A1 (ja) 2004-03-11

Family

ID=31972842

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2003/010837 WO2004021281A1 (ja) 2002-08-30 2003-08-27 物体追跡装置、物体追跡方法および物体追跡プログラム

Country Status (6)

Country Link
US (1) US20050254686A1 (ja)
EP (1) EP1538565A4 (ja)
JP (1) JP4240957B2 (ja)
KR (1) KR100664425B1 (ja)
CN (1) CN1320502C (ja)
WO (1) WO2004021281A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11212572B2 (en) * 2018-02-06 2021-12-28 Nippon Telegraph And Telephone Corporation Content determination device, content determination method, and program

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7526750B2 (en) * 2003-10-15 2009-04-28 Microsoft Corporation Object-based systematic state space exploration of software
JP4140567B2 (ja) 2004-07-14 2008-08-27 松下電器産業株式会社 物体追跡装置および物体追跡方法
CN100435555C (zh) * 2005-11-17 2008-11-19 中国科学院半导体研究所 高速目标跟踪方法及其电路系统
CA2661136A1 (en) * 2006-08-11 2008-02-14 Thomson Licensing Accurate motion portrayal for display and digital projectors
US7920717B2 (en) * 2007-02-20 2011-04-05 Microsoft Corporation Pixel extraction and replacement
JP4970195B2 (ja) 2007-08-23 2012-07-04 株式会社日立国際電気 人物追跡システム、人物追跡装置および人物追跡プログラム
JP2009053815A (ja) * 2007-08-24 2009-03-12 Nikon Corp 被写体追跡プログラム、および被写体追跡装置
US8660300B2 (en) * 2008-12-12 2014-02-25 Silicon Laboratories Inc. Apparatus and method for optical gesture recognition
JP2011015244A (ja) * 2009-07-03 2011-01-20 Sanyo Electric Co Ltd ビデオカメラ
US8509482B2 (en) * 2009-12-21 2013-08-13 Canon Kabushiki Kaisha Subject tracking apparatus, subject region extraction apparatus, and control methods therefor
JP5488076B2 (ja) 2010-03-15 2014-05-14 オムロン株式会社 対象物追跡装置、対象物追跡方法、および制御プログラム
US8850003B2 (en) * 2010-04-20 2014-09-30 Zte Corporation Method and system for hierarchical tracking of content and cache for networking and distribution to wired and mobile devices
KR101054736B1 (ko) * 2010-05-04 2011-08-05 성균관대학교산학협력단 3차원 물체 인식 및 자세 추정 방법
JP5338978B2 (ja) 2010-05-10 2013-11-13 富士通株式会社 画像処理装置および画像処理プログラム
RU2546327C1 (ru) 2011-03-28 2015-04-10 Нек Корпорейшн Устройство для отслеживания человека, способ отслеживания человека и невременный машиночитаемый носитель, хранящий программу для отслеживания человека
JP6067547B2 (ja) * 2013-12-13 2017-01-25 国立大学法人 東京大学 物体認識装置、ロボット及び物体認識方法
US9230366B1 (en) * 2013-12-20 2016-01-05 Google Inc. Identification of dynamic objects based on depth data
JP6203077B2 (ja) * 2014-02-21 2017-09-27 株式会社東芝 学習装置、密度計測装置、学習方法、学習プログラム、及び密度計測システム
KR101596436B1 (ko) * 2014-05-19 2016-02-23 한국과학기술연구원 다중 목표 추적 시스템 및 방법
JP6340957B2 (ja) * 2014-07-02 2018-06-13 株式会社デンソー 物体検出装置および物体検出プログラム
US20170053172A1 (en) * 2015-08-20 2017-02-23 Kabushiki Kaisha Toshiba Image processing apparatus, and image processing method
JP6504711B2 (ja) * 2016-03-29 2019-04-24 Kddi株式会社 画像処理装置
US10867394B2 (en) 2016-05-18 2020-12-15 Nec Corporation Object tracking device, object tracking method, and recording medium
JP6787075B2 (ja) 2016-11-22 2020-11-18 富士通株式会社 画像処理システム、画像処理装置および画像処理方法
US10462449B2 (en) * 2017-02-23 2019-10-29 Novatek Microelectronics Corp. Method and system for 360-degree video playback
KR102022971B1 (ko) * 2017-10-18 2019-09-19 한국전자통신연구원 영상의 객체 처리 방법 및 장치
JP6962145B2 (ja) 2017-11-13 2021-11-05 富士通株式会社 画像処理プログラム、画像処理方法および情報処理装置
WO2023176405A1 (ja) * 2022-03-17 2023-09-21 国立研究開発法人量子科学技術研究開発機構 画像認識プログラム、これを用いた画像認識装置、検出対象個体数計数方法、およびこれらに使用する画像認識学習用モデル画像作成装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0259976A (ja) * 1988-08-26 1990-02-28 Matsushita Electric Works Ltd ブロック統合処理方式
JPH04245579A (ja) * 1991-01-31 1992-09-02 N T T Data Tsushin Kk 図形の部分照合方法
JPH0721475A (ja) * 1993-06-30 1995-01-24 Fuji Electric Co Ltd 侵入物体監視装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2620952B2 (ja) * 1988-04-18 1997-06-18 日本電信電話株式会社 微細パターン形成方法
US6185314B1 (en) * 1997-06-19 2001-02-06 Ncr Corporation System and method for matching image information to object model information
US6545706B1 (en) * 1999-07-30 2003-04-08 Electric Planet, Inc. System, method and article of manufacture for tracking a head of a camera-generated image of a person

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0259976A (ja) * 1988-08-26 1990-02-28 Matsushita Electric Works Ltd ブロック統合処理方式
JPH04245579A (ja) * 1991-01-31 1992-09-02 N T T Data Tsushin Kk 図形の部分照合方法
JPH0721475A (ja) * 1993-06-30 1995-01-24 Fuji Electric Co Ltd 侵入物体監視装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1538565A4 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11212572B2 (en) * 2018-02-06 2021-12-28 Nippon Telegraph And Telephone Corporation Content determination device, content determination method, and program

Also Published As

Publication number Publication date
JP4240957B2 (ja) 2009-03-18
CN1695167A (zh) 2005-11-09
KR20050057096A (ko) 2005-06-16
EP1538565A1 (en) 2005-06-08
JP2004096402A (ja) 2004-03-25
KR100664425B1 (ko) 2007-01-03
US20050254686A1 (en) 2005-11-17
CN1320502C (zh) 2007-06-06
EP1538565A4 (en) 2010-11-17

Similar Documents

Publication Publication Date Title
WO2004021281A1 (ja) 物体追跡装置、物体追跡方法および物体追跡プログラム
JP7317919B2 (ja) 外観検索のシステムおよび方法
US10599228B2 (en) Information processing device and method, program and recording medium for identifying a gesture of a person from captured image data
WO2007105768A1 (ja) 顔画像登録装置、顔画像登録方法、顔画像登録プログラム、および記録媒体
JP5219795B2 (ja) 被写体追跡装置、その制御方法、撮像装置、表示装置及びプログラム
EP2339536B1 (en) Image processing system, image processing apparatus, image processing method, and program
CN111950424B (zh) 一种视频数据处理方法、装置、计算机及可读存储介质
JP4874150B2 (ja) 移動物体追跡装置
WO2009143279A1 (en) Automatic tracking of people and bodies in video
JP2022548915A (ja) 人体属性の認識方法、装置、電子機器及びコンピュータプログラム
JP7159384B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP4969291B2 (ja) 移動物体追跡装置
JP2010039788A (ja) 画像処理装置及びその方法並びに画像処理プログラム
JP2011089784A (ja) 物体方向推定装置
US11335027B2 (en) Generating spatial gradient maps for a person in an image
JP2024045460A (ja) 情報処理システム、情報処理装置、情報処理方法、およびプログラム
EP2639744B1 (en) Image processor, image processing method, control program, and recording medium
JP2016219879A (ja) 画像処理装置、画像処理方法及びプログラム
JP5241687B2 (ja) 物体検出装置及び物体検出プログラム
JPH09265538A (ja) 自動追尾装置
JP6350331B2 (ja) 追尾装置、追尾方法及び追尾プログラム
CN117156259B (zh) 一种视频流获取方法及电子设备
JP2017033390A (ja) 画像解析装置及びプログラム
JPH11296673A (ja) ジェスチャ認識装置
JP3122290B2 (ja) ジェスチャ動画像認識方法

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): CN KR US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PT RO SE SI SK TR

DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 10525874

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 1020057003601

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 2003791330

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 20038247518

Country of ref document: CN

WWP Wipo information: published in national office

Ref document number: 2003791330

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 1020057003601

Country of ref document: KR