WO2020217369A1 - オブジェクト特徴量抽出装置、オブジェクト特徴量抽出方法及び非一時的なコンピュータ可読媒体 - Google Patents

オブジェクト特徴量抽出装置、オブジェクト特徴量抽出方法及び非一時的なコンピュータ可読媒体 Download PDF

Info

Publication number
WO2020217369A1
WO2020217369A1 PCT/JP2019/017572 JP2019017572W WO2020217369A1 WO 2020217369 A1 WO2020217369 A1 WO 2020217369A1 JP 2019017572 W JP2019017572 W JP 2019017572W WO 2020217369 A1 WO2020217369 A1 WO 2020217369A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
feature amount
extraction
detection result
storage means
Prior art date
Application number
PCT/JP2019/017572
Other languages
English (en)
French (fr)
Inventor
亮磨 大網
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to US17/604,809 priority Critical patent/US11875518B2/en
Priority to JP2021515398A priority patent/JP7215569B2/ja
Priority to PCT/JP2019/017572 priority patent/WO2020217369A1/ja
Publication of WO2020217369A1 publication Critical patent/WO2020217369A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Definitions

  • the present invention relates to an object feature amount extraction device that detects an object from an image acquired by an imaging device and extracts the feature amount, an object feature amount extraction method, and a non-temporary computer-readable medium.
  • a method has been proposed in which an object or a person (hereinafter referred to as an object) is detected using a camera and a feature amount is extracted. This feature is used to collate objects detected between different cameras and to search for the same or similar objects from previously captured and stored images.
  • Patent Document 1 discloses a method of extracting a person's feature amount, and which person's feature detected on the screen is based on the size of the person on the screen and the past feature amount extraction frequency. Whether to extract the amount is prioritized according to the size.
  • a comprehensive selection means for selecting a person whose feature amount is to be extracted by a random number is also provided, and a method of alternately performing priority processing and exhaustive processing to select a person and extracting the feature amount is described.
  • the orientation may be taken into consideration when selecting the person to extract the feature amount.
  • Patent Document 2 in the case of installing a normal surveillance camera for shooting from diagonally above, the lower part of the screen is closer to the camera, and the movement of the person on the screen becomes larger even though the person appears larger. Therefore, a method is disclosed in which the frequency of extracting the feature amount of a person is increased toward the lower area of the screen. In addition, it is also described that the frequency of feature extraction is increased for a person who has a large movement in consideration of the magnitude of the movement of the person.
  • Patent Document 1 since the method described in Patent Document 1 only considers the size of a person, it does not consider the possibility of motion blurring when there is movement even if the size is large, and is suitable for collation. There is a possibility that missing features will be extracted. In addition, other factors of deterioration of the feature amount are not considered.
  • Patent Document 2 since the person is not tracked, the history information such as how much the feature amount was extracted in the past for each person is not retained, and the number of times the feature amount is extracted between the persons is calculated. Large variations can occur.
  • Patent Document 1 the overlap between persons and the concealment by other obstacles are not taken into consideration, and there is a problem that the feature amount suitable for matching cannot always be extracted from the selected person. is there. In addition, deterioration factors of features other than the size based on blurring and lighting conditions are not considered.
  • an object of the present invention is to adaptively select an object for feature extraction in each frame of a moving image even if the feature amount requires time for feature amount extraction, and the object as a whole is highly accurate. It is an object of the present invention to provide an object feature extraction device capable of collation, an object feature extraction method, and a non-temporary computer-readable medium.
  • the object feature amount extraction device is an image acquisition means that acquires an image and generates the acquired image as an image string, and an object that detects an object from the generated image and generates a detection result.
  • the detection means the object tracking means that tracks the object based on the generated image and the detection result and generates the tracking result
  • the image storage means that stores the image, and the detection that stores the detection result. From the current time based on the result storage means, the tracking result storage means for storing the tracking result, the detection result stored in the detection result storage means, and the tracking result stored in the tracking result storage means.
  • a quality index that predicts the quality of the feature quantity of the object detected at the extraction time one frame or more before is calculated, the object to be feature-extracted at the extraction time is selected based on the quality index, and the object selection information.
  • the object selection means for generating the object the image of the extraction time recorded in the image storage means, the detection result of the extraction time stored in the detection result storage means, and the object selection information. It is characterized by having an object feature extraction means for extracting the feature amount of the object detected from the frame of the extraction time.
  • the object feature amount extraction method is a step of acquiring an image and generating the acquired image as an image string, and a step of detecting an object from the generated image and generating a detection result.
  • the step of storing the tracking result in the tracking result storage means, the detection result stored in the detection result storage means, and the tracking result stored in the tracking result storage means Based on the step of storing the tracking result, the step of storing the tracking result in the tracking result storage means, the detection result stored in the detection result storage means, and the tracking result stored in the tracking result storage means.
  • the step of generating selection information the image of the extraction time stored in the image storage means, the detection result of the extraction time stored in the detection result storage means, and the object selection information. It is characterized by having a step of extracting the feature amount of the object detected from the frame of the extraction time.
  • the program according to the embodiment acquires an image, generates the acquired image as an image string, detects an object from the generated image, generates a detection result, and uses the generated image.
  • the object is tracked based on the detection result, the tracking result is generated, the image is stored in the image storage means, the detection result is stored in the detection result storage means, and the tracking result is stored in the tracking result storage means.
  • the object detected at the extraction time which is one frame or more before the current time, based on the detection result stored in the detection result storage means and the tracking result stored in the tracking result storage means.
  • a quality index for predicting the quality of the feature quantity is calculated, the object to be feature-extracted at the extraction time is selected based on the quality index, object selection information is generated, and the extraction stored in the image storage means is performed. Based on the image of the time, the detection result of the extraction time stored in the detection result storage means, and the object selection information, the feature amount of the object detected from the frame of the extraction time is extracted. Let the computer do that.
  • a device an object feature extraction method, and a non-temporary computer-readable medium are provided.
  • FIG. 1 It is a block diagram which illustrated the structure of the object feature amount extraction apparatus which concerns on 1st Embodiment. It is a block diagram which illustrated the structure of the object selection means in the object feature amount extraction apparatus which concerns on 1st Embodiment. It is a block diagram which illustrates the quality determination part of the object selection means in the feature amount extraction apparatus which concerns on 1st Embodiment. It is a block diagram which illustrates another quality determination part of the object selection means in the feature amount extraction apparatus which concerns on 1st Embodiment. It is a block diagram which illustrates another object selection means in the feature amount extraction apparatus which concerns on 1st Embodiment. FIG.
  • FIG. 5 is a block diagram illustrating a variation determination unit of another object selection means in the feature amount extraction device according to the first embodiment. It is a block diagram which illustrates another variation determination part in the feature amount extraction apparatus which concerns on 1st Embodiment. It is a figure which illustrated the temporal relationship between the image section which performs an object selection, and the timing which performs an object selection in the feature amount extraction apparatus which concerns on 1st Embodiment. It is a block diagram which illustrated the structure of the object feature amount extraction apparatus which concerns on 2nd Embodiment. It is a block diagram which illustrated the structure of the object selection means in the object feature amount extraction apparatus which concerns on 2nd Embodiment.
  • FIG. 1 is a block diagram illustrating the configuration of the object feature amount extraction device according to the first embodiment.
  • the object feature amount extraction device 100 includes an image acquisition means 101, an object detection means 102, an object tracking means 103, an object selection means 105, an object feature extraction means 106, and an image storage means 107.
  • the detection result storage means 108 and the tracking result storage means 109 are provided.
  • the video acquisition means 101 acquires a video and outputs the acquired video to the object detection means 102, the object tracking means 103, and the image storage means 107.
  • the object detection means 102 performs object detection on the image output from the video acquisition means 101, and outputs the object detection result to the object tracking means 103 and the detection result storage means 108.
  • the object tracking means 103 Based on the object detection result output from the object detection means 102, the object tracking means 103 performs object tracking processing using the image output from the video acquisition means 101, and stores the object tracking result in the tracking result storage means 109. Output.
  • the object selection means 105 selects an object for feature extraction based on the past image tracking result output from the detection result storage means 108 and the tracking result history information output from the tracking result storage means 109, and selects the selected object.
  • the information is output to the object feature extraction means 106.
  • the object feature extraction means 106 outputs the feature amount of the object included in the selected object information output from the object selection means 105 from the image storage means 107 based on the object detection result output from the detection result storage means 108. Extract from the image.
  • the image acquisition means 101 captures an image of an area or an object to be monitored.
  • the image acquisition means any image can be taken as long as it can capture the image.
  • it may be a fixed surveillance camera or a Web camera, or it may be a camera attached to a moving body such as a UAV or a vehicle.
  • it may be a wearable camera worn by police officers or guards, or it may be a video camera taken by a user.
  • the video captured by the video acquisition means 101 is output as an image sequence. This image sequence is output to the object detecting means 102 and the object tracking means 103, and is also output to and stored in the image storage means 107.
  • the object detection means 102 performs object detection on the image input from the video acquisition means 101, and outputs the result as the object detection result.
  • the person area is detected by using a detector that has learned the image features of the person. For example, a detector that detects based on HOG (Histograms of Oriented Gradients) characteristics or a detector that detects directly from an image using a CNN (Convolutional Neural Network) may be used.
  • HOG Hemograms of Oriented Gradients
  • CNN Convolutional Neural Network
  • a person may be detected by using a detector trained in a part of the person (for example, the head) instead of the whole person.
  • the person area can be specified.
  • it may be configured to obtain a person area by combining silhouette information (information in an area having a difference from the background model) obtained by background subtraction and head detection information.
  • the object Even if the object is a car, it can be detected using a detector that has learned the image features of the vehicle in the same way. Even if the object is a specific object other than that, a detector that has learned the image features of the specific object may be constructed and used.
  • the object detection result information includes the time information (or information for identifying the frame such as the frame number) of the detected frame and the information of the detected object, and the object information is the information of the object. Includes detection position and size.
  • the position of the object may be represented by a position on the screen, or may be converted into real-world coordinates to represent the position by using a parameter representing the position or orientation of the camera obtained by calibration of the camera. It may be. For example, when it is expressed by the position on the screen, it may be expressed by the coordinates of the vertices of the rectangle surrounding the object (for example, the upper left and lower right vertices).
  • the object detection result information includes the information of the detected plurality of objects. It also includes ID information that distinguishes the detected objects within the same frame. However, this ID information is ID information assigned to distinguish a plurality of objects detected in the same frame, and is different from the ID information assigned to the tracked object.
  • the generated object detection result information is output to the object tracking means 103. It is also output and stored in the detection result storage means 108.
  • the object tracking means 103 performs a tracking process based on the detection result, which is called Tracking by Detection. That is, each object included in the object tracking result up to the previous time and being tracked is found to correspond to which detected object included in the object detection result at the current time, and the tracking result is updated. To do.
  • the position of each object to be tracked may be predicted by a Kalman filter or a particle filter, and then associated with the detection object at the current time.
  • the tracking target object information is updated by using the corresponding detection object information and the image at that time.
  • the likelihood that represents the certainty of the tracked object is defined, and from the time of new generation, the likelihood is increased when it is associated with the detected object, and if there is no correspondence, the likelihood is increased. May be lowered and deleted when the likelihood falls below a certain value.
  • the object tracking result information includes the position and size of the object on the image, the ID information given for each object to be tracked, and the ID information of the detected object that is associated (not supported if not matched).
  • Information indicating that) is included.
  • the description method of the position information is arbitrary and may be indicated by the circumscribing rectangular information of the tracking object, or the coordinates of one point in the tracking object area are obtained and the size information is expressed by the relative information based on that point. You may do so.
  • the position on the screen when expressing by the position on the screen, it may be expressed by the coordinates of the vertices of the rectangle surrounding the object (for example, the upper left and lower right vertices). Alternatively, it may be represented by information on the width and height of one vertex and a rectangle. Alternatively, it may be converted into coordinates in real space and output.
  • the generated object tracking result information is output to the tracking result storage means 109 and stored.
  • the image acquired by the image acquisition means 101 is stored up to a certain time before the current time (this is referred to as T cur ). Since the feature extraction of the object described later is performed on the image at a time slightly earlier than the current time, the image is stored for the time including at least this time. Then, when it is read from the object feature extraction means 106 described later, an image at a designated time is output.
  • the object detection result is stored up to a certain time before the current time T cur . This also needs to be stored for the same amount of time as the image of the image storage means 107. Then, when the object is read from the object selection means 105 or the object feature extraction means 106, which will be described later, the detection result at the specified time is output.
  • the tracking result storage means 109 stores the object tracking result. Then, when it is read from the object selection means 105 described later, the tracking result history of the designated time interval is output.
  • the object selection means 105 selects an object for feature extraction at a time to be feature extracted by the object feature extraction means 106 described later.
  • the object feature extraction means 106 extracts the features of the object from the image at a time slightly earlier than the present, and selects the object at that time (hereinafter referred to as the extraction time).
  • the extraction time When the extraction time and time tau (> 0) only prior to the time T cur-tau to the current time T cur, the object selection unit 105, a detection result object detection result for the image of the extraction time T cur-tau as the past detection result Read from the storage means 108.
  • the tracking result from the time T cur ⁇ T to the current time T cur is read from the tracking result storage means 109.
  • ⁇ T (> 0) represents the time interval required to estimate the state and movement of the object from the tracking result. Then, it is determined for which object of the tracking target object the feature extraction process is to be performed, and the selected object information which is the information for selecting the object to be feature-extracted is generated.
  • the selected object information includes the extraction time T cur- ⁇ , the ID information of the tracked object for which feature extraction is performed, and the ID information of the detection object corresponding thereto.
  • the generated selected object information is output to the object feature extraction means 106.
  • the object feature extraction unit 106 and the selected object information, based on the object detection result information extraction time T cur-tau, it extracts the object feature amount from the image of the extraction time T cur-tau. That is, the position information of this detection object is obtained from the object detection result information by the detection object ID corresponding to the tracking object ID included in the selected object information, and the feature amount of the corresponding image area is obtained from the object of the tracking object ID. Extract as a feature quantity.
  • the feature to be extracted is a visual feature amount representing the color, shape, pattern, etc. of the object, and any feature amount that can be used to identify the object may be used.
  • it may be a histogram of color or luminance gradient features, a local feature such as SIFT or SURF, or a feature quantity that describes a pattern such as Gabor wavelet.
  • it may be a feature amount for object identification obtained by deep learning.
  • FIG. 2 is a block diagram illustrating the configuration of the object selection means in the object feature amount extraction device according to the first embodiment. As shown in FIG. 2, the object selection means 105 has a quality determination unit 120 and an object selection unit 121.
  • the quality determination unit 120 obtains a quality index based on the input object tracking result history and the past image object detection result, and outputs the quality index to the object selection unit 121.
  • the object selection unit 121 selects an object for which the feature amount is to be extracted based on the quality index output from the quality determination unit 120, and outputs the selected object information.
  • the past image object detection result and the object tracking result history are input to the quality determination unit 120.
  • the past image object detection result is the object detection result for the image at the extraction time T cur- ⁇ .
  • the object tracking result history is the tracking result of the object from the time T cur ⁇ T to the current time T cur .
  • the quality determination unit 120 calculates a quality index for each tracking target object in the image at the extraction time T cur- ⁇ based on the input object tracking result history and the past image object detection result.
  • the quality index is an index that predicts the quality of the feature quantity to be extracted before feature extraction, and takes a high value when it is predicted that a high quality feature quantity is extracted from the object, and is low when it is not. It is a value index.
  • the range that the quality index can take is arbitrary, but in the following, the quality index shall take the value in the interval of [0, 1].
  • the calculated quality index is output to the object selection unit 121 in association with the information of the ID of the object to be tracked and the detection object ID corresponding thereto.
  • the object selection unit 121 selects a tracking target object having a large input quality index value. Specifically, for example, a quality index value larger than a certain value is selected. Alternatively, when sorting by the value of the quality index, a certain number of tracked objects (if the number of objects is less than a certain number, all) are selected from the largest. Alternatively, an object may be selected by combining both criteria (for example, a certain number of objects may be selected from the larger one among the values of the quality index of a certain value or more). The ID of the selected tracking object, the ID of the detection object corresponding to the ID, and the extraction time information are combined and output as the selected object information.
  • FIG. 3 is a block diagram illustrating the quality determination unit 120 of the object selection means in the feature amount extraction device according to the first embodiment.
  • the quality determination unit 120 includes the quality index calculation unit 130.
  • the quality index calculation unit 130 calculates and outputs the quality index based on the past image object detection result and the object tracking result history.
  • the quality index calculation unit 130 calculates a quality index for various factors for each tracking target object included in the tracking result at the extraction time T cur ⁇ ⁇ in the object tracking result history.
  • the larger the size of the detected object the more detailed features of the object can be extracted. Therefore, it is generally considered that the larger the size (resolution) of the object, the higher the quality of the feature amount. Therefore, the value of the quality index q Res based on the resolution can be obtained by the mathematical formula (1) using the size S of the object area (for example, the area of the area, the width and height of the area, etc.) obtained from the object detection result.
  • f Res (S) is a monotonous non-decreasing function having [0, 1] as a range, and is represented as shown in FIG. 17B, for example.
  • this function may find the relationship between the size S and the collation accuracy and use it as fRes (S).
  • the movement of the object on the screen is large, there is a high possibility that the fine pattern on the surface of the object (for example, the pattern of clothes when the object is a person) cannot be correctly extracted due to the influence of the movement blur. Therefore, it is considered that the larger the movement of the object on the screen, the lower the quality of the feature amount. Therefore, assuming that the amount of movement of the object on the screen is v, the value of the quality index q Mot based on the movement can be obtained by the mathematical formula (2).
  • f Mot (v) is a monotonous non-increasing function having [0, 1] as a range, and is represented as shown in FIG. 17C, for example.
  • this function may be used as fMot (v) by finding the relationship between the amount of movement v on the screen and the collation accuracy.
  • the movement amount v can be obtained from the movement history of the tracking target object. For example, using the extraction time T cur-tau position information at a plurality of times before and after, it is possible to determine the amount of movement v on the screen at the time of extraction T cur-tau.
  • the extracted feature amount may deviate from the assumption. Therefore, it is considered that the quality of the feature quantity decreases as the deviation of the posture and orientation of the object from the assumed posture and orientation increases.
  • the posture change degree an index in which the value increases as the deviation from the assumed posture increases
  • a quality index q Pos based on the posture and orientation is used. The value of is expressed by the mathematical formula (3).
  • f Pos (r Pos ) is a monotonous non-increasing function having [0, 1] as a range, and is represented as shown in FIG. 17D, for example.
  • this function may be used as f Pos (r Pos ) by finding the relationship between the attitude change degree and r Pos and the collation accuracy.
  • the posture change degree r Pos can be defined, for example, by how much the aspect ratio of the object detection rectangle deviates from the aspect ratio of the object circumscribing rectangle in the case of the assumed posture.
  • the absolute value of the difference between the aspect ratio of the detected rectangle and the aspect ratio of the object circumscribing rectangle with respect to the assumed posture can be obtained and used as the posture change degree.
  • the size of the object in the real space can be obtained from the size of the rectangle on the screen.
  • the degree of change in posture may be defined according to the degree of change in size in the real space.
  • the orientation of the object may also be considered. There are various methods for determining the orientation of an object. For example, assuming that the orientation matches the movement direction of the object, it is possible to identify the movement direction of the object from the history of the position of the tracking result and estimate the orientation. it can. Then, the degree of change in posture may be defined by the magnitude of the deviation between the estimated orientation and the assumed orientation of feature extraction (for example, the front surface).
  • the overall quality index is calculated from the quality index for each factor obtained in this way.
  • the function g 1 representing the relationship between the quality index for each factor and the overall quality index Q is defined and used as in the mathematical formula (4).
  • the value of the quality index for the factors not considered may be regarded as 1, and the quality index may be calculated according to the mathematical formula (4).
  • the above-mentioned quality index is calculated for each tracked object included in the object tracking result of the extraction time T cur- ⁇ . Then, the calculated quality index is output in association with the information of the ID of the tracking object and the detection object ID corresponding thereto.
  • FIG. 4 is a block diagram illustrating another quality determination unit of the object selection means in the feature amount extraction device according to the first embodiment.
  • another example of the quality determination unit 120 includes a quality index calculation unit 131 and an environmental factor storage unit 132.
  • the quality index calculation unit 131 calculates and outputs the quality index based on the object detection result and the object tracking result.
  • the environmental factor storage unit 132 stores the value of the quality index for the quality deterioration of the feature amount caused by the environmental factor.
  • Environmental factors that affect the quality of features include concealment by obstacles (shelf, desk, etc.) placed in the environment, deterioration due to improper lighting and sunshine conditions, and camera out of focus. Deterioration due to blurring can be mentioned. In the case of fixed cameras, these degradation factors will occur at specific locations on the screen. Therefore, the degree of quality deterioration that occurs when an object arrives at each position on the screen is estimated, and the value of the quality index indicating the degree is stored in the environmental factor storage unit 132 in association with the position. That is, the value of the quality index based on the environmental factor shown in the mathematical formula (6) may be obtained for each coordinate (x, y) on the screen and stored.
  • fEnv (x, y) is a function having [0, 1] as a range.
  • x and y are the position coordinates of the reference point of the object, and for example, the center coordinates of the grounding point of the object can be used.
  • the value of the function fEnv (x, y) should be determined based on the result of finding how much the collation accuracy drops due to environmental factors that occur when the object comes to the position (x, y) on the screen, for example. It should be.
  • the resolution can be considered together with the environmental factor. Therefore, the quality index based on the resolution may be included in the quality index based on the environmental factor.
  • the above-mentioned position information (x, y) may not be on the screen, but may be real-world coordinates or a value obtained by converting the coordinates into map image coordinates.
  • the quality index shown in the mathematical formula (6) is obtained.
  • the value of the quality index for each time zone may be stored in the environmental factor storage unit 132, and the information may be switched and used according to the time zone of the video to be processed.
  • the value of the quality index may be obtained and used by interpolation from the value of the quality index in the time zone before and after that.
  • the quality index calculation unit 131 calculates the overall quality index in consideration of environmental factors in addition to the factors described in the description of the operation of the quality index calculation unit 130. Specifically, the position (x, y) of the object at the current time is obtained from the position information of the tracked object included in the object tracking result, and the quality index qEnv based on the environmental factor at that position is obtained from the environmental factor storage unit 132. Find the value of. Then, the function g 2 representing the relationship between the quality index for each factor and the overall quality index Q is defined and used as in the mathematical formula (7).
  • FIG. 5 is a block diagram illustrating another object selection means in the feature amount extraction device according to the first embodiment.
  • another object selection means 105 has a quality determination unit 120, a variation determination unit 140, and an object selection unit 141.
  • the quality determination unit 120 obtains a quality index based on the input object tracking result history and the past image object detection result, and outputs the quality index to the object selection unit 141.
  • the variation determination unit 140 obtains a variation index based on the input object tracking result history and the selected object information fed back from the object selection unit 141, and outputs the variation index to the object selection unit 141.
  • the object selection unit 141 selects an object whose feature amount is to be extracted based on the quality index output from the quality determination unit 120 and the variation index output from the variation determination unit 140, and outputs the selected object information. This selected object information is also output to the variation determination unit 140 for the variation determination at a later time.
  • the operation of the quality determination unit 120 is the same as that of FIG. 2, and the obtained quality index is output to the object selection unit 141.
  • the variation determination unit 140 stores the object selection information output at the previous time, and the variation for each tracking target object in the image of the extraction time T cur- ⁇ included in the input object tracking result history. Calculate the index.
  • the variation index is an index showing the degree of improvement in the variation (diversity) of the acquired feature amount. Since the feature amount of an object can change depending on the state of the object, it is desirable to extract the feature amount of the same object in various states in order to reduce omission in object collation. On the other hand, even if feature extraction is performed many times in a situation where the state of the object has hardly changed, almost the same feature amount is only repeatedly acquired, which does not contribute to the reduction of leakage. That is, in the acquisition of object features in time series, it is important to increase the variation of acquired features while avoiding redundant feature acquisition as much as possible.
  • the variation index is characterized by whether or not the variation of the feature quantity can be increased by acquiring the feature quantity this time in addition to the feature quantity group acquired so far, that is, whether or not the variation of the acquired feature quantity can be improved. It is predicted and indexed before quantity extraction. Therefore, it is desirable to preferentially extract the feature amount for an object having a larger variation index, and it can be used as a criterion for object selection.
  • the calculated variation index is output to the object selection unit 141 in association with the ID of the tracked object.
  • the object selection unit 141 calculates the selection index I, which is a combination of both, based on the input quality index Q and the variation index V. If this function is F, it can be formulated as in the formula (9).
  • the tracking target object having a large selection index I value is selected.
  • a selection index whose value is larger than a certain value is selected.
  • a certain number of tracked objects if the number of objects is less than a certain number, all
  • an object may be selected by combining both criteria (for example, a certain number of selection index values may be selected from the largest among a certain value or more).
  • the ID of the selected tracking object is output as the selected object information by combining the ID of the detection object corresponding to it and the extraction time information.
  • the selected object information is also output to the variation determination unit 140 and used for calculating the variation index at a later time.
  • FIG. 6 is a block diagram illustrating a variation determination unit of another object selection means in the feature amount extraction device according to the first embodiment.
  • the variation determination unit 140 has a variation index calculation unit 150 and an extraction history storage unit 151.
  • the extraction history storage unit 151 updates and stores the feature amount extraction history of each object based on the input selected object information, and outputs the feature amount extraction history information to the variation index calculation unit 150.
  • the variation index calculation unit 150 calculates and outputs the variation index based on the input object tracking result history and the feature amount extraction history information output from the extraction history storage unit 151.
  • the extraction history storage unit 151 stores information on the time selected as the object for extracting the feature amount for the ID of each tracking target object.
  • the information of the time when the object is selected is added to the ID of the tracking target object included in the selected object information.
  • the extraction history storage unit 151 may further record information such as how many times the feature extraction has been performed in the past for the ID of each tracking target object. In this case, the number of feature extractions of the tracked object included in the selected object information is increased by one.
  • the variation index calculation unit 150 calculates the variation index for each tracking target object in the image of the extraction time T cur- ⁇ included in the input object tracking result history. As described above, it is important to increase the variation of the feature amount in order to reduce the omission at the time of collation. This depends on the acquisition history of the feature amount up to that point. After a certain amount of time has passed since the last feature amount was acquired, the state of the object changes, and the possibility that the feature amount that leads to the improvement of variation can be extracted increases. Therefore, the variation index can be formulated as in the mathematical formula (11).
  • the function h 1 (t) is a monotonous non-decreasing function with respect to the elapsed time t from the previous feature extraction to the extraction time T cur- ⁇ , which is the current feature extraction target time, with [0, 1] as the range. is there.
  • the variation index is formulated as a function of the elapsed time t and the number of feature extractions n as in the mathematical formula (12).
  • the function h 2 (t, n) has [0, 1] as the range, and when n is fixed, it becomes a monotonous non-decreasing function of t, and when t is fixed, it becomes a monotonous non-increasing function of n. Is.
  • a function as shown in FIG. 19B can be used.
  • the history information of the tracking result may also be used. Even if an object has been feature-extracted for a long time, if it stays in the same place, it is highly likely that the state has not changed much, and even if feature extraction is performed, it is almost the same as the previous time. It is likely that only the same features will be obtained. On the other hand, in the case of a moving object, there is a high possibility that the state has changed significantly even if the elapsed time from the previous feature extraction is short. Therefore, the tracking result history information of the object is used to determine how much the object is moving, and the value of the variation index is changed according to the obtained movement amount.
  • the movement amount of the object at this time is calculated from the position information of the object before and after the extraction time T cur- ⁇ included in the object tracking result history information. For example, the difference between the positions of the time T cur ⁇ T and the time T cur ⁇ + ⁇ T is obtained as the movement amount d.
  • This movement amount may be obtained as the movement amount on the screen, or may be converted into the real world coordinate system and obtained as the movement amount in the real world.
  • the variation index is formulated as a function of the elapsed time t, the number of feature amount extractions n, and the movement amount d as in the mathematical formula (13).
  • the function h 3 (t, n, d) has [0, 1] as a range, becomes a monotonous non-decreasing function of t when n and d are fixed, and is a monotonous non-decreasing function of n when t and d are fixed. It is an increasing function, and when t and n are fixed, it is a monotonous non-decreasing function of d.
  • a function as shown in FIG. 19C can be used.
  • the object tracking result history information When the object tracking result history information is used, other information regarding the state of the object such as the orientation of the object can also be obtained.
  • the feature amount can change according to the state of the object, leakage can be further reduced by extracting and holding the feature amount for each state and using it for collation. Therefore, the history of feature extraction may be obtained by classifying each object state, and the variation index may be calculated according to the object state at that time.
  • the function h 3, c is a function for obtaining the function h 3 of Equation (13) for each category c.
  • the variation index is calculated using the function of the estimated category. For example, when the category is orientation, the movement direction of the object may be obtained from the tracking history of the object, and the orientation may be estimated based on the movement direction. If the orientation cannot be obtained, a category of unknown orientation may be provided and the variation index may be calculated.
  • this category does not necessarily depend on the orientation, and various categories that reflect the state of the object can be used. If it is difficult to categorize only the tracking information, the state of the object may be categorized including other information.
  • the above-mentioned variation index V is calculated for each tracking target object in the image of the extraction time T cur- ⁇ included in the object tracking result history. Then, the calculated variation index is output in association with the ID of the tracking target object.
  • FIG. 7 is a block diagram illustrating another variation determination unit in the feature amount extraction device according to the first embodiment.
  • another variation determination unit 140 has a variation index calculation unit 155, an extraction history storage unit 151, and an object state change tendency storage unit 154.
  • the extraction history storage unit 151 updates and stores the feature amount extraction history of each object based on the input selected object information, and outputs the feature amount extraction history information to the variation index calculation unit 155.
  • the object state change tendency storage unit 154 stores information representing the tendency of the object state according to the location, and outputs the object state change tendency information to the variation index calculation unit 155.
  • the variation index calculation unit 155 is based on the input object tracking result, the feature amount extraction history information output from the extraction history storage unit 151, and the object state change tendency information output from the object state change tendency storage unit 154. Then, the variation index is calculated and output.
  • the object state change tendency storage unit 154 stores information indicating the tendency of the state change of the object, which can change according to the location on the screen.
  • the tendency of an object to take a different state may differ depending on where the object exists. For example, if the object is a person, it is installed at the corner of the aisle, and in the case of a camera that can capture how the person turns while walking, at the corner, the characteristics of the person in various directions are extracted when turning. It becomes possible. On the other hand, at other positions, the relationship between the direction of the person and the direction of the camera is unlikely to change, so there is a high possibility that features only in a specific direction will be extracted.
  • the function h Loc is a function having a range of [0, 1], and the value becomes larger as the state of the object is likely to change on the screen.
  • the variation index calculation unit 155 calculates a value obtained by multiplying the variation index V obtained by the method described in the description of the operation of the variation index calculation unit 155 by the multiplier ⁇ of the mathematical formula (15) as the variation index V. More specifically, the position (x, y) of the object to be tracked is obtained from the object tracking result information, and based on this value, the value of the multiplier ⁇ is read out as the object state change tendency information and used as the value of the variation index V. Try to multiply. The calculated variation index is output in association with the ID of the tracked object.
  • object selection for the image at the extraction time T cur- ⁇ has been described, but this selection does not necessarily have to be performed for each image, and may be performed for a plurality of images at once. For example, object selection may be performed collectively for each time interval D of the video.
  • FIG. 8 is a diagram illustrating the temporal relationship between the video section in which the object is selected and the timing in which the object is selected in the feature amount extraction device according to the first embodiment.
  • the object selection of the video interval [(n-1) D, nD) (n is a natural number) is performed at the time nD + ⁇ , and the result is output.
  • the object selection in the video section of [0, D) and the output of the result are performed at the time D + ⁇ .
  • the object selection means 105 shown in FIG. 1 selects an object using only the quality index as shown in FIG. 2 will be described first, and then both the quality index and the variation index will be described as shown in FIG. The case of selecting an object using is described.
  • the quality determination unit 120 reads out the past image detection result of the corresponding section and the tracking result history of [(n-1) D ⁇ T, T cur ]. Then, the quality index for each of the objects detected in the frame included in the video section [(n-1) D, nD) is calculated, the ID and time information of the tracked object, and the information of the detected object ID corresponding thereto are calculated. Is output to the object selection unit 121 in association with.
  • the object selection unit 121 basically selects an object with a high quality index. However, if the selected object is biased toward a specific tracking object ID, as many tracking object IDs as possible may be selected. For example, for each tracking target object ID, the object having the maximum quality index may be selected, and then the object having high quality may be selected for the remaining portion.
  • the number of objects to be selected does not have to be a fixed number for each frame, and may be different for each frame. For example, if the number of frames in the corresponding video section is N Frm and it is necessary to keep the average number of selected objects per frame within NObj due to the time constraint of the feature amount extraction process, the number of selected objects N is a mathematical formula ( As long as 16) is satisfied, the number of selections for each frame does not have to be the same.
  • the target number of the number of selected objects is set to N Frm NObj, and objects less than or equal to this number are selected.
  • the number of targets in the next object selection interval [nD, (n + 1) D) may be increased accordingly.
  • the information of the object selected in this way is output to the object feature extraction means 106 as the selected object information.
  • the selected object information is information obtained by combining the ID and time information of the selected tracked object and the ID of the detection object corresponding thereto.
  • the object feature extraction means 106 when the selected object information for the video section [(n-1) D, nD) is input, the image of the corresponding frame and the object detection result are stored in the image storage means 107 and the detection result storage means, respectively. Read from 108 and extract the features of the object. The operation of object extraction itself is as described above.
  • D does not necessarily have to be fixed, but is made variable and adaptively controlled. You may. For example, when the number of detected objects is small, D is set to one frame interval so that the delay is minimized, and when the number of objects is large, D is increased to select objects for several frames at once. It may be like this. This makes it possible to select the optimum object across a plurality of frames while suppressing the delay.
  • the quality determination unit 120 is as described above, calculates a quality index for an object detected in a frame included in the video section [(n-1) D, nD), and outputs the quality index to the object selection unit 141.
  • the variation determination unit 140 reads out the tracking result history of the frames included in the video section [(n-1) D ⁇ T, T cur ]. Based on this and the object selection information of the time before that held internally, the variation index for each object detected in the frame included in the video interval [(n-1) D, nD) is calculated. ..
  • the calculation method of the variation index is the same as the case of selecting an object in units of one frame, but the values of the elapsed time t and the number of feature extractions n are the values at the start time (n-1) D of the video section. Become.
  • the calculated variation index is output to the object selection unit 141 in association with the tracking target object ID.
  • the object selection unit 141 calculates a selection index I that combines both the quality index Q and the variation index V, and selects an object having a high selection index. Regarding the number of objects to be selected, the number of objects selected for each frame does not have to be the same as long as the formula (16) is satisfied. Subsequent processing is the same as the case of selecting an object using only the above-mentioned quality index.
  • the object selection unit 141 when an object is selected by the object selection unit 141, the variation index V for that object changes. Next, the operation when the object is selected in consideration of this point will be described.
  • the object selection unit 141 first selects the object having the maximum selection index I. Then, the selected object information is output as the selected object information. This information is also fed back to the variation determination unit 140. Since the object selection history of the selected object changes at the time of feedback, the variation determination unit 140 recalculates the variation index V for the tracking target object ID and outputs it to the object selection unit 141. The object selection unit 141 calculates the selection index again using the recalculated variation index V, selects the object having the maximum selection index, and outputs the selected object information. This is repeated until the number of selected objects reaches the number of targets or other conditions (for example, the selection index I falls below a certain value) are satisfied. In this way, each time one object is selected, the variation index of that object is recalculated and selected, so that a more suitable object can be selected.
  • the object feature extraction means 106 may perform feature extraction of the object when the selected object information is available, or sequentially extracts the feature amount each time the selected object information is output. You may.
  • FIG. 9 is a block diagram illustrating the configuration of the object feature amount extraction device according to the second embodiment.
  • the object positional relationship analysis means 204 is newly added as compared with the object feature amount extraction device 100 of FIG. 1, and instead of the object selection means 105. It is different from the object feature amount extraction device 100 of FIG. 1 in that the object selection means 205 is provided in the object.
  • the connection relationship between the video acquisition means 101, the object detection means 102, the object tracking means 103, the image storage means 107, and the detection result storage means 108 is the same as in FIG. The same applies to the tracking result storage means 109, but the output is also connected to the object positional relationship analysis means 204.
  • the object positional relationship analysis means 204 obtains the positional relationship of the objects based on the tracking result history information output from the tracking result storage means 109, and outputs the object positional relationship information to the object selection means 205.
  • the object selection means 205 includes a past image tracking result output from the detection result storage means 108, a tracking result history information output from the tracking result storage means 109, and an object positional relationship information output from the object positional relationship analysis means 204.
  • the object for which the feature extraction is performed is selected, and the selected object information is output to the object feature extraction means 106.
  • the object feature extraction means 106 outputs the feature amount of the object included in the selected object information output from the object selection means 205 from the image storage means 107 based on the object detection result output from the detection result storage means 108. Extract from the image.
  • the operations of the video acquisition means 101, the object detection means 102, the object tracking means 103, the image storage means 107, the detection result storage means 108, and the tracking result storage means 109 are the same as in the case of FIG.
  • the object positional relationship analysis means 204 compares the position information of each object included in the tracking result history information output from the tracking result storage means 109, and analyzes the positional relationship between the tracking target objects for each frame. Specifically, it is determined whether or not the objects overlap each other, and if so, which object is in the foreground, and the object positional relationship information is generated.
  • the overlap determination for example, it may be examined whether or not the circumscribed rectangles of the tracking target objects overlap each other. At this time, not only the information as to whether or not they overlap, but also the overlap rate indicating the degree of overlap may be obtained.
  • the object reflected on the lower side is in front. Therefore, when the overlap is determined, it is determined from the circumscribed rectangle on the screen and the position information that the object located at the lowermost side is the object in the foreground, and the other objects are hidden.
  • the position information of the object may be converted into real-world coordinates, and the object closest to the camera may be determined as the object in the foreground.
  • the determination of overlap may be performed for each part of the object instead of the entire object.
  • the circumscribed rectangle of the object may be divided into a plurality of areas, and the overlap may be determined for each of the divided areas.
  • the overlap rate may be calculated for each divided region.
  • the generated object positional relationship information is output to the object selection means 205.
  • the details of the operation of the object selection means 205 will be described later.
  • the generated selected object information is output to the object feature extraction means 106.
  • the operation of the object feature extraction means 106 is the same as that of FIG.
  • FIG. 10 is a block diagram illustrating the configuration of the object selection means in the object feature amount extraction device according to the second embodiment.
  • the object selection means 205 has a quality determination unit 220 and an object selection unit 121.
  • the quality determination unit 220 obtains a quality index based on the input object tracking result history information, past image object detection result, and object positional relationship information, and outputs the quality index to the object selection unit 121.
  • the object selection unit 121 selects an object for which the feature amount is to be extracted based on the quality index output from the quality determination unit 220, and outputs the selected object information.
  • the object tracking result history information, the past image object detection result, and the object positional relationship information are input to the quality determination unit 220.
  • the quality determination unit 220 also calculates the quality index of each object in the same manner as the quality determination unit 120 of FIG. However, in this case, the difference is that the quality index is calculated using the object positional relationship information as well.
  • the object positional relationship information is referred to, and it is determined whether or not hiding due to overlap with other objects has occurred.
  • hiding occurs, part or all of the image area to be feature-extracted does not belong to the object, so the features extracted from that area are different from the original features. It becomes a value, and the quality of the feature quantity deteriorates.
  • the degree of this decrease changes depending on the degree of concealment (hereinafter referred to as the degree of concealment)
  • the quality index may be defined so as to decrease according to the degree of concealment.
  • the degree of concealment can be defined as, for example, the ratio (concealment ratio) of the area hidden by the object in front of the object area. Assuming that the degree of concealment is r Occ and the quality index based on the degree of concealment is q Occ , it can be formulated as in the formula (17).
  • f Occ (r Occ ) is a monotonous non-increasing function having [0, 1] as a range, and is represented as shown in FIG. 17A, for example.
  • This function may be used as f Occ (r Occ ), for example, by finding the relationship between the degree of concealment and the collation accuracy.
  • the concealment rate of the entire object area may not be used as it is, but the concealment degree may be calculated in consideration of which part is concealed in the object area. For example, when the object is a person, the effect of collation accuracy is small even if the area near the feet is hidden a little, but the effect of collation accuracy may be large if the area near the head area is hidden. .. In this way, when the degree of influence on the collation differs depending on the concealed part, the concealment rate may be calculated for each part, and the concealment rate may be calculated by weighting and adding them. For example, if the object is a person, as shown in FIG.
  • the hiding rate is calculated for each area, and the hiding rate is calculated by weighting and adding as shown in the mathematical formula (18).
  • r m the w m is the contrast ratio and the weight factor for each region R m.
  • the weighting coefficient is a coefficient that takes a larger value in a region having a greater influence on collation, and is normalized so that the sum is 1.
  • the quality index based on the concealment degree may be calculated by using the concealment degree calculated by weighting each part of the object in this way.
  • the other resolution and motion, Quality indicator for posture and orientation, calculated as described above, define a function g 3, which represents the relationship of the overall quality index Q and quality metrics for each factor as Equation (19) , To use.
  • a function g 4 representing the relationship between the quality index for each factor and the overall quality index Q is defined and used as in the mathematical formula (21).
  • FIG. 11 is a block diagram illustrating another object selection means in the object feature amount extraction device according to the second embodiment.
  • another object selection means 205 has a quality determination unit 220, a variation determination unit 140, and an object selection unit 141.
  • the quality determination unit 220 is provided instead of the quality determination unit 120.
  • the operation of the quality determination unit 220 is the same as that of the quality determination unit 220 of FIG.
  • the operations of the variation determination unit 140 and the object selection unit 141 are the same as those in FIG.
  • the object can be selected in consideration of both the quality index and the variation index.
  • the objects may be selected in a plurality of frames at once.
  • FIG. 12 is a block diagram illustrating the configuration of the object feature amount extraction device according to the third embodiment.
  • the object detection tendency analysis means 310 is newly added as compared with the object feature amount extraction device 100 of FIG. 1, and the object selection means 105 It differs from the object feature amount extraction device 100 of FIG. 1 in that the object selection means 305 is provided instead.
  • the connection relationship between the video acquisition means 101, the object detection means 102, the object tracking means 103, the image storage means 107, and the tracking result storage means 109 is the same as in FIG. The same applies to the detection result storage means 108, but the output is also connected to the object detection tendency analysis means 310.
  • the object detection tendency analysis means 310 analyzes the detection tendency of the object based on the past image tracking result output from the detection result storage means 108, and outputs the object detection tendency information to the object selection means 305.
  • the object selection means 305 includes the past image tracking result output from the detection result storage means 108, the tracking result history information output from the tracking result storage means 109, and the object detection tendency information output from the object detection tendency analysis means 310. Based on the above, the object for which the feature extraction is performed is selected, and the selected object information is output to the object feature extraction means 106.
  • the object feature extraction means 106 outputs the feature amount of the object included in the selected object information output from the object selection means 305 from the image storage means 107 based on the object detection result output from the detection result storage means 108. Extract from the image.
  • the operations of the image acquisition means 101, the object detection means 102, the object tracking means 103, the image storage means 107, the detection result storage means 108, and the tracking result storage means 109 are the same as in the case of FIG.
  • the object detection tendency analysis means 310 analyzes the input object detection result information and obtains the object detection tendency for each location of the image. In places with obstacles such as shelves, objects are hidden and often undetected. If the entire object is hidden, it will not be detected at all, but if part of it is hidden, it may or may not be detected. For this reason, when the number of object detections within a certain period of time is totaled for each location, the frequency is high in places where there are no obstacles, whereas the frequency of object detection is high in places hidden by obstacles. It gets lower. Such frequency information for each location is generated as object detection tendency information.
  • the object detecting means 102 is a means for detecting a plurality of parts of the object
  • the number of times the object parts are detected within a certain period of time may be totaled for each place.
  • the tendency of simultaneous detection such as whether or not a plurality of parts are detected at the same time may be aggregated for each location and included in the object detection tendency information.
  • the object detecting means 102 is a detecting means for simultaneously detecting the head and the human body of the person
  • the detection frequency is totaled for each place for each of the head and the human body.
  • the number of times both the head and the human body are detected at the same time is also counted for each location.
  • the tendency of simultaneous detection can be used to grasp the tendency of partial concealment at that location.
  • the human body is not detected even though the person exists. To. This can be said to indicate that the area below the head of the human body area is likely to be hidden at that location. In this way, by analyzing the detection results of a plurality of parts together, it becomes possible to grasp the tendency of object hiding for each place in more detail.
  • the object detection tendency information generated in this way is output to the object selection means 305.
  • the selected object information is further generated by using the object detection tendency information.
  • the details of the object selection means 305 will be described later.
  • the generated selected object information is output to the object feature extraction means 106.
  • the operation of the object feature extraction means 106 is the same as that of FIG. 1, and the object feature amount is extracted and output.
  • the degree of hiding of the object depending on the location can be automatically determined from the object detection result, and it can be used for selecting the object from which the feature amount is extracted.
  • FIG. 13 is a block diagram illustrating the configuration of the object selection means in the object feature amount extraction device according to the third embodiment. As shown in FIG. 13, the object selection means 305 has a quality determination unit 320 and an object selection unit 121.
  • the quality determination unit 320 obtains a quality index based on the input object tracking result history, past image object detection result, and object detection tendency information, and outputs the quality index to the object selection unit 121.
  • the object selection unit 121 selects an object for which the feature amount is to be extracted based on the quality index output from the quality determination unit 320, and outputs the selected object information.
  • the object detection tendency information is input to the quality determination unit 320.
  • the operation of calculating the quality index from the past image object detection result and the object tracking result history is the same as that of the quality determination unit 120 of FIG.
  • the quality determination unit 320 also uses object detection tendency information.
  • the status of object hiding by obstacles can be grasped from the object detection tendency information showing the frequency of detection results for each location. Therefore, assuming that the object detection frequency at the location (x, y) is Freq (x, y), the multiplier ⁇ obtained by the mathematical formula (23) is multiplied by the quality index obtained from the past image object detection result and the object tracking result history. Calculate the final quality index.
  • the function q Loc is a monotonous non-decreasing function with respect to the frequency Freq (x, y). If the frequency of simultaneous detection of a plurality of sites is included, the ratio obtained by dividing the frequency of simultaneous detection by the frequency of the most detected sites may be used instead of the detection frequency. The obtained quality index is output to the object selection unit 121.
  • the operation of the object selection unit 121 is the same as that of FIG. 2, and the selected object information is generated and output.
  • FIG. 14 is a block diagram illustrating the configuration of another object selection means in the object feature amount extraction device according to the third embodiment.
  • another object selection means 305 has a quality determination unit 320, a variation determination unit 140, and an object selection unit 141.
  • another object selection means 305 has a connection relationship of the object selection means 105 of FIG. 5, except that the quality determination unit 320 is provided instead of the quality determination unit 120. Is similar to.
  • the operation of the quality determination unit 320 is the same as that of FIG. 13, and the quality index is output to the object selection unit 141.
  • the operations of the variation determination unit 140 and the object selection unit 141 are the same as those of the object selection means 105 of FIG.
  • the objects may be selected in a plurality of frames at once.
  • FIG. 15 is a block diagram illustrating the configuration of the object feature amount extraction device according to the fourth embodiment.
  • the object feature amount extraction device 100 of the fourth embodiment is provided with the object selection means 405 instead of the object selection means 205 as compared with the object feature amount extraction device 100 of FIG. 9, and further an object.
  • the difference is that the detection tendency analysis means 310 is added.
  • the object detection tendency analysis means 310 analyzes the object detection tendency based on the past image object detection result output from the detection result storage means 108, and outputs the object detection tendency information to the object selection means 405.
  • the object selection means 405 includes a past image object detection result output from the detection result storage means 108, an object tracking result history output from the tracking result storage means 109, and an object positional relationship output from the object positional relationship analysis means 204. Based on the information and the object detection tendency information output from the object detection tendency analysis means 310, an object for feature extraction is selected, and the selected object information is output to the object feature extraction means 106. Other than that, the connection relationship is the same as that of FIG.
  • the operations of the image acquisition means 101, the object detection means 102, the object tracking means 103, the image storage means 107, the detection result storage means 108, the tracking result storage means 109, and the object positional relationship analysis means 204 are the same as those in FIG. ..
  • the operation of the object detection tendency analysis means 310 is the same as that of FIG.
  • the selected object information is further generated by using the object detection tendency information.
  • the details of the object selection means 405 will be described later.
  • the generated selected object information is output to the object feature extraction means 106.
  • the operation of the object feature extraction means 106 is the same as that of FIG. 1, and the object feature amount is extracted and output.
  • the object is selected using the object detection tendency in addition to the object positional relationship information, so that a more appropriate selection can be made.
  • FIG. 16A is a block diagram illustrating the configuration of the object selection means in the object feature amount extraction device according to the fourth embodiment.
  • the object selection means 405 includes a quality determination unit 420 and an object selection unit 121.
  • the object selection means 405 is different from the object selection means 205 of FIG. 10 in that a quality determination unit 420 is provided instead of the quality determination unit 220.
  • the quality determination unit 420 obtains a quality index based on the input object tracking result history, past image object detection result, object detection tendency information, and object positional relationship information, and outputs the quality index to the object selection unit 121.
  • the object selection unit 121 selects an object for which the feature amount is to be extracted based on the quality index output from the quality determination unit 420, and outputs the selected object information.
  • the object detection tendency information is input to the quality determination unit 420.
  • the operation of calculating the quality index from the past image object detection result, the object tracking result history, and the object positional relationship information is the same as that of the quality determination unit 220 of FIG.
  • the quality determination unit 420 also uses object detection tendency information.
  • the multiplier ⁇ represented by the mathematical formula (23) is obtained from the object detection tendency information representing the frequency of the detection result for each place, and the past image object detection result and the object tracking result history. , Multiply the quality index obtained from the object positional relationship information to calculate the final quality index.
  • the obtained quality index is output to the object selection unit 121.
  • the operation of the object selection unit 121 is the same as that of FIG. 10, and the selected object information is generated and output.
  • FIG. 16B is a block diagram illustrating the configuration of another object selection means in the object feature amount extraction device according to the fourth embodiment.
  • another object selection means 405 includes a quality determination unit 420, a variation determination unit 140, and an object selection unit 141.
  • another object selection means 405 has a connection relationship of the object selection means 205 of FIG. 11 except that the quality determination unit 420 is provided instead of the quality determination unit 220. Is similar to.
  • the operation of the quality determination unit 420 is the same as that of FIG. 16A, and the quality index is output to the object selection unit 141.
  • the operations of the variation determination unit 140 and the object selection unit 141 are the same as those of the object selection means 105 of FIG.
  • the objects may be selected in a plurality of frames at once.
  • Each functional component of the object feature extraction device 100 may be realized by hardware that realizes each functional component (eg, a hard-wired electronic circuit, etc.), or a combination of hardware and software (eg, a combination of hardware and software). For example, it may be realized by a combination of an electronic circuit and a program that controls it).
  • each functional configuration unit of the object feature amount extraction device 100 is realized by a combination of hardware and software will be further described.
  • FIG. 20 is a diagram illustrating a computer, a network, and a camera for realizing the object feature amount extraction device according to the first to fourth embodiments.
  • the computer 1000 is an arbitrary computer.
  • the computer 1000 is a personal computer (PC), a server machine, a tablet terminal, a smartphone, or the like.
  • the computer 1000 may be a dedicated computer designed to realize the object feature amount extraction device 100, or may be a general-purpose computer.
  • the computer 1000 has a bus 1020, a processor 1040, a memory 1060, a storage device 1080, an input / output interface 1100, and a network interface 1120.
  • the bus 1020 is a data transmission line for the processor 1040, the memory 1060, the storage device 1080, the input / output interface 1100, and the network interface 1120 to transmit and receive data to and from each other.
  • the method of connecting the processors 1040 and the like to each other is not limited to the bus connection.
  • the processor 1040 is various processors such as a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), and an FPGA (Field-Programmable Gate Array).
  • the memory 1060 is a main storage device realized by using a RAM (Random Access Memory) or the like.
  • the storage device 1080 is an auxiliary storage device realized by using a hard disk, an SSD (Solid State Drive), a memory card, a ROM (Read Only Memory), or the like.
  • the input / output interface 1100 is an interface for connecting the computer 1000 and the input / output device.
  • an input device such as a keyboard and an output device such as a display device are connected to the input / output interface 1100.
  • the network interface 1120 is an interface for connecting the computer 1000 to the network 1300.
  • This network is, for example, a LAN (Local Area Network) or a WAN (Wide Area Network).
  • the method of connecting the network interface 1120 to the network may be a wireless connection or a wired connection.
  • the camera 1500 is connected to the network 1300, and the computer 1000 and the camera 1500 can communicate data via the network 1300.
  • the camera 1500 corresponds to the image acquisition means 101 of the object feature amount extraction device 100.
  • the storage device 1080 stores a program module that realizes each means of the object feature amount extraction device 100.
  • the processor 1040 realizes the function corresponding to each program module by reading each of these program modules into the memory 1060 and executing the program module.
  • the object feature amount extraction device 100 may be executed on the camera 1500 side. That is, a processor, a storage device, and a memory are stored inside the camera 1500, and all or part of the processing of each means of the object feature extraction device 100 is executed by using these components. May be good.
  • the processing of the image acquisition means 101, the object detection means 102, and the object tracking means 103 may be executed on the camera 1500 side, and the other processes may be executed on the computer 1000 side.
  • processing other than the object feature extraction means 106 may be executed on the camera side, and the object feature extraction means 106 may be executed on the computer 1000 side.
  • the video acquisition means 101 may be a video recording device such as a hard disk recorder that stores the video captured by the camera. In this case, the video acquisition means 101 acquires the video by reading and playing back the video stored in the video recording device, and transmits the video to the computer 1000 via the network 1300. Then, the subsequent processing is executed on the computer 1000 side.
  • a video recording device such as a hard disk recorder that stores the video captured by the camera.
  • the video acquisition means 101 acquires the video by reading and playing back the video stored in the video recording device, and transmits the video to the computer 1000 via the network 1300. Then, the subsequent processing is executed on the computer 1000 side.
  • An object selection means that obtains a quality index to be predicted, selects an object for feature extraction at the extraction time based on the quality index, and generates object selection information.
  • An object feature amount extraction device characterized by having an object feature extraction means for extracting a quantity.
  • the object selection means is a quality index based on at least one of the resolution of the object determined by using the detection result, the amount of movement of the object determined by using the tracking result, and the posture and orientation of the object.
  • the object selection means stores a quality index based on an environmental factor determined according to the position of the object, obtains a quality index based on the environmental factor based on the position information of the object obtained from the tracking result, and obtains the obtained value.
  • the object feature extraction device according to Appendix 1 or 2, wherein the overall quality index is calculated by also using the above.
  • the object selection means In addition to the quality index, the object selection means also obtains a variation index that predicts the degree of variation improvement of the acquired feature amount, selects an object for feature extraction based on both the quality index and the variation index, and selects an object.
  • the object feature extraction device according to any one of Supplementary note 1 to 3, wherein selection information is generated.
  • the variation index is determined based on the elapsed time from the previous feature extraction and the number of feature extractions up to that point, and is characterized in that the larger the elapsed time and the smaller the number of feature extractions, the larger the value.
  • the variation index is determined by using the movement amount of the object determined based on the tracking result, and the larger the movement amount is, the larger the value is, according to any one of the appendices 4 to 6.
  • Object feature extractor
  • the variation index is a value determined in consideration of a category determined according to the state of the object, and any one of Appendix 4 to 7 is characterized in that the category is determined based on the tracking result and the variation index is obtained.
  • Appendix 10 It further has an object positional relationship analysis means that analyzes the positional relationship of objects based on the tracking result stored in the tracking result storage means and generates object positional relationship information.
  • the object feature extraction device according to any one of Appendix 1 to 9, wherein the object selection means calculates a quality index using the object positional relationship information as well.
  • the object selection means obtains a concealment degree indicating the degree to which an object is hidden by another object from the object positional relationship information, calculates a quality index by a monotonous non-increasing function of the concealment degree, and also uses the obtained value.
  • the object feature extraction device according to Appendix 10, wherein the overall quality index is calculated.
  • Appendix 12 It further has an object detection tendency analysis means that analyzes the tendency of each object detection location based on the detection result stored in the detection result storage means and generates object detection tendency information.
  • the object feature extraction device according to any one of Supplementary note 1 to 11, wherein the object selection means calculates a quality index using the object detection tendency information as well.
  • the object selection means obtains a quality index that predicts the quality of the feature quantity of an object detected at a plurality of extraction times that are one frame or more before the current time, and features extraction at the plurality of extraction times based on the quality index. Select all the objects to be used to generate object selection information.
  • the object feature extraction device according to any one of Supplementary note 1 to 12, wherein the object feature extraction means extracts feature amounts of selected objects with respect to the plurality of extraction times.
  • Appendix 14 The object feature extraction device according to Appendix 13, wherein the number of times included in the plurality of extraction times dynamically changes according to the number of detected objects.
  • the number of selected objects is the number obtained by multiplying the predetermined average number of object selections by the number of the extraction times as the target number of object selection, and the selected objects.
  • Object feature amount extraction device 101 Video acquisition means 102 Object detection means 103 Object tracking means 105 Object selection means 106 Object feature extraction means 107 Image storage means 108 Detection result storage means 109 Tracking result storage means 120 Quality determination unit 121 Object selection unit 130 Quality index calculation unit 131 Quality index calculation unit 132 Environmental factor storage unit 140 Variation judgment unit 141 Object selection unit 150 Variation index calculation unit 151 Extraction history storage unit 154 Object state change tendency storage unit 155 Variation index calculation unit 204 Object positional relationship analysis means 205 Object selection means 220 Quality judgment unit 305 Object selection means 310 Object detection tendency analysis means 320 Quality judgment unit 405 Object selection means 420 Quality judgment unit

Abstract

一実施の形態によれば、オブジェクト特徴量抽出装置(100)は、映像を取得し、取得した映像を画像列として生成する映像取得手段(101)と、生成された画像からオブジェクトを検出し、検出結果を生成するオブジェクト検出手段(102)と、生成された画像と検出結果とに基づいてオブジェクトを追跡し、追跡結果を生成するオブジェクト追跡手段(103)と、画像を記憶する画像記憶手段(107)と、検出結果を記憶する検出結果記憶手段(108)と、追跡結果を記憶する追跡結果記憶手段(109)と、検出結果と追跡結果とに基づいて、抽出時刻において検出されたオブジェクトの特徴量の質を予測するクオリティ指標を算出し、特徴抽出するオブジェクトを選択し、オブジェクト選択情報を生成するオブジェクト選択手段(105)と、抽出時刻のフレームから検出されたオブジェクトの特徴量を抽出するオブジェクト特徴抽出手段(106)とを有する。

Description

オブジェクト特徴量抽出装置、オブジェクト特徴量抽出方法及び非一時的なコンピュータ可読媒体
 本発明は、撮像装置によって取得した映像からオブジェクトを検出し、その特徴量を抽出するオブジェクト特徴量抽出装置、オブジェクト特徴量抽出方法及び非一時的なコンピュータ可読媒体に関する。
 カメラを用いて物体や人物(以下、オブジェクトと呼ぶ)を検出し、特徴量を抽出する方式が提案されている。この特徴量は、異なるカメラ間で検出されたオブジェクトの照合や、以前に撮影され、蓄積された映像から、同一あるいは類似するオブジェクトを検索するのに用いられる。
 この特徴量としては様々なものが用いられるが、近年では深層学習の技術の進展により、深層学習に基づいて抽出された特徴量を用いることが増えてきている。深層学習に基づいて抽出される特徴量は、高精度な照合に寄与する一方、抽出処理に時間がかかるものが多く、画面に同時に映る特徴抽出対象となるオブジェクトが多い場合には、特徴量抽出にかかる時間が無視できなくなる。特に、計算リソースの制約が厳しい場合に動画像の各フレームに対して処理を行う場合には、実時間での処理が困難になる。
 この点を鑑み、画面に映る全オブジェクトから特徴を抽出するのではなく、特徴量抽出を行うオブジェクトを選択し、選択されたオブジェクトのみから特徴量を抽出する方式が提案されている。例えば、特許文献1では、人物の特徴量を抽出する方式が開示されており、画面上での人物のサイズと過去の特徴量抽出頻度に基づいて、画面内で検出された、どの人物の特徴量を抽出するかをサイズに応じて優先度をつけて決定している。また、乱数により、特徴量を抽出する人物を選択する網羅的選択手段も設け、優先的処理と網羅的処理を交互に行い、人物を選択して特徴量を抽出する方式が記載されている。さらに、特徴量を抽出する人物の選択では、向きを考慮してもよいといったことも記載されている。
 また、特許文献2では、斜め上から撮影する通常の監視カメラ設置の場合、画面の下方の方がカメラに近くなり、人物が大きく映るにも関わらず、画面上での人物の動きも大きくなるため、画面の下の方の領域ほど、人物の特徴量を抽出する頻度を高める方式が開示されている。また、人物の動きの大きさも考慮し、動きが大きい人物ほど特徴量抽出の頻度を上げることについても記載されている。
国際公開第2017/006749号 国際公開第2014/045479号
 しかしながら、特許文献1に記載の方式では、人物の大きさしか考慮していないため、大きさが大きくても動きがある場合に、動きブレが生じる可能性を考慮しておらず、照合に適さない特徴量を抽出してしまう可能性がある。また、それ以外の特徴量の劣化要因についても考慮されていない。
 一方、特許文献2では、人物を追跡しているわけではないため、人物ごとに過去のどの程度特徴量が抽出されたかといった履歴情報を保持しておらず、人物間で特徴量の抽出回数に大きなばらつきが出る可能性がある。
 さらに、特許文献1、特許文献2ともに、人物間の重なりや他の障害物による隠ぺいについては考慮されておらず、選択した人物から照合に適した特徴量が抽出できるとは限らないという問題がある。また、ぼけや照明条件等に基づく大きさ以外の特徴量の劣化要因についても考慮されていない。
 本発明の目的は、上述した課題を鑑み、特徴量抽出に時間を要する特徴量であっても、動画像の各フレームにおいて特徴抽出するオブジェクトを適応的に選択し、オブジェクト全体として、高精度な照合が可能になるオブジェクト特徴量抽出装置、オブジェクト特徴量抽出方法及び非一時的なコンピュータ可読媒体を提供することにある。
 一実施の形態に係るオブジェクト特徴量抽出装置は、映像を取得し、取得した前記映像を画像列として生成する映像取得手段と、生成された前記画像からオブジェクトを検出し、検出結果を生成するオブジェクト検出手段と、生成された前記画像と前記検出結果とに基づいて前記オブジェクトを追跡し、追跡結果を生成するオブジェクト追跡手段と、前記画像を記憶する画像記憶手段と、前記検出結果を記憶する検出結果記憶手段と、前記追跡結果を記憶する追跡結果記憶手段と、前記検出結果記憶手段に記憶された前記検出結果と前記追跡結果記憶手段に記憶された前記追跡結果とに基づいて、現時刻より1フレーム以上前である抽出時刻において検出された前記オブジェクトの特徴量の質を予測するクオリティ指標を算出し、前記クオリティ指標に基づいて前記抽出時刻において特徴抽出する前記オブジェクトを選択し、オブジェクト選択情報を生成するオブジェクト選択手段と、前記画像記憶手段に記録された前記抽出時刻の前記画像と、前記検出結果記憶手段に記憶された前記抽出時刻の前記検出結果と、前記オブジェクト選択情報と、に基づいて、前記抽出時刻のフレームから検出された前記オブジェクトの特徴量を抽出するオブジェクト特徴抽出手段と、を有することを特徴とする。
 また、一実施の形態に係るオブジェクト特徴量抽出方法は、映像を取得し、取得した前記映像を画像列として生成するステップと、生成された前記画像からオブジェクトを検出し、検出結果を生成するステップと、生成された前記画像と前記検出結果とに基づいて前記オブジェクトを追跡し、追跡結果を生成するステップと、前記画像を画像記憶手段に記憶させるステップと、前記検出結果を検出結果記憶手段に記憶させるステップと、前記追跡結果を追跡結果記憶手段に記憶させるステップと、前記検出結果記憶手段に記憶された前記検出結果と前記追跡結果記憶手段に記憶された前記追跡結果とに基づいて、現時刻より1フレーム以上前である抽出時刻において検出された前記オブジェクトの特徴量の質を予測するクオリティ指標を算出し、前記クオリティ指標に基づいて前記抽出時刻において特徴抽出する前記オブジェクトを選択し、オブジェクト選択情報を生成するステップと、前記画像記憶手段に記憶された前記抽出時刻の前記画像と、前記検出結果記憶手段に記憶された前記抽出時刻の前記検出結果と、前記オブジェクト選択情報とに基づいて、前記抽出時刻のフレームから検出された前記オブジェクトの特徴量を抽出するステップと、を有することを特徴とする。
 さらに、一実施の形態に係るプログラムは、映像を取得し、取得した前記映像を画像列として生成させ、生成された前記画像からオブジェクトを検出し、検出結果を生成させ、生成された前記画像と前記検出結果とに基づいて前記オブジェクトを追跡し、追跡結果を生成させ、前記画像を画像記憶手段に記憶させ、前記検出結果を検出結果記憶手段に記憶させ、前記追跡結果を追跡結果記憶手段に記憶させ、前記検出結果記憶手段に記憶された前記検出結果と前記追跡結果記憶手段に記憶された前記追跡結果とに基づいて、現時刻より1フレーム以上前である抽出時刻において検出された前記オブジェクトの特徴量の質を予測するクオリティ指標を算出させ、前記クオリティ指標に基づいて前記抽出時刻において特徴抽出する前記オブジェクトを選択させ、オブジェクト選択情報を生成させ、前記画像記憶手段に記憶された前記抽出時刻の前記画像と、前記検出結果記憶手段に記憶された前記抽出時刻の前記検出結果と、前記オブジェクト選択情報とに基づいて、前記抽出時刻のフレームから検出された前記オブジェクトの特徴量を抽出させる、ことをコンピュータに実行させる。
 一実施の形態によれば、特定のオブジェクトに偏らずに、オブジェクト全体で万遍なく照合に適した特徴量を抽出することが可能となるため、高精度な照合が可能になるオブジェクト特徴量抽出装置、オブジェクト特徴量抽出方法及び非一時的なコンピュータ可読媒体を提供する。
第1実施形態に係るオブジェクト特徴量抽出装置の構成を例示したブロック図である。 第1実施形態に係るオブジェクト特徴量抽出装置において、オブジェクト選択手段の構成を例示したブロック図である。 第1実施形態に係る特徴量抽出装置において、オブジェクト選択手段のクオリティ判定部を例示したブロック図である。 第1実施形態に係る特徴量抽出装置において、オブジェクト選択手段の別のクオリティ判定部を例示したブロック図である。 第1実施形態に係る特徴量抽出装置において、別のオブジェクト選択手段を例示したブロック図である。 第1実施形態に係る特徴量抽出装置において、別のオブジェクト選択手段のバリエーション判定部を例示したブロック図である。 第1実施形態に係る特徴量抽出装置において、別のバリエーション判定部を例示したブロック図である。 第1実施形態に係る特徴量抽出装置において、オブジェクト選択を行う映像区間と、オブジェクト選択を行うタイミングの時間的な関係を図示した図である。 第2実施形態に係るオブジェクト特徴量抽出装置の構成を例示したブロック図である。 第2実施形態に係るオブジェクト特徴量抽出装置において、オブジェクト選択手段の構成を例示したブロック図である。 第2実施形態に係るオブジェクト特徴量抽出装置において、別のオブジェクト選択手段の構成を例示したブロック図である。 第3実施形態に係るオブジェクト特徴量抽出装置の構成を例示したブロック図である。 第3実施形態に係るオブジェクト特徴量抽出装置において、オブジェクト選択手段の構成を例示したブロック図である。 第3実施形態に係るオブジェクト特徴量抽出装置において、別のオブジェクト選択手段の構成を例示したブロック図である。 第4実施形態に係るオブジェクト特徴量抽出装置の構成を例示したブロック図である。 第4実施形態に係るオブジェクト特徴量抽出装置において、オブジェクト選択手段の構成を例示したブロック図である。 第4実施形態に係るオブジェクト特徴量抽出装置において、別のオブジェクト選択手段の構成を例示したブロック図である。 クオリティ指標を表す関数を例示した図である。 クオリティ指標を表す関数を例示した図である。 クオリティ指標を表す関数を例示した図である。 クオリティ指標を表す関数を例示した図である。 オブジェクトが人物のときに人物領域の分割例を例示した図である。 バリエーション指標を表す関数を例示した図である。 バリエーション指標を表す関数を例示した図である。 バリエーション指標を表す関数を例示した図である。 第1~第4実施形態に係るオブジェクト特徴量抽出装置を実現するための計算機、ネットワーク、カメラを例示した図である。
 次に、発明を実施するための最良の形態について図面を参照して詳細に説明する。
 (第1実施形態)
 図1は、第1実施形態に係るオブジェクト特徴量抽出装置の構成を例示したブロック図である。図1に示すように、オブジェクト特徴量抽出装置100は、映像取得手段101と、オブジェクト検出手段102と、オブジェクト追跡手段103と、オブジェクト選択手段105と、オブジェクト特徴抽出手段106と、画像記憶手段107と、検出結果記憶手段108と、追跡結果記憶手段109とを備えている。
 映像取得手段101は、映像を取得し、取得した映像をオブジェクト検出手段102と、オブジェクト追跡手段103と、画像記憶手段107とに出力する。
 オブジェクト検出手段102は、映像取得手段101から出力される画像に対して、オブジェクト検出を行い、オブジェクト検出結果をオブジェクト追跡手段103と、検出結果記憶手段108とに出力する。
 オブジェクト追跡手段103は、オブジェクト検出手段102から出力されるオブジェクト検出結果に基づいて、映像取得手段101から出力される画像を用いてオブジェクトの追跡処理を行い、オブジェクト追跡結果を追跡結果記憶手段109に出力する。
 オブジェクト選択手段105は、検出結果記憶手段108から出力される過去画像追跡結果と、追跡結果記憶手段109から出力される追跡結果履歴情報とに基づいて、特徴抽出を行うオブジェクトを選択し、選択オブジェクト情報をオブジェクト特徴抽出手段106に出力する。
 オブジェクト特徴抽出手段106は、オブジェクト選択手段105から出力される選択オブジェクト情報に含まれるオブジェクトの特徴量を、検出結果記憶手段108から出力されるオブジェクト検出結果に基づいて、画像記憶手段107から出力される画像から抽出する。
 次に、図1のオブジェクト特徴量抽出装置100の動作について説明する。映像取得手段101では、監視対象となるエリアや物体の映像を撮影する。ここで、映像取得手段としては、映像を撮影できるものであれば、どのようなものでもよい。例えば、固定の監視カメラやWebカメラであってもよいし、UAVや車両のように、移動体に装着されたカメラであってもよい。あるいは、警察官や警備員が装着するウェアラブルカメラであってもよいし、ユーザが撮影するビデオカメラであってもよい。映像取得手段101で撮影された映像は、画像列として出力される。この画像列は、オブジェクト検出手段102、オブジェクト追跡手段103に出力されるとともに、画像記憶手段107に出力され、格納される。
 オブジェクト検出手段102では、映像取得手段101から入力される画像に対してオブジェクト検出を行い、結果をオブジェクト検出結果として出力する。オブジェクトが人物の場合、人物の画像特徴を学習した検出器を用いて、人物領域を検出する。例えば、HOG(Histograms of Oriented Gradients)特徴に基づいて検出する検出器や、CNN(Convolutional Neural Network)を用いて画像から直接検出する検出器を用いてもよい。
 あるいは、人全体ではなく、人の一部の領域(例えば頭部など)を学習させた検出器を用いて人物を検出するようにしてもよい。例えば、頭部や足下を学習させた検出器を用い、頭部位置と足下位置が検出できれば、人物領域を特定できる。その他にも例えば、背景差分によって求まるシルエット情報(背景モデルと差分がある領域の情報)と頭部検出情報を組み合わせることにより、人物領域を求めるように構成されていてもよい。
 オブジェクトが車の場合も、同様に車両の画像特徴を学習させた検出器を用いて検出することが可能である。オブジェクトがそれ以外の特定物体の場合も、その特定物体の画像特徴を学習させた検出器を構築し、用いるようにすればよい。
 そして、検出されたオブジェクトの情報をまとめ、オブジェクト検出結果情報として生成する。ここで、オブジェクト検出結果情報は、検出を行ったフレームの時刻情報(あるいはフレーム番号など、フレームを特定するための情報)と検出されたオブジェクトの情報を含んでおり、オブジェクトの情報は、オブジェクトの検出位置や大きさを含む。
 ここで、オブジェクトの位置は、画面上の位置で表されていてもよいし、カメラのキャリブレーションによって求まるカメラの位置や姿勢を表すパラメータを用いて、実世界座標に変換して位置を表すようにしてもよい。例えば、画面上の位置で表す場合には、オブジェクトを囲う矩形の頂点の座標(例えば左上と右下の頂点)で表せばよい。
 あるいは、1つの頂点と矩形の幅、高さの情報で表してもよい。また、複数のオブジェクトが検出された場合には、オブジェクト検出結果情報は、検出された複数のオブジェクトの情報を含むことになる。また、検出オブジェクトを同一フレーム内で区別するID情報も含む。ただし、このID情報は、同一フレームで検出された複数のオブジェクトを区別するために振られるID情報であり、追跡対象オブジェクトに振られるID情報とは異なる。生成されたオブジェクト検出結果情報は、オブジェクト追跡手段103へ出力される。また、検出結果記憶手段108へも出力され、格納される。
 オブジェクト追跡手段103では、Tracking by Detectionと呼ばれる、検出結果に基づいた追跡処理を行う。すなわち、一つ前の時刻までのオブジェクト追跡結果に含まれ、追跡対象となっている各オブジェクトが、現時刻のオブジェクト検出結果に含まれる、どの検出オブジェクトと対応づくかを求め、追跡結果を更新する。
 この際、追跡対象となっている各オブジェクトの位置をカルマンフィルタやパーティクルフィルタによって予測してから、現時刻の検出オブジェクトと対応付けるようにしてもよい。追跡対象オブジェクトと検出オブジェクトとが対応づいた場合には、対応づいた検出オブジェクトの情報とその時刻の画像を用いて追跡対象オブジェクトの情報を更新する。
 一方、どの追跡対象オブジェクトとも対応づかなかった場合には、新たに表れたオブジェクトである可能性が高いため、その検出オブジェクトに対応する追跡対象オブジェクトを新たに生成し、オブジェクト追跡結果に追加する。逆に、どの検出オブジェクトとも対応づかない追跡対象オブジェクトが存在する場合には、その追跡対象オブジェクトが画面外に出た等の理由により、消失したと考えられる。よって、その追跡対象オブジェクトを追跡結果から削除する処理を行う。
 ただし、一度の未対応で削除するのではなく、数回未対応が続いたら削除するようにしてもよい。この制御のために、追跡対象オブジェクトの確からしさを表す尤度を定義しておき、新規生成時から、検出オブジェクトとの対応づけられた場合には尤度を上げ、対応がつかなかったら尤度を下げるようにし、尤度が一定値を下回った時点で削除するようにしてもよい。
 なお、この尤度の計算では、検出結果と対応づいたかどうかという情報だけでなく、対応づいた際の確からしさも合わせて考慮してもよい。このようにして、現時刻におけるオブジェクト追跡結果を生成し、出力する。
 ここで、オブジェクト追跡結果情報は、画像上でのオブジェクトの位置、大きさ、および追跡対象オブジェクトごとに付与されたID情報、対応づいた検出オブジェクトのID情報(対応づかなかった場合には未対応であることを表す情報)を含む。なお、位置情報の記述方法は任意であり、追跡オブジェクトの外接矩形情報で示してもよいし、追跡オブジェクト領域中の一点の座標を求め、その点に基づく相対的な情報で大きさ情報を表すようにしてもよい。
 例えば、画面上の位置で表す場合には、オブジェクトを囲う矩形の頂点の座標(例えば左上と右下の頂点)で表せばよい。あるいは、1つの頂点と矩形の幅、高さの情報で表してもよい。あるいは、実空間上の座標に変換し、出力するようになっていてもよい。生成されたオブジェクト追跡結果情報は、追跡結果記憶手段109へ出力され、格納される。
 画像記憶手段107では、映像取得手段101で取得した画像が、現時刻(これをTcurとする)より一定時間前の分まで格納されている。後述するオブジェクトの特徴抽出は、現時刻より少し前の時刻の画像に対して行うため、この時刻が最低限含まれる時間分だけ画像を格納しておく。そして、後述するオブジェクト特徴抽出手段106から読み出された際、指定された時刻の画像を出力する。
 検出結果記憶手段108では、オブジェクト検出結果が現時刻Tcurより一定時間前の分まで格納されている。これも、画像記憶手段107の画像と同じ時間分だけ格納されていればよい。そして、後述するオブジェクト選択手段105やオブジェクト特徴抽出手段106から読み出された際、指定された時刻の検出結果を出力する。
 追跡結果記憶手段109では、オブジェクト追跡結果が格納されている。そして、後述するオブジェクト選択手段105から読み出された際、指定された時間区間の追跡結果履歴を出力する。
 オブジェクト選択手段105では、後述するオブジェクト特徴抽出手段106で特徴抽出の対象となる時刻における、特徴抽出を行うオブジェクトを選択する。オブジェクト特徴抽出手段106では、現在より少し前の時刻の画像に対してオブジェクトの特徴抽出を行うが、その時刻(以後抽出時刻と呼ぶ)でのオブジェクト選択を行う。抽出時刻を現時刻Tcurより時間τ(>0)だけ前の時刻Tcur-τとすると、オブジェクト選択手段105では、抽出時刻Tcur-τの画像に対するオブジェクト検出結果を過去検出結果として検出結果記憶手段108から読み出す。
 また、追跡結果記憶手段109から、時刻Tcur-τ-ΔTから現時刻Tcurまでの追跡結果を読み出す。ここで、ΔT(>0)は、追跡結果からオブジェクトの状態や動きを推定するのに必要な時間区間を表す。そして、追跡対象オブジェクトのどのオブジェクトに対して特徴抽出処理を行うかを判定し、特徴抽出を行うオブジェクトを選択する情報である、選択オブジェクト情報を生成する。選択オブジェクト情報には、抽出時刻Tcur-τと、特徴抽出を行う追跡対象オブジェクトのID情報と、それと対応づいた検出オブジェクトのID情報を含む。
 オブジェクト選択手段105の動作の詳細は後述する。生成された選択オブジェクト情報は、オブジェクト特徴抽出手段106に出力される。
 オブジェクト特徴抽出手段106では、選択オブジェクト情報と、抽出時刻Tcur-τのオブジェクト検出結果情報に基づいて、抽出時刻Tcur-τの画像からオブジェクト特徴量を抽出する。すなわち、選択オブジェクト情報に含まれる追跡オブジェクトIDと対応づいた検出オブジェクトIDによって、この検出オブジェクトの位置情報をオブジェクト検出結果情報から求め、該当する画像領域の特徴量を、その追跡オブジェクトIDのオブジェクトの特徴量として抽出する。
 抽出する特徴はオブジェクトの色や形状、模様などを表す視覚特徴量であり、オブジェクトの識別に利用可能な特徴量であればどのようなものでもよい。例えば、色や輝度勾配特徴のヒストグラムであったり、SIFTやSURFのような局所特徴であったり、ガボールウェーブレットのような模様を記述する特徴量であってもよい。あるいは、深層学習によって求まったオブジェクト識別用の特徴量であってもよい。
 以上述べた構成により、多数のオブジェクトが画面に映る状況であっても、特徴抽出を行うオブジェクトを適切に選択し、特徴抽出処理にかかるコストを抑えつつ、オブジェクト全体として高精度な照合が可能となる特徴抽出を実現できる。特に、特徴抽出を少し遅らせることで、特徴量を抽出するオブジェクトの選択がより適切にできるようになる。
 次に、図1のオブジェクト選択手段105について、より詳細に説明する。図2は、第1実施形態に係るオブジェクト特徴量抽出装置において、オブジェクト選択手段の構成を例示したブロック図である。図2に示すように、オブジェクト選択手段105は、クオリティ判定部120とオブジェクト選択部121とを有している。
 クオリティ判定部120は、入力されるオブジェクト追跡結果履歴と過去画像オブジェクト検出結果とに基づいてクオリティ指標を求め、オブジェクト選択部121へ出力する。オブジェクト選択部121は、クオリティ判定部120から出力されるクオリティ指標に基づいて、特徴量を抽出するオブジェクトを選択し、選択オブジェクト情報を出力する。
 次に、オブジェクト選択手段105の動作について説明する。過去画像オブジェクト検出結果、オブジェクト追跡結果履歴は、クオリティ判定部120へ入力される。ここで、過去画像オブジェクト検出結果は、抽出時刻Tcur-τの画像に対するオブジェクトの検出結果である。また、オブジェクト追跡結果履歴は、時刻Tcur-τ-ΔTから現時刻Tcurまでのオブジェクトの追跡結果である。
 クオリティ判定部120では、入力されるオブジェクト追跡結果履歴、過去画像オブジェクト検出結果に基づいて、抽出時刻Tcur-τの画像における各追跡対象オブジェクトに対してクオリティ指標を算出する。
 クオリティ指標は、抽出する特徴量の質を特徴抽出する以前に予測する指標であり、オブジェクトから高品質な特徴量が抽出されると予測される場合には高い値をとり、そうでない場合に低い値となる指標である。クオリティ指標の取り得るレンジは任意であるが、以下では、クオリティ指標は[0、1]の区間の値をとるものとする。
 クオリティ判定部120の詳細については後述する。算出されたクオリティ指標は、追跡対象オブジェクトのIDとそれに対応づいた検出オブジェクトIDの情報と対応付けてオブジェクト選択部121へ出力される。
 オブジェクト選択部121では、入力されるクオリティ指標の値が大きい追跡対象オブジェクトを選択する。具体的には、例えばクオリティ指標の値が一定値よりも大きいものを選択する。あるいは、クオリティ指標の値でソートしたときに、大きいほうから一定数の追跡対象オブジェクト(もし、オブジェクト数が一定数より少ない場合には全て)を選択する。あるいは、両者の基準を組み合わせてオブジェクトを選択(例えば、クオリティ指標の値が一定値以上の中で、大きいほうから一定数選択)してもよい。選択された追跡対象オブジェクトのIDと、それと対応づいた検出オブジェクトのID、および抽出時刻情報を組み合わせて、選択オブジェクト情報として出力する。
 次に、図2のクオリティ判定部120の詳細について述べる。図3は、第1実施形態に係る特徴量抽出装置において、オブジェクト選択手段のクオリティ判定部120を例示したブロック図である。図3に示すように、クオリティ判定部120は、クオリティ指標算出部130を含んでいる。クオリティ指標算出部130は、過去画像オブジェクト検出結果とオブジェクト追跡結果履歴とに基づいてクオリティ指標を算出し、出力する。
 次に、図3のクオリティ判定部120の動作について述べる。クオリティ指標算出部130では、オブジェクト追跡結果履歴における、抽出時刻Tcur-τでの追跡結果に含まれる各追跡対象オブジェクトに対して、様々な要因に対するクオリティ指標を算出する。検出されたオブジェクトの大きさが大きいほど、オブジェクトの細かな特徴まで抽出可能となるため、一般的にオブジェクトの大きさ(解像度)が大きいほど、特徴量のクオリティは上がると考えられる。よって、オブジェクト検出結果から求まるオブジェクト領域のサイズS(例えば領域の面積や領域の幅や高さなど)を用いて、解像度に基づくクオリティ指標qResの値を数式(1)によって求めることができる。
Figure JPOXMLDOC01-appb-M000001
 ここで、fRes(S)は、[0、1]を値域としてもつ単調非減少関数であり、例えば、図17Bのように表される。この関数は、例えばサイズSと照合精度の関係を求め、fRes(S)として用いるようにすればよい。
 また、オブジェクトの画面上での動きが大きい場合には、オブジェクト表面の細かな模様(例えばオブジェクトが人物の場合は服の模様など)は動きボケの影響で正しく抽出できなくなる可能性が高まる。よって、オブジェクトの画面上での動きが大きいほど、特徴量のクオリティは下がると考えられる。よって、オブジェクトの画面上での動き量をvとすると、動きに基づくクオリティ指標qMotの値を数式(2)によって求めることができる。
Figure JPOXMLDOC01-appb-M000002
 ここで、fMot(v)は、[0、1]を値域としてもつ単調非増加関数であり、例えば、図17Cのように表される。この関数は、例えば画面上での動き量vと照合精度の関係を求め、fMot(v)として用いるようにすればよい。また、動き量vは、追跡対象オブジェクトの移動履歴から求めることができる。例えば、抽出時刻Tcur-τ前後の複数の時刻における位置情報を用いて、抽出時刻Tcur-τにおける画面上での動き量vを求めることができる。
 また、オブジェクトの姿勢や向きが、特徴抽出で想定している姿勢や向きから大きくずれている場合は、抽出された特徴量が想定からずれてくる可能性がある。よって、オブジェクトの姿勢や向きの、想定姿勢や向きからのずれが大きくなるほど、特徴量のクオリティは下がると考えられる。例えば、オブジェクトが人物の場合には、特徴抽出で想定される姿勢が直立姿勢の場合、しゃがんだり、かがんだりすると、想定姿勢からのずれが大きくなる。この程度を表す値を姿勢変化度(想定姿勢からのずれが大きいほど値が大きくなる指標)と呼ぶことにし、姿勢変化度をrPosで表すことにすると、姿勢や向きに基づくクオリティ指標qPosの値は、数式(3)で表される。
Figure JPOXMLDOC01-appb-M000003
 ここで、fPos(rPos)は、[0、1]を値域としてもつ単調非増加関数であり、例えば、図17Dのように表される。この関数は、例えば姿勢変化度をrPosと照合精度の関係を求め、fPos(rPos)として用いるようにすればよい。
 また、姿勢変化度rPosは、例えばオブジェクト検出矩形のアスペクト比が、想定される姿勢の場合のオブジェクト外接矩形のアスペクト比からどれだけずれているかで定義することができる。例えば、検出矩形のアスペクト比と想定姿勢に対するオブジェクト外接矩形のアスペクト比の差分の絶対値を求め、姿勢変化度とすることができる。あるいは、固定カメラの場合でキャリブレーション情報が利用できる場合には、画面の矩形の大きさから、実空間上でのオブジェクトの大きさを求めることができるようになる。よって、オブジェクトの追跡結果からオブジェクトの実空間上での大きさ(例えば、人物の場合には人物の高さ)を求めておき、抽出時刻Tcur-τにおける、その時系列変化をチェックすることで、姿勢変動を検出することができる。すなわち、実空間上での大きさの変化の度合いに応じて、姿勢変化度を定義するようにすればよい。さらに、オブジェクトの向きも考慮してもよい。オブジェクトの向きの求め方としては種々の方法があるが、例えば、オブジェクトの移動方向と向きが一致すると仮定すると、追跡結果の位置の履歴からオブジェクトの移動方向を特定し、向きを推定することができる。そして、推定された向きと特徴抽出の想定向き(例えば正面など)とのずれの大きさで、姿勢変化度を定義するようにしてもよい。
 このようにして求めた各要因に対するクオリティ指標から全体のクオリティ指標を算出する。各要因に対するクオリティ指標と全体のクオリティ指標Qの関係を表す関数gを数式(4)のように定義し、用いるようにする。
Figure JPOXMLDOC01-appb-M000004
 数式(4)の関数としては、例えば数式(5)に示す関数を用いることができる。
Figure JPOXMLDOC01-appb-M000005
 なお、今までは様々な要因について記してきたが、この全部を考慮する必要はなく、一部のみを考慮するようになっていてもよい。この場合は、考慮しない要因に対するクオリティ指標の値を1とみなして、数式(4)に従ってクオリティ指標を算出するようにすればよい。
 上述のクオリティ指標は抽出時刻Tcur-τのオブジェクト追跡結果に含まれる各追跡対象オブジェクトに対して算出される。そして、算出されたクオリティ指標は、追跡対象オブジェクトのIDとそれに対応づいた検出オブジェクトIDの情報と対応付けて出力される。
 このようにすることで、解像度、動き、姿勢によって特徴量のクオリティが低下することを予測し、特徴抽出を行うべきオブジェクトを選択できるようになる。特に、特徴抽出の時刻を少し遅らせることで、特徴抽出時点から見ると、未来の追跡結果情報も用いることができるようになるため、より正確なオブジェクトの状態判定ができるようになり、適切なオブジェクト選択が可能となる。
 次に、図2のクオリティ判定部120の別の実施形態について述べる。図4は、第1実施形態に係る特徴量抽出装置において、オブジェクト選択手段の別のクオリティ判定部を例示したブロック図である。図4に示すように、クオリティ判定部120の別の例は、クオリティ指標算出部131と環境要因記憶部132とを有している。クオリティ指標算出部131は、オブジェクト検出結果とオブジェクト追跡結果とに基づいてクオリティ指標を算出し、出力する。
 次に、図4のクオリティ判定部120の動作について述べる。環境要因記憶部132には、環境要因によって生じる特徴量のクオリティ低下に対するクオリティ指標の値が格納されている。特徴量のクオリティに影響を与える環境要因としては、環境に配置されている障害物(棚や机など)による隠蔽、不適切な照明・日照条件による劣化、カメラの焦点が合っていないことによって生じるぼけによる劣化などが挙げられる。固定カメラの場合、これらの劣化要因は画面上の特定の場所で生じることになる。よって、画面上の各位置にオブジェクトが来た時に生じるクオリティ劣化の度合いを推定し、その程度を表すクオリティ指標の値を位置と対応付けて環境要因記憶部132に記憶しておく。すなわち、数式(6)に示す、環境要因に基づくクオリティ指標の値を画面上の各座標(x、y)について求めておき、記憶しておけばよい。
Figure JPOXMLDOC01-appb-M000006
 ここで、fEnv(x、y)は、[0、1]を値域としてもつ関数である。また、x、yは、オブジェクトの基準点の位置座標であり、例えば、オブジェクトの接地点の中心座標を用いることができる。関数fEnv(x、y)の値は、例えばオブジェクトが画面上の位置(x、y)に来た時に生じる環境要因によって、どの程度照合精度が落ちるかを求め、その結果に基づいて決めるようにすればよい。
 なお、環境要因ではないが、カメラの画面の周辺領域では、オブジェクトの一部が画面外となり、一部が隠ぺいされたのと同等の状況が生じる。よって画面周辺領域も、障害物による隠ぺいと同様に扱ってもよい。また、特徴量のクオリティに影響を与える上述の要因のうち、解像度については、環境要因と合わせて考慮することもできる。このため、解像度に基づくクオリティ指標は、環境要因に基づくクオリティ指標に含めるようにしてもよい。
 なお、上述の位置情報(x、y)は画面上ではなく、実世界座標や、それを地図画像の座標に変換した値であってもよい。この場合は、オブジェクトの位置情報を該当する座標系に変換した上で、数式(6)に示すクオリティ指標を求める。
 また、照明や日照条件については、昼と夜で異なる等、時間帯によって変化が生じ得る。よって、各時間帯に対するクオリティ指標の値を環境要因記憶部132に記憶しておき、処理する映像の時間帯に応じて情報を切り替えて用いるようにしてもよい。あるいは、環境条件が遷移する状況下では、その前後の時間帯のクオリティ指標の値から、内挿によりクオリティ指標の値を求めて用いてもよい。
 クオリティ指標算出部131では、クオリティ指標算出部130の動作の説明で述べた要因に加え、環境要因も考慮して全体のクオリティ指標を算出する。具体的には、オブジェクト追跡結果に含まれる追跡対象オブジェクトの位置情報から現時刻におけるオブジェクトの位置(x、y)を求め、環境要因記憶部132から、その位置における環境要因に基づくクオリティ指標qEnvの値を求める。そして、各要因に対するクオリティ指標と全体のクオリティ指標Qの関係を表す関数gを数式(7)のように定義し、用いるようにする。
Figure JPOXMLDOC01-appb-M000007
 数式(7)の関数としては、例えば、数式(8)に示す関数を用いることができる。
Figure JPOXMLDOC01-appb-M000008
 このようにすることで、特定の位置にオブジェクトが来た時に決まったクオリティ劣化が生じる場合であっても、特徴量のクオリティの低下を適切に予測できるようになる。
 このようにすることで、解像度、動き、姿勢による要因に加え、環境に基づいて生じる特徴量のクオリティ低下を予測できるようになり、特徴抽出を行うべきオブジェクトを、より適切に選択できるようになる。また、時間帯に応じて環境要因に基づくクオリティ指標を切り替えることにより、時間によって抽出される特徴量のクオリティが変化する場合であっても、適切に対応できるようになる。
 次に、図1のオブジェクト選択手段105の別の実施形態について説明する。図5は、第1実施形態に係る特徴量抽出装置において、別のオブジェクト選択手段を例示したブロック図である。図5に示すように、別のオブジェクト選択手段105は、クオリティ判定部120と、バリエーション判定部140と、オブジェクト選択部141とを有している。
 クオリティ判定部120は、入力されるオブジェクト追跡結果履歴と過去画像オブジェクト検出結果とに基づいてクオリティ指標を求め、オブジェクト選択部141へ出力する。バリエーション判定部140は、入力されるオブジェクト追跡結果履歴とオブジェクト選択部141からフィードバックされる選択オブジェクト情報に基づいてバリエーション指標を求め、オブジェクト選択部141へ出力する。オブジェクト選択部141は、クオリティ判定部120から出力されるクオリティ指標と、バリエーション判定部140から出力されるバリエーション指標とに基づいて特徴量を抽出するオブジェクトを選択し、選択オブジェクト情報を出力する。この選択オブジェクト情報は、後の時刻でのバリエーション判定のため、バリエーション判定部140にも出力される。
 次に、図5に示すオブジェクト選択手段105の動作について説明する。クオリティ判定部120の動作は、図2のものと同じであり、求めたクオリティ指標をオブジェクト選択部141へ出力する。
 一方、バリエーション判定部140では、以前の時刻で出力されたオブジェクト選択情報を記憶しており、入力されるオブジェクト追跡結果履歴に含まれる、抽出時刻Tcur-τの画像における各追跡対象オブジェクトに対するバリエーション指標を算出する。
 バリエーション指標は、取得特徴量のバリエーション(多様性)の改善の度合いを表す指標である。オブジェクトの特徴量はオブジェクトの状態によって変化し得るため、オブジェクト照合での漏れを少なくするためには、同一オブジェクトの様々な状態での特徴量を抽出しておくことが望ましい。一方、オブジェクトの状態がほとんど変わっていない状況で何度も特徴抽出を行っても、ほぼ同じ特徴量が繰り返し取得されるのみであり、漏れの低減には寄与しない。すなわち、時系列でのオブジェクトの特徴取得においては、冗長な特徴量取得をなるべく避けつつ、取得特徴量のバリエーションを増やしていくことが重要となる。バリエーション指標は、それまでに取得した特徴量群に加えて、今回特徴量取得を行うことで、特徴量のバリエーションを増やすことができるかどうか、すなわち取得特徴量のバリエーションを改善できるかどうかを特徴量抽出前に予測し、指標化したものである。よって、バリエーション指標が大きいオブジェクトほど優先的に特徴量を抽出することが望ましく、オブジェクト選択の基準として用いることができる。
 バリエーション判定部140の詳細については後述する。算出されたバリエーション指標は、追跡対象オブジェクトのIDと対応付けてオブジェクト選択部141へ出力される。
 オブジェクト選択部141では、入力されるクオリティ指標Qとバリエーション指標Vとに基づいて、両方を合わせた選択指標Iを算出する。この関数をFとすると、数式(9)のように定式化できる。
Figure JPOXMLDOC01-appb-M000009
 数式(9)の関数としては、例えば、数式(10)の関数を用いることができる。
Figure JPOXMLDOC01-appb-M000010
 そして、選択指標Iの値が大きい追跡対象オブジェクトを選択する。具体的には、選択指標の値が一定値よりも大きいものを選択する。あるいは、選択指標の値でソートしたときに、大きいほうから一定数の追跡対象オブジェクト(もし、オブジェクト数が一定数より少ない場合には全て)を選択する。あるいは、両者の基準を組み合わせてオブジェクトを選択(例えば、選択指標の値が一定値以上の中で、大きいほうから一定数選択)してもよい。
 選択された追跡対象オブジェクトのIDは、それと対応づいた検出オブジェクトのID、および抽出時刻情報を組み合わせて選択オブジェクト情報として出力される。また、選択オブジェクト情報は、バリエーション判定部140へも出力され、後の時刻におけるバリエーション指標の算出に用いられる。
 次に、バリエーション判定部140の詳細について述べる。図6は、第1実施形態に係る特徴量抽出装置において、別のオブジェクト選択手段のバリエーション判定部を例示したブロック図である。図6に示すように、バリエーション判定部140は、バリエーション指標算出部150と、抽出履歴記憶部151とを有している。
 抽出履歴記憶部151は、入力される選択オブジェクト情報に基づいて、各オブジェクトの特徴量抽出履歴を更新、格納しており、特徴量抽出履歴情報をバリエーション指標算出部150へ出力する。バリエーション指標算出部150は、入力されるオブジェクト追跡結果履歴と、抽出履歴記憶部151から出力される特徴量抽出履歴情報に基づいて、バリエーション指標を算出し、出力する。
 次に、図6に示すバリエーション判定部140の動作について説明する。抽出履歴記憶部151では、各追跡対象オブジェクトのIDに対して、特徴量を抽出するオブジェクトとして選択された時刻の情報を格納している。選択オブジェクト情報が抽出履歴記憶部151に入力されると、選択オブジェクト情報に含まれる追跡対象オブジェクトのIDに対して、そのオブジェクトが選択された時刻の情報を追加する。抽出履歴記憶部151では、さらに、各追跡対象オブジェクトのIDに対して過去に何回特徴抽出が行われたかといった情報を記録していてもよい。この場合には、選択オブジェクト情報に含まれる追跡対象オブジェクトの特徴抽出回数を1つ増やす。
 バリエーション指標算出部150では、入力されるオブジェクト追跡結果履歴に含まれる、抽出時刻Tcur-τの画像における各追跡対象オブジェクトに対してバリエーション指標を算出する。上述のように、照合時の漏れを少なくするには、特徴量のバリエーションを増やすことが重要となる。これは、それまでの特徴量の取得履歴に依存する。前回特徴量を取得してから、ある程度時間が経過すると、オブジェクトの状態が変化し、バリエーション改善につながる特徴量が抽出できる可能性が高まる。よって、数式(11)のようにバリエーション指標を定式化できる。
Figure JPOXMLDOC01-appb-M000011
 ここで、関数h(t)は[0、1]を値域としてもち、前回の特徴抽出から今回の特徴抽出対象時刻である抽出時刻Tcur-τまでの経過時間tに対する単調非減少関数である。この関数としては、例えば、図19Aに示すような関数を用いることができる。なお、まだ一度も特徴抽出していない場合には、前回の特徴抽出時刻をt=-∞とし、バリエーション指標の値はh(∞)と定義する。
 上述の例では、単に前回の特徴抽出からの経過時間のみを考慮したが、これまでの特徴抽出の回数も考慮するようにしてもよい。特徴量の抽出回数が増えるにつれ、取得済みの特徴量のバリエーションも増加すると考えられるため、特徴抽出の回数が多くなれば、特徴抽出の頻度を下げてもよいと考えられる。よって、特徴抽出回数が増えるにつれてバリエーション指標の値が下がる関数を定義して、用いればよい。すなわち、バリエーション指標を経過時間tと特徴量抽出回数nの関数として、数式(12)のように定式化する。
Figure JPOXMLDOC01-appb-M000012
 ここで、関数h(t、n)は、[0、1]を値域としてもち、nを固定したときにはtの単調非減少関数となり、tを固定したときにはnの単調非増加関数となる関数である。例えば、図19Bに示すような関数を用いることができる。
 上述の例では、特徴抽出の履歴のみを用いたが、追跡結果の履歴情報も用いるようにしてもよい。前回の特徴抽出から時間が経過しているオブジェクトであっても、同じところにとどまり続けている場合には、状態があまり変化していない可能性が高く、特徴抽出を行っても、前回とほぼ同じ特徴量が得られるのみになる可能性が高い。一方、動いているオブジェクトの場合は、前回の特徴抽出からの経過時間が短くても、状態が大きく変化している可能性が高い。よって、オブジェクトの追跡結果履歴情報を用いて、オブジェクトがどれだけ移動しているかを求め、求まった移動量に応じてバリエーション指標の値を変化させるようにする。
 例えば、オブジェクト追跡結果履歴情報に含まれる、抽出時刻Tcur-τ前後のオブジェクトの位置情報から、この時点におけるオブジェクトの移動量を算出する。例えば、時刻Tcur-τ-ΔTと時刻Tcur-τ+ΔTの位置の差分を移動量dとして求める。この移動量は画面上での移動量として求めてもよいし、実世界座標系に変換して実世界上での移動量として求めてもよい。そして、バリエーション指標を経過時間tと特徴量抽出回数n、移動量dの関数として、数式(13)のように定式化する。
Figure JPOXMLDOC01-appb-M000013
 ここで、関数h(t、n、d)は[0、1]を値域として持ち、n、dを固定したときにはtの単調非減少関数となり、t、dを固定したときにはnの単調非増加関数となり、t、nを固定した時にはdの単調非減少関数となる関数である。例えば、図19Cに示すような関数を用いることができる。
 オブジェクト追跡結果履歴情報を用いる場合には、さらに、オブジェクトの向き等、オブジェクトの状態に関する他の情報も得ることができる。オブジェクトの状態に応じて特徴量が変化し得る場合には、その状態ごとに特徴量を抽出して保持しておき、照合に用いるようにすると、より漏れを低減できる。よって、オブジェクトの状態ごとに分類して特徴抽出の履歴を求め、そのときのオブジェクトの状態に応じてバリエーション指標を算出するようにすればよい。
 オブジェクトの状態を表すカテゴリをc=1、・・・、Cとする。このカテゴリは、例えば、正面、右、背面、左といったオブジェクトの向きに関するカテゴリである。それぞれのカテゴリcに対して、バリエーション指標を数式(14)のように定式化する。
Figure JPOXMLDOC01-appb-M000014
 ここで、関数h3、cは、数式(13)の関数hをカテゴリcごとに求める関数である。まず、オブジェクト追跡結果に基づいて、現在のオブジェクトの状態がどのカテゴリに当てはまるかを推定し、推定したカテゴリの関数を用いてバリエーション指標を算出する。例えば、カテゴリが向きの場合には、オブジェクトの追跡履歴からオブジェクトの移動方向を求め、移動方向に基づいて、向きを推定するようにすればよい。もし、向きが求まらない場合には、向き不明というカテゴリを設けておき、バリエーション指標を算出するようにしてもよい。
 なお、このカテゴリは必ずしも向きによるものでなくてもよく、オブジェクトの状態を反映した様々なカテゴリを用いることができる。もし、追跡情報のみでカテゴリ分類が難しい場合には、他の情報も含めてオブジェクトの状態のカテゴリ分類を行うようになっていてもよい。
 上述のバリエーション指標Vは、オブジェクト追跡結果履歴に含まれる、抽出時刻Tcur-τの画像における各追跡対象オブジェクトに対して算出される。そして、算出されたバリエーション指標は、追跡対象オブジェクトのIDと対応付けて出力される。
 このようにすることで、特徴量抽出履歴から、クオリティだけでなく、取得特徴量のバリエーションも考慮して、特徴抽出を行うべきオブジェクトを適切に選択できるようになる。
 次に、バリエーション判定部140の別の実施形態について述べる。図7は、第1実施形態に係る特徴量抽出装置において、別のバリエーション判定部を例示したブロック図である。図7に示すように、別のバリエーション判定部140は、バリエーション指標算出部155と、抽出履歴記憶部151と、オブジェクト状態変化傾向記憶部154とを有している。
 抽出履歴記憶部151は、入力される選択オブジェクト情報に基づいて、各オブジェクトの特徴量抽出履歴を更新、格納しており、特徴量抽出履歴情報をバリエーション指標算出部155へ出力する。オブジェクト状態変化傾向記憶部154は、場所に応じたオブジェクト状態の傾向を表す情報を格納しており、オブジェクト状態変化傾向情報をバリエーション指標算出部155へ出力する。バリエーション指標算出部155は、入力されるオブジェクト追跡結果と、抽出履歴記憶部151から出力される特徴量抽出履歴情報と、オブジェクト状態変化傾向記憶部154から出力されるオブジェクト状態変化傾向情報とに基づいて、バリエーション指標を算出し、出力する。
 次に、図7に示すバリエーション判定部140の動作について説明する。抽出履歴記憶部151の動作は、図6のものと同様である。
 オブジェクト状態変化傾向記憶部154では、画面内の場所に応じて変化し得る、オブジェクトの状態変化の傾向を表す情報を格納している。オブジェクトがどういう状態を取りやすいかといった傾向は、オブジェクトが存在する場所によって異なる場合がある。例えば、オブジェクトが人物の場合、通路の曲がり角に設置され、人が歩行時に曲がる様子をとらえることができるカメラの場合には、曲がり角においては、曲がる際に、人物の様々な方向の特徴を抽出することが可能となる。一方、それ以外の位置では、人物の方向とカメラの向きの関係が変化しにくいため、特定の方向のみの特徴が抽出される可能性が高い。このように、場所によってオブジェクトの状態変化の度合いが異なる場合には、状態変化が起こりやすい場所では、そうでない場所よりも頻度を上げて特徴抽出を行えば、様々なバリエーションの特徴を効率的に抽出できるようになる。よって、数式(15)で示されるような状態変化の起こりやすさを反映した乗数αを場所(x、y)ごとに定義し、オブジェクト状態変化傾向記憶部154に記憶しておく。
Figure JPOXMLDOC01-appb-M000015
 ここで、関数hLocは、[0、1]の値域を持つ関数であり、画面上でオブジェクトの状態変化が起こりやすいところほど値が大きくなる関数である。
 バリエーション指標算出部155では、バリエーション指標算出部155の動作の説明で述べた方法によって求まるバリエーション指標Vに、数式(15)の乗数αを乗じた値をバリエーション指標Vとして算出する。より具体的には、追跡対象オブジェクトの位置(x、y)をオブジェクト追跡結果情報から求め、この値に基づいて、オブジェクト状態変化傾向情報として乗数αの値を読み出して、バリエーション指標Vの値に乗じるようにする。算出されたバリエーション指標は、追跡対象オブジェクトのIDと対応付けて出力される。
 このように、場所に応じたオブジェクト状態の変化の傾向まで考慮することで、オブジェクトの特徴量の変化の有無を、より正確にバリエーション指標に反映でき、より適切なオブジェクト選択が可能となる。
 今までは抽出時刻Tcur-τの画像に対するオブジェクト選択について述べてきたが、この選択は、必ずしも画像1枚ずつ行う必要はなく、複数の画像に対してまとめて行うようにしてもよい。例えば、映像の時間区間Dごとに、オブジェクト選択をまとめて行うようになっていてもよい。
 図8は、第1実施形態に係る特徴量抽出装置において、オブジェクト選択を行う映像区間と、オブジェクト選択を行うタイミングの時間的な関係を図示した図である。ここでは、映像区間[(n-1)D、nD)(nは自然数)のオブジェクト選択が時刻nD+τの時点で行われ、その結果が出力されることを示している。例えば、[0、D)の映像区間でのオブジェクト選択、およびその結果の出力は、時刻D+τの時点で行われる。以下では、図1に示すオブジェクト選択手段105が、図2に示すようにクオリティ指標のみを用いてオブジェクト選択を行う場合についてまず述べ、次に、図5に示すようにクオリティ指標とバリエーション指標の両方を用いてオブジェクト選択を行う場合について述べる。
 クオリティ指標のみを用いてにおけるオブジェクト選択を行う場合には、オブジェクト選択手段105は、現時刻Tcurがオブジェクト選択タイミングTcur=nD+τになった時点で、映像区間[(n-1)D、nD)に含まれるフレームに含まれるオブジェクトの選択をまとめて行う。
 このために、まず、クオリティ判定部120は、該当区間の過去画像検出結果と、[(n-1)D-ΔT、Tcur]の追跡結果履歴を読みだす。そして、映像区間[(n-1)D、nD)に含まれるフレームで検出されたオブジェクトそれぞれに対するクオリティ指標を算出し、追跡対象オブジェクトのIDと時刻情報、およびそれに対応づいた検出オブジェクトIDの情報と対応付けてオブジェクト選択部121へ出力する。
 オブジェクト選択部121では、基本的にはクオリティ指標が高いオブジェクトを選択する。ただし、選択されるオブジェクトが特定の追跡対象オブジェクトIDに偏ってしまう場合には、なるべく多くの追跡対象オブジェクトIDが選択されるようにしてもよい。例えば、各追跡対象オブジェクトIDに対して、クオリティ指標が最大のものを選択したうえで、残りの分を、クオリティが高いオブジェクトを選択するようにしてもよい。
 選択するオブジェクト数は、各フレームで一定数である必要はなく、フレームごとに異なっていてもよい。例えば、該当映像区間内のフレーム数NFrmであり、特徴量抽出処理の時間制約から、一フレーム当たりの選択オブジェクト数の平均をNObj以内に抑える必要がある場合、選択オブジェクト数Nが数式(16)を満たす限りにおいては、フレームごとの選択数は同じでなくてもよい。
Figure JPOXMLDOC01-appb-M000016
 よって、選択オブジェクト数のターゲット数をNFrmObjとし、この数以下のオブジェクトを選択するようにする。
 この際、選択オブジェクト数がターゲット数に達せず、余裕がある場合には、その分、次のオブジェクト選択区間[nD、(n+1)D)でのターゲット数を増やすようにしてもよい。
 このようにして選択されたオブジェクトの情報は、選択オブジェクト情報として、オブジェクト特徴抽出手段106へ出力される。選択オブジェクト情報は、選択された追跡対象オブジェクトのIDと時刻情報、およびそれと対応づいた検出オブジェクトのIDとを組み合わせた情報である。
 オブジェクト特徴抽出手段106では、映像区間[(n-1)D、nD)に対する選択オブジェクト情報が入力されると、該当するフレームの画像とオブジェクト検出結果を、それぞれ画像記憶手段107と検出結果記憶手段108から読み出し、オブジェクトの特徴を抽出する。オブジェクト抽出の動作自体は、上述の通りである。
 なお、上述の例では、映像を一定の時間長Dに区切ってオブジェクト選択を行う場合について述べたが、Dは必ずしも固定である必要はなく、可変にして、適応的に制御するようになっていてもよい。例えば、検出オブジェクト数が少ない場合には、Dを1フレーム間隔とし、遅延を最小限に抑えるようにしておき、オブジェクト数が多くなった時点でDを増やして数フレーム分まとめてオブジェクト選択を行うようになっていてもよい。これにより、遅延を抑えつつ、複数フレームを跨って最適なオブジェクト選択が可能となる。
 次に、クオリティ指標とバリエーション指標の両方を用いてオブジェクト選択を行う場合について述べる。
 クオリティ判定部120については、上述の通りであり、映像区間[(n-1)D、nD)に含まれるフレームで検出されたオブジェクトに対するクオリティ指標を算出し、オブジェクト選択部141へ出力する。
 バリエーション判定部140では、映像区間[(n-1)D-ΔT、Tcur]に含まれるフレームの追跡結果履歴を読みだす。これと、内部に保持しているそれ以前の時刻のオブジェクト選択情報とに基づいて、映像区間[(n-1)D、nD)に含まれるフレームで検出されたオブジェクトそれぞれに対するバリエーション指標を算出する。バリエーション指標の算出方法は、1フレーム単位でオブジェクトを選択する場合と同様であるが、経過時間tと特徴量抽出回数nの値は、映像区間の開始時点(n-1)Dでの値となる。算出されたバリエーション指標は、追跡対象オブジェクトIDと対応付けてオブジェクト選択部141へ出力する。
 オブジェクト選択部141では、クオリティ指標Qとバリエーション指標Vとから両方を合わせた選択指標Iを算出し、選択指標が高いオブジェクトを選択する。選択するオブジェクト数については、数式(16)を満たす限りにおいては、フレームごとの選択数は同じでなくてもよい。これ以降の処理は、上述のクオリティ指標のみを用いてオブジェクト選択を行う場合と同様である。
 ただし、厳密には、あるオブジェクトがオブジェクト選択部141で選択されると、そのオブジェクトに対するバリエーション指標Vは変化する。次に、この点を考慮してオブジェクト選択を行う場合の動作について説明する。
 この場合、オブジェクト選択部141では、まず、選択指標Iが最大となるオブジェクトを選択する。すると、選択されたオブジェクト情報を選択オブジェクト情報として出力する。この情報は、バリエーション判定部140にもフィードバックされる。バリエーション判定部140では、フィードバックされた時点で選択オブジェクトのオブジェクト選択履歴が変化するため、その追跡対象オブジェクトIDに対するバリエーション指標Vを計算しなおし、オブジェクト選択部141に出力する。オブジェクト選択部141では、計算しなおされたバリエーション指標Vを用いて再度選択指標を計算し、選択指標が最大となるオブジェクトを選択し、選択されたオブジェクト情報を出力する。これを、選択オブジェクト数がターゲット数に達する、あるいは、他の条件(例えば選択指標Iが一定値を下回るなど)を満たすまで繰り返す。このように、1つオブジェクトを選択する度にそのオブジェクトのバリエーション指標を計算しなおし、選択していくことで、より適したオブジェクト選択が可能となる。
 この場合、オブジェクト特徴抽出手段106では、選択オブジェクト情報が出そろった時点でオブジェクトの特徴抽出を行ってもよいし、あるいは、選択オブジェクト情報が出力されるたびに逐次特徴量を抽出するようになっていてもよい。
 このように、複数フレームのオブジェクト選択をまとめて行うことにより、フレームごとに選択する場合に比べ、オブジェクト選択の柔軟性が増し、より適切なオブジェクト選択が可能となる。
 (第2実施形態)
 第2実施形態について説明する。図9は、第2実施形態に係るオブジェクト特徴量抽出装置の構成を例示したブロック図である。
 図9に示すように、本実施形態のオブジェクト特徴量抽出装置100は、図1のオブジェクト特徴量抽出装置100と比較すると、オブジェクト位置関係解析手段204が新たに追加され、オブジェクト選択手段105の代わりにオブジェクト選択手段205が設けられている点が図1のオブジェクト特徴量抽出装置100と異なる。
 映像取得手段101、オブジェクト検出手段102、オブジェクト追跡手段103と、画像記憶手段107と、検出結果記憶手段108の接続関係は、図1の場合と同様である。追跡結果記憶手段109も同様であるが、出力は、オブジェクト位置関係解析手段204へも接続される。オブジェクト位置関係解析手段204は、追跡結果記憶手段109から出力される追跡結果履歴情報に基づいて、オブジェクトの位置関係を求め、オブジェクト位置関係情報をオブジェクト選択手段205へ出力する。オブジェクト選択手段205は、検出結果記憶手段108から出力される過去画像追跡結果と、追跡結果記憶手段109から出力される追跡結果履歴情報と、オブジェクト位置関係解析手段204から出力されるオブジェクト位置関係情報とに基づいて、特徴抽出を行うオブジェクトを選択し、選択オブジェクト情報をオブジェクト特徴抽出手段106に出力する。オブジェクト特徴抽出手段106は、オブジェクト選択手段205から出力される選択オブジェクト情報に含まれるオブジェクトの特徴量を、検出結果記憶手段108から出力されるオブジェクト検出結果に基づいて、画像記憶手段107から出力される画像から抽出する。
 次に、図9のオブジェクト特徴量抽出装置100の動作について説明する。
 映像取得手段101、オブジェクト検出手段102、オブジェクト追跡手段103と、画像記憶手段107と、検出結果記憶手段108と、追跡結果記憶手段109の動作は、図1の場合と同様である。
 オブジェクト位置関係解析手段204では、追跡結果記憶手段109から出力される追跡結果履歴情報に含まれる各オブジェクトの位置情報を比較し、フレームごとに追跡対象オブジェクト間の位置関係を解析する。具体的には、オブジェクト同士が重なっているかどうか、重なっている場合には、どのオブジェクトが最も手前であるかを判定し、オブジェクト位置関係情報を生成する。
 重なり判定には、例えば、各追跡対象オブジェクトの外接矩形同士に重なりがあるかどうかを調べればよい。この際、重なっているかどうかという情報だけでなく、重なりの度合いを表す重なり率も合わせて求めてもよい。
 手前かどうかの判定は、通常の斜め上から撮影する監視カメラの画角の場合、より下側に映るオブジェクトの方が手前にあると見做せる。よって、重なりが判定された場合には、画面上の外接矩形や位置情報から、最も下側に位置するオブジェクトが手前にあるオブジェクトと判定し、それ以外は隠されていると判定する。あるいは、オブジェクトの位置情報を実世界座標に変換し、最もカメラに近いオブジェクトを手前にあるオブジェクトとして判定してもよい。
 さらに、重なりの判定は、オブジェクト全体ではなく、オブジェクトの各部位に対して行ってもよい。例えば、オブジェクトの外接矩形を複数の領域に分割し、分割した領域ごとに重なりを判定してもよい。この場合も、分割した領域ごとに重なり率も算出してもよい。
 生成されたオブジェクト位置関係情報は、オブジェクト選択手段205へ出力される。
 オブジェクト選択手段205の動作の詳細は後述する。生成された選択オブジェクト情報は、オブジェクト特徴抽出手段106に出力される。オブジェクト特徴抽出手段106の動作は、図1のものと同様である。
 次に、オブジェクト選択手段205について詳細に説明する。図10は、第2実施形態に係るオブジェクト特徴量抽出装置において、オブジェクト選択手段の構成を例示したブロック図である。
 図10に示すように、オブジェクト選択手段205は、クオリティ判定部220とオブジェクト選択部121とを有している。
 クオリティ判定部220は、入力されるオブジェクト追跡結果履歴情報と過去画像オブジェクト検出結果とオブジェクト位置関係情報とに基づいてクオリティ指標を求め、オブジェクト選択部121へ出力する。オブジェクト選択部121は、クオリティ判定部220から出力されるクオリティ指標に基づいて、特徴量を抽出するオブジェクトを選択し、選択オブジェクト情報を出力する。
 次に、オブジェクト選択手段205の動作について説明する。オブジェクト追跡結果履歴情報、過去画像オブジェクト検出結果、およびオブジェクト位置関係情報は、クオリティ判定部220へ入力される。
 クオリティ判定部220も図2のクオリティ判定部120と同様に、各オブジェクトのクオリティ指標を算出する。ただし、この場合、オブジェクト位置関係情報も用いてクオリティ指標を算出する点が異なる。
 まず、オブジェクト追跡結果履歴情報に含まれる各追跡対象オブジェクトに対して、オブジェクト位置関係情報を参照し、他のオブジェクトとの重なりによる隠ぺいが生じていないかどうかを判定する。隠ぺいが生じている場合には、特徴量抽出の対象となる画像領域の一部、あるいは全部がそのオブジェクトに帰属しなくなるため、その領域から抽出される特徴量は、本来の特徴量とは異なる値になり、特徴量のクオリティが低下する。この低下の程度は、隠蔽の度合い(以降隠蔽度と呼ぶ)によって変化するため、クオリティ指標が隠蔽度に応じて下がるように定義すればよい。ここで、隠蔽度は、例えばオブジェクト領域の中で手前のオブジェクトに隠されている領域の比率(隠蔽率)として定義できる。隠蔽度をrOcc、隠蔽度に基づくクオリティ指標をqOccとすると、数式(17)のように定式化できる。
Figure JPOXMLDOC01-appb-M000017
 ここで、fOcc(rOcc)は、[0、1]を値域としてもつ単調非増加関数であり、例えば、図17Aのように表される。この関数は、例えば隠蔽度と照合精度の関係を求め、fOcc(rOcc)として用いるようにすればよい。
 なお、隠蔽度を求める際、オブジェクト領域全体の隠蔽率をそのまま用いるのではなく、オブジェクト領域内でどの部分が隠蔽されているかも考慮して隠蔽度を算出するようにしてもよい。例えば、オブジェクトが人物の場合、足下に近い領域が少し隠されても照合精度の影響は小さいが、頭部領域に近い領域が隠された場合には、照合精度の影響が大きくなる場合がある。このように、隠蔽部位によって照合に与える影響度が異なる場合には、部位ごとに隠蔽率を算出し、それらを重みづけ加算して隠蔽度を算出するようにすればよい。例えば、オブジェクトが人物の場合、図18に示すように、水平な線で鉛直方向に複数の領域R、R、・・・、R(図18は、M=5の場合に相当)に分割し、それぞれの領域ごとに、隠蔽率を算出し、数式(18)に示すように重みづけ加算して隠蔽度を算出する。
Figure JPOXMLDOC01-appb-M000018
 ここで、r、wはそれぞれ領域Rに対する隠蔽率と重み係数である。重み係数は、照合に対する影響が大きい領域ほど大きな値をとる係数であり、総和が1になるように正規化されているものとする。このようにオブジェクトの部位ごとに重みづけして算出した隠蔽度を用いて、隠蔽度に基づくクオリティ指標を算出するようにすればよい。
 そして、その他の解像度や動き、姿勢・向きに対するクオリティ指標は、上述の通り算出し、各要因に対するクオリティ指標と全体のクオリティ指標Qの関係を表す関数gを数式(19)のように定義し、用いるようにする。
Figure JPOXMLDOC01-appb-M000019
 数式(19)の関数としては、例えば数式(20)に示す関数を用いることができる。
Figure JPOXMLDOC01-appb-M000020
 さらに、環境要因に基づくクオリティ指標も用いる場合には、各要因に対するクオリティ指標と全体のクオリティ指標Qの関係を表す関数gを数式(21)のように定義し、用いるようにする。
Figure JPOXMLDOC01-appb-M000021
 数式(21)の関数としては、例えば数式(22)に示す関数を用いることができる。
Figure JPOXMLDOC01-appb-M000022
 このようにすることで、オブジェクト同士の隠ぺいによる特徴量のクオリティの低下も予測し、特徴抽出を行うべきオブジェクトを選択できるようになる。
 次に、図9のオブジェクト選択手段205の別の実施の形態について説明する。図11は、第2実施形態に係るオブジェクト特徴量抽出装置において、別のオブジェクト選択手段を例示したブロック図である。
 図11に示すように、別のオブジェクト選択手段205は、クオリティ判定部220とバリエーション判定部140とオブジェクト選択部141とを有している。
 図5のオブジェクト選択手段105と比較すると、クオリティ判定部120の代わりにクオリティ判定部220が設けられている点を除けば、図5のオブジェクト選択手段105と同様である。
 次に、図11のオブジェクト選択手段205の動作について説明する。クオリティ判定部220の動作は、図10のクオリティ判定部220と同様である。また、バリエーション判定部140とオブジェクト選択部141の動作は、図5のものと同様である。
 このようにして、クオリティ指標とバリエーション指標の両方を考慮してオブジェクトを選択できるようになる。なお、第2実施形態の場合も、第1実施形態で述べたように複数フレームまとめてオブジェクトを選択するようにしてもよいことは言うまでもない。
 (第3実施形態)
 次に、本発明の第3実施形態について説明する。図12は、第3実施形態に係るオブジェクト特徴量抽出装置の構成を例示したブロック図である。図12に示すように、第3実施形態のオブジェクト特徴量抽出装置100は、図1のオブジェクト特徴量抽出装置100と比較すると、オブジェクト検出傾向解析手段310が新たに追加され、オブジェクト選択手段105の代わりにオブジェクト選択手段305が設けられている点が図1のオブジェクト特徴量抽出装置100と異なる。
 映像取得手段101、オブジェクト検出手段102、オブジェクト追跡手段103と、画像記憶手段107と、追跡結果記憶手段109の接続関係は、図1の場合と同様である。検出結果記憶手段108も同様であるが、出力は、オブジェクト検出傾向解析手段310へも接続される。
 オブジェクト検出傾向解析手段310は、検出結果記憶手段108から出力される過去画像追跡結果に基づいて、オブジェクトの検出傾向を分析し、オブジェクト検出傾向情報をオブジェクト選択手段305へ出力する。オブジェクト選択手段305は、検出結果記憶手段108から出力される過去画像追跡結果と、追跡結果記憶手段109から出力される追跡結果履歴情報と、オブジェクト検出傾向解析手段310から出力されるオブジェクト検出傾向情報とに基づいて、特徴抽出を行うオブジェクトを選択し、選択オブジェクト情報をオブジェクト特徴抽出手段106に出力する。オブジェクト特徴抽出手段106は、オブジェクト選択手段305から出力される選択オブジェクト情報に含まれるオブジェクトの特徴量を、検出結果記憶手段108から出力されるオブジェクト検出結果に基づいて、画像記憶手段107から出力される画像から抽出する。
 次に、図12のオブジェクト特徴量抽出装置100の動作について説明する。映像取得手段101、オブジェクト検出手段102、オブジェクト追跡手段103と、画像記憶手段107と、検出結果記憶手段108と、追跡結果記憶手段109の動作は、図1の場合と同様である。
 オブジェクト検出傾向解析手段310では、入力されるオブジェクト検出結果情報を分析し、画像の場所ごとのオブジェクト検出傾向を求める。棚などの障害物がある場所では、オブジェクトが隠蔽され、検出されないケースが増える。オブジェクト全体が隠されている場合は全く検出されないが、一部が隠された場合には、検出されたりされなかったりする。このため、ある一定時間内におけるオブジェクトの検出回数を場所ごとに集計すると、障害物等がない場所であれば頻度が高くなるのに対し、障害物等で隠される場所では、オブジェクトの検出頻度が低くなる。このような場所ごとの頻度情報をオブジェクト検出傾向情報として生成する。
 あるいは、オブジェクト検出手段102が、オブジェクトの複数の部位を検出する手段である場合には、ある一定時間内におけるオブジェクトの部位の検出回数を場所ごとに集計するようにしてもよい。この際、合わせて、複数の部位が同時に検出されたかどうかといった同時検出の傾向も場所ごとに集計し、オブジェクト検出傾向情報に含めるようにしてもよい。
 例えば、オブジェクトが人物であり、オブジェクト検出手段102が人物の頭部と人体を同時に検出する検出手段である場合、頭部と人体それぞれに対して、検出頻度を場所ごとに集計する。同時に、頭部と人体の両方が同時に検出された回数についても、場所ごとに集計する。同時検出の傾向は、その場所での部分的な隠蔽の傾向の把握に用いることができる。頭部と人体を同時検出する例で、頭部が検出されているにも関わらず、人体が検出されない場合が多い場合は、人物が存在するにも関わらず、人体が検出されない状況が想定される。これは、その場所では、人体領域の頭部よりも下側の領域が隠されている可能性が高いことを示しているといえる。このように、複数の部位の検出結果を合わせて分析することで、場所ごとのオブジェクト隠蔽の傾向をより詳しく把握できるようになる。
 このようにして生成されたオブジェクト検出傾向情報は、オブジェクト選択手段305へ出力される。
 オブジェクト選択手段305では、図1のオブジェクト選択手段105での動作に加え、さらに、オブジェクト検出傾向情報を用いて選択オブジェクト情報を生成する。オブジェクト選択手段305の詳細については後述する。生成された選択オブジェクト情報は、オブジェクト特徴抽出手段106へ出力される。オブジェクト特徴抽出手段106の動作も、図1のものと同様であり、オブジェクト特徴量が抽出され、出力される。
 このようにすることで、オブジェクトの検出結果から、場所に依存するオブジェクトの隠ぺいの度合いを自動的に判定し、特徴量を抽出するオブジェクトの選択に用いることができるようになる。
 次に、オブジェクト選択手段305の実施の形態について説明する。図13は、第3実施形態に係るオブジェクト特徴量抽出装置において、オブジェクト選択手段の構成を例示したブロック図である。図13に示すように、オブジェクト選択手段305は、クオリティ判定部320とオブジェクト選択部121とを有している。
 クオリティ判定部320は、入力されるオブジェクト追跡結果履歴と過去画像オブジェクト検出結果とオブジェクト検出傾向情報とに基づいてクオリティ指標を求め、オブジェクト選択部121へ出力する。オブジェクト選択部121は、クオリティ判定部320から出力されるクオリティ指標に基づいて、特徴量を抽出するオブジェクトを選択し、選択オブジェクト情報を出力する。
 次に、オブジェクト選択手段305の動作について説明する。クオリティ判定部320には、過去画像オブジェクト検出結果、オブジェクト追跡結果履歴に加え、オブジェクト検出傾向情報が入力される。過去画像オブジェクト検出結果、オブジェクト追跡結果履歴からクオリティ指標を算出する動作は、図2のクオリティ判定部120と同様である。クオリティ判定部320では、さらにオブジェクト検出傾向情報も用いる。
 上述の通り、場所ごとの検出結果の頻度を表すオブジェクト検出傾向情報から、障害物によるオブジェクトの隠蔽の状況を把握することができる。よって、場所(x、y)におけるオブジェクトの検出頻度をFreq(x、y)とすると、数式(23)によって求まる乗数βを、過去画像オブジェクト検出結果、オブジェクト追跡結果履歴から求まるクオリティ指標に乗じ、最終的なクオリティ指標を算出する。
Figure JPOXMLDOC01-appb-M000023
 ここで、関数qLocは、頻度Freq(x、y)に対する単調非減少関数である。もし、複数部位の同時検出の頻度を含む場合には、同時検出の頻度を最も検出された部位の頻度で除した比率を検出頻度の代わりに用いるようにしてもよい。求まったクオリティ指標は、オブジェクト選択部121へ出力される。
 オブジェクト選択部121の動作は図2のものと同様であり、選択オブジェクト情報が生成され、出力される。
 このようにすることで、場所によるオブジェクトの隠ぺい発生傾向を自動的に判定し、クオリティ指標に反映させることができる。
 次に、オブジェクト選択手段305の別の実施の形態について説明する。図14は、第3実施形態に係るオブジェクト特徴量抽出装置において、別のオブジェクト選択手段の構成を例示したブロック図である。図14に示すように、別のオブジェクト選択手段305は、クオリティ判定部320とバリエーション判定部140とオブジェクト選択部141とを有している。
 別のオブジェクト選択手段305は、図5のオブジェクト選択手段105と比較すると、クオリティ判定部120の代わりに、クオリティ判定部320が設けられている以外は、接続関係は、図5のオブジェクト選択手段105と同様である。
 次に、図14に示すオブジェクト選択手段305の動作について説明する。クオリティ判定部320の動作は図13のものと同様であり、オブジェクト選択部141にクオリティ指標を出力する。バリエーション判定部140とオブジェクト選択部141の動作は図5のオブジェクト選択手段105と同様である。
 このようにすることで、場所によるオブジェクトの隠ぺい発生傾向を自動的に判定し、クオリティ指標に反映させ、かつバリエーション指標も考慮してオブジェクトを選択できるようになる。なお、第3の実施の形態の場合も、第1の実施の形態で述べたように複数フレームまとめてオブジェクトを選択するようにしてもよいことは言うまでもない。
 (第4実施形態)
 次に、本発明の第4の実施の形態について説明する。図15は、第4実施形態に係るオブジェクト特徴量抽出装置の構成を例示したブロック図である。図15に示すように、第4実施形態のオブジェクト特徴量抽出装置100は、図9のオブジェクト特徴量抽出装置100と比較すると、オブジェクト選択手段205の代わりにオブジェクト選択手段405が設けられ、さらにオブジェクト検出傾向解析手段310が追加されている点が異なる。
 オブジェクト検出傾向解析手段310は、検出結果記憶手段108から出力される過去画像オブジェクト検出結果に基づいて、オブジェクトの検出傾向を分析し、オブジェクト検出傾向情報をオブジェクト選択手段405へ出力する。オブジェクト選択手段405は、検出結果記憶手段108から出力される過去画像オブジェクト検出結果と、追跡結果記憶手段109から出力されるオブジェクト追跡結果履歴と、オブジェクト位置関係解析手段204から出力されるオブジェクト位置関係情報と、オブジェクト検出傾向解析手段310から出力されるオブジェクト検出傾向情報とに基づいて、特徴抽出を行うオブジェクトを選択し、選択オブジェクト情報をオブジェクト特徴抽出手段106に出力する。それ以外の接続関係は、図9のものと同じである。
 次に、図15のオブジェクト特徴量抽出装置100の動作について説明する。映像取得手段101、オブジェクト検出手段102、オブジェクト追跡手段103、画像記憶手段107、検出結果記憶手段108、追跡結果記憶手段109、オブジェクト位置関係解析手段204の動作は、図9のものと同様である。オブジェクト検出傾向解析手段310の動作も図12のものと同様である。
 オブジェクト選択手段405では、図9のオブジェクト選択手段205での動作に加え、さらに、オブジェクト検出傾向情報を用いて選択オブジェクト情報を生成する。オブジェクト選択手段405の詳細については後述する。生成された選択オブジェクト情報は、オブジェクト特徴抽出手段106へ出力される。
 オブジェクト特徴抽出手段106の動作も、図1のものと同様であり、オブジェクト特徴量が抽出され、出力される。
 このようにすることで、オブジェクト位置関係情報に加え、オブジェクト検出傾向も用いてオブジェクトを選択するため、より適切な選択ができるようになる。
 次に、オブジェクト選択手段405の実施の形態について説明する。図16Aは、第4実施形態に係るオブジェクト特徴量抽出装置において、オブジェクト選択手段の構成を例示したブロック図である。図16Aに示すように、オブジェクト選択手段405は、クオリティ判定部420とオブジェクト選択部121とを有している。
 オブジェクト選択手段405は、図10のオブジェクト選択手段205と比較すると、クオリティ判定部220の代わりにクオリティ判定部420が設けられている点が異なる。
 クオリティ判定部420は、入力されるオブジェクト追跡結果履歴と過去画像オブジェクト検出結果とオブジェクト検出傾向情報とオブジェクト位置関係情報とに基づいてクオリティ指標を求め、オブジェクト選択部121へ出力する。オブジェクト選択部121は、クオリティ判定部420から出力されるクオリティ指標に基づいて、特徴量を抽出するオブジェクトを選択し、選択オブジェクト情報を出力する。
 次に、オブジェクト選択手段405の動作について説明する。クオリティ判定部420には、過去画像オブジェクト検出結果、オブジェクト追跡結果履歴、オブジェクト位置関係情報に加え、オブジェクト検出傾向情報が入力される。過去画像オブジェクト検出結果、オブジェクト追跡結果履歴、オブジェクト位置関係情報からクオリティ指標を算出する動作は、図10のクオリティ判定部220と同様である。クオリティ判定部420では、さらにオブジェクト検出傾向情報も用いる。
 すなわち、図13のクオリティ判定部320と同様に、場所ごとの検出結果の頻度を表すオブジェクト検出傾向情報から、数式(23)で示される乗数βを求め、過去画像オブジェクト検出結果、オブジェクト追跡結果履歴、オブジェクト位置関係情報から求まるクオリティ指標に乗じ、最終的なクオリティ指標を算出する。求まったクオリティ指標は、オブジェクト選択部121へ出力される。
 オブジェクト選択部121の動作は図10のものと同様であり、選択オブジェクト情報が生成され、出力される。
 このようにすることで、オブジェクト位置関係だけでなく、オブジェクト検出傾向もクオリティ指標に反映できるようになる。
 次に、オブジェクト選択手段405の別の実施の形態について説明する。図16Bは、第4実施形態に係るオブジェクト特徴量抽出装置において、別のオブジェクト選択手段の構成を例示したブロック図である。図16Bに示すように、別のオブジェクト選択手段405は、クオリティ判定部420とバリエーション判定部140とオブジェクト選択部141とを有している。
 別のオブジェクト選択手段405は、図11のオブジェクト選択手段205と比較すると、クオリティ判定部220の代わりに、クオリティ判定部420が設けられている以外は、接続関係は、図11のオブジェクト選択手段205と同様である。
 次に、図16Bに示すオブジェクト選択手段405の動作について説明する。クオリティ判定部420の動作は図16Aのものと同様であり、オブジェクト選択部141にクオリティ指標を出力する。バリエーション判定部140とオブジェクト選択部141の動作は図5のオブジェクト選択手段105と同様である。
 このようにすることで、オブジェクト位置関係だけでなく、オブジェクト検出傾向もクオリティ指標に反映でき、さらにバリエーション指標も考慮してオブジェクトを選択できるようになる。なお、第4の実施の形態の場合も、第1の実施の形態で述べたように複数フレームまとめてオブジェクトを選択するようにしてもよいことは言うまでもない。
 <ハードウエアの構成例>
 ここで、オブジェクト特徴量抽出装置100のハードウエア構成について以下に説明する。オブジェクト特徴量抽出装置100の各機能構成部は、各機能構成部を実現するハードウエア(例:ハードワイヤードされた電子回路など)で実現されてもよいし、ハードウエアとソフトウエアとの組み合わせ(例:電子回路とそれを制御するプログラムの組み合わせなど)で実現されてもよい。以下、オブジェクト特徴量抽出装置100の各機能構成部がハードウエアとソフトウエアとの組み合わせで実現される場合について、さらに説明する。
 図20は、第1~第4実施形態に係るオブジェクト特徴量抽出装置を実現するための計算機、ネットワーク、カメラを例示した図である。計算機1000は任意の計算機である。例えば計算機1000は、Personal Computer(PC)、サーバマシン、タブレット端末、又はスマートフォンなどである。計算機1000は、オブジェクト特徴量抽出装置100を実現するために設計された専用の計算機であってもよいし、汎用の計算機であってもよい。
 計算機1000は、バス1020、プロセッサ1040、メモリ1060、ストレージデバイス1080、入出力インタフェース1100、及びネットワークインタフェース1120を有する。バス1020は、プロセッサ1040、メモリ1060、ストレージデバイス1080、入出力インタフェース1100、及びネットワークインタフェース1120が、相互にデータを送受信するためのデータ伝送路である。ただし、プロセッサ1040などを互いに接続する方法は、バス接続に限定されない。プロセッサ1040は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、又はFPGA(Field-Programmable Gate Array)などの種々のプロセッサである。メモリ1060は、RAM(Random Access Memory)などを用いて実現される主記憶装置である。ストレージデバイス1080は、ハードディスク、SSD(Solid State Drive)、メモリカード、又はROM(Read Only Memory)などを用いて実現される補助記憶装置である。
 入出力インタフェース1100は、計算機1000と入出力デバイスとを接続するためのインタフェースである。例えば入出力インタフェース1100には、キーボードなどの入力装置や、ディスプレイ装置などの出力装置が接続される。
 ネットワークインタフェース1120は、計算機1000をネットワーク1300に接続するためのインタフェースである。このネットワークは、例えばLAN(Local Area Network)やWAN(Wide Area Network)である。ネットワークインタフェース1120がネットワークに接続する方法は、無線接続であってもよいし、有線接続であってもよい。
 さらに、ネットワーク1300にはカメラ1500が接続されており、計算機1000とカメラ1500とはネットワーク1300を介してデータを通信できるようになっている。カメラ1500は、オブジェクト特徴量抽出装置100の映像取得手段101に該当する。
 ストレージデバイス1080は、オブジェクト特徴量抽出装置100の各手段を実現するプログラムモジュールを記憶している。プロセッサ1040は、これら各プログラムモジュールをメモリ1060に読み出して実行することで、各プログラムモジュールに対応する機能を実現する。
 なお、オブジェクト特徴量抽出装置100の一部の機能はカメラ1500側で実行されていてもよい。すなわち、カメラ1500の内部にプロセッサやストレージデバイス、メモリが格納されており、オブジェクト特徴量抽出装置100の各手段の処理の全部、あるいは一部をこれらのコンポーネントを用いて実行するようになっていてもよい。例えば、映像取得手段101、オブジェクト検出手段102、オブジェクト追跡手段103の処理をカメラ1500側で実行し、それ以外の処理を計算機1000側で実行するようになっていてもよい。あるいは、オブジェクト特徴抽出手段106以外の処理をカメラ側で実行するようになっており、オブジェクト特徴抽出手段106については、計算機1000側で実行するようになっていてもよい。
 また、映像取得手段101は、カメラで撮影された映像を蓄積する、ハードディスクレコーダのような映像記録装置であってもよい。この場合は、映像取得手段101は、映像記録装置で蓄積された映像を読み出して再生することで、映像を取得し、ネットワーク1300を介して計算機1000側に送信する。そして、その後の処理を計算機1000側で実行する。
 以上、本発明を、上述した模範的な実施の形態に適用した例として説明した。しかしながら、本発明の技術的範囲は、上述した各実施の形態に記載した範囲には限定されない。当業者には、係る実施の形態に対して多様な変更または改良を加えることが可能であることは明らかである。そのような場合、係る変更または改良を加えた新たな実施の形態も、本発明の技術的範囲に含まれ得る。そしてこのことは、特許請求の範囲に記載した事項から明らかである。上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
 (付記1)
 映像を取得する映像取得手段と、
 前記映像からオブジェクトを検出し,検出結果を生成するオブジェクト検出手段と、
 前記映像と前記検出結果に基づいてオブジェクトを追跡し,追跡結果を生成するオブジェクト追跡手段と、
 前記映像を記憶する映像記憶手段と、
 前記検出結果を記憶する検出結果記憶手段と、
 前記追跡結果を記憶する追跡結果記憶手段と、
 前記検出結果記憶手段に記憶された検出結果と前記追跡結果記憶手段に記憶された追跡結果とに基づいて、現時刻より1フレーム以上前である抽出時刻において検出されたオブジェクトの特徴量の質を予測するクオリティ指標を求め、クオリティ指標に基づいて前記抽出時刻において特徴抽出するオブジェクトを選択し、オブジェクト選択情報を生成するオブジェクト選択手段と、
 前記映像記憶手段に蓄えられた前記抽出時刻の映像と前記検出結果記憶手段に蓄えられた前記抽出時刻の検出結果と前記オブジェクト選択情報に基づいて、前記抽出時刻のフレームから検出されたオブジェクトの特徴量を抽出するオブジェクト特徴抽出手段と
 を有することを特徴とする、オブジェクト特徴量抽出装置。
 (付記2)
 前記オブジェクト選択手段は、前記検出結果を用いて判定されるオブジェクトの解像度か、前記追跡結果を用いて判定されるオブジェクトの動き量か、オブジェクトの姿勢や向きのいずれか少なくとも1つに基づくクオリティ指標を算出し、それらに基づいて全体のクオリティ指標を算出すること
 を特徴とする付記1に記載のオブジェクト特徴抽出装置。
 (付記3)
 前記オブジェクト選択手段は、オブジェクトの位置に応じて定まる環境要因に基づくクオリティ指標を記憶しており、前記追跡結果から求まるオブジェクトの位置情報に基づいて、環境要因に基づくクオリティ指標を求め、求まった値も用いて全体のクオリティ指標を算出すること
 を特徴とする付記1または2に記載のオブジェクト特徴抽出装置。
 (付記4)
 前記オブジェクト選択手段は、前記クオリティ指標に加え、取得特徴量のバリエーション改善の度合いを予測するバリエーション指標も求め、前記クオリティ指標と前記バリエーション指標との両方に基づいて特徴抽出するオブジェクトを選択し、オブジェクト選択情報を生成すること
 を特徴とする付記1から3のいずれか1項に記載のオブジェクト特徴抽出装置。
 (付記5)
 前記バリエーション指標は、前回の特徴抽出からの経過時間に基づいて決定され、経過時間が大きいほど大きな値となること
 を特徴とする付記4に記載のオブジェクト特徴抽出装置。
 (付記6)
 前記バリエーション指標は、前回の特徴抽出からの経過時間とそれまでの特徴量の抽出回数に基づいて決定され、経過時間が大きいほど、特徴量の抽出回数が少ないほど大きな値となること
 を特徴とする付記4に記載のオブジェクト特徴抽出装置。
 (付記7)
 前記バリエーション指標は、前記追跡結果に基づいて決定されるオブジェクトの移動量も用いて決定され、移動量が大きいほど大きな値となること
 を特徴とする付記4~6のいずれか1項に記載のオブジェクト特徴抽出装置。
 (付記8)
 前記バリエーション指標は、オブジェクトの状態に応じて定まるカテゴリも考慮して定まる値であり、前記追跡結果に基づいてカテゴリを判定し、バリエーション指標を求めること
 を特徴とする付記4~7のいずれか1項に記載のオブジェクト特徴抽出装置。
 (付記9)
 前記バリエーション指標は、オブジェクトの位置に応じて定まるオブジェクトの状態変化の傾向を表す情報も用いて定めること
 を特徴とする付記4~8のいずれか1項に記載のオブジェクト特徴抽出装置。
 (付記10)
 前記追跡結果記憶手段に記憶された追跡結果に基づいてオブジェクトの位置関係を解析し,オブジェクト位置関係情報を生成するオブジェクト位置関係解析手段をさらに有し、
 前記オブジェクト選択手段は、前記オブジェクト位置関係情報も用いてクオリティ指標を算出すること
 を特徴とする付記1~9のいずれか1項に記載のオブジェクト特徴抽出装置。
 (付記11)
 前記オブジェクト選択手段は、前記オブジェクト位置関係情報からオブジェクトが他のオブジェクトによって隠されている度合を表す隠蔽度を求め、隠蔽度の単調非増加関数によってクオリティ指標を算出し、求まった値も用いて全体のクオリティ指標を算出すること
 を特徴とする付記10に記載のオブジェクト特徴抽出装置。
 (付記12)
 前記検出結果記憶手段に記憶された検出結果に基づいてオブジェクト検出の場所ごとの傾向を分析し、オブジェクト検出傾向情報を生成するオブジェクト検出傾向解析手段をさらに有し、
 前記オブジェクト選択手段は、前記オブジェクト検出傾向情報も用いてクオリティ指標を算出すること
 を特徴とする付記1~11のいずれか1項に記載のオブジェクト特徴抽出装置。
 (付記13)
 前記オブジェクト選択手段は、現時刻より1フレーム以上前である複数の抽出時刻において検出されたオブジェクトの特徴量の質を予測するクオリティ指標を求め、クオリティ指標に基づいて前記複数の抽出時刻において特徴抽出するオブジェクトをまとめて選択してオブジェクト選択情報を生成し、
前記オブジェクト特徴抽出手段は、前記複数の抽出時刻に対して選択されたオブジェクトの特徴量を抽出すること
 を特徴とする付記1~12のいずれか1項に記載のオブジェクト特徴抽出装置。
 (付記14)
 前記複数の抽出時刻に含まれる時刻の数は、検出されたオブジェクト数に応じて動的に変化すること
 を特徴とする付記13に記載のオブジェクト特徴抽出装置。
 (付記15)
 前記複数の抽出時刻に対してオブジェクト選択を行う際に、選択されるオブジェクト数が、所定の平均オブジェクト選択数に前記抽出時刻の数を乗じた数をオブジェクト選択のターゲット数とし、選択されるオブジェクトの数がターゲット数以下になるように制御すること
 を特徴とする付記13または14に記載のオブジェクト特徴抽出装置。
 (付記16)
 前記制御において、選択されたオブジェクト数がターゲット数に満たない場合は、次のオブジェクト選択では、前記ターゲット数と選択されたオブジェクト数の差分を加算してターゲット数を設定すること
 を特徴とする付記13または14に記載のオブジェクト特徴抽出装置。
100 オブジェクト特徴量抽出装置
101 映像取得手段
102 オブジェクト検出手段
103 オブジェクト追跡手段
105 オブジェクト選択手段
106 オブジェクト特徴抽出手段
107 画像記憶手段
108 検出結果記憶手段
109 追跡結果記憶手段
120 クオリティ判定部
121 オブジェクト選択部
130 クオリティ指標算出部
131 クオリティ指標算出部
132 環境要因記憶部
140 バリエーション判定部
141 オブジェクト選択部
150 バリエーション指標算出部
151 抽出履歴記憶部
154 オブジェクト状態変化傾向記憶部
155 バリエーション指標算出部
204 オブジェクト位置関係解析手段
205 オブジェクト選択手段
220 クオリティ判定部
305 オブジェクト選択手段
310 オブジェクト検出傾向解析手段
320 クオリティ判定部
405 オブジェクト選択手段
420 クオリティ判定部

Claims (10)

  1.  映像を取得し、取得した前記映像を画像列として生成する映像取得手段と、
     生成された前記画像からオブジェクトを検出し、検出結果を生成するオブジェクト検出手段と、
     生成された前記画像と前記検出結果とに基づいて前記オブジェクトを追跡し、追跡結果を生成するオブジェクト追跡手段と、
     前記画像を記憶する画像記憶手段と、
     前記検出結果を記憶する検出結果記憶手段と、
     前記追跡結果を記憶する追跡結果記憶手段と、
     前記検出結果記憶手段に記憶された前記検出結果と前記追跡結果記憶手段に記憶された前記追跡結果とに基づいて、現時刻より1フレーム以上前である抽出時刻において検出された前記オブジェクトの特徴量の質を予測するクオリティ指標を算出し、前記クオリティ指標に基づいて前記抽出時刻において特徴抽出する前記オブジェクトを選択し、オブジェクト選択情報を生成するオブジェクト選択手段と、
     前記画像記憶手段に記録された前記抽出時刻の前記画像と、前記検出結果記憶手段に記憶された前記抽出時刻の前記検出結果と、前記オブジェクト選択情報とに基づいて、前記抽出時刻のフレームから検出された前記オブジェクトの特徴量を抽出するオブジェクト特徴抽出手段と、
     を有することを特徴とするオブジェクト特徴量抽出装置。
  2.  前記オブジェクト選択手段は、前記検出結果を用いて判定される前記オブジェクトの解像度、並びに、前記追跡結果を用いて判定される前記オブジェクトの動き量、前記オブジェクトの姿勢、及び、前記オブジェクトの向きのうち少なくともいずれか1つの前記クオリティ指標を算出する、
     ことを特徴とする請求項1に記載のオブジェクト特徴量抽出装置。
  3.  前記オブジェクト選択手段は、前記オブジェクトの位置に応じて定まる環境要因に基づく前記クオリティ指標を記憶しており、前記追跡結果から求まる前記オブジェクトの位置情報に基づいて、前記環境要因に基づく前記クオリティ指標を算出する、
     ことを特徴とする請求項2に記載のオブジェクト特徴量抽出装置。
  4.  前記オブジェクト選択手段は、前記クオリティ指標に加え、取得特徴量のバリエーション改善の度合いを予測するバリエーション指標も算出し、前記クオリティ指標と前記バリエーション指標との両方に基づいて特徴抽出する前記オブジェクトを選択し、前記オブジェクト選択情報を生成する、
     ことを特徴とする請求項1~3のいずれか1項に記載のオブジェクト特徴量抽出装置。
  5.  前記バリエーション指標は、前回の特徴抽出からの経過時間に基づいて決定され、前記経過時間が大きいほど大きな値となる、
     ことを特徴とする請求項4に記載のオブジェクト特徴量抽出装置。
  6.  前記バリエーション指標は、前回の特徴抽出からの経過時間とそれまでの特徴量の抽出回数に基づいて決定され、前記経過時間が大きいほど、または、前記特徴量の抽出回数が少ないほど大きな値となる、
     ことを特徴とする請求項4に記載のオブジェクト特徴量抽出装置。
  7.  前記バリエーション指標は、前記追跡結果に基づいて決定される前記オブジェクトの移動量も用いて決定され、前記移動量が大きいほど大きな値となる、
     ことを特徴とする請求項4~6のいずれか1項に記載のオブジェクト特徴量抽出装置。
  8.  前記バリエーション指標は、前記オブジェクトの状態に応じて定まるカテゴリも考慮して定まる値であり、前記追跡結果に基づいて前記カテゴリを判定し、前記バリエーション指標を算出する、
     ことを特徴とする請求項4~7のいずれか1項に記載のオブジェクト特徴量抽出装置。
  9.  映像を取得し、取得した前記映像を画像列として生成するステップと、
     生成された前記画像からオブジェクトを検出し、検出結果を生成するステップと、
     生成された前記画像と前記検出結果とに基づいて前記オブジェクトを追跡し、追跡結果を生成するステップと、
     前記画像を画像記憶手段に記憶させるステップと、
     前記検出結果を検出結果記憶手段に記憶させるステップと、
     前記追跡結果を追跡結果記憶手段に記憶させるステップと、
     前記検出結果記憶手段に記憶された前記検出結果と前記追跡結果記憶手段に記憶された前記追跡結果とに基づいて、現時刻より1フレーム以上前である抽出時刻において検出された前記オブジェクトの特徴量の質を予測するクオリティ指標を算出し、前記クオリティ指標に基づいて前記抽出時刻において特徴抽出する前記オブジェクトを選択し、オブジェクト選択情報を生成するステップと、
     前記画像記憶手段に記憶された前記抽出時刻の前記画像と、前記検出結果記憶手段に記憶された前記抽出時刻の前記検出結果と、前記オブジェクト選択情報とに基づいて、前記抽出時刻のフレームから検出された前記オブジェクトの特徴量を抽出するステップと、
     を有することを特徴とするオブジェクト特徴量抽出方法。
  10.  映像を取得し、取得した前記映像を画像列として生成させ、
     生成された前記画像からオブジェクトを検出し、検出結果を生成させ、
     生成された前記画像と前記検出結果とに基づいて前記オブジェクトを追跡し、追跡結果を生成させ、
     前記画像を画像記憶手段に記憶させ、
     前記検出結果を検出結果記憶手段に記憶させ、
     前記追跡結果を追跡結果記憶手段に記憶させ、
     前記検出結果記憶手段に記憶された前記検出結果と前記追跡結果記憶手段に記憶された前記追跡結果とに基づいて、現時刻より1フレーム以上前である抽出時刻において検出された前記オブジェクトの特徴量の質を予測するクオリティ指標を算出させ、前記クオリティ指標に基づいて前記抽出時刻において特徴抽出する前記オブジェクトを選択させ、オブジェクト選択情報を生成させ、
     前記画像記憶手段に記憶された前記抽出時刻の前記画像と、前記検出結果記憶手段に記憶された前記抽出時刻の前記検出結果と、前記オブジェクト選択情報とに基づいて、前記抽出時刻のフレームから検出された前記オブジェクトの特徴量を抽出させる、
     ことをコンピュータに実行させるプログラムが格納された非一時的なコンピュータ可読媒体。
PCT/JP2019/017572 2019-04-25 2019-04-25 オブジェクト特徴量抽出装置、オブジェクト特徴量抽出方法及び非一時的なコンピュータ可読媒体 WO2020217369A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US17/604,809 US11875518B2 (en) 2019-04-25 2019-04-25 Object feature extraction device, object feature extraction method, and non-transitory computer-readable medium
JP2021515398A JP7215569B2 (ja) 2019-04-25 2019-04-25 オブジェクト特徴量抽出装置、オブジェクト特徴量抽出方法及びプログラム
PCT/JP2019/017572 WO2020217369A1 (ja) 2019-04-25 2019-04-25 オブジェクト特徴量抽出装置、オブジェクト特徴量抽出方法及び非一時的なコンピュータ可読媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/017572 WO2020217369A1 (ja) 2019-04-25 2019-04-25 オブジェクト特徴量抽出装置、オブジェクト特徴量抽出方法及び非一時的なコンピュータ可読媒体

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US17/604,809 A-371-Of-International US11875518B2 (en) 2019-04-25 2019-04-25 Object feature extraction device, object feature extraction method, and non-transitory computer-readable medium
US18/537,922 Continuation US20240135552A1 (en) 2023-12-13 Object feature extraction device, object feature extraction method, and non-transitory computer-readable medium

Publications (1)

Publication Number Publication Date
WO2020217369A1 true WO2020217369A1 (ja) 2020-10-29

Family

ID=72941178

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/017572 WO2020217369A1 (ja) 2019-04-25 2019-04-25 オブジェクト特徴量抽出装置、オブジェクト特徴量抽出方法及び非一時的なコンピュータ可読媒体

Country Status (3)

Country Link
US (1) US11875518B2 (ja)
JP (1) JP7215569B2 (ja)
WO (1) WO2020217369A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102653342B1 (ko) * 2019-05-20 2024-04-02 현대모비스 주식회사 자율 주행 장치 및 방법

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010072723A (ja) * 2008-09-16 2010-04-02 Omron Corp 追跡装置及び追跡方法
JP2015103103A (ja) * 2013-11-26 2015-06-04 キヤノン株式会社 画像処理装置、画像処理方法
WO2018173848A1 (ja) * 2017-03-22 2018-09-27 日本電気株式会社 オブジェクト追跡システム、インテリジェント撮像装置、オブジェクト特徴量抽出装置、オブジェクト特徴量抽出方法及び記憶媒体

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6292122B2 (ja) 2012-09-24 2018-03-14 日本電気株式会社 オブジェクト情報抽出装置、オブジェクト情報抽出プログラム、及びオブジェクト情報抽出方法
WO2017006749A1 (ja) 2015-07-03 2017-01-12 株式会社日立国際電気 画像処理装置および画像処理システム
WO2018111287A1 (en) * 2016-12-15 2018-06-21 Hewlett-Packard Development Company, L.P. Image storage
JP6798609B2 (ja) * 2017-03-29 2020-12-09 日本電気株式会社 映像解析装置、映像解析方法およびプログラム
JP7171471B2 (ja) * 2019-03-05 2022-11-15 株式会社日立製作所 学習モデル生成支援装置、及び学習モデル生成支援方法
KR20210158261A (ko) * 2020-06-23 2021-12-30 삼성전자주식회사 비디오 품질 평가 방법 및 장치

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010072723A (ja) * 2008-09-16 2010-04-02 Omron Corp 追跡装置及び追跡方法
JP2015103103A (ja) * 2013-11-26 2015-06-04 キヤノン株式会社 画像処理装置、画像処理方法
WO2018173848A1 (ja) * 2017-03-22 2018-09-27 日本電気株式会社 オブジェクト追跡システム、インテリジェント撮像装置、オブジェクト特徴量抽出装置、オブジェクト特徴量抽出方法及び記憶媒体

Also Published As

Publication number Publication date
US20220180533A1 (en) 2022-06-09
JP7215569B2 (ja) 2023-01-31
JPWO2020217369A1 (ja) 2020-10-29
US11875518B2 (en) 2024-01-16

Similar Documents

Publication Publication Date Title
US20210191524A1 (en) Information processing device and method, program and recording medium for identifying a gesture of a person from captured image data
JP6204199B2 (ja) 画像品質の評価
JP6482195B2 (ja) 画像認識装置、画像認識方法及びプログラム
CN111935479B (zh) 一种目标图像确定方法、装置、计算机设备及存储介质
US20230394792A1 (en) Information processing device, information processing method, and program recording medium
JP3970877B2 (ja) 追跡装置および追跡方法
US11915430B2 (en) Image analysis apparatus, image analysis method, and storage medium to display information representing flow quantity
JP2021503139A (ja) 画像処理装置、画像処理方法および画像処理プログラム
CN111986163A (zh) 人脸图像选择方法和装置
JP2021516825A (ja) 群集推定手法の統合及び自動切り替えのための方法、システム及びプログラム
US11544926B2 (en) Image processing apparatus, method of processing image, and storage medium
WO2020217369A1 (ja) オブジェクト特徴量抽出装置、オブジェクト特徴量抽出方法及び非一時的なコンピュータ可読媒体
CN110930436B (zh) 一种目标跟踪方法及设备
CN117132768A (zh) 车牌及人脸检测和脱敏方法、装置、电子设备和存储介质
CN106611417B (zh) 将视觉元素分类为前景或背景的方法及装置
Bedagkar-Gala et al. Joint modeling of algorithm behavior and image quality for algorithm performance prediction
US20070223818A1 (en) Method and apparatus for predicting the accuracy of virtual Scene based on incomplete information in video
WO2022049704A1 (ja) 情報処理システム、情報処理方法、及びコンピュータプログラム
Gomez-Nieto et al. Quality aware features for performance prediction and time reduction in video object tracking
US20240135552A1 (en) Object feature extraction device, object feature extraction method, and non-transitory computer-readable medium
JP5419925B2 (ja) 通過物体数計測方法、通過物体数計測装置、及びプログラム
CN112529786A (zh) 图像处理设备及方法和非暂时性计算机可读存储介质
CN111967403A (zh) 视频移动区域确定方法、装置及电子设备
JP2022019339A (ja) 情報処理装置、情報処理方法及びプログラム
US10372750B2 (en) Information processing apparatus, method, program and storage medium

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19925698

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021515398

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19925698

Country of ref document: EP

Kind code of ref document: A1