WO2022249312A1 - 人物追跡装置及び人物追跡方法 - Google Patents

人物追跡装置及び人物追跡方法 Download PDF

Info

Publication number
WO2022249312A1
WO2022249312A1 PCT/JP2021/019921 JP2021019921W WO2022249312A1 WO 2022249312 A1 WO2022249312 A1 WO 2022249312A1 JP 2021019921 W JP2021019921 W JP 2021019921W WO 2022249312 A1 WO2022249312 A1 WO 2022249312A1
Authority
WO
WIPO (PCT)
Prior art keywords
trajectory
person
unit
persons
combination
Prior art date
Application number
PCT/JP2021/019921
Other languages
English (en)
French (fr)
Inventor
光貴 中村
孝之 瀬光
庭育 李
勝人 伊佐野
芳美 守屋
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to JP2021567024A priority Critical patent/JP7162761B1/ja
Priority to PCT/JP2021/019921 priority patent/WO2022249312A1/ja
Publication of WO2022249312A1 publication Critical patent/WO2022249312A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments

Definitions

  • the present disclosure relates to a person tracking device and a person tracking method.
  • a video analysis device described in Patent Document 1 which is an example of a person tracking device, prevents a situation in which a person's movement is interrupted by an object or the like and a person's flow line is interrupted due to the person's frame-out. intended to avoid.
  • the moving image analysis device determines whether or not a plurality of lines of flow are lines of flow of the same person.
  • the video analysis device described above makes the determination described above only between flow lines that are temporally adjacent to each other.
  • the moving image analysis apparatus once determines the plurality of flow lines. If it is determined that one of the flow lines does not belong to the same person, there is a risk that the following flow lines will continue to be determined not to belong to the same person.
  • An object of the present disclosure is to determine that a plurality of trajectory segments that should be determined to belong to the same person, including trajectory segments that are flow lines separated from each other in time, belong to the same person.
  • a person tracking device includes a plurality of temporally continuous frames included in a video image of a plurality of persons, each frame being a part of the movement of the plurality of persons. and a combination optimization method based on the feature amounts symbolizing the plurality of persons in the plurality of frames, and and a combination unit that combines trajectory pieces that are more likely to be the same person among the trajectory pieces of the plurality of persons in the plurality of frames.
  • the person tracking device it is determined that a plurality of trajectory pieces that should be determined to belong to the same person, including trajectory pieces separated from each other in terms of time, belong to the same person. be able to.
  • FIG. 2 is a functional block diagram of the person tracking device of Embodiment 1.
  • FIG. 2 shows an image EZ of Embodiment 1; 3 shows position information IJ and image information GJ of Embodiment 1.
  • FIG. 4 shows a trajectory history KR of the first embodiment; 4 shows a trajectory piece TL of Embodiment 1.
  • FIG. 4 shows the operation of the second calculator SS2 of the first embodiment;
  • FIG. 7A shows the operation of the assigning unit WA of the first embodiment (when assigning the same identification number ID).
  • FIG. 7B shows the operation of the assignment unit WA of Embodiment 1 (when assigning different identification numbers ID).
  • 4 shows the operation of the combiner KA of the first embodiment; 1 shows the configuration of a person tracking device 1 of Embodiment 1.
  • FIG. 1 shows the configuration of a person tracking device 1 of Embodiment 1.
  • FIG. 4 is a flow chart showing the operation of the person tracking device 1 of Embodiment 1.
  • FIG. FIG. 11A shows the result of the operation of the combiner KA of Embodiment 1 (when no combination is performed).
  • FIG. 11B shows the result of the operation of the combiner KA of the first embodiment (in the case of combining).
  • FIG. 10 shows a feature amount TR(TL) of a trajectory piece TL according to the second embodiment;
  • FIG. 2 shows the temporal conditions of Embodiment 2.
  • FIG. 2 shows the spatial conditions of Embodiment 2.
  • FIG. FIG. FIG. 11A shows the result of the operation of the combiner KA of Embodiment 1 (when no combination is performed).
  • FIG. 11B shows the result of the operation of the combiner KA of the first embodiment (in the case of
  • FIG. 10 shows a feature amount TR(TL) of a trajectory piece TL according to the second embodiment
  • FIG. FIG. 10 shows updating of the feature amount TR(TL) of the trajectory piece TL according to the second embodiment
  • FIG. FIG. 19A shows the effect of exclusion by the exclusion unit JG of the second embodiment (when exclusion is not performed).
  • FIG. 19B shows the effect of exclusion (when exclusion is performed) by the exclusion unit JG of the second embodiment.
  • FIG. 20A shows the similarity of the feature amount TR(TL) of the trajectory piece TL of Embodiment 2 (No. 1).
  • FIG. 20B shows the similarity of the feature amount TR(TL) of the trajectory piece TL of the second embodiment (Part 2).
  • FIG. 21A shows a change in the similarity threshold of the feature amount TR(TL) of the trajectory piece TL according to the second embodiment (No. 1).
  • FIG. 21B shows a change in the similarity threshold of the feature amount TR(TL) of the trajectory piece TL according to the second embodiment (No. 2).
  • FIG. 11 is a functional block diagram of a person tracking device 3 of Embodiment 3; 11 is a flow chart showing the operation of the person tracking device 3 of Embodiment 3.
  • FIG. 12 shows the operation of the display unit HY of Embodiment 3.
  • FIG. 1 is a functional block diagram of the person tracking device of Embodiment 1.
  • FIG. 1 Functions of the person tracking device 1 of Embodiment 1 will be described with reference to the functional block diagram of FIG.
  • a single reference numeral may collectively refer to all of a plurality of names.
  • a plurality of frames FR1, FR2, . . . sometimes.
  • the human tracking device 1 of Embodiment 1 includes an acquisition unit SY, an extraction unit CS, an estimation unit ST, a first calculation unit SS1, a second calculation unit SS2, and a second calculation unit SS2. 3, a calculation unit SS3, an allocation unit WA, an update unit KS, a combination unit KA, and a database unit DB.
  • the extractor CS corresponds to the “extractor”
  • the estimator ST corresponds to the “estimator”
  • the allocation unit WA corresponds to the “allocater”
  • the updater KS corresponds to the “updater”.
  • the combination part KA corresponds to the "combination part”.
  • the second calculator SS2 corresponds to the "calculator.”
  • FIG. 2 shows the video EZ of the first embodiment.
  • the video EZ has a plurality of temporally consecutive frames FR1, FR2, . . . , as shown in FIG. For example, at least one person JB1 to JB4 is photographed in frame FR1 at time t1, and at least one person JB1 to JB4 is photographed in other frames FR such as FR2 at time t2.
  • the acquisition unit SY acquires the image EZ (illustrated in FIG. 2) from the imaging device and the storage device (both not illustrated).
  • the acquisition unit SY outputs the current frame FR in the image EZ, eg, the frame FR1 at time t1.
  • the extraction unit CS detects a person from the current frame FR1, and more specifically, extracts position information IJ indicating the positions of the persons JB1 to JB4 and image information GJ indicating images of the persons JB1 to JB4.
  • the extraction unit CS detects the persons JB1 to JB4, for example, by machine learning using a CNN (Convolutional Neural Network).
  • FIG. 3 shows position information IJ and image information GJ of the first embodiment.
  • the position information IJ is, for example, the position coordinates of virtual rectangles KK1 to KK4 surrounding each of the persons JB1 to JB4, as shown in FIG.
  • the image information GJ is, for example, RGB information indicating the body types, postures, etc. of the persons JB1 to JB4 in the virtual rectangles KK1 to KK4.
  • the estimation unit ST performs estimation after referring to the trajectory history KR.
  • FIG. 4 shows the trajectory history KR of the first embodiment.
  • the trajectory history KR is stored in the database unit DB (illustrated in FIG. 1). As shown in FIG. 4, the trajectory history KR includes a plurality of frames FR, a plurality of rectangles KK, identification numbers ID assigned to a plurality of persons JB, and trajectory pieces TL along which the plurality of persons JB moved. Shows the history of relationships between
  • position information IJ and image information GJ are stored in the same manner as shown in FIG. 3.
  • the feature value TR(KK) symbolizes the person JB within the rectangle KK.
  • the feature value TR(KK) of the rectangle KK1 symbolizes the person JB1 within the rectangle KK1.
  • the identification number ID given to a plurality of persons JB is a number for mutually identifying persons JB1 to JB4.
  • the identification number ID is assigned by the assignment unit WA (illustrated in FIG. 1), as will be described later.
  • FIG. 5 shows the trajectory piece TL of the first embodiment.
  • trajectory piece TL is a part of the trajectory obtained by dividing the trajectory (not shown) of each of the persons JB1 to JB4.
  • trajectory pieces TL1 and TL4 are trajectory pieces of a person JB1 having an identification number ID1.
  • the number (No.) of the trajectory piece TL and the feature amount TR (TL) of the trajectory piece TL are stored.
  • a feature value TR(TL) of the trajectory piece TL symbolizes the trajectory piece TL.
  • the trajectory history KR may be stored in, for example, one or more external storage devices (not shown) arranged on a communication network.
  • the estimating unit ST refers to the trajectory history KR (shown in FIG. 4) to determine the number of persons JB1 in the past frames FR temporally before the current frame FR. Based on the positional information IJ of .about.JB4, the positions of the plurality of persons JB1.about.JB4 in the current frame FR1 are estimated. The estimation unit ST estimates the positions of the plurality of persons JB1 to JB4 using, for example, a Kalman filter.
  • the ⁇ current frame FR1'' corresponds to ⁇ one frame'', and the current frame FR1 and a plurality of past frames FR temporally preceding the current frame FR are combined to form the ⁇ first frame''. 1 multiple frames”.
  • a plurality of past frames FR temporally preceding the current frame FR correspond to the "second plurality of frames”.
  • the first calculator SS1 calculates the positions of the persons JB1-JB4 in the current frame FR1 indicated by the position information IJ of the persons JB1-JB4 in the current frame FR1, and the estimated positions of the persons JB1-JB4 in the current frame FR1. and the positions of the persons JB1 to JB4, that is, the positional distance KY (IC) (shown in FIG. 10) is calculated.
  • the distance is, for example, the Mahalanobis distance in the Kalman filter.
  • FIG. 6 shows the operation of the second calculator SS2 of the first embodiment.
  • the second calculator SS2 serves as a feature amount extractor based on the image information GJ of the person JB in the current frame FR1, and the feature amount TR ( KK) is calculated.
  • the second calculator SS2 calculates the feature amount TR of the person JB1 in the frame FR1 based on the image information GJ of the person JB1 in the current frame FR1, that is, the image information GJ of the rectangle KK1 in the current frame FR1. (KK) is calculated.
  • the second calculator SS2 calculates the feature amount TR(KK) by, for example, machine learning using CNN.
  • the third calculation unit SS3 refers to the trajectory history KR to calculate the feature values TR(KK) of the plurality of persons JB1 to JB4 in the plurality of past frames FR, and the calculated A difference in feature amount from the feature amount TR(KK) of the persons JB1 to JB4 in the current frame FR1, that is, a feature amount distance KY(TR) (shown in FIG. 10) is calculated.
  • the distance KY(TR) of the feature amount may be, for example, the cosine distance, or may be the IoU distance between the rectangles KK of the temporally preceding and following frames FR.
  • FIG. 7 shows the operation of the allocation unit WA of the first embodiment.
  • the assigning unit WA assigns identification numbers ID to the persons JB1 to JB4 in the current frame FR1 based on the calculated position distance KY (IC) and feature amount distance KY (TR).
  • the assigning unit WA determines that the person JB in the frame FR2 at the time t2 is the same as the person JB1 in the frame FR1 at the time t1 in the trajectory history KR,
  • the same identification number ID1 as the identification number ID1 of the person JB1 is assigned to the person JB in the frame FR2 at the time t2.
  • the assigning unit WA assigns the person JB at the frame FR3 at the time t3 to the person JB1 at the frame FR1 at the time t1 and the frame at the time t2 in the trajectory history KR.
  • the person JB in the frame FR3 at time t3 is assigned the same identification number ID1 as the person JB1.
  • the assigning unit WA As shown in FIG.
  • the person JB in the frame FR1 is assigned an identification number different from the identification number ID1 of the person JB1, for example, a new identification number ID2.
  • the assigning unit WA assigns the person JB at the frame FR3 at time t3 to the person JB1 at the frame FR1 at time t1 and the frame FR2 at time t2 in the trajectory history KR.
  • the assigning unit WA assigns the person JB at the frame FR3 at time t3 to the person JB1 at the frame FR1 at time t1 and the frame FR2 at time t2 in the trajectory history KR.
  • an identification number different from both the identification number ID1 of the person JB1 and the identification number of the person JB2 for example, a new identification number ID3 is assigned to the person JB in the frame FR1.
  • the allocation unit WA allocates the identification number ID described above, for example, using the Hungarian method from a cost matrix in which the distance KY (IC) of the position and the distance KY (TR) of the feature amount are used as a matrix, or This is performed using the weighted sum of the distance KY(IC) and the distance KY(T) of the feature quantity.
  • the updating unit KS updates the trajectory history KR in response to the assignment of the identification number ID by the assigning unit WA. For example, assuming that the identification number ID1 is assigned to the person JB1 in the current frame FR1 by the assigning unit WA, the updating unit KS adds the current frame FR1 and the person JB1 in the frame FR1 to the trajectory history KR. Identification number ID1, rectangle KK1 (position information IJ, image information GJ, feature amount TR (KK)) of person JB1 in current frame FR1, and trajectory piece TL (No. The trajectory history KR is updated by adding the feature amount TR(TL)) and the like.
  • FIG. 8 shows the operation of the combination unit KA of the first embodiment.
  • the combination unit KA refers to the updated trajectory history KR (shown in FIG. 4). More specifically, the combiner KA selects a plurality of frames FR existing within a predetermined time ⁇ t (shown in FIG. 4, for example, several tens of seconds or several minutes), for example, the past from the current time t1. Using the feature values TR (KK) of the persons JB1 to JB4 in a plurality of frames FR, including the current frame FR1, which exist within the range up to the time (t1- ⁇ t) of the time ⁇ t, a plurality of Of the trajectory pieces TL in the frame FR, trajectory pieces TL that are likely to belong to the same person or that have a higher possibility of being of the same person are combined.
  • TR (KK) of the persons JB1 to JB4 in a plurality of frames FR including the current frame FR1, which exist within the range up to the time (t1- ⁇ t) of the time ⁇ t
  • trajectory pieces TL1, TL3, and TL4 are those with identification number ID1 (person JB1), identification number ID3 (person JB3), and identification number ID1 (person JB1), respectively.
  • the combining unit KA combines the trajectory pieces TL1, TL3, and TL4 assuming that they have the same identification number ID1.
  • the combining unit KA changes the identification number ID of the locus piece TL3 in the locus history KR from ID3 to ID1.
  • the combination unit KA combines the trajectory pieces TL described above using a combination optimization method, and, for example, calculates the feature amounts TR(KK) of the persons JB1 to JB4 in a plurality of frames FR existing within the time ⁇ t described above. After positioning the difference in the cost as the cost, the trajectory pieces TL that minimize the cost are combined. The combination of the trajectory pieces TL is reflected in the trajectory history KR by, for example, updating the trajectory history KR by the updating unit KS.
  • the acquiring unit SY to the combining unit KA start processing the next frame FR2 following the current frame FR1.
  • the acquiring unit SY through the combining unit KA may process the current frame FR1, the next frame FR2, .
  • FIG. 9 shows the configuration of the person tracking device 1 of the first embodiment.
  • the person tracking device 1 of Embodiment 1 includes an input unit NB, a processor PC, an output unit SB, a memory MM, and a storage medium KB, as shown in FIG. 9, in order to perform the functions described above.
  • the input unit NB is composed of, for example, a camera, microphone, keyboard, mouse, and touch panel.
  • a processor PC is the core of a familiar computer that runs hardware according to software.
  • the output unit SB is composed of, for example, a liquid crystal monitor, a printer, and a touch panel.
  • the memory MM is composed of, for example, a DRAM (Dynamic Random Access Memory) and an SRAM (Static Random Access Memory).
  • the storage medium KB is composed of, for example, a hard disk drive (HDD: Hard Disk Drive), a solid state drive (SSD: Solid State Drive), and a ROM (Read Only Memory).
  • the storage medium KB stores the program PR.
  • the program PR is a group of instructions that define the content of processing to be executed by the processor PC.
  • the processor PC executes the program PR stored in the storage medium KB on the memory MM, and if necessary, the input unit NB and by controlling the operation of the output unit SB, the functions of the respective units from the acquisition unit SY to the combination unit KA are realized.
  • FIG. 10 is a flow chart showing the operation of the person tracking device 1 of the first embodiment. The operation of the person tracking device 1 of Embodiment 1 will be described with reference to the flowchart of FIG.
  • Step ST11 The acquisition unit SY acquires the image EZ and outputs the current frame FR1 among the plurality of frames FR forming the image EZ.
  • Step ST12 The extraction unit CS detects the person JB from the frame FR1, and more specifically, extracts the position information IJ and image information GJ of the person JB.
  • Step ST13 The estimating unit ST refers to the trajectory history KR, and based on the position information IJ of the persons JB1 to JB4 in a plurality of past frames FR before the current frame FR1, the person JB1 in the current frame FR1. ⁇ Estimate the position of JB4.
  • Step ST14 The first calculator SS1 calculates the position of the person JB in the current frame FR1 indicated by the position information IJ of the person JB in the current frame FR1 extracted by the extractor CS, and the position of the person JB in the current frame FR1, Calculate the positional distance KY(IC), which is the difference between each of the positions of the persons JB1-JB4 in the frame FR1 estimated by . That is, the first calculator SS1 calculates a plurality of positional distances KY (IC).
  • Step ST15 The second calculator SS2 calculates the feature amount TR(KK) of the person JB in the current frame FR1 based on the image information GJ of the person JB in the current frame FR1 extracted by the extraction unit CS. calculate.
  • Step ST16 The third calculator SS3 refers to the trajectory history KR to obtain each of the feature values TR(KK) of the persons JB1 to JB4 in a plurality of past frames FR before the current frame FR1, A feature quantity distance KY(TR), which is a difference from the feature quantity TR(KK) of the person JB in the current frame FR1 calculated by the second calculator SS2, is calculated. That is, the third calculation unit SS3 calculates a plurality of feature amount distances KY(TR).
  • Step ST17 The assigning unit WA uses the positional distance KY ( IC), and the feature amount distance KY(TR) between the person JB in the current frame FR1 and the persons JB1 to JB4 in the past frames FR calculated by the third calculation unit SS3. Based on this, the person JB in the current frame FR1 has an identification number ID that is the same as or different from the identification numbers ID1 to ID4 of the persons JB1 to JB4 in a plurality of past frames FR (for example, identification number ID5). assign.
  • Step ST18 The updating unit KS updates the trajectory history KR in response to the assignment of the identification number ID by the assigning unit WA.
  • Step ST19 After the processing from step ST11 to step ST18 has been executed for a predetermined number of times or for a predetermined period of time, the combining unit KA is the A plurality of trajectory segments TL that have a possibility of being or are highly likely to be are combined. The result of combination of the plurality of trajectory pieces TL by the combination unit KA is reflected in the trajectory history KR by the updating unit KS, that is, the trajectory history KR is updated.
  • FIG. 11 shows the result of the operation of the combiner KA of the first embodiment.
  • the trajectory (not shown) of person JB1 over frame FR1 and frame FR2 is, for example, as shown in FIG. 11A.
  • the trajectory piece TL1 is of identification number ID1
  • the trajectory piece TL2 is of identification number ID2.
  • the assigning unit WA performs the The identification number ID is assigned, and the combining unit KA optimizes the combination based on the feature values TR (KK) of all of the person JB and the persons JB1 to JB4 over the current frame FR1 and a plurality of past frames FR.
  • the method combines a plurality of trajectory pieces TL that may belong to the same person and have a high probability. This makes it possible to continue tracking the trajectory of the same person even if there is an obstacle SD (shown in FIG. 11).
  • a plurality of trajectory pieces TL that should be determined to belong to the same person can be determined to belong to the same person.
  • Embodiment 2 The person tracking device 2 of Embodiment 2 will be described.
  • the human tracking device 2 of the second embodiment shortens the time required for combination by the combination unit KA compared to the human tracking device 1 of the first embodiment.
  • the number of a plurality of trajectory pieces TL is reduced by comparing the feature value TR(TL) representing or symbolizing the trajectory pieces TL with the constraint conditions.
  • Constraints are, for example, temporal and spatial conditions.
  • FIG. 12 shows the feature quantity TR(TL) of the trajectory piece TL of the second embodiment.
  • the feature amount TR(TL) of the trajectory piece TL is calculated, for example, by averaging the feature amounts TR(KK) of a plurality of rectangles KK belonging to the trajectory piece TL. More specifically, as shown in FIG. 12, for example, when rectangles KK1 to KK4 belong to trajectory piece TL1, the feature amount TR(TL) of trajectory piece TL1 is replaced by the feature amount TR(KK) of rectangle KK1, the feature amount TR(KK) of rectangle KK2 , the feature amount TR(KK) of the rectangle KK3, and the feature amount TR(KK) of the rectangle KK4 are averaged.
  • FIG. 13 shows temporal conditions of the second embodiment.
  • the temporal condition described above is, for example, whether or not the temporal overlap between two trajectory segments TL that are temporally adjacent to each other is greater than the temporal threshold Tth. More specifically, as shown in FIG. 13, when the temporal overlap T1 between the two trajectory segments TL1 and TL2 is equal to or greater than the temporal threshold value Tth, there may be a combination of the trajectory segment TL1 and the trajectory segment TL2. Therefore, the combination of the trajectory piece TL1 and the trajectory piece TL2 is excluded.
  • FIG. 14 shows the spatial conditions of the second embodiment.
  • the spatial condition described above is, for example, whether or not the spatial distance between two trajectory pieces TL in space is longer than the spatial threshold Dth. More specifically, as shown in FIG. 14, the distance between the end point P(t2) of the trajectory piece TL1 from time t1 to time t2 and the starting point P(t3) of the trajectory piece TL2 from time t3 to time t4 is When the distance D is equal to or greater than the spatial threshold value Dth, the combination of the trajectory piece TL1 and the trajectory piece TL2 cannot be combined, so the combination of the trajectory piece TL1 and the trajectory piece TL2 is excluded.
  • the combination of the trajectory piece TL1 and the trajectory piece TL2 is possible, so the combination of the trajectory piece TL1 and the trajectory piece TL2 is excluded. Leave without.
  • the spatial threshold Dth may be a fixed value or a variable value specified by time, for example, the length of time between time t2 and time t3.
  • FIG. 15 is a functional block diagram of the person tracking device 2 of the second embodiment.
  • the person tracking device 2 of the second embodiment includes an acquisition unit SY to a database unit DB, similar to the person tracking device 1 of the first embodiment (shown in FIG. 1). Unlike the human tracking device 1 of the first embodiment, it further includes a preprocessing unit MS.
  • the preprocessing part MS has a fourth calculation part SS4 and an exclusion part JG for performing processing before the processing of the combination part KA.
  • the fourth calculation unit SS4 corresponds to the "calculation unit”, and the exclusion unit JG corresponds to the "exclusion unit”, like the second calculation unit SS2 of the first embodiment.
  • the fourth calculator SS4 is based on the trajectory segment TL of the person JB in the current frame FR1, more precisely, based on the plurality of rectangles KK belonging to the trajectory segment TL, A feature amount TR(TL) of the trajectory piece TL is calculated.
  • the exclusion unit JG excludes combinations of the trajectory pieces TL that do not satisfy the constraint conditions, as described with reference to FIGS. 13 and 14, from the combination candidates for the combination unit KA. .
  • the configuration of the person tracking device 2 of Embodiment 2 is the same as the configuration of the person tracking device 1 of Embodiment 1 (illustrated in FIG. 9).
  • FIG. 16 is a flow chart showing the operation of the person tracking device 2 of the second embodiment. The operation of the person tracking device 2 of Embodiment 2 will be described below with reference to the flowchart of FIG.
  • Steps ST21 to ST27 Acquisition unit SY to allocation unit WA perform the same processing as steps ST11 to ST17 of the first embodiment.
  • FIG. 17 shows the feature amount TR(TL) of the trajectory piece TL of the second embodiment.
  • Step ST28 As shown in FIGS. 12 and 17, the fourth calculator SS4 calculates the feature amount TR(TL) of the trajectory piece TL based on the trajectory piece TL of the person JB in the current frame FR1. .
  • FIG. 18 shows updating of the feature amount TR(TL) of the trajectory piece TL in the second embodiment.
  • the update unit KS may update the trajectory history KR by changing the feature amount TR (TL) in the past frame FR0 in conjunction with the update described above.
  • Step ST30 After the processing from step ST21 to step ST29 has been performed for a predetermined number of times or for a predetermined period of time, the exclusion unit JG selects the current frame FR1 and the past frames FR. Among the plurality of trajectory pieces TL in , combinations of trajectory pieces TL that do not satisfy the constraint conditions are excluded as described with reference to FIGS. 13 and 14 .
  • Step ST31 The combiner KA determines the possibility that the plurality of trajectory segments TL in the current frame FR1 and the plurality of past frames FR after the number has been reduced by the exclusion unit JG belong to the same person.
  • the trajectory segments TL that have or are highly likely to be combined are combined.
  • the combining unit KA combines the trajectory pieces TL with each other by a combinatorial optimization method based on the degree of similarity of whether or not the feature amounts TR(TL) of the trajectory pieces TL are similar to each other.
  • the combination unit KA performs the above combination by, for example, solving a minimum cost flow problem. This is done by solving the minimum cost flow problem by adding a threshold value Rth for the degree of similarity between features TR(TL) as a constraint.
  • the result of combining the trajectory pieces TL by the combining unit KA is added to the trajectory history KR by the updating unit KS, thereby updating the trajectory history KR.
  • the fourth calculator SS4 calculates the feature amount TR(TL) of the trajectory piece TL
  • the combination unit KA calculates the feature amount TR(TL) of the trajectory piece TL. Trajectory segments TL can be combined based on whether TR (TL) are similar to each other.
  • FIG. 19 shows the effect of exclusion by the exclusion unit JG of the second embodiment.
  • exclusion unit JG does not exclude the impossible combinations of the trajectory pieces TL, as shown in FIG. A combination is sought for all of the plurality of trajectory segments TL1 to TL6 that are candidates for combination.
  • FIG. 20 shows the similarity of the feature amount TR(TL) of the trajectory piece TL of the second embodiment.
  • the longer the length of the trajectory piece TL the greater the number of rectangles KK included in the trajectory piece TL.
  • the short trajectory piece TL1 may include two rectangles KK1a, KK1b, while the long trajectory piece TL1, as shown in the lower part of FIG. may contain five rectangles KK1a, KK1b, KK1c, KK1d, KK1e.
  • the short trajectory piece TL2 may include two rectangles KK2a, KK2b, as shown in the top row of FIG. 20A, while the long trajectory piece TL2, as shown in the bottom row of FIG. may contain five rectangles KK2a, KK2b, KK2c, KK2d, KK2e.
  • the feature amount TR(TL) of the trajectory piece TL1 and the feature amount TR(TL) of the trajectory piece TL2 are not similar.
  • the degree of similarity between the two is small.
  • FIG. 21 shows changes in the similarity threshold of the feature amount TR(TL) of the trajectory piece TL in the second embodiment.
  • the feature amount TR(TL) of the piece TL2 is more similar.
  • the combination unit KA performs step ST31 to combine the trajectory pieces TL based on the similarity of the feature amount TR(TL) of the trajectory pieces TL. It is desirable to change the similarity threshold Rth according to the property. Specifically, as shown in FIGS. 21A and 21B, the combination unit KA, for example, converts the similarity threshold value Rth(L) when the trajectory segments TL1 and TL2 are long to the similarity threshold Rth(L) when the trajectory segments TL1 and TL2 are short. is smaller than the degree threshold Rth(S).
  • the similarity threshold Rth(L) smaller than the similarity threshold Rth(S).
  • the combiner KA may, for example, preferentially combine the trajectory segments TL that are temporally or spatially closer to each other after the exclusion by the exclusion unit JG.
  • Techniques such as kd-tree may be used for the above combinations. As a result, the time required for combination can be further shortened.
  • Embodiment 3 The person tracking device 3 of Embodiment 3 will be described.
  • the person tracking device 3 of the third embodiment displays the results of processing by the person tracking device 1 of the first embodiment and the person tracking device 2 of the second embodiment.
  • FIG. 22 is a functional block diagram of the person tracking device 3 of the third embodiment.
  • the person tracking device 3 of the third embodiment includes an acquisition unit SY to a database unit DB, similar to the person tracking device 1 of the first embodiment. 1 and further includes a display HY.
  • the display unit HY displays the trajectory history KR after the assignment unit WA has assigned the identification number ID, that is, the trajectory history KR (for example, shown in FIG. Display with good visibility.
  • the trajectory history KR after the assigning unit WA has assigned the identification number ID is, in other words, the trajectory history KR before the combining unit KA combines the trajectory pieces TL.
  • the configuration of the person tracking device 3 of Embodiment 3 is the same as the configuration of the person tracking device 1 of Embodiment 1 (shown in FIG. 9).
  • FIG. 23 is a flow chart showing the operation of the person tracking device 3 of the third embodiment.
  • FIG. 23 The operation of the person tracking device 3 of Embodiment 3 will be described below with reference to FIGS. 23 and 24.
  • FIG. 23 The operation of the person tracking device 3 of Embodiment 3 will be described below with reference to FIGS. 23 and 24.
  • Steps ST41 to ST48 Acquisition unit SY to update unit KS perform the same processes as steps ST11 to ST18 of the first embodiment.
  • Step ST50 The combination unit KA performs the same processing as step ST19 of the first embodiment.
  • the display unit HY displays the trajectory history KR after the identification number ID is assigned by the assigning unit WA, and the trajectory piece TL is displayed by the combining unit KA. Display the trajectory history KR after they are combined.
  • the user of the person tracking device 3 can check the contents of the bulletin or provisional trajectory history KR moment by moment under the environment where the person JB should be monitored in real time.
  • the content of the final or definitive trajectory history KR can be confirmed on a daily or weekly basis.
  • a person tracking device can be used to monitor a person.
  • the person can be monitored by issuing an alarm, displaying, or logging the movements of the person. .

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

人物追跡装置(1)は、複数の人物(JB)が撮影された映像(EZ)が有する時間的に連続する複数のフレーム(FR)であって、各フレーム(FR)が前記複数の人物(JB)の動きの一部分である軌跡片(TL)を含む前記複数のフレーム(FR)における前記複数の人物(JB)を象徴する特徴量(TR)を算出する算出部(SS)と、前記複数のフレーム(FR)における前記複数の人物(JB)を象徴する特徴量(TR)に基づく組合せ最適化手法の下で、前記複数のフレーム(FR)における前記複数の人物(JB)の軌跡片(TL)のうち、同一の人物(JB)である可能性がより高い軌跡片(TL)同士を組み合わせる組み合わせ部(KA)と、を含む。

Description

人物追跡装置及び人物追跡方法
 本開示は、人物追跡装置及び人物追跡方法に関する。
 人物追跡装置の一例である、特許文献1に記載の動画解析装置は、人物の動きが物などに遮られること及び人物がフレームアウトすることに起因して人物の動線が途切れるとの事態を回避することを目的とする。前記動画解析装置は、前記目的を達成すべく、複数の動線が同一の人物の動線であるか否かを判定する。
特開2010-273112号公報
 上記した動画解析装置は、上記した判定を、時間的に相互に隣接する動線同士の間についてのみ行う。これにより、前記動画解析装置は、時間的に相互に離隔する動線を含む、同一の人物のものであると判定されるべき複数の動線について上記した判定を行う過程で、ひとたび、前記複数の動線のうちの一の動線を同一の人物のものでないと判定すると、後続の動線も同一の人物のものでないと判定し続けるおそれがあった。
 本開示の目的は、時間的に相互に離隔する動線である軌跡片を含む、同一の人物のものであると判定されるべき複数の軌跡片を同一の人物のものであると判定することができる人物追跡装置及び人物追跡方法を提供することにある。
 上記した課題を解決すべく、本開示に係る人物追跡装置は、複数の人物が撮影された映像が有する時間的に連続する複数のフレームであって、各フレームが前記複数の人物の動きの一部分である軌跡片を含む前記複数のフレームにおける前記複数の人物を象徴する特徴量を算出する算出部と、前記複数のフレームにおける前記複数の人物を象徴する特徴量に基づく組合せ最適化手法の下で、前記複数のフレームにおける前記複数の人物の軌跡片のうち、同一の人物である可能性がより高い軌跡片同士を組み合わせる組み合わせ部と、を含む。
 本開示に係る人物追跡装置によれば、時間的に相互に離隔する軌跡片を含む、同一の人物のものであると判定されるべき複数の軌跡片を同一の人物のものであると判定することができる。
実施形態1の人物追跡装置の機能ブロック図である。 実施形態1の映像EZを示す。 実施形態1の位置情報IJ及び画像情報GJを示す。 実施形態1の軌跡履歴KRを示す。 実施形態1の軌跡片TLを示す。 実施形態1の第2の算出部SS2の動作を示す。 図7Aは、実施形態1の割当部WAの動作(同一の識別番号IDを割り当てる場合)を示す。図7Bは、実施形態1の割当部WAの動作(相違する識別番号IDを割り当てる場合)を示す。 実施形態1の組み合わせ部KAの動作を示す。 実施形態1の人物追跡装置1の構成を示す。 実施形態1の人物追跡装置1の動作を示すフローチャートである。 図11Aは、実施形態1の組み合わせ部KAの動作の結果(組み合わせを行わない場合)を示す。図11Bは、実施形態1の組み合わせ部KAの動作の結果(組み合わせを行う場合)を示す。 実施形態2の軌跡片TLの特徴量TR(TL)を示す。 実施形態2の時間的条件を示す。 実施形態2の空間的条件を示す。 実施形態2の人物追跡装置2の機能ブロック図である。 実施形態2の人物追跡装置2の動作を示すフローチャートである。 実施形態2の軌跡片TLの特徴量TR(TL)を示す。 実施形態2の軌跡片TLの特徴量TR(TL)の更新を示す。 図19Aは、実施形態2の除外部JGによる除外の効果(除外を行わない場合)を示す。図19Bは、実施形態2の除外部JGによる除外の効果(除外を行う場合)を示す。 図20Aは、実施形態2の軌跡片TLの特徴量TR(TL)の類似度を示す(その1)。図20Bは、実施形態2の軌跡片TLの特徴量TR(TL)の類似度を示す(その2)。 図21Aは、実施形態2の軌跡片TLの特徴量TR(TL)の類似度の閾値の変更を示す(その1)。図21Bは、実施形態2の軌跡片TLの特徴量TR(TL)の類似度の閾値の変更を示す(その2)。 実施形態3の人物追跡装置3の機能ブロック図である。 実施形態3の人物追跡装置3の動作を示すフローチャートである。 実施形態3の表示部HYの動作を示す。
 本開示に係る人物追跡装置の実施形態について説明する。
実施の形態1.
〈実施形態1〉
〈実施形態1の機能〉
 図1は、実施形態1の人物追跡装置の機能ブロック図である。実施形態1の人物追跡装置1の機能について、図1の機能ブロック図を参照して説明する。
 以下では、説明及び理解を容易にすべく、例えば、1つの符号で複数の名称の全てを総称することがあり、例えば、複数のフレームFR1、FR2、、、、の全体をフレームFRで総称することがある。
 実施形態1の人物追跡装置1は、図1に示されるように、取得部SYと、抽出部CSと、推定部STと、第1の算出部SS1と、第2の算出部SS2と、第3の算出部SS3と、割当部WAと、更新部KSと、組み合わせ部KAと、データベース部DBと、を含む。
 抽出部CSは、「抽出部」に対応し、推定部STは、「推定部」に対応し、割当部WAは、「割当部」に対応し、更新部KSは、「更新部」に対応し、組み合わせ部KAは、「組み合わせ部」に対応する。第1の算出部SS1、第2の算出部SS2、第3の算出部SS3のうち、第2の算出部SS2は、「算出部」に対応する。
 図2は、実施形態1の映像EZを示す。
 映像EZは、図2に示されるように、時間的に連続する複数のフレームFR1、FR2、、、、を有する。例えば、時刻t1のフレームFR1には、少なくとも一人の人物JB1~JB4が撮影されており、時刻t2のFR2等の他のフレームFRにも、少なくとも一人の人物JB1~JB4が撮影されている。
 図1に戻り、取得部SYは、映像EZ(図2に図示。)を、撮像装置及び記憶装置(いずれも図示せず。)からを取得する。取得部SYは、映像EZ中の現時点でのフレームFR、例えば、時刻t1のフレームFR1を出力する。
 抽出部CSは、現在のフレームFR1から人物を検出し、より詳しくは、人物JB1~JB4の位置を示す位置情報IJ、及び人物JB1~JB4の画像を示す画像情報GJを抽出する。抽出部CSは、人物JB1~JB4の検出を、例えば、CNN(Convolutional Neural Network)を用いた機械学習により行う。
 図3は、実施形態1の位置情報IJ及び画像情報GJを示す。
 位置情報IJは、図3に示されるように、例えば、人物JB1~JB4の各々を囲う仮想の矩形KK1~KK4の位置座標である。画像情報GJは、図3に示されるように、例えば、仮想の矩形KK1~KK4中の人物JB1~JB4の体型、姿勢等を示すRGB情報である。
 図1に戻り、推定部STは、軌跡履歴KRを参照した上で、推定を行う。
 図4は、実施形態1の軌跡履歴KRを示す。
 軌跡履歴KRは、データベース部DB(図1に図示。)に記憶されている。軌跡履歴KRは、図4に示されるように、複数のフレームFRと、複数の矩形KKと、複数の人物JBに割り当てられた識別番号IDと、複数の人物JBが動いた軌跡片TLとの間の関係の履歴を示す。
 複数の矩形KKについては、図3の図示と同様に、位置情報IJ及び画像情報GJが記憶されており、加えて、図4に示されるように、特徴量TR(KK)が記憶されている。特徴量TR(KK)は、矩形KK内の人物JBを象徴する。例えば、矩形KK1の特徴量TR(KK)は、矩形KK1内の人物JB1を象徴する。
 複数の人物JBに付与された識別番号IDは、人物JB1~JB4を相互間で識別するための番号である。識別番号IDは、後述されるように、割当部WA(図1に図示。)により割り当てられる。
 図5は、実施形態1の軌跡片TLを示す。
 軌跡片TLは、図5に示されるように、人物JB1~JB4の各々が動いた軌跡(図示せず。)が細切れされた、軌跡の一部分である。図5に示されるように、例えば、軌跡片TL1、TL4は、識別番号ID1である人物JB1の軌跡片である。
 図4に戻り、軌跡片TLについては、軌跡片TLの番号(No.)及び軌跡片TLの特徴量TR(TL)が記憶されている。軌跡片TLの特徴量TR(TL)は、軌跡片TLを象徴する。
 軌跡履歴KRは、データベース部DBに記憶されることに代えて、例えば、通信ネットワーク上に配置された1つ以上の外部記憶装置(図示せず。)に記憶されてもよい。
 図1に戻り、推定部STは、軌跡履歴KR(図4に図示。)を参照することにより、現在のフレームFRより時間的に前に存在する過去の複数のフレームFRにおける、複数の人物JB1~JB4の位置情報IJに基づき、現在のフレームFR1での複数の人物JB1~JB4の位置を推定する。推定部STは、複数の人物JB1~JB4の位置の推定を、例えば、カルマンフィルタを用いて行う。
 「現在のフレームFR1」は、「一のフレーム」に対応し、現在のフレームFR1と、現在のフレームFRより時間的に前に存在する過去の複数のフレームFRとを合わせた全体は、「第1の複数のフレーム」に対応する。現在のフレームFRより時間的に前に存在する過去の複数のフレームFRは、「第2の複数のフレーム」に対応する。
 第1の算出部SS1は、現在のフレームFR1での人物JB1~JB4の位置情報IJにより示される、現在のフレームFR1での人物JB1~JB4の位置と、前記推定された、現在のフレームFR1での人物JB1~JB4の位置との間の差、即ち、位置の距離KY(IC)(図10に図示。)を算出する。前記距離は、例えば、カルマンフィルタにおけるマハラノビス距離である。
 図6は、実施形態1の第2の算出部SS2の動作を示す。
 第2の算出部SS2は、図6に示されるように、特徴量抽出器として、現在のフレームFR1での人物JBの画像情報GJに基づき、現在のフレームFR1での人物JBの特徴量TR(KK)を算出する。第2の算出部SS2は、例えば、現在のフレームFR1での人物JB1の画像情報GJ、即ち、現在のフレームFR1での矩形KK1の画像情報GJに基づき、フレームFR1での人物JB1の特徴量TR(KK)を算出する。第2の算出部SS2は、特徴量TR(KK)の算出を、例えば、CNNを用いた機械学習により行う。
 図1に戻り、第3の算出部SS3は、軌跡履歴KRを参照することにより、過去の複数のフレームFRでの複数の人物JB1~JB4の特徴量TR(KK)と、前記算出された、現在のフレームFR1での人物JB1~JB4の特徴量TR(KK)との間での特徴量の差、即ち、特徴量の距離KY(TR)(図10に図示。)を算出する。前記特徴量の距離KY(TR)は、例えば、cosine距離でよく、また、時間的に前後するフレームFRの矩形KK間でのIoU距離を併用してもよい。
 図7は、実施形態1の割当部WAの動作を示す。
 割当部WAは、前記算出された、位置の距離KY(IC)及び特徴量の距離KY(TR)に基づき、現在のフレームFR1での人物JB1~JB4に識別番号IDを割り当てる。
 割当部WAは、図7Aに示されるように、例えば、時刻t2のフレームFR2での人物JBが、軌跡履歴KR中の時刻t1のフレームFR1での人物JB1と同一であると判断されるとき、時刻t2のフレームFR2の人物JBに、人物JB1の識別番号ID1と同一の識別番号ID1を割り当てる。
 同様に、割当部WAは、図7Aに示されるように、例えば、時刻t3のフレームFR3での人物JBが、軌跡履歴KR中の、時刻t1のフレームFR1での人物JB1、及び時刻t2のフレームFR2での人物JB1と同一であると判断されるとき、時刻t3のフレームFR3の人物JBに、人物JB1の識別番号ID1と同一の識別番号ID1を割り当てる。
 上記とは対照的に、割当部WAは、図7Bに示されるように、例えば、時刻t2のフレームFR2での人物JBが、軌跡履歴KR中の時刻t1のフレームFR1での人物JB1と相違すると判断されるとき、フレームFR1の人物JBに、人物JB1の識別番号ID1と相違する識別番号、例えば、新規に識別番号ID2を割り当てる。
 同様に、割当部WAは、図7Bに示されるように、例えば、時刻t3のフレームFR3での人物JBが、軌跡履歴KR中の、時刻t1のフレームFR1での人物JB1、時刻t2のフレームFR2でのJB2と相違すると判断されるとき、フレームFR1の人物JBに、人物JB1の識別番号ID1及び人物JB2の識別番号の両者と相違する識別番号、例えば、新規に識別番号ID3を割り当てる。
 割当部WAは、上記した識別番号IDの割り当てを、例えば、位置の距離KY(IC)及び特徴量の距離KY(TR)を行列としたコスト行列からハンガリアン法を用いて行い、または、位置の距離KY(IC)及び特徴量の距離KY(T)の重み付け和を用いて行う。
 図1に戻り、更新部KSは、割当部WAによる識別番号IDの割り当てに応答して、軌跡履歴KRを更新する。例えば、割当部WAにより、現在のフレームFR1の人物JB1に、識別番号ID1が付与されたことを想定すると、更新部KSは、軌跡履歴KRに、現在のフレームFR1、フレームFR1での人物JB1の識別番号ID1、現在のフレームFR1での人物JB1の矩形KK1(位置情報IJ、画像情報GJ、特徴量TR(KK))、及び、現在のフレームFR1での人物JB1の軌跡片TL(No.、特徴量TR(TL))等を追加することにより、軌跡履歴KRを更新する。
 図8は、実施形態1の組み合わせ部KAの動作を示す。
 組み合わせ部KAは、更新された軌跡履歴KR(図4に図示。)を参照する。組み合わせ部KAは、より詳しくは、予め定められた時間Δt(図4に図示。例えば、数十秒、数分。)の範囲内に存在する複数のフレームFR、例えば、現在の時刻t1から過去の時刻(t1-Δt)までの範囲内に存在する、現在のフレームFR1を含む複数のフレームFRでの人物JB1~JB4の特徴量TR(KK)を用いて、時間Δt内に存在する複数のフレームFRでの軌跡片TLのうち、同一の人物のものである可能性を有し、または、その可能性がより高い軌跡片TL同士を組み合わせる。これにより、例えば、図8に示されるように、軌跡片TL1、TL3、TL4が、それぞれ、識別番号ID1(人物JB1)、識別番号ID3(人物JB3)、識別番号ID1(人物JB1)のものであるにも拘わらず、組み合わせ部KAは、軌跡片TL1、TL3、TL4が、同一の識別番号ID1のものであるとして、組み合わせる。このとき、組み合わせ部KAは、図8に示されるように、軌跡履歴KR中の軌跡片TL3の識別番号IDを、ID3からID1へ変更する。
 組み合わせ部KAは、上記した軌跡片TLの組み合わせを、組合せ最適化手法を用いて行い、例えば、上記した時間Δt内に存在する複数のフレームFRでの人物JB1~JB4の特徴量TR(KK)の差をコストに位置付けた上で、コストを最小にする軌跡片TL同士を組み合わせる。軌跡片TLの組み合わせは、例えば、更新部KSによる軌跡履歴KRの更新により、軌跡履歴KRに反映される。
 取得部SY~組み合わせ部KAは、現在のフレームFR1についての処理を完了すると、現在のフレームFR1に引き続く、次のフレームFR2の処理を開始する。取得部SY~組み合わせ部KAは、上記した直列な処理に代えて、現在のフレームFR1、次のフレームFR2、、、、を並行に処理してもよい。
〈実施形態1の構成〉
 図9は、実施形態1の人物追跡装置1の構成を示す。
 実施形態1の人物追跡装置1は、上述した機能を果たすべく、図9に示されるように、入力部NBと、プロセッサPCと、出力部SBと、メモリMMと、記憶媒体KBを含む。
 入力部NBは、例えば、カメラ、マイク、キーボード、マウス、タッチパネルから構成される。プロセッサPCは、ソフトウェアに従ってハードウェアを動作させる、よく知られたコンピュータの中核である。出力部SBは、例えば、液晶モニター、プリンタ、タッチパネルから構成される。メモリMMは、例えば、DRAM(Dynamic Random Access Memory)、SRAM(Static Random Access Memory)から構成される。記憶媒体KBは、例えば、ハードディスクドライブ(HDD:Hard Disk Drive)、ソリッドステートドライブ(SSD:Solid State Drive)、ROM(Read Only Memory)から構成される。
 記憶媒体KBは、プログラムPRを記憶する。プログラムPRは、プロセッサPCが実行すべき処理の内容を規定する命令群である。
 人物追跡装置1における機能と構成との関係については、ハードウェア上で、プロセッサPCが、記憶媒体KBに記憶されたプログラムPRを、メモリMM上で実行すると共に、必要に応じて、入力部NB及び出力部SBの動作を制御することにより、取得部SY~組み合わせ部KAの各部の機能を実現する。
〈実施形態1の動作〉
 図10は、実施形態1の人物追跡装置1の動作を示すフローチャートである。実施形態1の人物追跡装置1の動作について、図10のフローチャートを参照して説明する。
 説明及び理解を容易にすべく、現在のフレームFR1に、一人の人物JBのみが撮影されていることを想定する。
 ステップST11:取得部SYは、映像EZを取得し、映像EZを構成する複数のフレームFRのうち、現在のフレームFR1を出力する。
 ステップST12:抽出部CSは、フレームFR1から、人物JBを検出し、より詳しくは、人物JBの位置情報IJ及び画像情報GJを抽出する。
 ステップST13:推定部STは、軌跡履歴KRを参照することにより、現在のフレームFR1より前の過去の複数のフレームFRでの人物JB1~JB4の位置情報IJに基づき、現在のフレームFR1における人物JB1~JB4の位置を推定する。
 ステップST14:第1の算出部SS1は、抽出部CSにより抽出された、現在のフレームFR1での人物JBの位置情報IJにより示される、現在のフレームFR1での人物JBの位置と、推定部STにより推定された、フレームFR1での人物JB1~JB4の位置の各々との間の差である位置の距離KY(IC)を算出する。即ち、第1の算出部SS1は、位置の距離KY(IC)を複数個、算出する。
 ステップST15:第2の算出部SS2は、抽出部CSにより抽出された、現在のフレームFR1での人物JBの画像情報GJに基づき、現在のフレームFR1での人物JBの特徴量TR(KK)を算出する。
 ステップST16:第3の算出部SS3は、軌跡履歴KRを参照することにより、現在のフレームFR1より前の過去の複数のフレームFRでの人物JB1~JB4の特徴量TR(KK)の各々と、第2の算出部SS2により算出された、現在のフレームFR1での人物JBの特徴量TR(KK)との間での差である特徴量の距離KY(TR)を算出する。即ち、第3の算出部SS3は、特徴量の距離KY(TR)を、複数個、算出する。
 ステップST17:割当部WAは、第1の算出部SS1により算出された、現在のフレームFR1中の人物JB、及び、過去のフレームFR中の人物JB1~JB4の各々の間における位置の距離KY(IC)、及び、第3の算出部SS3により算出された、現在のフレームFR1中の人物JB、及び、過去のフレームFR中の人物JB1~JB4の各々間における特徴量の距離KY(TR)に基づき、現在フレームFR1での人物JBに、過去の複数のフレームFR中の人物JB1~JB4の識別番号ID1~ID4と同一の識別番号ID、または、相違する識別番号ID(例えば、識別番号ID5)を割り当てる。
 ステップST18:更新部KSは、割当部WAによる識別番号IDの割り当てに応答して、軌跡履歴KRを更新する。
 ステップST19:ステップST11からステップST18までの処理が、予め定められた回数だけ、または、予め定められた時間だけ、実行された後に、組み合わせ部KAは、同一の人物、例えば、識別番号ID1のものである可能性を有し、または、その可能性が高い複数の軌跡片TLを組み合わせる。組み合わせ部KAによる複数の軌跡片TLの組み合わせの結果は、例えば、更新部KSにより、軌跡履歴KRに反映され、即ち、軌跡履歴KRは、更新される。
 図11は、実施形態1の組み合わせ部KAの動作の結果を示す。
 組み合わせ部KAによる、組合せ最適化手法を用いた組み合わせを行わない場合には、図11Aに示されるように、例えば、フレームFR1及びフレームFR2に亘る人物JB1の軌跡(図示せず。)が、例えば、遮断物SDにより遮断されることにより、軌跡片TL1及び軌跡片TL2に細切れにされていると、軌跡片TL1は、識別番号ID1のものであり、他方で、軌跡片TL2は、識別番号ID2のものであるとして取り扱われるおそれがある。
 上記とは相違して、組み合わせ部KAによる、組合せ最適化手法を用いた組み合わせを行う場合には、図11Bに示されるように、軌跡片TL1が識別番号ID1のものであり、かつ、軌跡片TL2も識別番号ID1のものであるとして取り扱わる。その結果、軌跡片TL1及び軌跡片TL2の組み合わせにより、遮断物SDが存在するにも拘わらず、人物JB1の軌跡を途切れさせることを回避することができる。
〈実施形態1の効果〉
 上述したように、実施形態1の人物追跡装置1では、割当部WAが、現在のフレームFR1での人物JBについての、位置の距離KY(IC)及び特徴量の距離KY(TR)に基づき、識別番号IDを割り当て、また、組み合わせ部KAが、現在のフレームFR1及び過去の複数のフレームFRに亘る、人物JB、人物JB1~JB4の全者の特徴量TR(KK)に基づき、組合せ最適化手法により、同一の人物のものである可能性があり、また、可能性が高い複数の軌跡片TLを組み合わせる。これにより、たとえ、遮断物SD(図11に図示。)が存在しても、同一の人物の軌跡を追跡し続けることが可能となり、換言すれば、時間的に相互に離隔する軌跡片TLを含む、同一の人物のものであると判定されるべき複数の軌跡片TLを同一の人物のものであると判定することができる。
実施形態2.
〈実施形態2〉
 実施形態2の人物追跡装置2について説明する。
 実施形態2の人物追跡装置2は、実施形態1の人物追跡装置1に比して、組み合わせ部KAによる組み合わせに要する所要時間を短縮する。
〈実施形態2の原理〉
 実施形態1の組み合わせ部KAが、組合せ最適化手法を用いて複数の軌跡片TLを組み合わせようとするとき、組み合わせ数がより多いほど、処理時間がより長くなる。そこで、実施形態2では、組み合わせ部KAによる組み合わせの候補となる軌跡片TLの数を低減する。
 実施形態2では、複数の軌跡片TLの数の低減を、軌跡片TLを代表し又は象徴する特徴量TR(TL)を制約条件と比較することにより行う。制約条件は、例えば、時間的条件及び空間的条件である。
 図12は、実施形態2の軌跡片TLの特徴量TR(TL)を示す。
 軌跡片TLの特徴量TR(TL)は、例えば、軌跡片TLに属する複数の矩形KKの特徴量TR(KK)を平均することにより算出する。より詳しくは、図12に示されるように、例えば、軌跡片TL1に矩形KK1~KK4が属するとき、軌跡片TL1の特徴量TR(TL)を、矩形KK1の特徴量TR(KK)、矩形KK2の特徴量TR(KK)、矩形KK3の特徴量TR(KK)、及び矩形KK4の特徴量TR(KK)を平均することにより、算出する。
 図13は、実施形態2の時間的条件を示す。
 上記した時間的条件は、例えば、時間的に前後して隣接する2つの軌跡片TL同士間の時間的な重複が、時間的閾値Tthより大きいか否かである。より詳しくは、図13に示されるように、2つの軌跡片TL1、TL2同士の時間的な重複T1が、時間的閾値Tth以上であるとき、軌跡片TL1と軌跡片TL2との組み合わせがあり得ないことから、軌跡片TL1と軌跡片TL2との組み合わせを除外する。
 上記とは相違し、図13に示されるように、2つの軌跡片TL3、TL4同士の時間的な重複T2が、時間的閾値Tth未満であるとき、軌跡片TL3と軌跡片TL4との組み合わせがあり得ることから、軌跡片TL3と軌跡片TL4との組み合わせを除外することなく、残す。
 図14は、実施形態2の空間的条件を示す。
 上記した空間的条件は、例えば、空間における2つの軌跡片TL同士間での空間的な距離が、空間的閾値Dthより長いか否かである。より詳しくは、図14に示されるように、時刻t1から時刻t2までの軌跡片TL1の終点P(t2)と、時刻t3から時刻t4までの軌跡片TL2の起点P(t3)との間の距離Dが、空間的閾値Dth以上であるとき、軌跡片TL1と軌跡片TL2との組み合わせがあり得ないことから、軌跡片TL1と軌跡片TL2との組み合わせを除外する。
 上記とは相違し、上記した距離Dが、空間的閾値Dth未満であるとき、軌跡片TL1と軌跡片TL2との組み合わせがあり得ることから、軌跡片TL1と軌跡片TL2の組み合わせを除外することなく、残す。
 空間的閾値Dthは、固定的な値でもよく、また、時間、例えば、時刻t2と時刻t3との間の時間の長さにより特定される変動的な値でもよい。
 実施形態2での組み合わせの候補となる軌跡片TLの数の削減は、制約条件の観点から起こり得ない、軌跡片TL同士の組み合わせを事前に除外するだけであり、組み合わせ部KAによる組み合わせの精度を低下させることはない。
〈実施形態2の機能及び構成〉
 図15は、実施形態2の人物追跡装置2の機能ブロック図である。
 実施形態2の人物追跡装置2は、図15に示されるように、実施形態1の人物追跡装置1(図1に図示。)と同様に、取得部SY~データベース部DBを含み、他方で、実施形態1の人物追跡装置1と相違して、前処理部MSを更に含む。前処理部MSは、組み合わせ部KAの処理の前に処理を行うべく、第4の算出部SS4と、除外部JGとを有する。
 第4の算出部SS4は、実施形態1の第2の算出部SS2と同様に、「算出部」に対応し、除外部JGは、「除外部」に対応する。
 第4の算出部SS4は、例えば、図12に示されるように、現在のフレームFR1中の人物JBの軌跡片TLに基づき、より正確には、軌跡片TLに属する複数の矩形KKに基づき、軌跡片TLの特徴量TR(TL)を算出する。
 除外部JGは、複数の軌跡片TLのうち、図13、図14を参照して説明したように、制約条件を満足しない軌跡片TL同士の組み合わせを、組み合わせ部KAによる組み合わせの候補から除外する。
 実施形態2の人物追跡装置2の構成は、実施形態1の人物追跡装置1の構成(図9に図示。)と同様である。
〈実施形態2の動作〉
 図16は、実施形態2の人物追跡装置2の動作を示すフローチャートである。以下、実施形態2の人物追跡装置2の動作について、図16のフローチャートを参照して説明する。
 説明及び理解を容易にすべく、実施形態1と同様に、現在のフレームFR1に、一人の人物JBのみが撮影されていることを想定する。
 ステップST21~ST27:取得部SY~割当部WAは、実施形態1のステップST11~ST17と同様な処理を行う。
 図17は、実施形態2の軌跡片TLの特徴量TR(TL)を示す。
 ステップST28:第4の算出部SS4は、図12、図17に示されるように、現在のフレームFR1中の人物JBの軌跡片TLに基づき、軌跡片TLの特徴量TR(TL)を算出する。
 図18は、実施形態2の軌跡片TLの特徴量TR(TL)の更新を示す。
 ステップST29:更新部KSは、図18に示されるように、軌跡履歴KRに、第4の算出部SS4により算出された、現在のフレームFR1中の人物JB(割当部WAにより、識別番号ID1を既に割り当てられていることを想定。)の軌跡片TLの特徴量TR(TL)を追加することにより、軌跡履歴KRを更新する。
 更新部KSは、上記した更新に併せて、過去のフレームFR0中の特徴量TR(TL)を変更することにより、軌跡履歴KRを更新してもよい。
 ステップST30:ステップST21からステップST29までの処理が、予め定められた回数だけ、または、予め定められた時間だけ、実行された後に、除外部JGは、現在のフレームFR1及び過去の複数のフレームFRでの複数の軌跡片TLのうち、図13、図14を参照して説明したように、制約条件を満足しない軌跡片TLの組み合わせを除外する。
 ステップST31:組み合わせ部KAは、現在のフレームFR1及び過去の複数のフレームFRにおける、除外部JGにより数が減少された後の複数の軌跡片TLのうち、同一の人物のものである可能性を有し、または、その可能性が高い軌跡片TL同士を組み合わせる。組み合わせ部KAは、軌跡片TL同士の組み合わせを、軌跡片TLの特徴量TR(TL)同士が類似するか否かの類似度に基づく組合せ最適化手法により行う。組み合わせ部KAは、前記組み合わせを、例えば、最小費用流問題を解くことによって行い、より詳しくは、軌跡片TLの特徴量TR(TL)の距離をコストとし、必要に応じて、軌跡片TLの特徴量TR(TL)間の類似度についての閾値Rthを制約条件として追加することにより、最小費用流問題を解くことによって行う。
 組み合わせ部KAによる軌跡片TL同士の組み合わせの結果は、更新部KSにより、軌跡履歴KRに追加され、これにより、軌跡履歴KRが、更新される。
〈実施形態2の効果〉
 上述したように、実施形態2の人物追跡装置2では、第4の算出部SS4が、軌跡片TLの特徴量TR(TL)を算出することにより、組み合わせ部KAは、軌跡片TLの特徴量TR(TL)同士が類似するか否かに基づき、軌跡片TL同士を組み合わせることができる。
〈除外による効果〉
 図19は、実施形態2の除外部JGによる除外の効果を示す。
 仮に、除外部JGによる、あり得ない軌跡片TL同士の組み合わせの除外を行わないと、図19Aに示されるように、組み合わせ部KAが、組み合わせることができる可能性の有無に拘わらず、例えば、組み合わせの候補である複数の軌跡片TL1~TL6の全てについて組み合わせを模索する。
 上記とは対照的に、実施形態2の人物追跡装置2では、除外部JGによる、あり得ない軌跡片TL同士の組み合わせの除外を行う。これにより、図19Bに示されるように、組み合わせ部KAが、組み合わせることができる可能性を有する軌跡片TL同士のみについての組み合わせを模索し、他方で、組み合わせる可能性を有しない軌跡片TL同士の組み合わせ、例えば、軌跡片TL2と軌跡片TL3との組み合わせ、及び、軌跡片TL1と軌跡片TL6との組み合わせを模索しない。その結果、除外部JGによる除外を行わない場合に比して、組み合わせ部KAによる組み合わせに要する所要時間を短縮することができる。
〈類似度閾値の効果〉
 図20は、実施形態2の軌跡片TLの特徴量TR(TL)の類似度を示す。
 一般的に、軌跡片TLの長さが長いほど、軌跡片TLに含まれる矩形KKの数が多くなる。例えば、図20Aの上段に示されるように、短い軌跡片TL1には、2つの矩形KK1a、KK1bが含まれることがあり、他方で、図20の下段に示されるように、長い軌跡片TL1には、5つの矩形KK1a、KK1b、KK1c、KK1d、KK1eが含まれることがある。
 同様に、図20Aの上段に示されるように、短い軌跡片TL2には、2つの矩形KK2a、KK2bが含まれることがあり、他方で、図20Aの下段に示されるように、長い軌跡片TL2には、5つの矩形KK2a、KK2b、KK2c、KK2d、KK2eが含まれることがある。
 軌跡片TL1、TL2が短いとき、図20Bの上段に示されるように、軌跡片TL1の特徴量TR(TL)と軌跡片TL2の特徴量TR(TL)とは類似しておらず、即ち、両者間の類似度は、小さい。
 上記とは対照的に、軌跡片TL1、TL2が長いとき、図20Bの下段に示されるように、軌跡片TL1の特徴量TR(TL)と軌跡片TL2の特徴量TR(TL)とは類似しており、即ち、両者間の類似度は、大きい。
 図21は、実施形態2の軌跡片TLの特徴量TR(TL)の類似度の閾値の変更を示す。
 上述したように、例えば、軌跡片TL1、TL2がより長いほど、軌跡片TL1、TL2に含まれる矩形KKの数がより多くなり、その結果、軌跡片TL1の特徴量TR(TL)と、軌跡片TL2の特徴量TR(TL)とがより類似することになる。
 そこで、実施形態2の人物追跡装置2では、組み合わせ部KAは、ステップST31での、軌跡片TLの特徴量TR(TL)の類似度に基づく軌跡片TL同士の組み合わせに先立ち、軌跡片TLの性質に応じて、類似度閾値Rthを変更することが望ましい。組み合わせ部KAは、具体的には、図21A及び図21Bに示されるように、例えば、軌跡片TL1、TL2が長いときの類似度閾値Rth(L)を軌跡片TL1、TL2が短いときの類似度閾値Rth(S)より小さくする。
 これにより、例えば、軌跡片TL1、TL2が短いときには、軌跡片TL1の特徴量TR(TL)と軌跡片TL2の特徴量TR(TL)とが類似しているか否かを、類似度閾値Rth(S)を基準に判断する。これにより、図21Aに示されるように、識別番号ID1、即ち、人物JB1の軌跡片TL1と、識別番号ID2、即ち、人物JB2の軌跡片TL2とを峻別することができる。
 他方で、例えば、軌跡片TL1、TL2が長いときには、軌跡片TL1の特徴量TR(TL)と軌跡片TL2の特徴量TR(TL)とが類似しているか否かを、上記と相違して、類似度閾値Rth(S)より小さい類似度閾値Rth(L)を基準に判断する。これにより、上記と同様に、識別番号ID1、即ち、人物JB1の軌跡片TL1と、識別番号ID2、即ち、人物JB2の軌跡片TL2とを峻別することができる。
〈変形例〉
 実施形態2の人物追跡装置2では、組み合わせ部KAが、除外部JGによる除外の後、例えば、時間的にまたは空間的により近接する軌跡片TL同士をより優先的に組み合わせてもよく、また、上記した組み合わせに、kd-tree等の手法を用いてもよい。これにより、組み合わせに要する所要時間をより短縮することができる。
実施形態3.
〈実施形態3〉
 実施形態3の人物追跡装置3について説明する。
 実施形態3の人物追跡装置3は、実施形態1の人物追跡装置1、及び実施形態2の人物追跡装置2による処理の結果を表示する。
〈実施形態3の機能及び構成〉
 図22は、実施形態3の人物追跡装置3の機能ブロック図である。
 実施形態3の人物追跡装置3は、図22に示されるように、実施形態1の人物追跡装置1と同様に、取得部SY~データベース部DBを含み、他方で、実施形態1の人物追跡装置1と相違し、表示部HYを更に含む。
 表示部HYは、割当部WAが識別番号IDを割り当てた後の軌跡履歴KR、即ち、中間段階の速報である軌跡履歴KR(例えば、図4に図示。)を、人物追跡装置3のユーザにとって視認性良く表示する。ここで、割当部WAが識別番号IDを割り当てた後の軌跡履歴KRは、換言すれば、組み合わせ部KAが軌跡片TL同士を組み合わせる前の軌跡履歴KRである。
 表示部HYは、また、組み合わせ部KAが軌跡片TL同士を組み合わせた後の軌跡履歴KR、即ち、最終段階の結果である軌跡履歴KRを、人物追跡装置3のユーザにとって視認性良く表示する。
 表示部HYは、前者の軌跡履歴KRを表示する第1の表示ユニット(図示せず。)、及び後者の軌跡履歴KRを表示する第2の表示ユニット(図示せず。)から構成されてもよい。
 実施形態3の人物追跡装置3の構成は、実施形態1の人物追跡装置1の構成(図9に図示。)と同様である。
〈実施形態3の動作〉
 図23は、実施形態3の人物追跡装置3の動作を示すフローチャートである。
 図24は、実施形態3の表示部HYの動作を示す。
 以下、実施形態3の人物追跡装置3の動作について、図23、図24を参照して説明する。
 ステップST41~ST48:取得部SY~更新部KSは、実施形態1のステップST11~ステップST18と同様の処理を行う。
 ステップST49:表示部HYは、図24に示されるように、割当部WAにより識別番号IDが割り当てられた後の軌跡履歴KRを、人物追跡装置3のユーザにとって見易く表示する。
 ステップST50:組み合わせ部KAは、実施形態1のステップST19と同様の処理を行う。
 ステップST51:表示部HYは、図24に示されるように、組み合わせ部KAにより軌跡片TL同士が組み合わされた後の軌跡履歴KRを、人物追跡装置3のユーザにとって見易く表示する。
 表示部HYによる表示は、上述したように、実施形態1の人物追跡装置1の構成、機能及び動作を基調とすることに代えて、実施形態2の人物追跡装置2の構成、機能及び動作を基調としてもよい。
〈実施形態3の効果〉
 上述したように、実施形態3の人物追跡装置3では、表示部HYが、割当部WAにより識別番号IDが割り当てられた後の軌跡履歴KRを表示し、他方で、組み合わせ部KAにより軌跡片TL同士が組み合わされた後の軌跡履歴KRを表示する。これにより、人物追跡装置3のユーザは、人物JBをリアルタイム処理で監視すべき環境の下では、時々刻々に、速報的な、または暫定的な軌跡履歴KRの内容を確認することができ、他方で、人物JBをバッチ処理で監視してもよい環境の下では、例えば、日単位、週単位で、最終的な、または確定的な軌跡履歴KRの内容を確認することができる。
 本開示の要旨を逸脱しない範囲で、上述した実施形態同士を組み合わせてもよく、また、各実施形態中の構成要素を適宜、削除し、変更し、または、他の構成要素を追加してもよい。
 本開示に係る人物追跡装置は、人物の監視に利用することができ、例えば、人物の動きについて、警報を発し、表示を行い、または、ログを記録する形式で、人物を監視することができる。
1~3 人物追跡装置、CS 抽出部、D 距離、DB データベース部、Dth 空間的閾値、EZ 映像、FR フレーム、GJ 画像情報、HY 表示部、ID 識別番号、IJ 位置情報、JB 人物、JG 除外部、KA 組み合わせ部、KB 記憶媒体、KK 矩形、KR 軌跡履歴、KS 更新部、KY 距離、MM メモリ、MS 前処理部、NB 入力部、PC プロセッサ、PR プログラム、Rth 類似度閾値、SB 出力部、SD 遮断物、SS1 第1の算出部、SS2 第2の算出部、SS3 第3の算出部、SS4 第4の算出部、ST 推定部、SY 取得部、TL 軌跡片、TR 特徴量、Tth 時間的閾値、WA 割当部。

Claims (5)

  1.  複数の人物が撮影された映像が有する時間的に連続する複数のフレームであって、各フレームが前記複数の人物の動きの一部分である軌跡片を含む前記複数のフレームにおける前記複数の人物を象徴する特徴量を算出する算出部と、
     前記複数のフレームにおける前記複数の人物を象徴する特徴量に基づく組合せ最適化手法の下で、前記複数のフレームにおける前記複数の人物の軌跡片のうち、同一の人物である可能性がより高い軌跡片同士を組み合わせる組み合わせ部と、
     を含む人物追跡装置。
  2.  前記組み合わせ部による組み合わせが可能である制約条件を満足しない軌跡片同士の組み合わせを除外する除外部を更に含む、
     請求項1に記載の人物追跡装置。
  3.  前記組み合わせ部は、前記軌跡片同士の組み合わせを、前記特徴量同士が類似するか否かに基づき行い、かつ、前記特徴量同士が類似するか否かの閾値を、前記軌跡片の性質に応じて変更する、
     請求項1に記載の人物追跡装置。
  4.  前記組み合わせ部による前記組み合わせの前における前記複数のフレームでの前記複数の人物の軌跡片、及び前記組み合わせ部による前記組み合わせの後における前記複数のフレームでの前記複数の人物の軌跡片を表示する表示部を更に含む、
     請求項1記載の人物追跡装置。
  5.  算出部が、複数の人物が撮影された映像が有する時間的に連続する複数のフレームであって、各フレームが前記複数の人物の動きの一部分である軌跡片を含む前記複数のフレームにおける前記複数の人物を象徴する特徴量を算出し、
     組み合わせ部が、前記複数のフレームにおける前記複数の人物を象徴する特徴量に基づく組合せ最適化手法の下で、前記複数のフレームにおける前記複数の人物の軌跡片のうち、同一の人物である可能性がより高い軌跡片同士を組み合わせる、
     人物追跡方法。
PCT/JP2021/019921 2021-05-26 2021-05-26 人物追跡装置及び人物追跡方法 WO2022249312A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021567024A JP7162761B1 (ja) 2021-05-26 2021-05-26 人物追跡装置及び人物追跡方法
PCT/JP2021/019921 WO2022249312A1 (ja) 2021-05-26 2021-05-26 人物追跡装置及び人物追跡方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/019921 WO2022249312A1 (ja) 2021-05-26 2021-05-26 人物追跡装置及び人物追跡方法

Publications (1)

Publication Number Publication Date
WO2022249312A1 true WO2022249312A1 (ja) 2022-12-01

Family

ID=83806064

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/019921 WO2022249312A1 (ja) 2021-05-26 2021-05-26 人物追跡装置及び人物追跡方法

Country Status (2)

Country Link
JP (1) JP7162761B1 (ja)
WO (1) WO2022249312A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016066111A (ja) * 2014-09-22 2016-04-28 株式会社日立ソリューションズ 動線編集装置及び動線編集方法、動線編集プログラム
JP2019194857A (ja) * 2018-05-04 2019-11-07 キヤノン株式会社 物体追跡方法および装置
JP6794575B1 (ja) * 2020-07-28 2020-12-02 株式会社 日立産業制御ソリューションズ 動画解析装置及び動画解析方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5214533B2 (ja) * 2009-05-21 2013-06-19 富士フイルム株式会社 人物追跡方法、人物追跡装置および人物追跡プログラム
JP6526953B2 (ja) * 2014-09-12 2019-06-05 株式会社日立国際電気 物体識別方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016066111A (ja) * 2014-09-22 2016-04-28 株式会社日立ソリューションズ 動線編集装置及び動線編集方法、動線編集プログラム
JP2019194857A (ja) * 2018-05-04 2019-11-07 キヤノン株式会社 物体追跡方法および装置
JP6794575B1 (ja) * 2020-07-28 2020-12-02 株式会社 日立産業制御ソリューションズ 動画解析装置及び動画解析方法

Also Published As

Publication number Publication date
JP7162761B1 (ja) 2022-10-28
JPWO2022249312A1 (ja) 2022-12-01

Similar Documents

Publication Publication Date Title
KR102014371B1 (ko) 수술영상의 인식도 평가 방법 및 장치
JP2018151963A (ja) 人物動向記録装置
US11875904B2 (en) Identification of epidemiology transmission hot spots in a medical facility
US20210012097A1 (en) System and method for first impression analysis and face morphing by adjusting facial landmarks using faces scored for plural perceptive traits
KR102254639B1 (ko) 매장 관리 시스템 및 방법
US11562567B2 (en) Observed-object recognition system and method
CN108461130B (zh) 就诊任务智能调度方法及系统
CN110293554A (zh) 机器人的控制方法、装置和系统
CN111887990A (zh) 基于5g技术的远程手术导航云桌面系统
WO2022249312A1 (ja) 人物追跡装置及び人物追跡方法
CN113454640A (zh) 用于利用在线学习进行对象跟踪的方法及系统
JP2003150306A (ja) 情報表示装置とその方法
KR20200096155A (ko) 수술 분석 장치, 수술영상 분석 및 인식 시스템, 방법 및 프로그램
KR20220143547A (ko) 심전도 이미지에 기반한 환자 평가 시스템 및 방법
CN114399424A (zh) 模型训练方法及相关设备
Nescher et al. Analysis of short term path prediction of human locomotion for augmented and virtual reality applications
CN108986151B (zh) 一种多目标跟踪处理方法及设备
TW202114409A (zh) 用於為目標設置可呈現的虛擬對象的方法和系統
JP2019197353A (ja) 属性決定装置、属性決定システムおよび属性決定方法
Karpouzis et al. Facial expression and gesture analysis for emotionally-rich man-machine interaction
Gervasi et al. A method for predicting words by interpreting labial movements
Gullapalli et al. Quantifying the psychopathic stare: Automated assessment of head motion is related to antisocial traits in forensic interviews
Gutstein et al. Optical flow, positioning, and eye coordination: automating the annotation of physician-patient interactions
CN108520237A (zh) 一种风险行为识别方法
CN112686908A (zh) 图像处理方法、信息展示方法、电子设备及存储介质

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2021567024

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21942966

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21942966

Country of ref document: EP

Kind code of ref document: A1