WO2010098024A1 - 人物追跡装置及び人物追跡プログラム - Google Patents
人物追跡装置及び人物追跡プログラム Download PDFInfo
- Publication number
- WO2010098024A1 WO2010098024A1 PCT/JP2010/000777 JP2010000777W WO2010098024A1 WO 2010098024 A1 WO2010098024 A1 WO 2010098024A1 JP 2010000777 W JP2010000777 W JP 2010000777W WO 2010098024 A1 WO2010098024 A1 WO 2010098024A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- dimensional movement
- person
- movement trajectory
- unit
- trajectory
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/292—Multi-camera tracking
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B66—HOISTING; LIFTING; HAULING
- B66B—ELEVATORS; ESCALATORS OR MOVING WALKWAYS
- B66B1/00—Control systems of elevators in general
- B66B1/34—Details, e.g. call counting devices, data transmission from car to control system, devices giving information to the control system
- B66B1/46—Adaptations of switches or switchgear
- B66B1/468—Call registering systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B66—HOISTING; LIFTING; HAULING
- B66B—ELEVATORS; ESCALATORS OR MOVING WALKWAYS
- B66B2201/00—Aspects of control systems of elevators
- B66B2201/40—Details of the change of control mode
- B66B2201/46—Switches or switchgear
- B66B2201/4607—Call registering systems
- B66B2201/4661—Call registering systems for priority users
- B66B2201/4669—Call registering systems for priority users using passenger condition detectors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
- G06T2207/10021—Stereoscopic video; Stereoscopic image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
Definitions
- the present invention relates to a person tracking device and a person tracking program for detecting individual persons existing in a monitoring target area and tracking each person.
- a large number of elevators are installed in high-rise buildings. For example, during morning commuting rush hours or during busy hours during lunch breaks, a number of elevators are linked to operate efficiently. Group management is required. In order to efficiently perform group management of a large number of elevators, the movement history of passengers, “how many people got on which floor, and on which floor” was measured, and the movement history was provided to the group management system. It will be necessary.
- a camera is installed in the upper part of the elevator, and pattern matching between the reference pattern of the head image stored in advance and the captured image of the camera is performed, so that passengers in the elevator
- There is a person tracking device that counts the number of passengers in an elevator by detecting the head see, for example, Patent Document 2.
- a person tracking device that counts the number of passengers in an elevator by detecting the head (see, for example, Patent Document 2).
- the number of passengers is mistakenly determined. It may count.
- a mirror is installed in the elevator, a passenger reflected in the mirror may be erroneously detected.
- a person tracking device in which a stereo camera is installed in the upper part of an elevator, and a person detected from a captured image of the stereo camera is viewed in stereo to obtain a three-dimensional position of the person (for example, Patent Literature) 3).
- Patent Literature Patent Literature
- more persons than the actual number may be detected. That is, in the case of this person tracking device, for example, as shown in FIG. 45, when obtaining the three-dimensional position of the person X, the point where the vector VA1 and the vector VB1 from the camera to the detected person intersect is calculated as the position of the person. .
- the point where the vectors VA1 and VB2 intersect it may be estimated that there is a person, and even if there are only two actual persons, it may be calculated that there are three persons by mistake. .
- a method for detecting a plurality of persons using a multi-viewpoint camera a method for obtaining a movement locus of a person using dynamic programming based on the silhouette of a person obtained by background difference (see, for example, Non-Patent Document 1) ) And a method of obtaining a movement trajectory of a person using “Particle Filter” (see, for example, Non-Patent Document 2).
- These methods can determine the number of people and the movement trajectory of a person using silhouette information and time series information of another viewpoint even in a situation where the person is shielded from a certain viewpoint.
- these techniques cannot be applied because silhouettes always overlap regardless of the viewpoint taken from any viewpoint.
- JP-A-8-26611 (paragraph [0024], FIG. 1) JP 2006-168930 A (paragraph [0027], FIG. 1) Japanese Patent Laid-Open No. 11-66319 (paragraph [0005], FIG. 2)
- the conventional person tracking device Since the conventional person tracking device is configured as described above, the passenger in the elevator cannot be accurately detected in a situation where the elevator as the monitoring target area is very crowded. There were issues such as being unable to track.
- the present invention has been made to solve the above-described problems, and can accurately track a person existing in a monitoring target area even in a situation where the monitoring target area is very crowded.
- An object is to obtain a person tracking device and a person tracking program.
- the person tracking device analyzes a video of a monitoring target area captured by a plurality of imaging means, and calculates a position on each video of each person existing in the monitoring target area 3D movement provided with position calculation means and 2D movement trajectory calculation means for tracking the position on each video calculated by the person position calculation means and calculating the 2D movement trajectory of each person in each video
- the trajectory calculating means performs stereo matching between the two-dimensional moving trajectories in each image calculated by the two-dimensional moving trajectory calculating means to calculate a matching rate of the two-dimensional moving trajectory, and the matching rate is 2 which is equal to or higher than a specified value.
- the three-dimensional movement trajectory of each person is calculated from the three-dimensional movement trajectory.
- the person position calculating means for analyzing the video of the monitoring target area imaged by the plurality of imaging means and calculating the position of each person existing in the monitoring target area on the video.
- a two-dimensional movement trajectory calculating means for tracking a position on each video calculated by the person position calculating means and calculating a two-dimensional movement trajectory of each individual person in each video.
- FIG. 3 is a configuration diagram showing the inside of a door opening / closing recognition unit 11 constituting the video analysis unit 3.
- FIG. 3 is a configuration diagram showing the inside of a floor recognition unit 12 constituting the video analysis unit 3.
- FIG. 3 is a configuration diagram showing the inside of a person tracking unit 13 configuring the video analysis unit 3.
- FIG. 3 is a configuration diagram showing the inside of a video analysis result display unit 4 configuring the video analysis unit 3.
- It is a flowchart which shows the processing content of the person tracking device by Embodiment 1 of this invention. It is a flowchart which shows the processing content of the door opening / closing recognition part 11.
- FIG. It is explanatory drawing which shows the processing content of the door opening / closing recognition part. It is explanatory drawing which shows the door index of the door opening / closing recognition part 11.
- FIG. It is a flowchart which shows the processing content of the floor recognition part. It is explanatory drawing which shows the processing content of the floor recognition part. It is a flowchart which shows the content of the pre-processing of the person tracking part 13. 4 is a flowchart showing details of post-processing of the person tracking unit 13; It is explanatory drawing which shows the example which uses the checker flag pattern as a calibration pattern. It is explanatory drawing which shows the example which selects the ceiling and four corners of an elevator as a calibration pattern.
- FIG. 5 is a flowchart showing a calculation process of a two-dimensional movement trajectory calculation unit 45. It is explanatory drawing which shows the processing content of the two-dimensional movement locus
- FIG. 5 is a flowchart showing the processing contents of a locus stereo unit 48.
- FIG. It is explanatory drawing which shows the search process of the two-dimensional movement locus
- FIG. It is explanatory drawing which shows the calculation process of the matching rate of a two-dimensional movement locus
- FIG. It is explanatory drawing which shows the processing content of the three-dimensional movement locus graph production
- FIG. It is a flowchart which shows the processing content of the locus
- FIG. It is explanatory drawing which shows the processing content of the locus
- FIG. 10 is an explanatory diagram showing a screen example of a summary display section 53. It is explanatory drawing which shows the example of a screen of the operation related information display part 54. FIG. It is explanatory drawing which shows the example of a screen of the sort data display part 55.
- FIG. It is a block diagram which shows the inside of the person tracking part 13 of the person tracking device by Embodiment 2 of this invention. It is a flowchart which shows the processing content of the locus
- FIG. 10 is an explanatory diagram showing a screen example of a summary display section 53. It is explanatory drawing which shows the example of a screen of the operation related information display part 54. FIG. It is explanatory drawing which shows the example of a screen of the sort data display part 55.
- FIG. It is a block diagram which shows the inside of the person tracking part 13 of the person tracking device by Embodiment 2 of this invention. It is a flowchart which shows the processing content of the locus
- FIG. It is explanatory drawing which shows the processing content of the locus
- FIG. It is a block diagram which shows the inside of the person tracking part 13 of the person tracking device by Embodiment 3 of this invention. It is a flowchart which shows the processing content of the 2-dimensional movement locus
- FIG. It is a block diagram which shows the person tracking device by Embodiment 4 of this invention. It is a flowchart which shows the processing content of the person tracking device by Embodiment 4 of this invention.
- FIG. 1 is a block diagram showing a person tracking apparatus according to Embodiment 1 of the present invention.
- a plurality of cameras 1 constituting imaging means are respectively installed at different positions in the upper part of the elevator car, which is the monitoring target area, and images the inside of the car from different angles at the same time.
- the type of the camera 1 is not particularly limited, and may be a general monitoring camera, a visible camera, a high-sensitivity camera capable of photographing up to the near infrared region, a far infrared camera capable of photographing a heat source, or the like.
- an infrared distance sensor capable of measuring a distance or a laser range finder may be substituted.
- the video acquisition unit 2 is a video input interface that acquires videos in the elevator car taken by the plurality of cameras 1, and performs processing to output the video in the elevator car to the video analysis unit 3.
- the video acquisition unit 2 outputs the video in the basket to the video analysis unit 3 in real time, but the video is recorded on a recording device such as a hard disk prepared in advance and the video is analyzed offline. You may make it output to the part 3.
- FIG. 1 A recording device
- the video analysis unit 3 analyzes the video in the elevator car output from the video acquisition unit 2, calculates a three-dimensional movement trajectory of each person existing in the car, and based on the three-dimensional movement trajectory. Then, a process of calculating a person movement history indicating the boarding floor and the getting-off floor of each person is performed.
- the video analysis result display unit 4 performs a process of displaying the person movement history and the like calculated by the video analysis unit 3 on a display (not shown).
- the video analysis result display unit 4 constitutes video analysis result display means.
- the door open / close recognizing unit 11 analyzes the video in the elevator car output from the video acquiring unit 2 and performs a process of specifying the door open / close time of the elevator.
- the door opening / closing recognition unit 11 constitutes door opening / closing time specifying means.
- the floor recognition unit 12 analyzes the video in the elevator car output from the video acquisition unit 2 and performs processing for specifying the floor of the elevator at each time.
- the floor recognition unit 12 constitutes a floor identification unit.
- the person tracking unit 13 analyzes the video in the elevator car output from the video acquisition unit 2 and tracks each person existing in the car, thereby calculating the three-dimensional movement trajectory of each person. Then, based on the three-dimensional movement trajectory, a process of calculating a person movement history indicating the boarding floor and the getting-off floor of each person is performed.
- FIG. 2 is a block diagram showing the inside of the door opening / closing recognition unit 11 constituting the video analysis unit 3.
- the background image registration unit 21 performs a process of registering an image of the door area in the elevator with the door closed as a background image.
- the background difference unit 22 performs a process of calculating a difference between the background image registered by the background image registration unit 21 and the image of the door area captured by the camera 1.
- the optical flow calculation unit 23 performs a process of calculating a motion vector indicating the moving direction of the door from a change in the image of the door area photographed by the camera 1.
- the door opening / closing time specifying unit 24 determines the door opening / closing state from the difference calculated by the background difference unit 22 and the motion vector calculated by the optical flow calculation unit 23, and performs processing for specifying the door opening / closing time.
- the background image update unit 25 performs a process of updating the background image using the video of the door area photographed by the camera 1.
- FIG. 3 is a configuration diagram showing the inside of the floor recognition unit 12 constituting the video analysis unit 3.
- a template image registration unit 31 performs a process of registering an indicator image indicating the floor of the elevator as a template image.
- the template matching unit 32 performs template matching between the template image registered by the template image registration unit 31 and the video of the indicator area in the elevator taken by the camera 1 to identify the elevator floor at each time. Perform the process. Or the control base information of an elevator is analyzed and the process which specifies the floor of the elevator in each time is implemented.
- the template image update unit 33 performs a process of updating the template image using the video of the indicator area photographed by the camera 1.
- FIG. 4 is a configuration diagram showing the inside of the person tracking unit 13 constituting the video analysis unit 3.
- a person position calculation unit 41 analyzes a video in an elevator car taken by a plurality of cameras 1 and calculates a position on each video of individual persons existing in the car. carry out.
- the person position calculation unit 41 constitutes a person position calculation unit.
- the camera calibration unit 42 of the person position calculation unit 41 analyzes the degree of distortion of the images of the calibration patterns previously captured by the plurality of cameras 1 before the person tracking process is started, and the cameras of the plurality of cameras 1. Processing for calculating parameters (parameters relating to lens distortion, focal length, optical axis, and image center (principal point)) is performed.
- the camera calibration unit 42 uses the images of the calibration patterns captured by the plurality of cameras 1 and the camera parameters of the plurality of cameras 1 to install the plurality of cameras 1 with respect to the reference point in the elevator car. And the process which calculates an installation angle is implemented.
- the video correction unit 43 of the person position calculation unit 41 uses the camera parameters calculated by the camera calibration unit 42 to perform processing for correcting the distortion of the video in the elevator car taken by the plurality of cameras 1.
- the person detection unit 44 of the person position calculation unit 41 detects individual persons in each image whose distortion has been corrected by the image correction unit 43, and performs a process of calculating the position of each person on each image. .
- the two-dimensional movement trajectory calculation unit 45 tracks the position on each video calculated by the person detection unit 44 and performs a process of calculating the two-dimensional movement trajectory of each individual person in each video.
- the two-dimensional movement locus calculation unit 45 constitutes a two-dimensional movement locus calculation means.
- the three-dimensional movement trajectory calculation unit 46 performs stereo matching between the two-dimensional movement trajectories in each image calculated by the two-dimensional movement trajectory calculation unit 45, calculates the matching rate of the two-dimensional movement trajectory, and the matching rate Calculating a three-dimensional movement trajectory of each person from a two-dimensional movement trajectory having a predetermined value or more, and associating the three-dimensional movement trajectory of each person with the floor identified by the floor recognition unit 12; A process of calculating a person movement history indicating the boarding floor and the getting-off floor of each person is performed.
- the three-dimensional movement trajectory calculation unit 46 constitutes a three-dimensional movement trajectory calculation unit.
- a two-dimensional movement trajectory graph generation unit 47 of the three-dimensional movement trajectory calculation unit 46 performs a division process and a connection process on the two-dimensional movement trajectory calculated by the two-dimensional movement trajectory calculation unit 45 to generate a two-dimensional movement trajectory graph. Perform the process.
- a trajectory stereo unit 48 of the three-dimensional movement trajectory calculation unit 46 searches the two-dimensional movement trajectory graph generated by the two-dimensional movement trajectory graph generation unit 47 to calculate a plurality of two-dimensional movement trajectory candidates, and a camera calibration unit.
- stereo matching between the candidates for the two-dimensional movement locus in each image is performed, and the two-dimensional movement locus A candidate matching rate is calculated, and a process of calculating a three-dimensional movement trajectory of each person from a two-dimensional movement trajectory candidate whose matching rate is equal to or greater than a specified value is performed.
- a 3D movement trajectory graph generation unit 49 of the 3D movement trajectory calculation unit 46 performs a process of generating a 3D movement trajectory graph by performing division processing and connection processing on the 3D movement trajectory calculated by the trajectory stereo unit 48. To do.
- the trajectory combination estimation unit 50 of the 3D movement trajectory calculation unit 46 searches the 3D movement trajectory graph generated by the 3D movement trajectory graph generation unit 49 to calculate a plurality of 3D movement trajectory candidates.
- the optimal three-dimensional movement trajectory is selected from the three-dimensional movement trajectory candidates, the number of persons existing in the basket is estimated, and the optimal three-dimensional movement trajectory and the floor recognition unit 12 are specified.
- a process of calculating the person movement history indicating the boarding floor and the getting-off floor of each person in association with the floor is performed.
- FIG. 5 is a block diagram showing the inside of the video analysis result display unit 4 constituting the video analysis unit 3.
- the video display unit 51 performs a process of displaying videos in the elevator car taken by the plurality of cameras 1.
- the time-series information display unit 52 performs a process of displaying the person movement history calculated by the three-dimensional movement locus calculation unit 46 of the person tracking unit 13 in a time-series graph.
- the summary display unit 53 obtains statistics of the person movement history calculated by the three-dimensional movement trajectory calculation unit 46, and performs a process of displaying the statistics result of the person movement history.
- the operation related information display unit 54 refers to the person movement history calculated by the three-dimensional movement trajectory calculation unit 46 and performs a process of displaying information related to the operation of the elevator.
- the sort data display unit 55 performs processing for sorting and displaying the person movement history calculated by the three-dimensional movement trajectory calculation unit 46.
- each of the video acquisition unit 2, the video analysis unit 3, and the video analysis result display unit 4 which are components of the person tracking device, has dedicated hardware (for example, a semiconductor integrated circuit board on which a CPU is mounted).
- the person tracking device is configured by a computer, the processing contents of the video acquisition unit 2, the video analysis unit 3, and the video analysis result display unit 4 are described.
- the person tracking program may be stored in the memory of the computer, and the CPU of the computer may execute the person tracking program stored in the memory.
- FIG. 6 is a flowchart showing the processing contents of the person tracking apparatus according to Embodiment 1 of the present invention.
- the image acquisition unit 2 acquires the images in the elevator car from the plurality of cameras 1 and outputs each image to the image analysis unit 3 ( Step ST1).
- the door open / close recognition unit 11 of the video analysis unit 3 receives the video shot by the plurality of cameras 1 from the video acquisition unit 2, it analyzes each video and specifies the opening / closing time of the elevator door (step ST2). . That is, the door open / close recognition unit 11 analyzes each video and specifies the time when the door of the elevator is open and the time when the door is closed.
- the floor recognition unit 12 of the video analysis unit 3 receives videos taken by the plurality of cameras 1 from the video acquisition unit 2, the floor analysis unit 12 analyzes each video, and the elevator floor at each time (elevator stop floor). Is identified (step ST3).
- the person tracking unit 13 of the video analysis unit 3 receives videos taken by the plurality of cameras 1 from the video acquisition unit 2, the person tracking unit 13 analyzes each video and detects individual persons existing in the basket. Then, the person tracking unit 13 refers to the detection result of each person and the opening / closing time of the door specified by the door opening / closing recognition unit 11 so as to track each person existing in the basket. The three-dimensional movement trajectory of the person is calculated. The person tracking unit 13 then associates the three-dimensional movement trajectory of each person with the floor specified by the floor recognition unit 12, and calculates a person movement history indicating the boarding floor and the getting-off floor of each person. (Step ST4). When the video analysis unit 3 calculates the person movement history or the like, the video analysis result display unit 4 displays the person movement history or the like on the display (step ST5).
- FIG. 7 is a flowchart showing the processing contents of the door opening / closing recognition unit 11.
- FIG. 8 is an explanatory diagram showing processing contents of the door opening / closing recognition unit 11
- FIG. 9 is an explanatory diagram showing a door index of the door opening / closing recognition unit 11.
- the door open / close recognizing unit 11 selects a door region where the door is shown from images in the elevator car taken by the plurality of cameras 1 (step ST11). In the example of FIG. 8A, the upper region of the door is selected as the door region.
- the background image registration unit 21 of the door opening / closing recognition unit 11 displays an image of a door region in the elevator in a state where the door is closed (for example, a video taken by the camera 1 when the door is closed: FIG. 8B). And the image is registered as a background image (step ST12).
- the background image registration unit 21 registers the background image
- the background difference unit 22 of the door opening / closing recognition unit 11 receives the video of the camera 1 that changes every moment from the video acquisition unit 2, as shown in FIG. Then, the difference between the video of the door area in the video of the camera 1 and the background image is calculated (step ST13).
- the background difference unit 22 calculates the difference between the video of the door area and the background image
- the difference is large (for example, when the difference is larger than a predetermined threshold and the video of the door area and the background image are greatly different)
- the door open / close determination flag Fb is set to “1”.
- the difference is small (for example, when the difference is smaller than a predetermined threshold value and the video of the door area and the background image are not so different) and the door is highly likely to be closed, the door open / close determination flag Fb Is set to “0”.
- the optical flow calculation unit 23 of the door opening / closing recognition unit 11 receives the video of the camera 1 that changes every moment from the video acquisition unit 2, and changes in the video of the door region in the video of the camera 1 (two continuous video frames). To calculate a motion vector indicating the moving direction of the door (step ST14). For example, as shown in FIG. 8D, the optical flow calculation unit 23, when the elevator door is a central door, if the door moving direction indicated by the motion vector is outward, the door is currently open. Therefore, the door opening / closing determination flag Fo is set to “1”. On the other hand, if the moving direction of the door indicated by the motion vector is inward, there is a high possibility that the door is currently closed, so the door opening / closing determination flag Fo is set to “0”. In addition, when the door of the elevator is not moving (when the open state is maintained or when the closed state is maintained), the movement vector does not indicate the moving direction of the door. Set Fo to “2”.
- the door opening / closing time specifying unit 24 of the door opening / closing recognition unit 11 sets these flags.
- the door open / close state is determined, and the door open / close time is specified (step ST15). That is, the door opening / closing time specifying unit 24 closes the door during a time period when both the flag Fb and the flag Fo are “0”, or during a time period when the flag Fb is “0” and the flag Fo is “2”. It is determined that the door is open during a time period when at least one of the flag Fb or the flag Fo is “1”. As shown in FIG.
- the door opening / closing time specifying unit 24 sets the door index di of the time period when the door is closed to “0”, and the door index di of the time period when the door is open is
- the door index di is set to 1, 2, 3,... In the order in which the doors are opened from the start of the video.
- the background image update unit 25 of the door opening / closing recognition unit 11 receives the video of the camera 1 that changes every moment from the video acquisition unit 2, and uses the video of the door area in the video of the camera 1 to the background image registration unit 21.
- the registered background image (background image used by the background difference unit 22 at the next time) is updated (step ST16). Thereby, for example, even when the image near the door changes due to a change in illumination, the background difference processing can be adaptively performed in accordance with the change.
- FIG. 10 is a flowchart showing the processing contents of the floor recognition unit 12
- FIG. 11 is an explanatory diagram showing the processing contents of the floor recognition unit 12.
- the floor recognizing unit 12 selects an indicator region in which an indicator indicating the floor of the elevator is captured from the images in the elevator car captured by the plurality of cameras 1 (step ST21).
- the area where the indicator numbers are displayed is selected as the indicator area.
- the template image registration unit 31 of the floor recognition unit 12 registers the numeric image of each floor as a template image in the selected indicator region (step ST22). For example, in the case of an elevator that moves from the first floor to the ninth floor, as shown in FIG. “6”, “7”, “8”, “9”) are sequentially registered as template images.
- the template matching unit 32 of the floor recognition unit 12 receives a video of the camera 1 that changes from moment to moment from the video acquisition unit 2, and displays an indicator area in the video of the camera 1
- the elevator floor at each time is specified (step ST23).
- the template matching method an existing method such as normalized cross-correlation may be used, and thus detailed description thereof is omitted here.
- the template image update unit 33 of the floor recognition unit 12 receives the video of the camera 1 that changes every moment from the video acquisition unit 2, and uses the video of the indicator area in the video of the camera 1 to the template image registration unit 31.
- the registered template image (template image used by the template matching unit 32 at the next time) is updated (step ST24). Thereby, for example, even when an image near the indicator changes due to a change in illumination, the template matching process can be adaptively performed in accordance with the change.
- FIG. 12 is a flowchart showing the contents of the pre-processing of the person tracking unit 13
- FIG. 13 is a flowchart showing the contents of the post-processing of the person tracking unit 13.
- the camera calibration unit 42 When the camera calibration unit 42 receives the image of the calibration pattern photographed by each camera 1 from the image acquisition unit 2, the camera calibration unit 42 analyzes the degree of distortion of the image of the calibration pattern and analyzes the camera parameters of each camera 1. (For example, parameters relating to lens distortion, focal length, optical axis, and image center) are calculated (step ST32). Since the camera parameter calculation method is a well-known technique, a detailed description thereof will be omitted.
- the camera calibration unit 42 calculates the installation positions and installation angles of the plurality of cameras 1, after the plurality of cameras 1 are installed in the upper part of the elevator car, the plurality of cameras 1 are known in size.
- the same calibration pattern is simultaneously photographed (step ST33). For example, as shown in FIG. 14, a checker flag pattern is laid on the floor in the basket as a calibration pattern, and a plurality of cameras 1 photograph the checker flag pattern at the same time.
- the position and angle from the reference point in the cage (for example, the entrance of the cage) is measured as an offset with respect to the calibration pattern laid on the floor in the cage, and the inner dimensions of the cage are measured. .
- the calibration pattern is a checker flag pattern laid on the floor in the basket. .
- the size of the pattern drawn on the floor is measured in advance.
- an image of an unmanned basket may be taken and four corners of the floor and three corners of the ceiling may be selected. In this case, the inner dimension of the basket is measured.
- the camera calibration unit 42 uses the images of the calibration patterns and the camera parameters of the plurality of cameras 1 to The installation positions and installation angles of the plurality of cameras 1 with respect to the reference point in the basket are calculated (step ST34). Specifically, for example, when a black and white checker flag pattern is used as the calibration pattern, the camera calibration unit 42 calculates a relative position and a relative angle of the camera 1 with respect to the checker patterns photographed by the plurality of cameras 1. To do.
- the reference point in the car is added.
- the installation positions and installation angles of the plurality of cameras 1 are calculated.
- a plurality of cameras 1 with respect to the reference point in the cage are determined from the inner dimensions of the cage that are measured in advance. Calculate the installation position and installation angle. In this case, it is possible to automatically obtain the installation position and installation angle of the camera 1 simply by installing the camera 1 in the basket.
- the plurality of cameras 1 repeatedly captures an area in the elevator car that is actually in operation.
- the video acquisition unit 2 acquires videos in the elevator car taken by the plurality of cameras 1 from time to time (step ST41).
- the video correction unit 43 of the person tracking unit 13 uses the camera parameters calculated by the camera calibration unit 42 every time the video captured by the multiple cameras 1 is acquired from the video acquisition unit 2.
- the distortion is corrected, and a normalized image that is a video without distortion is generated (step ST42). Note that a method for correcting image distortion is a well-known technique, and a detailed description thereof will be omitted.
- the person detection unit 44 of the person tracking unit 13 detects a characteristic part of the human body present in each normalized image as a person when the image correction unit 43 generates a normalized image of the images taken by the plurality of cameras 1. Then, the position (image coordinates) of the person on the normalized image is calculated, and the certainty factor of the person is calculated (step ST43). Then, the person detection unit 44 deletes a person detection result having an inappropriate size by applying a camera perspective filter to the image coordinates of the person.
- the image coordinates of the person indicate the center coordinates of a rectangle surrounding the region of the head.
- the certainty factor is an index that expresses how close the detected object of the person detection unit 44 is to a human (the head of the human body). The higher the certainty factor, the higher the probability of being a human, The lower the value, the lower the probability of being a human being.
- FIG. 16 is an explanatory diagram showing a human head detection process.
- FIG. 16A shows a situation in which three passengers (persons) in the car are photographed by two cameras 1 1 and 1 2 installed at diagonal positions on the ceiling in the car. Yes.
- FIG. 16 (B) by the camera 1 1 is detected head from video captured the face direction, confidence in the region of the head is a detection result represents the state of being attached.
- FIG. 16 (C) head from video captured the occipital direction is detected by the camera 1 2, confidence in the region of the head is a detection result represents the state of being attached.
- the leg of the rightmost passenger (person) in the figure is erroneously detected, and the certainty of the erroneously detected part is calculated to be low.
- a head detection method for example, a face detection method disclosed in Reference Document 1 below may be used. That is, a Haar basis pattern called “Rectangle Feature” is selected by Adaboost to obtain a large number of weak classifiers, and a value obtained by adding all of these weak classifier outputs and appropriate thresholds is used as a certainty factor. be able to. Further, as a head detection method, a road sign detection method disclosed in Reference Document 2 below may be applied to calculate the image coordinates and the certainty factor. In FIG. 16, when the person detection unit 44 detects a person, a head that is a characteristic part of the human body is detected. However, this is only an example, and for example, a shoulder, a torso, etc. May be detected.
- FIG. 17 is an explanatory diagram showing a camera perspective filter.
- the camera perspective filter includes a detection result larger than the maximum rectangular size of the human head at the point A among the human detection results at the point A on the video, and a human head at the point A. This is a filter that deletes a detection result smaller than the minimum rectangular size as a false detection.
- FIG. 17B shows how to obtain the maximum detected rectangular size and the minimum rectangular size of the human head at the point A.
- the person detection unit 44 obtains a direction vector V passing through the point A on the video and the center of the camera 1.
- the person detection unit 44 sets a maximum height (for example, 200 cm), a minimum height (for example, 100 cm), and a head size (for example, 30 cm) of a person assumed in the elevator.
- the person detection unit 44 projects the head of the tallest person on the camera 1 and defines the rectangular size on the image surrounding the projected head as the maximum detection rectangular size of the person head at the point A. .
- the head of the person with the shortest height is projected onto the camera 1, and the rectangular size on the image surrounding the projected head is defined as the minimum detected rectangular size of the person's head at point A.
- the person detection unit 44 compares the detection result of the person at point A with the maximum detection rectangle size and the minimum detection rectangle size, and If the person detection result is larger than the maximum rectangular size, or if the person detection result at point A is smaller than the minimum rectangular size, the detection result is deleted as a false detection.
- the two-dimensional movement trajectory calculation unit 45 detects individual persons from the normalized image (image frame) generated by the person correction unit 44 every moment by the video correction unit 43, and calculates the image coordinates of the individual persons. Each time, a point sequence of the image coordinates is obtained, and a two-dimensional movement trajectory of each person moving the point sequence is calculated (step ST44).
- the calculation process of the two-dimensional movement locus in the two-dimensional movement locus calculation unit 45 will be specifically described.
- FIG. 18 is a flowchart showing the calculation process of the two-dimensional movement trajectory calculation unit 45
- FIG. 19 is an explanatory diagram showing the processing contents of the two-dimensional movement trajectory calculation unit 45.
- the two-dimensional movement trajectory calculation unit 45 acquires a person detection result (person's image coordinates) in the image frame at time t calculated by the person detection unit 44, and assigns a counter to each person detection result (step ST51). ). For example, as shown in FIG. 19A, when tracking a person is started from time t, the person detection result in the image frame at time t is acquired. Here, a counter is assigned to each person detection result, and the value of the counter is initialized to “0” when tracking is started.
- the two-dimensional movement trajectory calculation unit 45 searches for the person image coordinates in the next image frame at time t + 1 shown in FIG. 19B (step ST52).
- a normalized cross-correlation method that is a known technique may be used as a method of searching for the image coordinates of a person.
- the image of the person area at time t is used as a template image, and the image coordinates of the rectangular area having the highest correlation value are obtained by the normalized cross correlation method at time (t + 1) and output.
- the correlation coefficient of the feature amount described in Reference Document 2 may be used as another method for searching for the image coordinates of a person.
- correlation coefficients of feature quantities are calculated in a plurality of partial areas included inside the person area at time t, and a vector having these as components is set as a template vector of the corresponding person.
- a vector having these as components is set as a template vector of the corresponding person.
- an area where the distance from the template vector is minimized is searched, and the image coordinates of the area are output as a person search result.
- the person tracking is performed by the method using the variance-covariance matrix of the feature amount described in Reference Document 3 below, and the person image is momentarily recorded. Coordinates may be obtained.
- the two-dimensional movement trajectory calculation unit 45 acquires a person detection result (person's image coordinates) in the image frame at time t + 1 calculated by the person detection unit 44 (step ST53). For example, it is assumed that a person detection result as shown in FIG. 19C is acquired, and the person detection result represents a state in which the person A is detected but the person B is not detected.
- the two-dimensional movement trajectory calculation unit 45 updates the tracking person information using the person image coordinates calculated in step ST52 and the person image coordinates acquired in step ST53 (step ST54).
- a person detection result of person A as shown in FIG. 19C exists around the search result of person A at time (t + 1). For this reason, as shown in FIG. 19D, the counter value of the person A is increased from “1” to “2”.
- the person detection result of the person B is around the search result of the person B in FIG. Does not exist. Therefore, as shown in FIG. 19D, the value of the person B counter is decreased from “0” to “ ⁇ 1”.
- the two-dimensional movement trajectory calculation unit 45 increments the counter value by one when the detection result exists around the search result, and decrements the counter value by one when the detection result does not exist around the search result. Try to hang. As a result, when the number of times a person is detected is large, the value of the counter becomes large. On the other hand, when the number of times a person is detected is low, the value of the counter becomes small.
- the two-dimensional movement trajectory calculation unit 45 may accumulate the certainty of person detection. For example, when there is a detection result around the search result, the two-dimensional movement trajectory calculation unit 45 cumulatively adds the certainty factor of the corresponding detection result, and when there is no detection result around the search result, Do not add. As a result, in the case of a two-dimensional movement trajectory where the number of times that a person is detected is large, the cumulative certainty factor increases.
- the two-dimensional movement trajectory calculation unit 45 performs the end determination of the tracking process (step ST55).
- the counter described in step ST54 may be used. For example, if the value of the counter obtained in step ST54 is lower than a certain threshold value, tracking is terminated as not being a person. Further, as an end determination criterion, the tracking end determination may be performed by processing the cumulative value of the certainty factor described in step ST54 with a predetermined threshold value. For example, if the cumulative value of the certainty factor is smaller than a predetermined threshold value, the tracking is ended as not being a person. By determining whether or not the tracking process is completed in this way, it is possible to avoid a phenomenon in which a non-person is tracked by mistake.
- the two-dimensional movement trajectory calculation unit 45 repeats the image template matching process of steps ST52 to ST55 for the frame image in which a person who arrives from moment to moment is detected, whereby a series of image coordinates of the individual persons that move, Represented as a column. This point sequence is calculated as a two-dimensional movement trajectory of each person who moves.
- the tracking of the person may be resumed from the time when the shielding disappears.
- the two-dimensional movement trajectory calculation unit 45 performs tracking forward (from the present to the future) with respect to the image coordinates of the person calculated by the person detection unit 44.
- the tracking may be performed backward in time (from the present to the past), and the two-dimensional movement trajectory of the person over time may be calculated.
- tracking back and forth in time it is possible to calculate the two-dimensional movement trajectory of a person without omission as much as possible. For example, in tracking a certain person, even if tracking ahead in time fails, tracking omission can be eliminated if tracking back in time succeeds.
- the two-dimensional movement trajectory graph generation unit 47 performs a division process and a connection process on the two-dimensional movement trajectory of each person to perform two-dimensional movement.
- a movement trajectory graph is generated (step ST45 in FIG. 13). That is, the two-dimensional movement trajectory graph generation unit 47 searches for a two-dimensional movement trajectory that is spatially or temporally close to the set of two-dimensional movement trajectories of individual persons calculated by the two-dimensional movement trajectory calculation unit 45. Then, processing such as division or connection is performed to generate a graph of a two-dimensional movement locus having the two-dimensional movement locus as a vertex of the graph and the connected two-dimensional movement locus as a directed side of the graph.
- FIG. 21A an example of a spatial neighborhood of the two-dimensional movement trajectory graph generation unit 47 will be described.
- a two-dimensional movement locus existing in the spatial vicinity of the end point T1E of the two-dimensional movement locus T1 is within a certain distance range (for example, within 20 pixels) centered on the end point T1E. )
- a two-dimensional movement trajectory in which the shortest distance from the end point T1E of the two-dimensional movement trajectory T1 is within a certain distance range.
- the start point T2S of the two-dimensional movement locus T2 exists within a certain distance range from the end point T1E of the two-dimensional movement locus T1, and the spatial vicinity of the end point T1E of the two-dimensional movement locus T1. It can be said that there is a starting point T2S of the two-dimensional movement locus T2. Further, since the shortest distance d between the end point T1E of the two-dimensional movement locus T1 and the two-dimensional movement locus T3 is within a certain distance range, the two-dimensional movement locus T3 is in the spatial vicinity of the end point T1E of the two-dimensional movement locus T1. It can be said that it exists.
- the two-dimensional movement locus T4 since the starting point of the two-dimensional movement locus T4 is away from the end point T1E of the two-dimensional movement locus T1, the two-dimensional movement locus T4 does not exist in the spatial vicinity of the two-dimensional movement locus T1.
- the end point of the two-dimensional movement locus T1 is set. If the time interval
- the two-dimensional movement locus T2 does not exist in the temporal vicinity of the two-dimensional movement locus T1.
- an example of the spatial neighborhood and the temporal neighborhood of the end point T1E of the two-dimensional movement trajectory T1 has been described, but the spatial neighborhood and the temporal neighborhood of the start point of the two-dimensional movement trajectory can be similarly defined.
- the two-dimensional movement trajectory graph generation unit 47 is a case where another two-dimensional movement trajectory A exists in the spatial vicinity and the temporal vicinity of the starting point S of a certain two-dimensional movement trajectory calculated by the two-dimensional movement trajectory calculation unit 45.
- the two-dimensional movement trajectory A is divided in the vicinity of the starting point S.
- the starting point of the two-dimensional movement locus T1 is 2. It exists in the vicinity of the dimension movement locus T2.
- the two-dimensional movement trajectory graph generation unit 47 divides the two-dimensional movement trajectory T2 near the start point of the two-dimensional movement trajectory T1, and newly generates a two-dimensional movement trajectory T2 and a two-dimensional movement trajectory T3.
- a set ⁇ T1, T2, T4, T6, T7, T3 ⁇ of the two-dimensional movement trajectory shown in (B) is acquired.
- the two-dimensional movement trajectory graph generation unit 47 has another two-dimensional movement trajectory A in the spatial vicinity and temporal vicinity of the end point S of a certain two-dimensional movement trajectory calculated by the two-dimensional movement trajectory calculation unit 45.
- the two-dimensional movement trajectory A is divided near the end point S.
- the end point of the two-dimensional movement trajectory calculation T1 exists near the two-dimensional movement trajectory calculation T4. Therefore, the two-dimensional movement locus graph generation unit 47 divides the two-dimensional movement locus T4 near the end point of the two-dimensional movement locus T1, and newly generates a two-dimensional movement locus T4 and a two-dimensional movement locus T5.
- a set ⁇ T1, T2, T4, T6, T7, T3, T5 ⁇ of the two-dimensional movement locus shown in C) is acquired.
- the two-dimensional movement trajectory graph generation unit 47 makes another two-dimensional movement trajectory in the spatial vicinity and temporal vicinity of the end point of a certain two-dimensional movement trajectory A with respect to the set of two-dimensional movement trajectories acquired by the trajectory division process.
- the start point of B exists, the two corresponding two-dimensional movement trajectories A and B are connected.
- the two-dimensional movement trajectory graph generation unit 47 sets each two-dimensional movement trajectory as the vertex of the graph, and sets the connected two-dimensional movement trajectory pair as the directed side of the graph, thereby generating the two-dimensional movement trajectory graph. get.
- FIG. 20C it is assumed that the following information is obtained by the trajectory division process and the trajectory link process.
- a set of two-dimensional movement trajectories connected to T1 ⁇ T5 ⁇
- a set of two-dimensional movement trajectories connected to T2 ⁇ T1, T3 ⁇
- a set of two-dimensional movement trajectories connected to T3 ⁇ T4, T6 ⁇
- a set of two-dimensional movement trajectories connected to T4 ⁇ T5 ⁇
- a set of two-dimensional trajectories connected to T5 ⁇ (empty set) ⁇
- a set of two-dimensional movement trajectories linked to T6 ⁇ T7 ⁇
- a set of two-dimensional movement trajectories connected to T7 ⁇ (empty set) ⁇
- the two-dimensional movement trajectory graph generation unit 47 uses the two-dimensional movement trajectories T1 to T7 as the vertices of the graph, and the two-dimensional movement trajectory pairs (T1, T5), (T2, T1), (T2, T3). ), (T3, T4), (T3, T6), (T4, T5), and (
- the two-dimensional movement trajectory graph generation unit 47 not only connects the two-dimensional movement trajectories in the direction of increasing time (toward the future) but also generates a graph in the direction of decreasing time (toward the past). Also good. In this case, connection is made from the end point of each two-dimensional movement trajectory toward the start point.
- a two-dimensional movement trajectory graph having the following information is generated by trajectory division processing and trajectory connection processing.
- a set of two-dimensional movement trajectories linked to T7 ⁇ T6 ⁇
- a set of two-dimensional movement trajectories connected to T6 ⁇ T3 ⁇
- a set of two-dimensional movement trajectories connected to T5 ⁇ T4, T1 ⁇
- a set of two-dimensional movement trajectories connected to T4 ⁇ T3 ⁇
- a set of two-dimensional movement trajectories connected to T3 ⁇ T2 ⁇
- a set of two-dimensional movement trajectories connected to T2 ⁇ (empty set) ⁇
- a set of two-dimensional movement trajectories connected to T1 ⁇ T2 ⁇
- the two-dimensional movement trajectory graph generation unit 47 can hold information on a plurality of movement paths of a person by generating a two-dimensional movement trajectory graph.
- the trajectory stereo unit 48 searches the two-dimensional movement trajectory graph to calculate a plurality of two-dimensional movement trajectory candidates, and a camera calibration unit.
- stereo matching between the candidates for the two-dimensional movement locus in each image is performed, and the two-dimensional movement locus
- the candidate matching rate is calculated, and the three-dimensional movement trajectory of each person is calculated from the candidates of the two-dimensional movement trajectory whose matching rate is equal to or greater than the specified value (step ST46 in FIG. 13).
- FIG. 22 is a flowchart showing the processing contents of the trajectory stereo unit 48.
- 23 is an explanatory diagram showing a search process of a two-dimensional movement trajectory graph in the trajectory stereo unit 48
- FIG. 24 is an explanatory diagram showing a calculation process of a matching rate of the two-dimensional movement trajectory
- FIG. It is explanatory drawing which shows a wrap.
- a method for enumerating candidates for a two-dimensional movement locus by searching a two-dimensional movement locus graph will be described.
- a two-dimensional movement trajectory graph G composed of the two-dimensional movement trajectories T1 to T7 is obtained, and the two-dimensional movement trajectory graph G has the following graph information.
- a set of two-dimensional movement trajectories connected to T1 ⁇ T5 ⁇
- a set of two-dimensional movement trajectories connected to T2 ⁇ T1
- a set of two-dimensional trajectories connected to T5 ⁇ (empty set) ⁇
- a set of two-dimensional movement trajectories linked to T6 ⁇ T7 ⁇
- a set of two-dimensional movement trajectories connected to T7 ⁇ (empty set) ⁇
- the trajectory stereo unit 48 searches the two-dimensional movement trajectory graph G and lists all the connected two-dimensional movement trajectory candidates.
- the following two-dimensional movement trajectory candidates are calculated.
- ⁇ Two-dimensional movement trajectory candidate A ⁇ T2, T3, T6, T7 ⁇ ⁇
- Two-dimensional movement trajectory candidate B ⁇ T2, T3, T4, T5 ⁇
- Two-dimensional movement trajectory candidate C ⁇ T2, T1, T5 ⁇
- the trajectory stereo unit 48 acquires one two-dimensional movement trajectory corresponding to the camera images of the plurality of cameras 1 (step ST61), and calculates a time for which one two-dimensional movement trajectory overlaps each other (step ST61). Step ST62).
- the overlapping time calculation process will be described in detail.
- FIG. 24 (a) virtually represents a situation where the two-dimensional movement trajectories for the person A and the person B are calculated, where ⁇ 1 is the two-dimensional movement trajectory of the person A in the video of the camera 1 ⁇ , and ⁇ 2 is It is a two-dimensional movement trajectory of the person B in the image of the camera 1 ⁇ . Further, ⁇ 1 is a two-dimensional movement locus of the person A in the image of the camera 1 ⁇ , and ⁇ 2 is a two-dimensional movement locus of the person B in the image of the camera 1 ⁇ .
- the trajectory stereo unit 48 acquires the two-dimensional movement trajectory ⁇ 1 and the two-dimensional movement trajectory ⁇ 1 shown in FIG.
- Xa1 (t) and Xb1 (t) are the two-dimensional image coordinates of the person A at time t.
- the two-dimensional movement locus ⁇ 1 indicates that image coordinates are recorded from time T1 to T2, and the two-dimensional movement locus ⁇ 1 indicates that image coordinates are recorded from time T3 to T4.
- FIG. 25 shows the recording times of the two two-dimensional movement trajectories ⁇ 1 and ⁇ 1.
- the two-dimensional movement trajectory ⁇ 1 has recorded image coordinates from time T1 to T2, while the two-dimensional movement trajectory ⁇ 1 Image coordinates are recorded from time T3 to T4.
- this time is calculated by the locus stereo section 48.
- the trajectory stereo unit 48 uses the installation position and installation angle of each camera 1 calculated by the camera calibration unit 42 to overlap each other. At the time, stereo matching between the point sequences forming the corresponding two-dimensional movement trajectory is performed to calculate the distance between the point sequences (step ST63).
- the trajectory stereo unit 48 determines the installation positions and the installation angles of the two cameras 1 ⁇ and 1 ⁇ calculated by the camera calibration unit 42 at all overlapping times t. used, in conjunction with determining the straight line passing through the center and the image coordinates of the camera 1 ⁇ Xa1 (t) Va1 ( t), obtaining the linear Vb1 (t) passing through the center of the camera 1 beta and image coordinates Xb1 a (t).
- the trajectory stereo unit 48 calculates the intersection of the straight line Va1 (t) and the straight line Vb1 (t) as the three-dimensional position Z (t) of the person, and at the same time, the distance between the straight line Va1 (t) and the straight line Vb1 (t). d (t) is calculated.
- FIG. 24B shows a case where the straight line Va1 (t) and the straight line Vb1 (t) intersect, but in reality, the straight line Va1 (t) and the straight line Va1 (t) In many cases, the straight lines Vb1 (t) are only close and do not intersect. In such a case, the distance d (t) of the line segment connecting the straight line Va1 (t) and the straight line Vb1 (t) with the shortest distance may be obtained, and the midpoint thereof may be obtained as the intersection Z (t). . Alternatively, the distance d (t) and the intersection Z (t) between two straight lines may be calculated by the “optimum correction” method disclosed in Reference Document 4 below.
- a certain threshold for example, 15 cm
- the number of times the straight lines intersect within the overlap time is calculated as the matching rate.
- the matching rate may be calculated by combining the above calculation methods.
- the two-dimensional movement trajectory ⁇ 1 and the two-dimensional movement trajectory ⁇ 2 are two-dimensional movement trajectories of different persons A and B, if stereo matching of the two-dimensional movement trajectory ⁇ 1 and the two-dimensional movement trajectory ⁇ 2 is performed, a certain time In some cases, straight lines may intersect accidentally, but the straight lines do not intersect at most times, and the average of the reciprocal of the distance d (t) becomes a small value. For this reason, the matching rate between the two-dimensional movement locus ⁇ 1 and the two-dimensional movement locus ⁇ 2 becomes a low value. Conventionally, as shown in FIG.
- stereo matching between two-dimensional movement trajectories over a certain period of time eliminates the ambiguity of stereo vision and makes it possible to accurately obtain a three-dimensional movement trajectory of a person.
- the trajectory stereo unit 48 compares the matching rate with a predetermined threshold (step ST65).
- the trajectory stereo unit 48 performs the three-dimensional time from the two-dimensional movement trajectory in each video overlapping the two-dimensional movement trajectory in each video.
- the movement trajectory is calculated (the three-dimensional position of the time when the two-dimensional movement trajectory overlaps in each image can be estimated by performing normal stereo matching.
- the three-dimensional movement locus is filtered to remove the erroneously estimated three-dimensional movement locus (step ST66).
- the trajectory stereo unit 48 may erroneously calculate the three-dimensional movement trajectory of the person because the person detection unit 44 erroneously detects the person, for example, the three-dimensional position Z (t) of the person. Does not meet the following conditions (a) to (c), the three-dimensional movement trajectory is discarded as not being the original human trajectory.
- the three-dimensional movement locus at an extremely low position is discarded as being erroneously detected.
- the three-dimensional movement trajectory of the person image reflected in the mirror installed in the basket is discarded as not being a person trajectory.
- an unnatural three-dimensional movement trajectory that changes rapidly in the vertical and horizontal directions according to the condition (c) is discarded as not being a human trajectory.
- the trajectory stereo unit 48 forms two two-dimensional movement trajectories at non-overlapping times using the three-dimensional position of the time when the two-dimensional movement trajectories in each video overlap.
- the three-dimensional movement trajectory of each person is estimated (step ST67).
- the average of the person's height during the overlapping time is calculated. Then, using the average of the heights, the three-dimensional movement trajectory of the person in the non-overlapping time is estimated.
- the other camera calculates the two-dimensional movement trajectory of the person, and the two-dimensional movement trajectory before and after the occlusion.
- the trajectory stereo unit 48 can calculate the three-dimensional movement trajectory of the person. If the calculation of the matching rate is completed for all pairs of two-dimensional movement trajectories, the processing of the trajectory stereo unit 48 ends, and the process proceeds to the processing of the three-dimensional movement trajectory calculation unit 49 (step ST68).
- the three-dimensional movement trajectory graph generation unit 49 When the trajectory stereo unit 48 calculates the three-dimensional movement trajectory of each person, the three-dimensional movement trajectory graph generation unit 49 generates a three-dimensional movement trajectory graph by performing division processing and connection processing on the three-dimensional movement trajectory. (Step ST47). That is, the three-dimensional movement trajectory graph generation unit 49 searches for a three-dimensional movement trajectory that is spatially or temporally close to the set of three-dimensional movement trajectories of individual persons calculated by the trajectory stereo unit 48, and performs division or By performing processing such as connection, a graph of a three-dimensional movement locus is generated with the three-dimensional movement locus as the vertex of the graph and the connected three-dimensional movement locus as the directed side of the graph.
- FIG. 27A for example, a three-dimensional movement locus existing in the spatial vicinity of the end point L1E of the three-dimensional movement locus L1 is within a certain distance range (for example, within 25 cm) centered on the end point L1E.
- a certain distance range for example, within 25 cm
- the start point L2S of the three-dimensional movement locus L2 exists within a certain distance range from the end point L1E of the three-dimensional movement locus L1, and the spatial vicinity of the end point L1E of the three-dimensional movement locus L1. It can be said that there is a three-dimensional movement locus L2. Further, since the shortest distance d between the end point L1E of the three-dimensional movement locus L1 and the three-dimensional movement locus L3 is within a certain distance range, the three-dimensional movement locus L3 is in the spatial vicinity of the end point L1E of the three-dimensional movement locus L1. It can be said that it exists.
- the three-dimensional movement locus L4 since the start point of the three-dimensional movement locus L4 is away from the end point L1E of the three-dimensional movement locus L1, the three-dimensional movement locus L4 does not exist in the spatial vicinity of the three-dimensional movement locus T1.
- the recording time of the three-dimensional movement locus L1 shown in FIG. 27B is [t1 t2] and the recording time of the three-dimensional movement locus L2 is [t3 t4], the recording time of the end point of the three-dimensional movement locus L1. If the time interval
- exceeds a certain value, it is defined that the three-dimensional movement locus L2 does not exist in the temporal vicinity of the three-dimensional movement locus L1.
- an example of the spatial neighborhood and the temporal neighborhood of the end point L1E of the three-dimensional movement trajectory L1 has been described, but the spatial neighborhood and the temporal neighborhood of the start point of the three-dimensional movement trajectory can be defined in the same manner.
- the three-dimensional movement trajectory graph generation unit 49 generates a three-dimensional movement trajectory A when there is another three-dimensional movement trajectory A in the spatial vicinity and the temporal vicinity of the start point S of a certain three-dimensional movement trajectory calculated by the trajectory stereo unit 48.
- the movement locus A is divided in the vicinity of the starting point S.
- FIG. 26A is a schematic view of the inside of the elevator as viewed from above, and shows the entrance of the elevator, the entrance / exit area, and the three-dimensional movement trajectories L1 to L4. In the case of FIG.
- the starting point of the three-dimensional movement locus L2 exists in the vicinity of the three-dimensional movement locus L3. Therefore, the three-dimensional movement locus graph generation unit 49 divides the three-dimensional movement locus L3 in the vicinity of the start point of the three-dimensional movement locus L2 to newly generate the three-dimensional movement locus L3 and the three-dimensional movement locus L5, and FIG. A set of three-dimensional movement trajectories shown in (B) is acquired.
- the three-dimensional movement trajectory graph generation unit 49 when another three-dimensional movement trajectory A exists in the spatial vicinity and temporal vicinity of the end point S of a certain three-dimensional movement trajectory calculated by the trajectory stereo unit 48, The three-dimensional movement trajectory A is divided near the end point S.
- the end point of the three-dimensional movement locus L5 exists near the three-dimensional movement locus L4. Therefore, the three-dimensional movement locus graph generation unit 49 divides the three-dimensional movement locus L4 near the end point of the three-dimensional movement locus L5 to newly generate the three-dimensional movement locus L4 and the three-dimensional movement locus L6, and FIG. A set of three-dimensional movement trajectories L1 to L6 shown in (C) is acquired.
- the three-dimensional movement trajectory graph generation unit 49 performs another three-dimensional movement on the set of three-dimensional movement trajectories acquired by the trajectory division process in the spatial vicinity and temporal vicinity of the end point of a certain three-dimensional movement trajectory A.
- the start point of the trajectory B exists, the two corresponding three-dimensional movement trajectories A and B are connected.
- the three-dimensional movement trajectory graph generation unit 49 sets each three-dimensional movement trajectory as the vertex of the graph, and sets the connected three-dimensional movement trajectory pair as the directed side of the graph, thereby generating the three-dimensional movement trajectory graph. get.
- a three-dimensional movement trajectory graph having the following information is generated by trajectory division processing and trajectory connection processing.
- a set of three-dimensional movement trajectories connected to L3 ⁇ L2, L5 ⁇
- a set of three-dimensional movement trajectories connected to L4 ⁇ L6 ⁇
- the three-dimensional movement trajectory of each person calculated by the trajectory stereo unit 48 is a plurality of three-dimensional movement trajectory fragments that are spatially or temporally interrupted due to a tracking error of the human head in the two-dimensional image. Often composed of sets. Therefore, the three-dimensional movement trajectory graph generation unit 49 obtains a three-dimensional movement trajectory graph by performing division processing and connection processing on these three-dimensional movement trajectories, thereby holding information on a plurality of movement paths of the person. Can do.
- the trajectory combination estimation unit 50 searches for the 3D movement trajectory graph and determines the 3D movement trajectory from the entrance to the exit of each person. Candidates are calculated, and an optimal combination of three-dimensional movement trajectories is estimated from the candidates for the three-dimensional movement trajectories. The number of persons at each time is calculated (step ST48).
- FIG. 28 is a flowchart showing the processing contents of the trajectory combination estimation unit 50
- FIG. 29 is an explanatory diagram showing the processing contents of the trajectory combination estimation unit 50.
- FIG. 29A is a view of the elevator as viewed from above.
- the trajectory combination estimation unit 50 sets an entrance / exit area of a person at a place to be a monitoring target area (step ST71).
- the entrance / exit area is used as a criterion for determining the entrance / exit of a person.
- an entrance / exit area is virtually set near the entrance in the elevator car.
- the head movement locus starts from the entrance / exit area set near the entrance of the elevator, it can be determined that the user is riding from the corresponding floor. Further, if the movement locus ends in the entrance / exit area, it can be determined that the user has got off the floor.
- the trajectory combination estimation unit 50 searches the three-dimensional movement trajectory graph generated by the three-dimensional movement trajectory graph generation unit 49, and satisfies each of the following entrance conditions and exit conditions within the analysis target time. Candidates for the three-dimensional movement trajectory of the person (three-dimensional movement trajectory from entering the monitoring target area to leaving) are calculated (step ST72).
- Entrance condition The direction of the three-dimensional movement trajectory is directed from the door to the interior of the elevator (2) Entrance condition: The start point position of the three-dimensional movement trajectory is in the entrance / exit area (3) Entrance condition: door opening / closing The door index di at the start point time of the three-dimensional movement trajectory set by the recognition unit 11 is not “0”
- Exit condition (1) Exit condition: the direction of the three-dimensional movement trajectory is from the inside of the elevator toward the door (2) Exit condition: the end point position of the three-dimensional movement trajectory is in the entrance / exit area (3) Exit condition: door opening / closing The door index di at the end time of the three-dimensional movement trajectory set by the recognition unit 11 is not “0”, and the door index di is different from the time of entry.
- the three-dimensional movement trajectory of each person is as follows.
- the three-dimensional movement trajectory graph G is composed of three-dimensional movement trajectories L1 to L6, and the three-dimensional movement trajectory graph G has the following information.
- a set of three-dimensional movement trajectories connected to L1 ⁇ L2, L3 ⁇
- the door indexes di of the three-dimensional movement trajectories L1, L2, L3, L4, L5, and L6 are assumed to be 1, 2, 2, 4, 3, and 3, respectively.
- the three-dimensional movement trajectory L3 is a three-dimensional movement trajectory obtained by mistake due to a person head tracking error or a person occlusion. For this reason, there are two three-dimensional movement trajectories linked to the three-dimensional movement trajectory L1 (three-dimensional movement trajectories L2, L3), and ambiguity occurs in the movement path of the person.
- the three-dimensional movement locus satisfying the entrance condition is the three-dimensional movement locus L1 and the three-dimensional movement locus L4, and the three-dimensional movement locus satisfying the exit condition is the three-dimensional movement locus L5.
- a three-dimensional movement locus L6 the trajectory combination estimation unit 50 starts from the three-dimensional movement trajectory L1 and searches the three-dimensional movement trajectory graph G in the order of L1 ⁇ L2 ⁇ L6, thereby exiting from entering the monitoring target area. Can be obtained three-dimensional movement trajectory candidates ⁇ L1, L2, L6 ⁇ . Similarly, the trajectory combination estimation unit 50 searches the three-dimensional movement trajectory graph G to obtain three-dimensional movement trajectory candidates from entry to exit to the following three monitored areas.
- Trajectory candidate A ⁇ L1, L2, L6 ⁇
- Trajectory candidate B ⁇ L4, L5 ⁇
- Trajectory candidate C ⁇ L1, L3, L5 ⁇
- the trajectory combination estimation unit 50 calculates a cost function that takes into account the positional relationship between persons, the number of persons, the accuracy of stereo vision, and the like from among candidates for a three-dimensional movement trajectory from entry to exit from the monitoring target area. And the combination of the three-dimensional movement trajectory that maximizes the cost function is obtained to obtain the correct three-dimensional movement trajectory and the number of persons (step ST73).
- the “number of three-dimensional movement locus overlaps” is calculated as “1”.
- trajectory candidate is as follows.
- the trajectory combination estimation unit 50 obtains an optimal combination of the three-dimensional movement trajectories of the person starting from the entrance / exit area in the monitoring target area and ending in the entrance / exit area
- the trajectory combination estimation unit 50 is specified by the three-dimensional movement trajectory and the floor recognition unit 12.
- the person movement history (“how many people got on which floor and which floor got off”) indicating the boarding floor and the getting-off floor of each person. Is calculated (step ST74).
- the stop floor information specified by the floor recognition unit 12 is associated with the stop floor information.
- the stop floor information may be separately acquired and associated with the control device of the elevator.
- the trajectory combination estimation unit 50 defines a cost function that takes into account the positional relationship between persons, the number of persons, the accuracy of stereo vision, and the like, and obtains a combination of three-dimensional movement trajectories that maximizes the cost function.
- the three-dimensional movement trajectory and the number of persons in the monitoring target area can be obtained.
- the number of passengers is large and the structure of the 3D movement trajectory graph is complex, the number of 3D movement trajectory candidates and their combinations are very large, making it impossible to process in a realistic time. There is.
- the trajectory combination estimation unit 50 defines a likelihood function in consideration of the positional relationship between persons, the number of persons, and the accuracy of stereo vision, and MCMC (Markov Chain Monte Carlo) or GA (Genetic).
- MCMC Markov Chain Monte Carlo
- GA Genetic
- An optimal combination of three-dimensional movement trajectories may be obtained by using a probabilistic optimization method such as Algorithm (genetic algorithm).
- the trajectory combination estimation unit 50 searches for the 3D movement trajectory graph and determines the individual person who satisfies the above-described entrance condition and exit condition.
- Y) may be defined as follows.
- Y) Lovr (w
- L ovr is a likelihood function formulated that “three-dimensional movement trajectories do not overlap in a three-dimensional space”
- L num is formulated that “there are as many three-dimensional movement trajectories as possible”.
- the likelihood function, L str is a likelihood function that formulates that “stereoscopic accuracy of the three-dimensional movement locus is high”.
- O (y i , y j ) is obtained as follows.
- the function g is defined as follows.
- F1 i Period in which a three-dimensional movement locus is estimated by stereo vision
- F2 i Period in which a three-dimensional movement locus is estimated by monocular vision
- F3 i Period in which no three-dimensional movement locus is observed from any camera 1
- the stereo cost S (y i ) is as follows.
- the input to the algorithm is a set Y of three-dimensional movement trajectories Y, an initial division w init , and the number of samplings N mc , and an optimum division w opt is obtained as an output of the algorithm.
- m is sampled according to the probability distribution ⁇ (m).
- the probability distribution ⁇ (m) may be set as a uniform distribution.
- the candidate w ′ is sampled according to the proposal distribution q (w ′
- the proposal distribution of the proposal algorithm defines three types of “generation”, “annihilation”, and “swap”.
- step 3 u is sampled from the uniform distribution Unif [0 1].
- the candidate w ′ is accepted or rejected based on u and the acceptance probability A (w, w ′).
- the acceptance probability A (w, w ′) is given by the following equation.
- a (w, w ') Min (1, q (w
- step 5 the optimal w opt that maximizes the likelihood function is stored.
- (A) Generation A single three-dimensional movement locus y is selected from the set w ⁇ and added to w + .
- O (y, y j ) is the above-described overlap cost, and takes “1” when the trajectories y and y j completely overlap, and takes “0” when they do not overlap at all.
- c4 is a positive constant.
- (C) Swap A three-dimensional movement locus having a high stereo cost and a three-dimensional movement locus having a low stereo cost are exchanged. That is, one three-dimensional movement locus y is selected from the set w +, and one three-dimensional movement locus z is selected from the set w ⁇ , and the three-dimensional movement locus y and the three-dimensional movement locus z are exchanged. Specifically, first, a high-stereo cost is selected as the three-dimensional movement locus y. Next, as the three-dimensional movement locus z, the one that overlaps with the three-dimensional movement locus y and has a low stereo cost is selected with priority.
- the video analysis unit 3 calculates the movement history of each person as described above, the video analysis unit 3 gives the movement history to a group management system (not shown) that manages the operation of a plurality of elevators. As a result, the group management system can always perform optimum elevator group management based on the movement history obtained from each elevator.
- the video analysis unit 3 outputs the movement history of each person to the video analysis result display unit 4 as necessary.
- the video analysis result display unit 4 receives the movement history of each person from the video analysis unit 3, the video analysis result display unit 4 displays the movement history of each person on a display (not shown).
- FIG. 30 is an explanatory diagram showing a screen configuration example of the video analysis result display unit 4.
- the main screen of the video analysis result display unit 4 includes a screen by the video display unit 51 that displays videos taken by a plurality of cameras 1 and a time-series graph display of person movement history.
- the screen is composed of a series information display unit 52.
- the video display unit 51 of the video analysis result display unit 4 is a video in the elevator car (images of the camera (1), video of the camera (2), indicator video for floor recognition) taken by the plurality of cameras 1.
- the analysis result of the video analysis unit 3 is displayed synchronously, and the head detection result, the two-dimensional movement trajectory and the like, which are the analysis results of the video analysis unit 3, are superimposed and displayed on the video. Since the video display unit 51 displays a plurality of videos in synchronization with each other, a user such as a building maintenance worker can know the status of a plurality of elevators at the same time, and the head detection result, two-dimensional movement trajectory, etc. The video analysis results can be visually grasped.
- the time series information display unit 52 of the video analysis result display unit 4 makes the person movement history and the car movement history calculated by the three-dimensional movement trajectory calculation unit 46 of the person tracking unit 13 a time series graph and synchronizes with the video. indicate.
- FIG. 31 is an explanatory diagram showing a detailed example of the screen of the time-series information display unit 52. In FIG. 31, time is plotted on the horizontal axis and floors are plotted on the vertical axis, and the movement history of each elevator (car) is displayed as a graph in time series. In the screen example of FIG.
- the time-series information display unit 52 has a video playback / stop button for playing back / stopping a video, a video progress bar for randomly seeking video, a check box for selecting a basket number to be displayed, A user interface such as a pull-down menu for selecting the display time unit is displayed.
- a bar indicating time synchronization with the video is displayed on the graph, and a time zone in which the door is open is indicated by a bold line.
- the text “F15-D10-J0-K3” is displayed in the vicinity of the thick line indicating the door opening time, the floor, the door opening time, the number of passengers, and the number of passengers getting off.
- This text “F15-D10-J0-K3” is an abbreviation that the floor of the cage is the 15th floor, the door opening time is 10 seconds, the number of passengers is 0, and the number of passengers getting off is 3.
- the time series information display unit 52 displays the video analysis results in time series, so that a user such as a building maintenance worker can change information such as passengers in a plurality of elevators and door opening / closing times over time. You can know visually.
- the summary display unit 53 of the video analysis result display unit 4 obtains statistics of the person movement history calculated by the three-dimensional movement trajectory calculation unit 46, and as a statistical result of the person movement history, each car and each floor in a certain time zone are obtained. List passengers.
- FIG. 32 is an explanatory view showing a screen example of the summary display section 53.
- the vertical axis represents the floor and the horizontal axis represents each car number.
- the number of passengers on each car and each floor in a certain time zone time zone from 7 AM to 10:00 AM
- the totals are displayed side by side.
- the summary display unit 53 displays a list of each car and passengers on each floor in a certain period of time, so that the user can grasp the operation status of the elevator in the entire building at a glance.
- a portion for displaying the total number of passengers is a button, and when the user presses each button, a corresponding detailed display screen of the operation related information display unit 54 is displayed in a pop-up. Can do.
- the operation related information display unit 54 of the video analysis result display unit 4 refers to the person movement history calculated by the three-dimensional movement trajectory calculation unit 46 and displays detailed information of the person movement history. That is, for a specified time zone, floor, and elevator car number, details related to elevator operation such as the number of people who have moved to other floors, the number of people who have moved from other floors, and the waiting time of passengers Display information.
- FIG. 33 is an explanatory diagram showing a screen example of the operation related information display unit 54. The following information is displayed in each of the areas (A) to (F) in the screen of FIG.
- Display The operation related information display unit 54 displays detailed information on the analyzed person movement history, so that the user can select each floor or each It is possible to view the individual information of Gore, it is possible to analyze the details of the cause of such problems of elevator service.
- the sort data display unit 55 sorts and displays the person movement history calculated by the three-dimensional movement trajectory calculation unit 46. That is, the analysis result of the video analysis unit 3 is used to sort data on the door opening time, the number of passengers, waiting time, and the like, and display them in order from the upper or lower data.
- FIG. 34 is an explanatory diagram showing a screen example of the sort data display unit 55.
- the sort data display unit 55 sorts the analysis results of the video analysis unit 3 using “door open time” as a sort key, and sequentially displays the data with the door open time having a higher order.
- data of “basket number (#)”, system time (video recording time), and “door opening time” are displayed at the same time.
- the sort data display unit 55 sorts the analysis results of the video analysis unit 3 using “number of passengers” as a sort key, and displays the data with the largest number of “boarders” in order. ing.
- data of “Kago (#)”, “Time zone (for example, in units of 30 minutes)”, “Get on / off (flag indicating getting on or off)”, and “Number of passengers” are simultaneously displayed. it's shown.
- the sort data display unit 55 sorts the analysis results of the video analysis unit 3 using “the number of passengers moving” as a sort key, and sequentially sets the data with the “number of passengers moving” large in order. it's shown.
- the images of the monitoring target area captured by the plurality of cameras 1 are analyzed, and each video of each person existing in the monitoring target area is analyzed.
- a person detection unit 44 that calculates the upper position, and a two-dimensional movement trajectory calculation unit that calculates the two-dimensional movement trajectory of each individual person in each image by tracking the position on each image calculated by the person detection unit 44 45, and the three-dimensional movement trajectory calculation unit 46 performs stereo matching between the two-dimensional movement trajectories in each image calculated by the two-dimensional movement trajectory calculation unit 45 to calculate the matching rate of the two-dimensional movement trajectory.
- the configuration is such that the three-dimensional movement trajectory of each person is calculated from the two-dimensional movement trajectory whose matching rate is equal to or higher than a specified value, the monitoring target area can be obtained even in a situation where the monitoring target area is very crowded. An effect that can accurately track the person present in.
- the trajectory combination estimation unit 50 has a probability such as MCMC or GA. Since an optimal combination of three-dimensional movement trajectories is obtained using a typical optimization method, a combination of three-dimensional movement trajectory candidates can be obtained in a realistic processing time. As a result, even in a situation where the monitoring target area is very crowded, it is possible to accurately detect individual persons in the monitoring target area and to accurately track individual persons.
- the video analysis result display unit 4 displays the images of the plurality of cameras 1 and the video analysis results of the video analysis unit 3 in an easy-to-see manner, the building maintenance worker, the building owner, and other users can operate the elevator and check for malfunctions. Locations can be easily grasped, and elevator operation efficiency and maintenance work can be carried out smoothly.
- the video analysis result display unit 4 displays the video of the plurality of cameras 1 and the video analysis result of the video analysis unit 3 on a display (not shown).
- the display unit 4 displays the images of the plurality of cameras 1 and the video analysis results of the video analysis unit 3 on a display panel installed on each floor outside the elevator car, or on a display panel inside the elevator car, so that the elevator is crowded. You may make it show a condition to a passenger. Thereby, a passenger can grasp
- the monitoring target area is in the elevator car.
- the inside of a train is applied as the monitoring target area, and the degree of congestion of the train. It can also be used when measuring. It is also possible to monitor the behavior of a suspicious person by applying it to the person's movement history using a place with high security needs as a monitoring target area. In addition, it can be used for marketing and the like by analyzing the movement trajectory of a person by applying it to a station or a store.
- the landing area of the escalator when applied as a monitoring target area, the number of persons present on the landing area is counted, and the landing area is congested, for example, by performing appropriate control such as slowing down or stopping the escalator, It can also be used to avoid accidents such as a person becoming a shogi.
- Embodiment 2 FIG.
- a plurality of 3D movement trajectory graphs are searched, 3D movement trajectory candidates satisfying the entrance / exit conditions are calculated, and the 3D movement trajectory candidates from entry to exit are listed.
- the cost function is stochastically maximized with MCMC etc. to find the optimal combination of 3D movement trajectory candidates. If the structure of the 3D movement trajectory graph is complex, the entrance / exit conditions are satisfied. In some cases, the number of candidates for the three-dimensional movement locus to be increased becomes astronomical and cannot be processed within a realistic time.
- labeling is performed on the vertices of the three-dimensional movement trajectory graph (each three-dimensional movement trajectory constituting the graph), and the cost function is stochastically maximized in view of entrance / exit conditions. By doing so, the optimum combination of the three-dimensional movement trajectories is estimated within a realistic time.
- FIG. 35 is a block diagram showing the inside of the person tracking unit 13 of the person tracking apparatus according to Embodiment 2 of the present invention.
- the trajectory combination estimation unit 61 performs labeling on the vertices of the 3D movement trajectory graph generated by the 3D movement trajectory graph generation unit 49 to calculate a plurality of labeling candidates, and selects an optimal labeling candidate from the plurality of labeling candidates. A process of selecting and estimating the number of persons existing in the monitoring target area is performed.
- FIG. 36 is a flowchart showing the processing contents of the trajectory combination estimation unit 61
- FIG. 37 is an explanatory diagram showing the processing contents of the trajectory combination estimation unit 61.
- the trajectory combination estimation unit 61 sets an entrance / exit area of a person at a place to be a monitoring target area, similarly to the trajectory combination estimation unit 50 of FIG. 4 (step ST81).
- an entrance / exit area is virtually set near the entrance in the elevator car.
- the trajectory combination estimation unit 61 labels the vertices of the 3D movement trajectory graph (the 3D movement trajectory constituting the graph) with respect to the 3D movement trajectory graph generated by the 3D movement trajectory graph generation unit 49. Then, a plurality of labeling candidates are calculated (step ST82).
- the trajectory combination estimation unit 61 may search all over the three-dimensional movement trajectory graph and enumerate all possible labeling candidates. However, when the number of labeling candidates is large, the trajectory combination estimation unit 61 is determined in advance. You may make it choose a labeling candidate at random.
- a plurality of labeling candidates are calculated as follows. As shown in FIG. 37A, it is assumed that a three-dimensional movement trajectory graph having the following information is obtained.
- a set of three-dimensional movement trajectories connected to L1 ⁇ L2, L3 ⁇
- L2 is a three-dimensional movement trajectory that is erroneously obtained due to a tracking error of the human head.
- the trajectory combination estimation unit 61 calculates labeling candidates A and B as shown in FIG. 37B by performing labeling on the three-dimensional movement trajectory graph of FIG.
- the labeling candidate A is given a label with a label number from 0 to 2 to each fragment of the three-dimensional movement trajectory.
- ⁇ Label 0 ⁇ L3 ⁇
- ⁇ Label 1 ⁇ L4, L5 ⁇
- Label 2 ⁇ L1, L2, L6 ⁇
- the label 0 is defined as a set of non-person three-dimensional movement trajectories (an erroneous three-dimensional movement trajectory), and the label 1 or higher is defined as meaning a set of three-dimensional movement trajectories of each individual person.
- the labeling candidate A indicates that there are two persons (label 1 and label 2) in the monitoring target area, and the label 1 is assigned to the three-dimensional movement trajectory of a certain person (1).
- 3D movement trajectory L4 and 3D movement trajectory L5 and the three-dimensional movement trajectory of a person (2) is the three-dimensional movement trajectory L1 and the three-dimensional movement trajectory L2 to which the label 2 is attached. It shows that it is composed of a three-dimensional movement locus L6.
- the labeling candidate B is given a label with a label number from 0 to 2 to each fragment of the three-dimensional movement trajectory.
- the labeling candidate B indicates that there are two persons (label 1 and label 2) in the monitoring target area, and the label 1 is given to the three-dimensional movement trajectory of a certain person (1).
- the 3D movement trajectory of a person (2) is derived from the 3D movement trajectory L4 to which the label 2 is assigned. It shows that it is configured.
- the trajectory combination estimation unit 61 calculates a cost function that takes into account the number of persons, the positional relationship between the persons, the stereo stereoscopic accuracy, and the entry / exit conditions for the monitoring target area, for a plurality of labeling candidates, A labeling candidate that maximizes the cost function is obtained, and an optimal three-dimensional movement trajectory and the number of persons for each person are calculated (step ST83).
- the entrance / exit conditions for example, the entrance conditions and exit conditions described in the first embodiment are used.
- label 1 and label 2 are three-dimensional movement trajectories that satisfy the entry / exit conditions.
- Cost of labeling candidate B 1
- the trajectory combination estimation unit 61 selects the labeling candidate that maximizes the cost function and calculates the optimal three-dimensional movement trajectory of each individual person, the optimal three-dimensional movement trajectory and floor of the individual person are calculated.
- the floor stop floor information indicating the stop floor of the elevator
- the person movement history indicating the boarding floor and the getting-off floor of each person (“how many people get on which floor, An individual person's movement history indicating “on which floor” is calculated (step ST84).
- the stop floor information specified by the floor recognition unit 12 is associated with the stop floor information.
- the stop floor information may be separately acquired and associated with the control device of the elevator.
- the trajectory combination estimation unit 61 may perform labeling processing of the three-dimensional movement trajectory graph using a probabilistic optimization method such as MCMC or GA.
- MCMC probabilistic optimization method
- N is the number of three-dimensional movement trajectories.
- the state space w is defined as follows.
- ⁇ 0 is a set of three-dimensional movement trajectories y i not belonging to any person
- ⁇ i is a set of three-dimensional movement trajectories y i belonging to the three-dimensional movement trajectory of the i-th person
- K is This is the number of three-dimensional movement trajectories (number of persons).
- ⁇ i is composed of a plurality of connected three-dimensional movement trajectories, and can be regarded as one three-dimensional movement trajectory.
- the purpose of the trajectory combination estimation unit 61 is to determine which set from the three-dimensional movement trajectory ⁇ 0 to ⁇ K belongs to the three-dimensional movement trajectory set Y. That is, this purpose is equivalent to the problem of labeling elements of the set Y from 0 to K.
- Y) Lovr (w
- L ovr is a likelihood function formulated that “three-dimensional movement trajectories do not overlap in a three-dimensional space”, and L num “as many as possible three-dimensional movement trajectories that satisfy the entry / exit conditions”.
- L str is a likelihood function that formulates that “the accuracy of stereo vision of the three-dimensional movement locus is high”.
- the likelihood function defined as described above can be optimized using a probabilistic optimization method such as MCMC or GA.
- the trajectory combination estimation unit 61 performs labeling on the directed side of the three-dimensional movement trajectory graph generated by the three-dimensional movement trajectory graph generation unit 49 to generate a plurality of Since the labeling candidate is calculated, the optimum labeling candidate is selected from a plurality of labeling candidates, and the number of persons existing in the monitoring target area is estimated, the entrance / exit conditions are satisfied 3 Even when the number of three-dimensional movement trajectory candidates is astronomical, there is an effect that it is possible to estimate the optimal (or sub-optimal) three-dimensional movement trajectory and the number of persons within a realistic time.
- Embodiment 3 FIG.
- labeling is performed on the vertices of the three-dimensional movement trajectory graph (each three-dimensional movement trajectory constituting the graph), and the cost function in consideration of the entrance / exit conditions is stochastically maximized.
- the optimum combination of the three-dimensional movement trajectories is estimated within a realistic time.
- the number of people appearing in the video increases and the structure of the two-dimensional movement trajectory graph is complicated, the number of candidates for the three-dimensional movement trajectory fragment obtained as a result of stereoscopic vision increases astronomically. Even if the method of mode 2 is used, the processing may not be completed within a realistic time.
- the vertices of the two-dimensional movement trajectory graph are probabilistically labeled, and three-dimensional according to the label of the two-dimensional movement trajectory.
- the optimal three-dimensional movement trajectory is estimated within a realistic time by performing a stereoscopic view of the movement trajectory and evaluating a cost function of the three-dimensional movement trajectory in consideration of entrance / exit conditions.
- FIG. 38 is a block diagram showing the inside of the person tracking unit 13 of the person tracking apparatus according to Embodiment 3 of the present invention.
- a two-dimensional movement trajectory labeling unit 71 and a three-dimensional movement trajectory cost calculation unit 72 are added.
- the two-dimensional movement trajectory labeling unit 71 performs a process of calculating a plurality of labeling candidates by labeling the directed sides of the two-dimensional movement trajectory graph generated by the two-dimensional movement trajectory graph generation unit 47.
- the three-dimensional movement trajectory cost calculation unit 72 calculates a cost function related to the combination of the three-dimensional movement trajectories, selects an optimum labeling candidate from a plurality of labeling candidates, and selects a person existing in the monitoring target area. Implement a process to estimate the number of people.
- FIG. 39 is a flowchart showing the processing contents of the two-dimensional movement locus labeling unit 71 and the three-dimensional movement locus cost calculation unit 72.
- FIG. 40 shows the processing contents of the two-dimensional movement locus labeling unit 71 and the three-dimensional movement locus cost calculation unit 72. It is explanatory drawing which shows.
- the two-dimensional movement trajectory labeling unit 71 applies a vertex (two-dimensional movement trajectory constituting the graph) of the two-dimensional movement trajectory graph to the two-dimensional movement trajectory graph generated by the two-dimensional movement trajectory graph generation unit 47. Labeling is performed to calculate a plurality of labeling candidates (step ST91).
- the two-dimensional movement trajectory labeling unit 71 may search all over the two-dimensional movement trajectory graph and enumerate all possible labeling candidates. If there are a large number of labeling candidates, Labeling candidates may be selected at random in a determined number. *
- a plurality of labeling candidates are calculated as follows. As shown in FIG. 40A, it is assumed that a person X and a person Y exist in the target area, and a two-dimensional movement trajectory graph having the following information is obtained.
- the two-dimensional movement trajectory labeling unit 71 performs labeling for estimating the human movement trajectory and the number of persons on the two-dimensional movement trajectory graph of FIG. 40A (see FIG. 40B).
- the labeling candidate 1 is given a label from A to C to the two-dimensional movement trajectory of each camera video.
- the labeling candidate 1 is interpreted as follows.
- the two-dimensional movement locus of a certain person Y is the two-dimensional movement locus T1, T3, to which the label A is assigned. P1 and P2.
- the two-dimensional movement trajectory of a person X is composed of two-dimensional movement trajectories T4, T6, P4, and P5 to which a label B is attached.
- the label Z is defined as a special label, and T2, T5, P3, and P6 to which the label Z is given indicate that it is a set of two-dimensional movement trajectories that are not obtained by mistake. To do.
- the labels used here are three, A, B, and Z. However, the number of labels is not limited to this, and the number of labels may be arbitrarily increased as necessary.
- the trajectory stereo unit 48 generates a plurality of reference points in the basket calculated by the camera calibration unit 42.
- stereo matching of the two-dimensional movement trajectory to which the same label is assigned in each image is performed, and the matching rate of the candidate of the two-dimensional movement trajectory is calculated.
- a three-dimensional movement trajectory of the person is calculated (step ST92).
- ⁇ P1, P2 ⁇ By stereo-matching ⁇ P1, P2 ⁇ , the three-dimensional movement locus L1 of the label A is generated.
- a set ⁇ T4, T6 ⁇ of the two-dimensional movement trajectory assigned with the label B in the video of the camera 1 and a set ⁇ P4, P5 ⁇ of the two-dimensional movement trajectory assigned with the label A in the video of the camera 2 Is stereo-matched to generate a three-dimensional movement locus L2 of the label B.
- the three-dimensional movement trajectory cost calculation unit 72 is calculated by the trajectory stereo unit 48 described above. Considering the number of persons, the positional relationship between two persons, the stereo matching rate of the two-dimensional movement trajectory, the stereo stereoscopic accuracy, and the entry / exit conditions for the monitoring target area for a set of three-dimensional movement trajectories for a plurality of labeling candidates A cost function is calculated, a labeling candidate that maximizes the cost function is obtained, and an optimal three-dimensional movement trajectory and the number of persons for each person are calculated (step ST93).
- Cost “Number of 3D trajectories that satisfy entry / exit conditions”
- the entrance / exit conditions for example, the entrance conditions and exit conditions described in the first embodiment are used.
- label A and label B are three-dimensional movement trajectories that satisfy the entry / exit conditions.
- Cost of labeling candidate 1 2 Is calculated.
- Cost “Number of 3D trajectories that satisfy entry / exit conditions” -A x "Total overlap cost of 3D movement trajectory” + B ⁇ “Total matching rate of two-dimensional movement trajectory”
- a and b are positive constants for balancing the evaluation values.
- the matching rate of the two-dimensional movement locus and the overlap cost of the three-dimensional movement locus are those described in the first embodiment.
- the number of labeling candidates for the two-dimensional movement trajectory graph of the two-dimensional movement trajectory labeling unit 71 is increased. Therefore, it may be impossible to calculate the cost function.
- a probabilistic optimization method such as MCMC or GA
- the generation of the labeling candidate in the two-dimensional movement trajectory labeling unit 71 is generated stochastically, and the optimum or sub-optimal three-dimensional movement trajectory is generated. , The processing may be completed within a realistic time.
- the three-dimensional movement trajectory cost calculation unit 72 selects the labeling candidate that maximizes the cost function and calculates the optimal three-dimensional movement trajectory of each person.
- the floor identified by the floor recognition unit 12 stop floor information indicating the stop floor of the elevator
- the person movement history indicating the boarding floor and the exit floor of each person (“how many people are on which floor”
- An individual person's movement history indicating “on which floor he / she got off” is calculated (step ST94).
- the stop floor information specified by the floor recognition unit 12 is associated with the stop floor information.
- the stop floor information may be separately acquired and associated with the control device of the elevator.
- the two-dimensional movement trajectory labeling unit 71 labels the two-dimensional movement trajectory graph generated by the two-dimensional movement trajectory graph generation unit 47 to generate a plurality of labeling candidates. Is calculated, and the optimal labeling candidate is selected from a plurality of labeling candidates, and the number of persons existing in the monitoring target area is estimated. Thus, even when the number of labeling candidates is astronomical, there is an effect that it is possible to estimate the optimal (or quasi-optimal) three-dimensional movement trajectory and the number of persons within a realistic time.
- Embodiment 4 FIG. In the first to third embodiments, the method for measuring the person movement history of the elevator passenger is described. In this fourth embodiment, a method for using the person movement history is described.
- FIG. 41 is a block diagram showing a person tracking apparatus according to Embodiment 4 of the present invention.
- the plurality of cameras 1, the video acquisition unit 2, and the video analysis unit 3 constituting the photographing unit are the same as those in the first embodiment, the second embodiment, or the third embodiment, and thus the description thereof is omitted.
- the sensor 81 is installed outside the elevator, which is a monitoring target area, and includes, for example, a visible camera, an infrared camera, or a laser distance meter.
- the floor person detection unit 82 uses the information acquired by the sensor 81 to perform a process of measuring a movement history of a person outside the elevator.
- the car call measuring unit 83 performs processing for measuring the elevator call history.
- the group management optimization unit 84 performs an optimization process for efficiently allocating a plurality of elevator groups so that the elevator waiting time is minimized, and further calculates the simulation traffic flow when the optimum elevator group management is performed. To implement.
- the traffic flow visualization unit 85 compares the actual traffic flow measured by the video analysis unit 3, the floor person detection unit 82, and the cage call measurement unit 83 with the simulated traffic flow generated by the group management optimization unit 84, and performs animation. Execute the process of displaying in a graph.
- FIG. 42 is a flowchart showing the processing contents of the person tracking device according to the fourth embodiment of the present invention.
- the same steps as those of the person tracking apparatus according to the first embodiment are denoted by the same reference numerals as those used in FIG. 6, and the description thereof is omitted or simplified.
- the camera 1, the video acquisition unit 2, and the video analysis unit 3 calculate a person movement history inside the elevator (steps ST1 to ST4).
- the floor person detection unit 82 measures the movement history of the person outside the elevator using the sensor 81 installed outside the elevator (step ST101).
- a visible camera is used as the sensor 81 to detect and track the head of the person from the video as in the first embodiment, and the floor person detection unit 82 is a person waiting for the arrival of the elevator or a person heading for the elevator.
- the three-dimensional movement trajectory and the process of measuring the number of those persons are implemented.
- the sensor 81 is not limited to a visible camera, and may be anything that can measure human movement information, such as an infrared camera that senses heat, a laser distance meter, or a pressure-sensitive sensor spread on the floor.
- the car call measuring unit 83 measures the elevator car call history (step ST102). For example, the cage call measuring unit 83 performs a process of measuring a history of pressing an elevator call button arranged on each floor.
- the group management optimization unit 84 includes a person movement history inside the elevator obtained by the video analysis unit 3, a person movement history outside the elevator measured by the floor person detection unit 82, and an elevator call history measured by the car call measurement unit 83. And an optimization process for efficiently allocating a plurality of elevator groups so as to minimize the average or maximum elevator waiting time. Further, the result of the person movement history simulated by the computer when the optimum elevator group management is performed is calculated (step ST103).
- the elevator waiting time is the time from when a certain person arrives at the floor until the desired elevator arrives.
- the traffic flow visualization unit 85 includes the actual person movement history measured by the video analysis unit 3, the floor person detection unit 82, and the cage call measurement unit 83, and the person movement history by simulation generated by the group management optimization unit 84. Are compared with each other, and a process of displaying with an animation or a graph is performed (step ST104). For example, the traffic flow visualization unit 85 displays an elevator waiting time, a total movement amount of a person, or a movement probability per unit time in an animation on a two-dimensional cross-sectional view of a building displaying elevators and tenants, Display the elevator car movement diagram in a graph.
- the traffic flow visualization unit 85 virtually calculates the movement history of a person when the number of elevators is increased or a new elevator model is introduced by computer simulation, and the simulation results, the video analysis unit 3 and the floor person are calculated. Since the actual person movement history measured by the detection unit 82 and the car call measurement unit 83 can be displayed at the same time, by comparing the simulation result with the actual person movement history, This has the effect of verifying changes in traffic flow due to reconstruction.
- the sensor 81 is installed outside the elevator such as an elevator hall and the person movement history is measured, it is possible to completely obtain the person movement related to the elevator. There is an effect that can be done. Moreover, there is an effect of realizing optimum elevator group management based on the actually measured person movement history. In addition, by comparing the actually measured person movement history with a computer simulation, it is possible to accurately verify changes in traffic flow due to reconstruction.
- Embodiment 5 Conventionally, when an elevator wheelchair dedicated button is pressed, the elevator is preferentially dispatched. However, even when a healthy person unintentionally accidentally presses a wheelchair-specific button, the elevator is preferentially dispatched, which causes a decrease in the operation efficiency of the elevator group. Therefore, in this fifth embodiment, an efficient elevator operation is performed by recognizing a wheelchair by image processing and operating the car preferentially only when a wheelchair person exists in the floor and the elevator car. The configuration is shown.
- FIG. 43 is a block diagram showing a person tracking apparatus according to Embodiment 5 of the present invention.
- the plurality of cameras 1, the video acquisition unit 2, the video analysis unit 3, the sensor 81, the floor person detection unit 82, and the basket call measurement unit 83 constituting the photographing unit are the same as those in the fourth embodiment. Description is omitted.
- the wheelchair detection unit 91 performs a process of identifying a wheelchair and a person sitting in the wheelchair from the persons calculated by the video analysis unit 3 and the floor person detection unit 82.
- FIG. 44 is a flowchart showing the processing contents of the person tracking device according to the fifth embodiment of the present invention.
- the same steps as those of the person tracking apparatus according to the first and fourth embodiments are denoted by the same reference numerals as those used in FIGS. 6 and 42, and the description thereof is omitted or simplified.
- the camera 1, the video acquisition unit 2, and the video analysis unit 3 calculate a person movement history inside the elevator (steps ST1 to ST4).
- the floor person detection unit 82 measures the movement history of the person outside the elevator using the sensor 81 installed outside the elevator (step ST101).
- the car call measuring unit 83 measures the elevator car call history (step ST102).
- the wheelchair detection unit 91 performs a process of identifying the wheelchair and the person sitting in the wheelchair from the persons calculated by the video analysis unit 3 and the floor person detection unit 82 (step ST201). For example, a wheelchair image pattern is machine-learned by an image processing using an Adaboost algorithm, a support vector machine, or the like, and a wheelchair existing in a car or a floor is identified from a camera image based on the learned pattern. Further, an electronic tag such as RFID (Radio Frequency IDentification) may be attached to the wheelchair in advance to detect that the wheelchair is approaching the elevator platform.
- RFID Radio Frequency IDentification
- the group management optimization unit 84 preferentially dispatches the elevator to the person in the wheelchair (step ST202). For example, when a person sitting in a wheelchair presses an elevator call button, the group management optimization unit 84 preferentially dispatches the elevator to that floor and does not stop other than the destination floor. Carry out operation. In addition, when a person in a wheelchair tries to enter the car, the time when the elevator door is open may be set longer, or the time when the door is closed may be set longer.
- the elevator was preferentially dispatched, so the operating efficiency of multiple elevators was lowered.
- the wheelchair detection unit 91 detects the wheelchair, and dispatches the elevator to the corresponding floor preferentially, so that the elevator group management is dynamically performed according to the detection state of the wheelchair. Since it comprised so, an elevator operation more efficient than before can be performed. In addition, there is an effect that it is not necessary to prepare a wheelchair button.
- the detection of the wheelchair has been described.
- the wheelchair not only the wheelchair but also important persons in the building, elderly people, children and the like are automatically detected, and the vehicle dispatching and door opening / closing time are adaptively controlled.
- You may comprise as follows.
- the person tracking device can reliably identify the person existing in the monitoring area, it can be used for the vehicle allocation control of the elevator group.
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Indicating And Signalling Devices For Elevators (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
Description
多数のエレベータの群管理を効率的に行うためには、「何人がどの階で乗って、どの階で降りたか」という乗客の移動履歴を計測して、その移動履歴を群管理システムに提供することが必要となる。
その一つとして、予め記憶している背景画像と、カメラにより撮影されたエレベータ内の画像との差分の画像(背景差分画像)を求めることで、エレベータ内の乗客を検出して、エレベータ内の乗客数を計数する人物追跡装置がある(例えば、特許文献1を参照)。
しかし、非常に混み合っているエレベータでは、約25cm四方に一人の乗客が存在し、乗客が重なり合う状況が発生するので、背景差分画像が一塊のシルエットになる。このため、背景差分画像から個々の人物を分離することが極めて困難であり、上記の人物追跡装置では、エレベータ内の乗客数を正確に計数することができない。
しかし、このような単純なパターンマッチングで乗客を検出する場合、例えば、カメラから見たときに、ある乗客が他の乗客に隠れてしまっているなどの遮蔽が生じていると、誤って人数をカウントしてしまうことがある。また、エレベータ内に鏡が設置されている場合、鏡に映っている乗客を誤検出してしまうことがある。
しかし、この人物追跡装置の場合、実際の人数よりも多くの人物が検出されてしまうことがある。
即ち、この人物追跡装置の場合、例えば、図45に示すように、人物Xの3次元位置を求める場合、カメラから検出人物までのベクトルVA1とベクトルVB1が交差する点を人物の位置として算出する。
しかし、ベクトルVA1とベクトルVB2が交わる点にも、人物が存在すると推定されてしまうことがあり、実際の人物が2人しか存在しない場合でも、誤って3人存在すると算出されてしまうことがある。
これらの手法は、ある視点において、人物が遮蔽されている状況でも、他の視点のシルエット情報や時系列情報を用いて、人数と人物の移動軌跡を求めることが可能である。
しかし、混雑しているエレベータや電車内では、どの視点から撮影しても、常にシルエットが重なり合うため、これらの手法を適用することができない。
実施の形態1.
図1はこの発明の実施の形態1による人物追跡装置を示す構成図である。
図1において、撮影手段を構成している複数のカメラ1は、監視対象領域であるエレベータのカゴ内の上部の異なる位置にそれぞれ設置されており、カゴ内を同時に異なる角度から撮影している。
ただし、カメラ1の種類については特に問わず、一般的な監視カメラのほか、可視カメラ、近赤外線領域まで撮影可能な高感度カメラ、熱源を撮影することが可能な遠赤外線カメラなどでもよい。また、距離計測が可能な赤外線距離センサや、レーザーレンジファインダなどで代用してもよい。
ここでは、映像取得部2がカゴ内の映像をリアルタイムで映像解析部3に出力するものとするが、予め用意されたハードディスクなどの記録装置に映像を記録して、その映像をオフラインで映像解析部3に出力するようにしてもよい。
映像解析結果表示部4は映像解析部3により算出された人物移動履歴等をディスプレイ(図示せぬ)に表示する処理を実施する。なお、映像解析結果表示部4は映像解析結果表示手段を構成している。
階床認識部12は映像取得部2から出力されたエレベータのカゴ内の映像を解析して、各時刻におけるエレベータの階床を特定する処理を実施する。なお、階床認識部12は階床特定手段を構成している。
人物追跡部13は映像取得部2から出力されたエレベータのカゴ内の映像を解析して、カゴ内に存在している個々の人物を追跡することで、個々の人物の3次元移動軌跡を算出し、その3次元移動軌跡に基づいて個々の人物の乗車階と降車階を示す人物移動履歴等を算出する処理を実施する。
図2において、背景画像登録部21はドアが閉じている状態のエレベータ内のドア領域の画像を背景画像として登録する処理を実施する。
背景差分部22は背景画像登録部21により登録されている背景画像とカメラ1により撮影されたドア領域の映像との差分を算出する処理を実施する。
オプティカルフロー計算部23はカメラ1により撮影されたドア領域の映像の変化からドアの移動方向を示す動きベクトルを計算する処理を実施する。
ドア開閉時刻特定部24は背景差分部22により算出された差分とオプティカルフロー計算部23により計算された動きベクトルからドアの開閉状態を判別して、ドアの開閉時刻を特定する処理を実施する。
背景画像更新部25はカメラ1により撮影されたドア領域の映像を用いて、その背景画像を更新する処理を実施する。
図3において、テンプレート画像登録部31はエレベータの階床を示すインジケータの画像をテンプレート画像として登録する処理を実施する。
テンプレートマッチング部32はテンプレート画像登録部31により登録されているテンプレート画像とカメラ1により撮影されたエレベータ内のインジケータ領域の映像とのテンプレートマッチングを実施して、各時刻におけるエレベータの階床を特定する処理を実施する。あるいは、エレベータの制御基盤情報を解析して、各時刻におけるエレベータの階床を特定する処理を実施する。
テンプレート画像更新部33はカメラ1により撮影されたインジケータ領域の映像を用いて、そのテンプレート画像を更新する処理を実施する。
図4において、人物位置算出部41は複数のカメラ1により撮影されたエレベータのカゴ内の映像を解析して、カゴ内に存在している個々の人物の各映像上の位置を算出する処理を実施する。なお、人物位置算出部41は人物位置算出手段を構成している。
人物位置算出部41のカメラキャリブレーション部42は人物追跡処理が開始される前に、予め複数のカメラ1により撮影されたキャリブレーションパターンの映像の歪み具合を解析して、複数のカメラ1のカメラパラメータ(レンズの歪み、焦点距離、光軸、画像中心(principal point)に関するパラメータ)を算出する処理を実施する。
また、カメラキャリブレーション部42は複数のカメラ1により撮影されたキャリブレーションパターンの映像と、複数のカメラ1のカメラパラメータとを用いて、エレベータのカゴ内の基準点に対する複数のカメラ1の設置位置及び設置角度を算出する処理を実施する。
人物位置算出部41の人物検出部44は映像補正部43により歪みが補正された各映像に写っている個々の人物を検出し、個々の人物の各映像上の位置を算出する処理を実施する。
3次元移動軌跡算出部46は2次元移動軌跡算出部45により算出された各映像における2次元移動軌跡間のステレオマッチングを実施して、その2次元移動軌跡のマッチング率を算出し、そのマッチング率が規定値以上の2次元移動軌跡から、個々の人物の3次元移動軌跡を算出するとともに、個々の人物の3次元移動軌跡と階床認識部12により特定された階床とを対応付けて、個々の人物の乗車階と降車階を示す人物移動履歴を算出する処理を実施する。なお、3次元移動軌跡算出部46は3次元移動軌跡算出手段を構成している。
3次元移動軌跡算出部46の軌跡ステレオ部48は2次元移動軌跡グラフ生成部47により生成された2次元移動軌跡グラフを探索して複数の2次元移動軌跡の候補を算出し、カメラキャリブレーション部42により算出されたカゴ内の基準点に対する複数のカメラ1の設置位置及び設置角度を考慮して、各映像における2次元移動軌跡の候補間のステレオマッチングを実施して、その2次元移動軌跡の候補のマッチング率を算出し、そのマッチング率が規定値以上の2次元移動軌跡の候補から、個々の人物の3次元移動軌跡を算出する処理を実施する。
3次元移動軌跡算出部46の軌跡組み合わせ推定部50は3次元移動軌跡グラフ生成部49により生成された3次元移動軌跡グラフを探索して複数の3次元移動軌跡の候補を算出し、複数の3次元移動軌跡の候補の中から最適な3次元移動軌跡を選択して、カゴ内に存在している人物の人数を推定するとともに、最適な3次元移動軌跡と階床認識部12により特定された階床とを対応付けて、個々の人物の乗車階と降車階を示す人物移動履歴を算出する処理を実施する。
図5において、映像表示部51は複数のカメラ1により撮影されたエレベータのカゴ内の映像を表示する処理を実施する。
時系列情報表示部52は人物追跡部13の3次元移動軌跡算出部46により算出された人物移動履歴を時系列的にグラフ表示する処理を実施する。
サマリー表示部53は3次元移動軌跡算出部46により算出された人物移動履歴の統計を求め、その人物移動履歴の統計結果を表示する処理を実施する。
運行関連情報表示部54は3次元移動軌跡算出部46により算出された人物移動履歴を参照して、エレベータの運行に関連する情報を表示する処理を実施する。
ソートデータ表示部55は3次元移動軌跡算出部46により算出された人物移動履歴をソートして表示する処理を実施する。
最初に、図1の人物追跡装置の概略動作を説明する。
図6はこの発明の実施の形態1による人物追跡装置の処理内容を示すフローチャートである。
映像取得部2は、複数のカメラ1がエレベータのカゴ内の映像の撮影を開始すると、複数のカメラ1からエレベータのカゴ内の映像を取得して、各映像を映像解析部3に出力する(ステップST1)。
即ち、ドア開閉認識部11は、各映像を解析して、エレベータのドアが開いている時刻と、ドアが閉じている時刻を特定する。
映像解析部3の階床認識部12は、映像取得部2から複数のカメラ1により撮影された映像を受けると、各映像を解析して、各時刻におけるエレベータの階床(エレベータの停止階)を特定する(ステップST3)。
そして、人物追跡部13は、個々の人物の検出結果とドア開閉認識部11により特定されたドアの開閉時刻を参照して、カゴ内に存在している個々の人物を追跡することで、個々の人物の3次元移動軌跡を算出する。
そして、人物追跡部13は、個々の人物の3次元移動軌跡と階床認識部12により特定された階床とを対応付けて、個々の人物の乗車階と降車階を示す人物移動履歴を算出する(ステップST4)。
映像解析結果表示部4は、映像解析部3が人物移動履歴等を算出すると、その人物移動履歴等をディスプレイに表示する(ステップST5)。
図7はドア開閉認識部11の処理内容を示すフローチャートである。また、図8はドア開閉認識部11の処理内容を示す説明図であり、図9はドア開閉認識部11のドアインデックスを示す説明図である。
まず、ドア開閉認識部11は、複数のカメラ1により撮影されたエレベータのカゴ内の映像の中から、ドアが写るドア領域を選択する(ステップST11)。
図8(A)の例では、ドアの上部の領域をドア領域として選択している。
ドア開閉認識部11の背景差分部22は、背景画像登録部21が背景画像を登録すると、映像取得部2から時々刻々と変化するカメラ1の映像を受け取り、図8(C)に示すようにして、カメラ1の映像中のドア領域の映像と上記背景画像との差分を算出する(ステップST13)。
背景差分部22は、ドア領域の映像と背景画像の差分を算出すると、その差分が大きい場合(例えば、差分が所定の閾値より大きく、ドア領域の映像と背景画像が大きく異なっている場合)、ドアが開いている可能性が高いので、ドア開閉判断用のフラグFbを“1”に設定する。
一方、その差分が小さく(例えば、差分が所定の閾値より小さく、ドア領域の映像と背景画像があまり異なっていない場合)、ドアが閉じている可能性が高いので、ドア開閉判断用のフラグFbを“0”に設定する。
オプティカルフロー計算部23は、例えば、図8(D)に示すように、エレベータのドアが中央扉の場合、動きベクトルが示すドアの移動方向が外向きであれば、現在ドアが開いている途中の可能性が高いので、ドア開閉判断用のフラグFoを“1”に設定する。
一方、動きベクトルが示すドアの移動方向が内向きであれば、現在ドアが閉じている途中の可能性が高いので、ドア開閉判断用のフラグFoを“0”に設定する。
なお、エレベータのドアが動いていない場合(開いている状態を維持、または、閉じている状態を維持している場合)、動きベクトルがドアの移動方向を示されないので、ドア開閉判断用のフラグFoを“2”に設定する。
即ち、ドア開閉時刻特定部24は、フラグFbとフラグFoの双方が“0”である時間帯、あるいは、フラグFbが“0”でフラグFoが“2”である時間帯はドアが閉じていると判断し、フラグFb又はフラグFoの少なくとも一方が“1”である時間帯はドアが開いていると判断する。
なお、ドア開閉時刻特定部24は、図9に示すように、ドアが閉じている時間帯のドアインデックスdiを“0”に設定し、ドアが開いている時間帯のドアインデックスdiについては、映像開始からドアが開いた順番にドアインデックスdiを1,2,3,・・・に設定する。
これにより、例えば、照明変化が原因で、ドア付近の映像が変化する場合でも、その変化に合わせて、背景差分処理を適応的に実施することができるようになる。
まず、階床認識部12は、複数のカメラ1により撮影されたエレベータのカゴ内の映像の中から、エレベータの階床を示すインジケータが写るインジケータ領域を選択する(ステップST21)。
図11(A)の例では、インジケータの数字が表示されている領域をインジケータ領域として選択している。
例えば、1階から9階まで移動するエレベータの場合、図11(B)に示すように、各階床の数字画像(“1”、“2”、“3”、“4”、“5”、“6”、“7”、“8”、“9”)をテンプレート画像として逐次登録する。
テンプレートマッチングの手法については、既存の正規化相互相関などの手法を用いればよいので、ここでは詳細な説明を省略する。
これにより、例えば、照明変化が原因で、インジケータ付近の映像が変化する場合でも、その変化に合わせて、テンプレートマッチング処理を適応的に実施することができるようになる。
まず、人物追跡部13のカメラキャリブレーション部42が、個々のカメラ1のカメラパラメータを算出するに先立ち、個々のカメラ1がキャリブレーションパターンを撮影する(ステップST31)。
映像取得部2は、個々のカメラ1により撮影されたキャリブレーションパターンの映像を取得して、そのキャリブレーションパターンの映像をカメラキャリブレーション部42に出力する。
ここで使用するキャリブレーションパターンとしては、例えば、大きさが既知の白黒のチェッカーフラグパターン(図14を参照)などが該当する。
なお、キャリブレーションパターンは、約1~20通り程度の異なる位置や角度からカメラ1により撮影される。
カメラパラメータの算出方法は、周知の技術であるため詳細説明を省略する。
例えば、図14に示すように、キャリブレーションパターンとしてチェッカーフラグパターンをカゴ内の床に敷き、複数のカメラ1が、そのチェッカーフラグパターンを同時に撮影する。
このとき、カゴ内の床に敷かれたキャリブレーションパターンに対して、カゴ内の基準点(例えば、カゴの入口)からの位置と角度をオフセットとして計測し、また、カゴの内寸を計測する。
また、図15に示すように、キャリブレーションパターンとして、無人のカゴ内を撮影し、カゴ内の床の四隅と天井の三隅とを選択したものでもよい。この場合、カゴの内寸を計測しておくようにする。
具体的には、カメラキャリブレーション部42は、キャリブレーションパターンとして、例えば、白黒のチェッカーフラグパターンが用いられる場合、複数のカメラ1により撮影されたチェッカーパターンに対するカメラ1の相対位置と相対角度を算出する。
そして、予め計測しているチェッカーパターンのオフセット(カゴ内の基準点であるカゴの入口からの位置と角度)を複数のカメラ1の相対位置と相対角度に足し合わせることで、カゴ内の基準点に対する複数のカメラ1の設置位置と設置角度を算出する。
一方、キャリブレーションパターンとして、図15に示すように、カゴ内の床の四隅と天井の三隅が用いられる場合、予め計測しているカゴの内寸から、カゴ内の基準点に対する複数のカメラ1の設置位置と設置角度を算出する。
この場合、カゴ内にカメラ1を設置するだけで、カメラ1の設置位置と設置角度を自動的に求めることが可能である。
映像取得部2は、複数のカメラ1により撮影されたエレベータのカゴ内の映像を時々刻々と取得する(ステップST41)。
人物追跡部13の映像補正部43は、映像取得部2から複数のカメラ1により撮影された映像を取得する毎に、カメラキャリブレーション部42により算出されたカメラパラメータを用いて、複数の映像の歪みを補正し、歪みの無い映像である正規化画像を生成する(ステップST42)。
なお、映像の歪みを補正する方法は、周知の技術であるため詳細な説明を省略する。
そして、人物検出部44は、その人物の画像座標に対してカメラパースペクティブフィルタを施すことで、不適当な大きさの人物検出結果を削除する。
また、確信度は、人物検出部44の検出物が、どの程度、人間(人体の頭部)に近いかを表現する指標であり、確信度が高いほど人間である確率が高く、確信度が低いほど人間である確率が低いことを表している。
図16は人体の頭部の検出処理を示す説明図である。
図16(A)は、カゴ内の天井の対角位置に設置されている2台のカメラ11,12によって、カゴ内の3人の乗客(人物)を撮影している状況を表している。
図16(B)は、カメラ11により顔方向を撮影された映像から頭部が検出され、検出結果である頭部の領域に確信度が添付された状態を表わしている。
図16(C)は、カメラ12により後頭部方向を撮影された映像から頭部が検出され、検出結果である頭部の領域に確信度が添付された状態を表わしている。
ただし、図16(C)の場合、図中、右端の乗客(人物)の脚部が誤検出されており、その誤検出部分の確信度が低く算出されている。
即ち、“Rectangle Feature”と呼ばれるハール基底状のパターンをAdaboostによって選択して多数の弱判別機を取得し、これらの弱判別機の出力と適当な閾値をすべて加算した値を確信度として利用することができる。
また、頭部の検出方法として、下記の参考文献2に開示されている道路標識検出方法を応用して、その画像座標と確信度を算出するようにしてもよい。
なお、図16では、人物検出部44が人物を検出するに際して、人体の特徴箇所である頭部を検出しているものを示しているが、これは一例に過ぎず、例えば、肩や胴体などを検出するようにしてもよい。
カメラパースペクティブフィルタは、図17(A)に示すように、映像上の点Aにおける人物の検出結果のうち、点Aにおける人物頭部の最大矩形サイズより大きい検出結果と、点Aにおける人物頭部の最小矩形サイズより小さい検出結果を誤検出とみなして削除するフィルタである。
図17(B)は、点Aにおける人物頭部の最大検出矩形サイズと最小矩形サイズの求め方を示している。
次に、人物検出部44は、エレベータ内で想定される人物の最大身長(例えば、200cm)、最小身長(例えば、100cm)及び頭部サイズ(例えば、30cm)を設定する。
次に、人物検出部44は、最大身長人物の頭部をカメラ1に射影し、その射影した頭部を囲む画像上での矩形サイズを点Aにおける人物頭部の最大検出矩形サイズと定義する。
同様に、最小身長人物の頭部をカメラ1に射影し、その射影した頭部を囲む画像上での矩形サイズを点Aにおける人物頭部の最小検出矩形サイズと定義する。
以下、2次元移動軌跡算出部45における2次元移動軌跡の算出処理を具体的に説明する。
図18は2次元移動軌跡算出部45の算出処理を示すフローチャートであり、図19は2次元移動軌跡算出部45の処理内容を示す説明図である。
例えば、図19(A)に示すように、人物の追跡を時刻tから始める場合、時刻tの画像フレームにおける人物検出結果を取得する。
ここで、人物検出結果には、それぞれカウンタが割り当てられており、カウンタの値は追跡を開始するときに“0”に初期化される。
ここで、人物の画像座標を探索する方法としては、例えば、既知の技術である正規化相互相関法などを用いればよい。
その場合、時刻tにおける人物領域の画像をテンプレート画像とし、時刻(t+1)において、最も相関値が高い矩形領域の画像座標を正規化相互相関法で求めて出力する。
その場合、時刻tの人物領域の内側に含まれる複数の部分領域において特徴量の相関係数を計算し、それらを成分とするベクトルを該当人物のテンプレートベクトルとする。そして、次に時刻(t+1)において、テンプレートベクトルとの距離が最小となるような領域を探索して、その領域の画像座標を人物の探索結果として出力する。
さらに、人物の画像座標を探索する他の方法として、下記の参考文献3に記載されている特徴量の分散共分散行列を利用した方法で、人物追跡を実施して、時々刻々と人物の画像座標を求めてもよい。
例えば、図19(C)に示すような人物検出結果を取得し、この人物検出結果では、人物Aは検出されているが、人物Bは検出されていない状態を表しているものとする。
次に、2次元移動軌跡算出部45は、ステップST52で算出した人物画像座標と、ステップST53で取得した人物画像座標とを用いて、追跡している人物の情報をアップデートする(ステップST54)。
一方、図19(C)に示すように、時刻(t+1)における人物Bの人物検出が失敗している場合、図19(B)における人物Bの探索結果の周辺には人物Bの人物検出結果が存在しない。そこで、図19(D)に示すように、人物Bのカウンタの値を“0”から“-1”に下げる。
このように、2次元移動軌跡算出部45は、探索結果の周辺に検出結果が存在する場合、カウンタの値を一つ上げ、探索結果の周辺に検出結果が存在しない場合、カウンタの値を一つ下げるようにする。
この結果、人物が検出される回数が多い場合には、そのカウンタの値が大きくなり、一方で、人物が検出される回数が低い場合には、カウンタの値が小さくなる。
例えば、2次元移動軌跡算出部45は、探索結果の周辺に検出結果が存在する場合、該当の検出結果の確信度を累積加算し、探索結果の周辺に検出結果が存在しない場合、確信度を加算しない。この結果、人物検出される回数が多い2次元移動軌跡の場合には、その累積確信度が大きくなる。
終了判定の基準としては、ステップST54で述べたカウンタを利用すればよい。
例えば、ステップST54で求めたカウンタの値が一定の閾値よりも低い場合、人物ではないとして追跡を終了する。
また、終了判定の基準として、ステップST54で述べた確信度の累積値を所定の閾値処理することで、追跡終了判定を実施してもよい。
例えば、確信度の累積値が所定の閾値よりも小さい場合、人物ではないとして追跡を終了する。
このように追跡処理の終了判定を行うことで、人物でないものを誤って追跡してしまう現象を避けることが可能となる。
ここで、遮蔽などにより追跡が途中で終了してしまう場合には、遮蔽が無くなった時刻から人物の追跡を再開すればよい。
このように時間的に前後に追跡を行うことで、可能な限り漏れなく、人物の2次元移動軌跡を算出することができる。例えば、ある人物の追跡において、時間的に前方の追跡に失敗しても、時間的に後方の追跡に成功すれば、追跡の漏れを無くすことができる。
即ち、2次元移動軌跡グラフ生成部47は、2次元移動軌跡算出部45により算出された個々の人物の2次元移動軌跡の集合に対して、空間的又は時間的近傍の2次元移動軌跡を探して分割や連結などの処理を施して、2次元移動軌跡をグラフの頂点とし、連結した2次元移動軌跡をグラフの有向辺とする2次元移動軌跡のグラフを生成する。
図20及び図21は2次元移動軌跡グラフ生成部47の処理内容を示す説明図である。
最初に、2次元移動軌跡グラフ生成部47の空間的近傍の例について述べる。
図21(A)に示すように、例えば、2次元移動軌跡T1の終点T1Eの空間的近傍に存在する2次元移動軌跡は、終点T1Eを中心とする一定の距離範囲内(例えば、20ピクセル以内)に始点を有する2次元移動軌跡、または、2次元移動軌跡T1の終点T1Eとの最短距離が一定の距離範囲内にある2次元移動軌跡と定義する。
図21(A)の例では、2次元移動軌跡T1の終点T1Eからある一定の距離範囲に2次元移動軌跡T2の始点T2Sが存在しており、2次元移動軌跡T1の終点T1Eの空間的近傍に2次元移動軌跡T2の始点T2Sが存在すると言える。
また、2次元移動軌跡T1の終点T1Eと2次元移動軌跡T3の最短距離dは、一定の距離範囲内にあるため、2次元移動軌跡T1の終点T1Eの空間的近傍に2次元移動軌跡T3が存在すると言える。
一方で、2次元移動軌跡T4の始点は、2次元移動軌跡T1の終点T1Eから離れているため、2次元移動軌跡T4は2次元移動軌跡T1の空間的近傍には存在しない。
例えば、図21(B)に示す2次元移動軌跡T1の記録時間が[t1 t2]、2次元移動軌跡T2の記録時間が[t3 t4]であるとするとき、2次元移動軌跡T1の終点の記録時間t2と、2次元移動軌跡T2の始点の記録時間t3との時間間隔|t3-t2|が一定値以内(例えば、3秒以内)であれば、2次元移動軌跡T1の時間的近傍に2次元移動軌跡T2が存在すると定義する。
逆に時間間隔|t3-t2|が一定値を超えた場合、2次元移動軌跡T1の時間的近傍に2次元移動軌跡T2が存在しないと定義する。
ここでは、2次元移動軌跡T1の終点T1Eの空間的近傍及び時間的近傍の例について述べたが、2次元移動軌跡の始点の空間的近傍や時間的近傍についても同様に定義することができる。
[軌跡分割処理]
2次元移動軌跡グラフ生成部47は、2次元移動軌跡算出部45により算出されたある2次元移動軌跡の始点Sの空間的近傍かつ時間的近傍に、他の2次元移動軌跡Aが存在する場合、2次元移動軌跡Aを始点S付近で分割する。
例えば、図20(A)に示すように、2次元移動軌跡算出部45により2次元移動軌跡{T1,T2,T4,T6,T7}が算出された場合、2次元移動軌跡T1の始点が2次元移動軌跡T2付近に存在している。
そこで、2次元移動軌跡グラフ生成部47は、2次元移動軌跡T2を2次元移動軌跡T1の始点付近で分割して、新規に2次元移動軌跡T2と2次元移動軌跡T3を生成し、図20(B)に示す2次元移動軌跡の集合{T1,T2,T4,T6,T7,T3}を取得する。
図20(B)の例では、2次元移動軌跡算T1の終点は2次元移動軌跡算T4付近に存在している。
そこで、2次元移動軌跡グラフ生成部47は、2次元移動軌跡T4を2次元移動軌跡T1の終点付近で分割し、新規に2次元移動軌跡T4と2次元移動軌跡T5を生成し、図20(C)に示す2次元移動軌跡の集合{T1,T2,T4,T6,T7,T3,T5}を取得する。
2次元移動軌跡グラフ生成部47は、軌跡分割処理により取得した2次元移動軌跡の集合に対して、ある2次元移動軌跡Aの終了点の空間的近傍かつ時間的近傍に他の2次元移動軌跡Bの開始点が存在する場合、該当する二つの2次元移動軌跡Aと2次元移動軌跡Bを連結する。
図20(C)の例では、軌跡分割処理と軌跡連結処理によって、下記の情報が得られるものとする。
・T1に連結された2次元移動軌跡の集合={T5}
・T2に連結された2次元移動軌跡の集合={T1,T3}
・T3に連結された2次元移動軌跡の集合={T4,T6}
・T4に連結された2次元移動軌跡の集合={T5}
・T5に連結された2次元移動軌跡の集合={φ(空集合)}
・T6に連結された2次元移動軌跡の集合={T7}
・T7に連結された2次元移動軌跡の集合={φ(空集合)}
この場合、2次元移動軌跡グラフ生成部47は、2次元移動軌跡T1~T7をグラフの頂点とし、また、2次元移動軌跡のペア(T1,T5),(T2,T1),(T2,T3),(T3,T4),(T3,T6),(T4,T5),(T6,T7)という有向辺の情報を有する2次元移動軌跡グラフを生成する。
図20(C)の例では、軌跡分割処理と軌跡連結処理によって、下記の情報を有する2次元移動軌跡グラフを生成する。
・T7に連結された2次元移動軌跡の集合={T6}
・T6に連結された2次元移動軌跡の集合={T3}
・T5に連結された2次元移動軌跡の集合={T4,T1}
・T4に連結された2次元移動軌跡の集合={T3}
・T3に連結された2次元移動軌跡の集合={T2}
・T2に連結された2次元移動軌跡の集合={φ(空集合)}
・T1に連結された2次元移動軌跡の集合={T2}
そこで、2次元移動軌跡グラフ生成部47は、2次元移動軌跡グラフを生成することで、人物の複数の移動経路の情報を保持することができる。
図22は軌跡ステレオ部48の処理内容を示すフローチャートである。また、図23は軌跡ステレオ部48における2次元移動軌跡グラフの探索処理を示す説明図、図24は2次元移動軌跡のマッチング率の算出処理を示す説明図、図25は2次元移動軌跡のオーバーラップを示す説明図である。
図23(A)に示すように、2次元移動軌跡T1~T7から構成される2次元移動軌跡グラフGが得られており、2次元移動軌跡グラフGが下記のグラフ情報を有しているものと仮定する。
・T1に連結された2次元移動軌跡の集合={T5}
・T2に連結された2次元移動軌跡の集合={T1,T3}
・T3に連結された2次元移動軌跡の集合={T4,T6}
・T4に連結された2次元移動軌跡の集合={T5}
・T5に連結された2次元移動軌跡の集合={φ(空集合)}
・T6に連結された2次元移動軌跡の集合={T7}
・T7に連結された2次元移動軌跡の集合={φ(空集合)}
図23の例では、下記の2次元移動軌跡の候補が算出される。
・2次元移動軌跡候補A ={T2,T3,T6,T7}
・2次元移動軌跡候補B ={T2,T3,T4,T5}
・2次元移動軌跡候補C ={T2,T1,T5}
以下、オーバーラップする時間の算出処理を具体的に説明する。
図24(a)は、人物Aと人物Bに対する2次元移動軌跡が計算された状況を仮想的に表しており、α1はカメラ1α の映像における人物Aの2次元移動軌跡であり、α2はカメラ1α の映像における人物Bの2次元移動軌跡である。
また、β1はカメラ1β の映像における人物Aの2次元移動軌跡であり、β2はカメラ1β の映像における人物Bの2次元移動軌跡である。
2次元移動軌跡α1
≡{Xa1(t)}t=T1,...,T2
={Xa1(T1),Xa1(T1+1),・・・,Xa1(T2)}
2次元移動軌跡β1
≡
{Xb1(t)}t=T3,...,T4
={Xb1(T3),Xb1(T3+1),・・・,Xb1(T4)}
ここで、Xa1(t)、Xb1(t)は、時刻tにおける人物Aの2次元画像座標である。2次元移動軌跡α1は画像座標が時刻T1からT2まで記録されており、2次元移動軌跡β1は画像座標が時刻T3からT4まで記録されていることを表している。
この場合、2次元移動軌跡α1と2次元移動軌跡β1がオーバーラップする時間は、時刻T3から時刻T2までの間であるので、この時間を軌跡ステレオ部48で算出する。
軌跡ステレオ部48は、図24(B)に示すように、オーバーラップする全ての時間tにおいて、カメラキャリブレーション部42により算出された2台のカメラ1α,1β の設置位置及び設置角度を用いて、カメラ1α の中心と画像座標Xa1(t)を通る直線Va1(t)を求めるとともに、カメラ1β の中心と画像座標Xb1(t)を通る直線Vb1(t)を求める。
また、軌跡ステレオ部48は、直線Va1(t)と直線Vb1(t)の交点を人物の3次元位置Z(t)として算出すると同時に、直線Va1(t)と直線Vb1(t)同士の距離d(t)を算出する。
例えば、{Xa1(t)}t=T1,・・・,T2と{Xb1(t)}t=T3,・・・,T4とから、オーバーラップする時間t=T3,・・・,T2における3次元位置ベクトルZ(t)と直線の距離d(t)の集合{Z(t),d(t)}t=T3,・・・,T2を得る。
あるいは、下記の参考文献4に開示されている「最適補正」の方法によって、二つの直線の距離d(t)と交点Z(t)を算出するようにしてもよい。
なお、オーバーラップ時間が“0”である場合には、マッチング率を“0”として算出する。ここでは、例えば、オーバーラップ時間内に直線が交わる回数をマッチング率として算出する。
即ち、図24及び図25の例では、時刻t=T3,・・・,T2において、距離d(t)が一定の閾値(例えば、15cm)以下になる回数をマッチング率として算出する。
即ち、図24及び図25の例では、時刻t=T3,・・・,T2において、距離d(t)が一定の閾値(例えば、15cm)以下になる回数を算出し、その回数をオーバーラップ時間|T3-T2|で除算した値をマッチング率として算出する。
即ち、図24(b)の例では、時刻t=T3,・・・,T2において、距離d(t)の逆数の平均をマッチング率として算出する。
また、オーバーラップ時間内における二つの直線の距離の合計をマッチング率として算出するようにしてもよい。
即ち、図24(b)の例では、時刻t=T3,・・・,T2において、距離d(t)の逆数の合計をマッチング率として算出する。
さらに、上記の算出方法を組み合わせることで、マッチング率を算出するようにしてもよい。
例えば、図24における2次元移動軌跡α2と2次元移動軌跡β2は、同一人物Bの2次元移動軌跡であるため、2次元移動軌跡α2と2次元移動軌跡β2のステレオマッチングを実施すると、各時刻における距離d(t)は小さい値をとる。このため、距離d(t)の逆数の平均が大きな値になり、2次元移動軌跡α2と2次元移動軌跡β2のマッチング率が高い値になる。
一方、2次元移動軌跡α1と2次元移動軌跡β2は、異なる人物Aと人物Bの2次元移動軌跡であるため、2次元移動軌跡α1と2次元移動軌跡β2のステレオマッチングを実施すると、ある時刻では偶然に直線が交わることもあるが、ほとんどの時刻において直線が交わらず、距離d(t)の逆数の平均が小さな値になる。このため、2次元移動軌跡α1と2次元移動軌跡β2のマッチング率が低い値になる。
従来は、図45に示すように、ある瞬間の人物検出結果をステレオマッチングして人物の3次元位置を推定していたため、ステレオ視の曖昧さを回避できずに人物の位置を誤って推定してしまうことがあった。
しかし、この実施の形態1では、一定の時間にわたる2次元移動軌跡同士をステレオマッチングすることで、ステレオ視の曖昧さを解消し、正確に人物の3次元移動軌跡を求めることが可能となる。
軌跡ステレオ部48は、各映像における2次元移動軌跡のマッチング率が閾値を超えている場合、各映像における2次元移動軌跡から、各映像における2次元移動軌跡がオーバーラップしている時間の3次元移動軌跡を算出し(各映像における2次元移動軌跡がオーバーラップしている時間の3次元位置は、通常のステレオマッチングを実施することで推定することができる。ただし、公知の技術であるため詳細な説明は省略する)、その3次元移動軌跡に対してフィルタリングをかけて、誤って推定した3次元移動軌跡を取り除く処理を行う(ステップST66)。
条件(ア): 人物の身長が一定長(例えば、50cm)以上である
条件(イ): 人物が特定の領域内(例えば、エレベータカゴ内)に存在する
条件(ウ): 人物の3次元移動履歴が滑らかである
また、条件(イ)により、例えば、カゴ内に設置された鏡に映っている人物像の3次元移動軌跡は人物の軌跡でないとして破棄される。
また、条件(ウ)により、例えば、上下左右に急激に変化するような不自然な3次元移動軌跡は人物の軌跡でないとして破棄される。
図25の場合、2次元移動軌跡α1と2次元移動軌跡β1は、時刻t=T3,・・・,T2では、オーバーラップしているが、その他の時刻では、オーバーラップしていない。
通常のステレオマッチングでは、オーバーラップしていない時間帯の人物の3次元移動軌跡を算出することができないが、このような場合には、オーバーラップしている時間における人物の高さの平均を算出し、この高さの平均を用いて、オーバーラップしていない時間における人物の3次元移動軌跡を推定する。
次に、各時刻tにおいて、カメラ1α の中心と画像座標Xa1(t)を通る直線Va1(t)上の点のうち、床からの高さがaveHである点を求め、この点を人物の3次元位置Z(t)として推定するようにする。同様に、各時刻tにおける画像座標Xb1(t)から人物の3次元位置Z(t)を推定する。
これにより、2次元移動軌跡α1と2次元移動軌跡β1が記録されている全ての時刻T1からT4にわたる3次元移動軌跡{Z(t)}t=T1,・・・,T4を得ることができる。
これにより、遮蔽などが理由で、片方のカメラに一定期間人物が写らない場合があっても、もう一つのカメラで人物の2次元移動軌跡を算出し、かつ、遮蔽の前後で2次元移動軌跡がオーバーラップしていれば、軌跡ステレオ部48が人物の3次元移動軌跡を算出することができる。
全ての2次元移動軌跡のペアについてマッチング率の算出が完了すれば、軌跡ステレオ部48の処理が終了し、3次元移動軌跡算出部49の処理に移行する(ステップST68)。
即ち、3次元移動軌跡グラフ生成部49は、軌跡ステレオ部48により算出された個々の人物の3次元移動軌跡の集合に対して、空間的又は時間的近傍の3次元移動軌跡を探して分割や連結などの処理を施して、3次元移動軌跡をグラフの頂点とし、連結した3次元移動軌跡をグラフの有向辺とする3次元移動軌跡のグラフを生成する。
図26及び図27は3次元移動軌跡グラフ生成部49の処理内容を示す説明図である。
まず、3次元移動軌跡グラフ生成部49における空間的近傍の例について述べる。
図27(A)に示すように、例えば、3次元移動軌跡L1の終点L1Eの空間的近傍に存在する3次元移動軌跡は、終点L1Eを中心とする一定の距離範囲内(例えば、25cm以内)に始点を有する3次元移動軌跡、または、3次元移動軌跡L1の終点L1Eとの最短距離が一定の距離範囲内にある3次元移動軌跡と定義する。
図27(A)の例では、3次元移動軌跡L1の終点L1Eからある一定の距離範囲に3次元移動軌跡L2の始点L2Sが存在しており、3次元移動軌跡L1の終点L1Eの空間的近傍に3次元移動軌跡L2が存在すると言える。
また、3次元移動軌跡L1の終点L1Eと3次元移動軌跡L3の最短距離dは、一定の距離範囲内にあるため、3次元移動軌跡L1の終点L1Eの空間的近傍に3次元移動軌跡L3が存在すると言える。
一方で、3次元移動軌跡L4の始点は、3次元移動軌跡L1の終点L1Eから離れているため、3次元移動軌跡L4は3次元移動軌跡T1の空間的近傍には存在しない。
例えば、図27(B)に示す3次元移動軌跡L1の記録時間が[t1 t2]、3次元移動軌跡L2の記録時間が[t3 t4]であるとき、3次元移動軌跡L1の終点の記録時間t2と、3次元移動軌跡L2の始点の記録時間t3との時間間隔|t3-t2|が一定値以内(例えば、3秒以内)であれば、3次元移動軌跡L1の時間的近傍に3次元移動軌跡L2が存在すると定義する。
逆に時間間隔|t3-t2|が一定値を超えた場合、3次元移動軌跡L1の時間的近傍に3次元移動軌跡L2が存在しないと定義する。
ここでは、3次元移動軌跡L1の終点L1Eの空間的近傍及び時間的近傍の例について述べたが、3次元移動軌跡の始点の空間的近傍や時間的近傍についても同様に定義することができる。
[軌跡分割処理]
3次元移動軌跡グラフ生成部49は、軌跡ステレオ部48により算出されたある3次元移動軌跡の始点Sの空間的近傍かつ時間的近傍に、他の3次元移動軌跡Aが存在する場合、3次元移動軌跡Aを始点S付近で分割する。
図26(A)は、エレベータ内部を上から見た模式図であり、エレベータの入口と、入退場エリアと、3次元移動軌跡L1~L4とが示されている。
図26(A)の場合、3次元移動軌跡L2の始点は、3次元移動軌跡L3付近に存在している。
そこで、3次元移動軌跡グラフ生成部49は、3次元移動軌跡L3を3次元移動軌跡L2の始点付近で分割して、新規に3次元移動軌跡L3と3次元移動軌跡L5を生成し、図20(B)に示す3次元移動軌跡の集合を取得する。
図26(B)の例では、3次元移動軌跡L5の終点は3次元移動軌跡L4付近に存在している。
そこで、3次元移動軌跡グラフ生成部49は、3次元移動軌跡L4を3次元移動軌跡L5の終点付近で分割して、新規に3次元移動軌跡L4と3次元移動軌跡L6を生成し、図20(C)に示す3次元移動軌跡の集合L1~L6を取得する。
3次元移動軌跡グラフ生成部49は、軌跡分割処理により取得した3次元移動軌跡の集合に対して、ある3次元移動軌跡Aの終了点の空間的近傍かつ時間的近傍に、他の3次元移動軌跡Bの開始点が存在する場合、該当する二つの3次元移動軌跡Aと3次元移動軌跡Bを連結する。
図26(C)の例では、軌跡分割処理と軌跡連結処理によって、下記の情報を有する3次元移動軌跡グラフを生成する。
・L1に連結された3次元移動軌跡集合={L3}
・L2に連結された3次元移動軌跡集合={φ(空集合)}
・L3に連結された3次元移動軌跡集合={L2,L5}
・L4に連結された3次元移動軌跡集合={L6}
・L5に連結された3次元移動軌跡集合={L6}
・L6に連結された3次元移動軌跡集合={φ(空集合)}
そのため、3次元移動軌跡グラフ生成部49は、これらの3次元移動軌跡に対する分割処理や連結処理を実施して3次元移動軌跡グラフを求めることで、人物の複数の移動経路の情報を保持することができる。
図28は軌跡組み合わせ推定部50の処理内容を示すフローチャートであり、図29は軌跡組み合わせ推定部50の処理内容を示す説明図である。なお、図29(A)はエレベータを上から見ている図である。
まず、軌跡組み合わせ推定部50は、監視対象領域となる場所において、人物の入退場エリアを設定する(ステップST71)。
入退場エリアは人物の入退場を判定する基準に利用するものであり、図29(A)の例では、エレベータのカゴ内の入口付近に仮想的に入退場エリアを設定している。
例えば、頭部の移動軌跡がエレベータの入口付近に設定している入退場エリアから開始していれば、該当階から乗っていると判断することができる。また、移動軌跡が入退場エリアで終了していれば、該当階で降りていると判断することができる。
[入場条件]
(1)入場条件:3次元移動軌跡の方向がドアからエレベータの内部に向かっている
(2)入場条件:3次元移動軌跡の始点位置が入退場エリア内にある
(3)入場条件:ドア開閉認識部11により設定された3次元移動軌跡の始点時刻におけるドアインデックスdiが“0”でない
[退場条件]
(1)退場条件:3次元移動軌跡の方向がエレベータの内部からドアに向かっている
(2)退場条件:3次元移動軌跡の終点位置が入退場エリア内にある
(3)退場条件:ドア開閉認識部11により設定された3次元移動軌跡の終点時刻におけるドアインデックスdiが“0”でなく、かつ、ドアインデックスdiが入場時と異なる
3次元移動軌跡グラフGは3次元移動軌跡L1~L6から構成されており、3次元移動軌跡グラフGは下記の情報を有しているものとする。
・L1に連結された3次元移動軌跡集合={L2,L3}
・L2に連結された3次元移動軌跡集合={L6}
・L3に連結された3次元移動軌跡集合={L5}
・L4に連結された3次元移動軌跡集合={L5}
・L5に連結された3次元移動軌跡集合={φ(空集合)}
・L6に連結された3次元移動軌跡集合={φ(空集合)}
また、3次元移動軌跡L1,L2,L3,L4,L5,L6のドアインデックスdiは、それぞれ1,2,2,4,3,3であるとする。ただし、3次元移動軌跡L3は、人物頭部の追跡ミスや人物の遮蔽が原因で、誤って求めてしまった3次元移動軌跡と仮定する。
このため、3次元移動軌跡L1に連結された3次元移動軌跡が二つあり(3次元移動軌跡L2,L3)、人物の移動経路に曖昧さが生じている。
この場合、軌跡組み合わせ推定部50は、例えば、3次元移動軌跡L1からスタートして、L1→L2→L6の順番で3次元移動軌跡グラフGを探索することで、監視対象領域への入場から退場までの3次元移動軌跡の候補{L1,L2,L6}が得られる。
同様に、軌跡組み合わせ推定部50が、3次元移動軌跡グラフGを探索することで、下記の三つの監視対象領域への入場から退場までの3次元移動軌跡の候補が得られる。
軌跡候補A={L1,L2,L6}
軌跡候補B={L4,L5}
軌跡候補C={L1,L3,L5}
例えば、コスト関数は、「3次元移動軌跡が重ならない」、かつ、「なるべく多くの3次元移動軌跡が推定される」という条件を反映したものであり、下記のように定義する。
コスト=「3次元移動軌跡数」-「3次元移動軌跡の重なり回数」
ただし、3次元移動軌跡数は、監視対象領域における人物数を意味している。
同様に、軌跡候補B={L4,L5}と軌跡候補C={L1,L3,L5}は、L5の部分で重なっており、「3次元移動軌跡の重なり回数」は“1”と計算される。
このため、各軌跡候補の組み合わせによるコストは下記のようになる。
・AとBとCの組み合わせによるコスト=3-2=1
・AとBの組み合わせによるコスト =2-0=2
・AとCの組み合わせによるコスト =2-1=1
・BとCの組み合わせによるコスト =2-1=1
・Aのみによるコスト =1-0=1
・Bのみによるコスト =1-0=1
・Cのみによるコスト =1-0=1
したがって、軌跡候補Aと軌跡候補Bの組み合わせが、コスト関数が最大となる組み合わせであって、最適な3次元移動軌跡の組み合わせであると判断される。
最適な3次元移動軌跡の組み合わせが、軌跡候補Aと軌跡候補Bの組み合わせであるため、監視対象領域内の人数が2人であることも同時に推定される。
ここでは、階床認識部12により特定された停止階情報を対応付けるものについて示したが、別途、エレベータの制御機器から停止階情報を取得して対応付けるようにしてもよい。
ただし、乗降者の人数が多くて、3次元移動軌跡グラフの構造が複雑な場合、3次元移動軌跡の候補の数や、その組み合わせ方が非常に多く、現実的な時間内に処理できなくなることがある。
このような場合、軌跡組み合わせ推定部50は、人物同士の位置関係、人物数及びステレオ視の精度を考慮した尤度関数を定義し、MCMC(Markov Chain Monte Carlo:マルコフチェインモンテカルロ)やGA(Genetic Algorithm:遺伝アルゴリズム)などの確率的な最適化手法を用いて、3次元移動軌跡の最適な組み合わせを求めるようにしてもよい。
まず、以下のように記号を定義する.
[記号]
yi(t):3次元移動軌跡yiの時刻tにおける3次元位置。yi(t)∈R3
yi :i番目の人物の監視対象領域における入場から退場までの3次元移動軌跡
yi={yi(t)}
|yi| :3次元移動軌跡yiの記録時間
N :監視対象領域における入場から退場までの3次元移動軌跡数(人物の数)
Y={yi}i=1,・・・,N :3次元移動軌跡の集合
S(yi):3次元移動軌跡yiのステレオコスト
O(yi,yj):3次元移動軌跡yiと3次元移動軌跡yjのオーバーラップコスト
w+ :正しい3次元移動軌跡として選択された3次元移動軌跡yiの集合
w- :選択されなかった3次元移動軌跡yiの集合。w-=w-w+
w :w={w+,w-}
wopt :尤度関数を最大化するw
|w+| :w+の元の数(正しい3次元移動軌跡として選択された軌跡の数)
Ω : wの集合。w∈Ω(3次元移動軌跡の集合Yの分割方式の集合)
L(w|Y):尤度関数
Lnum(w|Y):選択軌跡数の尤度関数
Lstr(w|Y):選択軌跡のステレオ視に関する尤度関数
Lovr(w|Y):選択軌跡のオーバーラップに関する尤度関数
q(w’|w) :提案分布
A(w’|w) :受理確率
軌跡組み合わせ推定部50は、3次元移動軌跡グラフ生成部49が3次元移動軌跡グラフを生成すると、その3次元移動軌跡グラフを探索して、上述した入場条件と退場条件を満足する個々の人物の3次元移動軌跡の候補の集合Y={yi}i=1,・・・,Nを求める。
また、w+を正しい3次元移動軌跡として選択された3次元移動軌跡候補の集合として、w-=w-w+とw={w+,w-}を定義する。
軌跡組み合わせ推定部50の目的は、3次元移動軌跡の候補の集合Yの中から正しい3次元移動軌跡を選択することであり、この目的は、尤度関数L(w/Y)をコスト関数として定義し、このコスト関数を最大化する問題として定式化することができる。
即ち、最適な軌跡選択をwoptとすると、woptは下式で与えられる。
wopt=argmax L(w|Y)
L(w|Y)=Lovr(w|Y)Lnum(w|Y)Lstr(w|Y)
ここで、Lovrは「3次元空間内で3次元移動軌跡が重ならない」ことを定式化した尤度関数、Lnumは「可能な限り多く3次元移動軌跡が存在する」ことを定式化した尤度関数、Lstrは「3次元移動軌跡のステレオ視の精度が高い」ことを定式化した尤度関数である。
[選択軌跡のオーバーラップに関する尤度関数]
「3次元空間内で3次元移動軌跡が重ならない」という条件を下記のように定式化する。
Lovr(w|Y) ∝ exp( -c1 Σi,j∈w+ O(yi,yj))
ここで、O(yi,yj)は、3次元移動軌跡yiと3次元移動軌跡yjのオーバーラップコストであり、3次元移動軌跡yiと3次元移動軌跡yjが完全に重なっている場合には“1”となり、まったく重なっていない場合には“0”をとるものとする。ここでc1は正の定数である。
yi={yi(t)}t=t1,・・・,t2、yj={yj(t)}t=t3,・・・,t4とし、3次元移動軌跡yiと3次元移動軌跡yjが時間F=[t3 t2]で同時に存在しているとする。
また、関数gを下記のように定義する。
g(yi(t),yj(t))
=1(if || yi(t)-yj(t) || <Th1), =0(otherwise)
ここで、Th1は適当な距離の閾値であり、例えば、Th1=25cmに設定する。
つまり、関数gは、閾値Th1以内に3次元移動軌跡が近づいたらペナルティを与える関数である。
このとき、下記のようにして、オーバーラップコストO(yi,yj)を求める。
・|F|≠0の場合
O(yi,yj)=Σt∈F g(yi(t),yj(t))/|F|
・|F|=0の場合
O(yi,yj)=0
「可能な限り多く3次元移動軌跡が存在する」という条件を下記のように定式化する。
Lnum(w|Y) ∝ exp( c2 |w+|)
ここで、|w+|はw+の元の数である。またc2は正の定数である。
「3次元移動軌跡のステレオ視の精度が高い」という条件を下記のように定式化する。
Lstr(w|Y) ∝ exp( -c3 Σi∈w+ S(yi))
ここで、S(yi)は、ステレオコストであり、3次元移動軌跡がステレオ視によって推定された場合は小さな値をとり、3次元移動軌跡が単眼視や、どのカメラ1からも観測されない期間がある場合は大きな値をとるものとする。またc3は正の定数である。
以下、ステレオコストS(yi)の計算方法について述べる。
ここで、yi={yi(t)}t=t1,・・・,t2とするとき、3次元移動軌跡yiの期間Fi=[t1 t2]には、下記の三つの期間F1i,F2i,F3iが混在している。
・F1i:ステレオ視により3次元移動軌跡が推定された期間
・F2i:単眼視により3次元移動軌跡が推定された期間
・F3i:どのカメラ1からも3次元移動軌跡が観測されない期間
この場合、ステレオコストS(yi)は下記のようになる。
S(yi)=(c8×|F1i|+c9×|F2i|+c10×|F3i|)/|Fi|
ここで、c8,c9,c10は正の定数である。
次に、軌跡組み合わせ推定部50が、MCMCによって尤度関数L(w|Y)を最大化する手法について述べる。
まず、アルゴリズムの概要は、下記の通りである。
[MCMCアルゴリズム]
入力: Y,winit,Nmc 出力: wopt
(1)初期化 w=winit,wopt=winit
(2)メインルーチン
for n=1 to Nmc
step1. ζ(m)に従ってmをサンプリングする
step2. mに従って提案分布qを選択し、w’をサンプリングする
step3. 一様分布Unif[0 1]からuをサンプリングする
step4. if u<A(w,w’),w=w’;
step5. if L(w|Y)/L(wopt|Y)>1,
wopt=w’;(最大値の保存)
end
初期化では、初期分割winit={w+=φ,w-=Y}とする。
メインルーチンにおいて、step1では、確率分布ζ(m)に従ってmをサンプリングする。例えば、確率分布ζ(m)は一様分布と設定してもよい。
次に、step2では、インデックスmに対応する提案分布q(w’|w)に従って候補w’をサンプリングする。
提案アルゴリズムの提案分布は、「生成」,「消滅」,「スワップ」の3つのタイプを定義する。
インデックスm=1は「生成」、m=2は「消滅」、m=3は「スワップ」に対応するものとする。
続くstep4では、uと受理確率A(w,w’)に基づいて候補w’を受理又は棄却する。
受理確率A(w,w’)は下式で与えられる。
A(w,w’)
=min(1,q(w|w’)L(w’|Y)/q(w’|w)L(w|Y))
最後に、step5で、尤度関数を最大化する最適なwoptを保存する。
(A)生成
集合w-から一つの3次元移動軌跡yを選択してw+に加える。
ここで、yとして、w+にある軌跡と空間的にオーバーラップしていないものが優先して選択される。
即ち、y∈w-,w={w+,w-},w’={{w++y},{w--y}}とすると、提案分布は下式で与えられる。
q(w’|w) ∝ ζ(1) exp( -c4 Σj∈w+ O(y,yj))
ここで、O(y,yj)は、上述したオーバーラップコストであり、軌跡yとyjが完全に重なっている場合に“1”となり、まったく重なっていない場合は“0”をとるものとする。c4は正の定数である。
集合w+から一つの3次元移動軌跡yを選択してw-に加える。
ここで、yとして、w+の内部で空間的にオーバーラップしている軌跡が優先して選択される
即ち、y∈w+,w={w+,w-},w’={{w+-y},{w-+y}}とすると、提案分布は下式で与えられる。
q(w’|w) ∝ ζ(2) exp( c5 Σj∈w+ O(y,yj))
なお、w+が空集合の場合は、下記の通りとする。
q(w’|w)=1 (if w’=w),q(w’|w)=0 (otherwise)
c5は正の定数である。
ステレオコストが高い3次元移動軌跡と、ステレオコストが低い3次元移動軌跡を交換する。つまり集合w+から一つの3次元移動軌跡yを選択し、また、集合w-から一つの3次元移動軌跡zを選択して、その3次元移動軌跡yと3次元移動軌跡zを交換する。
具体的には、まず、3次元移動軌跡yとして、ステレオコストが高いものを優先して選択する。
次に、3次元移動軌跡zとして、3次元移動軌跡yとオーバーラップし、かつ、ステレオコストが低いものを優先して選択する。
即ち、y∈w+,z∈w-,w’={{w+-y+z},{w-+y-z}},
p(y|w) ∝ exp( c6 S(y)),
p(z|w,y) ∝ exp( -c6 S(z) exp( c7 O(z,y))
とすると、提案分布は下式で与えられる。
q(w’|w) ∝ ζ(3)×p(z|w,y)p(y|w)
ただし、c6,c7は正の定数である。
これにより、群管理システムでは、各エレベータから得られる移動履歴に基づいて常に最適なエレベータの群管理を実施することが可能になる。
また、映像解析部3は、個々の人物の移動履歴などを必要に応じて映像解析結果表示部4に出力する。
映像解析結果表示部4は、映像解析部3から個々の人物の移動履歴等を受けると、個々の人物の移動履歴等をディスプレイ(図示せぬ)に表示する。
図30は映像解析結果表示部4の画面構成例を示す説明図である。
図30に示すように、映像解析結果表示部4のメイン画面は、複数のカメラ1により撮影された映像を表示する映像表示部51による画面と、人物移動履歴を時系列的にグラフ表示する時系列情報表示部52による画面とから構成されている。
映像表示部51が複数の映像を同期して表示することで、ビル保守作業者などのユーザは、複数のエレベータの状況を同時に知ることができ、また、頭部検出結果や2次元移動軌跡などの映像解析結果を視覚的に把握することができる。
図31は時系列情報表示部52の画面の詳細例を示す説明図である。図31では、横軸に時間、縦軸に階床をとり、各エレベータ(カゴ)の移動履歴を時系列的にグラフ表示している。
図31の画面例では、時系列情報表示部52が、映像を再生・停止する映像再生・停止ボタン、映像をランダムにシークすることができる映像プログレスバー、表示するカゴ番号を選択するチェックボックス、表示時間単位を選択するプルダウンなどのユーザインターフェイスを表示している。
また、グラフにおいて、各ドア開時間を表示する太線付近に、階床、扉開時間、乗車人数、降車人数をテキスト「F15-D10-J0-K3」表示している。
このテキスト「F15-D10-J0-K3」は、カゴの階床が15階、ドア開時間が10秒、乗者人数が0人、降車人数が3人であることを略記したものである。
このように、時系列情報表示部52が映像解析結果を時系列的に表示することで、ビル保守作業者などのユーザは、複数のエレベータの乗降者やドア開閉時間などの情報の時間変化を視覚的に知ることができる。
図32はサマリー表示部53の画面例を示す説明図である。図32では、縦軸に階床、横軸に各カゴ番号をとり、ある一定時間帯(図32の例では、AM7時からAM10時までの時間帯)の各カゴ及び各階の乗降者人数の合計を並べて表示している。
サマリー表示部53が一定時間帯の各カゴ及び各階の乗降者を一覧表示することで、ユーザは、ビル全体のエレベータの運行状況を一目で把握することができる。
図32の画面例では、各乗降者人数の合計を表示する部分がボタンになっており、ユーザが各ボタンを押すと、それに対応する運行関連情報表示部54の詳細表示画面をポップアップ表示することができる。
図33は運行関連情報表示部54の画面例を示す説明図である。
図33の画面における各領域(A)~(F)には、下記の情報を表示している。
(B):対象となる時間帯、カゴ番号、階床を表示
(C):AM7:00~AM10:00に、カゴ#1に2階から乗って上方向に移動した人数が10人であることを表示
(D):AM7:00~AM10:00に、カゴ#1に3階から乗って、2階で降りた人数が1人であり、その平均待ち時間が30秒であることを表示
(E):AM7:00~AM10:00に、カゴ#1に3階から乗って下方向に移動した人数が3人であることを表示
(F):AM7:00~AM10:00に、カゴ#1に地下1階から乗って、2階で降りた人数が2人であり、その平均待ち時間が10秒であることを表示
運行関連情報表示部54が、解析した人物移動履歴の詳細情報を表示することで、ユーザが各階や各カゴの個別の情報を閲覧することができ、エレベータ運行の不具合などの原因の詳細を分析することができる。
図34はソートデータ表示部55の画面例を示す説明図である。
図34(A)の例では、ソートデータ表示部55が「ドア開時間」をソートキーとして映像解析部3の解析結果をソートし、ドア開時間が大きなデータを上位にして順番に表示している。
また、図34(A)には、「カゴ番号(#)」、システム時間(映像記録時間)、「ドア開時間」のデータを同時に表示している。
また、図34(B)には、「カゴ(#)」、「時間帯(例えば、30分単位)」、「乗降(乗車又は降車を示すフラグ)」、「乗降者人数」のデータを同時に表示している。
図34(C)の例では、ソートデータ表示部55が「乗降者移動人数」をソートキーとして映像解析部3の解析結果をソートし、「乗降者移動人数」が大きなデータを上位にして順番に表示している。
また、図34(C)には、「時間帯(例えば、30分単位)」、「乗階」、「降階」、「乗降者人数」のデータを同時に表示している。
ソートデータ表示部55がソートしたデータを表示することで、例えば、ドアが異常に開いている時間帯を発見し、同じ時間帯の映像や解析結果を参照することで、その不具合の原因を突き止めることができる。
これにより、乗客はエレベータの混雑具合から、いつどのエレベータに乗るのがよいのかを把握することができる。
また、セキュリティニーズの高い場所を監視対象領域として、人物の移動履歴を求めることに適用し、不審な人物の行動を監視することも可能である。
また、駅や店舗などに適用して人物の移動軌跡を解析することで、マーケティングなどに利用することも可能である。
さらに、エスカレータの踊り場を監視対象領域として適用し、踊り場に存在する人物の数をカウントして、踊り場が混雑してきた場合に、例えば、エスカレータの徐行や停止など適切な制御を行うことで、エスカレータ上で人物が将棋倒しになるなどの事故を未然に回避することに利用することもできる。
上記実施の形態1では、複数の3次元移動軌跡グラフを探索して、入退場条件を満足する3次元移動軌跡の候補を算出して、入場から退場までの3次元移動軌跡の候補を列挙し、コスト関数をMCMCなどで確率的に最大化することで3次元移動軌跡の候補の最適な組み合わせを求めているが、3次元移動軌跡グラフの構造が複雑な場合には、入退場条件を満足する3次元移動軌跡の候補数が天文学的に大きくなり、現実的な時間内に処理することができないことがある。
そこで、この実施の形態2では、3次元移動軌跡グラフの頂点(グラフを構成する各3次元移動軌跡)に対してラベル付けを実施し、入退場条件を鑑みたコスト関数を確率的に最大化することで、3次元移動軌跡の最適な組み合わせを現実的な時間内で推定するようにしている。
軌跡組み合わせ推定部61は3次元移動軌跡グラフ生成部49により生成された3次元移動軌跡グラフの頂点にラベリングを施して複数のラベリング候補を算出し、複数のラベリング候補の中から最適なラベリング候補を選択して、監視対象領域内に存在している人物の人数を推定する処理を実施する。
上記実施の形態1と比べて、軌跡組み合わせ推定部50が軌跡組み合わせ推定部61に代わっている以外は同じであるため、軌跡組み合わせ推定部61の動作のみを説明する。
図36は軌跡組み合わせ推定部61の処理内容を示すフローチャートであり、図37は軌跡組み合わせ推定部61の処理内容を示す説明図である。
図37(A)の例では、エレベータのカゴ内の入口付近に仮想的に入退場エリアを設定している。
ここで、軌跡組み合わせ推定部61は、3次元移動軌跡グラフをくまなく探索して、可能なラベリング候補をすべて列挙するようにしてもよいが、ラベリングの候補数が多い場合には、予め決められた数だけランダムにラベリング候補を選出するようにしてもよい。
図37(A)に示すように、下記の情報を有する3次元移動軌跡グラフが得られたものとする。
・L1に連結された3次元移動軌跡集合={L2,L3}
・L2に連結された3次元移動軌跡集合={L6}
・L3に連結された3次元移動軌跡集合={L5}
・L4に連結された3次元移動軌跡集合={L5}
・L5に連結された3次元移動軌跡集合={φ(空集合)}
・L6に連結された3次元移動軌跡集合={φ(空集合)}
ただし、L2は人物頭部の追跡ミスなどにより、誤って求めてしまった3次元移動軌跡であるとする。
例えば、ラベリング候補Aには、下記に示すように、0から2までのラベル番号のラベルが各3次元移動軌跡の断片に付与される。
・ラベル0={L3}
・ラベル1={L4,L5}
・ラベル2={L1,L2,L6}
ここで、ラベル0は、人物でない3次元移動軌跡(誤りの3次元移動軌跡)の集合とし、ラベル1以上は、各個別の人物の3次元移動軌跡の集合を意味するものと定義する。
この場合、ラベリング候補Aは、監視対象領域に人物が二人(ラベル1とラベル2)存在していることを示しており、ある人物(1)の3次元移動軌跡は、ラベル1が付与されている3次元移動軌跡L4と3次元移動軌跡L5から構成され、また、ある人物(2)の3次元移動軌跡は、ラベル2が付与されている3次元移動軌跡L1と3次元移動軌跡L2と3次元移動軌跡L6から構成されていることを示している。
・ラベル0={L2,L6}
・ラベル1={L1,L3,L5}
・ラベル2={L4}
この場合、ラベリング候補Bは、監視対象領域に人物が二人(ラベル1とラベル2)存在していることを示しており、ある人物(1)の3次元移動軌跡は、ラベル1が付与されている3次元移動軌跡L1と3次元移動軌跡L3と3次元移動軌跡L5から構成され、また、ある人物(2)の3次元移動軌跡は、ラベル2が付与されている3次元移動軌跡L4から構成されていることを示している。
コスト関数としては、下記に示すようなコストを定義する。
コスト = 「入退場条件を満たした3次元移動軌跡の数」
ここで、入退場条件として、例えば、上記実施の形態1で述べた入場条件及び退場条件を利用する。
また、ラベリング候補Bでは、ラベル1のみが入退場条件を満足する3次元移動軌跡である。
したがって、ラベリング候補A,Bのコストが下記のようになるため、コスト関数が最大となるラベリング候補がラベリング候補Aであって、ラベリング候補Aが最適な3次元移動軌跡グラフのラベリングとして判断される。
このため、エレベータのカゴ内を移動していた人物が2人であることも同時に推定される。
・ラベリング候補Aのコスト=2
・ラベリング候補Bのコスト=1
ここでは、階床認識部12により特定された停止階情報を対応付けるものについて示したが、別途、エレベータの制御機器から停止階情報を取得して対応付けるようにしてもよい。
このような場合、軌跡組み合わせ推定部61は、MCMCやGAなどの確率的な最適化手法を用いて、3次元移動軌跡グラフのラベリング処理を実施するようにしてもよい。
以下、3次元移動軌跡グラフのラベリング処理を具体的に説明する。
軌跡組み合わせ推定部61は、3次元移動軌跡グラフ生成部49が3次元移動軌跡グラフを生成すると、その3次元移動軌跡グラフの頂点の集合、即ち、人物の3次元移動軌跡の集合をY={yi}i=1,・・・,Nとする。ここで、Nは3次元移動軌跡の数である。
また、状態空間wを以下のように定義する.
w={τ0,τ1,τ2,・・・,τK}
ここで、τ0はどの人物にも属さない3次元移動軌跡yiの集合であり、τiはi番目の人物の3次元移動軌跡に属する3次元移動軌跡yiの集合であり、Kは3次元移動軌跡の数(人物数)である。
τiは複数の連結された3次元移動軌跡から構成されており、一つの3次元移動軌跡とみなすことができる。
また、下記を満足するものとする。
・Uk=0,・・・,K τk=Y
・τi ∩ τj=φ (for all i≠j)
・|τk|>1 (for all k)
これは尤度関数L(w/Y)をコスト関数として定義し、このコスト関数を最大化する問題として定式化することができる。
即ち、最適な軌跡ラベリングをwoptとすると、woptは下式で与えられる。
wopt=argmax L(w|Y)
L(w|Y)=Lovr(w|Y)Lnum(w|Y)Lstr(w|Y)
ここで、Lovrは「3次元空間内で3次元移動軌跡が重ならない」ことを定式化した尤度関数、Lnumは「可能な限り多く入退場条件を満たす3次元移動軌跡が存在する」ことを定式化した尤度関数、Lstrは「3次元移動軌跡のステレオ視の精度が高い」ことを定式化した尤度関数である。
[軌跡のオーバーラップに関する尤度関数]
「3次元空間内で3次元移動軌跡が重ならない」という条件を下記のように定式化する。
Lovr(w|Y) ∝ exp( -c1 Στi∈w-τ0 Στj∈w-τ0 O(τi,τj))
ここで、O(τi,τj)は、3次元移動軌跡τiと3次元移動軌跡τjのオーバーラップコストであり、3次元移動軌跡τiと3次元移動軌跡τjが完全に重なっている場合には“1”となり、まったく重なっていない場合には“0”をとるものとする。
O(τi,τj)は、例えば、上記実施の形態1で説明したものを利用する。c1は正の定数である。
「可能な限り多く入退場条件を満たす3次元移動軌跡が存在する」という条件を下記のように定式化する。
Lnum(w|Y) ∝ exp( c2×K + c3×J)
ここで、Kは3次元移動軌跡の数であり、K=|w-τ0|で与えられる。また、JはK個の3次元移動軌跡τ1からτKまでの中で、入退場条件を満足する3次元移動軌跡の数である。
入退場条件は、例えば、上記実施の形態1で説明したものを利用する。
尤度関数Lnum(w|Y)は、集合Yから可能な限り多くの3次元移動軌跡が選択され、かつ、その中でも入退場条件を満足するものが多く存在するように働く。c2,c3は正の定数である。
「3次元移動軌跡のステレオ視の精度が高い」という条件を下記のように定式化する。
Lstr(w|Y) ∝ exp( -c4 × Στi∈w-τ0 S(τi))
ここで、S(τi)は、ステレオコストであり、3次元移動軌跡がステレオ視によって推定された場合は小さな値をとり、3次元移動軌跡が単眼視や、どのカメラからも観測されない期間がある場合は大きな値をとるものとする。
例えば、ステレオコストS(τi)の計算方法は、上記実施の形態1で説明したものを利用する。c4は正の定数である。
上記実施の形態2では、3次元移動軌跡グラフの頂点(グラフを構成する各3次元移動軌跡)に対してラベル付けを実施し、入退場条件を鑑みたコスト関数を確率的に最大化することで、3次元移動軌跡の最適な組み合わせを現実的な時間内で推定するようにしている。しかし、映像に写る人物数が増えて、さらに2次元移動軌跡グラフの構造が複雑な場合には、立体視の結果得られる3次元移動軌跡の断片の候補数が天文学的に大きくなり、実施の形態2の方法を利用しても、現実的な時間内に処理を終了できないことがある。
そこで、この実施の形態3では、2次元移動軌跡グラフの頂点(グラフを構成する各2次元移動軌跡)に対して確率的にラベル付けを実施し、2次元移動軌跡のラベルに応じて3次元移動軌跡の立体視を行い、入退場条件を鑑みた3次元移動軌跡のコスト関数を評価することで、最適な3次元移動軌跡を現実的な時間内で推定するようにしている。
2次元移動軌跡ラベリング部71は、2次元移動軌跡グラフ生成部47により生成された2次元移動軌跡グラフの有向辺にラベリングを施して複数のラベリング候補を算出する処理を実施する。3次元移動軌跡コスト計算部72は、3次元移動軌跡の組み合わせに関するコスト関数を計算し、複数のラベリング候補の中から最適なラベリング候補を選択して、監視対象領域内に存在している人物の人数を推定する処理を実施する。
上記実施の形態1と比べて、3次元移動軌跡グラフ生成部49及び軌跡組み合わせ推定部50に代わって、2次元移動軌跡ラベリング部71と、3次元移動軌跡コスト計算部72が追加されている。それ以外の構成は同一であるため、以下では2次元移動軌跡ラベリング部71と3次元移動軌跡コスト計算部72の動作を中心に説明する。
図39は2次元移動軌跡ラベリング部71と3次元移動軌跡コスト計算部72の処理内容を示すフローチャートであり、図40は2次元移動軌跡ラベリング部71と3次元移動軌跡コスト計算部72の処理内容を示す説明図である。
図40(A)に示すように、対象領域に人物Xと人物Yが存在し、下記の情報を有する2次元移動軌跡グラフが得られたものとする。
カメラ1の映像
・2次元移動軌跡T1に連結された2次元移動軌跡集合={T2,T3}
・2次元移動軌跡T4に連結された2次元移動軌跡集合={T5、T6}
カメラ2の映像
・2次元移動軌跡P1に連結された2次元移動軌跡集合={P2,P3}
・2次元移動軌跡P4に連結された2次元移動軌跡集合={P5,P6}
[ラベリング候補1]
・ラベルA={{T1,T3},{P1,P2}}
・ラベルB={{T4,T6},{P4,P5}}
・ラベルZ={{T2,T5},{P3,P6}}
ここで、ラベリング候補1を次のように解釈する。監視対象領域に人物が二人(ラベルAとラベルB)存在していることを示しており、ある人物Yの2次元移動軌跡は、ラベルAが付与されている2次元移動軌跡T1,T3,P1,P2とから構成される。また、ある人物Xの2次元移動軌跡は、ラベルBが付与されている2次元移動軌跡T4,T6,P4,P5から構成されていることを示している。ここで、ラベルZは特別なラベルと定義し、ラベルZが付与されているT2,T5,P3,P6は、誤って求めてしまった人物でない2次元移動軌跡の集合であることを示すものとする。
ここで用いたラベルはA,B,Zの3つであるが、これに限らず必要に応じて任意にラベルの数を増やしてもよい。
また、ラベルZが付与されているT2,T5,P3,P6は、人物の軌跡で無いと解釈されているので、ステレオマッチングは実施しない。
その他、軌跡ステレオ部48の2次元移動軌跡の立体視に関する動作は、実施の形態1と同一であるため説明を省略する。
複数のラベリング候補に対する3次元移動軌跡の集合に対して、人物数、人物同士の位置関係、2次元移動軌跡のステレオマッチング率、ステレオ立体視精度及び監視対象領域への入退場条件などを考慮したコスト関数を計算し、そのコスト関数が最大となるラベリング候補を求め、個々の人物の最適な3次元移動軌跡と人物数を算出する(ステップST93)。
コスト=「入退場条件を満たした3次元移動軌跡の数」
ここで、入退場条件として、例えば、上記実施の形態1で述べた入場条件及び退場条件を利用する。例えば図40(C)の場合、ラベリング候補1では、ラベルAとラベルBが入退場条件を満足する3次元移動軌跡であるため、
ラベリング候補1のコスト=2
と計算される。
コスト=「入退場条件を満たした3次元移動軌跡の数」
-a×「3次元移動軌跡のオーバーラップコストの合計」
+b×「2次元移動軌跡のマッチング率の合計」
ここで、a,bは、各評価値のバランスを取るための正の定数である。また、2次元移動軌跡のマッチング率と3次元移動軌跡のオーバーラップコストは、例えば実施の形態1で説明したものを利用する。
このような場合、MCMCやGAなどの確率的な最適化手法を用いて、2次元移動軌跡ラベリング部71におけるラベルリング候補の生成を確率的に生成して、最適あるいは準最適な3次元移動軌跡を求めることで、現実的な時間内に処理を終了するようにしてもよい。
ここでは、階床認識部12により特定された停止階情報を対応付けるものについて示したが、別途、エレベータの制御機器から停止階情報を取得して対応付けるようにしてもよい。
上記実施の形態1から実施の形態3では、エレベータ乗降者の人物移動履歴の計測方法について述べたが、この実施の形態4では人物移動履歴の利用方法について述べる。
センサ81は、監視対象領域であるエレベータ外部に設置されており、例えば、可視カメラや赤外線カメラ、あるいはレーザー距離計などで構成される。
フロア人物検出部82は、センサ81が取得する情報を利用して、エレベータ外部の人物の移動履歴を計測する処理を実施する。
カゴ呼び計測部83は、エレベータ呼び出し履歴を計測する処理を実施する。
交通流可視化部85は、映像解析部3とフロア人物検出部82とカゴ呼び計測部83が計測した実際の交通流と、群管理最適化部84が生成したシミュレーション交通流とを比較し、アニメーションやグラフで表示する処理を実施する。
まず、カメラ1、映像取得部2、映像解析部3はエレベータ内部の人物移動履歴を算出する(ステップST1~ST4)。
例えば、センサ81には可視カメラを用いて、実施の形態1と同様に映像から人物の頭部を検出・追跡し、フロア人物検出部82は、エレベータの到着を待つ人物やこれからエレベータに向かう人物の3次元移動軌跡と、それらの人数を計測する処理を実施する。
センサ81は、可視カメラに限らず、熱を感知する赤外線カメラ、レーザー距離計、またはフロアに敷き詰めた感圧センサなど人物の移動情報が計測できるものであれば何でもよい。
カゴ呼び計測部83は、エレベータのカゴ呼び出し履歴を計測する(ステップST102)。例えば、カゴ呼び計測部83は各フロアに配置されているエレベータ呼び出しボタンが押された履歴を計測する処理を実施する。
ここで、エレベータ待ち時間とは、ある人物がフロアに到着してから所望のエレベータが到着するまでの時間である。
従来は正確なエレベータの人物移動履歴を計測する手段が無かったため、群管理最適化アルゴリズムではエレベータ内外の人物移動履歴の適当な確率分布を仮定してエレベータ群管理の最適化処理がなされていた。しかし、この実施の形態4では、実測した人物移動履歴を従来のアルゴリズムへ入力することで、より最適な群管理を実現することが可能である。
例えば、交通流可視化部85は、エレベータやテナントを表示したビルの2次元断面図上に、エレベータ待ち時間、人物の移動量合計、または人物の単位時間あたりの移動確率をアニメーションで表示したり、エレベータのカゴ移動のダイアグラムをグラフで表示する。交通流可視化部85は、コンピュータによるシミュレーションにより、エレベータ台数を増減したり、エレベータ新規機種を導入した際の人物の移動履歴を仮想的に計算し、このシミュレーション結果と、映像解析部3、フロア人物検出部82及びカゴ呼び計測部83が計測した実際の人物移動履歴とを同時に表示することができるので、シュミレーション結果と実際の人物移動履歴を比較することで、現状のビル内の交通流と、改築による交通流との変化を検証することができる効果がある。
従来、エレベータの車椅子専用ボタンを押した場合、エレベータが優先的に配車される。しかし、健常者が意図せず誤って車椅子専用ボタンを押した場合もエレベータが優先的に配車されるため、エレベータ群の運行効率を下げる原因となっていた。
そこで、この実施の形態5では、画像処理により車椅子を認識し、フロア及びエレベータのカゴ内に車椅子の人物が存在する場合にのみ優先的にカゴを運行することにより効率的なエレベータの運行を行う構成を示す。
車椅子検出部91は、映像解析部3及びフロア人物検出部82が算出した人物の中から車椅子と、その車椅子に座る人物を特定する処理を実施する。
まず、カメラ1、映像取得部2、映像解析部3はエレベータ内部の人物移動履歴を算出する(ステップST1~ST4)。フロア人物検出部82は、エレベータ外部に設置されたセンサ81を用いて、エレベータ外部の人物の移動履歴を計測する(ステップST101)。カゴ呼び計測部83は、エレベータのカゴ呼び出し履歴を計測する(ステップST102)。
Claims (29)
- 相互に異なる位置に設置され、同一の監視対象領域を撮影する複数の撮影手段と、上記複数の撮影手段により撮影された監視対象領域の映像を解析して、上記監視対象領域内に存在している個々の人物の各映像上の位置を算出する人物位置算出手段と、上記人物位置算出手段により算出された各映像上の位置を追跡して、各映像における個々の人物の2次元移動軌跡を算出する2次元移動軌跡算出手段と、上記2次元移動軌跡算出手段により算出された各映像における2次元移動軌跡間のステレオマッチングを実施して、上記2次元移動軌跡のマッチング率を算出し、上記マッチング率が規定値以上の2次元移動軌跡から、個々の人物の3次元移動軌跡を算出する3次元移動軌跡算出手段とを備えた人物追跡装置。
- 3次元移動軌跡算出手段は、個々の人物の3次元移動軌跡から3次元移動軌跡グラフを生成し、上記3次元移動軌跡グラフを探索して複数の3次元移動軌跡の候補を算出し、複数の3次元移動軌跡の候補の中から最適な3次元移動軌跡を選択することを特徴とする請求項1記載の人物追跡装置。
- 人物位置算出手段は、複数の撮影手段により撮影されたキャリブレーションパターンの映像の歪み具合を解析して、上記複数の撮影手段のカメラパラメータを算出するカメラキャリブレーション部と、上記カメラキャリブレーション部により算出されたカメラパラメータを用いて、上記複数の撮影手段により撮影された監視対象領域の映像の歪みを補正する映像補正部と、上記映像補正部により歪みが補正された各映像に写っている個々の人物を検出し、個々の人物の各映像上の位置を算出する人物検出部とから構成され、
2次元移動軌跡算出手段は、上記人物検出部により算出された各映像上の位置を追跡して、各映像における個々の人物の2次元移動軌跡を算出する2次元移動軌跡算出部から構成され、
3次元移動軌跡算出手段は、上記2次元移動軌跡算出部により算出された2次元移動軌跡に対する分割処理及び連結処理を実施して2次元移動軌跡グラフを生成する2次元移動軌跡グラフ生成部と、上記2次元移動軌跡グラフ生成部により生成された2次元移動軌跡グラフを探索して複数の2次元移動軌跡の候補を算出し、上記監視対象領域内の基準点に対する上記複数の撮影手段の設置位置及び設置角度を考慮して、各映像における2次元移動軌跡の候補間のステレオマッチングを実施して、上記2次元移動軌跡の候補のマッチング率を算出し、上記マッチング率が規定値以上の2次元移動軌跡の候補から、個々の人物の3次元移動軌跡を算出する軌跡ステレオ部と、上記軌跡ステレオ部により算出された3次元移動軌跡に対する分割処理及び連結処理を実施して3次元移動軌跡グラフを生成する3次元移動軌跡グラフ生成部と、上記3次元移動軌跡グラフ生成部により生成された3次元移動軌跡グラフを探索して複数の3次元移動軌跡の候補を算出し、複数の3次元移動軌跡の候補の中から最適な3次元移動軌跡を選択して、上記監視対象領域内に存在している人物の人数を推定する軌跡組み合わせ推定部とから構成されていることを特徴とする請求項2記載の人物追跡装置。 - 監視対象領域がエレベータの内部である場合、複数の撮影手段により撮影されたエレベータの内部の映像を解析して、上記エレベータのドアの開閉時刻を特定するドア開閉時刻特定手段を設け、3次元移動軌跡算出手段が複数の3次元移動軌跡の候補の中から最適な3次元移動軌跡を選択する際、上記ドア開閉時刻特定手段により特定されたドアの開閉時刻を参照して、軌跡始点の時刻及び軌跡終点の時刻がドアが閉じている時刻と一致する3次元移動軌跡の候補を除外することを特徴とする請求項2記載の人物追跡装置。
- 監視対象領域がエレベータの内部である場合、複数の撮影手段により撮影されたエレベータの内部の映像を解析して、上記エレベータのドアの開閉時刻を特定するドア開閉時刻特定手段を設け、3次元移動軌跡算出手段が複数の3次元移動軌跡の候補の中から最適な3次元移動軌跡を選択する際、上記ドア開閉時刻特定手段により特定されたドアの開閉時刻を参照して、軌跡始点の時刻及び軌跡終点の時刻がドアが閉じている時刻と一致する3次元移動軌跡の候補を除外することを特徴とする請求項3記載の人物追跡装置。
- ドア開閉時刻特定手段は、ドアが閉じている状態のエレベータ内のドア領域の画像を背景画像として登録する背景画像登録部と、上記背景画像登録部により登録されている背景画像と撮影手段により撮影されたドア領域の映像との差分を算出する背景差分部と、上記撮影手段により撮影されたドア領域の映像の変化からドアの移動方向を示す動きベクトルを計算するオプティカルフロー計算部と、上記背景差分部により算出された差分と上記オプティカルフロー計算部により計算された動きベクトルからドアの開閉状態を判別して、上記ドアの開閉時刻を特定するドア開閉時刻特定部と、上記撮影手段により撮影されたドア領域の映像を用いて、上記背景画像を更新する背景画像更新部とから構成されていることを特徴とする請求項4記載の人物追跡装置。
- ドア開閉時刻特定手段は、ドアが閉じている状態のエレベータ内のドア領域の画像を背景画像として登録する背景画像登録部と、上記背景画像登録部により登録されている背景画像と撮影手段により撮影されたドア領域の映像との差分を算出する背景差分部と、上記撮影手段により撮影されたドア領域の映像の変化からドアの移動方向を示す動きベクトルを計算するオプティカルフロー計算部と、上記背景差分部により算出された差分と上記オプティカルフロー計算部により計算された動きベクトルからドアの開閉状態を判別して、上記ドアの開閉時刻を特定するドア開閉時刻特定部と、上記撮影手段により撮影されたドア領域の映像を用いて、上記背景画像を更新する背景画像更新部とから構成されていることを特徴とする請求項5記載の人物追跡装置。
- エレベータの内部の映像を解析して、各時刻における上記エレベータの階床を特定する階床特定手段を設け、3次元移動軌跡算出手段が個々の人物の3次元移動軌跡と上記階床特定手段により特定された階床とを対応付けて、個々の人物の乗車階と降車階を示す人物移動履歴を算出することを特徴とする請求項1記載の人物追跡装置。
- 階床特定手段は、エレベータの階床を示すインジケータの画像をテンプレート画像として登録するテンプレート画像登録部と、上記テンプレート画像登録部により登録されているテンプレート画像と撮影手段により撮影されたエレベータ内のインジケータ領域の映像とのテンプレートマッチングを実施して、各時刻における上記エレベータの階床を特定するテンプレートマッチング部と、上記撮影手段により撮影されたインジケータ領域の映像を用いて、上記テンプレート画像を更新するテンプレート画像更新部とから構成されていることを特徴とする請求項8記載の人物追跡装置。
- 3次元移動軌跡算出手段により算出された人物移動履歴を表示する映像解析結果表示手段を設けたことを特徴とする請求項8記載の人物追跡装置。
- 3次元移動軌跡算出手段により算出された人物移動履歴を表示する映像解析結果表示手段を設けたことを特徴とする請求項9記載の人物追跡装置。
- 映像解析結果表示手段は、複数の撮影手段により撮影されたエレベータの内部の映像を表示する映像表示部と、3次元移動軌跡算出手段により算出された人物移動履歴を時系列的にグラフ表示する時系列情報表示部と、上記3次元移動軌跡算出手段により算出された人物移動履歴の統計を求め、上記人物移動履歴の統計結果を表示するサマリー表示部と、上記3次元移動軌跡算出手段により算出された人物移動履歴を参照して、エレベータの運行に関連する情報を表示する運行関連情報表示部と、上記3次元移動軌跡算出手段により算出された人物移動履歴をソートして表示するソートデータ表示部とから構成されていることを特徴とする請求項10記載の人物追跡装置。
- 映像解析結果表示手段は、複数の撮影手段により撮影されたエレベータの内部の映像を表示する映像表示部と、3次元移動軌跡算出手段により算出された人物移動履歴を時系列的にグラフ表示する時系列情報表示部と、上記3次元移動軌跡算出手段により算出された人物移動履歴の統計を求め、上記人物移動履歴の統計結果を表示するサマリー表示部と、上記3次元移動軌跡算出手段により算出された人物移動履歴を参照して、エレベータの運行に関連する情報を表示する運行関連情報表示部と、上記3次元移動軌跡算出手段により算出された人物移動履歴をソートして表示するソートデータ表示部とから構成されていることを特徴とする請求項11記載の人物追跡装置。
- カメラキャリブレーション部は、複数の撮影手段により撮影されたキャリブレーションパターンの映像と、上記複数の撮影手段のカメラパラメータとを用いて、監視対象領域内の基準点に対する上記複数の撮影手段の設置位置及び設置角度を算出し、上記複数の撮影手段の設置位置及び設置角度を軌跡ステレオ部に出力することを特徴とする請求項3記載の人物追跡装置。
- 人物検出部が個々の人物の各映像上の位置を算出する際、上記人物の確信度を算出し、2次元移動軌跡算出部が上記人物検出部により算出された確信度の累積値が所定の閾値以下であれば、当該人物の位置の追跡を終了することを特徴とする請求項3記載の人物追跡装置。
- 2次元移動軌跡算出部は、人物検出部が個々の人物の検出処理を実施して、当該人物を検出すれば、当該人物の検出結果に係るカウンタの値を上げる一方、当該人物を検出できなければ、当該人物の検出結果に係るカウンタの値を下げる処理を実施し、上記カウンタの値が所定の閾値以下であれば、当該人物の位置の追跡を終了することを特徴とする請求項3記載の人物追跡装置。
- 人物検出部は、映像補正部により歪みが補正された各映像に写っている個々の人物を検出する際、人物の検出結果の中で、人物の頭部サイズが最小矩形サイズより小さい検出結果と、人物の頭部サイズが最大矩形サイズより大きい検出結果を誤検出とみなして、人物の検出結果から除外することを特徴とする請求項3記載の人物追跡装置。
- 2次元移動軌跡算出部は、各映像における個々の人物の2次元移動軌跡を算出する際、人物検出部により算出された各映像上の位置を時間的に前方に追跡して2次元移動軌跡を算出するとともに、各映像上の位置を時間的に後方に追跡して2次元移動軌跡を算出することを特徴とする請求項3記載の人物追跡装置。
- 軌跡ステレオ部は、マッチング率が規定値以上の2次元移動軌跡の候補から、個々の人物の3次元移動軌跡を算出しても、上記3次元移動軌跡が監視対象領域に対する入退場条件を満足しない場合、上記3次元移動軌跡を破棄することを特徴とする請求項3記載の人物追跡装置。
- 軌跡ステレオ部は、2次元移動軌跡の候補がオーバーラップしている時間帯の人物の3次元位置を算出し、上記3次元位置から2次元移動軌跡の候補がオーバーラップしていない時間帯の人物の3次元位置を推定することで、個々の人物の3次元移動軌跡を算出することを特徴とする請求項3記載の人物追跡装置。
- 軌跡組み合わせ推定部は、複数の3次元移動軌跡の候補の中から最適な3次元移動軌跡を選択する際、軌跡始点及び軌跡終点が監視対象領域の入退場領域内に存在しない3次元移動軌跡の候補を除外して、上記監視対象領域への入場から退場に至るまでの3次元移動軌跡の候補を残すことを特徴とする請求項3記載の人物追跡装置。
- 軌跡組み合わせ推定部は、入場から退場に至るまでの3次元移動軌跡の候補の中から、監視対象領域内に存在している人物の人数、人物同士の位置関係及び軌跡ステレオ部におけるステレオマッチングの精度が反映されるコスト関数が最大になる3次元移動軌跡の候補の組み合わせを選択することを特徴とする請求項21記載の人物追跡装置。
- 人物位置算出手段は、複数の撮影手段により撮影されたキャリブレーションパターンの映像の歪み具合を解析して、上記複数の撮影手段のカメラパラメータを算出するカメラキャリブレーション部と、上記カメラキャリブレーション部により算出されたカメラパラメータを用いて、上記複数の撮影手段により撮影された監視対象領域の映像の歪みを補正する映像補正部と、上記映像補正部により歪みが補正された各映像に写っている個々の人物を検出し、個々の人物の各映像上の位置を算出する人物検出部とから構成され、
2次元移動軌跡算出手段は、上記人物検出部により算出された各映像上の位置を追跡して、各映像における個々の人物の2次元移動軌跡を算出する2次元移動軌跡算出部から構成され、
3次元移動軌跡算出手段は、上記2次元移動軌跡算出部により算出された2次元移動軌跡に対する分割処理及び連結処理を実施して2次元移動軌跡グラフを生成する2次元移動軌跡グラフ生成部と、上記2次元移動軌跡グラフ生成部により生成された2次元移動軌跡グラフを探索して複数の2次元移動軌跡の候補を算出し、上記監視対象領域内の基準点に対する上記複数の撮影手段の設置位置及び設置角度を考慮して、各映像における2次元移動軌跡の候補間のステレオマッチングを実施して、上記2次元移動軌跡の候補のマッチング率を算出し、上記マッチング率が規定値以上の2次元移動軌跡の候補から、個々の人物の3次元移動軌跡を算出する軌跡ステレオ部と、上記軌跡ステレオ部により算出された3次元移動軌跡に対する分割処理及び連結処理を実施して3次元移動軌跡グラフを生成する3次元移動軌跡グラフ生成部と、上記3次元移動軌跡グラフ生成部により生成された3次元移動軌跡グラフの頂点にラベリングを施して複数のラベリング候補を算出し、複数のラベリング候補の中から最適なラベリング候補を選択して、上記監視対象領域内に存在している人物の人数を推定する軌跡組み合わせ推定部とから構成されていることを特徴とする請求項2記載の人物追跡装置。 - 軌跡組み合わせ推定部は、複数のラベリング候補の中から、監視対象領域内に存在している人物の人数、人物同士の位置関係、軌跡ステレオ部におけるステレオマッチングの精度及び監視対象領域に対する入退場条件が反映されるコスト関数が最大になるラベリング候補を選択することを特徴とする請求項23記載の人物追跡装置。
- 3次元移動軌跡算出手段は、2次元移動軌跡算出部により算出された2次元移動軌跡に対する分割処理及び連結処理を実施して2次元移動軌跡グラフを生成する2次元移動軌跡グラフ生成部と、上記2次元移動軌跡グラフ生成部により生成された2次元移動軌跡グラフの頂点に対して確率的にラベル付けを実施する2次元移動軌跡ラベリング部と、上記2次元移動軌跡ラベリング部により生成された2次元移動軌跡の複数のラベリング候補に対して、監視対象領域内の基準点に対する複数の撮影手段の設置位置及び設置角度を考慮して、各映像における同一ラベルが付与された2次元移動軌跡の候補間のステレオマッチングを実施して、上記2次元移動軌跡の候補のマッチング率を算出し、上記マッチング率が規定値以上の2次元移動軌跡の候補から、個々の人物の3次元移動軌跡を算出する軌跡ステレオ部と、上記軌跡ステレオ部により生成された3次元移動軌跡の集合に対して人物数、人物同士の位置関係、2次元移動軌跡のステレオマッチング率、ステレオ立体視精度及び監視対称領域への入退場条件などを鑑みた3次元移動軌跡のコスト関数を評価し、最適な3次元移動軌跡を推定する3次元移動軌跡コスト計算部とから構成されていることを特徴とする請求項2記載の人物追跡装置。
- エレベータ外部に設置されたセンサが取得する情報からエレベータ外部の人物移動履歴を計測するフロア人物検出部と、エレベータの呼び出し履歴を計測するカゴ呼び計測部と、3次元移動軌跡算出手段により算出された個々の人物の3次元移動軌跡、上記フロア人物検出部により計測されたエレベータ外部の人物移動履歴及び上記カゴ呼び計測部により計測された呼び出し履歴からエレベータ群配車の最適化処理を実施すると共に、上記最適化処理に基づいたエレベータ群のシミュレーション交通流を算出する群管理最適化部とを備えたことを特徴とする請求項1記載の人物追跡装置。
- 個々の人物の3次元移動軌跡、エレベータ外部の人物移動履歴及び呼び出し履歴から成る実測人物移動履歴と、群管理最適化部が算出したシミュレーション交通流とを比較し、比較結果を表示する交通流可視化部を備えたことを特徴とする請求項26記載の人物追跡装置。
- 車椅子を検出する車椅子検出部を備え、群管理最適化部は、上記車椅子検出部の検出状態に応じてエレベータ群管理を実施することを特徴とする請求項26記載の人物追跡装置。
- 相互に異なる位置に設置されている複数の撮影手段により撮影された同一の監視対象領域の映像が与えられると、上記監視対象領域内に存在している個々の人物の各映像上の位置を算出する人物位置算出処理手順と、上記人物位置算出処理手順により算出された各映像上の位置を追跡して、各映像における個々の人物の2次元移動軌跡を算出する2次元移動軌跡算出処理手順と、上記2次元移動軌跡算出処理手順により算出された各映像における2次元移動軌跡間のステレオマッチングを実施して、上記2次元移動軌跡のマッチング率を算出し、上記マッチング率が規定値以上の2次元移動軌跡から、個々の人物の3次元移動軌跡を算出する3次元移動軌跡算出処理手順とをコンピュータに実行させるための人物追跡プログラム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/147,639 US20120020518A1 (en) | 2009-02-24 | 2010-02-09 | Person tracking device and person tracking program |
JP2011501473A JP5230793B2 (ja) | 2009-02-24 | 2010-02-09 | 人物追跡装置及び人物追跡プログラム |
CN2010800089195A CN102334142A (zh) | 2009-02-24 | 2010-02-09 | 人物追踪装置以及人物追踪程序 |
TW099104944A TW201118803A (en) | 2009-02-24 | 2010-02-22 | Person-tracing apparatus and person-tracing program |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009040742 | 2009-02-24 | ||
JP2009-040742 | 2009-02-24 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2010098024A1 true WO2010098024A1 (ja) | 2010-09-02 |
Family
ID=42665242
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2010/000777 WO2010098024A1 (ja) | 2009-02-24 | 2010-02-09 | 人物追跡装置及び人物追跡プログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US20120020518A1 (ja) |
JP (1) | JP5230793B2 (ja) |
CN (1) | CN102334142A (ja) |
TW (1) | TW201118803A (ja) |
WO (1) | WO2010098024A1 (ja) |
Cited By (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011173707A (ja) * | 2010-02-25 | 2011-09-08 | Mitsubishi Electric Corp | 戸開閉検出装置及び戸開閉検出方法 |
JP2011211687A (ja) * | 2010-03-25 | 2011-10-20 | Nec (China) Co Ltd | データ関連付けのための方法と装置 |
JP2012158968A (ja) * | 2011-01-28 | 2012-08-23 | Fuji Hensokuki Co Ltd | 駐車場内の人検出器 |
CN102701056A (zh) * | 2011-12-12 | 2012-10-03 | 广州都盛机电有限公司 | 一种动态图像识别控制方法、装置及系统 |
JP2012212968A (ja) * | 2011-03-30 | 2012-11-01 | Secom Co Ltd | 画像監視装置 |
JP2013025599A (ja) * | 2011-07-22 | 2013-02-04 | Japan Research Institute Ltd | 情報処理システム、制御装置、端末装置、及びプログラム |
JP2013173594A (ja) * | 2012-02-24 | 2013-09-05 | Toshiba Elevator Co Ltd | エレベータシステム |
JP2014144826A (ja) * | 2013-01-28 | 2014-08-14 | Hitachi Ltd | エレベータ監視装置及びエレベータ監視方法 |
JP2015007953A (ja) * | 2013-06-24 | 2015-01-15 | 由田新技股▲ふん▼有限公司 | 車両乗車人数の監視装置及び車両乗車人数の監視方法並びにコンピュータ可読記憶媒体 |
JP2015203912A (ja) * | 2014-04-11 | 2015-11-16 | パナソニックIpマネジメント株式会社 | 人数計測装置、人数計測システムおよび人数計測方法 |
JP2016032192A (ja) * | 2014-07-29 | 2016-03-07 | 三菱電機ビルテクノサービス株式会社 | エレベータかご内カメラの画角調整装置およびエレベータかご内カメラの画角調整方法 |
JP2016133938A (ja) * | 2015-01-16 | 2016-07-25 | 能美防災株式会社 | 監視システム |
JP2017103602A (ja) * | 2015-12-01 | 2017-06-08 | キヤノン株式会社 | 位置検出装置、位置検出方法及びプログラム |
US9779511B2 (en) | 2014-10-11 | 2017-10-03 | Superd Co. Ltd. | Method and apparatus for object tracking and 3D display based thereon |
WO2017212568A1 (ja) * | 2016-06-08 | 2017-12-14 | 三菱電機株式会社 | 監視装置 |
WO2018020722A1 (ja) * | 2016-07-29 | 2018-02-01 | オムロン株式会社 | 画像処理装置および画像処理方法 |
WO2019087729A1 (ja) * | 2017-10-30 | 2019-05-09 | 株式会社日立製作所 | ビル内人流推定システムおよび推定方法 |
JP2019185615A (ja) * | 2018-04-16 | 2019-10-24 | Kddi株式会社 | 動線管理装置、動線管理方法及び動線管理プログラム |
JP2020009382A (ja) * | 2018-07-12 | 2020-01-16 | 株式会社チャオ | 動線分析装置、動線分析プログラムおよび動線分析方法 |
JP2020140459A (ja) * | 2019-02-28 | 2020-09-03 | 三菱電機株式会社 | 設備監視システム、設備監視方法及びプログラム |
CN112001941A (zh) * | 2020-06-05 | 2020-11-27 | 成都睿畜电子科技有限公司 | 基于计算机视觉的仔猪监管方法及系统 |
WO2020261560A1 (ja) * | 2019-06-28 | 2020-12-30 | 三菱電機株式会社 | ビル管理システム |
JP2021080102A (ja) * | 2019-11-13 | 2021-05-27 | 新世代機器人▲ぢ▼人工智慧股▲ふん▼有限公司 | ロボット装置とエレベータ装置の双方向制御方法 |
CN112949375A (zh) * | 2019-12-11 | 2021-06-11 | 株式会社东芝 | 计算系统、计算方法及存储介质 |
JP2021197094A (ja) * | 2020-06-18 | 2021-12-27 | 株式会社東芝 | 人物識別装置、人物識別システム、人物識別方法、及びプログラム |
JP2022015531A (ja) * | 2020-07-09 | 2022-01-21 | 東芝エレベータ株式会社 | エレベータの利用者検知システム |
JPWO2022029860A1 (ja) * | 2020-08-04 | 2022-02-10 | ||
WO2022091705A1 (ja) | 2020-10-27 | 2022-05-05 | 株式会社日立製作所 | エレベーター待ち時間推定装置及びエレベーター待ち時間推定方法 |
WO2022172643A1 (ja) * | 2021-02-09 | 2022-08-18 | パナソニックIpマネジメント株式会社 | 推定システム、人監視システム、推定方法及びプログラム |
Families Citing this family (119)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5528151B2 (ja) * | 2010-02-19 | 2014-06-25 | パナソニック株式会社 | 対象物追跡装置、対象物追跡方法、および対象物追跡プログラム |
US8670029B2 (en) * | 2010-06-16 | 2014-03-11 | Microsoft Corporation | Depth camera illuminator with superluminescent light-emitting diode |
KR101355974B1 (ko) * | 2010-08-24 | 2014-01-29 | 한국전자통신연구원 | 복수의 객체를 추적하는 객체 추적 방법 및 장치 |
US9251854B2 (en) * | 2011-02-18 | 2016-02-02 | Google Inc. | Facial detection, recognition and bookmarking in videos |
US9355329B2 (en) * | 2011-05-09 | 2016-05-31 | Catherine G. McVey | Image analysis for determining characteristics of pairs of individuals |
US9552637B2 (en) | 2011-05-09 | 2017-01-24 | Catherine G. McVey | Image analysis for determining characteristics of groups of individuals |
AU2012253551A1 (en) | 2011-05-09 | 2014-01-09 | Catherine Grace Mcvey | Image analysis for determining characteristics of animal and humans |
CN102831615A (zh) * | 2011-06-13 | 2012-12-19 | 索尼公司 | 对象监控方法和装置,以及监控系统操作方法 |
JP5423740B2 (ja) * | 2011-08-23 | 2014-02-19 | 日本電気株式会社 | 映像提供装置、映像利用装置、映像提供システム、映像提供方法、および、コンピュータ・プログラム |
US20130101159A1 (en) * | 2011-10-21 | 2013-04-25 | Qualcomm Incorporated | Image and video based pedestrian traffic estimation |
US10095954B1 (en) * | 2012-01-17 | 2018-10-09 | Verint Systems Ltd. | Trajectory matching across disjointed video views |
US9338409B2 (en) | 2012-01-17 | 2016-05-10 | Avigilon Fortress Corporation | System and method for home health care monitoring |
CN103034992B (zh) * | 2012-05-21 | 2015-07-29 | 中国农业大学 | 蜜蜂运动轨迹的无标识图像检测方法及系统 |
JP5575843B2 (ja) * | 2012-07-06 | 2014-08-20 | 東芝エレベータ株式会社 | エレベータの群管理制御システム |
US10248868B2 (en) * | 2012-09-28 | 2019-04-02 | Nec Corporation | Information processing apparatus, information processing method, and information processing program |
US10009579B2 (en) * | 2012-11-21 | 2018-06-26 | Pelco, Inc. | Method and system for counting people using depth sensor |
FR3001598B1 (fr) * | 2013-01-29 | 2015-01-30 | Eco Compteur | Procede de calibration d'un systeme de comptage video |
US9639747B2 (en) * | 2013-03-15 | 2017-05-02 | Pelco, Inc. | Online learning method for people detection and counting for retail stores |
FR3004573B1 (fr) * | 2013-04-11 | 2016-10-21 | Commissariat Energie Atomique | Dispositif et procede de suivi 3d video d'objets d'interet |
US20140373074A1 (en) | 2013-06-12 | 2014-12-18 | Vivint, Inc. | Set top box automation |
JP6187811B2 (ja) * | 2013-09-09 | 2017-08-30 | ソニー株式会社 | 画像処理装置、画像処理方法、及び、プログラム |
US11615460B1 (en) | 2013-11-26 | 2023-03-28 | Amazon Technologies, Inc. | User path development |
KR101557376B1 (ko) * | 2014-02-24 | 2015-10-05 | 에스케이 텔레콤주식회사 | 사람 계수 방법 및 그를 위한 장치 |
WO2015134795A2 (en) | 2014-03-05 | 2015-09-11 | Smart Picture Technologies, Inc. | Method and system for 3d capture based on structure from motion with pose detection tool |
TWI537872B (zh) * | 2014-04-21 | 2016-06-11 | 楊祖立 | 辨識二維影像產生三維資訊之方法 |
US9576371B2 (en) * | 2014-04-25 | 2017-02-21 | Xerox Corporation | Busyness defection and notification method and system |
CN105096406A (zh) * | 2014-04-30 | 2015-11-25 | 开利公司 | 用于建筑能耗设备的视频分析系统和智能楼宇管理系统 |
JP6314712B2 (ja) * | 2014-07-11 | 2018-04-25 | オムロン株式会社 | 部屋情報推定装置、部屋情報推定方法、および空気調和装置 |
US10664705B2 (en) * | 2014-09-26 | 2020-05-26 | Nec Corporation | Object tracking apparatus, object tracking system, object tracking method, display control device, object detection device, and computer-readable medium |
JP6428144B2 (ja) * | 2014-10-17 | 2018-11-28 | オムロン株式会社 | エリア情報推定装置、エリア情報推定方法、および空気調和装置 |
JP2016108097A (ja) * | 2014-12-08 | 2016-06-20 | 三菱電機株式会社 | エレベーターシステム |
US11205270B1 (en) | 2015-03-25 | 2021-12-21 | Amazon Technologies, Inc. | Collecting user pattern descriptors for use in tracking a movement of a user within a materials handling facility |
US10810539B1 (en) * | 2015-03-25 | 2020-10-20 | Amazon Technologies, Inc. | Re-establishing tracking of a user within a materials handling facility |
US10679177B1 (en) | 2015-03-25 | 2020-06-09 | Amazon Technologies, Inc. | Using depth sensing cameras positioned overhead to detect and track a movement of a user within a materials handling facility |
US10586203B1 (en) * | 2015-03-25 | 2020-03-10 | Amazon Technologies, Inc. | Segmenting a user pattern into descriptor regions for tracking and re-establishing tracking of a user within a materials handling facility |
KR101666959B1 (ko) * | 2015-03-25 | 2016-10-18 | ㈜베이다스 | 카메라로부터 획득한 영상에 대한 자동보정기능을 구비한 영상처리장치 및 그 방법 |
CN106144797B (zh) | 2015-04-03 | 2020-11-27 | 奥的斯电梯公司 | 用于乘客运输的通行列表产生 |
US10853757B1 (en) | 2015-04-06 | 2020-12-01 | Position Imaging, Inc. | Video for real-time confirmation in package tracking systems |
US10148918B1 (en) | 2015-04-06 | 2018-12-04 | Position Imaging, Inc. | Modular shelving systems for package tracking |
US11416805B1 (en) | 2015-04-06 | 2022-08-16 | Position Imaging, Inc. | Light-based guidance for package tracking systems |
US11501244B1 (en) | 2015-04-06 | 2022-11-15 | Position Imaging, Inc. | Package tracking systems and methods |
US10083522B2 (en) | 2015-06-19 | 2018-09-25 | Smart Picture Technologies, Inc. | Image based measurement system |
US10578713B2 (en) * | 2015-06-24 | 2020-03-03 | Panasonic Corporation | Radar axis displacement amount calculation device and radar axis displacement calculation method |
WO2017037754A1 (en) * | 2015-08-28 | 2017-03-09 | Nec Corporation | Analysis apparatus, analysis method, and storage medium |
CN105222774B (zh) * | 2015-10-22 | 2019-04-16 | Oppo广东移动通信有限公司 | 一种室内定位方法及用户终端 |
US11347192B2 (en) | 2015-10-30 | 2022-05-31 | Signify Holding B.V. | Commissioning of a sensor system |
WO2017081839A1 (ja) * | 2015-11-13 | 2017-05-18 | パナソニックIpマネジメント株式会社 | 移動体追跡方法、移動体追跡装置、およびプログラム |
DE102016201741A1 (de) * | 2016-02-04 | 2017-08-10 | Hella Kgaa Hueck & Co. | Verfahren zur Höhenerkennung |
US11001473B2 (en) * | 2016-02-11 | 2021-05-11 | Otis Elevator Company | Traffic analysis system and method |
KR102496618B1 (ko) * | 2016-03-16 | 2023-02-06 | 삼성전자주식회사 | 컨텐트를 인식하는 방법 및 장치 |
TWI636403B (zh) | 2016-03-24 | 2018-09-21 | 晶睿通訊股份有限公司 | 人流計數之驗證方法、系統及電腦可讀取儲存媒體 |
JP2017174273A (ja) * | 2016-03-25 | 2017-09-28 | 富士ゼロックス株式会社 | 動線生成装置及びプログラム |
TWI608448B (zh) * | 2016-03-25 | 2017-12-11 | 晶睿通訊股份有限公司 | 計數流道設定方法、具有計數流道設定功能的影像監控系統、及其相關的電腦可讀取媒體 |
TWI642302B (zh) * | 2016-08-02 | 2018-11-21 | 神準科技股份有限公司 | 自動設定方法與人流計數方法 |
WO2018027339A1 (en) * | 2016-08-06 | 2018-02-15 | SZ DJI Technology Co., Ltd. | Copyright notice |
WO2018041336A1 (en) * | 2016-08-30 | 2018-03-08 | Kone Corporation | Peak traffic detection according to passenger traffic intensity |
US11436553B2 (en) | 2016-09-08 | 2022-09-06 | Position Imaging, Inc. | System and method of object tracking using weight confirmation |
TWI584227B (zh) * | 2016-09-30 | 2017-05-21 | 晶睿通訊股份有限公司 | 影像處理方法、影像處理裝置及影像處理系統 |
JP6927234B2 (ja) | 2016-11-29 | 2021-08-25 | ソニーグループ株式会社 | 情報処理装置、情報処理方法およびプログラム |
US10634503B2 (en) * | 2016-12-12 | 2020-04-28 | Position Imaging, Inc. | System and method of personalized navigation inside a business enterprise |
US10634506B2 (en) | 2016-12-12 | 2020-04-28 | Position Imaging, Inc. | System and method of personalized navigation inside a business enterprise |
US11120392B2 (en) | 2017-01-06 | 2021-09-14 | Position Imaging, Inc. | System and method of calibrating a directional light source relative to a camera's field of view |
JP6469139B2 (ja) * | 2017-01-17 | 2019-02-13 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP6941966B2 (ja) * | 2017-04-19 | 2021-09-29 | 株式会社日立製作所 | 人物認証装置 |
CN107146310A (zh) * | 2017-05-26 | 2017-09-08 | 林海 | 一种楼梯间安全提示的方法 |
JP6910208B2 (ja) * | 2017-05-30 | 2021-07-28 | キヤノン株式会社 | 情報処理装置、情報処理方法およびプログラム |
CN107392979B (zh) * | 2017-06-29 | 2019-10-18 | 天津大学 | 时间序列的二维可视状态构图及定量分析指标方法 |
GB2564135A (en) * | 2017-07-04 | 2019-01-09 | Xim Ltd | A method, apparatus and program |
WO2019032736A1 (en) | 2017-08-08 | 2019-02-14 | Smart Picture Technologies, Inc. | METHOD OF MEASURING AND MODELING SPACES USING AUGMENTED REALITY WITHOUT MARKER |
CN109427074A (zh) | 2017-08-31 | 2019-03-05 | 深圳富泰宏精密工业有限公司 | 影像分析系统及方法 |
JP6690622B2 (ja) * | 2017-09-26 | 2020-04-28 | カシオ計算機株式会社 | 情報処理装置、情報処理システム、情報処理方法及びプログラム |
US11328513B1 (en) | 2017-11-07 | 2022-05-10 | Amazon Technologies, Inc. | Agent re-verification and resolution using imaging |
US10607365B2 (en) | 2017-11-08 | 2020-03-31 | International Business Machines Corporation | Presenting an image indicating a position for a person in a location the person is waiting to enter |
US10706561B2 (en) * | 2017-12-21 | 2020-07-07 | 612 Authentic Media | Systems and methods to track objects in video |
CN109974667B (zh) * | 2017-12-27 | 2021-07-23 | 宁波方太厨具有限公司 | 一种室内人体定位方法 |
TWI636428B (zh) * | 2017-12-29 | 2018-09-21 | 晶睿通訊股份有限公司 | 影像分析方法、攝影機及其攝影系統 |
DE102018201834A1 (de) * | 2018-02-06 | 2019-08-08 | Siemens Aktiengesellschaft | Verfahren zum Kalibrieren einer Erfassungseinrichtung, Zählverfahren und Erfassungseinrichtung für ein Personenbeförderungsfahrzeug |
JP6916130B2 (ja) * | 2018-03-02 | 2021-08-11 | 株式会社日立製作所 | 話者推定方法および話者推定装置 |
TWI779029B (zh) * | 2018-05-04 | 2022-10-01 | 大猩猩科技股份有限公司 | 一種分佈式的物件追蹤系統 |
US20190382235A1 (en) * | 2018-06-15 | 2019-12-19 | Otis Elevator Company | Elevator scheduling systems and methods of operation |
CN110626891B (zh) | 2018-06-25 | 2023-09-05 | 奥的斯电梯公司 | 用于改进的电梯调度的系统和方法 |
US11708240B2 (en) | 2018-07-25 | 2023-07-25 | Otis Elevator Company | Automatic method of detecting visually impaired, pregnant, or disabled elevator passenger(s) |
EP3604194A1 (en) * | 2018-08-01 | 2020-02-05 | Otis Elevator Company | Tracking service mechanic status during entrapment |
US12065330B2 (en) | 2018-09-14 | 2024-08-20 | Otis Elevator Company | Dynamic elevator door control |
KR20210092720A (ko) | 2018-09-21 | 2021-07-26 | 포지션 이미징 인코포레이티드 | 기계 학습 보조된 자기 개선형 객체 식별 시스템 및 방법 |
TWI686748B (zh) * | 2018-12-07 | 2020-03-01 | 國立交通大學 | 人流分析系統及人流分析方法 |
US11386306B1 (en) | 2018-12-13 | 2022-07-12 | Amazon Technologies, Inc. | Re-identification of agents using image analysis and machine learning |
EP3667557B1 (en) * | 2018-12-13 | 2021-06-16 | Axis AB | Method and device for tracking an object |
CN109368462A (zh) * | 2018-12-17 | 2019-02-22 | 石家庄爱赛科技有限公司 | 立体视觉电梯门保护装置及保护方法 |
WO2020146861A1 (en) | 2019-01-11 | 2020-07-16 | Position Imaging, Inc. | Computer-vision-based object tracking and guidance module |
JP7330708B2 (ja) * | 2019-01-28 | 2023-08-22 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
CN110095994B (zh) * | 2019-03-05 | 2023-01-20 | 永大电梯设备(中国)有限公司 | 一种电梯乘场交通流发生器和基于该电梯乘场交通流发生器自动生成客流数据的方法 |
JP6781291B2 (ja) * | 2019-03-20 | 2020-11-04 | 東芝エレベータ株式会社 | 画像処理装置 |
CN110040592B (zh) * | 2019-04-15 | 2020-11-20 | 福建省星云大数据应用服务有限公司 | 基于双路监控视频分析的电梯轿厢载客数检测方法及系统 |
WO2020231872A1 (en) | 2019-05-10 | 2020-11-19 | Smart Picture Technologies, Inc. | Methods and systems for measuring and modeling spaces using markerless photo-based augmented reality process |
US11373318B1 (en) | 2019-05-14 | 2022-06-28 | Vulcan Inc. | Impact detection |
CN110619662B (zh) * | 2019-05-23 | 2023-01-03 | 深圳大学 | 一种基于单目视觉的多行人目标空间连续定位方法及系统 |
CN110519324B (zh) * | 2019-06-06 | 2020-08-25 | 特斯联(北京)科技有限公司 | 一种基于网络轨迹大数据的人物追踪方法与系统 |
US11176691B2 (en) | 2019-07-01 | 2021-11-16 | Sas Institute Inc. | Real-time spatial and group monitoring and optimization |
CN112507757B (zh) * | 2019-08-26 | 2024-07-09 | 西门子(中国)有限公司 | 车辆行为检测方法、装置和计算机可读介质 |
US11176357B2 (en) * | 2019-10-30 | 2021-11-16 | Tascent, Inc. | Fast face image capture system |
CN112758777B (zh) * | 2019-11-01 | 2023-08-18 | 富泰华工业(深圳)有限公司 | 智能电梯控制方法及设备 |
CN110697534A (zh) * | 2019-11-01 | 2020-01-17 | 重庆紫光华山智安科技有限公司 | 一种电梯摄像监测方法 |
US20210158057A1 (en) * | 2019-11-26 | 2021-05-27 | Scanalytics, Inc. | Path analytics of people in a physical space using smart floor tiles |
JP7533571B2 (ja) * | 2020-03-27 | 2024-08-14 | 日本電気株式会社 | 人流予測システム、人流予測方法および人流予測プログラム |
CN113473378A (zh) * | 2020-03-31 | 2021-10-01 | 宇龙计算机通信科技(深圳)有限公司 | 一种移动轨迹上报方法、装置、存储介质及电子设备 |
US11645766B2 (en) * | 2020-05-04 | 2023-05-09 | International Business Machines Corporation | Dynamic sampling for object recognition |
DE102020205699A1 (de) * | 2020-05-06 | 2021-11-11 | Robert Bosch Gesellschaft mit beschränkter Haftung | Überwachungsanlage, Verfahren, Computerprogramm, Speichermedium und Überwachungseinrichtung |
JP7286586B2 (ja) * | 2020-05-14 | 2023-06-05 | 株式会社日立エルジーデータストレージ | 測距システム及び測距センサのキャリブレーション方法 |
CN111476616B (zh) * | 2020-06-24 | 2020-10-30 | 腾讯科技(深圳)有限公司 | 轨迹确定方法、装置、电子设备及计算机存储介质 |
CN112465860B (zh) * | 2020-11-17 | 2024-05-31 | 浙江新再灵科技股份有限公司 | 一种用于门的运行状态检查方法及检查设备 |
CN112511864B (zh) * | 2020-11-23 | 2023-02-17 | 北京爱笔科技有限公司 | 轨迹展示方法、装置、计算机设备和存储介质 |
WO2022148895A1 (en) * | 2021-01-07 | 2022-07-14 | Kone Corporation | System, method and computer program for monitoring operating status of elevator |
CN112929699B (zh) * | 2021-01-27 | 2023-06-23 | 广州虎牙科技有限公司 | 视频处理方法、装置、电子设备和可读存储介质 |
US20230331516A1 (en) * | 2021-02-16 | 2023-10-19 | Hitachi, Ltd. | Elevating machine operation information display system |
US12033390B2 (en) * | 2021-10-26 | 2024-07-09 | Hitachi, Ltd. | Method and apparatus for people flow analysis with inflow estimation |
CN114348809B (zh) * | 2021-12-06 | 2023-12-19 | 日立楼宇技术(广州)有限公司 | 一种电梯召梯方法、系统、设备及介质 |
TWI845095B (zh) * | 2022-01-05 | 2024-06-11 | 宏達國際電子股份有限公司 | 追蹤效能呈現方法及主機 |
TWI815495B (zh) * | 2022-06-06 | 2023-09-11 | 仁寶電腦工業股份有限公司 | 動態影像之處理方法、電子裝置及其連接之終端裝置與行動通訊裝置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08331607A (ja) * | 1995-03-29 | 1996-12-13 | Sanyo Electric Co Ltd | 三次元表示画像生成方法 |
JPH1166319A (ja) * | 1997-08-21 | 1999-03-09 | Omron Corp | 移動体検出方法及び装置並びに移動体認識方法及び装置並びに人間検出方法及び装置 |
JP2006168930A (ja) * | 2004-12-16 | 2006-06-29 | Toshiba Elevator Co Ltd | エレベータのセキュリティシステム及びエレベータドアの運転方法 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6384859B1 (en) * | 1995-03-29 | 2002-05-07 | Sanyo Electric Co., Ltd. | Methods for creating an image for a three-dimensional display, for calculating depth information and for image processing using the depth information |
US20050146605A1 (en) * | 2000-10-24 | 2005-07-07 | Lipton Alan J. | Video surveillance system employing video primitives |
US7394916B2 (en) * | 2003-02-10 | 2008-07-01 | Activeye, Inc. | Linking tracked objects that undergo temporary occlusion |
JP3775683B2 (ja) * | 2003-08-21 | 2006-05-17 | 松下電器産業株式会社 | 人物検出装置および人物検出方法 |
US7136507B2 (en) * | 2003-11-17 | 2006-11-14 | Vidient Systems, Inc. | Video surveillance system with rule-based reasoning and multiple-hypothesis scoring |
US7558762B2 (en) * | 2004-08-14 | 2009-07-07 | Hrl Laboratories, Llc | Multi-view cognitive swarm for object recognition and 3D tracking |
JP4674725B2 (ja) * | 2005-09-22 | 2011-04-20 | 国立大学法人 奈良先端科学技術大学院大学 | 移動物体計測装置、移動物体計測システム、および移動物体計測方法 |
EP1796039B1 (en) * | 2005-12-08 | 2018-11-28 | Topcon Corporation | Device and method for image processing |
US8350908B2 (en) * | 2007-05-22 | 2013-01-08 | Vidsys, Inc. | Tracking people and objects using multiple live and recorded surveillance camera video feeds |
CN101141633B (zh) * | 2007-08-28 | 2011-01-05 | 湖南大学 | 一种复杂场景中的运动目标检测与跟踪方法 |
US8098891B2 (en) * | 2007-11-29 | 2012-01-17 | Nec Laboratories America, Inc. | Efficient multi-hypothesis multi-human 3D tracking in crowded scenes |
KR101221449B1 (ko) * | 2009-03-27 | 2013-01-11 | 한국전자통신연구원 | 카메라간 영상 보정 장치 및 방법 |
-
2010
- 2010-02-09 US US13/147,639 patent/US20120020518A1/en not_active Abandoned
- 2010-02-09 CN CN2010800089195A patent/CN102334142A/zh active Pending
- 2010-02-09 WO PCT/JP2010/000777 patent/WO2010098024A1/ja active Application Filing
- 2010-02-09 JP JP2011501473A patent/JP5230793B2/ja active Active
- 2010-02-22 TW TW099104944A patent/TW201118803A/zh unknown
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08331607A (ja) * | 1995-03-29 | 1996-12-13 | Sanyo Electric Co Ltd | 三次元表示画像生成方法 |
JPH1166319A (ja) * | 1997-08-21 | 1999-03-09 | Omron Corp | 移動体検出方法及び装置並びに移動体認識方法及び装置並びに人間検出方法及び装置 |
JP2006168930A (ja) * | 2004-12-16 | 2006-06-29 | Toshiba Elevator Co Ltd | エレベータのセキュリティシステム及びエレベータドアの運転方法 |
Cited By (45)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011173707A (ja) * | 2010-02-25 | 2011-09-08 | Mitsubishi Electric Corp | 戸開閉検出装置及び戸開閉検出方法 |
JP2011211687A (ja) * | 2010-03-25 | 2011-10-20 | Nec (China) Co Ltd | データ関連付けのための方法と装置 |
JP2012158968A (ja) * | 2011-01-28 | 2012-08-23 | Fuji Hensokuki Co Ltd | 駐車場内の人検出器 |
JP2012212968A (ja) * | 2011-03-30 | 2012-11-01 | Secom Co Ltd | 画像監視装置 |
JP2013025599A (ja) * | 2011-07-22 | 2013-02-04 | Japan Research Institute Ltd | 情報処理システム、制御装置、端末装置、及びプログラム |
CN102701056A (zh) * | 2011-12-12 | 2012-10-03 | 广州都盛机电有限公司 | 一种动态图像识别控制方法、装置及系统 |
JP2013173594A (ja) * | 2012-02-24 | 2013-09-05 | Toshiba Elevator Co Ltd | エレベータシステム |
JP2014144826A (ja) * | 2013-01-28 | 2014-08-14 | Hitachi Ltd | エレベータ監視装置及びエレベータ監視方法 |
JP2015007953A (ja) * | 2013-06-24 | 2015-01-15 | 由田新技股▲ふん▼有限公司 | 車両乗車人数の監視装置及び車両乗車人数の監視方法並びにコンピュータ可読記憶媒体 |
JP2015203912A (ja) * | 2014-04-11 | 2015-11-16 | パナソニックIpマネジメント株式会社 | 人数計測装置、人数計測システムおよび人数計測方法 |
JP2016032192A (ja) * | 2014-07-29 | 2016-03-07 | 三菱電機ビルテクノサービス株式会社 | エレベータかご内カメラの画角調整装置およびエレベータかご内カメラの画角調整方法 |
US9779511B2 (en) | 2014-10-11 | 2017-10-03 | Superd Co. Ltd. | Method and apparatus for object tracking and 3D display based thereon |
JP2016133938A (ja) * | 2015-01-16 | 2016-07-25 | 能美防災株式会社 | 監視システム |
JP2017103602A (ja) * | 2015-12-01 | 2017-06-08 | キヤノン株式会社 | 位置検出装置、位置検出方法及びプログラム |
WO2017212568A1 (ja) * | 2016-06-08 | 2017-12-14 | 三菱電機株式会社 | 監視装置 |
JPWO2017212568A1 (ja) * | 2016-06-08 | 2018-10-04 | 三菱電機株式会社 | 監視装置 |
US10521917B2 (en) | 2016-07-29 | 2019-12-31 | Omron Corporation | Image processing apparatus and image processing method for object tracking |
JP2018018393A (ja) * | 2016-07-29 | 2018-02-01 | オムロン株式会社 | 画像処理装置および画像処理方法 |
KR102011230B1 (ko) * | 2016-07-29 | 2019-08-14 | 오므론 가부시키가이샤 | 화상 처리 장치 및 화상 처리 방법 |
WO2018020722A1 (ja) * | 2016-07-29 | 2018-02-01 | オムロン株式会社 | 画像処理装置および画像処理方法 |
KR20180034534A (ko) * | 2016-07-29 | 2018-04-04 | 오므론 가부시키가이샤 | 화상 처리 장치 및 화상 처리 방법 |
WO2019087729A1 (ja) * | 2017-10-30 | 2019-05-09 | 株式会社日立製作所 | ビル内人流推定システムおよび推定方法 |
JP7013313B2 (ja) | 2018-04-16 | 2022-01-31 | Kddi株式会社 | 動線管理装置、動線管理方法及び動線管理プログラム |
JP2019185615A (ja) * | 2018-04-16 | 2019-10-24 | Kddi株式会社 | 動線管理装置、動線管理方法及び動線管理プログラム |
JP2020009382A (ja) * | 2018-07-12 | 2020-01-16 | 株式会社チャオ | 動線分析装置、動線分析プログラムおよび動線分析方法 |
JP2020140459A (ja) * | 2019-02-28 | 2020-09-03 | 三菱電機株式会社 | 設備監視システム、設備監視方法及びプログラム |
JP7149878B2 (ja) | 2019-02-28 | 2022-10-07 | 三菱電機株式会社 | 設備監視システム、設備監視方法及びプログラム |
WO2020261560A1 (ja) * | 2019-06-28 | 2020-12-30 | 三菱電機株式会社 | ビル管理システム |
CN113993804A (zh) * | 2019-06-28 | 2022-01-28 | 三菱电机株式会社 | 楼宇管理系统 |
JPWO2020261560A1 (ja) * | 2019-06-28 | 2021-11-25 | 三菱電機株式会社 | ビル管理システム |
JP2021080102A (ja) * | 2019-11-13 | 2021-05-27 | 新世代機器人▲ぢ▼人工智慧股▲ふん▼有限公司 | ロボット装置とエレベータ装置の双方向制御方法 |
JP2021093037A (ja) * | 2019-12-11 | 2021-06-17 | 株式会社東芝 | 算出システム、算出方法、プログラム、及び記憶媒体 |
JP7516037B2 (ja) | 2019-12-11 | 2024-07-16 | 株式会社東芝 | 算出システム、算出方法、プログラム、及び記憶媒体 |
CN112949375A (zh) * | 2019-12-11 | 2021-06-11 | 株式会社东芝 | 计算系统、计算方法及存储介质 |
CN112001941A (zh) * | 2020-06-05 | 2020-11-27 | 成都睿畜电子科技有限公司 | 基于计算机视觉的仔猪监管方法及系统 |
CN112001941B (zh) * | 2020-06-05 | 2023-11-03 | 成都睿畜电子科技有限公司 | 基于计算机视觉的仔猪监管方法及系统 |
JP2021197094A (ja) * | 2020-06-18 | 2021-12-27 | 株式会社東芝 | 人物識別装置、人物識別システム、人物識別方法、及びプログラム |
JP7374855B2 (ja) | 2020-06-18 | 2023-11-07 | 株式会社東芝 | 人物識別装置、人物識別システム、人物識別方法、及びプログラム |
JP7155201B2 (ja) | 2020-07-09 | 2022-10-18 | 東芝エレベータ株式会社 | エレベータの利用者検知システム |
JP2022015531A (ja) * | 2020-07-09 | 2022-01-21 | 東芝エレベータ株式会社 | エレベータの利用者検知システム |
WO2022029860A1 (ja) * | 2020-08-04 | 2022-02-10 | 三菱電機株式会社 | 移動体追跡システム、移動体追跡装置、プログラム及び移動体追跡方法 |
JP7286027B2 (ja) | 2020-08-04 | 2023-06-02 | 三菱電機株式会社 | 移動体追跡システム、移動体追跡装置、プログラム及び移動体追跡方法 |
JPWO2022029860A1 (ja) * | 2020-08-04 | 2022-02-10 | ||
WO2022091705A1 (ja) | 2020-10-27 | 2022-05-05 | 株式会社日立製作所 | エレベーター待ち時間推定装置及びエレベーター待ち時間推定方法 |
WO2022172643A1 (ja) * | 2021-02-09 | 2022-08-18 | パナソニックIpマネジメント株式会社 | 推定システム、人監視システム、推定方法及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
US20120020518A1 (en) | 2012-01-26 |
CN102334142A (zh) | 2012-01-25 |
JPWO2010098024A1 (ja) | 2012-08-30 |
TW201118803A (en) | 2011-06-01 |
JP5230793B2 (ja) | 2013-07-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5230793B2 (ja) | 人物追跡装置及び人物追跡プログラム | |
Ge et al. | Vision-based analysis of small groups in pedestrian crowds | |
CN105844234B (zh) | 一种基于头肩检测的人数统计的方法及设备 | |
KR100831122B1 (ko) | 얼굴 인증 장치, 얼굴 인증 방법, 및 출입 관리 장치 | |
JP5603403B2 (ja) | 対象物計数方法、対象物計数装置および対象物計数プログラム | |
Ge et al. | Automatically detecting the small group structure of a crowd | |
Xing et al. | Multi-object tracking through occlusions by local tracklets filtering and global tracklets association with detection responses | |
Messelodi et al. | A computer vision system for the detection and classification of vehicles at urban road intersections | |
JP4852765B2 (ja) | 広域分散カメラ間の連結関係推定法および連結関係推定プログラム | |
JP5102410B2 (ja) | 移動体検出装置および移動体検出方法 | |
US7787656B2 (en) | Method for counting people passing through a gate | |
Xiao et al. | Vision-based method for tracking workers by integrating deep learning instance segmentation in off-site construction | |
JP4624396B2 (ja) | 状況判定装置、状況判定方法、状況判定プログラム、異常判定装置、異常判定方法および異常判定プログラム | |
CA3094424A1 (en) | Safety monitoring and early-warning method for man-machine interaction behavior of underground conveyor belt operator | |
Ryan et al. | Crowd counting using group tracking and local features | |
US20190180111A1 (en) | Image summarization system and method | |
JP6779410B2 (ja) | 映像解析装置、映像解析方法、及びプログラム | |
JP2009143722A (ja) | 人物追跡装置、人物追跡方法及び人物追跡プログラム | |
JP7359621B2 (ja) | エリア設定支援装置、エリア設定支援方法及びエリア設定支援プログラム | |
Khan et al. | PASSENGER DETECTION AND COUNTING FOR PUBLIC TRANSPORT SYSTEM. | |
KR20170006356A (ko) | 이차원 영상 기반 고객 분석 방법 및 장치 | |
Zaidenberg et al. | Group interaction and group tracking for video-surveillance in underground railway stations | |
JP2019029747A (ja) | 画像監視システム | |
JP2003109001A (ja) | 人物検出システム、及び人物検出プログラム | |
Ilao et al. | Crowd estimation using region-specific HOG With SVM |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
WWE | Wipo information: entry into national phase |
Ref document number: 201080008919.5 Country of ref document: CN |
|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 10745911 Country of ref document: EP Kind code of ref document: A1 |
|
WWE | Wipo information: entry into national phase |
Ref document number: 2011501473 Country of ref document: JP |
|
WWE | Wipo information: entry into national phase |
Ref document number: 13147639 Country of ref document: US |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 10745911 Country of ref document: EP Kind code of ref document: A1 |