WO2014155922A1 - 対象物特定装置、対象物特定方法および対象物特定プログラム - Google Patents

対象物特定装置、対象物特定方法および対象物特定プログラム Download PDF

Info

Publication number
WO2014155922A1
WO2014155922A1 PCT/JP2014/000523 JP2014000523W WO2014155922A1 WO 2014155922 A1 WO2014155922 A1 WO 2014155922A1 JP 2014000523 W JP2014000523 W JP 2014000523W WO 2014155922 A1 WO2014155922 A1 WO 2014155922A1
Authority
WO
WIPO (PCT)
Prior art keywords
time
target
person
monitoring target
shooting
Prior art date
Application number
PCT/JP2014/000523
Other languages
English (en)
French (fr)
Inventor
小山 和也
有熊 威
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to CN201480016621.7A priority Critical patent/CN105075248A/zh
Priority to EP14774192.0A priority patent/EP2981075A1/en
Priority to JP2015507981A priority patent/JP6406246B2/ja
Priority to US14/765,621 priority patent/US10430666B2/en
Priority to SG11201508085QA priority patent/SG11201508085QA/en
Priority to BR112015020989A priority patent/BR112015020989A2/pt
Priority to AU2014240718A priority patent/AU2014240718A1/en
Publication of WO2014155922A1 publication Critical patent/WO2014155922A1/ja
Priority to ZA2015/06437A priority patent/ZA201506437B/en
Priority to US16/502,180 priority patent/US11210527B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • G06V40/173Classification, e.g. identification face re-identification, e.g. recognising unknown faces across different face tracks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Definitions

  • the present invention relates to an object specifying device, an object specifying method, and an object specifying program for specifying a desired object from among monitoring targets.
  • Surveillance cameras are installed at stations and specific facilities, and various judgments are made by analyzing the video captured by the surveillance cameras. As one of them, a person or object that exists unnaturally for a long time within the range to be monitored is specified as a suspicious person or a suspicious object.
  • a behavior analysis method for tracking a specific person and analyzing the behavior of the person is known.
  • this behavior analysis method one person or a plurality of cameras with overlapping monitoring areas are used to recognize where a specific person is, and by tracking the time change of the position of the person, Identify where and how long you have stayed.
  • Patent Document 1 describes a face image recognition device that speeds up face image recognition processing and simplifies registration work.
  • the face image recognition apparatus described in Patent Document 1 registers a face image in the front direction of a person to be recognized and an average face image in a direction other than the front, and stores the face area extracted from the video.
  • the face image in the video is recognized by comparing the feature with the registered face image.
  • the range in which a person's behavior can be analyzed depends on the shooting range of the camera. For example, when one camera is used, the range in which a person's behavior can be analyzed is limited to the range in which the camera can shoot. Also, when trying to cover a large range, it is necessary to use a large number of cameras so that there is no gap in the monitored range. Furthermore, even if an attempt is made to shoot a person in a crowded situation, it is often difficult to see a specific person because it is often invisible with another person.
  • the present invention provides an object identification device that can identify an object that exists unnaturally for a long period of time within a monitored object even when the range to be monitored is wide or in a crowded situation,
  • the object is to provide an object specifying method and an object specifying program.
  • the object identification device is configured to collate a monitoring object shown in a video imaged by one or more imaging devices, identify a monitoring object estimated to be the same, and a specified monitoring object And an object specifying means for specifying a desired object from among the specific monitoring objects using the shooting time of the specific monitoring object.
  • the object specifying method is to identify a monitoring object that is estimated to be the same by checking a monitoring object shown in an image captured by one or more imaging devices, and a specific monitoring object that is the specified monitoring object A desired object is specified from among the specific monitoring objects using the shooting time.
  • An object identification program is a computer program that compares a monitoring target in a video captured by one or more imaging devices and identifies a monitoring target that is estimated to be the same.
  • a target object specifying process for specifying a desired target object from the specific monitoring target is executed using the photographing time of the specific monitoring target that is the monitored target.
  • the present invention even when the range to be monitored is wide or in a congested situation, it is possible to identify an object that exists unnaturally for a long time within the range from among the monitoring targets.
  • the monitoring target is not limited to a person.
  • the monitoring target may be an object such as an automobile, for example.
  • an automobile that has been stopped for a long time within the range to be monitored is specified as an object.
  • objects include not only objects but also people.
  • FIG. 1 is a block diagram illustrating a configuration example of an embodiment of an object identification device according to the present invention.
  • the object specifying device of the present embodiment includes a video acquisition unit 11, a person identification information analysis unit 12, a person identification information management unit 13, a long-time resident estimation unit 14, a person identification information matching unit 15, and a person An information management unit 16, a result output unit 17, a person identification information storage unit 18, and a person information storage unit 19 are provided.
  • the video acquisition unit 11 acquires video in a predetermined monitoring range.
  • the video acquisition unit 11 also acquires the time at which the video was acquired (hereinafter referred to as the shooting time).
  • the video acquisition unit 11 inputs the video in the monitoring range and the time when the video was shot (that is, the shooting time) to the person identification information analysis unit 12.
  • the video acquisition unit 11 is realized by a photographing device such as a camera, for example.
  • the video acquisition unit 11 identifies information (hereinafter referred to as “video identification unit”) when inputting the acquired video to the person identification information analysis unit 12. (Also referred to as “photographing device identification information”).
  • the video acquisition unit 11 is installed so as to be able to photograph a particularly watched area in the facility to be monitored.
  • the video acquisition unit 11 does not have to be installed so as to capture the entire range in the facility.
  • the person identification information analysis unit 12 analyzes the monitoring target shown in each video captured by each video acquisition unit 11. Specifically, when the person identification information analysis unit 12 detects a monitoring target in the video, the identification information of the monitoring target (hereinafter referred to as monitoring target identification information) and the shooting time when the monitoring target was shot. (Hereinafter referred to as monitoring target imaging information).
  • monitoring target identification information the identification information of the monitoring target
  • monitoring target imaging information the shooting time when the monitoring target was shot.
  • the content of the monitoring target identification information extracted by the person identification information analysis unit 12 is predetermined according to the content of the monitoring target. For example, when the monitoring target is a person, the person identification information analysis unit 12 may extract the face image of the person as the monitoring target identification information when detecting the person from the video. For example, when the monitoring target is an automobile, the person identification information analysis unit 12 may extract an image of a license plate of the automobile as monitoring target identification information when detecting the automobile from the video.
  • the information extracted by the person identification information analysis unit 12 is not limited to a face image or a license plate image.
  • the information to be extracted is arbitrary as long as it can identify the monitoring target.
  • the monitoring target identification information used for identifying a person can be referred to as person identification information. Since a method for extracting specific identification information from a target image is widely known, detailed description thereof is omitted here.
  • the person identification information analysis unit 12 receives each video acquisition unit that receives a video when the video is input from each video acquisition unit 11. 11 may be provided with the imaging device identification information.
  • the person identification information management unit 13 stores the information analyzed by the person identification information analysis unit 12 in the person identification information storage unit 18. Further, the person identification information management unit 13 extracts necessary information from the person identification information storage unit 18 in response to a request from the person information management unit 16 and notifies the person information management unit 16 of the information.
  • the person identification information storage unit 18 stores information analyzed by the person identification information analysis unit 12. Specifically, the person identification information storage unit 18 stores an identifier for identifying individual monitoring target shooting information, monitoring target identification information included in the monitoring target shooting information, and the shooting time in association with each other.
  • FIG. 2 is an explanatory diagram illustrating an example of information stored in the person identification information storage unit 18.
  • the example illustrated in FIG. 2 is an example of contents stored in the person identification information storage unit 18 when the monitoring target is a person.
  • the person image ID is used as an identifier for identifying monitoring target photographing information
  • the person identification information is used as monitoring target identification information.
  • the person identification information storage unit 18 stores the name of the camera that acquired the video (for example, the imaging device identification information) and the person image itself detected by the person identification information analysis unit 12. Also good.
  • the person information management unit 16 stores the information collated by the person identification information collation unit 15 in the person information storage unit 19. Further, the person information management unit 16 extracts necessary information from the person information storage unit 19 in response to a request from the long-time resident estimation unit 14 and notifies the long-time resident estimation unit 14 of the information.
  • the person information storage unit 19 stores the identified monitoring target and the shooting time of the monitoring target.
  • FIG. 3 is an explanatory diagram illustrating an example of information stored in the person information storage unit 19.
  • the example shown in FIG. 3 is an example of the contents stored in the person information storage unit 19 when the monitoring target is a person.
  • the person information storage unit 19 identifies the monitoring target shooting information from which the person is extracted (person image ID) and the number of times the person has been shot. And the earliest time when the person was photographed (hereinafter referred to as the earliest photographing time) and the latest time (hereinafter referred to as the latest photographing time) are stored in association with each other.
  • FIG. 4 is an explanatory diagram illustrating another example of information stored in the person information storage unit 19.
  • the example shown in FIG. 4 is also an example of the contents stored in the person information storage unit 19 when the monitoring target is a person.
  • the person information storage unit 19 associates the identifier (person image ID) of the monitoring target shooting information from which the person is extracted with the shooting time. Indicates that it is remembered. Further, as illustrated in FIG. 4, the person information storage unit 19 uses the identifier of the monitoring target shooting information (person image ID) as the name of the camera that acquired the video (for example, shooting device identification information) and the acquired video. The likelihood (likelihood) of the monitoring target estimated from the above may be stored in association with each other.
  • the person identification information collation unit 15 collates the monitoring target identification information and identifies the monitoring target estimated to be the same. For example, when the monitoring target face image is extracted as the monitoring target identification information, the person identification information collating unit 15 may collate the face image and specify the person estimated to be the same.
  • the person identification information collating unit 15 includes the monitoring target identification information stored in the person information storage unit 19 and the monitoring target included in the monitoring target photographing information stored in the person identification information storage unit 18. The identification information is collated, and it is determined whether or not the same person is stored in the person information storage unit 19.
  • the person identification information storage unit 18 stores information illustrated in FIG.
  • the person identification information matching unit 15 determines the shooting time included in the monitoring target shooting information of the person stored in the person information storage unit 19. Compare with the earliest and latest shooting times.
  • the person identification information matching unit 15 requests the person information management unit 16 to update the earliest shooting time of the person with the shooting time. If the shooting time is later than the latest shooting time, the person identification information matching unit 15 requests the person information management unit 16 to update the latest shooting time of the person with the shooting time. If the shooting time is the same as the earliest shooting time or later than the earliest shooting time, and the same as the latest shooting time or earlier than the latest shooting time, the person identification information matching unit 15 updates the shooting time. Do not process. Then, the person identification information matching unit 15 requests the person information management unit 16 to increase the number of times the person has been photographed by one.
  • the person identification information matching unit 15 adds a person to the person information storage unit 19, and the earliest shooting time and the latest shooting time.
  • the person information management unit 16 is requested to set the shooting time.
  • the person identification information matching unit 15 requests the person information management unit 16 to set 1 to the number of times the person has been photographed.
  • the person identification information storage unit 18 stores information illustrated in FIG.
  • the person identification information matching unit 15 stores information in which the person image ID and the shooting time are associated with the person ID of the person determined to be the same.
  • 19 asks the person information management unit 16 to store the information.
  • the person identification information collation unit 15 allocates a new person ID, and associates the person ID with the person image ID and the shooting time.
  • the person information management unit 16 is requested to store the stored information in the person information storage unit 19.
  • the person identification information matching unit 15 stores the name of the camera (for example, the imaging device identification information) that captured the video together with the imaging time.
  • the person information management unit 16 may be requested to store in the unit 19.
  • the person identification information matching unit 15 may calculate the likelihood (likelihood) of the monitoring target estimated to be the same when the monitoring target identification information is verified. For example, when a certain face image is collated, the probability of determining Mr. A is calculated as 0.8, the probability of determining Mr. B as 0.3, and the probability of determining Mr. C as 0.2. . In this case, the person identification information matching unit 15 stores the information in which the person image ID, the shooting time, and the calculated probability are associated with each other in the person information storage unit 19 for each person ID of the person who has determined the likelihood. The information management unit 16 may be requested.
  • the long-time stay estimator 14 specifies a desired object from the captured monitoring targets using the shooting time included in the monitoring target shooting information of the monitoring target estimated to be the same. Specifically, the long-time stay estimator 14 determines that the frequency of the monitoring target shooting information including the shooting time within a predetermined period is equal to or higher than a predetermined threshold, or the time width of the shooting time within the predetermined period is predetermined. A monitoring target that is longer than the specified period is identified as an object. In addition, this predetermined period may be described as an analysis time width.
  • the time width of the shooting time means a difference between two shooting times arbitrarily selected within a predetermined period.
  • the time width of the shooting time can be referred to as a width between arbitrary shooting times among the shooting times of the monitoring targets shot within a predetermined period.
  • the frequency of the monitoring target imaging information in which the imaging time is included within a predetermined period can be said to be the frequency at which the monitoring target is captured within the predetermined period.
  • the monitoring target that meets these conditions is identified as the target.
  • a case where an unnatural long-term resident in a station is specified will be described as an example.
  • the place for identifying unnatural long-term visitors is not limited to the station premises.
  • an arbitrary range such as a commercial facility or a predetermined area of a building where long-term stay is determined to be unnatural can be considered.
  • the visitor is unnatural for a long time. For example, in the vicinity of a meeting place or a bench, even if a person stays in one place for a long time, it is not considered as an unnatural action. However, when a person is moving in such a place, the action of the person is considered to be unnatural. Thus, a person whose frequency of photographing with a plurality of cameras exceeds a predetermined value can also be said to be an unnatural long-term visitor.
  • the long-time stay estimator 14 estimates the unnatural long-term stay defined as described above, and extracts a person who seems to be a suspicious person as a greylist.
  • an unnatural long-term visitor is not limited to the monitoring object defined by the said description. For example, if a camera is installed at the entrance and exit, if a person is seen only on one camera, the person's behavior is considered unnatural, so such a person is It may be defined as a natural long-term resident.
  • the long-time resident estimation unit 14 may exclude from the target a monitoring target whose time width of the photographing time is too long.
  • an appropriate analysis time width may be determined in advance according to the property of the monitoring target.
  • the long-time resident estimation unit 14 may specify not only a person but also an object such as an automobile that stops unnaturally for a long time. In this case, an object that stays unnaturally for a long time can be said to be an unnatural long-term stay.
  • a method will be described in which the long-time resident estimation unit 14 identifies an unnatural long-term resident or an unnatural long-term resident as a desired object from the monitoring target.
  • the long-time resident estimation unit 14 specifies an object based on the time width of the photographing time within a predetermined period.
  • the long-time resident estimation unit 14 targets a monitoring target whose time width between the earliest photographing time and the latest photographing time within a predetermined time period is equal to or greater than a predetermined threshold defined by the determination condition. May be specified.
  • the predetermined threshold value below may be referred to as a long-term stay determination time.
  • FIG. 5 is an explanatory diagram showing an example of an operation for determining the stay time of the monitoring target.
  • the persons u1 to u10 to be monitored are specified from the video captured by the two video acquisition units 11a and 11b in the direction of the time axis.
  • a period between two dotted lines is an analysis time width
  • a period between long broken lines is a long-term stay determination time.
  • a range for specifying an object such as 3 hours or 1 day is specified for the analysis time width
  • a time for determining an unnatural stay such as 30 minutes is set for the long-term stay determination time.
  • the long-time resident estimation unit 14 does not determine the person u3 (person u4) as an unnatural long-term resident.
  • the captured video acquisition unit is different, but the width of the shooting time is also shorter than the long-term stay determination time. Therefore, the long-time resident estimation unit 14 does not determine the person u5 (person u8) as an unnatural long-term resident.
  • the long-time resident estimation unit 14 determines that the person u2 (person u6, person u7, and person u9) is an unnatural long-term resident.
  • one determination condition for the long-term stay determination time may be determined as a whole regardless of the number of video acquisition units 11.
  • this determination condition is a condition for determining the time during which the monitoring target stays for the entire facility where the video acquisition unit 11 is installed.
  • this determination condition is a condition for determining the stay time of the monitoring target imaged in the imaging range of each video acquisition unit 11.
  • this determination condition is a condition for determining the stay time between the shooting ranges when the monitoring object moves between the shooting ranges of the plurality of video acquisition units 11.
  • FIG. 6 is an explanatory diagram showing an example of a determination condition that defines the time width.
  • the example illustrated in FIG. 6 illustrates a time width threshold determined according to each video acquisition unit 11 and a time width threshold determined between the video acquisition units 11.
  • the stay time allowed for the range captured by the camera 1 is 10 seconds
  • the stay time allowed for the range captured by the camera 1 and the camera 2 is 50 seconds. It shows that there is.
  • the long-time stay estimator 14 identifies, as a target, a monitoring target whose time width of continuous shooting times is equal to or greater than a predetermined threshold defined by the determination condition among the time widths of shooting times within a predetermined period. Also good. This is because a person whose time width is too long to be photographed by a different video acquisition unit 11 is considered an unnatural long-term visitor.
  • One determination condition that defines the time width condition of consecutive shooting times may be determined as a whole regardless of the number of video acquisition units 11. In this case, it can be said that this determination condition is a condition for determining the time during which the monitoring target moves within the facility where the video acquisition unit 11 is installed.
  • this determination condition is a condition that determines the stay time of the monitoring target that is allowed according to the nature of the shooting range of each video acquisition unit 11.
  • this determination condition is a condition for determining the time for the monitoring target to move between the imaging ranges of the plurality of video acquisition units 11. This is because, for example, if the time width taken between the video acquisition units 11 installed at close positions is too long, it is considered an unnatural long-term visitor.
  • FIG. 7 is an explanatory diagram illustrating a specific example of information stored in the person information storage unit 19.
  • the three video acquisition units 11 are referred to as camera 1, camera 2, and camera 3, respectively.
  • the conditions illustrated in FIG. 6 are set as the determination conditions for defining the time width.
  • the camera 1 has captured the video identified by the person image ID1 at 0: 0: 0.
  • the camera 2 captures the video identified by the person image ID2 at 0: 0: 30.
  • the condition set as the time width between the camera 1 and the camera 2 is 50 seconds in the example shown in FIG. Since the difference between the two shooting times is 30 seconds, the long-time stay estimator 14 does not specify this monitoring target as an object.
  • the camera 3 has captured the video identified by the person image ID3 at 0: 0: 45.
  • the condition set as the time width between the camera 2 and the camera 3 is 40 seconds in the example shown in FIG. Since the difference between the two shooting times is 15 seconds, the long-time stay estimator 14 does not specify this monitoring target as an object.
  • the long-time stay estimator 14 identifies this monitoring target as an object.
  • this determination condition may be dynamically generated based on the imaging time of the monitoring target that has not been identified as the target.
  • the person information management unit 16 may calculate the long-term stay determination time by collecting statistics on the stay time of a monitoring target whose stay time is shorter than the long-term stay determination time.
  • the person information management unit 16 calculates the average value of the staying time from the monitoring target information as the statistical target, at the maximum value of the shooting time interval or the time interval of each video acquisition unit 11, A time that is a constant multiple (for example, twice) may be calculated as the long-term stay determination time.
  • the person information management unit 16 calculates the average and variance of the staying time based on the monitoring target information to be statistically targeted at the maximum value of the shooting time interval or the time interval of each video acquisition unit 11.
  • the threshold value of the time interval at which a certain percentage of the number of people (for example, 5%) is determined to be a long-term visitor may be calculated as the long-term stay determination time.
  • the method for calculating the long-term stay determination time is not limited to these methods.
  • the moving speed of the monitoring target in the video captured by one video acquisition unit 11 may be measured, and the long-term stay determination time may be calculated based on the distance between the moving speed and the video acquisition unit 11.
  • the long-time resident estimation unit 14 specifies an object based on the frequency with which the monitoring object is photographed in a predetermined period.
  • the long-time resident estimation unit 14 may identify a monitoring target whose frequency of monitoring target shooting information including shooting time within a predetermined period is equal to or higher than a predetermined threshold as a target. This is because a monitoring subject who is photographed too frequently is considered an unnatural long-term resident.
  • FIG. 8 is an explanatory diagram illustrating an example of an operation in which a plurality of video acquisition units 11 capture a monitoring target.
  • the video acquisition units 11a, 11b, 11c, and 11d are shooting areas A, B, C, and D, respectively.
  • the person identification information of each person is extracted and stored in the person identification information storage unit 18.
  • the person u11 is photographed in any of the images in which the areas A, B, C, and D are photographed. Therefore, four pieces of person identification information regarding the person u11 are registered in the person identification information storage unit 18. Therefore, the long-time stay estimator 14 specifies the person u11 as an object from among the persons to be monitored based on the registration frequency.
  • the identified object is output to the output result storage unit 20, for example, by the result output unit 17.
  • the determination condition that defines the frequency condition may be determined as a whole regardless of the number of video acquisition units 11. In this case, it can be said that this determination condition is a condition for determining the frequency with which the monitoring target is imaged for the entire facility where the video acquisition unit 11 is installed.
  • the determination condition that defines the frequency condition may be determined according to each video acquisition unit 11. In this case, it can be said that this determination condition is a condition for determining the imaging frequency of the monitoring target in the imaging range of each video acquisition unit 11.
  • the determination condition that defines the frequency condition may be determined according to a group in which arbitrary video acquisition units 11 are grouped. In this case, it can be said that this determination condition is a condition for determining the imaging frequency of the monitoring target in the imaging range of the video acquisition unit 11 belonging to the group.
  • the long-term resident estimation unit 14 uses the frequency calculated based on the likelihood.
  • the long-time stay estimator 14 may perform the estimation process only on the monitoring target photographing information whose likelihood is equal to or greater than a predetermined value. . This is similarly applicable when the long-time resident estimation unit 14 specifies an object based on the time width of the photographing time within a predetermined period. In other words, the long-time stay estimator 14 may calculate the time width of the shooting time included in the monitoring target shooting information whose likelihood is greater than or equal to a predetermined value for a certain monitoring target.
  • the long-time stay estimator 14 lists the identified object images, photographing device identification information, photographing time, and the like, and notifies the result output unit 17 of the list.
  • the result output unit 17 outputs the identified object by an arbitrary method.
  • the result output unit 17 may store the output result in the output result storage unit 20.
  • the result output unit 17 may extract a common monitoring target extracted from a different time zone or a different day from the information stored in the output result storage unit 20. Since such an object is an object to be particularly watched, the result output unit 17 may output such a person as an addicted criminal of an unnatural long-term resident, for example.
  • the person identification information analysis unit 12, the person identification information management unit 13, the long-time resident estimation unit 14, the person identification information matching unit 15, the person information management unit 16, and the result output unit 17 are, for example, a program This is realized by a CPU of a computer that operates according to the (object specifying program).
  • the program is stored in a storage unit (not shown) of the object identification device, and the CPU reads the program, and according to the program, the person identification information analysis unit 12, the person identification information management unit 13, and the long-time resident The estimation unit 14, the person identification information matching unit 15, the person information management unit 16, and the result output unit 17 may be operated.
  • the person identification information analysis unit 12, the person identification information management unit 13, the long-time resident estimation unit 14, the person identification information matching unit 15, the person information management unit 16, and the result output unit 17 are respectively May be realized by dedicated hardware.
  • the person identification information storage unit 18 and the person information storage unit 19 are realized by, for example, a magnetic disk.
  • FIG. 9 is a flowchart showing an operation example of the object specifying device of the present embodiment.
  • the video acquisition unit 11 acquires a video in the shooting range (step S11), and inputs the shot video to the person identification information analysis unit 12.
  • the person identification information analyzing unit 12 detects the monitoring target from the input video
  • the person identification information analyzing unit 12 extracts the identification information of the monitoring target (step S12), and stores the extracted monitoring target identification information in the person identification information storage unit 18 (step S12). Step S13).
  • the person identification information collation unit 15 collates the monitoring target identification information stored in the person identification information storage unit 18 with the monitoring target identification information stored in the person information storage unit 19 (step S14).
  • the person information management unit 16 updates the shooting time of the monitoring target (step S16).
  • the person information management unit 16 stores the monitoring target as a new monitoring target in the person information storage unit 19 together with the photographing time (step S17).
  • the long-time stay estimator 14 identifies a desired object from among the monitoring targets by using the shooting time included in the monitoring target shooting information of the specified same person (step S18).
  • the long-time stay estimator 14 identifies the object based on the time width and frequency of the shooting time.
  • the result output part 17 outputs the identified target object (step S19).
  • the person identification information analysis unit 12 analyzes the monitoring target shown in each video, extracts the monitoring target shooting information including the monitoring target identification information and the shooting time, and The identification information collation unit 15 collates the monitoring target identification information and identifies the monitoring target estimated to be the same. Then, the long-time resident estimation unit 14 specifies a desired object from among the monitoring targets using the shooting time included in the monitoring target shooting information of the specified monitoring target.
  • the long-time resident estimation unit 14 determines that the frequency of the monitoring target shooting information including the shooting time within a predetermined period is equal to or higher than a predetermined threshold, or the time width of the shooting time within the predetermined period is predetermined.
  • a monitoring target that is longer than the specified period is identified as an object. Therefore, even when the range to be monitored is wide or the situation is congested, it is possible to identify an object that exists unnaturally for a long period of time within the range from among the monitoring targets.
  • the person identification information analysis unit 12 is obtained from a video imaged by one or more video acquisition units 11 installed in the station. Obtain information that can identify a face or person.
  • the person identification information collating unit 15 calculates the time width and frequency at which the same person was photographed by collating information that can identify the person with information obtained by different time zones and a plurality of cameras. Therefore, even when a suspicious person is not provided in advance, a list of shooting times can be generated for each monitoring target.
  • the long-time resident estimation unit 14 uses this time width and frequency to find a long-term resident in an unnatural facility that is different from a general user. Therefore, it is not necessary to install a camera so as to cover all the monitoring target areas, and even if there is a situation where a part of the monitoring target cannot be photographed in a crowded situation, the monitoring target is specified from other shooting times It becomes possible.
  • FIG. 10 is a block diagram showing an outline of the object specifying device according to the present invention.
  • the object identification device according to the present invention collates a monitoring object reflected in a video imaged by one or more imaging devices (for example, the video acquisition unit 11), and identifies a monitoring object estimated to be the same.
  • the target specifying means 72 specificallyation target 72 that specifies a desired target from the specific monitoring target For example, a long-time resident estimation unit 14) is provided.
  • the object specifying unit 72 is configured so that the shooting time is within a predetermined period (for example, analysis time width) or more than a predetermined frequency, or the shooting time within the predetermined period is for a predetermined period (for example, long-term stay). (Determination time) More specific monitoring targets may be specified as objects.
  • the object specifying means 72 has a predetermined threshold (for example, long-term stay determination time) in which the time width of the earliest shooting time and the latest shooting time among the time widths of the shooting time within a predetermined period is defined by the determination condition. )
  • the above specific monitoring target may be specified as an object.
  • the object specifying unit 72 determines the object based on a determination condition (for example, a determination condition illustrated in FIG. 6) that defines the conditions of the time width between the earliest shooting time and the latest shooting time according to each shooting apparatus. May be specified.
  • a determination condition for example, a determination condition illustrated in FIG. 6
  • the object specifying device generates a determination condition that defines a condition for defining a time width between the earliest shooting time and the latest shooting time based on the shooting time of the monitoring target that has not been specified as an object (for example, a person information management unit 16) may be provided.
  • a determination condition that defines a condition for defining a time width between the earliest shooting time and the latest shooting time based on the shooting time of the monitoring target that has not been specified as an object (for example, a person information management unit 16) may be provided.
  • the object specifying unit 72 specifies, as an object, a specific monitoring target in which the time widths of successive shooting times out of the time widths of the shooting times within a predetermined period are equal to or greater than a predetermined threshold defined by the determination condition. May be.
  • the object specifying means 72 may specify a specific monitoring target whose time width between successive shooting times corresponds to the determination condition between the shooting apparatuses as the target.
  • the object specifying means 72 may specify the object based on a determination condition that prescribes for each imaging apparatus the frequency at which the imaging time at which the specific monitoring object was imaged was included within a predetermined period.
  • the object specifying unit 72 specifies the object based on a determination condition that prescribes for each group of the imaging devices that the frequency at which the imaging time at which the specific monitoring object was captured is included within a predetermined period is predetermined. Also good.
  • the monitoring target collating unit 71 may calculate the likelihood of the monitoring target estimated to be the same, and the target specifying unit 72 may specify the target using the frequency calculated based on the likelihood. .
  • the monitoring target collating unit 71 may collate the face image extracted from the video captured by the photographing apparatus and specify the monitoring target estimated to be the same person.
  • the monitoring target collating unit 71 may extract information (monitoring target identification information) for identifying each monitoring target before collating the monitoring target shown in the video. Specifically, the monitoring target collating unit 71 may execute processing performed by the person identification information analyzing unit 12 in the first embodiment. However, when the monitoring target can be verified without using the monitoring target identification information, the explicit extraction process of the monitoring target identification information is not necessarily required.
  • the target object specifying device including the configuration for extracting the monitoring target identification information will be described.
  • FIG. 11 is a block diagram showing another outline of the object specifying device according to the present invention.
  • the object specifying device according to the present invention analyzes a monitoring object (for example, a person or a car) reflected in each image captured by one or more imaging devices (for example, the image acquisition unit 11), and identifies the monitoring object.
  • a monitoring object for example, a person or a car
  • imaging devices for example, the image acquisition unit 11
  • Monitoring target shooting information analysis means 81 (for example, person identification information) that extracts monitoring target shooting information including the monitoring target identification information (for example, face image, license plate image) used for shooting and the shooting time when the monitoring target was shot
  • the analysis unit 12 the monitoring target identification means 82 for collating the monitoring target identification information to identify the monitoring target estimated to be the same (for example, the person identification information matching unit 15), and the monitoring target of the identified monitoring target
  • the object specifying means 83 for example, the long-time stayer's recommendation for specifying a desired object (for example, an unnatural long-term visitor) from the taken monitoring targets. Part 14) and a.
  • the object specifying unit 83 is configured such that the frequency of the monitoring target imaging information in which the imaging time is included within a predetermined period (for example, the analysis time width) is equal to or more than a predetermined threshold or the time width of the imaging time within the predetermined period May specify a monitoring target for a predetermined period (for example, long-term stay determination time) or more as a target.
  • a predetermined period for example, the analysis time width
  • a predetermined threshold or the time width of the imaging time within the predetermined period May specify a monitoring target for a predetermined period (for example, long-term stay determination time) or more as a target.
  • the object specifying unit 83 has a predetermined threshold (for example, long-term time) in which the time width of the earliest shooting time and the latest shooting time is defined by the determination condition among the time widths of the shooting time within a predetermined period. You may specify the monitoring object more than stay determination time) as a target.
  • a predetermined threshold for example, long-term time
  • the monitoring target shooting information analyzing unit 81 may extract monitoring target shooting information including shooting device identification information used for identifying a shooting device that has shot the monitoring target.
  • the object specifying unit 83 determines the target based on the determination condition (for example, the determination condition illustrated in FIG. 6) that defines the condition of the time width between the earliest shooting time and the latest shooting time according to each shooting device. You may identify things.
  • the object specifying device generates a determination condition that defines a condition for defining a time width between the earliest shooting time and the latest shooting time based on the shooting time of the monitoring target that has not been specified as an object (for example, a person information management unit 16) may be provided.
  • the object specifying unit 83 specifies a monitoring object having a time width of continuous shooting times within a predetermined time period within a predetermined period as a target object that is equal to or greater than a predetermined threshold defined by the determination condition. Also good.
  • the monitoring target shooting information analyzing unit 81 may extract monitoring target shooting information including shooting device identification information used for identifying a shooting device that has shot the monitoring target.
  • the object specifying unit 83 may specify a monitoring target whose time width between successive shooting times in the monitoring target shooting information corresponds to the determination condition between the shooting apparatuses as the target.
  • the monitoring target shooting information analyzing unit 81 may extract monitoring target shooting information including shooting device identification information used for identifying a shooting device that has shot the monitoring target.
  • the object specifying unit 83 may specify the object based on a determination condition that defines the frequency condition of the monitoring target shooting information including the shooting time within a predetermined period for each shooting apparatus.
  • the object specifying unit 83 specifies the object based on a determination condition that prescribes a condition for the frequency of the monitoring target shooting information including the shooting time within a predetermined period for each group of the shooting devices. Also good.
  • the monitoring target collating unit 82 may calculate the likelihood (probability) of the monitoring target estimated to be the same. Then, the object specifying unit 83 may specify the object using the frequency calculated based on the likelihood.
  • the monitoring target photographing information analysis means 81 may extract a monitoring target face image as monitoring target identification information.
  • the monitoring object collation means 82 may collate a face image, and may specify the monitoring object estimated to be the same person. According to such a configuration, it is possible to specify a person who stays unnaturally for a long time within the range to be monitored.
  • the present invention is preferably applied to, for example, a video analysis system in which a person in a specific facility is photographed with a surveillance camera, and the photographed video is analyzed to automatically find long-term visitors.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)

Abstract

 監視対象照合手段71は、1台以上の撮影装置で撮影された映像に映る監視対象を照合して、同一と推定される監視対象を特定する。対象物特定手段72は、特定された監視対象である特定監視対象の撮影時刻を用いて、撮影された特定監視対象の中から所望の対象物を特定する。

Description

対象物特定装置、対象物特定方法および対象物特定プログラム
 本発明は、監視対象の中から所望の対象物を特定する対象物特定装置、対象物特定方法および対象物特定プログラムに関する。
 駅や特定の施設などに監視カメラを設置し、その監視カメラで撮影される映像を解析して、各種の判断を行うことが行われている。その一つとして、監視する範囲内に不自然に長期間存在している人物や物体を、不審者あるいは不審物として特定することも行われている。
 関連する技術として、特定の人物を追跡し、その人物の行動を解析する行動解析方法が知られている。例えば、この行動解析方法では、1つのカメラまたは監視エリアが重複する複数のカメラを用いて特定の人物がどこの場所にいるか認識し、その人物の位置の時間変化を追跡することで、その人物がどこにどの程度の時間滞在していたかを識別する。
 また、撮影された画像から特定の人物を認識するために顔照合を行う人物認識方法も知られている。特許文献1には、顔画像認識処理を高速化し、登録作業の簡単化を図る顔画像認識装置が記載されている。特許文献1に記載された顔画像認識装置は、認識対象となる人物の正面の向きの顔画像及び正面以外の向きの平均的な顔画像を登録しておき、映像から抽出された顔領域の特徴と登録されている顔画像とを照合して、映像中の顔画像を認識する。
特開2012-238111号公報
 上述する行動解析方法では、人物の行動を解析できる範囲は、カメラの撮影範囲に依存する。例えば、1つのカメラを使用する場合、人物の行動を解析できる範囲は、そのカメラで撮影できる範囲に限定される。また、多くの範囲を網羅しようとする場合、監視する範囲に隙間ができないように、多数のカメラを使用する必要がある。さらに、混雑している状況下で人物を撮影しようとしても、他の人物に重なって見えなくなる場合も多いため、特定の人物を完全に追跡することは困難である。
 また、特許文献1に記載された顔画像認識装置を用いる場合、事前に発見すべき不審者の情報が提供されている必要がある。すなわち、そもそも誰が不審者かわからない状況では、特許文献1に記載された顔画像認識装置を利用することはできない。
 そこで、本発明は、監視する範囲が広い場合や混雑している状況であっても、監視対象の中から、その範囲内に不自然に長期間存在する対象物を特定できる対象物特定装置、対象物特定方法および対象物特定プログラムを提供することを目的とする。
 本発明による対象物特定装置は、1台以上の撮影装置で撮影された映像に映る監視対象を照合して、同一と推定される監視対象を特定する監視対象照合手段と、特定された監視対象である特定監視対象の撮影時刻を用いて、特定監視対象の中から所望の対象物を特定する対象物特定手段とを備えたことを特徴とする。
 本発明による対象物特定方法は、1台以上の撮影装置で撮影された映像に映る監視対象を照合して、同一と推定される監視対象を特定し、特定された監視対象である特定監視対象の撮影時刻を用いて、特定監視対象の中から所望の対象物を特定することを特徴とする。
 本発明による対象物特定プログラムは、コンピュータに、1台以上の撮影装置で撮影された映像に映る監視対象を照合して、同一と推定される監視対象を特定する監視対象照合処理、および、特定された監視対象である特定監視対象の撮影時刻を用いて、特定監視対象の中から所望の対象物を特定する対象物特定処理を実行させることを特徴とする。
 本発明によれば、監視する範囲が広い場合や混雑している状況であっても、監視対象の中から、その範囲内に不自然に長期間存在する対象物を特定できる。
本発明による対象物特定装置の一実施形態の構成例を示すブロック図である。 人物識別情報記憶部18が記憶する情報の例を示す説明図である。 人物情報記憶部19が記憶する情報の例を示す説明図である。 人物情報記憶部19が記憶する情報の他の例を示す説明図である。 監視対象の滞在時間を判断する動作の例を示す説明図である。 時間幅について規定する判定条件の例を示す説明図である。 人物情報記憶部19が記憶する情報の具体例を示す説明図である。 複数の映像取得部11が監視対象を撮影する動作の例を示す説明図である。 対象物特定装置の動作例を示すフローチャートである。 本発明による対象物特定装置の概要を示すブロック図である。 本発明による対象物特定装置の他の概要を示すブロック図である。
 以下、本発明の実施形態を図面を参照して説明する。以下の説明では、監視対象の代表例である人物を監視し、監視する範囲内に不自然に長期間滞在している人物を対象物として特定する場合を例示する。ただし、監視対象は、人物に限定されない。監視対象は、例えば、自動車などの物であってもよい。この場合、監視する範囲内に長時間停車している自動車を対象物として特定することになる。本発明で対象物には、物だけでなく人も含まれる。
 図1は、本発明による対象物特定装置の一実施形態の構成例を示すブロック図である。本実施形態の対象物特定装置は、映像取得部11と、人物識別情報解析部12と、人物識別情報管理部13と、長時間滞在者推定部14と、人物識別情報照合部15と、人物情報管理部16と、結果出力部17と、人物識別情報記憶部18と、人物情報記憶部19とを備えている。
 映像取得部11は、予め定めた監視範囲の映像を取得する。また、映像取得部11は、映像を取得した時刻(以下、撮影時刻と記す。)も併せて取得する。映像取得部11は、監視範囲の映像とその映像が撮影された時刻(すなわち、撮影時刻)とを人物識別情報解析部12に入力する。映像取得部11は、例えば、カメラなどの撮影装置により実現される。
 なお、図1に例示する対象物特定装置では、映像取得部11を1台のみ備えているが、映像取得部11の台数は1台に限定されず、2台以上であってもよい。また、各映像取得部11が撮影する範囲は、一部が重なっていてもよく、全て重なっていなくてもよい。対象物特定装置が映像取得部11を複数台備えている場合、映像取得部11は、取得した映像を人物識別情報解析部12に入力する際、各映像取得部11を識別する情報(以下、撮影装置識別情報と記す。)も併せて入力してもよい。
 また、本実施形態では、映像取得部11は、監視対象とする施設内で、特に注視される範囲を撮影できるように設置されることが好ましい。ただし、映像取得部11は施設内全ての範囲を撮影できるように設置される必要はない。
 人物識別情報解析部12は、各映像取得部11が撮影した各映像に映る監視対象を解析する。具体的には、人物識別情報解析部12は、映像中に監視対象を検出すると、その監視対象の識別情報(以下、監視対象識別情報と記す。)と、その監視対象が撮影された撮影時刻とを含む情報(以下、監視対象撮影情報と記す。)を抽出する。
 人物識別情報解析部12が抽出する監視対象識別情報の内容は、監視対象の内容に応じて予め定められる。例えば、監視対象が人物の場合、人物識別情報解析部12は、映像中から人物を検出したときに、その人物の顔画像を監視対象識別情報として抽出してもよい。また、例えば、監視対象が自動車の場合、人物識別情報解析部12は、映像中から自動車を検出したときに、その自動車のナンバープレートの画像を監視対象識別情報として、抽出してもよい。
 ただし、人物識別情報解析部12が抽出する情報は、顔画像やナンバープレートの画像に限定されない。監視対象を特定可能な情報であれば、抽出される情報は任意である。また、人物の識別に用いられる監視対象識別情報のことを、人物識別情報と言うことができる。なお、対象とする画像から特定の識別情報を抽出する方法は広く知られているため、ここでは詳細な説明を省略する。
 また、各映像取得部11から明示的な撮影装置識別情報が送信されない場合、人物識別情報解析部12は、各映像取得部11から映像が入力されたときに、映像を入力した各映像取得部11に応じて撮影装置識別情報を付与してもよい。
 人物識別情報管理部13は、人物識別情報解析部12が解析した情報を人物識別情報記憶部18に記憶させる。また、人物識別情報管理部13は、人物情報管理部16の要求に応じて、人物識別情報記憶部18から必要な情報を抽出し、人物情報管理部16に通知する。
 人物識別情報記憶部18は、人物識別情報解析部12が解析した情報を記憶する。具体的には、人物識別情報記憶部18は、個々の監視対象撮影情報を識別する識別子と、その監視対象撮影情報に含まれる監視対象識別情報と、その撮影時刻とを対応付けて記憶する。
 図2は、人物識別情報記憶部18が記憶する情報の例を示す説明図である。図2に示す例は、監視対象が人物の場合に人物識別情報記憶部18が記憶する内容の例である。図2に示す例では、監視対象撮影情報を識別する識別子として人物画像IDが用いられ、監視対象識別情報として人物識別情報が用いられていることを示す。また、図2に例示するように、人物識別情報記憶部18は、映像を取得したカメラ名(例えば、撮影装置識別情報)や、人物識別情報解析部12が検出した人物画像そのものを記憶してもよい。
 人物情報管理部16は、人物識別情報照合部15が照合した情報を人物情報記憶部19に記憶させる。また、人物情報管理部16は、長時間滞在者推定部14の要求に応じて、人物情報記憶部19から必要な情報を抽出し、長時間滞在者推定部14に通知する。
 人物情報記憶部19は、特定された監視対象と、その監視対象の撮影時刻を記憶する。図3は、人物情報記憶部19が記憶する情報の例を示す説明図である。図3に示す例は、監視対象が人物の場合に人物情報記憶部19が記憶する内容の例である。図3に示す例では、人物情報記憶部19が、人物を識別する情報(人物ID)ごとに、その人物が抽出された監視対象撮影情報の識別子(人物画像ID)と、その人物の撮影回数と、その人物が撮影された最も早い時刻(以下、最早撮影時刻と記す。)と、最も遅い時刻(以下、最遅撮影時刻と記す。)とを対応付けて記憶していることを示す。
 ただし、特定された監視対象の撮影時刻を人物情報記憶部19が記憶する態様は、図3に例示する態様に限定されない。人物情報記憶部19は、特定された監視対象の撮影時刻を個々に記憶するようにしてもよい。図4は、人物情報記憶部19が記憶する情報の他の例を示す説明図である。図4に示す例も、監視対象が人物の場合に人物情報記憶部19が記憶する内容の例である。
 図4に示す例では、人物情報記憶部19が、人物を識別する情報(人物ID)ごとに、その人物が抽出された監視対象撮影情報の識別子(人物画像ID)と、撮影時刻とを対応付けて記憶していることを示す。また、図4に例示するように、人物情報記憶部19は、監視対象撮影情報の識別子(人物画像ID)に、映像を取得したカメラ名(例えば、撮影装置識別情報)と、取得された映像から推定される監視対象の確からしさ(尤度)とを対応付けて記憶していてもよい。
 人物識別情報照合部15は、監視対象識別情報を照合して、同一と推定される監視対象を特定する。例えば、監視対象識別情報として監視対象の顔画像が抽出されている場合、人物識別情報照合部15は、顔画像を照合して、同一と推定される人物を特定してもよい。
 具体的には、人物識別情報照合部15は、人物情報記憶部19に記憶されている人物の監視対象識別情報と、人物識別情報記憶部18に記憶された監視対象撮影情報に含まれる監視対象識別情報とを照合し、人物情報記憶部19に同一人物が記憶されているか否かを判定する。
 ここで、人物識別情報記憶部18が図3に例示する情報を記憶しているとする。同一人物が人物情報記憶部19に記憶されていると判断された場合、人物識別情報照合部15は、監視対象撮影情報に含まれる撮影時刻を、人物情報記憶部19に記憶されている人物の最早撮影時刻及び最遅撮影時刻と比較する。
 撮影時刻が最早撮影時刻よりも早い場合、人物識別情報照合部15は、その人物の最早撮影時刻を撮影時刻で更新するよう人物情報管理部16に依頼する。また、撮影時刻が最遅撮影時刻よりも遅い場合、人物識別情報照合部15は、その人物の最遅撮影時刻を撮影時刻で更新するよう人物情報管理部16に依頼する。なお、撮影時刻が最早撮影時刻と同じか最早撮影時刻よりも遅く、かつ、最遅撮影時刻と同じか最遅撮影時刻よりも早い場合には、人物識別情報照合部15は、撮影時刻の更新処理を行わない。そして、人物識別情報照合部15は、その人物の撮影回数を1増加させるよう人物情報管理部16に依頼する。
 一方、同一人物が人物情報記憶部19に記憶されていないと判断された場合、人物識別情報照合部15は、人物情報記憶部19に人物を新たに追加し、最早撮影時刻および最遅撮影時刻に撮影時刻を設定するよう人物情報管理部16に依頼する。また、人物識別情報照合部15は、その人物の撮影回数に1を設定するよう人物情報管理部16に依頼する。
 次に、人物識別情報記憶部18が図4に例示する情報を記憶しているとする。同一人物が人物情報記憶部19に記憶されている場合、人物識別情報照合部15は、同一と判断した人物の人物IDに、人物画像IDと撮影時刻とを対応付けた情報を人物情報記憶部19に記憶させるよう人物情報管理部16に依頼する。
 一方、同一人物が人物情報記憶部19に記憶されていないと判断された場合、人物識別情報照合部15は、新たな人物IDを割り振り、その人物IDに人物画像IDと撮影時刻とを対応付けた情報を、人物情報記憶部19に記憶させるよう人物情報管理部16に依頼する。
 人物識別情報記憶部18が図4に例示する情報を記憶している場合、人物識別情報照合部15は、撮影時刻とともにその映像を撮影したカメラ名(例えば、撮影装置識別情報)を人物情報記憶部19に記憶させるよう人物情報管理部16に依頼してもよい。
 また、人物識別情報照合部15は、監視対象識別情報を照合する際、同一と推定する監視対象の確からしさ(尤度)を算出してもよい。例えば、ある顔画像を照合した際、Aさんと判断する確からしさを0.8、Bさんと判断する確からしさを0.3、Cさんと判断する確からしさを0.2と算出したとする。この場合、人物識別情報照合部15は、確からしさを判断した人物の人物IDごとに、人物画像ID、撮影時刻および算出した確からしさを対応付けた情報を人物情報記憶部19に記憶させるよう人物情報管理部16に依頼してもよい。
 なお、画像同士を比較して、両者が一致するか否かを判断する方法、および、両者が一致する確からしさを算出する方法は広く知られているため、ここでは、詳細な説明を省略する。
 長時間滞在者推定部14は、同一と推定された監視対象の監視対象撮影情報に含まれる撮影時刻を用いて、撮影された監視対象の中から所望の対象物を特定する。具体的には、長時間滞在者推定部14は、所定の期間内に撮影時刻が含まれる監視対象撮影情報の頻度が所定の閾値以上、または、所定の期間内における撮影時刻の時間幅が所定の期間以上の監視対象を対象物と特定する。なお、この所定の期間のことを、分析時間幅と記すこともある。
 ここで、撮影時刻の時間幅とは、所定の期間内で任意に選択された2つの撮影時刻の差のことを意味する。本実施形態では、撮影時刻の時間幅とは、所定の期間内で撮影された監視対象の撮影時刻のうち、任意の撮影時刻間の幅ということができる。また、所定の期間内に撮影時刻が含まれる監視対象撮影情報の頻度とは、所定の期間内で監視対象が撮影された頻度と言うこともできる。
 このような条件に該当する監視対象を対象物と特定する理由を説明する。以下の説明では、駅構内の不自然な長期滞在者を特定する場合を例に説明する。ただし、不自然な長期滞在者を特定する場所は、駅構内に限定されない。このような場所として、例えば、商業施設やビルの所定のエリアなど、長期滞在することが不自然と判断されるような任意の範囲が考えられる。
 例えば、すりや置き引き、痴漢などの犯罪者は、一般客と異なり、あるエリア内に長時間不自然に滞在することが想定される。言い換えると、一般の乗客は、通常、改札からホームに向かい、電車に乗車するといった動きをする。このように一方向に移動する乗客であれば、カメラに映る時間は限られ、同じカメラに長期間映ることは考えにくい。そのため、駅構内の任意の箇所に長時間滞在している人物は、不自然な長期滞在者と言える。
 また、例えば、複数のカメラが遠い位置に設置されている場合、その移動時間を考慮すると、対象とする人物が各カメラで撮影されるまでに多少時間がかかっても、その行動は自然な行動と考えられる。一方、複数のカメラが近い位置に設置されている場合、対象とする人物が各カメラで撮影されるまでに時間がかかるのは不自然であると考えられる。このように、各カメラ間で定義される時間幅を超えてそれぞれのカメラに撮影される人物は、不自然な長期滞在者と言える。
 さらに、カメラが撮影する範囲の特性によっても、不自然な長期滞在者と言える場合がる。例えば、待ち合わせ場所やベンチ付近では、人物が一箇所に長期間滞在してもそれほど不自然な行動とは考えられない。しかし、人物がこのような箇所を転々としている場合には、その人物の行動は不自然であると考えられる。このように、複数のカメラで撮影される頻度が所定の値を超えるような人物も、不自然な長期滞在者と言える。
 長時間滞在者推定部14は、このように定義される不自然な長期滞在者を推定して、不審者と思われる人物をグレーリストとして抽出する。なお、不自然な長期滞在者は、上記説明で定義される監視対象に限定されない。例えば、カメラが入場口と出場口に設置されている場合、人物が一方のカメラにしか映っていないのであれば、その人物の行動は不自然であると考えられるため、このような人物を不自然な長期滞在者と定義してもよい。
 なお、撮影時刻の時間幅があまりにも長い監視対象は、不自然な長期滞在者と言えない場合がある。例えば、駅構内で人物を監視する場合、同一人物が出勤時間帯と退勤時刻帯に撮影される可能性がある。このような人物の動きは、自然な動きと言えるからである。そのため、長時間滞在者推定部14は、撮影時刻の時間幅があまりにも長い監視対象を対象物から除くようにしてもよい。また、このような監視対象を除外するため、監視対象の性質に応じ、適切な分析時間幅を予め定めておいてもよい。
 また、長時間滞在者推定部14は、人物だけでなく、不自然に長期間停車する自動車などの物を特定してもよい。この場合、不自然に長期間滞在する物は、不自然な長期滞在物と言うことができる。以下、長時間滞在者推定部14が、所望の対象物として、不自然な長期滞在者あるいは不自然な長期滞在物を監視対象から特定する方法を説明する。
 まず、長時間滞在者推定部14が、所定の期間内における撮影時刻の時間幅に基づいて対象物を特定する方法を説明する。長時間滞在者推定部14は、所定の期間内における撮影時刻の時間幅のうち、最早撮影時刻と最遅撮影時刻の時間幅が判定条件で規定された所定の閾値以上の監視対象を対象物と特定してもよい。以下の、この所定の閾値のことを、長期滞在判定時間と記すこともある。
 これは、最早撮影時刻と最遅撮影時刻の差(すなわち、撮影時間間隔の最大値)があまりに長い人物は、不自然な長期滞在者と考えられるからである。
 図5は、監視対象の滞在時間を判断する動作の例を示す説明図である。図5に示す例では、2台の映像取得部11a,11bによって撮影された映像から、時間軸の方向に向かって監視対象である人物u1~u10が特定されていることを示す。また、2つの点線で挟まれた期間を分析時間幅とし、長破線で挟まれた期間を長期滞在判定時間とする。分析時間幅には、例えば、3時間や1日など、対象物を特定する範囲が指定され、長期滞在判定時間には、例えば、30分など、不自然な滞在と判定される時間が設定される。
 例えば、同一人物と推定された人物u3と人物u4に着目すると、撮影時刻の幅は長期滞在判定時間よりも短い。そのため、長時間滞在者推定部14は、人物u3(人物u4)を不自然な長期滞在者とは判断しない。同様に、同一人物と推定された人物u5と人物u8に着目すると、撮影された映像取得部は異なるが、撮影時刻の幅は長期滞在判定時間よりもやはり短い。そのため、長時間滞在者推定部14は、人物u5(人物u8)を不自然な長期滞在者とは判断しない。
 一方、同一人物と推定された人物u2,人物u6,人物u7および人物u9に着目すると、最早撮影時刻と最遅撮影時刻の差は長期滞在判定時間よりも長い。そのため、長時間滞在者推定部14は、人物u2(人物u6,人物u7および人物u9)を不自然な長期滞在者と判断する。
 なお、長期滞在判定時間について規定する判定条件は、映像取得部11の数に関わらず、全体で1つ定められていてもよい。この場合、この判定条件は、映像取得部11が設置される施設全体を対象として監視対象が滞在している時間を判断するための条件であると言える。
 また、長期滞在判定時間について規定する判定条件は、各映像取得部11に応じて定められていてもよい。この場合、この判定条件は、各映像取得部11の撮影範囲で撮影される監視対象の滞在時間を判断するための条件であると言える。
 また、長期滞在判定時間について規定する判定条件は、各映像取得部11の間で定められていてもよい。この場合、この判定条件は、複数の映像取得部11の撮影範囲の間を監視対象が移動したときの、撮影範囲間の滞在時間を判断するための条件であると言える。
 図6は、時間幅について規定する判定条件の例を示す説明図である。図6に示す例は、各映像取得部11に応じて定められる時間幅の閾値と、各映像取得部11の間で定められる時間幅の閾値を示している。図6の例では、例えば、カメラ1が撮影する範囲に許容される滞在時間は、10秒であることを示し、カメラ1とカメラ2が撮影する範囲に許容される滞在時間は、50秒であることを示している。
 次に、長時間滞在者推定部14が、所定の期間内における撮影時刻の時間幅に基づいて対象物を特定する他の方法を説明する。長時間滞在者推定部14は、所定の期間内における撮影時刻の時間幅のうち、連続する撮影時刻の時間幅が判定条件で規定される所定の閾値以上の監視対象を対象物と特定してもよい。これは、異なる映像取得部11で撮影される時間幅があまりに長い人物は、不自然な長期滞在者と考えられるからである。
 連続する撮影時刻の時間幅の条件を規定した判定条件は、映像取得部11の数に関わらず、全体で1つ定められていてもよい。この場合、この判定条件は、映像取得部11が設置される施設内を監視対象が移動する時間を判断するための条件であると言える。
 また、連続する撮影時刻の時間幅の条件を規定した判定条件は、各映像取得部11に応じて定められていてもよい。この場合、この判定条件は、各映像取得部11の撮影範囲の性質に応じて許容される監視対象の滞在時間を定めた条件であると言える。
 また、連続する撮影時刻の時間幅の条件を規定した判定条件は、各映像取得部11の間で定められていてもよい。この場合、この判定条件は、複数の映像取得部11の撮影範囲の間を監視対象が移動する時間を判断するための条件であると言える。例えば、近い位置に設置された映像取得部11の間で撮影される時間幅があまりに長い場合、不自然な長期滞在者と考えられるからである。
 以下、図6および図7を参照して、連続する撮影時刻の時間幅の条件を規定した判定条件に基づいて、対象物を特定する方法を説明する。図7は、人物情報記憶部19が記憶する情報の具体例を示す説明図である。ここでは、3つの映像取得部11を、それぞれカメラ1、カメラ2、カメラ3と記す。また、時間幅について規定する判定条件として、図6に例示する条件が設定されているとする。
 まず、カメラ1が、人物画像ID1で識別される映像を0時0分0秒に撮影したとする。その後、カメラ2が、人物画像ID2で識別される映像を0時0分30秒に撮影したとする。カメラ1とカメラ2との間の時間幅として設定された条件は、図6に示す例では、50秒である。2つの撮影時刻の差は30秒であるため、長時間滞在者推定部14は、この監視対象を対象物として特定しない。
 さらに、カメラ3が、人物画像ID3で識別される映像を0時0分45秒に撮影したとする。カメラ2とカメラ3との間の時間幅として設定された条件は、図6に示す例では、40秒である。2つの撮影時刻の差は15秒であるため、長時間滞在者推定部14は、この監視対象を対象物として特定しない。
 仮に、カメラ3が、人物画像ID3で識別される映像を0時2分0秒に撮影したとする。この場合、2つの撮影時刻の差は90秒であるため、長時間滞在者推定部14は、この監視対象を対象物として特定する。
 なお、上記説明では、長期滞在判定時間の条件を規定した判定条件が、予め定められている場合を例示した。ただし、この判定条件は、対象物と特定されなかった監視対象の撮影時刻に基づいて、動的に生成されてもよい。
 以下、判定条件を生成する方法の一例を説明する。人物情報管理部16は、長期滞在判定時間よりも短い滞在時間の監視対象について、その滞在時間の統計を取ることで、長期滞在判定時間を算出してもよい。
 具体的には、人物情報管理部16は、統計対象とする監視対象の情報から、撮影時間間隔の最大値、あるいは各映像取得部11の時間間隔で、滞在時間の平均値を算出し、その定数倍(例えば、2倍)の時間を長期滞在判定時間と算出してもよい。
 また、他にも、人物情報管理部16は、統計対象とする監視対象の情報から、撮影時間間隔の最大値、あるいは各映像取得部11の時間間隔で、滞在時間の平均と分散を算出し、人数の一定割合(例えば、5%)が長期滞在者と判定される時間間隔の閾値を長期滞在判定時間と算出してもよい。
 ただし、長期滞在判定時間の算出方法は、これらの方法に限定されない。例えば、1つの映像取得部11が撮影した映像中の監視対象の移動速度を測定し、その移動速度と映像取得部11の間の距離に基づいて長期滞在判定時間を算出してもよい。
 このように動的に長期滞在判定時間を算出することで、実際の状況に応じた適切な判定条件を利用できるようになり、監視対象からより適切に対象物を特定できるようになる。
 次に、長時間滞在者推定部14が、所定の期間で監視対象が撮影される頻度に基づいて対象物を特定する方法を説明する。長時間滞在者推定部14は、所定の期間内に撮影時刻が含まれる監視対象撮影情報の頻度が予め定めた閾値以上の監視対象を対象物と特定してもよい。これは、あまりに頻繁に撮影される監視対象者は、不自然な長期滞在者と考えられるからである。
 図8は、複数の映像取得部11が監視対象を撮影する動作の例を示す説明図である。図8に示す例では、映像取得部11a,11b,11c,11dが、それぞれエリアA,B,C,Dを撮影しているものとする。
 撮影される映像から人物が検出されると、各人物の人物識別情報が抽出され、人物識別情報記憶部18に記憶される。図8に示す例では、エリアA,B,C,Dを撮影したいずれの映像にも、人物u11が撮影されている。そのため、人物識別情報記憶部18には、人物u11に関する人物識別情報が4件登録されていることになる。そこで、長時間滞在者推定部14は、この登録頻度に基づいて、監視対象の人物の中からこの人物u11を対象物として特定する。特定された対象物は、結果出力部17により例えば、出力結果記憶部20に出力される。
 頻度の条件を規定した判定条件は、映像取得部11の数に関わらず、全体で1つ定められていてもよい。この場合、この判定条件は、映像取得部11が設置される施設全体を対象として監視対象が撮影される頻度を判断するための条件であると言える。
 また、頻度の条件を規定した判定条件は、各映像取得部11に応じて定められていてもよい。この場合、この判定条件は、各映像取得部11の撮影範囲における監視対象の撮影頻度を判断するための条件であると言える。
 また、頻度の条件を規定した判定条件は、任意の映像取得部11をまとめたグループに応じて定められていてもよい。この場合、この判定条件は、グループに属する映像取得部11の撮影範囲における監視対象の撮影頻度を判断するための条件であると言える。
 例えば、一箇所の待ち合わせ場所であれば、複数回撮影されていても不自然な長期滞在者とは考えにくいが、複数の待ち合わせ場所で、複数回撮影されているような場合は不自然な長期滞在者と考えられる。任意の映像取得部11をグループ化した条件を設定することで、このような不自然な長期滞在者を特定することが可能になる。
 また、人物識別情報照合部15が同一と推定する監視対象の確からしさ(尤度)を算出している場合、長時間滞在者推定部14は、尤度を基に算出される頻度を用いて対象物を特定してもよい。例えば、人物情報記憶部19に、ある監視対象の情報が2件登録されているとする。このとき、各監視対象の尤度が、それぞれ0.5である場合、長時間滞在者推定部14は、その頻度を1(=0.5×2)と判断して、対象物を特定してもよい。
 また、人物識別情報照合部15が尤度を算出している場合、長時間滞在者推定部14は、尤度が所定の値以上の監視対象撮影情報のみを対象に推定処理を行ってもよい。これは、長時間滞在者推定部14が所定の期間内における撮影時刻の時間幅に基づいて対象物を特定する際にも、同様に適用可能である。すなわち、長時間滞在者推定部14は、ある監視対象について尤度が所定の値以上の監視対象撮影情報に含まれる撮影時刻の時間幅を計算するようにしてもよい。
 長時間滞在者推定部14は、特定した対象物の画像や撮影装置識別情報、撮影時刻などをリスト化し、結果出力部17に通知する。
 結果出力部17は、特定された対象物を任意の方法で出力する。結果出力部17は、例えば、出力結果記憶部20に、出力結果を記憶してもよい。また、結果出力部17は、出力結果記憶部20に記憶された情報から、異なる時間帯や異なる日に抽出された共通の監視対象を抽出してもよい。このような対象物は、特に注視すべき対象物であるため、結果出力部17は、例えば、このような人物を不自然な長期滞在者の常習犯として出力してもよい。
 人物識別情報解析部12と、人物識別情報管理部13と、長時間滞在者推定部14と、人物識別情報照合部15と、人物情報管理部16と、結果出力部17とは、例えば、プログラム(対象物特定プログラム)に従って動作するコンピュータのCPUによって実現される。例えば、プログラムは、対象物特定装置の記憶部(図示せず)に記憶され、CPUは、そのプログラムを読み込み、プログラムに従って、人物識別情報解析部12、人物識別情報管理部13、長時間滞在者推定部14、人物識別情報照合部15、人物情報管理部16および結果出力部17として動作してもよい。
 また、人物識別情報解析部12と、人物識別情報管理部13と、長時間滞在者推定部14と、人物識別情報照合部15と、人物情報管理部16と、結果出力部17とは、それぞれが専用のハードウェアで実現されていてもよい。また、人物識別情報記憶部18と、人物情報記憶部19とは、例えば、磁気ディスク等により実現される。
 次に、本実施形態の対象物特定装置の動作を説明する。図9は、本実施形態の対象物特定装置の動作例を示すフローチャートである。
 まず、映像取得部11が、撮影範囲の映像を取得し(ステップS11)、撮影した映像を人物識別情報解析部12に入力する。人物識別情報解析部12は、入力された映像から監視対象を検出すると、その監視対象の識別情報を抽出し(ステップS12)、抽出した監視対象識別情報を人物識別情報記憶部18に記憶する(ステップS13)。
 人物識別情報照合部15は、人物識別情報記憶部18に記憶された監視対象識別情報と人物情報記憶部19に記憶された監視対象の監視対象識別情報を照合する(ステップS14)。同一の監視対象が存在する場合(ステップS15におけるYes)、人物情報管理部16は、その監視対象の撮影時刻を更新する(ステップS16)。一方、同一の監視対象が存在しない場合(ステップS15におけるNo)、人物情報管理部16は、その監視対象を新たな監視対象として、撮影時刻とともに人物情報記憶部19に記憶する(ステップS17)。
 長時間滞在者推定部14は、特定された同一人物の監視対象撮影情報に含まれる撮影時刻を用いて、監視対象の中から所望の対象物を特定する(ステップS18)。長時間滞在者推定部14は、撮影時刻の時間幅や頻度に基づいて、対象物を特定する。そして、結果出力部17は、特定した対象物を出力する(ステップS19)。
 以上のように、本実施形態によれば、人物識別情報解析部12が、各映像に映る監視対象を解析して、監視対象識別情報と撮影時刻とを含む監視対象撮影情報を抽出し、人物識別情報照合部15が、監視対象識別情報を照合して、同一と推定される監視対象を特定する。そして、長時間滞在者推定部14が、特定された監視対象の監視対象撮影情報に含まれる撮影時刻を用いて、監視対象の中から所望の対象物を特定する。
 このとき、長時間滞在者推定部14は、例えば、所定の期間内に撮影時刻が含まれる監視対象撮影情報の頻度が所定の閾値以上、または、所定の期間内における撮影時刻の時間幅が所定の期間以上の監視対象を対象物と特定する。よって、監視する範囲が広い場合や混雑している状況であっても、監視対象の中から、その範囲内に不自然に長期間存在する対象物を特定できる。
 例えば、駅構内で本実施形態の対象物特定装置を用いた場合、まず、駅の中に設置された1台以上の映像取得部11によって撮影される映像から、人物識別情報解析部12が、顔や人物を識別できる情報を取得する。人物識別情報照合部15は、その人物を識別できる情報を、異なる時間帯や、複数のカメラで得られた情報と照合することで、同じ人物が撮影された時間幅や頻度を計算する。そのため、不審者が事前に提供されていない場合であっても、監視対象ごとに撮影時刻のリストを生成できる。
 そして、長時間滞在者推定部14が、この時間幅や頻度などを用いて、一般的な利用者とは異なる、不自然な施設内の長期滞在者を発見する。そのため、全ての監視対象エリアを網羅するようにカメラを設置する必要がなく、混雑している状況で監視対象の一部が撮影できない状況があっても、他の撮影時刻から監視対象を特定することが可能になる。
 次に、本発明の概要を説明する。図10は、本発明による対象物特定装置の概要を示すブロック図である。本発明による対象物特定装置は、1台以上の撮影装置(例えば、映像取得部11)で撮影された映像に映る監視対象を照合して、同一と推定される監視対象を特定する監視対象照合手段71(例えば、人物識別情報照合部15)と、特定された監視対象である特定監視対象の撮影時刻を用いて、特定監視対象の中から所望の対象物を特定する対象物特定手段72(例えば、長時間滞在者推定部14)とを備えている。
 そのような構成により、監視する範囲が広い場合や混雑している状況であっても、監視対象の中から、その範囲内に不自然に長期間存在する対象物を特定できる。
 また、対象物特定手段72は、撮影時刻が所定の期間内(例えば、分析時間幅)に所定の頻度以上、または、所定の期間内における撮影時刻の時間幅が所定の期間(例えば、長期滞在判定時間)以上の特定監視対象を対象物として特定してもよい。
 また、対象物特定手段72は、所定の期間内における撮影時刻の時間幅のうち、最早撮影時刻と最遅撮影時刻の時間幅が判定条件で規定される所定の閾値(例えば、長期滞在判定時間)以上の特定監視対象を対象物として特定してもよい。
 また、対象物特定手段72は、各撮影装置に応じて最早撮影時刻と最遅撮影時刻の時間幅の条件を規定した判定条件(例えば、図6に例示する判定条件)に基づいて、対象物を特定してもよい。
 また、対象物特定装置は、対象物と特定されなかった監視対象の撮影時刻に基づいて、最早撮影時刻と最遅撮影時刻の時間幅の条件を規定した判定条件を生成する判定条件生成手段(例えば、人物情報管理部16)を備えていてもよい。このように、動的に判定条件を算出することで、実際の状況に応じた適切な判定条件を利用できるようになり、監視対象からより適切に対象物を特定できるようになる。
 一方、対象物特定手段72は、所定の期間内における撮影時刻の時間幅のうち、連続する撮影時刻の時間幅が判定条件で規定される所定の閾値以上の特定監視対象を対象物として特定してもよい。
 また、対象物特定手段72は、連続する撮影時刻の時間幅が、撮影装置間の判定条件に該当する特定監視対象を対象物として特定してもよい。
 また、対象物特定手段72は、特定監視対象が撮影された撮影時刻が所定の期間内に含まれる頻度を撮影装置ごと規定した判定条件に基づいて、対象物を特定してもよい。
 また、対象物特定手段72は、特定監視対象が撮影された撮影時刻が所定の期間内に含まれる頻度を予め定めた撮影装置のグループごと規定した判定条件に基づいて、対象物を特定してもよい。
 また、監視対象照合手段71は、同一と推定される監視対象の尤度を算出し、対象物特定手段72は、尤度を基に算出される頻度を用いて対象物を特定してもよい。
 また、監視対象照合手段71は、撮影装置が撮影した映像から抽出される顔画像を照合して、同一人物と推定される監視対象を特定してもよい。
 なお、監視対象照合手段71は、映像に映る監視対象を照合する前に、各監視対象を識別するための情報(監視対象識別情報)を抽出するようにしてもよい。具体的には、監視対象照合手段71は、第1の実施形態における人物識別情報解析部12が行う処理を実行するようにしてもよい。ただし、監視対象識別情報を用いなくても監視対象が照合できる場合、監視対象識別情報の明示的な抽出処理は必ずしも必要ではない。以下、監視対象識別情報を抽出するための構成を含めた対象物特定装置について説明する。
 図11は、本発明による対象物特定装置の他の概要を示すブロック図である。本発明による対象物特定装置は、1台以上の撮影装置(例えば、映像取得部11)で撮影された各映像に映る監視対象(例えば、人物、自動車)を解析して、その監視対象の識別に用いられる監視対象識別情報(例えば、顔画像、ナンバープレート画像)とその監視対象が撮影された撮影時刻とを含む監視対象撮影情報を抽出する監視対象撮影情報解析手段81(例えば、人物識別情報解析部12)と、監視対象識別情報を照合して、同一と推定される監視対象を特定する監視対象照合手段82(例えば、人物識別情報照合部15)と、特定された監視対象の監視対象撮影情報に含まれる撮影時刻を用いて、撮影された監視対象の中から所望の対象物(例えば、不自然な長期滞在者)を特定する対象物特定手段83(例えば、長時間滞在者推定部14)とを備えている。
 そのような構成によっても、監視する範囲が広い場合や混雑している状況であっても、監視対象の中から、その範囲内に不自然に長期間存在する対象物を特定できる。
 また、対象物特定手段83は、所定の期間内(例えば、分析時間幅)に撮影時刻が含まれる監視対象撮影情報の頻度が所定の閾値以上、または、所定の期間内における撮影時刻の時間幅が所定の期間(例えば、長期滞在判定時間)以上の監視対象を対象物と特定してもよい。
 具体的には、対象物特定手段83は、所定の期間内における撮影時刻の時間幅のうち、最早撮影時刻と最遅撮影時刻の時間幅が判定条件で規定される所定の閾値(例えば、長期滞在判定時間)以上の監視対象を対象物と特定してもよい。
 また、監視対象撮影情報解析手段81は、監視対象を撮影した撮影装置の識別に用いられる撮影装置識別情報を含む監視対象撮影情報を抽出してもよい。このとき、対象物特定手段83は、各撮影装置に応じて最早撮影時刻と最遅撮影時刻の時間幅の条件を規定した判定条件(例えば、図6に例示する判定条件)に基づいて、対象物を特定してもよい。
 また、対象物特定装置は、対象物と特定されなかった監視対象の撮影時刻に基づいて、最早撮影時刻と最遅撮影時刻の時間幅の条件を規定した判定条件を生成する判定条件生成手段(例えば、人物情報管理部16)を備えていてもよい。
 一方、対象物特定手段83は、所定の期間内における撮影時刻の時間幅のうち、連続する撮影時刻の時間幅が判定条件で規定される所定の閾値以上の監視対象を対象物と特定してもよい。
 また、監視対象撮影情報解析手段81は、監視対象を撮影した撮影装置の識別に用いられる撮影装置識別情報を含む監視対象撮影情報を抽出してもよい。このとき、対象物特定手段83は、監視対象撮影情報のうちの連続する撮影時刻の時間幅が、撮影装置間の判定条件に該当する監視対象を対象物と特定してもよい。
 また、監視対象撮影情報解析手段81は、監視対象を撮影した撮影装置の識別に用いられる撮影装置識別情報を含む監視対象撮影情報を抽出してもよい。このとき、対象物特定手段83は、所定の期間内に撮影時刻が含まれる監視対象撮影情報の頻度の条件を撮影装置ごと規定した判定条件に基づいて、対象物を特定してもよい。
 また、対象物特定手段83は、所定の期間内に撮影時刻が含まれる監視対象撮影情報の頻度の条件を予め定めた撮影装置のグループごと規定した判定条件に基づいて、対象物を特定してもよい。
 また、監視対象照合手段82は、同一と推定される監視対象の尤度(確からしさ)を算出してもよい。そして、対象物特定手段83は、尤度を基に算出される頻度を用いて対象物を特定してもよい。
 また、監視対象撮影情報解析手段81は、監視対象識別情報として監視対象の顔画像を抽出してもよい。そして、監視対象照合手段82は、顔画像を照合して、同一人物と推定される監視対象を特定してもよい。このような構成によれば、監視対象の範囲内不自然に長期間滞在する人物を特定できる。
 以上、実施形態及び実施例を参照して本願発明を説明したが、本願発明は上記実施形態および実施例に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
 この出願は、2013年3月29日に出願された日本特許出願2013-072178を基礎とする優先権を主張し、その開示の全てをここに取り込む。
 本発明は、例えば、監視カメラで特定の施設内にいる人を撮影し、撮影された映像を解析して長期滞在者を自動発見する映像解析システムに好適に適用される。
 11、11a~11d 映像取得部
 12 人物識別情報解析部
 13 人物識別情報管理部
 14 長時間滞在者推定部
 15 人物識別情報照合部
 16 人物情報管理部
 17 結果出力部
 18 人物識別情報記憶部
 19 人物情報記憶部
 20 出力結果記憶部
 u1~u11 人物

Claims (15)

  1.  1台以上の撮影装置で撮影された映像に映る監視対象を照合して、同一と推定される監視対象を特定する監視対象照合手段と、
     特定された前記監視対象である特定監視対象の撮影時刻を用いて、前記特定監視対象の中から所望の対象物を特定する対象物特定手段とを備えた
     ことを特徴とする対象物特定装置。
  2.  対象物特定手段は、撮影時刻が所定の期間内に所定の頻度以上、または、所定の期間内における撮影時刻の時間幅が所定の期間以上の特定監視対象を対象物として特定する
     請求項1記載の対象物特定装置。
  3.  対象物特定手段は、所定の期間内における撮影時刻の時間幅のうち、最早撮影時刻と最遅撮影時刻の時間幅が判定条件で規定される所定の閾値以上の特定監視対象を対象物として特定する
     請求項1または請求項2記載の対象物特定装置。
  4.  対象物特定手段は、各撮影装置に応じて最早撮影時刻と最遅撮影時刻の時間幅の条件を規定した判定条件に基づいて、対象物を特定する
     請求項3記載の対象物特定装置。
  5.  対象物と特定されなかった監視対象の撮影時刻に基づいて、最早撮影時刻と最遅撮影時刻の時間幅の条件を規定した判定条件を生成する判定条件生成手段を備えた
     請求項3または請求項4記載の対象物特定装置。
  6.  対象物特定手段は、所定の期間内における撮影時刻の時間幅のうち、連続する撮影時刻の時間幅が判定条件で規定される所定の閾値以上の特定監視対象を対象物として特定する
     請求項1または請求項2記載の対象物特定装置。
  7.  対象物特定手段は、連続する撮影時刻の時間幅が、撮影装置間の判定条件に該当する特定監視対象を対象物として特定する
     請求項6記載の対象物特定装置。
  8.  対象物特定手段は、特定監視対象が撮影された撮影時刻が所定の期間内に含まれる頻度を撮影装置ごと規定した判定条件に基づいて、対象物を特定する
     請求項1または請求項2記載の対象物特定装置。
  9.  対象物特定手段は、特定監視対象が撮影された撮影時刻が所定の期間内に含まれる頻度を予め定めた撮影装置のグループごと規定した判定条件に基づいて、対象物を特定する
     請求項8記載の対象物特定装置。
  10.  監視対象照合手段は、同一と推定される監視対象の尤度を算出し、
     対象物特定手段は、前記尤度を基に算出される頻度を用いて対象物を特定する
     請求項8または請求項9記載の対象物特定装置。
  11.  監視対象照合手段は、撮影装置が撮影した映像から抽出される顔画像を照合して、同一人物と推定される監視対象を特定する
     請求項1から請求項10のうちのいずれか1項に記載の対象物特定装置。
  12.  1台以上の撮影装置で撮影された映像に映る監視対象を照合して、同一と推定される監視対象を特定し、
     特定された前記監視対象である特定監視対象の撮影時刻を用いて、前記特定監視対象の中から所望の対象物を特定する
     ことを特徴とする対象物特定方法。
  13.  撮影時刻が所定の期間内に所定の頻度以上、または、所定の期間内における撮影時刻の時間幅が所定の期間以上の特定監視対象を対象物として特定する
     請求項12記載の対象物特定方法。
  14.  コンピュータに、
     1台以上の撮影装置で撮影された映像に映る監視対象を照合して、同一と推定される監視対象を特定する監視対象照合処理、および、
     特定された前記監視対象である特定監視対象の撮影時刻を用いて、前記特定監視対象の中から所望の対象物を特定する対象物特定処理
     を実行させるための対象物特定プログラム。
  15.  コンピュータに、
     対象物特定処理で、撮影時刻が所定の期間内に所定の頻度以上、または、所定の期間内における撮影時刻の時間幅が所定の期間以上の特定監視対象を対象物として特定させる
     請求項14記載の対象物特定プログラム。
PCT/JP2014/000523 2013-03-29 2014-01-31 対象物特定装置、対象物特定方法および対象物特定プログラム WO2014155922A1 (ja)

Priority Applications (9)

Application Number Priority Date Filing Date Title
CN201480016621.7A CN105075248A (zh) 2013-03-29 2014-01-31 对象物体标识设备、对象物体标识方法和对象物体标识程序
EP14774192.0A EP2981075A1 (en) 2013-03-29 2014-01-31 Target object identifying device, target object identifying method and target object identifying program
JP2015507981A JP6406246B2 (ja) 2013-03-29 2014-01-31 対象物特定装置、対象物特定方法および対象物特定プログラム
US14/765,621 US10430666B2 (en) 2013-03-29 2014-01-31 Target object identifying device, target object identifying method and target object identifying program
SG11201508085QA SG11201508085QA (en) 2013-03-29 2014-01-31 Target object identifying device, target object identifying method and target object identifying program
BR112015020989A BR112015020989A2 (pt) 2013-03-29 2014-01-31 dispositivo de identificação de objeto-alvo, método de identificação de objeto-alvo e programa de identificação de objeto-alvo
AU2014240718A AU2014240718A1 (en) 2013-03-29 2014-01-31 Target object identifying device, target object identifying method and target object identifying program
ZA2015/06437A ZA201506437B (en) 2013-03-29 2015-09-02 Target object identifying device, target object identifying method and target object identifying program
US16/502,180 US11210527B2 (en) 2013-03-29 2019-07-03 Target object identifying device, target object identifying method and target object identifying program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013-072178 2013-03-29
JP2013072178 2013-03-29

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US14/765,621 A-371-Of-International US10430666B2 (en) 2013-03-29 2014-01-31 Target object identifying device, target object identifying method and target object identifying program
US16/502,180 Continuation US11210527B2 (en) 2013-03-29 2019-07-03 Target object identifying device, target object identifying method and target object identifying program

Publications (1)

Publication Number Publication Date
WO2014155922A1 true WO2014155922A1 (ja) 2014-10-02

Family

ID=51622949

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/000523 WO2014155922A1 (ja) 2013-03-29 2014-01-31 対象物特定装置、対象物特定方法および対象物特定プログラム

Country Status (9)

Country Link
US (2) US10430666B2 (ja)
EP (1) EP2981075A1 (ja)
JP (1) JP6406246B2 (ja)
CN (1) CN105075248A (ja)
AU (1) AU2014240718A1 (ja)
BR (1) BR112015020989A2 (ja)
SG (1) SG11201508085QA (ja)
WO (1) WO2014155922A1 (ja)
ZA (1) ZA201506437B (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016166950A1 (en) * 2015-04-14 2016-10-20 Sony Corporation Image processing apparatus, image processing method, and image processing system
WO2017163955A1 (ja) 2016-03-23 2017-09-28 日本電気株式会社 監視システム、画像処理装置、画像処理方法およびプログラム記録媒体
JP2017191621A (ja) * 2016-03-30 2017-10-19 日本電気株式会社 解析装置、解析方法及びプログラム
WO2018096787A1 (ja) * 2016-11-22 2018-05-31 パナソニックIpマネジメント株式会社 人物行動監視装置および人物行動監視システム
JP2019091395A (ja) * 2017-11-15 2019-06-13 キヤノン株式会社 情報処理装置、監視システム、方法及びプログラム
JP2019114294A (ja) * 2019-03-29 2019-07-11 株式会社東芝 改札監視システム
JP2020074506A (ja) * 2019-09-19 2020-05-14 パナソニックIpマネジメント株式会社 人物行動監視装置および人物行動監視システム
JP2021166399A (ja) * 2020-01-15 2021-10-14 日本電気株式会社 画像処理システム、画像処理方法及びプログラム
JP2022051683A (ja) * 2020-09-22 2022-04-01 グラスパー テクノロジーズ エーピーエス 訓練データの生成と再識別に使用するための機械学習モデルの訓練とについての概念

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10430666B2 (en) * 2013-03-29 2019-10-01 Nec Corporation Target object identifying device, target object identifying method and target object identifying program
WO2015166612A1 (ja) 2014-04-28 2015-11-05 日本電気株式会社 映像解析システム、映像解析方法および映像解析プログラム
US20180002109A1 (en) * 2015-01-22 2018-01-04 Nec Corporation Shelf space allocation management device and shelf space allocation management method
JP6597643B2 (ja) * 2015-02-05 2019-10-30 株式会社リコー 画像処理装置、画像処理システム、画像処理方法およびプログラム
US10043089B2 (en) * 2015-03-11 2018-08-07 Bettina Jensen Personal identification method and apparatus for biometrical identification
WO2017037754A1 (en) * 2015-08-28 2017-03-09 Nec Corporation Analysis apparatus, analysis method, and storage medium
JP2017097510A (ja) * 2015-11-20 2017-06-01 ソニー株式会社 画像処理装置と画像処理方法およびプログラム
DE102016106514A1 (de) * 2016-04-08 2017-10-12 Deutsche Post Ag Kontrolle von Aufenthaltsdauer und Aufenthaltsbereich
TWI657378B (zh) * 2017-09-22 2019-04-21 財團法人資訊工業策進會 複數非線性扭曲鏡頭下之目標追蹤方法及系統
EP3487151A1 (en) * 2017-11-15 2019-05-22 Canon Kabushiki Kaisha Information processing apparatus, monitoring system, method, and non-transitory computer-readable storage medium
WO2020213638A1 (ja) * 2019-04-18 2020-10-22 日本電気株式会社 人物特定装置、人物特定方法および記録媒体
CN111354146A (zh) * 2020-01-06 2020-06-30 安然 一种家居防护系统
CN111611904B (zh) * 2020-05-15 2023-12-01 新石器慧通(北京)科技有限公司 基于无人车行驶过程中的动态目标识别方法
CN111565300B (zh) * 2020-05-22 2020-12-22 深圳市百川安防科技有限公司 基于对象的视频文件处理方法、设备及系统
US11589010B2 (en) 2020-06-03 2023-02-21 Apple Inc. Camera and visitor user interfaces
US11657614B2 (en) 2020-06-03 2023-05-23 Apple Inc. Camera and visitor user interfaces
US11657123B2 (en) * 2020-10-08 2023-05-23 Hitachi, Ltd. Method and apparatus for people flow analysis using similar-image search

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008152736A (ja) * 2006-12-20 2008-07-03 Sony Corp 監視システム、監視装置及び監視方法
JP2010039580A (ja) * 2008-07-31 2010-02-18 Secom Co Ltd 移動物体追跡装置
JP2012039531A (ja) * 2010-08-11 2012-02-23 Oki Electric Ind Co Ltd 映像監視システム
JP2012078950A (ja) * 2010-09-30 2012-04-19 Sogo Keibi Hosho Co Ltd 自律移動体を用いた監視システム、監視装置、自律移動体、監視方法、及び監視プログラム
JP2012238111A (ja) 2011-05-10 2012-12-06 Nippon Hoso Kyokai <Nhk> 顔画像認識装置及び顔画像認識プログラム

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7167576B2 (en) * 2001-07-02 2007-01-23 Point Grey Research Method and apparatus for measuring dwell time of objects in an environment
WO2003067360A2 (en) * 2002-02-06 2003-08-14 Nice Systems Ltd. System and method for video content analysis-based detection, surveillance and alarm management
US7397929B2 (en) * 2002-09-05 2008-07-08 Cognex Technology And Investment Corporation Method and apparatus for monitoring a passageway using 3D images
JP3861781B2 (ja) * 2002-09-17 2006-12-20 日産自動車株式会社 前方車両追跡システムおよび前方車両追跡方法
US7263209B2 (en) * 2003-06-13 2007-08-28 Sarnoff Corporation Vehicular vision system
GB2410359A (en) * 2004-01-23 2005-07-27 Sony Uk Ltd Display
JP4915655B2 (ja) * 2006-10-27 2012-04-11 パナソニック株式会社 自動追尾装置
US7608825B2 (en) * 2006-12-14 2009-10-27 Sumitomo Electric Industries, Ltd. Image pickup device, vision enhancement apparatus, night-vision apparatus, navigation support apparatus, and monitoring apparatus
US20100141806A1 (en) * 2007-03-15 2010-06-10 Kansai University Moving Object Noise Elimination Processing Device and Moving Object Noise Elimination Processing Program
CN100531373C (zh) * 2007-06-05 2009-08-19 西安理工大学 基于双摄像头联动结构的视频运动目标特写跟踪监视方法
JP2010081480A (ja) * 2008-09-29 2010-04-08 Fujifilm Corp 携帯型不審者検出装置、不審者検出方法及びプログラム
JP2010113692A (ja) * 2008-11-10 2010-05-20 Nec Corp 顧客行動記録装置及び顧客行動記録方法並びにプログラム
JP5432983B2 (ja) * 2009-03-09 2014-03-05 パナソニック株式会社 入退検出装置、監視装置及び入退検出方法
CN101715111B (zh) * 2009-11-16 2011-12-14 南京邮电大学 视频监控中滞留物主自动搜寻方法
EP2717571B1 (en) * 2011-05-24 2018-09-05 Nissan Motor Co., Ltd Vehicle monitoring device and method of monitoring vehicle
WO2013081985A1 (en) * 2011-11-28 2013-06-06 Magna Electronics, Inc. Vision system for vehicle
US9070019B2 (en) * 2012-01-17 2015-06-30 Leap Motion, Inc. Systems and methods for capturing motion in three-dimensional space
US10325489B2 (en) * 2012-06-29 2019-06-18 Here Global B.V. Dynamic natural guidance
US10430666B2 (en) * 2013-03-29 2019-10-01 Nec Corporation Target object identifying device, target object identifying method and target object identifying program
JP6941805B2 (ja) * 2018-02-22 2021-09-29 パナソニックIpマネジメント株式会社 滞在状況表示システムおよび滞在状況表示方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008152736A (ja) * 2006-12-20 2008-07-03 Sony Corp 監視システム、監視装置及び監視方法
JP2010039580A (ja) * 2008-07-31 2010-02-18 Secom Co Ltd 移動物体追跡装置
JP2012039531A (ja) * 2010-08-11 2012-02-23 Oki Electric Ind Co Ltd 映像監視システム
JP2012078950A (ja) * 2010-09-30 2012-04-19 Sogo Keibi Hosho Co Ltd 自律移動体を用いた監視システム、監視装置、自律移動体、監視方法、及び監視プログラム
JP2012238111A (ja) 2011-05-10 2012-12-06 Nippon Hoso Kyokai <Nhk> 顔画像認識装置及び顔画像認識プログラム

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10319099B2 (en) 2015-04-14 2019-06-11 Sony Corporation Image processing apparatus, image processing method, and image processing system
WO2016166950A1 (en) * 2015-04-14 2016-10-20 Sony Corporation Image processing apparatus, image processing method, and image processing system
WO2017163955A1 (ja) 2016-03-23 2017-09-28 日本電気株式会社 監視システム、画像処理装置、画像処理方法およびプログラム記録媒体
US11030464B2 (en) 2016-03-23 2021-06-08 Nec Corporation Privacy processing based on person region depth
JP2020107354A (ja) * 2016-03-30 2020-07-09 日本電気株式会社 解析装置、解析方法及びプログラム
JP2017191621A (ja) * 2016-03-30 2017-10-19 日本電気株式会社 解析装置、解析方法及びプログラム
US11176698B2 (en) 2016-03-30 2021-11-16 Nec Corporation Analysis apparatus, analysis method, and storage medium
US11094076B2 (en) 2016-03-30 2021-08-17 Nec Corporation Analysis apparatus, analysis method, and storage medium
US10949657B2 (en) 2016-11-22 2021-03-16 Panasonic Intellectual Property Management Co., Ltd. Person's behavior monitoring device and person's behavior monitoring system
JP2018085597A (ja) * 2016-11-22 2018-05-31 パナソニックIpマネジメント株式会社 人物行動監視装置および人物行動監視システム
WO2018096787A1 (ja) * 2016-11-22 2018-05-31 パナソニックIpマネジメント株式会社 人物行動監視装置および人物行動監視システム
JP2019091395A (ja) * 2017-11-15 2019-06-13 キヤノン株式会社 情報処理装置、監視システム、方法及びプログラム
JP7097721B2 (ja) 2017-11-15 2022-07-08 キヤノン株式会社 情報処理装置、方法及びプログラム
JP2019114294A (ja) * 2019-03-29 2019-07-11 株式会社東芝 改札監視システム
JP2020074506A (ja) * 2019-09-19 2020-05-14 パナソニックIpマネジメント株式会社 人物行動監視装置および人物行動監視システム
JP2021166399A (ja) * 2020-01-15 2021-10-14 日本電気株式会社 画像処理システム、画像処理方法及びプログラム
JP2022003529A (ja) * 2020-01-15 2022-01-11 日本電気株式会社 情報処理装置、情報処理方法、プログラム
JP7487888B2 (ja) 2020-01-15 2024-05-21 日本電気株式会社 画像処理システム、画像処理方法及びプログラム
JP2022051683A (ja) * 2020-09-22 2022-04-01 グラスパー テクノロジーズ エーピーエス 訓練データの生成と再識別に使用するための機械学習モデルの訓練とについての概念
JP7186269B2 (ja) 2020-09-22 2022-12-08 グラスパー テクノロジーズ エーピーエス 訓練データの生成と同一物判定に使用するための機械学習モデルの訓練とについての概念

Also Published As

Publication number Publication date
AU2014240718A1 (en) 2015-08-27
US20150371403A1 (en) 2015-12-24
BR112015020989A2 (pt) 2017-07-18
CN105075248A (zh) 2015-11-18
US20190325229A1 (en) 2019-10-24
ZA201506437B (en) 2019-07-31
US10430666B2 (en) 2019-10-01
EP2981075A1 (en) 2016-02-03
US11210527B2 (en) 2021-12-28
SG11201508085QA (en) 2015-11-27
JPWO2014155922A1 (ja) 2017-02-16
JP6406246B2 (ja) 2018-10-17

Similar Documents

Publication Publication Date Title
JP6406246B2 (ja) 対象物特定装置、対象物特定方法および対象物特定プログラム
WO2015166612A1 (ja) 映像解析システム、映像解析方法および映像解析プログラム
CN107958258B (zh) 用于追踪限定区域中的对象的方法和系统
JP2022082561A (ja) 解析サーバ、監視システム、監視方法及びプログラム
AU2015224526B2 (en) An image management system
WO2014155958A1 (ja) 対象物監視システム、対象物監視方法および監視対象抽出プログラム
JP2008108243A (ja) 人物認識装置および人物認識方法
CN110852148A (zh) 一种基于目标追踪的访客目的地核验方法及系统
WO2020115890A1 (ja) 情報処理システム、情報処理装置、情報処理方法、およびプログラム
JP2017151832A (ja) 待ち時間算出システム
CN110782228A (zh) 一种工作时长获得方法、装置、电子设备及存储介质
CN113487784A (zh) 一种闸机通行系统及方法
JP2017220151A (ja) 情報処理装置、情報処理方法及びプログラム
KR20220147566A (ko) 교통정보 제공 방법, 장치 및 그러한 방법을 실행하기 위하여 매체에 저장된 컴퓨터 프로그램
JP2008158678A (ja) 人物認証装置および人物認証方法および入退場管理システム
CN110674775A (zh) 一种闸机的控制方法、装置、系统及存储介质
JP2007257296A (ja) 入退室管理システム及び入退室管理方法
KR102002287B1 (ko) 의심행동 관리가 가능한 출입관리 시스템
CN113744443B (zh) 一种闸机通道防欺骗控制方法、装置、设备及存储介质
JP6558178B2 (ja) 迷惑行為者推定システム、迷惑行為者推定システムの制御方法及び制御プログラム
JP2020064531A5 (ja)
WO2017048148A1 (en) Monitoring a flow of objects by a sim card detector
WO2022029860A1 (ja) 移動体追跡システム、移動体追跡装置、プログラム及び移動体追跡方法
JP6879336B2 (ja) 迷惑行為者推定システム、迷惑行為者推定システムの制御方法及び制御プログラム
JP2015014858A (ja) 情報処理システム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201480016621.7

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14774192

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14765621

Country of ref document: US

REEP Request for entry into the european phase

Ref document number: 2014774192

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2014774192

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2015507981

Country of ref document: JP

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 2014240718

Country of ref document: AU

Date of ref document: 20140131

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2015141286

Country of ref document: RU

Kind code of ref document: A

REG Reference to national code

Ref country code: BR

Ref legal event code: B01A

Ref document number: 112015020989

Country of ref document: BR

ENP Entry into the national phase

Ref document number: 112015020989

Country of ref document: BR

Kind code of ref document: A2

Effective date: 20150831