WO2014122879A1 - 解析処理システム - Google Patents

解析処理システム Download PDF

Info

Publication number
WO2014122879A1
WO2014122879A1 PCT/JP2014/000144 JP2014000144W WO2014122879A1 WO 2014122879 A1 WO2014122879 A1 WO 2014122879A1 JP 2014000144 W JP2014000144 W JP 2014000144W WO 2014122879 A1 WO2014122879 A1 WO 2014122879A1
Authority
WO
WIPO (PCT)
Prior art keywords
area
priority
image
analysis processing
new
Prior art date
Application number
PCT/JP2014/000144
Other languages
English (en)
French (fr)
Inventor
白石 展久
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to JP2014560661A priority Critical patent/JPWO2014122879A1/ja
Priority to US14/765,584 priority patent/US9767347B2/en
Publication of WO2014122879A1 publication Critical patent/WO2014122879A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Definitions

  • the present invention relates to an analysis processing system, and more particularly to an analysis processing system for analyzing an image taken by a camera.
  • analysis systems that analyze various data have been developed. For example, there is an analysis system that analyzes an image taken by a surveillance camera and detects the presence of a specific person or object registered in advance. In such an analysis system, it is required to detect the presence of a specific person or the like within a predetermined time after an image is taken by a surveillance camera. For this reason, it is desired to perform high-speed analysis processing.
  • Patent Document 1 describes a technique for detecting a specific person from an image taken by a surveillance camera. Specifically, in the technique of Patent Literature 1, processing priority is set for each input image based on the position of the face image detected in the input image input from the camera. For example, it is described that, for an image in which a face region exists at a position close to the horizontal edge of the image, the priority of analysis processing for the image is set high.
  • an object of the present invention is to solve the problem that an analysis result for a desired region cannot be obtained quickly in an analysis processing system, a program, and an analysis processing method for performing image processing.
  • An analysis processing system is: An image captured by a camera is acquired, an object having a preset feature is detected in the acquired image, and a predetermined range based on a position in the image where the object is detected is set as an object region.
  • Object detection means Based on the information on the object area, a priority level for identifying the object area including the newly appearing object in the newly acquired image as a new object area and executing a predetermined analysis process on the new object area
  • An analysis processing system An image captured by a camera is acquired, an object having a preset feature is detected in the acquired image, and a predetermined range based on a position in the image where the object is detected is set as an object region.
  • Object detection means Object area information storage processing means for storing information of the object area in a storage device; Based on information on the object area stored in the storage device in the image acquired in the past and information on the object area set by the object detection unit in the newly acquired image, in the past A priority level for specifying the object region including a newly appearing object in the newly acquired image as a new object region and executing a predetermined analysis process on the new object region with respect to the acquired image.
  • New object region specifying means for setting the priority to represent so as to be higher than the priority of the other object regions; With The configuration is as follows.
  • the program which is the other form of this invention is:
  • An image captured by a camera is acquired, an object having a preset feature is detected in the acquired image, and a predetermined range based on a position in the image where the object is detected is set as an object region.
  • Object detection means Based on the information on the object area, a priority level for identifying the object area including the newly appearing object in the newly acquired image as a new object area and executing a predetermined analysis process on the new object area
  • the program which is the other form of this invention is: In the information processing device, An image captured by a camera is acquired, an object having a preset feature is detected in the acquired image, and a predetermined range based on a position in the image where the object is detected is set as an object region.
  • Object detection means Object area information storage processing means for storing information of the object area in a storage device; Based on information on the object area stored in the storage device in the image acquired in the past and information on the object area set by the object detection unit in the newly acquired image, in the past A priority level for specifying the object region including a newly appearing object in the newly acquired image as a new object region and executing a predetermined analysis process on the new object region with respect to the acquired image.
  • New object region specifying means for setting the priority to represent so as to be higher than the priority of the other object regions; To realize, The configuration is as follows.
  • an analysis processing method includes: An image captured by a camera is acquired, an object having a preset feature is detected in the acquired image, and a predetermined range based on a position in the image where the object is detected is set as an object region. , Based on the information on the object area, a priority level for identifying the object area including the newly appearing object in the newly acquired image as a new object area and executing a predetermined analysis process on the new object area Is set to be higher than the priorities of the other object regions.
  • the configuration is as follows.
  • an analysis processing method includes: An image captured by a camera is acquired, an object having a preset feature is detected in the acquired image, and a predetermined range based on a position in the image where the object is detected is set as an object region. , Storing information of the object region in a storage device; Based on information on the object area stored in the storage device in the image acquired in the past and information on the object area set by the object detection unit in the newly acquired image, in the past A priority level for specifying the object region including a newly appearing object in the newly acquired image as a new object region and executing a predetermined analysis process on the new object region with respect to the acquired image. Set the priority to represent to be higher than the priorities of the other object regions, The configuration is as follows.
  • the present invention can provide an analysis processing system, a program, and an analysis processing method that can increase the speed of analysis processing for an image by being configured as described above.
  • FIG. 1 It is a block diagram which shows the structure of the video analysis system in Embodiment 1 of this invention. It is a figure which shows an example of the image processing by the video analysis system disclosed in FIG. It is a figure which shows an example of the image processing by the video analysis system disclosed in FIG. It is a figure which shows an example of the data memorize
  • FIG. 1 is a diagram illustrating a configuration of a video analysis system
  • FIGS. 2 to 16 are diagrams illustrating data stored in the video analysis system and a state of analysis processing
  • 17 to 20 are diagrams illustrating the operation of the video analysis system.
  • the video analysis system 10 (analysis processing system) in the present embodiment is composed of one or a plurality of information processing apparatuses, and is an analysis processing apparatus that performs a predetermined analysis process on an image. Specifically, the video analysis system 10 performs processing for detecting a person registered in advance from the image captured by the monitoring camera C and notifying the alarm display application 30. Note that the video analysis system 10 is an example of the analysis processing system according to the present invention, and is not necessarily limited to executing the analysis processing described below, and other analysis processing may be performed. Further, the video analysis system 10 is not necessarily provided with an analysis engine (analysis processing means) that performs an analysis process, and may be connected to an analysis engine configured by another information processing apparatus.
  • analysis engine analysis processing means
  • FIG. 10 An example of the configuration of the video analysis system 10 is shown in FIG. As shown in this figure, the video analysis system 10 is first connected with a plurality of the monitoring cameras C described above. For example, each monitoring camera C is installed at a different location in a building to be monitored, and takes images (images) of each space such as each room in the building and transmits the images to the analysis system 10. To do.
  • each monitoring camera C is installed at a different location in a building to be monitored, and takes images (images) of each space such as each room in the building and transmits the images to the analysis system 10. To do.
  • the above-described alarm display application 30 is connected to the video analysis system 10.
  • the alarm display application 30 is incorporated in, for example, an information processing terminal of a person who performs monitoring in a building. As will be described later, in order to notify the monitor of information notified from the video analysis system 10, notification information is provided. Is displayed on the screen of the information processing terminal or output with sound or light.
  • the video analysis system 10 is constructed by incorporating a program into an equipped arithmetic device, and includes a face position detection unit 11, an analysis processing priority calculation unit 12, an analysis processing request management unit 13, and an analysis processing execution control unit. 14, a face feature analysis unit 15, and a face collation unit 16.
  • the video analysis system 10 includes a frame face position information storage unit 21, an analysis processing request information storage unit 22, an analysis processing task information storage unit 23, and a face feature information database 24 in the equipped storage device.
  • the face position detection unit 11 acquires the video imaged by each monitoring camera C and transmitted from each monitoring camera C (arrow Y1 in FIG. 17, step S1 in FIG. 19). For each frame of the video, the human face reflected in the frame is detected. Specifically, the face position detection unit 11 acquires frames constituting an image at a predetermined sampling period, and detects a human face from within each frame. For example, the position of the human face shown in the frame is detected based on preset information (color and shape information) representing the characteristics of the human face.
  • FIG. 2 shows a state when a human face is detected in a frame acquired from the monitoring camera C whose camera ID assigned in advance is “001”. Further, the lower diagram of FIG. 2 shows a state where a human face is detected in a frame acquired from the monitoring camera C whose camera ID assigned in advance is “002” at almost the same date and time.
  • the human face indicated by reference signs P11, P12, and P13 is detected from the frame acquired from the monitoring camera C with the camera ID “001”, and the frame acquired from the monitoring camera C with the camera ID “002”.
  • the human faces indicated by reference numerals P21 and P22 are detected.
  • the face position detection unit 11 sets, as a person area (object area), an image area in a range including the face with reference to the detected position of the human face in the frame (step S2 in FIG. 19). . Specifically, the face position detection unit 11 sets a rectangular range surrounding the entire area detected as a human face as a person area, or a range set in advance with the center of gravity of the position detected as a human face as a center. Is set as the person area.
  • FIG. 3 shows an example when the above-described person area is set in the acquired frame.
  • the upper part of FIG. 3 shows a situation when a person area is set in the monitoring camera C whose camera ID is “001”.
  • the lower part of FIG. 3 shows a state when a person area is set in the monitoring camera 20 with the camera ID “002”.
  • person areas A11, A12, A13 corresponding to human faces indicated by reference signs P11, P12, P13 are set from the frame acquired from the monitoring camera C with the camera ID “001”, and the camera ID is “ Person areas A21 and A22 corresponding to the human face indicated by reference numerals P21 and P22 are set from the frame acquired from the monitoring camera C of “002”.
  • the face position detection unit 11 transmits information on the person area set for each frame of the video captured by each monitoring camera C to the analysis processing priority calculation unit 12 (arrow Y2 in FIG. 17).
  • the face position detection unit 11 includes a camera ID that identifies the captured surveillance camera C, date and time information when the frame is captured, image information of the entire frame, information that identifies the range of the person area, As analysis target data to the analysis processing priority calculation unit 12.
  • the face position detection unit 11 sequentially identifies a person region as described above, and transmits information on the human region to the analysis processing priority calculation unit 12.
  • the analysis processing priority calculation unit 12 receives the analysis target data transmitted from the face position detection unit 11 and takes an image with the same monitoring camera C.
  • a person area (object area) including a person (object) newly appearing in the past (for example, immediately before) frame is specified as a new object area.
  • the analysis processing priority calculation unit 12 first receives the analysis target data transmitted from the face position detection unit 11, and stores the analysis target data in the frame face position information storage unit 21 (FIG. 17). Arrow Y3, step S3 in FIG. 19). At this time, the analysis target data to be stored includes, in addition to the image information of the entire frame, as shown in FIG. 4, information for identifying the camera ID of the captured surveillance camera C and the range of the person area, the captured date and time information, At least. The analysis processing priority calculation unit 12 stores the analysis target data in the frame face position information storage unit 21 every time the analysis target data is received from the face position detection unit 11.
  • the analysis processing priority calculation unit 12 uses the same monitoring camera C as the monitoring camera C that captured the frame corresponding to the received analysis target data.
  • Data to be analyzed regarding the past frames taken is read from the frame face position information storage unit 21 (arrow Y3 in FIG. 17). For example, based on the camera ID and shooting date / time included in the new analysis target data, the analysis target data of the immediately previous frame shot by the same monitoring camera C is read.
  • the analysis processing priority calculation unit 12 newly receives analysis target data of a frame shot by the monitoring camera C with the camera ID “001”. Assume that the analysis target data of the frame captured immediately before by the monitoring camera C having the same camera ID “001” is read from the frame face position information storage unit 21 as shown in FIG. In the new frame shown in FIG. 5B, person areas A41, A42, A43, and A44 corresponding to the human face are set, and in the frame immediately before (past) shown in FIG. Person areas A31, A32, A33 corresponding to human faces are set.
  • the analysis processing priority calculating unit 12 associates the person areas A41 to A44 in the new frame with the person areas A31 to A33 in the immediately preceding frame. At this time, for example, the person areas A41 to A44 in the new frame with a short distance between the person areas are associated with the person areas A31 to A33 in the immediately preceding frame.
  • FIG. 6A shows a person area (solid line) (FIG. 5B) in a new frame photographed by the same monitoring camera C, and a person area (dotted line) (FIG. 5A) in the immediately preceding frame.
  • FIG. 6B shows a process of associating each person area.
  • Step S4 in FIG. 19 the upper left corner of the rectangle which is one point of the person area (solid line) of the new frame.
  • step S5 in FIG. 19 the person regions having the shortest distance are associated with each other.
  • the distance between the remaining person areas is checked, the person areas with the shortest distance are attached, and this process is repeated (steps S4 and S5 in FIG. 19 are repeated).
  • the person area A31 in the immediately preceding frame is associated with the person area A41 in the new frame, and the person areas A32 and A42 and the person areas A33 and A43 are associated with each other.
  • the person area A44 in the new frame is not associated with any person area in the immediately preceding frame.
  • the analysis processing priority calculation unit 12 examines the distances from the person area A44 in the new frame not associated as described above to all the person areas A31, A32, and A33 in the immediately preceding frame. Then, the analysis processing priority calculation unit 12 is associated when the distance from the person area A44 in the new frame that has not been associated to the person area A31 in the immediately preceding frame is equal to or greater than a preset value.
  • the person area A44 that does not exist is specified as a “new object area” (step S6 in FIG. 19).
  • the new object region is an object region including a person who newly appears in a new frame with respect to the previous frame.
  • the analysis processing priority calculation unit 12 identifies the person areas A41, A42, and A43 associated with the person area in the immediately preceding frame as the “new object subsequent area”.
  • These new object succeeding areas are person areas that include the same person as a person who has newly appeared in a past frame and are considered to follow a person area that has been identified as a new object area in the past.
  • the analysis processing priority calculation unit 12 applies the new object region A44 to the new object region without examining the distance from the person region A44 to all the person regions A31, A32, A33 in the immediately preceding frame. May be specified. Further, as described above, the analysis processing priority calculation unit 12 does not associate the distances between the person areas with the shortest distance, but handles the distances between the person areas that are shorter than the preset distance. In addition, the person area that is not associated may be specified as the new object area.
  • the method by which the analysis processing priority calculation unit 12 specifies the new object region is not limited to the method described above.
  • the distance between the person areas calculated when associating the person areas may be the distance between the centroids of the person areas, or the person areas may be associated with each other based on other criteria. Good.
  • the area of the person area in the new frame is compared with the area of the person area in the immediately preceding frame without using the distance between the person areas. Corresponding may be performed, and those having a difference of each area smaller than a certain value may be associated.
  • the present invention is not necessarily limited to specifying a new object region using a new frame and a past frame.
  • the analysis processing priority calculation unit 12 newly assigns a person determination ID, which is identification information for identifying the person area, to the person area specified as the “new object area” (step S6 in FIG. 19). .
  • the analysis processing priority calculation unit 12 sets a person determination ID already assigned to the person area associated in the immediately preceding frame for the person area specified as the “new object subsequent area”.
  • the person determinations set in the person areas A31, A32, and A33 associated with the immediately preceding frame as new object subsequent areas in the person areas A41, A42, and A43, respectively.
  • An ID is set.
  • a new person determination ID is set as a new object area.
  • the analysis priority calculation unit 12 sets a priority indicating the priority of executing the analysis process for each person region, and associates the person priority with the person determination ID (step S7 in FIG. 19). At this time, a higher priority value than the other person areas is set for the person area specified as the new object area. For example, the priority of the person area specified as the new object area is set to a value greater than 0, and the priorities of the other person areas are set to 0. Thereby, the priority value of the person area specified as the new object area is set to be higher than the priority values of the other person areas. At this time, since the other person area is the new object subsequent area, the analysis priority calculation unit 12 sets the priority of the new object subsequent area to a value lower than the priority set for the new object area. Set to.
  • the analysis processing priority calculation unit 12 adds a task ID, a person determination ID, a priority, date and time information at the time of shooting, etc. to the image information of the person area, and performs analysis processing on the analysis processing request management unit 13. Is transmitted as a task to perform (arrow Y4 in FIG. 17). Then, the analysis processing request management unit 13 stores the task, which is information of the received person area, in the analysis processing request information storage unit 22 (arrow Y5 in FIG. 17).
  • the information stored in the analysis processing request information storage unit 22 is identified by assigning a “task ID” to each person area detected by the face position detection unit 11, and the task ID, Frame time, priority, person determination ID, and analysis data are associated with each person.
  • the analysis processing request management unit 13 requests the analysis processing execution control unit 14 to perform analysis processing in descending order of the tasks stored in the analysis processing request information storage unit 22 (arrows in FIG. 17). Y6).
  • the analysis processing request management unit 13 notifies the analysis processing execution control unit 14 of information in which the analysis data and the priority are associated with the task ID, and requests the analysis processing.
  • the analysis process execution control unit 14 stores the analysis process request received from the analysis process request management unit 13 in the analysis process task information storage unit 23, and controls the analysis process to be executed in the order in which the analysis requests are received. For example, as shown in FIG. 8, the analysis processing execution control unit 14 assigns an analysis engine that executes analysis processing to each task, and stores them in the analysis processing task information storage unit 23 in the order in which they are received, that is, in descending order of priority.
  • the analysis process whose execution is controlled by the analysis process execution control unit 14 extracts the facial feature amount of the person shown in the person area executed by the face feature analysis unit 15. And a collation process for identifying a person by collating the extracted feature quantity of the person's face with a pre-registered feature quantity, which is executed by the face collation unit 16.
  • the pre-registered feature amount is a feature amount of the face of a person who wants to be found by analysis, and the feature amount generated in advance is stored in the face feature information database 24.
  • the analysis process whose execution is controlled by the analysis process execution control unit 14 is not limited to the analysis process described above.
  • the analysis process execution control unit 14 performs control so that the analysis process for the high priority task, that is, the new person area is executed with priority over other person areas. That is, the analysis processing by the face feature analysis unit 15 and the face matching unit 16 is controlled so that the feature amount extraction processing and the matching processing are executed on the image information in the person region in descending order of the set priority ( Arrows Y8, Y9, Y10 in FIG. 17 and step S11 in FIG. 20). As a result, the analysis process for the new object region set with a high priority is quickly executed, so that the result of matching a person who newly appears in a new frame can be quickly obtained. After that, the analysis process for the low priority person area is also sequentially performed.
  • the analysis processing execution control unit 14 notifies the alarm display application 30 of the final analysis result (arrow Y20 in FIG. 17, step S19 in FIG. 20).
  • the analysis processing execution control unit 14 notifies the alarm display application 30 of the final analysis result (arrow Y20 in FIG. 17, step S19 in FIG. 20).
  • the analysis processing priority calculation unit 12 described above may associate information indicating that the person area is a new object area without setting the priority value of the person area specified as the new object area. Good.
  • the analysis process request management unit 13 requests the analysis process execution control unit 14 to execute the analysis process for the person area associated with the information that is the new object area in preference to the other person areas. May be.
  • the analysis processing execution control unit 14 determines that the person area that has been analyzed by the analysis engine has a high priority, that is, if it is a new object area in the above example. (Yes in step S12 in FIG. 20), it is determined whether or not the image of the new object region satisfies the quality according to a preset standard (step S13 in FIG. 20), and the quality determination result is analyzed by the analysis processing request management unit 13 (Arrow Y11 in FIG. 18). Specifically, the analysis processing execution control unit 14 cannot extract a desired feature amount by the feature amount extraction processing for the new object region executed by the face feature analysis unit 15 (for example, a necessary number of features). When the point cannot be extracted), it is determined that the quality of the new object region does not satisfy the preset standard, and the fact is notified to the analysis processing request management unit 13 (Yes in step S14 in FIG. 20, step No in S15).
  • the analysis processing execution control unit 14 also determines the quality of the new object subsequent area for the new object subsequent area that has been set to high priority and has been subjected to the analysis process with priority. (Yes in Step S12 of FIG. 20, Step S13, No in Step S14, Step S17).
  • the quality satisfies the standard (for example, when the necessary number of feature points can be extracted by the face feature analysis unit 15)
  • the fact is notified to the analysis processing request management unit 13 (FIG. 20). Yes in step S17).
  • the quality of the person area that is the new object area or the new object succeeding area described above may be determined by other methods. For example, if it is determined from the feature amount extracted by the face feature analysis unit 15 that the face reflected in the new object area is not facing the front, it may be determined that the quality does not satisfy the setting criteria. . The use of the quality determination result will be described later.
  • the face position detection unit 11 and the analysis processing priority calculation unit 12 sequentially detect a human face and set a person area for a newly acquired frame, thereby Is stored in the frame face position information storage unit 21. Then, as described above, the analysis processing priority calculation unit 12 includes a person region (object) that includes a person (object) that has newly appeared in a past (for example, immediately before) frame captured by the same monitoring camera C. Area) is specified as a new object area.
  • the analysis processing priority calculation unit 12 sets the person areas A51, A52, A53, and A54 as shown in FIG. 9A, for example, as frames subsequent to the frame shown in FIG. A case where a new frame is acquired will be described.
  • the person areas A41, A42, A43, and A44 (see the solid line portion of the frame in FIG. 6A) indicated by the dotted lines in FIG. 9A are set in the previous (past) frame with respect to the new frame. Suppose that it is done.
  • the analysis processing priority calculation unit 12 associates the person areas A51 to A54 in the new frame with the person areas A41 to A44 in the previous frame.
  • the subsequent area corresponding to the person area specified as the new object area in the immediately preceding frame for example, the person area A54 following the person area A44 described above is specified as the new object subsequent area.
  • the analysis processing priority calculation unit 12 sets the person determination ID already assigned to the person area associated in the immediately preceding frame for the person area specified as the “new object subsequent area”.
  • the person determinations set in the person areas A41, A42, A43, and A44 associated with the immediately preceding frame as the new object subsequent areas in the person areas A51, A52, A53, and A54, respectively. The same ID is set.
  • the analysis priority calculation unit 12 sets a priority indicating the priority of executing the analysis process for each person area, and associates the person priority ID with the person determination ID.
  • the analysis priority calculation unit 12 sets the priority of the new object subsequent areas to 0 lower than the priority set for the new object areas. .00 will be set.
  • the analysis processing priority calculation unit 12 adds the task ID, the person determination ID, the priority, the date / time information when the image was taken, and the like to the image information of the person area, and transmits the information to the analysis processing request management unit 13. . Then, the analysis processing request management unit 13 stores the received person area information in the analysis processing request information storage unit 22.
  • the analysis processing request management unit 13 requests the analysis processing execution control unit 14 to perform analysis processing in descending order of priority among the tasks stored in the analysis processing request information storage unit 22.
  • the analysis processing request management unit 13 requests the analysis processing execution control unit 14 to perform analysis processing in descending order of priority among the tasks stored in the analysis processing request information storage unit 22.
  • tasks are stored in the analysis processing task information storage unit 23 as shown in FIG. 11, and analysis processing is executed.
  • the analysis processing priority calculation unit 12 uses the person regions A61, A62, A63, and the frames subsequent to the frame shown in FIG. 9A as shown in FIG. A case where a new frame in which A64 is set will be described.
  • person areas A51, A52, A53, and A54 indicated by dotted lines in FIG. 12A are set in the immediately preceding (past) frame with respect to the new frame (FIG. 9A). (See the solid line part).
  • the analysis processing priority calculation unit 12 identifies all the person areas A61 to A64 in the new frame as “new object subsequent areas”.
  • the analysis processing priority calculation unit 12 sets the person determination ID already assigned to the person area associated in the immediately preceding frame for the person areas A61 to A64 specified as the “new object subsequent area”. To do.
  • the person areas A61, A62, A63, and A64 are respectively set as the new object subsequent areas in the person areas A51, A52, A53, and A54 associated with the immediately preceding frame. The same person determination ID is set.
  • the analysis priority calculation unit 12 sets a priority indicating the priority of executing the analysis process for each person area, and associates the person priority ID with the person determination ID.
  • the analysis priority calculation unit 12 sets the priority of the new object subsequent areas to 0 lower than the priority set for the new object areas. .00 will be set.
  • the analysis processing priority calculation unit 12 adds the task ID, the person determination ID, the priority, the date / time information when the image was taken, and the like to the image information of the person area, and transmits the information to the analysis processing request management unit 13. . Then, the analysis processing request management unit 13 stores the received person area information in the analysis processing request information storage unit 22.
  • the analysis processing request management unit 13 (priority setting means) performs the analysis processing according to the quality determination result of the person area notified from the analysis processing execution control unit 14 as described above (arrow Y11 in FIG. 18). Processing for setting the priority of the task stored in the request information storage unit 22 is performed (arrow Y12 in FIG. 18).
  • the priority is set to 0, 10 and high priority.
  • the analysis processing request management unit 13 sets the low priority as it is for a person region in which a person with another person determination ID is shown.
  • the analysis processing request management unit 13 requests the analysis processing execution control unit 14 to perform analysis processing in descending order of the tasks stored in the analysis processing request information storage unit 22 (arrows in FIG. 18). Y13).
  • the analysis processing request management unit 13 requests the analysis processing execution control unit 14 to perform analysis processing in descending order of the tasks stored in the analysis processing request information storage unit 22 (arrows in FIG. 18). Y13).
  • tasks are stored in the analysis processing task information storage unit 23 as shown in FIG. 15, and analysis processing is executed.
  • the process of setting a higher priority is stopped for the subsequent person area in which “” appears.
  • the subsequent subsequent new object subsequent area is notified from the analysis processing execution control unit 14 that the quality standard is satisfied.
  • a new object area F1 (section P1), which is a person area where a person first appears in a new frame, is set to a high priority H, and the analysis process is executed with priority.
  • the quality determination for the new object region F1 is also performed.
  • the person area specified as the new object area F1 is described as one frame, that is, only one person area, but there may be a plurality of person areas specified as the new object area F1. . That is, as indicated by reference signs F11 and F12 of the section P11 in FIG. 16B, a plurality of person areas from a person area where a person first appears to a person area where the same person appears in a plurality of subsequent frames are represented. It may be specified as a new object region.
  • the subsequent new object subsequent area F2 (section P2) where the same person appears as shown in FIG. Priority L is set. For this reason, as shown in a section P12 in FIG. 16B, there may be a plurality of new object subsequent areas F13, 14 set to the low priority L.
  • the new object subsequent area F3 (section P3) after receiving the notification that the quality of the new object area F1 does not satisfy the standard is set to the high priority H. Is set.
  • the new object subsequent area F3 is preferentially subjected to the analysis processing, and the quality determination for the new object subsequent area F3 is also performed.
  • the subsequent new object subsequent area F4 (section P3) shown in FIG.
  • the number of new object subsequent areas F15 and F16 set to the high priority H may be three or more, or may be one.
  • the new object subsequent area F5 after receiving the notification that the quality of the new object subsequent area F3 satisfies the standard is set to the low priority L. Further, the subsequent new object subsequent area F6... Is set to the low priority L.
  • the analysis process for the person area that is the person's face area is preferentially executed.
  • analysis results such as detection of a newly appearing person can be quickly performed.
  • the subsequent image of the newly appearing person's face is preferentially analyzed when the quality of the first person area processed with priority does not satisfy the setting criteria. For this reason, until the desired analysis result is obtained, such person analysis processing can be performed at high speed and person detection can be performed quickly.
  • the quality of the person area (new object area, new object succeeding area) is determined using the analysis result of the analysis engine.
  • the quality of the person area may be determined by another method. Good.
  • the quality may be determined from the face area of the person appearing in the person area, or a processing unit for determining the quality based on a preset criterion may be provided.
  • FIG. 21 is a diagram illustrating the configuration of the video analysis system
  • FIG. 22 is a diagram illustrating the operation of the video analysis system.
  • the video analysis system 10 has almost the same configuration as that of the first embodiment described above, but the process for setting the priority of the person area is different.
  • configurations and operations different from the above-described embodiment will be mainly described.
  • the analysis processing execution control unit 14 determines the past regarding the person area according to the quality determination result based on the analysis processing result of the person area set with high priority. Is deleted from the video analysis system 10. As a result, since the person who appears in the deleted person area is determined to be a person who has newly appeared in the subsequent frame, the priority is set high. Thus, the analysis process execution control unit 14 has a function (priority setting unit) that brings about the same effect as the process of setting a higher priority for the new object subsequent area by the analysis process request management unit 13 described above. .
  • the video analysis system 10 in the present embodiment first sets a person area in a new frame, and stores information on the person area in the frame face position information storage unit 21. Then, the video analysis system 10 identifies the newly appearing person area as the new object area based on the stored information on the past person area and the information on the person area of the new frame, and the new object area Is set high (see the flowchart of FIG. 19).
  • the analysis processing execution control unit 14 preferentially executes the analysis processing for the new object region set with a high priority (Steps S21 and S22 in FIG. 22). Yes). Further, the analysis processing execution control unit 14 determines the quality of the new object region from the analysis result of the new object region (step S23 in FIG. 22). At this time, if the analysis process execution control unit 14 determines that the quality of the new object region satisfies a preset criterion (Yes in step S24 in FIG. 22), the analysis process execution control unit 14 displays an alarm according to the analysis result of the new object region. (Step S26 in FIG. 22).
  • the analysis processing execution control unit 14 determines that the quality of the new object region does not satisfy the preset standard (No in step S24 in FIG. 22)
  • the information on the person region specified as the new object region is It is deleted from the frame face position information storage unit 21 (step S25 in FIG. 22).
  • the same person who appears in the new object area appears in a subsequent new frame
  • information on the person area in the past frame in which the same person appears is not stored
  • the person area of the same person in the new frame is identified again as a new object area.
  • the priority of the person area is set high, so that the analysis processing is executed with priority, and the desired analysis result is obtained. Can be obtained quickly.
  • the quality of the new object region does not necessarily need to use the analysis result by the analysis engine, and the quality of the human region may be determined by another method.
  • An image captured by the camera 110 is acquired, an object having a preset feature is detected in the acquired image, and a predetermined range based on a position in the image where the object is detected is set as an object region Object detecting means 101 for Based on the information on the object area, a priority level for identifying the object area including the newly appearing object in the newly acquired image as a new object area and executing a predetermined analysis process on the new object area A new object region specifying means 102 for setting the priority representing the higher than the priorities of the other object regions;
  • An analysis processing system 100 comprising:
  • the new object region specifying means sets the priority for the new object subsequent region in the newly acquired image to be lower than the priority set for the new object region;
  • the priority setting means assigns the priority for the new object subsequent area to the priority of the other object area when the quality of the new object area determined by the quality determination means does not satisfy a preset criterion. Set to be higher than Analysis processing system.
  • the analysis processing system according to attachment 4, wherein The quality determination means determines the quality based on a preset criterion of the new object subsequent area based on the information of the new object subsequent area set with a higher priority than the other object areas, The priority setting means, when the quality of the new object subsequent area determined by the quality determination means satisfies a preset criterion, the image in the image further following the image including the new object subsequent area Do not perform a setting process to make the priority for the new object subsequent area higher than the priority of the other object area, Analysis processing system.
  • the analysis processing system according to any one of appendices 2 to 5, The quality determination means determines the quality of the object area based on an analysis processing result by an analysis processing means for performing a predetermined analysis process on the object area; Analysis processing system.
  • Appendix 7 The analysis processing system according to any one of appendices 2 to 5, An analysis processing means for performing a preset analysis process on the object region in descending order of priority set in the object region; The quality determination means determines the quality of the object area based on an analysis processing result for the object area by the analysis processing means; Analysis processing system.
  • the analysis processing system according to appendix 6 or 7, The analysis processing means performs a feature amount extraction process for extracting a preset feature amount in the object region, The quality determination means determines the quality of the object region based on the extraction result of the feature amount by the analysis processing means; Analysis processing system.
  • the analysis processing system according to any one of appendices 1 to 8, Comprising object region information storage processing means for storing in the storage device information on the object area set by the object detection means;
  • the new object area specifying means includes information on the object area stored in the storage device in an image acquired in the past, and information on the object area set in the object detection means in a newly acquired image. Based on the above, the object region that includes a newly appearing object in the newly acquired image relative to the image acquired in the past is specified as the new object region.
  • Analysis processing system Comprising object region information storage processing means for storing in the storage device information on the object area set by the object detection means;
  • the new object area specifying means includes information on the object area stored in the storage device in an image acquired in the past, and information on the object area set in the object detection means in a newly acquired image.
  • the new object region specifying means associates the object region in the newly acquired image with the object region in the image acquired in the past according to a preset criterion, and thereby acquired in the past Identifying the object region in the newly acquired image that was not associated with the object region in the image as the new object region; Analysis processing system.
  • the analysis processing system Comprising object region information storage processing means for storing in the storage device information on the object area set by the object detection means;
  • the new object area specifying means includes information on the object area stored in the storage device in an image acquired in the past, and information on the object area set in the object detection means in a newly acquired image. And specifying the object region including the newly appearing object in the newly acquired image as the new object region based on the image acquired in the past,
  • the priority setting means stores information on the object area specified as the new object area when the quality of the new object area determined by the quality determination means does not satisfy a preset criterion. Remove from Analysis processing system.
  • An image captured by the camera 210 is acquired, an object having a preset feature is detected in the acquired image, and a predetermined range based on a position in the image where the object is detected is defined as an object region.
  • New object region specifying means 203 for setting the priority representing the degree to be higher than the priorities of the other object regions;
  • An analysis processing system 200 comprising:
  • An image captured by a camera is acquired, an object having a preset feature is detected in the acquired image, and a predetermined range based on a position in the image where the object is detected is set as an object region.
  • Object detection means Based on the information on the object area, a priority level for identifying the object area including the newly appearing object in the newly acquired image as a new object area and executing a predetermined analysis process on the new object area
  • a new object region specifying means for setting the priority representing the higher than the priorities of the other object regions;
  • the new object region specifying means sets the priority for the new object subsequent region in the newly acquired image to be lower than the priority set for the new object region;
  • the priority setting means assigns the priority for the new object subsequent area to the priority of the other object area when the quality of the new object area determined by the quality determination means does not satisfy a preset criterion. Set to be higher than program.
  • the quality determination means determines the quality based on a preset criterion of the new object subsequent area based on the information of the new object subsequent area set with a higher priority than the other object areas
  • the priority setting means when the quality of the new object subsequent area determined by the quality determination means satisfies a preset criterion, the image in the image further following the image including the new object subsequent area Do not perform a setting process to make the priority for the new object subsequent area higher than the priority of the other object area, program.
  • the quality determination means determines the quality of the object area based on an analysis processing result by an analysis processing means for performing a predetermined analysis process on the object area; program.
  • the information processing apparatus further realizes an analysis processing unit that performs a preset analysis process on the object region in descending order of priority set in the object region,
  • the quality determination means determines the quality of the object area based on an analysis processing result for the object area by the analysis processing means; program.
  • the analysis processing means performs a feature amount extraction process for extracting a preset feature amount in the object region
  • the quality determination means determines the quality of the object region based on the extraction result of the feature amount by the analysis processing means; program.
  • the information processing apparatus further realizes an object region information storage processing unit that stores information on the object region set by the object detection unit in a storage device,
  • the new object area specifying means includes information on the object area stored in the storage device in an image acquired in the past, and information on the object area set in the object detection means in a newly acquired image. Based on the above, the object region that includes a newly appearing object in the newly acquired image relative to the image acquired in the past is specified as the new object region. program.
  • the new object region specifying means associates the object region in the newly acquired image with the object region in the image acquired in the past according to a preset criterion, and thereby acquired in the past Identifying the object region in the newly acquired image that was not associated with the object region in the image as the new object region; program.
  • the information processing apparatus further realizes an object region information storage processing unit that stores information on the object region set by the object detection unit in a storage device
  • the new object area specifying means includes information on the object area stored in the storage device in an image acquired in the past, and information on the object area set in the object detection means in a newly acquired image. And specifying the object region including the newly appearing object in the newly acquired image as the new object region based on the image acquired in the past,
  • the priority setting means stores information on the object area specified as the new object area when the quality of the new object area determined by the quality determination means does not satisfy a preset criterion. Remove from program.
  • (Appendix 16) In the information processing device, Acquire an image captured by the camera, detect an object having a preset feature in the acquired image, and use a predetermined range based on the position in the image where the object is detected as an object region Object detection means to be set; Object area information storage processing means for storing information of the object area in a storage device; Based on information on the object area stored in the storage device in the image acquired in the past and information on the object area set by the object detection unit in the newly acquired image, in the past Priority level for specifying the object region including a newly appearing object in the newly acquired image as a new object region and executing a predetermined analysis process on the new object region with respect to the acquired image A new object region specifying means for setting the priority representing the higher than the priorities of the other object regions; A program to realize
  • An image captured by a camera is acquired, an object having a preset feature is detected in the acquired image, and a predetermined range based on a position in the image where the object is detected is set as an object region.
  • a priority level for identifying the object area including the newly appearing object in the newly acquired image as a new object area and executing a predetermined analysis process on the new object area is set to be higher than the priorities of the other object regions. Analysis processing method.
  • Appendix 19-4 An analysis processing method according to any one of appendices 18 to 19-3, Determining the quality of the object region based on an analysis processing result by an analysis processing means for performing a predetermined analysis process on the object region; Analysis processing method.
  • Appendix 19-5 An analysis processing method according to any one of appendices 18 to 19-3, In a descending order of priority set for the object area, a predetermined analysis process for the object area is performed, Determining the quality of the object region based on the analysis processing result for the object region; Analysis processing method.
  • Appendix 19-6 The analysis processing method according to appendix 19-4 or 19-5, The analysis process performs a feature amount extraction process for extracting a preset feature amount in the object region, Determining the quality of the object region based on the extraction result of the feature amount by the feature amount extraction processing; Analysis processing method.
  • Appendix 19-7 The analysis processing method according to any one of appendices 17 to 19-6, Storing information on the object region set in the acquired image in a storage device; Based on information on the object area stored in the storage device in the image acquired in the past and information on the object area set by the object detection unit in the newly acquired image, in the past Specifying the object region including a newly appearing object in the newly acquired image as the new object region with respect to the acquired image; Analysis processing method.
  • Appendix 19-9) The analysis processing method according to any one of appendices 18 to 19-6, Storing information on the object region set in the acquired image in a storage device; Based on information on the object area stored in the storage device in the image acquired in the past and information on the object area set by the object detection unit in the newly acquired image, in the past Specifying the object region that includes a newly appearing object in the newly acquired image as the new object region with respect to the acquired image; When the determined quality of the new object area does not satisfy a preset criterion, the information on the object area specified as the new object area is deleted from the storage device; Analysis processing method.
  • An image captured by a camera is acquired, an object having a preset feature is detected in the acquired image, and a predetermined range based on a position in the image where the object is detected is set as an object region.
  • Storing information of the object region in a storage device Based on information on the object area stored in the storage device in the image acquired in the past and information on the object area set by the object detection unit in the newly acquired image, in the past Priority level for specifying the object region including a newly appearing object in the newly acquired image as a new object region and executing a predetermined analysis process on the new object region with respect to the acquired image Is set to be higher than the priorities of the other object regions. Analysis processing method.
  • An image captured by the camera 110 is acquired, an object having a preset feature is detected in the acquired image, and a predetermined range based on a position in the image where the object is detected is defined as an object region.
  • New object region specifying means 102 for setting the priority indicating the degree to be higher than the priorities of the other object regions;
  • quality determination means 103 Based on the information on the new object region, quality determination means 103 for determining the quality based on a preset criterion of the new object region; In the image subsequent to the image including the new object area, the quality determination means determines the priority with respect to the new object subsequent area that is the object area in which the same object appears in the new object area.
  • Priority setting means 104 for setting the priority to be higher than the priorities of the other object
  • An image captured by the camera 210 is acquired, an object having a preset feature is detected in the acquired image, and a predetermined range based on a position in the image where the object is detected is defined as an object region.
  • (Appendix 24) In the information processing device, Acquire an image captured by the camera, detect an object having a preset feature in the acquired image, and use a predetermined range based on the position in the image where the object is detected as an object region Object detection means to be set; Object area information storage processing means for storing information of the object area in a storage device; Based on information on the object area stored in the storage device in the image acquired in the past and information on the object area set by the object detection unit in the newly acquired image, in the past Priority level for specifying the object region including a newly appearing object in the newly acquired image as a new object region and executing a predetermined analysis process on the new object region with respect to the acquired image A new object region specifying means for setting the priority representing the higher than the priorities of the other object regions; Based on the information of the new object area, quality determination means for determining the quality based on a preset criterion of the new object area; Object region information deletion that deletes information on the object region specified as the new object region from the
  • (Appendix 25) Acquire an image captured by the camera, detect an object having a preset feature in the acquired image, and use a predetermined range based on the position in the image where the object is detected as an object region Set, Based on the information on the object area, the object area including a newly appearing object in the newly acquired image is specified as a new object area, and priority is given to executing a predetermined analysis process on the new object area Set the priority indicating the degree to be higher than the priority of the other object regions, Based on the information of the new object area, determine the quality based on a preset criterion of the new object area, In the image following the image including the new object region, the priority of the new object subsequent region that is the object region in which the same object as the object that appeared in the new object region appears is determined as the determined new Based on the quality of the object area, set to be higher than the priority of the other object area, Analysis processing method.
  • (Appendix 26) Acquire an image captured by the camera, detect an object having a preset feature in the acquired image, and use a predetermined range based on the position in the image where the object is detected as an object region Set, Storing information of the object region in a storage device; Based on information on the object area stored in the storage device in the image acquired in the past and information on the object area set by the object detection unit in the newly acquired image, in the past Priority level for specifying the object region including a newly appearing object in the newly acquired image as a new object region and executing a predetermined analysis process on the new object region with respect to the acquired image Is set to be higher than the priorities of the other object regions, Based on the information of the new object area, determine the quality based on a preset criterion of the new object area, When the determined quality of the new object area does not satisfy a preset criterion, the information on the object area specified as the new object area is deleted from the storage device; Analysis processing method.
  • the above-described program is stored in a storage device or recorded on a computer-readable recording medium.
  • the recording medium is a portable medium such as a flexible disk, an optical disk, a magneto-optical disk, and a semiconductor memory.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

 本発明における解析処理システム100は、カメラ110にて撮影した画像を取得し、当該取得した画像内において予め設定された特徴を有する物体を検出し、当該物体が検出された画像内における位置を基準とした所定範囲を物体領域として設定する物体検出手段101と、物体領域の情報に基づいて、新たに取得された画像内に新たに出現した物体が含まれる物体領域を新規物体領域として特定し、当該新規物体領域に対する所定の解析処理を実行する優先度合いを表す優先度を、他の物体領域の優先度よりも高くなるよう設定する新規物体領域特定手段102と、を備える。

Description

解析処理システム
 本発明は、解析処理システムにかかり、特に、カメラにて撮影した画像を解析する解析処理システムに関する。
 近年、情報処理技術の発達に伴い、様々なデータの解析を行う解析システムの開発が行われている。例えば、監視カメラにて撮影した画像を解析して、予め登録された特定の人物や物体などの存在を検出する解析システムがある。このような解析システムでは、監視カメラにて画像を撮影してから所定の時間内に、特定の人物などの存在を検出することが要求される。このため、高速な解析処理を実行されることが望まれている。
 一方で、監視カメラが多数あり、これらで撮影した多数の画像内に同時に多数の人物や物体が映っている場合には、特定の人物や物体を検出するための処理が多数となり、解析処理装置に対する処理依頼が集中してしまう。すると、解析処理装置にて高速な解析処理を実現できず、特定の人物や物体を検出するまでの時間が多くかかってしまう、という問題が生じる。なお、監視カメラが1つの場合であっても、画像内に同時に多数の人物や物体が映っている場合には、上述同様に、特定の人物や物体を検出するまでの時間が多くかかってしまう。
 ここで、特許文献1には、監視カメラにて撮影した画像から特定の人物を検出するための技術が記載されている。具体的に、特許文献1の技術では、カメラから入力される入力画像において検出された顔画像の位置などに基づいて、入力画像毎に処理の優先度を設定する、という処理を行っている。例えば、画像の横端に近い位置に顔領域が存在する画像については、当該画像に対する解析処理の優先度を高く設定する、ことが記載されている。
特開2011-70576号公報
 しかしながら、上述した特許文献1に開示の技術では、入力画像において検出された顔画像の位置などの条件に基づいて、「入力画像毎」に解析処理の優先度を設定している。このため、優先度が高く設定された入力画像が優先的に処理されることとなるが、かかる入力画像全体に対して解析処理が実行されるため、不要な画像領域に対する解析処理も実行されうる。すると、結果として、所望の領域に対する解析結果を迅速に得ることができない、という問題が生じる。
 このため、本発明の目的は、画像処理を行う解析処理システム、プログラム、解析処理方法において、所望の領域に対する解析結果を迅速に得ることができない、という課題を解決することにある。
 本発明の一形態である解析処理システムは、
 カメラにて撮影した画像を取得し、当該取得した画像内において予め設定された特徴を有する物体を検出し、当該物体が検出された画像内における位置を基準とした所定範囲を物体領域として設定する物体検出手段と、
 前記物体領域の情報に基づいて、新たに取得された画像内に新たに出現した物体が含まれる前記物体領域を新規物体領域として特定し、当該新規物体領域に対する所定の解析処理を実行する優先度合いを表す優先度を、他の前記物体領域の優先度よりも高くなるよう設定する新規物体領域特定手段と、
を備えた、
という構成をとる。
 また、本発明の他の形態である解析処理システムは、
 カメラにて撮影した画像を取得し、当該取得した画像内において予め設定された特徴を有する物体を検出し、当該物体が検出された画像内における位置を基準とした所定範囲を物体領域として設定する物体検出手段と、
 前記物体領域の情報を記憶装置に記憶する物体領域情報記憶処理手段と、
 過去に取得された画像における前記記憶装置に記憶された前記物体領域の情報と、新たに取得された画像における前記物体検出手段にて設定された前記物体領域の情報と、に基づいて、過去に取得された画像内に対して新たに取得された画像内に新たに出現した物体が含まれる前記物体領域を新規物体領域として特定し、当該新規物体領域に対する所定の解析処理を実行する優先度合いを表す優先度を、他の前記物体領域の優先度よりも高くなるよう設定する新規物体領域特定手段と、
を備えた、
という構成をとる。
 また、本発明の他の形態であるプログラムは、
 情報処理装置に、
 カメラにて撮影した画像を取得し、当該取得した画像内において予め設定された特徴を有する物体を検出し、当該物体が検出された画像内における位置を基準とした所定範囲を物体領域として設定する物体検出手段と、
 前記物体領域の情報に基づいて、新たに取得された画像内に新たに出現した物体が含まれる前記物体領域を新規物体領域として特定し、当該新規物体領域に対する所定の解析処理を実行する優先度合いを表す優先度を、他の前記物体領域の優先度よりも高くなるよう設定する新規物体領域特定手段と、
を実現させる、
という構成をとる。
 また、本発明の他の形態であるプログラムは、
 情報処理装置に、
 カメラにて撮影した画像を取得し、当該取得した画像内において予め設定された特徴を有する物体を検出し、当該物体が検出された画像内における位置を基準とした所定範囲を物体領域として設定する物体検出手段と、
 前記物体領域の情報を記憶装置に記憶する物体領域情報記憶処理手段と、
 過去に取得された画像における前記記憶装置に記憶された前記物体領域の情報と、新たに取得された画像における前記物体検出手段にて設定された前記物体領域の情報と、に基づいて、過去に取得された画像内に対して新たに取得された画像内に新たに出現した物体が含まれる前記物体領域を新規物体領域として特定し、当該新規物体領域に対する所定の解析処理を実行する優先度合いを表す優先度を、他の前記物体領域の優先度よりも高くなるよう設定する新規物体領域特定手段と、
を実現させる、
という構成をとる。
 また、本発明の他の形態である解析処理方法は、
 カメラにて撮影した画像を取得し、当該取得した画像内において予め設定された特徴を有する物体を検出し、当該物体が検出された画像内における位置を基準とした所定範囲を物体領域として設定し、
 前記物体領域の情報に基づいて、新たに取得された画像内に新たに出現した物体が含まれる前記物体領域を新規物体領域として特定し、当該新規物体領域に対する所定の解析処理を実行する優先度合いを表す優先度を、他の前記物体領域の優先度よりも高くなるよう設定する、
という構成をとる。
 また、本発明の他の形態である解析処理方法は、
 カメラにて撮影した画像を取得し、当該取得した画像内において予め設定された特徴を有する物体を検出し、当該物体が検出された画像内における位置を基準とした所定範囲を物体領域として設定し、
 前記物体領域の情報を記憶装置に記憶し、
 過去に取得された画像における前記記憶装置に記憶された前記物体領域の情報と、新たに取得された画像における前記物体検出手段にて設定された前記物体領域の情報と、に基づいて、過去に取得された画像内に対して新たに取得された画像内に新たに出現した物体が含まれる前記物体領域を新規物体領域として特定し、当該新規物体領域に対する所定の解析処理を実行する優先度合いを表す優先度を、他の前記物体領域の優先度よりも高くなるよう設定する、
という構成をとる。
 本発明は、以上のように構成されることにより、画像に対する解析処理の高速化を図ることができる解析処理システム、プログラム、解析処理方法を提供することができる。
本発明の実施形態1における映像解析システムの構成を示すブロック図である。 図1に開示した映像解析システムによる画像処理の一例を示す図である。 図1に開示した映像解析システムによる画像処理の一例を示す図である。 図1に開示した映像解析システムに記憶されるデータの一例を示す図である。 図1に開示した映像解析システムによる画像処理の一例を示す図である。 図1に開示した映像解析システムによる画像処理の一例を示す図である。 図1に開示した映像解析システムに記憶されるデータの一例を示す図である。 図1に開示した映像解析システムに記憶されるデータの一例を示す図である。 図1に開示した映像解析システムによる画像処理の一例を示す図である。 図1に開示した映像解析システムに記憶されるデータの一例を示す図である。 図1に開示した映像解析システムに記憶されるデータの一例を示す図である。 図1に開示した映像解析システムによる画像処理の一例を示す図である。 図1に開示した映像解析システムに記憶されるデータの一例を示す図である。 図1に開示した映像解析システムに記憶されるデータの一例を示す図である。 図1に開示した映像解析システムに記憶されるデータの一例を示す図である。 図1に開示した映像解析システムによる画像処理の一例を示す図である。 図1に開示した映像解析システムの動作を示す図である。 図1に開示した映像解析システムの動作を示す図である。 図1に開示した映像解析システムの動作を示すフローチャートである。 図1に開示した映像解析システムの動作を示すフローチャートである。 本発明の実施形態2における映像解析システムの構成を示すブロック図である。 図21に開示した映像解析システムの動作を示すフローチャートである。 本発明の付記1における解析処理システムの構成を示すブロック図である。 本発明の付記12における解析処理システムの構成を示すブロック図である。 本発明の付記21における解析処理システムの構成を示すブロック図である。 本発明の付記22における解析処理システムの構成を示すブロック図である。
 <実施形態1>
 本発明の第1の実施形態を、図1乃至図20を参照して説明する。図1は、映像解析システムの構成を示す図であり、図2乃至図16は、映像解析システムに記憶されているデータや解析処理の様子を示す図である。図17乃至図20は、映像解析システムの動作を示す図である。
 本実施形態における映像解析システム10(解析処理システム)は、1台又は複数台の情報処理装置にて構成されており、画像に対する所定の解析処理を行う解析処理装置である。具体的に、映像解析システム10は、監視カメラCにて撮影された画像内から、予め登録された人物を検出して、アラーム表示アプリケーション30に通知する処理を行う。なお、映像解析システム10は、本発明である解析処理システムの一例であって、必ずしも以下に説明する解析処理を実行することに限定されず、他の解析処理を行ってもよい。また、映像解析システム10は、必ずしも解析処理を行う解析エンジン(解析処理手段)を備えていることに限定されず、他の情報処理装置にて構成された解析エンジンに接続されていてもよい。
 映像解析システム10の構成の一例を、図1に示す。この図に示すように、映像解析システム10には、まず、上述した監視カメラCが複数接続されている。各監視カメラCは、例えば、監視対象となる建物内のそれぞれ異なる個所に設置されており、建物内の各部屋といった各スペースの映像(画像)を撮影して、当該映像を解析システム10に送信する。
 また、映像解析システム10には、上述したアラーム表示アプリケーション30が接続されている。このアラーム表示アプリケーション30は、例えば、建物内の監視を行う者の情報処理端末に組み込まれており、後述するように、映像解析システム10から通知された情報を監視者に報知すべく、報知情報を情報処理端末の画面に表示したり、音や光などで出力する。
 また、映像解析システム10は、装備された演算装置にプログラムが組み込まれることで構築された、顔位置検出部11、解析処理優先度算出部12、解析処理要求管理部13、解析処理実行制御部14、顔特徴解析部15、顔照合部16、を備えている。また、映像解析システム10は、装備された記憶装置に、フレーム顔位置情報記憶部21、解析処理要求情報記憶部22、解析処理タスク情報記憶部23、顔特徴情報データベース24、を備えている。以下、各構成及びその動作について詳述する。
 上記顔位置検出部11(物体検出手段)は、上記各監視カメラCにて撮影され当該各監視カメラCから送信された映像を取得し(図17の矢印Y1、図19のステップS1)、取得した映像のフレーム毎に、当該フレーム内に映っている人間の顔を検出する。具体的に、顔位置検出部11は、映像を構成するフレームを所定のサンプリング周期で取得し、各フレーム内から人間の顔を検出する。例えば、予め設定された人間の顔の特徴を表す情報(色や形状の情報)に基づいて、フレーム内に映っている人間の顔の位置を検出する。
 ここで、監視カメラC毎のフレームにおいて人間の顔を検出したときの一例を図2に示す。図2の上段図は、予め割当てられたカメラIDが「001」の監視カメラCから取得したフレームにて人間の顔を検出したときの様子を示す。また、図2の下段図は、ほぼ同一日時において予め割当てられたカメラIDが「002」の監視カメラCから取得したフレームにて人間の顔を検出したときの様子を示している。この図の例では、カメラIDが「001」の監視カメラCから取得したフレームから符号P11,P12,P13に示す人間の顔が検出され、カメラIDが「002」の監視カメラCから取得したフレームからは符号P21,P22に示す人間の顔が検出されている。
 そして、顔位置検出部11は、フレーム内において、検出した人間の顔の位置を基準として当該顔が含まれる範囲の画像領域を、人物領域(物体領域)として設定する(図19のステップS2)。具体的に、顔位置検出部11は、人間の顔として検出した領域全体を囲う矩形の範囲を人物領域として設定したり、人間の顔として検出した位置の重心点を中心として予め設定された範囲を人物領域として設定する。
 ここで、取得したフレームにおいて、上述した人物領域を設定したときの一例を図3に示す。図3の上段図は、カメラIDが「001」の監視カメラCにおいて人物領域を設定したときの様子を示している。図3の下段図は、カメラIDが「002」の監視カメラ20において人物領域を設定したときの様子を示している。この図の例では、カメラIDが「001」の監視カメラCから取得したフレームから符号P11,P12,P13に示す人間の顔に対応する人物領域A11,A12,A13が設定され、カメラIDが「002」の監視カメラCから取得したフレームからは符号P21,P22に示す人間の顔に対応する人物領域A21,A22が設定されている。
 なお、上記では、顔位置検出部11にて人間の顔を検出する方法や人物領域を設定する方法の一例を説明したが、これらの方法は上述した方法に限定されず、他の方法を用いてもよい。また、上記では、人間の顔を検出する場合を例示したが、人間の顔ではなく別の予め設定された物体を検出して、当該物体の領域(物体領域)を設定してもよい。
 そして、顔位置検出部11は、各監視カメラCにて撮影された映像のフレーム毎に設定した人物領域の情報を、解析処理優先度算出部12に送信する(図17の矢印Y2)。このとき、顔位置検出部11は、撮影した監視カメラCを特定するカメラIDと、フレームが撮影された時の日時情報と、フレーム全体の画像情報と、人物領域の範囲を特定する情報と、を解析対象データとして、解析処理優先度算出部12に送信する。なお、顔位置検出部11は、各監視カメラCからフレームが取得されると、順次、上述したように人物領域を特定し、当該人間領域に関する情報を解析処理優先度算出部12に送信する。
 上記解析処理優先度算出部12(物体領域情報記憶処理手段、新規物体領域特定手段)は、顔位置検出部11から送信された上記解析対象データを受信し、同一の監視カメラCにて撮影した過去(例えば、直前)のフレームに対して新たに出現した人物(物体)が含まれる人物領域(物体領域)を、新規物体領域として特定する。
 具体的に、解析処理優先度算出部12は、まず、顔位置検出部11から送信された解析対象データを受信して、当該解析対象データをフレーム顔位置情報記憶部21に記憶する(図17の矢印Y3、図19のステップS3)。このとき、記憶される解析対象データは、フレーム全体の画像情報に加え、図4に示すように、撮影した監視カメラCのカメラIDと人物領域の範囲を特定する情報と撮影された日時情報とを少なくとも含んでいる。なお、解析処理優先度算出部12は、顔位置検出部11から解析対象データを受信するごとに、当該解析対象データをフレーム顔位置情報記憶部21に記憶する。
 続いて、解析処理優先度算出部12は、顔位置検出部11から新規に解析対象データを受信すると、受信した解析対象データに対応するフレームを撮影した監視カメラCと同一の監視カメラCにて撮影された過去のフレームに関する解析対象データを、フレーム顔位置情報記憶部21から読み出す(図17の矢印Y3)。例えば、新規の解析対象データに含まれるカメラIDや撮影日時に基づいて、同一の監視カメラCにて撮影された直前のフレームの解析対象データを読み取る。
 ここで、解析処理優先度算出部12が、例えば、図5(B)に示すように、カメラIDが「001」の監視カメラCにて撮影したフレームの解析対象データを新規に受信し、図5(A)に示すように同一のカメラID「001」の監視カメラCにて直前に撮影したフレームの解析対象データを、フレーム顔位置情報記憶部21から読み出した場合を考える。なお、図5(B)に示す新規のフレームでは、人間の顔に対応する人物領域A41,A42,A43,A44が設定されており、図5(A)に示すその直前(過去)のフレームでは、人間の顔に対応する人物領域A31,A32,A33が設定されている。
 続いて、解析処理優先度算出部12は、直前のフレームにおける人物領域A31~A33に対して、新規のフレーム内における人物領域A41~A44の対応付けを行う。このとき、例えば、直前のフレームにおける各人物領域A31~A33に対して、人物領域間の距離が短い新規のフレームにおける人物領域A41~A44を対応付ける。
 具体的に、解析処理優先度算出部12による対応付けの処理を、図6を参照して説明する。図6(A)は、同一の監視カメラCで撮影した新規のフレームにおける人物領域(実線)(図5(B))と、直前のフレームにおける人物領域(点線)(図5(A))と、を重ね合わせたときの様子を示しており、図6(B)は、各人物領域を対応付ける処理の様子を示している。
 まず、図6(B)に示すように、新規のフレームの人物領域(実線)の一点である矩形の左上の角から、直前のフレームの人物領域(点線)の一点である矩形の左上の角までの距離を調べ(図19のステップS4)、かかる距離が最も短い人物領域同士を対応付ける(図19のステップS5)。その後、残りの人物領域間の距離を調べ、かかる距離が最も短い人物領域同士を付け、かかる処理を繰り返す(図19のステップS4,S5を繰り返す)。ここでは、直前のフレームにおける人物領域A31と新規のフレームにおける人物領域A41とが対応付けられ、人物領域A32とA42、人物領域A33とA43がそれぞれ対応付けられる。すると、新規のフレームにおける人物領域A44が、直前のフレームにおけるいずれの人物領域に対応付けられないこととなる。
 続いて、解析処理優先度算出部12は、上述したように対応づけられなかった新規のフレームにおける人物領域A44から直前のフレームにおける全ての人物領域A31,A32,A33までの距離をそれぞれ調べる。そして、解析処理優先度算出部12は、対応づけられなかった新規のフレームにおける人物領域A44から直前のフレームにおける人物領域A31等までの距離が予め設定された値以上である場合に、対応づけられなかった人物領域A44を、「新規物体領域」として特定する(図19のステップS6)。ここで、新規物体領域とは、直前のフレーム内に対して新規のフレーム内に新たに出現した人物が含まれる物体領域である。
 一方、解析処理優先度算出部12は、直前のフレーム内の人物領域と対応付けられた人物領域A41,A42,A43を「新規物体後続領域」として特定する。これら新規物体後続領域とは、過去のフレームで新規に出現した人物と同一人物が含まれており、過去に新規物体領域と特定された人物領域に後続すると考えられる人物領域である。
 なお、解析処理優先度算出部12は、対応付けられなかった人物領域A44を、当該人物領域A44から直前のフレームにおける全ての人物領域A31,A32,A33までの距離を調べることなく、新規物体領域として特定してもよい。また、解析処理優先度算出部12は、上述したように、各人物領域間の距離が最も短いもの同士から対応付けることなく、各人物領域間の距離が予め設定された距離より短いもの同士を対応付け、対応づけられなかった人物領域を新規物体領域として特定してもよい。
 ここで、解析処理優先度算出部12が新規物体領域を特定する方法は、上述した方法に限定されない。例えば、人物領域間を対応付ける際に算出する各人物領域間の距離は、当該各人物領域の重心点同士の距離を用いてもよく、他の基準に基づいて、人物領域間を対応づけてもよい。また、各人物領域間の距離を用いることなく、新規のフレームにおける人物領域の面積と、直前のフレームにおける人物領域の面積と、を比較して、各面積の差が小さいものから人物領域間の対応付けを行ってもよく、各面積の差が一定値より小さいもの同士を対応付けてもよい。
 また、上記では、新規のフレームにおける新規物体領域を特定する方法として、新規のフレームに対する直前のフレームを用いることを説明したが、新規のフレームに対して直前のフレームを用いるのではなく、さらに過去のフレームを用いてもよい。例えば、新規のフレームにおける人物領域に対して、過去の予め設定された時間内における1つあるいは複数のフレームにおける人物領域を対応付けることで、新規のフレーム内における新規物体領域を特定してもよい。また、必ずしも新規のフレームと過去のフレームとを用いて新規物体領域を特定することに限定されない。
 そして、解析処理優先度算出部12は、「新規物体領域」として特定した人物領域に対して、当該人物領域を識別する識別情報である人物判定IDを新規に付与する(図19のステップS6)。一方、解析処理優先度算出部12は、「新規物体後続領域」として特定した人物領域に対しては、直前のフレームで対応付けられた人物領域に既に付与されている人物判定IDを設定する。ここで、図6(B)の例では、人物領域A41,A42,A43には、新規物体後続領域として、直前のフレームで対応付けられた人物領域A31,A32,A33にそれぞれ設定された人物判定IDが設定される。また、人物領域A44には、新規物体領域として、新たな人物判定IDが設定される。
 さらに、解析優先度算出部12は、各人物領域に対して解析処理を実行する優先度合いを表す優先度を設定して、上記人物判定IDに対応付ける(図19のステップS7)。このとき、新規物体領域として特定された人物領域に対しては、他の人物領域よりも高い値の優先度の値を設定する。例えば、新規物体領域に特定された人物領域の優先度は0より大きい値に設定され、それ以外の人物領域の優先度は0に設定される。これにより、新規物体領域として特定された人物領域の優先度の値が、他の人物領域の優先度の値よりも高くなるよう設定される。このとき、他の人物領域は新規物体後続領域であるため、解析優先度算出部12は、新規物体後続領域の優先度を、新規物体領域に対して設定した優先度よりも低い値である0に設定する。
 その後、解析処理優先度算出部12は、人物領域の画像情報に、タスクID、人物判定ID、優先度、撮影された時の日時情報などを付加して、解析処理要求管理部13に解析処理を行うタスクとして送信する(図17の矢印Y4)。そして、解析処理要求管理部13は、受け付けた人物領域の情報であるタスクを解析処理要求情報記憶部22に記憶する(図17の矢印Y5)。
 ここで、解析処理優先度算出部12から解析処理要求管理部13に送信され、解析処理要求情報記憶部22に記憶される情報であるタスクの一例を、図7を参照して説明する。この図に示すように、解析処理要求情報記憶部22に記憶される情報は、顔位置検出部11にて検出された人物領域ごとに「タスクID」が付与されて識別され、当該タスクIDつまり人物ごとに、フレーム時刻、優先度、人物判定ID、解析データが関連付けられている。例えば、図7の例では、図6(B)に示すように検出した各人物領域A41,A42,A43,A44の情報を表している。具体的に、タスクID=000001,000002,000003は、それぞれ人物領域A41、A42,A43に関する情報であり、タスクID=000004は、人物領域A44に関する情報である。このとき、タスクID=000001,000002,000003に対応する人物領域A41、A42,A43は、上述したように新規物体後続領域であるため、これらの優先度は0.00と低優先度に設定されている。一方、タスクID=000004に対応する人物領域A44は、上述したように新規物体領域であるため、この優先度は0.10と高優先度に設定されている(図7の斜線部分参照)。
 そして、解析処理要求管理部13は、解析処理要求情報記憶部22に記憶されたタスクのうち、優先度が高いものから順に、解析処理実行制御部14に解析処理を依頼する(図17の矢印Y6)。例えば、図7の例では、タスクID=000004のタスク(図7の斜線部分参照)を最優先に解析処理を依頼し、その後、他のタスクの解析処理を依頼する。このとき、解析処理要求管理部13は、タスクIDに解析データや優先度を対応付けた情報を解析処理実行制御部14に通知し、解析処理を依頼する。
 解析処理実行制御部14は、解析処理要求管理部13から受け付けた解析処理要求を、解析処理タスク情報記憶部23に記憶し、解析要求を受けた順に解析処理を実行するよう制御する。例えば、解析処理実行制御部14は、図8に示すように、各タスクに対して解析処理を実行する解析エンジンを割り当てて、受け付けた順つまり優先度が高い順に解析処理タスク情報記憶部23に記憶する。図8の例では、優先度が高いタスクID=000004のタスクに解析エンジンである顔特徴解析エンジン等が割り当てられて記憶される(図8の斜線部分参照)。
 ここで、本実施形態では、解析処理実行制御部14にて実行が制御される解析処理は、顔特徴解析部15にて実行される人物領域内に映っている人物の顔の特徴量を抽出する特徴量抽出処理と、顔照合部16にて実行される抽出した人物の顔の特徴量と予め登録されている特徴量とを照合して人物を特定する照合処理である。そして、予め登録されている特徴量とは、解析により発見したい人物の顔の特徴量であり、事前に生成した特徴量が顔特徴情報データベース24に記憶されている。但し、本発明では、解析処理実行制御部14にて実行が制御される解析処理は、上述した解析処理に限定されない。
 そして、解析処理実行制御部14は、上記図8に示したように、優先度の高いタスクつまり新規人物領域に対する解析処理を、他の人物領域に優先して実行されるよう制御する。つまり、設定された優先度が高い順に、人物領域内の画像情報に対して特徴量抽出処理と照合処理とを実行するよう、顔特徴解析部15及び顔照合部16による解析処理を制御する(図17の矢印Y8,Y9,Y10、図20のステップS11)。これにより、優先度が高く設定された新規物体領域に対する解析処理が迅速に実行されるため、新規のフレームに新たに出現した人物の照合結果を迅速に得ることができる。なお、その後は低優先度の人物領域に対する解析処理も順次行われる。
 そして、解析処理実行制御部14は、最終的な解析結果をアラーム表示アプリケーション30に通知する(図17の矢印Y20、図20のステップS19)。ここでは、照合処理により顔特徴情報データベースに登録されている人物が検出された場合に、その人物の情報と共に、フレームを撮影した日時情報や監視カメラCのカメラID、フレーム内における座標などの撮影した映像に関する情報を通知する。
 なお、上述した解析処理優先度算出部12では、新規物体領域として特定された人物領域の優先度の値を設定することなく、かかる人物領域が新規物体領域であることを表す情報を関連付けてもよい。これに伴い、解析処理要求管理部13は、新規物体領域である情報が関連付けられている人物領域に対する解析処理を、他の人物領域に優先して実行するよう解析処理実行制御部14に要求してもよい。
 また、解析処理実行制御部14(品質判定手段)は、解析エンジンにて解析処理を行った人物領域が高優先度のものである場合、つまり、上述した例では新規物体領域である場合には(図20のステップS12でYes)、当該新規物体領域の画像が予め設定された基準による品質を満たすかどうかを判定し(図20のステップS13)、その品質判定結果を解析処理要求管理部13に通知する(図18の矢印Y11)。具体的に、解析処理実行制御部14は、顔特徴解析部15にて実行された新規物体領域に対する特徴量の抽出処理によって所望の特徴量を抽出できなかった場合(例えば、必要な数の特徴点を抽出できなかった場合)に、新規物体領域の品質が予め設定された基準を満たさないと判定し、その旨を解析処理要求管理部13に通知する(図20のステップS14でYes,ステップS15でNo)。
 また、解析処理実行制御部14は、後述するように、新規物体後続領域であっても高優先度に設定され優先的に解析処理されたものについては、当該新規物体後続領域の品質も判定する(図20のステップS12でYes,ステップS13,ステップS14でNo,ステップS17)。そして、その品質が基準を満たす場合(例えば、顔特徴解析部15にて必要な数の特徴点を抽出できた場合)には、その旨を解析処理要求管理部13に通知する(図20のステップS17でYes)。
 なお、上述した新規物体領域あるいは新規物体後続領域である人物領域の品質の判定は、他の方法によって行ってもよい。例えば、顔特徴解析部15にて抽出した特徴量から新規物体領域に映っている顔が正面を向いていない、と判定された場合には、品質が設定基準を満たさないと判定してもよい。上記品質判定結果の利用については後述する。
 ここで、上述したように解析処理を実行し、新規物体領域の品質の判定を行っている間にも、監視カメラCにて撮影された映像が取得される。このため、顔位置検出部11及び解析処理優先度算出部12は、上述したように、順次、新規に取得したフレームに対して人間の顔の検出及び人物領域の設定を行い、人物領域の情報をフレーム顔位置情報記憶部21に記憶する。そして、解析処理優先度算出部12は、上述同様に、同一の監視カメラCにて撮影した過去(例えば、直前)のフレームに対して新たに出現した人物(物体)が含まれる人物領域(物体領域)を、新規物体領域として特定する。
 ここで、解析処理優先度算出部12が、例えば、図6(A)に示すフレームに後続するフレームとして、図9(A)に示すように人物領域A51,A52,A53,A54が設定された新規のフレームを取得した場合を説明する。このとき、この新規のフレームに対する直前(過去)のフレームでは、図9(A)の点線で示す人物領域A41,A42,A43,A44(図6(A)のフレームの実線部分を参照)が設定されていることとする。そして、解析処理優先度算出部12は、図9(B)に示すように、直前のフレームにおける人物領域A41~A44に対して、新規のフレーム内における人物領域A51~A54の対応付けを行う。その結果、ここでは、直前のフレームにおける全ての人物領域A41~44と新規のフレームにおける全ての人物領域A51~54とがそれぞれ対応付けられるため、新規物体領域がない、と判断する。一方、直前のフレームにおいて新規物体領域として特定された人物領域に対応する後続の領域、例えば、上述した人物領域A44に後続する人物領域A54については、新規物体後続領域として特定する。
 そして、解析処理優先度算出部12は、「新規物体後続領域」として特定した人物領域に対しては、直前のフレームで対応付けられた人物領域に既に付与されている人物判定IDを設定する。図9(B)においては、人物領域A51,A52,A53,A54には、新規物体後続領域として、直前のフレームで対応付けられた人物領域A41,A42,A43,A44にそれぞれ設定された人物判定IDと同一のものが設定される。
 さらに、解析優先度算出部12は、各人物領域に対して解析処理を実行する優先度合いを表す優先度を設定して、上記人物判定IDに対応付ける。ここでは、全ての人物領域が新規物体後続領域であるため、解析優先度算出部12は、新規物体後続領域の優先度を、新規物体領域に対して設定した優先度よりも低くなるよう、0.00に設定することとなる。
 その後、解析処理優先度算出部12は、人物領域の画像情報に、タスクID、人物判定ID、優先度、撮影された時の日時情報などを付加して、解析処理要求管理部13に送信する。そして、解析処理要求管理部13は、受け付けた人物領域の情報を解析処理要求情報記憶部22に記憶する。
 ここで、解析処理優先度算出部12から解析処理要求管理部13に送信され、解析処理要求情報記憶部22に記憶される情報の一例を、図10を参照して説明する。この図に示すように、各人物領域A51,A52,A53,A54に対応するタスクID=000011,000012,000013,000014には、0.00の低優先度が設定される。なお、直前のフレームでは高優先度に設定された人物判定ID=10004に対応するタスクID=000014にも、低優先度が設定される(図10の斜線部分参照)。
 そして、解析処理要求管理部13は、解析処理要求情報記憶部22に記憶されたタスクのうち、優先度が高いものから順に、解析処理実行制御部14に解析処理を依頼する。この例では、順次、タスクの解析処理を依頼することにより、解析処理タスク情報記憶部23には図11に示すようにタスクが記憶され、解析処理が実行される。なお、直前のフレームでは高優先度に設定された人物判定ID=10004に対応するタスクID=000014は、低優先度であるため、優先的に解析処理が行われない(図11の斜線部分参照)。
 続いて、上述同様に、解析処理優先度算出部12が、上述した図9(A)に示すフレームに後続するフレームとして、さらに図12(A)に示すように人物領域A61,A62,A63,A64が設定された新規のフレームを取得した場合を説明する。このとき、この新規のフレームに対して直前(過去)のフレームでは、図12(A)の点線で示す人物領域A51,A52,A53,A54が設定されていることとする(図9(A)の実線部分参照)。すると、解析処理優先度算出部12は、図12(B)に示すように、新規のフレームにおける全ての人物領域A61~64が、「新規物体後続領域」として特定される。
 そして、解析処理優先度算出部12は、「新規物体後続領域」として特定した人物領域A61~64に対して、直前のフレームで対応付けられた人物領域に既に付与されている人物判定IDを設定する。ここで、図12(B)においては、人物領域A61,A62,A63,A64には、新規物体後続領域として、直前のフレームで対応付けられた人物領域A51,A52,A53,A54にそれぞれ設定された人物判定IDと同一のものが設定される。
 さらに、解析優先度算出部12は、各人物領域に対して解析処理を実行する優先度合いを表す優先度を設定して、上記人物判定IDに対応付ける。ここでは、全ての人物領域が新規物体後続領域であるため、解析優先度算出部12は、新規物体後続領域の優先度を、新規物体領域に対して設定した優先度よりも低くなるよう、0.00に設定することとなる。
 その後、解析処理優先度算出部12は、人物領域の画像情報に、タスクID、人物判定ID、優先度、撮影された時の日時情報などを付加して、解析処理要求管理部13に送信する。そして、解析処理要求管理部13は、受け付けた人物領域の情報を解析処理要求情報記憶部22に記憶する。
 ここで、解析処理優先度算出部12から解析処理要求管理部13に送信され、解析処理要求情報記憶部22に記憶される情報の一例を、図13を参照して説明する。この図に示すように、各人物領域A61,A62,A63,A64に対応するタスクID=000021,000022,000023,000024には、0.00の低優先度が設定される。なお、過去のフレームでは高優先度に設定された人物判定ID=10004に対応するタスクID=000014にも、低優先度が設定される(図13の斜線部分参照)。
 ここで、解析処理要求管理部13(優先度設定手段)は、上述したように解析処理実行制御部14から通知された人物領域の品質判定結果に応じて(図18の矢印Y11)、解析処理要求情報記憶部22に記憶しているタスクの優先度を設定する処理を行う(図18の矢印Y12)。上述した例では、まず、人物判定ID=10004の人物が映っている新規物体領域(A44)の品質が基準を満たさない、と判定されたため、当該新規物体領域に後続し同一人物が映っている新規物体後続領域(人物領域A64)の優先度を、他の人物領域よりも高く設定する。つまり、図14のタスクID=000024に示すように(斜線部分参照)、優先度を0,10と高優先度に設定する。これは、人物判定ID=10004の人物が初めて出現した人物領域(新規物体領域)に対しては高優先度で解析処理を行ったが、所望の品質ではないために所望の精度の解析結果を得ることができなかったことから、所望の解析結果が得られるよう後続の人物領域が優先して解析処理されるようにするためである。なお、解析処理要求管理部13は、他の人物判定IDの人物が映っている人物領域に対しては、そのまま低優先度とする。
 そして、解析処理要求管理部13は、解析処理要求情報記憶部22に記憶されたタスクのうち、優先度が高いものから順に、解析処理実行制御部14に解析処理を依頼する(図18の矢印Y13)。この例では、順次、タスクの解析処理を依頼することにより、解析処理タスク情報記憶部23には図15に示すようにタスクが記憶され、解析処理が実行される。なお、直前のフレームでは低優先度に設定された人物判定ID=10004に対応するタスクID=000024は、高優先度に設定されているため、優先的に解析処理が行われる(図15の斜線部分参照)。
 また、解析処理実行制御部14は、解析エンジンにて解析処理を行った人物領域が高優先度のものである場合には(図20のステップS12でYes)、当該人物領域の画像が所望の品質を満たすかどうかを判定する(図20のステップS13)。上述した例では、人物判定ID=10004に対応するタスクID=000024の新規物体後続領域A64について、解析処理結果から品質判定を行う(図20のステップS14でNo,ステップS17)。具体的には、顔特徴解析部15にて実行された新規物体後続領域A64に対する特徴量の抽出処理によって所望の特徴量を抽出できた場合(例えば、必要な数の特徴点を抽出できた場合)に、新規物体後続領域A64の品質が予め設定された基準を満たすと判定し、その旨を解析処理要求管理部13に通知する(図20のステップS17でYes)。
 そして、上述したように、新規物体後続領域A64の品質が基準を満たす旨の通知を受けた解析処理要求管理部13は、当該新規物体後続領域A64に出現している人物判定ID=000024の人物が出現する後続の人物領域に対しては、優先度を高く設定する処理を停止する。換言すると、人物判定ID=10004の人物が出現している新規物体後続領域に対しては、解析処理実行制御部14から品質基準を満たした旨の通知が来るまでは、後続の新規物体後続領域に対する優先度を高くするよう設定し、品質基準を満たした旨の通知が来ると、その後の新規物体後続領域に対して優先度を高くする設定を行わないこととする。これは、人物判定ID=10004の人物に関しては、所望の精度の解析処理結果が得られたため、その後は優先して解析処理を行う必要が無いと考えられるためである。
 ここで、上述してきた人物判定ID=10004の人物が検出された人物領域の優先度の遷移について、図16(A)を参照して説明する。まず、図16(A)に示すように、新規フレームに初めて人物が出現した人物領域である新規物体領域F1(区間P1)は、高優先度Hに設定され、優先して解析処理が実行される。このとき、新規物体領域F1に対する品質判定も行われる。なお、上記では、新規物体領域F1として特定される人物領域は、1フレーム分つまり1つだけであることとして説明しているが、新規物体領域F1として特定する人物領域は複数であってもよい。つまり、図16(B)の区間P11の符号F11,F12に示すように、初めて人物が出現した人物領域から後続する複数フレームにおける同一人物が出現している人物領域までの複数の人物領域を、新規物体領域として特定してもよい。
 そして、上記新規物体領域F1の品質が基準を満たさない旨の通知を受けるまでは、図16(A)に示す同一人物が出現している後続する新規物体後続領域F2(区間P2)は、低優先度Lに設定される。このため、図16(B)の区間P12に示すように、低優先度Lに設定される新規物体後続領域F13,14は複数あってもよい。
 一方で、図16(A)に示すように、上記新規物体領域F1の品質が基準を満たさない旨の通知を受けた後の新規物体後続領域F3(区間P3)については、高優先度Hに設定される。これにより、新規物体後続領域F3は、優先して解析処理が実行され、当該新規物体後続領域F3に対する品質判定も行われる。
 その後、上記新規物体後続領域F3の品質が基準を満たす旨の通知を受けるまでは、図16(A)に示すさらに後続する新規物体後続領域F4(区間P3)は、高優先度Hに設定される。このため、図16(B)の区間P13に示すように、高優先度Hに設定される新規物体後続領域F15,F16は3つ以上あってもよく、あるいは、1つであってもよい。
 一方、図16(A)に示すように、上記新規物体後続領域F3の品質が基準を満たす旨の通知を受けた後の新規物体後続領域F5は、低優先度Lに設定される。そして、さらに後続する新規物体後続領域F6・・・については、低優先度Lに設定される。
 以上のように、本実施形態における解析システムによると、まず新規のフレームに人物の顔が新たに出現した場合には、かかる人物の顔の領域である人物領域に対する解析処理が優先的に実行される。このため、新たに出現した人物の検出などの解析結果を迅速に行うことができる。そして、新たに出現した人物の顔のその後の画像については、優先して処理した最初の人物領域の品質が設定基準を満たさない場合に、優先的に解析処理がなされる。このため、所望の解析結果が得られるまで、かかる人物の解析処理を高速に行い、迅速に人物検出を行うことができる。
 なお、上記では、人物領域(新規物体領域、新規物体後続領域)の品質の判定を、解析エンジンによる解析結果を利用して行っていたが、別の方法により人物領域の品質判定を行ってもよい。例えば、人物領域に出現している人物の顔の面積から品質を判定してもよく、別途、予め設定された基準に基づく品質を判定するための処理部を設けてもよい。
 <実施形態2>
 本発明の第2の実施形態を、図21乃至図22を参照して説明する。図21は、映像解析システムの構成を示す図であり、図22は、映像解析システムの動作を示す図である。
 本実施形態における映像解析システム10は、上述した実施形態1とほぼ同一の構成をとっているが、人物領域の優先度を設定する処理が異なる。以下、上述した実施形態とは異なる構成及び動作について主に説明する。
 本実施形態における解析処理実行制御部14(品質判定手段、物体領域情報削除手段)は、優先度が高く設定された人物領域の解析処理結果に基づく品質判定結果に応じて、当該人物領域に関する過去の情報を映像解析システム10内から削除する。これにより、削除された人物領域に出現している人物は、後続するフレームにおいて新たに出現した人物と判定されるため、優先度が高く設定されることとなる。このように、解析処理実行制御部14は、上述した解析処理要求管理部13による新規物体後続領域に対して優先度を高く設定する処理を同様の効果をもたらす機能(優先度設定手段)を有する。
 具体的に、本実施形態における映像解析システム10は、まず、新規のフレーム内における人物領域を設定し、当該人物領域の情報をフレーム顔位置情報記憶部21に記憶する。そして、映像解析システム10は、記憶している過去の人物領域の情報と、新規のフレームの人物領域の情報に基づいて、新規に出現した人物領域を新規物体領域として特定し、当該新規物体領域の優先度を高く設定する(図19のフローチャートを参照)。
 続いて、本実施形態における映像解析システム10は、解析処理実行制御部14にて、優先度が高く設定された新規物体領域に対する解析処理を優先的に実行する(図22のステップS21、ステップS22でYes)。また、解析処理実行制御部14は、新規物体領域の解析結果から、当該新規物体領域の品質を判定する(図22のステップS23)。このとき、解析処理実行制御部14は、新規物体領域の品質が予め設定された基準を満たすと判定すると(図22のステップS24でYes)、新規物体領域の解析結果に応じてアラーム表示を行う(図22のステップS26)。
 一方、解析処理実行制御部14は、新規物体領域の品質が予め設定された基準を満たさないと判定すると(図22のステップS24でNo)、新規物体領域として特定された人物領域の情報を、フレーム顔位置情報記憶部21から削除する(図22のステップS25)。すると、上記新規物体領域に出現している人物と同一人物が後続の新規フレームに出現した場合には、当該同一人物が出現している過去のフレームにおける人物領域の情報が記憶されていないため、新規フレームにおける同一人物の人物領域が、再度、新規物体領域として特定される。これにより、予め設定された品質の人物領域の情報が得られない場合には、当該人物領域の優先度が高く設定されるため、優先して解析処理が実行されることとなり、所望の解析結果を迅速に得ることができる。
 なお、上述した場合においても、新規物体領域の品質の判定は、必ずしも解析エンジンによる解析結果を利用する必要はなく、別の方法により人物領域の品質判定を行ってもよい。
 <付記>
 上記実施形態の一部又は全部は、以下の付記のようにも記載されうる。以下、本発明における解析処理システム(図23乃至図26参照)、プログラム、解析処理方法の構成の概略を説明する。但し、本発明は、以下の構成に限定されない。
(付記1:図23参照)
 カメラ110にて撮影した画像を取得し、当該取得した画像内において予め設定された特徴を有する物体を検出し、当該物体が検出された画像内における位置を基準とした所定範囲を物体領域として設定する物体検出手段101と、
 前記物体領域の情報に基づいて、新たに取得された画像内に新たに出現した物体が含まれる前記物体領域を新規物体領域として特定し、当該新規物体領域に対する所定の解析処理を実行する優先度合いを表す優先度を、他の前記物体領域の優先度よりも高くなるよう設定する新規物体領域特定手段102と、
を備えた解析処理システム100。
(付記2)
 付記1に記載の解析処理システムであって、
 前記新規物体領域の情報に基づいて、当該新規物体領域の予め設定された基準に基づく品質を判定する品質判定手段と、
 前記新規物体領域が含まれる画像に後続する画像内において、当該新規物体領域に出現した物体と同一物体が出現している前記物体領域である新規物体後続領域に対する前記優先度を、前記品質判定手段にて判定した前記新規物体領域の品質に基づいて、他の前記物体領域の優先度よりも高くなるよう設定する優先度設定手段と、
を備えた解析処理システム。
(付記3)
 付記2に記載の解析処理システムであって、
 前記優先度設定手段は、前記品質判定手段にて判定した前記新規物体領域の品質が予め設定された基準を満たさない場合に、前記新規物体後続領域に対する前記優先度を他の前記物体領域の優先度よりも高くなるよう設定する、
解析処理システム。
(付記4)
 付記3に記載の解析処理システムであって、
 前記新規物体領域特定手段は、新たに取得された画像内における前記新規物体後続領域に対する前記優先度を、前記新規物体領域に対して設定した優先度よりも低くなるよう設定し、
 前記優先度設定手段は、前記品質判定手段にて判定した前記新規物体領域の品質が予め設定された基準を満たさない場合に、前記新規物体後続領域に対する前記優先度を他の前記物体領域の優先度よりも高くなるよう設定する、
解析処理システム。
(付記5)
 付記4に記載の解析処理システムであって、
 前記品質判定手段は、優先度が他の前記物体領域よりも高く設定された前記新規物体後続領域の情報に基づいて、当該新規物体後続領域の予め設定された基準に基づく品質を判定し、
 前記優先度設定手段は、前記品質判定手段にて判定した前記新規物体後続領域の品質が予め設定された基準を満たす場合に、当該新規物体後続領域が含まれる画像にさらに後続する画像内における前記新規物体後続領域に対する前記優先度を他の前記物体領域の優先度よりも高くする設定処理を行わない、
解析処理システム。
(付記6)
 付記2乃至5のいずれかに記載の解析処理システムであって、
 前記品質判定手段は、前記物体領域に対する予め設定された解析処理を行う解析処理手段による解析処理結果に基づいて当該物体領域の品質を判定する、
解析処理システム。
(付記7)
 付記2乃至5のいずれかに記載の解析処理システムであって、
 前記物体領域に設定された優先度が高い順に、当該物体領域に対する予め設定された解析処理を行う解析処理手段を備え、
 前記品質判定手段は、前記解析処理手段による前記物体領域に対する解析処理結果に基づいて当該物体領域の品質を判定する、
解析処理システム。
(付記8)
 付記6又は7に記載の解析処理システムであって、
 前記解析処理手段は、前記物体領域内における予め設定された特徴量を抽出する特徴量抽出処理を行い、
 前記品質判定手段は、前記解析処理手段による前記特徴量の抽出結果に基づいて前記物体領域の品質を判定する、
解析処理システム。
(付記9)
 付記1乃至8のいずれかに記載の解析処理システムであって、
 前記物体検出手段にて設定した前記物体領域の情報を記憶装置に記憶する物体領域情報記憶処理手段を備え、
 前記新規物体領域特定手段は、過去に取得された画像における前記記憶装置に記憶された前記物体領域の情報と、新たに取得された画像における前記物体検出手段にて設定された前記物体領域の情報と、に基づいて、過去に取得された画像内に対して新たに取得された画像内に新たに出現した物体が含まれる前記物体領域を前記新規物体領域として特定する、
解析処理システム。
(付記10)
 付記9に記載の解析処理システムであって、
 前記新規物体領域特定手段は、予め設定された基準により、過去に取得された画像における前記物体領域に対して、新たに取得された画像における前記物体領域を対応付け、これにより過去に取得された画像における前記物体領域に対応付けられなかった新たに取得された画像における前記物体領域を、前記新規物体領域として特定する、
解析処理システム。
(付記11)
 付記2乃至8のいずれかに記載の解析処理システムであって、
 前記物体検出手段にて設定した前記物体領域の情報を記憶装置に記憶する物体領域情報記憶処理手段を備え、
 前記新規物体領域特定手段は、過去に取得された画像における前記記憶装置に記憶された前記物体領域の情報と、新たに取得された画像における前記物体検出手段にて設定された前記物体領域の情報と、に基づいて、過去に取得された画像内に対して新たに取得された画像内に新たに出現した物体が含まれる前記物体領域を前記新規物体領域として特定し、
 前記優先度設定手段は、前記品質判定手段にて判定した前記新規物体領域の品質が予め設定された基準を満たさない場合に、当該新規物体領域として特定された前記物体領域の情報を前記記憶装置から削除する、
解析処理システム。
(付記12:図24参照)
 カメラ210にて撮影した画像を取得すると共に、当該取得した画像内において予め設定された特徴を有する物体を検出して、当該物体が検出された画像内における位置を基準とした所定範囲を物体領域として設定する物体検出手段201と、
 前記物体領域の情報を記憶装置220に記憶する物体領域情報記憶処理手段202と、
 過去に取得された画像における前記記憶装置220に記憶された前記物体領域の情報と、新たに取得された画像における前記物体検出手段にて設定された前記物体領域の情報と、に基づいて、過去に取得された画像内に対して新たに取得された画像内に新たに出現した物体が含まれる前記物体領域を新規物体領域として特定すると共に、当該新規物体領域に対する所定の解析処理を実行する優先度合いを表す優先度を、他の前記物体領域の優先度よりも高くなるよう設定する新規物体領域特定手段203と、
を備えた解析処理システム200。
(付記12-2)
 付記12に記載の解析処理システムであって、
 前記新規物体領域の情報に基づいて、当該新規物体領域の予め設定された基準に基づく品質を判定する品質判定手段と、
 前記品質判定手段にて判定した前記新規物体領域の品質が予め設定された基準を満たさない場合に、当該新規物体領域として特定された前記物体領域の情報を前記記憶装置から削除する物体領域情報削除手段と、
を備えた解析処理システム。
(付記13)
 情報処理装置に、
 カメラにて撮影した画像を取得し、当該取得した画像内において予め設定された特徴を有する物体を検出し、当該物体が検出された画像内における位置を基準とした所定範囲を物体領域として設定する物体検出手段と、
 前記物体領域の情報に基づいて、新たに取得された画像内に新たに出現した物体が含まれる前記物体領域を新規物体領域として特定し、当該新規物体領域に対する所定の解析処理を実行する優先度合いを表す優先度を、他の前記物体領域の優先度よりも高くなるよう設定する新規物体領域特定手段と、
を実現させるためのプログラム。
(付記14)
 付記13に記載のプログラムであって、
 前記情報処理装置に、さらに、
 前記新規物体領域の情報に基づいて、当該新規物体領域の予め設定された基準に基づく品質を判定する品質判定手段と、
 前記新規物体領域が含まれる画像に後続する画像内において、当該新規物体領域に出現した物体と同一物体が出現している前記物体領域である新規物体後続領域に対する前記優先度を、前記品質判定手段にて判定した前記新規物体領域の品質に基づいて、他の前記物体領域の優先度よりも高くなるよう設定する優先度設定手段と、
を実現させるためのプログラム。
(付記15)
 付記14に記載のプログラムであって、
 前記優先度設定手段は、前記品質判定手段にて判定した前記新規物体領域の品質が予め設定された基準を満たさない場合に、前記新規物体後続領域に対する前記優先度を他の前記物体領域の優先度よりも高くなるよう設定する、
プログラム。
(付記15-2)
 付記15に記載のプログラムであって、
 前記新規物体領域特定手段は、新たに取得された画像内における前記新規物体後続領域に対する前記優先度を、前記新規物体領域に対して設定した優先度よりも低くなるよう設定し、
 前記優先度設定手段は、前記品質判定手段にて判定した前記新規物体領域の品質が予め設定された基準を満たさない場合に、前記新規物体後続領域に対する前記優先度を他の前記物体領域の優先度よりも高くなるよう設定する、
プログラム。
(付記15-3)
 付記15-2に記載のプログラムであって、
 前記品質判定手段は、優先度が他の前記物体領域よりも高く設定された前記新規物体後続領域の情報に基づいて、当該新規物体後続領域の予め設定された基準に基づく品質を判定し、
 前記優先度設定手段は、前記品質判定手段にて判定した前記新規物体後続領域の品質が予め設定された基準を満たす場合に、当該新規物体後続領域が含まれる画像にさらに後続する画像内における前記新規物体後続領域に対する前記優先度を他の前記物体領域の優先度よりも高くする設定処理を行わない、
プログラム。
(付記15-4)
 付記14乃至15-3のいずれかに記載のプログラムであって、
 前記品質判定手段は、前記物体領域に対する予め設定された解析処理を行う解析処理手段による解析処理結果に基づいて当該物体領域の品質を判定する、
プログラム。
(付記15-5)
 付記14乃至15-3のいずれかに記載のプログラムであって、
 情報処理装置に、さらに、前記物体領域に設定された優先度が高い順に、当該物体領域に対する予め設定された解析処理を行う解析処理手段を実現させると共に、
 前記品質判定手段は、前記解析処理手段による前記物体領域に対する解析処理結果に基づいて当該物体領域の品質を判定する、
プログラム。
(付記15-6)
 付記15-4又は15-5に記載のプログラムであって、
 前記解析処理手段は、前記物体領域内における予め設定された特徴量を抽出する特徴量抽出処理を行い、
 前記品質判定手段は、前記解析処理手段による前記特徴量の抽出結果に基づいて前記物体領域の品質を判定する、
プログラム。
(付記15-7)
 付記13乃至15-6のいずれかに記載のプログラムであって、
 情報処理装置に、さらに、前記物体検出手段にて設定した前記物体領域の情報を記憶装置に記憶する物体領域情報記憶処理手段を実現させると共に、
 前記新規物体領域特定手段は、過去に取得された画像における前記記憶装置に記憶された前記物体領域の情報と、新たに取得された画像における前記物体検出手段にて設定された前記物体領域の情報と、に基づいて、過去に取得された画像内に対して新たに取得された画像内に新たに出現した物体が含まれる前記物体領域を前記新規物体領域として特定する、
プログラム。
(付記15-8)
 付記15-7に記載のプログラムであって、
 前記新規物体領域特定手段は、予め設定された基準により、過去に取得された画像における前記物体領域に対して、新たに取得された画像における前記物体領域を対応付け、これにより過去に取得された画像における前記物体領域に対応付けられなかった新たに取得された画像における前記物体領域を、前記新規物体領域として特定する、
プログラム。
(付記15-9)
 付記14乃至15-6のいずれかに記載のプログラムであって、
 情報処理装置に、さらに、前記物体検出手段にて設定した前記物体領域の情報を記憶装置に記憶する物体領域情報記憶処理手段を実現させると共に、
 前記新規物体領域特定手段は、過去に取得された画像における前記記憶装置に記憶された前記物体領域の情報と、新たに取得された画像における前記物体検出手段にて設定された前記物体領域の情報と、に基づいて、過去に取得された画像内に対して新たに取得された画像内に新たに出現した物体が含まれる前記物体領域を前記新規物体領域として特定し、
 前記優先度設定手段は、前記品質判定手段にて判定した前記新規物体領域の品質が予め設定された基準を満たさない場合に、当該新規物体領域として特定された前記物体領域の情報を前記記憶装置から削除する、
プログラム。
(付記16)
 情報処理装置に、
 カメラにて撮影した画像を取得すると共に、当該取得した画像内において予め設定された特徴を有する物体を検出して、当該物体が検出された画像内における位置を基準とした所定範囲を物体領域として設定する物体検出手段と、
 前記物体領域の情報を記憶装置に記憶する物体領域情報記憶処理手段と、
 過去に取得された画像における前記記憶装置に記憶された前記物体領域の情報と、新たに取得された画像における前記物体検出手段にて設定された前記物体領域の情報と、に基づいて、過去に取得された画像内に対して新たに取得された画像内に新たに出現した物体が含まれる前記物体領域を新規物体領域として特定すると共に、当該新規物体領域に対する所定の解析処理を実行する優先度合いを表す優先度を、他の前記物体領域の優先度よりも高くなるよう設定する新規物体領域特定手段と、
を実現させるためのプログラム。
(付記16-2)
 付記16に記載のプログラムであって、
 前記情報処理装置に、さらに、
 前記新規物体領域の情報に基づいて、当該新規物体領域の予め設定された基準に基づく品質を判定する品質判定手段と、
 前記品質判定手段にて判定した前記新規物体領域の品質が予め設定された基準を満たさない場合に、当該新規物体領域として特定された前記物体領域の情報を前記記憶装置から削除する物体領域情報削除手段と、
を実現させるためのプログラム。
(付記17)
 カメラにて撮影した画像を取得し、当該取得した画像内において予め設定された特徴を有する物体を検出し、当該物体が検出された画像内における位置を基準とした所定範囲を物体領域として設定し、
 前記物体領域の情報に基づいて、新たに取得された画像内に新たに出現した物体が含まれる前記物体領域を新規物体領域として特定し、当該新規物体領域に対する所定の解析処理を実行する優先度合いを表す優先度を、他の前記物体領域の優先度よりも高くなるよう設定する、
解析処理方法。
(付記18)
 付記17に記載の解析処理方法であって、
 前記新規物体領域の情報に基づいて、当該新規物体領域の予め設定された基準に基づく品質を判定し、
 前記新規物体領域が含まれる画像に後続する画像内において、当該新規物体領域に出現した物体と同一物体が出現している前記物体領域である新規物体後続領域に対する前記優先度を、前記判定した新規物体領域の品質に基づいて、他の前記物体領域の優先度よりも高くなるよう設定する、
解析処理方法。
(付記19)
 付記18に記載の解析処理方法であって、
 前記判定した新規物体領域の品質が予め設定された基準を満たさない場合に、前記新規物体後続領域に対する前記優先度を他の前記物体領域の優先度よりも高くなるよう設定する、
解析処理方法。
(付記19-2)
 付記19に記載の解析処理方法であって、
 前記新規物体領域の優先度を設定する際に、新たに取得された画像内における前記新規物体後続領域に対する前記優先度を、前記新規物体領域に対して設定した優先度よりも低くなるよう設定し、
 前記判定した新規物体領域の品質が予め設定された基準を満たさない場合に、前記新規物体後続領域に対する前記優先度を、他の前記物体領域の優先度よりも高くなるよう設定する、
解析処理方法。
(付記19-3)
 付記19-2に記載の解析処理方法であって、
 優先度が他の前記物体領域よりも高く設定された前記新規物体後続領域の情報に基づいて、当該新規物体後続領域の予め設定された基準に基づく品質を判定し、
 前記判定した新規物体後続領域の品質が予め設定された基準を満たす場合に、当該新規物体後続領域が含まれる画像にさらに後続する画像内における前記新規物体後続領域に対する前記優先度を他の前記物体領域の優先度よりも高くする設定処理を行わない、
解析処理方法。
(付記19-4)
 付記18乃至19-3のいずれかに記載の解析処理方法であって、
 前記物体領域に対する予め設定された解析処理を行う解析処理手段による解析処理結果に基づいて当該物体領域の品質を判定する、
解析処理方法。
(付記19-5)
 付記18乃至19-3のいずれかに記載の解析処理方法であって、
 前記物体領域に設定された優先度が高い順に、当該物体領域に対する予め設定された解析処理を行うと共に、
 前記物体領域に対する解析処理結果に基づいて当該物体領域の品質を判定する、
解析処理方法。
(付記19-6)
 付記19-4又は19-5に記載の解析処理方法であって、
 前記解析処理は、前記物体領域内における予め設定された特徴量を抽出する特徴量抽出処理を行い、
 前記特徴量抽出処理による前記特徴量の抽出結果に基づいて前記物体領域の品質を判定する、
解析処理方法。
(付記19-7)
 付記17乃至19-6のいずれかに記載の解析処理方法であって、
 取得された画像内において設定された前記物体領域の情報を記憶装置に記憶し、
 過去に取得された画像における前記記憶装置に記憶された前記物体領域の情報と、新たに取得された画像における前記物体検出手段にて設定された前記物体領域の情報と、に基づいて、過去に取得された画像内に対して新たに取得された画像内に新たに出現した物体が含まれる前記物体領域を前記新規物体領域として特定する、
解析処理方法。
(付記19-8)
 付記19-7に記載の解析処理方法であって、
 予め設定された基準により、過去に取得された画像における前記物体領域に対して、新たに取得された画像における前記物体領域を対応付け、これにより過去に取得された画像における前記物体領域に対応付けられなかった新たに取得された画像における前記物体領域を、前記新規物体領域として特定する、
解析処理方法。
(付記19-9)
 付記18乃至19-6のいずれかに記載の解析処理方法であって、
 取得された画像内において設定された前記物体領域の情報を記憶装置に記憶し、
 過去に取得された画像における前記記憶装置に記憶された前記物体領域の情報と、新たに取得された画像における前記物体検出手段にて設定された前記物体領域の情報と、に基づいて、過去に取得された画像内に対して新たに取得された画像内に新たに出現した物体が含まれる前記物体領域を前記新規物体領域として特定し、
 前記判定した新規物体領域の品質が予め設定された基準を満たさない場合に、当該新規物体領域として特定した前記物体領域の情報を前記記憶装置から削除する、
解析処理方法。
(付記20)
 カメラにて撮影した画像を取得し、当該取得した画像内において予め設定された特徴を有する物体を検出し、当該物体が検出された画像内における位置を基準とした所定範囲を物体領域として設定し、
 前記物体領域の情報を記憶装置に記憶し、
 過去に取得された画像における前記記憶装置に記憶された前記物体領域の情報と、新たに取得された画像における前記物体検出手段にて設定された前記物体領域の情報と、に基づいて、過去に取得された画像内に対して新たに取得された画像内に新たに出現した物体が含まれる前記物体領域を新規物体領域として特定すると共に、当該新規物体領域に対する所定の解析処理を実行する優先度合いを表す優先度を、他の前記物体領域の優先度よりも高くなるよう設定する、
解析処理方法。
(付記20-2)
 付記20に記載の解析処理方法であって、
 前記新規物体領域の情報に基づいて、当該新規物体領域の予め設定された基準に基づく品質を判定し、
 前記判定した新規物体領域の品質が予め設定された基準を満たさない場合に、当該新規物体領域として特定した前記物体領域の情報を前記記憶装置から削除する、
解析処理方法。
(付記21:図25参照)
 カメラ110にて撮影した画像を取得すると共に、当該取得した画像内において予め設定された特徴を有する物体を検出して、当該物体が検出された画像内における位置を基準とした所定範囲を物体領域として設定する物体検出手段101と、
 前記物体領域の情報に基づいて、新たに取得された画像内に新たに出現した物体が含まれる前記物体領域を新規物体領域として特定すると共に、当該新規物体領域に対する所定の解析処理を実行する優先度合いを表す優先度を、他の前記物体領域の優先度よりも高くなるよう設定する新規物体領域特定手段102と、
 前記新規物体領域の情報に基づいて、当該新規物体領域の予め設定された基準に基づく品質を判定する品質判定手段103と、
 前記新規物体領域が含まれる画像に後続する画像内において、当該新規物体領域に出現した物体と同一物体が出現している前記物体領域である新規物体後続領域に対する前記優先度を、前記品質判定手段にて判定した前記新規物体領域の品質に基づいて、他の前記物体領域の優先度よりも高くなるよう設定する優先度設定手段104と、
を備えた解析処理システム100。
(付記22:図26参照)
 カメラ210にて撮影した画像を取得すると共に、当該取得した画像内において予め設定された特徴を有する物体を検出して、当該物体が検出された画像内における位置を基準とした所定範囲を物体領域として設定する物体検出手段201と、
 前記物体領域の情報を記憶装置220に記憶する物体領域情報記憶処理手段202と、
 過去に取得された画像における前記記憶装置に記憶された前記物体領域の情報と、新たに取得された画像における前記物体検出手段にて設定された前記物体領域の情報と、に基づいて、過去に取得された画像内に対して新たに取得された画像内に新たに出現した物体が含まれる前記物体領域を新規物体領域として特定すると共に、当該新規物体領域に対する所定の解析処理を実行する優先度合いを表す優先度を、他の前記物体領域の優先度よりも高くなるよう設定する新規物体領域特定手段203と、
 前記新規物体領域の情報に基づいて、当該新規物体領域の予め設定された基準に基づく品質を判定する品質判定手段204と、
 前記品質判定手段にて判定した前記新規物体領域の品質が予め設定された基準を満たさない場合に、当該新規物体領域として特定された前記物体領域の情報を前記記憶装置から削除する物体領域情報削除手段205と、
を備えた解析処理システム200。
(付記23)
 情報処理装置に、
 カメラにて撮影した画像を取得すると共に、当該取得した画像内において予め設定された特徴を有する物体を検出して、当該物体が検出された画像内における位置を基準とした所定範囲を物体領域として設定する物体検出手段と、
 前記物体領域の情報に基づいて、新たに取得された画像内に新たに出現した物体が含まれる前記物体領域を新規物体領域として特定すると共に、当該新規物体領域に対する所定の解析処理を実行する優先度合いを表す優先度を、他の前記物体領域の優先度よりも高くなるよう設定する新規物体領域特定手段と、
 前記新規物体領域の情報に基づいて、当該新規物体領域の予め設定された基準に基づく品質を判定する品質判定手段と、
 前記新規物体領域が含まれる画像に後続する画像内において、当該新規物体領域に出現した物体と同一物体が出現している前記物体領域である新規物体後続領域に対する前記優先度を、前記品質判定手段にて判定した前記新規物体領域の品質に基づいて、他の前記物体領域の優先度よりも高くなるよう設定する優先度設定手段と、
を実現させるためのプログラム。
(付記24)
 情報処理装置に、
 カメラにて撮影した画像を取得すると共に、当該取得した画像内において予め設定された特徴を有する物体を検出して、当該物体が検出された画像内における位置を基準とした所定範囲を物体領域として設定する物体検出手段と、
 前記物体領域の情報を記憶装置に記憶する物体領域情報記憶処理手段と、
 過去に取得された画像における前記記憶装置に記憶された前記物体領域の情報と、新たに取得された画像における前記物体検出手段にて設定された前記物体領域の情報と、に基づいて、過去に取得された画像内に対して新たに取得された画像内に新たに出現した物体が含まれる前記物体領域を新規物体領域として特定すると共に、当該新規物体領域に対する所定の解析処理を実行する優先度合いを表す優先度を、他の前記物体領域の優先度よりも高くなるよう設定する新規物体領域特定手段と、
 前記新規物体領域の情報に基づいて、当該新規物体領域の予め設定された基準に基づく品質を判定する品質判定手段と、
 前記品質判定手段にて判定した前記新規物体領域の品質が予め設定された基準を満たさない場合に、当該新規物体領域として特定された前記物体領域の情報を前記記憶装置から削除する物体領域情報削除手段と、
を実現させるためのプログラム。
(付記25)
 カメラにて撮影した画像を取得すると共に、当該取得した画像内において予め設定された特徴を有する物体を検出して、当該物体が検出された画像内における位置を基準とした所定範囲を物体領域として設定し、
 前記物体領域の情報に基づいて、新たに取得された画像内に新たに出現した物体が含まれる前記物体領域を新規物体領域として特定すると共に、当該新規物体領域に対する所定の解析処理を実行する優先度合いを表す優先度を、他の前記物体領域の優先度よりも高くなるよう設定し、
 前記新規物体領域の情報に基づいて、当該新規物体領域の予め設定された基準に基づく品質を判定し、
 前記新規物体領域が含まれる画像に後続する画像内において、当該新規物体領域に出現した物体と同一物体が出現している前記物体領域である新規物体後続領域に対する前記優先度を、前記判定した新規物体領域の品質に基づいて、他の前記物体領域の優先度よりも高くなるよう設定する、
解析処理方法。
(付記26)
 カメラにて撮影した画像を取得すると共に、当該取得した画像内において予め設定された特徴を有する物体を検出して、当該物体が検出された画像内における位置を基準とした所定範囲を物体領域として設定し、
 前記物体領域の情報を記憶装置に記憶し、
 過去に取得された画像における前記記憶装置に記憶された前記物体領域の情報と、新たに取得された画像における前記物体検出手段にて設定された前記物体領域の情報と、に基づいて、過去に取得された画像内に対して新たに取得された画像内に新たに出現した物体が含まれる前記物体領域を新規物体領域として特定すると共に、当該新規物体領域に対する所定の解析処理を実行する優先度合いを表す優先度を、他の前記物体領域の優先度よりも高くなるよう設定し、
 前記新規物体領域の情報に基づいて、当該新規物体領域の予め設定された基準に基づく品質を判定し、
 前記判定した新規物体領域の品質が予め設定された基準を満たさない場合に、当該新規物体領域として特定した前記物体領域の情報を前記記憶装置から削除する、
解析処理方法。
 ここで、上述したプログラムは、記憶装置に記憶されていたり、コンピュータが読み取り可能な記録媒体に記録されている。例えば、記録媒体は、フレキシブルディスク、光ディスク、光磁気ディスク、及び、半導体メモリ等の可搬性を有する媒体である。
 以上、上記実施形態等を参照して本願発明を説明したが、本願発明は、上述した実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明の範囲内で当業者が理解しうる様々な変更をすることができる。
 なお、本発明は、日本国にて2013年2月5日に特許出願された特願2013-020404の特許出願に基づく優先権主張の利益を享受するものであり、当該特許出願に記載された内容は、全て本明細書に含まれるものとする。
10 映像解析システム
11 顔位置検出部
12 解析処理優先度算出部
13 解析処理要求管理部
14 解析処理実行制御部
15 顔特徴解析部
16 顔照合部
21 フレーム顔位置情報記憶部
22 解析処理要求情報記憶部
23 解析処理タスク情報記憶部
24 顔特徴情報データベース
30 アラーム表示アプリケーション
C 監視カメラ
100 解析処理システム
101 物体検出手段
102 新規物体領域特定手段
103 品質判定手段
104 優先度設定手段
110 カメラ
200 解析処理システム
201 物体検出手段
202 物体領域情報記憶処理手段
203 新規物体領域特定手段
204 品質判定手段
205 物体領域情報削除手段
210 カメラ
220 記憶装置
 

Claims (20)

  1.  カメラにて撮影した画像を取得し、当該取得した画像内において予め設定された特徴を有する物体を検出し、当該物体が検出された画像内における位置を基準とした所定範囲を物体領域として設定する物体検出手段と、
     前記物体領域の情報に基づいて、新たに取得された画像内に新たに出現した物体が含まれる前記物体領域を新規物体領域として特定し、当該新規物体領域に対する所定の解析処理を実行する優先度合いを表す優先度を、他の前記物体領域の優先度よりも高くなるよう設定する新規物体領域特定手段と、
    を備えた解析処理システム。
  2.  請求項1に記載の解析処理システムであって、
     前記新規物体領域の情報に基づいて、当該新規物体領域の予め設定された基準に基づく品質を判定する品質判定手段と、
     前記新規物体領域が含まれる画像に後続する画像内において、当該新規物体領域に出現した物体と同一物体が出現している前記物体領域である新規物体後続領域に対する前記優先度を、前記品質判定手段にて判定した前記新規物体領域の品質に基づいて、他の前記物体領域の優先度よりも高くなるよう設定する優先度設定手段と、
    を備えた解析処理システム。
  3.  請求項2に記載の解析処理システムであって、
     前記優先度設定手段は、前記品質判定手段にて判定した前記新規物体領域の品質が予め設定された基準を満たさない場合に、前記新規物体後続領域に対する前記優先度を他の前記物体領域の優先度よりも高くなるよう設定する、
    解析処理システム。
  4.  請求項3に記載の解析処理システムであって、
     前記新規物体領域特定手段は、新たに取得された画像内における前記新規物体後続領域に対する前記優先度を、前記新規物体領域に対して設定した優先度よりも低くなるよう設定し、
     前記優先度設定手段は、前記品質判定手段にて判定した前記新規物体領域の品質が予め設定された基準を満たさない場合に、前記新規物体後続領域に対する前記優先度を他の前記物体領域の優先度よりも高くなるよう設定する、
    解析処理システム。
  5.  請求項4に記載の解析処理システムであって、
     前記品質判定手段は、優先度が他の前記物体領域よりも高く設定された前記新規物体後続領域の情報に基づいて、当該新規物体後続領域の予め設定された基準に基づく品質を判定し、
     前記優先度設定手段は、前記品質判定手段にて判定した前記新規物体後続領域の品質が予め設定された基準を満たす場合に、当該新規物体後続領域が含まれる画像にさらに後続する画像内における前記新規物体後続領域に対する前記優先度を他の前記物体領域の優先度よりも高くする設定処理を行わない、
    解析処理システム。
  6.  請求項2乃至5のいずれかに記載の解析処理システムであって、
     前記品質判定手段は、前記物体領域に対する予め設定された解析処理を行う解析処理手段による解析処理結果に基づいて当該物体領域の品質を判定する、
    解析処理システム。
  7.  請求項2乃至5のいずれかに記載の解析処理システムであって、
     前記物体領域に設定された優先度が高い順に、当該物体領域に対する予め設定された解析処理を行う解析処理手段を備え、
     前記品質判定手段は、前記解析処理手段による前記物体領域に対する解析処理結果に基づいて当該物体領域の品質を判定する、
    解析処理システム。
  8.  請求項6又は7に記載の解析処理システムであって、
     前記解析処理手段は、前記物体領域内における予め設定された特徴量を抽出する特徴量抽出処理を行い、
     前記品質判定手段は、前記解析処理手段による前記特徴量の抽出結果に基づいて前記物体領域の品質を判定する、
    解析処理システム。
  9.  請求項1乃至8のいずれかに記載の解析処理システムであって、
     前記物体検出手段にて設定した前記物体領域の情報を記憶装置に記憶する物体領域情報記憶処理手段を備え、
     前記新規物体領域特定手段は、過去に取得された画像における前記記憶装置に記憶された前記物体領域の情報と、新たに取得された画像における前記物体検出手段にて設定された前記物体領域の情報と、に基づいて、過去に取得された画像内に対して新たに取得された画像内に新たに出現した物体が含まれる前記物体領域を前記新規物体領域として特定する、
    解析処理システム。
  10.  請求項9に記載の解析処理システムであって、
     前記新規物体領域特定手段は、予め設定された基準により、過去に取得された画像における前記物体領域に対して、新たに取得された画像における前記物体領域を対応付け、これにより過去に取得された画像における前記物体領域に対応付けられなかった新たに取得された画像における前記物体領域を、前記新規物体領域として特定する、
    解析処理システム。
  11.  請求項2乃至8のいずれかに記載の解析処理システムであって、
     前記物体検出手段にて設定した前記物体領域の情報を記憶装置に記憶する物体領域情報記憶処理手段を備え、
     前記新規物体領域特定手段は、過去に取得された画像における前記記憶装置に記憶された前記物体領域の情報と、新たに取得された画像における前記物体検出手段にて設定された前記物体領域の情報と、に基づいて、過去に取得された画像内に対して新たに取得された画像内に新たに出現した物体が含まれる前記物体領域を前記新規物体領域として特定し、
     前記優先度設定手段は、前記品質判定手段にて判定した前記新規物体領域の品質が予め設定された基準を満たさない場合に、当該新規物体領域として特定された前記物体領域の情報を前記記憶装置から削除する、
    解析処理システム。
  12.  カメラにて撮影した画像を取得し、当該取得した画像内において予め設定された特徴を有する物体を検出し、当該物体が検出された画像内における位置を基準とした所定範囲を物体領域として設定する物体検出手段と、
     前記物体領域の情報を記憶装置に記憶する物体領域情報記憶処理手段と、
     過去に取得された画像における前記記憶装置に記憶された前記物体領域の情報と、新たに取得された画像における前記物体検出手段にて設定された前記物体領域の情報と、に基づいて、過去に取得された画像内に対して新たに取得された画像内に新たに出現した物体が含まれる前記物体領域を新規物体領域として特定し、当該新規物体領域に対する所定の解析処理を実行する優先度合いを表す優先度を、他の前記物体領域の優先度よりも高くなるよう設定する新規物体領域特定手段と、
    を備えた解析処理システム。
  13.  情報処理装置に、
     カメラにて撮影した画像を取得し、当該取得した画像内において予め設定された特徴を有する物体を検出し、当該物体が検出された画像内における位置を基準とした所定範囲を物体領域として設定する物体検出手段と、
     前記物体領域の情報に基づいて、新たに取得された画像内に新たに出現した物体が含まれる前記物体領域を新規物体領域として特定し、当該新規物体領域に対する所定の解析処理を実行する優先度合いを表す優先度を、他の前記物体領域の優先度よりも高くなるよう設定する新規物体領域特定手段と、
    を実現させるためのプログラム。
  14.  請求項13に記載のプログラムであって、
     前記情報処理装置に、さらに、
     前記新規物体領域の情報に基づいて、当該新規物体領域の予め設定された基準に基づく品質を判定する品質判定手段と、
     前記新規物体領域が含まれる画像に後続する画像内において、当該新規物体領域に出現した物体と同一物体が出現している前記物体領域である新規物体後続領域に対する前記優先度を、前記品質判定手段にて判定した前記新規物体領域の品質に基づいて、他の前記物体領域の優先度よりも高くなるよう設定する優先度設定手段と、
    を実現させるためのプログラム。
  15.  請求項14に記載のプログラムであって、
     前記優先度設定手段は、前記品質判定手段にて判定した前記新規物体領域の品質が予め設定された基準を満たさない場合に、前記新規物体後続領域に対する前記優先度を他の前記物体領域の優先度よりも高くなるよう設定する、
    プログラム。
  16.  情報処理装置に、
     カメラにて撮影した画像を取得し、当該取得した画像内において予め設定された特徴を有する物体を検出し、当該物体が検出された画像内における位置を基準とした所定範囲を物体領域として設定する物体検出手段と、
     前記物体領域の情報を記憶装置に記憶する物体領域情報記憶処理手段と、
     過去に取得された画像における前記記憶装置に記憶された前記物体領域の情報と、新たに取得された画像における前記物体検出手段にて設定された前記物体領域の情報と、に基づいて、過去に取得された画像内に対して新たに取得された画像内に新たに出現した物体が含まれる前記物体領域を新規物体領域として特定し、当該新規物体領域に対する所定の解析処理を実行する優先度合いを表す優先度を、他の前記物体領域の優先度よりも高くなるよう設定する新規物体領域特定手段と、
    を実現させるためのプログラム。
  17.  カメラにて撮影した画像を取得し、当該取得した画像内において予め設定された特徴を有する物体を検出し、当該物体が検出された画像内における位置を基準とした所定範囲を物体領域として設定し、
     前記物体領域の情報に基づいて、新たに取得された画像内に新たに出現した物体が含まれる前記物体領域を新規物体領域として特定し、当該新規物体領域に対する所定の解析処理を実行する優先度合いを表す優先度を、他の前記物体領域の優先度よりも高くなるよう設定する、
    解析処理方法。
  18.  請求項17に記載の解析処理方法であって、
     前記新規物体領域の情報に基づいて、当該新規物体領域の予め設定された基準に基づく品質を判定し、
     前記新規物体領域が含まれる画像に後続する画像内において、当該新規物体領域に出現した物体と同一物体が出現している前記物体領域である新規物体後続領域に対する前記優先度を、前記判定した新規物体領域の品質に基づいて、他の前記物体領域の優先度よりも高くなるよう設定する、
    解析処理方法。
  19.  請求項18に記載の解析処理方法であって、
     前記判定した新規物体領域の品質が予め設定された基準を満たさない場合に、前記新規物体後続領域に対する前記優先度を他の前記物体領域の優先度よりも高くなるよう設定する、
    解析処理方法。
  20.  カメラにて撮影した画像を取得し、当該取得した画像内において予め設定された特徴を有する物体を検出し、当該物体が検出された画像内における位置を基準とした所定範囲を物体領域として設定し、
     前記物体領域の情報を記憶装置に記憶し、
     過去に取得された画像における前記記憶装置に記憶された前記物体領域の情報と、新たに取得された画像における前記物体検出手段にて設定された前記物体領域の情報と、に基づいて、過去に取得された画像内に対して新たに取得された画像内に新たに出現した物体が含まれる前記物体領域を新規物体領域として特定し、当該新規物体領域に対する所定の解析処理を実行する優先度合いを表す優先度を、他の前記物体領域の優先度よりも高くなるよう設定する、
    解析処理方法。
     
PCT/JP2014/000144 2013-02-05 2014-01-15 解析処理システム WO2014122879A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014560661A JPWO2014122879A1 (ja) 2013-02-05 2014-01-15 解析処理システム
US14/765,584 US9767347B2 (en) 2013-02-05 2014-01-15 Analysis processing system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013-020404 2013-02-05
JP2013020404 2013-02-05

Publications (1)

Publication Number Publication Date
WO2014122879A1 true WO2014122879A1 (ja) 2014-08-14

Family

ID=51299481

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/000144 WO2014122879A1 (ja) 2013-02-05 2014-01-15 解析処理システム

Country Status (3)

Country Link
US (1) US9767347B2 (ja)
JP (1) JPWO2014122879A1 (ja)
WO (1) WO2014122879A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10229327B2 (en) * 2012-12-10 2019-03-12 Nec Corporation Analysis control system
WO2016157327A1 (ja) * 2015-03-27 2016-10-06 日本電気株式会社 映像監視システム及び映像監視方法
US10515199B2 (en) * 2017-04-19 2019-12-24 Qualcomm Incorporated Systems and methods for facial authentication

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006211696A (ja) * 2000-02-28 2006-08-10 Hitachi Kokusai Electric Inc 物体検出方法及び物体検出装置
WO2008099816A1 (ja) * 2007-02-13 2008-08-21 Kabushiki Kaisha Toshiba 人物検索装置
JP2012128693A (ja) * 2010-12-15 2012-07-05 Canon Inc 映像処理装置、映像処理方法およびプログラム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1128676B1 (en) * 2000-02-28 2009-04-15 Hitachi Kokusai Electric Inc. Intruding object monitoring method and intruding object monitoring system
JP4260770B2 (ja) * 2005-05-09 2009-04-30 任天堂株式会社 ゲームプログラムおよびゲーム装置
US7574131B2 (en) * 2006-03-29 2009-08-11 Sunvision Scientific Inc. Object detection system and method
US8045783B2 (en) * 2006-11-09 2011-10-25 Drvision Technologies Llc Method for moving cell detection from temporal image sequence model estimation
JP2010021943A (ja) * 2008-07-14 2010-01-28 Sanyo Electric Co Ltd 撮像装置
JP5127686B2 (ja) * 2008-12-11 2013-01-23 キヤノン株式会社 画像処理装置および画像処理方法、ならびに、撮像装置
JP2011010275A (ja) * 2009-05-26 2011-01-13 Sanyo Electric Co Ltd 画像再生装置及び撮像装置
JP2011028689A (ja) * 2009-07-29 2011-02-10 Sony Corp 動画抽出装置、プログラム、および動画抽出方法
JP5390322B2 (ja) 2009-09-28 2014-01-15 株式会社東芝 画像処理装置、及び画像処理方法
JP4846071B2 (ja) * 2010-02-10 2011-12-28 パナソニック株式会社 画像評価装置、画像評価方法、プログラム、集積回路
MX2012009579A (es) * 2010-02-19 2012-10-01 Toshiba Kk Sistema de rastreo de objetos en movimiento y metodo de rastreo de objetos en movimiento.
JP2012103979A (ja) * 2010-11-11 2012-05-31 Sanyo Electric Co Ltd 画像処理装置
US9104909B2 (en) 2010-12-15 2015-08-11 Canon Kabushiki Kaisha Image processing apparatus and method of processing image
JP2014503822A (ja) * 2010-12-21 2014-02-13 ザ リージェンツ オブ ザ ユニバーシティ オブ カリフォルニア 携帯デバイスにおける小型かつ広視野の蛍光画像化
JP5925068B2 (ja) * 2012-06-22 2016-05-25 キヤノン株式会社 映像処理装置、映像処理方法、およびプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006211696A (ja) * 2000-02-28 2006-08-10 Hitachi Kokusai Electric Inc 物体検出方法及び物体検出装置
WO2008099816A1 (ja) * 2007-02-13 2008-08-21 Kabushiki Kaisha Toshiba 人物検索装置
JP2012128693A (ja) * 2010-12-15 2012-07-05 Canon Inc 映像処理装置、映像処理方法およびプログラム

Also Published As

Publication number Publication date
JPWO2014122879A1 (ja) 2017-01-26
US20150371078A1 (en) 2015-12-24
US9767347B2 (en) 2017-09-19

Similar Documents

Publication Publication Date Title
JP7040463B2 (ja) 解析サーバ、監視システム、監視方法及びプログラム
KR101603017B1 (ko) 제스처 인식 장치 및 제스처 인식 장치의 제어 방법
JP5567853B2 (ja) 画像認識装置および方法
KR101423916B1 (ko) 복수의 얼굴 인식 방법 및 장치
JP6347211B2 (ja) 情報処理システム、情報処理方法及びプログラム
US11163979B2 (en) Face authentication apparatus
JP6555906B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP6233624B2 (ja) 情報処理システム、情報処理方法及びプログラム
JP2011070576A (ja) 画像処理装置、及び画像処理方法
JP2011232894A (ja) インタフェース装置、ジェスチャ認識方法及びジェスチャ認識プログラム
JP2019186955A (ja) 情報処理システム、情報処理方法及びプログラム
JP6362085B2 (ja) 画像認識システム、画像認識方法およびプログラム
JPWO2009142098A1 (ja) 画像処理装置、カメラ、画像処理方法およびプログラム
JP2011170711A (ja) 移動物体追跡システムおよび移動物体追跡方法
CN104519261A (zh) 一种信息处理方法及电子设备
JP2010140425A (ja) 画像処理システム
WO2014122879A1 (ja) 解析処理システム
JP6098631B2 (ja) 解析処理装置
US8891833B2 (en) Image processing apparatus and image processing method
US11132778B2 (en) Image analysis apparatus, image analysis method, and recording medium
US11227007B2 (en) System, method, and computer-readable medium for managing image
US20130265420A1 (en) Video processing apparatus, video processing method, and recording medium
JP5552946B2 (ja) 顔画像サンプル採取装置、顔画像サンプル採取方法、プログラム
JP2010146522A (ja) 顔画像追跡装置及び顔画像追跡方法並びにプログラム
EP3239814B1 (en) Information processing device, information processing method and program

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14748771

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2014560661

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14765584

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14748771

Country of ref document: EP

Kind code of ref document: A1