WO2014097699A1 - 情報処理システム、情報処理方法及びプログラム - Google Patents

情報処理システム、情報処理方法及びプログラム Download PDF

Info

Publication number
WO2014097699A1
WO2014097699A1 PCT/JP2013/075515 JP2013075515W WO2014097699A1 WO 2014097699 A1 WO2014097699 A1 WO 2014097699A1 JP 2013075515 W JP2013075515 W JP 2013075515W WO 2014097699 A1 WO2014097699 A1 WO 2014097699A1
Authority
WO
WIPO (PCT)
Prior art keywords
person
information processing
condition
unit
area
Prior art date
Application number
PCT/JP2013/075515
Other languages
English (en)
French (fr)
Inventor
志傑 斎藤
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to JP2014552964A priority Critical patent/JPWO2014097699A1/ja
Publication of WO2014097699A1 publication Critical patent/WO2014097699A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content

Definitions

  • Some aspects according to the present invention relate to an information processing system, an information processing method, and a program.
  • Patent Document 1 uses a plurality of cameras to shoot a predetermined area such as an open space, so that a person's features can be zoomed based on the moving direction of the person, or priority can be set according to the person's coordinates. And a system capable of selecting a person to be photographed is disclosed.
  • Some aspects of the present invention have been made in view of the above-described problems, and an information processing system, an information processing method, and a program capable of efficiently monitoring a person when performing person monitoring with a plurality of cameras Is one of the purposes.
  • an input unit that receives input of images captured by a plurality of image capturing devices and information including the moving direction of the person imaged by the image capturing device are used to capture the next image of the person.
  • a person is photographed next based on information including a step of receiving images photographed by a plurality of photographing devices and a moving direction of the person photographed by the photographing device.
  • the information processing system performs a step of predicting the imaging device to be notified and a step of notifying the user of the predicted imaging device.
  • the program according to the present invention is based on a process of receiving input of images shot by a plurality of shooting devices and information including a moving direction related to the person shot by the shooting device.
  • a computer is caused to execute a process for predicting an apparatus and a process for notifying a user of the predicted imaging apparatus.
  • “part”, “means”, “apparatus”, and “system” do not simply mean physical means, but “part”, “means”, “apparatus”, “system”. This includes the case where the functions possessed by "are realized by software. Further, even if the functions of one “unit”, “means”, “apparatus”, and “system” are realized by two or more physical means or devices, two or more “parts” or “means”, The functions of “device” and “system” may be realized by a single physical means or device.
  • an information processing system an information processing method, and a program capable of efficiently monitoring a person when performing person monitoring with a plurality of cameras.
  • FIG. 1 It is a figure for demonstrating the specific example of the outline
  • the person is photographed next by predicting the movement of the person who has moved out of the photographing area from the photographing range of the surveillance camera based on the position of the target person and the same person determination.
  • the video camera surveillance camera
  • early warning can be promoted.
  • the information processing apparatus in the video surveillance system performs various processes such as person identification.
  • the person to be monitored is the coordinate (x t , y t ) in the shooting area R1 of the camera C1 at time t, and the coordinate (x t + 1 , the y t + 1), at time t + 2, are in the region is an imaging region outside of the camera C1 to C3 (b) in the coordinates (x t + 2, y t + 2).
  • x t + 2 > x t + 1 > x t + 0 and y t + 2 > y t + 1 > y t .
  • the information processing apparatus is at a position in the positive direction of the y axis relative to the imaging region R1 at time t + 2 based on information that the person to be monitored is moving in the positive direction of the y axis. Predict that it has moved to the area (b). The position where the person appears next is predicted to be the imaging region R2 based on the information that the person was moving in the positive x-axis direction. More generally, the information processing apparatus predicts the position of the person at time t + 2 and the next shooting area based on the following rules.
  • the shooting area R1 Of the persons appearing in the shooting area R1, those who move in the positive direction of y move to the area (A). Of the persons appearing in the shooting area R1, those who move in the positive direction of y are likely to appear in the shooting area R2 or R3 next. Of the persons moving in the positive y direction from the shooting area R1, the person moving in the positive x direction is likely to move to the shooting area R2, and the person moving in the negative x direction moves to the shooting area R3. There is a high possibility of doing.
  • the person to be monitored is the coordinate (x t , y t ) in the shooting area R4 of the camera C4 at time t, and the coordinate (x t + 1 , y) in the shooting area R4 of the camera C4 at time t + 1 .
  • the user is at coordinates (x t + 2 , y t + 2 ) in the area (c) outside the imaging area of the cameras C4 and C5.
  • x t + 2 > x t + 1 > x t + 0 and y t + 2 > y t + 1 > y t .
  • the information processing apparatus is located at a position in the positive direction of the x axis relative to the imaging region R4 at time t + 2 based on the information that the person to be monitored is moving in the positive direction of the x axis. It is predicted that the camera has moved to the shooting area (c). The position where the person appears next is predicted to be the imaging region R5 based on information that the person was moving in the positive x-axis direction.
  • the information processing apparatus takes the suspicious action. It can be predicted that this is likely.
  • the information processing apparatus predicts the position of the person at time t + 2, the shooting area that appears next, and whether or not a suspicious action is taken based on the following rules.
  • the information processing apparatus identifies the movement of the person from the video shot by each video camera, and based on the information and rules, even if the person is outside the shooting area, Predict the shooting area that appears, whether or not you are taking suspicious behavior.
  • FIG. 3 is a block diagram showing a system configuration of the video monitoring system 1.
  • the video monitoring system 1 is roughly divided into an information processing device 100, a photographing device 200 (the photographing devices 200A to 200N are collectively referred to as a photographing device 200), a result storage DB 300, and a result display device 400. Is done.
  • the imaging device 200 is an apparatus that captures video (moving images) and still images.
  • Specific examples of the photographing device 200 include a color camera, a monochrome camera, a thermo camera, and the like.
  • the imaging device 200 includes an imaging unit 210 that captures an image and a communication unit 220 that transmits captured images and still images.
  • the photographing unit 210 has various functions for photographing an image such as a lens and a CCD (Charge Coupled Device) element.
  • the communication unit 220 stores, for example, an image photographed by the photographing unit 210 as image data of a predetermined format together with a BNC (Bayonet Neil Concelman) terminal or a LAN (Local Area Network) terminal, and also based on a predetermined communication standard.
  • a function for transmitting image data to the outside is provided.
  • Various image transmission formats by the communication unit 220 can be considered, such as an analog method using a coaxial cable and a digital method using an Ethernet (registered trademark) cable.
  • the information processing apparatus 100 is an apparatus for performing person monitoring by performing various processes such as person detection on an image photographed by the photographing apparatus 200.
  • the information processing apparatus 100 is computer hardware that can include, for example, a server device as a specific example.
  • the information processing device 100 is an arithmetic device (not shown), a main storage device 170, an auxiliary storage device (not shown), communication Part 110 and the like.
  • the information processing apparatus 100 includes a communication unit 110, an image analysis unit 120, an identical person determination unit 130, a warning line / area setting unit 140, a condition determination unit 150, a result output unit 160, and a main storage device 170.
  • each part which comprises the information processing apparatus 100 has the function to mutually transmit / receive (input / output) the data produced
  • the communication unit 110 is a communication interface for communicating with various devices outside the information processing apparatus 100, and has a function of receiving image data by communicating with the communication unit 220 of the photographing apparatus 200, for example.
  • the image analysis unit 120 can be realized as a computer program, for example, and includes a person detection unit 121, a position detection unit 123, and a person feature extraction unit 125.
  • the person detection unit 121 performs analysis processing on the image data received from the photographing apparatus 200 using, for example, a background recognition method and a person recognition method based on person model matching, which are known techniques, and thereby appears in the photographed image. It has a function to detect a person part.
  • the person detection unit 121 detects the detected camera (photographing device 200), identification information uniquely assigned to the detected person, and detection for the detected person part (person image that is a part of the image). Information related to time is given.
  • the identification information is a character string such as an ID number.
  • the detection time is also a numerical character string.
  • the position detection unit 123 has a function of detecting the position of the person portion detected by the person detection unit 121 as a coordinate value in the virtual space.
  • the person feature extraction unit 125 has a function of extracting color features such as a person's clothes from image data (person image) corresponding to the person portion detected by the person detection unit 121.
  • color features such as a person's clothes
  • image data person image
  • the color characteristics of the person to be extracted are described in a format that can be used on a computer program, such as RGB numerical data or a hexadecimal color code.
  • the same person determination unit 130 can be realized as a computer program, for example.
  • the same person determination unit 130 has a function of determining whether or not they are the same person based on the coordinate value and identification information detected by the position detection unit 123 and the color feature information of the person detected by the person feature extraction unit 125. And a function for setting which moving direction relationship is approximated to the identification information of the persons determined to be the same.
  • it has a function of setting a threshold value for determining whether or not they are the same person. For coordinate values and color feature information having the same identification information, approximation of coordinate values and approximation of color feature information are performed.
  • the same person determination unit 130 determines that both persons are the same person. Furthermore, with regard to coordinate values and color feature information with different identification information, after determining the approximation of the color feature information, the movement direction is determined from the approximation of the time information and the change in the coordinate value of the position information in descending order of approximation. Together with the result of calculating, the same person determination unit 130 determines whether or not they are the same person.
  • the same person determination unit 130 determines that the movement directions are approximate.
  • the same person determination unit 130 combines the movement direction approximation and the time information approximation, and determines that both persons are the same person when the degree of approximation exceeds a threshold value.
  • the same person determination unit 130 assigns the same person identification information to the identification information of the persons determined to be the same person and associates them.
  • the same person identification data is a character string such as an ID number.
  • the guard line / area setting unit 140 can be implemented as a computer program, for example.
  • the warning line / area setting unit 140 sets an arbitrary number of line segments connecting two points from one coordinate to another coordinate as a warning line, and sets an arbitrary point as a warning area. It has a function of setting an arbitrary number of regions that form one rectangle when connecting points with line segments.
  • the warning line after calculating the inclination of the line segment from the coordinate values of the two points of the line segment, if the line segment is tilted vertically or upward, the upper and left sides of the line segment, or A function to set whether the person below or to the right of the line segment is the target, and if the line is tilted horizontally or downward, the line above and to the right or the line
  • the warning line / area setting unit 140 has a function of setting which of the person under the minute and the left side is to be targeted.
  • the alert line / area setting unit 140 sets the inside of the rectangular area as a person determination range.
  • a warning line in which a passing direction is set is referred to as a target line
  • a warning area in which a rectangular area is a determination range is referred to as a target area.
  • the condition determination unit 150 can be implemented as a computer program, for example.
  • the condition determination unit 150 includes a condition setting unit 151 and a condition matching unit 153.
  • the condition setting unit 151 sets conditions shown in a specific example in FIG. Details will be described later in “2.2”.
  • condition matching unit 153 matches the conditions by matching each data output from the position detection unit 123 and the same person determination unit 130 and the condition set by the condition setting unit 151 based on a specific matching reference. A function of determining whether or not, and a function of calculating the moving direction and moving speed of the same person.
  • the condition matching unit 153 outputs the data set by the action 417 within the condition illustrated in FIG. 4 to the result output unit 160.
  • the result output unit 160 can be implemented as a computer program, for example. Based on the target region output from the condition matching unit 153 and the data (value) set in the action 417, the function has a function of performing a predetermined operation and a function of displaying the operation result on the result display device 400.
  • the result output unit 160 corresponds to a monitoring program or the like that can display an image of a monitoring camera. For example, when the “notice” data is received, the result output unit 160 of the present embodiment performs an operation (notification) for prompting the user to gaze at a specific monitoring camera image in order to promote alertness. When “alert” data is received, an operation (notification) for issuing an alarm is performed on the assumption that abnormality or suspicious behavior is detected in a specific monitoring camera image.
  • the main storage device 170 is hardware as one component constituting the information processing device 100, and corresponds to, for example, a random access memory (RAM).
  • the main storage device 170 is used as an area for temporary storage, reference, and calculation processing of data output from each unit constituting the information processing apparatus 100.
  • the result storage database (DB) 300 can be implemented as a database program, for example.
  • the result storage DB 300 may be mounted in the information processing apparatus 100 or may be mounted on an external computer.
  • the result storage DB 300 has a function of storing various data output from each unit in the information processing apparatus 100 as necessary.
  • the result storage DB 300 can store the collation result output from the condition collation unit 153.
  • the result display device 400 is hardware that displays the operation result output by the result output unit 160, and specifically corresponds to a display, an alarm device, or the like.
  • condition setting unit 151 has a function of setting various items illustrated in FIG.
  • Conditions set by the condition setting unit 151 include a condition ID 401, a valid flag 403, a target line 405A (target line 1) to a target line 405C (target line 3), a target area 407A (target area 1) to a target area 407C (target area). 3), including the same person 409, time 411, increase / decrease 413, group 415, and action 417.
  • the condition ID 401 is identification information for uniquely identifying each setting item included in the condition.
  • the valid flag 403 is information for setting whether or not the target condition is valid. In the example of FIG. 4, “ON” is set when valid, and blank when invalid. It has become.
  • the target lines 405A to 405C are data set as target lines by the warning line / area setting unit 140. In the example of FIG. 4, only three target lines are described, but the target lines are set by the number set by the warning line / area setting unit 140.
  • the target areas 407A to 407C are data set as target areas by the guard line / area setting unit 140. In the example of FIG. 4, only three target areas are described, but the target areas are set by the number set by the warning line / area setting unit 140.
  • each target line or target area as a target of condition matching
  • information specifying a target line or target area that is a base point at the time of condition checking For the target line and target area defined as the base point, information defining the end point is set.
  • “use” is set as a value that defines the target line or target region as the target of the condition matching
  • “m_use” is set as a value that specifies the target line or target region that is the base point
  • S_use is set as a value that prescribes the presence.
  • the same person 409 is information for setting whether or not the same person determined by the same person determination unit 130 is a target or both.
  • Y Yes
  • B Bottom
  • No No
  • the time 411 is information for setting a time limit for detecting a person between the target lines or target areas.
  • three types of information can be set: a fixed time (for example, 60 seconds or 1 second), a predicted arrival time of a person without specifying the time.
  • the number of seconds (60 seconds or 1 second) is set for a certain time
  • the character string “any” is set when no time is specified
  • the character string “real” is set for a predicted arrival time of a person.
  • Time 411 is set.
  • the increase / decrease 413 is data for setting an increase / decrease in the number of detected persons as a condition, and three types of increase / decrease can be set so that the number of persons does not change.
  • the character string “equal” is set to increase / decrease 413 when it does not change, the character string “increase” when it increases, and “decrease” when it decreases.
  • the group 415 selects one or more arbitrary condition IDs 401 and sets a group. By setting the group 415, it is possible to set one condition group that combines a plurality of conditions. As a condition for setting the same condition group, the same character string is set in the group 415.
  • the condition group “A” includes condition IDs “2” and “3”
  • the condition group “B” includes condition IDs “4” and “5”.
  • the action 417 is information for setting data for defining what kind of operation the result output unit 160 performs when the condition is met.
  • a warning “notice” and a warning “alert” are set in action 417 as a character string of a command sentence that can be interpreted by the result output unit 160.
  • FIG. 5 is a flowchart showing a processing flow of the video monitoring system 1 according to the present embodiment.
  • Each processing step to be described later can be executed in any order or in parallel as long as there is no contradiction in processing contents, and other steps can be added between the processing steps. good. Further, a step described as a single step for convenience can be executed by being divided into a plurality of steps, and a step described as being divided into a plurality of steps for convenience can be executed as one step. This also applies to the flowcharts of FIG.
  • the warning line / area setting unit 140 sets one or more warning areas (S501).
  • S501 warning areas
  • condition setting unit 151 sets collation conditions (S503).
  • a specific example will be described with reference to FIG. 1.
  • the condition setting unit 151 reads the three warning areas (imaging areas R1 to R3) set by the warning line / area setting unit 140, and then reads each of the target areas. Set as 407A to 407C.
  • the condition setting unit 151 sets the target areas 407A to 407C, the same person 409, the time 411, the increase / decrease 413, the group 415, and the action 417, for example, the value of the condition ID 401 in the specific example of FIG. And “5”.
  • the imaging unit 210 of the imaging device 200 captures an image of a person and outputs the image to the communication unit 220 (S505).
  • the communication unit 220 transmits the image data to the communication unit 110 of the information processing apparatus 100 (S507).
  • the communication unit 110 receives the image data (S509), and outputs the received image data to the person detection unit 121 and the person feature extraction unit 125 of the image analysis unit 120 (S511).
  • the person detection unit 121 extracts a person from the received image data (S513).
  • the person detection unit 121 since the person is reflected only in the image data of the photographing device 200A corresponding to the camera C1, the person detection unit 121 detects one person.
  • the person detection unit 121 sends the detected person part, the detected camera, the identification information uniquely assigned to the detected person, and the data assigned the detection time to the position detection unit 123 and the person feature extraction unit 125. Output.
  • the person feature extraction unit 125 extracts the color feature of the person, and then identifies the color feature information (feature amount) together with identification information uniquely assigned to the detected person and a detection time, and the same person determination unit 130. And output to the main storage device 170 (S515).
  • the position detection unit 123 detects the position of the detected person part as a coordinate value in the virtual space, and the coordinate value is detected together with identification information unique to the detected person and a detection time, and the same person determination unit 130. And output to the main storage device 170 (S517).
  • the video monitoring system 1 continuously repeats the processing from S501 to S517.
  • identification information, detection time, color characteristics, and coordinate values unique to a detected person for a certain period are temporarily stored (temporarily stored).
  • the same person determination unit 130 refers to the received identification information unique to the detected person, detection time, color characteristics, and coordinate values, and similar data temporarily stored in the main storage device 170. Thus, the same person determination is performed, and the result of the determination is output to the main storage device 170 (S519).
  • the main storage device 170 S519.
  • the person in FIG. 1 since the person in FIG. 1 has been photographed by the camera C1 for a certain period of time, a plurality of color features and coordinate values can be acquired. A person who continues to appear in C1 is determined as the same person “00A”.
  • the condition collating unit 153 reads the condition set by the condition setting unit 151 and collates whether or not “00A” of the same person determination result temporarily stored in the main storage device 170 matches the condition ( S521). This collation procedure will be described later with reference to FIG.
  • the condition matching unit 153 outputs the target area and the target action obtained by the process to the result output unit 160 (S523).
  • the result output unit 160 interprets the received target area and target action, and displays the interpretation result on the result display device 400 (S527, S529). For example, in the example of FIG. 1, the result output unit 160 displays a message that prompts the user to watch the image of the camera C ⁇ b> 2 on the display that is the result display device 400.
  • the condition matching unit 153 refers to the valid flag 403 of the condition setting unit 151 and checks whether or not there is a valid flag. If there is a valid flag, the condition matching process starts ( S601). In the present embodiment, as shown in FIG. 4, there are valid conditions for the flag (condition IDs “1”, “4”, and “5”), so the condition matching unit 153 starts the condition matching process (Yes in S601).
  • condition checking unit 153 is temporarily stored (temporarily stored) in the main storage device 170 and has unique identification information, detection time, color characteristics, coordinate values, and the same person determination result “ 00A "is referred to (S603). Then, the condition matching unit 153 confirms whether or not a group is set in the group 415 for the condition set by the condition setting unit 151 with the validity flag 403 being valid (S605). In the example of FIG. 4, since the values of the condition ID 701 are “4” and “5”, and “B” is set in the group 415 for these conditions, it is determined that the group is set. can do.
  • the condition matching unit 153 reads the grouped conditions as one condition group.
  • the condition collating unit 153 reads, as one condition group, conditions whose condition ID 701 value is “4” and “5” in which “B” is set in the group 415.
  • the target areas become the target areas 407A, 407B, and 407C (S607).
  • the condition checking unit 153 checks whether or not the target area of the read condition has a base point-end point relationship (parent-child relationship) (S609).
  • the target area 407A is the base point
  • the target area 407B, and 407C is the end point.
  • the condition matching unit 153 determines whether there is position information that matches the target area set as the base point (parent). The determination is made based on the data obtained with reference to 170 (S901). In the example of FIG. 1, since the person to be monitored is in the target area, position information in the target area exists (Yes in S901).
  • condition matching unit 153 determines whether or not the person related to the position information existing in the target area has the same person determination (S903).
  • the person to be monitored has the same person determination result of “00A”.
  • condition collating unit 153 calculates the moving direction from the position coordinates of “00A” (S905).
  • the person to be monitored is moving in the positive direction of the x coordinate and the positive direction of the y coordinate.
  • condition matching unit 153 determines the target area of the end point (child) closest to “00A” from the moving direction (S907).
  • the coordinates of the range of the target area 407B that is the shooting range R2 are present in the positive direction of the x coordinate and the y coordinate in the positive direction than the coordinates of the range of the target area 407C of the shooting range R3. Therefore, the target area 407B can be determined as the closest target area.
  • the condition matching unit 153 outputs the target region 407 (the target region 407B in this example) and the target action 417 (here “notice”) to the result output unit 160 and the result storage DB 300 (S909). ).
  • the warning line / area setting unit 140 sets one or more warning areas (S501).
  • S501 warning areas
  • condition setting unit 151 sets collation conditions (S503).
  • a specific example will be described with reference to FIG. 1.
  • the condition setting unit 151 reads two warning areas (imaging areas R4 and R5) set by the warning line / area setting unit 140, and then reads each of the target areas. Set as 407A and 407B.
  • the condition setting unit 151 sets the target areas 407A and 407B, the same person 409, the time 411, the increase / decrease 413, the group 415, and the action 417, for example, the value of the condition ID 401 in the specific example of FIG. Set according to the conditions.
  • Subsequent processes S505 to S517 are the same as those in the specific example 1 described above, and thus the description thereof is omitted here.
  • the same person determination unit 130 receives the received identification information, detection time, color characteristics, and coordinate values uniquely assigned to the detected person, and the main storage device 170.
  • the same person determination is performed by referring to the same data temporarily stored in the main storage device 170, and the result of the determination is output to the main storage device 170 (S519).
  • the person in FIG. 2 is photographed for a certain period of time by the camera C4, a plurality of color features and coordinate values at different times can be acquired.
  • the person who continues to appear in C4 is determined as the same person “00B”.
  • the condition collating unit 153 reads the condition set by the condition setting unit 151 and collates whether or not “00B” of the same determination result temporarily stored in the main storage device 170 matches the condition ( S521). This collation procedure will be described later with reference to the flowcharts of FIG.
  • the condition matching unit 153 outputs the target area and the target action obtained by the process to the result output unit 160 (S523).
  • the result output unit 160 interprets the received target area and target action, and displays the interpretation result on the result display device 400 (S527, S529).
  • the result output unit 160 issues an alarm and performs an operation of prompting the user to watch the images of the cameras C4 and C5 on the assumption that there is a possibility that the person to be monitored is taking a suspicious action.
  • 3.1.2 Flow of condition matching process The details of the condition matching process according to S521 of FIG. 5 in the specific example of FIG. 2 will be described below with reference to FIGS.
  • condition matching unit 153 refers to the valid flag 403 of the condition set by the condition setting unit 151 and checks whether there is a valid condition. If there is a valid condition, Collation processing is started (S601). Here, since there are valid conditions as shown in FIG. 4 (condition ID 401 is “1”, “4”, “5”), the condition matching unit 153 starts the condition matching process (Yes in S601).
  • condition checking unit 153 is temporarily stored (temporarily stored) in the main storage device 170 and has unique identification information, detection time, color characteristics, coordinate values, and the same person determination result “ 00B "is referred to (S603). Then, the condition matching unit 153 confirms whether or not a group is set in the group 415 for the condition that the condition setting unit 151 sets the validity flag 403 as valid (S605).
  • the condition ID 701 has a value of “1” as a target, it can be determined that there is no group setting (No in S605).
  • the condition matching unit 153 reads the condition of one line related to one condition ID 401 as one condition set.
  • the target areas are two target areas 407A and 407B (S611).
  • the condition matching unit 153 checks whether or not the target area of the read condition has a base point-end point relationship (parent-child relationship) (S613).
  • the condition ID 401 in FIG. 4 refers to the condition “1”
  • the values of the target area 407A and the target area 407B are “use”, it is determined that there is no parent-child relationship between the two. (No in S613).
  • the condition matching unit 153 determines from the main storage device 170 whether there is position information that matches one of the target areas. A determination is made based on the referenced data (S801). Here, as shown in FIG. 2, since the person to be monitored is in the imaging region R4 (target region 407A), position information in the target region exists (Yes in S801).
  • condition matching unit 153 determines whether or not the person related to the position information existing in the target area has the same person determination (S803).
  • the same person determination result of “00B” for the person to be monitored Yes in S803).
  • condition collating unit 153 confirms whether or not the condition of the time 411 is “any”.
  • the condition ID 401 in FIG. 4 refers to the condition “1”
  • the time setting is 60 seconds, so the time setting is not “any” (No in S805).
  • the condition matching unit 153 determines whether there is position information of the same person that matches another target area different from the target area determined in S801, based on the data referred to from the main storage device 170.
  • the person to be monitored is present in the imaging region R4 (target region 407A), but has not existed in the target region R5 (target region 407B).
  • the determination in S813 is Yes.
  • the condition matching unit 153 The action set in 417 (here, “alert”) is output to the result output unit 160 and the result storage DB 300 (S811).
  • the prediction of the next area to be monitored and the possibility of abnormal behavior of the monitoring target person are determined. More specifically, when the same person moves out of the monitoring area, the next monitoring area candidate estimated to be applicable from the monitoring areas designated in advance is determined from the moving direction.
  • the target area to be targeted is picked up and the time at which the person to be monitored should appear in the next monitoring area is predicted from the moving speed, and the person does not appear in the next monitoring area predicted by the person Informs the possibility of abnormal behavior of the person.
  • the video monitoring system 1 can quickly determine a video to be watched next, and can prompt a guard who is a supervisor to be alerted early. Furthermore, even outside the imaging area, it is possible to perform certain alerts by predicting abnormal behavior of a person.
  • Appendix 1 An input unit that receives input of images shot by a plurality of shooting devices, and a prediction unit that predicts a shooting device in which the person will be shot next based on information including the moving direction of the person shot by the shooting device And an informing means for informing the user of the predicted photographing apparatus.
  • Appendix 3 The information processing system according to appendix 2, wherein the predicting means predicts a time at which the person appears in the predicted photographing apparatus based on information including a moving direction and a moving speed related to the person photographed by the photographing apparatus.
  • Appendix 5 The information processing system according to appendix 4, wherein the determination unit determines whether or not they are the same person based on at least a part of the position information, moving direction, speed, and feature amount of the person.
  • appendix 7 The information processing method according to appendix 6, further comprising: a step of predicting a time at which a person appears in the predicted photographing apparatus; and a step of notifying the user when the person does not appear by the predicted time.
  • Appendix 8 The information processing method according to appendix 7, wherein the time at which the person appears in the predicted photographing apparatus is predicted based on information including a moving direction and a moving speed related to the person photographed by the photographing apparatus.
  • Appendix 10 The information processing method according to appendix 9, wherein it is determined whether or not they are the same person based on at least a part of the position information, moving direction, speed, and feature amount of the person.
  • Appendix 11 A process of receiving input of images taken by a plurality of photographing devices, a process of predicting a photographing device that the person will be photographed next based on information including a moving direction of the person photographed by the photographing device, A program for causing a computer to execute a process of notifying a user of a predicted photographing apparatus.
  • Appendix 12 The program according to appendix 11, further executing a process of predicting a time when a person appears in the predicted photographing apparatus and a process of notifying the user of the person when the person does not appear by the predicted time.
  • Appendix 13 The program according to appendix 12, wherein the program predicts a time at which the person appears on the predicted photographing apparatus based on information including a moving direction and a moving speed related to the person photographed by the photographing apparatus.
  • Appendix 14 14. The program according to any one of appendix 11 to appendix 13, further executing a process of determining whether or not the person photographed by the photographing apparatus and the predicted person appearing in the photographing apparatus are the same person.
  • Appendix 15 The program according to appendix 14, wherein it is determined whether or not they are the same person based on at least a part of the position information, moving direction, speed, and feature amount of the person.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Alarm Systems (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】複数カメラで人物監視を行う場合に、効率的に人物を監視することのできる情報処理システム、情報処理方法、及びプログラムを提供する。 【解決手段】複数の撮影装置200で撮影された映像の入力を受ける通信部110と、撮影装置200で撮影された人物に係る移動方向を含む情報に基づいて、当該人物が次に撮影される撮影装置を予測する条件照合部153と、 前記予測された撮影装置をユーザに報知する結果出力部160とを備える。

Description

情報処理システム、情報処理方法及びプログラム
 本発明に係るいくつかの態様は、情報処理システム、情報処理方法及びプログラムに関する。
 近年、複数のカメラの映像を利用して人物監視を行うシステムが考えられている。例えば特許文献1は、複数のカメラを用いてオープンスペース等の所定領域を撮影することで、人物の移動方向に基づいて、人物の特徴をズーム撮影することや、人物の座標に応じて優先順位をつけて、撮影する人物を選択すること等のできるシステムを開示している。
特開2011-087214号公報
 特許文献1記載の手法では、あくまで1つの撮影範囲内のみを監視対象としているため、異なる範囲を撮影するカメラ間で追跡を行う場合や撮影範囲外で何らかの異常事態が発生した場合等に関しては、何ら考慮していない。複数のカメラを用いてそれぞれ異なる撮影範囲を撮影する場合には、効率的な監視体制を構築することが求められている。
 本発明のいくつかの態様は前述の課題に鑑みてなされたものであり、複数カメラで人物監視を行う場合に、効率的に人物を監視することのできる情報処理システム、情報処理方法、及びプログラムを提供することを目的の1つとする。
 本発明に係る情報処理システムは、複数の撮影装置で撮影された映像の入力を受ける入力手段と、撮影装置で撮影された人物に係る移動方向を含む情報に基づいて、当該人物が次に撮影される撮影装置を予測する予測手段と、前記予測された撮影装置をユーザに報知する報知手段とを備える。
 本発明に係る情報処理方法は、複数の撮影装置で撮影された映像の入力を受けるステップと、撮影装置で撮影された人物に係る移動方向を含む情報に基づいて、当該人物が次に撮影される撮影装置を予測するステップと、前記予測された撮影装置をユーザに報知するステップとを情報処理システムが行う。
 本発明に係るプログラムは、複数の撮影装置で撮影された映像の入力を受ける処理と、撮影装置で撮影された人物に係る移動方向を含む情報に基づいて、当該人物が次に撮影される撮影装置を予測する処理と、前記予測された撮影装置をユーザに報知する処理とをコンピュータに実行させる。
 なお、本発明において、「部」や「手段」、「装置」、「システム」とは、単に物理的手段を意味するものではなく、その「部」や「手段」、「装置」、「システム」が有する機能をソフトウェアによって実現する場合も含む。また、1つの「部」や「手段」、「装置」、「システム」が有する機能が2つ以上の物理的手段や装置により実現されても、2つ以上の「部」や「手段」、「装置」、「システム」の機能が1つの物理的手段や装置により実現されても良い。
 本発明によれば、複数カメラで人物監視を行う場合に、効率的に人物を監視することのできる情報処理システム、情報処理方法、及びプログラムを提供することができる。
実施形態に係る映像監視システムの概要の具体例を説明するための図である。 実施形態に係る映像監視システムの概要の具体例を説明するための図である。 実施形態に係る映像監視システムの概略構成を示す機能ブロック図である。 図3に示す映像監視システムに設定される条件の具体例を示す図である。 図3に示す映像監視システムの動作フローを示す図である。 図3に示す映像監視システムの処理の流れを示すフローチャートである。 図3に示す映像監視システムの処理の流れを示すフローチャートである。 図3に示す映像監視システムの処理の流れを示すフローチャートである。 図3に示す映像監視システムの処理の流れを示すフローチャートである。 図3に示す映像監視システムの処理の流れを示すフローチャートである。
 以下に本発明の実施形態を説明する。以下の説明及び参照する図面の記載において、同一又は類似の構成には、それぞれ同一又は類似の符号が付されている。
 (実施形態)
 図1乃至図10は、実施形態を説明するための図である。以下、これらの図を参照しながら、次の流れに沿って本実施形態を説明する。まず「1」で実施形態の概要を説明すると共に、「2」でシステムの機能構成の概要を示す。更に、「3」で処理の流れを説明し、最後に、「4」以降で、本実施形態に係る効果等を説明する。
 (1 実施形態の概要)
 (1.1 全体の概要)
 近年、空港などの重要施設には監視カメラの導入が進んでおり、その結果、数千台のビデオカメラが1つの施設に導入されることも珍しくなくなっている。しかしながら、数千台に及ぶビデオカメラであっても、重要施設全体を網羅することはできず、その一部を映し出せるに過ぎないことが大半である。
 この課題を解決しようとすると、まずビデオカメラ台数を増やして死角をなくすことが考えられるが、コスト面だけでなく、警備運用上も課題があるため、実現は困難である。また、撮影領域外を対象として警備員が巡回することも考えられるが、このような場合にも、巡回している時間及び場所しか警備していないため、巡回するまで異常に気づかないという課題がある。常時警備員による立哨も考えられるが、これはコストが膨大となってしまうため現実的ではない。そこで、撮影領域ではない場所があったとしても、監視カメラの撮影領域外で発生した警備機能を映像監視システムに取り込むことが求められている。検出できるようにすることが求められている。
 そこで、本実施形態に係る映像監視システムでは、対象人物の位置及び同一人物判定により、監視カメラの撮影範囲から撮影領域外に移動した人物の動作を予測することにより、次に当該人物が撮影されるビデオカメラ(監視カメラ)を予測したり早期警戒を促したりすることを可能とする機能を有する。以下、映像監視システム内の情報処理装置が、人物同定等の各種処理を行うものとして説明する。
 (1.2 処理の具体例)
 (1.2.1 具体例1)
 本実施形態に係る情報処理装置の処理の具体例1を、図1を参照しながら説明する。図1の例では、Y字状の通路に3台のカメラ(ビデオカメラ)C1乃至C3が設置されており、それぞれ独立した撮影領域R1乃至R3を撮影している。
 監視対象の人物は、時刻tにはカメラC1の撮影領域R1内である座標(x,y)に、時刻t+1には同じくカメラC1の撮影領域R1内である座標(xt+1,yt+1)に、時刻t+2には、カメラC1乃至C3の撮影領域外である領域(イ)内の座標(xt+2,yt+2)にいる。なお、ここでxt+2>xt+1>xt+0、yt+2>yt+1>yである
ものとする。
 このとき、通常であれば、カメラC1乃至C3の撮影領域外である領域(イ)に監視対象の人物がいる時刻t+2には、当該人物の居場所は不明であり、次に人物が出現する位置も不明である。
 しかしながら、本実施形態に係る情報処理装置は、監視対象の人物がy軸の正方向に移動している情報に基づき、時刻t+2には、撮影領域R1よりもy軸の正方向の位置にある領域(イ)に移動しているものと予測する。また、次に人物が出現する位置は、人物がx軸正方向に動いていたという情報に基づき、撮影領域R2であるものと予測する。
 より一般化すると、情報処理装置は、以下のようなルールに基づき、時刻t+2の人物の位置や次に現れる撮影領域を予測する。
・撮影領域R1に現れた人物のうち、yの正方向に移動する人物は、領域(イ)に移動する。
・撮影領域R1に現れた人物のうち、yの正方向に移動する人物は、次に撮影領域R2又はR3に現れる可能性が高い。
・撮影領域R1からyの正方向に移動する人物のうち、xの正方向に移動する人物は撮影領域R2に移動する可能性が高く、xの負方向に移動する人物は撮影領域R3に移動する可能性が高い。
 (1.2.2 具体例2)
 次に、本実施形態に係る情報処理装置の処理の具体例2を、図2を参照しながら説明する。図2の例では、H字状の通路に2台のカメラ(ビデオカメラ)C4及びC5が設置されており、それぞれ独立した撮影領域R4及びR5を撮影している。
 監視対象の人物は、時刻tにはカメラC4の撮影領域R4内である座標(x,y)に、時刻t+1には同じくカメラC4の撮影領域R4内である座標(xt+1,yt+1)に、時刻t+2には、カメラC4及びC5の撮影領域外である領域(ウ)内の座標(xt+2,yt+2)にいる。なお、ここでxt+2>xt+1>xt+0、yt+2>yt+1>yであるものとする。
 このとき、通常であれば、人物がカメラC4及びC5の撮影領域外である領域(ウ)にいる時刻t+2における人物の居場所は不明であり、次に人物が出現する位置も不明である。また、人物が不審な行動を取っているか否かもわからない。
 しかしながら、本実施形態に係る情報処理装置は、監視対象の人物がx軸の正方向に移動している情報に基づき、時刻t+2には、撮影領域R4よりもx軸の正方向の位置にある撮影領域(ウ)に移動しているものと予測する。また、次に人物が出現する位置は、人物がx軸正方向に動いていたという情報に基づき、撮影領域R5であるものと予測する。
 更に、以下の式により求まる監視対象人物の速度に基づき、予測される出現時刻になっても監視対象人物が撮影領域R5に出現しない場合には、情報処理装置は、当該人物は不審行動を取っている可能性が高いものと予測できる。
Figure JPOXMLDOC01-appb-M000001
 より一般化すると、情報処理装置は、以下のようなルールに基づき、時刻t+2の人物の位置や次に現れる撮影領域、及び不審行動を取っているか否かを予測する。
・撮影領域R4に現れた人物のうち、yの正方向に移動する人物は、領域(ウ)又は領域(エ)に移動する。
・撮影領域R4に現れた人物のうち、xの正方向に移動する人物は、領域(ウ)に移動する可能性が高い。
・撮影領域R4に現れた人物のうち、xの正方向、yの正方向に移動してR4の撮影対象外となった人物は、次に撮影領域R5に出現する可能性が高い。
・領域(ウ)を通過する速度zに撮影領域R4外となった経過時間(現在時刻t+2と時刻t+1の差分)の積が、領域(ウ)の幅rを大幅に上回る場合には、当該人物は撮影領域(ウ)内で不審な行動を取っている可能性がある。
 情報処理装置は、このように、各ビデオカメラでの撮影映像から人物の動きを特定すると共に、当該情報やルールに基づき、当該人物が撮影領域外にいる場合であっても、位置や次に現れる撮影領域、不審行動を取っているか否か等を予測する。
 (2 システムの機能構成)
 (2.1 システム構成)
 以下、図3を参照しながら、本実施形態に係るシステムの機能構成を説明する。図3は、映像監視システム1のシステム構成を示すブロック図である。
 映像監視システム1は、大きく分けて、情報処理装置100と、撮影機器200(撮影機器200A乃至200Nを総称して撮影機器200と呼ぶ。)と、結果保存DB300と、結果表示装置400とから構成される。
 撮影機器200は、映像(動画像)や静止画像を撮影する装置である。撮影機器200の具体例としては、例えばカラーカメラやモノクロカメラ、サーモカメラ等が考えられる。撮影される画像のデータ形式は種々考えられるが、例えば、静止画像であれば、画像解析処理時に一般的な画像形式であるBMPやJPG等とすることが考えられる。
 撮影機器200は、画像を撮影する撮影部210及び撮影した映像や静止画像を送信する通信部220を有する。
 撮影部210は、例えばレンズやCCD(Charge Coupled Device)素子等の、画像を撮影するための各種機能を備える。通信部220は、例えばBNC(Bayonet Neill Concelman)端子やLAN(Local Area Network)端子と共に、撮影部210で撮影した画像を所定の形式の画像データとして保存するとともに、所定の通信規格に基づいて当該画像データを外部に送信するための機能を備える。なお、通信部220による画像伝送の形式は、例えば同軸ケーブルによるアナログ方式や、イーサネット(登録商標)ケーブルによるデジタル方式等、種々考えることができる。
 情報処理装置100は、撮影機器200で撮影された画像に対して人物検出等の各種処理を行うことにより、人物監視を行うための装置である。情報処理装置100は、例えばサーバ機器等を具体例として挙げることができるコンピュータハードウェアであり、一般的なサーバ機器等と同じく、図示しない演算装置や主記憶装置170、図示しない補助記憶装置、通信部110等を備える。
 図3の例において、情報処理装置100は、通信部110、画像解析部120、同一人物判定部130、警戒線/領域設定部140、条件判定部150、結果出力部160、及び主記憶装置170を有する。なお、情報処理装置100を構成する各部は、お互いに計算や照合の結果生成したデータを互いに送受信(入出力)する機能を有する。
 通信部110は、情報処理装置100外部の各種装置と通信するための通信インタフェースであり、例えば、撮影機器200の通信部220と通信することにより、画像データを受信する機能を有する。
 画像解析部120は、例えばコンピュータプログラムとして実現することができ、人物検出部121、位置検出部123、及び人物特徴抽出部125を有する。
 人物検出部121は、撮影機器200から受信した画像データに対し、例えば、既知の技術である背景差分法及び人物モデルマッチングによる人物認識法を用いて解析処理することにより、撮影された画像に映っている人物部分を検出する機能を有する。人物検出部121は、検出した人物部分(画像の一部である人物画像)に対しては、検出したカメラ(撮影機器200)、検出された人物に対して一意に割り当てられる識別情報、および検出時刻に係る情報を付与する。ここで、識別情報は、ID番号などの文字列である。検出時刻も、数値による文字列である。
 位置検出部123は、人物検出部121によって検出された人物部分の位置を、仮想空間上の座標値として検出する機能を有する。
 人物特徴抽出部125は、人物検出部121によって検出された人物部分に該当する画像データ(人物画像)から、人物の服装などの色特徴を抽出する機能を有する。ここで、抽出される人物の色特徴は、RGBの数値データや、16進数のカラーコード等、コンピュータプログラム上で利用可能な形式で記述される。
 同一人物判定部130は、例えばコンピュータプログラムとして実現することができる。同一人物判定部130は、位置検出部123により検出された座標値及び識別情報、並びに人物特徴抽出部125によって検出された人物の色特徴情報を元に、同一人物か否かを判定する機能と、同一と判断した人物の識別情報同士に対して、どの移動方向の関係を近似とするかを設定する機能とを有する。同一人物の判定については、同一人物であるか否かを判定する閾値を設定する機能を持ち、識別情報が同一の座標値及び色特徴情報については、座標値の近似及び色特徴情報の近似を判定基準として、これらの値が近似しているほど同一人物である可能性が高いと判定する。また、近似度を計算した結果、当該近似度が閾値を超えた場合には、同一人物判定部130は、両人物を同一人物であるものと判定する。更に、識別情報が異なる座標値及び色特徴情報に関しては、色特徴情報の近似を判定した上で、近似度が高いものから順に、時刻情報の近似と、位置情報の座標値の変化から移動方向を計算した結果とを合わせて、同一人物判定部130は同一人物であるか否かを判定する。もし、移動方向の関係が、識別情報同士に対して設定された近似の移動方向と合致する場合は、同一人物判定部130は移動方向が近似しているものと判定する。同一人物判定部130は、この移動方向の近似と時刻情報の近似とを合わせて、近似度が閾値を超えた場合には、両人物を同一人物であるものと判定する。
 同一人物判定部130は、同一人物と判定した人物の識別情報同士に対して、同一人物識別情報を付与して紐付ける。ここで、同一人物識別データは、ID番号などの文字列である。
 警戒線/領域設定部140は、例えばコンピュータプログラムとして実装可能である。警戒線/領域設定部140は、警戒線として、ある一つの座標から他の座標の二点間を結ぶ線分を任意の個数設定する機能と、警戒領域として任意の点を設定し、それぞれの点を線分で結んだ場合に1つの矩形となる領域を任意の個数設定する機能とを有する。
 ここで、警戒線に関しては、線分の2点の座標値から線分の傾きを計算した上で、線分が垂直又は右上がりに傾いている場合には、線分の上及び左側、又は線分の下及び右側のどちらがわから線分を通過する人物を対象とするかを設定する機能と、線分が水平または右下がりに傾いている場合には、線分の上及び右側、又は線分の下及び左側、のどちらがわから線分を通過する人物を対象とするかを設定する機能とを警戒線/領域設定部140は有する。
 また、警戒領域に関しては、警戒線/領域設定部140は矩形の領域の内部を人物の判定範囲とする。以下、通過方向が設定された警戒線を対象線、矩形の内部が判定範囲となった警戒領域を対象領域という。
 条件判定部150は、例えばコンピュータプログラムとして実装可能である。条件判定部150は、条件設定部151と条件照合部153とを含む。
 条件設定部151は、図4に具体例を示す条件を設定する。詳細は「2.2」で後述する。
 条件照合部153は、位置検出部123及び同一人物判定部130から出力される各データ及び条件設定部151によって設定された条件を特定の照合基準を元に照合させることにより、条件に合致するか否か判定を行う機能と、同一人物の移動方向と移動速度を計算する機能とを有する。条件に合致した場合、条件照合部153は、図4に例示する条件内のアクション417で設定されるデータを結果出力部160へと出力する。
 結果出力部160は、例えばコンピュータプログラムとして実装可能である。条件照合部153から出力された対象領域およびアクション417で設定されたデータ(値)に基づいて、所定の動作を行う機能と、結果表示装置400に動作結果を表示する機能とを有する。一般的には、結果出力部160は監視カメラの画像を表示させることのできる監視プログラム等が該当する。本実施形態の結果出力部160は、例えば、「notice」のデータを受信した場合には、警戒を促すために、特定の監視カメラ画像の注視をユーザに促すための動作(報知)を行ない、「alert」のデータを受信した場合には、特定の監視カメラ画像で異常または不審行動が検出されたものとして、警報を出す動作(報知)を行う。
 主記憶装置170は情報処理装置100を構成する一部品としてのハードウェアであり、例えば、ランダムアクセスメモリ(RAM)が該当する。本実施形態においては、例えば、主記憶装置170は、情報処理装置100を構成する各部から出力されるデータの一時保存、参照及び計算処理のための領域として使用される。
 結果保存データベース(DB)300は、例えばデータベースプログラムとして実装可能である。結果保存DB300は、情報処理装置100内に実装されても良いし、外部のコンピュータ上に実装されても良い。結果保存DB300は、情報処理装置100内の各部から出力された各種データを必要に応じて格納する機能を有する。例えば、条件照合部153から出力された照合結果を結果保存DB300は記憶することができる。
 結果表示装置400は、結果出力部160が出力する動作結果を表示するハードウェアであり、具体的には、ディスプレイや警報装置等が該当する。
 (2.2 設定条件の具体例)
 図4を参照しながら、条件設定部151が設定する条件の具体例を説明する。条件設定部151は、図4に例示する各種項目を設定する機能を有する。
 条件設定部151が設定する条件は、条件ID401、有効フラグ403、対象線405A(対象線1)ないし対象線405C(対象線3)、対象領域407A(対象領域1)ないし対象領域407C(対象領域3)、同一人物409、時間411、増減413、グループ415およびアクション417を含む。
 条件ID401は、条件に含まれる各設定項目を一意に識別するための識別情報である。有効フラグ403は、対象となる条件を有効とするか否かを設定するための情報であり、図4の例では、有効の場合には「ON」が設定され、無効の場合には空欄となっている。
 対象線405A乃至405Cは、警戒線/領域設定部140によって対象線として設定されるデータである。なお、図4の例では、対象線は3つしか記載されていないが、対象線は、警戒線/領域設定部140により設定された個数分だけ設定される。
 対象領域407A乃至407Cは、警戒線/領域設定部140によって対象領域として設定されるデータである。図4の例では、対象領域は3つしか記載されていないが、対象領域は、警戒線/領域設定部140により設定された個数分だけ設定される。
 対象線405A乃至405C、及び対象領域407A乃至407Cには、それぞれの対象線または対象領域を条件照合の対象と規定する情報、条件照合の際に基点である対象線又は対象領域と規定する情報、及び基点と規定された対象線及び対象領域に対して、終点であると規定する情報を設定する。図4の例では、対象線または対象領域を条件照合の対象と規定する値として「use」が設定され、基点である対象線又は対象領域と規定する値として「m_use」が設定され、終点であると規定する値として「s_use」が設定されている。
 同一人物409は、同一人物判定部130が判定した同一人物を対象とするか否か、またはどちらも対象とするかを設定する情報である。図4の例では、同一人物を対象とする場合にY(Yes)、対象としない場合に(No)、どちらも対象とする場合にB(Both)を値として設定している。
 時間411は、対象線または対象領域間で人物が検出される期限を設定するための情報である。例えば、時間411には、一定時間(例えば60秒や1秒)、時間を指定しない、人物の予測される到達時刻、の3種類の情報を設定可能である。
 図4の例では、一定時間については秒数(60秒や1秒)、時間を指定しない場合には文字列「any」、人物の予測される到達時間の場合には文字列「real」が時間411に設定される。
 増減413は、検出された人物の数の増減を条件として設定するためのデータであり、人数の数が変わらない、増える、減るの3種類を設定可能としている。図4の例では、変わらない場合には文字列「equal」が、増加の場合には文字列「increase」が、減少の場合には「decrease」が、それぞれ増減413に設定される。
 グループ415は、任意の1以上の条件ID401を選択して、グループを設定する。グループ415を設定することにより、複数の条件を合わせた1つの条件グループを設定することが可能となる。同一の条件グループを設定する条件は、グループ415に同一の文字列が設定される。図4の例では、条件グループ「A」には、条件ID「2」及び「3」が含まれ、条件グループ「B」には、条件ID「4」及び「5」が含まれる。
 アクション417は、条件に合致した場合に、結果出力部160にどのような動作を行わせるかを規定するためのデータを設定するための情報である。図4の例では、結果出力部160が解釈可能な命令文の文字列として、警戒「notice」と、警報「alert」とがアクション417で設定される。
 (3 処理の流れ)
 以下、映像監視システム1の処理の流れを、図5を参照しながら説明する。図5は、本実施形態に係る映像監視システム1の処理の流れを示すフローチャートである。
 なお、後述の各処理ステップは、処理内容に矛盾を生じない範囲で、任意に順番を変更して若しくは並列に実行することができ、また、各処理ステップ間に他のステップを追加しても良い。更に、便宜上1つのステップとして記載されているステップは複数のステップに分けて実行することもでき、便宜上複数に分けて記載されているステップを1ステップとして実行することもできる。この点、図6以降のフローチャートについても同様である。
 (3.1 具体例1)
 (3.1.1 全体の処理の流れ)
 まず、図1に例示した状況での映像監視システム1の動作を説明する。以下、撮影機器200A乃至200Cが、それぞれカメラC1乃至C3に対応するものとして説明する。また、それぞれの撮影機器200は撮影性能や送信機能に差異はないものとする。また、同一人物判定部130が付与する同一人物識別情報は「00A」とする。更に、条件照合部153が持つ特定の照合基準については、図6以降のフローチャートに係る処理の他に、同一グループに指定された条件ID401の間で、「m_use」と「s_use」は異なる条件ID401にそれぞれ存在していても、基点-終点の関係として扱うこととすると共に、アクション417が「notice」の場合には、終点の対象領域に合致する条件があった場合にアクションを送信するのではなく、合致するであろう終点を選択して結果出力部160に送信する機能を有する。
 まず、警戒線/領域設定部140は、警戒領域を1以上設定する(S501)。図1の例であれば、警戒領域は3つであり、それぞれの警戒領域は、カメラC1ないしC3の仮想空間上の撮影領域R1乃至R3に対応する。
 次に、条件設定部151は、照合条件を設定する(S503)。図1を参照しながら具体例を説明すると、まず条件設定部151は、警戒線/領域設定部140が設定した3つの警戒領域(撮影領域R1乃至R3)を読み込んだ上で、それぞれを対象領域407A乃至407Cとして設定する。次に条件設定部151は、それぞれの対象領域407A乃至407C、同一人物409、時間411、増減413、グループ415、及びアクション417を、例えば、図4の具体例における条件ID401の値が「4」及び「5」の条件の通りに設定する。
 撮影機器200(カメラC1乃至C3)の撮影部210は、それぞれ人物の画像を撮影した上で、当該画像を通信部220に出力する(S505)。
 通信部220は、画像データを情報処理装置100の通信部110へと送信する(S507)。
 通信部110は、当該画像データを受信した上で(S509)、当該受信した画像データを画像解析部120の人物検出部121及び人物特徴抽出部125へと出力する(S511)。
 人物検出部121は、受け取った画像データから人物を抽出する(S513)。図1の例では、カメラC1に対応する撮影機器200Aの画像データにのみ人物が映っていることから、人物検出部121は人物1名を検出する。検出された人物部分、検出したカメラ、検出された人物に対して一意に割り当てた識別情報、及び検出時刻を付与したデータを、人物検出部121は位置検出部123及び人物特徴抽出部125へと出力する。
 人物特徴抽出部125は、人物の色特徴を抽出した上で、当該色特徴情報(特徴量)を、検出された人物に対して一意に割り当てられる識別情報及び検出時刻と共に、同一人物判定部130及び主記憶装置170へと出力する(S515)。
 位置検出部123は、検出された人物部分の位置を仮想空間上の座標値として検出すると共に、当該座標値を、検出された人物に対して一意の識別情報及び検出時刻と共に同一人物判定部130及び主記憶装置170へと出力する(S517)。
 なお、映像監視システム1は、S501乃至S517の処理を連続的に繰り返す。主記憶装置170上には、一定期間の、検出された人物に対して一意の識別情報、検出時刻、色特徴、及び座標値が一時保存(一時記憶)される。
 同一人物判定部130は、受け取った、検出された人物に対して一意の識別情報、検出時刻、色特徴及び座標値と、主記憶装置170上に一時保存されている同様のデータとを参照することにより同一人物判定を行ない、当該判定の結果を主記憶装置170へと出力する(S519)。なお、本実施形態では、図1の人物はカメラC1に一定時間撮影されていることから複数の色特徴や座標値が取得できるので、それらの近似の度合いから、同一人物判定部130によって、カメラC1に連続的に映り続けている人物が、同一の人物「00A」として判定される。
 条件照合部153は、条件設定部151により設定された条件を読み込んだ上で、主記憶装置170に一時保存された同一人物判定結果の「00A」が条件に合致するか否かを照合する(S521)。この照合手順は、図6以降を参照しながら後述する。
 条件照合処理の後、当該処理により得られる対象領域及び対象アクションを、条件照合部153は結果出力部160へと出力する(S523)。結果出力部160は、受信した対象領域及び対象アクションを解釈した上で、当該解釈の結果を、結果表示装置400へと表示する(S527、S529)。例えば図1の例では、結果出力部160は、カメラC2の画像を注視するよう促すメッセージを、結果表示装置400であるディスプレイに表示する。
 (3.1.2 条件照合処理の流れ)
 以下、図6乃至図9を参照しながら、図1の具体例における、図5のS521に係る条件照合処理の詳細を説明する。
 条件照合部153は、条件設定部151の有効フラグ403を参照した上で、有効となっているフラグがあるか否かを確認し、もし有効なフラグがあれば、条件照合処理を開始する(S601)。本実施形態では、図4に示した通りフラグの有効な条件があるので(条件ID「1」「4」「5」)、条件照合部153は条件照合処理を開始する(S601のYes)。
 次に、条件照合部153は主記憶装置170に一時保存(一時記憶)されている、検出された人物に対して一意の識別情報、検出時刻、色特徴、座標値、及び同一人物判定結果「00A」を参照する(S603)。その上で条件照合部153は、条件設定部151が有効フラグ403を有効として設定されている条件に対して、グループ415でグループが設定されているか否かを確認する(S605)。図4の例では、条件ID701の値が「4」及び「5」を対象としており、これらの条件にはグループ415に「B」が設定されているので、グループ設定がなされているものと判断することができる。
 グループ設定がある場合(S605のYes)、条件照合部153は、グループ化されている条件を1つの条件群として読み込む。つまり、図4の例であれば、グループ415に「B」が設定されている条件ID701の値が「4」及び「5」の条件を、1つの条件群として条件照合部153は読み込む。その結果、対象領域は、対象領域407A、407B、407Cとなる(S607)。
 続いて、条件照合部153は、読み込んだ条件の対象領域に、基点-終点関係(親子関係)があるか否かを確認する(S609)。図4の例の場合、対象領域407Aの値が基点を示す「m_use」、対象領域407B及び407Cの値が終点を示す「s_use」となっているため、対象領域407Aが基点、対象領域407B及び407Cが終点となる。
 基点-終点関係(親子関係)がある場合(S609のYes)、条件照合部153は、基点(親)に設定されている対象領域に合致する位置情報が存在するか否かを、主記憶装置170を参照して得られたデータを元に判定する(S901)。図1の例では、監視対象の人物が対象領域にいるため、対象領域内の位置情報が存在する(S901のYes)。
 続いて、条件照合部153は、対象領域内に存在する位置情報に係る人物が、同一人物判定を持っているか否かを判定する(S903)。ここで説明している例では、監視対象の人物は、「00A」という同一人物判定結果がある。
 更に条件照合部153は、「00A」の位置座標から、移動方向を計算する(S905)。ここでは、図1に示した通り、監視対象の人物はx座標の正方向かつy座標の正方向に移動している。
 更に、条件照合部153は、移動方向から、「00A」に対して最も近い終点(子)の対象領域を判定する(S907)。図1の例では、撮影範囲R2である対象領域407Bの範囲の座標の方が、撮影範囲R3である対象領域407Cの範囲の座標よりも、x座標が正方向かつy座標が正方向に存在しているため、対象領域407Bを、最も近い対象領域として判定することができる。
 これまでの判定の結果、条件照合部153は対象領域407(この例では対象領域407B)及び対象のアクション417(ここでは「notice」)を、結果出力部160及び結果保存DB300に出力する(S909)。
 (3.2 具体例2)
 (3.2.1 全体の処理の流れ)
 次に、図2に例示した状況での映像監視システム1の動作を説明する。以下、撮影機器200A及び200Bが、それぞれカメラC4及びC5に対応するものとして説明する。また、それぞれの撮影機器200は撮影性能や送信機能に差異がないものとする。また、同一人物判定部130が付与する同一人物識別情報は「00B」とする。更に、条件照合部153が持つ特定の照合基準については、図6以降のフローチャートに係る処理の他に、時間411の設定が「any」以外であった場合は、対象線/領域の一方からもう一方へ、設定された時間内に同一人物が移動していなかった場合にアクション417を送信する機能を有する。
 まず、警戒線/領域設定部140は、警戒領域を1以上設定する(S501)。図2の例であれば、警戒領域は2つであり、それぞれの警戒領域は、カメラC4及びC5の仮想空間上の撮影範囲(撮影領域R4及びR5)に対応する。
 次に、条件設定部151は、照合条件を設定する(S503)。図1を参照しながら具体例を説明すると、まず条件設定部151は、警戒線/領域設定部140が設定した2つの警戒領域(撮影領域R4及びR5)を読み込んだ上で、それぞれを対象領域407A及び407Bとして設定する。次に条件設定部151は、それぞれの対象領域407A及び407B、同一人物409、時間411、増減413、グループ415、及びアクション417を、例えば、図4の具体例における条件ID401の値が「1」の条件の通りに設定する。その後の処理であるS505乃至S517については、上記で説明した具体例1と同様であるので、ここでは説明を省略する。
 S517の位置検出部123による位置検出後、同一人物判定部130は、受け取った、検出された人物に対して一意に割り当てられた識別情報、検出時刻、色特徴および座標値と、主記憶装置170に一時保存されている同様のデータとを参照することにより同一人物判定を行ない、当該判定の結果を主記憶装置170へと出力する(S519)。なお、ここでは図2の人物はカメラC4にて一定時間撮影されていることから異なる時刻に係る複数の色特徴や座標値が取得できるので、それらの近似から、同一人物判定部130によって、カメラC4に映り続けている人物が、同一の人物「00B」として判定される。
 条件照合部153は、条件設定部151により設定された条件を読込んだ上で、主記憶装置170に一時記憶された同一判定結果の「00B」が条件に合致するか否かを照合する(S521)。この照合手順は、図6以降のフローチャートを参照しながら後述する。
 条件照合処理の後、当該処理により得られる対象領域および対象アクションを、条件照合部153は結果出力部160へと出力する(S523)。結果出力部160は、受信した対象領域及び対象アクションを解釈した上で、当該解釈の結果を、結果表示装置400へと表示する(S527、S529)。例えば、図2の例では、監視対象の人物が不審行動をとっている可能性があるものとして結果出力部160は警報を出し、カメラC4及びC5の画像を注視するよう促す動作を行う。
 (3.1.2 条件照合処理の流れ)
 以下、図6乃至図9を参照しながら、図2の具体例における、図5のS521に係る条件照合処理の詳細を説明する。
 まず、条件照合部153は、条件設定部151で設定した条件の有効フラグ403を参照した上で、有効となっている条件があるか否かを確認し、もし有効な条件があれば、条件照合処理を開始する(S601)。ここでは、図4に示す通り有効な条件があるので(条件ID401が「1」「4」「5」)、条件照合部153は条件照合処理を開始する(S601のYes)。
 次に、条件照合部153は主記憶装置170に一時保存(一時記憶)されている、検出された人物に対して一意の識別情報、検出時刻、色特徴、座標値、及び同一人物判定結果「00B」を参照する(S603)。その上で条件照合部153は、条件設定部151が有効フラグ403を有効として設定している条件に対して、グループ415でグループが設定されているか否かを確認する(S605)。ここでは、条件ID701の値が「1」の条件を対象としているので、グループの設定はないものと判定することができる(S605のNo)。
 グループの設定がない場合には、1つの条件ID401に係る1行の条件を、1つの条件セットとして条件照合部153は読み込む。その結果、対象領域は、対象領域407A及び407Bの2つとなる(S611)。
 続いて、条件照合部153は、読み込んだ条件の対象領域に、基点-終点関係(親子関係)があるか否かを確認する(S613)。ここでは、図4の条件ID401が「1」の条件を参照すると、対象領域407A及び対象領域407Bの値がそれぞれ「use」となっているため、両者の間に親子関係はないものと判定することができる(S613のNo)。
 対象領域間に基点-終点関係(親子関係)がない場合(S613のNo)、どちらか一方の対象領域に合致する位置情報が存在するか否かを、条件照合部153は主記憶装置170から参照したデータを元に判定する(S801)。ここでは、図2に示した通り、監視対象の人物が撮影領域R4(対象領域407A)にいるため、対象領域内の位置情報が存在する(S801のYes)。
 続いて、条件照合部153は、対象領域内に存在する位置情報に係る人物が、同一人物判定を持っているか否かを判定する(S803)。ここでは、監視対象の人物について、「00B」という同一人物判定結果がある(S803のYes)。
 更に条件照合部153は、時間411の条件が「any」であるか否かを確認する。ここでの例では、図4の条件ID401が「1」の条件を参照すると、時間の設定が60秒となっているので、時間の設定は「any」ではない(S805のNo)。
 次に条件照合部153は、S801で判定した対象領域とは異なるもう1つの対象領域に合致する同一人物の位置情報がないかを、主記憶装置170から参照したデータを元に判定する。ここでは、図2を見れば明らかなように、監視対象の人物は撮影領域R4(対象領域407A)に存在した時間はあるが、対象領域R5(対象領域407B)に存在したことはないため、S813の判定はYesとなる。
 監視対象の人物について、片方の対象領域にしか合致する位置情報がない場合には(S813のYes)、時間411に設定されている時間(ここでは60秒)以上、もう1つの対象領域に合致する同一人物の位置情報が存在していなかったか否かを判定する(S815)。ここでは、監視対象人物は対象領域R4には存在したが、その後60秒以上対象領域R5には移動しなかったものとする。よって、S815の判定はYesとなる。
 同一人物に係る位置情報が、一方の対象領域407A(対象領域R4)には存在し、設定時間以上、他方の対象領域407B(対象領域R5)には存在しないため、条件照合部153は、アクション417に設定されたアクション(ここでは「alert」)を結果出力部160及び結果保存DB300へと出力する(S811)。
 (4 本実施形態に係る効果)
 以上説明したように、本実施形態に係る映像監視システム1では、撮影機器200(監視カメラ)に映った人物の位置情報、移動方向、速度、及び特徴量による同一人物判定データと、警戒線/警戒領域の設定と組み合わせて、次の監視すべき領域の予測や監視対象人物の異常行動の可能性を判定する。より具体的には、同一人物が監視領域外へと移動するときには、移動方向から、あらかじめ指定した監視領域の中から該当すると推定される次の監視領域候補を判定する。その上で、対象となる対象領域のピックアップを行うと共に、移動速度から、次の監視領域に監視対象の人物が現れるべき時刻を予測し、当該人物が予測した次の監視領域に現れない場合には、当該人物の異常行動の可能性を報知する。
 このような機能により、映像監視システム1は、次に注視すべき映像を早期に判断できると共に、監視者である警備員に早期警戒を促すことが可能となる。更に、撮影領域外であっても、人物の異常行動を予測することにより、一定の警戒が可能となる。
 (5 付記事項)
 なお、前述の実施形態の構成は、組み合わせたり或いは一部の構成部分を入れ替えたりしてもよい。また、本発明の構成は前述の実施形態のみに限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変更を加えてもよい。
 なお、前述の各実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。また、本発明のプログラムは、上記の各実施形態で説明した各動作を、コンピュータに実行させるプログラムであれば良い。
 (付記1)
 複数の撮影装置で撮影された映像の入力を受ける入力手段と、撮影装置で撮影された人物に係る移動方向を含む情報に基づいて、当該人物が次に撮影される撮影装置を予測する予測手段と、予測された撮影装置をユーザに報知する報知手段とを備える情報処理システム。
 (付記2)
 前記予測手段は、予測した撮影装置に人物が現れる時刻を予測し、前記報知手段は、予測した時刻までに当該人物が現れない場合に、その旨をユーザに報知する、付記1記載の情報処理システム。
 (付記3)
 前記予測手段は、撮影装置で撮影された人物に係る移動方向及び移動速度を含む情報に基づいて、予測した撮影装置に当該人物が現れる時刻を予測する、付記2記載の情報処理システム。
 (付記4)
 撮影装置で撮影された人物と、予測した撮影装置に現れた人物とが同一人物であるか否かを判定する判定手段を更に備える、付記1乃至付記3のいずれか1項記載の情報処理システム。
 (付記5)
 前記判定手段は、人物の位置情報、移動方向、速度及び特徴量の少なくとも一部に基づいて、同一人物であるか否かを判定する、付記4記載の情報処理システム。
 (付記6)
 複数の撮影装置で撮影された映像の入力を受けるステップと、撮影装置で撮影された人物に係る移動方向を含む情報に基づいて、当該人物が次に撮影される撮影装置を予測するステップと、予測された撮影装置をユーザに報知するステップとを情報処理システムが行う、情報処理方法。
 (付記7)
 予測した撮影装置に人物が現れる時刻を予測するステップと、予測した時刻までに当該人物が現れない場合に、その旨をユーザに報知するステップとを更に備える、付記6記載の情報処理方法。
 (付記8)
 撮影装置で撮影された人物に係る移動方向及び移動速度を含む情報に基づいて、予測した撮影装置に当該人物が現れる時刻を予測する、付記7記載の情報処理方法。
 (付記9)
 撮影装置で撮影された人物と、予測した撮影装置に現れた人物とが同一人物であるか否かを判定するステップを更に備える、付記6乃至付記8のいずれか1項記載の情報処理方法。
 (付記10)
 人物の位置情報、移動方向、速度及び特徴量の少なくとも一部に基づいて、同一人物であるか否かを判定する、付記9記載の情報処理方法。
 (付記11)
 複数の撮影装置で撮影された映像の入力を受ける処理と、撮影装置で撮影された人物に係る移動方向を含む情報に基づいて、当該人物が次に撮影される撮影装置を予測する処理と、予測された撮影装置をユーザに報知する処理とをコンピュータに実行させるプログラム。
 (付記12)
 予測した撮影装置に人物が現れる時刻を予測する処理と、予測した時刻までに当該人物が現れない場合に、その旨をユーザに報知する処理とを更に実行させる、付記11記載のプログラム。
 (付記13)
 撮影装置で撮影された人物に係る移動方向及び移動速度を含む情報に基づいて、予測した撮影装置に当該人物が現れる時刻を予測する、付記12記載のプログラム。
 (付記14)
 撮影装置で撮影された人物と、予測した撮影装置に現れた人物とが同一人物であるか否かを判定する処理を更に実行させる、付記11乃至付記13のいずれか1項記載のプログラム。
 (付記15)
 人物の位置情報、移動方向、速度及び特徴量の少なくとも一部に基づいて、同一人物であるか否かを判定する、付記14記載のプログラム。
 この出願は、2012年12月20日に出願された日本出願特願2012-278509を基礎とする優先権を主張し、その開示の全てをここに取り込む。
1・・・映像監視システム、100・・・情報処理装置、110・・・通信部、120・・・画像解析部、121・・・人物検出部、123・・・位置検出部、125・・・人物特徴抽出部、130・・・同一人物判定部、140・・・領域設定部、150・・・条件判定部、151・・・条件設定部、153・・・条件照合部、160・・・結果出力部、170・・・主記憶装置、200・・・撮影機器、200A・・・撮影機器、210・・・撮影部、220・・・通信部、300・・・結果保存DB、400・・・結果表示装置、403・・・有効フラグ、405・・・対象線、407・・・対象領域、409・・・同一人物、413・・・増減、415・・・グループ、417・・・アクション

Claims (7)

  1.  複数の撮影装置で撮影された映像の入力を受ける入力手段と、
     撮影装置で撮影された人物に係る移動方向を含む情報に基づいて、当該人物が次に撮影される撮影装置を予測する予測手段と、
     予測された撮影装置をユーザに報知する報知手段と
    を備える情報処理システム。
  2.  前記予測手段は、予測した撮影装置に人物が現れる時刻を予測し、
     前記報知手段は、予測した時刻までに当該人物が現れない場合に、その旨をユーザに報知する、
    請求項1記載の情報処理システム。
  3.  前記予測手段は、撮影装置で撮影された人物に係る移動方向及び移動速度を含む情報に基づいて、予測した撮影装置に当該人物が現れる時刻を予測する、
    請求項2記載の情報処理システム。
  4.  撮影装置で撮影された人物と、予測した撮影装置に現れた人物とが同一人物であるか否かを判定する判定手段
    を更に備える、請求項1乃至請求項3のいずれか1項記載の情報処理システム。
  5.  前記判定手段は、人物の位置情報、移動方向、速度及び特徴量の少なくとも一部に基づいて、同一人物であるか否かを判定する、
    請求項4記載の情報処理システム。
  6.  複数の撮影装置で撮影された映像の入力を受けるステップと、
     撮影装置で撮影された人物に係る移動方向を含む情報に基づいて、当該人物が次に撮影される撮影装置を予測するステップと、
     予測された撮影装置をユーザに報知するステップと
    を情報処理システムが行う、情報処理方法。
  7.  複数の撮影装置で撮影された映像の入力を受ける処理と、
     撮影装置で撮影された人物に係る移動方向を含む情報に基づいて、当該人物が次に撮影される撮影装置を予測する処理と、
     予測された撮影装置をユーザに報知する処理と
    をコンピュータに実行させるプログラム。
PCT/JP2013/075515 2012-12-20 2013-09-20 情報処理システム、情報処理方法及びプログラム WO2014097699A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014552964A JPWO2014097699A1 (ja) 2012-12-20 2013-09-20 情報処理システム、情報処理方法及びプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012-278509 2012-12-20
JP2012278509 2012-12-20

Publications (1)

Publication Number Publication Date
WO2014097699A1 true WO2014097699A1 (ja) 2014-06-26

Family

ID=50978049

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/075515 WO2014097699A1 (ja) 2012-12-20 2013-09-20 情報処理システム、情報処理方法及びプログラム

Country Status (2)

Country Link
JP (1) JPWO2014097699A1 (ja)
WO (1) WO2014097699A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018037075A (ja) * 2016-08-29 2018-03-08 パナソニックIpマネジメント株式会社 不審者通報システム及び不審者通報方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005012415A (ja) * 2003-06-18 2005-01-13 Matsushita Electric Ind Co Ltd 監視映像モニタリングシステム、監視映像生成方法、および監視映像モニタリングサーバ
JP2007142527A (ja) * 2005-11-15 2007-06-07 Hitachi Ltd 移動体監視システム、移動体特徴量算出装置およびカメラ間移動体照合追跡装置
JP2009017416A (ja) * 2007-07-09 2009-01-22 Mitsubishi Electric Corp 監視装置及び監視方法及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005012415A (ja) * 2003-06-18 2005-01-13 Matsushita Electric Ind Co Ltd 監視映像モニタリングシステム、監視映像生成方法、および監視映像モニタリングサーバ
JP2007142527A (ja) * 2005-11-15 2007-06-07 Hitachi Ltd 移動体監視システム、移動体特徴量算出装置およびカメラ間移動体照合追跡装置
JP2009017416A (ja) * 2007-07-09 2009-01-22 Mitsubishi Electric Corp 監視装置及び監視方法及びプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018037075A (ja) * 2016-08-29 2018-03-08 パナソニックIpマネジメント株式会社 不審者通報システム及び不審者通報方法

Also Published As

Publication number Publication date
JPWO2014097699A1 (ja) 2017-01-12

Similar Documents

Publication Publication Date Title
JP7040463B2 (ja) 解析サーバ、監視システム、監視方法及びプログラム
US10607348B2 (en) Unattended object monitoring apparatus, unattended object monitoring system provided with same, and unattended object monitoring method
JP7229662B2 (ja) ビデオ監視システムで警告を発する方法
KR101825045B1 (ko) 경보 방법 및 장치
JP6885682B2 (ja) 監視システム、管理装置、及び監視方法
JP6233624B2 (ja) 情報処理システム、情報処理方法及びプログラム
KR101485022B1 (ko) 행동 패턴 분석이 가능한 객체 추적 시스템 및 이를 이용한 방법
KR101858396B1 (ko) 지능형 침입 탐지 시스템
JP6729793B2 (ja) 情報処理装置、制御方法、及びプログラム
JP2018160219A (ja) 移動経路予測装置、及び移動経路予測方法
WO2014155958A1 (ja) 対象物監視システム、対象物監視方法および監視対象抽出プログラム
WO2015040929A1 (ja) 画像処理システム、画像処理方法及びプログラム
KR20160074208A (ko) 비콘신호를 이용한 안전 서비스 제공 시스템 및 방법
JP2010257449A (ja) 人物検索装置、人物検索方法、及び人物検索プログラム
JP2009077064A (ja) 監視方法および監視装置
KR102233679B1 (ko) Ess 침입자 및 화재 감지 장치 및 방법
JP5088463B2 (ja) 監視システム
JP5202419B2 (ja) 警備システムおよび警備方法
JP2019153920A (ja) 情報処理装置、情報処理装置の制御方法、被写体検出システム、及び、プログラム
JP5758165B2 (ja) 物品検出装置および静止人物検出装置
JP2009194711A (ja) 領域利用者管理システムおよびその管理方法
JP2013171476A (ja) 携帯型顔認識防犯用背後カメラシステム及びそれに用いる防犯判断方法
CN104050785A (zh) 基于虚拟化边界与人脸识别技术的安全警戒方法
JP2012212217A (ja) 画像監視装置
WO2014097699A1 (ja) 情報処理システム、情報処理方法及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13865907

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2014552964

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13865907

Country of ref document: EP

Kind code of ref document: A1