WO2014006859A1 - 位置管理装置、位置管理システム、位置管理方法、及び、位置管理プログラム - Google Patents

位置管理装置、位置管理システム、位置管理方法、及び、位置管理プログラム Download PDF

Info

Publication number
WO2014006859A1
WO2014006859A1 PCT/JP2013/004030 JP2013004030W WO2014006859A1 WO 2014006859 A1 WO2014006859 A1 WO 2014006859A1 JP 2013004030 W JP2013004030 W JP 2013004030W WO 2014006859 A1 WO2014006859 A1 WO 2014006859A1
Authority
WO
WIPO (PCT)
Prior art keywords
position information
time
monitoring object
value
photographing
Prior art date
Application number
PCT/JP2013/004030
Other languages
English (en)
French (fr)
Inventor
志傑 齋藤
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to JP2014523585A priority Critical patent/JP6015756B2/ja
Priority to US14/411,985 priority patent/US9418428B2/en
Publication of WO2014006859A1 publication Critical patent/WO2014006859A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/188Capturing isolated or intermittent images triggered by the occurrence of a predetermined event, e.g. an object reaching a predetermined position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Definitions

  • the present invention relates to a position management device for calculating position information of a monitoring object from an image taken by a monitoring camera.
  • Patent Document 1 discloses that data processing is performed on an image captured by an infrared camera and a PTZ (Pan Tilt Zoom) camera that take a moving image.
  • An apparatus is disclosed in which a person who walks with a cigarette, which is a monitoring target, is identified, and the person who walks with the identified cigarette is tracked with a PTZ camera.
  • Patent Document 2 even if a detection error occurs in a plurality of position information of the same person photographed by a plurality of monitoring cameras, it is possible to accurately integrate the position information and detect the position of the person.
  • Patent Document 3 discloses that when the difference between the coordinates of the center of gravity of the object i at time k and the coordinates of the center of gravity of the object j at time (k + 1) is less than a predetermined reference value, the object i and the object. An apparatus that determines that j is the same is disclosed.
  • the position of the monitoring object is calculated using image data obtained by photographing the same monitoring object from a plurality of monitoring cameras. At this time, if there is an abnormal output from any of the monitoring cameras, there is a problem that the accuracy may be greatly reduced in the integration of the position information output by the plurality of monitoring cameras.
  • the main object of the present invention is to provide a position management device, a position management system, a position management method, and a position management program that solve the above-mentioned problems.
  • the position management device provides monitoring object identification information to a monitoring object periodically photographed by a photographing device, and position information relating to the monitoring object is obtained from a photographed image obtained by photographing the monitoring object.
  • the stored absolute value of the difference between the position information value at the imaging time one cycle before and two cycles before the current time is compared with a predetermined reference value, and the imaging one cycle before Even if the absolute value of the difference at the time is greater than or equal to the reference value, the current position information is output if the absolute value of the difference at the photographing time two cycles before is less than the reference value.
  • the position management method of the present invention provides monitoring object identification information to a monitoring object periodically imaged by an imaging device, and the position information related to the monitoring object is Calculated from a captured image obtained by photographing the monitoring object, and stores the position information in a storage area in association with the monitoring object identification information and the photographing time, and the current position information value for the monitoring object And the absolute value of the difference between the position information value at the photographing time one cycle before and two cycles before stored in the storage area with a predetermined reference value, Even if the absolute value of the difference at the imaging time before one cycle is greater than or equal to the reference value, the absolute value of the difference corresponding to the imaging time before the two cycles is less than the reference value, The current location information To output.
  • the position management program provides monitoring object identification information to a monitoring object periodically photographed by a photographing device, and position information relating to the monitoring object.
  • Calculation processing for calculating from the captured image obtained by photographing the monitoring object, storage processing for storing the position information in a storage area in association with the monitoring object identification information and photographing time, and the monitoring object For the absolute value of the difference between the current position information value and the position information value stored in the storage area at the shooting time one cycle before and two cycles before the current time.
  • the absolute value of the difference at the photographing time two cycles before is Standard If it is less than, to perform a comparison process of outputting the position information of the current, to the computer.
  • Another aspect of the present invention can be realized by a computer-readable non-volatile storage medium for the position management program (computer program).
  • the present invention makes it possible to calculate position information related to a monitoring object with high accuracy from an image taken by a monitoring camera.
  • FIG. 1 is a block diagram showing the configuration of the location management system according to the first embodiment of the present invention.
  • the position management system 1 of the present embodiment includes a position management device 10 and three photographing devices 20-1 to 20-3.
  • the photographing devices 20-1 to 20-3 are devices for photographing images, and generally correspond to a color camera, a monochrome camera, a thermo camera, and the like.
  • Data formats of images captured by the imaging devices 20-1 to 20-3 are BMP (Bit MaP) and JPEG (Joint Photographic Experts Group), which are image formats generally used during image analysis processing.
  • the photographing devices 20-1 to 20-3 photograph the monitoring target object 2 from different directions periodically, for example, every second, and transmit the photographed image data to the position management device 10.
  • the monitoring target object 2 in this embodiment is a person, for example.
  • the location management device 10 includes calculation units 100-1 to 100-3, comparison units 101-1 to 101-3, a specifying unit 102, and a storage unit 103.
  • the calculation units 100-1 to 100-3 give identification information for identifying the monitoring target 2 recorded in the image data received from the imaging devices 20-1 to 20-3, respectively.
  • the calculation units 100-1 to 100-3 calculate the position information of the monitoring target 2 for each shooting time based on the image data received from the shooting devices 20-1 to 20-3, respectively, and the calculation results are obtained.
  • Each is transmitted to the comparison units 101-1 to 101-3.
  • the calculation units 100-1 to 100-3 also transmit the above calculation results to the storage unit 103.
  • calculation units 100-1 to 100-3 and the comparison units 101-1 to 101-3 may be bundled to form one calculation unit and one comparison unit.
  • the bundled calculation unit and comparison unit perform the above-described processing on the three image data received from the imaging devices 20-1 to 20-3.
  • the storage unit 103 uses the positional information related to the monitoring target 2 received from the calculation units 100-1 to 100-3, identification information for identifying the imaging devices 20-1 to 20-3, and identification information for identifying the monitoring target 2. And stored as the position calculation result 104 in association with the shooting time.
  • FIG. 4 A configuration example of the position calculation result 104 is shown in FIG.
  • the imaging device ID, the object ID, the time, and the coordinates of the object captured by the imaging device at each time are associated.
  • the photographing device ID is identification information for identifying the photographing devices 20-1 to 20-3, and the photographing device IDs of the photographing devices 20-1 to 20-3 are 001 to 003, respectively.
  • the object ID is identification information given to the monitoring object 2 by the calculation units 100-1 to 100-3, and the object ID of the monitoring object 2 is 01a. Although not shown in FIG. 1, the object ID of 01b is assigned to the other monitoring objects other than the monitoring object 2 by the calculation units 100-1 to 100-3.
  • the current time is t, and the monitoring object 2 calculated by the calculation units 100-1 to 100-3 based on the image data obtained by the imaging devices 20-1 to 20-3 capturing the monitoring object 2 at the time t.
  • the positional information regarding is the coordinate A.
  • the positional information related to the monitoring object 2 in the present embodiment is that the target area imaged by the imaging devices 20-1 to 20-3 is a virtual space, the horizontal axis is the X coordinate, and the vertical axis is the Y coordinate in the virtual space. It is shown in two-dimensional coordinates.
  • the coordinates A calculated from the image data photographed by the photographing devices 20-1 to 20-3 are (x1, y1), (x1, y1), and (x1 ′, y1 ′), respectively.
  • the coordinates A (x1 ′, y1 ′) calculated from the image data photographed by the photographing device 20-3 are the coordinates A (x1, x1) calculated from the image data photographed by the photographing devices 20-1 and 20-2.
  • the difference from y1) is that the photographing device 20-3 abnormally outputs image data due to a problem such as image disturbance at time t.
  • the position calculation result 104 includes the above-described data recorded at periodic shooting times.
  • the calculation units 100-1 to 100-3 calculate on the basis of image data captured by the imaging devices 20-1 to 20-3 at a time (t-1) one cycle before the time t, for example, one second before.
  • the position information of the monitored object 2 is coordinate B.
  • the calculation units 100-1 to 100- are based on image data photographed by the photographing devices 20-1 to 20-3 at a time (t-2) two cycles before the time t, for example, two seconds before.
  • the position information of the monitoring object 2 calculated by 3 is the coordinate C.
  • comparison units 101-1 to 101-3 receive the position information of the monitoring object 2 related to the imaging devices 20-1 to 20-3 at time t from the calculation units 100-1 to 100-3, respectively.
  • the validity of the received position information is determined. Details of the validity determination operation of the comparison units 101-1 to 103-3 will be described later.
  • the comparison units 101-1 to 101-3 transmit the positional information of the monitored object 2 at the received time t to the specifying unit 102 only when it is determined to be valid. For example, when the comparison unit 101-3 determines that the position information calculated from the image data captured by the imaging device 20-3 is invalid, the specifying unit 102 uses the imaging devices 20-1 to 20-2. Only the position information calculated from the captured image data is received from the comparison units 101-1 to 101-2.
  • the specifying unit 102 specifies the position of the monitoring object 2 at time t based on the position information received from the comparison units 101-1 to 101-3.
  • a method of specifying the position by the specifying unit 2 for example, a method of calculating an average value of a plurality of position information, or position information within a predetermined error is regarded as the same value, and a value is specified by majority vote. There are methods.
  • the specifying unit 102 transmits a specifying result related to the position of the monitoring object 2 to the storage unit 103.
  • the storage unit 103 stores the position specifying result of the monitoring target 2 received from the specifying unit 102 as the position specifying result 105 in association with the identification information for identifying the monitoring target 2 and the photographing time.
  • FIG. 5 shows a configuration example of the position specifying result 105.
  • the object ID, the time, and the coordinates of the object specified by the specifying unit 102 at each time are associated with each other.
  • the specified coordinates A, B, and C at times t, (t-1), and (t-2) related to the monitoring object 2 with the object ID 01a are (x4, y4), (x5), respectively. , Y5), (x6, y6).
  • the comparison unit 101-i When the comparison unit 101-i receives, from the calculation unit 100-i, the position information of the monitoring target 2 calculated from the image data captured by the imaging device 20-i at the time t, the comparison unit 101-i The position information of the monitoring object 2 related to the imaging device 20-i at time (t-2) is extracted from the position calculation result 104 and the position specifying result 105.
  • the comparison unit 101-i relates to the position information of the monitoring target 2 related to the imaging device 20-i, and compares the difference between the value at the time t and the value at the time (t-1) and the time (t-2). Calculate the absolute value.
  • the comparison unit 101-i compares the absolute value of the above difference with a predetermined reference value.
  • the reference value ⁇ related to the X coordinate and the reference value ⁇ related to the Y coordinate are set in the comparison unit 101-i by the administrator of the position management system 1.
  • the values indicated by ⁇ and ⁇ are determined by the manager of the position management system 1 based on the distance that the person may move during one cycle time from the movement speed of the person to be monitored by the position management system 1. calculate.
  • the comparison unit 101-i calculates the absolute value of the difference between the value at the time t and the value at the time (t-1) and the time (t-2) with respect to the position information of the monitored object 2. And compare with ⁇ and ⁇ . Therefore, the values indicated by ⁇ and ⁇ are values that a person may move between two cycle times, and are set by the administrator of the location management system 1. For example, when one cycle time is 1 second, the values of ⁇ and ⁇ are about several meters.
  • the comparison unit 101-i does not use the reference values set for the X coordinate and the Y coordinate, but the distance traveled by the monitored object 2 is determined from the value indicated by the coordinates of the monitored object 2 before and after the movement. There is also a method that uses one reference value that is calculated and indicates the moving distance.
  • the comparison unit 101-i compares the absolute value of the difference and the reference values ⁇ and ⁇ with the absolute value of the difference regarding the X coordinate being less than ⁇ and the absolute value of the difference regarding the Y coordinate being less than ⁇ . If there is, it is first determined that there is no problem with the coordinate value of the monitored object 2.
  • FIG. 6 shows an example of a list of validity determination results of position information related to the imaging device 20-i in the comparison unit 101-i.
  • the data extraction source, the time, the extracted data for each photographing device at the time, the calculation result in the comparison unit 101, and the determination result are associated with each other.
  • the format of the data extracted from the imaging device and the position calculation result 104 is ⁇ imaging device ID, object ID, calculated coordinates of the object, imaging time ⁇ . Therefore, for example, the data of ⁇ 001, 01a, (x1, y1), t ⁇ has an object ID 01a calculated from a photographed image photographed by the photographing device 20-1 whose photographing device ID is 001.
  • the coordinates of a certain monitoring object 2 at time t are (x1, y1) ”.
  • the comparison unit 101-1 determines that the coordinate value of the monitoring target 2 calculated from the captured image captured by the imaging device 20-1 at time t is OK.
  • the comparison unit 101-2 similarly determines that the coordinate value of the monitoring target 2 calculated from the captured image captured by the imaging device 20-2 at time t is OK.
  • is larger than ⁇ and ⁇ , respectively. Accordingly, the comparison unit 101-3 determines that the coordinate value of the monitored object 2 at time t calculated from the captured image captured by the imaging device 20-3 is NG.
  • the comparison unit 101-i calculates the absolute value of the difference between the X coordinate and the Y coordinate at time t extracted from the imaging device 20-i, and the reference value ⁇ And ⁇ .
  • the format of the data extracted from the position specifying result 105 is ⁇ object ID, calculated object coordinates, photographing time ⁇ . Therefore, for example, the data of ⁇ 01a, (x5, y5), (t-1) ⁇ is “the coordinates specified by the specifying unit 102 at the time (t ⁇ 1) relating to the monitoring target 2 with the target ID 01a. Is (x5, y5) ".
  • the comparison unit 101-1 determines that the coordinate value of the monitoring target 2 calculated from the captured image captured by the imaging device 20-1 at time t is OK.
  • the comparison unit 101-2 similarly determines that the coordinate value of the monitoring target 2 calculated from the captured image captured by the imaging device 20-2 at time t is OK.
  • and the Y coordinate movement from time (t-1) to time t related to the monitored object 2 calculated from the captured image captured by the imaging device 20-3 The distances
  • the comparison unit 101-i determines whether or not the position information of the monitoring object 2 related to the imaging device 20-i at time t is finally valid according to a predetermined determination flow. judge.
  • the determination flow will be described in the description of the operation flow of the present embodiment.
  • the photographing device 20-i transmits a photographed image obtained by photographing the monitoring object 2 at time t to the calculation unit 100-i (S102).
  • the calculation unit 100-i gives identification information for identifying the monitoring object 2, calculates position information regarding the monitoring object 2 from the captured image captured by the imaging device 20-i, and compares the calculation result with the comparison unit 101.
  • -I is transmitted to the storage unit 103 (S103).
  • the storage unit 103 receives the position information regarding the monitoring object 2 received from the calculation unit 100-i at the time t, the identification information for identifying the imaging device 20-i, the identification information for identifying the monitoring object 2, and the imaging time And stored as a position calculation result 104 (S104).
  • the comparison unit 101-i determines the validity of the position information received at time t received from the calculation unit 100-i (S105).
  • the comparison unit 101-i extracts the position information at the time (t-1) related to the monitored object 2 from the position calculation result 104 in the storage unit 103, and the position information at the time t received from the calculation unit 100-i
  • the absolute value of the difference is calculated and compared with the reference value (S201). If the absolute value of the difference is greater than or equal to the reference value (Yes in S202), the process branches to S203. If the absolute value of the difference is less than the reference value (No in S202), the process branches to S205.
  • the comparison unit 101-i extracts the position information at the time (t-2) related to the monitored object 2 from the position calculation result 104 in the storage unit 103, and the position information at the time t received from the calculation unit 100-i
  • the absolute value of the difference is calculated and compared with the reference value (S203). If the absolute value of the difference is greater than or equal to the reference value (Yes in S204), the process branches to S210. If the absolute value of the difference is less than the reference value (No in S204), the process branches to S205.
  • the comparison unit 101-i extracts the position information at the time (t ⁇ 1) related to the monitored object 2 specified by the specifying unit 102 from the position specification result 105 in the storage unit 103, and outputs the position information from the calculation unit 100-i.
  • the absolute value of the difference from the received position information at time t is calculated and compared with the reference value (S205). If the absolute value of the difference is greater than or equal to the reference value (Yes in S206), the process branches to S207. If the absolute value of the difference is less than the reference value (No in S206), the process branches to S209.
  • the comparison unit 101-i extracts the position information at the time (t-2) related to the monitoring target 2 specified by the specifying unit 102 from the position specifying result 105 in the storage unit 103, and outputs the position information from the calculating unit 100-i.
  • the absolute value of the difference from the received position information at time t is calculated and compared with the reference value (S207).
  • the process branches to S210. If the absolute value of the difference is less than the reference value (No in S208), the process branches to S209.
  • the comparison unit 101-i determines that the position information received from the calculation unit 100-i at time t is valid (S209), and the process returns to S105.
  • the comparison unit 101-i determines that the position information received from the calculation unit 100-i at time t is invalid (S210), and the process returns to S105.
  • the comparison unit 101-i transmits the position information at time t to the specifying unit 102 (S107).
  • the specifying unit 102 specifies the position of the monitoring object 2 based on the position information at time t received from the comparison units 101-1 to 101-3, and transmits the specifying result to the storage unit 103 (S110).
  • the storage unit 103 stores the identification result received from the identification unit 102 as the position identification result 105 in association with the identification information for identifying the monitoring object 2 and the photographing time (S111), and the entire process ends. .
  • This embodiment has an effect of calculating the position information related to the monitoring object with high accuracy from the images photographed by a plurality of photographing devices.
  • the reason is that the comparison unit 101-i compares the difference between the position information of the monitoring target calculated from the images photographed by the respective photographing devices and the position information in the position calculation result 104 and the position specifying result 105. However, when the comparison result does not satisfy the predetermined standard, the position information calculated from the image photographed by the photographing device is discarded.
  • the monitored object is a walking person
  • the person cannot move at high speed, and there is an upper limit on the distance that the person moves in unit time. If the moving distance of the monitored object calculated from the position information related to the monitored object calculated from the image captured by a certain imaging device exceeds the above upper limit, the image captured by the imaging device There is a problem, and there is a high possibility that the calculation unit has calculated incorrect position information.
  • the storage unit 103 stores position information for each cycle time related to the monitoring target calculated from images captured by a plurality of imaging devices. Then, the comparison unit 101-i discards the defective position information based on the difference between the position information of one cycle time or two cycles before and the current position information and the upper limit value of the movement described above. Thus, the specifying unit 102 can specify the position of the monitoring object with high accuracy.
  • the comparison unit 101-i refers to not only the position calculation result 104 but also the position specification result 105 for the above-described comparison.
  • the position calculation result 104 may include position information that is not very accurate, and the comparison unit 101 also refers to the position specification result 105 to identify the position specified by the specifying unit 102. The accuracy of the result can be further increased.
  • FIG. 7 is a block diagram showing the configuration of the location management system according to the second embodiment of the present invention.
  • the location management system 1 includes a location management device 10 and a photographing device 20-1.
  • the location management device 10 includes a calculation unit 100-1, a comparison unit 101-1, and a storage unit 103.
  • the calculation unit 100-1 assigns monitoring object identification information to the monitoring object 2 periodically imaged by the imaging device 20-1, and captures the position information related to the monitoring object 2 by imaging the monitoring object 2. Calculate from the image.
  • the storage unit 103 stores the above-described position information as the position calculation result 104 in association with the identification information for identifying the monitoring object 2 and the photographing time.
  • the comparison unit 101-1 compares the current position information value of the monitoring target object 2 and the position information value stored in the storage unit 103 at the shooting time one cycle before and two cycles before the current time. The absolute value of the difference is compared with a predetermined reference value. Then, the comparison unit 101-1 outputs the current position information when the absolute value of the difference is less than the reference value at at least one of the above-described shooting times.
  • the comparison unit 101-1 calculates the absolute value of the difference between the X coordinate and the Y coordinate at time t extracted from the imaging device 20-1 for the data extracted from the position calculation result 104, and sets the reference values ⁇ and ⁇ as Make a comparison. Individual validity determination operations regarding the position information of the monitoring target 2 in the comparison unit 101-1 are the same as those in the first embodiment.
  • the photographing device 20-1 transmits a photographed image obtained by photographing the monitoring object 2 at time t to the calculating unit 100-1 (S301).
  • the calculation unit 100-1 assigns identification information for identifying the monitoring object 2, calculates position information regarding the monitoring object 2 from the captured image of the imaging device 20-1, and calculates the calculation result with the comparison unit 101-1.
  • the data is transmitted to the storage unit 103 (S302).
  • the storage unit 103 receives the position information regarding the monitoring object 2 received from the calculation unit 100-1 at the time t, the identification information for identifying the imaging device 20-1, the identification information for identifying the monitoring object 2, and the imaging time And stored as the position calculation result 104 (S303).
  • the comparison unit 101-1 extracts the position information at the time (t ⁇ 1) related to the monitoring object 2 from the position calculation result 104 in the storage unit 103 and receives the position information at the time t received from the calculation unit 100-1.
  • the absolute value of the difference is calculated and compared with the reference value (S304).
  • the comparison unit 101-1 extracts the position information at the time (t ⁇ 2) related to the monitoring object 2 from the position calculation result 104 in the storage unit 103 and receives the position information at the time t received from the calculation unit 100-1.
  • the absolute value of the difference is calculated and compared with the reference value (S306). When the absolute value of the difference is equal to or larger than the reference value (Yes in S307), the comparison unit 101-1 discards the position information at time t (S309), and the entire process ends. When the absolute value of the difference is less than the reference value (No in S307), the comparison unit 101-1 outputs position information at time t (S308), and the entire process ends.
  • This embodiment has an effect of calculating the position information related to the monitoring target with high accuracy from the image photographed by the photographing device.
  • the reason is that the comparison unit 101-1 compares the difference between the position information related to the monitoring target calculated from the image captured by the image capturing device and the position information in the position calculation result 104, and the comparison result is a predetermined reference. This is because the position information calculated from the image photographed by the photographing device is discarded when the condition is not satisfied.
  • the position information output by the comparison unit 101-1 is used, for example, to specify the position information related to the monitoring target, as in the first embodiment, and the comparison unit 101-1 discards the position information with a large error. By doing so, it is possible to avoid a decrease in accuracy in specifying the position.
  • ⁇ Hardware configuration example> In the above-described embodiment, each unit illustrated in FIGS. 1 and 7 can be regarded as a function (processing) unit (software module) of a software program. However, the division of each part shown in these drawings is a configuration for convenience of explanation, and various configurations can be assumed for mounting. An example of the hardware environment in this case will be described with reference to FIG.
  • FIG. 9 is a diagram exemplarily illustrating a configuration of an information processing apparatus 900 (computer) that can execute the position management apparatus according to the exemplary embodiment of the present invention. That is, FIG. 9 shows a configuration of a computer (information processing apparatus) that can realize the information processing apparatus shown in FIGS. 1 and 7, and shows a hardware environment that can realize each function in the above-described embodiment. To express.
  • the information processing apparatus 900 illustrated in FIG. 9 includes a CPU 901 (Central_Processing_Unit), a ROM 902 (Read_Only_Memory), a RAM 903 (Random_Access_Memory), a hard disk 904 (storage device), and a communication interface 905 (Interface: “I / F” hereinafter).
  • a reader / writer 908 capable of reading and writing data stored in a storage medium 907 such as a CD-ROM (Compact_Disc_Read_Only_Memory), and an input / output interface 909. These components are connected via a bus 906 (communication line). It is a general computer connected.
  • FIG. 1 A block configuration diagram
  • FIG. 2 A block configuration diagram
  • FIG. 3 A block configuration diagram
  • FIG. 8 A block configuration diagram
  • the computer program can be supplied to the hardware by a method of installing in the apparatus via various storage media 907 such as a CD-ROM, or an external method via a communication line such as the Internet.
  • a general procedure can be adopted at present, such as a method of downloading more.
  • the present invention is configured by a code constituting the computer program or a storage medium 907 in which the code is stored.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Alarm Systems (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

 監視カメラの画像から、監視対象物に関する位置情報を、高精度に算出することができるようにする位置管理装置等が開示される。 位置管理装置は、撮影機器が周期的に撮影した監視対象物に、監視対象物識別情報を付与し、監視対象物の位置情報を、監視対象物の撮影画像から算出する算出手段と、位置情報を、監視対象物識別情報、及び、撮影時刻に関連付けて記憶する記憶手段と、監視対象物について、現在の前記位置情報の値と、記憶手段に記憶された、現在から1周期前、及び、2周期前の撮影時刻における位置情報の値との差分の絶対値を、所定の基準値と比較をして、少なくとも何れか1つの前記撮影時刻における、差分の絶対値が基準値未満である場合、現在の前記位置情報を出力する比較手段と、を備える。

Description

位置管理装置、位置管理システム、位置管理方法、及び、位置管理プログラム
 本願発明は、監視カメラによって撮影された画像から、監視対象物の位置情報を算出する位置管理装置等に関する。
 昨今のセキュリティに対する意識の高まりや、IT(Information Technology)による現場管理ニーズの高まりにより、様々な場所において、監視カメラを使用した監視システムが導入されてきている。これらの監視システムは、監視カメラから出力される画像に対して画像解析処理を行い、その処理結果を利用することによって、監視対象物の位置を検出する機能を有している。
 このような監視システムにおける監視対象物の位置の検出に関連する技術として、特許文献1には、動画像を取る赤外線カメラとPTZ(Pan Tilt Zoom)カメラによって撮影された画像をデータ処理することで、監視対象である歩きたばこをする人を特定したのち、特定した歩きたばこをする人をPTZカメラで追尾するようにした装置が公開されている。
 また、特許文献2には、複数の監視カメラにより撮影された同一人物の複数の位置情報に検出誤差が生じていても、これらの位置情報を的確に統合して、人物の位置を検出できるようにした装置が公開されている。
 また、特許文献3には、時刻kにおける対象物iの重心の座標と、時刻(k+1)における対象物jの重心の座標の差分が所定の基準値未満である場合、対象物iと対象物jを同一のものと判定するようにした装置が公開されている。
特開2010-237971号公報 特開2010-206404号公報 特開2004-103018号公報
 前述の特許文献1の装置では、1台の赤外線カメラと1台のPTZカメラによって撮影された画像の画像データを基に監視対象物を追尾する。したがって、何れかのカメラから異常出力があった場合には、監視対象物の正確な位置を検出できなくなる可能性がある問題がある。
 また、前述の特許文献2の装置では、同一の監視対象物を複数の監視カメラから撮影した画像データを用いて監視対象物の位置を算出する。このとき、何れかの監視カメラから異常出力があった場合、複数の監視カメラが出力した位置情報の統合において、精度が大きく低下する可能性がある問題がある。
 本願発明の主たる目的は、上述の問題点を解決した位置管理装置、位置管理システム、位置管理方法、及び、位置管理プログラムを提供することである。
 本願発明に係る位置管理装置は、撮影機器が周期的に撮影した監視対象物に、監視対象物識別情報を付与し、前記監視対象物に関する位置情報を、前記監視対象物を撮影した撮影画像から算出する算出手段と、前記位置情報を、前記監視対象物識別情報、及び、撮影時刻に関連付けて記憶する記憶手段と、前記監視対象物について、現在の前記位置情報の値と、前記記憶手段に記憶された、現在から1周期前、及び、2周期前の前記撮影時刻における前記位置情報の値との差分の絶対値を、所定の基準値と比較をして、前記1周期前の前記撮影時刻における、前記差分の絶対値が前記基準値以上であっても、前記2周期前の前記撮影時刻における、前記差分の絶対値が前記基準値未満である場合、前記現在の前記位置情報を出力する比較手段と、を備える。
 上記目的を達成する他の見地において、本願発明の位置管理方法は、撮影機器が周期的に撮影した監視対象物に、監視対象物識別情報を付与し、前記監視対象物に関する位置情報を、前記監視対象物を撮影した撮影画像から算出し、前記位置情報を、前記監視対象物識別情報、及び、撮影時刻に関連付けて記憶域に記憶し、前記監視対象物について、現在の前記位置情報の値と、前記記憶域に記憶された、現在から1周期前、及び、2周期前の前記撮影時刻における前記位置情報の値との差分の絶対値を、所定の基準値と比較をして、前記1周期前の前記撮影時刻における、前記差分の絶対値が前記基準値以上であっても、前記2周期前の前記撮影時刻に対応する、前記差分の絶対値が前記基準値未満である場合、前記現在の前記位置情報を出力する。
 また、上記目的を達成する更なる見地において、本願発明に係る位置管理プログラムは、撮影機器が周期的に撮影した監視対象物に、監視対象物識別情報を付与し、前記監視対象物に関する位置情報を、前記監視対象物を撮影した撮影画像から算出する算出処理と、前記位置情報を、前記監視対象物識別情報、及び、撮影時刻に関連付けて記憶域に記憶する記憶処理と、前記監視対象物について、現在の前記位置情報の値と、前記記憶域に記憶された、現在から1周期前、及び、2周期前の前記撮影時刻における前記位置情報の値との差分の絶対値を、所定の基準値と比較をして、前記1周期前の前記撮影時刻における、前記差分の絶対値が前記基準値以上であっても、前記2周期前の前記撮影時刻における、前記差分の絶対値が前記基準値未満である場合、前記現在の前記位置情報を出力する比較処理と、をコンピュータに実行させる。
 更に、本発明の他の見地は、係る位置管理プログラム(コンピュータプログラム)を、コンピュータ読み取り可能な、不揮発性の記憶媒体によっても実現可能である。
 本願発明は、監視カメラによって撮影された画像から、監視対象物に関する位置情報を高精度に算出することができるようにする。
本願発明の第1の実施形態の位置管理システムの構成を示すブロック図である。 本願発明の第1の実施形態の全体動作を示すフローチャートである。 本願発明の第1の実施形態における比較部の有効性判定動作を示すフローチャートである。 本願発明の第1の実施形態における位置算出結果の構成例である。 本願発明の第1の実施形態における位置特定結果の構成例である。 本願発明の第1の実施形態における比較部での判定結果一覧例である。 本願発明の第2の実施形態の位置管理システムの構成を示すブロック図である。 本願発明の第2の実施形態の動作を示すフローチャートである。 本願発明の第1、及び、第2の実施形態の位置管理装置を実行可能な情報処理装置の構成を示すブロック図である。
 本願発明の第一の実施の形態について図面を参照して詳細に説明する。
 <第1の実施形態>
 図1は、本発明の第1の実施形態に係る位置管理システムの構成を示すブロック図である。
 本実施形態の位置管理システム1は、位置管理装置10と、3台の撮影機器20-1乃至20-3とを備えている。撮影機器20-1乃至20-3は、映像を撮影する装置であり、一般的にはカラーカメラやモノクロカメラ、サーモカメラなどが該当する。撮影機器20-1乃至20-3が撮影する画像のデータ形式は、画像解析処理時に一般的に用いられる画像形式であるBMP(Bit MaP)やJPEG(Joint Photographic Experts Group)等である。撮影機器20-1乃至20-3は、それぞれ別の方向から監視対象物2を周期的、例えば1秒毎に撮影し、撮影した画像データを位置管理装置10へ送信する。尚、本実施形態における監視対象物2は、例えば人物である。
 位置管理装置10は、算出部100-1乃至100-3と、比較部101-1乃至101-3と、特定部102と、記憶部103とを備えている。
 算出部100-1乃至100-3は、それぞれ、撮影機器20-1乃至20-3から受信した画像データに記録された監視対象物2を識別する識別情報を付与する。算出部100-1乃至100-3は、監視対象物2の位置情報を、それぞれ、撮影機器20-1乃至20-3から受信した画像データを基に、撮影時刻毎に算出し、算出結果をそれぞれ、比較部101-1乃至101-3に送信する。算出部100-1乃至100-3は、上述の算出結果を、記憶部103にも送信する。
 尚、算出部100-1乃至100-3、及び、比較部101-1乃至101-3は、それぞれ束ねて、1つの算出部、及び、1つの比較部としてもよい。その場合、束ねた算出部、及び、比較部が、撮影機器20-1乃至20-3から受信した3つの画像データについて、上述の処理を実施する。
 記憶部103は、算出部100-1乃至100-3から受信した監視対象物2に関する位置情報を、撮影機器20-1乃至20-3を識別する識別情報、監視対象物2を識別する識別情報、及び、撮影時刻に関連付けて、位置算出結果104として格納する。
 位置算出結果104の構成例を図4に示す。図4に例示するテーブルには、撮影機器IDと、対象物IDと、時刻と、各時刻における当該撮影機器によって撮影された対象物の座標とが関連付けられている。撮影機器IDは、撮影機器20-1乃至20-3を識別する識別情報であり、撮影機器20-1乃至20-3の撮影機器IDは、それぞれ001乃至003である。
 対象物IDは、算出部100-1乃至100-3が監視対象物2に対して付与した識別情報であり、監視対象物2の対象物IDは01aである。尚、図1には図示していないが、監視対象物2以外の別の監視対象物に対して、01bの対象物IDが、算出部100-1乃至100-3により付与されている。
 現在の時刻はtであり、時刻tに撮影機器20-1乃至20-3が監視対象物2を撮影した画像データを基に、算出部100-1乃至100-3が算出した監視対象物2に関する位置情報が座標Aである。本実施形態における監視対象物2に関する位置情報は、撮影機器20-1乃至20-3によって撮影された対象領域を仮想空間とし、仮想空間上で横軸をX座標、縦軸をY座標とした二次元の座標で示したものである。撮影機器20-1乃至20-3によって撮影された画像データから算出された座標Aは、それぞれ、(x1,y1)、(x1,y1)、(x1’,y1’)である。撮影機器20-3によって撮影された画像データから算出された座標A(x1’,y1’)が、撮影機器20-1と20-2によって撮影された画像データから算出された座標A(x1,y1)と異なるのは、撮影機器20-3が、時刻tにおける、画像の乱れ等の不具合により、画像データを異常出力しているためである。
 図4に示すとおり、位置算出結果104は、周期的な撮影時刻に記録された上述の内容のデータを包含している。時刻tから1周期時間前、例えば1秒前の時刻(t-1)において撮影機器20-1乃至20-3によって撮影された画像データを基に、算出部100-1乃至100-3が算出した監視対象物2の位置情報が座標Bである。同様に、時刻tから2周期時間前、例えば2秒前の時刻(t-2)において撮影機器20-1乃至20-3によって撮影された画像データを基に、算出部100-1乃至100-3が算出した監視対象物2の位置情報が座標Cである。
 比較部101-1乃至101-3は、それぞれ、時刻tにおける撮影機器20-1乃至20-3に関連した監視対象物2の位置情報を、算出部100-1乃至100-3から受信すると、受信した位置情報の有効性を判定する。比較部101-1乃至103-3の有効性判定動作の詳細については後述する。
 比較部101-1乃至101-3は、受信した時刻tにおける監視対象物2の位置情報を、有効と判定した場合のみ、特定部102に送信する。例えば、比較部101-3が、撮影機器20-3によって撮影された画像データから算出された位置情報が無効であると判定した場合、特定部102は、撮影機器20-1乃至20-2によって撮影された画像データから算出された位置情報のみを、比較部101-1乃至101-2から受信する。
 特定部102は、比較部101-1乃至101-3から受信した位置情報に基づき、時刻tにおける監視対象物2の位置を特定する。特定部2が位置を特定する方式としては、例えば、複数の位置情報の平均値を算出する方式や、あるいは、所定の誤差以内である位置情報は同一の値と見なし、多数決により値を特定する方式等がある。
 特定部102は、監視対象物2の位置に関する特定結果を記憶部103へ送信する。記憶部103は、特定部102から受信した監視対象物2の位置の特定結果を、監視対象物2を識別する識別情報、及び、撮影時刻に関連付けて、位置特定結果105として格納する。
 位置特定結果105の構成例を図5に示す。図5に例示するテーブルには、対象物IDと、時刻と、各時刻における特定部102によって特定された対象物の座標とが関連付けされている。対象物IDが01aである監視対象物2に関する時刻t、(t-1)、(t-2)における特定された座標A、座標B、座標Cは、それぞれ、(x4,y4)、(x5,y5)、(x6,y6)である。
 次に、比較部101-i(i=1,2,3)における、監視対象物2に関する位置情報に対する有効性判定動作の詳細について説明する。
 比較部101-iは、時刻tにおける撮影機器20-iによって撮影された画像データから算出された監視対象物2の位置情報を算出部100-iから受信すると、時刻(t-1)、及び、時刻(t-2)における撮影機器20-iに関連した、監視対象物2の位置情報を、位置算出結果104、及び、位置特定結果105から抽出する。比較部101-iは、撮影機器20-iに関連した、監視対象物2の位置情報に関して、時刻tにおける値と時刻(t-1)、及び、時刻(t-2)における値の差分の絶対値を算出する。
 比較部101-iは、上述の差分の絶対値を所定の基準値と比較する。本実施形態におけるX座標に関する基準値αと、Y座標に関する基準値βは、位置管理システム1の管理者が、比較部101-iに値を設定している。α及びβが示す値は、位置管理システム1が監視対象とする人の移動速度から、人が1周期時間の間に移動する可能性がある距離を基に、位置管理システム1の管理者が算出する。本実施形態では、比較部101-iが監視対象物2の位置情報に関して、時刻tにおける値と、時刻(t-1)、及び、時刻(t-2)における値の差分の絶対値を算出してα及びβとの比較を行う。したがって、α及びβが示す値は、2周期時間の間に人が移動する可能性がある値で、位置管理システム1の管理者により設定されている。例えば、1周期時間が1秒である場合、α及びβの値は、数メートル程度の値となる。
 尚、α及びβが示す値を変更することで、判定基準を厳しくしたり、逆に緩くしたりすることが可能である。また、比較部101-iが、X座標、Y座標それぞれに設定された基準値を用いるのではなく、監視対象物2が移動した距離を、移動前後の監視対象物2の座標が示す値から算出し、移動距離を示す1つの基準値を用いる方式もある。
 比較部101-iは、上述の差分の絶対値と基準値α及びβとの比較において、X座標に関する差分の絶対値がα未満であり、かつ、Y座標に関する差分の絶対値がβ未満であった場合、監視対象物2の座標値に、まずは問題ないと判定する。
 比較部101-iにおける、撮影機器20-iに関連した位置情報の有効性判定結果の一覧の例を図6に示す。図6に例示されるテーブルには、データ抽出元と、時刻と、当該時刻における撮影機器別の、抽出されたデータ、比較部101での算出結果、及び、判定結果が関連付けされている。図6の判定結果一覧106において、撮影機器、及び、位置算出結果104から抽出されたデータの形式は、{撮影機器ID,対象物ID,算出された対象物の座標,撮影時刻}である。したがって、例えば{001,01a,(x1,y1),t}のデータは、「撮影機器IDが001である撮影機器20-1によって撮影された撮影画像から算出された、対象物IDが01aである監視対象物2の時刻tにおける座標が(x1,y1)」であることを示している。
 図6に示すとおり、撮影機器20-1によって撮影された撮影画像から算出された、監視対象物2に関する時刻(t-1)から時刻tの間の、X座標の移動距離|x1-x2|とY座標の移動距離|y1-y2|は、ぞれぞれ、α、βより小さい。したがって、比較部101-1は、撮影機器20-1によって撮影された撮影画像から算出された、時刻tにおける監視対象物2の座標値はOKと判定する。比較部101-2は、撮影機器20-2によって撮影された撮影画像から算出された、時刻tにおける監視対象物2の座標値についても、同様にOKと判定する。
 撮影機器20-3によって撮影された撮影画像から算出された、監視対象物2に関する時刻(t-1)から時刻tの間の、X座標の移動距離|x1’-x2’|とY座標の移動距離|y1’-y2’|は、ぞれぞれ、α、βより大きい。したがって、比較部101-3は、撮影機器20-3によって撮影された撮影画像から算出された、時刻tにおける監視対象物2の座標値はNGと判定する。
 比較部101-iは、位置特定結果105から抽出したデータについても同様に、撮影機器20-iから抽出された時刻tにおけるX座標、Y座標との差分の絶対値を算出し、基準値α及びβとの比較を行う。
 図6において、位置特定結果105から抽出したデータの形式は、{対象物ID,算出された対象物の座標,撮影時刻}である。したがって、例えば{01a,(x5,y5),(t-1)}のデータは、「対象物IDが01aである監視対象物2に関する時刻(t-1)における特定部102により特定された座標が(x5,y5)」であることを示している。
 図6に示すとおり、撮影機器20-1によって撮影された撮影画像から算出された、監視対象物2に関する時刻(t-1)から時刻tの間の、X座標の移動距離|x1-x5|とY座標の移動距離|y1-y5|は、ぞれぞれ、α、βより小さい。したがって、比較部101-1は、撮影機器20-1によって撮影された撮影画像から算出された、時刻tにおける監視対象物2の座標値はOKと判定する。比較部101-2は、撮影機器20-2によって撮影された撮影画像から算出された、時刻tにおける監視対象物2の座標値についても、同様にOKと判定する。
 撮影機器20-3によって撮影された撮影画像から算出された、監視対象物2に関する時刻(t-1)から時刻tの間の、X座標の移動距離|x1’-x5|とY座標の移動距離|y1’-y5|は、ぞれぞれ、α、βより大きい。したがって、比較部101-3は、撮影機器20-3によって撮影された撮影画像から算出された、時刻tにおける監視対象物2の座標値はNGと判定する。
 比較部101-iは、上述した個々の判定結果から、時刻tにおける撮影機器20-iに関連した監視対象物2の位置情報が、それぞれ最終的に有効か否かを、所定の判定フローにより判定する。判定フローについては、本実施形態の動作フローの説明の中で説明する。
 次に図2、及び、図3のフローチャートを参照して、本実施形態の動作について詳細に説明する。
 位置管理システム1は、i=1~3として、S109との間でループ動作を設定する(S101)。撮影機器20-iは、時刻tに監視対象物2を撮影した撮影画像を、算出部100-iに送信する(S102)。算出部100-iは、監視対象物2を識別する識別情報を付与し、監視対象物2に関する位置情報を、撮影機器20-iによって撮影された撮影画像から算出し、算出結果を比較部101-iと記憶部103に送信する(S103)。記憶部103は、算出部100-iから受信した監視対象物2に関する時刻tにおける位置情報を、撮影機器20-iを識別する識別情報、監視対象物2を識別する識別情報、及び、撮影時刻に関連付けて、位置算出結果104として格納する(S104)。比較部101-iは、算出部100-iから受信した時刻tにおける位置情報の有効性を判断する(S105)。
 ここから、図3のフローチャートに従い説明する。
 比較部101-iは、監視対象物2に関する時刻(t-1)における位置情報を、記憶部103における位置算出結果104から抽出して、算出部100-iから受信した時刻tにおける位置情報との差分の絶対値を算出し、基準値と比較する(S201)。差分の絶対値が基準値以上の場合(S202でYes)、処理はS203へ分岐し、差分の絶対値が基準値未満の場合(S202でNo)、処理はS205へ分岐する。比較部101-iは、監視対象物2に関する時刻(t-2)における位置情報を、記憶部103における位置算出結果104から抽出して、算出部100-iから受信した時刻tにおける位置情報との差分の絶対値を算出し、基準値と比較する(S203)。差分の絶対値が基準値以上の場合(S204でYes)、処理はS210へ分岐し、差分の絶対値が基準値未満の場合(S204でNo)、処理はS205へ分岐する。
 比較部101-iは、特定部102により特定された、監視対象物2に関する時刻(t-1)における位置情報を、記憶部103における位置特定結果105から抽出して、算出部100-iから受信した時刻tにおける位置情報との差分の絶対値を算出し、基準値と比較する(S205)。差分の絶対値が基準値以上の場合(S206でYes)、処理はS207へ分岐し、差分の絶対値が基準値未満の場合(S206でNo)、処理はS209へ分岐する。比較部101-iは、特定部102により特定された、監視対象物2に関する時刻(t-2)における位置情報を、記憶部103における位置特定結果105から抽出して、算出部100-iから受信した時刻tにおける位置情報との差分の絶対値を算出し、基準値と比較する(S207)。
 差分の絶対値が基準値以上の場合(S208でYes)、処理はS210へ分岐し、差分の絶対値が基準値未満の場合(S208でNo)、処理はS209へ分岐する。比較部101-iは、算出部100-iから受信した時刻tにおける位置情報を有効と判断し(S209)、処理はS105へ戻る。比較部101-iは、算出部100-iから受信した時刻tにおける位置情報を無効と判断し(S210)、処理はS105へ戻る。
 ここから、図2のフローチャートに戻って説明する。
 位置情報が有効な場合(S106でYes)、処理はS107へ分岐し、位置情報が無効な場合(S106でNo)、処理はS108へ分岐する。比較部101-iは、時刻tにおける位置情報を特定部102に送信する(S107)。比較部101-iは、時刻tにおける位置情報を破棄する(S108)。i=1~3について、S101からのループ動作が終了した後、処理はS110へ進む(S109)。
 特定部102は、比較部101-1乃至101-3から受信した時刻tにおける位置情報を基に、監視対象物2の位置を特定し、特定結果を記憶部103に送信する(S110)。記憶部103は、特定部102から受信した特定結果を、監視対象物2を識別する識別情報、及び、撮影時刻に関連付けて、位置特定結果105として格納し(S111)、全体の処理は終了する。
 本実施形態には、複数の撮影機器によって撮影された画像から、監視対象物に関する位置情報を高精度に算出する効果がある。その理由は、比較部101-iが、各撮影機器によって撮影された画像から算出された監視対象物の位置情報と、位置算出結果104、及び、位置特定結果105における位置情報との差分を比較し、比較結果が所定の基準を満たさない場合、その撮影機器によって撮影された画像から算出された位置情報を破棄するからである。
 複数の撮影機器のいずれかによって撮影された画像に不具合がある場合、その画像から算出した監視対象物の位置情報の誤差は大きくなり、特定部102がその誤差の大きい位置情報を使用すると、監視対象物に関する位置の特定結果は、精度の悪いものとなる。
 例えば、監視対象物が歩く人である場合、人が高速で移動することはあり得ず、人が単位時間に移動する距離には上限がある。もし、ある撮影機器によって撮影された画像から算出された、監視対象物に関する位置情報から算出した監視対象物の移動距離が、上述の上限を超えている場合、その撮影機器によって撮影された画像に不具合があり、算出部が誤った位置情報を算出した可能性が高い。
 本実施形態では、記憶部103が、複数の撮影機器によって撮影された画像から算出された監視対象物に関する周期時間毎の位置情報を記憶する。そして、比較部101-iが、1周期時間前や2周期時間前の位置情報と現在の位置情報との差分と、上述した移動の上限値を基に、不具合のある位置情報を破棄することで、特定部102が高い精度で監視対象物の位置を特定することが可能となる。
 また、本実施形態では、比較部101-iは、位置算出結果104のみならず、位置特定結果105も上述した比較のために参照する。位置算出結果104には、場合によっては、精度のあまり高くない位置情報を包含している可能性があり、比較部101が位置特定結果105も参照することで、特定部102が特定した位置特定結果の精度をさらに高めることが可能となる。
 <第2の実施形態>
 次に、本願発明の第2の実施形態について図面を参照して詳細に説明する。
 図7は、本願発明の第2の実施形態に係る位置管理システムの構成を示すブロック図である。
 位置管理システム1は、位置管理装置10と、撮影機器20-1とを備えている。位置管理装置10は、算出部100-1と、比較部101-1と、記憶部103とを備えている。算出部100-1は、撮影機器20-1が周期的に撮影した監視対象物2に、監視対象物識別情報を付与し、監視対象物2に関する位置情報を、監視対象物2を撮影した撮影画像から算出する。記憶部103は、上述の位置情報を、監視対象物2を識別する識別情報、及び、撮影時刻に関連付けて、位置算出結果104として記憶する。
 比較部101-1は、監視対象物2について、現在の位置情報の値と、記憶部103に記憶された、現在から1周期前、及び、2周期前の撮影時刻における位置情報の値との差分の絶対値を、所定の基準値と比較する。そして、比較部101-1は、少なくとも何れか1つの上述の撮影時刻における、差分の絶対値が基準値未満である場合、現在の位置情報を出力する。
 比較部101-1は、位置算出結果104から抽出したデータについて、撮影機器20-1から抽出された時刻tにおけるX座標、Y座標との差分の絶対値を算出し、基準値α及びβとの比較を行う。比較部101-1における、監視対象物2の位置情報に関する個々の有効性判定動作は、第一の実施形態と同様である。
 次に図8のフローチャートを参照して、本実施形態の動作について詳細に説明する。
 撮影機器20-1は、時刻tに監視対象物2を撮影した撮影画像を、算出部100-1に送信する(S301)。算出部100-1は、監視対象物2を識別する識別情報を付与し、監視対象物2に関する位置情報を、撮影機器20-1の撮影画像から算出し、算出結果を比較部101-1と記憶部103に送信する(S302)。記憶部103は、算出部100-1から受信した監視対象物2に関する時刻tにおける位置情報を、撮影機器20-1を識別する識別情報、監視対象物2を識別する識別情報、及び、撮影時刻に関連付けて、位置算出結果104として格納する(S303)。比較部101-1は、監視対象物2に関する時刻(t-1)における位置情報を、記憶部103における位置算出結果104から抽出して、算出部100-1から受信した時刻tにおける位置情報との差分の絶対値を算出し、基準値と比較する(S304)。
 差分の絶対値が基準値以上の場合(S305でYes)、処理はS306へ分岐し、差分の絶対値が基準値未満の場合(S305でNo)、処理はS308へ分岐する。比較部101-1は、監視対象物2に関する時刻(t-2)における位置情報を、記憶部103における位置算出結果104から抽出して、算出部100-1から受信した時刻tにおける位置情報との差分の絶対値を算出し、基準値と比較する(S306)。差分の絶対値が基準値以上の場合(S307でYes)、比較部101-1は、時刻tにおける位置情報を破棄し(S309)、全体の処理は終了する。差分の絶対値が基準値未満の場合(S307でNo)、比較部101-1は、時刻tにおける位置情報を出力し(S308)、全体の処理は終了する。
 本実施形態には、撮影機器によって撮影された画像から、監視対象物に関する位置情報を高精度に算出をする効果がある。その理由は、比較部101-1が、撮影機器によって撮影された画像から算出された監視対象物に関する位置情報と、位置算出結果104における位置情報との差分を比較し、比較結果が所定の基準を満たさない場合、撮影機器によって撮影された画像から算出された位置情報を破棄するからである。
 比較部101-1が出力した位置情報は、例えば、第一の実施形態と同様に、監視対象物に関する位置情報を特定するために使用され、比較部101-1が誤差の大きい位置情報を破棄することで、位置の特定における精度の低下を回避することが可能となる。
<ハードウェア構成例>
 上述した実施形態において図1、及び、図7に示した各部は、ソフトウェアプログラムの機能(処理)単位(ソフトウェアモジュール)と捉えることができる。但し、これらの図面に示した各部の区分けは、説明の便宜上の構成であり、実装に際しては、様々な構成が想定され得る。この場合のハードウェア環境の一例を、図9を参照して説明する。
 図9は、本発明の模範的な実施形態に係る位置管理装置を実行可能な情報処理装置900(コンピュータ)の構成を例示的に説明する図である。即ち、図9は、図1、及び、図7に示した情報処理装置を実現可能なコンピュータ(情報処理装置)の構成であって、上述した実施形態における各機能を実現可能なハードウェア環境を表す。
 図9に示した情報処理装置900は、CPU901(Central_Processing_Unit)、ROM902(Read_Only_Memory)、RAM903(Random_Access_Memory)、ハードディスク904(記憶装置)、外部装置との通信インタフェース905(Interface:以降、「I/F」と称する)、CD-ROM(Compact_Disc_Read_Only_Memory)等の記憶媒体907に格納されたデータを読み書き可能なリーダライタ908、及び、入出力インタフェース909を備え、これらの構成がバス906(通信線)を介して接続された一般的なコンピュータである。
 そして、上述した実施形態を例に説明した本発明は、図9に示した情報処理装置900に対して、その実施形態の説明において参照したブロック構成図(図1、及び、図7)或いはフローチャート(図2、図3、図8)の機能を実現可能なコンピュータプログラムを供給した後、そのコンピュータプログラムを、当該ハードウェアのCPU901に読み出して解釈し実行することによって達成される。また、当該装置内に供給されたコンピュータプログラムは、読み書き可能な揮発性の記憶メモリ(RAM903)またはハードディスク904等の不揮発性の記憶デバイスに格納すれば良い。
 また、前記の場合において、当該ハードウェア内へのコンピュータプログラムの供給方法は、CD-ROM等の各種記憶媒体907を介して当該装置内にインストールする方法や、インターネット等の通信回線を介して外部よりダウンロードする方法等のように、現在では一般的な手順を採用することができる。そして、このような場合において、本発明は、係るコンピュータプログラムを構成するコード或いは、そのコードが格納された記憶媒体907によって構成されると捉えることができる。
 以上、上述した実施形態を模範的な例として本発明を説明した。しかしながら、本発明は、上述した実施形態には限定されない。即ち、本発明は、本発明のスコープ内において、当業者が理解し得る様々な態様を適用することができる。
 この出願は、2012年7月2日に出願された日本出願特願2012-148404を基礎とする優先権を主張し、その開示の全てをここに取り込む。
 1  位置管理システム
 2  監視対象物
 10  位置管理装置
 100-1乃至100-3  算出部
 101-1乃至101-3  比較部
 102  特定部
 103  記憶部
 104  位置算出結果
 105  位置特定結果
 106  判定結果一覧
 20-1乃至20-3  撮影機器
 900  情報処理装置
 901  CPU
 902  ROM
 903  RAM
 904  ハードディスク
 905  通信インタフェース
 906  バス
 907  記憶媒体
 908  リーダライタ
 909  入出力インタフェース

Claims (7)

  1.  撮影機器が周期的に撮影した監視対象物に、監視対象物識別情報を付与し、前記監視対象物に関する位置情報を、前記監視対象物を撮影した撮影画像から算出する算出手段と、
     前記位置情報を、前記監視対象物識別情報、及び、撮影時刻に関連付けて記憶する記憶手段と、
     前記監視対象物について、現在の前記位置情報の値と、前記記憶手段に記憶された、現在から1周期前、及び、2周期前の前記撮影時刻における前記位置情報の値との差分の絶対値を、所定の基準値と比較をして、前記1周期前の前記撮影時刻における、前記差分の絶対値が前記基準値以上であっても、前記2周期前の前記撮影時刻における、前記差分の絶対値が前記基準値未満である場合、前記現在の前記位置情報を出力する比較手段と、
     を備える位置管理装置。
  2.  複数の前記撮影機器によって撮影された前記撮影画像を各々入力する複数の前記算出手段と、
     複数の前記算出手段が算出した前記位置情報を各々入力する複数の前記比較手段と、
     複数の前記比較手段から出力された前記位置情報を統合して、前記監視対象物の位置を特定した位置特定情報を出力する特定手段と、をさらに備え、
     前記記憶手段は、前記位置特定情報を、前記監視対象物識別情報、及び、前記撮影時刻に関連付けて記憶し、
     前記比較手段は、前記監視対象物について、現在の前記位置情報の値と、前記記憶手段に記憶された、現在から1周期前、及び、2周期前の前記撮影時刻における前記位置特定情報の値との差分の絶対値を、所定の基準値と比較をして、前記1周期前の前記撮影時刻における、前記差分の絶対値が前記基準値以上であっても、前記2周期前の前記撮影時刻における、前記差分の絶対値が前記基準値未満である場合、前記現在の前記位置情報を出力する
     請求項1の位置管理装置。
  3.  請求項1乃至2の位置管理装置と、前記撮影機器とを包含する位置管理システム。
  4.  撮影機器が周期的に撮影した監視対象物に、監視対象物識別情報を付与し、前記監視対象物に関する位置情報を、前記監視対象物を撮影した撮影画像から算出し、
     前記位置情報を、前記監視対象物識別情報、及び、撮影時刻に関連付けて記憶域に記憶し、
     前記監視対象物について、現在の前記位置情報の値と、前記記憶域に記憶された、現在から1周期前、及び、2周期前の前記撮影時刻における前記位置情報の値との差分の絶対値を、所定の基準値と比較をして、少なくとも何れか1つの前記撮影時刻における、前記差分の絶対値が前記基準値未満である場合、前記現在の前記位置情報を出力する
     位置管理方法。
  5.  複数の前記撮影機器によって撮影された前記撮影画像を各々入力し、
     複数の前記撮影機器によって撮影された前記撮影画像から算出した前記位置情報を各々入力し、
     複数の前記位置情報を統合して、前記監視対象物の位置を特定した位置特定情報を出力し、
     前記位置特定情報を、前記監視対象物識別情報、及び、前記撮影時刻に関連付けて前記記憶域に記憶し、
     前記監視対象物について、現在の前記位置情報の値と、前記記憶域に記憶された、現在から1周期前、及び、2周期前の前記撮影時刻における前記位置特定情報の値との差分の絶対値を、所定の基準値と比較をして、前記1周期前の前記撮影時刻における、前記差分の絶対値が前記基準値以上であっても、前記2周期前の前記撮影時刻における、前記差分の絶対値が前記基準値未満である場合、前記現在の前記位置情報を出力する
     請求項4の位置管理方法。
  6.  撮影機器が周期的に撮影した監視対象物に、監視対象物識別情報を付与し、前記監視対象物に関する位置情報を、前記監視対象物を撮影した撮影画像から算出する算出処理と、
     前記位置情報を、前記監視対象物識別情報、及び、撮影時刻に関連付けて記憶域に記憶する記憶処理と、
     前記監視対象物について、現在の前記位置情報の値と、前記記憶域に記憶された、現在から1周期前、及び、2周期前の前記撮影時刻における前記位置情報の値との差分の絶対値を、所定の基準値と比較をして、前記1周期前の前記撮影時刻における、前記差分の絶対値が前記基準値以上であっても、前記2周期前の前記撮影時刻における、前記差分の絶対値が前記基準値未満である場合、前記現在の前記位置情報を出力する比較処理と、
     をコンピュータに実行させる位置管理プログラム。
  7.  複数の前記撮影機器によって撮影された前記撮影画像を各々入力する複数の前記算出処理と、
     複数の前記算出処理が算出した前記位置情報を各々入力する複数の前記比較処理と、
     複数の前記比較処理から出力された前記位置情報を統合して、前記監視対象物の位置を特定した位置特定情報を出力する特定処理と、をコンピュータに実行させ、
     前記記憶処理は、前記位置特定情報を、前記監視対象物識別情報、及び、前記撮影時刻に関連応付けて記憶域に記憶し、
     前記比較処理は、前記監視対象物について、現在の前記位置情報の値と、前記記憶域に記憶された、現在から1周期前、及び、2周期前の前記撮影時刻における前記位置特定情報の値との差分の絶対値を、所定の基準値と比較をして、前記1周期前の前記撮影時刻における、前記差分の絶対値が前記基準値以上であっても、前記2周期前の前記撮影時刻における、前記差分の絶対値が前記基準値未満である場合、前記現在の前記位置情報を出力する
     請求項6の位置管理プログラム。
PCT/JP2013/004030 2012-07-02 2013-06-28 位置管理装置、位置管理システム、位置管理方法、及び、位置管理プログラム WO2014006859A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014523585A JP6015756B2 (ja) 2012-07-02 2013-06-28 位置管理装置、位置管理システム、位置管理方法、及び、位置管理プログラム
US14/411,985 US9418428B2 (en) 2012-07-02 2013-06-28 Position management device, position management system, position management method, and position management program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012-148404 2012-07-02
JP2012148404 2012-07-02

Publications (1)

Publication Number Publication Date
WO2014006859A1 true WO2014006859A1 (ja) 2014-01-09

Family

ID=49881635

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/004030 WO2014006859A1 (ja) 2012-07-02 2013-06-28 位置管理装置、位置管理システム、位置管理方法、及び、位置管理プログラム

Country Status (3)

Country Link
US (1) US9418428B2 (ja)
JP (1) JP6015756B2 (ja)
WO (1) WO2014006859A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105072414B (zh) * 2015-08-19 2019-03-12 浙江宇视科技有限公司 一种目标检测和跟踪方法及系统

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6495705B2 (ja) * 2015-03-23 2019-04-03 株式会社東芝 画像処理装置、画像処理方法、画像処理プログラムおよび画像処理システム
JPWO2020145004A1 (ja) * 2019-01-10 2021-10-28 日本電気株式会社 撮影ガイド装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005217786A (ja) * 2004-01-29 2005-08-11 Victor Co Of Japan Ltd 映像記録装置及び映像記録方法
JP2010206404A (ja) * 2009-03-02 2010-09-16 Secom Co Ltd 画像監視装置
JP2010237971A (ja) * 2009-03-31 2010-10-21 Saxa Inc 歩きたばこ監視装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6693648B1 (en) * 2000-11-22 2004-02-17 Campus Crusade For Christ, Inc. Pointer interactive apparatus
US7424056B2 (en) * 2003-07-04 2008-09-09 Sigmatel, Inc. Method for motion estimation and bandwidth reduction in memory and device for performing the same
JP3949628B2 (ja) 2003-09-02 2007-07-25 本田技研工業株式会社 車両の周辺監視装置
JP4650669B2 (ja) * 2004-11-04 2011-03-16 富士ゼロックス株式会社 動体認識装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005217786A (ja) * 2004-01-29 2005-08-11 Victor Co Of Japan Ltd 映像記録装置及び映像記録方法
JP2010206404A (ja) * 2009-03-02 2010-09-16 Secom Co Ltd 画像監視装置
JP2010237971A (ja) * 2009-03-31 2010-10-21 Saxa Inc 歩きたばこ監視装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105072414B (zh) * 2015-08-19 2019-03-12 浙江宇视科技有限公司 一种目标检测和跟踪方法及系统

Also Published As

Publication number Publication date
JP6015756B2 (ja) 2016-10-26
US20150161794A1 (en) 2015-06-11
JPWO2014006859A1 (ja) 2016-06-02
US9418428B2 (en) 2016-08-16

Similar Documents

Publication Publication Date Title
US10572736B2 (en) Image processing apparatus, image processing system, method for image processing, and computer program
EP2640057B1 (en) Image processing device, image processing method and program
CN110834327B (zh) 一种机器人的控制方法及设备
US9477891B2 (en) Surveillance system and method based on accumulated feature of object
US20160142680A1 (en) Image processing apparatus, image processing method, and storage medium
CN112232279B (zh) 一种人员间距检测方法和装置
US9295141B2 (en) Identification device, method and computer program product
KR20180101746A (ko) 증강 현실 컨텐츠를 제공하기 위한 방법, 전자 기기 및 시스템
US20150146006A1 (en) Display control apparatus and display control method
KR101493009B1 (ko) 전후면 차량 번호 인식 방법과 그 시스템
US20150078618A1 (en) System for tracking dangerous situation in cooperation with mobile device and method thereof
KR102303779B1 (ko) 복수 영역 검출을 이용한 객체 탐지 방법 및 그 장치
US8284292B2 (en) Probability distribution constructing method, probability distribution constructing apparatus, storage medium of probability distribution constructing program, subject detecting method, subject detecting apparatus, and storage medium of subject detecting program
CN105898208A (zh) 监控系统、监控摄像机和图像处理方法
JP6015756B2 (ja) 位置管理装置、位置管理システム、位置管理方法、及び、位置管理プログラム
JP2017010527A (ja) 対象を追跡するための方法および装置
KR102055275B1 (ko) IoT를 이용한 통합 재난 관리 시스템 및 제어 방법
TW202242803A (zh) 定位方法、裝置、電子設備及儲存媒體
JP2009152733A (ja) 人物特定システム、人物特定装置、人物特定方法および人物特定プログラム
Karakaya et al. Collaborative localization in visual sensor networks
KR20160072617A (ko) 감시 카메라 및 감시 카메라 제어 방법
US10943102B2 (en) Computer vision system that provides information relative to animal wellness and habitat/intervention design
JP2008085832A (ja) 監視カメラ、監視カメラの制御方法および監視カメラシステム
JP5354697B2 (ja) 混雑状況管理システム、混雑状況管理装置、混雑状況管理方法、プログラム
JP2016225892A (ja) 画像監視装置、画像監視方法及び画像監視プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13813301

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2014523585

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14411985

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13813301

Country of ref document: EP

Kind code of ref document: A1