WO2013183738A1 - 情報処理装置、情報処理方法、プログラムおよび監視カメラシステム - Google Patents

情報処理装置、情報処理方法、プログラムおよび監視カメラシステム Download PDF

Info

Publication number
WO2013183738A1
WO2013183738A1 PCT/JP2013/065758 JP2013065758W WO2013183738A1 WO 2013183738 A1 WO2013183738 A1 WO 2013183738A1 JP 2013065758 W JP2013065758 W JP 2013065758W WO 2013183738 A1 WO2013183738 A1 WO 2013183738A1
Authority
WO
WIPO (PCT)
Prior art keywords
map
conversion
person
camera
area
Prior art date
Application number
PCT/JP2013/065758
Other languages
English (en)
French (fr)
Inventor
向井 仁志
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to EP13801420.4A priority Critical patent/EP2860970A4/en
Priority to CN201380029066.7A priority patent/CN104335577B/zh
Priority to US14/404,113 priority patent/US9886761B2/en
Priority to JP2014520061A priority patent/JP6206405B2/ja
Publication of WO2013183738A1 publication Critical patent/WO2013183738A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7837Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7847Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content
    • G06F16/786Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content using motion, e.g. object motion or camera motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/188Capturing isolated or intermittent images triggered by the occurrence of a predetermined event, e.g. an object reaching a predetermined position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Definitions

  • the present technology relates to an information processing apparatus, an information processing method, a program, and a monitoring camera system, and more particularly, to an information processing apparatus that performs processing for displaying an existing position of an object captured by a camera on a map.
  • Patent Document 1 proposes that a user manually inputs information on a point on a camera image and a corresponding point on a map, and calculates a parameter of a conversion formula based on the information. Yes.
  • the purpose of this technology is to reduce user's effort and improve usability.
  • a conversion unit that converts the position of the object on the camera image into a position on the map using a conversion formula; Based on the conversion result, a display unit that displays the position of the object on the map; An area setting unit for setting an available area of the object on the map; Based on the conversion result at each time within a predetermined time and the set existence possible area of the object, the conversion is performed so that the locus on the map of the object is within the existence possible area.
  • An information processing apparatus includes a parameter determination unit that determines a parameter of an expression.
  • the position of the object on the camera image for example, a person is converted into a position on the map using a conversion formula by the conversion unit.
  • the display unit displays the position of the object on the map based on the conversion result. In this case, for example, an icon indicating the object is displayed at the position of the object on the map.
  • the area where the target object can exist on the map is set by the area setting unit. This setting is performed based on, for example, designation of an area where the object can exist on the map by the user.
  • the parameter determination unit determines the parameters of the conversion formula. That is, the parameters of the conversion formula are determined so that the trajectory on the map of the target object is within the existing target area based on the conversion result at each time within the predetermined time and the set target target target target area. Is done.
  • the parameter determination unit obtains and uses a trajectory on the map for each object.
  • the object is a person
  • a person extracting unit that extracts a person from a camera image and obtains the position of the person is further provided.
  • an initial value setting unit that sets initial values of parameters of the conversion formula based on the user input value and the fixed value is further provided.
  • the parameters of the conversion formula are determined so that the locus on the map of the target object is within the existence possible area according to the user designation. Therefore, the parameters of the conversion formula can be determined with a small burden on the user. Therefore, it is possible to reduce the user's trouble and improve the usability.
  • the parameter determination unit determines the parameter of the conversion formula based on the conversion result of the immediately preceding fixed time and the set target object existence area at fixed time intervals. May be.
  • the parameters of the conversion formula can be updated so as to be more optimal at regular time intervals, and it is possible to cope with changes with time due to some factors.
  • the parameter determination unit determines the parameter of the conversion formula so that the trajectory on the map of the target object is farther from the boundary of the set target object possible area. It may be made like. Thereby, the parameters of the conversion formula can be determined to be more optimal.
  • the parameter determination unit may determine the parameters of the conversion formula so that the moving speed of the object on the map is constant. Thereby, the parameters of the conversion formula can be determined to be more optimal.
  • FIG. 1 shows an example of a surveillance camera system 10 as an embodiment.
  • the monitoring camera system 10 includes a monitoring camera 11, a personal computer (PC) 12 as an information processing apparatus that processes a captured image of the monitoring camera 11, and a monitor 13.
  • PC personal computer
  • the surveillance camera system 10 is a system that shows on the map displayed on the monitor 13 the position where the person 21 reflected in the surveillance camera 11 exists.
  • the surveillance camera system 10 is intended to assist the security staff (Security Stuff) 22 who monitors the captured image of the surveillance camera 11, and where the person 21 reflected in the surveillance camera 11 is located on the map. It is possible to grasp whether it is present.
  • the map means, for example, a view of the space where the surveillance camera 11 is installed as viewed from above.
  • this map is a sketch of the floor of the building where the surveillance camera 11 is installed, as shown.
  • a camera icon (camera icon) is displayed corresponding to the installation position of the surveillance camera 11
  • a person icon (human icon) is displayed corresponding to the position of the person 21.
  • the personal computer (hereinafter simply referred to as “computer”) 12 calculates the position of the person 21 on the map from the position of the person 21 reflected on the monitoring camera 11 on the camera image.
  • Expressions (1) and (2) below are expressions for calculating the position (u, v) on the map from the position (x, y) of the person 21 on the camera image.
  • Equation (3) shows a specific example of a function form. However, this example is an example, and the present invention is not limited to this.
  • (W, H) of this function is a known quantity
  • (X, Y, Z, ⁇ , ⁇ , ⁇ , f, s) are variables determined by the installation state of the camera.
  • These eight variables are parameters of the conversion formula, and are hereinafter referred to as “camera parameters”. That is, in order to calculate the position (u, v) on the map of the person 21 from the position (x, y) on the camera image of the person 21 reflected on the monitoring camera 11, the personal computer 12 uses this camera parameter. The process of determining is executed at regular time intervals.
  • the point of this technology is that the user specifies the possible area of the person 21 on the map in advance. That is, for example, when an office floor plan as shown in FIG. 3A is used as a map, as shown in FIG. 3B, an area that can be seen from the camera and that can exist, such as this example Then, the user specifies the area of the corridor in advance. In FIG. 3B, the hatched area is that area. In this example, the interior of each room is not visible to the camera, so it does not fall into that area. The user designates the area using a draw tool or the like.
  • the person 21 is detected from the camera image at each time, and the detection position is sequentially recorded, thereby acquiring the trajectory on the camera image of the person reflected in the camera in the past.
  • camera parameters are obtained from information on a person's possible area and information on past human trajectories.
  • the camera parameters are obtained by quantifying the degree of fit and the degree of protrusion of the person in the possible existence area and using the result as an evaluation function.
  • FIG. 7 shows a functional block diagram of the monitoring camera 11 and the computer 12 constituting the monitoring camera system 10 shown in FIG.
  • the surveillance camera 11 includes an imaging unit 111 and an image data transmission unit 112.
  • the imaging unit 111 includes a CMOS image sensor, a CCD image sensor, and the like, and obtains a captured image.
  • the image data transmission unit 112 transmits the captured image (camera image) to the computer 12 as an information processing apparatus by wireless or wired.
  • the computer 12 includes an image data receiving unit 121, a person position extracting unit 122, an ID assigning unit 123, a person position recording unit 124, a trajectory information holding unit 125, a map position calculating unit 126, and a camera parameter holding unit. 127 and a camera parameter update unit 128. Each of these parts is a part that exists for each camera.
  • the computer 12 includes a map position display unit 131, a possible area information input unit 132, and a possible area information holding unit 133. These units are common to the cameras.
  • the image data receiving unit 121 receives a captured image (camera image) sent from the monitoring camera 11.
  • the person position extraction unit 122 extracts a position (x, y) on the person image shown in the camera image.
  • the ID assigning unit 123 assigns an ID (serial number) for each person to the extracted person position.
  • the person position recording unit 124 records information on the person position to which the ID is assigned in the trajectory information holding unit 125.
  • the information of person positions having the same ID is collectively referred to as “trajectory”.
  • the camera parameter update unit 128 obtains and updates camera parameters based on the information about the trajectories held in the trajectory information holding unit 125 and the possible area of the person 21 at regular time intervals.
  • the camera parameter holding unit 127 holds camera parameters updated at regular intervals.
  • the on-map position calculation unit 126 calculates a position (u, v) on the map from the extracted person position (x, y) using the stored parameters of the conversion formula.
  • the map position display unit 131 indicates the presence of the person 21 at the calculated map position (u, v) on the map displayed on the screen of the monitor 13. For example, an icon indicating the person 21 is displayed at the position (u, v) on the map.
  • the presence area information input unit 132 is an input unit for the user to specify an area where the person 21 can exist on the map. Based on the user designation, the possible area of the person 21 is set, and the possible area information holding unit 133 holds the information.
  • step ST5 to step ST12 are performed in parallel for each camera.
  • step ST ⁇ b> 2 the computer 12 prepares image data of a map (plan view viewed from above) of the area where the monitoring camera 11 is installed and displays it on the screen of the monitor 13.
  • step ST ⁇ b> 3 the computer 12 sets an area that can be seen from the monitoring camera on the map and can contain a person (existable area). The computer 12 performs this setting based on the user's area designation input.
  • step ST4 the computer 12 sets initial values of camera parameters.
  • initial values For each camera, an approximate position on the camera map, installation height, camera direction, depression angle, rotation angle, and scale are set. Since the position of the camera on the map and the direction of the camera are different for each camera, for example, the user is asked to specify an approximate value.
  • general values may be assigned in advance to each camera as fixed values.
  • step ST5 the computer 12 acquires a camera image (captured image).
  • step ST6 when the person 21 is reflected in the camera image, the computer 12 extracts the position (x, y) of the person 21 on the image. When there are a plurality of persons 21, the positions of all the persons 21 are obtained.
  • the position refers to the position of the foot of the person 21.
  • the position of the upper left corner of the rectangle on the camera image is (xul, yul)
  • the position of the lower right corner on the camera image is (xlr, ylr)
  • x and y are values represented by the following formulas (4) and (5), respectively.
  • x (xlr ⁇ xul) / 2
  • y ylr (5)
  • the method using the background difference is described in, for example, the non-patent document “Adaptive background mixture models—for real-time tracking” C. Stauffer, “W.E.L.” Grimson, “Computer Vision” and “Pattern Recognition”, “1999”.
  • a method for discovering and extracting features unique to a person who has learned in advance is described in, for example, non-patent literature ⁇ Histograms of Oriented Gradients for Human Detection '' N.Dalal, B.Triggs, Computer Vision and Pattern Recognition, 2005 '' Are listed.
  • step ST7 the computer 12 assigns a person ID. That is, an ID (serial number) is assigned to the person position extracted in step ST6. For example, immediately after the start of processing, if there is one extracted person position, the number is “1”, and if there are three extracted person positions, the numbers are “1”, “2”, and “3”. Assign.
  • ID serial number
  • ID assignment is tracking. This is performed so that the position of the same person at each time can be collectively handled in a later step as the locus of the person. That is, if there is a person position that is considered to be the same as this person among the person positions extracted at the previous time with respect to the person position extracted from the camera image at the current time, The same ID as that assigned to the person position is assigned.
  • the following procedure is performed for each person position extracted from the camera image at the current time.
  • the allocation process ends here, and the subsequent steps are not performed.
  • step ST8 the computer 12 records the extracted person position (x, y) information on the hard disk of the computer 12 together with the time and ID.
  • the information on the person position having the same ID is collectively referred to as a locus.
  • step ST9 the computer 12 converts the position (u, v) of the person 21 on the map from the position (x, y) of the person 21 on the camera image to the above-described conversion formula (formula (1)). , See formula (2)).
  • the calculation is performed independently for each position.
  • step ST10 based on the calculated position of the person 21 on the map, the computer 12 adds a human icon indicating the person to the corresponding position on the map image as shown in FIG. indicate.
  • the computer 12 determines whether or not a certain time has passed since the previous camera parameter update process.
  • the fixed time is an amount set in advance and is, for example, a time such as a half day, a day, or a week.
  • step ST5 If the predetermined time has not elapsed, the computer 12 returns to the processing of step ST5 and repeats the same processing as described above at every fixed time, for example, every one frame or every several frames. On the other hand, if the predetermined time has elapsed, the computer 12 performs a camera parameter update process in step ST12, and then returns to the process of step ST5.
  • the camera parameter update process is a process for obtaining a camera parameter that maximizes the value of the following formula (6) and replacing the current camera parameter with the obtained camera parameter.
  • the computer 12 uses a general optimization method, for example, the steepest descent method (hill climbing method), the quasi-Newton method, the Levenberg-Markert method, etc., for the camera parameter that maximizes the value of the equation (6).
  • the steepest descent method hill climbing method
  • the quasi-Newton method the quasi-Newton method
  • the Levenberg-Markert method etc.
  • the flowchart of FIG. 11 shows the procedure of the camera parameter update process.
  • the computer 12 sets the current camera parameter H to H 0 .
  • the computer 12 obtains a camera parameter H (hat) that maximizes the value of the above equation (6).
  • the computer 12 replaces the current camera parameter H with H (hat) obtained in step ST22.
  • the computer 12 calculates p (H) in the above equation (6) as shown in the following equation (7).
  • p (H) N (X 0 , ⁇ X 2 ) ⁇ N (Y 0 , ⁇ Y 2 ) ⁇ N (Z 0 , ⁇ Z 2 ) ⁇ N ( ⁇ 0 , ⁇ ⁇ 2 ) ⁇ N ( ⁇ 0 , ( ⁇ ⁇ 2 ) ⁇ N ( ⁇ 0 , ⁇ ⁇ 2 ) ⁇ N (f 0 , ⁇ f 2 ) ⁇ N (s 0 , ⁇ s 2 ) (7)
  • N ( ⁇ , ⁇ 2 ) represents a normal distribution with an average value ⁇ and a variance ⁇ 2 .
  • N (X 0 , ⁇ X 2 ) is as shown in the following formula (8).
  • the variance ( ⁇ X 2 , ⁇ Y 2 , ⁇ Z 2 , ⁇ ⁇ 2 , ⁇ ⁇ 2 , ⁇ ⁇ 2 , ⁇ f 2 , ⁇ s 2 ) of each parameter is determined according to the respective feature (for example, (X, Y, Z) is set in advance in view of general variation in camera position input from the user, and depression angle ( ⁇ ) and rotation angle ( ⁇ ), which are typical ranges for surveillance cameras). .
  • the computer 12 calculates p (Pi
  • H) E 1 (Pi, H) ⁇ E 2 (Pi, H) (9)
  • E 1 (Pi, H) is a function for evaluating the degree of fit of the locus Pi with respect to the person's possible area, and is calculated as shown in the following equation (10).
  • L is the total number of points (person positions) constituting the i-th trajectory.
  • (X i j , y i j ) represents the coordinate value of the person position at the j-th time in the i-th trajectory.
  • d min represents the shortest distance from the point (u, v) to the boundary of the person's possible area as shown in FIG.
  • E 1 (Pi, H) gives a higher evaluation as the trajectory is located inside the human existence possible area. This is based on the premise that there are generally more people walking in the center than at the end of the passage.
  • E 2 (Pi, H) is a function for evaluating a certain degree of walking speed on the trajectory Pi, and gives a higher evaluation value as the distance between adjacent points constituting the trajectory is constant.
  • This E 2 (Pi, H) is calculated as shown in Equation (11) below. In this case, the dispersion of distances between adjacent points is obtained. This is based on the premise that when a person normally walks, the walking speed is approximately constant, that is, there is little variation.
  • H) E 1 (Pi, H) ⁇ E 2 (Pi, H) ⁇ E 3 (Pi, H) (12)
  • N is the total number of person positions accumulated for a certain time.
  • xj and yj are the j-th position coordinates.
  • Equation (13) allows a slight error in the extraction of the person position.
  • the mathematical expression (13) does not include evaluation regarding walking speed.
  • Equation (13) When using Equation (13), the evaluation is simplified compared to using Equation (6). However, the emphasis is on ease of mounting and lightness of processing. This is because it is only necessary to have information on the position of each moment of the person extracted during a certain period in the past, and no “trajectory” is required. That is, since the assignment operation of the person ID in step ST7 in the flowchart of FIG. 8 is not required, the mounting is facilitated and the processing is lightened accordingly.
  • the camera parameters are determined so that the position (trajectory) of the person on the map falls within the possible area according to the user designation. Is. That is, the user only has to specify the possible area, and the camera parameters can be determined with a small burden on the user. Therefore, it is possible to reduce the user's trouble and improve the usability.
  • camera parameters are determined and updated at regular time intervals based on the conversion result of the immediately preceding constant time and the set human existence area. is there. Therefore, the camera parameters can be updated to be more optimal at regular intervals, and it is possible to cope with changes with time due to some factors.
  • the camera parameters are determined so that the position (trajectory) of the person on the map is farther from the boundary of the set object possible area. It is. Accordingly, the camera parameters can be determined to be more optimal.
  • the parameters of the conversion formula are determined so that the moving speed of the person on the map is constant. Accordingly, the camera parameters can be determined to be more optimal.
  • the target object is a person
  • the monitoring target is not limited to a person.
  • An object other than a person or a moving object such as an automated person, a motorcycle, or a bicycle can be used as a target.
  • the present technology is similarly applied to a surveillance camera system in which the surveillance camera 11 is arranged in an urban area. it can.
  • the map in that case is a view of the city area where the surveillance camera 11 is arranged as seen from above.
  • this technique can also take the following structures.
  • a conversion unit that converts the position of an object on a camera image into a position on a map using a conversion formula; Based on the conversion result, a display unit that displays the position of the object on the map; An area setting unit for setting an available area of the object on the map; Based on the conversion result at each time within a predetermined time and the set existence possible area of the object, the conversion is performed so that the locus on the map of the object is within the existence possible area.
  • An information processing apparatus comprising: a parameter determination unit that determines a parameter of the formula.
  • the parameter determination unit The information processing apparatus according to (1), wherein a parameter of the conversion formula is determined for each fixed time based on the conversion result of the immediately preceding fixed time and the set possible area of the object. (3) The parameter determination unit The parameter of the conversion formula is determined so that the trajectory of the object on the map is farther from the boundary of the set object possible area. In (1) or (2), The information processing apparatus described. (4) The parameter determination unit The information processing apparatus according to any one of (1) to (3), wherein parameters of the conversion formula are determined so that a moving speed of the object on the map is constant. (5) The parameter determination unit The information processing apparatus according to any one of (1) to (4), wherein when there are a plurality of objects, a trajectory on the map is obtained and used for each object.
  • the object is a person
  • the information processing apparatus according to any one of (1) to (5), further including a person extraction unit that extracts the person from the camera image and obtains the position of the person.
  • the information processing apparatus according to any one of (1) to (6), further including an initial value setting unit that sets initial values of the parameters of the conversion formula based on a user input value and a fixed value.
  • a conversion step of converting the position of the object on the camera image into a position on the map using a conversion formula Based on the conversion result, a display step for displaying the location of the object on the map; An area setting step for setting a possible area of the object on the map; Based on the conversion result at each time within a predetermined time and the set existence possible area of the object, the conversion is performed so that the locus on the map of the object is within the existence possible area.
  • (9) computer Conversion means for converting the position of the object on the camera image into a position on the map using a conversion formula; Display means for displaying the location of the object on the map based on the conversion result; Area setting means for setting the possible area of the object on the map; Based on the conversion result at each time within a predetermined time and the set possible area of the target object, the conversion is performed so that the locus of the target object on the map is within the possible area.
  • a program that functions as a parameter determination means that determines the parameters of an expression.
  • (10) a surveillance camera; An information processing device that processes a captured image of the monitoring camera, The information processing apparatus A conversion unit that converts the position of the object on the camera image into a position on the map using a conversion formula; Based on the conversion result, a display unit that displays the location of the object on the map; An area setting unit for setting an available area of the object on the map; Based on the conversion result at each time within a predetermined time and the set possible area of the target object, the conversion is performed so that the locus of the target object on the map is within the possible area.
  • a surveillance camera system comprising: a parameter determination unit that determines a parameter of the formula.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Library & Information Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)
  • Alarm Systems (AREA)

Abstract

 カメラで捉えられた対象物の存在位置を地図上に表示するシステムにおいて、ユーザの手間を軽減し、使い勝手の向上を図る。 カメラ画像上の対象物の位置を、変換式を用いて地図上の位置に変換する。変換結果に基づいて、地図上に対象物の存在位置を表示する。ユーザの指定により、地図上における対象物の存在可能領域を設定する。所定時間内の各時刻における変換結果と、設定された対象物の存在可能領域に基づいて、対象物の地図上における軌跡が存在可能領域の内部に収まるように、変換式のパラメータを決定する。

Description

情報処理装置、情報処理方法、プログラムおよび監視カメラシステム
 本技術は、情報処理装置、情報処理方法、プログラムおよび監視カメラシステムに関し、特に、カメラで捉えられた対象物の存在位置を地図上に表示するための処理を行う情報処理装置等に関する。
 従来、監視カメラで捉えられた人物(対象物)の存在位置をパーソナルコンピュータ(PC)のモニタに表示された地図上に示す監視カメラシステムが提案されている。このシステムは、監視カメラの撮像画像を監視する警備員(Security Stuff)の状況把握の補助を目的としたものであり、監視カメラの撮像画像に存在する人物が地図上でどこにいるかを一目で把握できる。
 このシステムでは、カメラ画像上の人物の位置を地図上の位置に変換する必要がある。この変換のために、カメラ画像上の位置を地図上の位置に変換する変換式(算出式)が使用される。この変換式を使用するためには、変換式のパラメータ(カメラパラメータ)を事前に求める必要がある。例えば、特許文献1には、カメラ画像上の点とそれに対応する地図上の点の情報を、ユーザが手動で入力し、その情報に基づいて、変換式のパラメータを算出することが提案されている。
特開2010-193170号公報
 特許文献1に記載の手法では、監視カメラ毎に、ユーザが手動で対応関係を入力しなくてはならず、手間がかかるという問題があった。
 本技術の目的は、ユーザの手間を軽減し、使い勝手の向上を図ることにある。
 本技術の概念は、
 カメラ画像上の対象物の位置を、変換式を用いて地図上の位置に変換する変換部と、
 上記変換結果に基づいて、上記地図上に上記対象物の存在位置を表示する表示部と、
 上記地図上における上記対象物の存在可能領域を設定する領域設定部と、
 所定時間内の各時刻における上記変換結果と、上記設定された上記対象物の存在可能領域に基づいて、上記対象物の上記地図上における軌跡が上記存在可能領域の内部に収まるように、上記変換式のパラメータを決定するパラメータ決定部とを備える
 情報処理装置にある。
 本技術においては、変換部により、カメラ画像上の対象物、例えば人物の位置が、変換式を用いて地図上の位置に変換される。表示部により、変換結果に基づいて、地図上に、対象物の存在位置が表示される。この場合、例えば、地図上の対象物の存在位置に、この対象物を示すアイコンが表示される。
 領域設定部により、地図上における対象物の存在可能領域が、設定される。この設定は、例えば、ユーザによる地図上で対象物が存在し得る領域の指定に基づいて行われる。パラメータ決定部により、変換式のパラメータが決定される。すなわち、変換式のパラメータは、所定時間内の各時刻における変換結果と、設定された対象物の存在可能領域に基づいて、対象物の地図上における軌跡が存在可能領域の内部に収まるように決定される。
 この場合、例えば、パラメータ決定部は、複数の対象物が存在するとき、対象物毎に地図上における軌跡を求めて使用する、ようにされる。また、この場合、例えば、対象物は人物であり、カメラ画像から人物を抽出し、この人物の位置を得る人物抽出部をさらに備える、ようにされる。また、この場合、例えば、ユーザ入力値および固定値に基づいて変換式のパラメータの初期値を設定する初期値設定部をさらに備える、ようにされる。
 このように本技術においては、対象物の地図上における軌跡がユーザ指定に係る存在可能領域の内部に収まるように変換式のパラメータが決定されるものである。そのため、ユーザに対する少ない負担で変換式のパラメータを決定できる。従って、ユーザの手間を軽減し、使い勝手の向上を図ることができる。
 なお、本技術において、例えば、パラメータ決定部は、一定時間毎に、直前の一定時間の変換結果と、設定された対象物の存在可能領域に基づいて、変換式のパラメータを決定する、ようにされてもよい。この場合、一定時間毎に、変換式のパラメータを、より最適となるように更新でき、何等かの要因による経時変化にも対処可能となる。
 また、本技術において、例えば、パラメータ決定部は、対象物の地図上における軌跡が、設定された対象物の存在可能領域の境界からより遠い位置となるように、変換式のパラメータを決定する、ようにされてもよい。これにより、変換式のパラメータをより最適となるように決定できる。
 また、本技術において、例えば、パラメータ決定部は、対象物の地図上での移動速度が一定となるように、変換式のパラメータを決定する、ようにされてもよい。これにより、変換式のパラメータをより最適となるように決定できる。
 本技術によれば、ユーザの手間を軽減し、使い勝手の向上を図ることができる。
実施の形態としての監視カメラシステムの構成例を示すブロック図である。 変換式に含まれるパラメータ(カメラパラメータ)を説明するための図である。 地図上での人物の存在可能領域をユーザが事前に指定することを説明するための図である。 各時刻のカメラ画像から人物を検出し、その検出位置を逐次記録することを説明するための図である。 パラメータが正しい場合、変換された軌跡が全て人物の存在可能領域の内部に収まることを示す図である。 パラメータが正しくない場合、変換された軌跡の一部が人物の存在可能領域からはみ出すことを示す図である。 監視カメラシステムを構成する監視カメラおよびコンピュータの機能ブロック図である。 監視カメラシステムを構成するコンピュータの動作の一例を示すフローチャートである。 人物の位置がその人物の足元の位置を指すことを説明するための図である。 地図上における人物位置の表示例を示す図である。 カメラパラメータの更新処理の手順を示すフローチャートである。 軌跡Pi の人物の存在可能領域に対する収まり度合いを評価する関数を説明するための図である。
 以下、発明を実施するための形態(以下、「実施の形態」とする)について説明する。なお、説明を以下の順序で行う。
 1.実施の形態
 2.変形例
 <1.実施の形態>
 [監視カメラシステムの構成例]
 図1は、実施の形態としての監視カメラシステム10の一例を示している。この監視カメラシステム10は、監視カメラ11と、この監視カメラ11の撮像画像を処理する情報処理装置としてのパーソナルコンピュータ(PC)12と、モニタ13を、備えている。
 この監視カメラシステム10は、監視カメラ11に映った人物21が存在する位置を、モニタ13に表示される地図上に示すシステムである。この監視カメラシステム10は、監視カメラ11の撮像画像を監視する警備員(Security Stuff)22の状況把握の補助を目的としたものであり、監視カメラ11に映っている人物21が地図上でどこにいるのかを人目で把握可能とするものである。
 ここで、地図とは、例えば、監視カメラ11が設置されている空間を上方から見た図を意味する。この実施の形態において、この地図は、図示のように、監視カメラ11が設置されている建物のフロアの見取り図である。この地図上には、監視カメラ11の設置位置に対応してカメラアイコン(camera icon)が表示されると共に、人物21の存在位置に対応して人物アイコン(human icon)が表示される。
 パーソナルコンピュータ(以下、単に、「コンピュータ」という)12は、監視カメラ11に映った人物21のカメラ画像上での位置から、その人物21の地図上での位置を算出する。以下の数式(1)および数式(2)は、人物21のカメラ画像上での位置(x,y)から、地図上での位置(u,v)を算出する式である。
Figure JPOXMLDOC01-appb-M000001
 u,vは、それぞれ、カメラの焦点の3次元位置(X,Y,Z)、カメラの3次元向き(θ,φ,η)、焦点距離 f 、カメラ画像の1画素あたりの長さs[mm/pixel]、幅と高さ(W,H)、そして、カメラ画像上での人物の位置(x,y)の関数になっている(図2参照)。以下の数式(3)は、関数形の具体的な例を示している。しかし、この例は一例であって、これに限定されるものではない。
Figure JPOXMLDOC01-appb-M000002
 この関数の(W,H)は既知の量で、(X,Y,Z,θ,φ,η,f,s)はカメラの設置状態によって決まる変数である。この8個の変数は変換式のパラメータであり、以後、「カメラパラメータ」と呼ぶ。すなわち、監視カメラ11に映った人物21のカメラ画像上での位置(x,y)からその人物の地図上での位置(u,v)を算出するため、パーソナルコンピュータ12は、このカメラパラメータを、一定時間毎に、決定する処理を実行する。
 本技術のポイントは、地図上での人物21の存在可能領域を、ユーザに事前に指定してもらう点にある。すなわち、例えば、図3(a)に示すようなオフィスの見取り図を地図とした場合、図3(b)に示すように、カメラから見える範囲であって、かつ人の存在しうる領域、この例では、廊下(corridor)の領域を、ユーザに予め指定してもらう。図3(b)の中で、ハッチングが施された領域がそれである。この例では、各部屋の内部はカメラからは見えないので当該領域には該当しない。ユーザはドローツールなどを利用して領域を指定する。
 一方で、図4に示すように、各時刻のカメラ画像から人物21を検出し、その検出位置を逐次記録することで、過去にカメラに映った人物のカメラ画像上での軌跡を取得することができる。本技術は、人物の存在可能領域の情報と過去の人の軌跡の情報からカメラパラメータを求める。
 人物のカメラ画像上での軌跡を、カメラパラメータを用いて地図上での軌跡に変換すると、用いたパラメータが正しければ、図5に示すように、変換された軌跡は全て人物の存在可能領域の内部に収まるはずである。もし正しくなければ、図6に示すように、変換された軌跡の一部は人物の存在可能領域からはみ出した結果となる。本技術においては、この人物の存在可能領域への収まり度合やはみ出し度合を定量化し評価関数とすることで、カメラパラメータを求める。
 図7は、図1に示す監視カメラシステム10を構成する監視カメラ11およびコンピュータ12の機能ブロック図を示している。監視カメラ11は、撮像部111と、画像データ送信部112を有している。撮像部111は、CMOSイメージセンサ、CCDイメージセンサなどで構成されており、撮像画像を得る。画像データ送信部112は、撮像画像(カメラ画像)を、無線あるいは有線により、情報処理装置としてのコンピュータ12に送信する。
 コンピュータ12は、画像データ受信部121と、人物位置抽出部122と、ID割り当て部123と、人物位置記録部124と、軌跡情報保持部125と、地図上位置算出部126と、カメラパラメータ保持部127と、カメラパラメータ更新部128を有している。これらの各部は、カメラ毎に存在する部分である。
 また、コンピュータ12は、地図上位置表示部131と、存在可能領域情報入力部132と、存在可能領域情報保持部133を有している。これらの各部は、各カメラで共通の部分である。
 画像データ受信部121は、監視カメラ11から送られてくる撮像画像(カメラ画像)を受信する。人物位置抽出部122は、カメラ画像に映っている人物の画像上の位置(x,y)を抽出する。ID割り当て部123は、抽出した人物位置に、人物毎のID(通し番号)を割り当てる。人物位置記録部124は、IDが割り当てられた人物位置の情報を軌跡情報保持部125に記録する。ここで、同じIDを持つ人物位置の情報をまとめて「軌跡」と呼ぶ。
 カメラパラメータ更新部128は、一定時間毎に、軌跡情報保持部125に保持されている各軌跡と、人物21の存在可能領域の情報に基づいて、カメラパラメータを求めて、更新する。カメラパラメータ保持部127は、一定時間毎に更新されたカメラパラメータを、保持する。地図上位置算出部126は、保持されている変換式のパラメータを使用して、抽出された人物位置(x,y)から、地図上の位置(u,v)を算出する。
 地図上位置表示部131は、モニタ13の画面に表示されている地図の、算出された地図上位置(u,v)に、人物21の存在を示す。例えば、この地図上位置(u,v)に、人物21を示すアイコンを表示する。存在領域情報入力部132は、ユーザが地図上に人物21が存在し得る領域を指定するための入力部である。このユーザ指定に基づいて、人物21の存在可能領域が設定され、存在可能領域情報保持部133はその情報を保持する。
 図1に示す監視カメラシステム10を構成するコンピュータ12の動作を、図8のフローチャートに沿って、説明する。なお、ステップST5からステップST12までの処理は、カメラ毎に並列処理が行われる。
 まず、コンピュータ12は、ステップST1において、動作を開始する。次に、コンピュータ12は、ステップST2において、監視カメラ11が設置されているエリアの地図(上から見た見取り図)の画像データを用意し、モニタ13の画面上に表示する。次に、コンピュータ12は、ステップST3において、地図上で監視カメラから見える範囲であって、かつ、人物の存在し得る領域(存在可能領域)を設定する。コンピュータ12は、この設定を、ユーザの領域指定入力に基づいて行う。
 次に、コンピュータ12は、ステップST4において、カメラパラメータの初期値を設定する。この場合、各カメラについて、カメラの地図上でのおおよその位置、設置高さ、カメラの方向、俯角、回転角、スケールを設定する。カメラの地図上での位置やカメラの方向については、各カメラで異なるので、例えば、ユーザにおおよその値を指定してもらう。また、それ以外のパラメータについては、各カメラに一般的な値を予め固定値として割り当ててもよい。
 次に、コンピュータ12は、ステップST5において、カメラ画像(撮像画像)を取得する。次に、コンピュータ12は、ステップST6において、カメラ画像に人物21が映っている場合、その人物21の画像上での位置(x,y)を抽出する。複数の人物21が存在する場合は、全ての人物21の位置をそれぞれ求める。
 ここで、位置とは、その人物21の足元の位置を指す。例えば、図9に示すように、人物抽出の結果が矩形で与えられる場合、その矩形の左上隅のカメラ画像上の位置を(xul,yul)、右下隅のカメラ画像上の位置を(xlr,ylr)とすると、x,yは、それぞれ、以下の数式(4)、数式(5)に示す値とする。
   x=(xlr-xul)/2   ・・・(4)
   y=ylr          ・・・(5)
 なお、人物の抽出方法には、例えば、背景差分を用いる方法や事前に学習した人物特有の特徴を発見して抽出する方法など種々の方法がある。十分な精度であれば、いずれの方法を用いてもよい。
 背景差分を用いる方法は、例えば、非特許文献「Adaptive background mixture models for real-time tracking」C.Stauffer, W.E.L. Grimson, Computer Vision and Pattern Recognition, 1999」に記載されている。また、事前に学習した人物特有の特徴を発見して抽出する方法は、例えば、非特許文献「Histograms of Oriented Gradients for Human Detection」N.Dalal, B.Triggs, Computer Vision and Pattern Recognition, 2005」に記載されている。
 次に、コンピュータ12は、ステップST7において、人物IDの割り当てを行う。すなわち、ステップST6で抽出した人物位置にID(通し番号)を割り当てる。例えば、処理の開始直後で、抽出した人物位置が1つであれば、「1」という番号を、抽出した人物位置が3つであれば、「1」、「2」、「3」という番号を割り当てる。
 IDの割り当ては、端的に言うと、トラッキングである。同一人物の各時刻での位置を、その人物の軌跡として、後のステップでまとめて扱えるようにするために行う。すなわち、現時刻のカメラの画像から抽出した人物位置に対して、ひとつ前の時刻で抽出された人物位置の中に、この人物と同一と考えられる人物位置が存在する場合は、前の時刻でその人物位置に対して割り当てたIDと同じIDを割り当てる。
 この場合、現時刻のカメラの画像から抽出した人物位置それぞれについて、例えば、次の手順で行う。(1)ひとつ前の時刻の画像から抽出された人物位置の数がゼロの場合、これまでに割り当てていない(=使っていない)新しい番号を当該人物位置のIDとして割り当てる。割り当て処理はここで終了し、以降のステップは行わない。
 (2)ひとつ前の時刻の画像から抽出された人物位置の数がゼロでない場合、そのそれぞれの人物位置について、現時刻の画像から抽出した当該人物位置とのカメラ画像上でのユークリッド距離を計算する。(3)そして、計算された距離の中から最小値を選択する。
 (4)最小値が予め設定された閾値よりも小さければ、その最小値を与えた、前の時刻での人物位置に割り当てたIDと同じIDを割り当てる。割り当て処理はここで終了し、以降のステップは行わない。(5)最小値が予め設定された閾値よりも大きければ、これまでに割り当てていない(=使っていない)新しい番号を当該人物位置のIDとして割り当てる。
 次に、コンピュータ12は、ステップST8において、抽出した人物位置(x,y)の情報を、時刻、IDと併せて、コンピュータ12のハードディスクなどに記録する。以降、同じIDを持つ人物位置の情報は、まとめて軌跡と呼ぶ。
 次に、コンピュータ12は、ステップST9において、人物21のカメラ画像上の位置(x,y)から、この人物21の地図上の位置(u,v)を、上述の変換式(数式(1)、数式(2)参照)を用いて算出する。複数の人物位置が検出されている場合には、それぞれに対して独立に計算を行う。
 次に、コンピュータ12は、ステップST10において、算出された地図上での人物21の位置に基づいて、図10に示すように、地図画像上の対応する位置に、人物を示す人型のアイコンを表示する。
 次に、コンピュータ12は、ステップST11において、前回にカメラパラメータの更新処理を行ってから一定時間が経ったかどうかを判定する。ここで、一定時間とは、事前に設定する量で、例えば、半日、一日、あるいは一週間等といった程度の時間である。
 一定時間が経過していなければ、コンピュータ12は、ステップST5の処理に戻って、一定時刻毎、例えば1フレームあるいは数フレーム毎に、上述したと同様の処理を繰り返す。一方、一定時間が経過している場合には、コンピュータ12は、ステップST12において、カメラパラメータの更新処理を行い、その後に、ステップST5の処理に戻る。
 カメラパラメータの更新処理について説明する。カメラパラメータを、H = [X,Y,Z,θ,φ,η,f,s]とする。また、一定時間の間に蓄積された人物位置の軌跡の数をMとする。M個の軌跡のうち、i番目の軌跡データをPi とする。
 カメラパラメータの更新処理とは、以下の数式(6)の値を最大化するカメラパラメータを求め、その求まったカメラパラメータで現在のカメラパラメータを置き換える処理である。
Figure JPOXMLDOC01-appb-M000003
 ここで、コンピュータ12は、数式(6)の値を最大化するカメラパラメータを、一般的な最適化手法、例えば、最急降下法(山登り法)、準ニュートン法、レーベンバーグ・マーカート法などを用いて求める。
 図11のフローチャートは、カメラパラメータの更新処理の手順を示している。まず、コンピュータ12は、ステップST21において、現在のカメラパラメータHを、H0 にセットする。次に、コンピュータ12は、ステップST22において、上述の数式(6)の値を最大化するカメラパラメータH(ハット)を求める。次に、コンピュータ12は、ステップST23において、現在のカメラパラメータHを、ステップST22で求めたH(ハット)で置き換える。
 コンピュータ12は、上述の数式(6)のp(H) を、以下の数式(7)に示すように、計算する。
 p(H) = N(X0X 2)・N(Y0Y 2)・N(Z0Z 2)・N(θ0θ 2)・N(φ0φ 2)
          ・N(η0η 2)・N(f0f 2)・N(s0s 2)   ・・・(7)
 ただし、N(μ,σ2)は、平均値μ、分散σ2の正規分布を示す。また、下添え字の「0」は、更新前の現在のカメラパラメータH= [X0,Y0,Z0000,f0,s0]T を表す。すなわち、p(H) は、H0の関数である。例えば、N(X0X 2) は、以下の数式(8)に示すようになる。
Figure JPOXMLDOC01-appb-M000004
 各パラメータの分散(σX 2Y 2Z 2θ 2φ 2η 2f 2s 2 )は、それぞれの素性(例えば、(X,Y,Z)であればユーザからのカメラ位置の入力の一般的なばらつき、俯角(φ)や回転角(η)であれば監視カメラに一般的な範囲など)を鑑みて、事前に設定しておく。
 コンピュータ12は、上述の数式(6)のp(Pi|H) を、以下の数式(9)に示すように、計算する。
   p(Pi|H) = E1(Pi,H)・E2(Pi,H)   ・・・(9)
 E1(Pi,H) は、軌跡Pi の人物の存在可能領域に対する収まり度合いを評価する関数であり、以下の数式(10)に示すように、計算される。
Figure JPOXMLDOC01-appb-M000005
 ここで、Lは、i番目の軌跡を構成する点(人物位置)の総数である。(xi j,yi j)は、i番目の軌跡の中のj番目の時刻の人物位置の座標値を表す。また、dminは、図12に示すように、点(u,v)から、人物の存在可能領域の境界までの最短距離を表す。
 これにより、E1(Pi,H) は、軌跡が人物の存在可能領域のより内部にあるほど高い評価を与えるものとなる。これは、一般的に人物が通路の端よりも中央部を歩くことの方が多いとい前提に基づいている。
 E2(Pi,H) は、軌跡Pi における歩行速度の一定度合いを評価する関数であり、軌跡を構成する各点の隣り合う点との間隔が一定なほど高い評価値を与える。このE2(Pi,H) は、以下の数式(11)に示すように、計算される。この場合、隣接する点との距離の分散を求めている。これは、人物が通常歩く場合は、その歩行速度はおおよそ一定、つまりばらつきは少ないという前提に基づいている。
Figure JPOXMLDOC01-appb-M000006
 なお、p(Pi|H) の具体的な計算方法については、上述した評価だけに限定するものではない。それ以外の評価規範を追加することも可能である。例えば、コンピュータ12は、このp(Pi|H) を、以下の数式(12)に示すように、E3(Pi,H)を追加して計算することもできる。
   p(Pi|H) = E1(Pi,H)・E2(Pi,H)・E3(Pi,H)   ・・・(12)
 また、上述の数式(6)の代わりに、以下の数式(13)を用いてもよい。
Figure JPOXMLDOC01-appb-M000007
 ここで、Nは、一定時間の間に蓄積された人物位置の総数である。xj,yj は、そのうちのj番目の位置座標である。数式(6)と比べると、数式(13)は、人物位置の抽出に少々の誤差を許すものである。また、この数式(13)には、歩行速度に関する評価を含まない。
 数式(13)を用いる場合、数式(6)を用いる場合と比べて、評価は簡略化されている。しかし、その分、実装の容易さ、処理の軽さを重視したものである。なぜなら、過去の一定時間の間に抽出された人物の各瞬間の位置の情報さえあればよく、“軌跡“を必要としない。すなわち、図8のフローチャートにおけるステップST7の人物IDの割り当て作業を必要としないため、その分、実装が容易になり、処理が軽くなる。
 上述したように、図1に示す監視カメラシステム10においては、人物の地図上における位置(軌跡)がユーザ指定に係る存在可能領域の内部に収まるようにカメラパラメータ(変換式のパラメータ)が決定されるものである。すなわち、ユーザは存在可能領域を指定するだけでよく、ユーザに対する少ない負担でカメラパラメータを決定できる。従って、ユーザの手間を軽減し、使い勝手の向上を図ることができる。
 また、図1に示す監視カメラシステム10においては、一定時間毎に、直前の一定時間の変換結果と、設定された人物の存在可能領域に基づいて、カメラパラメータを決定して、更新するものである。従って、一定時間毎に、カメラパラメータを、より最適となるように更新でき、何等かの要因による経時変化にも対処可能となる。
 また、図1に示す監視カメラシステム10においては、人物の地図上における位置(軌跡)が、設定された対象物の存在可能領域の境界からより遠い位置となるように、カメラパラメータを決定するものである。従って、カメラパラメータをより最適となるように決定することができる。
 また、図1に示す監視カメラシステム10においては、数式(6)を用いる場合には、人物の地図上での移動速度が一定となるように、変換式のパラメータを決定するものである。従って、カメラパラメータをより最適となるように決定することができる。
 <2.変形例>
 なお、上述実施の形態においては、対象物が人物である例を示したが、監視対象は人物に限定されない。人物以外の動物、あるいは自動者、バイク、自転車などの移動物体を対象物とすることもできる。
 また、上述実施の形態においては、監視カメラ11が建物内に設置されている例を示したが、この監視カメラ11が市街地に配置される監視カメラシステムにあっても、本技術を同様に適用できる。その場合の地図は、監視カメラ11が配置される市街地を上方から見た図となる。
 また、本技術は、以下のような構成をとることもできる。
 (1)カメラ画像上の対象物の位置を、変換式を用いて地図上の位置に変換する変換部と、
 上記変換結果に基づいて、上記地図上に上記対象物の存在位置を表示する表示部と、
 上記地図上における上記対象物の存在可能領域を設定する領域設定部と、
 所定時間内の各時刻における上記変換結果と、上記設定された上記対象物の存在可能領域に基づいて、上記対象物の上記地図上における軌跡が上記存在可能領域の内部に収まるように、上記変換式のパラメータを決定するパラメータ決定部とを備える
 情報処理装置。
 (2)上記パラメータ決定部は、
 一定時間毎に、直前の一定時間の上記変換結果と、上記設定された上記対象物の存在可能領域に基づいて、上記変換式のパラメータを決定する
 前記(1)に記載の情報処理装置。
 (3)上記パラメータ決定部は、
 上記対象物の上記地図上における軌跡が、上記設定された上記対象物の存在可能領域の境界からより遠い位置となるように、上記変換式のパラメータを決定する
 前記(1)または(2)に記載の情報処理装置。
 (4)上記パラメータ決定部は、
 上記対象物の上記地図上における移動速度が一定となるように、上記変換式のパラメータを決定する
 前記(1)から(3)のいずれかに記載の情報処理装置。
 (5)上記パラメータ決定部は、
 複数の対象物が存在するとき、対象物毎に上記地図上における軌跡を求めて使用する
 前記(1)から(4)のいずれかに記載の情報処理装置。
 (6)上記対象物は人物であり、
 上記カメラ画像から上記人物を抽出し、該人物の位置を得る人物抽出部をさらに備える
 前記(1)から(5)のいずれかに記載の情報処理装置。
 (7)ユーザ入力値および固定値に基づいて上記変換式のパラメータの初期値を設定する初期値設定部をさらに備える
 前記(1)から(6)のいずれかに記載の情報処理装置。
 (8)カメラ画像上の対象物の位置を地図上の位置に変換式を用いて変換する変換ステップと、
 上記変換結果に基づいて、上記地図上に上記対象物の存在位置を表示する表示ステップと、
 上記地図上における上記対象物の存在可能領域を設定する領域設定ステップと、
 所定時間内の各時刻における上記変換結果と、上記設定された上記対象物の存在可能領域に基づいて、上記対象物の上記地図上における軌跡が上記存在可能領域の内部に収まるように、上記変換式のパラメータを決定するパラメータ決定ステップとを備える
 情報処理方法。
 (9)コンピュータを、
 カメラ画像上の対象物の位置を地図上の位置に変換式を用いて変換する変換手段と、
 上記変換結果に基づいて、上記地図上に上記対象物の存在位置を表示する表示手段と、
 上記地図上における上記対象物の存在可能領域を設定する領域設定手段と、
 所定時間内の各時刻における上記変換結果と、上記設定された上記対象物の存在可能領域に基づいて、上記対象物の上記地図上における軌跡が上記存在可能領域の内部に収まるように、上記変換式のパラメータを決定するパラメータ決定手段と
 して機能させるプログラム。
 (10)監視カメラと、
 上記監視カメラの撮像画像を処理する情報処理装置とを備え、
 上記情報処理装置は、
 カメラ画像上の対象物の位置を地図上の位置に変換式を用いて変換する変換部と、
 上記変換結果に基づいて、上記地図上に上記対象物の存在位置を表示する表示部と、
 上記地図上における上記対象物の存在可能領域を設定する領域設定部と、
 所定時間内の各時刻における上記変換結果と、上記設定された上記対象物の存在可能領域に基づいて、上記対象物の上記地図上における軌跡が上記存在可能領域の内部に収まるように、上記変換式のパラメータを決定するパラメータ決定部とを有する
 監視カメラシステム。
 10・・・監視カメラシステム
 11・・・監視カメラ
 12・・・パーソナルコンピュータ
 13・・・モニタ
 21・・・人物
 22・・・警備員
 111・・・撮像部
 112・・・画像データ送信部
 121・・・画像データ受信部
 122・・・人物位置抽出部
 123・・・ID割り当て部
 124・・・人物位置記録部
 125・・・軌跡情報保持部
 126・・・地図上位置算出部
 127・・・カメラパラメータ保持部
 128・・・カメラパラメータ更新部
 131・・・地図上位置表示部
 132・・・存在可能領域情報入力部
 133・・・存在可能領域情報保持部

Claims (10)

  1.  カメラ画像上の対象物の位置を、変換式を用いて地図上の位置に変換する変換部と、
     上記変換結果に基づいて、上記地図上に上記対象物の存在位置を表示する表示部と、
     上記地図上における上記対象物の存在可能領域を設定する領域設定部と、
     所定時間内の各時刻における上記変換結果と、上記設定された上記対象物の存在可能領域に基づいて、上記対象物の上記地図上における軌跡が上記存在可能領域の内部に収まるように、上記変換式のパラメータを決定するパラメータ決定部とを備える
     情報処理装置。
  2.  上記パラメータ決定部は、
     一定時間毎に、直前の一定時間の上記変換結果と、上記設定された上記対象物の存在可能領域に基づいて、上記変換式のパラメータを決定する
     請求項1に記載の情報処理装置。
  3.  上記パラメータ決定部は、
     上記対象物の上記地図上における軌跡が、上記設定された上記対象物の存在可能領域の境界からより遠い位置となるように、上記変換式のパラメータを決定する
     請求項1に記載の情報処理装置。
  4.  上記パラメータ決定部は、
     上記対象物の上記地図上における移動速度が一定となるように、上記変換式のパラメータを決定する
     請求項1に記載の情報処理装置。
  5.  上記パラメータ決定部は、
     複数の対象物が存在するとき、対象物毎に上記地図上における軌跡を求めて使用する
     請求項1に記載の情報処理装置。
  6.  上記対象物は人物であり、
     上記カメラ画像から上記人物を抽出し、該人物の位置を得る人物抽出部をさらに備える
     請求項1に記載の情報処理装置。
  7.  ユーザ入力値および固定値に基づいて上記変換式のパラメータの初期値を設定する初期値設定部をさらに備える
     請求項1に記載の情報処理装置。
  8.  カメラ画像上の対象物の位置を地図上の位置に変換式を用いて変換する変換ステップと、
     上記変換結果に基づいて、上記地図上に上記対象物の存在位置を表示する表示ステップと、
     上記地図上における上記対象物の存在可能領域を設定する領域設定ステップと、
     所定時間内の各時刻における上記変換結果と、上記設定された上記対象物の存在可能領域に基づいて、上記対象物の上記地図上における軌跡が上記存在可能領域の内部に収まるように、上記変換式のパラメータを決定するパラメータ決定ステップとを備える
     情報処理方法。
  9.  コンピュータを、
     カメラ画像上の対象物の位置を地図上の位置に変換式を用いて変換する変換手段と、
     上記変換結果に基づいて、上記地図上に上記対象物の存在位置を表示する表示手段と、
     上記地図上における上記対象物の存在可能領域を設定する領域設定手段と、
     所定時間内の各時刻における上記変換結果と、上記設定された上記対象物の存在可能領域に基づいて、上記対象物の上記地図上における軌跡が上記存在可能領域の内部に収まるように、上記変換式のパラメータを決定するパラメータ決定手段と
     して機能させるプログラム。
  10.  監視カメラと、
     上記監視カメラの撮像画像を処理する情報処理装置とを備え、
     上記情報処理装置は、
     カメラ画像上の対象物の位置を地図上の位置に変換式を用いて変換する変換部と、
     上記変換結果に基づいて、上記地図上に上記対象物の存在位置を表示する表示部と、
     上記地図上における上記対象物の存在可能領域を設定する領域設定部と、
     所定時間内の各時刻における上記変換結果と、上記設定された上記対象物の存在可能領域に基づいて、上記対象物の上記地図上における軌跡が上記存在可能領域の内部に収まるように、上記変換式のパラメータを決定するパラメータ決定部とを有する
     監視カメラシステム。
PCT/JP2013/065758 2012-06-08 2013-06-06 情報処理装置、情報処理方法、プログラムおよび監視カメラシステム WO2013183738A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP13801420.4A EP2860970A4 (en) 2012-06-08 2013-06-06 INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING, PROGRAM AND MONITORING CAMERA SYSTEM
CN201380029066.7A CN104335577B (zh) 2012-06-08 2013-06-06 信息处理设备、信息处理方法和监视摄像机系统
US14/404,113 US9886761B2 (en) 2012-06-08 2013-06-06 Information processing to display existing position of object on map
JP2014520061A JP6206405B2 (ja) 2012-06-08 2013-06-06 情報処理装置、情報処理方法、プログラムおよび監視カメラシステム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012-131202 2012-06-08
JP2012131202 2012-06-08

Publications (1)

Publication Number Publication Date
WO2013183738A1 true WO2013183738A1 (ja) 2013-12-12

Family

ID=49712125

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/065758 WO2013183738A1 (ja) 2012-06-08 2013-06-06 情報処理装置、情報処理方法、プログラムおよび監視カメラシステム

Country Status (5)

Country Link
US (1) US9886761B2 (ja)
EP (1) EP2860970A4 (ja)
JP (1) JP6206405B2 (ja)
CN (1) CN104335577B (ja)
WO (1) WO2013183738A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2015093330A1 (ja) * 2013-12-17 2017-03-16 シャープ株式会社 認識データ伝送装置、認識データ記録装置及び認識データ記録方法

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2854397B1 (en) 2012-05-23 2020-12-30 Sony Corporation Surveillance camera administration device, surveillance camera administration method, and program
GB201613138D0 (en) * 2016-07-29 2016-09-14 Unifai Holdings Ltd Computer vision systems
US10582095B2 (en) * 2016-10-14 2020-03-03 MP High Tech Solutions Pty Ltd Imaging apparatuses and enclosures
US11232687B2 (en) * 2017-08-07 2022-01-25 Standard Cognition, Corp Deep learning-based shopper statuses in a cashier-less store
US11417013B2 (en) * 2020-10-13 2022-08-16 Sensormatic Electornics, LLC Iterative layout mapping via a stationary camera

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1149100A (ja) * 1997-08-05 1999-02-23 Mitsubishi Electric Corp エプロン監視装置
WO2009110417A1 (ja) * 2008-03-03 2009-09-11 ティーオーエー株式会社 旋回型カメラの設置条件特定装置および方法ならびに当該設置条件特定装置を備えるカメラ制御システム
JP2010193170A (ja) 2009-02-18 2010-09-02 Mitsubishi Electric Corp カメラキャリブレーション装置及び監視エリア設定装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6816184B1 (en) * 1998-04-30 2004-11-09 Texas Instruments Incorporated Method and apparatus for mapping a location from a video image to a map
US7522186B2 (en) * 2000-03-07 2009-04-21 L-3 Communications Corporation Method and apparatus for providing immersive surveillance
KR100392727B1 (ko) * 2001-01-09 2003-07-28 주식회사 한국씨씨에스 컴퓨터 원격감시 제어방식의 폐쇄회로 텔레비전 시스템,이에 이용되는 컴퓨터 비디오 매트릭스 스위처 및제어프로그램
JP2004062980A (ja) * 2002-07-29 2004-02-26 Toyota Gakuen 磁性合金、磁気記録媒体、および磁気記録再生装置
US7263472B2 (en) * 2004-06-28 2007-08-28 Mitsubishi Electric Research Laboratories, Inc. Hidden markov model based object tracking and similarity metrics
WO2006012645A2 (en) * 2004-07-28 2006-02-02 Sarnoff Corporation Method and apparatus for total situational awareness and monitoring
US20060233461A1 (en) * 2005-04-19 2006-10-19 Honeywell International Inc. Systems and methods for transforming 2d image domain data into a 3d dense range map
WO2007139658A2 (en) * 2006-05-24 2007-12-06 Objectvideo, Inc. Intelligent imagery-based sensor
US8274564B2 (en) * 2006-10-13 2012-09-25 Fuji Xerox Co., Ltd. Interface for browsing and viewing video from multiple cameras simultaneously that conveys spatial and temporal proximity
DE102007001649A1 (de) * 2007-01-11 2008-07-17 Robert Bosch Gmbh Verfahren, Vorrichtung und Computerprogramm zur Selbstkalibrierung einer Überwachungskamera
US20080263592A1 (en) * 2007-04-18 2008-10-23 Fuji Xerox Co., Ltd. System for video control by direct manipulation of object trails
US8310542B2 (en) * 2007-11-28 2012-11-13 Fuji Xerox Co., Ltd. Segmenting time based on the geographic distribution of activity in sensor data
US9749594B2 (en) * 2011-12-22 2017-08-29 Pelco, Inc. Transformation between image and map coordinates
RU2531876C2 (ru) * 2012-05-15 2014-10-27 Общество с ограниченной ответственностью "Синезис" Способ индексирования видеоданных при помощи карты

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1149100A (ja) * 1997-08-05 1999-02-23 Mitsubishi Electric Corp エプロン監視装置
WO2009110417A1 (ja) * 2008-03-03 2009-09-11 ティーオーエー株式会社 旋回型カメラの設置条件特定装置および方法ならびに当該設置条件特定装置を備えるカメラ制御システム
JP2010193170A (ja) 2009-02-18 2010-09-02 Mitsubishi Electric Corp カメラキャリブレーション装置及び監視エリア設定装置

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
C. STAUFFER; W. E. L. GRIMSON: "Adaptive background mixture models for real-time tracking", COMPUTER VISION AND PATTERN RECOGNITION, 1999
N. DALAL; B. TRIGGS: "Histograms of Oriented Gradients for Human Detection", 2005, COMPUTER VISION AND PATTERN RECOGNITION
See also references of EP2860970A4

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2015093330A1 (ja) * 2013-12-17 2017-03-16 シャープ株式会社 認識データ伝送装置、認識データ記録装置及び認識データ記録方法
US10699541B2 (en) 2013-12-17 2020-06-30 Sharp Kabushiki Kaisha Recognition data transmission device

Also Published As

Publication number Publication date
EP2860970A4 (en) 2016-03-30
JP6206405B2 (ja) 2017-10-04
US9886761B2 (en) 2018-02-06
JPWO2013183738A1 (ja) 2016-02-01
EP2860970A1 (en) 2015-04-15
CN104335577B (zh) 2018-06-12
CN104335577A (zh) 2015-02-04
US20150170354A1 (en) 2015-06-18

Similar Documents

Publication Publication Date Title
JP6206405B2 (ja) 情報処理装置、情報処理方法、プログラムおよび監視カメラシステム
JP6428266B2 (ja) 色補正装置、色補正方法および色補正用プログラム
JP5603403B2 (ja) 対象物計数方法、対象物計数装置および対象物計数プログラム
JP6159179B2 (ja) 画像処理装置、画像処理方法
JP6141079B2 (ja) 画像処理システム、画像処理装置、それらの制御方法、及びプログラム
WO2018051944A1 (ja) 人流推定装置、人流推定方法および記録媒体
KR20150021526A (ko) 데이터베이스 생성 및 업데이트를 위한 심도 기반 추적을 이용하는 자기 학습 얼굴 인식 기법
JP2008219570A (ja) カメラ間連結関係情報生成装置
JP6503079B2 (ja) 特定人物検知システム、特定人物検知方法および検知装置
TW201025193A (en) Method for automatic detection and tracking of multiple targets with multiple cameras and system therefor
JP6779410B2 (ja) 映像解析装置、映像解析方法、及びプログラム
JP2019049786A (ja) 人識別システム及び人識別方法
JP2017076288A (ja) 情報処理装置、情報処理方法及びプログラム
WO2016031313A1 (ja) 体調検出装置、体調検出方法及び体調検出プログラム
JP2010140425A (ja) 画像処理システム
JP2008225704A (ja) 作業評価装置、作業評価方法、および、制御プログラム
KR101469099B1 (ko) 사람 객체 추적을 통한 자동 카메라 보정 방법
KR20200134502A (ko) 이미지 인식을 통한 3차원 인체 관절 각도 예측 방법 및 시스템
JP6336935B2 (ja) 移動物体追跡装置
JP2007134845A (ja) カメラ制御装置およびカメラ制御プログラム
JP5930808B2 (ja) 画像処理装置、画像処理装置の制御方法、およびプログラム
JP2020095651A (ja) 生産性評価システム、生産性評価装置、生産性評価方法、及びプログラム
US11216969B2 (en) System, method, and computer-readable medium for managing position of target
JP2021125183A (ja) 作業負荷分析装置、作業負荷分析方法、プログラム
JP2020201674A (ja) 映像解析装置及びその制御方法及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13801420

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2014520061

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 2013801420

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 14404113

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE