WO2014087620A1 - 視界表示システム、視界表示方法および視界表示プログラム - Google Patents

視界表示システム、視界表示方法および視界表示プログラム Download PDF

Info

Publication number
WO2014087620A1
WO2014087620A1 PCT/JP2013/007024 JP2013007024W WO2014087620A1 WO 2014087620 A1 WO2014087620 A1 WO 2014087620A1 JP 2013007024 W JP2013007024 W JP 2013007024W WO 2014087620 A1 WO2014087620 A1 WO 2014087620A1
Authority
WO
WIPO (PCT)
Prior art keywords
camera
view
monitoring
field
area
Prior art date
Application number
PCT/JP2013/007024
Other languages
English (en)
French (fr)
Inventor
浩雄 池田
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to US14/649,304 priority Critical patent/US9807310B2/en
Priority to JP2014550912A priority patent/JP6265131B2/ja
Priority to CN201380052604.4A priority patent/CN104704817B/zh
Publication of WO2014087620A1 publication Critical patent/WO2014087620A1/ja
Priority to IN1648DEN2015 priority patent/IN2015DN01648A/en
Priority to HK15109642.6A priority patent/HK1208980A1/xx

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Definitions

  • the present invention relates to a field-of-view display system, a field-of-view display method, and a field-of-view display program that specify the field of view of a camera that can photograph a monitoring target well and display the field of view.
  • Patent Document 1 describes a technique for displaying a shooting range of a camera.
  • a camera position or the like is specified on a top view of a predetermined area displayed on a display device
  • a horizontal field of view in which a shooting range of the camera is projected is displayed in the top view.
  • the vertical field of view which is the field of view of the camera in a plane that includes the optical axis of the camera and is perpendicular to the horizontal plane, is displayed in the elevation view.
  • FIG. 34 is a schematic diagram showing a horizontal field of view and a vertical field of view displayed by the technique described in Patent Document 1.
  • a camera indicator 101 representing the camera is displayed on the top view 100.
  • the user adjusts the height of the camera by dragging the camera indicator 111 displayed in the elevation view 107.
  • the calculated horizontal field 105 is displayed in the top view 100 and the vertical field 115 is displayed in the elevation 107.
  • the vertical field of view 115 includes the optical axis 110 of the camera.
  • the wall indicator 103 is displayed on the top view by designating the position of the wall that becomes the obstacle of the camera.
  • the person indicator in the top view 100 is denoted by reference numeral “102”
  • the person indicator in the elevation view 107 is denoted by reference numeral “112”.
  • the person indicator 102 When trying to find a range where the whole body of the person is photographed by the camera, the person indicator 102 is dragged to check both the top view 100 and the elevation view 107, and the person indicator shows the horizontal field 105 and the vertical field 115.
  • the range covered by any of these must be specified manually.
  • the technique described in Patent Document 1 manually changes the range in which the whole body of a person is photographed by the camera as described above while changing the arrangement state of the camera. It will be identified. Therefore, the work load is large, and it is difficult to determine the optimal arrangement state of the camera. In particular, when there are a plurality of cameras, it is more difficult to adjust each camera to a favorable arrangement state.
  • the present invention provides a field-of-view display system, a field-of-view display method, and a field-of-view display program capable of presenting a range in which the camera can capture the entire monitored object or a part of the monitored object over a certain level in an easy-to-understand manner for the user.
  • the purpose is to do.
  • the field-of-view display system is a surface segment obtained by translating a monitoring target area that defines a target range for checking the shooting status of the camera, and is determined based on the height of the monitoring target shot by the camera.
  • Projecting means for projecting positions in an image obtained from the camera to a plurality of monitoring surface segments, which are surface segments, and identifying a field of view that can be captured by the camera without being obstructed by an obstacle;
  • an integration unit that integrates the field of view within each monitoring plane, and a display control unit that displays the integration result of the field of view on the display device.
  • the field-of-view display system is a surface segment obtained by translating a monitoring target region that defines a target range for checking a shooting situation by a camera, and is based on the height of the monitoring target imaged by the camera. Projecting the position in the image obtained from the camera to a plurality of monitoring surfaces, which are defined, and identifying the field of view that the camera can shoot without being obstructed by an obstacle
  • a segmenting means for classifying the monitoring surface segment based on how many cameras are in view, and a segmented area within each monitoring segment.
  • a display control means for displaying each monitor surface portion on a display device in a manner corresponding to the number of cameras included in the display device.
  • the field-of-view display method is based on the height of a monitoring object photographed by the camera, which is a surface segment obtained by translating a monitoring object region that defines a range for which the photographing situation is confirmed by the camera Project a position in the image obtained from the camera to a plurality of monitoring surface segments that are defined, specify the field of view that can be captured by the camera without being obstructed by obstacles,
  • the visual field within each monitoring surface is integrated, and the visual field integration result is displayed on a display device.
  • the field-of-view display method is based on the height of a monitoring object photographed by the camera, which is a surface segment obtained by translating a monitoring object region that defines a range for which the photographing situation is confirmed by the camera. Project a position in the image obtained from the camera to a plurality of monitoring surface segments that are defined, specify the field of view that can be captured by the camera without being obstructed by obstacles, For each surveillance area, divide the surveillance area based on how many cameras the field of view corresponds to, and divide the area within each surveillance area into the number of cameras including that area in the field of view. Each monitoring surface portion is displayed on a display device in a manner corresponding to the above.
  • the field-of-view display program is a surface segment obtained by translating a monitor target area that defines a range to be checked for shooting status by a camera, and the height of the monitoring target shot by the camera.
  • a position in the image obtained from the camera is projected on a plurality of monitoring surface portions that are determined based on the field of view, and the field of view is a range in which the camera can shoot without being obstructed by an obstacle.
  • It is characterized by executing a specified projection process, an integration process for integrating the fields of view within each monitoring surface segment, and a display control process for displaying the integration results of the fields of view on the display device.
  • the field-of-view display program is a surface segment obtained by translating a monitor target area that defines a range to be checked for shooting status by a camera, and the height of the monitoring target shot by the camera.
  • a position in the image obtained from the camera is projected on a plurality of monitoring surface portions that are determined based on the field of view, and the field of view is a range in which the camera can shoot without being obstructed by an obstacle.
  • a display control process is executed to display each monitor surface on a display device in a manner corresponding to the number of cameras including the area in the field of view.
  • the present invention it is possible to present a range in which the camera can capture the entire monitoring object or a certain portion of the monitoring object in an easy-to-understand manner.
  • FIG. 1 It is a block diagram which shows the other structural example of the visual field display system of this invention. It is a block diagram which shows the other structural example of the visual field display system of this invention. It is explanatory drawing which shows the example whose virtual plane is not parallel with respect to the monitoring object area
  • FIG. 1 shows the horizontal visual field and vertical visual field displayed by the technique of patent document 1.
  • FIG. 1 is a block diagram illustrating a configuration example of a visual field display system according to a first embodiment of this invention.
  • the field-of-view display system 1 of the present invention includes an information registration unit 2, an information storage unit 3, a monitoring surface segment determination unit 4, a projection unit 5, an integration unit 6, and a display control unit 7.
  • the information storage unit 3 includes information about the camera (camera parameters) such as the camera position, posture, angle of view, and lens distortion, information about the camera screen size, the monitoring target area, and the monitoring target photographed by the camera. It is a storage device that stores information related to a monitored object such as the position and height of an object and information related to an obstacle such as the position and height of an obstacle arranged in the monitored area. For example, such information is input to the information registration unit 2 by a user operation, and the information registration unit 2 stores the input information in the information storage unit 3.
  • the monitoring target is a person will be described as an example.
  • the user inputs camera parameters for each camera, and the information registration unit 2 stores the camera parameters of each camera in the information storage unit 3.
  • the monitoring target area is a surface area that defines a range that is a target for confirming the shooting state by the camera, and is determined as a surface area in a horizontal plane.
  • a three-dimensional space determined by translating the monitoring target area in the vertical direction is defined as a range that is a target for confirming the shooting state by the camera.
  • the floor area of a room where a camera is installed may be defined as the monitoring target area.
  • a three-dimensional space that is determined by translating the surface vertically upward is a range that is a target for confirming the photographing situation.
  • the monitoring surface segment determining unit 4 refers to information indicating the monitoring target area stored in the information storage unit 3 and information related to the monitoring target object, and determines a plurality of monitoring surface segments based on the height of the monitoring target object. decide.
  • the monitoring surface segment is a surface segment obtained by translating the monitoring target area. Accordingly, the size of the monitoring surface is the same as the monitoring target area.
  • the monitoring surface segment determining unit 4 calculates a plurality of monitoring surface segments within a range from the vicinity of the lower end (for example, the foot of a person) of the monitoring object to the vicinity of the upper end (for example, the top of the person) of the monitoring object. decide.
  • the plurality of monitoring surfaces include a monitoring surface near the lower end of the monitoring target and a monitoring surface near the upper end.
  • FIG. 2 is a schematic diagram illustrating an example of a monitoring surface portion.
  • information indicating the monitoring target area 11, information indicating the person 13, and information indicating the obstacle 12 are stored in the information storage unit 3.
  • FIG. 2 illustrates the case where the monitoring surface segment determination unit 4 determines three monitoring surface segments h 0 to h 2 within the range from the vicinity of the lower end of the person 13 to the vicinity of the upper end.
  • the monitoring area h 0 at the lower end of the person 13 is the same area as the monitoring target area 11.
  • the projection unit 5 will be described.
  • the coordinate system and image area of an image obtained by the camera will be described.
  • an area corresponding to the image is determined in the coordinate system as well as a two-dimensional coordinate system of an image obtained by the camera (an image captured by the camera). This area is referred to as an image area.
  • the image area is an area showing the entire screen of an image obtained by the camera. The image area is determined for each camera.
  • FIG. 3 is an explanatory diagram showing a coordinate system of an image obtained by the camera.
  • an arbitrary position 32 in the image obtained by the camera is expressed as coordinates in the xy coordinate system (that is, a two-dimensional coordinate system) in front of the camera.
  • the image area 31 is an area showing the entire screen of the image, and is an area in the xy coordinate system. The image area 31 is determined by the camera parameters and the screen size.
  • obtaining the coordinates in the three-dimensional space corresponding to the position in the image area 31 from the straight line passing through the camera position and the position in the image area 31 is called projection.
  • obtaining the position 33 in the three-dimensional space corresponding to the position 32 in the image area 31 represented by two-dimensional coordinates corresponds to projection.
  • Projection is realized by converting two-dimensional coordinates representing a position in the image area 31 into three-dimensional coordinates in the real space using camera parameters such as camera placement position, posture, field angle, and lens distortion. Can do.
  • the projection unit 5 projects the image area 31 onto each monitoring surface for each camera.
  • FIG. 4 is a schematic diagram showing an example of the positional relationship between the position of each camera determined by the camera parameter and the monitoring surface portion.
  • the projection unit 5 projects the image area 31 (see FIG. 3) of the camera 21 onto the monitoring surface segments h 0 , h 1 , and h 2 , respectively.
  • the projection unit 5 projects the image areas onto the monitoring surface segments h 0 , h 1 , and h 2 , respectively.
  • the projection unit 5 refers to the information on the position and size of the obstacle when performing the projection, and whether or not the obstacle exists on a straight line connecting the camera position and the projection point on the monitoring surface. Determine whether. If the projection unit 5 determines that an obstacle exists on the straight line connecting the camera position and the projection point on the monitoring surface, the projection point on the monitoring surface is blocked by the obstacle. It is determined that the camera cannot shoot. On the other hand, when the projection unit 5 determines that there is no obstacle on the straight line connecting the camera position and the projection point on the monitoring surface, the projection point on the monitoring surface is not obstructed by the obstacle. It is determined that the camera can shoot.
  • the projection unit 5 performs the above-described determination on the projection point on the monitoring surface portion, and identifies the field of view within the monitoring surface portion, which is a range that can be captured by the camera without being obstructed by the obstacle.
  • the projection unit 5 also superimposes the existence range of the obstacle on the monitoring surface projected from the image area.
  • the presence range of the obstacle may be represented by a specific color (may be a translucent color).
  • the outer periphery of the obstacle existing range may be represented by a specific line type.
  • FIG. 5 is an explanatory diagram showing the result of projecting the image area of each camera shown in FIG. 4 onto each monitoring surface.
  • the left column shown in FIG. 5 shows the projection results for the camera 21, the projection results for the camera 22, and the projection results for the camera 23, respectively.
  • the projection results on the monitoring surface segment h 2 , the projection results on the monitoring surface segment h 1, and the projection results on the monitoring surface segment h 0 are shown from the top row shown in FIG.
  • the result of projecting the image area of the camera onto the horizontal plane is a trapezoid.
  • the result of projecting the image area of the camera 21 onto the monitoring surface h 2 is a trapezoid ABCD (see FIG. 5).
  • the size of the trapezoid varies depending on the height of the monitoring surface, and as the difference between the height of the camera and the height of the monitoring surface increases, the trapezoid indicating the projection result becomes larger.
  • the projection unit 5 does not include the projection part 5 in the trapezoidal part that protrudes from the monitoring surface.
  • the projection unit 5 shows an obstacle superimposed on the monitoring surface.
  • the area where the obstacle 12 is present is painted in white within the monitoring area, and the outer periphery of the area is indicated by a solid line.
  • the hatched range represents the field of view that can be taken by the camera without being obstructed by the obstacle 12. This field of view is different for each camera. Further, when focusing on one camera, the field of view also varies depending on the height of the monitoring surface.
  • the area other than the field of view and the obstacle is a range that cannot be captured by the camera due to the obstacle and a range that does not correspond to the projection destination of the image area. That is, the range other than the field of view within the monitoring surface is a range in which the camera cannot photograph the monitoring target.
  • the integration unit 6 integrates the field of view of the camera specified for each monitoring surface.
  • the integration unit 6 extracts, for each camera, an area corresponding to the field of view in any of the monitoring surface segments h 0 to h 2 , and uses the extraction result as the field of view integration result.
  • FIG. 6 is an explanatory diagram schematically showing the integration of the field of view in the first embodiment.
  • FIG. 6 illustrates the integration of the field of view of the camera 22.
  • View 27 shown in FIG. 6 is a view of the monitoring plane min h 2.
  • the visual field 26 is a visual field within the monitoring surface segment h 1
  • the visual field 25 is a visual field within the monitoring surface segment h 0 .
  • the integration unit 6 extracts a common region 28 in the fields of view 25, 26, and 27 in each of the monitoring surface segments h 0 to h 2 and determines the region 28 as the integration result of the fields of view in each of the monitoring surface segments.
  • the fields of view 25, 26, and 27 represent ranges in which the camera 22 can photograph the monitored object without being obstructed by an obstacle at the height of the monitoring surface corresponding to the field of view. Therefore, when the monitoring target exists in the common area 28 (see FIG. 6) of the fields of view 25, 26, and 27 within the monitoring surface segments h 0 to h 2 at the respective heights, the camera 22 detects the monitoring target. Images from the bottom end to the top end can be taken. That is, it can be said that the area 28 that is the result of the integration of the fields of view 25, 26, and 27 is an area in which the camera 22 can image the entire monitoring object.
  • the integration unit 6 integrates the field of view as described above for each camera. Therefore, in the first embodiment, the view integration result is obtained for each camera.
  • the display control unit 7 causes the display device (not shown) to display the view integration result obtained for each camera.
  • the field-of-view display system 1 may include a display device.
  • the information registration unit 2, the monitoring surface segment determination unit 4, the projection unit 5, the integration unit 6, and the display control unit 7 are realized by a CPU of a computer that operates in accordance with a visual field display program, for example.
  • the CPU may read the visibility display program and operate as the information registration unit 2, the monitoring surface segment determination unit 4, the projection unit 5, the integration unit 6, and the display control unit 7 according to the program.
  • the visibility display program may be recorded on a computer-readable recording medium.
  • the information registration part 2, the monitoring surface part determination part 4, the projection part 5, the integration part 6, and the display control part 7 may each be implement
  • FIG. 7 is a flowchart illustrating an example of processing progress according to the first embodiment of this invention. It is assumed that various kinds of information such as camera parameters are already stored in the information storage unit 3.
  • the monitoring surface segment determination unit 4 determines a plurality of monitoring surface segments within the range from the vicinity of the lower end of the monitoring object to the vicinity of the upper end with reference to the information indicating the monitoring target area and the information related to the monitoring object. (Step S1). Note that a plurality of monitoring surface portions may be determined in advance, and information for the monitoring surface portions may be stored in the information storage unit 3. In this case, step S1 may be omitted. In this case, the field-of-view display system 1 may not include the monitoring surface segment determination unit 4.
  • the projection unit 5 projects the image area of the image obtained by the camera on each monitoring surface for each camera (step S2). Furthermore, in step S2, the projection unit 5 identifies a region corresponding to the field of view within each monitoring surface segment. Moreover, it is preferable that the projection part 5 also superimposes the presence range of an obstruction on each monitoring surface part.
  • the integration unit 6 integrates the field of view within the monitoring surface (step S3).
  • the integration unit 6 extracts, for each camera, a common area of each field of view represented on each monitoring surface, and sets that area as an integration result.
  • the display control unit 7 causes the display device (not shown) to display the view integration result obtained for each camera (step S4).
  • FIG. 8 is an explanatory diagram illustrating a display example of a view integration result according to the first embodiment.
  • the display control unit 7 causes the display device to display the region 28 obtained by integrating the fields of view together with the monitoring target region 11 with respect to the camera 22. Further, the display control unit 7 also displays the existence range of the obstacle 12 superimposed by the projection unit 5 on the display device.
  • the display control unit 7 causes the display device to display the integration results of the fields of view of the other cameras as well.
  • a common field of view in the monitoring surface portion of each height is extracted and displayed on the display device. Therefore, it is possible to present to the user a range within the monitoring target area in which an area from the vicinity of the lower end to the vicinity of the upper end of the monitoring target (for example, a person) can be captured. Therefore, the user can easily grasp the range within the monitoring target area where the entire monitoring target can be captured by the camera. Furthermore, by changing the camera parameter and confirming the change in the range, it becomes easy to adjust the position, posture, angle of view, etc. of the camera so that the range becomes maximum.
  • the number of cameras may be one.
  • Embodiment 2 The field-of-view display system according to the second embodiment is not limited to the range in which the entire monitoring target can be seen, but at the position in the monitoring target region, what part of the entire monitoring target (for example, the whole body of a person) is a camera. Visualize whether shooting is possible and present it to the user.
  • FIG. 9 is a block diagram illustrating a configuration example of the field-of-view display system according to the second embodiment of the present invention.
  • the same elements as those in the first embodiment are denoted by the same reference numerals as those in FIG.
  • the field-of-view display system according to the second embodiment includes an integration unit 6a (see FIG. 9) instead of the integration unit 6 (see FIG. 1) in the first embodiment.
  • the integration unit 6a includes a visibility rate calculation unit 61 and a cover rate calculation unit 63a.
  • the visibility ratio calculation unit 61 calculates the visibility ratio for each position in the monitoring target area 11 (see FIG. 2) other than the obstacle existence range. Further, the visibility ratio calculation unit 61 calculates the visibility ratio for each camera.
  • the visibility rate is a ratio of the number of monitoring surfaces whose position of interest belongs to the visibility to the total number of monitoring surfaces.
  • the total number of monitoring surfaces is “3”.
  • the visibility ratio calculation unit 61 sets the visibility ratio at the position of interest to be “2/3”.
  • the visibility ratio calculation unit 61 performs the above-described visibility ratio calculation for each position other than the obstacle existence range. However, the visibility ratio calculation unit 61 does not have to perform the calculation of the visibility ratio for each densely continuous position.
  • the visibility calculation unit 61 divides the monitoring target region 11 (excluding the obstacle existence range) into fixed ranges, determines a representative position from each of the divided regions, and calculates the visibility at the representative position. May be. Then, the visibility ratio calculation unit 61 may determine the visibility ratio as the visibility ratio of the divided region to which the representative position belongs.
  • the visibility ratio calculation unit 61 identifies an area corresponding to each visibility ratio in the monitoring target area 11.
  • region for every visibility rate specified becomes a view integration result in 2nd Embodiment.
  • FIG. 10 is an explanatory diagram schematically showing the integration of the field of view in the second embodiment.
  • FIG. 10 illustrates the integration of the field of view of the camera 22.
  • the fields of view 25 to 27 shown in FIG. 10 are the same as the fields of view 25 to 27 shown in FIG.
  • the visibility ratio calculation unit 61 identifies areas corresponding to these visibility ratios in the monitoring target area 11.
  • the regions 72 and 74 are regions with a visibility rate “2/3”.
  • the areas 71 and 75 are areas with a visibility rate of “1/3”.
  • the other areas are areas with a visibility rate of “0”.
  • the existence range of the obstacle 12 is not a target of the visibility rate calculation.
  • the visibility ratio calculation unit 61 preferably superimposes the existence range of the obstacle 12 on the monitoring target area 11.
  • the presence range of the obstacle may be represented by a specific color (may be a translucent color).
  • the outer periphery of the obstacle existing range may be represented by a specific line type. This point is the same as in the first embodiment. The same applies to each embodiment described later.
  • the cover rate calculation unit 63a calculates the cover rate for each camera.
  • the coverage ratio is a ratio of the sum of the calculated visibility ratios to the number of positions where the visibility ratios are calculated in the monitoring target area 11. That is, the cover ratio calculation unit 63a calculates the cover ratio by the calculation of the following equation (1).
  • the coverage rate is the ratio of the area where the monitoring object can be monitored to the monitoring object area 11.
  • the cover ratio calculated by the expression (1) in the second embodiment can be referred to as a “cover ratio based on the visibility ratio”, but is simply referred to as a cover ratio for the sake of simplicity.
  • the cover ratio calculation unit 63a may set the visibility ratio in the designated numerical range as an addition target in the numerator on the right side of Expression (1). That is, in the calculation of the numerator on the right side of Equation (1), the cover ratio calculation unit 63a adds only the visibility ratio in the specified numerical range, and ignores the visibility ratio outside the numerical range (for example, is regarded as 0). ), And the cover ratio may be calculated by the equation (1).
  • the method for specifying the numerical range is not particularly limited.
  • the numerical range may be specified by the user inputting the numerical range of the visibility rate into the visual field display system 1.
  • the display control unit 7 displays the coverage rate together with the view integration result on the display device.
  • the integration unit 6a (specifically, the visibility rate calculation unit 61 and the coverage rate calculation unit 63a) is realized by, for example, a CPU that operates according to a visibility display program.
  • FIG. 11 is a flowchart showing an example of processing progress of the second embodiment. Steps S1 and S2 are the same as steps S1 and S2 in the first embodiment.
  • the visibility rate calculation unit 61 calculates the visibility rate for each position in the monitoring target area 11 other than the obstacle existing range. Then, the visibility ratio calculation unit 61 specifies an area corresponding to each calculated visibility ratio in the monitoring target area 11 (step S5). The visibility calculation unit 61 performs this process for each camera.
  • the result of step S5 is the view integration result in the second embodiment.
  • the cover ratio calculation unit 63a calculates the cover ratio by the calculation of Expression (1) (step S6).
  • the cover ratio calculation unit 63a calculates a cover ratio for each camera.
  • FIG. 12 is an explanatory diagram illustrating a display example of a view integration result according to the second embodiment.
  • the display control unit 7 causes the display device to display each area specified as an area corresponding to each visibility rate in a manner corresponding to the visibility rate.
  • the display control unit 7 causes the display device to display each area specified as an area corresponding to each visibility rate in a manner corresponding to the visibility rate.
  • displaying each area in a mode according to the visibility for example, displaying each area separately with a color, pattern, brightness, or the like according to the visibility is given.
  • region you may distinguish by matters other than a color, a pattern, and a brightness
  • the display control unit 7 also displays the cover rate on the display device.
  • the display method of a cover rate is not specifically limited.
  • the coverage may be displayed by a graph representing the difference in coverage for each camera, with the horizontal axis as the identification number of each camera and the vertical axis as the coverage.
  • an area corresponding to each visibility rate is displayed on the display device with a color, pattern, brightness, or the like corresponding to the visibility rate.
  • the higher the visibility rate the larger the portion of the monitoring object (for example, a person) that can be photographed. Therefore, the range in which the camera can capture the entire monitoring object or a certain part of the monitoring object can be presented to the user in an easily understandable manner. Therefore, the user can easily grasp the range in the monitoring target area where the camera can capture the entire monitoring target object or many parts thereof. Furthermore, by changing the information about the camera and checking the change in the range, it becomes easy to adjust the position, posture, angle of view, etc. of the camera so that the range becomes maximum.
  • the ratio of the area where the camera can monitor the monitoring object to the monitoring object area 11 can be presented to the user.
  • the display of the coverage rate may be omitted.
  • the field-of-view display system 1 of the second embodiment does not have to include the cover ratio calculation unit 63a and does not have to execute Step S6 (see FIG. 11).
  • the display control unit 7 may cause the display device to display an area corresponding to the visibility corresponding to the designated numerical range.
  • the method for specifying the numerical range is not particularly limited.
  • the numerical range of the visibility rate corresponding to the area to be highlighted and displayed by the user is input to the visual field display system 1, and the display control unit 7 is specified by the user.
  • a region corresponding to the visibility rate corresponding to the numerical value range may be highlighted and displayed on the display device.
  • FIG. 13 is an explanatory diagram illustrating an example of highlighting of a region corresponding to a visibility rate corresponding to a specific numerical range.
  • the display control unit 7 displays each region corresponding to each visibility rate on the display device as illustrated in FIG.
  • a range of “2/3 or more and 1 or less” is designated as the numerical range of the visibility corresponding to the region to be highlighted.
  • the areas corresponding to the visibility ratio in the range of “2/3 or more and 1 or less” are the areas 72 and 74 corresponding to the visibility ratio “2/3” and the area 73 corresponding to the visibility ratio “1”.
  • the display control unit 7 highlights and displays the combined area 72 to 74 shown in FIG. 12 as illustrated in FIG.
  • a region 77 highlighted in the example shown in FIG. 13 is a region where the regions 72 to 74 are combined.
  • the display control unit 7 emphasizes the designated region and causes the display device to display the effective field of view that can surely capture a large part of the monitoring target. It can be clearly shown visually.
  • the highlighted region is the same as the integrated view result displayed in the first embodiment.
  • FIG. 14 is an explanatory diagram showing an example of a region highlighted in this case. That is, the region 78 highlighted in the example shown in FIG. 14 is a range corresponding to the visibility rate “0”, in other words, a range corresponding to the blind spot of the camera. As described above, the user can visually and clearly confirm the range corresponding to the blind spot of the camera by designating “0” as the numerical range.
  • FIGS. 13 and 14 exemplify a case where a region corresponding to a visibility rate outside the designated numerical range (that is, a region that is not emphasized) is uniformly displayed in a single color. Further, as illustrated in FIGS. 13 and 14, the display control unit 7 preferably displays the presence range of the obstacle 12 on the display device even when performing highlighting.
  • FIG. FIG. 15 is a block diagram illustrating a configuration example of the field-of-view display system according to the third embodiment of the present invention. Elements similar to those in the first embodiment and the second embodiment are denoted by the same reference numerals as those in FIG. 1 and FIG.
  • the field-of-view display system according to the third embodiment includes an integration unit 6b (see FIG. 15) instead of the integration unit 6 (see FIG. 1) in the first embodiment.
  • the integration unit 6b includes a visibility rate calculation unit 61, an average visibility rate calculation unit 62, and a cover rate calculation unit 63b.
  • the visibility rate calculation unit 61 is the same as the visibility rate calculation unit 61 in the second embodiment.
  • the average visibility ratio calculation unit 62 calculates an average visibility ratio for each position in the monitoring target area 11 (see FIG. 2) other than the obstacle existence range.
  • the visibility ratio calculation unit 61 does not have to perform the calculation of the visibility ratio at every closely continuous position.
  • the average visibility ratio calculation unit 62 does not need to calculate the average visibility ratio at every densely continuous position. For example, the average visibility ratio calculation unit 62 divides the monitoring target area 11 (excluding the obstacle existence range) into fixed ranges, determines a representative position from each of the divided areas, and average visibility ratio at the representative position. May be calculated. Then, the average visibility ratio calculation unit 62 may determine the average visibility ratio as the average visibility ratio of the divided region to which the representative position belongs. Then, the average visibility rate calculation unit 62 may calculate the average visibility rate with respect to the position where the visibility rate calculation unit 61 calculates the visibility rate. That is, the calculation position of the average visibility is the same as the calculation ratio of the visibility by the visibility calculation unit 61.
  • the average visibility rate is the upper predetermined order among the visibility rates calculated for each camera by the visibility rate calculation unit 61 with respect to the focused position in the monitoring target region 11 (excluding the existence range of the obstacle). It is an average value of the visibility rate until. For example, it is assumed that the visibility rate is calculated for each individual camera with respect to a certain position P in the monitoring target area 11 (excluding the obstacle existence range). In addition, it is assumed that the top n rankings from the first to the nth are defined as the rankings for calculating the average visibility rate. In this case, the average value of the n visibility ratios from the highest visibility ratio to the nth highest visibility ratio among the visibility ratios at the position P is the average visibility ratio.
  • the average visibility ratio calculation unit 62 uses, as the average visibility ratio at the position P, the average value of n visibility ratios from the highest visibility ratio to the nth highest visibility ratio among the visibility ratios at the position P. What is necessary is just to calculate. Note that the value of “n” is determined in advance.
  • FIG. 16 is an explanatory diagram illustrating an example of calculating the average visibility.
  • three monitoring surface segments h 0 to h 2 are determined as in the case shown in FIG.
  • n is assumed to be “2”. That is, the case where the average visibility ratio calculation unit 62 calculates the average value of the top two visibility ratios as the average visibility ratio among the visibility ratios calculated for each camera with respect to one position will be described as an example.
  • FIG. 16 from the left side, an area for each view rate determined by the view rate calculation unit 61 for the camera 21, an area for each view rate set by the view rate calculation unit 61 for the camera 22, and a view rate calculation unit 61 for the camera 23. The area
  • a region where the visibility rate is “1/3” is indicated by reference numeral “81”.
  • An area where the visibility rate is “2/3” is indicated by reference numeral “82”.
  • the visibility rate calculated by the visibility rate calculation unit 61 for the camera 21 is “1”.
  • the visibility rate calculated by the visibility rate calculation unit 61 for the camera 22 is “2/3”.
  • the visibility rate calculated by the visibility rate calculation unit 61 for the camera 23 is “0”. Therefore, the average visibility ratio calculating unit 62 calculates the top two visibility ratios “1”, “2” among the three visibility ratios “1”, “2/3”, “0” calculated for each camera with respect to the position P.
  • the average value of / 3 ′′ may be calculated as the average visibility rate at the position P. In this example, the average visibility of the position P is “5/6”.
  • the average visibility rate calculation unit 62 similarly calculates the average visibility rate for each of the other positions in the monitoring target area 11 (excluding the obstacle existence range).
  • the average visibility ratio calculation unit 62 specifies an area corresponding to each average visibility ratio in the monitoring target area 11.
  • region for every average visual field rate specified becomes the integrated result of the visual field in 3rd Embodiment.
  • the cover rate calculation unit 63b calculates the cover rate.
  • the coverage in the third embodiment is a ratio of the sum of the calculated average visibility ratios to the number of positions where the visibility ratios are calculated in the monitoring target region 11. That is, the cover rate calculation unit 63b calculates the cover rate by the calculation of the following equation (2).
  • the calculation position of the average visibility is the same as the calculation ratio of the visibility by the visibility calculation unit 61, and the denominator of the right side of the equation (2) is “the number of positions where the average visibility is calculated in the monitoring target area”. Even in this case, the calculation result of the coverage is the same.
  • the cover ratio calculated by the expression (2) in the third embodiment can also be referred to as a “cover ratio based on an average visibility ratio”, but is simply referred to as a cover ratio in order to simplify the explanation.
  • the coverage rate (coverage rate based on the visibility rate) is calculated for each camera.
  • the cover ratio (cover ratio based on the average visibility ratio) in the third embodiment is calculated as one cover ratio regardless of the number of cameras. It can be said that the coverage in the third embodiment is the ratio of the area where the monitoring object can be monitored to the monitoring object area 11 when a plurality of cameras are considered.
  • the cover ratio calculation unit 63b may use the average visibility of the designated numerical range as an addition target in the numerator on the right side of Expression (2). That is, in the calculation of the numerator on the right side of Equation (2), the cover ratio calculation unit 63b adds only the average visibility of the specified numerical range, and ignores the average visibility outside the numerical range (for example, 0 The coverage may be calculated by equation (2).
  • the numerical range designation method is not particularly limited.
  • the display control unit 7 causes the display device to display the coverage ratio together with the integrated view result.
  • the integration unit 6b (specifically, the view rate calculation unit 61, the average view rate calculation unit 62, and the cover rate calculation unit 63b) is realized by a CPU that operates according to a view display program, for example.
  • FIG. 17 is a flowchart showing an example of processing progress of the third embodiment. Steps S1, S2, and S5 are the same as steps S1, S2, and S5 (see FIG. 11) in the second embodiment, and a description thereof is omitted.
  • step S5 the average visibility rate calculating unit 62 calculates the average visibility rate for each position in the monitoring target area 11 other than the obstacle existing range. Then, the average visibility ratio calculating unit 62 specifies an area corresponding to each calculated average visibility ratio in the monitoring target area 11 (step S11).
  • the result of step S11 is a view integration result in the third embodiment.
  • the cover ratio calculation unit 63b calculates the cover ratio by the calculation of Expression (2) (step S12).
  • the display control unit 7 causes the display device (not shown) to display the view integration result (step S4).
  • the display control unit 7 causes the display device to display each region specified in step S11 as a region corresponding to each average visibility rate in a manner corresponding to the average visibility rate.
  • each area is distinguished and displayed by a color, a pattern, luminance, or the like corresponding to the average visibility.
  • the display control unit 7 causes the display device to display each region corresponding to each average visibility rate in the monitoring target region in a manner corresponding to the average visibility rate. Therefore, the display format of the integration result of the third embodiment is the same as the display format of the integration result of the second embodiment (FIG.
  • each region is determined based on the average visibility, so that each region is even finer than each region displayed in the second embodiment.
  • the integration result is displayed for each camera.
  • one integration result is displayed regardless of the number of cameras.
  • the display control unit 7 also displays the overlapping obstacle existence range on the display device.
  • the display control unit 7 displays the cover ratio calculated in step S12 on the display device.
  • one value is calculated for the coverage rate regardless of the number of cameras.
  • the display control part 7 should just display the coverage with the integrated result of a visual field.
  • an area corresponding to each average visibility is displayed on the display device with a color, pattern, brightness, or the like corresponding to the average visibility. And it means that many parts of the monitoring subject (for example, person) can be photoed, so that an average visibility rate is high. Therefore, the range in which the camera can capture the entire monitoring object or a certain part of the monitoring object can be presented to the user in an easily understandable manner.
  • an average value (average visual field ratio) of the upper predetermined number of visual field ratios calculated for each camera is calculated, and each region is displayed based on the average visual field ratio.
  • the user in consideration of a plurality of cameras, it is possible to present to the user an easily understandable range in which the camera can capture the entire monitoring object or a part of the monitoring object.
  • the user can easily grasp the range within the monitoring target area in which the camera can capture the entire monitoring target or a large portion thereof. Furthermore, by changing the information about the camera and checking the change in the range, it becomes easy to adjust the position, posture, angle of view, etc. of the camera so that the range becomes maximum.
  • the ratio of the area where the camera can monitor the monitoring object with respect to the monitoring target area 11 when a plurality of cameras are taken into consideration is also displayed by displaying the cover ratio calculated by the equation (2). It can be presented to the user.
  • the display of the coverage rate may be omitted.
  • the field-of-view display system 1 according to the third embodiment may not include the cover ratio calculation unit 63b and may not execute Step S12 (see FIG. 17).
  • the display control unit 7 may emphasize and display the area corresponding to the average visibility corresponding to the designated numerical range on the display device.
  • the method for specifying the numerical range is not particularly limited.
  • the numerical range of the average visibility corresponding to the region that the user should emphasize and display is input to the visual field display system 1, and the display control unit 7
  • An area corresponding to the average visibility corresponding to the designated numerical range may be highlighted and displayed on the display device.
  • the operation of the display control unit 7 is the operation described as one of the modified examples of the second embodiment (the operation of highlighting the area corresponding to the visibility corresponding to the designated numerical range and displaying it on the display device). It is the same. According to this modification, the area corresponding to the average view rate corresponding to the designated numerical range can be presented to the user in an easy-to-understand manner.
  • step S4 the display control unit 7 receives a camera designation from the user, highlights the range that fits in the image of the camera in the integrated view result, and causes the display device to display the range. May be. According to this modification, it is possible to present to the user an easy-to-understand range that falls within the image of the designated camera.
  • FIG. 18 is a block diagram illustrating a configuration example of the field-of-view display system according to the fourth embodiment of the present invention.
  • the visual field display system 40 according to the fourth embodiment includes an information registration unit 2, an information storage unit 3, a monitoring surface segment determination unit 4, a projection unit 5, a sorting unit 41, and a display control unit 42.
  • the information registration unit 2, the information storage unit 3, the monitoring surface segment determination unit 4 and the projection unit 5 are the same as those elements in the first to third embodiments, and the description thereof is omitted.
  • the classification unit 41 classifies the monitoring surface segment for each monitoring surface segment based on how many cameras the field of view corresponds to. As shown in FIG. 2, it is assumed that three monitor planes h 0 to h 2 are determined and the camera parameters of the three cameras 21 to 23 (see FIG. 4) are stored in the information storage unit 3, respectively. In this case, the classification unit 41 corresponds to the monitoring surface segment h 0 as an area corresponding to the field of view of three cameras, an area corresponding to the field of view of two cameras, and the field of view of one camera. Are divided into areas that do not correspond to the field of view of any camera. The classification unit 41 similarly classifies the monitoring surface segments h 1 and h 2 .
  • the display control unit 42 represents each segmented area in the display device (not shown) in such a manner that the segmented area in each segment is represented in a manner corresponding to the number of cameras including the area in the field of view. Display.
  • the display control unit 42 may be an area corresponding to the field of view of three cameras, an area corresponding to the field of view of two cameras, or an area corresponding to the field of view of one camera.
  • Each area that does not correspond to the field of view is distinguished by color, pattern, brightness, etc., and each monitor surface is displayed on the display device.
  • the visual field display system 40 may include a display device.
  • the information registration unit 2, the monitoring surface segment determination unit 4, the projection unit 5, the sorting unit 41, and the display control unit 42 are realized by, for example, a CPU of a computer that operates according to a view display program.
  • the CPU may read the visibility display program and operate as the information registration unit 2, the monitoring surface segment determination unit 4, the projection unit 5, the sorting unit 41, and the display control unit 42 according to the program.
  • the visibility display program may be recorded on a computer-readable recording medium.
  • the information registration part 2, the monitoring surface segment determination part 4, the projection part 5, the division part 41, and the display control part 42 may each be implement
  • FIG. 19 is a flowchart showing an example of processing progress of the fourth embodiment of the present invention.
  • Steps S1 and S2 are the same as steps S1 and S2 (see FIGS. 7, 11, and 17) in the first to third embodiments, and a description thereof is omitted.
  • steps S1 and S2 are the same as steps S1 and S2 (see FIGS. 7, 11, and 17) in the first to third embodiments, and a description thereof is omitted.
  • three monitoring surface segments h 0 to h 2 are determined, and the camera parameters of the three cameras 21 to 23 (see FIG. 4) are stored in the information storage unit 3, respectively. An example will be described.
  • the result of projecting the image areas of the cameras 21 to 23 onto the respective monitoring surfaces is obtained. That is, the projection result of the image area of the camera 21, the projection result of the image area of the camera 22, and the projection result of the image area of the camera 23 are respectively obtained on the monitoring surface h 2 . Similarly, the projection result of the image area for each camera on the monitoring surface segment h 1 and the projection result of the image area for each camera on the monitoring surface segment h 0 are also obtained.
  • the classification unit 41 classifies the monitoring surface segment for each monitoring surface segment based on how many cameras the field of view corresponds to (step S21).
  • division section 41 the image area projected results of the camera 21 for monitoring surface min h 2, the image area projected results of the camera 22, and the image area of the projection results of the camera 23 (see upper part of Figure 5.)
  • the area corresponding to the field of view of three cameras the area corresponding to the field of view of two cameras, the area corresponding to the field of view of one camera, It is divided into areas that do not correspond to the field of view of the camera.
  • the result of dividing the monitored surface min h 2 based on the projection result of the monitoring surface min h 2 shown at the top of FIG. 5 is shown in FIG. 20.
  • the grouping portion 41, the projection result of the image area of the camera 21 for monitoring surface component h 1, the projected results of the image area of the camera 22, and the image area of the projection results of the camera 23 (see middle of FIG. 5.)
  • the area corresponding to the field of view of three cameras, the area corresponding to the field of view of two cameras, the area corresponding to the field of view of one camera Divide into areas that do not correspond to the view of any camera.
  • FIG. 21 shows a result of dividing the monitoring surface segment h 1 based on the projection result onto the monitoring surface segment h 1 shown in the middle of FIG.
  • the grouping portion 41, the projection result of the image area of the camera 21 for monitoring surface fraction h 0, the projected results of the image area of the camera 22, and the image area of the projection results of the camera 23 (see lower part of Figure 5.)
  • the monitoring area h 0 an area corresponding to the field of view of three cameras, an area corresponding to the field of view of two cameras, an area corresponding to the field of view of one camera, Divide into areas that do not correspond to the view of any camera.
  • FIG. 22 shows a result of dividing the monitoring surface segment h 0 based on the projection result onto the monitoring surface segment h 0 shown in the lower part of FIG.
  • step S21 As a result of step S21, as shown in FIG. 20 to FIG. 22, a result of dividing the monitoring surface portion for each monitoring surface portion is obtained.
  • an area corresponding to the field of view of one camera is denoted by reference numeral “91”.
  • An area corresponding to the field of view of the two cameras is indicated by reference numeral “92”.
  • An area corresponding to the field of view of the three cameras is indicated by reference numeral “93”.
  • a region that does not correspond to the view of any camera is shown in white.
  • the classification unit 41 may exclude the existence range of the obstacle 12 from the classification targets in each of the monitoring surface segments h 0 to h 2 .
  • the display control unit 42 causes the display devices (not shown) to display the divided monitoring surface segments h 0 to h 2 (step S22).
  • the display control unit 42 represents the divided areas within the individual monitoring planes in a manner corresponding to the number of cameras including the area in the field of view.
  • FIG. 23 is an explanatory diagram illustrating an example of a display format in step S22.
  • the display control unit 42 may display each of the divided monitoring surface segments h 0 to h 2 side by side as a top view as shown in FIG.
  • the display control unit 7 also displays the presence range of the obstacle 12 on the display device.
  • each monitoring surface in step S22 may display a perspective view in a state of being arranged at a position corresponding to 2 .
  • the display control unit 42 displays on the display device a perspective view of a state in which the monitoring surface segment h 1 exists in the upper layer of the monitoring surface segment h 0 and the monitoring surface segment h 2 exists in the upper layer.
  • the area within each of the monitoring surface segments h 0 to h 1 is displayed in, for example, a different pattern or the like depending on how many cameras are in view.
  • the display control unit 42 arranges each monitoring surface in the three-dimensional space as described above, and further, the larger the number of cameras including the region in the field of view in the divided region for the monitoring surface.
  • a perspective view of a state in which a large three-dimensional object is arranged may be displayed on the display device.
  • the shape of the three-dimensional object is not particularly limited, but here, a case where the three-dimensional object is a sphere will be described as an example. In addition, here, three sizes of large, medium, and small are used as the size of the sphere.
  • the display control unit 42 determines a state in which the monitoring surface segment h 1 exists in the upper layer of the monitoring surface segment h 0 and the monitoring surface segment h 2 exists in the upper layer. Further, the display control unit 42 crosses the region 93 in the region 93 (see FIGS. 21 and 22) corresponding to the field of view of the three cameras in each of the monitoring surface segments h 0 to h 2 . Determine the state in which a large sphere is placed. Similarly, the display control unit 42 crosses the region 92 in the region 92 (see FIGS. 21 to 22) corresponding to the field of view of the two cameras in each of the monitoring surface segments h 0 to h 2 .
  • a medium-sized sphere is placed in a region 91 corresponding to the field of view of one camera (see FIGS. 21 to 22), and a small sphere is placed so as to intersect the region 91. Determine the condition.
  • the display control unit 42 may display a perspective view of this state on the display device.
  • the display control unit 42 displays on the display device a perspective view in a state where each of the monitoring surface segments h 0 to h 2 is arranged in the three-dimensional space
  • the display control unit 42 changes the viewpoint according to the operation of the user.
  • the figure may be updated.
  • Each of the displayed monitoring surfaces indicates which region is in the field of view of the cameras 21 to 23 in the three monitoring surface segments h 0 to h 2 corresponding to three kinds of heights in the three-dimensional space. Can be confirmed by minutes. Therefore, also in the fourth embodiment, it is possible to obtain the same effects as in the above-described embodiments.
  • the monitoring object for example, a person
  • the monitoring object can be displayed by more cameras. It can be presented to the user so that the user can easily understand whether the image is being shot. Therefore, the user can easily grasp the range in which the fields of view of more cameras overlap.
  • a perspective view of a state in which a larger three-dimensional object for example, a sphere
  • a larger three-dimensional object for example, a sphere
  • the user can easily grasp how many cameras are used to photograph the monitoring target object based on the size of the three-dimensional object.
  • the display control unit 42 may emphasize and display the area included in the field of view of the designated number of cameras on the display device.
  • the method for specifying the number of cameras is not particularly limited.
  • the user inputs the number of cameras to the view display system 40, and the display control unit 42 emphasizes an area included in the view of the number of cameras specified by the user. Then, it may be displayed on the display device.
  • the number of cameras specified is not limited to one value such as “1”, but may be specified as a range such as “1 or more and less than all (3 in this example)”. .
  • FIG. 23 a case where a top view of a monitoring surface is presented will be described as an example. Further, here, a description will be given by taking the monitoring surface portion h 0 shown in the lower part of FIG. 23 as an example.
  • FIG. 24 is an explanatory diagram showing an example of highlighted display of an area included in the field of view of the designated number of cameras.
  • FIG. 24 shows an example of highlighting in the monitoring plane min h 0.
  • the display control unit 42 is assumed to display the respective monitor surface portions h 0 to h 2 on the display device. Then, it is assumed that a range of “1 or more and 3 or less” is designated as the number of cameras by the user. This means that an instruction has been given from the outside to highlight and display an area included in the field of view of one, two, or three cameras.
  • the display control unit 42 corresponds to the area 91 corresponding to the field of view of one camera and the field of view of the two cameras within the monitoring area h 0 according to the designation of the number of cameras from the user.
  • a region combining the region 92 and the region 93 corresponding to the field of view of the three cameras is highlighted and displayed as illustrated in FIG.
  • Region 95 that is highlighted in the example shown in FIG. 24 is a combined region 91-93 in the monitoring plane min h 0 region.
  • the monitoring surface segment h 0 has been described as an example.
  • the display control unit 42 similarly performs highlighting in the monitoring surface segments h 1 and h 2 shown in FIG. In this modification, the range included in the field of view of the designated number of cameras can be presented to the user in an easily understandable manner.
  • FIG. 25 is an explanatory diagram showing an example of a region highlighted in this case.
  • FIG. 25 shows an example of emphasis display within the monitoring surface segment h0 , as in FIG.
  • the region 96 highlighted in the example shown in FIG. 25 is a range that is not included in the field of view of any camera. In other words, the region 96 is a range that becomes a blind spot in all the cameras.
  • the display control unit 42 performs highlighting in the same manner in the monitoring surface segments h 1 and h 2 shown in FIG. As shown in FIG. 25, the user can easily confirm the range of blind spots for all cameras by designating “0” as the number of cameras.
  • the display control unit 42 also displays the presence range of the obstacle 12 on the display device when performing the highlight display.
  • the display control unit 42 also displays the perspective view of the state in which each monitoring surface portion is arranged in the three-dimensional space on the display device, and within the monitoring surface portion, the field of view of the designated number of cameras. The included area may be emphasized.
  • the field-of-view display system 40 highlights the area for the area of the monitoring surface (hereinafter referred to as the highlighting area). )) May be calculated as a coverage ratio. This definition of the coverage is different from the definition of the coverage in the second embodiment and the definition of the coverage in the third embodiment.
  • the coverage used in the modification of the fourth embodiment may be referred to as a “highlighted area coverage”, but is simply referred to as a coverage for the sake of simplicity.
  • FIG. 26 is a block diagram illustrating a configuration example in the case of calculating the coverage rate in the fourth embodiment.
  • the same elements as those shown in FIG. 18 are denoted by the same reference numerals as those in FIG.
  • the cover rate calculation unit 43 calculates the cover rate when the display control unit 42 highlights an area included in the field of view of the designated number of cameras. Then, the display control unit 42 causes the display device to display the calculated coverage ratio together with the monitoring surface to be highlighted.
  • the cover rate calculation unit 43 may calculate the cover rate for each monitoring surface, or may calculate the coverage for all of the plurality of monitoring surfaces.
  • the cover ratio calculation unit 43 calculates the cover ratio for each monitoring surface.
  • the cover rate calculating unit 43 calculates the cover rate by calculating the following equation (3) for each monitoring surface.
  • the cover rate calculating section 43 coverage the proportion of the area of the highlight region 95 to the area of monitoring surface fraction h 0 (see FIG. 24) Calculate as Coverage calculating section 43, the cover rate of the monitored surface component h 1, and coverage of the monitoring surface min h 2 is also calculated similarly.
  • the display control unit 42 causes the display device to display the coverage ratio calculated for each monitoring surface. For example, when the display control unit 42 emphasizes the area in each of the monitoring surface segments h 0 to h 2 and causes the display device to display the area, the display control unit 42 also adjusts the corresponding coverage ratio in the vicinity of each of the monitoring surface segments h 0 to h 2. Display it.
  • the cover ratio calculation unit 43 calculates the cover ratio by calculating the following equation (4).
  • the cover rate calculating section 43 to the sum of the areas of the monitoring surface min h 0 ⁇ h n, is calculated as a coverage percentage of the total area of the highlight region of the monitored surface min h 0 ⁇ in h n .
  • the cover ratio calculation unit 43 determines the area of the highlight display area in the monitoring surface segment h 0 and the highlight display area in the monitoring surface segment h 1 .
  • the total area of the highlighted area in the monitoring area h 2 is calculated, and the ratio of the total area of the highlighted area to the total area of the monitoring areas h 0 to h 2 is defined as the coverage ratio. calculate.
  • the cover rate calculation unit 43 calculates the cover rate according to Equation (4), the number of calculated cover rates is one regardless of the number of monitoring surfaces.
  • the display control unit 42 displays the coverage rate on the display device.
  • the display control unit 42 may receive the designation of the camera from the user, emphasize the range that fits in the image of the camera, and cause the display device to display it.
  • the display control unit 42 displays the respective monitor surface portions h 0 to h 2 on the display device as illustrated in FIG.
  • the display control unit 42 emphasizes the range that fits in the image of the camera 21 and displays it on the display device, as shown in FIG. In this case, it is possible to present to the user an easy-to-understand range that fits within the designated camera image.
  • the range that fits in the image of the camera 21 is emphasized by a bold line, but may be emphasized by another method.
  • the highlighting of the range that fits in the image of the designated camera has been shown as a modification of the fourth embodiment. However, in each of the above-described embodiments, the range that fits in the image of the designated camera is emphasized. May be displayed.
  • the case where the number of monitoring surfaces is three and the number of cameras is three has been described as an example.
  • the number of monitoring surfaces and the number of cameras are the same as those described above. The number is not limited to that shown in the embodiment.
  • FIG. 28 is a block diagram showing an example of a main part of the present invention.
  • the projection unit 5 is a plane obtained by translating a monitoring target area that defines a range that is a target for confirming the shooting status of the camera, and is a plane determined based on the height of the monitoring target shot by the camera. A position in an image obtained from the camera is projected on a plurality of monitoring surface portions that are minutes, and a field of view that can be captured by the camera without being obstructed by an obstacle is specified.
  • Integrating unit 6 integrates the field of view within each monitoring surface.
  • the display control unit 7 displays the integrated result of the visual field on the display device.
  • FIG. 29 is a block diagram showing another example of the main part of the present invention.
  • the projection unit 5 is the same as the projection unit 5 shown in FIG.
  • the classification unit 41 classifies the monitoring surface portion for each monitoring surface portion based on how many cameras the field of view corresponds to.
  • the display control unit 42 displays each monitoring surface segment on the display device in such a manner that the divided regions in each monitoring surface segment are represented in a manner corresponding to the number of cameras including the region in the field of view.
  • the range in which the camera can capture the entire monitoring object or a certain portion of the monitoring object can be presented in an easily understandable manner for the user.
  • FIG. FIG. 30 shows the configuration of the field-of-view display system according to the fifth embodiment of the present invention.
  • the field-of-view display system according to the fifth embodiment includes a projection unit 51 and an output control unit 53.
  • the projection unit 51 projects the positions in the image obtained from the camera onto a plurality of planes determined based on the height of the monitoring object photographed by the camera, and the camera can photograph. Identify the field of view.
  • the output control unit 53 outputs a plane with a specified field of view three-dimensionally.
  • the output control unit 53 can also be referred to as a three-dimensional unit.
  • the output control unit 53 may cause a state in which planes with a specified field of view are stacked to be three-dimensionally output in a space using, for example, a hologram.
  • the output control unit 53 may cause a 3D printer to output a state in which planes with specified fields of view are stacked, for example, as an object.
  • the projection unit 51 projects the position in the image obtained from the camera onto a plurality of planes that are finely set with respect to the monitoring space.
  • a field of view that is a range in which the camera can shoot may be specified.
  • the output control unit 53 prints each finely set plane on, for example, a 3D printer, and stacks and outputs the blocks like a building block so that the user can check the interior three-dimensionally. can do. Thereby, for example, it is possible to efficiently examine the camera arrangement by a large number of people.
  • the visual field display system of the present invention may be configured as shown in FIG.
  • the field-of-view display system illustrated in FIG. 31 includes a projection unit 55, a sorting unit 56, and an output control unit 57.
  • the projection unit 55 is the same as the projection unit 51 shown in FIG. Specifically, the projection unit 55 projects the positions in the image obtained from the camera onto a plurality of planes determined based on the height of the monitoring object photographed by the camera, and the camera photographs the image. Identify the field of view that is the range that can be done. For example, the projection unit 55 specifies a field of view that is a range that can be captured by the camera without being blocked by an obstacle. In addition, this plane is a plane obtained by translating a monitoring target area that defines a range that is a target of confirmation of a shooting state by a camera, for example.
  • the sorting unit 56 classifies the plane for each plane based on how many cameras the field of view corresponds to.
  • the output control unit 57 outputs each plane in such a manner that the divided areas in each plane are represented in a manner corresponding to the number of cameras including the area in the field of view.
  • the output control unit 57 may superimpose a three-dimensional object according to the number of cameras including the divided area in the field of view on a plane and display the three-dimensional image on the space as a hologram.
  • the output control unit 57 may cause a 3D printer to output, as an object, a shape in which a solid corresponding to the number of cameras including the divided area in the field of view is superimposed on a plane.
  • the visual field display system of the present invention may be configured as shown in FIG.
  • the visual field display system illustrated in FIG. 32 includes a projection unit 65, an integration unit 66, and a display control unit 67.
  • the projection unit 65 is the same as the projection unit 51 shown in FIG. 30 and the projection unit 55 shown in FIG.
  • the integration unit 66 integrates the field of view in each plane. This integration process may be the same as the integration process already described.
  • the display control unit 67 displays the integrated view result on the display device.
  • the processing target of the present invention is a monitoring surface. Not limited to minutes.
  • the projection unit 51 may project positions in an image obtained from the camera onto a plurality of virtual planes in a space that can be captured by the camera.
  • the plurality of virtual planes do not necessarily have to be parallel to the monitoring target area.
  • FIG. 33 shows an example in which the central virtual plane among the three virtual planes is not parallel to the monitoring target area. Projecting onto a virtual plane as shown in FIG. 33 is also within the scope of the present invention.
  • Projecting means for projecting a position in an image obtained from the camera to a plurality of monitoring surface portions, and identifying a field of view that is a range that the camera can capture without being obstructed by an obstacle A visual field display system comprising: integrated means for integrating visual fields within each of the monitoring planes; and display control means for displaying visual field integration results on a display device.
  • the integration means extracts the area corresponding to the field of view for any monitoring surface for each camera as the integration result of the field of view, and the display control means displays the extracted area for each camera.
  • the integration means is a visual field ratio which is a ratio of the number of the monitoring surface parts to which the said position belongs to the visual field with respect to the total number of the monitoring surface parts for every position other than the obstacle existing range in the monitoring object area.
  • the display control means includes, for each camera, an area corresponding to each visibility ratio in the monitoring target area in a manner corresponding to the visibility ratio.
  • the visual field display system according to supplementary note 1 to be displayed.
  • the integration means includes a cover ratio calculation means for calculating a cover ratio that is a ratio of the sum of the calculated visibility ratios to the number of positions where the visibility ratios are calculated in the monitoring target area for each camera.
  • the visual field display system according to supplementary note 3, wherein the display control means causes the display device to display the coverage of each camera.
  • the integration means is a visual field ratio which is the ratio of the number of the monitoring surface where the position belongs to the visual field with respect to the total number of the monitoring surface for every position other than the obstacle existing range in the monitoring target area.
  • a visibility ratio calculation means for each camera, and for each position other than the obstacle existence range in the monitoring target area, the upper predetermined ratio among the visibility ratios calculated for each camera with respect to the position.
  • an average visibility ratio calculating means for calculating an average visibility ratio that is an average value of the visibility ratios up to the rank, and the display control means determines the area corresponding to each average visibility ratio in the monitoring target area according to the average visibility ratio.
  • the visual field display system according to appendix 1, wherein the visual field is displayed on the display device in the above manner.
  • the integration unit includes a cover rate calculation unit that calculates a cover rate that is a ratio of the sum of the calculated average visibility ratios to the number of positions in which the visibility rate is calculated in the monitoring target area.
  • a segmenting means for segmenting the monitoring surface segment based on how many cameras are in view, and a camera that includes the segmented area in each monitoring surface segment in the field of view
  • a visual field display system comprising: display control means for displaying each monitor surface portion on a display device in a manner corresponding to the number of the display surfaces.
  • a visual field display system of Additional remark 9 which a display control means displays on a display apparatus the perspective view of the state which has arrange
  • the display control means arranges each monitoring surface segment in a three-dimensional space, and displays a larger three-dimensional object in a divided region in the monitoring surface segment as the number of cameras including the region in the field of view increases.
  • 12. The field-of-view display system according to appendix 9 or appendix 11, wherein the display device displays a perspective view of the arranged state.
  • cover ratio calculation means which calculates the cover ratio which is the ratio of the area of the area
  • the visual field display system according to 13.
  • the cover ratio calculation means calculates the ratio of the total area of the areas displayed highlighted in each monitoring surface area to the total area of each monitoring surface area as a cover ratio, and displays control means The visual field display system according to appendix 14, wherein the cover rate is displayed on a display device.
  • a visual field display system comprising: a projecting unit that identifies a visual field, an integrating unit that integrates the visual field in each plane, and a display control unit that displays a visual field integration result on a display device.
  • a visual field display system comprising: a projecting unit that identifies the visual field, and an output control unit that three-dimensionally outputs a plane in which the visual field is identified.
  • a visual field display system comprising: output control means for outputting each plane in a manner corresponding to the number of cameras included in the visual field.
  • Additional remark 25 The visual field display system of Additional remark 23 or Additional remark 24 which specifies the visual field which is the range which the said camera can image
  • the output control means may superimpose a solid corresponding to the number of cameras including the divided area in the field of view on a plane, and display the three-dimensionally in space in any one of Supplementary 23 to Supplementary 25 Visibility display system as described.
  • the output control means is any one of Supplementary note 23 to Supplementary note 25, in which a 3D printer outputs a shape in which a solid corresponding to the number of cameras including a segmented region in the field of view is superimposed on a plane. Visibility display system according to.
  • the present invention is preferably applied to a field-of-view display system that identifies a field of view of a camera that can photograph a monitoring object well and displays the field of view.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

 カメラが監視対象物全体または監視対象物のある程度以上の部分を撮影できる範囲を、ユーザにとって理解しやすく提示することができる視界表示システムを提供する。投影部5は、カメラによる撮影状況の確認対象となる範囲を規定する監視対象領域を平行移動した面分であって、そのカメラに撮影される監視対象物の高さに基づいて定められた面分である複数の監視面分に対して、そのカメラから得られる画像内の位置を投影し、障害物によって遮られずにそのカメラが撮影することができる範囲である視界を特定する。統合部6は、各監視面分内の視界を統合する。表示制御部7は、視界の統合結果を表示装置に表示させる。

Description

視界表示システム、視界表示方法および視界表示プログラム
 本発明は、監視対象物を良好に撮影できるカメラの視界を特定し、その視界を表示する視界表示システム、視界表示方法および視界表示プログラムに関する。
 カメラの撮影範囲を表示する技術が特許文献1に記載されている。特許文献1に記載された技術では、表示装置に表示された所定エリアの上面図上で、カメラの位置等を指定すると、カメラの撮影範囲を投影した水平視野をその上面図内に表示するとともに、カメラの光軸を含み水平面に垂直な面内におけるカメラの視野である垂直視野を立面図内に表示する。図34は、特許文献1に記載の技術によって表示される水平視野および垂直視野を表す模式図である。
 特許文献1に記載の技術では、例えば、上面図100においてカメラの位置を指定すると、カメラを表すカメラ表示子101が上面図100上に表示される。また、ユーザは、カメラの高さを、立面図107に表示されるカメラ表示子111をドラッグすることで調整する。カメラの位置が指定されると、計算された水平視野105が上面図100に表示され、垂直視野115が立面図107に表示される。垂直視野115は、カメラの光軸110を含む。また、人物のアイコンを上面図100上にドラッグアンドドロップすると、その位置に人物表示子102が表示され、さらに、立面図107内にも人物表示子112が表示される。同様に、カメラの障害物となる壁の存在位置を指定することで、壁表示子103が上面図に表示される。なお、図34において、上面図100内の人物表示子を符号“102”で表し、立面図107内の人物表示子を符号“112”で表す。
 特許文献1に記載の技術では、上記のような表示を行うことで、カメラの視野と、所定エリア内の壁、人物等との関係を提示して、カメラの配置位置の調整に利用される。
特開2009-239821号公報
 しかし、特許文献1に記載された技術では、カメラが監視対象物(本例では、人物とする。)全体を撮影することができる範囲を明示的に表示することができない。例えば、図34に示す上面図100内では、人物表示子102は、水平視野105内に収まっている。しかし、このことは、必ずしもカメラが人物の全身を撮影可能であることを意味しない。図34に示す例では、立面図107内の人物表示子112は、足下に該当する部分しか垂直視野115に収まっていない。従って、人物の足下しか撮影されない。人物の全身がカメラによって撮影される範囲を見つけようとすると、人物表示子102をドラッグして、上面図100と立面図107の両方を確認し、人物表示子が水平視野105および垂直視野115のいずれにも包含される範囲を手作業で特定していかなければならない。また、人物の全身がカメラによって撮影される範囲が最大となるカメラの最適な配置状態を決定することが好ましい。しかし、そのような範囲を特定しようとする場合、特許文献1に記載された技術では、カメラの配置状態を変えつつ、上記のように、人物の全身がカメラによって撮影される範囲を手作業で特定していくことになる。従って、作業負担が大きく、カメラの最適な配置状態を決定することは困難である。特に、カメラが複数台存在する場合には、各カメラを良好な配置状態に調整することはさらに困難になる。
 また、特許文献1に記載の技術では、垂直視野115として、光軸110を含む面内における垂直視野115しか表示されない。従って、上面図100内で、光軸以外の方向に壁表示子103等の障害物を配置したとしても、その障害物によって人物が隠れるか否かを明示することができない。
 そこで、本発明は、カメラが監視対象物全体または監視対象物のある程度以上の部分を撮影できる範囲を、ユーザにとって理解しやすく提示することができる視界表示システム、視界表示方法および視界表示プログラムを提供することを目的とする。
 本発明による視界表示システムは、カメラによる撮影状況の確認対象となる範囲を規定する監視対象領域を平行移動した面分であって、カメラに撮影される監視対象物の高さに基づいて定められた面分である複数の監視面分に対して、カメラから得られる画像内の位置を投影し、障害物によって遮られずにカメラが撮影することができる範囲である視界を特定する投影手段と、各監視面分内の視界を統合する統合手段と、視界の統合結果を表示装置に表示させる表示制御手段とを備えることを特徴とする。
 また、本発明による視界表示システムは、カメラによる撮影状況の確認対象となる範囲を規定する監視対象領域を平行移動した面分であって、カメラに撮影される監視対象物の高さに基づいて定められた面分である複数の監視面分に対して、カメラから得られる画像内の位置を投影し、障害物によって遮られずにカメラが撮影することができる範囲である視界を特定する投影手段と、監視面分毎に、監視面分を何台のカメラの視界に該当しているかに基づいて区分けする区分け手段と、個々の監視面分内の区分けされた領域を、その領域を視界に含むカメラの台数に応じた態様で表すようにして、各監視面分を表示装置に表示させる表示制御手段とを備えることを特徴とする。
 また、本発明による視界表示方法は、カメラによる撮影状況の確認対象となる範囲を規定する監視対象領域を平行移動した面分であって、カメラに撮影される監視対象物の高さに基づいて定められた面分である複数の監視面分に対して、カメラから得られる画像内の位置を投影し、障害物によって遮られずにカメラが撮影することができる範囲である視界を特定し、各監視面分内の視界を統合し、視界の統合結果を表示装置に表示させることを特徴とする。
 また、本発明による視界表示方法は、カメラによる撮影状況の確認対象となる範囲を規定する監視対象領域を平行移動した面分であって、カメラに撮影される監視対象物の高さに基づいて定められた面分である複数の監視面分に対して、カメラから得られる画像内の位置を投影し、障害物によって遮られずにカメラが撮影することができる範囲である視界を特定し、監視面分毎に、監視面分を何台のカメラの視界に該当しているかに基づいて区分けし、個々の監視面分内の区分けされた領域を、その領域を視界に含むカメラの台数に応じた態様で表すようにして、各監視面分を表示装置に表示させることを特徴とする。
 また、本発明による視界表示プログラムは、コンピュータに、カメラによる撮影状況の確認対象となる範囲を規定する監視対象領域を平行移動した面分であって、カメラに撮影される監視対象物の高さに基づいて定められた面分である複数の監視面分に対して、カメラから得られる画像内の位置を投影し、障害物によって遮られずにカメラが撮影することができる範囲である視界を特定する投影処理、各監視面分内の視界を統合する統合処理、および、視界の統合結果を表示装置に表示させる表示制御処理を実行させることを特徴とする。
 また、本発明による視界表示プログラムは、コンピュータに、カメラによる撮影状況の確認対象となる範囲を規定する監視対象領域を平行移動した面分であって、カメラに撮影される監視対象物の高さに基づいて定められた面分である複数の監視面分に対して、カメラから得られる画像内の位置を投影し、障害物によって遮られずにカメラが撮影することができる範囲である視界を特定する投影処理、監視面分毎に、監視面分を何台のカメラの視界に該当しているかに基づいて区分けする区分け処理、および、個々の監視面分内の区分けされた領域を、その領域を視界に含むカメラの台数に応じた態様で表すようにして、各監視面分を表示装置に表示させる表示制御処理を実行させることを特徴とする。
 本発明によれば、カメラが監視対象物全体または監視対象物のある程度以上の部分を撮影できる範囲を、ユーザにとって理解しやすく提示することができる。
本発明の第1の実施形態の視界表示システムの構成例を示すブロック図である。 監視面分の例を示す模式図である。 画像の座標系を示す説明図である。 カメラパラメータによって定まる各カメラの位置と、監視面分との位置関係の例を示す模式図である。 図4に示す各カメラの画像領域を各監視面分に投影した結果を示す説明図である。 第1の実施形態における視界の統合を模式的に示す説明図である。 本発明の第1の実施形態の処理経過の例を示すフローチャートである。 第1の実施形態における視界の統合結果の表示例を示す説明図である。 本発明の第2の実施形態の視界表示システムの構成例を示すブロック図である。 第2の実施形態における視界の統合を模式的に示す説明図である。 第2の実施形態の処理経過の例を示すフローチャートである。 第2の実施形態における視界の統合結果の表示例を示す説明図である。 特定の数値範囲に該当する視界率に対応する領域の強調表示の例を示す説明図である。 強調表示の他の例を示す説明図である。 本発明の第3の実施形態の視界表示システムの構成例を示すブロック図である。 平均視界率の算出例を示す説明図である。 第3の実施形態の処理経過の例を示すフローチャートである。 本発明の第4の実施形態の視界表示システムの構成例を示すブロック図である。 本発明の第4の実施形態の処理経過の例を示すフローチャートである。 監視面分の区分け結果の例を示す説明図である。 監視面分の区分け結果の例を示す説明図である。 監視面分の区分け結果の例を示す説明図である。 ステップS22における表示形式の一例を示す説明図である。 第4の実施形態における強調表示の例を示す説明図である。 第4の実施形態における強調表示の例を示す説明図である。 本発明の第4の実施形態の視界表示システムの他の構成例を示すブロック図である。 カメラを指定された場合の強調表示の例を示す説明図である。 本発明の主要部の例を示すブロック図である。 本発明の主要部の他の例を示すブロック図である。 第5の実施形態の視界表示システムの構成を示すブロック図である。 本発明の視界表示システムの他の構成例を示すブロック図である。 本発明の視界表示システムの他の構成例を示すブロック図である。 仮想的な平面が監視対象領域に対して平行でない例を示す説明図である。 特許文献1に記載の技術によって表示される水平視野および垂直視野を表す模式図である。
 以下、本発明の実施形態を図面を参照して説明する。
実施形態1.
 図1は、本発明の第1の実施形態の視界表示システムの構成例を示すブロック図である。本発明の視界表示システム1は、情報登録部2と、情報記憶部3と、監視面分決定部4と、投影部5と、統合部6と、表示制御部7とを備える。
 情報記憶部3は、カメラの配置位置、姿勢、画角、レンズ歪み等のカメラに関する情報(カメラパラメータ)と、カメラの画面サイズと、監視対象領域を示す情報と、カメラによって撮影される監視対象物の位置、高さ等の監視対象物に関する情報と、監視対象領域に配置される障害物の位置、高さ等の障害物に関する情報とを記憶する記憶装置である。情報登録部2には、例えば、ユーザの操作によってこれらの情報が入力され、情報登録部2は、入力された情報を情報記憶部3に記憶させる。以下の説明では、監視対象物が人物である場合を例にして説明する。また、複数のカメラを想定する場合には、ユーザは、カメラ毎にカメラパラメータを入力し、情報登録部2は、各カメラのカメラパラメータを情報記憶部3に記憶させる。
 監視対象領域とは、カメラによる撮影状況の確認対象となる範囲を規定する面分であり、水平面内の面分として定められる。この監視対象領域を垂直方向に平行移動して定められる3次元空間が、カメラによる撮影状況の確認対象となる範囲として規定される。例えば、カメラが設置される部屋の床の面分を監視対象領域として定めてもよい。この例では、その面分を垂直上向きに平行移動して定められる3次元空間が、撮影状況の確認対象となる範囲となる。
 監視面分決定部4は、情報記憶部3に記憶された監視対象領域を示す情報、および、監視対象物に関する情報を参照し、監視対象物の高さに基づいて、複数の監視面分を決定する。監視面分とは、監視対象領域を平行移動した面分である。従って、監視面分の大きさは、監視対象領域と同じである。監視面分決定部4は、監視対象物の下端(例えば、人物の足先)近傍から、監視対象物の上端(例えば、人物の頭頂部)近傍までの範囲内で、複数の監視面分を決定する。この複数の監視面分には、監視対象物の下端近傍の監視面分や、上端近傍の監視面分も含まれる。図2は、監視面分の例を示す模式図である。図2に示す例では、情報記憶部3に、監視対象領域11を示す情報、人物13を示す情報、障害物12を示す情報が記憶されているものとする。そして、図2では、監視面分決定部4は、人物13の下端近傍から、上端近傍までの範囲内で3枚の監視面分h~hを決定した場合を例示している。本例では、人物13の下端における監視面分hは、監視対象領域11と同一の面分である。
 次に、投影部5について説明する。まず、カメラによって得られる画像の座標系および画像領域について説明する。カメラのカメラパラメータおよび画面サイズが定まると、そのカメラによって得られる画像(カメラによる撮影画像)の2次元座標系とともに、その座標系において、その画像に該当する領域が定まる。この領域を画像領域と記す。画像領域は、カメラによって得られる画像の画面全体を示す領域である。画像領域は、カメラ毎に定まる。
 図3は、カメラによって得られる画像の座標系を示す説明図である。図3に示すように、カメラによって得られる画像内の任意の位置32は、カメラ正面のxy座標系(すなわち2次元座標系)の座標として表される。また、画像領域31は、その画像の画面全体を示す領域であり、そのxy座標系内の領域である。カメラパラメータと画面サイズによって、画像領域31が定まる。
 また、カメラ位置と、画像領域31内の位置とを通過する直線から、画像領域31内のその位置に対応する3次元空間内の座標を求めることを投影と言う。例えば、2次元座標で表される画像領域31内の位置32に対応する3次元空間の位置33を求めることは投影に該当する。投影は、カメラの配置位置、姿勢、画角、レンズ歪み等のカメラパラメータを用いて、画像領域31内の位置を表す2次元座標を、実空間の3次元座標に変換することによって実現することができる。
 投影部5は、カメラ毎に、画像領域31を各監視面分に投影する。図4は、カメラパラメータによって定まる各カメラの位置と、監視面分との位置関係の例を示す模式図である。例えば、投影部5は、カメラ21の画像領域31(図3参照)を、監視面分h,h,hにそれぞれ投影する。投影部5は、他のカメラ22,23に関しても同様に、画像領域を、監視面分h,h,hにそれぞれ投影する。
 さらに、投影部5は、投影を行う際に障害物の位置および大きさの情報を参照し、カメラ位置と、監視面分上の投影点とを結ぶ直線上に、障害物が存在するか否かを判定する。そして、投影部5は、カメラ位置と監視面分上の投影点とを結ぶ直線上に障害物が存在していると判定した場合、その監視面分上の投影点は、障害物に遮られてカメラが撮影できない点であると判定する。一方、投影部5は、カメラ位置と監視面分上の投影点とを結ぶ直線上に障害物が存在しないと判定した場合、その監視面分上の投影点は、障害物に遮られずにカメラが撮影できる点であると判定する。
 投影部5は、監視面分上の投影点に対して上記の判定を行うことによって、監視面分内で、障害物に遮られずにカメラが撮影できる範囲である視界を特定する。
 また、投影部5は、画像領域を投影した監視面分に、障害物の存在範囲も重畳して示すことが好ましい。障害物の存在範囲は、特定の色(半透明色でもよい。)で表されてもよい。また、障害物の存在範囲の外周が特定の線種で表されていてもよい。
 図5は、図4に示す各カメラの画像領域を各監視面分に投影した結果を示す説明図である。図5に示す左側の列から、それぞれ、カメラ21に関する投影結果、カメラ22に関する投影結果、カメラ23に関する投影結果を示している。また、図5に示す1番上の行から、それぞれ、監視面分hへの投影結果、監視面分hへの投影結果、監視面分hへの投影結果を示している。
 カメラの画像領域を水平面に投影した結果は台形となる。例えば、カメラ21の画像領域を監視面分hに投影した結果は、台形ABCD(図5参照)となる。この台形の大きさは、監視面分の高さによって異なり、カメラの高さと監視面分の高さとの差が広がるほど、投影結果を示す台形は大きくなる。ただし、この台形のうち、監視面分からはみ出す部分に関しては、投影部5は、投影結果に含めない。
 前述のように、投影部5は、監視面分に障害物を重畳して示すことが好ましい。図5に示す例では、監視面分内で、障害物12が存在する範囲を白色で塗りつぶし、その範囲の外周を実線で示している。
 図5に示す各投影結果において、斜線で示した範囲は、障害物12に遮られずにカメラが撮影することができる視界を表している。この視界は、カメラ毎に異なる。さらに、1つのカメラに着目した場合、視界は、監視面分の高さによっても異なる。
 また、図5に示す各監視面分h~hにおいて、視界および障害物以外の領域は、障害物に遮られてカメラが撮影できない範囲および画像領域の投影先に該当しない範囲である。すなわち、監視面分内で視界以外の範囲は、カメラが監視対象物を撮影できない範囲である。
 統合部6は、各監視面分で特定されたカメラの視界を統合する。
 第1の実施形態では、統合部6は、カメラ毎に、いずれの監視面分h~hにおいても視界に該当している領域を抽出し、その抽出結果を視界の統合結果とする。
 図6は、第1の実施形態における視界の統合を模式的に示す説明図である。図6では、カメラ22の視界の統合を例示している。図6に示す視界27は、監視面分h内の視界である。同様に、視界26は、監視面分h内の視界であり、視界25は、監視面分h内の視界である。統合部6は、各監視面分h~h内の視界25,26,27において共通の領域28を抽出し、その領域28を各監視面分内の視界の統合結果として決定する。
 視界25,26,27は、その視界に対応する監視面分の高さにおいて、障害物に遮られずにカメラ22が監視対象物を撮影できる範囲を表している。従って、各高さの監視面分h~h内の視界25,26,27の共通の領域28(図6参照)に監視対象物が存在している場合、カメラ22は監視対象物の下端近傍から上端近傍までを撮影できる。すなわち、視界25,26,27の統合結果である領域28は、カメラ22が、監視対象物全体を撮影できる領域であるということができる。
 統合部6は、上記のような視界の統合をカメラ毎に行う。従って、第1の実施形態では、視界の統合結果は、カメラ毎に得られる。
 表示制御部7は、カメラ毎に得られた視界の統合結果を表示装置(図示略)に表示させる。なお、視界表示システム1が表示装置を備えていてもよい。
 情報登録部2、監視面分決定部4、投影部5、統合部6および表示制御部7は、例えば、視界表示プログラムに従って動作するコンピュータのCPUによって実現される。この場合、CPUが視界表示プログラムを読み込み、そのプログラムに従って、情報登録部2、監視面分決定部4、投影部5、統合部6および表示制御部7として動作すればよい。また、視界表示プログラムは、コンピュータが読み取り可能な記録媒体に記録されていてもよい。また、情報登録部2、監視面分決定部4、投影部5、統合部6および表示制御部7がそれぞれ別々のハードウェアで実現されていてもよい。
 次に、本実施形態の処理経過について説明する。図7は、本発明の第1の実施形態の処理経過の例を示すフローチャートである。なお、情報記憶部3には、既にカメラパラメータ等の各種情報が記憶されているものとする。まず、監視面分決定部4は、監視対象領域を示す情報、および、監視対象物に関する情報を参照し、監視対象物の下端近傍から上端近傍までの範囲内で、複数の監視面分を決定する(ステップS1)。なお、予め複数の監視面分が定められ、その監視面分の情報が情報記憶部3に記憶されていてもよい。この場合、ステップS1は省略されてもよい。また、この場合、視界表示システム1は、監視面分決定部4を備えていなくてもよい。
 ステップS1の後、投影部5は、カメラ毎に、カメラによって得られる画像の画像領域を各監視面分に投影する(ステップS2)。さらに、ステップS2において、投影部5は、各監視面分内で視界に該当する領域を特定する。また、投影部5は、各監視面分に、障害物の存在範囲も重畳することが好ましい。
 次に、統合部6は、監視面分内の視界を統合する(ステップS3)。本実施形態では、統合部6は、カメラ毎に、各監視面分に表された各視界の共通の領域を抽出し、その領域を統合結果とする。
 表示制御部7は、カメラ毎に得られた視界の統合結果を表示装置(図示略)に表示させる(ステップS4)。図8は、第1の実施形態における視界の統合結果の表示例を示す説明図である。例えば、表示制御部7は、カメラ22に関して、図8に例示するように、視界の統合によって得た領域28を監視対象領域11とともに表示装置に表示させる。また、表示制御部7は、投影部5によって重畳された障害物12の存在範囲も合わせて表示装置に表示させる。表示制御部7は、他のカメラの視界の統合結果も同様に表示装置に表示させる。
 第1の実施形態では、カメラ毎に、各高さの監視面分における視界の共通領域を抽出して表示装置に表示させる。従って、監視対象物(例えば、人物)の下端近傍から上端近傍までを撮影できる監視対象領域内の範囲をユーザに提示することができる。従って、ユーザは、監視対象物全体をカメラが撮影できる監視対象領域内の範囲を容易に把握することができる。さらに、カメラパラメータを変更させて、その範囲の変化を確認することで、その範囲が最大となるように、カメラの位置、姿勢、画角等を調整しやすくなる。
 なお、第1の実施形態では、カメラの台数が1台であってもよい。
実施形態2.
 第2の実施形態の視界表示システムは、監視対象物全体が見える範囲に限らず、監視対象領域内の位置において、監視対象物全体(例えば、人物の全身)のうちどの程度の部分がカメラで撮影可能であるかを可視化して、ユーザに提示する。
 図9は、本発明の第2の実施形態の視界表示システムの構成例を示すブロック図である。第1の実施形態と同様の要素に関しては、図1と同一の符号を付し、説明を省略する。第2の実施形態の視界表示システムは、第1の実施形態における統合部6(図1参照)の代わりに、統合部6a(図9参照)を備える。統合部6aは、視界率算出部61と、カバー率算出部63aとを備える。
 視界率算出部61は、監視対象領域11(図2参照)内の、障害物の存在範囲以外の位置毎に視界率を算出する。また、視界率算出部61は、視界率の算出をカメラ毎に行う。
 視界率とは、着目している位置が視界に属している監視面分の数の、監視面分の総数に対する割合である。図2に示す例では、監視面分の総数は“3”である。そして、例えば、監視対象領域11内のある位置に着目した場合、その位置が2つの監視面分h,hでは視界に属しているが、残りの監視面分hでは視界に属していないとする。この場合、視界率算出部61は、その着目している位置の視界率を、“2/3”とする。視界率算出部61は、上記の視界率算出を障害物の存在範囲以外の位置毎に行う。ただし、視界率算出部61は、視界率の算出を、密に連続する位置毎に行う必要はない。例えば、視界率算出部61は、監視対象領域11(障害物の存在範囲は除く。)を一定範囲毎に分割し、分割した各領域からそれぞれ代表位置を定め、その代表位置における視界率を算出してもよい。そして、視界率算出部61は、その視界率を、代表位置が属している分割領域の視界率として定めてもよい。
 視界率算出部61は、監視対象領域11(障害物の存在範囲は除く。)の位置毎に視界率を算出すると、監視対象領域11内において、個々の視界率に対応した領域を特定する。このように特定された視界率毎の領域が、第2の実施形態における視界の統合結果となる。
 図10は、第2の実施形態における視界の統合を模式的に示す説明図である。図10では、カメラ22の視界の統合を例示している。図10に示す視界25~27は、図6に示す視界25~27と同様であり、説明を省略する。視界率算出部61は、監視対象領域11(障害物の存在範囲は除く。)の位置毎に視界率を算出する。本例では、監視面分が3つ存在するので、視界率として“0”,“1/3”,“2/3”,“3/3=1”が算出され得る。視界率算出部61は、監視対象領域11内において、これらの各視界率に対応した領域を特定する。図10に示す例では、領域73は、視界率“3/3=1”の領域である。また、領域72,74は、視界率“2/3”の領域である。また、領域71,75は、視界率“1/3”の領域である。その他の領域は、視界率“0”の領域である。
 なお、障害物12の存在範囲は、視界率算出の対象ではない。視界率算出部61は、監視対象領域11に障害物12の存在範囲を重畳させることが好ましい。障害物の存在範囲は、特定の色(半透明色でもよい。)で表されてもよい。また、障害物の存在範囲の外周が特定の線種で表されていてもよい。この点は、第1の実施形態と同様である。また、後述の各実施形態においても同様である。
 カバー率算出部63aは、カメラ毎にカバー率を算出する。カバー率は、監視対象領域11内で視界率を算出した位置の数に対する、算出された視界率の和の割合である。すなわち、カバー率算出部63aは、以下に示す式(1)の計算によってカバー率を算出する。
Figure JPOXMLDOC01-appb-M000001
 カバー率は、監視対象領域11に対する監視対象物を監視できる領域の割合であるということもできる。
 第2の実施形態で式(1)によって計算したカバー率は、「視界率に基づくカバー率」と称することもできるが、説明を簡単にするため、単にカバー率と記す。
 また、カバー率算出部63aは、式(1)の計算によってカバー率を算出する際、指定された数値範囲の視界率を式(1)の右辺の分子における加算対象としてもよい。すなわち、カバー率算出部63aは、式(1)の右辺の分子の計算において、指定された数値範囲の視界率のみを加算し、その数値範囲外の視界率は無視し(例えば、0とみなし)、式(1)によってカバー率を算出してもよい。この数値範囲の指定方法は、特に限定されない。例えば、ユーザが視界率の数値範囲を視界表示システム1に入力することで数値範囲を指定してもよい。
 また、表示制御部7は、視界の統合結果とともに、カバー率も表示装置に表示させる。
 統合部6a(具体的には、視界率算出部61およびカバー率算出部63a)は、例えば、視界表示プログラムに従って動作するCPUによって実現される。
 図11は、第2の実施形態の処理経過の例を示すフローチャートである。ステップS1,S2の処理は、第1の実施形態におけるステップS1,S2と同様である。第2の実施形態では、ステップS2の後、視界率算出部61は、監視対象領域11内の、障害物の存在範囲以外の位置毎に視界率を算出する。そして、視界率算出部61は、監視対象領域11内において、算出した各視界率に対応した領域を特定する(ステップS5)。視界率算出部61は、この処理をカメラ毎に行う。ステップS5の結果が、第2の実施形態における視界の統合結果である。
 次に、カバー率算出部63aが、式(1)の計算によって、カバー率を算出する(ステップS6)。カバー率算出部63aは、カメラ毎にカバー率を算出する。
 次に、表示制御部7は、カメラ毎に得られた視界の統合結果を表示装置(図示略)に表示させる(ステップS4)。図12は、第2の実施形態における視界の統合結果の表示例を示す説明図である。例えば、表示制御部7は、カメラ22に関して、図12に示すように、各視界率に対応した領域として特定された各領域を、その視界率に応じた態様で表示装置に表示させる。視界率に応じた態様で各領域を表示する例として、例えば、視界率に応じた色、模様、輝度等で各領域を区別して表示することが挙げられる。なお、領域を区別して表示する場合、色、模様、輝度以外の事項で区別してもよい。この点は、他の実施形態でも同様である。図12に示す例では、視界率“3/3=1”の領域73と、視界率“2/3”の領域72,74と、視界率“1/3”の領域71,75と、その他の領域(視界率“0”の領域)とで、模様を区別している。また、表示制御部7は、重畳された障害物12の存在範囲も合わせて表示装置に表示させる。
 また、表示制御部7は、図12に示すように、カバー率も合わせて表示装置に表示させる。なお、図12では、カバー率を直接表示する例を示しているが、カバー率の表示方法は、特に限定されない。例えば、横軸を各カメラの識別番号とし、縦軸をカバー率として、カメラ毎のカバー率の違いを表すグラフによってカバー率を表示してもよい。
 第2の実施形態では、視界率に応じた色、模様、輝度等で各視界率に対応する領域を表示装置に表示させる。そして、視界率が高いほど、監視対象物(例えば、人物)の多くの部分を撮影できることを意味する。従って、カメラが監視対象物全体または監視対象物のある程度以上の部分を撮影できる範囲を、ユーザに理解しやすく提示することができる。従って、ユーザは、監視対象物全体またはその多くの部分をカメラが撮影できる監視対象領域内の範囲を容易に把握することができる。さらに、カメラに関する情報を変更させて、その範囲の変化を確認することで、その範囲が最大となるように、カメラの位置、姿勢、画角等を調整しやすくなる。
 また、カバー率も表示することによって、監視対象領域11に対する、カメラが監視対象物を監視できる領域の割合もユーザに提示することができる。
 次に、第2の実施形態の変形例について説明する。第2の実施形態において、カバー率の表示を省略してもよい。この場合、第2の実施形態の視界表示システム1は、カバー率算出部63aを備えていなくてもよく、ステップS6(図11参照)を実行しなくてよい。
 また、第2の実施形態では、ステップS4において、表示制御部7は、指定された数値範囲に該当する視界率に対応する領域を強調して表示装置に表示させてもよい。この数値範囲の指定方法は、特に限定されず、例えば、ユーザが強調して表示すべき領域に対応する視界率の数値範囲を視界表示システム1に入力し、表示制御部7は、ユーザによって指定された数値範囲に該当する視界率に対応する領域を強調して表示装置に表示させてもよい。
 図13は、特定の数値範囲に該当する視界率に対応する領域の強調表示の例を示す説明図である。例えば、表示制御部7が、図12に例示するように、各視界率に対応する各領域を表示装置に表示させているとする。そして、強調して表示すべき領域に対応する視界率の数値範囲として、“2/3以上1以下”という範囲が指定されたとする。この場合、“2/3以上1以下”の範囲の視界率に対応する領域は、視界率“2/3”に対応する領域72,74と、視界率“1”に対応する領域73である。従って、表示制御部7は、図12に示す領域72~74を合わせた領域を図13に例示するように強調して表示する。図13に示す例で強調表示されている領域77は、領域72~74を合わせた領域である。このように、本変形例では、表示制御部7が、指定された領域を強調して表示装置に表示させることにより、監視対象物の大部分を確実に撮影することができる有効な視界を、視覚的に明示することができる。また、視界率の数値範囲として“1”のみを指定した場合、強調表示される領域は、第1の実施形態で表示される視界の統合結果と同様になる。
 また、強調して表示すべき領域に対応する視界率の数値範囲として“0”のみを指定してもよい。図14は、この場合に強調表示される領域の例を示す説明図である。すなわち、図14に示す例で強調表示されている領域78は、視界率“0”に該当する範囲であり、換言すれば、カメラの死角に該当する範囲である。このように、ユーザは、数値範囲として“0”を指定することで、カメラの死角に該当する範囲を視覚的に明確に確認することができる。
 なお、図13および図14では、指定された数値範囲外の視界率に対応する領域(すなわち、強調しない領域)を一律に単色で表示する場合を例示している。また、図13および図14に例示するように、表示制御部7は、強調表示を行う場合にも、障害物12の存在範囲も合わせて表示装置に表示させることが好ましい。
実施形態3.
 図15は、本発明の第3の実施形態の視界表示システムの構成例を示すブロック図である。第1の実施形態や第2の実施形態と同様の要素に関しては、図1や図9と同一の符号を付し、説明を省略する。第3の実施形態の視界表示システムは、第1の実施形態における統合部6(図1参照)の代わりに、統合部6b(図15参照)を備える。統合部6bは、視界率算出部61と、平均視界率算出部62と、カバー率算出部63bとを備える。
 視界率算出部61は、第2の実施形態における視界率算出部61と同様である。
 平均視界率算出部62は、監視対象領域11(図2参照)内の、障害物の存在範囲以外の位置毎に平均視界率を算出する。
 既に説明したように、視界率算出部61は、視界率の算出を、密に連続する位置毎に行う必要はない。平均視界率算出部62も、平均視界率の算出を、密に連続する位置毎に行う必要はない。例えば、平均視界率算出部62は、監視対象領域11(障害物の存在範囲は除く。)を一定範囲毎に分割し、分割した各領域からそれぞれ代表位置を定め、その代表位置における平均視界率を算出してもよい。そして、平均視界率算出部62は、その平均視界率を、代表位置が属している分割領域の平均視界率として定めてもよい。そして、平均視界率算出部62は、視界率算出部61が視界率を算出した位置に関して、平均視界率を算出すればよい。すなわち、平均視界率の算出位置は、視界率算出部61による視界率の算出位置と同一である。
 ここで、平均視界率とは、監視対象領域11(障害物の存在範囲は除く。)内の着目した位置に関して、視界率算出部61によってカメラ毎に算出された視界率のうち、上位所定順位までの視界率の平均値である。例えば、監視対象領域11(障害物の存在範囲は除く。)内のある位置Pに関して、個々のカメラ毎に視界率が算出されたとする。また、平均視界率の算出対象の順位として1位からn位までの上位n番目までの順位が定められているとする。この場合、その位置Pの視界率のうち、1番高い視界率から、n番目に高い視界率までのn個の視界率の平均値が平均視界率となる。従って、平均視界率算出部62は、位置Pの視界率のうち、1番高い視界率から、n番目に高い視界率までのn個の視界率の平均値を、位置Pにおける平均視界率として算出すればよい。なお、上記の“n”の値は、予め定められている。
 図16は、平均視界率の算出例を示す説明図である。以下の説明では、図2に示す場合と同様に、3つの監視面分h~hが定められているものとする。また、上記のnは“2”であるものとする。すなわち、平均視界率算出部62が、1つの位置に対してカメラ毎に算出された視界率のうち、上位2つの視界率の平均値を平均視界率として算出する場合を例にして説明する。図16では、左側から、カメラ21に関して視界率算出部61が定めた視界率毎の領域、カメラ22に関して視界率算出部61が定めた視界率毎の領域、カメラ23に関して視界率算出部61が定めた視界率毎の領域を示している。また、図16において、視界率が“1/3”である領域を符号“81”で示している。また、視界率が“2/3”である領域を符号“82”で示している。また、視界率が“3/3=1”である領域を符号“83”で示している。
 図16に示す位置Pに着目すると、カメラ21に関して視界率算出部61が算出した視界率は“1”である。また、カメラ22に関して視界率算出部61が算出した視界率は“2/3”である。また、カメラ23に関して視界率算出部61が算出した視界率は“0”である。従って、平均視界率算出部62は、位置Pに関してカメラ毎に算出された3つの視界率“1”,“2/3”,“0”のうち、上位2つの視界率“1”,“2/3”の平均値を、位置Pにおける平均視界率として算出すればよい。本例では、位置Pの平均視界率は“5/6”となる。
 平均視界率算出部62は、監視対象領域11(障害物の存在範囲は除く。)内の他の各位置に関しても、同様に平均視界率を算出する。
 そして、平均視界率算出部62は、監視対象領域11内において、個々の平均視界率に対応した領域を特定する。このように特定された平均視界率毎の領域が、第3の実施形態における視界の統合結果となる。
 カバー率算出部63bは、カバー率を算出する。ただし、第3の実施形態でのカバー率は、監視対象領域11内で視界率を算出した位置の数に対する、算出された平均視界率の和の割合である。すなわち、カバー率算出部63bは、以下に示す式(2)の計算によってカバー率を算出する。
Figure JPOXMLDOC01-appb-M000002
 なお、平均視界率の算出位置は、視界率算出部61による視界率の算出位置と同一であり、式(2)の右辺の分母を「監視対象領域内で平均視界率を算出した位置の数」としてもよく、その場合であっても、カバー率の算出結果は同一である。
 第3の実施形態で式(2)によって計算したカバー率は、「平均視界率に基づくカバー率」と称することもできるが、説明を簡単にするため、単にカバー率と記す。
 第2の実施形態ではカバー率(視界率に基づくカバー率)は、カメラ毎に算出される。一方、第3の実施形態におけるカバー率(平均視界率に基づくカバー率)は、カメラの数によらず、算出されるカバー率の値は1つである。第3の実施形態におけるカバー率は、複数のカメラを考慮した場合における、監視対象領域11に対する監視対象物を監視できる領域の割合であるということができる。
 また、カバー率算出部63bは、式(2)の計算によってカバー率を算出する際、指定された数値範囲の平均視界率を式(2)の右辺の分子における加算対象としてもよい。すなわち、カバー率算出部63bは、式(2)の右辺の分子の計算において、指定された数値範囲の平均視界率のみを加算し、その数値範囲外の平均視界率は無視し(例えば、0とみなし)、式(2)によってカバー率を算出してもよい。第2の実施形態と同様に、この数値範囲の指定方法は、特に限定されない。
 表示制御部7は、視界の統合結果とともに、カバー率も表示装置に表示させる。
 統合部6b(具体的には、視界率算出部61、平均視界率算出部62およびカバー率算出部63b)は、例えば、視界表示プログラムに従って動作するCPUによって実現される。
 図17は、第3の実施形態の処理経過の例を示すフローチャートである。ステップS1,S2,S5は、第2の実施形態におけるステップS1,S2,S5(図11参照)と同様であり、説明を省略する。
 ステップS5の後、平均視界率算出部62は、監視対象領域11内の、障害物の存在範囲以外の位置毎に、平均視界率を算出する。そして、平均視界率算出部62は、監視対象領域11内において、算出した各平均視界率に対応した領域を特定する(ステップS11)。ステップS11の結果が、第3の実施形態における視界の統合結果である。
 次に、カバー率算出部63bが、式(2)の計算によって、カバー率を算出する(ステップS12)。
 次に、表示制御部7は、視界の統合結果を表示装置(図示略)に表示させる(ステップS4)。第3の実施形態では、表示制御部7は、各平均視界率に対応した領域としてステップS11で特定された各領域を、その平均視界率に応じた態様で表示装置に表示させる。平均視界率に応じた態様で各領域を表示する例として、例えば、平均視界率に応じた色、模様、輝度等で各領域を区別して表示することが挙げられる。表示制御部7は、監視対象領域内における各平均視界率に対応する各領域を、平均視界率に応じた態様で表示装置に表示させる。従って、第3の実施形態の統合結果の表示形式は、第2の実施形態の統合結果の表示形式(図12)と同様になる。ただし、第3の実施形態では、平均視界率に基づいて各領域を定めているので、個々の領域は、第2の実施形態で表示される個々の領域よりもさらに細かくなる。また、第2の実施形態では、カメラ毎に統合結果が表示されるが、第3の実施形態では、カメラの台数によらず、1つの統合結果が表示される。なお、表示制御部7は、重畳された障害物の存在範囲も合わせて表示装置に表示させる。
 また、表示制御部7は、ステップS12で算出されたカバー率も合わせて表示装置に表示させる。第3の実施形態では、カバー率は、カメラの台数によらず、1つの値が算出される。表示制御部7は、そのカバー率を、視界の統合結果とともに表示させればよい。
 第3の実施形態では、平均視界率に応じた色、模様、輝度等で各平均視界率に対応する領域を表示装置に表示させる。そして、平均視界率が高いほど、監視対象物(例えば、人物)の多くの部分を撮影できることを意味する。従って、カメラが監視対象物全体または監視対象物のある程度以上の部分を撮影できる範囲を、ユーザに理解しやすく提示することができる。特に、第3の実施形態では、各カメラに関して算出した視界率のうち、上位所定数の視界率の平均値(平均視界率)を算出し、その平均視界率に基づいて各領域を表示する。従って、複数のカメラを考慮した上で、カメラが監視対象物全体または監視対象物のある程度以上の部分を撮影できる範囲を、ユーザに理解しやすく提示することができる。ユーザは、第2の実施形態と同様に、監視対象物全体またはその多くの部分をカメラが撮影できる監視対象領域内の範囲を容易に把握することができる。さらに、カメラに関する情報を変更させて、その範囲の変化を確認することで、その範囲が最大となるように、カメラの位置、姿勢、画角等を調整しやすくなる。
 また、第3の実施形態では、式(2)によって計算したカバー率も表示することによって、複数のカメラを考慮した場合における、監視対象領域11に対するカメラが監視対象物を監視できる領域の割合もユーザに提示することができる。
 次に、第3の実施形態の変形例について説明する。第3の実施形態において、カバー率の表示を省略してもよい。この場合、第3の実施形態の視界表示システム1は、カバー率算出部63bを備えていなくてもよく、ステップS12(図17参照)を実行しなくてもよい。
 また、第3の実施形態では、ステップS4において、表示制御部7は、指定された数値範囲に該当する平均視界率に対応する領域を強調して表示装置に表示させてもよい。この数値範囲の指定方法は、特に限定されず、例えば、ユーザが強調して表示すべき領域に対応する平均視界率の数値範囲を視界表示システム1に入力し、表示制御部7は、ユーザによって指定された数値範囲に該当する平均視界率に対応する領域を強調して表示装置に表示させてもよい。この表示制御部7の動作は、第2の実施形態の変形例の1つとして説明した動作(指定された数値範囲に該当する視界率に対応する領域を強調して表示装置に表示させる動作)と同様である。本変形例によれば、指定された数値範囲に該当する平均視界率に対応する領域をわかりやすくユーザに提示することができる。
 また、第3の実施形態では、ステップS4において、表示制御部7は、ユーザからカメラの指定を受け、そのカメラの画像に収まる範囲を、視界の統合結果内で強調して表示装置に表示させてもよい。本変形例によれば、指定されたカメラの画像に収まる範囲をわかりやすくユーザに提示することができる。
実施形態4.
 図18は、本発明の第4の実施形態の視界表示システムの構成例を示すブロック図である。第4の実施形態の視界表示システム40は、情報登録部2と、情報記憶部3と、監視面分決定部4と、投影部5と、区分け部41と、表示制御部42とを備える。情報登録部2、情報記憶部3、監視面分決定部4および投影部5は、第1から第3までの各実施形態におけるそれらの要素と同様であり、説明を省略する。
 区分け部41は、監視面分毎に、監視面分を何台のカメラの視界に該当しているかに基づいて区分けする。図2に示すように3つの監視面分h~hが定められ、3台のカメラ21~23(図4参照)のカメラパラメータがそれぞれ情報記憶部3に記憶されているとする。この場合、区分け部41は、監視面分hを、3台のカメラの視界に該当している領域、2台のカメラの視界に該当している領域、1台のカメラの視界に該当している領域、いずれのカメラの視界にも該当していない領域に区分けする。区分け部41は、監視面分h,hに関しても、同様に区分けする。
 表示制御部42は、個々の監視面分内の区分けされた領域を、その領域を視界に含むカメラの台数に応じた態様で表すようにして、各監視面分を表示装置(図示略)に表示させる。例えば、表示制御部42は、3台のカメラの視界に該当している領域、2台のカメラの視界に該当している領域、1台のカメラの視界に該当している領域、いずれのカメラの視界にも該当していない領域をそれぞれ、色、模様、輝度等で区別して、各監視面分を表示装置に表示させる。
 なお。視界表示システム40が表示装置を備えていてもよい。
 情報登録部2、監視面分決定部4、投影部5、区分け部41および表示制御部42は、例えば、視界表示プログラムに従って動作するコンピュータのCPUによって実現される。この場合、CPUが視界表示プログラムを読み込み、そのプログラムに従って、情報登録部2、監視面分決定部4、投影部5、区分け部41および表示制御部42として動作すればよい。また、視界表示プログラムは、コンピュータが読み取り可能な記録媒体に記録されていてもよい。また、情報登録部2、監視面分決定部4、投影部5、区分け部41および表示制御部42がそれぞれ別々のハードウェアで実現されていてもよい。
 次に、動作について説明する。
 図19は、本発明の第4の実施形態の処理経過の例を示すフローチャートである。ステップS1,S2は、第1から第3までの各実施形態におけるステップS1,S2(図7、図11、図17参照。)と同様であり、説明を省略する。また、ここでは、図2に示すように3つの監視面分h~hが定められ、3台のカメラ21~23(図4参照)のカメラパラメータがそれぞれ情報記憶部3に記憶されている場合を例にして説明する。
 ステップS2までの処理により、図5に例示するように、各カメラ21~23の画像領域を各監視面分に投影した結果が得られる。すなわち、監視面分hに対するカメラ21の画像領域の投影結果、カメラ22の画像領域の投影結果、およびカメラ23の画像領域の投影結果がそれぞれ得られる。同様に、監視面分hに対するカメラ毎の画像領域の投影結果、および監視面分hに対するカメラ毎の画像領域の投影結果もそれぞれ得られる。
 ステップS2の後、区分け部41は、監視面分毎に、監視面分を何台のカメラの視界に該当しているかに基づいて区分けする(ステップS21)。
 例えば、区分け部41は、監視面分hに対するカメラ21の画像領域の投影結果、カメラ22の画像領域の投影結果、およびカメラ23の画像領域の投影結果(図5の上段を参照。)に基づいて、監視面分hを、3台のカメラの視界に該当している領域、2台のカメラの視界に該当している領域、1台のカメラの視界に該当している領域、いずれのカメラの視界にも該当していない領域に区分けする。図5の上段に示す監視面分hへの投影結果に基づいて監視面分hを区分けした結果を図20に示す。
 同様に、区分け部41は、監視面分hに対するカメラ21の画像領域の投影結果、カメラ22の画像領域の投影結果、およびカメラ23の画像領域の投影結果(図5の中段を参照。)に基づいて、監視面分hを、3台のカメラの視界に該当している領域、2台のカメラの視界に該当している領域、1台のカメラの視界に該当している領域、いずれのカメラの視界にも該当していない領域に区分けする。図5の中段に示す監視面分hへの投影結果に基づいて監視面分hを区分けした結果を図21に示す。
 同様に、区分け部41は、監視面分hに対するカメラ21の画像領域の投影結果、カメラ22の画像領域の投影結果、およびカメラ23の画像領域の投影結果(図5の下段を参照。)に基づいて、監視面分hを、3台のカメラの視界に該当している領域、2台のカメラの視界に該当している領域、1台のカメラの視界に該当している領域、いずれのカメラの視界にも該当していない領域に区分けする。図5の下段に示す監視面分hへの投影結果に基づいて監視面分hを区分けした結果を図22に示す。
 ステップS21の結果、図20から図22に示すように、監視面分毎に、監視面分を区分けした結果が得られる。図20から図22において、1台のカメラの視界に該当している領域を符号“91”で示している。また、2台のカメラの視界に該当している領域を符号“92”で示している。また、3台のカメラの視界に該当している領域を符号“93”で示している。いずれのカメラの視界にも該当していない領域を白色で示している。また、区分け部41は、各監視面分h~hにおいて、障害物12の存在範囲を、区分けの対象から除外してもよい。
 ステップS21の後、表示制御部42は、区分けされた各監視面分h~hをそれぞれ表示装置(図示略)に表示させる(ステップS22)。ステップS22において、表示制御部42は、個々の監視面分内の区分けされた領域を、その領域を視界に含むカメラの台数に応じた態様で表す。
 図23は、ステップS22における表示形式の一例を示す説明図である。表示制御部42は、区分けされた各監視面分h~hをそれぞれ、図23に示すように上面図として並べて表示装置に表示させてもよい。図23に示す表示例では、1台のカメラの視界に該当している領域91、2台のカメラの視界に該当している領域92、3台のカメラの視界に該当している領域93、およびその他の領域で、それぞれ異なる模様を用いている。表示制御部7は、障害物12の存在範囲も合わせて表示装置に表示させる。
 また、ステップS22における各監視面分の表示形式として、以下に示す表示形式を採用してもよい。すなわち、表示制御部42は、図20、図21および図23に例示すように区分けされた各監視面分h~hを、それぞれ、3次元空間内の各監視面分h~hに該当する位置に配置した状態の斜視図を表示装置に表示させてもよい。本例では、表示制御部42は、監視面分hの上層に監視面分hが存在し、さらにその上層に監視面分hが存在している状態の斜視図を表示装置に表示させる。この表示形式においても、各監視面分h~h内の領域は、何台のカメラの視界に該当しているかに応じて、例えば、異なる模様等で表示される。
 また、表示制御部42は、上記のように各監視面分を3次元空間に配置した上で、さらに、監視面分の区分けされた領域に、その領域を視界に含むカメラの台数が多いほど大きな3次元物体を配置した状態の斜視図を表示装置に表示させてもよい。この3次元物体の形状は特に限定されないが、ここでは、3次元物体が球である場合を例にして説明する。また、ここでは、球の大きさとして、大、中、小の三段階の大きさを用いる。
 この場合、表示制御部42は、監視面分hの上層に監視面分hが存在し、さらにその上層に監視面分hが存在している状態を定める。さらに、表示制御部42は、各監視面分h~hにおいて、3台のカメラの視界に該当している領域93(図21、図22参照)には、領域93と交差するように大きな球を配置した状態を定める。同様に、表示制御部42は、各監視面分h~hにおいて、2台のカメラの視界に該当している領域92(図21ないし図22参照)には、領域92と交差するように中程度の大きさの球を配置した状態を定め、1台のカメラの視界に該当している領域91(図21ないし図22参照)には、領域91と交差するように小さな球を配置した状態を定める。表示制御部42は、この状態の斜視図を表示装置に表示させてもよい。
 また、表示制御部42は、各監視面分h~hを3次元空間内に配置した状態の斜視図を表示装置に表示させる際、ユーザの操作に応じて、視点を変更して斜視図を更新してもよい。
 ユーザは、3次元空間内における3種類の高さに対応する3つの監視面分h~h内において、どの領域がカメラ21~23の視界に入っているかを、表示された各監視面分によって確認することができる。従って、第4の実施形態においても、前述の各実施形態と同様の効果を得ることができる。
 特に、第4の実施形態では、監視面分内の領域を、何台のカメラの視界に該当しているかによって区分けして表示するので、監視対象物(例えば、人物)がより多くのカメラによって撮影されるのかを理解しやすくユーザに提示することができる。従って、ユーザは、より多くのカメラの視界が重なる範囲を容易に把握することができる。
 また、前述のように、監視面分の区分けされた領域に、その領域を視界に含むカメラの台数が多いほど大きな3次元物体(例えば、球)を配置した状態の斜視図をユーザに提示する場合には、ユーザは、その3次元物体の大きさによって、監視対象物が何台のカメラによって撮影されるのかを容易に把握することができる。
 次に、第4の実施形態の変形例について説明する。第4の実施形態では、ステップS22において、表示制御部42は、指定された台数のカメラの視界に含まれる領域を強調して表示装置に表示させてもよい。カメラの台数の指定方法は特に限定されず、例えば、ユーザがカメラの台数を視界表示システム40に入力し、表示制御部42は、ユーザによって指定された台数のカメラの視界に含まれる領域を強調して表示装置に表示させてもよい。指定されるカメラの台数は、例えば“1台”のような1つの値に限定されず、“1台以上、全台数(本例では3台)以下”のように範囲として指定されてもよい。以下、図23に示すように、監視面分の上面図を提示する場合を例にして説明する。また、ここでは、図23の下段に示す監視面分hを例にして説明する。
 図24は、指定された台数のカメラの視界に含まれる領域の強調表示の例を示す説明図である。図24では、監視面分h内での強調表示の例を示している。
 表示制御部42が、図23に例示するように、各監視面分h~hを表示装置に表示させているとする。そして、ユーザによって、カメラの台数として、“1台以上3台以下”という範囲が指定されたとする。このことは、1台、2台または3台のカメラの視界に含まれる領域を強調して表示するように外部から指示されたことを意味する。表示制御部42は、ユーザからのカメラ台数の指定に応じて、監視面分h内において、1台のカメラの視界に該当している領域91、2台のカメラの視界に該当している領域92および3台のカメラの視界に該当している領域93を合わせた領域を、図24に例示するように強調して表示する。図24に示す例で強調表示されている領域95は、監視面分h内の領域91~93を合わせた領域である。ここでは、監視面分hを例にして説明したが、表示制御部42は、図23に示す監視面分h,h内においても、同様に強調表示を行う。本変形例では、指定された台数のカメラの視界に含まれる範囲を、わかりやすくユーザに提示することができる。
 また、カメラの台数として“0台”のみを指定してもよい。図25は、この場合に強調表示される領域の例を示す説明図である。図25では、図24と同様に、監視面分h内での強調表示の例を示している。図25に示す例で強調表示されている領域96は、いずれのカメラの視界にも含まれない範囲である。換言すれば、領域96は、全てのカメラで死角となる範囲である。表示制御部42は、図23に示す監視面分h,h内においても、同様に強調表示を行う。図25に示すように、ユーザは、カメラの台数として“0台”を指定することで、全てのカメラで死角となる範囲を容易に確認することができる。
 また、表示制御部42は、強調表示を行う場合にも、障害物12の存在範囲も合わせて表示装置に表示させることが好ましい。
 また、表示制御部42は、各監視面分を3次元空間内に配置した状態の斜視図を表示装置に表示させる場合にも、各監視面分内で、指定された台数のカメラの視界に含まれる領域を強調してよい。
 また、視界表示システム40は、指定された台数のカメラの視界に含まれる領域の強調表示を実行する場合、監視面分の面積に対する、強調して表示される領域(以下、強調表示領域と記す。)の面積の割合であるカバー率を算出してもよい。このカバー率の定義は、第2の実施形態におけるカバー率の定義や、第3の実施形態におけるカバー率の定義とは異なる。第4の実施形態の変形例において用いるカバー率は、「強調表示領域カバー率」と称することもできるが、説明を簡単にするため、単にカバー率と記す。
 図26は、第4の実施形態において、カバー率を算出する場合の構成例を示すブロック図である。図18に示す要素と同様の要素については、図18と同一の符号を付し、説明を省略する。
 カバー率算出部43は、表示制御部42が指定された台数のカメラの視界に含まれる領域の強調表示を行う場合に、カバー率を算出する。そして、表示制御部42は、算出されたカバー率を、強調表示する監視面分とともに表示装置に表示させる。
 カバー率算出部43は、監視面分毎にカバー率を算出してもよく、あるいは、複数の監視面分全体に関してカバー率を算出してもよい。
 カバー率算出部43が監視面分毎にカバー率を算出する場合の計算について説明する。カバー率算出部43は、監視面分毎にカバー率を算出する場合、監視面分毎に、以下に示す式(3)の計算を行うことによってカバー率を算出する。
Figure JPOXMLDOC01-appb-M000003
 例えば、図24に示す監視面分hにおけるカバー率を算出する場合、カバー率算出部43は、監視面分hの面積に対する強調表示領域95(図24参照)の面積の割合をカバー率として算出する。カバー率算出部43は、監視面分hのカバー率、および監視面分hのカバー率も同様に算出する。
 この場合、表示制御部42は、監視面分毎に算出されたカバー率をそれぞれ表示装置に表示させる。例えば、表示制御部42は、各監視面分h~h内の領域を強調して表示装置に表示させる場合、各監視面分h~hの近傍にそれぞれ対応するカバー率も合わせて表示させればよい。
 次に、カバー率算出部43が複数の監視面分全体に関してカバー率を算出する場合の計算について説明する。ここでは、n+1個の監視面分h~hが定められていているものとする。カバー率算出部43は、以下に示す式(4)の計算を行うことによってカバー率を算出する。
Figure JPOXMLDOC01-appb-M000004
 すなわち、カバー率算出部43は、各監視面分h~hの面積の総和に対する、各監視面分h~h内の強調表示領域の面積の総和の割合をカバー率として算出する。例えば、3つの監視面分h~hが定められている場合、カバー率算出部43は、監視面分h内の強調表示領域の面積と、監視面分h内の強調表示領域の面積と、監視面分h内の強調表示領域の面積の総和を算出し、監視面分h~hの面積の総和に対する、その強調表示領域の面積の総和の割合をカバー率として算出する。
 カバー率算出部43が式(4)によってカバー率を算出する場合、監視面分の数によらず、算出されるカバー率の数は1つである。表示制御部42は、表示装置にカバー率を表示させる。
 また、第4の実施形態では、ステップS22において、表示制御部42は、ユーザからカメラの指定を受け、そのカメラの画像に収まる範囲を強調して、表示装置に表示させてもよい。例えば、表示制御部42が、図23に例示するように各監視面分h~hを表示装置に表示させているとする。そして、例えば、カメラ21が指定されると、表示制御部42は、図27に示すように、カメラ21の画像に収まる範囲を強調して表示装置に表示させる。この場合、指定されたカメラの画像に収まる範囲をわかりやすくユーザに提示することができる。なお、図27では、カメラ21の画像に収まる範囲を太線で強調しているが、他の方法で強調してもよい。ここでは、指定されたカメラの画像に収まる範囲の強調表示を、第4の実施形態の変形例として示したが、前述の各実施形態においても、指定されたカメラの画像に収まる範囲を強調して表示してもよい。
 なお、上記の各実施形態では、監視面分の数が3であり、カメラの台数が3台である場合を例にして説明したが、監視面分の数およびカメラの台数は、上記の各実施形態に示した数に限定されない。
 次に、本発明の主要部について説明する。図28は、本発明の主要部の例を示すブロック図である。
 投影部5は、カメラによる撮影状況の確認対象となる範囲を規定する監視対象領域を平行移動した面分であって、そのカメラに撮影される監視対象物の高さに基づいて定められた面分である複数の監視面分に対して、そのカメラから得られる画像内の位置を投影し、障害物によって遮られずにそのカメラが撮影することができる範囲である視界を特定する。
 統合部6は、各監視面分内の視界を統合する。
 表示制御部7は、視界の統合結果を表示装置に表示させる。
 そのような構成により、カメラが監視対象物全体または監視対象物のある程度以上の部分を撮影できる範囲を、ユーザにとって理解しやすく提示することができる。
 図29は、本発明の主要部の他の例を示すブロック図である。投影部5は、図28に示す投影部5と同様であり、説明を省略する。
 区分け部41は、監視面分毎に、監視面分を何台のカメラの視界に該当しているかに基づいて区分けする。
 表示制御部42は、個々の監視面分内の区分けされた領域を、その領域を視界に含むカメラの台数に応じた態様で表すようにして、各監視面分を表示装置に表示させる。
 図29に示す構成においても、カメラが監視対象物全体または監視対象物のある程度以上の部分を撮影できる範囲を、ユーザにとって理解しやすく提示することができる。
実施形態5.
 本発明の第5の実施形態の視界表示システムの構成を図30に示す。第5の実施形態の視界表示システムは、投影部51と、出力制御部53とを備える。
 投影部51は、カメラに撮影される監視対象物の高さに基づいて定められた複数の平面に対して、そのカメラから得られる画像内の位置を投影し、そのカメラが撮影することができる範囲である視界を特定する。
 出力制御部53は、視界が特定された平面を立体的に出力させる。出力制御部53は、立体化部と称することもできる。出力制御部53は、例えば、視界が特定された平面を積み重ねた状態を、例えば、ホログラムによって空間上に立体的に出力させてもよい。または、出力制御部53は、視界が特定された平面を積み重ねた状態を、例えば、3Dプリンタにオブジェクトとして出力させてもよい。
 出力制御部53が、視界が特定された平面を出力させる場合、投影部51は、監視空間に対して細かく設定された複数の平面に対し、カメラから得られる画像内の位置を投影し、そのカメラが撮影することができる範囲である視界を特定してもよい。
 第5の実施形態によれば、出力制御部53が、細かく設定された各平面を、例えば3Dプリンタに印刷させて、積木のように積み重ねて出力することで、ユーザが内部を立体的に確認することができる。これにより、例えば、多人数によるカメラ配置の検討を効率的に行うことができる。
 また、本発明の視界表示システムは、図31に示すように構成されていてもよい。図31に例示する視界表示システムは、投影部55と、区分け部56と、出力制御部57とを備える。
 投影部55は、図30に示す投影部51と同様である。具体的には、投影部55は、カメラに撮影される監視対象物の高さに基づいて定められた複数の平面に対して、カメラから得られる画像内の位置を投影し、そのカメラが撮影することができる範囲である視界を特定する。例えば、投影部55は、障害物によって遮られずにカメラが撮影することができる範囲である視界を特定する。また、この平面は、例えば、カメラによる撮影状況の確認対象となる範囲を規定する監視対象領域を平行移動した平面である。
 区分け部56は、平面毎に、平面を何台のカメラの視界に該当しているかに基づいて区分けする。
 出力制御部57は、個々の平面内の区分けされた領域を、その領域を視界に含むカメラの台数に応じた態様で表すようにして、各平面を出力させる。
 例えば、出力制御部57は、区分けされた領域を視界に含むカメラの台数に応じた立体を平面に重ねて、ホログラムで、空間上に立体的に表示させてもよい。また、例えば、出力制御部57は、区分けされた領域を視界に含むカメラの台数に応じた立体を平面に重ねた形状を、3Dプリンタによりオブジェクトとして出力させてもよい。
 また、本発明の視界表示システムは、図32に示すように構成されていてもよい。図32に例示する視界表示システムは、投影部65と、統合部66と、表示制御部67とを備える。投影部65は、図30に示す投影部51や図31に示す投影部55と同様である。
 統合部66は、各平面内の視界を統合する。この統合処理は、既に説明した統合処理と同様でよい。
 表示制御部67は、視界の統合結果を表示装置に表示させる。
 なお、これまでに説明した上記の各実施形態においては、監視対象領域を平行移動した面分である監視面分に対して投影等の処理を行ったが、本発明の処理の対象は監視面分に限定されない。具体的には、投影部51は、カメラが撮影し得る空間上の複数の仮想的な平面に対して、当該カメラから得られる画像内の位置を投影してもよい。その場合、複数の仮想的な平面は、必ずしも監視対象領域に対して平行でなくてもよい。図33は、3つの仮想的な平面のうち、中央の仮想的な平面が監視対象領域に対して平行でない例を示す。図33に示すような仮想的な平面に対して投影する場合も、本発明の範疇である。
 上記の実施形態の一部または全部は、以下の付記のようにも記載され得るが、以下に限定されるわけではない。
(付記1)カメラによる撮影状況の確認対象となる範囲を規定する監視対象領域を平行移動した面分であって、前記カメラに撮影される監視対象物の高さに基づいて定められた面分である複数の監視面分に対して、前記カメラから得られる画像内の位置を投影し、障害物によって遮られずに前記カメラが撮影することができる範囲である視界を特定する投影手段と、前記各監視面分内の視界を統合する統合手段と、視界の統合結果を表示装置に表示させる表示制御手段とを備えることを特徴とする視界表示システム。
(付記2)統合手段は、カメラ毎に、いずれの監視面分でも視界に該当している領域を視界の統合結果として抽出し、表示制御手段は、カメラ毎に、抽出された前記領域を表示装置に表示させる付記1に記載の視界表示システム。
(付記3)統合手段は、監視対象領域内の障害物の存在範囲以外の位置毎に、監視面分の総数に対する、前記位置が視界に属している監視面分の数の割合である視界率を算出する処理を、カメラ毎に行う視界率算出手段を含み、表示制御手段は、カメラ毎に、監視対象領域内の各視界率に対応する領域を、視界率に応じた態様で表示装置に表示させる付記1に記載の視界表示システム。
(付記4)統合手段は、カメラ毎に、監視対象領域内で視界率を算出した位置の数に対する、算出された視界率の和の割合であるカバー率を算出するカバー率算出手段を含み、表示制御手段は、各カメラのカバー率を表示装置に表示させる付記3に記載の視界表示システム。
(付記5)表示制御手段は、指定された数値範囲に該当する視界率に対応する領域を強調して表示装置に表示させる付記3または付記4に記載の視界表示システム。
(付記6)統合手段は、監視対象領域内の障害物の存在範囲以外の位置毎に、監視面分の総数に対する、前記位置が視界に属している監視面分の数の割合である視界率を算出する処理を、カメラ毎に行う視界率算出手段と、監視対象領域内の障害物の存在範囲以外の位置毎に、当該位置に対してカメラ毎に算出された視界率のうち、上位所定順位までの視界率の平均値である平均視界率を算出する平均視界率算出手段とを含み、表示制御手段は、監視対象領域内の各平均視界率に対応する領域を、平均視界率に応じた態様で表示装置に表示させる付記1に記載の視界表示システム。
(付記7)統合手段は、監視対象領域内で視界率を算出した位置の数に対する、算出された平均視界率の和の割合であるカバー率を算出するカバー率算出手段を含み、表示制御手段は、前記カバー率を表示装置に表示させる付記6に記載の視界表示システム。
(付記8)表示制御手段は、指定された数値範囲に該当する平均視界率に対応する領域を強調して表示装置に表示させる付記6または付記7に記載の視界表示システム。
(付記9)カメラによる撮影状況の確認対象となる範囲を規定する監視対象領域を平行移動した面分であって、前記カメラに撮影される監視対象物の高さに基づいて定められた面分である複数の監視面分に対して、前記カメラから得られる画像内の位置を投影し、障害物によって遮られずに前記カメラが撮影することができる範囲である視界を特定する投影手段と、監視面分毎に、監視面分を何台のカメラの視界に該当しているかに基づいて区分けする区分け手段と、個々の監視面分内の区分けされた領域を、その領域を視界に含むカメラの台数に応じた態様で表すようにして、各監視面分を表示装置に表示させる表示制御手段とを備えることを特徴とする視界表示システム。
(付記10)表示制御手段は、各監視面分を上面図として並べて表示装置に表示させる付記9に記載の視界表示システム。
(付記11)表示制御手段は、各監視面分を3次元空間に配置した状態の斜視図を表示装置に表示させる付記9に記載の視界表示システム。
(付記12)表示制御手段は、各監視面分を3次元空間に配置するとともに、監視面分内の区分けされた領域に、その領域を視界に含むカメラの台数が多いほど大きな3次元物体を配置した状態の斜視図を表示装置に表示させる付記9または付記11に記載の視界表示システム。
(付記13)表示制御手段は、指定された台数のカメラの視界に含まれる領域を強調して表示装置に表示させる付記9から付記12のうちのいずれかに記載の視界表示システム。
(付記14)監視面分の面積に対する、強調して表示される領域の面積の割合であるカバー率を算出するカバー率算出手段を備え、表示制御手段は、カバー率を表示装置に表示させる付記13に記載の視界表示システム。
(付記15)カバー率算出手段は、監視面分毎にカバー率を算出し、表示制御手段は、各監視面分のカバー率をそれぞれ表示装置に表示させる付記14に記載の視界表示システム。
(付記16)カバー率算出手段は、各監視面分の面積の総和に対する、前記各監視面分内で強調して表示される領域の面積の総和の割合をカバー率として算出し、表示制御手段は、前記カバー率を表示装置に表示させる付記14に記載の視界表示システム。
(付記17)カメラに撮影される監視対象物の高さに基づいて定められた複数の平面に対して、前記カメラから得られる画像内の位置を投影し、前記カメラが撮影することができる範囲である視界を特定する投影手段と、前記各平面内の視界を統合する統合手段と、視界の統合結果を表示装置に表示させる表示制御手段とを備えることを特徴とする視界表示システム。
(付記18)前記平面は、カメラによる撮影状況の確認対象となる範囲を規定する監視対象領域を平行移動した平面である付記17に記載の視界表示システム。
(付記19)前記投影手段は、障害物によって遮られずに前記カメラが撮影することができる範囲である視界を特定する付記17または付記18に記載の視界表示システム。
(付記20)カメラに撮影される監視対象物の高さに基づいて定められた複数の平面に対して、前記カメラから得られる画像内の位置を投影し、前記カメラが撮影することができる範囲である視界を特定する投影手段と、視界が特定された平面を立体的に出力させる出力制御手段とを備えることを特徴とする視界表示システム。
(付記21)前記出力制御手段は、視界が特定された平面の積み重ねを、空間上に立体的に表示させる付記20に記載の視界表示システム。
(付記22)前記出力制御手段は、視界が特定された平面の積み重ねを、3Dプリンタによりオブジェクトとして出力させる付記20に記載の視界表示システム。
(付記23)カメラに撮影される監視対象物の高さに基づいて定められた複数の平面に対して、前記カメラから得られる画像内の位置を投影し、前記カメラが撮影することができる範囲である視界を特定する投影手段と、平面毎に、平面を何台のカメラの視界に該当しているかに基づいて区分けする区分け手段と、個々の平面内の区分けされた領域を、その領域を視界に含むカメラの台数に応じた態様で表すようにして、各平面を出力させる出力制御手段とを備えることを特徴とする視界表示システム。
(付記24)前記平面は、カメラによる撮影状況の確認対象となる範囲を規定する監視対象領域を平行移動した平面である付記23に記載の視界表示システム。
(付記25)前記投影手段は、障害物によって遮られずに前記カメラが撮影することができる範囲である視界を特定する付記23または付記24に記載の視界表示システム。
(付記26)前記出力制御手段は、区分けされた領域を視界に含むカメラの台数に応じた立体を平面に重ねて、空間上に立体的に表示させる付記23から付記25のうちのいずれかに記載の視界表示システム。
(付記27)前記出力制御手段は、区分けされた領域を視界に含むカメラの台数に応じた立体を平面に重ねた形状を、3Dプリンタによりオブジェクトとして出力させる付記23から付記25のうちのいずれかに記載の視界表示システム。
 この出願は、2012年12月6日に出願された日本特許出願2012-267552を基礎とする優先権を主張し、その開示の全てをここに取り込む。
 以上、実施形態を参照して本願発明を説明したが、本願発明は上記の実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
産業上の利用の可能性
 本発明は、監視対象物を良好に撮影できるカメラの視界を特定し、その視界を表示する視界表示システムに好適に適用される。
 5 投影部
 6,6a,6b 統合部
 7,42 表示制御部
 41 区分け部
 61 視界率算出部
 62 平均視界率算出部
 43,63a,63b カバー率算出部

Claims (20)

  1.  カメラによる撮影状況の確認対象となる範囲を規定する監視対象領域を平行移動した面分であって、前記カメラに撮影される監視対象物の高さに基づいて定められた面分である複数の監視面分に対して、前記カメラから得られる画像内の位置を投影し、障害物によって遮られずに前記カメラが撮影することができる範囲である視界を特定する投影手段と、
     前記各監視面分内の視界を統合する統合手段と、
     視界の統合結果を表示装置に表示させる表示制御手段とを備える
     ことを特徴とする視界表示システム。
  2.  統合手段は、カメラ毎に、いずれの監視面分でも視界に該当している領域を視界の統合結果として抽出し、
     表示制御手段は、カメラ毎に、抽出された前記領域を表示装置に表示させる
     請求項1に記載の視界表示システム。
  3.  統合手段は、
     監視対象領域内の障害物の存在範囲以外の位置毎に、監視面分の総数に対する、前記位置が視界に属している監視面分の数の割合である視界率を算出する処理を、カメラ毎に行う視界率算出手段を含み、
     表示制御手段は、カメラ毎に、監視対象領域内の各視界率に対応する領域を、視界率に応じた態様で表示装置に表示させる
     請求項1に記載の視界表示システム。
  4.  統合手段は、
     カメラ毎に、監視対象領域内で視界率を算出した位置の数に対する、算出された視界率の和の割合であるカバー率を算出するカバー率算出手段を含み、
     表示制御手段は、各カメラのカバー率を表示装置に表示させる
     請求項3に記載の視界表示システム。
  5.  表示制御手段は、指定された数値範囲に該当する視界率に対応する領域を強調して表示装置に表示させる
     請求項3または請求項4に記載の視界表示システム。
  6.  統合手段は、
     監視対象領域内の障害物の存在範囲以外の位置毎に、監視面分の総数に対する、前記位置が視界に属している監視面分の数の割合である視界率を算出する処理を、カメラ毎に行う視界率算出手段と、
     監視対象領域内の障害物の存在範囲以外の位置毎に、当該位置に対してカメラ毎に算出された視界率のうち、上位所定順位までの視界率の平均値である平均視界率を算出する平均視界率算出手段とを含み、
     表示制御手段は、監視対象領域内の各平均視界率に対応する領域を、平均視界率に応じた態様で表示装置に表示させる
     請求項1に記載の視界表示システム。
  7.  統合手段は、
     監視対象領域内で視界率を算出した位置の数に対する、算出された平均視界率の和の割合であるカバー率を算出するカバー率算出手段を含み、
     表示制御手段は、前記カバー率を表示装置に表示させる
     請求項6に記載の視界表示システム。
  8.  表示制御手段は、指定された数値範囲に該当する平均視界率に対応する領域を強調して表示装置に表示させる
     請求項6または請求項7に記載の視界表示システム。
  9.  カメラによる撮影状況の確認対象となる範囲を規定する監視対象領域を平行移動した面分であって、前記カメラに撮影される監視対象物の高さに基づいて定められた面分である複数の監視面分に対して、前記カメラから得られる画像内の位置を投影し、障害物によって遮られずに前記カメラが撮影することができる範囲である視界を特定する投影手段と、
     監視面分毎に、監視面分を何台のカメラの視界に該当しているかに基づいて区分けする区分け手段と、
     個々の監視面分内の区分けされた領域を、その領域を視界に含むカメラの台数に応じた態様で表すようにして、各監視面分を表示装置に表示させる表示制御手段とを備える
     ことを特徴とする視界表示システム。
  10.  表示制御手段は、各監視面分を上面図として並べて表示装置に表示させる
     請求項9に記載の視界表示システム。
  11.  表示制御手段は、各監視面分を3次元空間に配置した状態の斜視図を表示装置に表示させる
     請求項9に記載の視界表示システム。
  12.  表示制御手段は、各監視面分を3次元空間に配置するとともに、監視面分内の区分けされた領域に、その領域を視界に含むカメラの台数が多いほど大きな3次元物体を配置した状態の斜視図を表示装置に表示させる
     請求項9または請求項11に記載の視界表示システム。
  13.  表示制御手段は、指定された台数のカメラの視界に含まれる領域を強調して表示装置に表示させる
     請求項9から請求項12のうちのいずれか1項に記載の視界表示システム。
  14.  監視面分の面積に対する、強調して表示される領域の面積の割合であるカバー率を算出するカバー率算出手段を備え、
     表示制御手段は、カバー率を表示装置に表示させる
     請求項13に記載の視界表示システム。
  15.  カバー率算出手段は、監視面分毎にカバー率を算出し、
     表示制御手段は、各監視面分のカバー率をそれぞれ表示装置に表示させる
     請求項14に記載の視界表示システム。
  16.  カバー率算出手段は、各監視面分の面積の総和に対する、前記各監視面分内で強調して表示される領域の面積の総和の割合をカバー率として算出し、
     表示制御手段は、前記カバー率を表示装置に表示させる
     請求項14に記載の視界表示システム。
  17.  カメラによる撮影状況の確認対象となる範囲を規定する監視対象領域を平行移動した面分であって、前記カメラに撮影される監視対象物の高さに基づいて定められた面分である複数の監視面分に対して、前記カメラから得られる画像内の位置を投影し、障害物によって遮られずに前記カメラが撮影することができる範囲である視界を特定し、
     前記各監視面分内の視界を統合し、
     視界の統合結果を表示装置に表示させる
     ことを特徴とする視界表示方法。
  18.  カメラによる撮影状況の確認対象となる範囲を規定する監視対象領域を平行移動した面分であって、前記カメラに撮影される監視対象物の高さに基づいて定められた面分である複数の監視面分に対して、前記カメラから得られる画像内の位置を投影し、障害物によって遮られずに前記カメラが撮影することができる範囲である視界を特定し、
     監視面分毎に、監視面分を何台のカメラの視界に該当しているかに基づいて区分けし、
     個々の監視面分内の区分けされた領域を、その領域を視界に含むカメラの台数に応じた態様で表すようにして、各監視面分を表示装置に表示させる
     ことを特徴とする視界表示方法。
  19.  コンピュータに、
     カメラによる撮影状況の確認対象となる範囲を規定する監視対象領域を平行移動した面分であって、前記カメラに撮影される監視対象物の高さに基づいて定められた面分である複数の監視面分に対して、前記カメラから得られる画像内の位置を投影し、障害物によって遮られずに前記カメラが撮影することができる範囲である視界を特定する投影処理、
     前記各監視面分内の視界を統合する統合処理、および、
     視界の統合結果を表示装置に表示させる表示制御処理
     を実行させるための視界表示プログラム。
  20.  コンピュータに、
     カメラによる撮影状況の確認対象となる範囲を規定する監視対象領域を平行移動した面分であって、前記カメラに撮影される監視対象物の高さに基づいて定められた面分である複数の監視面分に対して、前記カメラから得られる画像内の位置を投影し、障害物によって遮られずに前記カメラが撮影することができる範囲である視界を特定する投影処理、
     監視面分毎に、監視面分を何台のカメラの視界に該当しているかに基づいて区分けする区分け処理、および、
     個々の監視面分内の区分けされた領域を、その領域を視界に含むカメラの台数に応じた態様で表すようにして、各監視面分を表示装置に表示させる表示制御処理
     を実行させるための視界表示プログラム。
PCT/JP2013/007024 2012-12-06 2013-11-29 視界表示システム、視界表示方法および視界表示プログラム WO2014087620A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
US14/649,304 US9807310B2 (en) 2012-12-06 2013-11-29 Field display system, field display method, and field display program
JP2014550912A JP6265131B2 (ja) 2012-12-06 2013-11-29 視界表示システム、視界表示方法および視界表示プログラム
CN201380052604.4A CN104704817B (zh) 2012-12-06 2013-11-29 视场显示系统、视场显示方法及视场显示程序
IN1648DEN2015 IN2015DN01648A (ja) 2012-12-06 2015-02-27
HK15109642.6A HK1208980A1 (en) 2012-12-06 2015-09-30 Field display system, field display method, and field display program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012267552 2012-12-06
JP2012-267552 2012-12-06

Publications (1)

Publication Number Publication Date
WO2014087620A1 true WO2014087620A1 (ja) 2014-06-12

Family

ID=50883062

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/007024 WO2014087620A1 (ja) 2012-12-06 2013-11-29 視界表示システム、視界表示方法および視界表示プログラム

Country Status (8)

Country Link
US (1) US9807310B2 (ja)
JP (1) JP6265131B2 (ja)
CN (1) CN104704817B (ja)
AR (1) AR093654A1 (ja)
HK (1) HK1208980A1 (ja)
IN (1) IN2015DN01648A (ja)
TW (1) TWI551137B (ja)
WO (1) WO2014087620A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160068461A (ko) * 2014-12-05 2016-06-15 한화테크윈 주식회사 평면도에 히트맵을 표시하는 장치 및 방법
JP2016123004A (ja) * 2014-12-25 2016-07-07 三菱電機株式会社 撮像装置の設置支援装置、撮像装置の設置支援方法および映像記録再生装置
JP2018074528A (ja) * 2016-11-02 2018-05-10 キヤノン株式会社 情報処理システムおよびその構成機器、実空間の監視方法
JP2020160663A (ja) * 2019-03-26 2020-10-01 セコム株式会社 設置支援装置及び設置支援プログラム
JP2021002889A (ja) * 2020-10-09 2021-01-07 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
JP2021013111A (ja) * 2019-07-08 2021-02-04 セコム株式会社 カメラ配置評価装置、カメラ配置評価方法、及びコンピュータプログラム

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105806320B (zh) * 2014-12-29 2020-04-21 同方威视技术股份有限公司 拍摄测量系统以及拍摄测量方法
US11288733B2 (en) * 2018-11-14 2022-03-29 Mastercard International Incorporated Interactive 3D image projection systems and methods
CN110536126A (zh) * 2019-08-22 2019-12-03 上海晋泷科技有限公司 摄像头可视域的判断方法、装置、电子设备与存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008146113A (ja) * 2006-12-06 2008-06-26 Oki Electric Ind Co Ltd 建物用cadシステム
JP2008306604A (ja) * 2007-06-08 2008-12-18 Canon Inc 情報処理装置、及び情報処理方法
JP2009239821A (ja) * 2008-03-28 2009-10-15 Toa Corp カメラ設置シミュレータプログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6084908A (en) 1995-10-25 2000-07-04 Sarnoff Corporation Apparatus and method for quadtree based variable block size motion estimation
TWI346831B (en) * 2006-05-12 2011-08-11 Seereal Technologies Gmbh Projection device and method for holographic reconstructions of scenes
CA2699621A1 (en) * 2007-06-08 2008-12-11 Tele Atlas N.V. Method of and apparatus for producing a multi-viewpoint panorama
TWI352253B (en) * 2007-07-24 2011-11-11 Delta Electronics Inc Projection apparatus
TWI353179B (en) * 2007-09-21 2011-11-21 Hon Hai Prec Ind Co Ltd Wireless projector and projecting method of the sa
JP4989417B2 (ja) * 2007-10-26 2012-08-01 キヤノン株式会社 画像表示システム、画像表示装置及びその制御方法、コンピュータプログラム
TW201001125A (en) * 2008-06-18 2010-01-01 Micro Star Int Co Ltd Computer with projection device
JP2010033108A (ja) * 2008-07-24 2010-02-12 Sony Corp 画像処理システム、撮像装置、画像処理方法及びコンピュータプログラム
JP5099451B2 (ja) * 2008-12-01 2012-12-19 アイシン精機株式会社 車両周辺確認装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008146113A (ja) * 2006-12-06 2008-06-26 Oki Electric Ind Co Ltd 建物用cadシステム
JP2008306604A (ja) * 2007-06-08 2008-12-18 Canon Inc 情報処理装置、及び情報処理方法
JP2009239821A (ja) * 2008-03-28 2009-10-15 Toa Corp カメラ設置シミュレータプログラム

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160068461A (ko) * 2014-12-05 2016-06-15 한화테크윈 주식회사 평면도에 히트맵을 표시하는 장치 및 방법
KR102282456B1 (ko) 2014-12-05 2021-07-28 한화테크윈 주식회사 평면도에 히트맵을 표시하는 장치 및 방법
JP2016123004A (ja) * 2014-12-25 2016-07-07 三菱電機株式会社 撮像装置の設置支援装置、撮像装置の設置支援方法および映像記録再生装置
JP2018074528A (ja) * 2016-11-02 2018-05-10 キヤノン株式会社 情報処理システムおよびその構成機器、実空間の監視方法
JP2020160663A (ja) * 2019-03-26 2020-10-01 セコム株式会社 設置支援装置及び設置支援プログラム
JP7285101B2 (ja) 2019-03-26 2023-06-01 セコム株式会社 設置支援装置及び設置支援プログラム
JP2021013111A (ja) * 2019-07-08 2021-02-04 セコム株式会社 カメラ配置評価装置、カメラ配置評価方法、及びコンピュータプログラム
JP7332363B2 (ja) 2019-07-08 2023-08-23 セコム株式会社 カメラ配置評価装置、カメラ配置評価方法、及びコンピュータプログラム
JP2021002889A (ja) * 2020-10-09 2021-01-07 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム

Also Published As

Publication number Publication date
CN104704817B (zh) 2017-12-26
JP6265131B2 (ja) 2018-01-24
HK1208980A1 (en) 2016-03-18
IN2015DN01648A (ja) 2015-07-03
CN104704817A (zh) 2015-06-10
US20150304568A1 (en) 2015-10-22
AR093654A1 (es) 2015-06-17
JPWO2014087620A1 (ja) 2017-01-05
US9807310B2 (en) 2017-10-31
TWI551137B (zh) 2016-09-21
TW201429239A (zh) 2014-07-16

Similar Documents

Publication Publication Date Title
JP6265131B2 (ja) 視界表示システム、視界表示方法および視界表示プログラム
US10839213B2 (en) Image capturing apparatus, monitoring system, image processing apparatus, image capturing method, and non-transitory computer readable recording medium
JP6265132B2 (ja) 画像認識処理適性表示システム、方法およびプログラム
JP4774824B2 (ja) 3次元計測処理の計測対象範囲の確認方法および計測対象範囲の設定方法ならびに各方法を実施する装置
KR101871764B1 (ko) 가상현실 기반의 시설관리 플랫폼 구축 시스템
WO2017163955A1 (ja) 監視システム、画像処理装置、画像処理方法およびプログラム記録媒体
KR20170041636A (ko) 표시 제어장치, 표시 제어방법 및 프로그램
JP4780455B2 (ja) 映像監視装置及び方法
KR101639275B1 (ko) 다중 실시간 영상 획득 카메라를 활용한 360도 구형 렌더링 영상 표출 장치 및 이를 통한 자동 영상 분석 방법
US20130050483A1 (en) Apparatus, method, and program for video surveillance system
JP5854951B2 (ja) パノラマ画像生成装置
JP4207883B2 (ja) 視線誘導度算出システム
JP5727207B2 (ja) 画像監視装置
KR20180123302A (ko) 볼의 궤적을 시각화하는 방법 및 장치
JP2016092693A (ja) 撮像装置、撮像装置の制御方法およびプログラム
JP5574551B2 (ja) 画像処理装置および画像処理方法
CN111527517A (zh) 图像处理装置及其控制方法
JP2006318015A (ja) 画像処理装置および画像処理方法、画像表示システム、並びに、プログラム
US20220060664A1 (en) Information processing apparatus, information processing method, and recording medium
JP3875199B2 (ja) 撮影装置
CN112969963B (zh) 信息处理设备及其控制方法和存储介质
JP2019145894A (ja) 画像処理装置、画像処理方法及びプログラム
JP2005157635A (ja) 混雑度計測装置、設備制御システム、および混雑度計測方法
JP2015220662A (ja) 画像処理装置及びその制御方法、並びにプログラム
JP2020088688A (ja) 監視装置、監視システム、監視方法、監視プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13861101

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2014550912

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14649304

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2015121762

Country of ref document: RU

Kind code of ref document: A

122 Ep: pct application non-entry in european phase

Ref document number: 13861101

Country of ref document: EP

Kind code of ref document: A1