WO2013111494A1 - 監視システム - Google Patents

監視システム Download PDF

Info

Publication number
WO2013111494A1
WO2013111494A1 PCT/JP2012/083477 JP2012083477W WO2013111494A1 WO 2013111494 A1 WO2013111494 A1 WO 2013111494A1 JP 2012083477 W JP2012083477 W JP 2012083477W WO 2013111494 A1 WO2013111494 A1 WO 2013111494A1
Authority
WO
WIPO (PCT)
Prior art keywords
monitoring
information
image
terminal device
monitoring terminal
Prior art date
Application number
PCT/JP2012/083477
Other languages
English (en)
French (fr)
Inventor
照久 高野
真史 安原
秋彦 香西
Original Assignee
日産自動車株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日産自動車株式会社 filed Critical 日産自動車株式会社
Publication of WO2013111494A1 publication Critical patent/WO2013111494A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R2021/0027Post collision measures, e.g. notifying emergency services
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/50Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the display information being shared, e.g. external display, data transfer to other traffic participants or centralised traffic controller

Definitions

  • the present invention relates to a monitoring system.
  • This application claims priority based on Japanese Patent Application No. 2012-011443 of the Japanese Patent Application filed on Jan. 23, 2012, and for designated countries permitted to be incorporated by reference to documents, The contents described in the application are incorporated into the present application by reference and are part of the description of the present application.
  • a security device that detects occurrences of abnormalities is known by installing a plurality of security camera devices in shopping streets, store entrances, home entrances and other streets, and monitoring surrounding images captured by the security camera devices. (Patent Document 1).
  • An object of the present invention is to provide a monitoring system capable of preventing communication congestion even when focusing on a place where a plurality of security camera devices are concentrated.
  • the present invention calculates the number of monitoring terminal devices existing in the attention area based on the selected attention point, and when the number of monitoring terminal devices existing in the attention area is equal to or more than a predetermined value, By selecting a monitoring terminal device satisfying a predetermined limitation condition from the monitoring terminal devices, and outputting an image transmission instruction to transmit monitoring information including position information and image information to the selected monitoring terminal device. Achieve the purpose.
  • the mobile terminal having the monitoring terminal device mounted at the place where the abnormality occurs is Even in the case of high density, it is possible to suppress the communication congestion, that is, the decrease in communication speed due to the simultaneous transmission of image information by all the security camera devices.
  • the central monitoring device can acquire the monitoring information from the monitoring terminal device in real time.
  • FIG. 1 It is a schematic diagram which shows the monitoring system which concerns on one embodiment of this invention. It is a block diagram which shows the monitoring system of FIG. It is a perspective view which shows arrangement
  • One embodiment shown below embodies the surveillance system concerning the present invention to surveillance system 1 which carries out central surveillance of the security in a town with authorities, such as a police station and a fire department. That is, position information of each of a plurality of moving bodies, image information around the moving bodies, and time information are acquired at a predetermined timing, and the position information, the image information and the time information are transmitted via wireless communication. The information is transmitted to a central monitoring device installed at the authority, and the position information is displayed on the map information, and the image information and the time information are displayed on the display as needed. Therefore, as shown in FIG. 1, the monitoring system 1 of this example acquires and processes monitoring information via the telecommunication network 30 and the monitoring terminal device 10 for acquiring monitoring information such as position information and image information. A central monitoring device 20 is provided.
  • FIG. 2 is a block diagram showing a specific configuration of the monitoring terminal device 10 and the central monitoring device 20. As shown in FIG. In particular, in the monitoring system of the present embodiment, when acquiring the monitoring information, the central monitoring device 20 acquires the monitoring information including the image information from only the selected monitoring terminal device 10.
  • the monitoring terminal device 10 is a terminal device mounted on a plurality of mobile units V, and is mounted on each of a plurality of mobile units and a position detection function for detecting position information of each of the plurality of mobile units V.
  • An image generation function that captures the surroundings of the moving object with a camera to generate image information
  • a time detection function an information acquisition control function that acquires position information, image information, and time information at a predetermined timing
  • Monitoring information generation function for generating monitoring information including position information and / or image information
  • communication function for outputting the position information, image information and time information to the central monitoring device 20 and acquiring a command from the central monitoring device 20 And the function of reporting the occurrence of an abnormality.
  • the monitoring terminal device 10 can exchange information with the vehicle controller 17 that centrally controls the vehicle speed sensor 18, the navigation device 19, and other in-vehicle electronic devices.
  • the monitoring terminal device 10 can transmit the vehicle speed information acquired via the vehicle speed sensor 18 and the vehicle controller 17 to the central monitoring device 20 as part of the monitoring information.
  • the monitoring terminal device 10 acquires, from the navigation device 19, lane identification information identifying whether the lane in which the passenger car V moves is the lane on the road shoulder side, and transmits it to the central monitoring device 20 as part of the monitoring information.
  • the navigation device 19 refers to the map information including the identification information of the lane and identifies whether the lane in which the passenger car V moves is the lane on the road shoulder side based on the position of the passenger car V and the change in position.
  • Lane identification information can be acquired.
  • blinker operation information acquired from the vehicle controller 17 can also be used.
  • the lane identification information can be acquired based on whether the image information acquired by the camera 11 includes an image or the like of a tire unique to another vehicle.
  • the time information may be omitted because it is information mainly used for post hoc analysis of events.
  • the mobile V on which the monitoring terminal device 10 is mounted is not particularly limited as long as it travels a target monitoring area, and includes mobiles such as passenger cars, two-wheeled vehicles, industrial vehicles, and trams.
  • Vehicle V1, private passenger car V2 and emergency passenger car V3 are included, but taxis and route buses V1 that run at random and always in a predetermined area are particularly preferable.
  • FIG. 1 exemplifies a taxi V1, a private passenger car V2, an emergency passenger car V3 such as a police car, a fire engine or an ambulance, but when these are generically referred to as a mobile V or a passenger car V.
  • Each moving body V includes a plurality of on-vehicle cameras 11a to 11e (hereinafter collectively referred to as cameras 11), an image processing device 12, a communication device 13, an on-vehicle control device 14, a position detection device 15, and a notification button 16 Is mounted.
  • the camera 11 is configured of a CCD camera or the like, captures an image of the periphery of the moving body V, and outputs an imaging signal to the image processing apparatus 12.
  • the image processing device 12 reads an imaging signal from the camera 11 and performs image processing on image information. Details of this image processing will be described later.
  • the position detection device 15 includes a GPS device and its correction device, detects the current position of the mobile V, and outputs the current position to the on-vehicle control device 14.
  • the notification button 16 is an input button installed in the vehicle compartment, and inputs information for notifying an abnormality when a driver or a passenger discovers an incident (an incident related to security such as an accident, a fire, a crime, etc.) It is a manual button. This information can include position information of the mobile V that has reported an abnormality.
  • the on-vehicle control device 14 includes a CPU, a ROM, and a RAM, and controls the image processing device 12, the communication device 13, and the position detection device 15 when the notification button 16 is pressed.
  • the image information, the position information of the mobile V detected by the position detection device 15, and the time information from a clock built in the CPU are output to the central monitoring device 20 via the communication device 13 and the telecommunication network 30.
  • a command requesting information such as an image transmission command is acquired from the central monitoring device 20 received via the telecommunication network 30 and the communication device 13, and the image processing device 12, the communication device 13 and the position detection device 15 are obtained.
  • the communication device 13 controls monitoring information including image information generated by the image processing device 12, position information of the moving object V detected by the position detection device 15, and time information from a clock built in the CPU. And output to the central monitoring device 20 via the telecommunication network 30.
  • the communication device 13 is a communication means capable of wireless communication, and exchanges information with the communication device 23 of the central monitoring device 20 via the telecommunication network 30.
  • the telecommunication network 30 is a commercial telephone network, a mobile telephone communication device can be used for general purpose, and when the telecommunication network 30 is a dedicated telecommunication network of the monitoring system 1 of this example, it is dedicated Communication devices 13 and 23 can be used.
  • a wireless LAN, WiFi (registered trademark), WiMAX (registered trademark), Bluetooth (registered trademark), a dedicated wireless channel, or the like can be used instead of the telecommunication network 30, a wireless LAN, WiFi (registered trademark), WiMAX (registered trademark), Bluetooth (registered trademark), a dedicated wireless channel, or the like can be used.
  • the central monitoring device 20 stores the information acquisition function of acquiring the position information and the image information output from the monitoring terminal device 10 described above, and at least temporarily stores the acquired monitoring information in the database 26 in association with the position information. It has a function and a display control function for displaying the map information from the map database, displaying and controlling the received position information on the map information, and displaying the received image information on the display 24.
  • the central monitoring device 20 refers to the database 26, calculates the number of monitoring terminal devices 10 existing in the attention area based on the selected attention point, and the number of monitoring terminal devices existing in the attention area is
  • the selection function of this embodiment when a plurality of monitoring terminal devices 10 exist in the region of interest, the monitoring terminal devices satisfying the predetermined limitation condition are selected from among the monitoring terminal devices 10 existing in the region of interest. It is also good.
  • the method of setting the region of interest is not particularly limited, and therefore, when the region of interest is a narrow region or when monitoring information from the region of interest may be small (it is sufficient if it can be obtained from one) It is preferable to narrow down the monitoring terminal devices 10 on condition that two or more monitoring terminal devices 10 exist in the area.
  • the central control unit 21 includes a CPU, a ROM, and a RAM, and controls the image processing unit 22, the communication unit 23, and the display 24 to receive position information, image information, and time information transmitted from the monitoring terminal 10. The image processing is performed as necessary, and the image is displayed on the display 24.
  • the image processing device 22 has a map database, displays the map information from the map database on the display 24, and superimposes the position information detected by the position detection device 15 of the monitoring terminal device 10 on the map information. Do. Further, image processing is performed to display the image information captured by the on-vehicle camera 11 of the monitoring terminal device 10 and processed by the image processing device 12 on the display 24.
  • the display 24 can be configured by, for example, a liquid crystal display device of a size capable of displaying two window screens on one screen or two liquid crystal display devices each of which displays two window screens. Then, on one of the window screens, a screen in which the position information of each moving object V is superimposed on the map information is displayed (see FIG. 1), and on the other window screen, the image captured by the on-vehicle camera 11 is displayed. Display the relevant image information.
  • the input device 25 includes a keyboard or a mouse, and is used to input an information acquisition command to be output to a desired moving body V or to input a processing command of various information displayed on the display 24.
  • the point of interest serving as the reference of the area of interest may be input by the supervisor via the input device 25.
  • the observer may designate an attention point by clicking (selecting and inputting) an icon of each point superimposed and displayed on the map information, and may set an attention area based on the attention point. it can.
  • the observer can set an attention area surrounded by a plurality of points selected by successively selecting and inputting each point superimposed and displayed on the map information based on an arbitrary attention point. .
  • the communication device 23 is a communication means capable of wireless communication, and exchanges information with the communication device 13 of the monitoring terminal device 10 via the telecommunication network 30.
  • the telecommunication network 30 is a commercial telephone network, a mobile telephone communication device can be used for general purpose, and when the telecommunication network 30 is a dedicated telecommunication network of the monitoring system 1 of this example, it is dedicated Communication devices 13 and 23 can be used.
  • the cameras 11a to 11e are configured using imaging devices such as CCDs, and the four on-vehicle cameras 11a to 11d are respectively installed at different positions outside the passenger car V, and respectively capture four directions around the vehicle.
  • the camera 1 of the present embodiment is provided with a zoom-up function for imaging a subject in an enlarged manner, and can arbitrarily change the focal length in accordance with the control command or can arbitrarily change the imaging magnification in accordance with the control command.
  • the on-vehicle camera 11a installed at a predetermined position in front of the passenger car V such as the front grille is an object or road surface existing in the space SP1 in front of the passenger car V Shoot the front view).
  • one on-vehicle camera 11e is installed, for example, on the ceiling of the passenger compartment, and captures an image of the indoor area SP5 as shown in FIG. Etc. for crime prevention or crime notification.
  • FIG. 4 is a view of the arrangement of the on-vehicle cameras 11a to 11e viewed from above the passenger car V.
  • the on-vehicle camera 11a for capturing the area SP1 the on-vehicle camera 11b for capturing the area SP2
  • the on-vehicle camera 11c for capturing the area SP3 the on-vehicle camera 11d for capturing the area SP4 are the passenger cars V It is installed along a left turn (counterclockwise) or a right turn (clockwise) along the outer periphery VE of the body.
  • the on-vehicle camera 11b is installed on the left next to the on-vehicle camera 11a.
  • the on-vehicle camera 11c is installed on the left side of the on-vehicle camera 11c
  • the on-vehicle camera 11a is installed on the left side of the on-vehicle camera 11d.
  • the on-vehicle camera 11d is installed on the right of the on-vehicle camera 11a.
  • An on-vehicle camera 11c is installed on the right
  • an on-vehicle camera 11b is installed on the right of the on-vehicle camera 11c
  • an on-vehicle camera 11a is installed on the right of the on-vehicle camera 11b.
  • FIG. 5A shows an example of an image GSP1 obtained by imaging the area SP1 by the front on-vehicle camera 11a
  • FIG. 5B shows an example of an image GSP2 obtained by imaging the area SP2 by the left-side on-vehicle camera 11b
  • FIG. 5D shows an example of an image GSP4 in which the in-vehicle camera 11d in the right side images an area SP4.
  • FIG. 5E shows an in-vehicle camera 11e in the room.
  • the size of each image is 480 pixels long by 640 pixels wide. The image size is not particularly limited, as long as it can be reproduced by a general terminal device.
  • the number and position of the on-vehicle cameras 11 can be appropriately determined according to the size, shape, detection area setting method, and the like of the passenger car V.
  • the plurality of on-vehicle cameras 11 described above are provided with identifiers according to their positions, and the on-vehicle control device 14 can identify each of the on-vehicle cameras 11 based on the respective identifiers. Further, the on-vehicle control device 14 can transmit an imaging instruction and other instructions to the specific on-vehicle camera 11 by attaching an identifier to the instruction signal.
  • the in-vehicle control device 14 controls the image processing device 12 to acquire an imaging signal captured by the in-vehicle camera 11, and the image processing device 12 processes the imaging signal from each in-vehicle camera 11 to obtain FIG. Convert to image information shown in 5E. Then, the on-vehicle control device 14 generates a monitoring image based on the four pieces of image information shown in FIGS. 5A to 5D (image generation function), and projects this monitoring image on the side surface of the projection model of the cylinder. Mapping information for projection onto a surface is associated with a monitoring image (mapping information addition function), and is output to the central monitoring device 20.
  • the image generation function and the mapping information addition function will be described in detail.
  • the monitoring image is generated based on the four image information obtained by imaging the surroundings of the passenger car V, and the processing of associating the mapping information with this is executed by the monitoring terminal device 10 as in this example, and by the central monitoring device 20 It can also be performed.
  • four pieces of image information obtained by imaging the periphery of the passenger car V are transmitted as they are from the monitoring terminal device 10 to the central monitoring device 20, and are monitored by the image processing device 22 and the central control device 21 of the central monitoring device 20.
  • the image may be generated, the mapping information may be associated, and projection conversion may be performed.
  • the on-vehicle control device 14 of the monitoring terminal device 10 controls the image processing device 12 to obtain imaging signals of the on-vehicle cameras 11a to 11e, respectively.
  • One monitoring image is generated such that the image information of the on-vehicle cameras 11a to 11d installed in the counterclockwise direction is arranged in the installation order of the on-vehicle cameras 11a to 11d.
  • the four on-vehicle cameras 11a to 11d are installed in the order of the cameras 11a, 11b, 11c, and 11d counterclockwise (counterclockwise) along the outer periphery VE of the body of the passenger car V Therefore, the on-vehicle control device 14 integrates the four images captured by the on-vehicle cameras 11 a to 11 d according to the order of installation of the on-vehicle cameras 11 a to 11 d (in-vehicle cameras 11 a ⁇ 11 b ⁇ 11 c ⁇ 11 d). Connect horizontally to generate a single surveillance image. In the monitoring image of the present embodiment, the images are arranged such that the ground contact surface (road surface) of the passenger car V is the lower side, and the images are connected to each other at the side in the height direction (vertical direction).
  • FIG. 6 is a diagram showing an example of the monitoring image K.
  • the monitoring image K of this embodiment is a captured image GSP1 obtained by imaging the area SP1 by the front on-vehicle camera 11a along the direction P from the left to the right in the drawing, and the on-vehicle camera 11b on the left side.
  • the captured image GSP2 captured the area SP2
  • the captured image GSP3 captured the area SP3 by the rear on-vehicle camera 11c
  • the captured image GSP4 captured the area SP4 by the on-vehicle camera 11d on the right side are arranged in this order in this order.
  • These four images are arranged as a series of images.
  • the observer By displaying the monitoring image K generated in this way, from the left end to the right side in order, with the image corresponding to the road surface (the ground contact surface of the vehicle) down, the observer turns counterclockwise around the vehicle V It can be viewed on the display 24 in the same way as looking around.
  • monitoring image K when generating one monitoring image K, four images acquired at substantially the same time as the imaging timings of the on-vehicle cameras 11a to 11d are used.
  • the information included in the monitoring image K can be synchronized, so that the situation around the vehicle at a predetermined timing can be accurately represented.
  • the monitoring image K generated from each captured image at which the imaging timing of the camera is substantially simultaneous is stored over time, and a monitoring image K of a moving image including a plurality of monitoring images K is generated per predetermined unit time. You may By generating the monitoring image K of the moving image on the basis of the images at the same imaging timing, it is possible to accurately express the change of the situation around the vehicle.
  • the on-vehicle control device 14 of the present embodiment since the on-vehicle control device 14 of the present embodiment generates one monitoring image K from a plurality of images, it is possible to simultaneously reproduce moving images of different imaging directions regardless of the function of the central monitoring device 20. it can. That is, by continuously reproducing the monitoring image K (moving image reproduction), the four images included in the monitoring image K are simultaneously and continuously reproduced (moving image reproduction), and the state change of the area different in direction is displayed on one screen Can be monitored.
  • the monitoring terminal device 10 of the present embodiment generates a monitoring image K by compressing the data amount of the image so that the number of pixels of the monitoring image K becomes substantially the same as the number of pixels of the images of the onboard cameras 11a to 11d.
  • the in-vehicle control device 14 can also add a line figure indicating the boundaries of the arranged images to the monitoring image K.
  • the on-vehicle control device 14 takes a rectangular partition image Bb, Bc, Bd, Ba, Ba 'between the respective images as a line figure indicating the boundaries of the arranged images.
  • the partition image functions as a frame of each captured image.
  • arranging the partition image at the boundary of the captured image can suggest that the image in the region with large distortion is hidden or that the distortion is large. .
  • the on-vehicle control device 14 can also generate the monitoring image K after correcting distortion when four images are projected on the projection plane set on the side surface of the projection model described later. .
  • the peripheral region of the captured image is prone to distortion of the image, and in the case of the on-vehicle camera 11 using a wide-angle lens in particular, the distortion of the captured image tends to be large. It is desirable to correct the distortion of the captured image using the defined image conversion algorithm and the correction amount.
  • the on-vehicle control device 14 reads information of the same projection model as that of the projection model on which the monitoring image K is projected in the central monitoring device 20 from the ROM, and captures the image on the projection plane of this projection model. Images can also be projected and pre-corrected for distortions that occur in the projection plane.
  • the image conversion algorithm and the correction amount can be appropriately defined according to the characteristics of the on-vehicle camera 11 and the shape of the projection model. As described above, by correcting distortion in the case where the image K is projected on the projection plane of the projection model in advance, it is possible to provide a highly visible monitoring image K with less distortion. In addition, by correcting distortion in advance, it is possible to reduce positional deviation between the images arranged side by side.
  • the on-vehicle control device 14 projects the generated monitoring image K on the projection plane set on the side surface of the projection model M of a column whose bottom surface is the ground plane of the passenger car V.
  • a process of associating the mapping information for the image with the monitoring image K is performed.
  • the mapping information is information for making the central monitoring device 20 that has received the monitoring image K easily recognize the projection reference position.
  • FIG. 8 is a view showing an example of a projection model M according to this embodiment
  • FIG. 9 is a schematic cross-sectional view along the xy plane of the projection model M shown in FIG.
  • the projection model M of the present embodiment is a regular octagonal prism whose base is a regular octagon and has a height along the vertical direction (z-axis direction in the figures).
  • the shape of the projection model M is not particularly limited as long as it is a cylindrical body having side surfaces adjacent along the boundary of the bottom, and a cylindrical body, or a rectangular cylindrical body such as a triangular cylindrical body, a rectangular cylindrical body, or a hexagonal cylindrical body It can also be an anti-prism body whose bottom is a polygon and whose side is a triangle.
  • the bottom face of the projection model M of this embodiment is parallel to the ground plane of the passenger car V.
  • projection surfaces Sa, Sb, Sc, Sd (hereinafter collectively referred to as projection surface S) that project an image around the passenger car V grounded on the bottom surface of the projection model M. It is set.
  • the projection surface S is a portion of the projection surface Sa and a portion of the projection surface Sb, a portion of the projection surface Sb and a portion of the projection surface Sc, a portion of the projection surface Sc and a portion of the projection surface Sd, and the projection surface Sd It can also be constituted by a part of and a part of projection plane Sa.
  • the monitoring image K is projected on the projection surface S as a video of the passenger car V over the viewpoint R (R1 to R8, hereinafter collectively referred to as a viewpoint R) above the projection model M surrounding the passenger car V.
  • the in-vehicle control device 14 associates the reference coordinates of the captured image disposed at the right end or the left end with the monitoring image K as mapping information.
  • the on-vehicle controller 14 is disposed at the right end as mapping information (reference coordinates) indicating the start position or the end position of the monitoring image K when projected onto the projection model M.
  • Coordinates A (x, y) of the upper left vertex of the captured image GSP1 and coordinates B (x, y) of the upper right vertex of the captured image GSP2 arranged at the left end are attached to the monitoring image K.
  • the reference coordinates of the captured image indicating the start position or the end position are not particularly limited, and may be the lower left vertex of the monitoring image K disposed at the left end or the lower right vertex of the monitoring image K disposed at the right end.
  • the mapping information may be attached to each pixel of the image data of the monitoring image K, or may be managed as a separate file from the monitoring image K.
  • the central monitoring device 20 that has received the monitoring image K by associating the monitoring image K with the information indicating the start position or the end position of the monitoring image K, that is, the reference coordinates used as a reference in projection processing as mapping information. Since the reference position at the time of projection processing can be easily recognized, the monitoring images K arranged in the arrangement order of the on-vehicle cameras 11a to 11d are sequentially and easily projected on the projection plane S on the side surface of the projection model M be able to. That is, as shown in FIG.
  • the captured image GSP1 ahead of the vehicle is projected on the projection surface Sa located in the imaging direction of the on-vehicle camera 11a, and the captured image on the right side of the vehicle on the projection surface Sb located in the imaging direction GSP2 is projected, the captured image GSP3 behind the vehicle is projected on the projection surface Sc located in the imaging direction of the on-vehicle camera 11c, and the captured image GSP4 in the left side of the vehicle is projected on the projection surface Sd located in the imaging direction of the on-vehicle camera 11d can do.
  • the surveillance image K projected on the projection model M can show an image that can be seen as if the surroundings of the passenger car V are looked around. That is, since the surveillance image K including four images arranged in a row in the horizontal direction according to the installation order of the on-vehicle cameras 11a to 11d is projected on the side in the same horizontal direction in the column of the projection model M, In the surveillance image K projected on the projection plane S of the projection model M of the column, the image around the passenger car V can be reproduced while maintaining its positional relationship.
  • the on-vehicle control device 14 stores the correspondence relationship between each coordinate value of the monitoring image K and the coordinate value of each projection surface S of the projection model M as mapping information and adds it to the monitoring image K. Although it can be, it may be stored in advance in the central monitoring device 20.
  • the positions of the viewpoint R and the projection plane S shown in FIGS. 8 and 9 are merely examples, and can be set arbitrarily.
  • the viewpoint R can be changed by the operation of the operator.
  • the relationship between the viewpoint R and the projection position of the surveillance image K is defined in advance, and when the position of the viewpoint R is changed, it is viewed from the newly set viewpoint R by executing predetermined coordinate conversion.
  • the surveillance image K can be projected onto the projection plane S (Sa to Sd). A known method can be used for this viewpoint conversion process.
  • the on-vehicle control device 14 of the present embodiment generates the monitoring image K based on the image information captured at a predetermined timing, and the monitoring image K shows mapping information, reference coordinates, and a line figure
  • the information of the partition image is associated and stored temporally according to the imaging timing.
  • the on-vehicle control device 14 may store the monitoring image K as one moving image file including a plurality of monitoring images K per predetermined unit time, or a mode in which transfer / reproduction can be performed by streaming method Monitoring image K may be stored.
  • the communication device 23 of the central monitoring device 20 receives the monitoring image K transmitted from the monitoring terminal device 10 and the mapping information associated with the monitoring image K. Further, the image information taken by the in-vehicle camera 11e in the room is separately received.
  • this surveillance image K images of the four on-vehicle cameras 11 installed at different positions of the body of the passenger car V as described above are installed along the clockwise or counterclockwise direction along the outer periphery of the body of the passenger car V
  • the in-vehicle cameras 11a to 11d are arranged according to the installation order (the clockwise or counterclockwise order along the outer periphery of the body of the vehicle V).
  • mapping information for causing the monitoring image K to be projected on the projection surface S of the octagonal prism projection model M is associated with the monitoring image K.
  • the communication device 23 transmits the acquired monitoring image K and the mapping information to the image processing device 22.
  • the image processing device 22 reads out the projection model M stored in advance, and sets it on the side surface of the octagonal cylinder projection model M whose bottom surface is the contact surface of the passenger car V shown in FIGS. 8 and 9 based on the mapping information.
  • a display image is generated by projecting the monitoring image K on the projection planes Sa to Sd. Specifically, each pixel of the received monitoring image K is projected on each pixel of the projection planes Sa to Sd according to the mapping information. Further, when projecting the surveillance image K onto the projection model M, the image processing device 22 recognizes the start point (right end or left end of the surveillance image K) of the surveillance image K based on the reference coordinates received together with the surveillance image K.
  • the projection processing is performed so that the start point coincides with the start point (the right end or the left end of the projection surface S) defined in advance on the projection model M. Further, when projecting the monitoring image K onto the projection model M, the image processing device 22 arranges a line figure (partition image) indicating the boundary of each image on the projection model M.
  • the partition image may be attached to the projection model M in advance, or may be attached to the monitoring image K after the projection processing.
  • the display 24 displays the monitoring image K projected on the projection plane S of the projection model M.
  • FIG. 10 shows an example of a display image of the monitoring image K.
  • the input device 25 such as a mouse or a keyboard or the display 24 as the touch panel input device 25
  • the viewpoint can be freely set and changed by the operation of the supervisor. Since the correspondence between the viewpoint position and the projection surface S is previously defined in the image processing device 22 or the display 24 described above, the monitor image K corresponding to the changed viewpoint is displayed on the display 24 based on the correspondence. can do.
  • FIG. 11 is a flowchart showing the operation of the monitoring terminal 10 side
  • FIGS. 12A and 12B are flowcharts showing the operation of the central monitoring device 20
  • FIG. 13 is a view showing an example of a database of information stored at least temporarily. .
  • a surrounding image and an indoor image are acquired from the in-vehicle camera 11 at predetermined time intervals (one routine shown in the same drawing), and the image processing device 12 converts it into image information. Convert (step ST1). Further, the current position information of the passenger car V on which the monitoring terminal device 10 is mounted is detected from the position detection device 15 provided with the GPS (step ST2).
  • step ST3 it is determined whether or not the report button 16 for reporting an abnormality is pressed. If the report button 16 is pressed, the process proceeds to step ST4, and the image information obtained in step ST1 and the information obtained in step ST2 The position information and the time information of the CPU are associated, and these are transmitted as monitoring information to the central monitoring device 20 via the communication device 13 and the telecommunication network 30 together with the abnormal information indicating that an abnormality has occurred.
  • the occurrence of abnormalities related to security such as accidents and crimes, is automatically transmitted to the central monitoring device 20 together with the position information of the passenger car V and the image information around the passenger car V, surveillance in the city is further strengthened. It will be done.
  • the monitoring information may include the moving speed of the vehicle, and lane identification information for identifying whether the moving lane is a lane on the road shoulder side.
  • the monitoring terminal device 10 it is possible to select the monitoring terminal device 10 to which the monitoring information is to be transmitted in consideration of the traveling speed of the passenger car V and the lane identification information.
  • the image information and the position information are acquired in the first steps ST1 and ST2, but the image information and the position information may be acquired at the timing between the steps ST3 and ST4.
  • step ST3 when the notification button 16 is not pressed, the process proceeds to step ST5, and communicates with the central monitoring device 20 to acquire a control command.
  • step ST6 the monitoring terminal device 10 determines whether or not the control command has been acquired from the central monitoring device 20, and proceeds to step ST7 to execute the control command. Specifically, the monitoring terminal device 10 determines whether an image transmission instruction to transmit monitoring information including image information has been acquired from the central monitoring device 20, and if so, the process proceeds to step ST7.
  • the monitoring terminal information 10 transmits monitoring information including image information, position information, and time information to the central monitoring device 20. At this time, it is possible to include the moving speed of the passenger car V and lane identification information in the monitoring information. Further, the monitoring terminal device 10 determines whether an image transmission prohibition instruction to prohibit transmission of monitoring information including image information is acquired from the central monitoring device 20, and if so, the process proceeds to step ST7.
  • the monitoring terminal information 10 does not transmit the monitoring information including the image information to the central monitoring device 20. Furthermore, the monitoring terminal device 10 determines whether an image storage instruction to store monitoring information including image information is acquired from the central monitoring device 20, and if so, the process proceeds to step ST7, and the monitoring terminal The information 10 stores monitoring information including image information in its own storage device.
  • step ST10 includes image information.
  • This monitoring information can include time information, position information, moving speed, and lane identification information.
  • the process proceeds to step ST9, and monitoring information not including the image information, that is, time information and position information is transmitted to the central monitoring device 20.
  • FIG. 13 is a diagram showing an example of information accumulated in the database 26 that is at least temporarily configured.
  • monitoring information including image information, position information, time information, moving speed, and lane identification information acquired from the passenger car V (monitoring terminal device 10) is stored in association with the position information. . That is, when position information is specified, a series of monitoring information can be called. Further, this monitoring information can include a mobile unit ID (monitoring terminal device ID) for identifying the monitoring terminal device 10.
  • the mobile unit ID may be the address of the communication device 13 of the monitoring terminal device 10.
  • step ST12 the passenger car V is displayed on the map information of the map database displayed on the display 24 as shown in the upper left of FIG. 1 based on the position information acquired in step ST11.
  • the position information of the passenger car V is acquired and transmitted at a predetermined timing for each routine in FIG. 11, so that the supervisor can grasp the current position of the passenger car V in a timely manner.
  • step ST13 it is determined whether or not abnormality information notified from the monitoring terminal device 10 of the passenger car V, that is, a notification that an abnormality relating to security such as an accident or a crime has occurred has been received.
  • the abnormality information is output when the passenger of the passenger car V presses the notification button 16 of the monitoring terminal device 10. If there is abnormality information, the passenger car V to which the abnormality information is output is specified in step ST14, image information and time information are received from the monitoring terminal device 10 of the passenger car, and the image information is displayed on the display 24. Further, as shown in the upper left of FIG. 1, highlighting is performed such as changing a color so that the passenger car displayed on the map information can be distinguished from other passenger cars.
  • steps ST13 to 20 is processing in the case where abnormality information is reported as an example, and the existing position of the passenger car V that has reported the abnormality information is selected as the attention point, but the abnormality information is notified Even if the monitoring person arbitrarily designates a place to be monitored, the processing of step ST13 to step 20 can be executed similarly. In this case, the place designated by the observer is the point of interest.
  • step ST15 the position where the passenger car V which has output the abnormality information is present is selected as a point of interest to be monitored, and is present in a region of interest within a predetermined distance from the point of interest with reference to this point of interest.
  • Other vehicle that is, the monitoring terminal device 10 is searched.
  • step ST16 the number of monitoring terminal devices 10 present in the region of interest is calculated, and it is determined whether the number of other vehicles present in the region of interest, that is, the number of monitoring terminal devices 10, is greater than or equal to a predetermined number.
  • the process proceeds to step ST17, and the other vehicle (monitoring terminal device 10) transmits a control command such as an image transmission command requesting monitoring information including image information. select.
  • the monitoring terminal exists in the attention area on the condition that a plurality of monitoring terminal apparatuses exist in the attention area without setting the threshold value to select the other vehicle (the monitoring terminal apparatus 10) to which the control command is transmitted. You may select the monitoring terminal device 10 which satisfy
  • the central monitoring device 20 selects the monitoring terminal device 10 satisfying the predetermined limitation condition from the monitoring terminal devices 10 present in the region of interest, and transmits a control command in the subsequent step ST18.
  • the control command of the present embodiment includes an image transmission command requesting transmission of monitoring information including image information, an image transmission prohibition command inhibiting transmission of monitoring information including image information, and image information included in monitoring information. And an image storage command for storing
  • the central monitoring device 20 narrows down a passenger car V that sends an image transmission command requesting transmission of monitoring information including image information and sends an image transmission command to the narrowed passenger car V.
  • the limited area is an area narrower than the area of interest, and can be an area closer to the point of interest where an incident has occurred in the area of interest.
  • the image transmission command can be transmitted to the passenger car V existing near the point of interest to be monitored with attention. Therefore, while suppressing the amount of information to be transmitted, the image information in which the state of the point of interest can be easily understood It can be acquired.
  • the image transmission command can be transmitted to the passenger car V in which the attention points to be monitored are located at different positions, image information obtained by imaging the attention points from different viewpoints while suppressing the amount of transmitted information It can be acquired selectively.
  • the monitoring terminal device 10 can be defined as a limiting condition that the monitoring terminal device 10 is mounted on a mobile body moving in a lane on the road shoulder side. It can be judged based on the lane identification information mentioned above whether the moving lane of the passenger car V carrying the monitoring terminal device 10 is a lane on the road shoulder side.
  • the image transmission command can be transmitted to the passenger car V traveling on the lane on the roadside, the image of the streetside, a passerby, a facility such as a bank or a store is included while suppressing the amount of information to be transmitted. Image information can be selectively acquired.
  • the passenger car V on which the monitoring terminal device 10 is mounted is moving at a predetermined speed or more.
  • the image transmission command can be transmitted to the traveling passenger vehicle V instead of the stopped vehicle. Therefore, while suppressing the amount of information to be transmitted, image information including an image captured from a different point due to movement is selected. Can be acquired.
  • the central monitoring device 20 While transmitting the above-described image transmission command, the central monitoring device 20 according to the present embodiment prohibits transmission of monitoring information including image information to the monitoring terminal device 10 which is not selected because the limitation condition is not satisfied. Output the transmission prohibition command. As described above, by prohibiting image transmission to the monitoring terminal device 10 not selected, it is possible to prevent communication congestion at a place where the monitoring terminal devices 10 are concentrated.
  • the incident when it is assumed that a transmission instruction of monitoring information including image information is automatically set to the monitoring terminal device 10 present in a predetermined distance range from the incident occurrence position, the incident is usually at a place where the vehicles are not concentrated There is no problem that all vehicles automatically transmit image information even if a problem occurs, but when an incident occurs in a place where vehicles are densely located, such as in front of a station, all vehicles automatically transmit image information and communication is temporary Crowded, and it may take time to transmit necessary image information.
  • the present embodiment since it is possible to narrow down the monitoring terminal apparatus 10 with which the central monitoring device 20 communicates according to the point of interest, it is possible to obtain image information to be obtained in real time. It can prevent business operations from being affected.
  • the stored image information can be transmitted to the central monitoring device 20 at any later timing.
  • the central monitoring device 20 is included in the monitoring information for the monitoring terminal device 10 that has not met the limitation condition and has not been selected.
  • An image storage command for storing image information is output.
  • the monitoring terminal device 10 whose transmission of the image information is prohibited stores the image information which has not been transmitted in its own storage device, so that different directions or different positions can be obtained when performing verification etc. after the fact. It is possible to prepare when the image information taken from the image is required. While giving priority to limiting the amount of information to be transmitted to the central monitoring device 20 at the timing when an abnormality occurs, it is possible to save image information that can be the cause of an accident or evidence at a later timing.
  • the target to be stored includes at least image information having a large amount of information, position information, time information and the like may be transmitted in real time or may be stored together with the image information.
  • the position information of the passenger car V which has output the abnormality information is transmitted to an emergency passenger car such as a police car, an ambulance, a fire engine or the like.
  • image information may be attached and transmitted in order to notify of abnormal content.
  • step ST20 all position information, image information and time information received from the monitoring terminal device 10 are recorded on the recording medium. This record is used to resolve them after an accident or crime. If there is no abnormality information in step ST13, the process proceeds to step ST21 without performing the processing in steps ST14 to ST20.
  • step ST21 it is determined whether there is an instruction to transmit image information from an emergency passenger car such as a police car, an ambulance or a fire engine. If an image transmission instruction is input, the process proceeds to step ST22. In step ST22, it is determined whether the passenger car V exists in the area specified by the transmission instruction of the image information. If the passenger car V exists, the process proceeds to step ST23. Then, in step ST23, a transmission instruction of the image information is output to the passenger car V present in the area specified by the transmission instruction of the image information. Thereby, the image information from the passenger car V can be acquired in step ST11 of FIG. 12A of the next routine, and this is transferred to the emergency passenger car or the meaning of the transmission command from the emergency passenger car is grasped. be able to. If the process does not correspond to steps ST21 and ST22, the process proceeds to step ST24 without performing the process of steps ST21 to ST23.
  • step ST24 it is determined whether a passenger car V exists in the vicinity area of a suspicious part such as a crime occurrence delay time set in advance. If it exists, the process proceeds to step ST25 to transmit image information to the passenger car V Output a command. Suspicious places are streets and streets that are insecure. This makes it possible to strengthen surveillance of streets and streets that are suspicious places, and can be expected to prevent crime in advance. When the passenger car V does not exist in the vicinity area of the suspicious part, the process proceeds to step ST26 without performing the process of step ST22.
  • step ST26 it is determined whether the passenger car V exists in the vicinity of the important point monitoring position where it is possible to image the important point monitoring target whose details should be monitored. If the passenger car V exists in the vicinity of the important point monitoring position Then, it outputs a priority monitoring command requesting transmission of image information to which the focus monitoring target is expanded for the passenger car V. As a result, it is possible to monitor the focus monitoring target in detail, to effectively detect a suspicious object that causes an event or an accident in the specified focus monitoring target, and it is possible to expect crime prevention. When the passenger car V does not exist in the vicinity of the important point monitoring position, the process proceeds to step ST28 without performing the process of step ST27.
  • step ST28 the passenger car V does not travel within a predetermined time within a predetermined area (not limited to the suspicious spot and the key monitoring area) where monitoring is required based on the position information received from each passenger car V It is determined whether or not there is a route, and when there is such a route, it is monitored whether there is a passenger car V traveling on the route. Then, if there is a passenger car V traveling the route most recently, the process proceeds to step ST29, and a transmission instruction of image information is output to the passenger car V. As a result, it is possible to automatically acquire image information of a route other than a suspicious spot or a key monitoring area and in which the passenger car V has a small traffic volume. If there is no route that satisfies the condition of step ST28, the process returns to step ST11 of FIG. 12A without performing the process of step ST29.
  • the monitoring system 1 of this example calculates the number of monitoring terminal devices 10 existing in the attention area based on the selected attention point, and the number of monitoring terminal devices 10 existing in the attention area is a predetermined value. If it is the above, the monitoring terminal device 10 satisfying the predetermined limitation condition is selected from among these monitoring terminal devices 10, and monitoring information including position information and image information is selected for the selected monitoring terminal device 10.
  • the central monitoring device 20 can obtain the monitoring information from the monitoring terminal device 10 in real time.
  • an image transmission prohibition command for prohibiting transmission of monitoring information including image information is output to the monitoring terminal device 10 for which the central monitoring device 20 does not meet the limitation condition and is not selected.
  • an image storage command for storing the image information included in the monitoring information is output to the monitoring terminal device 10 in which the central monitoring device 20 does not satisfy the limitation condition and is not selected. Later, when performing site verification or the like, it is possible to prepare when image information captured from different directions or different positions is required. While giving priority to limiting the amount of information to be transmitted to the central monitoring device 20 at the timing of occurrence of abnormality, it is possible to save image information that can be the cause of an accident or evidence at a later timing.
  • the central monitoring device 20 selects the position information of the monitoring terminal device 10 that has output the abnormality information as a point of interest, and narrows down the monitoring terminal device 10. Even if the terminal devices 10 are densely packed, only the selected monitoring terminal device 10 outputs a control instruction (image transmission instruction / image transmission prohibition instruction / image storage instruction) so as to transmit the monitoring information including the image information. It is possible to suppress communication congestion and eventually delay in information acquisition due to the simultaneous transmission of image information by all the security camera devices.
  • the central monitoring device 20 since the central monitoring device 20 exists in the limited area included in the attention area based on the attention point as a limitation condition, the vicinity of the attention point to be observed by attention is Since the image transmission command can be transmitted to the passenger car V present in the vehicle, it is possible to selectively acquire the image information in which the state of the attention point can be easily understood while suppressing the amount of information to be transmitted.
  • the image transmission command is sent to the passenger car V whose attention points to be monitored are present at different positions. Since transmission is possible, it is possible to selectively acquire image information obtained by imaging a point of interest from different viewpoints while suppressing the amount of information to be transmitted.
  • the passenger car V carrying the monitoring terminal device 10 since it is limited that the passenger car V carrying the monitoring terminal device 10 is moving at a predetermined speed or more, it is not the stopped vehicle but the traveling passenger car V Since the image transmission instruction can be transmitted, it is possible to selectively acquire the image information including the video captured from a different point by movement while suppressing the amount of information to be transmitted.
  • the monitoring terminal device 10 that satisfies the predetermined limitation condition is selected from among these monitoring terminal devices 10, Also by outputting an image transmission command for transmitting monitoring information including position information and image information to the selected monitoring terminal device 10, the same operation and effect as the above operation and effect can be achieved.
  • the monitoring method of this example has the same operation and effect as the monitoring system including the monitoring terminal device 10 and the central monitoring device 20.
  • the position information of the passenger car V and the image information from the on-vehicle cameras 11a to 11e are acquired, but it is combined with the image information from the fixed camera 11f installed in the city shown in FIG. May be acquired.
  • passenger car V which acquires position information and picture information as shown in Figure 1, it is desirable to use taxi V1 and the bus which run the territory which is decided beforehand, but even if private passenger car V2 and emergency passenger car V3 are used Good.
  • five in-vehicle cameras are mounted on the passenger car V, and an image of 360 ° around is acquired as image information using four in-vehicle cameras 11a to 11d. It may be omitted. Further, in the case of an environment where image information can be acquired from many passenger cars V, such as a surveillance area with a large traffic volume, the four on-vehicle cameras 11a to 11d may be set to three or less.
  • the central control unit 21 corresponds to a selection unit, and the communication unit 23 and the input unit 25 correspond to an information acquisition unit and a control command output unit according to the present invention.

Abstract

 監視端末装置(10)と、電気通信回線網(30)を介して通信可能な中央監視装置(20)と、を備える監視システム(1)であって、中央監視装置(20)は、監視端末装置(10)から出力された位置情報を少なくとも含む監視情報を取得し、監視情報を位置情報と対応づけてデータベース(26)に記憶し、前記位置情報の中から選択された注目地点を基準とする注目領域に存在する監視端末装置の数を算出し、注目領域に存在する監視端末装置(10)の数が所定値以上である場合には、注目領域に存在する監視端末装置(10)の中から所定の限定条件を満たす監視端末装置(10)を選択し、選択された監視端末装置(10)に対して、画像情報を含む監視情報を送信する画像送信指令を出力する。

Description

監視システム
 本発明は、監視システムに関するものである。
 本出願は、2012年1月23日に出願された日本国特許出願の特願2012―011443に基づく優先権を主張するものであり、文献の参照による組み込みが認められる指定国については、上記の出願に記載された内容を参照により本出願に組み込み、本出願の記載の一部とする。
 商店街、店舗の出入り口、家庭の玄関その他の街中に複数の防犯カメラ装置を設置し、当該防犯カメラ装置により撮像された周囲の映像を監視することで、異常の発生を検出する防犯装置が知られている(特許文献1)。
特開2011-215767号公報
 しかしながら、複数の防犯カメラ装置が密集している場所を注目したい場合に、すべての防犯カメラ装置が映像を一斉に送信すると、通信が混雑して映像の取得が遅延するという問題がある。
 本発明は、複数の防犯カメラ装置が密集している場所を注目する場合であっても、通信の混雑を防止することができる監視システムを提供することを目的とする。
 本発明は、選択された注目地点を基準とする注目領域内に存在する監視端末装置の数を算出し、注目領域に存在する監視端末装置の数が所定値以上である場合には、これらの監視端末装置の中から所定の限定条件を満たす監視端末装置を選択し、選択した監視端末装置に対して、位置情報と画像情報を含む監視情報を送信する画像送信指令を出力することにより、上記目的を達成する。
 本発明によれば、選択された監視端末装置に対してのみ画像情報を含む監視情報を送信するように画像送信指令を出力するので、異常が発生した場所に監視端末装置を搭載する移動体が密集している場合であっても、すべての防犯カメラ装置が画像情報を一斉に送信することによる通信の混雑、つまり通信速度の低下を抑制することができる。この結果、中央監視装置は監視端末装置からの監視情報をリアルタイムで取得することができる。
本発明の一実施の形態に係る監視システムを示す模式図である。 図1の監視システムを示すブロック図である。 図1の監視システムにおける車載カメラの配置及びその撮像範囲を示す斜視図である。 図1の監視システムにおける車載カメラの配置及びその撮像範囲を示す平面図である。 フロントの車載カメラの撮影画像の一例を示す図である。 右サイドの車載カメラの撮影画像の一例を示す図である。 リアの車載カメラの撮影画像の一例を示す図である。 左サイドの車載カメラの撮影画像の一例を示す図である。 室内の車載カメラの撮影画像の一例を示す図である。 複数の画像に基づいて生成された監視画像の一例を示す図である。 監視画像の歪み補正処理を説明するための図である。 投影モデルの一例を示す模式図である。 図10に示す投影モデルのxy面に沿う断面模式図である。 中央監視装置のディスプレイに表示される画像例を示す図である。 図1の監視システムの監視端末装置側の主たる制御内容を示すフローチャートである。 図1の監視システムの中央監視装置側の主たる制御内容を示すフローチャート(その1)である。 図1の監視システムの中央監視装置側の主たる制御内容を示すフローチャート(その2)である。 データベースの一例を示す図である。
 以下に示す一実施の形態は、本発明に係る監視システムを、街中の治安を警察署や消防署などの当局にて集中監視する監視システム1に具体化したものである。すなわち、複数の移動体のそれぞれの位置情報と、当該移動体の周囲の画像情報と、時刻情報とを所定のタイミングで取得し、これら位置情報と画像情報と時刻情報とを、無線通信を介して、当局に設置された中央監視装置へ送信し、これら位置情報を地図情報上に表示するとともに必要に応じて画像情報と時刻情報とをディスプレイに表示するものである。そのため、本例の監視システム1は、図1に示すように位置情報及び画像情報などの監視情報を取得する監視端末装置10と、電気通信回線網30を介して監視情報を取得して処理する中央監視装置20とを備える。
 図2は、監視端末装置10及び中央監視装置20の具体的構成を示すブロック図である。特に本実施形態の監視システムでは、監視情報を取得する際に、中央監視装置20が一部の選択した監視端末装置10のみから画像情報を含む監視情報を取得する。
 監視端末装置10は、複数の移動体Vに搭載される端末装置であって、これら複数の移動体Vのそれぞれの位置情報を検出する位置検出機能と、複数の移動体のそれぞれに装着されたカメラで当該移動体の周囲を撮像して画像情報を生成する画像生成機能と、時刻検出機能と、所定のタイミングで位置情報、画像情報及び時刻情報を取得する情報取得制御機能と、取得された位置情報及び/又は画像情報を含む監視情報を生成する監視情報生成機能と、これら位置情報、画像情報及び時刻情報を中央監視装置20へ出力するとともに中央監視装置20からの指令を取得する通信機能と、異常の発生を通報する機能とを有する。そのため、複数の車載カメラ11a~11e、画像処理装置12、通信装置13、車載制御装置14、位置検出装置15及び通報ボタン16を備える。また、本実施形態の監視端末装置10は、車速センサ18、ナビゲーション装置19その他の車載電子機器を集中制御する車両コントローラ17と情報の授受が可能である。監視端末装置10は、車速センサ18、車両コントローラ17を介して取得した車速情報は監視情報の一部として中央監視装置20へ送信することができる。監視端末装置10は、ナビゲーション装置19から乗用車Vが移動する車線が路肩側の車線であるか否かを識別する車線識別情報を取得し、監視情報の一部として中央監視装置20へ送信することができる。この場合、ナビゲーション装置19は、車線の識別情報が含まれる地図情報を参照し、乗用車Vの位置及び位置の変化に基づいて乗用車Vが移動する車線が路肩側の車線であるか否かを識別する車線識別情報を取得することができる。このとき、車両コントローラ17から取得したウィンカー操作情報を用いることもできる。また、車線識別情報は、カメラ11が取得した画像情報に他車両特有のタイヤの画像などが含まれているか否かに基づいて取得することができる。なお、時刻情報は主として事象の事後解析に供される情報であるため省略してもよい。
 監視端末装置10が搭載される移動体Vは、目的とする監視領域を走行するものであれば特に限定されず、乗用車、二輪車、産業車両、路面電車などの移動体を含み、乗用車には業務車両V1や自家用乗用車V2や緊急乗用車V3が含まれるが、なかでも特に予め決められた領域をランダム且つ常時走行するタクシーや路線バスV1などが好適に含まれる。図1には、タクシーV1、自家用乗用車V2、パトカー、消防車又は救急車などの緊急乗用車V3を例示するが、これらを総称する場合は移動体Vまたは乗用車Vという。
 それぞれの移動体Vには、複数の車載カメラ11a~11e(以下、総称する場合はカメラ11という。)、画像処理装置12、通信装置13、車載制御装置14、位置検出装置15及び通報ボタン16が搭載されている。カメラ11は、CCDカメラなどで構成され、移動体Vの周囲を撮像し、その撮像信号を画像処理装置12へ出力する。画像処理装置12は、カメラ11からの撮像信号を読み出し、画像情報に画像処理する。この画像処理の詳細は後述する。
 位置検出装置15は、GPS装置及びその補正装置などで構成され、当該移動体Vの現在位置を検出し、車載制御装置14へ出力する。通報ボタン16は、車室内に設置された入力ボタンであって、運転手や同乗者がインシデント(事故、火事、犯罪など治安に関する出来事)を発見した際に異常を通報するための情報を入力する手動ボタンである。この情報には、異常を通報した移動体Vの位置情報を含めることができる。
 車載制御装置14は、CPU,ROM,RAMにより構成され、通報ボタン16が押されたときに、画像処理装置12、通信装置13及び位置検出装置15を制御し、画像処理装置12で生成された画像情報と、位置検出装置15で検出された移動体Vの位置情報と、CPUが内蔵する時計からの時刻情報とを通信装置13及び電気通信回線網30を介して中央監視装置20へ出力する。また、電気通信回線網30及び通信装置13を介して受信された中央監視装置20から画像送信指令などの情報を要求する指令を取得し、画像処理装置12、通信装置13及び位置検出装置15を制御し、画像処理装置12で生成された画像情報と、位置検出装置15で検出された移動体Vの位置情報と、CPUが内蔵する時計からの時刻情報とを含む監視情報を、通信装置13及び電気通信回線網30を介して中央監視装置20へ出力する。
 通信装置13は、無線通信が可能な通信手段であり、電気通信回線網30を介して中央監視装置20の通信装置23と情報の授受を実行する。電気通信回線網30が商用電話回線網である場合は携帯電話通信装置を汎用することができ、電気通信回線網30が本例の監視システム1の専用電気通信回線網である場合は、それ専用の通信装置13,23を用いることができる。なお、電気通信回線網30に代えて、無線LAN、WiFi(登録商標)、WiMAX(登録商標)、Bluetooth(登録商標)、専用無線回線などを用いることもできる。
 中央監視装置20は、上述した監視端末装置10から出力された位置情報及び画像情報を取得する情報取得機能と、取得した監視情報を位置情報と対応づけて少なくとも一時的にデータベース26に記憶する蓄積機能と、地図データベースからの地図情報を表示するとともに、受信した位置情報を地図情報上に表示制御し、受信した画像情報をディスプレイ24に表示する表示制御機能と、を有する。また、中央監視装置20は、データベース26を参照し、選択された注目地点を基準とする注目領域内に存在する監視端末装置10の数を算出し、注目領域に存在する監視端末装置の数が所定値以上である場合には、これらの監視端末装置10の中から所定の限定条件を満たす監視端末装置10を選択する選択機能と、選択した監視端末装置10に対して画像情報を少なくとも含み、必要に応じて位置情報、時刻情報を含む監視情報を送信する画像送信指令を出力する指令出力機能とを有する。本実施形態の選択機能は、注目領域に複数の監視端末装置10が存在する場合に、注目領域に存在する監視端末装置10の中から所定の限定条件を満たす監視端末装置を選択するようにしてもよい。注目領域の態様によっては、注目領域に複数の監視端末装置10が存在する場合に、通信の混雑を防止することが必要なこともある。特に、注目領域の設定手法は特に限定されないため、注目領域が狭い領域である場合や、注目領域からの監視情報が少なくてもよい(1台から得られれば十分である)場合には、注目領域に2台以上の監視端末装置10が存在することを条件に監視端末装置10を絞り込むことが好ましい。
 中央制御装置21は、CPU,ROM,RAMにより構成され、画像処理装置22、通信装置23及びディスプレイ24を制御して、監視端末装置10から送信された位置情報、画像情報及び時刻情報を受信し、必要に応じて画像処理を施したうえでディスプレイ24に表示する。
 画像処理装置22は、地図データベースを有し、当該地図データベースからの地図情報をディスプレイ24に表示するとともに、監視端末装置10の位置検出装置15により検出された位置情報を当該地図情報上に重畳表示する。また、監視端末装置10の車載カメラ11で撮像され、画像処理装置12で処理された画像情報をディスプレイ24に表示するための画像処理を施す。
 ディスプレイ24は、たとえば一つの画面上に2つのウィンド画面が表示できる大きさの液晶表示装置又は2つのウィンド画面をそれぞれ表示する2つの液晶表示装置により構成することができる。そして、一方のウィンド画面には、地図情報上に各移動体Vの位置情報を重ね合わせた画面を表示し(図1参照)、他方のウィンド画面には、車載カメラ11で撮像された映像に係る画像情報を表示する。
 入力装置25は、キーボード又はマウスで構成され、所望の移動体Vに対して出力される情報取得指令を入力したり、ディスプレイ24に表示される各種情報の処理指令を入力したりする場合に用いられる。先述した監視端末装置10の選択処理において、注目領域の基準となる注目地点は入力装置25を介して監視者が入力することもできる。特に限定されないが、監視者は、地図情報上に重畳表示された各地点のアイコンをクリック(選択入力)することにより注目地点を指定し、この注目地点を基準とする注目領域を設定することができる。もちろん、監視者は、任意の注目地点を基準として、地図情報上に重畳表示された各地点を連続的に選択入力することにより選択された複数の地点に囲まれる注目領域を設定することができる。
 通信装置23は、無線通信が可能な通信手段であり、電気通信回線網30を介して監視端末装置10の通信装置13と情報の授受を実行する。電気通信回線網30が商用電話回線網である場合は携帯電話通信装置を汎用することができ、電気通信回線網30が本例の監視システム1の専用電気通信回線網である場合は、それ専用の通信装置13,23を用いることができる。
 次に車載カメラ11a~11eの装着位置と撮像範囲について説明する。ここでは移動体Vとして乗用車Vを例に挙げて説明する。カメラ11a~11eはCCD等の撮像素子を用いて構成され、4つの車載カメラ11a~11dは乗用車Vの外部の異なる位置にそれぞれ設置され、車両周囲の4方向をそれぞれ撮影する。本実施形態のカメラ1は、被写体を拡大して撮像するズームアップ機能を備え、制御指令に従って任意に焦点距離を変更し、又は制御指令に従って任意に撮像倍率を変更することができる。
 例えば、図3に示すように、フロントグリル部分などの乗用車Vの前方の所定位置に設置された車載カメラ11aは、乗用車Vの前方のエリアSP1内及びその前方の空間に存在する物体又は路面(フロントビュー)を撮影する。また、左サイドミラー部分などの乗用車Vの左側方の所定位置に設置された車載カメラ11bは、乗用車Vの左側方のエリアSP2内及びその周囲の空間に存在する物体又は路面(左サイドビュー)を撮影する。また、リアフィニッシャー部分やルーフスポイラー部分などの乗用車Vの後方部分の所定位置に設置された車載カメラ11cは、乗用車Vの後方のエリアSP3内及びその後方の空間に存在する物体又は路面(リアビュー)を撮影する。また、右サイドミラー部分などの乗用車Vの右側方の所定位置に設置された車載カメラ11dは、乗用車Vの右側方のエリアSP4内及びその周囲の空間に存在する物体又は路面(右サイドビュー)を撮影する。なお、図3には図示を省略したが、1つの車載カメラ11eは、乗用車の室内の例えば天井部に設置され、図4に示すように室内のエリアSP5を撮像し、タクシーの無賃乗車や強盗などの犯罪防止又は犯罪通報に供される。
 図4は、各車載カメラ11a~11eの配置を乗用車Vの上空から見た図である。同図に示すように、エリアSP1を撮像する車載カメラ11a、エリアSP2を撮像する車載カメラ11b、エリアSP3を撮像する車載カメラ11c、エリアSP4を撮像する車載カメラ11dの4つは、乗用車Vのボディの外周VEに沿って左回り(反時計回り)又は右回り(時計回り)に沿って設置されている。つまり、同図に矢印Cで示す左回り(反時計回り)に乗用車Vのボディの外周VEに沿って見ると、車載カメラ11aの左隣りに車載カメラ11bが設置され、車載カメラ11bの左隣りに車載カメラ11cが設置され、車載カメラ11cの左隣りに車載カメラ11dが設置され、車載カメラ11dの左隣りに車載カメラ11aが設置されている。逆に同図に示す矢印Cの方向とは反対に(時計回り)に乗用車Vのボディの外周VEに沿って見ると、車載カメラ11aの右隣りに車載カメラ11dが設置され、車載カメラ11dの右隣りに車載カメラ11cが設置され、車載カメラ11cの右隣りに車載カメラ11bが設置され、車載カメラ11bの右隣りに車載カメラ11aが設置されている。
 図5Aは、フロントの車載カメラ11aがエリアSP1を撮像した画像GSP1の一例を示し、図5Bは、左サイドの車載カメラ11bがエリアSP2を撮像した画像GSP2の一例を示し、図5Cは、リアの車載カメラ11cがエリアSP3を撮像した画像GSP3の一例を示し、図5Dは、右サイドの車載カメラ11dがエリアSP4を撮像した画像GSP4の一例を示し、図5Eは、室内の車載カメラ11eが室内エリアSP5を撮像した画像GSP5の一例を示す画像図である。ちなみに、各画像のサイズは、縦480ピクセル×横640ピクセルである。画像サイズは特に限定されず、一般的な端末装置で動画再生が可能なサイズであればよい。
 なお、車載カメラ11の配置数及び配置位置は、乗用車Vの大きさ、形状、検出領域の設定手法等に応じて適宜に決定することができる。上述した複数の車載カメラ11は、それぞれの配置に応じた識別子が付されており、車載制御装置14は、各識別子に基づいて各車載カメラ11のそれぞれを識別することができる。また、車載制御装置14は、指令信号に識別子を付することにより、特定の車載カメラ11に撮像指令その他の指令を送信することができる。
 車載制御装置14は、画像処理装置12を制御して車載カメラ11によって撮像された撮像信号をそれぞれ取得し、画像処理装置12は、各車載カメラ11からの撮像信号を処理して図5A~図5Eに示す画像情報に変換する。そして、車載制御装置14は、図5A~図5Dに示す4つの画像情報に基づいて監視画像を生成するとともに(画像生成機能)、この監視画像を柱体の投影モデルの側面に設定された投影面に投影するためのマッピング情報を監視画像に対応づけ(マッピング情報付加機能)、中央監視装置20へ出力する。以下、画像生成機能とマッピング情報付加機能について詳述する。
 なお、乗用車Vの周囲を撮像した4つの画像情報に基づいて監視画像を生成し、これにマッピング情報を関連付ける処理は、本例のように監視端末装置10で実行するほか、中央監視装置20で実行することもできる。この場合には、乗用車Vの周囲を撮像した4つの画像情報を監視端末装置10から中央監視装置20へそのまま送信し、これを中央監視装置20の画像処理装置22及び中央制御装置21にて監視画像を生成するとともにマッピング情報を関連付け、投影変換すればよい。
 まず、画像生成機能について説明する。本実施形態の監視端末装置10の車載制御装置14は、画像処理装置12を制御して各車載カメラ11a~11eの撮像信号をそれぞれ取得し、さらに乗用車Vのボディの外周に沿って右回り又は左回りの方向に設置された車載カメラ11a~11dの画像情報がこれらの車載カメラ11a~11dの設置順に配置されるように、一枚の監視画像を生成する。
 上述したように、本実施形態において、4つの車載カメラ11a~11dは乗用車Vのボディの外周VEに沿って左回り(反時計回り)にカメラ11a、11b、11c、11dの順に設置されているので、車載制御装置14は、これらの車載カメラ11a~11dの設置の順序(車載カメラ11a→11b→11c→11d)に従って、各車載カメラ11a~11dが撮像した4枚の画像が一体となるように水平方向に繋げ、一枚の監視画像を生成する。本実施形態の監視画像において、各画像は乗用車Vの接地面(路面)が下辺となるように配置され、各画像は路面に対して高さ方向(垂直方向)の辺で互いに接続される。
 図6は、監視画像Kの一例を示す図である。同図に示すように、本実施形態の監視画像Kは、図面左側から図面右側へ向かう方向Pに沿って、フロントの車載カメラ11aがエリアSP1を撮像した撮像画像GSP1、左サイドの車載カメラ11bがエリアSP2を撮像した撮像画像GSP2、リアの車載カメラ11cがエリアSP3を撮像した撮像画像GSP3、及び右サイドの車載カメラ11dがエリアSP4を撮像した撮像画像GSP4が、水平方向にこの順序で並べて配置され、これら4つの画像が一連の画像とされている。このように生成された監視画像Kを、路面(車両の接地面)に対応する画像を下にして左端から右側へ順番に表示することにより、監視者は、車両Vの周囲を反時計回りに見回したのと同様にディスプレイ24上で視認することができる。
 なお、一つの監視画像Kを生成する際には、各車載カメラ11a~11dの撮影タイミングを略同時にして取得した4つの画像が用いられる。これにより、監視画像Kに含まれる情報を同期させることができるので、所定タイミングにおける車両周囲の状況を正確に表現することができる。
 また、カメラの撮像タイミングが略同時である各撮像画像から生成した監視画像Kを経時的に記憶し、所定の単位時間あたりに複数の監視画像Kが含まれる動画の監視画像Kを生成するようにしてもよい。撮像タイミングが同時の画像に基づいて動画の監視画像Kを生成することにより、車両周囲の状況の変化を正確に表現することができる。
 ところで、各撮像領域の画像をそれぞれ経時的に記憶し、各撮像領域ごとに生成した動画の監視画像Kを中央監視装置20へ送信した場合には、中央監視装置20の機能によっては、複数の動画を同時に再生できない場合がある。このような従来の中央監視装置20においては、複数の動画を同時に再生表示することができないため、各動画を再生する際には画面を切り替えて動画を一つずつ再生しなければならない。つまり、従来の中央監視装置20では、複数方向の映像(動画)を同時に見ることができず、車両周囲の全体を一画面で監視することができないという不都合がある。
 これに対して本実施形態の車載制御装置14は、複数の画像から一つの監視画像Kを生成するので、中央監視装置20の機能にかかわらず、異なる撮像方向の画像を同時に動画再生することができる。つまり、監視画像Kを連続して再生(動画再生)することにより、監視画像Kに含まれる4枚の画像を同時に連続して再生(動画再生)し、方向の異なる領域の状態変化を一画面で監視することができる。
 また、本実施形態の監視端末装置10は、監視画像Kの画素数が各車載カメラ11a~11dの画像の画素数と略同一になるように画像のデータ量を圧縮して監視画像Kを生成することもできる。図5A~図5Dに示す各画像のサイズは480×640ピクセルであるのに対し、本実施形態では、図6に示すように監視画像Kのサイズが1280×240ピクセルとなるように圧縮処理を行う。これにより、監視画像Kのサイズ(1280×240=307,200ピクセル)が、各画像のサイズ(480×640×4枚=307,200ピクセル)と等しくなるので、監視画像Kを受信した中央監視装置20側の機能にかかわらず、画像処理及び画像再生を行うことができる。
 さらに、本実施形態の車載制御装置14は、配置された各画像の境界を示す線図形を、監視画像Kに付することもできる。図6に示す監視画像Kを例にすると、車載制御装置14は、配置された各画像の境界を示す線図形として、各画像の間に矩形の仕切り画像Bb,Bc,Bd,Ba,Ba´を監視画像Kに付することができる。このように、4つの画像の境界に仕切り画像を配置することにより、一連にされた監視画像Kの中で、撮像方向が異なる各画像をそれぞれ別個に認識させることができる。つまり、仕切り画像は各撮像画像の額縁として機能する。また、各撮像画像の境界付近は画像の歪みが大きいので、撮像画像の境界に仕切り画像を配置することにより、歪みの大きい領域の画像を隠すことや、歪みが大きいことを示唆することができる。
 また、本実施形態の車載制御装置14は、後述する投影モデルの側面に設定された投影面に4つの画像を投影させた場合の歪みを補正してから、監視画像Kを生成することもできる。撮影された画像の周辺領域は画像の歪みが生じやすく、特に広角レンズを用いた車載カメラ11である場合には撮像画像の歪みが大きくなる傾向があるため、画像の歪みを補正するために予め定義された画像変換アルゴリズムと補正量とを用いて、撮像画像の歪みを補正することが望ましい。
 特に限定されないが、車載制御装置14は、図7に示すように、中央監視装置20において監視画像Kを投影させる投影モデルと同じ投影モデルの情報をROMから読み出し、この投影モデルの投影面に撮像画像を投影し、投影面において生じた歪みを予め補正することもできる。なお、画像変換アルゴリズムと補正量は車載カメラ11の特性、投影モデルの形状に応じて適宜定義することができる。このように、投影モデルの投影面に関し画像Kを投影した場合の歪みを予め補正しておくことにより、歪みの少ない視認性の良い監視画像Kを提供することができる。また、歪みを予め補正しておくことにより、並べて配置された各画像同士の位置ズレを低減させることができる。
 次に、マッピング情報付加機能について説明する。本実施形態の監視端末装置10において、車載制御装置14は、乗用車Vの接地面を底面とする柱体の投影モデルMの側面に設定された投影面に、生成された監視画像Kを投影するためのマッピング情報を監視画像Kに対応づける処理を実行する。マッピング情報は、監視画像Kを受信した中央監視装置20に、容易に投影基準位置を認識させるための情報である。図8は本実施形態の投影モデルMの一例を示す図、図9は図8に示す投影モデルMのxy面に沿う断面模式図である。
 図8,9に示すように、本実施形態の投影モデルMは、底面が正八角形で、鉛直方向(図中z軸方向)に沿って高さを有する正八角柱体である。なお、投影モデルMの形状は、底面の境界に沿って隣接する側面を有する柱体であれば特に限定されず、円柱体、若しくは三角柱体、四角柱体、六角柱体などの角柱体、又は底面が多角形で側面が三角形の反角柱体とすることもできる。
 また、同図に示すように、本実施形態の投影モデルMの底面は乗用車Vの接地面と平行である。また、投影モデルMの側面の内側面には、投影モデルMの底面に接地する乗用車Vの周囲の映像を映し出す投影面Sa,Sb,Sc,Sd(以下、投影面Sと総称する。)が設定されている。投影面Sは、投影面Saの一部と投影面Sbの一部、投影面Sbの一部と投影面Scの一部、投影面Scの一部と投影面Sdの一部、投影面Sdの一部と投影面Saの一部により構成することもできる。監視画像Kは、乗用車Vを取り囲む投影モデルMの上方の視点R(R1~R8、以下、視点Rと総称する。)から乗用車Vを俯瞰した映像として投影面Sに投影される。
 本実施形態の車載制御装置14は、右端又は左端に配置された撮像画像の基準座標を、マッピング情報として監視画像Kに対応づける。図6に示す監視画像Kを例にすると、車載制御装置14は、投影モデルMに投影される際の、監視画像Kの始端位置又は終端位置を示すマッピング情報(基準座標)として、右端に配置された撮像画像GSP1の左上頂点の座標A(x、y)と、左端に配置された撮像画像GSP2の右上頂点の座標B(x、y)とを監視画像Kに付する。なお、始端位置又は終端位置を示す撮像画像の基準座標は特に限定されず、左端に配置された監視画像Kの左下頂点、又は右端に配置された監視画像Kの右下頂点としてもよい。またマッピング情報は、監視画像Kの画像データの各画素に付してもよいし、監視画像Kとは別のファイルとして管理してもよい。
 このように、監視画像Kの始端位置又は終端位置を示す情報、つまり投影処理において基準とする基準座標をマッピング情報として監視画像Kに対応づけることにより、監視画像Kを受信した中央監視装置20が、容易に投影処理時における基準位置を認識することができるので、車載カメラ11a~11dの配置順に並べられた監視画像Kを、投影モデルMの側面の投影面Sに容易且つ迅速に順次投影することができる。すなわち、図9に示すように車載カメラ11aの撮像方向に位置する投影面Saに車両前方の撮像画像GSP1を投影し、車載カメラ11bの撮像方向に位置する投影面Sbに車両右側方の撮像画像GSP2を投影し、車載カメラ11cの撮像方向に位置する投影面Scに車両後方の撮像画像GSP3を投影し、車載カメラ11dの撮像方向に位置する投影面Sdに車両左側方の撮像画像GSP4を投影することができる。
 これにより、投影モデルMに投影された監視画像Kは、あたかも乗用車Vの周囲を見回したときに見える映像を示すことができる。つまり、車載カメラ11a~11dの設置順序に応じて水平方向一列に配置された4つの画像を含む監視画像Kは、投影モデルMの柱体において、同じく水平方向に並ぶ側面に投影されるので、柱体の投影モデルMの投影面Sに投影された監視画像Kに、乗用車Vの周囲の映像をその位置関係を維持したまま再現することができる。
 なお、本実施形態の車載制御装置14は、監視画像Kの各座標値と投影モデルMの各投影面Sの座標値との対応関係をマッピング情報として記憶し、監視画像Kに付することができるが、中央監視装置20に予め記憶させてもよい。
 また、図8,9に示す視点R、投影面Sの位置は例示であり、任意に設定することができる。特に、視点Rは、操作者の操作によって変更可能である。視点Rと監視画像Kの投影位置との関係は予め定義されており、視点Rの位置が変更された場合には所定の座標変換を実行することにより、新たに設定された視点Rから見た監視画像Kを投影面S(Sa~Sd)に投影することができる。この視点変換処理には公知の手法を用いることができる。
 以上のように、本実施形態の車載制御装置14は、所定タイミングで撮影された画像情報に基づいて監視画像Kを生成し、この監視画像Kにマッピング情報、基準座標、境界を示す線図形(仕切り画像)の情報を対応づけ、撮像タイミングに従って経時的に記憶する。特に限定されないが、車載制御装置14は、所定の単位時間あたりに複数の監視画像Kを含む一つの動画ファイルとして監視画像Kを記憶してもよいし、ストリーミング方式で転送・再生が可能な形態で監視画像Kを記憶してもよい。
 中央監視装置20の通信装置23は、監視端末装置10から送信された監視画像Kとこの監視画像Kに対応づけられたマッピング情報を受信する。また、室内の車載カメラ11eにて撮影された画像情報は別途受信する。この監視画像Kは、上述したとおり乗用車Vのボディの異なる位置に設置された4つの車載カメラ11の画像が、乗用車Vのボディの外周に沿って右回り又は左回りの方向に沿って設置された車載カメラ11a~11dの設置順序(車両Vのボディの外周に沿う右回り又は左回りの順序)に従って配置されたものである。また、この監視画像Kには、監視画像Kを八角柱体の投影モデルMの投影面Sに投影させるためのマッピング情報が対応づけられている。通信装置23は取得した監視画像K及びマッピング情報を画像処理装置22へ送信する。
 画像処理装置22は、予め記憶している投影モデルMを読み出し、マッピング情報に基づいて、図8及び図9に示す乗用車Vの接地面を底面とする八角柱体の投影モデルMの側面に設定された投影面Sa~Sdに監視画像Kを投影させた表示画像を生成する。具体的には、マッピング情報に従い、受信した監視画像Kの各画素を、投影面Sa~Sdの各画素に投影する。また、画像処理装置22は、監視画像Kを投影モデルMに投影する際に、監視画像Kと共に受信した基準座標に基づいて、監視画像Kの開始点(監視画像Kの右端又は左端)を認識し、この開始点が予め投影モデルM上に定義された開始点(投影面Sの右端又は左端)と合致するように投影処理を行う。また、画像処理装置22は、監視画像Kを投影モデルMに投影する際に、各画像の境界を示す線図形(仕切り画像)を投影モデルM上に配置する。仕切り画像は、予め投影モデルMに付しておくこともでき、投影処理後に監視画像Kに付すこともできる。
 ディスプレイ24は、投影モデルMの投影面Sに投影した監視画像Kを表示する。図10は、監視画像Kの表示画像の一例を示す。なお、マウスやキーボードなどの入力装置25又はディスプレイ24をタッチパネル式の入力装置25とすることで、監視者の操作により視点を自在に設定・変更することができる。視点位置と投影面Sとの対応関係は上述の画像処理装置22又はディスプレイ24において予め定義されているので、この対応関係に基づいて、変更後の視点に応じた監視画像Kをディスプレイ24に表示することができる。
 次に本実施形態に係る監視システム1の動作について説明する。図11は監視端末装置10側の動作を示すフローチャート、図12A,12Bは中央監視装置20側の動作を示すフローチャート、図13は少なくとも一時的に記憶される情報のデータベースの例を示す図である。
 図11に示すように、監視端末装置10においては、所定の時間間隔(同図に示す1ルーチン)で車載カメラ11から周囲の映像と室内の映像を取得し、画像処理装置12によって画像情報に変換する(ステップST1)。また、GPSを備える位置検出装置15から当該監視端末装置10が搭載された乗用車Vの現在位置情報を検出する(ステップST2)。
 ステップST3では、異常を通報する通報ボタン16が押されたか否かを判断し、通報ボタン16が押された場合はステップST4へ進み、ステップST1にて取得した画像情報と、ステップST2で取得した位置情報と、CPUの時刻情報とを関連付け、これらを、異常が発生した旨の異常情報とともに、監視情報として通信装置13及び電気通信回線網30を介して中央監視装置20へ送信する。これにより、事故、犯罪などの治安に関する異常が発生したことを、乗用車Vの位置情報と、乗用車Vの周囲の画像情報と共に中央監視装置20へ自動送信されるので、街中の監視がより一層強化されることになる。さらに、監視情報に車両の移動速度、移動する車線が路肩側の車線であるか否かを識別する車線識別情報を含ませることができる。これにより、乗用車Vの移動速度や車線識別情報を考慮して監視情報を送信させる監視端末装置10を選択することができる。なお、本例では最初のステップST1及びST2において画像情報と位置情報とを取得するが、ステップST3とST4との間のタイミングでこれら画像情報と位置情報とを取得してもよい。
 ステップST3に戻り、通報ボタン16が押されていない場合はステップST5へ進み、中央監視装置20と通信し、制御指令を取得する。
 続いて、ステップST6において、監視端末装置10は、中央監視装置20から制御指令を取得したか否かを判断し、ステップST7へ進み制御指令を実行する。具体的に、監視端末装置10は、中央監視装置20から画像情報を含む監視情報を送信する旨の画像送信指令を取得したか否かを判断し、そうである場合にはステップST7へ進み、監視端末情報10は、画像情報、位置情報、時刻情報を含む監視情報を中央監視装置20に送信する。このとき、監視情報に乗用車Vの移動速度、車線識別情報を含ませることができる。また、監視端末装置10は、中央監視装置20から画像情報を含む監視情報の送信を禁止する旨の画像送信禁止指令を取得したか否かを判断し、そうである場合にはステップST7へ進み、監視端末情報10は、画像情報を含む監視情報を中央監視装置20に送信を実行しない。さらに、監視端末装置10は、中央監視装置20から画像情報を含む監視情報を記憶する旨の画像記憶指令を取得したか否かを判断し、そうである場合にはステップST7へ進み、監視端末情報10は、画像情報を含む監視情報を自身の記憶装置に記憶する。
 ステップST6に戻り、中央監視装置20から制御指令を取得しない場合であっても、ステップST8において乗用車Vが予め定義された重点監視領域に存在する場合には、テップST10へ進み、画像情報を含む監視情報を送信する。この監視情報には、時刻情報、位置情報、移動速度、車線識別情報を含ませることができる。他方、画像送信指令を取得せず、重点監視領域でもない場合には、ステップST9へ進み、画像情報を含まない監視情報、つまり時刻情報、位置情報を中央監視装置20へ送信する。
 図12AのステップST11では、すべての乗用車Vから位置情報、時刻情報、移動速度、車線識別情報を取得し、データベース26に蓄積する。図13は、少なくとも一時的に構成されるデータベース26に蓄積される情報の一例を示す図である。図13に示すように、乗用車V(監視端末装置10)から取得された画像情報、位置情報、時刻情報、移動速度、車線識別情報を含む監視情報は、位置情報に対応づけて記憶されている。つまり、位置情報を指定すると、一連の監視情報を呼び出すことができる。また、この監視情報には、監視端末装置10を特定するための移動体ID(監視端末装置ID)を含ませることができる。移動体IDは監視端末装置10の通信装置13のアドレスであってもよい。
 ステップST12において、ステップST11で取得した位置情報に基づいて乗用車Vを、ディスプレイ24に表示された地図データベースの地図情報上に図1の左上に示すように表示する。乗用車Vの位置情報は、図11の1ルーチン毎の所定のタイミングにて取得され送信されるので、監視者は乗用車Vの現在位置をタイムリーに把握することができる。
 ステップST13では、乗用車Vの監視端末装置10から通報される異常情報、すなわち事故、犯罪などの治安に関する異常が発生した旨の通報を受信したか否かを判断する。この異常情報は、乗用車Vの搭乗者が監視端末装置10の通報ボタン16を押すことで出力される。異常情報がある場合は、ステップST14にて異常情報が出力された乗用車Vを特定し、その乗用車の監視端末装置10から画像情報および時刻情報を受信し、画像情報をディスプレイ24に表示する。また、図1左上に示すように、地図情報上に表示されたその乗用車を他の乗用車と識別できるように色彩を変更するなど、強調表示を行う。これにより、異常が発生した位置を地図情報上で視認することができるとともに、異常内容をディスプレイ24にて把握することができる。なお、ステップST13~ステップ20までの処理は、異常情報が通報された場合を例にした処理であり、異常情報を通報した乗用車Vの存在位置が注目地点として選択されるが、異常情報が通報されず、監視者が任意に監視すべき場所を指定した場合であっても同様にステップST13~ステップ20までの処理を実行することができる。この場合は、監視者が指定した場所が注目地点となる。
 次のステップST15では、異常情報を出力した乗用車Vが存在する位置を注目して監視をするべき注目地点として選択し、この注目地点を基準として、この注目地点から所定距離以内の注目領域に存在する他車両、つまり監視端末装置10を検索する。続いて、ステップST16では、注目領域に存在する監視端末装置10の数を算出し、注目領域に存在する他車両、つまり監視端末装置10が所定台数以上であるか否かを判断する。注目領域に存在する他車両が所定台数以上である場合には、ステップST17へ進み、画像情報を含む監視情報を要求する画像送信指令などの制御指令を送信する他車両(監視端末装置10)を選択する。なお、制御指令を送信する他車両(監視端末装置10)を選択するために閾値を設定することなく、注目領域に複数の監視端末装置が存在することを条件に、注目領域に存在する監視端末装置10の中から所定の限定条件を満たす監視端末装置10を選択してもよい。
 ステップST17において、中央監視装置20は、注目領域に存在する監視端末装置10の中から所定の限定条件を満たす監視端末装置10を選択し、続くステップST18において、制御指令を送信する。本実施形態の制御指令は、画像情報を含む監視情報の送信を要求する画像送信指令と、反対に画像情報を含む監視情報の送信を禁止する画像送信禁止指令と、監視情報に含まれる画像情報を記憶させる画像記憶指令とを含む。
 まず、中央監視装置20が画像情報を含む監視情報の送信を要求する画像送信指令を送出する乗用車Vを絞り込み、絞り込んだ乗用車Vに画像送信指令を送出する例について説明する。
 密集した監視端末装置10の中から画像情報を含む監視情報を送信させる監視端末装置10を絞り込むための限定条件は特に限定されないが、本実施形態では、注目地点を基準とする注目領域に含まれる限定領域に存在することを限定条件として定義することができる。限定領域は、注目領域よりもさらに狭い領域であり、注目領域のうちインシデントが発生した注目地点により近い領域とすることができる。これにより、注目して監視すべき注目地点の近くに存在する乗用車Vに画像送信指令を送信できるので、送信される情報量を抑制しながらも、注目地点の様子が分かりやすい画像情報を選択的に取得することができる。
 また、特に限定されないが、本実施形態では、互いに所定距離以上に離隔して存在することを限定条件として定義することができる。これにより、注目して監視すべき注目地点を異なる位置に存在する乗用車Vに画像送信指令を送信できるので、送信される情報量を抑制しながらも、注目地点を異なる視点から撮像した画像情報を選択的に取得することができる。
 さらに、特に限定されないが、本実施形態では、監視端末装置10が路肩側の車線を移動する移動体に搭載されていることを限定条件として定義することができる。監視端末装置10を搭載する乗用車Vの移動する車線が路肩側の車線であるか否かは先述した車線識別情報に基づいて判断することができる。これにより、路肩側の車線を走行する乗用車Vに画像送信指令を送信できるので、送信される情報量を抑制しながらも、路肩側の街並み、通行人、銀行や商店などの施設の映像が含まれる画像情報を選択的に取得することができる。
 加えて、特に限定されないが、本実施形態では、監視端末装置10が搭載された乗用車Vが所定速度以上で移動していることを限定条件として定義することができる。これにより、停止している車両ではなく走行中の乗用車Vに画像送信指令を送信できるので、送信される情報量を抑制しながらも、移動により異なる地点から撮像した映像が含まれる画像情報を選択的に取得することができる。
 上述した画像送信指令を送信する一方で、本実施形態の中央監視装置20は、限定条件を満たさず選択されなかった監視端末装置10に対して、画像情報を含む監視情報の送信を禁止する画像送信禁止指令を出力する。このように、選択されなかった監視端末装置10に画像送信を禁止することにより、監視端末装置10が密集した場所における通信の混雑を防止することができる。特に、インシデント発生位置から所定距離範囲に存在する監視端末装置10に対して自動的に画像情報を含む監視情報の送信指令が設定されている場合を考えると、通常、車両が密集しない場所でインシデントが発生しても自動的に全車両が画像情報を送信することに問題はないが、駅前などの車両が密集する場所でインシデントが発生すると自動的に全車両が画像情報を送信すると通信が一時的に混雑し、必要な画像情報の送信に時間がかかる恐れがある。これに対し、本実施形態では、中央監視装置20が注目地点に応じて通信をする監視端末装置10を絞り込むことができるので、取得したい画像情報をリアルタイムで取得することができ、通信状況によって監視業務が影響を受けることを防止することができる。なお、記憶した画像情報は、後の任意のタイミングで中央監視装置20へ送信することができる。
 さらに、画像送信指令/画像送信禁止指令を送信するのに併せて、本実施形態の中央監視装置20は、限定条件を満たさず選択されなかった監視端末装置10に対して、監視情報に含まれる画像情報を記憶させる画像記憶指令を出力する。このように、画像情報の送信が禁止された監視端末装置10が、送信しなかった画像情報を自身の記憶装置に記憶しておくことにより、事後において検証等をする際に異なる方向や異なる位置から撮像された画像情報が必要である場合に備えることができる。異常が起きたタイミングにおいては中央監視装置20へ送信する情報量を制限することを優先させつつも、後のタイミングにおいて事故原因の究明や証拠となりうる画像情報を保存させておくことができる。なお、記憶させる対象は情報量の大きい画像情報を少なくとも含ませるが、位置情報や時刻情報などは、リアルタイムで送信してもよいし、画像情報とともに記憶してもよい。
 ステップST19では、異常情報を出力した乗用車Vの位置情報をパトカー、救急車、消防車等の緊急乗用車へ送信する。この場合に、異常内容を報知するために画像情報を添付して送信してもよい。これにより、現場からの通報が入る前に緊急乗用車を出動させることができ、事故や犯罪に対する迅速な対処が可能となる。
 ステップST20では、監視端末装置10から受信した全ての位置情報、画像情報および時刻情報を記録媒体へ記録する。この記録は、事故や犯罪の発生後においてこれらを解決する際に用いられる。なお、ステップST13にて異常情報がない場合はステップST14~ST20の処理を行うことなくステップST21へ進む。
 ステップST21では、パトカー、救急車又は消防車などの緊急乗用車から画像情報の送信指令があるか否かを判断し、画像送信指令が入力された場合にはステップST22へ進む。ステップST22では、画像情報の送信指令で特定された地域に乗用車Vが存在するか否かを判断し、乗用車Vが存在する場合はステップST23へ進む。そして、ステップST23において、画像情報の送信指令で特定された地域に存在する乗用車Vに対して画像情報の送信指令を出力する。これにより、次のルーチンの図12AのステップST11にてその乗用車Vからの画像情報を取得することができ、これを緊急乗用車に転送したり、緊急乗用車からの送信指令の意味を把握したりすることができる。なお、ステップST21及びST22に該当しない場合はステップST21~ST23の処理を行うことなくステップST24へ進む。
 ステップST24では、予め設定された犯罪多発遅滞などの不審箇所の近傍領域に乗用車Vが存在するか否かを判断し、存在する場合はステップST25へ進んでその乗用車Vに対して画像情報の送信指令を出力する。不審箇所とは治安の悪い通り、街などである。これにより、不審箇所である通りや街の監視を強化することができ、犯罪の未然防止が期待できる。なお、不審箇所の近傍領域に乗用車Vが存在しない場合はステップST22の処理を行うことなくステップST26へ進む。
 ステップST26では、詳細を監視しておくべき重点監視対象を撮像できる重点監視位置の近傍に乗用車Vが存在するか否かを判断し、重点監視位置の近傍に乗用車Vが存在する場合はステップST27へ進んでその乗用車Vに対して重点監視対象を拡大した画像情報の送信を求める重点監視指令を出力する。これにより、重点監視対象を詳細に監視することができ、特定された重点監視対象において事件や事故の原因となる不審物の発見を効果的に行うことができ、犯罪の未然防止が期待できる。なお、重点監視位置の近傍に乗用車Vが存在しない場合はステップST27の処理を行うことなくステップST28へ進む。
 ステップST28では、各乗用車Vから受信した位置情報に基づいて、監視が必要とされる所定領域(不審箇所及び重点監視領域には限定されない)内に、一定時間内に乗用車Vが走行していない路線があるか否かを判断し、そのような路線があった場合において、その路線を走行する乗用車Vがあるか否かを監視する。そして、直近にその路線を走行する乗用車Vが存在すれば、ステップST29へ進み、その乗用車Vに対して画像情報の送信指令を出力する。これにより、不審箇所や重点監視領域以外の区域であって乗用車Vの通行量が少ない路線の画像情報を自動的に取得することができる。なお、ステップST28の条件を満足する路線がない場合はステップST29の処理を行うことなく図12AのステップST11へ戻る。
 以上のとおり、本実施形態の監視システムは以下の効果を奏する。
(1)本例の監視システム1は、選択された注目地点を基準とする注目領域内に存在する監視端末装置10の数を算出し、注目領域に存在する監視端末装置10の数が所定値以上である場合には、これらの監視端末装置10の中から所定の限定条件を満たす監視端末装置10を選択し、選択した監視端末装置10に対して、位置情報と画像情報を含む監視情報を送信する画像送信指令を出力することにより、異常が発生した場所に監視端末装置を搭載する移動体が密集している場合であっても、選択された監視端末装置に対してのみ画像情報を含む監視情報を送信するように画像送信指令を出力するので、すべての防犯カメラ装置が画像情報を一斉に送信することによる通信の混雑ひいては情報取得の遅延を抑制することができる。この結果、中央監視装置20は監視端末装置10からの監視情報をリアルタイムで取得することができる。
(2)本例の監視システム1では、中央監視装置20が限定条件を満たさず選択されなかった監視端末装置10に対して、画像情報を含む監視情報の送信を禁止する画像送信禁止指令を出力するので、監視端末装置10が密集した場所における通信の混雑を確実に防止することができる。これにより、通信状況によって監視業務が影響を受けることを防止することができる。
(3)本例の監視システム1では、中央監視装置20が限定条件を満たさず選択されなかった監視端末装置10に対して、監視情報に含まれる画像情報を記憶させる画像記憶指令を出力するので、後で現場検証等をする際に異なる方向や異なる位置から撮像された画像情報が必要である場合に備えることができる。異常発生のタイミングにおいては中央監視装置20へ送信する情報量を制限することを優先させつつも、後のタイミングにおいて事故原因の究明や証拠となりうる画像情報を保存させておくことができる。
(4)本例の監視システム1では、中央監視装置20が異常情報を出力した監視端末装置10の位置情報を注目地点として選択し、監視端末装置10を絞り込むので、異常が発生した場所において監視端末装置10が密集していても、選択された監視端末装置10のみが画像情報を含む監視情報を送信するように制御指令(画像送信指令/画像送信禁止指令/画像記憶指令)を出力するので、すべての防犯カメラ装置が画像情報を一斉に送信することによる通信の混雑ひいては情報取得の遅延を抑制することができる。
(5)本例の監視システム1では、中央監視装置20が注目地点を基準とする注目領域に含まれる限定領域に存在することを限定条件とするので、注目して監視すべき注目地点の近くに存在する乗用車Vに画像送信指令を送信できるため、送信される情報量を抑制しながらも、注目地点の様子が分かりやすい画像情報を選択的に取得することができる。
(6)本例の監視システム1では、互いに所定距離以上に離隔して存在することを限定条件とするので、注目して監視すべき注目地点を異なる位置に存在する乗用車Vに画像送信指令を送信できるため、送信される情報量を抑制しながらも、注目地点を異なる視点から撮像した画像情報を選択的に取得することができる。
(7)本例の監視システム1では、監視端末装置10が路肩側の車線を移動する乗用車Vに搭載されていることを限定条件とするので、路肩側の車線を走行する乗用車Vに画像送信指令を送信できるため、送信される情報量を抑制しながらも、路肩側の街並み、通行人、銀行や商店などの施設の映像が含まれる画像情報を選択的に取得することができる。
(8)本例の監視システム1では、監視端末装置10を搭載する乗用車Vが所定速度以上で移動していることを限定条件とするので、停止している車両ではなく走行中の乗用車Vに画像送信指令を送信できるため、送信される情報量を抑制しながらも、移動により異なる地点から撮像した映像が含まれる画像情報を選択的に取得することができる。
(9)本例の監視システム1では、注目領域に複数の監視端末装置10が存在する場合には、これらの監視端末装置10の中から所定の限定条件を満たす監視端末装置10を選択し、選択した監視端末装置10に対して、位置情報と画像情報を含む監視情報を送信する画像送信指令を出力することによっても、上記作用及び効果と同様の作用及び効果を奏することができる。、
(10)本例の監視方法は、上記監視端末装置10と中央監視装置20とを備える監視システムと同様の作用及び効果を奏する。
 なお、上述した実施形態では、乗用車Vの位置情報と車載カメラ11a~11eからの画像情報を取得するようにしたが、図1に示す、街中に設置された固定カメラ11fからの画像情報と組み合わせて取得してもよい。また、位置情報と画像情報を取得する乗用車Vは、図1に示すように予め決められた領域を走行するタクシーV1やバスを用いることが望ましいが、自家用乗用車V2や緊急乗用車V3を用いてもよい。
 また、上述した実施形態では、乗用車Vに5つの車載カメラを搭載し、このうち4つの車載カメラ11a~11dを用いて360°周囲の映像を画像情報として取得したが、室内の車載カメラ11eを省略してもよい。また、交通量が多い監視領域のように多くの乗用車Vから画像情報が取得できる環境等であれば特に、4つの車載カメラ11a~11dを3つ以下にしてもよい。
上記中央制御装置21は選択手段に相当し、上記通信装置23、入力装置25は本発明に係る情報取得手段、制御指令出力手段に相当する。
1…車両監視システム
 10…監視端末装置
  11,11a~11e…車載カメラ
  11f…街中固定カメラ
  12…画像処理装置
  13…通信装置
  14…車載制御装置
  15…位置検出装置
  16…通報ボタン
 20…中央監視装置
  21…中央制御装置
  22…画像処理装置
  23…通信装置
  24…ディスプレイ
  25…入力装置
 30…電気通信回線網
V,V1,V2,V3…移動体
M…投影モデル
S,Sa,Sb、Sc、Sd…投影面
R1~R8…視点

Claims (10)

  1.  複数の移動体のそれぞれの位置情報を検出する位置検出手段と、前記複数の移動体のそれぞれに装着され、当該移動体の周囲を撮像して画像情報を生成する画像生成手段と、を備える監視端末装置から、無線通信を介して監視情報を取得する中央監視装置を備える監視システムであって、
     前記中央監視装置は、
     前記監視端末装置から出力された位置情報を少なくとも含む監視情報を取得する情報取得手段と、
     前記監視情報に含まれる位置情報の中から注目地点を選択し、前記選択された注目地点を基準とする注目領域に存在する監視端末装置の数を算出し、前記注目領域に存在する監視端末装置の数が所定値以上である場合には、前記注目領域に存在する監視端末装置の中から所定の限定条件を満たす監視端末装置を選択する選択手段と、
     前記選択された監視端末装置に対して、画像情報を含む監視情報を送信する画像送信指令を出力する制御指令出力手段と、を備えることを特徴とする監視システム。
  2.  前記中央監視装置において、
     前記制御指令出力手段は、前記限定条件を満たさず選択されなかった監視端末装置に対して、画像情報を含む監視情報の送信を禁止する画像送信禁止指令を出力する請求項1に記載の監視システム。
  3.  前記中央監視装置において、
     前記制御指令出力手段は、前記限定条件を満たさず選択されなかった監視端末装置に対して、監視情報に含まれる画像情報を記憶させる画像記憶指令を出力する請求項1又は2に記載の監視システム。
  4.  前記中央監視装置において、
     前記情報取得手段は、前記監視端末装置から異常状態である旨の異常情報を含む監視情報を取得し、
     前記選択手段は、前記異常情報を含む監視情報に基づいて、前記異常情報が出力された監視端末装置の位置情報を前記注目地点として選択することを特徴とする請求項1~3の何れかに記載の監視システム。
  5.  前記監視端末装置を選択するための所定の限定条件は、前記注目地点を基準とする注目領域に含まれる限定領域に存在することであることを特徴とする請求項1~4の何れか一項に記載の監視システム。
  6.  前記監視端末装置を選択するための所定の限定条件は、互いに所定距離以上に離隔して存在することである請求項1~5の何れか一項に記載の監視システム。
  7.  前記中央監視装置において、
     前記情報取得手段は、前記監視端末装置から前記移動体が移動する車線が路肩側の車線であるか否かを識別する車線識別情報を含む監視情報を取得し、
     前記監視端末装置を選択するための所定の限定条件は、前記監視端末装置が前記路肩側の車線を移動する移動体に搭載されていることである請求項1~6の何れか一項に記載の監視システム。
  8.  前記中央監視装置において、
     前記情報取得手段は、前記監視端末装置から前記移動体の移動速度に関する情報を含む監視情報を取得し、
     前記監視端末装置を選択するための所定の限定条件は、前記監視端末装置を搭載する移動体が所定速度以上で移動していることである請求項1~7の何れか一項に記載の監視システム。
  9.  複数の移動体のそれぞれの位置情報を検出する位置検出手段と、前記複数の移動体のそれぞれに装着され、当該移動体の周囲を撮像して画像情報を生成する画像生成手段と、を備える監視端末装置から、無線通信を介して監視情報を取得する中央監視装置を備える監視システムであって、
     前記中央監視装置は、
     前記監視端末装置から出力された位置情報を少なくとも含む監視情報を取得する情報取得手段と、
     前記監視情報に含まれる位置情報の中から注目地点を選択し、前記選択された注目地点を基準とする注目領域に複数の監視端末装置が存在する場合には、前記注目領域に存在する監視端末装置の中から所定の限定条件を満たす監視端末装置を選択する選択手段と、
     前記選択された監視端末装置に対して、画像情報を含む監視情報を送信する画像送信指令を出力する制御指令出力手段と、を備えることを特徴とする監視システム。
  10.  複数の移動体に搭載された監視端末装置から、各移動体の位置情報を少なくとも含む監視情報を取得するステップと、
     前記取得した監視情報に含まれる位置情報の中から注目地点を選択し、前記選択された注目地点を基準とする注目領域に複数の監視端末装置が存在する場合には、前記注目領域に存在する移動体の中から所定の限定条件を満たす移動体を選択するステップと、
     前記選択された移動体に対して、画像情報を含む監視情報を送信する画像送信指令を出力するステップと、を備えることを特徴とする監視方法。
PCT/JP2012/083477 2012-01-23 2012-12-25 監視システム WO2013111494A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012-011443 2012-01-23
JP2012011443 2012-01-23

Publications (1)

Publication Number Publication Date
WO2013111494A1 true WO2013111494A1 (ja) 2013-08-01

Family

ID=48873233

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/083477 WO2013111494A1 (ja) 2012-01-23 2012-12-25 監視システム

Country Status (1)

Country Link
WO (1) WO2013111494A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5856700B1 (ja) * 2015-01-29 2016-02-10 パナソニックIpマネジメント株式会社 ウェアラブルカメラシステム及び録画制御方法
JP5856701B1 (ja) * 2015-01-29 2016-02-10 パナソニックIpマネジメント株式会社 ウェアラブルカメラシステム及び録画制御方法
JP5856702B1 (ja) * 2015-01-29 2016-02-10 パナソニックIpマネジメント株式会社 ウェアラブルカメラシステム及び属性情報付与方法
WO2016120932A1 (ja) * 2015-01-29 2016-08-04 パナソニックIpマネジメント株式会社 ウェアラブルカメラシステム及びウェアブルカメラシステムにおける録画制御方法
CN110395205A (zh) * 2019-08-13 2019-11-01 江苏满运软件科技有限公司 车辆事故告警方法、装置、电子设备、存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006350520A (ja) * 2005-06-14 2006-12-28 Auto Network Gijutsu Kenkyusho:Kk 周辺情報収集システム
JP2008102762A (ja) * 2006-10-19 2008-05-01 Denso Corp 画像収集システム、記録装置
JP2008217218A (ja) * 2007-03-01 2008-09-18 Denso Corp 事故情報取得システム
JP2009169540A (ja) * 2008-01-11 2009-07-30 Toyota Infotechnology Center Co Ltd 監視システム及びセキュリティ管理システム
JP2010072845A (ja) * 2008-09-17 2010-04-02 Nec Personal Products Co Ltd ドライブレコーダシステム、ドライブレコーダ及び情報処理装置
JP2010146443A (ja) * 2008-12-22 2010-07-01 Honda Motor Co Ltd 車載カメラ制御システム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006350520A (ja) * 2005-06-14 2006-12-28 Auto Network Gijutsu Kenkyusho:Kk 周辺情報収集システム
JP2008102762A (ja) * 2006-10-19 2008-05-01 Denso Corp 画像収集システム、記録装置
JP2008217218A (ja) * 2007-03-01 2008-09-18 Denso Corp 事故情報取得システム
JP2009169540A (ja) * 2008-01-11 2009-07-30 Toyota Infotechnology Center Co Ltd 監視システム及びセキュリティ管理システム
JP2010072845A (ja) * 2008-09-17 2010-04-02 Nec Personal Products Co Ltd ドライブレコーダシステム、ドライブレコーダ及び情報処理装置
JP2010146443A (ja) * 2008-12-22 2010-07-01 Honda Motor Co Ltd 車載カメラ制御システム

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5856700B1 (ja) * 2015-01-29 2016-02-10 パナソニックIpマネジメント株式会社 ウェアラブルカメラシステム及び録画制御方法
JP5856701B1 (ja) * 2015-01-29 2016-02-10 パナソニックIpマネジメント株式会社 ウェアラブルカメラシステム及び録画制御方法
JP5856702B1 (ja) * 2015-01-29 2016-02-10 パナソニックIpマネジメント株式会社 ウェアラブルカメラシステム及び属性情報付与方法
WO2016120932A1 (ja) * 2015-01-29 2016-08-04 パナソニックIpマネジメント株式会社 ウェアラブルカメラシステム及びウェアブルカメラシステムにおける録画制御方法
US9854211B2 (en) 2015-01-29 2017-12-26 Panasonic Intellectual Property Management Co., Ltd. Wearable camera system, and video recording control method for wearable camera system
US10356371B2 (en) 2015-01-29 2019-07-16 Panasonic Intellectual Property Management Co., Ltd. Wearable camera system, and video recording control method for wearable camera system
US10554935B2 (en) 2015-01-29 2020-02-04 Panasonic I-Pro Sensing Solutions Co., Ltd. Wearable camera system, and video recording control method for wearable camera system
CN110395205A (zh) * 2019-08-13 2019-11-01 江苏满运软件科技有限公司 车辆事故告警方法、装置、电子设备、存储介质

Similar Documents

Publication Publication Date Title
JP5786963B2 (ja) 監視システム
JP6451840B2 (ja) 情報提示システム
WO2013111494A1 (ja) 監視システム
KR101397453B1 (ko) 영상 감시 시스템 및 그 방법
JP5890294B2 (ja) 映像処理システム
KR101470313B1 (ko) 자동차 블랙박스 영상물 실시간 수집 시스템 및 방법
JP4643860B2 (ja) 車両用視覚支援装置及び支援方法
KR100835085B1 (ko) 무인교통사고기록장치를 이용한 실시간 교통사고처리시스템 및 방법
JP5018613B2 (ja) 路上通信機および事故監視システム
JP5811190B2 (ja) 監視システム
WO2012137367A1 (ja) 画像蓄積システム
JP6260174B2 (ja) 監視画像提示システム
JPWO2019102935A1 (ja) 表示装置、撮像表示システム、および、列車
WO2013111479A1 (ja) 監視システム
JP5790788B2 (ja) 監視システム
WO2013111492A1 (ja) 監視システム
WO2013111491A1 (ja) 監視システム
WO2013161345A1 (ja) 監視システム及び監視方法
WO2013125301A1 (ja) 監視システム
WO2013111493A1 (ja) 監視システム
JP5796638B2 (ja) 監視システム
CN216331763U (zh) 一种集成全景功能和bsd功能的智能汽车电子后视镜设备
KR101069766B1 (ko) 방범용 폐쇄회로 텔레비전과 연동하는 주정차 단속 시스템 및 이를 이용한 주정차 단속 방법
JP7348724B2 (ja) 車載装置および表示方法
JP5812105B2 (ja) 監視システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12866602

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12866602

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP