WO2013094406A1 - 監視システム - Google Patents

監視システム Download PDF

Info

Publication number
WO2013094406A1
WO2013094406A1 PCT/JP2012/081497 JP2012081497W WO2013094406A1 WO 2013094406 A1 WO2013094406 A1 WO 2013094406A1 JP 2012081497 W JP2012081497 W JP 2012081497W WO 2013094406 A1 WO2013094406 A1 WO 2013094406A1
Authority
WO
WIPO (PCT)
Prior art keywords
monitoring
image
monitoring image
terminal device
information
Prior art date
Application number
PCT/JP2012/081497
Other languages
English (en)
French (fr)
Inventor
照久 高野
秋彦 香西
真史 安原
Original Assignee
日産自動車株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日産自動車株式会社 filed Critical 日産自動車株式会社
Priority to JP2013550208A priority Critical patent/JP5796638B2/ja
Publication of WO2013094406A1 publication Critical patent/WO2013094406A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41422Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance located in transportation means, e.g. personal vehicle

Definitions

  • the present invention relates to a monitoring system.
  • This application claims priority based on Japanese Patent Application No. 2011-280913 filed on Dec. 22, 2011.
  • the contents described in the application are incorporated into the present application by reference and made a part of the description of the present application.
  • a security device that detects the occurrence of abnormalities is known by installing multiple security camera devices in shopping streets, store entrances, home entrances, and other streets, and monitoring surrounding images captured by the security camera device (Patent Document 1).
  • the security camera device installed in the city picks up a predetermined area in the same direction and transmits it to the supervisor, even if the supervisor can specify the direction he wants to watch, Since the image of the direction is also transmitted, there is a problem that the communication amount increases.
  • An object of the present invention is to provide a monitoring system that can reduce the number of images transmitted to a supervisor and reduce the amount of communication.
  • the present invention achieves the above-described object by causing a monitoring terminal device mounted on a mobile body to generate and send a monitoring image in a specific gaze direction that the monitor wants to gaze at.
  • a monitoring image is generated and transmitted based on a captured image in a specific gaze direction that the supervisor wants to gaze out of the captured images of a plurality of mobile cameras that travel at random, and the supervisor gazes. Since the generation and transmission of the monitoring image in the direction determined to be unnecessary is suppressed, the amount of communication can be reduced while maintaining the monitoring level.
  • FIG. 1 is a schematic diagram showing a monitoring system according to an embodiment of the present invention. It is a block diagram which shows the monitoring system of FIG. It is a perspective view which shows the example of arrangement
  • FIG. 1 shows an example of the display image shown on the display of a central monitoring apparatus.
  • FIG. 2 shows an example of the display image shown on the display of a central monitoring apparatus.
  • FIG. 3 shows an example of the display image shown on the display of a central monitoring apparatus.
  • FIG. 4 shows an example of the display image shown on the display of a central monitoring apparatus.
  • FIG. 5 shows an example of the display image shown on the display of a central monitoring apparatus. It is FIG.
  • FIG. 6 which shows an example of the display image shown on the display of a central monitoring apparatus.
  • FIG. 7 which shows an example of the display image shown on the display of a central monitoring apparatus.
  • FIG. 8 which shows an example of the display image shown on the display of a central monitoring apparatus.
  • FIG. 1 for demonstrating the method of designating a monitoring direction / monitoring range.
  • FIG. 2 for demonstrating the method of designating a monitoring direction / monitoring range.
  • FIG. 3 for demonstrating the method of designating a monitoring direction / monitoring range.
  • FIG. 4 for demonstrating the method of designating a monitoring direction / monitoring range.
  • It is a flowchart which shows the main control content by the monitoring terminal device side of the monitoring system of FIG.
  • the surveillance system according to the present invention is monitored by the authorities such as police stations and fire stations, security contractors, etc. using the captured images of cameras mounted on a plurality of moving bodies. This is embodied in a monitoring system 1 for centralized monitoring by a person.
  • Each of the monitoring terminal devices 10 mounted on the plurality of moving bodies acquires the position information, the monitoring image around the moving body, and the time information at a predetermined timing, and the position information, the monitoring image, and the time
  • the monitoring information including the information is sent to the central monitoring device 20 installed on the monitor side via wireless communication.
  • the central monitoring device 20 accumulates monitoring information including at least a monitoring image and position information acquired from the monitoring terminal device 10, and displays the position information of the moving body on the map information in a superimposed manner via a display or the like.
  • a monitoring image and time information captured at each moving body or each position are displayed. Therefore, as shown in FIG. 1, the monitoring system 1 of the present example is mounted on a moving body V, and transmits a monitoring information such as position information and a monitoring image, and a telecommunication network 30.
  • a central monitoring device 20 that acquires and processes the monitoring information.
  • the monitoring system 1 generates a monitoring image in the specified gaze direction and inputs the generated monitoring image when a specific gaze direction to be watched is input on the supervisor side.
  • a monitoring image transmission command for transmitting monitoring information including the monitoring information is generated, and the monitoring image transmission command is transmitted via wireless communication.
  • a monitoring image is generated based on the captured image obtained by capturing the gaze direction included in the monitoring image transmission command with the camera provided on the moving body.
  • the monitoring information including the monitoring image is transmitted to the monitoring person via wireless communication.
  • the supervisor side acquires the monitoring information including the monitoring image in the gaze direction that the supervisor wants to gaze generated according to the supervisory image transmission command issued by the supervisor.
  • a specific gaze direction can be defined in advance. For example, from the viewpoint of reducing the input load, the forward direction of the moving body V can be set as the default gaze direction.
  • the monitor can select the moving object V for which a monitoring image is to be generated based on the position of the moving object superimposed on the map information, the movement schedule of the moving object V acquired in advance, and the like. Further, the monitor specifies the direction in which he / she wants to pay attention according to the location where the accident has occurred, the location designated by the notification, the location to be monitored, and other points of interest based on the position and traveling direction of the moving object V.
  • the monitor inputs information for specifying the selected moving body V and information for specifying the direction to be watched into the central monitoring device 20.
  • the central monitoring apparatus 20 that has received the moving body identification information and the gaze direction identification information displays, for the selected moving body, a monitoring image of the identified gaze direction out of the directions that the camera of the moving body V can capture.
  • a monitoring image transmission command to be generated is generated and transmitted to the monitoring terminal device 10 of the mobile body specified via wireless communication.
  • the monitoring terminal device 10 of the moving body V that has acquired the monitoring image transmission command is generated based on the captured image in the gaze direction included in the monitoring image transmission command among the captured images captured by the camera provided in the moving body V.
  • the monitoring information including the monitored image is sent to the central monitoring device 20 via wireless communication. In this way, the central monitoring device 20 and the monitoring terminal device 10 of the moving object V cooperate with each other to provide monitoring information for monitoring the city.
  • the mobile body V on which the monitoring terminal device 10 is mounted is not particularly limited as long as it travels in the target monitoring area, and includes mobile bodies V such as automobiles, motorcycles, industrial vehicles, and trams.
  • automobiles include private automobiles V2 and emergency automobiles V3, and in particular, taxis and route buses V1 that travel randomly and constantly in a predetermined area are preferably included.
  • FIG. 1 illustrates an emergency vehicle V3 such as a taxi V1, a private vehicle V2, a police car, a fire engine or an ambulance, but these are collectively referred to as a moving body V or a passenger vehicle V.
  • FIG. 2 is a block diagram illustrating a specific configuration of the central monitoring device 20 and the monitoring terminal device 10.
  • the monitoring terminal device 10 and the central monitoring device 20 can communicate via the telecommunication network 30.
  • the communication device 23 of the monitoring terminal device 10 is a communication means capable of wireless communication, and exchanges information with the communication device 23 of the central monitoring device 20 via the telecommunication network 30.
  • the telecommunications network 30 is a commercial telephone network, a mobile phone communication device can be used widely, and when the telecommunications network 30 is a dedicated telecommunications network for the monitoring system 1 of this example, it is dedicated to it.
  • the communication devices 23 and 13 can be used.
  • a wireless LAN, WiFi (registered trademark), WiMAX (registered trademark), Bluetooth (registered trademark), a dedicated wireless line, or the like can be used.
  • the central monitoring device 20 inputs the position information and the monitoring image sent from the monitoring terminal device 10 mounted on each of the moving bodies V to the database in order to monitor the city by the captured image of the camera of the moving body V. It has an input function and a display control function for displaying the received monitoring image on the display 24 while superimposing the received positional information on the display 24 on the map information read from the map database.
  • the central monitoring device 20 of the present embodiment when the gaze direction to be watched is input with reference to the position of the mobile body V on the map information presented by the monitor, the monitoring terminal device 10 of each mobile body V. And a command transmission function for transmitting the generated monitoring image transmission command to the monitoring terminal device 10. Therefore, the central monitoring device 20 includes a central control device 21, an image processing device 22, a communication device 23, a display 24, and an input device 25.
  • the central monitoring device 20 according to the present embodiment has a database for storing monitoring information inside the central monitoring device 20, but may be provided outside the central monitoring device 20 as long as it is accessible.
  • the central control device 21 includes a CPU, a ROM, and a RAM, and controls the image processing device 22, the communication device 23, and the display 24, and receives position information, monitoring images, and time information transmitted from the monitoring terminal device 10.
  • the image is displayed on the display 24 after being subjected to image processing as necessary.
  • the central control device 21 selects one or a plurality of moving bodies V among the plurality of moving bodies V when information specifying a gaze direction to be noticed is input from the monitor, and the selected moving body V is selected.
  • the monitoring terminal device 10 generates a monitoring image in the specified gaze direction, generates a monitoring image transmission command including a command to transmit the generated monitoring image to the central monitoring device 20, and supplies the monitoring image to the selected monitoring terminal device 10. Send each one.
  • the monitoring image transmission command includes a communication ID and other identifiers for identifying the monitoring terminal device 10 of the selected moving object V. Selection of the moving body V can be performed based on a selection command for the moving body V input from the input device 25.
  • moving body V existing in the vicinity area of the accident occurrence point input from the outside, a moving body V existing in the vicinity area of the moving body V reporting the occurrence of the accident, or a point to be preferentially monitored.
  • One or a plurality of moving bodies V may be selected by automatically extracting moving bodies V and the like existing in the vicinity area of the focused monitoring point.
  • the gaze direction included in the monitoring image transmission command in the present embodiment corresponds to the gaze direction when viewing the video displayed on the image used for monitoring. Specifically, it corresponds to the optical axis (imaging direction) of a camera that captures an image for monitoring on the monitoring terminal device 10 side.
  • the gaze direction in the monitoring image transmission command can be defined based on the traveling direction of the moving object V.
  • the gaze direction is the front of the moving object (the same direction as the moving direction of the moving object), the rear of the moving object (the direction opposite to the moving direction of the moving object), the right direction of the moving object's moving direction, Depending on the specified direction, such as the left direction of the moving direction, the right front direction of the moving direction of the moving object, the right rear direction of the moving direction of the moving object, the left front direction of the moving direction of the moving object, the left front direction of the moving direction of the moving object.
  • this gaze direction can also be defined by the angle and orientation with respect to the origin corresponding to the position of the moving object V in the coordinate system used for image processing and other coordinate systems.
  • the gaze direction indicates one direction
  • the monitoring terminal device 10 of the moving object V specifies the camera 11 that captures the gaze direction or the captured image captured by the camera 11 based on the gaze direction. can do. Since the cameras 11a to 1d of the present embodiment are provided one by one at different positions on the body of the moving body V, when the gaze direction indicates one direction, imaging in the gaze direction imaged at one timing is performed. There will be one image.
  • the gaze direction can have a predetermined width (angle). That is, an area indicated by the gaze direction included in the angle of the predetermined value range with the gaze direction indicating one direction as a reference can be defined as the gaze area.
  • the region indicated by the gaze direction included in the angle of the predetermined value range in the left-right direction (plus and minus directions, plus direction or minus direction on the coordinates) centered on the specified gaze direction may be defined as the gaze region. it can.
  • the “gaze area” in the monitoring image transmission command can be defined based on the gaze direction, such as ⁇ degrees (90 degrees, 120 degrees, etc.) from the gaze direction to the right or left side.
  • the gaze area set based on the gaze direction can be included in the monitoring image transmission command.
  • a plurality of cameras are provided at different positions on the body of the moving body V and images in different directions are taken, there are a plurality of captured images that capture the gaze area designated at one timing.
  • the central monitoring device 20 on the supervisor side can set the gaze area according to the moving direction of the monitoring target or can set the gaze area according to the movement of the moving object V.
  • the central control device 21 causes the monitoring terminal device 10 to generate a monitoring image based on the captured image obtained by capturing the gaze direction and the gaze area of interest of the monitor by the camera 11 of each moving body V.
  • the obtained monitoring image includes an image of a gaze direction or a gaze area that is watched by the supervisor. For this reason, the central monitoring apparatus 20 can acquire useful monitoring information including a monitoring image in which a portion that the monitor wants to watch is displayed.
  • the monitoring image transmission command in this embodiment includes a command for generating a monitoring image of the specified gaze direction or gaze area, that is, a command for prohibiting generation of a monitoring image other than the gaze direction or the gaze region. .
  • the monitoring image transmission command of the present embodiment since the monitoring terminal device 10 does not generate (inhibit) image information other than the gaze direction or the gaze area, the information amount of the generated monitoring image is inevitably small. The amount of monitoring information sent to the central monitoring device 20 can be reduced. Specifically, when the monitoring image in the gaze direction is generated from a single captured image, the monitoring image that is normally sent corresponds to the number of cameras 11, and therefore, the number of captured images obtained by subtracting 1 from the number of cameras 11.
  • the amount of information related to transmission can be reduced by the amount.
  • N is a natural number greater than or equal to 2
  • the amount of information related to transmission corresponding to the number of captured images obtained by subtracting N from the number of cameras 11 Can be reduced.
  • the central monitoring device 20 acquires the monitoring image of the gaze direction or the gaze area, the monitoring information can be monitored from the monitoring terminal device 10 while checking the monitoring image in the gaze direction and maintaining the monitoring level. It is possible to reduce the amount of communication when transmitting.
  • the central control device 21 issues a command to generate a monitor image with higher image quality than before the input specifying the gaze direction is performed. It can be included in the send command.
  • the central controller 21 When the monitoring person specifies the gaze direction, the central controller 21 generates a monitoring image transmission command including a command to create a monitoring image only in the specified gaze direction or only the gaze area. According to this monitoring image transmission command, image information other than the gaze direction or the gaze area is not generated, and thus the amount of monitoring information transmitted to the central monitoring device 20 can be reduced.
  • the central control device 21 monitors a command for causing the monitoring terminal device 10 to create a monitoring image with higher image quality than the image quality before the specification. It is included in the image transmission command. Since no image information other than the gaze direction or gaze area is created, an increase in the total amount of information related to transmission can be suppressed even if the image quality of the monitoring image is increased. As a result, it is possible to provide the monitoring information necessary for the central monitoring device 20 without increasing the total amount of information related to transmission even if the monitoring image of the gaze direction or the gaze area that is watched by the monitor is generated with high image quality. Can do.
  • the image processing device 22 has a map database, displays map information from the map database on the display 24, and superimposes and displays position information detected by the position detection device 15 of the monitoring terminal device 10 on the map information. To do. In addition, image processing is performed to display the monitoring image captured by the camera 11 of the monitoring terminal device 10 and processed by the image processing device 12 on the display 24.
  • the display 24 can be composed of, for example, a liquid crystal display device having a size capable of displaying two or more window screens on one screen, or two or more liquid crystal display devices each displaying two or more window screens.
  • One window screen displays a screen in which the position information of each moving body V is superimposed on the map information (see FIG. 1), and the other window screen is captured by the camera 11 of the moving body V. A monitoring image generated based on the captured image is displayed.
  • the input device 25 is an input device such as a keyboard, a mouse, and a touch panel.
  • the input device 25 specifies a desired moving body V, outputs a monitoring image transmission command to the moving body V, and various information displayed on the display 24. This is used when inputting a processing command.
  • the communication device 23 is a communication means capable of wireless communication, and exchanges information with the communication device 13 of the monitoring terminal device 10 via the telecommunication network 30.
  • the telecommunications network 30 is a commercial telephone network, a mobile phone communication device can be used widely, and when the telecommunications network 30 is a dedicated telecommunications network for the monitoring system 1 of this example, it is dedicated to it.
  • the communication devices 13 and 23 can be used.
  • the monitoring terminal device 10 is a terminal device mounted on each of the plurality of moving bodies V.
  • the monitoring terminal device 10 is mounted on each of the plurality of moving bodies V and a position detection function for detecting position information of each of the plurality of moving bodies V.
  • a monitoring image generation function for generating a monitoring image based on a captured image around the moving body V captured by the camera, and position information, monitoring image, and time information acquired at a predetermined timing to the central monitoring device 20
  • a communication function for receiving commands from the central monitoring device 20 as well as sending out commands. Therefore, each moving body V includes a plurality of cameras 11a to 11d, an image processing device 12, a communication device 13, a control device 14, and a position detection device 15.
  • the time information is mainly information used for post-event analysis, and may be omitted.
  • the plurality of cameras 11 mounted on the respective moving bodies V are constituted by CCD cameras or the like, take images of respective predetermined directions or predetermined areas around the moving body V, and output the image pickup signals to the image processing device 12.
  • the image processing device 12 reads an imaging signal from the camera 11 and executes image processing for generating a monitoring image. Details of this image processing will be described later.
  • the position detection device 15 includes a GPS device and its correction device, and detects the current position of the moving object V and outputs it to the control device 14.
  • the control device 14 includes a CPU, a ROM, and a RAM, receives a monitoring image transmission command from the central monitoring device 20 received via the telecommunication network 30 and the communication device 13, and receives the image processing device 12 and the communication device 13. And the position detection device 15, and the monitoring image generated by the image processing device 12, the position information of the moving object V detected by the position detection device 15, and the time information from the clock built in the CPU. Information is output to the central monitoring device 20 via the communication device 13 and the telecommunication network 30.
  • the control device 14 performs monitoring based on the captured image obtained by capturing the gaze direction included in the monitoring image transmission command in accordance with the monitoring image transmission command acquired from the central monitoring device 20 via the communication device 13.
  • a monitoring image generation function that causes the image processing device 12 to generate an image and a monitoring information transmission function that causes the central monitoring device 20 to transmit monitoring information including the generated monitoring image via the communication device 13 are executed.
  • the control device 14 before accepting the monitoring image transmission command from the central monitoring device 20, the control device 14 follows a predetermined rule set in advance and takes a captured image obtained by imaging one or more default directions specified by the rule. Based on this, a monitoring image is generated by the image processing device 12 and sent to the central monitoring device 20 via the communication device 13.
  • the cameras 11a to 11d are configured by using an image sensor such as a CCD, and the four cameras 11a to 11d are installed at different positions outside the passenger car V, respectively, and respectively photograph the four directions of front, rear, left and right around the moving body V.
  • the camera 11a installed at a predetermined position in front of the passenger car V such as a front grille is an object or road surface (front) in the area SP1 in front of the passenger car V and in the space in front thereof. Take a view).
  • the camera 11c installed at a predetermined position in the rear part of the passenger car V such as a rear finisher part or a roof spoiler part, shows an object or road surface (rear view) existing in the area SP3 behind the passenger car V and in the space behind it. Take a picture.
  • FIG. 4 is a view of the arrangement of the cameras 11a to 11d as viewed from above the passenger car V.
  • the camera 11a that captures the area SP1 the camera 11b that captures the area SP2, the camera 11c that captures the area SP3, and the camera 11d that captures the area SP4 are the outer periphery VE of the body of the passenger car V.
  • the camera 11b is installed on the left side of the camera 11a, and the camera 11c is on the left side of the camera 11b.
  • the camera 11d is installed on the left side of the camera 11c, and the camera 11a is installed on the left side of the camera 11d.
  • the camera 11d is installed on the right side of the camera 11a, and on the right side of the camera 11d.
  • a camera 11c is installed, a camera 11b is installed on the right side of the camera 11c, and a camera 11a is installed on the right side of the camera 11b.
  • FIG. 5A shows an example of an image GSP1 in which the front camera 11a images the area SP1
  • FIG. 5B shows an example of an image GSP2 in which the left side camera 11b images the area SP2
  • FIG. 5C shows a rear camera
  • 11c shows an example of an image GSP3 obtained by imaging the area SP3
  • FIG. 5D is an image diagram showing an example of an image GSP4 obtained by the right side camera 11d imaging the area SP4.
  • the size of each image is vertical 480 pixels ⁇ horizontal 640 pixels.
  • the image size is not particularly limited, and may be any size as long as a general terminal device can reproduce a moving image.
  • the number of cameras 11 and the positions of the cameras 11 can be appropriately determined according to the size, shape, detection area setting method, etc. of the passenger car V.
  • the plurality of cameras 11 described above are assigned identifiers according to their arrangement, and the control device 14 can identify each of the cameras 11 based on each identifier. Further, the control device 14 can send an imaging command and other commands to the specific camera 11 by attaching an identifier to the command signal.
  • the control device 14 controls the image processing device 12 to acquire each image signal picked up by the camera 11, and the image processing device 12 processes the image pickup signal from each camera 11, and is shown in FIGS. 5A to 5D. Convert to surveillance image. Then, the control device 14 generates a monitoring image based on the four monitoring images shown in FIGS. 5A to 5D (monitoring image generation function), and projects the monitoring image set on the side of the projection model of the columnar body. Mapping information to be projected onto the surface is associated with the monitoring image (mapping information adding function) and output to the central monitoring device 20.
  • the monitoring image generation function and the mapping information addition function will be described in detail.
  • the monitoring image is generated on the basis of the four monitoring images obtained by imaging the periphery of the passenger car V, and the process of associating the mapping information with the monitoring image is executed by the monitoring terminal device 10 as in this example, and also by the central monitoring device 20. It can also be executed.
  • four monitoring images obtained by imaging the periphery of the passenger car V are transmitted as they are from the monitoring terminal device 10 to the central monitoring device 20, and are monitored by the image processing device 22 and the central control device 21 of the central monitoring device 20. It is only necessary to generate an image, associate mapping information, and perform projection conversion.
  • the control device 14 of the monitoring terminal device 10 controls the image processing device 12 to acquire the imaging signals of the respective cameras 11a to 11d, and further turns clockwise or counterclockwise along the outer periphery of the body of the passenger car V.
  • One monitoring image is generated so that the monitoring images of the cameras 11a to 11d installed in the direction of are arranged in the installation order of these cameras 11a to 11d.
  • the four cameras 11a to 11d are installed in the order of the cameras 11a, 11b, 11c, and 11d in the counterclockwise direction along the outer periphery VE of the body of the passenger car V.
  • the control device 14 connects the four cameras 11a to 11d in a horizontal direction so that the four images captured by the cameras 11a to 11d are integrated in accordance with the installation order of these cameras 11a to 11d (cameras 11a ⁇ 11b ⁇ 11c ⁇ 11d).
  • one monitoring image is generated.
  • the images are arranged such that the ground contact surface (road surface) of the passenger vehicle V is the lower side, and the images are connected to each other at sides in the height direction (vertical direction) with respect to the road surface.
  • FIG. 6 is a diagram illustrating an example of the monitoring image K.
  • the monitoring image K of the present embodiment includes a captured image GSP1 in which the front camera 11a images the area SP1 and a left camera 11b in the area P along the direction P from the left side to the right side of the drawing.
  • a captured image GSP2 captured from SP2 a captured image GSP3 captured by the rear camera 11c capturing the area SP3, and a captured image GSP4 captured by the right side camera 11d capturing the area SP4 are arranged in this order in the horizontal direction.
  • Four images are taken as a series of images.
  • the monitoring image K generated in this way is displayed in order from the left end to the right side with the image corresponding to the road surface (the ground contact surface of the moving body V) facing down, so that the monitor can turn around the moving body V. It can be visually recognized on the display 24 in the same manner as when looking around clockwise. As described above, the monitoring image K in the mode shown in FIG. 6 can be reproduced in the arrangement in the expected order without causing the positional relationship to be out of order even when processing such as transmission / reception is performed.
  • one monitoring image K when one monitoring image K is generated, four images acquired at substantially the same time as the photographing timings of the cameras 11a to 11d are used. Thereby, since the information included in the monitoring image K can be synchronized, the situation around the moving object V at a predetermined timing can be accurately expressed.
  • the monitoring image K generated from the respective captured images having substantially the same imaging timing of the camera is stored with time, and the moving image monitoring image K including the plurality of monitoring images K per predetermined unit time is generated. It may be. By generating the monitoring image K of the moving image based on the images with the same imaging timing, it is possible to accurately represent the change in the situation around the moving object V.
  • the conventional central monitoring device 20 has a disadvantage that it cannot simultaneously watch images (moving images) in a plurality of directions and cannot monitor the entire periphery of the moving object V on one screen.
  • control device 14 of the present embodiment since the control device 14 of the present embodiment generates one monitoring image K from a plurality of images, it can simultaneously play back moving images of images in different imaging directions regardless of the function of the central monitoring device 20. . That is, by continuously playing back the monitoring image K (moving image playback), the four images included in the monitoring image K are played back continuously (moving image playback), and the state change of the regions in different directions is displayed on one screen. Can be monitored.
  • the monitoring terminal device 10 of the present embodiment generates the monitoring image K by compressing the image data amount so that the number of pixels of the monitoring image K is substantially the same as the number of pixels of the images of the cameras 11a to 11d.
  • the size of each image shown in FIGS. 5A to 5D is 480 ⁇ 640 pixels
  • compression processing is performed so that the size of the monitoring image K is 1280 ⁇ 240 pixels as shown in FIG. Do.
  • image processing and image reproduction can be performed.
  • the monitoring terminal device 10 generates a monitoring image with the specified image quality when the acquired monitoring image transmission command includes a command specifying the image quality.
  • the captured images in four directions (four) are generated even if the monitoring image is generated with double or three times the image quality. The amount of information can be reduced as compared with the monitoring image generated based on.
  • control device 14 of the present embodiment can also attach a line figure indicating the boundary between the arranged images to the monitoring image K.
  • the control device 14 displays rectangular partition images Bb, Bc, Bd, Ba, Ba ′ between the images as line figures indicating the boundaries between the arranged images. It can be attached to the monitoring image K.
  • the partition image functions as a frame of each captured image.
  • the image distortion is large in the vicinity of the boundary of each captured image, it is possible to hide the image of the region with large distortion or to suggest that the distortion is large by arranging the partition image at the boundary of the captured image. .
  • control device 14 can generate the monitoring image K after correcting the distortion when four images are projected on the projection plane set on the side surface of the projection model described later.
  • image distortion is likely to occur.
  • the captured image tends to be largely distorted. Therefore, it is defined in advance to correct the image distortion. It is desirable to correct the distortion of the captured image using the image conversion algorithm and the correction amount.
  • the control device 14 reads information on the same projection model as the projection model for projecting the monitoring image K in the central monitoring device 20 from the ROM, and takes a captured image on the projection plane of the projection model.
  • the distortion generated on the projection plane can be corrected in advance.
  • the image conversion algorithm and the correction amount can be appropriately defined according to the characteristics of the camera 11 and the shape of the projection model. In this way, by correcting in advance the distortion when the image K is projected with respect to the projection plane of the projection model, it is possible to provide the monitoring image K with good visibility with less distortion. Further, by correcting the distortion in advance, it is possible to reduce the positional deviation between the images arranged side by side.
  • mapping information addition function will be described.
  • the control device 14 projects the generated monitoring image K on the projection plane set on the side surface of the columnar projection model M with the ground contact surface of the passenger car V as the bottom surface.
  • the process of associating the mapping information with the monitoring image K is executed.
  • the mapping information is information for allowing the central monitoring device 20 that has received the monitoring image K to easily recognize the projection reference position.
  • FIG. 8 is a diagram showing an example of the projection model M of the present embodiment
  • FIG. 9 is a schematic sectional view taken along the xy plane of the projection model M shown in FIG.
  • the projection model M of the present embodiment is a regular octagonal prism body having a regular octagonal bottom surface and a height along the vertical direction (z-axis direction in the figure).
  • the shape of the projection model M is not particularly limited as long as it is a column having side surfaces adjacent to each other along the boundary of the bottom surface, and is a cylinder, or a prism, such as a triangular column, a quadrangular column, or a hexagonal column, or An anti-rectangular column having a polygonal bottom surface and a triangular side surface can also be used.
  • the bottom surface of the projection model M of this embodiment is parallel to the ground contact surface of the passenger car V.
  • Projection surfaces Sa, Sb, Sc, and Sd (hereinafter collectively referred to as a projection surface S) that project an image around the passenger vehicle V that contacts the bottom surface of the projection model M are provided on the inner surface of the side surface of the projection model M. Is set.
  • the projection surface S includes a part of the projection surface Sa and a part of the projection surface Sb, a part of the projection surface Sb and a part of the projection surface Sc, a part of the projection surface Sc and a part of the projection surface Sd, and the projection surface Sd. And a part of the projection surface Sa.
  • the monitoring image K is projected on the projection plane S as an image of the passenger car V viewed from above the viewpoint R (R1 to R8, hereinafter referred to as viewpoint R) above the projection model M surrounding the passenger car V.
  • the control device 14 associates the reference coordinates of the captured image arranged at the right end or the left end with the monitoring image K as mapping information.
  • the control device 14 is arranged at the right end as mapping information (reference coordinates) indicating the start end position or the end position of the monitoring image K when projected onto the projection model M.
  • mapping information reference coordinates
  • the coordinates A (x, y) of the upper left vertex of the captured image GSP1 and the coordinates B (x, y) of the upper right vertex of the captured image GSP2 arranged at the left end are attached to the monitoring image K.
  • the reference coordinates of the captured image indicating the start position or the end position are not particularly limited, and may be the lower left vertex of the monitoring image K arranged at the left end or the lower right vertex of the monitoring image K arranged at the right end.
  • the mapping information may be attached to each pixel of the image data of the monitoring image K, or may be managed as a file different from the monitoring image K.
  • the information indicating the start position or the end position of the monitoring image K is associated with the monitoring image K as mapping information, whereby the central monitoring apparatus 20 that has received the monitoring image K Since the reference position at the time of the projection process can be easily recognized, the monitoring images K arranged in the order of arrangement of the cameras 11a to 11d are sequentially and easily projected onto the projection surface S on the side surface of the projection model M. Can do. That is, as shown in FIG. 9, the captured image GSP1 in front of the moving body V is projected onto the projection surface Sa located in the imaging direction of the camera 11a, and the right side of the moving body V is projected onto the projection surface Sb located in the imaging direction of the camera 11b.
  • the captured image GSP2 is projected, the captured image GSP3 behind the moving body V is projected onto the projection surface Sc located in the imaging direction of the camera 11c, and the left side of the moving body V is projected onto the projection surface Sd located in the imaging direction of the camera 11d.
  • One captured image GSP4 can be projected.
  • the monitoring image K projected on the projection model M can show an image that can be seen as if looking around the passenger car V.
  • the monitoring image K including four images arranged in a line in the horizontal direction in accordance with the installation order of the cameras 11a to 11d is projected on the side surfaces arranged in the horizontal direction in the column of the projection model M.
  • An image around the passenger car V can be reproduced in the monitoring image K projected on the projection plane S of the body projection model M while maintaining the positional relationship.
  • control device 14 of the present embodiment can store the correspondence between the coordinate values of the monitoring image K and the coordinate values of the projection planes S of the projection model M as mapping information, and attach it to the monitoring image K.
  • it may be stored in the central monitoring device 20 in advance.
  • the positions of the viewpoint R and the projection plane S shown in FIGS. 8 and 9 are examples, and can be arbitrarily set.
  • the viewpoint R can be changed by the operation of the operator.
  • the relationship between the viewpoint R and the projection position of the monitoring image K is defined in advance, and when the position of the viewpoint R is changed, a predetermined coordinate transformation is performed, so that the viewpoint R is viewed from the newly set viewpoint R.
  • the monitoring image K can be projected onto the projection surface S (Sa to Sd). A known method can be used for this viewpoint conversion processing.
  • the control device 14 generates the monitoring image K based on the monitoring image captured at a predetermined timing, and the monitoring image K includes line information (partitions) indicating mapping information, reference coordinates, and boundaries. Image) information is associated and stored over time according to the imaging timing.
  • the control device 14 may store the monitoring image K as one moving image file including a plurality of monitoring images K per predetermined unit time, or in a form that can be transferred / reproduced by a streaming method.
  • the monitoring image K may be stored.
  • the communication device 23 of the central monitoring device 20 receives the monitoring image K transmitted from the monitoring terminal device 10 and the mapping information associated with the monitoring image K.
  • the images of the four cameras 11 installed at different positions of the body of the passenger car V are installed along the clockwise or counterclockwise direction along the outer periphery of the body of the passenger car V.
  • the cameras 11a to 11d are arranged according to the installation order (clockwise or counterclockwise order along the outer periphery of the body of the moving body V).
  • the monitoring image K is associated with mapping information for projecting the monitoring image K onto the projection plane S of the octagonal prism projection model M.
  • the communication device 23 sends the acquired monitoring image K and mapping information to the image processing device 22.
  • the image processing apparatus 22 reads the projection model M stored in advance, and sets it on the side surface of the octagonal prism projection model M with the ground contact surface of the passenger car V shown in FIGS. 8 and 9 as the bottom surface based on the mapping information.
  • a display image is generated by projecting the monitoring image K onto the projected planes Sa to Sd. Specifically, according to the mapping information, each pixel of the received monitoring image K is projected onto each pixel of the projection surfaces Sa to Sd. Further, when projecting the monitoring image K onto the projection model M, the image processing device 22 recognizes the start point of the monitoring image K (the right end or the left end of the monitoring image K) based on the reference coordinates received together with the monitoring image K.
  • the projection processing is performed so that the start point coincides with the start point (the right end or the left end of the projection surface S) defined in advance on the projection model M. Further, when projecting the monitoring image K onto the projection model M, the image processing device 22 arranges a line figure (partition image) indicating the boundary of each image on the projection model M.
  • the partition image can be attached to the projection model M in advance, or can be attached to the monitoring image K after the projection processing.
  • the display 24 displays the monitoring image K projected on the projection plane S of the projection model M.
  • 10 to 17 show examples of display images of the monitoring image K.
  • FIG. 10 shows a monitoring image K projected on the projection surfaces Sd, Sa, Sb viewed from the viewpoint R1 shown in FIGS.
  • An image of the moving body V viewed from each viewpoint R is pasted on the bottom surface of the projection model M.
  • a portion where no image is displayed between the projection surfaces Sd, Sa, and Sb is a “line figure indicating a boundary (partition image)”.
  • FIG. 11 shows the monitoring image K viewed from the viewpoint R2
  • FIG. 12 shows the monitoring image K viewed from the viewpoint R3
  • FIG. 13 shows the monitoring image K viewed from the viewpoint R4
  • FIG. 15 shows the monitoring image K viewed from the viewpoint R5,
  • FIG. 15 shows the monitoring image K viewed from the viewpoint R6,
  • FIG. 16 shows the monitoring image K viewed from the viewpoint R7, and
  • FIG. The observed monitoring image K is shown.
  • the terminal device 800 transfers the captured image of each camera 1 along the x-axis direction or the y-axis direction (sideways) according to the installation order of the cameras 1 installed on the body of the moving body V.
  • the arranged monitoring image K is mapped (laterally) along the side surface of the projection model M of the columnar body according to the arrangement order, the monitoring image K shown in the projection model M has a clock around the moving body V. It is possible to show an image that can be seen when looking around. That is, the supervisor can obtain the same information as when the user gets on the moving body V and looks around while watching the monitoring image K while staying at a position separated from the moving body V.
  • the captured image GSP1 of the camera 1a provided on the front grille of the moving body V is projected onto the projection surface S facing the front grille of the moving body V, and the projection surface S facing the right side mirror of the moving body V is projected.
  • the captured image GSP3 is projected, and the captured image GSP2 of the camera 1b provided on the left side mirror of the moving body V can be projected onto the projection surface S facing the left side mirror of the moving body V.
  • the monitoring image K projected while maintaining the positional relationship of the video around the moving object V.
  • the monitor can easily grasp what is happening around the moving body V.
  • FIGS. 10 to 17 attached to the present application are still images, the actual display image reproduction state cannot be shown.
  • the display screen of the display 24 is not displayed.
  • Each of the images shown on each projection plane S is a moving image. That is, the moving image of the imaging area SP1 in front of the moving body V is projected on the projection surface S facing the front grille of the moving body V, and the moving body V is projected on the projection surface S facing the right side mirror of the moving body V.
  • a moving image of the imaging area SP4 on the right side of the V is displayed, and a moving image of the imaging area SP3 behind the moving object V is displayed on the projection surface S facing the rear part of the moving object V, and the left side of the moving object V is displayed.
  • a moving image of the imaging region SP2 on the left side of the moving object V is projected. That is, a plurality of moving image monitoring images K based on captured images captured by different cameras 1 can be simultaneously reproduced on each projection plane S shown in FIGS.
  • the viewpoint can be freely set and changed by the operation of the supervisor. Since the correspondence relationship between the viewpoint position and the projection plane S is defined in advance in the image processing device 22 or the display 24 described above, the monitoring image K corresponding to the changed viewpoint is displayed on the display 24 based on this correspondence relationship. can do.
  • FIG. 18 is a flowchart showing the operation on the monitoring terminal device 10 side.
  • the central management device 20 acquires the position information and monitoring information of the moving object V from the monitoring terminal device 10 mounted on the moving object V at a predetermined period. Accumulate in an accessible database.
  • monitoring information is collected and accumulated at a predetermined cycle set in advance, but monitoring information can be collected and accumulated under the control of the central management device 20. That is, the monitoring terminal device 10 can be configured to upload (send) monitoring information only when a monitoring information request command is received from the central monitoring device 20.
  • step 20 as shown in the upper left of FIG. 1 on the map information of the map database displayed on the display 24, the current position of the moving body V (traveling position at the imaging timing) based on the position information acquired in step 10 is displayed. Display dots superimposed. By looking at this map information, it is possible to see at a glance at which position the moving body V carrying the monitoring terminal device 10 is traveling. In other words, it is possible to identify the moving object V on which the monitoring terminal device 10 existing at the position to be monitored is mounted. Since the position information of the moving object V is acquired and transmitted at a predetermined timing for each routine of FIG. 18, the monitor can grasp the current position of the moving object V in a timely manner.
  • the central monitoring device 20 determines whether or not the moving object V that is a target for transmitting monitoring information has been selected.
  • the movement schedule (positional change over time) of the moving object V is known in advance, such as a traveling bus
  • the moving object V to which monitoring information is to be transmitted can be selected based on the movement schedule.
  • the moving schedule of the moving object V is not known as in a taxi that travels at random
  • the position of the moving object V displayed in step 20 is referred to, and the vicinity of the accident occurrence point and the accident sighting information are obtained. It is possible to select a moving body V existing at a position to be monitored such as the vicinity of the notified moving body V.
  • Selection of the moving body V that is, the monitoring terminal device 10 can be performed via the input device 25 of the central monitoring device 20. For example, by selecting a dot indicating the position of the moving object V superimposed on the map information shown in FIG. 1, the moving object selection information can be input to the central monitoring device 20.
  • the process proceeds to step 40. If the moving object V (monitoring terminal device 10) is not selected, the process returns to step 10 to accumulate the monitoring images acquired in a predetermined cycle. Repeat processing and display.
  • step 40 the central monitoring apparatus 20 determines whether or not an input for specifying a gaze direction or a gaze area has been made. If the input for specifying the gaze direction or the gaze area is not input, the process proceeds to step 41, and a preset default gaze direction or gaze area is identified.
  • the default gaze direction is not particularly limited, but can be the traveling direction of the moving object V.
  • the default gaze area is not particularly limited, but it can be set to 135 degrees (total of 270 degrees) around the moving direction of the moving body. This is because the moving body V moves along the traveling direction, so that there is a high possibility that a useful image is an image in the traveling direction. Thus, by setting the default gaze direction and gaze area, it is possible to reduce the operation burden on the supervisor.
  • the gaze direction or gaze area is specified, the process proceeds to step 50.
  • FIG. 19 is an example of a monitoring image K sent from the monitoring terminal device 10 side in the previous process and displayed on the display 24.
  • the display 24 is a touch panel display
  • the supervisor touches the point PR on the display 24
  • the direction of the point PR can be specified as the gaze direction.
  • the left side camera 11b of the monitoring image K performs input for selecting the captured image GSP2 obtained by imaging the area SP2.
  • the supervisor can input the left direction of the moving object V as the gaze direction by touching the point PR of the area where the captured image GSP2 is presented on the touch panel display 24.
  • the point PR and PR1 and PR2 which will be described later, are marks indicating the place where the monitor touches for convenience, and do not constitute the monitoring image K.
  • the central monitoring device 20 generates and selects a monitoring information transmission command for generating a captured image based on one image including the point PR corresponding to the gaze direction, that is, one captured image GSP2 of the left-side camera 11b.
  • the monitoring terminal device 10 that has acquired the monitoring information transmission command generates the monitoring image K based only on the captured image GSP2. That is, the captured images GSP1, GSP3, and GSP4 that capture an area other than the area W0 are not used for generating the monitoring image K and are not included in the monitoring image K. Thereby, the information amount of the monitoring image K can be reduced by the amount of information corresponding to the three images of the captured images GSP1, GSP3, and GSP4.
  • the process when the gaze area is set based on the gaze direction input by the central monitoring device 20 will be described.
  • the touch panel display 24 that displays the monitoring image K as shown in FIG. 20, when the monitor touches a point PR on the display 24, the left direction of the moving object V can be input as the gaze direction.
  • the central monitoring device 20 sets a range of 270 degrees on the left and right sides as the gaze area around the gaze direction corresponding to the point PR.
  • the central monitoring device 20 has a total of three images including the captured image GSP2 corresponding to this gaze area and the two images on the left and right sides thereof, that is, the captured image GSP1 captured by the front camera 11a in the area SP1, and the left-side camera.
  • 11b is a captured image GSP2 captured from the area SP2
  • a rear camera 11c generates a monitor information transmission command for generating a captured image based on the captured image in the area W1 including the captured image GSP3 captured from the area SP3. It is sent to the terminal device 10.
  • the monitoring terminal device 10 that has acquired the monitoring information transmission command generates the monitoring image K based only on the three images of the captured images GSP1, GSP2, and GSP3. That is, the information amount of the monitoring image K can be reduced by the amount of information corresponding to one image corresponding to the captured image GSP4 that captures an area other than the area W1.
  • the central monitoring device 20 has a total of two images including half of the left and right images around the point PR indicating the gaze direction, that is, imaging in which the front camera 11a images the area SP1.
  • the area W2 including the image can be set as the gaze area.
  • the half of the captured image GSP1, the half of the captured image GSP3, and the captured image GSP4 in the region other than the area W2 are not included in the monitoring image K.
  • the monitoring image K has an amount of information corresponding to a total of two images of a half image of GSP1 that captures an area other than the area W2, a half image of GSP3, and a single image of GSP4.
  • the amount of information can be reduced.
  • the monitor when the monitor performs an operation of stroking the touch panel display 24, a change in the specified gaze direction can be obtained, so the gaze area is set based on the change in the gaze direction. can do.
  • the supervisor performs an operation of stroking along the arrow shown in the drawing from the point PR1 in the area where the captured image GSP2 is presented to the point PR2 in the area where the captured image GSP3 is presented, Changes from the left to the rear, and the gaze region can be determined to be a region from the left side of the moving object V to the rear.
  • the central monitoring device 20 includes a captured image GSP2 in which the left side camera 11b corresponding to the gaze area applied from the left side to the rear captures the area SP2, a captured image GSP3 in which the rear camera 11c images the area SP3, and a right side image.
  • the camera 11d generates a monitoring information transmission command for generating a captured image based on the captured image of the area W3 including the captured image GSP4 obtained by capturing the area SP4, and transmits it to the selected monitoring terminal device 10.
  • the monitoring terminal device 10 that has acquired the monitoring information transmission command generates the monitoring image K based only on the captured images GSP2, GSP3, and GSP4. That is, the information amount of the monitoring image K can be reduced by the amount of information corresponding to the captured image GSP1 that captures an area other than the area W1.
  • a total of three images including one left and right image centered on the point PRa indicating the direction that is, a captured image GSP1 in which the front camera 11a images the area SP1, a captured image GSP4 in which the right side camera 11d images the area SP4, and the rear
  • the camera 11c specifies the area W1 including the captured image GSP3 obtained by capturing the area SP3 as a gaze area, and sends a monitoring image transmission command for generating a monitoring image of the gaze area to the monitoring terminal device 10.
  • the front camera 11a picks up the picked-up image GSP1 of the area SP1
  • the right-side camera 11d picks up the picked-up image GSP4 of the area SP4, and the rear camera 11c.
  • the monitoring image K created and transmitted based on such a monitoring image transmission command is as shown in FIG. 12, but the monitoring image K is not displayed in the portion where the left side camera 11b indicates the area SP2. . Thereby, the information amount of the monitoring image for one sheet can be reduced.
  • the central monitoring device 20 sets a region from the right to the rear as the gaze region, and the right side camera 11d including the point PRb captures the area SP4 and includes a total of three images including three images from the captured image GSP4. That is, the monitoring image transmission command for generating the monitoring image including the captured image GSP4, the captured image GSP3 in which the rear camera 11c images the area SP3, and the captured image GSP2 in which the left side camera 11b images the area SP2 is monitored. It is sent to the terminal device 10.
  • the right-side camera 11d picks up the picked-up image GSP4 of the area SP4
  • the rear camera 11c picks up the picked-up image GSP3 of the area SP3, and the left-side camera. Only the captured image GSP2 in which the area SP2 images the area SP2 is used, and the captured image GSP1 in which the front camera 11a images the area SP1 is not used.
  • the monitoring image K created and transmitted based on such a monitoring image transmission command is as shown in FIG. 14, but the monitoring image K is not displayed in the portion where the front camera 11a indicates the area SP1. Thereby, the information amount of one monitoring image can be reduced.
  • step 60 if information specifying image quality is input in step 50, the process proceeds to step 60.
  • the default image quality is read and the process proceeds to step 60.
  • the specified image quality and the default image quality are both higher than the predetermined image quality before the gaze direction or gaze area is identified in step 40. Thus, by setting the default image quality, it is possible to reduce the input load on the supervisor.
  • the central monitoring device 20 is a monitoring image of the gaze direction or gaze area specified in steps 40 and 41, and further the image quality (gaze direction or gaze area specified in steps 50 and 51 is specified).
  • a monitoring image transmission command including a command to generate and transmit a monitoring image having a higher image quality than a predetermined image quality before transmission) is sent to the monitoring terminal device 10 of the moving object V selected in step 30.
  • step 70 the monitoring image generated in accordance with the monitoring image transmission command is acquired from the monitoring terminal device 10.
  • step 80 the central monitoring apparatus 20 causes the display 24 to display the acquired gaze direction or gaze area monitoring image. Thereafter, the processing after step 10 is repeated at a predetermined cycle.
  • FIG. 23 is a flowchart illustrating a control procedure of the monitoring terminal device 10 according to the present embodiment.
  • the monitoring terminal device 10 acquires captured images of the cameras 11a to 11d at a predetermined cycle.
  • the acquired captured image is stored at least temporarily in association with the imaging time. This is because there is a possibility that a captured image may be necessary in the post-verification even in a direction other than the gaze direction.
  • step 120 the monitoring terminal device 10 determines whether or not a monitoring image transmission command has been acquired from the central monitoring device 20 via the telecommunication network 30.
  • the monitoring terminal device 10 acquires this monitoring image transmission command, the monitoring terminal device 10 performs the processing after step 130.
  • the monitoring image generated based on the captured image acquired in step 110 is transmitted to the central monitoring device 20 via the telecommunication network 30 (step 180). , Repeatedly according to a predetermined rule including a cycle.
  • the monitoring image transmitted at this time is generated based on the omnidirectional captured images captured by the cameras 11a to 11d.
  • the monitoring terminal device 10 identifies a specified specific monitoring direction or monitoring area in the monitoring image transmission command. If the monitoring image transmission command does not include the designation of a specific monitoring direction or monitoring area, the process proceeds to step 140, where it is identified that a preset default direction is specified.
  • the monitoring image transmission command includes designation of a specific monitoring direction or monitoring area
  • the forward direction / front side of the moving object V is determined as in step 141 according to the designated direction / area. It is identified that the area is designated, and it is identified that the right and right areas of the moving object V are designated as in step 142, and the left and left areas of the moving object V are identified as in step 143. It is identified that it is designated, or it is identified that the rearward / rear area of the moving object V is designated as in step 144.
  • step 150 the monitoring terminal device 10 determines whether or not image quality is specified in the monitoring image transmission command. If the image quality designation is not included in the monitoring image transmission command, the process proceeds to step 160, where a preset default image quality is read and identified. On the other hand, if the surveillance image transmission command includes designation of image quality, the process proceeds to step 170.
  • step 170 the monitoring terminal apparatus 10 generates a monitoring image of the monitoring direction / monitoring area identified in step 130 and having the image quality specified in step 150.
  • the monitoring terminal device 10 sends the generated monitoring image K to the central monitoring device 20 via the telecommunication network 30.
  • the monitoring image K generated according to the monitoring image transmission command is generated based on a captured image obtained by capturing the specified gaze direction or gaze area. That is, an image based on a captured image obtained by capturing a direction or area other than the specified gaze direction or gaze area is not included.
  • the information amount of the monitoring image generated when the monitoring image transmission command is acquired can be made smaller than the information amount generated before the monitoring image transmission command is acquired.
  • the monitoring system 1 of the present example transmits a monitoring image in a specific gaze direction that is actually required by the monitor among images captured by the cameras 11a to 11d of a plurality of moving bodies V that travel at random. Since the transmission of the monitoring image which is not required by the supervisor is suppressed, the communication amount can be reduced while maintaining the monitoring level.
  • the monitoring system 1 of the present example transmits a monitoring image of the gaze area set based on the specified gaze direction that is actually required by the monitor, and transmits the monitoring image that is not required by the monitor. Therefore, the amount of communication can be reduced while maintaining the monitoring level.
  • the monitoring system 1 of the present example sets the gaze area based on the temporal change in the gaze direction, it is possible to obtain a monitoring image of an appropriate area when the monitor wants to track the monitoring target. it can.
  • the monitoring system 1 of this example improves the image quality instead of narrowing the range when specifying the gaze direction, it is possible to obtain a monitoring image with a high resolution for the area that the monitor wants to gaze at.
  • the monitoring system 1 of this example When a specific gaze direction is not input, the monitoring system 1 of this example generates a monitoring image of a preset default gaze direction that is predicted to be monitored by the monitor in a normal state. Therefore, the operation burden on the observer can be reduced.
  • the position detection means is provided in the monitoring terminal device 10 of the monitoring system 1 of the present example, even if the moving body V moves randomly (the moving schedule is not determined), the position of the moving body V is Based on this, it is possible to extract the moving body V that generates a monitoring image of the gaze direction or the gaze area, and send a monitoring image transmission command to the moving body V.
  • the captured image of the camera is in accordance with the installation order of the camera.
  • Mapping information for generating a single monitoring image arranged and projecting the monitoring image onto a projection plane set on a side surface of a projection model of a column with the placement surface of the moving body as a bottom surface Since the image is added in association with the image, a series of monitoring images K in which a plurality of captured images are arranged in the camera installation order can be projected onto the projection surface S set on the side surface of the column. For this reason, irrespective of the function with which each terminal device is equipped, the monitoring image K produced
  • the monitoring system 1 including the monitoring terminal device 10 and the central monitoring device 20 will be described as an example of the monitoring system including the monitoring terminal device and the central monitoring device according to the present invention. It is not limited to this.
  • a command generation function a command generation function, a control device 21 having a command transmission function, an image processing device 22,
  • the central monitoring device 20 including the communication device 23, the display 24, and the input device 25 will be described as an example, but is not limited thereto.
  • the monitoring terminal device including the monitoring image generation unit, the monitoring image transmission unit, and the position detection unit according to the present invention
  • the monitoring terminal device 10 including the cameras 11a to 11d, the image processing device 12, the communication device 13, and the position detection device 15 will be described as an example.
  • the present invention is not limited to this.
  • the position information of the passenger car V and the monitoring images from the cameras 11a to 11d are acquired.
  • the monitoring image from the fixed camera 11f installed in the city shown in FIG. You may get it.
  • the passenger car V which acquires a positional information and a monitoring image it is desirable to use the taxi V1 and bus

Abstract

 監視端末装置10と中央監視装置20とを備え、中央監視装置20は、監視者により注視したい注視方向が特定された場合に、特定された注視方向の監視画像を生成し、この監視画像を中央監視装置20へ送出させる監視画像送出命令を生成する命令生成機能と、生成された監視画像送出命令を、選択された監視端末装置に送出する命令送出機能とを備え、監視端末装置10は、各移動体Vの周囲を撮像するカメラ11と、中央監視装置20から取得した監視画像送出命令に従い、この監視画像送出命令に含まれる注視方向を撮像した撮像画像に基づいて監視画像を生成する監視画像生成機能と、生成された監視画像を含む監視情報を、中央監視装置に送出する監視情報送出機能と、を備える監視システムを提供する。

Description

監視システム
 本発明は、監視システムに関するものである。
 本出願は、2011年12月22日に出願された日本国特許出願の特願2011―280913に基づく優先権を主張するものであり、文献の参照による組み込みが認められる指定国については、上記の出願に記載された内容を参照により本出願に組み込み、本出願の記載の一部とする。
 商店街、店舗の出入り口、家庭の玄関その他の街中に複数の防犯カメラ装置を設置し、当該防犯カメラ装置により撮像された周囲の映像を監視することで、異常の発生を検出する防犯装置が知られている(特許文献1)。
特開2011-215767号公報
 しかしながら、街中に設置した防犯カメラ装置は、同じ方向の所定のエリアを画一的に撮像して監視者に送信するので、監視者が注視したい方向を特定できる場合であっても、それ以外の方向の画像も送信するため、通信量が嵩むという問題がある。
 本発明は、監視者に送信する画像を低減し、通信量を低減させることができる監視システムを提供することを目的とする。
 本発明は、移動体に搭載された監視端末装置に、監視者が注視したい特定の注視方向の監視画像を生成及び送出させることにより、上記目的を達成する。
 本発明によれば、ランダムに走行する複数の移動体のカメラの撮像画像のうち、監視者が注視したい特定の注視方向の撮像画像に基づいて監視画像を生成及び送出させ、監視者が注視する必要が無いと判断した方向の監視画像の生成及び送出を抑制するので、監視レベルを維持しつつも通信量を低減させることができる。
本発明の一実施の形態に係る監視システムを示す模式図である。 図1の監視システムを示すブロック図である。 図2の監視システムにおけるカメラの配置例を示す斜視図である。 図2の監視システムにおけるカメラの撮像範囲を示す平面図である。 フロントのカメラの撮影画像の一例を示す図である。 右サイドのカメラの撮影画像の一例を示す図である。 リアのカメラの撮影画像の一例を示す図である。 左サイドのカメラの撮影画像の一例を示す図である。 複数の画像に基づいて生成された監視画像の一例を示す図である。 監視画像の歪み補正処理を説明するための図である。 投影モデルの一例を示す模式図である。 図8に示す投影モデルのxy面に沿う断面模式図である。 中央監視装置のディスプレイに示される表示画像の一例を示す第1図である。 中央監視装置のディスプレイに示される表示画像の一例を示す第2図である。 中央監視装置のディスプレイに示される表示画像の一例を示す第3図である。 中央監視装置のディスプレイに示される表示画像の一例を示す第4図である。 中央監視装置のディスプレイに示される表示画像の一例を示す第5図である。 中央監視装置のディスプレイに示される表示画像の一例を示す第6図である。 中央監視装置のディスプレイに示される表示画像の一例を示す第7図である。 中央監視装置のディスプレイに示される表示画像の一例を示す第8図である。 図1の監視システムの中央監視装置側の主たる制御内容を示すフローチャートである。 監視方向/監視範囲を指定する手法を説明するための第1図である。 監視方向/監視範囲を指定する手法を説明するための第2図である。 監視方向/監視範囲を指定する手法を説明するための第3図である。 監視方向/監視範囲を指定する手法を説明するための第4図である。 図1の監視システムの監視端末装置側の主たる制御内容を示すフローチャートである。
 以下に示す一実施の形態は、本発明に係る監視システムを、複数の移動体に搭載したカメラの撮像画像を用いて、街中の治安を警察署や消防署などの当局や警備委託会社などの監視者にて集中監視する監視システム1に具体化したものである。
 複数の移動体に搭載された監視端末装置10のそれぞれは、その位置情報と、当該移動体の周囲の監視画像と、時刻情報とを所定のタイミングで取得し、これら位置情報と監視画像と時刻情報と含む監視情報を、無線通信を介して、監視者側に設置された中央監視装置20へ送出する。中央監視装置20は、監視端末装置10から取得した監視画像及び位置情報を少なくとも含む監視情報を蓄積し、ディスプレイなどを介して移動体の位置情報を地図情報に重畳表示するとともに、必要に応じて各移動体又は各位置において撮像された監視画像と時刻情報と表示する。そのため、本例の監視システム1は、図1に示すように、移動体Vに搭載され、位置情報及び監視画像などの監視情報を送出する監視端末装置10と、電気通信回線網30を介して監視情報を取得して処理する中央監視装置20とを備える。
 特に、本実施形態に係る監視システム1は、監視者側において注視したい特定の注視方向が入力された場合には、特定された注視方向の監視画像を生成させるとともに、その生成された監視画像を含む監視情報を監視者へ送出させる監視画像送出命令を生成して、無線通信を介して監視画像送出命令を送出する。そして、移動体V側において無線通信を介して取得した監視画像送出命令に従い、監視画像送出命令に含まれる注視方向を移動体に設けられたカメラで撮像した撮像画像に基づいて監視画像を生成し、無線通信を介して監視画像を含む監視情報を監視者側へ送出する。これにより、監視者側は自身が発した監視画像送出命令に従って生成された監視者が注視したい注視方向の監視画像を含む監視情報を取得する。なお、特定の注視方向は予め定義しておくことができる。たとえば、入力負荷の軽減を図る観点からは、移動体Vの前方方向をデフォルトの注視方向として設定しておくことができる。
 監視者は、地図情報に重畳表示された移動体の位置や、予め取得した移動体Vの移動スケジュールなどに基づいて、監視画像を生成させたい移動体Vを選択することができる。また、監視者は、移動体Vの位置や進行方向を基準とし、事故が発生した場所、通報により指定された場所、監視したい場所その他の注目ポイントに応じて注視したい方向を特定する。監視者は、選択した移動体Vを特定する情報及び注視したい方向を特定する情報を中央監視装置20に入力する。
 移動体の特定情報及び注視方向の特定情報を受け付けた中央監視装置20は、選択した移動体に対して、移動体Vのカメラが撮像可能な方向のうち、特定された注視方向の監視画像を生成させる監視画像送出命令を生成し、無線通信を介して特定された移動体の監視端末装置10へ向けて送出する。この監視画像送出命令を取得した移動体Vの監視端末装置10は、移動体Vに設けられたカメラで撮像した撮像画像のうち、監視画像送出命令に含まれる注視方向の撮像画像に基づいて生成した監視画像を含む監視情報を、無線通信を介して中央監視装置20へ送出する。このように、中央監視装置20と移動体Vの監視端末装置10は協働して街中を監視する監視情報を監視者に提供する。
 また、監視端末装置10が搭載される移動体Vは、目的とする監視領域を走行するものであれば特に限定されず、自動車、二輪車、産業車両、路面電車などの移動体Vを含む。図1に示すように、自動車には自家用自動車V2や緊急自動車V3が含まれるが、なかでも特に予め決められた領域をランダム且つ常時走行するタクシーや路線バスV1などが好適に含まれる。図1には、タクシーV1、自家用自動車V2、パトカー、消防車又は救急車などの緊急自動車V3を例示するが、これらを総称する場合は移動体Vまたは乗用車Vという。
 図2は、中央監視装置20及び監視端末装置10の具体的構成を示すブロック図である。
 監視端末装置10と中央監視装置20とは電気通信回線網30を介して通信が可能である。監視端末装置10の通信装置23は、無線通信が可能な通信手段であり、電気通信回線網30を介して中央監視装置20の通信装置23と情報の授受を実行する。電気通信回線網30が商用電話回線網である場合は携帯電話通信装置を汎用することができ、電気通信回線網30が本例の監視システム1の専用電気通信回線網である場合は、それ専用の通信装置23,13を用いることができる。なお、電気通信回線網30に代えて、無線LAN、WiFi(登録商標)、WiMAX(登録商標)、Bluetooth(登録商標)、専用無線回線などを用いることもできる。
 中央監視装置20は、移動体Vのカメラの撮像画像により街中を監視するために、移動体Vのそれぞれに搭載された監視端末装置10から送出された位置情報及び監視画像をデータベースに入力する情報入力機能と、地図データベースから読み出した地図情報に受信した位置情報をディスプレイ24に重畳表示するとともに、受信した監視画像をディスプレイ24に表示する表示制御機能と、を有する。
 さらに、本実施形態の中央監視装置20は、監視者が提示された地図情報上の移動体Vの位置を参照して注視したい注視方向を入力した場合に、各移動体Vの監視端末装置10に対する監視画像送出命令を生成する命令生成機能と、この生成した監視画像送出命令を監視端末装置10へ送出する命令送出機能とを有する。そのため、中央監視装置20は、中央制御装置21、画像処理装置22、通信装置23、ディスプレイ24及び入力装置25を備える。なお、本実施形態の中央監視装置20は、監視情報を蓄積するデータベースを中央監視装置20の内部に有するが、アクセス可能であれば中央監視装置20の外部に設けることもできる。
 中央制御装置21は、CPU,ROM,RAMにより構成され、画像処理装置22、通信装置23及びディスプレイ24を制御して、監視端末装置10から送信された位置情報、監視画像及び時刻情報を受信し、必要に応じて画像処理を施したうえでディスプレイ24に表示する。
 中央制御装置21は、監視者から注目したい注視方向を特定する情報が入力された場合に、複数の移動体Vのうちの一又は複数の移動体Vを選択し、この選択された移動体Vの監視端末装置10に特定された注視方向の監視画像を生成させ、生成した監視画像を中央監視装置20へ送出させる指令を含む監視画像送出命令を生成して、選択された監視端末装置10へそれぞれ送出する。このため、監視画像送出命令には、選択した移動体Vの監視端末装置10を識別するための通信IDその他の識別子が含まれている。移動体Vの選択は、入力装置25から入力された移動体Vの選択命令に基づいて行うことができる。また、外部から入力された事故発生地点の近傍エリアに存在する移動体Vや、事故発生を通報した移動体Vの近傍エリアに存在する移動体Vや、予め重点的に監視を行う地点として定義されている重点監視地点の近傍エリアに存在する移動体Vなどを自動的に抽出することにより、一又は複数の移動体Vを選択してもよい。
 本実施形態における監視画像送出命令に含まれる注視方向は、監視に用いられる画像に映し出される映像を見たときの視線方向に対応する。具体的には、監視端末装置10側において監視用の画像を撮像するカメラの光軸(撮像方向)に対応する。監視画像送出命令における注視方向は、移動体Vの進行方向を基準として定義することができる。たとえば、注視方向は、移動体の前方(移動体の進行方向と同じ方向)、移動体の後方(移動体の進行方向とは反対の方向)、移動体の進行方向の右方向、移動体の進行方向の左方向、移動体の進行方向の右前方向、移動体の進行方向の右後方向、移動体の進行方向の左前方向、移動体の進行方向の左前方向などの特定された方向に応じて、監視端末装置10において識別可能な「注視方向」を示す情報として監視画像送出命令に含ませることができる。もちろん、この注視方向は、画像処理に用いられる座標その他の座標系において、移動体Vの位置に応じた原点に対する角度や方位により定義することもできる。
 特に限定されないが、この注視方向は一つの方向を示し、移動体Vの監視端末装置10は、注視方向に基づいて、注視方向を撮像するカメラ11又はこのカメラ11により撮像された撮像画像を特定することができる。本実施形態のカメラ11a~1dは移動体Vのボディの異なる位置に一つずつ設けられているので、注視方向が一つの方向を示す場合には、一のタイミングにおいて撮像された注視方向の撮像画像は一枚となる。
 また、特に限定されないが、注視方向には所定の幅(角度)を持たせることができる。つまり、一つの方向を示す注視方向を基準とした所定値域の角度に含まれる注視方向が示す領域を注視領域として定義することができる。たとえば、特定された注視方向を中心とした左右方向(座標上ではプラス方向及びマイナス方向、プラス方向又はマイナス方向)に所定値域の角度に含まれる注視方向が示す領域を注視領域として定義することができる。具体的に、監視画像送出命令における「注視領域」は注視方向から右側又は左側へα度(90度、120度など)というように、注視方向に基づいて定義することが可能である。このように注視方向に基づいて設定された注視領域は、監視画像送出命令に含ませることができる。移動体Vのボディの異なる位置に複数のカメラが一つずつ設けられ、異なる方向を撮像する場合には、一のタイミングにおいて指定された注視領域を撮像する撮像画像は複数枚となる。
 加えて、本実施形態では、特定された注視方向の経時的な変化に基づいて注視領域を設定することができる。具体的に、注視方向が前方向から右方向に変化した場合には、監視者が前方向から右方向に至る領域を注視したいと認められるので、この領域を「注視領域」として設定することができる。これにより、監視者側の中央監視装置20は、監視対象の移動方向に応じて注視領域を設定する又は移動体Vの動きに応じて注視領域を設定することができる。
 中央制御装置21は、監視端末装置10に、監視者が注目する注視方向や注視領域を各移動体Vのカメラ11で撮像した撮像画像に基づいて監視画像を生成させるので、監視端末装置10から得た監視画像には監視者が注目する注視方向又は注視領域の映像が含まれる。このため、中央監視装置20は、監視者が注視したい部分が映し出された監視画像を含む有用な監視情報を取得することができる。
 言い換えると、本実施形態における監視画像送出命令には、特定された注視方向又は注視領域の監視画像を生成させる指令、つまり、注視方向又は注視領域以外の監視画像の生成を禁止する指令が含まれる。本実施形態の監視画像送出命令によれば、監視端末装置10は注視方向又は注視領域以外の画像情報は生成されない(禁止される)ので、生成される監視画像の情報量は必然的に小さくなり、中央監視装置20へ送出される監視情報の情報量を低減させることができる。具体的に、注視方向の監視画像が一枚の撮像画像から生成される場合には、通常送られる監視画像がカメラ11の台数に応じるので、カメラ11の台数から1を引いた数の撮像画像分だけ送出に係る情報量を低減させることができる。同様に、注視方向の監視画像がN枚(Nは2以上の自然数)の撮像画像から生成される場合には、カメラ11の台数からNを引いた数の撮像画像分だけ送出に係る情報量を低減させることができる。このように、中央監視装置20は注視方向又は注視領域の監視画像を取得するので、監視者は注視すべき方向の監視画像を確認して監視レベルを維持しつつ、監視端末装置10から監視情報を送出する際の通信量を低減させることができる。
 また、本実施形態の中央制御装置21は、監視者により注視方向が特定された場合には、この注視方向を特定する入力がされる前よりも高い画質で監視画像を生成させる指令を監視画像送出命令に含ませることができる。監視者が注視方向を特定すると、中央制御装置21は、特定された注視方向のみ又は注視領域のみの監視画像を作成する旨の指令を含む監視画像送出命令を生成する。この監視画像送出命令によれば、注視方向又は注視領域以外の画像情報は生成されないから、中央監視装置20へ送出される監視情報の情報量を低減させることができる。
 他方、監視者が注目したい注視方向の画像の解像度は高い方が好ましい。このため、本実施形態では、監視者により注視方向が特定された場合には、中央制御装置21は、この特定前の画質よりも高い画質で監視端末装置10に監視画像を作成させる指令を監視画像送出命令に含ませる。注視方向又は注視領域以外の画像情報は作成しないから、監視画像の画質を高くしても送信に係る全体の情報量の増加を抑制することができる。この結果、監視者が注目する注視方向又は注視領域の監視画像を高画質で生成しても、送信に係る全体の情報量を増加させずに中央監視装置20に必要な監視情報を提供することができる。
 画像処理装置22は、地図データベースを有し、当該地図データベースからの地図情報をディスプレイ24に表示するとともに、監視端末装置10の位置検出装置15により検出された位置情報を当該地図情報上に重畳表示する。また、監視端末装置10のカメラ11で撮像され、画像処理装置12で処理された監視画像をディスプレイ24に表示するための画像処理を施す。
 ディスプレイ24は、たとえば一つの画面上に2つ以上のウィンド画面が表示できる大きさの液晶表示装置又は2つ以上のウィンド画面をそれぞれ表示する2つ以上の液晶表示装置により構成することができる。そして、一のウィンド画面には、地図情報上に各移動体Vの位置情報を重ね合わせた画面を表示し(図1参照)、他方のウィンド画面には、移動体Vのカメラ11で撮像された撮像画像に基づいて生成された監視画像を表示する。
 入力装置25は、キーボード、マウス、タッチパネルなどの入力デバイスであり、所望の移動体Vを特定してその移動体Vに対して監視画像送出命令を出力したり、ディスプレイ24に表示される各種情報の処理指令を入力したりする場合に用いられる。
 通信装置23は、先述したとおり、無線通信が可能な通信手段であり、電気通信回線網30を介して監視端末装置10の通信装置13と情報の授受を実行する。電気通信回線網30が商用電話回線網である場合は携帯電話通信装置を汎用することができ、電気通信回線網30が本例の監視システム1の専用電気通信回線網である場合は、それ専用の通信装置13,23を用いることができる。
 続いて、監視端末装置10について説明する。監視端末装置10は、複数の移動体Vにそれぞれ搭載される端末装置であって、これら複数の移動体Vのそれぞれの位置情報を検出する位置検出機能と、複数の移動体Vのそれぞれに装着されたカメラにより撮像された当該移動体Vの周囲の撮像画像に基づいて監視画像を生成する監視画像生成機能と、所定のタイミングで取得した位置情報、監視画像及び時刻情報を中央監視装置20へ送出するとともに中央監視装置20からの指令を受け付ける通信機能と、を有する。このため、各移動体Vは、複数のカメラ11a~11d、画像処理装置12、通信装置13、制御装置14、及び位置検出装置15を備える。なお、時刻情報は主として事象の事後解析に供される情報であるため省略してもよい。
 それぞれの移動体Vに搭載された複数のカメラ11は、CCDカメラなどで構成され、移動体Vの周囲の各所定方向乃至所定領域を撮像し、その撮像信号を画像処理装置12へ出力する。画像処理装置12は、カメラ11からの撮像信号を読み出し、監視画像生成するための画像処理を実行する。この画像処理の詳細は後述する。
 位置検出装置15は、GPS装置及びその補正装置などで構成され、当該移動体Vの現在位置を検出し、制御装置14へ出力する。
 制御装置14は、CPU,ROM,RAMにより構成され、電気通信回線網30及び通信装置13を介して受信された中央監視装置20からの監視画像送出命令を受け付け、画像処理装置12、通信装置13及び位置検出装置15を制御し、画像処理装置12で生成された監視画像と、位置検出装置15で検出された移動体Vの位置情報と、CPUが内蔵する時計からの時刻情報とを含む監視情報を、通信装置13及び電気通信回線網30を介して中央監視装置20へ出力する。
 監視画像を生成するにあたり、制御装置14は、通信装置13を介して中央監視装置20から取得した監視画像送出命令に従い、この監視画像送出命令に含まれる注視方向を撮像した撮像画像に基づいて監視画像を画像処理装置12に生成させる監視画像生成機能と、生成された監視画像を含む監視情報を、通信装置13を介して中央監視装置20に送出させる監視情報送出機能とを実行する。なお、制御装置14は、中央監視装置20から監視画像送出命令を受け付ける前においては、予め設定された所定のルールに従い、当該ルールにより指定されたデフォルトの一又は複数の方向を撮像した撮像画像に基づいて監視画像を画像処理装置12に生成させ、通信装置13を介して中央監視装置20に送出させる。
 次にカメラ11a~11dの装着位置と撮像範囲について説明する。ここでは移動体Vとして乗用車Vを例に挙げて説明する。カメラ11a~11dはCCD等の撮像素子を用いて構成され、4つのカメラ11a~11dは乗用車Vの外部の異なる位置にそれぞれ設置され、移動体V周囲の前後左右の4方向をそれぞれ撮影する。
 例えば、図3に示すように、フロントグリル部分などの乗用車Vの前方の所定位置に設置されたカメラ11aは、乗用車Vの前方のエリアSP1内及びその前方の空間に存在する物体又は路面(フロントビュー)を撮影する。また、左サイドミラー部分などの乗用車Vの左側方の所定位置に設置されたカメラ11bは、乗用車Vの左側方のエリアSP2内及びその周囲の空間に存在する物体又は路面(左サイドビュー)を撮影する。また、リアフィニッシャー部分やルーフスポイラー部分などの乗用車Vの後方部分の所定位置に設置されたカメラ11cは、乗用車Vの後方のエリアSP3内及びその後方の空間に存在する物体又は路面(リアビュー)を撮影する。また、右サイドミラー部分などの乗用車Vの右側方の所定位置に設置されたカメラ11dは、乗用車Vの右側方のエリアSP4内及びその周囲の空間に存在する物体又は路面(右サイドビュー)を撮影する。
 図4は、各カメラ11a~11dの配置を乗用車Vの上空から見た図である。同図に示すように、エリアSP1を撮像するカメラ11a、エリアSP2を撮像するカメラ11b、エリアSP3を撮像するカメラ11c、エリアSP4を撮像するカメラ11dの4つは、乗用車Vのボディの外周VEに沿って左回り(反時計回り)又は右回り(時計回り)に沿って設置されている。つまり、同図に矢印Cで示す左回り(反時計回り)に乗用車Vのボディの外周VEに沿って見ると、カメラ11aの左隣りにカメラ11bが設置され、カメラ11bの左隣りにカメラ11cが設置され、カメラ11cの左隣りにカメラ11dが設置され、カメラ11dの左隣りにカメラ11aが設置されている。逆に同図に示す矢印Cの方向とは反対に(時計回り)に乗用車Vのボディの外周VEに沿って見ると、カメラ11aの右隣りにカメラ11dが設置され、カメラ11dの右隣りにカメラ11cが設置され、カメラ11cの右隣りにカメラ11bが設置され、カメラ11bの右隣りにカメラ11aが設置されている。
 図5Aは、フロントのカメラ11aがエリアSP1を撮像した画像GSP1の一例を示し、図5Bは、左サイドのカメラ11bがエリアSP2を撮像した画像GSP2の一例を示し、図5Cは、リアのカメラ11cがエリアSP3を撮像した画像GSP3の一例を示し、図5Dは、右サイドのカメラ11dがエリアSP4を撮像した画像GSP4の一例を示す画像図である。ちなみに、各画像のサイズは、縦480ピクセル×横640ピクセルである。画像サイズは特に限定されず、一般的な端末装置で動画再生が可能なサイズであればよい。
 なお、カメラ11の配置数及び配置位置は、乗用車Vの大きさ、形状、検出領域の設定手法等に応じて適宜に決定することができる。上述した複数のカメラ11は、それぞれの配置に応じた識別子が付されており、制御装置14は、各識別子に基づいて各カメラ11のそれぞれを識別することができる。また、制御装置14は、指令信号に識別子を付することにより、特定のカメラ11に撮像命令その他の命令を送出することができる。
 制御装置14は、画像処理装置12を制御してカメラ11によって撮像された撮像信号をそれぞれ取得し、画像処理装置12は、各カメラ11からの撮像信号を処理して図5A~図5Dに示す監視画像に変換する。そして、制御装置14は、図5A~図5Dに示す4つの監視画像に基づいて監視画像を生成するとともに(監視画像生成機能)、この監視画像を柱体の投影モデルの側面に設定された投影面に投影するためのマッピング情報を監視画像に対応づけ(マッピング情報付加機能)、中央監視装置20へ出力する。以下、監視画像生成機能とマッピング情報付加機能について詳述する。
 なお、乗用車Vの周囲を撮像した4つの監視画像に基づいて監視画像を生成し、これにマッピング情報を関連付ける処理は、本例のように監視端末装置10で実行するほか、中央監視装置20で実行することもできる。この場合には、乗用車Vの周囲を撮像した4つの監視画像を監視端末装置10から中央監視装置20へそのまま送信し、これを中央監視装置20の画像処理装置22及び中央制御装置21にて監視画像を生成するとともにマッピング情報を関連付け、投影変換すればよい。
 まず、監視画像生成機能について説明する。本実施形態の監視端末装置10の制御装置14は、画像処理装置12を制御して各カメラ11a~11dの撮像信号をそれぞれ取得し、さらに乗用車Vのボディの外周に沿って右回り又は左回りの方向に設置されたカメラ11a~11dの監視画像がこれらのカメラ11a~11dの設置順に配置されるように、一枚の監視画像を生成する。
 上述したように、本実施形態において、4つのカメラ11a~11dは乗用車Vのボディの外周VEに沿って左回り(反時計回り)にカメラ11a、11b、11c、11dの順に設置されているので、制御装置14は、これらのカメラ11a~11dの設置の順序(カメラ11a→11b→11c→11d)に従って、各カメラ11a~11dが撮像した4枚の画像が一体となるように水平方向に繋げ、一枚の監視画像を生成する。本実施形態の監視画像において、各画像は乗用車Vの接地面(路面)が下辺となるように配置され、各画像は路面に対して高さ方向(垂直方向)の辺で互いに接続される。
 図6は、監視画像Kの一例を示す図である。同図に示すように、本実施形態の監視画像Kは、図面左側から図面右側へ向かう方向Pに沿って、フロントのカメラ11aがエリアSP1を撮像した撮像画像GSP1、左サイドのカメラ11bがエリアSP2を撮像した撮像画像GSP2、リアのカメラ11cがエリアSP3を撮像した撮像画像GSP3、及び右サイドのカメラ11dがエリアSP4を撮像した撮像画像GSP4が、水平方向にこの順序で並べて配置され、これら4つの画像が一連の画像とされている。このように生成された監視画像Kを、路面(移動体Vの接地面)に対応する画像を下にして左端から右側へ順番に表示することにより、監視者は、移動体Vの周囲を反時計回りに見回したのと同様にディスプレイ24上で視認することができる。このように、図6に示す態様の監視画像Kは、送受信などの処理を行っても位置関係が狂うことなく、所期の順序のままの配置で再生することができる。
 なお、一つの監視画像Kを生成する際には、各カメラ11a~11dの撮影タイミングを略同時にして取得した4つの画像が用いられる。これにより、監視画像Kに含まれる情報を同期させることができるので、所定タイミングにおける移動体V周囲の状況を正確に表現することができる。
 また、カメラの撮像タイミングが略同時である各撮像画像から生成した監視画像Kを経時的に記憶し、所定の単位時間あたりに複数の監視画像Kが含まれる動画の監視画像Kを生成するようにしてもよい。撮像タイミングが同時の画像に基づいて動画の監視画像Kを生成することにより、移動体V周囲の状況の変化を正確に表現することができる。
 ところで、各撮像領域の画像をそれぞれ経時的に記憶し、各撮像領域ごとに生成した動画の監視画像Kを中央監視装置20へ送信した場合には、中央監視装置20の機能によっては、複数の動画を同時に再生できない場合がある。このような従来の中央監視装置20においては、複数の動画を同時に再生表示することができないため、各動画を再生する際には画面を切り替えて動画を一つずつ再生しなければならない。つまり、従来の中央監視装置20では、複数方向の映像(動画)を同時に見ることができず、移動体V周囲の全体を一画面で監視することができないという不都合がある。
 これに対して本実施形態の制御装置14は、複数の画像から一つの監視画像Kを生成するので、中央監視装置20の機能にかかわらず、異なる撮像方向の画像を同時に動画再生することができる。つまり、監視画像Kを連続して再生(動画再生)することにより、監視画像Kに含まれる4枚の画像を同時に連続して再生(動画再生)し、方向の異なる領域の状態変化を一画面で監視することができる。
 また、本実施形態の監視端末装置10は、監視画像Kの画素数が各カメラ11a~11dの画像の画素数と略同一になるように画像のデータ量を圧縮して監視画像Kを生成することもできる。図5A~図5Dに示す各画像のサイズは480×640ピクセルであるのに対し、本実施形態では、図6に示すように監視画像Kのサイズが1280×240ピクセルとなるように圧縮処理を行う。これにより、監視画像Kのサイズ(1280×240=307,200ピクセル)が、各画像のサイズ(480×640×4枚=307,200ピクセル)と等しくなるので、監視画像Kを受信した中央監視装置20側の機能にかかわらず、画像処理及び画像再生を行うことができる。
本実施形態の監視端末装置10は、取得した監視画像送出命令に画質を指定する指令が含まれている場合には、指定された画質の監視画像を生成する。一の注視方向が指定され、一枚の撮像画像に基づいて監視画像が生成する場合には、2倍又は3倍の画質で監視画像を生成しても、四方向(四枚)の撮像画像に基づいて生成された監視画像よりも情報量を低減させることができる。
 さらに、本実施形態の制御装置14は、配置された各画像の境界を示す線図形を、監視画像Kに付することもできる。図6に示す監視画像Kを例にすると、制御装置14は、配置された各画像の境界を示す線図形として、各画像の間に矩形の仕切り画像Bb,Bc,Bd,Ba,Ba´を監視画像Kに付することができる。このように、4つの画像の境界に仕切り画像を配置することにより、一連にされた監視画像Kの中で、撮像方向が異なる各画像をそれぞれ別個に認識させることができる。つまり、仕切り画像は各撮像画像の額縁として機能する。また、各撮像画像の境界付近は画像の歪みが大きいので、撮像画像の境界に仕切り画像を配置することにより、歪みの大きい領域の画像を隠すことや、歪みが大きいことを示唆することができる。
 また、本実施形態の制御装置14は、後述する投影モデルの側面に設定された投影面に4つの画像を投影させた場合の歪みを補正してから、監視画像Kを生成することもできる。撮影された画像の周辺領域は画像の歪みが生じやすく、特に広角レンズを用いたカメラ11である場合には撮像画像の歪みが大きくなる傾向があるため、画像の歪みを補正するために予め定義された画像変換アルゴリズムと補正量とを用いて、撮像画像の歪みを補正することが望ましい。
 特に限定されないが、制御装置14は、図7に示すように、中央監視装置20において監視画像Kを投影させる投影モデルと同じ投影モデルの情報をROMから読み出し、この投影モデルの投影面に撮像画像を投影し、投影面において生じた歪みを予め補正することもできる。なお、画像変換アルゴリズムと補正量はカメラ11の特性、投影モデルの形状に応じて適宜定義することができる。このように、投影モデルの投影面に関し画像Kを投影した場合の歪みを予め補正しておくことにより、歪みの少ない視認性の良い監視画像Kを提供することができる。また、歪みを予め補正しておくことにより、並べて配置された各画像同士の位置ズレを低減させることができる。
 次に、マッピング情報付加機能について説明する。本実施形態の監視端末装置10において、制御装置14は、乗用車Vの接地面を底面とする柱体の投影モデルMの側面に設定された投影面に、生成された監視画像Kを投影するためのマッピング情報を監視画像Kに対応づける処理を実行する。マッピング情報は、監視画像Kを受信した中央監視装置20に、容易に投影基準位置を認識させるための情報である。図8は本実施形態の投影モデルMの一例を示す図、図9は図8に示す投影モデルMのxy面に沿う断面模式図である。
 図8、9に示すように、本実施形態の投影モデルMは、底面が正八角形で、鉛直方向(図中z軸方向)に沿って高さを有する正八角柱体である。なお、投影モデルMの形状は、底面の境界に沿って隣接する側面を有する柱体であれば特に限定されず、円柱体、若しくは三角柱体、四角柱体、六角柱体などの角柱体、又は底面が多角形で側面が三角形の反角柱体とすることもできる。
 また、同図に示すように、本実施形態の投影モデルMの底面は乗用車Vの接地面と平行である。また、投影モデルMの側面の内側面には、投影モデルMの底面に接地する乗用車Vの周囲の映像を映し出す投影面Sa,Sb,Sc,Sd(以下、投影面Sと総称する。)が設定されている。投影面Sは、投影面Saの一部と投影面Sbの一部、投影面Sbの一部と投影面Scの一部、投影面Scの一部と投影面Sdの一部、投影面Sdの一部と投影面Saの一部により構成することもできる。監視画像Kは、乗用車Vを取り囲む投影モデルMの上方の視点R(R1~R8、以下、視点Rと総称する。)から乗用車Vを俯瞰した映像として投影面Sに投影される。
 本実施形態の制御装置14は、右端又は左端に配置された撮像画像の基準座標を、マッピング情報として監視画像Kに対応づける。図6に示す監視画像Kを例にすると、制御装置14は、投影モデルMに投影される際の、監視画像Kの始端位置又は終端位置を示すマッピング情報(基準座標)として、右端に配置された撮像画像GSP1の左上頂点の座標A(x、y)と、左端に配置された撮像画像GSP2の右上頂点の座標B(x、y)とを監視画像Kに付する。なお、始端位置又は終端位置を示す撮像画像の基準座標は特に限定されず、左端に配置された監視画像Kの左下頂点、又は右端に配置された監視画像Kの右下頂点としてもよい。またマッピング情報は、監視画像Kの画像データの各画素に付してもよいし、監視画像Kとは別のファイルとして管理してもよい。
 このように、監視画像Kの始端位置又は終端位置を示す情報、つまり投影処理において基準とする基準座標をマッピング情報として監視画像Kに対応づけることにより、監視画像Kを受信した中央監視装置20が、容易に投影処理時における基準位置を認識することができるので、カメラ11a~11dの配置順に並べられた監視画像Kを、投影モデルMの側面の投影面Sに容易且つ迅速に順次投影することができる。すなわち、図9に示すようにカメラ11aの撮像方向に位置する投影面Saに移動体V前方の撮像画像GSP1を投影し、カメラ11bの撮像方向に位置する投影面Sbに移動体Vの右側方の撮像画像GSP2を投影し、カメラ11cの撮像方向に位置する投影面Scに移動体Vの後方の撮像画像GSP3を投影し、カメラ11dの撮像方向に位置する投影面Sdに移動体Vの左側方の撮像画像GSP4を投影することができる。
 これにより、投影モデルMに投影された監視画像Kは、あたかも乗用車Vの周囲を見回したときに見える映像を示すことができる。つまり、カメラ11a~11dの設置順序に応じて水平方向一列に配置された4つの画像を含む監視画像Kは、投影モデルMの柱体において、同じく水平方向に並ぶ側面に投影されるので、柱体の投影モデルMの投影面Sに投影された監視画像Kに、乗用車Vの周囲の映像をその位置関係を維持したまま再現することができる。
 なお、本実施形態の制御装置14は、監視画像Kの各座標値と投影モデルMの各投影面Sの座標値との対応関係をマッピング情報として記憶し、監視画像Kに付することができるが、中央監視装置20に予め記憶させてもよい。
 また、図8,9に示す視点R、投影面Sの位置は例示であり、任意に設定することができる。特に、視点Rは、操作者の操作によって変更可能である。視点Rと監視画像Kの投影位置との関係は予め定義されており、視点Rの位置が変更された場合には所定の座標変換を実行することにより、新たに設定された視点Rから見た監視画像Kを投影面S(Sa~Sd)に投影することができる。この視点変換処理には公知の手法を用いることができる。
 以上のように、本実施形態の制御装置14は、所定タイミングで撮影された監視画像に基づいて監視画像Kを生成し、この監視画像Kにマッピング情報、基準座標、境界を示す線図形(仕切り画像)の情報を対応づけ、撮像タイミングに従って経時的に記憶する。特に限定されないが、制御装置14は、所定の単位時間あたりに複数の監視画像Kを含む一つの動画ファイルとして監視画像Kを記憶してもよいし、ストリーミング方式で転送・再生が可能な形態で監視画像Kを記憶してもよい。
 一方、中央監視装置20の通信装置23は、監視端末装置10から送信された監視画像Kとこの監視画像Kに対応づけられたマッピング情報を受信する。この監視画像Kは、上述したとおり乗用車Vのボディの異なる位置に設置された4つのカメラ11の画像が、乗用車Vのボディの外周に沿って右回り又は左回りの方向に沿って設置されたカメラ11a~11dの設置順序(移動体Vのボディの外周に沿う右回り又は左回りの順序)に従って配置されたものである。また、この監視画像Kには、監視画像Kを八角柱体の投影モデルMの投影面Sに投影させるためのマッピング情報が対応づけられている。通信装置23は取得した監視画像K及びマッピング情報を画像処理装置22へ送出する。
 画像処理装置22は、予め記憶している投影モデルMを読み出し、マッピング情報に基づいて、図8及び図9に示す乗用車Vの接地面を底面とする八角柱体の投影モデルMの側面に設定された投影面Sa~Sdに監視画像Kを投影させた表示画像を生成する。具体的には、マッピング情報に従い、受信した監視画像Kの各画素を、投影面Sa~Sdの各画素に投影する。また、画像処理装置22は、監視画像Kを投影モデルMに投影する際に、監視画像Kと共に受信した基準座標に基づいて、監視画像Kの開始点(監視画像Kの右端又は左端)を認識し、この開始点が予め投影モデルM上に定義された開始点(投影面Sの右端又は左端)と合致するように投影処理を行う。また、画像処理装置22は、監視画像Kを投影モデルMに投影する際に、各画像の境界を示す線図形(仕切り画像)を投影モデルM上に配置する。仕切り画像は、予め投影モデルMに付しておくこともでき、投影処理後に監視画像Kに付すこともできる。
 ディスプレイ24は、投影モデルMの投影面Sに投影した監視画像Kを表示する。図10~図17は、監視画像Kの表示画像の一例を示す。なお、図11等に示す白抜きの二重丸は、後に説明する注視方向の入力(特定)の手法を説明するために付したものであり、監視画像Kに含まれるものではない。
 図10には、図8,9に示す視点R1から見た投影面Sd、Sa、Sbに投影された監視画像Kを示す。投影モデルMの底面には各視点Rから見た移動体Vの画像が貼り付けられている。また、投影面Sd、Sa、Sbの間にある画像が表示されていない部分は「境界を示す線図形(仕切り画像)」である。
 同様に、図11には視点R2から見た監視画像Kを示し、図12には視点R3から見た監視画像Kを示し、図13には視点R4から見た監視画像Kを示し、図14には視点R5から見た監視画像Kを示し、図15には視点R6から見た監視画像Kを示し、図16には視点R7から見た監視画像Kを示し、図17には視点R8から見た監視画像Kを示す。
 このように、本実施形態の端末装置800は、移動体Vのボディに設置されたカメラ1の設置順序に応じて各カメラ1の撮像画像をx軸方向又はy軸方向に沿って(横に)配置した監視画像Kを、その配置順に従って柱体の投影モデルMの側面に沿って(横に)マッピングするので、投影モデルMに示された監視画像Kは、移動体Vの周囲を時計回りに見回したときに見える映像を示すことができる。つまり、監視者は、監視画像Kを見ることにより、移動体Vから離隔した位置に居ながら、移動体Vに搭乗して周囲を見渡したときと同じ情報を取得することができる。
 特に図10~図17に示すように、投影モデルMの底面に移動体Vの画像を示すことにより、移動体Vの向きと各撮像画像との位置関係が分かり易くすることができる。つまり移動体Vのフロントグリルに対向する投影面Sには、移動体Vのフロントグリルに設けられたカメラ1aの撮像画像GSP1を投影し、移動体Vの右サイドミラーに対向する投影面Sには、移動体Vの右サイドミラーに設けられたカメラ1dの撮像画像GSP4を投影し、移動体Vのリア部に対向する投影面Sには、移動体Vのリア部に設けられたカメラ1cの撮像画像GSP3を投影し、移動体Vの左サイドミラーに対向する投影面Sには、移動体Vの左サイドミラーに設けられたカメラ1bの撮像画像GSP2を投影することができる。このように、図10~図17に示すように、本実施形態によれば、移動体Vの周囲の映像がその位置関係を保ったまま投影された監視画像Kを提示することができるので、監視者は移動体Vの周囲で何が起きているかを容易に把握することができる。
 ちなみに、本願願書に添付した図10~図17は静止画であるため、実際の表示画像の再生状態を示すことができないが、本実施形態の中央監視装置20においては、ディスプレイ24の表示画面中の各投影面Sに示される画像はそれぞれ動画である。つまり、移動体Vのフロントグリルに対向する投影面Sには、移動体V前方の撮像領域SP1の動画映像が映し出され、移動体Vの右サイドミラーに対向する投影面Sには、移動体V右側方の撮像領域SP4の動画映像が映し出され、移動体Vのリア部に対向する投影面Sには、移動体V後方の撮像領域SP3の動画映像が映し出され、移動体Vの左サイドミラーに対向する投影面Sには、移動体V左側方の撮像領域SP2の動画映像が映し出されている。つまり、図10~図17に示す各投影面Sには、異なるカメラ1により撮像された撮像画像に基づく複数の動画の監視画像Kを同時に再生することができる。
 なお、マウスやキーボードなどの入力装置25又はディスプレイ24をタッチパネル式の入力装置25とすることで、監視者の操作により視点を自在に設定・変更することができる。視点位置と投影面Sとの対応関係は上述の画像処理装置22又はディスプレイ24において予め定義されているので、この対応関係に基づいて、変更後の視点に応じた監視画像Kをディスプレイ24に表示することができる。
 次に本実施形態に係る監視システム1の動作について説明する。図18は監視端末装置10側の動作を示すフローチャートである。
 図18に示すように、ステップ10において、中央管理装置20は、移動体Vに搭載された監視端末装置10から移動体Vの位置情報と監視情報を所定周期で取得し、中央監視装置20がアクセス可能なデータベースに蓄積する。本実施形態では、予め設定された所定周期で監視情報を収集し蓄積する例を示すが、中央管理装置20の制御の下に監視情報の収集及び蓄積を実行することができる。つまり、中央監視装置20から監視情報の要求指令を受信した場合に限って、監視端末装置10に監視情報をアップロード(送出)させるように構成することができる。
 ステップ20では、ステップ10で取得した位置情報に基づいて移動体Vの現在位置(撮像タイミングにおける走行位置)を、ディスプレイ24に表示された地図データベースの地図情報上に図1の左上に示すようにドットを重畳して表示する。この地図情報を見れば、どの位置に監視端末装置10を搭載する移動体Vが走行しているかを一目で視認することができる。言い換えると、監視したい位置に存在する監視端末装置10を搭載する移動体Vを特定することができる。移動体Vの位置情報は、図18の1ルーチン毎の所定のタイミングにて取得され送信されるので、監視者は移動体Vの現在位置をタイムリーに把握することができる。
 ステップ30において、中央監視装置20は、監視情報を送信させる対象となる移動体Vが選択されたか否かを判断する。巡回バスなどのように移動体Vの移動スケジュール(位置の経時的な変化)が予め分かっている場合には、その移動スケジュールに基づいて監視情報を送信させたい移動体Vを選択することができる。他方、ランダムに走行するタクシーのように移動体Vの移動スケジュールが分からない場合には、ステップ20において表示された移動体Vの位置を参照して、事故発生地点の近傍、事故の目撃情報を通報した移動体Vの近傍などの監視したい位置に存在する移動体Vを選択することができる。
移動体Vすなわち監視端末装置10の選択は、中央監視装置20の入力装置25を介して行うことができる。たとえば、図1に示す地図情報に重畳された移動体Vの位置を示すドットをクリックすることにより、移動体の選択情報を中央監視装置20に入力することができる。このステップ30において、監視端末装置10が特定された場合にはステップ40へ進み、移動体V(監視端末装置10)が選択されない場合にはステップ10に戻り、所定周期で取得した監視画像の蓄積処理及び表示を繰り返す。
 ステップ40において、中央監視装置20は、注視方向又は注視領域を特定する入力がされたか否かを判断する。注視方向又は注視領域を特定する入力されない場合には、ステップ41へ進み、予め設定されたデフォルトの注視方向又は注視領域が特定される。デフォルトの注視方向は特に限定されないが、移動体Vの進行方向とすることができる。また、デフォルトの注視領域は特に限定されないが、移動体の進行方向を中心に135度ずつ(合計270度)とすることができる。移動体Vは進行方向に沿って移動するため有用な映像は進行方向の映像である可能性が高いからである。このように、デフォルトの注視方向や注視領域を設定しておくことにより、監視者の操作負担を軽減することができる。他方、注視方向又は注視領域を特定する入力された場合には、ステップ50に進む。
 ここで、注視方向の入力手法を説明する。図19は、前回の処理において監視端末装置10側から送られ、ディスプレイ24に表示された監視画像Kの一例である。ディスプレイ24がタッチパネル式のディスプレイである場合において、監視者がディスプレイ24上のポイントPRをタッチすると、ポイントPRの方向を注視方向として特定することができる。監視者が移動体Vの左方向に注目する場合には、この監視画像Kのうち左サイドのカメラ11bがエリアSP2を撮像した撮像画像GSP2を選択する入力を行う。具体的には、監視者はタッチパネル式のディスプレイ24のうち、撮像画像GSP2が提示されるエリアのポイントPRに触れることにより、移動体Vの左方向を注視方向として入力することができる。なお、ポイントPR及び後述するPR1,PR2は監視者の触れる場所を便宜的に示す印であり、監視画像Kを構成するものではない。
 中央監視装置20は、この注視方向に対応するポイントPRを含む1画像、つまり、左サイドのカメラ11bの撮像画像GSP2の1枚に基づいて撮像画像を生成する監視情報送出命令を生成し、選択した監視端末装置10へ送出する。監視情報送出命令を取得した監視端末装置10は、撮像画像GSP2のみに基づいて監視画像Kを生成する。つまり、エリアW0以外の領域を撮像する撮像画像GSP1、GSP3及びGSP4は監視画像Kの生成には用いられず、監視画像Kには含まれない。これにより、撮像画像GSP1、GSP3及びGSP4の3つの画像に応じた情報量の分だけ監視画像Kの情報量を低減させることができる。
 中央監視装置20が入力された注視方向に基づいて注視領域を設定する場合の処理を説明する。同じく監視画像Kを表示するタッチパネル型のディスプレイ24において、図20に示すように、監視者がディスプレイ24上のポイントPRを触れると、移動体Vの左方向を注視方向として入力することができる。中央監視装置20はポイントPRに対応する注視方向を中心に左右270度の範囲を注視領域として設定する。
 中央監視装置20は、この注視領域に対応する撮像画像GSP2及びこれの左右両隣の2画像を含めた合計3画像、つまり、フロントのカメラ11aがエリアSP1を撮像した撮像画像GSP1、左サイドのカメラ11bがエリアSP2を撮像した撮像画像GSP2、リアのカメラ11cがエリアSP3を撮像した撮像画像GSP3を含むエリアW1の撮像画像に基づいて撮像画像を生成する監視情報送出命令を生成し、選択した監視端末装置10へ送出する。監視情報送出命令を取得した監視端末装置10は、撮像画像GSP1、GSP2及びGSP3の3枚の画像のみに基づいて監視画像Kを生成する。つまり、エリアW1以外の領域を撮像する撮像画像GSP4に応じた1つの画像に応じた情報量の分だけ監視画像Kの情報量を低減させることができる。
 また、中央監視装置20は、図21に示すように、注視方向を示すポイントPRを中心に左右の画像の半分ずつを含めた合計2画像、つまり、フロントのカメラ11aがエリアSP1を撮像した撮像画像GSP1の右側(GSP2側)の半分の画像、左サイドのカメラ11bがエリアSP2を撮像した撮像画像GSP2、リアのカメラ11cがエリアSP3を撮像した撮像画像GSP3の左側(GSP2側)の半分の画像を含むエリアW2を注視領域として設定することができる。これにより、エリアW2以外の領域にある撮像画像GSP1の半分、撮像画像GSP3の半分及び撮像画像GSP4は監視画像Kには含まれない。つまり、エリアW2以外の領域を撮像するGSP1の半分の画像と、GSP3の半分の画像と、GSP4の1枚分の画像の合計2枚分の画像に応じた情報量の分だけ監視画像Kの情報量を低減させることができる。
 さらに、図22に示すように、監視者がタッチパネル式のディスプレイ24を撫でる操作をしたときには、特定された注視方向の変化を求めることができるので、この注視方向の変化に基づいて注視領域を設定することができる。具体的に、監視者が、撮像画像GSP2が提示されるエリアのポイントPR1から、撮像画像GSP3が提示されるエリアのポイントPR2までを図中に示す矢印に沿って撫でる操作をしたときには、注視方向が左から後方にかけて変化し、注視領域は移動体Vの左側方から後方にかけた領域であると判断することができる。
 中央監視装置20は、この左側方から後方にかけた注視領域に対応する左サイドのカメラ11bがエリアSP2を撮像した撮像画像GSP2、リアのカメラ11cがエリアSP3を撮像した撮像画像GSP3及び右サイドのカメラ11dがエリアSP4を撮像した撮像画像GSP4を含むエリアW3の撮像画像に基づいて撮像画像を生成する監視情報送出命令を生成し、選択した監視端末装置10へ送出する。監視情報送出命令を取得した監視端末装置10は、撮像画像GSP2、GSP3及びGSP4のみに基づいて監視画像Kを生成する。つまり、エリアW1以外の領域を撮像する撮像画像GSP1に応じた情報量の分だけ監視画像Kの情報量を低減させることができる。
 続いて、中央監視装置20が図10~図17のように視点変換が可能な三次元映像により監視画像Kを提示するときの注視方向の特定の手法を説明する。たとえば、図11に示す監視画像Kがタッチパネル式のディスプレイ24に提示されている場合において、監視者が移動体Vの右方向を示すポイントPRaをタッチした場合には、中央監視装置20は、注視方向を示すポイントPRaを中心に左右1画像を含めた合計3画像、つまりフロントのカメラ11aがエリアSP1を撮像した撮像画像GSP1、右サイドのカメラ11dがエリアSP4を撮像した撮像画像GSP4、及びリアのカメラ11cがエリアSP3を撮像した撮像画像GSP3を含むエリアW1を注視領域として特定し、この注視領域の監視画像を生成させるための監視画像送出命令を監視端末装置10へ送出する。監視端末装置10は、新たに監視画像を生成する際に、フロントのカメラ11aがエリアSP1を撮像した撮像画像GSP1、右サイドのカメラ11dがエリアSP4を撮像した撮像画像GSP4、及びリアのカメラ11cがエリアSP3を撮像した撮像画像GSP3のみを用い、左サイドのカメラ11bがエリアSP2を撮像した撮像画像GSP2は利用しない。このような監視画像送出命令に基づいて作成・送出された監視画像Kは、図12に示すようなものになるが、左サイドのカメラ11bがエリアSP2を示す部分には監視画像Kは表示されない。これにより、1枚分の監視画像の情報量を低減させることができる。
 また、図13に示す監視画像Kがタッチパネル式のディスプレイ24に提示されている場合において、監視者が移動体Vの右方向を示すポイントPRbから後方向を示すPRcまでを撫でるようにタッチした場合には、中央監視装置20は、右方向から後方向に向かう領域を注視領域として設定し、ポイントPRbを含む右サイドのカメラ11dがエリアSP4を撮像した撮像画像GSP4から3画像を含む合計3画像、つまり撮像画像GSP4、リアのカメラ11cがエリアSP3を撮像した撮像画像GSP3、及び左サイドのカメラ11bがエリアSP2を撮像した撮像画像GSP2を含む監視画像を生成させるための監視画像送出命令を監視端末装置10へ送出する。監視端末装置10は、新たに監視画像を生成する際に、右サイドのカメラ11dがエリアSP4を撮像した撮像画像GSP4、リアのカメラ11cがエリアSP3を撮像した撮像画像GSP3、及び左サイドのカメラ11bがエリアSP2を撮像した撮像画像GSP2のみを用い、フロントのカメラ11aがエリアSP1を撮像した撮像画像GSP1は利用しない。このような監視画像送出命令に基づいて作成・送出された監視画像Kは、図14に示すようなものになるが、フロントのカメラ11aがエリアSP1を示す部分には監視画像Kは表示されない。これにより、1枚分の監視画像の情報量を低減させることができる。
 図18に戻り、ステップ50において、画質を特定する情報が入力された場合には、ステップ60へ進む。他方、ステップ50において、画質を特定する情報が入力されない場合には、デフォルトの画質を読み出してステップ60へ進む。特定される画質及びデフォルトの画質は、いずれもステップ40において注視方向又は注視領域が特定される前の所定の画質よりも高い画質である。このように、デフォルトの画質を設定しておくことにより、監視者の入力負荷を低減させることができる。
 ステップ60において、中央監視装置20は、ステップ40、41において特定された注視方向又は注視領域の監視画像であって、さらに、ステップ50、51において特定された画質(注視方向又は注視領域が特定される前の所定の画質よりも高い画質)の監視画像を生成させ、送出させる指令を含む監視画像送出命令を、ステップ30において選択された移動体Vの監視端末装置10へ送る。
 その後、ステップ70において監視端末装置10から、監視画像送出命令に従って生成された監視画像を取得する。
 ステップ80において、中央監視装置20は、取得した注視方向又は注視領域の監視画像を、ディスプレイ24に表示させる。その後は、ステップ10以降の処理を所定周期で繰り返す。
 次に、本発明の本実施形態の監視端末装置10の処理手順を説明する。図23は、本実施形態に係る監視端末装置10の制御手順を示すフローチャートである。
 ステップ110において、監視端末装置10は、所定の周期で各カメラ11a~11dの撮像画像を取得する。取得した撮像画像は、撮像時刻と対応づけて少なくとも一時的に保存する。注視方向以外であっても、事後検証において撮像画像が必要になる場合が生じる可能性があるからである。
 ステップ120において、監視端末装置10は、電気通信回線網30を介して中央監視装置20から監視画像送出命令を取得したか否かを判断する。監視端末装置10は、この監視画像送出命令を取得したら、ステップ130以降の処理を行う。
 他方、監視画像送出命令を取得しない場合は、ステップ110で取得した撮像画像に基づいて生成された監視画像を、電気通信回線網30を介して中央監視装置20へ送出する(ステップ180)処理を、周期を含む所定のルールに従い繰り返し実行する。このとき送出される監視画像は、カメラ11a~11dにより撮像された全方向の撮像画像に基づいて生成される。
 ステップ130において、監視端末装置10は、監視画像送出命令において、指定されている特定の監視方向又は監視領域を識別する。監視画像送出命令に特定の監視方向又は監視領域の指定が含まれない場合には、ステップ140に進み、予め設定されたデフォルトの方向が指定されていると識別する。他方、監視画像送出命令に特定の監視方向又は監視領域の指定が含まれている場合には、その指定された方向・領域に応じて、ステップ141のように、移動体Vの前方向・前側領域が指定されていると識別し、ステップ142のように、移動体Vの右方向・右側領域が指定されていると識別し、ステップ143のように、移動体Vの左方向・左側領域が指定されていると識別し、又はステップ144のように、移動体Vの後方向・後側領域が指定されていると識別する。
 続くステップ150において、監視端末装置10は、監視画像送出命令において、画質の指定があるか否かを判断する。監視画像送出命令に画質の指定が含まれない場合には、ステップ160に進み、予め設定されたデフォルトの画質を読み出し、これを識別する。他方、監視画像送出命令に画質の指定が含まれている場合には、ステップ170に進む。
 ステップ170において、監視端末装置10は、ステップ130で識別された監視方向・監視領域であり、かつステップ150において指定された画質の監視画像を生成する。
 監視端末装置10は、生成した監視画像Kを、電気通信回線網30を介して中央監視装置20へ送出する。監視画像送出命令に従って生成された監視画像Kは、特定された注視方向又は注視領域を撮像した撮像画像に基づいて生成されたものである。つまり、特定された注視方向又は注視領域以外の方向又は領域を撮像した撮像画像に基づいた画像は含まれない。これにより、監視画像送出命令を取得した場合に生成された監視画像の情報量を、監視画像送出命令を取得する前の生成される監視画像よりも小さい情報量にすることができる。これにより、監視者が注視したい方向の監視画像を提供することにより監視レベルを維持しつつも、監視画像のデータ量を小さくして通信負荷を低減させることができる。
 以上のとおり、本実施形態の監視システムは以下の効果を奏する。
(1)本例の監視システム1は、ランダムに走行する複数の移動体Vのカメラ11a~11dが撮像する画像のうち、監視者が実際に必要とする特定の注視方向の監視画像を送出させ、監視者が必要としない監視画像の送出を抑制するので、監視レベルを維持しつつも通信量を低減させることができる。
(2)本例の監視システム1は、監視者が実際に必要とする特定された注視方向に基づいて設定された注視領域の監視画像を送出させ、監視者が必要としない監視画像の送出を抑制するので、監視レベルを維持しつつも通信量を低減させることができる。
(3)本例の監視システム1は、注視方向の経時的な変化に基づいて注視領域を設定するので、監視者が監視対象を追跡したい場合などに、適切な領域の監視画像を得ることができる。
(4)本例の監視システム1は、注視方向を特定する場合には、範囲を絞る代わりに画質を向上させるので、監視者が注視したい領域について解像度の高い監視画像を得ることができる。
(5)本例の監視システム1は、特定の注視方向が入力されなかった場合には、通常状態において監視者が監視をすると予測される予め設定されたデフォルトの注視方向の監視画像を生成させるので、監視者の操作負担を軽減することができる。
(6)本例の監視システム1の監視端末装置10に位置検出手段を設けたので、移動体Vがランダムに動く(移動スケジュールが決まっていない)場合であっても、移動体Vの位置に基づいて、注視方向又は注視領域の監視画像を生成させる移動体Vを抽出し、その移動体Vに監視画像送出命令を送ることができる。
(7)本例の監視システム1の監視端末装置10が、移動体Vボディの外周に右回り又は左回りの方向に沿って設置された前記カメラの撮像画像が、当該カメラの設置の順序に従って配置された一枚の監視画像を生成し、移動体の載置面を底面とする柱体の投影モデルの側面に設定された投影面に前記監視画像を投影するためのマッピング情報を、前記監視画像に対応づけて付加するので、複数の撮像画像がカメラの設置順序で配置された一連(ひとつながり)の監視画像Kを柱体の側面に設定された投影面Sに投影することができる、このため、各端末装置の備える機能にかかわらず、撮像方向の異なる複数の撮像画像から生成された監視画像Kを動画として再生することができる。
(8)本例における監視方法を使用した場合においても、監視システム1と同様の作用を奏し、同様の効果を得ることができる。
 なお、以上説明したすべての実施形態は、本発明の理解を容易にするために記載されたものであって、本発明を限定するために記載されたものではない。したがって、上記の実施形態に開示された各要素は、本発明の技術的範囲に属する全ての設計変更や均等物をも含む趣旨である。
 本明細書では、本発明に係る監視端末装置と中央監視装置を備える監視システムの一態様として、監視端末装置10と中央監視装置20を備える監視システム1を例にして説明するが、本発明はこれに限定されるものではない。
 また、本明細書では、本発明に係る命令生成手段と、命令送出手段とを備える中央監視装置の一態様として、命令生成機能と、命令送出機能を有する制御装置21と、画像処理装置22と、通信装置23と、ディスプレイ24と、入力装置25とを備える中央監視装置20を例にして説明するが、これに限定されるものではない。
 また、本明細書では、本発明に係る監視画像生成手段と、監視画像送出手段と、位置検出手段を備える監視端末装置の一態様として、監視画像生成機能と、監視画像送出機能を有する制御装置14と、カメラ11a~11dと、画像処理装置12と、通信装置13と、位置検出装置15とを備える監視端末装置10を例にして説明するが、これに限定されるものではない。
 なお、上述した実施形態では、乗用車Vの位置情報とカメラ11a~11dからの監視画像を取得するようにしたが、図1に示す、街中に設置された固定カメラ11fからの監視画像と組み合わせて取得してもよい。また、位置情報と監視画像を取得する乗用車Vは、図1に示すように予め決められた領域を走行するタクシーV1やバスを用いることが望ましいが、自家用自動車V2や緊急自動車V3を用いてもよい。
1…監視システム
 10…監視端末装置
  11,11a~11d…カメラ
  11f…街中固定カメラ
  12…画像処理装置
  13…通信装置
  14…制御装置
  15…位置検出装置
 20…中央監視装置
  21…中央制御装置
  22…画像処理装置
  23…通信装置
  24…ディスプレイ
  25…入力装置
 30…電気通信回線網
V,V1,V2,V3…移動体
M…投影モデル
S,Sa,Sb、Sc、Sd…投影面
R1~R8…視点
K…監視画像

Claims (8)

  1.  中央監視装置と、複数の移動体にそれぞれ搭載され、当該中央監視装置と無線通信を介して情報の授受が可能な監視端末装置と、を備える監視システムであって、
     前記中央監視装置は、
     監視者が注視したい特定の注視方向が入力された場合には、前記監視端末装置に当該監視端末装置が搭載された前記移動体の周囲のうち、前記特定された注視方向の監視画像を生成させるとともに、当該生成された監視画像を前記中央監視装置へ送出させる監視画像送出命令を生成する命令生成手段と、
     前記生成された監視画像送出命令を、選択された監視端末装置に送出する命令送出手段と、を備え、
     前記監視端末装置は、
     前記各移動体の周囲を撮像するカメラと、
     前記中央監視装置から取得した前記監視画像送出命令に従い、当該監視画像送出命令に含まれる前記注視方向を撮像した撮像画像に基づいて監視画像を生成する監視画像生成手段と、
     前記撮像画像送出命令に従い、前記生成された監視画像を含む監視情報を前記中央監視装置に送出する監視情報送出手段と、を備えることを特徴とする監視システム。
  2.  前記中央監視装置の命令生成手段は、
     前記特定された注視方向に基づいて設定された注視領域の監視画像を生成させる指令を含む監視画像送出命令を生成し、
     前記監視端末装置の監視画像生成手段は、
     前記監視画像送出命令により生成を指令された前記注視領域を撮像した撮像画像に基づいて監視画像を生成することを特徴とする請求項1に記載の監視システム。
  3.  前記監視領域は、前記特定された注視方向の変化に基づいて設定されることを特徴とする請求項2に記載の監視システム。
  4.  前記中央監視装置の命令生成手段は、
     前記注視方向又は前記注視領域が特定された場合には、当該注視方向又は注視領域が特定される前の所定の画質よりも高い画質で監視画像を生成させる指令を含む監視画像送出命令を生成し、
     前記監視端末装置の監視画像生成手段は、
     前記監視画像送出命令に含まれる画質で監視画像を生成することを特徴とする請求項1~3の何れか一項に記載の監視システム。
  5.  前記中央監視装置の命令生成手段は、
     前記特定の注視方向が入力されなかった場合には、前記監視端末装置に当該監視端末装置が搭載された前記移動体の周囲のうち、予め設定されたデフォルトの注視方向の監視画像を生成させるとともに、当該生成された監視画像を前記中央監視装置へ送出させる監視画像送出命令を生成することを特徴とする請求項1~3の何れか一項に記載の監視システム。
  6.  前記監視端末装置は、
     複数の移動体のそれぞれの位置情報を検出する位置検出手段をさらに備え、
     前記監視情報送出手段は、前記位置情報を前記監視情報に含ませて前記中央管理装置に送出することを特徴とする請求項1~5の何れか一項に記載の監視システム。
  7.  前記監視端末装置の前記カメラは、移動体のボディの異なる位置に設置され、
     前記監視画像生成手段は、
     前記移動体のボディの外周に右回り又は左回りの方向に沿って設置された前記カメラの撮像画像が、当該カメラの設置の順序に従って配置された一枚の監視画像を生成し、
     前記移動体の載置面を底面とする柱体の投影モデルの側面に設定された投影面に前記監視画像を投影するためのマッピング情報を、前記監視画像に対応づけて付加することを特徴とする請求項1~6の何れか一項に記載の監視システム。
  8.  監視者が注視したい特定の注視方向が入力された場合には、前記特定された注視方向の監視画像を生成させるとともに、当該生成された監視画像を含む監視情報を前記監視者へ送出させる監視画像送出命令を生成し、無線通信を介して監視画像送出命令を送出するステップと、
     前記無線通信を介して取得した前記監視画像送出命令に従い、当該監視画像送出命令に含まれる注視方向を前記移動体に設けられたカメラで撮像した撮像画像に基づいて生成された監視画像を含む監視情報を、前記無線通信を介して取得するステップと、を有する監視方法。
PCT/JP2012/081497 2011-12-22 2012-12-05 監視システム WO2013094406A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013550208A JP5796638B2 (ja) 2011-12-22 2012-12-05 監視システム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011280913 2011-12-22
JP2011-280913 2011-12-22

Publications (1)

Publication Number Publication Date
WO2013094406A1 true WO2013094406A1 (ja) 2013-06-27

Family

ID=48668305

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/081497 WO2013094406A1 (ja) 2011-12-22 2012-12-05 監視システム

Country Status (2)

Country Link
JP (1) JP5796638B2 (ja)
WO (1) WO2013094406A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103366525A (zh) * 2013-07-03 2013-10-23 战国新 一种多警指挥中心智能管理平台
JP2021033934A (ja) * 2019-08-29 2021-03-01 Kddi株式会社 移動可能な画像生成元の画像を用いて多視点画像を生成する方法、装置及びプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001189927A (ja) * 1999-12-28 2001-07-10 Tokyo Gas Co Ltd 移動ステーションおよび制御ステーションならびに擬似体験システム
JP2006245746A (ja) * 2005-03-01 2006-09-14 Hitachi Kokusai Electric Inc 監視システム
JP2009100095A (ja) * 2007-10-15 2009-05-07 Alpine Electronics Inc 画像処理装置及び画像処理方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4218307B2 (ja) * 2002-10-25 2009-02-04 株式会社日立製作所 全方位画像生成方法及び装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001189927A (ja) * 1999-12-28 2001-07-10 Tokyo Gas Co Ltd 移動ステーションおよび制御ステーションならびに擬似体験システム
JP2006245746A (ja) * 2005-03-01 2006-09-14 Hitachi Kokusai Electric Inc 監視システム
JP2009100095A (ja) * 2007-10-15 2009-05-07 Alpine Electronics Inc 画像処理装置及び画像処理方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103366525A (zh) * 2013-07-03 2013-10-23 战国新 一种多警指挥中心智能管理平台
JP2021033934A (ja) * 2019-08-29 2021-03-01 Kddi株式会社 移動可能な画像生成元の画像を用いて多視点画像を生成する方法、装置及びプログラム
JP7163257B2 (ja) 2019-08-29 2022-10-31 Kddi株式会社 移動可能な画像生成元の画像を用いて多視点画像を生成する方法、装置及びプログラム

Also Published As

Publication number Publication date
JP5796638B2 (ja) 2015-10-21
JPWO2013094406A1 (ja) 2015-04-27

Similar Documents

Publication Publication Date Title
JP5648746B2 (ja) 車両用監視装置、車両用監視システム、端末装置及び車両の監視方法
JP5786963B2 (ja) 監視システム
JP5811190B2 (ja) 監視システム
WO2012137367A1 (ja) 画像蓄積システム
JP6260174B2 (ja) 監視画像提示システム
KR20140105881A (ko) 자동차 블랙박스 영상물 실시간 수집 시스템 및 방법
WO2013111494A1 (ja) 監視システム
JP4048292B2 (ja) 交通情報表示システム及び撮像画像送信装置並びに車載用の情報表示装置と記憶媒体
JP5796638B2 (ja) 監視システム
WO2013161345A1 (ja) 監視システム及び監視方法
KR20150002994A (ko) 신뢰성 있게 차량 주변 영상을 제공하는 장치
WO2013111492A1 (ja) 監視システム
WO2013111491A1 (ja) 監視システム
WO2013111479A1 (ja) 監視システム
JP5790788B2 (ja) 監視システム
CN216331763U (zh) 一种集成全景功能和bsd功能的智能汽车电子后视镜设备
WO2013111493A1 (ja) 監視システム
JP4696825B2 (ja) 車両用死角映像表示装置
WO2013125301A1 (ja) 監視システム
JP6563694B2 (ja) 画像処理装置、画像処理システム、画像合成装置、画像処理方法及びプログラム
WO2013129000A1 (ja) 監視システム
JP5812105B2 (ja) 監視システム
WO2013136894A1 (ja) 監視システム及び監視方法
CN112277806B (zh) 全景泊车影像系统
JP4407246B2 (ja) 車両周辺モニタシステムおよび車両周辺モニタ方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12859337

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2013550208

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12859337

Country of ref document: EP

Kind code of ref document: A1