WO2012160902A1 - 車両用監視装置及び車両の監視方法 - Google Patents

車両用監視装置及び車両の監視方法 Download PDF

Info

Publication number
WO2012160902A1
WO2012160902A1 PCT/JP2012/060303 JP2012060303W WO2012160902A1 WO 2012160902 A1 WO2012160902 A1 WO 2012160902A1 JP 2012060303 W JP2012060303 W JP 2012060303W WO 2012160902 A1 WO2012160902 A1 WO 2012160902A1
Authority
WO
WIPO (PCT)
Prior art keywords
monitoring
image
vehicle
level
captured
Prior art date
Application number
PCT/JP2012/060303
Other languages
English (en)
French (fr)
Inventor
照久 高野
真史 安原
Original Assignee
日産自動車株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日産自動車株式会社 filed Critical 日産自動車株式会社
Priority to EP12789798.1A priority Critical patent/EP2717571B1/en
Priority to CN201280024310.6A priority patent/CN103548340B/zh
Priority to US14/119,324 priority patent/US9842261B2/en
Priority to JP2013516250A priority patent/JP5561433B2/ja
Publication of WO2012160902A1 publication Critical patent/WO2012160902A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R25/00Fittings or systems for preventing or indicating unauthorised use or theft of vehicles
    • B60R25/30Detection related to theft or to other events relevant to anti-theft systems
    • B60R25/305Detection related to theft or to other events relevant to anti-theft systems using a camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/188Capturing isolated or intermittent images triggered by the occurrence of a predetermined event, e.g. an object reaching a predetermined position

Definitions

  • the present invention relates to a vehicle monitoring apparatus and a vehicle monitoring method for monitoring the surroundings of a vehicle using a camera installed in the vehicle.
  • Patent Document 1 there is a known security device that, when an external stimulus detected by a door contact sensor or the like is detected, causes the camera to image the surroundings and transfers the image information to an external mobile phone or the like.
  • the problem to be solved by the present invention is to reduce the amount of communication data when a captured image of a camera is transmitted to an external terminal device.
  • a monitoring image is displayed in any display mode selected from moving images, streaming images, or still images according to the monitoring level determined from the situation of the vehicle. Generated and transmitted to the outside, the higher the monitoring level determined from the vehicle status, the higher the frame rate, the higher the frame rate display mode, or the compression rate corresponding to the monitoring level determined from the vehicle status.
  • the video to be monitored can be displayed in an appropriate display mode, and the captured image of the camera can be displayed.
  • the total data amount of the monitoring image transmitted for monitoring the surroundings of the vehicle can be reduced as compared with the case where the image is transmitted while being imaged.
  • the monitoring image obtained by compressing the captured image with the compression rate corresponding to the monitoring level is sent to the external terminal device, the surroundings of the vehicle are monitored rather than the case where the captured image of the camera is transmitted as it is. Therefore, it is possible to reduce the total amount of monitoring image data transmitted for the purpose. As a result, the communication cost required for vehicle monitoring can be reduced.
  • FIG. It is a figure for demonstrating the coordinate value of the difference image shown in FIG. It is a figure which shows an example of the monitoring image transmitted outside in the monitoring apparatus of 4th Embodiment. It is a figure for demonstrating the production
  • FIG. 1 is a block configuration diagram of a vehicle monitoring system 1000 including a monitoring device 100 according to the present embodiment.
  • a vehicle monitoring system 1000 according to the present embodiment includes four cameras 1a to 1d (hereinafter sometimes collectively referred to as cameras 1) installed in the vehicle.
  • FIG. 2 is a diagram showing an arrangement example when the cameras 1a to 1d are attached to the vehicle V.
  • the cameras 1a to 1d are configured by using an image sensor such as a CCD (Charge Coupled Devices) and are installed at different positions outside the vehicle V, respectively, and take images in four directions around the vehicle.
  • the camera 1a installed at a predetermined position in front of the vehicle V such as the vicinity of the front grille is an image of an object or road surface existing in the area SP1 in front of the vehicle V and in the space in front thereof. Take a picture (front view image).
  • the camera 1d installed at a predetermined position on the left side of the vehicle V, such as a left side mirror, captures an image of an object or road surface (left side view image) existing in the space SP2 on the left side of the vehicle V and in the surrounding space.
  • a camera 1c installed at a predetermined position behind the vehicle V, such as a roof spoiler, captures an image (rear view image) of an object or road surface that exists in the area SP3 behind the vehicle V and in the space behind it.
  • the camera 1b installed at a predetermined position on the right side of the vehicle V, such as a right side mirror, displays an image of an object or road surface (right side view image) existing in the space SP4 on the right side of the vehicle V and in the surrounding space.
  • the control device 10 acquires captured images captured by the cameras 1a to 1d.
  • the number and positions of the cameras 1 can be determined as appropriate according to the size and shape of the vehicle V, the detection area setting method, and the like.
  • the plurality of cameras 1 described above are assigned identifiers corresponding to respective addresses (arrangements), and the control device 10 can identify each camera 1 based on each identifier. Further, the control device 10 can send an activation command and other commands to the specific camera 1 by attaching an identifier.
  • proximity sensors 2a to 2d are arranged in the vicinity of the cameras 1a to 1d.
  • the proximity sensors 2a to 2d are ultrasonic sensors that can detect whether an object exists in a predetermined region around the vehicle V, or whether an object around the vehicle is approaching or separated from the vehicle V, infrared rays Sensors, electrostatic sensors and the like.
  • the vehicle monitoring system 1000 of the present embodiment further includes a monitoring device 100, a vehicle controller 200, a communication device 400, and an external terminal device 800.
  • the vehicle monitoring system 1000 can include an ignition switch 300 that can exchange information with the vehicle controller 200.
  • Each of these apparatuses is connected by CAN (Controller
  • CAN Controller
  • the monitoring device 100 can communicate with an external terminal device 800 (computer) including a mobile phone, a smartphone, or other communication device 810 via the communication device 400.
  • the external terminal device 800 includes a communication device 810, an image processing device 820, and a display 830.
  • the communication device 810 acquires a captured image from the vehicle monitoring device 100 side, and the image processing device 820 displays a display mode ( Image processing necessary for display is executed according to (moving image, streaming, or still image), and the display 830 displays the captured image.
  • a user who owns the external terminal device 800 can check the captured image of the vehicle transmitted from the vehicle monitoring device 100 using the external terminal device 800.
  • the control device 10 of the monitoring device 100 determines the monitoring level, generates a monitoring image in a display mode according to the monitoring level, and sends it to the external terminal device 800.
  • a RAM (Random Access Memory) 13 that functions as a device is provided.
  • the control apparatus 10 of the monitoring apparatus 100 executes each function by cooperation of software for realizing a monitoring level determination function, a monitoring image generation function, and a transmission function, and the hardware described above. be able to.
  • the control device 10 transmits each control command will be described as an example.
  • the control device 10 of the present embodiment may control the camera 1 and the communication device 400 via the vehicle controller 200. Is possible.
  • the monitoring device 100 receives the engine off signal input to the ignition switch 300 and the electronic key of the vehicle V having a communication function does not exist in the vicinity of the vehicle V (electronic key).
  • the monitoring process can be started when the user carrying the camera is away from the vehicle V) or when a monitoring image request command is received from the external terminal device 800 of the user.
  • the trigger for the monitoring process is not limited to this, and the monitoring apparatus 100 detects when an unillustrated sonar detects an object around the vehicle V, or when the door contact sensor detects an abnormality such as contact with the door.
  • the anomaly sensor detects an abnormality such as vehicle tilt (getting in), or when the anomaly detection sensor detects an anomaly such as opening a door or breaking a window, an object to be monitored is detected from the captured image of the camera 1
  • the monitoring process can be started when an input signal is input to a switch (not shown) of the monitoring apparatus 100.
  • the monitoring device 100 includes an image processing control unit (Image Processing Unit: IPCU).
  • IPCU Image Processing Unit
  • the control device 10 analyzes the captured image of each camera 1 using the image processing control unit, extracts an image corresponding to the object from the captured image data, and further detects the object detected based on the amount of movement of the extracted image Whether or not is a moving object, and if it is a moving object, the amount of movement can be calculated. Further, the control device 10 can calculate a change in the position of the object over time from the change in the captured image. Based on the change in the position of the object over time, the control device 10 can detect the monitoring target object. For these image processes, a method known at the time of filing can be used.
  • the control device 10 of the monitoring device 100 detects information (signal) indicating the vehicle V or a situation around the vehicle V, and this vehicle based on the detected vehicle status (information corresponding to the vehicle status). Determine the monitoring level of V.
  • the control device 10 has a high possibility of danger in the vehicle when the “monitoring target object existing around the vehicle V” is detected from the captured images captured by the cameras 1a to 1d. It is conceivable that.
  • the monitoring target object in the present embodiment is an object having a height and movable, such as a human being.
  • the control device 10 determines that a monitoring target object has been detected when an image corresponding to an object having a predetermined height or more is detected from the captured image of the camera 1 and the position of the image changes over time. Can do.
  • the above-described image processing control unit Image Processing Control Unit: ⁇ ⁇ ⁇ IPCU
  • the control device 10 can detect the presence of the monitoring target object that moves by using the detection results of the proximity sensors 2a to 2d.
  • control device 10 of the present embodiment analyzes the captured image captured by the camera 1 with time, and if a “monitoring target object approaching the vehicle V” is detected from the captured image, the control device 10 is dangerous to the vehicle. Is likely to occur.
  • the control device 10 It can be determined whether or not the monitored object is approaching the vehicle V.
  • the control device 10 may cause danger to the vehicle when “a monitoring target object staying in a region near the vehicle V for a predetermined time or longer” is detected from the captured image captured by the camera 1. Is considered high.
  • the control apparatus 10 determines that the area of the image corresponding to the monitoring target object detected from the captured image is equal to or larger than the predetermined value range for a predetermined time, or the existence distance of the monitoring target object detected by the proximity sensors 2a to 2d is the predetermined time. It is possible to determine whether or not the monitoring target object is staying around the vehicle V by being less than the predetermined value.
  • the control device 10 of the present embodiment acquires an abnormality occurrence signal from various vehicle state detection sensors provided in the vehicle V, it is considered that there is a high possibility that the vehicle will be in danger.
  • an abnormality detection sensor included in the vehicle V a contact sensor that detects that a human body or the like has come into contact with the vehicle when the engine is off, an unlocking sensor that detects unlocking (opening) of the door when the engine is off, and a human body when the engine is off.
  • a vehicle monitoring sensor known at the time of filing can be used, such as an inclination sensor that detects the inclination of the vehicle when a force is applied to the vehicle or a human body gets into the vehicle.
  • control device 10 of the present embodiment does not detect the monitoring target object from the captured image of the camera 1 or moves away from the vehicle V even if the monitoring target object is detected, or generates an abnormality occurrence signal from the vehicle. If not received, it can be determined that there is no high possibility of danger in the vehicle.
  • FIG. 3 is a diagram illustrating an example of a correspondence relationship between a vehicle situation and a monitoring level.
  • the monitoring level is determined to be the most enhanced level 7
  • the monitoring target object detected from the captured image of the camera 1 stays in the vicinity of the vehicle for a predetermined time or more, there is a high probability of causing harm to the vehicle, such as trying to open the door of the vehicle.
  • the monitoring level is the next enhanced level 6. Since the monitoring level is determined to be the next enhanced level 5 and a monitoring target object is detected from the captured image of the camera 1, the suspicious person is in the vehicle. Touch Monitoring levels since situations Runado is considered it can be determined that the next level 4.
  • the above level 7 to level 4 can be defined as enhancement levels at which monitoring should be enhanced. As the monitoring level increases, the numerical value indicating the enhancement level for strengthening the monitoring increases.
  • the monitoring target object detected from the captured image of the camera 1 is separated from the vehicle, the monitoring target object is considered to be a passerby that passes by the vehicle.
  • the level can be determined to be the next level 3. If the object detected from the captured image of the camera 1 is a stationary object, it is considered that a building or the like has been detected. If the monitoring image request command is received from the user's external terminal device 800, the monitoring level can be determined to be a lower level 1 because it is not a situation based on the situation of the vehicle.
  • the above levels 3 to 1 can be defined as standard levels for which normal monitoring may be performed.
  • the control device 10 of the present embodiment captures an image captured by the camera 1 in a display mode of the number of frames per unit time (hereinafter also referred to as a frame rate) obtained according to the defined (determined) monitoring level.
  • a monitoring image based on the is generated.
  • the frame rate in this embodiment means the number of frames per unit time.
  • the unit time here can be arbitrarily set, and the unit time is not limited to 1 second.
  • the control device 10 of the present embodiment When it is determined that the monitoring level is the enhanced level (for example, levels 7 to 4 shown in FIG. 3), the control device 10 of the present embodiment is installed in the vehicle according to the enhanced level.
  • One of the monitoring images having a different frame rate of a moving image, streaming video, or still image based on the captured image captured by the captured camera is generated.
  • the control device 10 of the present embodiment generates a monitoring image with a higher frame rate as the enhancement level is higher.
  • the control device 10 of the present embodiment when the monitoring level is the standard level (default monitoring level), the control device 10 of the present embodiment generates a still image monitoring image with the lowest frame rate, and the monitoring level is higher than the standard level.
  • the enhancement level a streaming video or moving image monitoring image having a frame rate higher than that of the still image is generated.
  • the frame rate is the number of frames per unit time (number of images), and the unit time may be 1 second or a plurality of seconds.
  • a still image has a single image captured or displayed in a unit time, and a streaming video or moving image has a plurality of images captured or displayed in a unit time.
  • the number of frames (frame rate) per unit time of the moving image is larger than the number of frames (frame rate) per unit time of the streaming video. Note that the number of frames per unit time (frame rate) defined as streaming video and the number of frames per unit time (frame rate) defined as moving images can be set as appropriate.
  • the monitoring when it is determined that the monitoring level is high and a monitoring image that indicates the movement of the monitoring target object around the vehicle is requested in order to enhance the monitoring, the monitoring such as a high frame rate video or streaming image can be detected. Images can be generated and provided.
  • the control device 10 when it is determined that the monitoring level is the standard level (for example, levels 3 to 1 shown in FIG. 3), the control device 10 according to the present embodiment sets the standard level (monitoring level). Accordingly, it is possible to generate a monitoring image in a display mode (for example, a still image) with a low frame rate applied during normal monitoring (when the monitoring level is not strengthened). Note that the display mode applied during normal monitoring is not limited to still images.
  • the control device 10 of the present embodiment sets the frame rate (fps: frame per second) to about 30, that is, a unit time (for example, 1 second). ), A monitoring image of a moving image in which 30 captured images can be continuously reproduced is generated. That is, when the monitoring level is high, it is possible to generate a moving image monitoring image with a high frame rate that makes it easy to understand the movement of the monitoring target object. Furthermore, as shown in the figure, the frame rate of the monitoring image can be lowered as the monitoring level is lowered (the degree of enhancement of monitoring is lowered). Specifically, the frame rate is about 20 when the monitoring level is level 6, the frame rate is about 10 when the monitoring level is level 5, and the frame rate is about 5 when the monitoring level is level 4. be able to.
  • the frame rate in this embodiment is the number of images reproduced per unit time
  • a still image can be obtained when the frame rate is 1
  • a moving image can be obtained when the frame rate is about 30 to 20.
  • a monitoring image can be obtained and the frame rate is about 10 to 5
  • there is no smoothness as a moving image but a monitoring image of a streaming video that can show the motion of the monitoring target object by frame advance is obtained. be able to.
  • the numerical value of the frame rate increases, it is possible to obtain a monitoring image that is smoother and easier to understand the movement of the monitoring target object.
  • the frame rate value increases, the amount of data transmitted to the external terminal device 800 increases and the communication cost also increases.
  • the control device 10 of this embodiment can generate a monitoring image at a default frame rate when the monitoring level is a standard monitoring level of 3 or less.
  • a monitoring level when the monitoring level is level 3, a still image with a frame rate of 1 can be generated.
  • the default frame rate is single is shown, but a plurality of values of 2 or 3 is also possible.
  • a common frame rate can be applied.
  • FIG. 3 is merely an example of the frame rate, and the frame rate according to the monitoring level can be arbitrarily set.
  • a high frame rate video or streaming video When monitoring images can be generated, but it is only necessary to check the conditions around the vehicle with low urgency, a single frame rate can be used to generate only a static state but a small amount of monitoring images. can do. Thereby, while generating a monitoring image having a different display mode depending on the monitoring level, it is possible to reduce the amount of data by sending a still image when there is no need to track movement. As a result, the total amount of communication data when transmitting the monitoring image to the external terminal device 800 can be reduced, and the communication cost when the monitoring system is operating can be reduced.
  • the control device 10 when the time when the monitoring level is detected is after sunset, the control device 10 according to the present embodiment monitors the frame rate by correcting the number of frames per unit time determined according to the monitoring level to be high. An image can be generated. Since it is generally dark after sunset, it is often difficult to obtain a clear captured image. For this reason, the control apparatus 10 of this embodiment correct
  • the time of the clock provided in the control device 10 and the sunset time information corresponding to the point may be obtained by comparison, or the illuminance provided in the vehicle
  • the brightness around the vehicle may be detected from the sensor, or the ambient brightness may be detected using the CCD element of the camera 1.
  • control device 10 can maintain or correct the frame rate determined according to the monitoring level.
  • control apparatus 10 of the present embodiment can increase the frame rate of the captured image of the camera 1 that has detected the monitoring target object from the viewpoint of obtaining a monitoring image in a display mode that can track the movement. Specifically, when the monitoring target object is included in the captured image captured by the camera 1, the control device 10 displays the corrected frame rate by correcting the frame rate obtained according to the monitoring level to be high. The monitoring image of the captured image captured by the camera 1 can be generated.
  • a monitoring image that can track the movement of the monitoring target object is required. There is a case where it is not necessary to convert the monitoring image into a moving image or streaming video.
  • only the display mode of the monitoring image based on any of the captured images of the cameras 1a to 1d that captured the captured image including the image corresponding to the monitoring target object is a moving image or streaming video, and the other cameras 1a to 1d are used.
  • the monitoring image based on the captured image is a still image, so that the movement of the monitoring target object can be tracked, and the total data amount of the monitoring image to be finally transmitted to the external terminal device 800 can be reduced.
  • the control device 10 of the present embodiment can increase the frequency of generating the monitoring image.
  • the latest monitoring image is requested. Therefore, in order to meet this request, the control of this embodiment is performed.
  • the apparatus 10 can generate the latest monitoring image with high frequency. If the generated monitoring image is sequentially transmitted to the external terminal device 800, the user can check the latest vehicle situation by the external terminal device 800 in real time.
  • the control device 10 can transmit information including the generated monitoring image to the external terminal device 800 using the communication line 900 that can be used as a public communication network.
  • the control device 10 can store the moving image as a single moving image file, and when the monitoring image is a streaming video, the control device 10 can store it in a format that can be transferred and reproduced by a streaming method.
  • FIG. 4 is a flowchart showing a control procedure of the vehicle monitoring system 1000 according to the present embodiment.
  • step 10 the control device 10 of the monitoring device 100 according to the present embodiment determines whether it is the monitoring start timing. In the present embodiment, when the engine is OFF and the vehicle key is not nearby, the timing at which the monitoring image request command is received from the external terminal device 800 possessed by the user is recognized as the monitoring start timing, and the monitoring process is started. To do.
  • the monitoring apparatus 100 acquires vehicle status information that is information indicating the status of the vehicle V or the surroundings of the vehicle V. Specifically, the monitoring device 100 acquires an abnormality occurrence signal from various vehicle state detection sensors such as a door contact sensor, a tilt sensor, and an abnormality detection sensor, and acquires a captured image of each imaging region captured by the camera 1. To do.
  • step 12 if the control device 10 has acquired an abnormality occurrence signal from various vehicle state detection sensors such as a door contact sensor, a tilt sensor, and an abnormality detection sensor, the process proceeds to step 17.
  • various vehicle state detection sensors such as a door contact sensor, a tilt sensor, and an abnormality detection sensor
  • step 13 the control device 10 determines based on the captured image captured by the camera 1 whether there is a monitoring target object. If there is no monitoring target object, the process waits for a monitoring image request in step 16, and if the monitoring image request is not input, the processing from step 11 is continued. If a monitoring image request is accepted in step 16, the process proceeds to step 17.
  • step 14 If a monitoring target object is detected in step 13, it is determined in step 14 whether the monitoring target object is approaching the vehicle. If it is determined in step 14 that an object to be monitored is detected but not approaching the vehicle, the process proceeds to step 17.
  • step 15 determines whether or not the monitoring target object stays around the vehicle for a predetermined time or more. Judging.
  • the monitoring target object exists and is approaching the vehicle, but has not stayed around the vehicle for a predetermined time or when the monitoring target object is present and approaches the vehicle, and further around the vehicle. In any case where the user stays for a predetermined time or longer, the process proceeds to Step 17.
  • step 17 the control device 10 determines the monitoring level of the vehicle V based on the vehicle situation acquired in the process of steps 12 to 16.
  • the correspondence shown in FIG. 3 can be referred to.
  • step 18 the control device 10 obtains the frame rate or display mode corresponding to the monitoring level.
  • the correspondence shown in FIG. 3 can be referred to.
  • step 19 the control device 10 generates a monitoring image having a display mode corresponding to the calculated frame rate. The generated monitoring image is stored at least temporarily.
  • step 20 the control device 10 transmits information including the generated monitoring image to the external terminal device 800, and the processing is repeated until it is determined in step 21 that the monitoring processing is finished.
  • step 31 the external terminal device 800 receives the monitoring image sent from the monitoring device 100 by the communication device 810, the image processing device 820 performs necessary image processing in step 32, and the display 830 designates in step 33.
  • the information including the monitoring image of the display mode is displayed.
  • the monitoring method of the vehicle V can control the camera 1 and the communication device 400.
  • a part of or all of the processing can be executed in a server (computer / control device) capable of exchanging information with a client (computer / control device).
  • the server can be located remotely from the client.
  • the monitoring device 100 and the vehicle monitoring system 1000 according to the embodiment of the present invention configured and operating as described above have the following effects.
  • an image is captured by the camera 1 installed in the vehicle V in a display mode obtained based on the monitoring level determined based on the vehicle V or a vehicle situation around the vehicle V. Since the monitored image of the captured image is transmitted to the external terminal device 800, the video to be monitored can be shown in an appropriate display mode, and the surroundings of the vehicle can be compared to the case where the captured image of the camera is transmitted as it is. It is possible to reduce the total amount of monitoring image data transmitted to monitor the image. As a result, the communication cost required for vehicle monitoring can be reduced.
  • the same effect as the monitoring device 100 can be obtained and the same effect can be obtained.
  • the monitoring device 100 when the presence of the monitoring target object is detected from the captured image captured by the camera 1, the monitoring level of the vehicle V is determined as the enhancement level, and the normal frame rate is determined. Since the monitoring image of a moving image or streaming video with a higher frame rate is transmitted to the external terminal device 800, when enhancing the monitoring, the monitoring image of the moving image or streaming video that can track the movement of the monitoring target object by increasing the frame rate When it is not necessary to enhance the monitoring, the frame rate can be lowered to generate a monitoring image with a small data amount. As a result, the communication cost required for vehicle monitoring can be reduced.
  • the monitoring apparatus 100 when a monitoring target object approaching the vehicle V is detected from the captured image captured by the camera 1, the monitoring level of the vehicle V is determined as the enhancement level, Since a monitoring image of a moving image or streaming video with a frame rate higher than the frame rate is transmitted to the external terminal device 800, when enhancing the monitoring, a moving image or streaming video capable of tracking the movement of the monitoring target object by increasing the frame rate When it is not necessary to strengthen the monitoring, the frame rate can be lowered to generate a monitoring image with a small amount of data. As a result, the communication cost required for vehicle monitoring can be reduced.
  • the monitoring apparatus 100 when a monitoring target object staying in a region near the vehicle V for a predetermined time or longer is detected from a captured image captured by the camera 1, the monitoring level of the vehicle V is enhanced. Since the moving image or streaming video monitoring image having a frame rate higher than the normal frame rate is transmitted to the external terminal device 800, the frame rate is increased to increase the motion of the monitoring target object. A monitoring image of a moving image or streaming video that can be tracked is generated, and when it is not necessary to enhance the monitoring, a frame rate can be lowered to generate a monitoring image with a small amount of data. As a result, the communication cost required for vehicle monitoring can be reduced.
  • the monitoring apparatus 100 when an abnormality occurrence signal is acquired from the vehicle V, the monitoring level of the vehicle V is determined as the enhancement level, and a moving image or streaming with a frame rate higher than the normal frame rate is determined. Since the monitoring image of the video is transmitted to the external terminal device 800, when enhancing the monitoring, it is necessary to increase the frame rate and generate a monitoring image of a moving image or streaming video that can track the movement of the monitoring target object, thereby enhancing the monitoring. When there is no image, it is possible to reduce the frame rate and generate a monitoring image with a small amount of data. As a result, the communication cost required for vehicle monitoring can be reduced.
  • the monitoring device 100 when a request for a monitoring image is acquired from the external terminal device 800, the monitoring level of the vehicle V is determined to be the standard level, and the display mode is equal to or less than the standard frame rate. Since the monitoring image is transmitted to the external terminal device 800, when it is not necessary to strengthen the monitoring, the frame rate can be lowered to generate a monitoring image with a small data amount. As a result, the communication cost required for vehicle monitoring can be reduced.
  • the monitoring device 100 when the time when the monitoring level is detected is after sunset, the monitoring image of the captured image with the frame rate corrected to be high is transmitted to the external terminal device 800. If there is a concern about insufficient exposure, the frame rate can be lowered to prevent the monitor image from becoming unclear.
  • a corrected image obtained by increasing the pressure frame rate obtained in accordance with the monitoring level is applied to the captured image captured by the camera 1 that captured the captured image including the monitoring target object. Since the monitoring image of the display mode is transmitted to the external terminal device 800, only the captured image of the camera 1 that captured the captured image including the image corresponding to the monitoring target object is generated as a high frame rate moving image or streaming video, By generating the captured image as a still image with a low frame rate, it is possible to reduce the total amount of monitoring image data to be finally transmitted to the external terminal device 800.
  • the frequency of generating the monitoring image can be increased, so that the monitoring that requires the latest monitoring image is required. Since the latest monitoring image can be generated frequently and transmitted to the external terminal device 800 at the time of strengthening, the user can check the latest vehicle status using the external terminal device 800.
  • a monitoring device 100 according to the second embodiment and a vehicle monitoring system including the monitoring device 100 will be described.
  • the configurations of the monitoring device 100 and the vehicle monitoring system 1000 of the second embodiment are basically the same as the configurations of the monitoring device 100 and the vehicle monitoring system 1000 of the first embodiment shown in FIGS.
  • the description in the first embodiment is used, and the following description focuses on the different points.
  • the control device 10 of the monitoring device 100 detects information (signal) indicating the vehicle V or a situation around the vehicle V, and this vehicle based on the detected vehicle status (information corresponding to the vehicle status). Determine the monitoring level of V.
  • the control device 10 has a high possibility of danger in the vehicle when the “monitoring target object existing around the vehicle V” is detected from the captured images captured by the cameras 1a to 1d. It is conceivable that.
  • the monitoring target object in the present embodiment is an object having a height and movable, such as a human being.
  • the control device 10 determines that a monitoring target object has been detected when an image corresponding to an object having a predetermined height or more is detected from the captured image of the camera 1 and the position of the image changes over time. Can do.
  • the above-described image processing control unit Image Processing Control Unit: ⁇ ⁇ ⁇ IPCU
  • the control device 10 can detect the presence of the monitoring target object that moves by using the detection results of the proximity sensors 2a to 2d.
  • control device 10 of the present embodiment analyzes the captured image captured by the camera 1 with time, and if a “monitoring target object approaching the vehicle V” is detected from the captured image, the control device 10 is dangerous to the vehicle. Is likely to occur.
  • the control device 10 It can be determined whether or not the monitored object is approaching the vehicle V.
  • the control device 10 may cause danger to the vehicle when “a monitoring target object staying in a region near the vehicle V for a predetermined time or longer” is detected from the captured image captured by the camera 1. Is considered high.
  • the control apparatus 10 determines that the area of the image corresponding to the monitoring target object detected from the captured image is equal to or larger than the predetermined value range for a predetermined time, or the existence distance of the monitoring target object detected by the proximity sensors 2a to 2d is the predetermined time. It is possible to determine whether or not the monitoring target object is staying around the vehicle V by being less than the predetermined value.
  • the control device 10 of the present embodiment acquires an abnormality occurrence signal from various vehicle state detection sensors provided in the vehicle V, it is considered that there is a high possibility that the vehicle will be in danger.
  • an abnormality detection sensor included in the vehicle V a contact sensor that detects that a human body or the like has come into contact with the vehicle when the engine is off, an unlocking sensor that detects unlocking (opening) of the door when the engine is off, and a human body when the engine is off.
  • a vehicle monitoring sensor known at the time of filing can be used, such as an inclination sensor that detects the inclination of the vehicle when a force is applied to the vehicle or a human body gets into the vehicle.
  • control device 10 does not detect the monitoring target object from the captured image of the camera 1 or moves away from the vehicle V even when the monitoring target object is detected, or receives an abnormality occurrence signal from the vehicle. If not, it can be determined that there is no high possibility of danger in the vehicle.
  • FIG. 5 is a diagram illustrating an example of a correspondence relationship between a vehicle situation and a monitoring level.
  • the monitoring level is determined to be the most enhanced level 7
  • the monitoring target object detected from the captured image of the camera 1 stays in the vicinity of the vehicle for a predetermined time or more, there is a high probability of causing harm to the vehicle, such as trying to open the door of the vehicle.
  • the monitoring level is the next enhanced level 6. Since the monitoring level is determined to be the next enhanced level 5 and a monitoring target object is detected from the captured image of the camera 1, the suspicious person is in the vehicle. Touch Monitoring levels since situations Runado is considered it can be determined that the next level 4.
  • the above level 7 to level 4 can be defined as enhancement levels at which monitoring should be enhanced. As the monitoring level increases, the numerical value indicating the enhancement level for strengthening the monitoring increases.
  • the monitoring target object detected from the captured image of the camera 1 is separated from the vehicle, the monitoring target object is considered to be a passerby that passes by the vehicle.
  • the level can be determined to be the next level 3. If the object detected from the captured image of the camera 1 is a stationary object, it is considered that a building or the like has been detected. If the monitoring image request command is received from the user's external terminal device 800, the monitoring level can be determined to be a lower level 1 because it is not a situation based on the situation of the vehicle.
  • the above levels 3 to 1 can be defined as standard levels for which normal monitoring may be performed.
  • the control device 10 generates a monitoring image obtained by compressing the captured image captured by the camera 1 with the data compression rate calculated according to the determined monitoring level.
  • the control device 10 uses the enhancement level according to the enhancement level. It is possible to generate a monitoring image obtained by compressing the captured image of the camera 1 at a compression rate lower than the standard compression rate (default compression rate) applied when there is no image. As a result, when it is determined that the monitoring level is high and a detailed monitoring image with a high image quality is required to enhance the monitoring, a monitoring image with a low data compression rate and a high image quality can be generated and provided. .
  • the standard compression rate default compression rate
  • the control device 10 when it is determined that the monitoring level is a standard level (for example, levels 3 to 1 shown in FIG. 5), the control device 10 according to the present embodiment performs normal operation according to the standard level.
  • a monitoring image obtained by compressing the captured image of the camera 1 at a compression rate equal to or higher than the standard compression rate (default compression rate) applied during monitoring (when the monitoring level is not strengthened) can be generated.
  • the control device 10 of the present embodiment generates a monitoring image with a compression rate of 100%, that is, a captured image as it is when the monitoring level is level 7. To do. That is, when the monitoring level is high, it is possible to generate a monitoring image that does not degrade the image quality of the captured image. Furthermore, as shown in the figure, as the monitoring level decreases (the degree of monitoring enhancement decreases), the compression rate when generating the monitoring image can be increased. Specifically, when the monitoring level is level 6, the compression rate is 90%, when the monitoring level is level 5, the compression rate is 80%, and when the monitoring level is level 4, the compression rate is 70%. be able to.
  • the compression rate in this embodiment is the degree of compression
  • the degree of compression increases as the numerical value of the compression rate decreases.
  • the control device 10 can generate a monitoring image at a compression rate equal to or lower than the default standard compression rate when the monitoring level is a standard monitoring level of 3 or lower.
  • the compression rate is 60% when the monitoring level is level 3
  • the compression rate is 50% when the monitoring level is level 2
  • the compression rate is 40 when the monitoring level is level 1. %.
  • a common standard compression rate may be applied.
  • FIG. 5 is merely an example of the compression rate, and the compression rate and the standard compression rate according to the monitoring level can be arbitrarily set.
  • a monitoring image by compressing a captured image at a compression rate corresponding to the monitoring level, if you want to obtain detailed information with high urgency, a high-quality monitoring image with a low compression rate.
  • a monitoring image with a small data amount can be generated even if the image quality is low due to the high compression rate.
  • the amount of data can be reduced by compression when detailed information is not required.
  • the total amount of communication data when transmitting the monitoring image to the external terminal device 800 can be reduced, and the communication cost when the monitoring system is operating can be reduced.
  • the control device 10 uses the corrected compression rate obtained by correcting the value of the compression rate obtained according to the monitoring level to be low.
  • the captured image can be compressed. Since it is generally dark after sunset, it is often difficult to obtain a clear captured image. For this reason, the control apparatus 10 of this embodiment correct
  • the time of the clock provided in the control device 10 and the sunset time information corresponding to the point may be obtained by comparison, or the illuminance provided in the vehicle
  • the brightness around the vehicle may be detected from the sensor, or the ambient brightness may be detected using the CCD element of the camera 1.
  • control device 10 can maintain or correct the compression ratio value determined according to the monitoring level.
  • control device 10 of the present embodiment can reduce the compression rate of the captured image of the camera 1 that has detected the monitoring target object from the viewpoint of obtaining a detailed monitoring image. Specifically, when the monitoring target object is included in the captured image captured by the camera 1, the control device 10 uses the corrected compression rate obtained by correcting the compression rate obtained according to the monitoring level to be low. It is possible to generate a monitoring image obtained by compressing the captured image captured by the above method.
  • the control device 10 of the present embodiment can increase the frequency of generating the monitoring image.
  • the latest monitoring image is requested. Therefore, in order to meet this request, the control of this embodiment is performed.
  • the apparatus 10 can generate the latest monitoring image with high frequency. If the generated monitoring image is sequentially transmitted to the external terminal device 800, the user can check the latest vehicle situation by the external terminal device 800 in real time.
  • the control device 10 can transmit information including the generated monitoring image to the external terminal device 800 using the communication line 900 that can be used as a public communication network.
  • the monitoring image may be stored as a single moving image file, or may be stored in a form that can be transferred and reproduced by a streaming method.
  • FIG. 6 is a flowchart showing a control procedure of the vehicle monitoring system 1000 according to the present embodiment.
  • step 10 the control device 10 of the monitoring device 100 according to the present embodiment determines whether it is the monitoring start timing. In the present embodiment, when the engine is OFF and the vehicle key is not nearby, the timing at which the monitoring image request command is received from the external terminal device 800 possessed by the user is recognized as the monitoring start timing, and the monitoring process is started. To do.
  • the control device 10 acquires vehicle status information that is information indicating the status of the vehicle V or the surroundings of the vehicle V.
  • the monitoring device 100 acquires an abnormality occurrence signal from various vehicle state detection sensors such as a door contact sensor, a tilt sensor, and an abnormality detection sensor, and acquires a captured image of each imaging region captured by the camera 1. To do.
  • step 12 if the control device 10 has acquired an abnormality occurrence signal from various vehicle state detection sensors such as a door contact sensor, a tilt sensor, and an abnormality detection sensor, the process proceeds to step 17.
  • various vehicle state detection sensors such as a door contact sensor, a tilt sensor, and an abnormality detection sensor
  • step 13 the control device 10 determines based on the captured image captured by the camera 1 whether there is a monitoring target object. If there is no monitoring target object, the process waits for a monitoring image request in step 16, and if the monitoring image request is not input, the processing from step 11 is continued. If a monitoring image request is accepted in step 16, the process proceeds to step 17.
  • step 14 If a monitoring target object is detected in step 13, it is determined in step 14 whether the monitoring target object is approaching the vehicle. If it is determined in step 14 that an object to be monitored is detected but not approaching the vehicle, the process proceeds to step 17.
  • step 15 determines whether or not the monitoring target object stays around the vehicle for a predetermined time or more. Judging.
  • the monitoring target object exists and is approaching the vehicle, but has not stayed around the vehicle for a predetermined time or when the monitoring target object is present and approaches the vehicle, and further around the vehicle. In any case where the user stays for a predetermined time or longer, the process proceeds to Step 17.
  • step 17 the control device 10 determines the monitoring level of the vehicle V based on the vehicle situation acquired in the process of steps 12 to 16.
  • the correspondence shown in FIG. 5 can be referred to.
  • step 18 the control device 10 calculates a compression rate according to the monitoring level.
  • the correspondence shown in FIG. 5 can be referred to.
  • step 19 the control device 10 generates a monitoring image obtained by compressing the captured image at the calculated compression rate. The generated monitoring image is stored at least temporarily.
  • step 20 the control device 10 transmits information including the generated monitoring image to the external terminal device 800, and the processing is repeated until it is determined in step 21 that the monitoring processing is finished.
  • step 31 the external terminal device 800 receives the monitoring image sent from the monitoring device 100 by the communication device 810, the image processing device 820 performs necessary image processing in step 32, and the display 830 monitors in step 33. Display information including images.
  • the monitoring method of the vehicle V can control the camera 1 and the communication device 400.
  • a part of or all of the processing can be executed in a server (computer / control device) capable of exchanging information with a client (computer / control device).
  • the server can be located remotely from the client.
  • the monitoring device 100 and the vehicle monitoring system 1000 according to the embodiment of the present invention configured and operating as described above have the following effects.
  • an image is captured by the camera 1 installed in the vehicle V at a compression rate calculated according to the monitoring level determined based on the vehicle V or a vehicle situation around the vehicle V. Since the monitoring image obtained by compressing the captured image is transmitted to the external terminal device 800, the total data amount of the monitoring image transmitted for monitoring the surroundings of the vehicle is reduced as compared with the case where the monitoring image is always transmitted at a constant compression rate. be able to. As a result, the communication cost required for vehicle monitoring can be reduced.
  • the same effect as the monitoring device 100 can be obtained and the same effect can be obtained.
  • the monitoring device 100 when the presence of the monitoring target object is detected from the captured image captured by the camera 1, the monitoring level of the vehicle V is determined as the enhancement level, and normal standard compression is performed. Since the monitoring image obtained by compressing the captured image at a compression rate lower than the rate is transmitted to the external terminal device 800, when enhancing the monitoring, it is necessary to lower the compression rate to generate a monitoring image with good image quality and to enhance the monitoring. When there is not, it is possible to generate a monitoring image with a small data amount by increasing the compression rate. As a result, the communication cost required for vehicle monitoring can be reduced.
  • the monitoring apparatus 100 when a monitoring target object approaching the vehicle V is detected from the captured image captured by the camera 1, the monitoring level of the vehicle V is determined as the enhancement level, Since the monitoring image obtained by compressing the captured image at a compression rate lower than the standard compression rate is transmitted to the external terminal device 800, when the monitoring is strengthened, the compression rate is lowered to generate a monitoring image with good image quality. When it is not necessary to reinforce, a monitoring image with a small data amount can be generated by increasing the compression rate. As a result, the communication cost required for vehicle monitoring can be reduced.
  • the monitoring apparatus 100 when a monitoring target object staying in a region near the vehicle V for a predetermined time or longer is detected from a captured image captured by the camera 1, the monitoring level of the vehicle V is enhanced. Since the monitoring image obtained by determining the level and compressing the captured image at a compression rate lower than the normal standard compression rate is transmitted to the external terminal device 800, when the monitoring is strengthened, the monitoring rate is improved by reducing the compression rate. When it is not necessary to enhance the monitoring, it is possible to increase the compression rate and generate a monitoring image with a small data amount. As a result, the communication cost required for vehicle monitoring can be reduced.
  • the monitoring apparatus 100 when an abnormality occurrence signal is acquired from the vehicle V, the monitoring level of the vehicle V is determined to be the enhancement level, and the captured image is captured at a compression rate lower than the normal standard compression rate. Is transmitted to the external terminal device 800.
  • the compression rate is reduced to generate a monitoring image with good image quality.
  • the compression rate is increased. A monitoring image with a small amount of data can be generated. As a result, the communication cost required for vehicle monitoring can be reduced.
  • the monitoring device 100 when a request for a monitoring image is acquired from the external terminal device 800, the monitoring level of the vehicle V is determined to be the standard level, and the compression rate is equal to or higher than the standard compression rate. Since the monitoring image obtained by compressing the captured image is transmitted to the external terminal device 800, when it is not necessary to enhance the monitoring, it is possible to generate a monitoring image with a small data amount by setting the compression rate to be equal to or higher than the standard compression rate. As a result, the communication cost required for vehicle monitoring can be reduced.
  • the monitoring device 100 when the time when the monitoring level is detected is after sunset, the monitoring image obtained by compressing the captured image by correcting the compression rate is transmitted to the external terminal device 800.
  • the compression ratio can be lowered to prevent the monitoring image from becoming unclear.
  • the frequency of generating the monitoring image can be increased, so that the monitoring that requires the latest monitoring image is required. Since the latest monitoring image can be generated frequently and transmitted to the external terminal device 800 at the time of strengthening, the user can check the latest vehicle status using the external terminal device 800.
  • the monitoring device 100 and the vehicle monitoring system 1000 will be described as an example of one aspect of the vehicle monitoring device according to the present invention, but the present invention is not limited to this.
  • the vehicle monitoring apparatus having a camera, a monitoring level determination unit, a monitoring image generation unit, and a transmission unit, a camera 1, a monitoring level determination function, a monitoring image
  • generation function and a transmission function is demonstrated, it is not limited to this.
  • a vehicle monitoring system 1000 including the monitoring device 100 according to the present invention, a vehicle controller 200, a communication device 400, and an external terminal device 800 is provided.
  • the present invention will be described by way of example, but the present invention is not limited to this.
  • the monitoring device 100 and the vehicle monitoring system 1000 will be described as an example of one aspect of the vehicle monitoring device according to the present invention, but the present invention is not limited to this.
  • the vehicle monitoring apparatus having a camera, a monitoring level determination unit, a monitoring image generation unit, and a transmission unit, a camera 1, a monitoring level determination function, a monitoring image
  • generation function and a transmission function is demonstrated, it is not limited to this.
  • a vehicle monitoring system 1000 including the monitoring device 100 according to the present invention, a vehicle controller 200, a communication device 400, and an external terminal device 800 is provided.
  • the present invention will be described by way of example, but the present invention is not limited to this.
  • a crime prevention device As described above, a crime prevention device is known that, when an external stimulus detected by a door contact sensor or the like is detected, causes the camera to image the surroundings and transfers the image information to an external mobile phone or the like. However, if the captured image of the camera is transmitted as it is, there is a problem that the amount of communication data is large and the burden of communication time and communication cost is large.
  • the moving object monitoring apparatus When the object to be monitored is detected, the moving object monitoring apparatus according to the present embodiment transmits a moving image generated based on a captured image including an image corresponding to the monitoring target object to the outside.
  • the vehicle monitoring system 1000 transmits a moving image to an external terminal only when a monitoring target object is detected around the moving body, and is therefore transmitted to monitor the surroundings of the moving body.
  • the total amount of monitoring image data can be reduced. As a result, it is possible to reduce the communication cost necessary for monitoring the mobile object.
  • a third embodiment of the present invention will be described with reference to the drawings.
  • a case where the vehicle monitoring apparatus according to the present invention is applied to a vehicle monitoring system 1000 for monitoring a vehicle will be described as an example.
  • a case where the moving body is a vehicle will be described as an example.
  • the moving object to be monitored is not limited to a vehicle, and the vehicle monitoring apparatus according to the present invention can also monitor a motorcycle, a ship, a heavy machine, a forklift, and the like.
  • FIG. 7 is a block configuration diagram of a vehicle monitoring system 1000 including the monitoring device 100 according to the present embodiment.
  • the vehicle monitoring system 1000 according to the present embodiment includes four cameras 1a to 1d (hereinafter sometimes collectively referred to as cameras 1) installed in the vehicle.
  • FIG. 8 is a diagram showing an arrangement example when the cameras 1a to 1d are attached to the vehicle V.
  • the cameras 1a to 1d are configured by using an image sensor such as a CCD (Charge Coupled Devices) and are installed at different positions outside the vehicle V, respectively, and take images in four directions around the vehicle.
  • the camera 1a installed at a predetermined position in front of the vehicle V such as the vicinity of the front grille is an image of an object or road surface existing in the area SP1 in front of the vehicle V and in the space in front of the area. (Hereinafter referred to as a front view image).
  • the camera 1d installed at a predetermined position on the left side of the vehicle V such as a left side mirror is an image of an object or road surface existing in the space SP2 on the left side of the vehicle V and in the surrounding space (hereinafter referred to as a left side view image).
  • a camera 1c installed at a predetermined position behind the vehicle V such as a roof spoiler shoots an image of an object or road surface (hereinafter referred to as a rear view image) existing in the area SP3 behind the vehicle V and in the space behind the vehicle SP. .
  • the camera 1b installed at a predetermined position on the right side of the vehicle V, such as a right side mirror, is an image of an object or road surface existing in the space SP4 on the right side of the vehicle V and in the surrounding space (hereinafter, a right side view image).
  • the control device 10 acquires captured images captured by the cameras 1a to 1d.
  • the number and positions of the cameras 1 can be determined as appropriate according to the size and shape of the vehicle V, the detection area setting method, and the like.
  • the plurality of cameras 1 described above are assigned identifiers corresponding to respective addresses (arrangements), and the control device 10 can identify each camera 1 based on each identifier. Further, the control device 10 can send an activation command and other commands to the specific camera 1 by attaching an identifier.
  • proximity sensors 2a to 2d can be disposed in the vicinity of the cameras 1a to 1d.
  • the proximity sensors 2a to 2d are ultrasonic sensors that can detect whether an object exists in a predetermined region around the vehicle V, or whether an object around the vehicle is approaching or separated from the vehicle V, infrared rays Sensors, electrostatic sensors and the like.
  • the vehicle monitoring system 1000 of the present embodiment further includes a monitoring device 100, a vehicle controller 200, a communication device 400, and an external terminal device 800.
  • the vehicle monitoring system 1000 can include an ignition switch 300 that can exchange information with the vehicle controller 200.
  • Each of these apparatuses is connected by CAN (Controller
  • CAN Controller
  • the monitoring device 100 can communicate with an external terminal device 800 (computer) including a mobile phone, a smartphone, or other communication device 810 via the communication device 400.
  • the external terminal device 800 acquires monitoring information including a monitoring image from the monitoring device 100 via the communication device 810.
  • the external terminal device 800 also includes an image processing device 820 that generates a display image based on the acquired monitoring image, and a display 830 that displays the generated display image.
  • a user having the external terminal device 800 can view the vehicle monitoring image transmitted from the monitoring device 100 on the display 830 of the external terminal device 800.
  • FIG. 9 is a diagram showing a display example of the monitoring image Q ′ for display on the external terminal device 800.
  • the display monitoring image Q ′ shown in FIG. 9 includes a monitoring image R1 based on a captured image of the camera 1a, a monitoring image R2 based on a captured image of the camera 1b, a monitoring image R3 based on a captured image of the camera 1c, and a camera. It includes a monitoring image R4 based on the 1d captured image and a virtual vehicle model image R0 when the vehicle V is viewed from above.
  • the monitoring images R1 to R4 may be moving images that continuously show state changes, or may be still images that show temporary states.
  • monitoring images R1 to R4 it is also possible to display a part of the monitoring images R1 to R4 as a moving image and the other as a still image. With such a monitoring image Q, the user can monitor the state around the vehicle V even when the user is in a place separated from the vehicle V.
  • the control device 10 of the monitoring device 100 stores a ROM (Read Only Memory) in which a program for generating a monitoring image and sending it to an external terminal device is stored. 12 and a CPU (Central Processing Unit) 11 as an operation circuit that functions as the monitoring device 100 and a RAM (Random Access Memory) 13 that functions as an accessible storage device by executing a program stored in the ROM 12. And.
  • ROM Read Only Memory
  • CPU Central Processing Unit
  • RAM Random Access Memory
  • the control device 10 of the monitoring device 100 can execute each function by the cooperation of software for realizing the monitoring image generation function and the transmission function and the hardware described above.
  • the control device 10 transmits each control command will be described as an example.
  • the control device 10 of the present embodiment may control the camera 1 and the communication device 400 via the vehicle controller 200. Is possible.
  • the monitoring device 100 receives the engine off signal input to the ignition switch 300 and the electronic key of the vehicle V having a communication function does not exist in the vicinity of the vehicle V (electronic key).
  • the monitoring process can be started when a request to request a monitoring image is received from the terminal device 800 of the user.
  • the trigger of the monitoring process is not limited to this, and the monitoring device 100 detects the inclination sensor when the sonar (not shown) detects an object around the vehicle V, when the door contact sensor detects contact with the door.
  • the abnormality detection sensor detects an abnormality such as opening the door or breaking a window, or when a moving body such as a vehicle is detected from the captured image of the camera 1,
  • the monitoring process can be started when an input signal is input to a switch (not shown) of the monitoring apparatus 100.
  • the monitoring apparatus 100 includes an image processing control unit (Image Processing Unit: IPCU).
  • IPCU Image Processing Unit
  • the control device 10 analyzes the captured image of each camera 1 using the image processing control unit, extracts an image corresponding to the object from the captured image data, and further moves the object based on the amount of movement of the extracted image. The amount can be calculated. Further, the control device 10 can calculate the change in the position of the object over time from the change in the captured image. Based on the change in the position of the object over time, the control device 10 can determine whether or not an object existing around the vehicle V is a monitoring target object to be monitored.
  • IPCU Image Processing Unit
  • the control device 10 detects the object as a monitoring target object, and after the detection, the captured image including the monitoring target object Can be stored in the image memory in the control device 10 together with the time information.
  • a method known at the time of filing can be used.
  • the control device 10 of the monitoring device 100 uses the above-described image processing control unit (Image Processing Control Unit: IPCU) to capture the surroundings of a moving body such as a vehicle from images captured by the cameras 1a to 1d. If the presence of the monitoring target object is detected and the presence of the monitoring target object is detected, based on the captured image including the image corresponding to the monitoring target object, A moving image that continuously indicates a change in state is generated as a monitoring image.
  • the moving image in the present embodiment is image information in which a plurality of images are sequentially displayed within a unit time, and can indicate a change in the state of the monitoring area.
  • the control device 10 associates a plurality of captured images captured at a predetermined time T with the monitoring timing (imaging timing) after the monitoring target object is detected.
  • the monitoring device 100 compresses and stores a monitoring image of a moving image as necessary.
  • the monitoring image may be stored as a single moving image file, or may be stored in a form that can be transferred and reproduced by a streaming method.
  • the monitoring apparatus 100 when the moving speed (movement amount per unit time) of the monitoring target object calculated based on the captured image is smaller than a predetermined value, the monitoring apparatus 100 according to the third embodiment performs unit time of the moving image.
  • a monitoring image is generated by reducing the frame rate, which is the number of images included in the area. That is, when the moving speed of the monitoring target object is low, the frame rate is reduced according to the movement.
  • the amount of movement of the monitoring target object is small, it is possible to reduce the amount of moving image data to be transmitted at the time of monitoring without sending a moving image with an excessive frame rate.
  • a moving image with a relatively high frame rate is sent according to the speed of the movement, and a monitoring image showing the movement of the monitoring target object in detail is sent. Can be generated.
  • control device 10 of the monitoring device 100 when no monitoring target object is detected around a moving body such as a vehicle, is a still image indicating a temporary state around the moving body such as a vehicle. As a monitoring image.
  • the control device 10 can compress and store the generated still image monitoring image as necessary.
  • FIG. 10 is a flowchart showing a control procedure of the vehicle monitoring system 1000 according to the third embodiment.
  • the control device 10 of the monitoring device 100 determines whether it is the monitoring start timing.
  • the timing at which the monitoring image request command is received from the terminal device 800 possessed by the user is recognized as the monitoring start timing, and the monitoring process is started.
  • the monitoring start timing is not limited, and the monitoring process can be started at a timing when the contact sensor of the vehicle door, the inclination sensor, the vehicle abnormality detection sensor, etc. detect the abnormality.
  • step 20 the monitoring apparatus 100 causes the cameras 1a to 1d to start imaging each imaging region, and acquires captured images.
  • the monitoring apparatus 100 determines whether or not the captured image acquired from the camera 1 is the first one.
  • the process proceeds to step 40, where the first captured image is stored as the reference monitoring image G0, and is transmitted to the external terminal device 800 to be the next captured image. Wait.
  • the reference monitoring image G0 is a captured image acquired at a reference monitoring timing t0 that serves as a reference when the surroundings of the vehicle V are monitored.
  • the first captured image is the reference monitoring image G0.
  • the present invention is not limited to this, and the captured image at the reference monitoring timing t0 that satisfies a predetermined condition can be defined as the reference monitoring image G0.
  • the process proceeds to step 50, and the monitoring apparatus 100 determines whether or not a monitoring target object exists based on the change amount of the image data of the captured image. To do.
  • the currently acquired captured image may be compared with the reference monitored image G0, or the currently acquired monitored image may be compared with the previously acquired captured image. Good.
  • the process proceeds to step 60, where the monitoring apparatus 100 continuously shows a change in state around the vehicle V based on a captured image including an image corresponding to the monitoring target object.
  • a monitoring image That is, the monitoring image represented by the moving image includes an image of the monitoring target object.
  • the monitoring apparatus 100 can identify the cameras 1a to 1d that have captured images in which the presence of the monitoring target object is detected, and can generate monitoring images based on the captured images of the cameras 1a to 1d.
  • step 61 the monitoring apparatus 100 calculates the moving speed of the monitoring target object based on the captured image. If the moving speed of the monitoring target object is less than a predetermined value, the monitoring apparatus 100 proceeds to step 62.
  • the frame rate of the monitoring image of the moving image is reduced.
  • the monitoring apparatus 100 defines in advance a relationship in which the frame rate decreases as the moving speed of the monitoring target object decreases, and obtains the frame rate based on the moving speed of the monitoring target object with reference to this relationship. it can.
  • the process proceeds to step 80 without changing the frame rate.
  • step 50 when the monitoring target object is not detected in step 50, the process proceeds to step 70, and a still image indicating a temporary state around the vehicle V is generated as a monitoring image.
  • step 80 the generated moving image or still image monitoring image is sent to the external terminal device 800. Thereafter, the process proceeds to step 90 and waits for the end timing of the monitoring process (timing that the electronic key possessed by the occupant approaches the communicable distance, the occupant turns on the engine, etc.). When the process ends, the process returns to step 10 to wait for the next monitoring start timing, and when it does not end, the process returns to step 30 to wait for the acquisition of the next captured image.
  • the external terminal device 800 is a computer having members corresponding to a CPU, a RAM, and a ROM, and includes a communication device 810, an image processing device 820, and a display 830.
  • the communication device 810 receives the monitoring image (step 110) and sends the received monitoring image to the image processing device 820.
  • the image processing apparatus 820 includes an image processing control unit (Image Processing Control Unit: IPCU), and can perform image processing on the received monitoring image (step 120).
  • the received monitoring image is assigned an identifier that identifies the camera 1 that captured the image, and the image processing apparatus 820 can assign each monitoring image to each display area according to the identifier.
  • the image processing device 820 allocates each pixel of the received monitoring image to each pixel in the display area of the display 830, and displays the monitoring images R1 to R4 shown in FIG.
  • a monitoring image of a moving image is transmitted to an external terminal only when a monitoring target object is detected around the host vehicle V.
  • the total amount of monitoring image data transmitted to monitor the surroundings of the vehicle V can be reduced. As a result, it is possible to reduce communication costs necessary for monitoring vehicles and other moving objects.
  • the monitoring device 100 and the vehicle monitoring system 1000 when a monitoring target object is not detected, a still image with a small amount of data is transmitted, so that it is at a position separated from the vehicle.
  • the user can check a temporary state around the vehicle with a still image. For this reason, the surroundings of the vehicle can be monitored by the image while suppressing the amount of transmission data of the monitoring image.
  • the frame rate is set according to the moving speed of the monitoring target object.
  • the monitoring image with a small data amount can be created while capturing the movement (state change) of the monitoring target object, and the transmission data amount in the monitoring process can be reduced.
  • a monitoring device 100 and a vehicle monitoring system 1000 according to a fourth embodiment of the present invention will be described with reference to FIGS.
  • the monitoring device 100 and the vehicle monitoring system 1000 of the fourth embodiment are different from those of the third embodiment in the method of creating a monitoring image and the monitoring image to be created, but the configuration shown in FIG. 7 and the basic control shown in FIG. The procedure is common.
  • the following description will focus on different points, and the description of the third embodiment will be cited for other points.
  • FIG. 11 is a flowchart showing a control procedure of the monitoring device 100 and the vehicle monitoring system 1000 according to the fourth embodiment of the present invention.
  • the monitoring device 100 executes the same processing as the control procedure of the third embodiment shown in FIG. 10 and transmits the reference monitoring image G0 to the external terminal device 800 as in Step 40.
  • the external terminal device 800 receives the reference monitoring image G0 (step 210) and stores the received reference monitoring image G0 (step 220).
  • FIG. 12A is a diagram illustrating an example of the reference monitoring image G0.
  • the monitoring device 100 starts generating a monitoring image when the monitoring timing tK is reached.
  • the monitoring timing tK is one or a plurality of timings after the reference monitoring timing t0 (imaging timing of the reference monitoring image G0) serving as a reference when monitoring the surroundings of the vehicle V.
  • the monitoring timing tK may be a timing that circulates in a predetermined cycle, or may be a timing that satisfies a predetermined condition such as when a monitoring command input from the user's external terminal device 800 is received.
  • step 120 the monitoring device 100 acquires a comparison image captured by the camera 1 at the monitoring timing tK.
  • FIG. 12B is a diagram illustrating an example of the contrast image GK. Compared to the reference monitoring image G0 in FIG. 12A, an image corresponding to the object appears on the right side of the comparison image GK.
  • the monitoring apparatus 100 compares the reference monitoring image G0 imaged at the reference monitoring timing t0 with the contrast image captured at one or more monitoring timings after the reference monitoring timing t0, A difference image corresponding to a change in image data of the image is obtained. Since the background image does not change while the vehicle is parked or stopped, such as when the engine is stopped, when the difference between the reference monitoring image G0 and the comparison image GK is taken, a difference image ⁇ G whose image has changed from the reference monitoring image G0 is extracted at the monitoring timing tK. be able to.
  • FIG. 13 is a diagram illustrating an example of the difference image ⁇ G.
  • the white frame including the region where the image data is changed is defined as the difference image ⁇ G.
  • the entire image shown in FIG. 13 is defined as the difference image ⁇ G
  • the difference image ⁇ G is defined in the region other than the region of the difference image ⁇ G. An identifier indicating that it is not can be attached.
  • the monitoring apparatus 100 obtains the coordinates (xk, yk) of the vertex P of the difference image ⁇ G that can define the position with respect to the contrast image GK. Since the contrast image GK and the reference monitoring image G0 are defined by common coordinates, the position of the difference image ⁇ G with respect to the reference monitoring image G0 can be obtained from the coordinates (xk, yk).
  • the monitoring device 100 transmits a monitoring image Q based on the difference image ⁇ G to the external terminal device 800.
  • the monitoring image Q is transmitted at a timing later than the transmission timing of the reference monitoring image G0.
  • the position information P (xk, yk) of the difference image ⁇ G may be included in the monitoring image. it can.
  • FIG. 15 is a diagram illustrating an example of a monitoring image to be transmitted.
  • the monitoring image Q transmitted by the monitoring device 100 is image data corresponding to the difference image ⁇ G, and thus the monitoring image transmitted in the third embodiment (corresponding to FIG. 12B). ) Can significantly reduce the amount of data.
  • the monitoring apparatus 100 may obtain a monitoring image in which the first identifier is attached to the image data of the invariable region other than the region corresponding to the difference image ⁇ G in the comparison image GK acquired at the monitoring timing. It can.
  • the first identifier is information for identifying an invariable region in the comparison image GK that has the same image data as the reference monitoring image G0. That is, the invariant region to which the first identifier is attached can be handled as a background portion that has not changed from the reference monitoring image G0 described above, and the image data of the reference monitoring image G0 transmitted earlier can be used.
  • step 230 the external terminal device 800 receives the monitoring image to which each information is attached.
  • FIG. 16 is a diagram for explaining a monitoring image generation method at the monitoring timing tK.
  • the external terminal device 800 reads the reference monitoring image G0 received and stored in the previous step 220, superimposes the difference image ⁇ G received in step 230 on the reference monitoring image G0, and at the monitoring timing tK.
  • a monitoring image Q′K for display is created. Note that the reference monitoring image G0 shown in FIG. 16 is common to the reference monitoring image G0 shown in FIG. 12A, and the difference image ⁇ G shown in FIG.
  • the difference image ⁇ G is pasted to the corresponding position of the reference monitoring image G0 based on the address.
  • the position information P (xk, yk) of the difference image ⁇ G shown in FIG. 14 is acquired, and the difference image ⁇ G is obtained at the corresponding position of the reference monitoring image G0. Can be pasted.
  • the lower diagram in FIG. 16 shows an example in which the created monitor image Q′K for display is displayed on the display 830.
  • the monitoring image Q′K in which the difference image ⁇ G is superimposed on the reference monitoring image G0 is substantially the same (substantially equivalent) image information as the comparison image GK shown in FIG. 12B captured at the monitoring timing tK. It is.
  • the same operational effects as the third embodiment can be obtained, and at a certain monitoring timing tK, the reference monitoring image G0 can be compared. Since only the difference image ⁇ G is transmitted to the external terminal device 800, the total amount of monitoring image data transmitted to monitor the surroundings of the vehicle V can be reduced. As a result, the communication cost required for monitoring the vehicle V can be reduced.
  • the vehicle monitoring system 1000 of the present embodiment when the monitoring image Q at a certain monitoring timing tK is generated, only the difference image ⁇ G corresponding to the changed area changed compared to the reference monitoring image G0 is newly added. Since the previously transmitted reference monitoring image G0 is used for the portion corresponding to the invariable region that has been transmitted or received and has not changed compared to the reference monitoring image G0, the comparison image GK at the monitoring timing tK is transmitted as it is. It is possible to reduce the image quality of the monitoring image Q ′ to be displayed while reducing the transmission data amount as compared with the case. As a result, the user can monitor the vehicle V with a clear monitoring image Q ′ while saving communication costs.
  • a monitoring device 100 and a vehicle monitoring system 1000 according to a fifth embodiment of the present invention will be described with reference to FIGS.
  • the monitoring device 100 and the vehicle monitoring system 1000 of the fifth embodiment are different from those of the third and fourth embodiments in the method of creating a monitoring image and the monitoring image to be created, but the configuration shown in FIG. 7 and the basics shown in FIG.
  • the common control procedure is common.
  • the following description will focus on different points, and the description of the third and fourth embodiments will be cited for other points.
  • FIG. 17 is a flowchart showing a control procedure of the monitoring device 100 and the vehicle monitoring system 1000 according to the fifth embodiment of the present invention.
  • the monitoring device 100 executes the same processing as the control procedure of the third embodiment shown in FIG. 10 and transmits the reference monitoring image G0 to the external terminal device 800 as in Step 40.
  • the external terminal device 800 receives the reference monitoring image G0 (step 410) and stores the received reference monitoring image G0 (step 420).
  • the monitoring device 100 starts generating the monitoring image of this example when it is the monitoring timing tK.
  • This monitoring timing tK is an arbitrary continuous plurality of timings that come around in a predetermined cycle after a certain reference monitoring timing t0 (imaging timing of the reference monitoring image G0) as a reference for monitoring the surroundings of the vehicle V. .
  • a certain reference monitoring timing t0 imaging timing of the reference monitoring image G0
  • the monitoring timing t (K-1) follows after the reference monitoring timing t0, followed by the monitoring timing tK.
  • the monitoring timing t (K ⁇ 1) is the monitoring timing immediately before the monitoring timing tK.
  • a plurality of monitoring timings t (1) to t (K-2) are set between the reference monitoring timing t0 and the monitoring timing t (K-1), and the imaging process is performed by the camera 1 at each monitoring timing.
  • the monitoring apparatus 100 stores these monitoring images.
  • the reference monitoring image G0 of FIG. 18 is common to the reference monitoring image G0 shown in FIG. 12A, and the Kth comparison image GK of FIG. 18 is common to the comparison image GK at the monitoring timing tK shown in FIG. 12B.
  • step 320 the monitoring apparatus 100 according to the present embodiment compares the Kth contrast image GK captured at the Kth monitoring timing after the reference monitoring timing t0 (K is a natural number, the same applies hereinafter) with the reference monitoring image G0.
  • K is a natural number, the same applies hereinafter
  • FIG. 18 shows the Kth difference image ⁇ G (0 ⁇ K).
  • the monitoring apparatus 100 detects the Kth contrast image GK captured at the Kth monitoring timing tK after the reference monitoring timing t0, and the (K-1) timing immediately before the Kth monitoring timing tK.
  • the (K-1) th difference image ⁇ G (-1) of both images is extracted by comparing with the (K-1) th contrast image G (K-1) imaged at t (K-1).
  • FIG. 18 shows the (K ⁇ 1) th difference image ⁇ G ( ⁇ 1).
  • the monitoring apparatus 100 divides the Kth difference image ⁇ G (0-K) into three regions, and assigns an identifier to each. Specifically, among the (1) K-th difference image ⁇ G (0 ⁇ K), a first identifier is assigned to image data in an invariable region that is not different from the reference monitoring image G0, and (2) the K-difference image ⁇ G (0 -K), the second identifier is assigned to the image data of the overlapping change area included in the (K-1) -th contrast image, and (3) of the K-th difference image ⁇ G (0-K), K-1) A third identifier is assigned to the image data of the most recently changed area included only in the difference image ⁇ G ( ⁇ 1).
  • the monitoring apparatus 100 uses the Kth difference image ⁇ G (0 ⁇ K) and the (K) as the latest change regions included only in the (K ⁇ 1) th difference image ⁇ G ( ⁇ 1).
  • -1) A logical product (overlapping region) with the difference image ⁇ G ( ⁇ 1) or the (K ⁇ 1) th difference image ⁇ G ( ⁇ 1) is assigned a third identifier, and the Kth difference image ⁇ G (0 ⁇ K) ) In white and black in the (K ⁇ 1) th difference image ⁇ G ( ⁇ 1), that is, the (K ⁇ 1) th difference image ⁇ G ( ⁇ 1) from the Kth difference image ⁇ G (0 ⁇ K).
  • the subtracted region can be given a second identifier, and the first identifier can be given to the remaining region to which the second identifier and the third identifier are not attached.
  • the method for attaching the identifier is not particularly limited.
  • the image of the region to which the second identifier is attached appears in the comparison image GK, but also appears in the comparison image G (K-1) at the monitoring timing tK-1. Therefore, when monitoring the surroundings of the vehicle V, the pixel value of the comparison image G (K ⁇ 1) at the monitoring timing tK ⁇ 1 can be used as the monitoring image as it is for the image of the region to which the second identifier is attached. it can.
  • the image of the region to which the first identifier is attached is an invariable region that does not change at the monitoring timing tK when the reference monitoring timing t0 is used as a reference.
  • the background image does not change.
  • the pixel value of the reference monitoring image G0 at the reference monitoring timing t0 can be used as it is as the monitoring image for the image of the region to which the first identifier is attached.
  • each identifier can be color information.
  • 0 (zero: black value) color information is attached to the pixel to which the first identifier using the reference monitoring image G0 is attached
  • the (K ⁇ 1) th contrast image G (K ⁇ 1 (white value) color information is attached to a pixel attached with the second identifier using 1)
  • 0.5 (gray) is attached to a pixel attached with the third identifier using the K-th contrast image GK.
  • Value color information
  • FIG. 18 shows a replacement image H in which black, white, and gray color information is attached to the Kth differential image ⁇ G (0-K) as the first to third identifiers.
  • the monitoring apparatus 100 corresponds the image data of the image area to which the third identifier (gray value) of the Kth difference image ⁇ G (0-K) is assigned to the image area.
  • FIG. 18 shows a Kth monitoring image QK in which the image of the Kth contrast image GK is pasted in the region of the third identifier (gray value) of the replacement image H.
  • the image of the region to which the third identifier is attached is an image corresponding to the state change from the monitoring timing tK-1 to tK, it appears only in the contrast image GK imaged at the monitoring timing tK. ing. For this reason, when monitoring the periphery of the vehicle V, the pixel value of the comparison image GK at the monitoring timing tK can be used as it is as the monitoring image for the image of the region assigned with the third identifier.
  • the monitoring apparatus 100 includes the information of the first and second identifiers, and the area with the third identifier (gray value) is replaced with the image data of the Kth contrast image GK.
  • Information including the monitoring image QK and the coordinates (xk, yk) of the vertex P specifying the position of the Kth monitoring image QK is sent to the external terminal device 800.
  • the process described below is a process related to the Kth monitoring timing tK, but as shown in step 430, the first to the first (K-1) monitoring timings created before that are the first to the (K-1) monitoring timings. (K-1)
  • the monitoring image is stored on the external terminal device 800 side.
  • step 440 shown in FIG. 17 the external terminal device 800 displays the Kth monitoring image QK including the image data of the Kth contrast image GK corresponding to the region to which the third identifier is attached, the first identifier, and the second identifier. Receive.
  • the external terminal device 800 reads the reference monitoring image G 0 stored in step 420 and the display-use (K ⁇ 1) monitoring image Q ′ (K ⁇ 1) generated in step 430.
  • the (K-1) th monitoring image Q '(K-1) includes the reference monitoring image G0, the (K-2) th monitoring image Q' (K-2), and the (K-1) th monitoring image Q '(K). -1), it can be obtained by the same process as the process for generating the Kth monitoring image QK described above.
  • step 460 the external terminal device 800 generates a monitoring image QK at the monitoring timing tK based on the reference monitoring image G0, the (K-1) th monitoring image Q (K-1), and the Kth monitoring image QK. .
  • FIG. 19 is a diagram for explaining a method of generating a monitoring image Q′K for display at the monitoring timing tK according to the processing in step 460.
  • the external terminal device 800 reads the reference monitoring image G0 received and stored in the previous step 420, and the (K-1) th monitoring created and stored for display in the previous step 430 as well. Read the image Q (K-1).
  • the external terminal device 800 replaces the image data of the image area to which the first identifier is assigned in the Kth monitoring image QK received in step 440 with the image data of the reference monitoring image G0, and attaches the second identifier.
  • the image data of the image area thus formed is replaced with the image data of the (K-1) th monitoring image Q (K-1) to create a Kth monitoring image QK for display.
  • the image data of the K-th contrast image GK is already attached to the image data of the pixel region to which the third identifier is attached.
  • the reference monitoring image G0 shown in FIG. 19 is common to the reference monitoring image G0 shown in FIG. 18, and the (K-1) monitoring image Q (K-1) shown in FIG. K-1) Almost the same as the contrast image G (K-1) (substantially equivalent).
  • the image data of the Kth monitoring image QK is pasted to the corresponding position of the reference monitoring image G0 based on the address.
  • the position information P (xk, yk) of the Kth monitoring image QK shown in FIG. 18 is acquired and the corresponding position of the reference monitoring image G0 is obtained.
  • the image data of the Kth monitoring image QK (image data of the Kth contrast image GK) can be pasted.
  • the diagram on the right side of FIG. 19 shows an example in which a monitor image Q′K for display at the monitor timing tK is displayed on the display 830.
  • each identifier of the Kth monitoring image QK is replaced with the image data of the reference monitoring image G0 and the image data of the (K-1) th monitoring image Q (K-1) for display.
  • the monitoring image Q′K is image information substantially common (substantially equivalent) to the Kth contrast image GK shown in FIG. 18 captured at the monitoring timing tK.
  • the monitoring device 100 and the vehicle monitoring system 1000 according to the fifth embodiment of the present invention configured and operating as described above have the same effects as the third embodiment and the following effects.
  • the reference monitoring image G0 transmitted earlier and the display at the (K-1) monitoring timing generated earlier on the external terminal device 800 side.
  • the Kth contrast image GK at a certain monitoring timing tK and the immediately previous (K-1) contrast image G K- Since the image data of the Kth contrast image GK only needs to be transmitted for the difference from 1), the total amount of monitoring image data transmitted to monitor the surroundings of the vehicle V can be reduced. As a result, the communication cost required for monitoring the vehicle V can be reduced.
  • the identifier is used to designate the pixel area using the reference monitoring image G0 or the (K-1) th monitoring image Q (K-1), so that it is transmitted to monitor the surroundings of the vehicle V.
  • the total amount of monitoring image data can be reduced.
  • the data compression rate can be increased, so that the total data amount of the monitoring image to be transmitted can be further reduced.
  • the vehicle monitoring system 1000 of the present embodiment when generating the monitoring image Q at a certain monitoring timing tK, only the difference image from the immediately preceding (K-1) contrast image G (K-1). For the portion corresponding to the invariable area that has not changed compared to the reference monitoring image G0, the previously transmitted reference monitoring image G0 is used as the immediately preceding (K-1) contrast image G. Since the previously created (K-1) monitoring image Q (K-1) is used for the portion corresponding to the maintenance area that has not changed compared to (K-1), the comparison at the monitoring timing tK is made.
  • the transmission data amount can be reduced, and the image quality of the displayed monitoring image Q ′ can be prevented from being deteriorated.
  • the user can monitor the vehicle V with the clear monitoring image Q ′ while saving the communication cost required for remote monitoring of the vehicle V.
  • the monitoring device 100 and the vehicle monitoring system 1000 will be described as an example of one aspect of the vehicle monitoring device according to the present invention, but the present invention is not limited to this.
  • the monitoring device 100 will be described as an aspect of the vehicle monitoring device according to the present invention having a camera, a monitoring image generation unit, and a transmission unit.
  • the present invention is not limited to this.
  • a vehicle monitoring system 1000 including the monitoring device 100 according to the present invention, a vehicle controller 200, a communication device 400, and an external terminal device 800 is provided.
  • the present invention will be described by way of example, but the present invention is not limited to this.

Abstract

検出された車両状況に基づいて判断された監視レベルに基づいて動画、ストリーミング映像若しくは静止画の表示態様や、圧縮率を求め、求められた表示態様又は圧縮率で監視画像を生成し、外部端末装置へ送信する車両監視システム1000を提供する。

Description

車両用監視装置及び車両の監視方法
 本発明は、車両に設置されたカメラを利用して、車両の周囲を監視する車両用監視装置及び車両の監視方法に関する。
 本出願は、2011年5月24日に出願された日本国特許出願の特願2011―115428、2011年6月23日に出願された日本国特許出願の特願2011―139062、2011年6月23日に出願された日本国特許出願の特願2011―139136、に基づく優先権を主張するものであり、文献の参照による組み込みが認められる指定国については、上記の出願に記載された内容を参照により本出願に組み込み、本出願の記載の一部とする。
 この種の装置に関し、ドアの接触センサなどが検知した外部からの刺激を検知した場合には、カメラに周囲を撮像させ、その画像情報を外部の携帯電話等に転送する防犯装置が知られている(特許文献1)。
特開2006-107279号公報
 しかしながら、カメラの撮像画像をそのまま送信すると通信データの量が多く、通信時間及び通信コストの負担が大きいという問題がある。
 本発明が解決しようとする課題は、カメラの撮像画像を外部端末装置へ送信する際に、通信データ量を低減させることである。
 本発明は、監視対象とするべき物体が検出された場合には、車両の状況から判断された監視レベルに応じて動画、ストリーミング映像又は静止画の選択された何れかの表示態様で監視画像を生成して外部へ送信すること、車両の状況から判断された監視レベルが高いほど、フレームレートの高い表示態様で監視画像を生成すること、又は車両の状況から判断した監視レベルに応じた圧縮率の監視画像を生成して外部へ送信することにより、上記課題を解決する。
 本発明によれば、撮像画像を監視レベルに応じた表示態様の監視画像を外部端末装置へ送出するので、監視の対象の映像を適切な表示態様で示すことができるとともに、カメラの撮像画像を撮像されたままで送信する場合よりも、車両の周囲を監視するために送信される監視画像のデータ総量を低減させることができる。また、本発明によれば、撮像画像を監視レベルに応じた圧縮率で圧縮した監視画像を外部端末装置へ送出するので、カメラの撮像画像をそのまま送信する場合よりも、車両の周囲を監視するために送信される監視画像のデータ総量を低減させることができる。この結果、車両の監視のために必要な通信コストを低減させることができる。
本発明に係る本実施形態の監視装置を含む車両用監視システムの構成図である。 カメラの設置例を示す図である。 監視レベルと表示態様との関係の一例を示す図である。 車両用監視装置の制御手順を示すフローチャートである。 監視レベルと圧縮率との関係の一例を示す図である。 車両用監視装置の制御手順を示すフローチャートである。 本発明に係る本実施形態の監視装置を含む車両用監視システムの構成図である。 カメラの設置例を示す図である。 第3実施形態の外部端末装置における監視画像の表示例を示す図である。 第3実施形態の車両用監視システムの制御手順を示すフローチャート図である。 第4実施形態の車両用監視システムの制御手順を示すフローチャート図である。 第4実施形態の監視装置における、基準監視タイミングにおける基準監視画像の一例を示す図である。 第4実施形態の監視装置における、監視タイミングにおける対比画像の一例を示す図である。 第4実施形態の監視装置における、基準監視画像と対比画像との差分画像の一例を示す図である。 図13に示す差分画像の座標値を説明するための図である。 第4実施形態の監視装置における、外部に送信される監視画像の一例を示す図である。 第4実施形態の外部端末装置における、表示用の監視画像の生成手法を説明するための図である。 第5実施形態の車両用監視システムの制御手順を示すフローチャート図である。 第5実施形態の車両用監視システムの監視画像の生成手法を説明するための図である。 第5実施形態の外部端末装置における、表示用の監視画像の生成手法を説明するための図である。
<第1の実施形態>
 以下、本発明の第1の実施形態を図面に基づいて説明する。本実施形態では、本発明に係る車両用監視装置を、車両を含む移動体を監視するための監視装置100、この監視装置を備える車両監視システム1000に適用した場合を例にして説明する。なお、本発明に係る車両用監視装置の監視対象は車両に限定されず、二輪車、船、重機、フォークリフト等の移動体を監視することもできる。
 図1は、本実施形態に係る監視装置100を含む車両監視システム1000のブロック構成図である。図1に示すように、本実施形態の車両監視システム1000は、車両に設置された4つのカメラ1a~1d(以下、カメラ1と総称することもある)を備えている。
 図2は、カメラ1a~1dを車両Vに取り付ける場合の配置例を示す図である。カメラ1a~1dはCCD(Charge Coupled Devices)等の撮像素子を用いて構成され、車両Vの外部の異なる位置に各々設置され、車両周囲の4方向の画像をそれぞれ撮影する。例えば、図2に示すように、フロントグリル近傍などの車両Vの前方の所定位置に設置されたカメラ1aは、車両Vの前方のエリアSP1内及びその前方の空間に存在する物体又は路面の画像(フロントビュー画像)を撮影する。左サイドミラーなどの車両Vの左側方の所定位置に設置されカメラ1dは、車両Vの左側方のエリアSP2内及びその周囲の空間に存在する物体又は路面の画像(左サイドビュー画像)を撮影する。ルーフスポイラーなどの車両Vの後方の所定位置に設置されたカメラ1cは、車両Vの後方のエリアSP3内及びその後方の空間に存在する物体又は路面の画像(リアビュー画像)を撮影する。右サイドミラーなどの車両Vの右側方の所定位置に設置されたカメラ1bは、車両Vの右側方のエリアSP4内及びその周囲の空間に存在する物体又は路面の画像(右サイドビュー画像)を撮影する。制御装置10は、カメラ1a~1dによって撮像された撮像画像をそれぞれ取得する。なお、カメラ1の配置数及び配置位置は、車両Vの大きさ、形状、検出領域の設定手法等に応じて適宜に決定することができる。上述した複数のカメラ1は、それぞれのアドレス(配置)に応じた識別子が付されており、制御装置10は、各識別子に基づいて各カメラ1のそれぞれを識別することができる。また、制御装置10は、識別子を付することにより、特定のカメラ1に起動命令その他の命令を送出することができる。
 なお、図2に示すように、カメラ1a~1dの近傍に、近接センサ2a~2dが配置されている。近接センサ2a~2dは、車両V周囲の所定領域に物体が存在するか、又は車両周囲の物体が車両Vに接近しているか又は離隔しているかを検出することができる、超音波センサ、赤外線センサ、静電センサなどである。
 また、本実施形態の車両監視システム1000は、さらに、監視装置100と、車両コントローラ200と、通信装置400と、外部端末装置800と、を有する。この車両監視システム1000は、車両コントローラ200と情報の授受が可能なイグニッションスイッチ300を備えることができる。これらの各装置はCAN(Controller Area Network)その他の車載LANによって接続され、相互に情報の授受を行うことができる。
 本実施形態の車両監視システム1000において、監視装置100は、通信装置400を介して携帯電話、スマートフォンその他の通信装置810を備える外部端末装置800(コンピュータ)と相互に通信が可能である。また、外部端末装置800は、通信装置810と、画像処理装置820と、ディスプレイ830とを備え、通信装置810が撮像画像を車両用監視装置100側から取得し、画像処理装置820が表示態様(動画、ストリーミング、又は静止画)に応じて表示に必要な画像処理を実行し、ディスプレイ830が撮像画像を表示する。外部端末装置800を所持するユーザは、車両用監視装置100から送出された車両の撮像画像を、外部端末装置800を用いて確認することができる。
 また、図1に示すように、本実施形態に係る監視装置100の制御装置10は、監視レベルを判断し、監視レベルに応じた表示態様の監視画像を生成して外部端末装置800に送出するプログラムが格納されたROM(Read Only Memory)12と、このROM12に格納されたプログラムを実行することで、監視装置100として機能する動作回路としてのCPU(Central Processing Unit)11と、アクセス可能な記憶装置として機能するRAM(Random Access Memory)13とを備えている。
 本実施形態に係る監視装置100の制御装置10は、監視レベル判断機能と、監視画像生成機能と、送信機能とを実現するためのソフトウェアと、上述したハードウェアの協働により各機能を実行することができる。本実施形態では、制御装置10が各制御命令を送出する態様を例にして説明するが、本実施形態の制御装置10は、車両コントローラ200を介してカメラ1、通信装置400を制御することも可能である。
 特に限定されないが、本実施形態の監視装置100は、イグニッションスイッチ300に入力されたエンジンのオフ信号が入力され、通信機能を有する車両Vの電子キーが車両Vの近傍に存在しない場合(電子キーを携帯するユーザが車両Vから離れている場合)や、ユーザの外部端末装置800から監視画像の要求指令を受け付けた場合に監視処理を開始することができる。なお、監視処理のトリガはこれに限定されず、監視装置100は、不図示のソナーが車両Vの周囲に物体を検出したとき、ドアの接触センサがドアへの接触などの異常を検知したとき、傾斜センサが車両の傾き(乗り込み)などの異常を検知したとき、異常検知センサがドアのこじ開けや窓が割られたなどの異常を検知したとき、カメラ1の撮像画像から監視対象物体が検出されたとき、監視装置100のスイッチ(図示せず)に入力信号が入力されたときなどに監視処理を開始することができる。
 また、第1実施形態に係る監視装置100は、画像処理コントロールユニット(Image Processing Control Unit: IPCU)を備える。制御装置10は、画像処理コントロールユニットを用いて、各カメラ1の撮像画像を解析し、撮像画像のデータから物体に対応する画像を抽出し、さらに抽出した画像の移動量に基づいて検出した物体が移動物体であるか否か、また、移動物体である場合にはその移動量を算出することができる。また、制御装置10は、撮像画像の変化から物体の経時的な位置の変化を算出することができる。この経時的な物体の位置の変化に基づいて、制御装置10は監視対象物体を検出することができる。なお、これらの画像処理には、出願時において知られた手法を用いることができる。
 以下、本発明の本実施形態に係る監視装置100が実現する監視レベル判断機能、監視画像生成機能、送信機能の各機能について説明する。
 まず、監視レベル判断機能について説明する。本実施形態の監視装置100の制御装置10は、車両V又は車両Vの周囲の状況を示す情報(信号)を検出し、検出された車両状況(車両状況に応じた情報)に基づいてこの車両Vの監視レベルを判断する。
 本実施形態の制御装置10は、カメラ1a~1dにより撮像された撮像画像から「車両Vの周囲に存在する監視対象物体」が検出された場合には、車両に危険が発生する可能性が高いと考えられる。本実施形態における監視対象物体とは、例えば人間のように、高さのある物体であり、かつ移動可能な物体である。制御装置10は、カメラ1の撮像画像から所定の高さ以上の物体に対応する画像が検出され、その画像の位置が経時的に変化する場合には、監視対象物体が検出されたと判断することができる。これらの処理には、先述した画像処理コントロールユニット(Image Processing Control Unit: IPCU)を用いることができる。また、制御装置10は、近接センサ2a~2dの検出結果を利用して移動する監視対象物体の存在を検出することができる。
 また、本実施形態の制御装置10は、カメラ1により撮像された撮像画像を経時的に分析し、撮像画像から「車両Vに接近する監視対象物体」が検出された場合には、車両に危険が発生する可能性が高いと考えられる。制御装置10は、撮像画像から検出された監視対象物体に対応する画像の面積が経時的に大きくなる、又は近接センサ2a~2dが検出する監視対象物体の存在距離が経時的に小さくなることにより監視対象物体が車両Vに接近しているか否かを判断することができる。
 本実施形態の制御装置10は、カメラ1により撮像された撮像画像から「車両Vの近傍領域に所定時間以上滞在する監視対象物体」が検出された場合には、車両に危険が発生する可能性が高いと考えられる。制御装置10は、撮像画像から検出された監視対象物体に対応する画像の面積が所定時間に渡って所定値域以上である、又は近接センサ2a~2dが検出する監視対象物体の存在距離が所定時間に渡って所定値未満であることにより、監視対象物体が車両V周囲に滞在しているか否かを判断することができる。
 さらに、本実施形態の制御装置10は、車両Vが備える各種の車両状況検出センサから異常発生信号を取得した場合には、車両に危険が発生する可能性が高いと考えられる。車両Vが備える異常検出センサとしては、エンジンオフ時に人体などが車両に接触したことを検出する接触センサ、エンジンオフ時にドアの解錠(こじ開け)を検出する解錠センサ、エンジンオフ時に人体が車両に力をかける、人体が車両に乗り込むなどの状態における車両の傾きを検出する傾斜センサ、など、出願時に知られている車両の監視センサを用いることができる。
 他方、本実施形態の制御装置10は、カメラ1の撮像画像から監視対象物体が検出されず、あるいは、監視対象物体が検出されても車両Vから遠ざかっていく場合や、車両から異常発生信号を受信しない場合には、車両に危険が発生する可能性が高くないと判断することができる。
 上述のように、制御装置10は、検出された車両状況に基づいて、車両状況と監視レベルとを予め対応づけることができる。図3は、車両状況と監視レベルとの対応関係の一例を示す図である。図3に示すように、車両から異常発生信号を取得した場合には、すでに車両に異常が発生しており緊急性が高い状態であると考えられるので監視レベルは最も強化されたレベル7と判断し、カメラ1の撮像画像から検出された監視対象物体が車両の近傍で所定時間以上滞在している場合には、車両のドアを開けようとしているなど車両に危害を加える蓋然性が高い状態であると考えられるので監視レベルは次に強化されたレベル6と判断し、カメラ1の撮像画像から検出された監視対象物体が車両に接近している場合には、車両の様子を伺うなど車両を物色している可能性が高い状態であると考えられるので監視レベルはその次に強化されたレベル5と判断し、カメラ1の撮像画像から監視対象物体が検出された場合には、不審者が車両に触れるなどの事態が考えられるので監視レベルはその次のレベル4と判断することができる。特に限定されないが、以上のレベル7~レベル4を、監視を強化するべき強化レベルとして定義することができる。監視レベルが高くなるにつれて、監視を強化する強化レベルを示す数値が大きくなる。
 また、同図に示すように、カメラ1の撮像画像から検出された監視対象物体が車両から離隔している場合には、監視対象物体は車両の傍を通り過ぎる通行人であると考えられるので監視レベルはその次のレベル3と判断することができ、カメラ1の撮像画像から検出された物体が静止物体である場合には、建造物などが検出されたと考えられるので監視レベルはさらに低いレベル2と判断し、ユーザの外部端末装置800から監視画像の要求指令を受け付けた場合は、特に車両の状況に基づく状況ではないため、監視レベルをさらに低いレベル1と判断することができる。特に限定されないが、以上のレベル3~レベル1を通常の監視を行えばよい標準レベルとして定義することができる。
 続いて、本実施形態の監視装置100の制御装置10の監視画像生成機能について説明する。本実施形態の制御装置10は、定義(判断)された監視レベルに応じて求められた単位時間あたりのフレーム数(以下、フレームレートとも称する)の表示態様で、カメラ1により撮像された撮像画像に基づく監視画像を生成する。なお、本実施形態におけるフレームレートは単位時間あたりのフレーム数という意味である。ここにいう単位時間は任意に設定することができ、単位時間は1秒に限定されない。
 本実施形態の制御装置10は、前述したように監視レベルが強化レベル(例えば、図3に示すレベル7~4)であると判断された場合には、この強化レベルに応じて、車両に設置されたカメラにより撮像された撮像画像に基づく動画、ストリーミング映像又は静止画の、フレームレートの異なる何れかの監視画像を生成する。本実施形態の制御装置10は、強化レベルが高いほど、フレームレートの高い監視画像を生成する。具体的に、本実施形態の制御装置10は、監視レベルが標準レベル(デフォルトの監視レベル)である場合はフレームレートが最も低い静止画の監視画像を生成し、監視レベルが標準レベルよりも高い強化レベルである場合にはフレームレートが静止画よりも高いストリーミング映像又は動画の監視画像を生成する。フレームレートは、単位時間あたりのフレーム数(画像数)であり、単位時間は1秒としてもよいし、複数秒としてもよい。静止画は、単位時間において撮像又は表示される画像が単一であり、ストリーミング映像又は動画は、単位時間において撮像又は表示される画像が複数である。動画の単位時間あたりのフレーム数(フレームレート)は、ストリーミング映像の単位時間あたりのフレーム数(フレームレート)よりも大きい。なお、ストリーミング映像と定義される単位時間あたりのフレーム数(フレームレート)、及び動画と定義される単位時間あたりのフレーム数(フレームレート)は適宜に設定することができる。
 これにより、監視レベルが高いと判断され、監視を強化するために車両周囲の監視対象物体の動きが分かる監視画像が要求された場合において、フレームレートの高い動画やストリーミング画像などの動きの分かる監視画像を生成・提供することができる。
 また、本実施形態の制御装置10は、前述したように監視レベルが標準レベル(例えば、図3に示すレベル3~1)であると判断された場合には、この標準レベル(監視レベル)に応じて、通常の監視時(監視レベルを強化しない時)に適用されるフレームレートの低い表示態様(例えば静止画)の監視画像を生成することができる。なお、通常の監視時に適用される表示態様は、静止画に限定されない。
 例えば、本実施形態の制御装置10は、先述した図3に示すように、監視レベルがレベル7である場合は、フレームレート(fps:frame per second)を30程度、つまり単位時間(例えば1秒)あたりに30の撮像画像が連続的に再生可能な動画の監視画像を生成する。つまり、監視レベルが高いときには、監視対象物体の動きが分かりやすいフレームレートの高い動画の監視画像を生成することができる。さらに、同図に示すように、監視レベルが下がる(監視の強化の程度が下がる)につれて、監視画像のフレームレートを低くすることができる。具体的に、監視レベルがレベル6である場合はフレームレートを20程度、監視レベルがレベル5である場合はフレームレートを10程度、監視レベルがレベル4である場合はフレームレートを5程度とすることができる。
 なお、本実施形態におけるフレームレートは単位時間あたりに再生される画像数であるので、1である場合には静止画を得ることができ、フレームレートが30~20程度である場合には動画の監視画像を得ることができ、フレームレートが10~5程度である場合には、動画としての滑らかさは無いが、監視対象物体の動きをコマ送りで示すことができるストリーミング映像の監視画像を得ることができる。フレームレートの数値が上がるほど、滑らかで監視対象物体の動きが分かりやすい監視画像を得ることができる。他方、フレームレートの数値が上がるほど、外部端末装置800に送信するデータ量は大きくなり、通信コストも増加する。
 本実施形態の制御装置10は、監視レベルが3以下の標準的な監視レベルである場合には、デフォルトのフレームレートで監視画像を生成することができる。図3に示す例では、監視レベルがレベル3である場合はフレームレートが1の静止画を生成することができる。本例では、デフォルトのフレームレートが単一である場合の例を示すが、2又は3の複数の値とすることも可能である。なお、レベル3~レベル1については、共通のフレームレートを適用することができる。
 なお、図3は、フレームレートの一例を示すものにすぎず、監視レベルに応じたフレームレートは任意に設定することができる。
 以上のように、監視レベルに応じたフレームレートの監視画像を生成することにより、緊急性が高く監視対象物体の動きを追跡できる情報を得たい場合には、高いフレームレートの動画又はストリーミング映像の監視画像を生成することができる一方で、緊急性が低く車両周囲の状態が確認できればよい場合には、単一のフレームレートにより静的な状態だけしか分からないがデータ量の小さい監視画像を生成することができる。これにより、監視レベルによって異なる表示態様の監視画像を生成しつつ、動きを追跡する必要が無い場合には静止画を送ることによりデータ量を小さくすることができる。この結果、外部端末装置800に監視画像を送信するときの通信データ量の総量を低減させ、監視システム稼働時の通信コストを低減させることができる。
 さらにまた、本実施形態の制御装置10は、監視レベルが検出された時刻が日没後である場合には、監視レベルに応じて求められた単位時間あたりのフレーム数を高く補正したフレームレートの監視画像を生成することができる。日没後は、一般に暗くなるので、鮮明な撮像画像を取得することが困難になる場合が多い。このため本実施形態の制御装置10は、図3に示す対応関係に基づいて求められたフレームレートを、日没後においては高く補正する。これにより、夜間であって、露光不足が懸念される場合にはフレームレートを増やして監視画像が不明瞭となることを防止し、監視対象物体の動きを明確に示す監視画像を提供することができる。
 なお、日没後であるか否かを判断する手法としては、制御装置10が備える時計の時刻と地点に応じた日没時刻情報とを対比して求めてもよいし、車両に設けられた照度センサから車両周囲の明るさを検出してもよいし、カメラ1のCCD素子を用いて周囲の明るさを検出してもよい。
 他方、制御装置10は、監視レベルが検出された時刻が日没前である場合には、監視レベルに応じて求められたフレームレートを維持又は低く補正することができる。
 加えて、本実施形態の制御装置10は、監視対象物体を検出したカメラ1の撮像画像については、動きを追跡できる表示態様の監視画像を得る観点から、フレームレートを高くすることができる。具体的に制御装置10は、カメラ1により撮像された撮像画像に監視対象物体が含まれる場合には、監視レベルに応じて求められたフレームレートを高く補正した補正後のフレームレートの表示態様で、そのカメラ1により撮像された撮像画像の監視画像を生成することができる。
 車両V又は車両Vの周囲の車両状況に異常が発生した場合や、監視対象物体が検出された場合には、その監視対象物体の動きを追跡することのできる監視画像が要求されるが、すべての監視画像を動画やストリーミング映像にする必要が無い場合がある。本実施形態では、監視対象物体に対応する画像を含む撮像画像を撮像したカメラ1a~1dの何れかの撮像画像に基づく監視画像の表示態様のみを動画又はストリーミング映像とし、他のカメラ1a~1dの撮像画像に基づく監視画像は静止画とすることにより、監視対象物体の動きを追跡可能としつつも、最終的に外部端末装置800へ送出する監視画像のデータ総量を低減させることができる。
 さらに、本実施形態の制御装置10は、監視レベルが強化レベルであると判断された場合には、監視画像を生成する頻度を高くすることができる。車両V又は車両Vの周囲の車両状況に異常が発生した場合や、監視対象物体が検出された場合には、最新の監視画像が要求されるため、この要求に応じるべく、本実施形態の制御装置10は高い頻度で最新の監視画像を生成することができる。生成された監視画像が遂次外部端末装置800に送信されれば、ユーザは最新の車両の状況をリアルタイムで外部端末装置800により確認することができる。
 最後に、本実施形態の制御装置10の通信機能について説明する。制御装置10は、生成された監視画像を含む情報を、公衆通信網として利用可能な通信回線900を用いて外部端末装置800へ送信することができる。制御装置10は、監視画像が動画である場合には、一つの動画ファイルとして記憶し、監視画像がストリーミング映像である場合にはストリーミング方式で転送・再生が可能形態で記憶することができる。
 以下、本発明の本実施形態の車両監視システム1000の処理手順を説明する。図4は、本実施形態に係る車両監視システム1000の制御手順を示すフローチャートである。
 ステップ10において、本実施形態の監視装置100の制御装置10は、監視開始タイミングであるか否かを判断する。本実施形態では、エンジンOFFで車両のキーが近くにない場合であって、ユーザが所持する外部端末装置800から監視画像の要求指令を受信したタイミングを監視開始タイミングとして認識し、監視処理を開始する。
 ステップ11において、監視装置100は、車両V又はこの車両Vの周囲の状況を示す情報である車両状況情報を取得する。具体的に、監視装置100は、ドアの接触センサ、傾斜センサ、異常検知センサなどの各種の車両状況検出センサから異常発生信号を取得し、カメラ1により撮像された各撮像領域の撮像画像を取得する。
 ステップ12において、制御装置10は、ドアの接触センサ、傾斜センサ、異常検知センサなどの各種の車両状況検出センサから異常発生信号を取得した場合には、ステップ17へ進む。
 異常発生信号が検出されなかった場合には、ステップ13に進み、制御装置10は、カメラ1により撮像された撮像画像に基づいて、監視対象物体が存在するか否かを判断する。監視対象物体が存在すらしない場合には、ステップ16において監視画像要求を待機して、監視画像要求が入力されなければステップ11以降の処理を継続する。ステップ16において監視画像要求を受け付けた場合には、ステップ17へ進む。
 ステップ13において監視対象物体が検出された場合には、ステップ14において監視対象物体が車両に接近しているか否かを判断する。ステップ14において、監視対象物体が検出されたものの、車両に接近していないと判断された場合にはステップ17へ進む。
 他方、ステップ14において監視対象物体が検出され、かつその監視対象物体が車両に接近している場合には、さらに、ステップ15に進んで監視対象物体が車両周囲に所定時間以上滞在しているか否を判断する。ステップ15において、監視体対象物体が存在し、車両に接近しているが、車両周囲に所定時間以上滞在しなかった場合、及び監視体対象物体が存在し、車両に接近し、さらに車両周囲に所定時間以上滞在した場合のいずれの場合であっても、ステップ17へ進む。
 ステップ17において、制御装置10は、ステップ12~16の過程において取得した車両状況に基づいて車両Vの監視レベルを判断する。監視レベルの判断に際しては、図3に示す対応関係を参照することができる。
 監視レベルを判断した後、ステップ18において、制御装置10は、監視レベルに応じたフレームレート又は表示態様を求める。監視レベルの判断に際しては、図3に示す対応関係を参照することができる。続くステップ19において、制御装置10は、算出したフレームレートに応じた表示態様の監視画像を生成する。生成した監視画像は、少なくとも一時的に記憶する。
 ステップ20において、制御装置10は、生成した監視画像を含む情報を外部端末装置800へ送信し、ステップ21において監視処理の終了が判断されるまで処理が繰り返される。
 外部端末装置800は、ステップ31において、監視装置100から送出された監視画像を通信装置810が受信し、ステップ32において画像処理装置820が必要な画像処理を実行し、ステップ33においてディスプレイ830が指定され表示態様の監視画像を含む情報を表示する。
 なお、本実施形態では、監視装置100が車両Vに配置された場合を例にして説明したが、本発明の本実施形態に係る車両Vの監視方法を、カメラ1、通信装置400を制御可能なクライアント(コンピュータ・制御装置)と情報の授受が可能なサーバ(コンピュータ・制御装置)において処理の一部又は全部実行することもできる。サーバは、クライアントと離隔した場所に配置することができる。
 以上のとおり構成され、動作する本発明の実施形態に係る監視装置100及び車両監視システム1000は、以下の効果を奏する。
 本実施形態に係る監視装置100によれば、車両V又は車両Vの周囲の車両状況に基づいて判断された監視レベルに基づいて求められた表示態様で、車両Vに設置されたカメラ1により撮像された撮像画像の監視画像を外部端末装置800へ送信するので、監視の対象の映像を適切な表示態様で示すことができるとともに、カメラの撮像画像をそのままで送信する場合よりも、車両の周囲を監視するために送信される監視画像のデータ総量を低減させることができる。この結果、車両の監視のために必要な通信コストを低減させることができる。
 本実施形態における車両Vの監視方法を使用した場合においても、監視装置100と同様の作用を奏し、同様の効果を得ることができる。
 本実施形態に係る監視装置100によれば、カメラ1により撮像された撮像画像から監視対象物体の存在が検出された場合には、車両Vの監視レベルを強化レベルと判断し、通常のフレームレートよりも高いフレームレートの動画又はストリーミング映像の監視画像を外部端末装置800へ送信するので、監視を強化するときはフレームレートを高くして監視対象物体の動きを追跡できる動画又はストリーミング映像の監視画像を生成し、監視を強化する必要のないときはフレームレートを低くしてデータ量の小さい監視画像を生成することができる。この結果、車両の監視のために必要な通信コストを低減させることができる。
 本実施形態に係る監視装置100によれば、カメラ1により撮像された撮像画像から車両Vに接近する監視対象物体が検出された場合には、車両Vの監視レベルを強化レベルと判断し、通常のフレームレートよりも高いフレームレートの動画又はストリーミング映像の監視画像を外部端末装置800へ送信するので、監視を強化するときはフレームレートを高くして監視対象物体の動きを追跡できる動画又はストリーミング映像の監視画像を生成し、監視を強化する必要のないときはフレームレートを低くしてデータ量の小さい監視画像を生成することができる。この結果、車両の監視のために必要な通信コストを低減させることができる。
 本実施形態に係る監視装置100によれば、カメラ1により撮像された撮像画像から車両Vの近傍領域に所定時間以上滞在する監視対象物体が検出された場合には、車両Vの監視レベルを強化レベルと判断し、通常のフレームレートよりも高いフレームレートの動画又はストリーミング映像の監視画像を外部端末装置800へ送信するので、監視を強化するときはフレームレートを高くして監視対象物体の動きを追跡できる動画又はストリーミング映像の監視画像を生成し、監視を強化する必要のないときはフレームレートを低くしてデータ量の小さい監視画像を生成することができる。この結果、車両の監視のために必要な通信コストを低減させることができる。
 本実施形態に係る監視装置100によれば、車両Vから異常発生信号を取得した場合には、車両Vの監視レベルを強化レベルと判断し、通常のフレームレートよりも高いフレームレートの動画又はストリーミング映像の監視画像を外部端末装置800へ送信するので、監視を強化するときはフレームレートを高くして監視対象物体の動きを追跡できる動画又はストリーミング映像の監視画像を生成し、監視を強化する必要のないときはフレームレートを低くしてデータ量の小さい監視画像を生成することができる。この結果、車両の監視のために必要な通信コストを低減させることができる。
 本実施形態に係る監視装置100によれば、外部端末装置800から監視画像の要求を取得した場合には、車両Vの監視レベルを標準レベルであると判断し、標準のフレームレート以下の表示態様の監視画像を外部端末装置800へ送信するので、監視を強化する必要のないときはフレームレートを低くしてデータ量の小さい監視画像を生成することができる。この結果、車両の監視のために必要な通信コストを低減させることができる。
 本実施形態に係る監視装置100によれば、監視レベルが検出された時刻が日没後である場合にはフレームレートを高く補正した撮像画像の監視画像を外部端末装置800へ送信するので、夜間であって、露光不足が懸念される場合にはフレームレートを低くして監視画像が不明瞭となることを防止することができる。
 本実施形態に係る監視装置100によれば、監視対象物体が含まれる撮像画像を撮像したカメラ1により撮像された撮像画像を、監視レベルに応じて求められた圧フレームレートを高くした補正後の表示態様の監視画像を外部端末装置800へ送信するので、監視対象物体に対応する画像を含む撮像画像を撮像したカメラ1の撮像画像のみをフレームレートの高い動画又はストリーミング映像で生成し、他の撮像画像はフレームレートの低い静止画で生成することにより、最終的に外部端末装置800へ送出する監視画像のデータ総量を低減させることができる。
 本実施形態に係る監視装置100によれば、監視レベルが強化レベルであると判断された場合には、監視画像を生成する頻度を高くすることができるので、最新の監視画像が要求される監視強化時に、高い頻度で最新の監視画像を生成し、遂次外部端末装置800に送信することができるので、ユーザは最新の車両の状況を外部端末装置800により確認することができる。
<第2実施形態>
 続いて、第2実施形態の監視装置100及びこの監視装置100を備える車両用監視システムについて説明する。第2実施形態の監視装置100及び車両監視システム1000の構成は、図1及び図2に示す第1実施形態の監視装置100及び車両監視システム1000の構成と基本的に共通するので、共通する点については第1実施形態における説明を援用し、以下には異なる点を中心に説明する。
 以下、本発明の本実施形態に係る監視装置100が実現する監視レベル判断機能、監視画像生成機能、送信機能の各機能について説明する。
 まず、監視レベル判断機能について説明する。本実施形態の監視装置100の制御装置10は、車両V又は車両Vの周囲の状況を示す情報(信号)を検出し、検出された車両状況(車両状況に応じた情報)に基づいてこの車両Vの監視レベルを判断する。
 本実施形態の制御装置10は、カメラ1a~1dにより撮像された撮像画像から「車両Vの周囲に存在する監視対象物体」が検出された場合には、車両に危険が発生する可能性が高いと考えられる。本実施形態における監視対象物体とは、例えば人間のように、高さのある物体であり、かつ移動可能な物体である。制御装置10は、カメラ1の撮像画像から所定の高さ以上の物体に対応する画像が検出され、その画像の位置が経時的に変化する場合には、監視対象物体が検出されたと判断することができる。これらの処理には、先述した画像処理コントロールユニット(Image Processing Control Unit: IPCU)を用いることができる。また、制御装置10は、近接センサ2a~2dの検出結果を利用して移動する監視対象物体の存在を検出することができる。
 また、本実施形態の制御装置10は、カメラ1により撮像された撮像画像を経時的に分析し、撮像画像から「車両Vに接近する監視対象物体」が検出された場合には、車両に危険が発生する可能性が高いと考えられる。制御装置10は、撮像画像から検出された監視対象物体に対応する画像の面積が経時的に大きくなる、又は近接センサ2a~2dが検出する監視対象物体の存在距離が経時的に小さくなることにより監視対象物体が車両Vに接近しているか否かを判断することができる。
 本実施形態の制御装置10は、カメラ1により撮像された撮像画像から「車両Vの近傍領域に所定時間以上滞在する監視対象物体」が検出された場合には、車両に危険が発生する可能性が高いと考えられる。制御装置10は、撮像画像から検出された監視対象物体に対応する画像の面積が所定時間に渡って所定値域以上である、又は近接センサ2a~2dが検出する監視対象物体の存在距離が所定時間に渡って所定値未満であることにより、監視対象物体が車両V周囲に滞在しているか否かを判断することができる。
 さらに、本実施形態の制御装置10は、車両Vが備える各種の車両状況検出センサから異常発生信号を取得した場合には、車両に危険が発生する可能性が高いと考えられる。車両Vが備える異常検出センサとしては、エンジンオフ時に人体などが車両に接触したことを検出する接触センサ、エンジンオフ時にドアの解錠(こじ開け)を検出する解錠センサ、エンジンオフ時に人体が車両に力をかける、人体が車両に乗り込むなどの状態における車両の傾きを検出する傾斜センサ、など、出願時に知られている車両の監視センサを用いることができる。
 他方、本実施形態の制御装置10は、カメラ1の撮像画像から監視対象物体が検出されず、あるいは監視対象物体が検出されても車両Vから遠ざかっていく場合や、車両から異常発生信号を受信しない場合には、車両に危険が発生する可能性が高くないと判断することができる。
 上述のように、制御装置10は、検出された車両状況に基づいて、車両状況と監視レベルとを予め対応づけることができる。図5は、車両状況と監視レベルとの対応関係の一例を示す図である。図5に示すように、車両から異常発生信号を取得した場合には、すでに車両に異常が発生しており緊急性が高い状態であると考えられるので監視レベルは最も強化されたレベル7と判断し、カメラ1の撮像画像から検出された監視対象物体が車両の近傍で所定時間以上滞在している場合には、車両のドアを開けようとしているなど車両に危害を加える蓋然性が高い状態であると考えられるので監視レベルは次に強化されたレベル6と判断し、カメラ1の撮像画像から検出された監視対象物体が車両に接近している場合には、車両の様子を伺うなど車両を物色している可能性が高い状態であると考えられるので監視レベルはその次に強化されたレベル5と判断し、カメラ1の撮像画像から監視対象物体が検出された場合には、不審者が車両に触れるなどの事態が考えられるので監視レベルはその次のレベル4と判断することができる。特に限定されないが、以上のレベル7~レベル4を、監視を強化するべき強化レベルとして定義することができる。監視レベルが高くなるにつれて、監視を強化する強化レベルを示す数値が大きくなる。
 また、同図に示すように、カメラ1の撮像画像から検出された監視対象物体が車両から離隔している場合には、監視対象物体は車両の傍を通り過ぎる通行人であると考えられるので監視レベルはその次のレベル3と判断することができ、カメラ1の撮像画像から検出された物体が静止物体である場合には、建造物などが検出されたと考えられるので監視レベルはさらに低いレベル2と判断し、ユーザの外部端末装置800から監視画像の要求指令を受け付けた場合は、特に車両の状況に基づく状況ではないため、監視レベルをさらに低いレベル1と判断することができる。特に限定されないが、以上のレベル3~レベル1を通常の監視を行えばよい標準レベルとして定義することができる。
 続いて、本実施形態の監視装置100の監視画像生成機能について説明する。本実施形態の制御装置10は、判断された監視レベルに応じて算出されたデータの圧縮率で、カメラ1により撮像された撮像画像を圧縮した監視画像を生成する。
 本実施形態の制御装置10は、前述したように監視レベルが強化レベル(例えば、図5に示すレベル7~4)であると判断された場合には、この強化レベルに応じて、強化レベルではない場合に適用される標準圧縮率(デフォルトの圧縮率)よりも低い圧縮率でカメラ1の撮像画像を圧縮した監視画像を生成することができる。これにより、監視レベルが高いと判断され、監視を強化するために画質の良い詳細な監視画像が要求された場合において、データの圧縮率が低い画質の良い監視画像を生成・提供することができる。
 また、本実施形態の制御装置10は、前述したように監視レベルが標準レベル(例えば、図5に示すレベル3~1)であると判断された場合には、この標準レベルに応じて、通常の監視時(監視レベルを強化しない時)に適用される標準圧縮率(デフォルトの圧縮率)以上の圧縮率でカメラ1の撮像画像を圧縮した監視画像を生成することができる。
 特に限定されないが、本実施形態の制御装置10は、先述した図5に示すように、監視レベルがレベル7である場合は、圧縮率を100%、つまり撮像画像そのままの状態の監視画像を生成する。つまり、監視レベルが高いときには、撮像画像の画質を低下させない監視画像を生成することができる。さらに、同図に示すように、監視レベルが下がる(監視の強化の程度が下がる)につれて、監視画像を生成する際の圧縮率を高くすることができる。具体的に、監視レベルがレベル6である場合は圧縮率を90%、監視レベルがレベル5である場合は圧縮率を80%、監視レベルがレベル4である場合は圧縮率を70%とすることができる。なお、本実施形態における圧縮率は圧縮の程度であるので、圧縮率100%である場合には元の画像データと同じ画像データを得ることができ、圧縮率が50%である場合には元の画像データを半分に低減させることになる。つまり、圧縮率の数値が下がるほど、圧縮の程度が高くなる。
 本実施形態の制御装置10は、監視レベルが3以下の標準的な監視レベルである場合には、デフォルトの標準圧縮率以下の圧縮率で監視画像を生成することができる。図5に示す例では、監視レベルがレベル3である場合は圧縮率が60%、監視レベルがレベル2である場合は圧縮率が50%、監視レベルがレベル1である場合は圧縮率が40%とすることができる。レベル3~レベル1については、共通の標準圧縮率を適用してもよい。
 なお、図5は、圧縮率の一例を示すものにすぎず、監視レベルに応じた圧縮率、標準圧縮率は任意に設定することができる。
 以上のように、監視レベルに応じた圧縮率で撮像画像を圧縮して監視画像を生成することにより、緊急性が高く詳細な情報を得たい場合には、低い圧縮率により画質の高い監視画像を生成することができる一方で、緊急性が低く詳細な情報が必要無い場合には、高い圧縮率により画質は低くてもデータ量の小さい監視画像を生成することができる。これにより、監視レベルによって異なる情報の詳細度に適した監視画像を生成しつつ、詳細な情報を必要としない場合には圧縮によりデータ量を小さくすることができる。この結果、外部端末装置800に監視画像を送信するときの通信データ量の総量を低減させ、監視システム稼働時の通信コストを低減させることができる。
 さらにまた、本実施形態の制御装置10は、監視レベルが検出された時刻が日没後である場合には、監視レベルに応じて求められた圧縮率の値を低く補正した補正後の圧縮率で撮像画像を圧縮することができる。日没後は、一般に暗くなるので、鮮明な撮像画像を取得することが困難になる場合が多い。このため本実施形態の制御装置10は、図5に示す対応関係に基づいて求められた圧縮率を、日没後においては低く補正する。これにより、夜間であって、露光不足が懸念される場合には圧縮率を低くして監視画像が不明瞭となることを防止することができる。
 なお、日没後であるか否かを判断する手法としては、制御装置10が備える時計の時刻と地点に応じた日没時刻情報とを対比して求めてもよいし、車両に設けられた照度センサから車両周囲の明るさを検出してもよいし、カメラ1のCCD素子を用いて周囲の明るさを検出してもよい。
 他方、制御装置10は、監視レベルが検出された時刻が日没前である場合には、監視レベルに応じて求められた圧縮率の値を維持又は高く補正することができる。
 加えて、本実施形態の制御装置10は、監視対象物体を検出したカメラ1の撮像画像については、詳細な監視画像を得る観点から、圧縮率を低くすることができる。具体的に制御装置10は、カメラ1により撮像された撮像画像に監視対象物体が含まれる場合には、監視レベルに応じて求められた圧縮率を低く補正した補正後の圧縮率でそのカメラ1により撮像された撮像画像を圧縮した監視画像を生成することができる。
 車両V又は車両Vの周囲の車両状況に異常が発生した場合や、監視対象物体が検出された場合には、詳細な監視画像が要求されるが、すべての監視画像を詳細にする必要が無い。本実施形態では、監視対象物体に対応する画像を含む撮像画像を撮像したカメラ1a~1dの何れかの撮像画像のみを低い圧縮率で圧縮し、他のカメラ1a~1dの撮像画像は高い圧縮率で圧縮することにより、監視対象物体を捉えた監視画像を高画質としつつ、最終的に外部端末装置800へ送出する監視画像のデータ総量を低減させることができる。
 さらに、本実施形態の制御装置10は、監視レベルが強化レベルであると判断された場合には、監視画像を生成する頻度を高くすることができる。車両V又は車両Vの周囲の車両状況に異常が発生した場合や、監視対象物体が検出された場合には、最新の監視画像が要求されるため、この要求に応じるべく、本実施形態の制御装置10は高い頻度で最新の監視画像を生成することができる。生成された監視画像が遂次外部端末装置800に送信されれば、ユーザは最新の車両の状況をリアルタイムで外部端末装置800により確認することができる。
 最後に、本実施形態の制御装置10の通信機能について説明する。制御装置10は、生成された監視画像を含む情報を、公衆通信網として利用可能な通信回線900を用いて外部端末装置800へ送信することができる。監視画像は、一つの動画ファイルとして記憶してもよいし、ストリーミング方式で転送・再生が可能形態で記憶してもよい。
 以下、本発明の本実施形態の車両監視システム1000の処理手順を説明する。図6は、本実施形態に係る車両監視システム1000の制御手順を示すフローチャートである。
 ステップ10において、本実施形態の監視装置100の制御装置10は、監視開始タイミングであるか否かを判断する。本実施形態では、エンジンOFFで車両のキーが近くにない場合であって、ユーザが所持する外部端末装置800から監視画像の要求指令を受信したタイミングを監視開始タイミングとして認識し、監視処理を開始する。
 ステップ11において、制御装置10は、車両V又はこの車両Vの周囲の状況を示す情報である車両状況情報を取得する。具体的に、監視装置100は、ドアの接触センサ、傾斜センサ、異常検知センサなどの各種の車両状況検出センサから異常発生信号を取得し、カメラ1により撮像された各撮像領域の撮像画像を取得する。
 ステップ12において、制御装置10は、ドアの接触センサ、傾斜センサ、異常検知センサなどの各種の車両状況検出センサから異常発生信号を取得した場合には、ステップ17へ進む。
 異常発生信号が検出されなかった場合には、ステップ13に進み、制御装置10は、カメラ1により撮像された撮像画像に基づいて、監視対象物体が存在するか否かを判断する。監視対象物体が存在すらしない場合には、ステップ16において監視画像要求を待機して、監視画像要求が入力されなければステップ11以降の処理を継続する。ステップ16において監視画像要求を受け付けた場合には、ステップ17へ進む。
 ステップ13において監視対象物体が検出された場合には、ステップ14において監視対象物体が車両に接近しているか否かを判断する。ステップ14において、監視対象物体が検出されたものの、車両に接近していないと判断された場合にはステップ17へ進む。
 他方、ステップ14において監視対象物体が検出され、かつその監視対象物体が車両に接近している場合には、さらに、ステップ15に進んで監視対象物体が車両周囲に所定時間以上滞在しているか否を判断する。ステップ15において、監視体対象物体が存在し、車両に接近しているが、車両周囲に所定時間以上滞在しなかった場合、及び監視体対象物体が存在し、車両に接近し、さらに車両周囲に所定時間以上滞在した場合のいずれの場合であっても、ステップ17へ進む。
 ステップ17において、制御装置10は、ステップ12~16の過程において取得した車両状況に基づいて車両Vの監視レベルを判断する。監視レベルの判断に際しては、図5に示す対応関係を参照することができる。
 監視レベルを判断した後、ステップ18において、制御装置10は、監視レベルに応じた圧縮率を算出する。監視レベルの判断に際しては、図5に示す対応関係を参照することができる。続くステップ19において、制御装置10は、算出した圧縮率で撮像画像を圧縮した監視画像を生成する。生成した監視画像は、少なくとも一時的に記憶する。
 ステップ20において、制御装置10は、生成した監視画像を含む情報を外部端末装置800へ送信し、ステップ21において監視処理の終了が判断されるまで処理が繰り返される。
 外部端末装置800は、ステップ31において、監視装置100から送出された監視画像を通信装置810が受信し、ステップ32において画像処理装置820が必要な画像処理を実行し、ステップ33においてディスプレイ830が監視画像を含む情報を表示する。
 なお、本実施形態では、監視装置100が車両Vに配置された場合を例にして説明したが、本発明の本実施形態に係る車両Vの監視方法を、カメラ1、通信装置400を制御可能なクライアント(コンピュータ・制御装置)と情報の授受が可能なサーバ(コンピュータ・制御装置)において処理の一部又は全部実行することもできる。サーバは、クライアントと離隔した場所に配置することができる。
 以上のとおり構成され、動作する本発明の実施形態に係る監視装置100及び車両監視システム1000は、以下の効果を奏する。
 本実施形態に係る監視装置100によれば、車両V又は車両Vの周囲の車両状況に基づいて判断された監視レベルに応じて算出された圧縮率で、車両Vに設置されたカメラ1により撮像された撮像画像を圧縮した監視画像を外部端末装置800へ送信するので、常に一定の圧縮率で送出する場合よりも、車両の周囲を監視するために送信される監視画像のデータ総量を低減させることができる。この結果、車両の監視のために必要な通信コストを低減させることができる。
 本実施形態における車両Vの監視方法を使用した場合においても、監視装置100と同様の作用を奏し、同様の効果を得ることができる。
 本実施形態に係る監視装置100によれば、カメラ1により撮像された撮像画像から監視対象物体の存在が検出された場合には、車両Vの監視レベルを強化レベルと判断し、通常の標準圧縮率よりも低い圧縮率で撮像画像を圧縮した監視画像を外部端末装置800へ送信するので、監視を強化するときは圧縮率を低くして画質の良い監視画像を生成し、監視を強化する必要のないときは圧縮率を高めてデータ量の小さい監視画像を生成することができる。この結果、車両の監視のために必要な通信コストを低減させることができる。
 本実施形態に係る監視装置100によれば、カメラ1により撮像された撮像画像から車両Vに接近する監視対象物体が検出された場合には、車両Vの監視レベルを強化レベルと判断し、通常の標準圧縮率よりも低い圧縮率で撮像画像を圧縮した監視画像を外部端末装置800へ送信するので、監視を強化するときは圧縮率を低くして画質の良い監視画像を生成し、監視を強化する必要のないときは圧縮率を高めてデータ量の小さい監視画像を生成することができる。この結果、車両の監視のために必要な通信コストを低減させることができる。
 本実施形態に係る監視装置100によれば、カメラ1により撮像された撮像画像から車両Vの近傍領域に所定時間以上滞在する監視対象物体が検出された場合には、車両Vの監視レベルを強化レベルと判断し、通常の標準圧縮率よりも低い圧縮率で撮像画像を圧縮した監視画像を外部端末装置800へ送信するので、監視を強化するときは圧縮率を低くして画質の良い監視画像を生成し、監視を強化する必要のないときは圧縮率を高めてデータ量の小さい監視画像を生成することができる。この結果、車両の監視のために必要な通信コストを低減させることができる。
 本実施形態に係る監視装置100によれば、車両Vから異常発生信号を取得した場合には、車両Vの監視レベルを強化レベルと判断し、通常の標準圧縮率よりも低い圧縮率で撮像画像を圧縮した監視画像を外部端末装置800へ送信するので、監視を強化するときは圧縮率を低くして画質の良い監視画像を生成し、監視を強化する必要のないときは圧縮率を高めてデータ量の小さい監視画像を生成することができる。この結果、車両の監視のために必要な通信コストを低減させることができる。
 本実施形態に係る監視装置100によれば、外部端末装置800から監視画像の要求を取得した場合には、車両Vの監視レベルを標準レベルであると判断し、標準圧縮率以上の圧縮率で撮像画像を圧縮した監視画像を外部端末装置800へ送信するので、監視を強化する必要のないときは圧縮率を標準圧縮率以上にしてデータ量の小さい監視画像を生成することができる。この結果、車両の監視のために必要な通信コストを低減させることができる。
 本実施形態に係る監視装置100によれば、監視レベルが検出された時刻が日没後である場合には圧縮率を低く補正して撮像画像を圧縮した監視画像を外部端末装置800へ送信するので、夜間であって、露光不足が懸念される場合には圧縮率を低くして監視画像が不明瞭となることを防止することができる。
 本実施形態に係る監視装置100によれば、監視対象物体が含まれる撮像画像を撮像したカメラ1により撮像された撮像画像を、監視レベルに応じて求められた圧縮率を低く補正した補正後の圧縮率で圧縮した監視画像を外部端末装置800へ送信するので、監視対象物体に対応する画像を含む撮像画像を撮像したカメラ1の撮像画像のみを低い圧縮率で圧縮し、他の撮像画像は高い圧縮率で圧縮することにより、最終的に外部端末装置800へ送出する監視画像のデータ総量を低減させることができる。
 本実施形態に係る監視装置100によれば、監視レベルが強化レベルであると判断された場合には、監視画像を生成する頻度を高くすることができるので、最新の監視画像が要求される監視強化時に、高い頻度で最新の監視画像を生成し、遂次外部端末装置800に送信することができるので、ユーザは最新の車両の状況を外部端末装置800により確認することができる。
 なお、以上説明したすべての実施形態は、本発明の理解を容易にするために記載されたものであって、本発明を限定するために記載されたものではない。したがって、上記の実施形態に開示された各要素は、本発明の技術的範囲に属する全ての設計変更や均等物をも含む趣旨である。
 本明細書では、本発明に係る車両用監視装置の一態様として監視装置100及び車両監視システム1000を例にして説明するが、本発明はこれに限定されるものではない。
 また、本明細書では、本発明に係る車両用監視装置の一態様として、CPU11、ROM12、RAM13を含む制御装置10を備える監視装置100を一例として説明するが、これに限定されるものではない。
 また、本明細書では、カメラと、監視レベル判断手段と、監視画像生成手段と、送信手段を有する本発明に係る車両用監視装置の一態様として、カメラ1と、監視レベル判断機能、監視画像生成機能、送信機能を備える制御装置10を備える監視装置100を説明するが、これに限定されるものではない。
 本明細書では、本発明に係る車両用監視システムの一態様として、本願発明に係る監視装置100と、車両コントローラ200と、通信装置400と、外部端末装置800とを備えた車両監視システム1000を例にして説明するが、本発明はこれに限定されるものではない。
 なお、以上説明したすべての実施形態は、本発明の理解を容易にするために記載されたものであって、本発明を限定するために記載されたものではない。したがって、上記の実施形態に開示された各要素は、本発明の技術的範囲に属する全ての設計変更や均等物をも含む趣旨である。
 本明細書では、本発明に係る車両用監視装置の一態様として監視装置100及び車両監視システム1000を例にして説明するが、本発明はこれに限定されるものではない。
 また、本明細書では、本発明に係る車両用監視装置の一態様として、CPU11、ROM12、RAM13を含む制御装置10を備える監視装置100を一例として説明するが、これに限定されるものではない。
 また、本明細書では、カメラと、監視レベル判断手段と、監視画像生成手段と、送信手段を有する本発明に係る車両用監視装置の一態様として、カメラ1と、監視レベル判断機能、監視画像生成機能、送信機能を備える制御装置10を備える監視装置100を説明するが、これに限定されるものではない。
 本明細書では、本発明に係る車両用監視システムの一態様として、本願発明に係る監視装置100と、車両コントローラ200と、通信装置400と、外部端末装置800とを備えた車両監視システム1000を例にして説明するが、本発明はこれに限定されるものではない。
<第3実施形態>
 先述したように、ドアの接触センサなどが検知した外部からの刺激を検知した場合には、カメラに周囲を撮像させ、その画像情報を外部の携帯電話等に転送する防犯装置が知られているが、カメラの撮像画像をそのまま送信すると通信データの量が多く、通信時間及び通信コストの負担が大きいという問題がある。
 本実施形態の移動体監視装置は、監視対象とするべき物体が検出された場合には、その監視対象物体に応じた画像を含む撮像画像に基づいて生成された動画像を外部へ送信する。
 これにより、本実施形態の車両監視システム1000は、移動体の周囲に監視対象物体が検出された場合にのみ動画像を外部の端末に送信するので、移動体の周囲を監視するために送信される監視画像のデータ総量を低減させることができる。この結果、移動体の監視のために必要な通信コストを低減させることができる。
 以下、本発明の第3の実施形態を図面に基づいて説明する。本実施形態では、本発明に係る車両用監視装置を、車両を監視するための車両監視システム1000に適用した場合を例にして説明する。本実施形態においては、移動体が車両である場合を例にして説明する。なお、監視の対象となる移動体は車両に限定されず、本発明に係る車両用監視装置は二輪車、船、重機、フォークリフト等を監視することもできる。
 図7は、本実施形態に係る監視装置100を含む車両監視システム1000のブロック構成図である。図7に示すように、本実施形態の車両監視システム1000は、車両に設置された4つのカメラ1a~1dと(以下、カメラ1と総称することもある)を備えている。
 図8は、カメラ1a~1dを車両Vに取り付ける場合の配置例を示す図である。カメラ1a~1dはCCD(Charge Coupled Devices)等の撮像素子を用いて構成され、車両Vの外部の異なる位置に各々設置され、車両周囲の4方向の画像をそれぞれ撮影する。例えば、図8に示すように、フロントグリル近傍などの車両Vの前方の所定位置に設置されたカメラ1aは、車両Vの前方のエリアSP1内及びその前方の空間に存在する物体又は路面の画像(以下、フロントビュー画像という)を撮影する。左サイドミラーなどの車両Vの左側方の所定位置に設置されカメラ1dは、車両Vの左側方のエリアSP2内及びその周囲の空間に存在する物体又は路面の画像(以下、左サイドビュー画像という)を撮影する。ルーフスポイラーなどの車両Vの後方の所定位置に設置されたカメラ1cは、車両Vの後方のエリアSP3内及びその後方の空間に存在する物体又は路面の画像(以下、リアビュー画像という)を撮影する。右サイドミラーなどの車両Vの右側方の所定位置に設置されたカメラ1bは、車両Vの右側方のエリアSP4内及びその周囲の空間に存在する物体又は路面の画像(以下、右サイドビュー画像という)を撮影する。制御装置10は、カメラ1a~1dによって撮像された撮像画像をそれぞれ取得する。なお、カメラ1の配置数及び配置位置は、車両Vの大きさ、形状、検出領域の設定手法等に応じて適宜に決定することができる。上述した複数のカメラ1は、それぞれのアドレス(配置)に応じた識別子が付されており、制御装置10は、各識別子に基づいて各カメラ1のそれぞれを識別することができる。また、制御装置10は、識別子を付することにより、特定のカメラ1に起動命令その他の命令を送出することができる。
 なお、図8に示すように、カメラ1a~1dの近傍に、近接センサ2a~2dを配置することができる。近接センサ2a~2dは、車両V周囲の所定領域に物体が存在するか、又は車両周囲の物体が車両Vに接近しているか又は離隔しているかを検出することができる、超音波センサ、赤外線センサ、静電センサなどである。
 また、本実施形態の車両監視システム1000は、さらに、監視装置100と、車両コントローラ200と、通信装置400と、外部端末装置800と、を有する。この車両監視システム1000は、車両コントローラ200と情報の授受が可能なイグニッションスイッチ300を備えることができる。これらの各装置はCAN(Controller Area Network)その他の車載LANによって接続され、相互に情報の授受を行うことができる。
 本実施形態の車両監視システム1000において、監視装置100は、通信装置400を介して携帯電話、スマートフォンその他の通信装置810を備える外部端末装置800(コンピュータ)と相互に通信が可能である。外部端末装置800は、監視装置100から通信装置810を介して監視画像を含む監視情報を取得する。また、外部端末装置800は、取得した監視画像に基づいて表示用画像を生成する画像処理装置820と、生成された表示用画像を表示するディスプレイ830とを有する。外部端末装置800を所持するユーザは、監視装置100から送出された車両の監視画像を、外部端末装置800のディスプレイ830で見ることができる。
 図9は、外部端末装置800における表示用の監視画像Q´の表示例を示す図である。図9に示す表示用の監視画像Q´は、カメラ1aの撮像画像に基づく監視画像R1と、カメラ1bの撮像画像に基づく監視画像R2と、カメラ1cの撮像画像に基づく監視画像R3と、カメラ1dの撮像画像に基づく監視画像R4と、車両Vを上方の視点から見た場合の仮想の車両モデル画像R0とを含む。監視画像R1~R4は状態変化を連続的に示す動画像であってもよいし、一時的な状態を示す静止画像であってもよい。また、監視画像R1~R4の一部を動画像とし他を静止画像として表示することも可能である。このような監視画像Qにより、ユーザは車両Vから離隔した場所に居ても、車両Vの周囲の状態を監視することができる。
 また、図7のブロック図に示すように、本実施形態に係る監視装置100の制御装置10は、監視画像を生成して外部の端末装置に送出するプログラムが格納されたROM(Read Only Memory)12と、このROM12に格納されたプログラムを実行することで、監視装置100として機能する動作回路としてのCPU(Central Processing Unit)11と、アクセス可能な記憶装置として機能するRAM(Random Access Memory)13と、を備えている。
 本実施形態に係る監視装置100の制御装置10は、監視画像生成機能と、送信機能とを実現するためのソフトウェアと、上述したハードウェアの協働により各機能を実行することができる。本実施形態では、制御装置10が各制御命令を送出する態様を例にして説明するが、本実施形態の制御装置10は、車両コントローラ200を介してカメラ1、通信装置400を制御することも可能である。
 特に限定されないが、本実施形態の監視装置100は、イグニッションスイッチ300に入力されたエンジンのオフ信号が入力され、通信機能を有する車両Vの電子キーが車両Vの近傍に存在しない場合(電子キーを携帯するユーザが車両Vから離れている場合)であって、ユーザの端末装置800から監視画像の要求指令を受け付けた場合に監視処理を開始することができる。なお、監視処理のトリガはこれに限定されず、監視装置100は、不図示のソナーが車両Vの周囲に物体を検出したとき、ドアの接触センサがドアへの接触を検出したとき、傾斜センサが車両の傾き(乗り込み)を検出したとき、異常検知センサがドアのこじ開けや窓が割られたなどの異常を検知したとき、カメラ1の撮像画像から車両などの移動体が検出されたとき、監視装置100のスイッチ(図示せず)に入力信号が入力されたときなどに監視処理を開始することができる。
 また、第3実施形態に係る監視装置100は、画像処理コントロールユニット(Image Processing Control Unit: IPCU)を備える。制御装置10は、画像処理コントロールユニットを用いて、各カメラ1の撮像画像を解析し、撮像画像のデータから物体に対応する画像を抽出し、さらに抽出した画像の移動量に基づいて物体の移動量を算出することができる。また、制御装置10は、撮像画像の変化から物体の経時的な物体の位置の変化を算出することができる。この経時的な物体の位置の変化に基づいて、制御装置10は、車両Vの周囲に存在する物体が監視すべき監視対象物体であるか否かを判断することができる。例えば、制御装置10は、撮像画像から検出された移動物体が車両Vの近傍に所定時間以上滞在している場合は、その物体を監視対象物体として検出し、検出後に監視対象物体を含む撮像画像を制御装置10内の画像メモリに時間情報とともに記憶することができる。なお、これらの画像処理には、出願時において知られた手法を用いることができる。
 以下、本発明の本実施形態に係る監視装置100が実現する各機能について説明する。
 まず、第3実施形態に係る監視装置100の監視画像生成機能について説明する。本実施形態に係る監視装置100の制御装置10は、先述の画像処理コントロールユニット(Image Processing Control Unit: IPCU)を用いて、カメラ1a~1dにより撮像された撮像画像から車両などの移動体の周囲に監視対象物体が存在するか否かを判断し、監視対象物体の存在が検出された場合には、監視対象物体に応じた画像を含む撮像画像に基づいて、車両などの移動体の周囲の状態変化を連続的に示す動画像を監視画像として生成する。本実施形態における動画像は、単位時間内に複数の画像が順次表示される画像情報であり、監視領域の状態変化を示すことができる。
 制御装置10は、監視対象物体の存在が検出された場合に、監視対象物体が検出された後、所定時間Tに撮像された複数の撮像画像を監視タイミング(撮像タイミング)と対応づけて監視画像として記憶する。監視装置100は、動画像の監視画像を必要に応じて圧縮して記憶する。監視画像は、一つの動画ファイルとして記憶してもよいし、ストリーミング方式で転送・再生が可能形態で記憶してもよい。
 さらに、第3実施形態に係る監視装置100は、撮像画像に基づいて算出された監視対象物体の移動速度(単位時間当たりの移動量)が所定値よりも小さい場合には、動画像の単位時間あたりに含まれる画像数であるフレームレートを低減させて監視画像を生成する。つまり、監視対象物体の移動速度が小さい場合には、動きに応じてフレームレートを低減させる。これにより、監視対象物体の移動量が小さい場合には、過剰なフレームレートの動画像を送らないようにして、監視時において送信する動画像のデータ量を低減させることができる。他方、監視対象物体の移動速度が所定値以上である場合には、その動きの速さに応じて相対的に高いフレームレートの動画像を送り、監視対象物体の動きを詳細に示す監視画像を生成することができる。
 また、本実施形態に係る監視装置100の制御装置10は、車両などの移動体の周囲に監視対象物体が検出されない場合には、車両などの移動体の周囲の一時的な状態を示す静止画像を監視画像として生成する。制御装置10は、生成した静止画像の監視画像を必要に応じて圧縮して記憶することができる。
 以下、本発明の本実施形態の車両監視システム1000の処理手順を説明する。図10は、第3実施形態に係る車両監視システム1000の制御手順を示すフローチャート図である。
 先に監視装置100の動作を説明する。ステップ10において、第3実施形態の監視装置100の制御装置10は、監視開始タイミングであるか否かを判断する。本実施形態では、エンジンOFFで車両のキーが近くにない場合であって、ユーザが所持する端末装置800から監視画像の要求指令を受信したタイミングを監視開始タイミングとして認識し、監視処理を開始する。監視開始タイミングは限定されず、車両のドアの接触センサ、傾斜センサ、車両の異常検出センサなどが異常を検出したタイミングに、監視処理を開始することができる。
 ステップ20において、監視装置100は、カメラ1a~1dに各撮像領域の撮像を開始させ、撮像画像を取得する。
 続くステップ30において、監視装置100は、カメラ1から取得した撮像画像が最初のものであるか否かを判断する。取得した撮像画像が撮影開始直後の最初の撮像画像である場合は、ステップ40に進み、最初の撮像画像を基準監視画像G0として記憶するとともに、外部の端末装置800へ送信し、次の撮像画像を待機する。基準監視画像G0とは、車両Vの周囲を監視する際の基準となる基準監視タイミングt0において取得される撮像画像である。本例では、最初の撮像画像を基準監視画像G0としたが、これに限定されず、所定の条件を満たす基準監視タイミングt0における撮像画像を基準監視画像G0として定義することができる。
 一方、ステップ30において取得した撮像画像が最初の撮像画像でない場合は、ステップ50へ進み、監視装置100は、撮像画像の画像データの変化量に基づいて監視対象物体が存在するか否かを判断する。監視対象物体の存在を判断する際には、今回取得された撮像画像と基準監視画像G0を比較してもよいし、今回取得された監視画像と前回取得された撮像画像とを比較してもよい。
 監視対象物体が検出された場合には、ステップ60へ進み、監視装置100は、監視対象物体に応じた画像を含む撮像画像に基づいて、車両Vの周囲の状態変化を連続的に示す動画像を監視画像として生成する。つまり、動画で表される監視画像には監視対象物体の像が含まれている。本実施形態の監視装置100は、監視対象物体の存在が検出された画像を撮像したカメラ1a~1dを特定し、そのカメラ1a~1dの撮像画像に基づいて監視画像を生成することができる。
 監視画像の生成後はステップ80へ進むが、ステップ80の処理を行う前にステップ61及び62の処理を行うことができる。具体的に、ステップ61において、監視装置100は、撮像画像に基づいて監視対象物体の移動速度を算出し、この監視対象物体の移動速度が所定値未満である場合には、ステップ62へ進んで動画像の監視画像のフレームレートを低減させる。監視装置100は、予め、監視対象物体の移動速度の低下に伴いフレームレートが低下する関係を定義しておき、この関係を参照して監視対象物体の移動速度に基づいてフレームレートを求めることができる。他方、監視対象物体の移動速度が所定値以上である場合には、フレームレートを変更することなくステップ80に進む。
 他方、ステップ50において監視対象物体が検出されない場合には、ステップ70へ進み、車両Vの周囲の一時的な状態を示す静止画像を監視画像として生成する。
 続くステップ80において、生成した動画像又は静止画像の監視画像を外部の端末装置800へ送出する。その後、ステップ90へ進み、監視処理の終了のタイミング(乗員が所持する電子キーが交信可能な距離に接近した、乗員がエンジンをオンにしたなどのタイミング)を待機する。終了する場合には次回の監視開始タイミングを待機するためにステップ10へ戻り、終了しない場合には次回の撮像画像の取得を待機するためにステップ30へ戻る。
 続いて、外部端末装置800の制御手法を説明する。外部端末装置800は、CPU、RAM、ROMに相当する部材を有するコンピュータであり、通信装置810、画像処理装置820、及びディスプレイ830を有する。図10のステップ110~130に示すように、通信装置810は、監視画像を受信し(ステップ110)、受信した監視画像を画像処理装置820へ送出する。画像処理装置820は、画像処理コントロールユニット(Image Processing Control Unit: IPCU)を備え、受信した監視画像について画像処理を行うことができる(ステップ120)。受信した監視画像にはそれを撮像したカメラ1を特定する識別子が付されており、画像処理装置820は、その識別子に応じて各監視画像を各表示エリアに割り付けることができる。具体的に、画像処理装置820は、受信した監視画像の各画素を、ディスプレイ830の表示エリアの各画素に割り付けて、例えば図9に示す監視画像R1~R4をディスプレイ830に表示させる。
 本発明の第3実施形態に係る監視装置100及び車両監視システム1000によれば、自車両Vの周囲に監視対象物体が検出された場合にのみ動画像の監視画像を外部の端末に送信するので、車両Vの周囲を監視するために送信される監視画像のデータ総量を低減させることができる。この結果、車両その他の移動体の監視のために必要な通信コストを低減させることができる。
 また、本発明の第3実施形態に係る監視装置100及び車両監視システム1000によれば、監視対象物体が検出されない場合にはデータ量の少ない静止画像を送信するので、車両から離隔した位置にいるユーザは、車両に異常が発生しない可能性が高い場合には、静止画像で車両周囲の一時的な状態を確認することができる。このため、監視画像の送信データ量を抑制しつつ、車両周囲を画像により監視することができる。
 さらに、本発明の第3実施形態に係る監視装置100及び車両監視システム1000によれば、監視対象物体の移動速度が所定値よりも小さい場合には、監視対象物体の移動速度に応じてフレームレートを低減させることにより、監視対象物体の動き(状態変化)を捉えつつ、データ量の小さい監視画像を作成し、監視処理における送信データ量を低減することができる。
<第4実施形態>
 以下、本発明の第4実施形態に係る監視装置100及び車両監視システム1000を、図11~図16に基づいて説明する。第4実施形態の監視装置100、車両監視システム1000は、監視画像の作成手法及び作成される監視画像が第3実施形態のそれと異なるが、図7に示す構成及び図10に示す基本的な制御手順は共通する。重複した説明を避けるため、以下には異なる点を中心に説明し、それ以外の点については第3実施形態における説明を援用する。
 図11は、本発明の第4実施形態に係る監視装置100及び車両監視システム1000の制御手順を示すフローチャート図である。
 監視装置100は、図10に示す第3実施形態の制御手順と同様の処理を実行し、ステップ40と同様に基準監視画像G0を外部端末装置800へ送信する。外部端末装置800は、基準監視画像G0を受信し(ステップ210)、受信した基準監視画像G0を記憶する(ステップ220)。図12Aは、基準監視画像G0の一例を示す図である。
 本フローチャートにおいては、一般化が可能な監視タイミングtKにおける処理を例に説明する。ステップ110において、監視装置100は、監視タイミングtKである場合に、監視画像の生成を開始する。なお、監視タイミングtKは、車両Vの周囲を監視する際の基準となる基準監視タイミングt0(基準監視画像G0の撮像タイミング)の後に、一又は複数のタイミングである。監視タイミングtKは、所定周期で巡ってくるタイミングであってもよいし、ユーザの外部端末装置800から入力された監視命令を受信した場合などの所定条件を満たすタイミングであってもよい。
 ステップ120において、監視装置100は、監視タイミングtKにおいてカメラ1により撮像された対比画像を取得する。図12Bは対比画像GKの一例を示す図である。図12Aの基準監視画像G0と比較すると、対比画像GKの右側に物体に対応する像が現れている。
 続くステップ130において、監視装置100は、基準監視タイミングt0において撮像された基準監視画像G0と、基準監視タイミングt0よりも後の一又は複数の監視タイミングで撮像された対比画像とを対比し、両画像の画像データの変化に応じる差分画像を求める。エンジン停止中などの駐停車中は背景画像に変化がないため、基準監視画像G0と対比画像GKの差分を取ると、監視タイミングtKにおいて基準監視画像G0から画像が変化した差分画像ΔGを抽出することができる。図13は、差分画像ΔGの一例を示す図である。図13では、画像データに変化がある領域を含む白枠内を差分画像ΔGと定義するが、図13に示す画像全部を差分画像ΔGと定義し、差分画像ΔGの領域以外には差分画像ΔGではない旨を示す識別子を付すことができる。
 また、監視装置100は、図14に示すように、対比画像GKに対する位置を定義づけることができる差分画像ΔGの頂点Pの座標(xk,yk)を求める。対比画像GKと基準監視画像G0とは共通の座標により定義されているので、座標(xk,yk)により、基準監視画像G0に対する差分画像ΔGの位置を求めることができる。
 最後に、ステップ140において、監視装置100は、差分画像ΔGに基づく監視画像Qを外部端末装置800へ送信する。この監視画像Qの送信は、基準監視画像G0の送信タイミングよりも後のタイミングにおいて行なわれる。この監視画像において、先のステップ40で送信した基準監視画像G0に対する差分画像ΔGの位置が不明となる場合には、差分画像ΔGの位置情報P(xk,yk)を監視画像に含ませることができる。
 図15は、送信される監視画像の一例を示す図である。図15に示すように、本実施形態において、監視装置100が送信する監視画像Qは、差分画像ΔGに対応する画像データであるため、第3実施形態において送信される監視画像(図12Bに相当)に比べてデータ量を大幅に低減させることができる。
 なお、ステップ140において、監視装置100は、監視タイミングにおいて取得された対比画像GKのうち、差分画像ΔGに対応する領域以外の不変領域の画像データに第1識別子を付した監視画像を得ることもできる。第1識別子は、対比画像GKのうち、基準監視画像G0と画像データが共通する不変領域を識別させるための情報である。つまり、第1識別子が付された不変領域は、先述した基準監視画像G0から変化の無い背景部分として取り扱うことができ、先に送信した基準監視画像G0の画像データを利用することができる。
 次に、外部端末装置800側の処理を説明する。ステップ230において、外部端末装置800は、各情報が付された監視画像を受信する。
 続くステップ240において、外部端末装置800は、基準監視画像G0に差分画像ΔGを重畳し、監視タイミングtKにおける表示用の監視画像Q´を生成する。図16は、監視タイミングtKにおける監視画像の生成手法を説明するための図である。図16に示すように、外部端末装置800は、先のステップ220において受信し記憶した基準監視画像G0を読み出し、ステップ230において受信した差分画像ΔGを基準監視画像G0に重畳し、監視タイミングtKにおける表示用の監視画像Q´Kを作成する。なお、図16に示す基準監視画像G0は、図12Aに示す基準監視画像G0と共通し、図16に示す差分画像ΔGは図13に示す差分画像ΔGと共通する。なお、差分画像ΔGの情報に画素のアドレスが含まれている場合は、そのアドレスに基づいて、基準監視画像G0の対応する位置に差分画像ΔGを貼りつける。差分画像ΔGの情報から貼り付け位置が特定できない場合には、図14に示す差分画像ΔGの位置情報P(xk,yk)を取得して、基準監視画像G0の対応する位置に差分画像ΔGを貼りつけることができる。
 図16の下側の図は、作成された表示用の監視画像Q´Kをディスプレイ830に表示した場合の例を示す。同図に示すように、基準監視画像G0に差分画像ΔGを重畳した監視画像Q´Kは、監視タイミングtKにおいて撮像された図12Bに示す対比画像GKと略共通する(略等価の)画像情報である。
 以上のとおり、本発明の第4実施形態に係る監視装置100及び車両監視システム1000によれば、第3実施形態と同様の作用効果を奏するとともに、ある監視タイミングtKにおいて、基準監視画像G0との差分画像ΔGのみを外部端末装置800へ送信するので、車両Vの周囲を監視するために送信される監視画像のデータ総量を低減させることができる。この結果、車両Vの監視のために必要な通信コストを低減させることができる。
 また、本実施形態の車両監視システム1000によれば、ある監視タイミングtKにおける監視画像Qを生成する際に、基準監視画像G0と比較して変化した変化領域に対応する差分画像ΔGのみを新たに送信又は受信し、基準監視画像G0と比較して変化していない不変領域に対応する部分については先に送信済みの基準監視画像G0を利用するので、監視タイミングtKにおける対比画像GKをそのまま送信する場合に比べて送信データ量を低減させつつ、表示する監視画像Q´の画質を落とさないようにすることができる。この結果、ユーザは、通信コストを節約しつつ、明瞭な監視画像Q´により車両Vの監視をすることができる。
<第5実施形態>
 以下、本発明の第5実施形態に係る監視装置100及び車両監視システム1000を、図17~図19に基づいて説明する。第5実施形態の監視装置100、車両監視システム1000は、監視画像の作成手法及び作成される監視画像が第3及び第4実施形態のそれと異なるが、図7に示す構成及び図10に示す基本的な制御手順は共通する。重複した説明を避けるため、以下には異なる点を中心に説明し、それ以外の点については第3及び第4実施形態における説明を援用する。
 図17は、本発明の第5実施形態に係る監視装置100及び車両監視システム1000の制御手順を示すフローチャート図である。
 監視装置100は、図10に示す第3実施形態の制御手順と同様の処理を実行し、ステップ40と同様に基準監視画像G0を外部端末装置800へ送信する。外部端末装置800は、基準監視画像G0を受信し(ステップ410)、受信した基準監視画像G0を記憶する(ステップ420)。
 図17に示すフローチャートにおいては、一般化が可能な監視タイミングtK(Kは自然数、以下同じ)における処理を例に説明する。
 ステップ310において、監視装置100は、監視タイミングtKである場合に、本例の監視画像の生成を開始する。この監視タイミングtKは、車両Vの周囲を監視する際の基準とある基準監視タイミングt0(基準監視画像G0の撮像タイミング)の後に、所定周期で巡ってくる任意の連続的な複数のタイミングである。各監視タイミングについて説明すると、図18に示すように、時間軸tにおいて、基準監視タイミングt0の後、監視タイミングt(K-1)が続き、その後に監視タイミングtKが続く。監視タイミングt(K-1)は、監視タイミングtKの直前の監視タイミングである。また、基準監視タイミングt0から監視タイミングt(K-1)までの間にも、複数の監視タイミングt(1)からt(K-2)が設定され、各監視タイミングにおいてカメラ1により撮像処理が実行され、監視装置100はこれらの監視画像を記憶している。
 なお、図18の基準監視画像G0は、図12Aに示す基準監視画像G0と共通し、図18の第K対比画像GKは、図12Bに示す監視タイミングtKにおける対比画像GKと共通する。
 ステップ320において、本実施形態に係る監視装置100は、基準監視タイミングt0の後の第K監視タイミングにおいて撮像された第K対比画像GKと(Kは自然数、以下同じ)基準監視画像G0とを対比して両画像の差分を含む所定領域の第K差分画像ΔG(0-K)を抽出する。図18に第K差分画像ΔG(0-K)を示す。
 次に、ステップ330において、監視装置100は、基準監視タイミングt0の後の第K監視タイミングtKにおいて撮像された第K対比画像GKと、第K監視タイミングtKの直前の第(K-1)タイミングt(K-1)において撮像された第(K-1)対比画像G(K-1)とを対比して両画像の第(K-1)差分画像ΔG(-1)を抽出する。図18に第(K-1)差分画像ΔG(-1)を示す。
 続くテップ330において、監視装置100は、第K差分画像ΔG(0-K)を3つの領域に区分し、それぞれに識別子を付する。具体的に、(1)第K差分画像ΔG(0-K)のうち、基準監視画像G0に対する差が無い不変領域の画像データに第1識別子を付し、(2)K差分画像ΔG(0-K)のうち、第(K-1)対比画像にも含まれる重複変化領域の画像データに第2識別子を付し、(3)第K差分画像ΔG(0-K)のうち、第(K-1)差分画像ΔG(-1)にのみ含まれる直近変化領域の画像データに第3識別子を付す。
 特に限定されないが、本実施形態の監視装置100は、第(K-1)差分画像ΔG(-1)にのみ含まれる直近変化領域として、第K差分画像ΔG(0-K)と第(K-1)差分画像ΔG(-1)との論理積(重複領域)又は第(K-1)差分画像ΔG(-1)については第3識別子を付し、第K差分画像ΔG(0-K)では白で第(K-1)差分画像ΔG(-1)では黒となる領域、つまり、第K差分画像ΔG(0-K)から第(K-1)差分画像ΔG(-1)を差し引いた領域については第2識別子を付し、第2識別子及び第3識別子が付されていない残りの領域に第1識別子を付すことができる。識別子を付す手法は特に限定されない。
 また、第2識別子が付された領域の画像は、における対比画像GKに現れているが、監視タイミングtK-1における対比画像G(K-1)にも現れている。このため、車両Vの周囲を監視するにあたり、第2識別子が付された領域の画像は、監視タイミングtK-1における対比画像G(K-1)の画素値をそのまま監視画像として利用することができる。
 さらに、第1識別子が付された領域の画像は、基準監視タイミングt0を基準とした場合に監視タイミングtKにおいて変化の無い不変領域である。特に車両Vが駐停車中である場合には、その背景画像は変化しない。このため、車両Vの周囲を監視するにあたり、第1識別子が付された領域の画像は、基準監視タイミングt0における基準監視画像G0の画素値をそのまま監視画像として利用することができる。
 特に限定されないが、各識別子を色情報とすることができる。例えば、本実施形態において、基準監視画像G0を利用する第1識別子が付される画素には0(ゼロ:黒値)の色情報を付し、第(K-1)対比画像G(K-1)を利用する第2識別子が付される画素には1(白値)の色情報を付し、第K対比画像GKを利用する第3識別子が付される画素には0.5(グレー値)の色情報を付すことができる。
 第1~第3の識別子として黒、白、グレーの色情報を、第K差分画像ΔG(0-K)に付した置換画像Hを図18に示す。
 そして、続くステップ340において、本実施形態の監視装置100は、第K差分画像ΔG(0-K)の第3識別子(グレー値)が付された画像領域の画像データを、当該画像領域に対応する第K対比画像GKの画像データに置換する。置換画像Hの第3識別子(グレー値)の領域に第K対比画像GKの画像を貼りつけた第K監視画像QKを図18に示す。
 ちなみに、第3識別子が付された領域の画像は、監視タイミングtK-1からtKに至るまでの間の状態変化に対応する画像であるので、監視タイミングtKにおいて撮像された対比画像GKにのみ現れている。このため、車両Vの周囲を監視するにあたり、第3識別子が付された領域の画像は、監視タイミングtKにおける対比画像GKの画素値をそのまま監視画像として利用することができる。
 最後に、ステップ360において、監視装置100は、第1、第2識別子の情報を含み、第3識別子(グレー値)が付された領域が第K対比画像GKの画像データに置換された第K監視画像QKと、この第K監視画像QKの位置を特定する頂点Pの座標(xk,yk)を含む情報を外部端末装置800へ送出する。
 次に、外部端末装置800側の処理を説明する。なお、以下に説明する処理は、第K監視タイミングtKに係る処理であるが、ステップ430に示すように、それ以前の第1~第(K-1)監視タイミングにおいて作成された第1~第(K-1)監視画像は、外部端末装置800側に記憶されている。
 図17に示すステップ440において、外部端末装置800は、第3識別子が付された領域に対応する第K対比画像GKの画像データと第1識別子と第2識別子とを含む第K監視画像QKを受信する。
 続くステップ450において、外部端末装置800は、ステップ420で記憶した基準監視画像G0と、ステップ430で生成した表示用の第(K-1)監視画像Q´(K-1)を読み出す。第(K-1)監視画像Q´(K-1)は、基準監視画像G0と第(K-2)監視画像Q´(K-2)と第(K-1)監視画像Q´(K-1)とに基づいて、先述した第K監視画像QKの生成処理と同じ処理によって得ることができる。
 ステップ460において、外部端末装置800は、基準監視画像G0と第(K-1)監視画像Q(K-1)と第K監視画像QKとに基づいて、監視タイミングtKにおける監視画像QKを生成する。
 図19は、ステップ460の処理に係る、監視タイミングtKにおける表示用の監視画像Q´Kを生成する手法を説明するための図である。図19に示すように、外部端末装置800は、先のステップ420において受信し記憶した基準監視画像G0を読み出し、同じく先のステップ430において表示のために作成し記憶した第(K-1)監視画像Q(K-1)を読み出す。
 そして、外部端末装置800は、ステップ440において受信した第K監視画像QKのうち、第1識別子が付された画像領域の画像データを基準監視画像G0の画像データと置換し、第2識別子が付された画像領域の画像データを、第(K-1)監視画像Q(K-1)の画像データと置換して、表示用の第K監視画像QKを作成する。ちなみに第3識別子が付された画素領域の画像データには、すでに第K対比画像GKの画像データが付されている。
 なお、図19に示す基準監視画像G0は、図18に示す基準監視画像G0と共通し、図19に示す第(K-1)監視画像Q(K-1)は、図18に示す第(K-1)対比画像G(K-1)と略共通する(略等価である)。なお、第K監視画像QKの情報に画素のアドレスが含まれている場合は、そのアドレスに基づいて、基準監視画像G0の対応する位置に第K監視画像QKの画像データを貼りつける。第K監視画像QKの情報から貼り付け位置が特定できない場合には、図18に示す第K監視画像QKの位置情報P(xk,yk)を取得して、基準監視画像G0の対応する位置に第K監視画像QKの画像データ(第K対比画像GKの画像データ)を貼りつけることができる。
 図19の右側の図は、監視タイミングtKにおける表示用の監視画像Q´Kをディスプレイ830に表示した場合の例を示す。同図に示すように、第K監視画像QKの各識別子を基準監視画像G0の画像データ、第(K-1)監視画像Q(K-1)の画像データと置換された表示用の第K監視画像Q´Kは、監視タイミングtKにおいて撮像された図18に示す第K対比画像GKと略共通(略等価)の画像情報である。
 以上のとおり構成され、動作する本発明の第5実施形態に係る監視装置100及び車両監視システム1000は、第3実施形態と同様の作用効果を奏するとともに、以下の効果を奏する。
 本実施形態に係る監視装置100及び車両監視システム1000によれば、先に送信した基準監視画像G0と、先に外部端末装置800側で生成された第(K-1)監視タイミングにおける表示用の第(K-1)監視画像Q´(K-1)との画像データを利用することにより、ある監視タイミングtKにおける第K対比画像GKと直前の第(K-1)対比画像G(K-1)との差分についてのみ第K対比画像GKの画像データを送信すればよいので、車両Vの周囲を監視するために送信される監視画像のデータ総量を低減させることができる。この結果、車両Vの監視のために必要な通信コストを低減させることができる。
 また、基準監視画像G0又は第(K-1)監視画像Q(K-1)を利用する画素領域を指定するために識別子を用いたことにより、車両Vの周囲を監視するために送信される監視画像のデータ総量を低減させることができる。特に識別子として色情報(黒値、白値、グレー値)を用いることにより、データの圧縮率を高めることができるため、送信される監視画像のデータ総量をさらに低減させることができる。
 さらに、本実施形態の車両監視システム1000によれば、ある監視タイミングtKにおける監視画像Qを生成する際に、直前の第(K-1)対比画像G(K-1)との差分画像についてのみを新たに送信又は受信し、基準監視画像G0と比較して変化していない不変領域に対応する部分については先に送信済みの基準監視画像G0を、直前の第(K-1)対比画像G(K-1)と比較して変化していない維持領域に対応する部分については先に作成された第(K-1)監視画像Q(K-1)を利用するので、監視タイミングtKにおける対比画像GKをそのまま送信する場合に比べて送信データ量を低減させつつ、表示する監視画像Q´の画質を落とさないようにすることができる。この結果、ユーザは、車用Vの遠隔監視に要する通信コストを節約しつつ、明瞭な監視画像Q´により車両Vの監視をすることができる。
 なお、以上説明したすべての実施形態は、本発明の理解を容易にするために記載されたものであって、本発明を限定するために記載されたものではない。したがって、上記の実施形態に開示された各要素は、本発明の技術的範囲に属する全ての設計変更や均等物をも含む趣旨である。
 本明細書では、本発明に係る車両用監視装置の一態様として監視装置100及び車両監視システム1000を例にして説明するが、本発明はこれに限定されるものではない。
 また、本明細書では、本発明に係る車両用監視装置の一態様として、CPU11、ROM12、RAM13を含む制御装置10を備える監視装置100を一例として説明するが、これに限定されるものではない。
 また、本明細書では、カメラと、監視画像生成手段と、送信手段を有する本発明に係る車両用監視装置の一態様として、監視装置100を説明するが、これに限定されるものではない。
 本明細書では、本発明に係る車両用監視システムの一態様として、本願発明に係る監視装置100と、車両コントローラ200と、通信装置400と、外部端末装置800とを備えた車両監視システム1000を例にして説明するが、本発明はこれに限定されるものではない。
1000…車両監視システム
1a~1d…カメラ
2a~2d…近接センサ
100…監視装置
 V…車両
 10…制御装置
 11…CPU
 12…ROM
 13…RAM
200…車両コントローラ
 400…通信装置
 300…イグニッションスイッチ
 800…外部端末装置
 900…通信回線

Claims (29)

  1.  車両又は当該車両の周囲の状況を検出し、前記検出された車両状況に基づいて当該車両の監視レベルを判断する監視レベル判断手段と、
     前記判断された監視レベルに基づいて動画、ストリーミング映像又は静止画の何れかの表示態様を求め、前記求められた表示態様で前記車両に設置されたカメラにより撮像された撮像画像に基づく監視画像を生成する監視画像生成手段と、
     前記生成された監視画像を含む情報を、通信回線を用いて外部端末装置へ送信する送信手段と、を備えることを特徴とする車両用監視装置。
  2.  請求項1に記載の車両用監視装置において、
     前記監視レベル判断手段は、前記カメラにより撮像された撮像画像から監視対象物体の存在が検出された場合には、前記車両の監視レベルを強化レベルであると判断し、
     前記監視画像生成手段は、前記判断された強化レベルに応じて単位時間あたりのフレーム数が所定値以上の動画又はストリーミングの表示態様の監視画像を生成することを特徴とする車両用監視装置。
  3.  請求項1に記載の車両用監視装置において、
     前記監視レベル判断手段は、前記カメラにより撮像された撮像画像から前記車両に接近する監視対象物体が検出された場合には、前記車両の監視レベルを強化レベルであると判断し、
     前記監視画像生成手段は、前記判断された強化レベルに応じて単位時間あたりのフレーム数が所定値以上の動画又はストリーミングの表示態様の監視画像を生成することを特徴とする車両用監視装置。
  4.  請求項1に記載の車両用監視装置において、
     前記監視レベル判断手段は、前記カメラにより撮像された撮像画像から前記車両の近傍領域に所定時間以上滞在する監視対象物体が検出された場合には、前記車両の監視レベルを強化レベルであると判断し、
     前記監視画像生成手段は、前記判断された強化レベルに応じて単位時間あたりのフレーム数が所定値以上の動画又はストリーミングの表示態様の監視画像を生成することを特徴とする車両用監視装置。
  5.  請求項1に記載の車両用監視装置において、
     前記監視レベル判断手段は、前記車両から異常発生信号を取得した場合には、前記車両の監視レベルを強化レベルであると判断し、
     前記監視画像生成手段は、前記判断された強化レベルに応じて単位時間あたりのフレーム数が所定値以上の動画又はストリーミングの表示態様の監視画像を生成することを特徴とする車両用監視装置。
  6.  請求項1~5の何れか一項に記載の車両用監視装置において、
     前記監視レベル判断手段は、前記外部端末装置から監視画像の要求を取得した場合には、前記車両の監視レベルを標準レベルであると判断し、
     前記監視画像生成手段は、前記標準レベルに応じて単位時間当たりのフレーム数が単一の静止画の表示態様の監視画像を生成することを特徴とする車両用監視装置。
  7.  請求項1~6の何れか一項に記載の車両用監視装置において、
     前記監視画像生成手段は、前記監視レベル判断手段により前記監視レベルが検出された時刻が日没後である場合には、前記監視レベルに応じた単位時間あたりのフレーム数を高く補正した補正後のフレームレートの監視画像を生成することを特徴とする車両用監視装置。
  8.  請求項1~7の何れか一項に記載の車両用監視装置において、
     前記監視画像生成手段は、前記カメラにより撮像された撮像画像に監視対象物体の移動速度に基づいて、前記監視レベルに応じた単位時間あたりのフレーム数を補正し、前記補正後のフレームレートの監視画像を生成することを特徴とする車両用監視装置。
  9.  請求項1~8の何れか一項に記載の車両用監視装置において、
     前記監視画像生成手段は、前記監視レベルが強化レベルであると判断された場合には、前記監視画像を生成する頻度を高くし、
     前記送信手段は、前記生成された監視画像を、前記頻度に応じて外部端末装置へ送信することを特徴とする車両用監視装置。
  10.  車両又は当該車両の周囲の状況を検出し、前記検出された車両状況に基づいて当該車両の監視レベルを判断する監視レベル判断手段と、
     前記車両に設置されたカメラにより撮像された撮像画像に基づいて、前記判断された監視レベルが高いほどフレームレートの高い監視画像を生成する監視画像生成手段と、
     前記生成された監視画像を含む情報を、通信回線を用いて外部端末装置へ送信する送信手段と、を備えることを特徴とする車両用監視装置。
  11.  車両又は前記車両の周囲の車両状況に基づいて判断された監視レベルに応じて、前記車両に設置されたカメラにより撮像された撮像画像に基づく動画、ストリーミング映像又は静止画の何れかの表示態様の監視画像を生成し、
     前記生成された監視画像を含む情報を、通信回線を用いて外部端末装置へ送信する、車両の監視方法。
  12.  車両又は当該車両の周囲の状況を検出し、前記検出された車両状況に基づいて当該車両の監視レベルを判断する監視レベル判断手段と、
     前記判断された監視レベルに基づいて圧縮率を算出し、当該算出された圧縮率で前記車両に設置されたカメラにより撮像された撮像画像を圧縮した監視画像を生成する監視画像生成手段と、
     前記生成された監視画像を含む情報を、外部端末装置へ送信する送信手段と、を備えることを特徴とする車両用監視装置。
  13.  請求項12に記載の車両用監視装置において、
     前記監視レベル判断手段は、前記判断された監視レベルが高いほど、低い圧縮率を算出することを特徴とする車両用監視装置。
  14.  請求項12又は13に記載の車両用監視装置において、
     前記監視レベル判断手段は、前記カメラにより撮像された撮像画像から監視対象物体の存在が検出された場合には、前記車両の監視レベルを強化レベルであると判断し、
     前記監視画像生成手段は、前記判断された強化レベルに応じて、予め設定された標準圧縮率よりも低い圧縮率で前記カメラにより撮像された撮像画像を圧縮した監視画像を生成することを特徴とする車両用監視装置。
  15.  請求項12又は13に記載の車両用監視装置において、
     前記監視レベル判断手段は、前記カメラにより撮像された撮像画像から前記車両に接近する監視対象物体が検出された場合には、前記車両の監視レベルを強化レベルであると判断し、
     前記監視画像生成手段は、前記強化レベルに応じて、予め設定された標準圧縮率よりも低い圧縮率で前記カメラにより撮像された撮像画像を圧縮した監視画像を生成することを特徴とする車両用監視装置。
  16.  請求項12又は13に記載の車両用監視装置において、
     前記監視レベル判断手段は、前記カメラにより撮像された撮像画像から前記車両の近傍領域に所定時間以上滞在する監視対象物体が検出された場合には、前記車両の監視レベルを強化レベルであると判断し、
     前記監視画像生成手段は、前記強化レベルに応じて、予め設定された標準圧縮率よりも低い圧縮率で前記カメラにより撮像された撮像画像を圧縮した監視画像を生成することを特徴とする車両用監視装置。
  17.  請求項12又は13に記載の車両用監視装置において、
     前記監視レベル判断手段は、前記車両から異常発生信号を取得した場合には、前記車両の監視レベルを強化レベルであると判断し、
     前記監視画像生成手段は、前記強化レベルに応じて、予め設定された標準圧縮率よりも低い圧縮率で前記カメラにより撮像された撮像画像を圧縮した監視画像を生成することを特徴とする車両用監視装置。
  18.  請求項12~17の何れか一項に記載の車両用監視装置において、
     前記監視レベル判断手段は、前記外部端末装置から監視画像の要求を取得した場合には、前記車両の監視レベルを標準レベルであると判断し、
     前記監視画像生成手段は、前記標準レベルに応じて、予め設定された標準圧縮率以上の圧縮率で前記カメラにより撮像された撮像画像を圧縮した監視画像を生成することを特徴とする車両用監視装置。
  19.  請求項12~18の何れか一項に記載の車両用監視装置において、
     前記監視画像生成手段は、前記監視レベル判断手段により前記監視レベルが検出された時刻が日没後である場合には、前記監視レベルに応じた圧縮率を低く補正した補正後の圧縮率で前記カメラにより撮像された撮像画像を圧縮した監視画像を生成することを特徴とする車両用監視装置。
  20.  請求項12~19の何れか一項に記載の車両用監視装置において、
     前記監視画像生成手段は、前記カメラにより撮像された撮像画像に監視対象物体が含まれる場合には、前記監視レベルに応じて求められた圧縮率を低く補正した補正後の圧縮率で前記監視対象物体が含まれる撮像画像を圧縮した監視画像を生成することを特徴とする車両用監視装置。
  21.  請求項12~20の何れか一項に記載の車両用監視装置において、
     前記監視画像生成手段は、前記監視レベルが強化レベルであると判断された場合には、前記監視画像を生成する頻度を高くし、
     前記送信手段は、前記生成された監視画像を、前記頻度に応じて外部端末装置へ送信することを特徴とする車両用監視装置。
  22.  車両又は当該車両の周囲の車両状況に基づいて判断された監視レベルに応じて算出された圧縮率で、前記車両に設置されたカメラにより撮像された撮像画像を圧縮した監視画像を生成させ、
     前記生成された監視画像を含む情報を外部端末装置へ送信する、車両の監視方法。
  23.  車両に設置され、前記車両の周囲を撮像するカメラと、
     前記カメラにより撮像された撮像画像から前記車両の周囲に監視対象物体の存在が検出された場合には、前記監視対象物体に応じた画像を含む撮像画像に基づいて前記車両の周囲の状態変化を示す動画像を監視画像として生成する監視画像生成手段と、
     前記生成された監視画像を、通信回線を用いて外部装置へ送信する送信手段と、を備えることを特徴とする車両用監視装置。
  24.  請求項23に記載の車両用監視装置において、
     前記監視画像生成手段は、前記車両の周囲に監視対象物体が検出されない場合には、前記カメラにより撮像された撮像画像に基づいて前記車両の周囲の一時的な状態を示す静止画像を監視画像として生成することを特徴とする車両用監視装置。
  25.  請求項23又は24に記載の車両用監視装置において、
     前記監視画像生成手段は、前記車両の周囲を監視する際の基準となる基準監視タイミングにおいて取得された基準監視画像と、前記基準監視タイミングよりも後の一又は複数の監視タイミングで前記カメラにより撮像された対比画像とを対比し、両画像の画像データの変化に応じる差分画像に基づいて監視画像を生成し、
     前記送信手段は、前記基準監視画像を外部装置へ通信回線を介して送信した後に、前記監視画像を外部装置へ通信回線を介して送信することを特徴とする車両用監視装置。
  26.  請求項23又は24に記載の車両用監視装置において、
     前記監視画像生成手段は、前記基準監視タイミングの後の第K監視タイミングにおいて撮像された第K対比画像と(Kは自然数、以下同じ)前記基準監視画像とを対比して両画像の差分を含む所定領域の第K差分画像を抽出し、
     前記基準監視タイミングの後の第K監視タイミングにおいて撮像された第K対比画像と、前記第K監視タイミングの直前の第(K-1)タイミングにおいて撮像された第(K-1)対比画像とを対比して両画像の第(K-1)差分画像を抽出し、
     前記第K差分画像のうち、前記基準監視画像に対する差が無い不変領域の画像データに第1識別子を付し、
     前記第K差分画像のうち、前記第(K-1)対比画像にも含まれる重複変化領域の画像データに第2識別子を付し、
     前記第K差分画像のうち、前記第(K-1)差分画像にのみ含まれる直近変化領域の画像データに第3識別子を付し、
     前記第K差分画像の前記第3識別子が付された画像領域の画像データを、当該画像領域に対応する前記第K対比画像の画像データに置換し、
     前記置換された第K対比画像の画像データと前記第1識別子と前記第2識別子とを含む情報を前記監視画像として生成することを特徴とする車両用監視装置。
  27.  請求項23~26の何れか一項に記載の車両用監視装置において、
     前記撮像画像に基づいて算出された前記監視対象物体の移動速度が所定値よりも小さい場合には、フレームレートを低減させて前記監視画像を生成することを特徴とする車両用監視装置。
  28.  請求項23~27の何れか一項に記載された車両用監視装置と、前記車両用監視装置と相互に情報の授受が可能な端末装置とを備え、
     前記外部の端末装置は、
     前記車両用監視装置と通信を行う通信手段と、
     前記通信手段を介して取得した監視画像に基づいて表示用画像を生成する表示画像生成手段と、
     前記表示画像生成手段により生成された表示用画像を表示する表示手段と、を有することを特徴とする車両用監視システム。
  29.  車両の周囲の撮像画像を取得し、
     前記取得した撮像画像中に監視対象物体に応じた画像が検出された場合には、前記監視対象物の画像を含む撮像画像に基づいて前記車両の周囲の状態変化を示す動画像を監視画像として生成し、
     前記生成された監視画像を外部の端末装置へ送信する、車両の監視方法。
PCT/JP2012/060303 2011-05-24 2012-04-17 車両用監視装置及び車両の監視方法 WO2012160902A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP12789798.1A EP2717571B1 (en) 2011-05-24 2012-04-17 Vehicle monitoring device and method of monitoring vehicle
CN201280024310.6A CN103548340B (zh) 2011-05-24 2012-04-17 车辆用监视装置以及车辆的监视方法
US14/119,324 US9842261B2 (en) 2011-05-24 2012-04-17 Vehicle monitoring device and method of monitoring vehicle
JP2013516250A JP5561433B2 (ja) 2011-05-24 2012-04-17 車両用監視装置及び車両の監視方法

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP2011115428 2011-05-24
JP2011-115428 2011-05-24
JP2011-139136 2011-06-23
JP2011-139062 2011-06-23
JP2011139136 2011-06-23
JP2011139062 2011-06-23

Publications (1)

Publication Number Publication Date
WO2012160902A1 true WO2012160902A1 (ja) 2012-11-29

Family

ID=47216987

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/060303 WO2012160902A1 (ja) 2011-05-24 2012-04-17 車両用監視装置及び車両の監視方法

Country Status (5)

Country Link
US (1) US9842261B2 (ja)
EP (1) EP2717571B1 (ja)
JP (1) JP5561433B2 (ja)
CN (1) CN103548340B (ja)
WO (1) WO2012160902A1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014138398A (ja) * 2013-01-18 2014-07-28 Sumitomo Electric Ind Ltd 監視装置
JP2015070350A (ja) * 2013-09-27 2015-04-13 日産自動車株式会社 監視画像提示システム
JP2015167349A (ja) * 2014-02-14 2015-09-24 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理システム、その制御方法及びプログラム
JP2017039333A (ja) * 2015-08-17 2017-02-23 株式会社デンソー 車両用防犯システム、車両用防犯方法
JP2017118223A (ja) * 2015-12-22 2017-06-29 株式会社デンソー 車両用表示装置
WO2020031924A1 (ja) * 2018-08-10 2020-02-13 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、端末装置、情報処理方法および情報処理プログラム
EP4090016A2 (en) 2021-05-12 2022-11-16 Yokogawa Electric Corporation Apparatus, method and program
WO2023053444A1 (ja) * 2021-10-01 2023-04-06 日本電気株式会社 移動体制御システム、移動体制御方法、および画像通信装置

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9405968B2 (en) * 2008-07-21 2016-08-02 Facefirst, Inc Managed notification system
US9141863B2 (en) * 2008-07-21 2015-09-22 Facefirst, Llc Managed biometric-based notification system and method
US9065955B2 (en) * 2012-10-15 2015-06-23 Fuji Xerox Co., Ltd. Power supply control apparatus, image processing apparatus, non-transitory computer readable medium, and power supply control method
US10430666B2 (en) * 2013-03-29 2019-10-01 Nec Corporation Target object identifying device, target object identifying method and target object identifying program
JP5958459B2 (ja) * 2013-12-26 2016-08-02 トヨタ自動車株式会社 状態判定システム、状態判定方法及び移動ロボット
US9509960B2 (en) * 2014-05-08 2016-11-29 Verizon Patent And Licensing Inc. Vehicle anomaly detection and reporting
CN104052971B (zh) * 2014-06-26 2018-02-27 广州世荣电子有限公司 一种监控摄像头的自动屏蔽系统的控制方法
US20180086307A1 (en) * 2015-02-16 2018-03-29 Coolbox S.R.L. Device and method for monitoring a vehicle, particularly for the management of loss events
US20160309062A1 (en) * 2015-04-15 2016-10-20 Appbanc, Llc Metrology carousel device for high precision measurements
JP6775285B2 (ja) * 2015-09-24 2020-10-28 アルパイン株式会社 後側方車両検知警報装置
CN105338317A (zh) * 2015-10-29 2016-02-17 中国邮政集团公司广州市分公司 一种用于信报箱的监控方法与监控装置
CN106571046B (zh) * 2016-11-11 2021-07-16 上海市政工程设计研究总院(集团)有限公司 基于路面网格体系的车路协同辅助驾驶方法
CN106696891B (zh) * 2016-12-08 2019-03-12 奇瑞汽车股份有限公司 汽车防盗系统及其控制方法
CN106851053A (zh) * 2017-02-06 2017-06-13 徐文波 一种基于互联网的导播方法、终端和系统
JP6635075B2 (ja) * 2017-03-09 2020-01-22 トヨタ自動車株式会社 画像記録システム、画像記録方法、画像記録プログラム
EP4227643A1 (en) 2017-09-29 2023-08-16 Panasonic Intellectual Property Corporation of America Three-dimensional data creation method, client device and server
CN107945461A (zh) * 2017-10-31 2018-04-20 上海船舶运输科学研究所 一种化工事故救援车的安全检测报警系统
JP7006302B2 (ja) * 2018-01-23 2022-01-24 株式会社リコー 画像処理装置、画像処理システム、及びビデオ会議システム
JP6828719B2 (ja) * 2018-06-27 2021-02-10 トヨタ自動車株式会社 車載装置および制御方法
JP7151449B2 (ja) * 2018-12-14 2022-10-12 トヨタ自動車株式会社 情報処理システム、プログラム、及び情報処理方法
TWI700645B (zh) * 2019-01-14 2020-08-01 中興保全科技股份有限公司 電子巡邏裝置
EP4009628A4 (en) * 2019-08-02 2022-07-13 NISSAN MOTOR Co., Ltd. IMAGE PROCESSING DEVICE AND IMAGE PROCESSING METHOD
US11155237B2 (en) * 2019-08-06 2021-10-26 John Leedy Perimeter alert defense system
CN112802329B (zh) * 2020-12-14 2022-02-01 国汽(北京)智能网联汽车研究院有限公司 一种数据展示方法、装置、设备及计算机存储介质
CN112572418A (zh) * 2020-12-15 2021-03-30 北京百度网讯科技有限公司 一种无人驾驶车辆的控制方法、装置及电子设备
CN113099415A (zh) * 2021-04-21 2021-07-09 深圳市车百路科技有限公司 一种基于北斗卫星定位、5g通信技术的车辆安全监控系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11334536A (ja) * 1998-05-29 1999-12-07 Tokai Rika Co Ltd 車両接近物体の検知装置
JP2003127835A (ja) * 2001-10-22 2003-05-08 Mega Chips Corp 車両セキュリティ装置
JP2005065238A (ja) * 2003-07-25 2005-03-10 Hitachi Ltd 監視情報提供装置および監視情報提供方法
JP2005073218A (ja) * 2003-08-07 2005-03-17 Matsushita Electric Ind Co Ltd 画像処理装置
JP2006041770A (ja) * 2004-07-26 2006-02-09 Mitsubishi Heavy Ind Ltd 画像配信方法、画像表示方法及びそれらを用いた広域監視方法と画像配信装置、画像表示装置及びそれらを用いた広域監視システム
JP2006107279A (ja) 2004-10-07 2006-04-20 Matsushita Electric Ind Co Ltd 防犯装置および遠隔監視システム

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2375208B (en) * 2001-05-05 2004-12-22 Land Rover Group Ltd Vehicle security system
US7602413B2 (en) * 2002-10-18 2009-10-13 Sony Corporation Information processing system and method, information processing apparatus, image-capturing device and method, recording medium, and program
CN1291602C (zh) * 2003-07-25 2006-12-20 株式会社日立制作所 监视信息提供装置及监视信息提供方法
JP2005057508A (ja) * 2003-08-05 2005-03-03 Matsushita Electric Ind Co Ltd 動き検出装置および方法、輝度信号/色信号分離装置および方法、ノイズ低減装置および方法、映像表示装置および方法
NZ545704A (en) * 2003-10-09 2006-11-30 Moreton Bay Corp Pty Ltd System and method for surveillance image monitoring using digital still cameras connected to a central controller
JP3972891B2 (ja) * 2003-11-06 2007-09-05 株式会社デンソー 車両監視システム
JP4432628B2 (ja) * 2004-06-07 2010-03-17 株式会社デンソー 車両遠隔監視システム、車両情報通信装置、通信端末、及び操作機
JP4844795B2 (ja) * 2004-11-02 2011-12-28 株式会社デンソー 車両用画像撮影装置
JPWO2006085500A1 (ja) * 2005-02-09 2008-06-26 松下電器産業株式会社 監視カメラ装置、それを用いた監視システムおよび監視画像伝送方法
US7302323B2 (en) * 2005-06-01 2007-11-27 Polar Industries, Inc. Transportation data recording system
US8115812B2 (en) * 2006-09-20 2012-02-14 Panasonic Corporation Monitoring system, camera, and video encoding method
US20080204556A1 (en) * 2007-02-23 2008-08-28 De Miranda Federico Thoth Jorg Vehicle camera security system
GB2451485A (en) * 2007-08-01 2009-02-04 Airmax Group Plc Vehicle monitoring system
JP5114177B2 (ja) * 2007-12-12 2013-01-09 富士通テン株式会社 情報記録装置
WO2009122760A1 (ja) * 2008-04-04 2009-10-08 富士フイルム株式会社 画像処理装置、画像処理方法、およびコンピュータ読取可能な媒体
US20100246669A1 (en) * 2009-03-25 2010-09-30 Syclipse Technologies, Inc. System and method for bandwidth optimization in data transmission using a surveillance device
US20100245583A1 (en) * 2009-03-25 2010-09-30 Syclipse Technologies, Inc. Apparatus for remote surveillance and applications therefor
CA2754159C (en) * 2009-08-11 2012-05-15 Certusview Technologies, Llc Systems and methods for complex event processing of vehicle-related information
WO2011017764A1 (en) * 2009-08-12 2011-02-17 Technological Resources Pty Limited A base station
US8982209B2 (en) * 2009-10-30 2015-03-17 Verint Systems Inc. Method and apparatus for operating a video system
US8836784B2 (en) * 2010-10-27 2014-09-16 Intellectual Ventures Fund 83 Llc Automotive imaging system for recording exception events

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11334536A (ja) * 1998-05-29 1999-12-07 Tokai Rika Co Ltd 車両接近物体の検知装置
JP2003127835A (ja) * 2001-10-22 2003-05-08 Mega Chips Corp 車両セキュリティ装置
JP2005065238A (ja) * 2003-07-25 2005-03-10 Hitachi Ltd 監視情報提供装置および監視情報提供方法
JP2005073218A (ja) * 2003-08-07 2005-03-17 Matsushita Electric Ind Co Ltd 画像処理装置
JP2006041770A (ja) * 2004-07-26 2006-02-09 Mitsubishi Heavy Ind Ltd 画像配信方法、画像表示方法及びそれらを用いた広域監視方法と画像配信装置、画像表示装置及びそれらを用いた広域監視システム
JP2006107279A (ja) 2004-10-07 2006-04-20 Matsushita Electric Ind Co Ltd 防犯装置および遠隔監視システム

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014138398A (ja) * 2013-01-18 2014-07-28 Sumitomo Electric Ind Ltd 監視装置
JP2015070350A (ja) * 2013-09-27 2015-04-13 日産自動車株式会社 監視画像提示システム
JP2015167349A (ja) * 2014-02-14 2015-09-24 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理システム、その制御方法及びプログラム
JP2017039333A (ja) * 2015-08-17 2017-02-23 株式会社デンソー 車両用防犯システム、車両用防犯方法
JP2017118223A (ja) * 2015-12-22 2017-06-29 株式会社デンソー 車両用表示装置
WO2020031924A1 (ja) * 2018-08-10 2020-02-13 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、端末装置、情報処理方法および情報処理プログラム
US20210297839A1 (en) * 2018-08-10 2021-09-23 Sony Semiconductor Solutions Corporation Information processing device, terminal device, information processing method, and information processing program
JP7444777B2 (ja) 2018-08-10 2024-03-06 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、端末装置、情報処理方法および情報処理プログラム
EP4090016A2 (en) 2021-05-12 2022-11-16 Yokogawa Electric Corporation Apparatus, method and program
WO2023053444A1 (ja) * 2021-10-01 2023-04-06 日本電気株式会社 移動体制御システム、移動体制御方法、および画像通信装置

Also Published As

Publication number Publication date
JPWO2012160902A1 (ja) 2014-07-31
CN103548340A (zh) 2014-01-29
EP2717571B1 (en) 2018-09-05
US9842261B2 (en) 2017-12-12
CN103548340B (zh) 2017-12-29
EP2717571A1 (en) 2014-04-09
JP5561433B2 (ja) 2014-07-30
US20140085477A1 (en) 2014-03-27
EP2717571A4 (en) 2015-03-04

Similar Documents

Publication Publication Date Title
JP5561433B2 (ja) 車両用監視装置及び車両の監視方法
EP2733937A1 (en) Vehicle monitoring device, vehicle monitoring system, terminal device, and vehicle monitoring method
CN110933275B (zh) 拍照方法及相关设备
CN102387344B (zh) 成像装置、成像系统和成像方法
US20190199898A1 (en) Image capturing apparatus, image processing apparatus, control method, and storage medium
KR101561626B1 (ko) 주행차량의 번호판 인식이 실시간으로 가능한 차량용 블랙박스
WO2016051981A1 (ja) 車載画像認識装置
WO2017134982A1 (ja) 撮像装置
US7898590B2 (en) Device having imaging function
KR20140033803A (ko) 카메라 공차 보정 방법 및 장치와 이를 이용한 어라운드 뷰 모니터링 시스템
WO2016056088A1 (ja) 車載カメラ制御装置
CN104796580B (zh) 一种基于选择集成的实时稳像视频巡检系统
JP2016197795A (ja) 撮像装置
JP6065629B2 (ja) 物体検知装置
JP5872171B2 (ja) カメラシステム
WO2017169614A1 (ja) 画像処理装置
US20170364765A1 (en) Image processing apparatus, image processing system, vehicle, imaging apparatus and image processing method
JP5861279B2 (ja) 車両用監視装置及び車両の監視方法
JP4797441B2 (ja) 車両用画像処理装置
JP2020150295A (ja) 車両防犯装置
JP4508043B2 (ja) 映像監視装置及び映像監視用プログラム
JP6563694B2 (ja) 画像処理装置、画像処理システム、画像合成装置、画像処理方法及びプログラム
JP2019029750A (ja) 撮像装置
TWI448976B (zh) 超廣角影像處理方法與其系統
JP2011065280A (ja) 画像処理装置、周辺監視システム、及び操作支援システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12789798

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2013516250

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 2012789798

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 14119324

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE