WO2024034241A1 - 監視方法及び監視装置 - Google Patents

監視方法及び監視装置 Download PDF

Info

Publication number
WO2024034241A1
WO2024034241A1 PCT/JP2023/020850 JP2023020850W WO2024034241A1 WO 2024034241 A1 WO2024034241 A1 WO 2024034241A1 JP 2023020850 W JP2023020850 W JP 2023020850W WO 2024034241 A1 WO2024034241 A1 WO 2024034241A1
Authority
WO
WIPO (PCT)
Prior art keywords
suspicious person
detection
vehicle
suspicious
monitoring method
Prior art date
Application number
PCT/JP2023/020850
Other languages
English (en)
French (fr)
Inventor
克典 田中
一憲 岡島
知之 花田
Original Assignee
日産自動車株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日産自動車株式会社 filed Critical 日産自動車株式会社
Publication of WO2024034241A1 publication Critical patent/WO2024034241A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R25/00Fittings or systems for preventing or indicating unauthorised use or theft of vehicles
    • B60R25/10Fittings or systems for preventing or indicating unauthorised use or theft of vehicles actuating a signalling device
    • B60R25/102Fittings or systems for preventing or indicating unauthorised use or theft of vehicles actuating a signalling device a signal being sent to a remote location, e.g. a radio signal being transmitted to a police station, a security company or the owner
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R25/00Fittings or systems for preventing or indicating unauthorised use or theft of vehicles
    • B60R25/30Detection related to theft or to other events relevant to anti-theft systems
    • B60R25/31Detection related to theft or to other events relevant to anti-theft systems of human presence inside or outside the vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B15/00Identifying, scaring or incapacitating burglars, thieves or intruders, e.g. by explosives
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • G08B25/01Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium
    • G08B25/04Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium using a single signalling line, e.g. in a closed loop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Definitions

  • the present invention relates to a monitoring method and a monitoring device for monitoring the surroundings of a stopped moving body.
  • suspicious persons are detected using multiple cameras placed within a surveillance area, and when a suspicious person is detected, an image of the suspicious person is sent to a monitoring device and sent to a pre-registered mobile phone.
  • a technique for transmitting suspicious person occurrence information has been proposed (for example, see JP2020-30544A).
  • the above-mentioned conventional technology targets a specific area for monitoring, and the emergency notification device, monitoring device, simultaneous notification device, etc. that constitute the emergency notification system are fixedly installed. Further, each of these devices can use power from an electric power company.
  • a monitoring device that is installed in a moving object such as a vehicle and monitors the surroundings of the moving object, each process is executed using the battery of the moving object. Therefore, in order to continuously monitor the surroundings of a moving body, it is necessary to reduce the power consumption of the battery of the moving body.
  • An object of the present invention is to provide a monitoring method and a monitoring device that can suppress power consumption when monitoring the surroundings of a stopped moving body.
  • One aspect of the present invention is a monitoring method for monitoring the surroundings of a stopped moving body using a monitoring device provided on the moving body.
  • This monitoring method uses sensors installed on a moving object to detect objects around the moving object, and detects suspicious persons from among the detected objects.
  • the setting process includes a setting process for setting the detection cycle of the sensor, and an output process for outputting notification information to notify the user that a suspicious person has been detected. Set the detection period based on.
  • FIG. 1 is a diagram showing an example of the system configuration of a communication system.
  • FIG. 2 is a block diagram showing an example of the functional configuration of each device configuring the monitoring system.
  • FIG. 3 is a diagram schematically showing an example of a determination process for determining a suspicious person present around a vehicle using sonar.
  • FIG. 4 is a diagram schematically showing an example of a determination process for determining a suspicious person present around a vehicle using sonar.
  • FIG. 5 is a diagram showing a display example of a suspicious person notification screen displayed on the display unit of the electronic device.
  • FIG. 6 is a diagram showing a display example of a suspicious person notification screen displayed on the display unit of the electronic device.
  • FIG. 1 is a diagram showing an example of the system configuration of a communication system.
  • FIG. 2 is a block diagram showing an example of the functional configuration of each device configuring the monitoring system.
  • FIG. 3 is a diagram schematically showing an example of a determination process for determining a suspicious person present around
  • FIG. 7 is a diagram showing a display example of a suspicious person notification screen displayed on the display unit of the electronic device.
  • FIG. 8 is a diagram showing a display example of a suspicious person notification screen displayed on the display unit of the electronic device.
  • FIG. 9 is a diagram showing a display example of a suspicious person notification screen displayed on the display unit of the electronic device.
  • FIG. 10 is a diagram showing a display example of a suspicious person notification screen displayed on the display unit of the electronic device.
  • FIG. 11 is a diagram showing a display example of a suspicious person notification screen displayed on the display unit of the electronic device.
  • FIG. 12 is a diagram showing a display example of a suspicious person notification screen displayed on the display unit of the electronic device.
  • FIG. 13 is a diagram showing a display example of a suspicious person notification screen displayed on the display unit of the electronic device.
  • FIG. 14 is a diagram showing a display example of a suspicious person notification screen displayed on the display unit of the electronic device.
  • FIG. 15 is a flowchart illustrating an example of detection cycle setting processing in the monitoring device.
  • FIG. 16 is a flowchart illustrating an example of suspicious person information notification processing in the monitoring device.
  • FIG. 17 is a flowchart illustrating an example of the threatening device control process in the monitoring device.
  • FIG. 1 is a diagram showing an example of a system configuration of a communication system 10.
  • the communication system 10 is an information processing system that executes monitoring processing to monitor the surroundings of the vehicle C1 while the vehicle C1 is parked.
  • the user U1 is a user who owns the vehicle C1.
  • an electronic device MC1 is illustrated as a device owned by the user U1, but the device is not limited to this, and includes in-vehicle devices, devices brought into the vehicle, and devices that can be worn by the user U1. may be used.
  • the communication system 10 is composed of a plurality of devices connected via a network 20.
  • the monitoring system 100 and the electronic device MC1 are connected via the network 20.
  • communication between these devices is performed using wired communication or wireless communication. Further, regarding communication between these devices, instead of communication via the network 20, direct communication between the devices may be used.
  • the monitoring system 100 is an in-vehicle device installed in the vehicle C1. Additionally, the monitoring system 100 executes monitoring processing using power from a battery installed in the vehicle C1. Note that each device constituting the monitoring system 100 will be described in detail with reference to FIG. 2.
  • the electronic device MC1 is a portable information processing device owned by the user U1, and is, for example, an information processing device such as a smartphone, a tablet terminal, or a portable personal computer. Further, the electronic device MC1 is a device that can output notification information transmitted from the monitoring system 100. For example, the electronic device MC1 can display the notification information on the display unit 30 or output the notification information as audio.
  • FIG. 2 is a block diagram showing an example of the functional configuration of each device that makes up the monitoring system 100.
  • the monitoring system 100 includes sensors 50, an intimidation device 60, a monitoring device 110, a communication section 120, and a storage section 130.
  • the monitoring system 100 is an example of a mobile object monitoring system that can grasp the situation around the vehicle C1.
  • FIG. 2 shows an example in which the communication unit 120 and the storage unit 130 are configured separately from the monitoring device 110, at least one of the communication unit 120 and the storage unit 130 may be provided in the monitoring device 110. .
  • the sensors 50 are various sensors installed in the vehicle C1 in order to detect objects existing around the vehicle C1, and output the detection information to the monitoring device 110.
  • the sensors 50 include a camera 51, a sonar 52, a lidar (LIDAR (Light Detection and Ranging)) 53, and a radar 54. Note that these are just examples, and other sensors may be used. Further, only some of these sensors may be used. Further, it is assumed that at least some of these various sensors can change the detection period (sensing period).
  • the camera 51 is a detection device composed of an image sensor that images a subject and generates image data.
  • one or more cameras 51 that capture images around the vehicle C1 can be installed inside or outside the vehicle C1.
  • the camera 51 can capture an image of the whole body or a part of a person existing around the vehicle C1, such as a face.
  • the person can be identified. For example, it is possible to determine whether the person is an acquaintance of the user U1 or a suspicious person.
  • the image of the person's face acquired by the camera 51 it is possible to determine the orientation of the person's face.
  • known image recognition techniques can be used for the person detection method, face detection method, face identification method, face direction detection method, and the like.
  • the sonar 52, lidar 53, and radar 54 are sensors that measure objects existing around the vehicle C1 and the distance to the objects. For example, by irradiating the surroundings of the vehicle C1 with laser light, millimeter waves, etc. and receiving and observing the reflected waves, it is possible to measure the distance to the object.
  • the intimidation device 60 is a device that can perform an intimidation operation against a suspicious person, and the state of each device is controlled based on the control of the intimidation device control unit 114. Ru. That is, the intimidation device 60 is a device that can perform an operation that can scare off a suspicious person.
  • FIG. 2 shows an example in which a horn 61, a light 62, and a speaker 63 are used as the intimidation device 60. Note that these are just examples, and other devices may be used as the intimidation device 60.
  • a wiper 64, openable and closable door mirrors 65 and 66, etc. shown in FIGS. 3 and 4 may be used as the threat device 60.
  • the horn 61 outputs a warning sound or the like to the outside of the vehicle C1.
  • the speaker 63 outputs various sounds to the outside or inside of the vehicle C1.
  • the lights 62 are various light emitting devices installed outside or inside the vehicle C1. As the light 62, various external lights such as direction indicators, headlights, brake lights, backlights, etc. can be used. Further, as the light 62, it is also possible to use various internal lights such as an indoor light.
  • the intimidation operation by the intimidation device 60 includes, for example, outputting a warning sound from the horn 61, emitting light from the light 62, and outputting some kind of sound from the speaker 63.
  • the threatening device control unit 114 outputs information regarding the device that performed the threatening action and information regarding the threatening action to the notification information generating unit 113.
  • the monitoring device 110 is a device mounted on the vehicle C1, and includes an object detection section 111, a suspicious person determination section 112, a notification information generation section 113, an intimidation device control section 114, and a sensor control section 115. .
  • the monitoring device 110 is realized by, for example, a control circuit such as a CPU (Central Processing Unit).
  • a vehicle ECU Electric Control Unit
  • another control device may be used as the monitoring device 110.
  • the object detection unit 111 detects objects existing around the vehicle C1 based on detection information output from each device of the sensors 50, and sends object information regarding the detected object to a suspicious person determination unit. 112 and the notification information generation unit 113.
  • the object information includes, for example, the position, distance, and image of the object relative to the vehicle C1. Furthermore, the movement of the object can be detected based on object information, such as the position and distance of the object. Note that the object detection method will be explained in detail with reference to FIGS. 3, 4, etc.
  • the suspicious person determination unit 112 determines whether the object detected by the object detection unit 111 is a suspicious person based on the object information output from the object detection unit 111.
  • the suspicious person determination section 112 transmits suspicious person information regarding the suspicious person to the notification information generation section 113, the intimidation device control section 114, and the sensor control section. 115.
  • the suspicious person information is, for example, the position and distance of the suspicious person with respect to the vehicle C1, and the number of suspicious persons. Further, the movement of a suspicious person can be detected based on suspicious person information, that is, the position and distance of the suspicious person. Note that the method for determining a suspicious person will be explained in detail with reference to FIGS. 3, 4, etc.
  • the notification information generation unit 113 generates notification information for notifying the user U1 that a suspicious person exists around the vehicle C1 based on the suspicious person information from the suspicious person determination unit 112.
  • the notification information is output to the communication unit 120.
  • This notification information is information including, for example, a vehicle image showing the vehicle C1, a movement trajectory line showing the movement trajectory of the suspicious person, and the like. That is, the notification information generation unit 113 functions as an image generation unit that generates a movement trajectory line. Further, the notification information generation unit 113 performs output control to output the generated notification information to an external device, for example, the electronic device MC1 via the communication unit 120. That is, the notification information generation unit 113 functions as an output unit that outputs notification information. Note that the notification information generated by the notification information generation unit 113 will be described in detail with reference to FIGS. 5 to 12.
  • the intimidation device control unit 114 causes the intimidation device 60 to perform an intimidation operation toward a suspicious person present around the vehicle C1, based on the suspicious person information from the suspicious person determination unit 112.
  • the intimidation device control unit 114 can also cause the intimidation device 60 to perform an intimidation operation toward a suspicious person present around the vehicle C1 based on an intimidation instruction operation by the user U1 using the electronic device MC1. Note that these threatening actions will be explained in detail with reference to FIGS. 11 to 14.
  • the communication unit 120 is a device mounted on the vehicle C1, and exchanges various information with other devices using wired communication or wireless communication based on the control of the monitoring device 110. .
  • the communication unit 120 transmits the notification information generated by the notification information generation unit 113 to the electronic device MC1 via the network 20.
  • the communication unit 120 receives a control signal transmitted from the electronic device MC1 via the network 20.
  • the communication unit 120 transmits the notification information generated by the notification information generation unit 113 to the in-vehicle device using short-range wireless communication, for example, wireless LAN (eg, Wi-Fi), or Bluetooth (registered trademark).
  • short-range wireless communication for example, wireless LAN (eg, Wi-Fi), or Bluetooth (registered trademark).
  • the storage unit 130 is a device mounted on the vehicle C1, and is a storage medium that stores various information.
  • the storage unit 130 stores various types of information (for example, a control program, suspicious person determination information, threatening behavior information, and registration information) necessary for the monitoring device 110 to perform various processes.
  • the suspicious person determination information is information used when the suspicious person determination unit 112 determines a suspicious person.
  • the threatening motion information is information used when the threatening device control unit 114 executes a threatening motion. Note that the registration information will be explained with reference to FIGS. 3 and 4.
  • the storage unit 130 stores various information acquired via the communication unit 120.
  • ROM Read Only Memory
  • RAM Random Access Memory
  • HDD Hard Disk Drive
  • SSD Solid State Drive
  • Example of identifying a suspicious person using sonar 3 and 4 are diagrams schematically showing an example of a determination process for determining a suspicious person present around the vehicle C1 using the sonar 52.
  • ultrasonic sensors 71 to 80 that output sound waves are installed in the vehicle C1.
  • portions of the vehicle C1 where the ultrasonic sensors 71 to 80 are installed are indicated by dotted circles.
  • an ultrasonic sensor is similarly installed on the rear side of the vehicle C1.
  • the ultrasonic sensors 71 to 80 are sensors that emit ultrasonic waves (transmitted waves) and measure the presence or absence of a target object and the distance using reflected waves (received waves) reflected by the target object.
  • FIG. 3 shows an example of determining whether a person U10 is moving toward the center of the vehicle C1 (in the direction of arrows AR10 and AR11). Further, FIG. 3 shows a transition example when the person U10 moves from the left state to the right state. Note that the dotted arrows indicate distances L1 to L6 to the person U10 detected by the ultrasonic sensors 75 to 77.
  • the object detection unit 111 detects the ultrasonic sensor where the object was detected and its surroundings. The object is detected using the detected value from the ultrasonic sensor.
  • the shortest detection distance L2 for the person U10 and the distances L1 and L3 to the person U10 detected by the left and right ultrasonic sensors 75 and 77 are less than the threshold TH1. Assume that there is. In this case, the object detection unit 111 can estimate the position of the person U10 based on the triangle determined by the distance between the ultrasonic sensors 75 and 77 and the distances L1 and L3.
  • the detection distance to the person U10 is the shortest distance L5, and the distances L4 and L6 to the person U10 detected by the left and right ultrasonic sensors 75 and 77 are used. , measure the position of person U10 with respect to vehicle C1. That is, the object detection unit 111 estimates the position of the person U10 using a triangle determined by the distance between the ultrasonic sensors 75 and 77 and the distances L4 and L6.
  • the object detection unit 111 determines the moving direction of the person U10 based on the detection values (distances L1 to L6) output from the ultrasonic sensors 75 to 77. Specifically, the object detection unit 111 determines the rate of change between the detected values (distances L1 to L3) in the state shown on the left side of FIG. 3 and the detected values (distances L4 to L6) in the state shown on the right side of FIG. Based on this, the moving direction of the person U10 is determined.
  • the moving direction of the person U10 relative to the vehicle C1 can be determined based on the rate of change between the distances L2 and L5 with the shortest detected values and the distances L1, L3, L4, and L6 to the left and right of the distances L2 and L5.
  • the object detection unit 111 detects the movement of the person U10 based on the transition of the position of the person U10 estimated based on the distance between the ultrasonic sensors 75 and 77, the distances L1 and L3, and the distances L4 and L6.
  • Direction can be determined.
  • FIG. 4 shows an example of determining whether a person U11 stays around the vehicle C1 for a long time. Further, FIG. 4 shows a transition example when the person U11 moves from the left state to the right state. Note that the dotted arrows indicate the distances L7 to L9 to the person U11 detected by the ultrasonic sensors 77 to 78.
  • the object detection unit 111 measures the position of the person U10 with respect to the vehicle C1 using the distance L7 with respect to the person U11.
  • distances L8 and L9 with respect to the person U11 are used to measure the position of the person U11 with respect to the vehicle C1.
  • the object detection unit 111 measures the position of the person U11 with respect to the vehicle C1 using the distances L7 to L9 with respect to the person U11, and determines the moving direction of the person U11 based on the change in the position.
  • the object detection unit 111 detects the detection value based on the rate of change between the detected value (distance L7) in the state shown on the left side of FIG. 4 and the detected value (distances L8, L9) in the state shown on the right side of FIG. , determine the direction of movement of the person U11.
  • the person U10 is moving toward the center of the vehicle C1 (in the direction of arrows AR10 and AR11).
  • the person U11 is not moving toward the center of the vehicle C1, but is moving around the vehicle C1.
  • the object detection unit 111 can detect the position and moving direction of objects existing around the vehicle C1. That is, the object detection unit 111 can detect the movement of a person. Therefore, the suspicious person determination unit 112 can determine whether or not the person present around the vehicle C1 is a suspicious person based on the movement of the person.
  • the suspicious person determination unit 112 can determine that the person is a suspicious person. Further, based on the movement of the person around the vehicle C1, the suspicious person determination unit 112 determines that the person is a suspicious person if the person repeatedly approaches and moves away from the vehicle C1. It can be determined that Further, based on the movement of the person around the vehicle C1, the suspicious person determination unit 112 determines whether the person is suspicious if the person is moving as if the person is wandering around the vehicle C1. It can be determined that the person is
  • the suspicious person determining unit 112 may determine whether a suspicious person is present using the length of time a person stays around the vehicle C1. For example, the suspicious person determination unit 112 can determine whether or not a person present around the vehicle C1 is a suspicious person based on the movement and residence time of the person. For example, the suspicious person determination unit 112 determines that a person existing around the vehicle C1 is moving around the vehicle C1 and staying within a predetermined range R1 based on the vehicle C1 for a predetermined time T1 or more. If the person is suspicious, it can be determined that the person is suspicious.
  • the predetermined range R1 is a range that can be detected by the ultrasonic sensors 71 to 80, and may be, for example, a range several meters away from the vehicle C1.
  • the predetermined time T1 is a time during which a suspicious person is expected to stay, and can be set as appropriate based on experimental data and the like. For example, the predetermined time T1 can be set to several seconds to several tens of seconds.
  • FIGS. 3 and 4 show a method of determining a suspicious person using the sonar 52
  • other detection methods may be used to detect a moving object.
  • a determination method may be used in which an object is detected using other sensors such as lidar 53 and radar 54, and it is determined whether or not the object is a suspicious person.
  • a detection method may be used in which, based on an image acquired by the camera 51, a person included in the image and the movement thereof are detected. Further, a suspicious person may be detected using the facial expression of the person included in the image.
  • detection methods can use known object detection techniques. This object detection technology is, for example, a human body detection technology, a face detection technology, an expression detection technology, or the like.
  • a detection method may be used that detects people around the vehicle C1 and their movements based on sounds acquired by a sound acquisition unit (not shown). For example, based on the change in the sound acquired by the sound acquisition unit, it is possible to estimate the movement state of the person making the sound toward the vehicle C1.
  • Other known object detection techniques using sound may also be used.
  • a detection method may be used in which a person around the vehicle C1 is detected using an electronic device that is capable of wireless communication with the communication unit 120.
  • the communication unit 120 receives radio waves from an electronic device capable of wireless communication
  • the distance between the electronic device and the vehicle C1 can be estimated based on the radio wave intensity (reception intensity). That is, it is possible to estimate the distance from the person who owns the electronic device or the vehicle carrying the electronic device to the vehicle.
  • the communication unit 120 performs communication using a plurality of antennas
  • the direction of radio waves transmitted from the electronic device can be estimated. That is, it is possible to detect the direction from the person carrying the electronic device or the vehicle such as a vehicle carrying the electronic device. In this way, the position (distance and direction) of the electronic device with respect to the vehicle C1 can be detected using the radio waves emitted from the electronic device. ) position can be detected.
  • other known object detection techniques using radio waves may be used.
  • a detection method may be used in which a person around the vehicle C1 is detected using a position information acquisition unit included in the vehicle C1 and a position information acquisition unit included in an electronic device capable of wireless communication.
  • the position information acquisition unit can be realized by, for example, a GNSS receiver that acquires position information using GNSS (Global Navigation Satellite System).
  • GNSS Global Navigation Satellite System
  • the position information includes various data related to the position such as latitude, longitude, altitude, etc. at the time of receiving the GNSS signal.
  • the location information may be acquired using other location information acquisition methods. For example, location information may be derived using information from nearby access points and base stations. Further, for example, position information may be derived using position estimation technology using a navigation device.
  • the object detection unit 111 acquires, via the communication unit 120, position information of the electronic device acquired by a position information acquisition unit included in the electronic device. Then, the object detection unit 111 determines the position (distance and direction) can be detected. Thereby, the object detection unit 111 can detect the position of the person who owns the electronic device.
  • the person who owns the vehicle C1 is a person related to the user U1 who owns the vehicle C1 or another person using the information about the object detected by the object detection and the degree of matching of the registered information. can be determined.
  • the registration information is information registered in advance by the user U1 who owns the vehicle C1, and is stored in the storage unit 130. Furthermore, as described above, the registration information includes image identification information, sound identification information, device identification information, and the like.
  • the sound identification information is information related to sounds emitted by people, animals, and devices, and is, for example, information for identifying voiceprints, information for identifying voice patterns, and the like.
  • the image identification information is, for example, information that identifies a person's face.
  • a face identification method may be used that identifies a face included in an image obtained by the camera 51 based on the image.
  • a known face identification method can be used.
  • a recognition technology for each object such as an individual recognition technology or a face recognition technology can be used, for example.
  • the electronic device registered in the device identification information is a device that can cooperate with the vehicle C1.
  • the device is a device that can exchange information with the communication unit 120 using wireless communication, and is a device that can be carried by a person or a device that can be mounted on a vehicle.
  • This electronic device is, for example, a key of the vehicle C1 (for example, an intelligent key), a mobile terminal (for example, a mobile phone, a smartphone, a tablet device), a wearable terminal (for example, a smart watch), or the like.
  • the device identification information is unique identification information (for example, device unique information, terminal identification information) given to an electronic device, and is, for example, information such as a MAC (Media Access Control) address and a user ID.
  • the electronic device can be registered by storing identification information of the electronic device as registration information in the storage unit 130 (for example, user registration).
  • a voiceprint is information that indicates the voice characteristics determined by analyzing each individual's voice. For example, voiceprints of family members, related persons, etc. of the user U1 can be registered.
  • Voice pattern recognition is information that indicates specific words and sentences uttered by a person.
  • voice pattern recognition for example, words and sentences such as ⁇ excuse me'', ⁇ is there anyone there'', ⁇ did you hear me'', ⁇ umm...'', and ⁇ dad'' can be registered. It is also possible to register sounds emitted by moving objects and various devices, such as the sound of knocking on the door of the vehicle C1.
  • the person is a person related to the user U1 who owns the vehicle C1 or another person. It is possible to determine whether If the person is another person, it is possible to determine whether or not the person is a suspicious person using the suspicious person determination process described above.
  • the characteristics of the movement of moving objects around the vehicle C1 (for example, how people approach) as well as registered information such as voices and owned devices are used to identify people related to the user U1. It is possible to determine whether the person is a person, another person, or a suspicious person.
  • part of the object detection shown in FIGS. 3 and 4 may be omitted. .
  • facial expression identification processing on the human facial expression included in the image captured by the camera 51, it is possible to use that facial expression to determine whether or not the person is a suspicious person. For example, if the facial expression is as if the person is looking around at the vehicle C1, it can be determined that the person is a suspicious person.
  • a suspicious person may be determined based on the waveform extracted from the detection wave output from the sonar 52 (for example, see Japanese Patent Application Laid-Open No. 2013-228912). For example, it is possible to determine a suspicious person using the characteristics of the waveform pattern extracted from the detection wave output from the sonar 52. Specifically, the waveform pattern extracted from the detection wave output from the sonar 52 is compared with a predefined determination standard pattern, and a suspicious person can be determined based on the degree of similarity between them. It is possible. This makes it possible to determine, for example, whether the person is passing by the vehicle C1 or a suspicious person wandering around the vehicle C1.
  • a suspicious person may be determined using artificial intelligence (AI). For example, detection information from the sensors 50 when a suspicious person is detected is learned in advance, and this learned data is used for determination. For example, image information from the camera 51 when a suspicious person is detected can be learned in advance, and this learning data can be used for determination. For example, the suspicious person determination unit 112 uses the learning data for a person (or his/her face) included in an image captured by the camera 51 to determine an evaluation value for determining whether the person is a suspicious person. Based on the evaluation value, it can be determined whether the person is suspicious.
  • AI artificial intelligence
  • the monitoring system 100 executes the monitoring process using the power of the battery installed in the vehicle C1.
  • the detection cycle (sensing cycle) of each device of the sensors 50 is controlled in order to suppress the power of the battery used for the monitoring process.
  • the detection period of each device is set by adding or subtracting the basic period of each device of the sensors 50.
  • the standard detection cycle (basic cycle) of the sonar 52 is 2.0 seconds.
  • the detection period of the sonar 52 can be set to about half, for example, about 1.0 seconds.
  • the detection period of the sonar 52 can be made several times larger, for example, about 3.0 to 10.0 seconds.
  • the detection cycles of the plurality of sonars 52 can be individually controlled. Therefore, for a plurality of sensors that can be individually controlled, the detection cycles may be individually controlled.
  • the frame rate (FPS) can be changed. For example, assume a camera 51 whose frame rate can be set to about 5 to 60. In this case, when shortening the detection period, it is possible to set the frame rate to a value close to 60, and when lengthening the detection period, it is possible to set the frame rate to a value close to 5.
  • the detection cycle of the sensors 50 that detect an object determined to be a suspicious person can be set to be shorter.
  • the detection period of the ultrasonic sensors 77 to 79 is set shorter than the basic period, and the other ultrasonic sensors 71 to 76 , 80 detection periods can be maintained.
  • the detection period around the ultrasonic sensors 77 to 79 for example, the ultrasonic sensors 76 and 80, may also be set to be short like the detection period of the ultrasonic sensors 77 to 79. In this way, the detection period of the detection device (or the detection devices around it) that detects the approach of a suspicious person to the vehicle C1 can be shortened. For example, it is possible to set the detection period to about half the basic period.
  • the detection period of each device of the sensors 50 is shortened. That is, the detection period of each device of the sensors 50 can be shortened as the suspicious person's staying time (that is, wandering time) around the vehicle C1 becomes longer. For example, it is possible to set the detection period to about half the basic period. Furthermore, it is also possible to further shorten the detection period as the residence time becomes longer.
  • the detection period of each device of the sensors 50 is shortened. That is, as the moving speed of the suspicious person increases, the detection period of each device of the sensors 50 can be shortened. Furthermore, it is also possible to further shorten the detection period depending on the moving speed.
  • the detection cycle of the sensors 50 located in the direction facing the front of the suspicious person's face can be shortened.
  • the face of the suspicious person can be detected based on the image acquired by the camera 51.
  • a known image recognition technique can be used.
  • the camera 51 is an example of means for detecting the direction of the face.
  • the detection cycle of the sensors 50 can be lengthened. That is, when a suspicious person approaches the vehicle C1 and the suspicious person's moving speed is slow, for example, when the suspicious person is looking into the vehicle, the detection cycle of the sensors 50 may be lengthened. can. Note that whether or not the user is looking into the interior of the vehicle C1 can be determined based on an image acquired by the camera 51 installed inside the vehicle C1.
  • the detection cycle of the devices of the sensors 50 may be shortened.
  • the detection cycle may be lengthened for devices such as sensors 50 that are assumed not to have a suspicious person nearby. For example, if a suspicious person is detected in front of the vehicle C1, the detection period of the sensors 50 at the rear of the vehicle C1 is set to be longer. For example, if a suspicious person is detected on the left side of the vehicle C1, the detection cycle of the sensors 50 on the right side of the vehicle C1 is set to be longer. In this way, the period of the detection device installed opposite to the position of the vehicle C1 where the suspicious person is present is lengthened.
  • the detection period of each device of the sensors 50 is set to be shortened. That is, when a plurality of suspicious persons are detected around the vehicle C1, the detection cycles of all the devices of the sensors 50 are shortened.
  • Example of notification of suspicious person notification information when a suspicious person is detected around the parked vehicle C1, information regarding the suspicious person is notified to the user U1.
  • the display unit 30 of the electronic device MC1 displays information about the suspicious person
  • the audio output unit (not shown) of the electronic device MC1 outputs audio information about the suspicious person
  • FIG. 5 is a diagram showing a display example of a suspicious person notification screen 400 displayed on the display unit 30 of the electronic device MC1. Each piece of information displayed on the suspicious person notification screen 400 is generated by the notification information generation unit 113.
  • the suspicious person notification screen 400 includes a message indicating that a suspicious person has been detected, a vehicle image C10 indicating the vehicle C1, a suspicious person position indicator 401 indicating the current location (or latest location) of the suspicious person, and a message indicating that a suspicious person has been detected.
  • a movement trajectory line 402 indicating the movement trajectory of is displayed.
  • the notification information generation unit 113 determines the position of an object (suspicious person) determined to be a suspicious person by the suspicious person determination unit 112 among the objects detected by the object detection unit 111 by marking it with a black circle (suspicious person position indicator 401 ) to display sequentially.
  • the notification information generation unit 113 sequentially moves the black circle (suspicious person position indicator 401) according to the movement, and draws a line connecting the black circle and the previous black circle. do. In this way, the movement trajectory of the suspicious person is drawn as the movement trajectory line 402. Note that in FIGS. 6 to 14, since the vehicle image C10 is common, the same reference numerals are used for explanation.
  • FIG. 6 is a diagram showing a display example of the suspicious person notification screen 410 displayed on the display unit 30 of the electronic device MC1. Each piece of information displayed on the suspicious person notification screen 410 is generated by the notification information generation unit 113. Note that the suspicious person notification screen 410 shown in FIG. 6 is a partial modification of the suspicious person notification screen 400 shown in FIG. The suspicious person position indicator 411 is common to the suspicious person position indicator 401 shown in FIG.
  • the distance between the current detected position of the suspicious person and the previous detected position of the suspicious person becomes longer.
  • a straight line that is different from the actual movement trajectory of the suspicious person may be displayed.
  • a straight line connecting the current suspicious person detection position and the previous suspicious person detection position may cross the vehicle image C10.
  • the distance between the current suspicious person detection position and the previous suspicious person detection position is long. It is also expected that this will happen. In such a case, if the movement trajectory of the person who simply passed beside the vehicle C1 is displayed, the user U1 may feel uncomfortable or may be confused.
  • the line when a straight line connecting the current suspicious person detection position and the previous suspicious person detection position crosses the vehicle image C10, the line is made to not cross the vehicle image C10.
  • processing is performed such that a line is not drawn between the current suspicious person detection position and the previous suspicious person detection position, or processing is performed such that the line does not straddle the vehicle image C10. This allows the user U1 to more accurately grasp the situation around the vehicle C1, making it easier to take necessary measures.
  • indicators for example, black circles 413 and 414.
  • interpolation can be performed based on the shape of the vehicle image C10. For example, lines are connected along the outline of the vehicle image C10.
  • the movement trajectory line 412 corresponds to the movement trajectory line 402 shown in FIG. 5.
  • the example shown in FIG. 6 shows an example where the moving speed from the past suspicious person's position (black circle 413) to the next past suspicious person's position (black circle 414) is equal to or higher than the threshold value.
  • the black circles 413 and 414 are connected with a straight line (indicated by a dotted straight line 416), they will overlap with the vehicle image C10.
  • the user U1 sees such a display, there is a possibility that the user U1 may get the impression that a suspicious person has passed the vehicle C1.
  • the straight line should not be connected.
  • the shortest curve 415 may be drawn along the contour of the vehicle image C10.
  • FIGS. 7 and 8 are diagrams showing display examples of suspicious person notification screens 420 and 430 displayed on the display unit 30 of the electronic device MC1. Each piece of information displayed on the suspicious person notification screens 420 and 430 is generated by the notification information generation unit 113.
  • the suspicious person notification screens 420 and 430 shown in FIGS. 7 and 8 are partially modified versions of the suspicious person notification screen 400 shown in FIG. Let me explain. 7 and 8 show an example in which two suspicious persons are detected.
  • the suspicious person position indicator 421 is an image related to a suspicious person moving in a position close to the vehicle C1.
  • the suspicious person position markers 425 and 431 are images related to a suspicious person moving in a far position from the vehicle C1.
  • each suspicious person it is preferable to display the movement trajectory of each suspicious person.
  • the current detection position of each suspicious person and the previous detection position of each suspicious person are connected with a straight line, each of those straight lines There is also a possibility that they may intersect or overlap. In this case, it may become difficult for the user U1 to view, give the user U1 a sense of discomfort, or cause the user U1 to be confused.
  • the processing load for connecting the detection positions of each suspicious person with a straight line increases, and there is a possibility that the power consumption of the battery of the vehicle C1 increases.
  • it becomes difficult to judge the suspicious persons by connecting them in a straight line which increases the load of these judgment processes and increases the power consumption of the battery of vehicle C1. There is a risk of
  • suspicious person position indicators 421 and 425 and movement trajectory lines 422 and 426 may be drawn for each suspicious person.
  • the load on the drawing process increases. Therefore, as shown in FIG. 8, only the movement trajectory lines 422 for some of the suspicious persons may be drawn, and the movement trajectory lines for the other suspicious persons may be omitted. This makes it possible to reduce the load of the drawing process and also to reduce the power consumption of the battery of the vehicle C1.
  • FIGS. 9 and 10 are diagrams showing display examples of suspicious person notification screens 440 and 450 displayed on the display unit 30 of the electronic device MC1. Each piece of information displayed on the suspicious person notification screens 440 and 450 is generated by the notification information generation unit 113.
  • the suspicious person notification screens 440 and 450 shown in FIGS. 9 and 10 are partially modified versions of the suspicious person notification screen 400 shown in FIG. Let me explain. 9 and 10 show an example where an obstacle is detected.
  • the suspicious person position indicator 451 and the movement trajectory line 452 are images related to the suspicious person.
  • obstacle images 441 and 442 related to the obstacle may be drawn.
  • the obstacle images 441 and 442 are displayed in a different manner from the vehicle image C10.
  • an obstacle means a terrestrial feature, a stationary object, etc.
  • a terrestrial feature is a name indicating a fixed object such as a natural object or an artificial object existing on the ground, such as a tree, a building, or an obstacle.
  • the stationary object means, for example, other parked vehicles, bicycles, etc. that exist around the vehicle C1.
  • the suspicious person determination unit 112 can determine, among the objects detected by the object detection unit 111, an object that does not change for a certain period of time within a predetermined period of time, that is, an object that does not move for a certain period of time, as an obstacle.
  • the obstacle image 441 is an image showing a building or the like existing on the left side of the vehicle C1.
  • the obstacle image 442 is an image showing a wall or the like existing on the rear side of the vehicle C1.
  • each suspicious person and each suspicious person immediately before are detected. If you connect the detected position with a straight line, each of those straight lines may intersect with or overlap images of terrestrial features or other objects. In this case, there is a possibility that the user U1 may feel uncomfortable or confused.
  • processing is performed so that the movement trajectory line related to the suspicious person does not overlap with the obstacle image. .
  • This allows the user U1 to more accurately grasp the situation around the vehicle C1, making it easier to take necessary measures.
  • FIGS. 11 and 12 are diagrams showing display examples of suspicious person notification screens 460 and 470 displayed on the display unit 30 of the electronic device MC1. Each piece of information displayed on the suspicious person notification screens 460 and 470 is generated by the notification information generation unit 113.
  • the suspicious person notification screens 460 and 470 shown in FIGS. 11 and 12 are partially modified versions of the suspicious person notification screen 400 shown in FIG. Let me explain.
  • FIGS. 11 and 12 show an example in which an intimidation operation using the intimidation device 60 is automatically executed.
  • Suspicious person position indicators 471, 475 and movement trajectory lines 472, 474, 476, and 478 are images related to the suspicious person.
  • the intimidation device control unit 114 of the vehicle C1 controls the intimidation device 60 to cause each device to perform a threatening operation.
  • the intimidation device control unit 114 determines the device to perform the intimidation operation based on the behavior of the suspicious person detected by the suspicious person determination unit 112, and executes each intimidation control. In this case, the determination of the device that executes the threatening action and the threatening action by the threatening device are performed based on the threatening action information set in advance.
  • Intimidation operations by the intimidation device 60 include, for example, outputting a warning sound from the horn 61 (see FIG. 2), emitting light from the light 62 (see FIG. 2), outputting some sound from the speaker 63 (see FIG. 2), etc. It is possible to do so.
  • the threatening device control unit 114 outputs information regarding the device that performed the threatening action and information regarding the threatening action to the notification information generating unit 113.
  • the timing at which the intimidation device 60 starts the intimidation operation can be the timing at which a suspicious person is detected around the vehicle C1, or the timing at which a predetermined period of time has elapsed since the detection.
  • the predetermined time can be set as appropriate based on experimental data and the like.
  • the equipment that executes the threatening action can be appropriately set based on experimental data and the like.
  • the first intimidation operation by the intimidation device 60 is an intimidation operation using light.
  • a threatening action can be performed by emitting light from the light 62 (see FIG. 2).
  • the intimidation operation using sound is performed.
  • an additional threatening action using light may be performed. In this way, when performing a threatening action, the threatening action is performed in stages according to the position and behavior of the suspicious person. Alternatively, the threatening action may be performed based on user operation. Examples of this are shown in FIGS. 13 and 14.
  • the threatening motion may be changed depending on the location and behavior of the suspicious person.
  • the lights 62 installed in the vehicle C1 only the lights near where the suspicious person is present may be made to emit light.
  • the right front direction indicator of the vehicle C1 can be made to blink.
  • the sound may be output in the vicinity where a suspicious person is present.
  • audio can be output toward the right front of the vehicle C1.
  • the positions of these suspicious persons can be detected by sensors 50. With these, it is possible to make it easier for the suspicious person to notice that the vehicle C1 is aware of the presence of the suspicious person. Then, it becomes possible to keep the suspicious person away from the vehicle C1.
  • a camera 51 (see FIG. 2) that can photograph the outside from the inside of the vehicle C1 is installed.
  • the suspicious person's face is extracted from the image captured by the camera 51, and the face is output to an output device inside the vehicle, such as a car navigation device, etc. may be displayed.
  • the vehicle C1 is equipped with a display device, such as a projector, or an optical system that can display an image on a window, windshield, etc. of the vehicle C1.
  • the face of the suspicious person extracted from the image captured by the camera 51 may be displayed on the window, front window 3 (see FIGS. 3 and 4), rear window, etc. of the vehicle C1. With these, it is possible to make it easier for the suspicious person to notice that the vehicle C1 is aware of the presence of the suspicious person. Then, it becomes possible to keep the suspicious person away from the vehicle C1.
  • intimidation notification images 461 to 465 indicating the device that executed the intimidation may be drawn.
  • the threatening notification image 461 is an image indicating that a warning sound has been emitted from the horn 61 (see FIG. 2).
  • the threatening notification images 462 to 465 are images indicating that the light 62 (see FIG. 2) has been emitted. Note that the threatening notification images 462 to 465 can be displayed overlappingly on the light portion of the vehicle C1 that is emitted as a threatening action.
  • the notification information generation unit 113 can obtain information about the devices that have executed these threats based on the threat control information from the threat device control unit 114.
  • suspicious person position indicators 473 and 477 indicating the position of the suspicious person when the threat using the threat device 60 is executed are displayed. Furthermore, the display mode of the movement trajectory lines 472, 474, 476, and 478 is changed before and after the threat using the threat device 60 is executed. In FIG. 12, movement trajectory lines 472 and 476 before the threat using the threat device 60 is executed are shown as solid lines, and movement trajectory lines 474 and 478 after the threat using the threat device 60 is performed are shown as dotted lines. show. Note that the display mode may be changed by changing the color, changing the thickness of the line, or the like. Thereby, when the threat using the threat device 60 is executed, the user U1 can easily understand what kind of behavior the suspicious person has taken.
  • FIGS. 13 and 14 are diagrams showing display examples of suspicious person notification screens 480 and 490 displayed on the display unit 30 of the electronic device MC1. Each piece of information displayed on the suspicious person notification screens 480 and 490 is generated by the notification information generation unit 113.
  • the suspicious person notification screens 480 and 490 shown in FIGS. 13 and 14 are partially modified versions of the suspicious person notification screen 400 shown in FIG. Let me explain.
  • FIGS. 13 and 14 show an example of a case where an intimidation operation using the intimidation device 60 is performed based on a user operation.
  • Suspicious person position indicators 401, 492, 494 and movement trajectory lines 402, 493 are images related to the suspicious person.
  • an intimidation button 481 for instructing execution of intimidation may be displayed along with a message indicating that a suspicious person has been detected.
  • the intimidation button 481 is an operation mark for instructing the intimidation operation of the intimidation device 60.
  • the electronic device MC1 transmits a control signal indicating that the intimidation button 481 has been operated to the monitoring device 110.
  • the intimidation device control unit 114 of the monitoring device 110 controls the intimidation operation of the intimidation device 60 based on the control signal received via the communication unit 120.
  • the intimidation device control unit 114 executes an intimidation operation using the horn 61 (see FIG. 2) and the light 62 (see FIG. 2), similar to the examples shown in FIGS. 11 and 12.
  • threatening notification images 461 to 465 are displayed. An example of this is shown in FIG.
  • FIG. 14 shows an example in which an additional threat button 491 for instructing the execution of an additional threat action is displayed together with a message indicating that the threat action has been performed.
  • the additional threat button 491 is an operation indicator for instructing an additional operation of the threat device 60.
  • the additional intimidation button 491 displayed on the display unit 30 a new intimidation action is performed.
  • an intimidation operation is performed in which a new intimidation device 60, for example, a speaker 63, is used to emit a warning sound to the suspicious person.
  • the intimidation button 481 and the additional intimidation button 491 are displayed, but operation buttons for instructing the intimidation operation of each device of the intimidation device 60 may also be displayed.
  • a horn button for instructing sound output from the horn 61 a light button for instructing light emission of the light 62, a speaker button for instructing sound output from the speaker 63, etc. may be displayed. This allows the user U1 to instruct a desired threatening action while viewing the movement trajectory of the suspicious person.
  • FIGS. 5 to 14 show an example in which suspicious person notification information is displayed on the display unit 30 of the electronic device MC1
  • audio information corresponding to the suspicious person notification information may also be output from the audio output unit of the electronic device MC1.
  • the suspicious person notification information may be output from a device other than the electronic device MC1.
  • the suspicious person notification information may be output to an output device installed inside the vehicle C1, such as an in-vehicle device such as a smartphone, a tablet terminal, a personal computer, a car navigation device, or an IVI (In-Vehicle Infotainment).
  • the suspicious person notification information may be output from both the electronic device MC1 and the in-vehicle device.
  • the user U1 is sleeping or working in the parked vehicle C1.
  • the on-vehicle device of the vehicle C1 by outputting suspicious person notification information from the on-vehicle device of the vehicle C1, it becomes possible to quickly notify the user U1 of the presence of a suspicious person around the vehicle C1.
  • a display screen having the same content as that of the electronic device MC1 may be displayed, or other information may be displayed.
  • the in-vehicle device may display or output a warning message such as "You are being watched" or the like.
  • FIG. 15 is a flowchart illustrating an example of a detection cycle setting process in the monitoring device 110. Further, this detection cycle setting process is executed based on a program stored in the storage unit 130 (see FIG. 2).
  • this detection cycle setting process is executed when the start switch of the vehicle C1 is used to turn off the vehicle C1 (or the off operation using a key) is performed after the vehicle C1 is parked.
  • FIG. 15 shows an example in which the detection cycle setting process is executed when the vehicle C1 is turned off, the monitoring process may be turned on and off separately from the off-off operation of the vehicle C1. In this case, after the vehicle C1 is parked, the detection cycle setting process is executed when the monitoring process is turned on. Further, this monitoring process will be explained with reference to FIGS. 1 to 14 as appropriate.
  • step S501 the operation of the monitoring device 110 is started.
  • the operation of the monitoring device 110 is started when the vehicle C1 is turned off using the start switch of the vehicle C1 (or the vehicle C1 is turned off using a key).
  • the detection operation of the sensors 50 is started at the stage when the monitoring device 110 is activated. In this case, each device of the sensors 50 starts operating at a basic cycle (for example, 2 seconds).
  • the monitoring device 110 executes suspicious person detection processing. Specifically, the object detection unit 111 detects objects existing around the vehicle C1 based on each detection information output from each device of the sensors 50. Further, the suspicious person determining unit 112 determines whether the object detected by the object detecting unit 111 is a suspicious person.
  • step S503 the sensor control unit 115 determines whether a suspicious person has been detected by the suspicious person detection process in step S502. If a suspicious person is detected, the process advances to step S504. On the other hand, if no suspicious person has been detected, the process advances to step S505.
  • step S504 the sensor control unit 115 sets the detection cycle of each device of the sensors 50 based on the suspicious person detection result from the suspicious person detection process in step S502. For example, as described above, the position of the suspicious person with respect to vehicle C1, the stay time of the suspicious person around vehicle C1, the moving speed of the suspicious person, and the direction of the suspicious person's face with respect to vehicle C1.
  • the length of the detection period relative to the reference value can be set based on at least one of the following: and the number of suspicious persons.
  • step S505 the sensor control unit 115 determines the detection cycle when a suspicious person is not detected. Specifically, the detection cycle of each device of the sensors 50 can be set so that the cycle is longer than the normal detection cycle. The period longer than the normal detection period can be set as appropriate based on, for example, experimental data.
  • the detection cycle may be longer than the normal detection cycle, and the equipment used for the detection process may be limited. For example, if a plurality of cameras 51 whose imaging range is around the vehicle C1 are installed in the vehicle C1, detection processing may be performed using only some of the cameras 51 among the plurality of cameras 51. In this way, when no suspicious person is detected around the vehicle C1, there is no need to perform suspicious person detection processing frequently, so the detection cycle may be lengthened or the equipment used for detection processing may be limited. to reduce battery power consumption.
  • step S506 it is determined whether there is an operation to end the operation of the monitoring device 110.
  • the vehicle C1 is turned on using the start switch of the vehicle C1 (or the vehicle C1 is turned on using a key)
  • it is determined that the operation of the monitoring device 110 is ended.
  • the monitoring processing can be turned on and off, it is determined that the operation of the monitoring device 110 has been terminated when the monitoring processing is turned off. If there is no operation to end the operation of the monitoring device 110, the process returns to step S502. On the other hand, if there is no operation termination operation of the monitoring device 110, the operation of the monitoring process is terminated.
  • FIG. 16 is a flowchart illustrating an example of suspicious person information notification processing in the monitoring device 110. Further, this suspicious person information notification process is executed based on a program stored in the storage unit 130 (see FIG. 2). In addition, in this suspicious person information notification process, after the vehicle C1 is parked, the start switch of the vehicle C1 is used to turn off the vehicle C1 (or the off operation using the key is performed). Executed when
  • step S521 the notification information generation unit 113 determines whether a suspicious person has been detected in step S502 (see FIG. 15). If a suspicious person is detected, the process advances to step S522. On the other hand, if a suspicious person is not detected, monitoring continues until a suspicious person is detected.
  • step S522 the notification information generation unit 113 obtains the distance between the vehicle C1 and the suspicious person based on the suspicious person information from the suspicious person determination unit 112.
  • step S523 the notification information generation unit 113 determines whether a plurality of suspicious persons have been detected based on the suspicious person information from the suspicious person determination unit 112. If a plurality of suspicious persons have been detected, the process advances to step S524. On the other hand, if one suspicious person has been detected, the process advances to step S525.
  • step S524 the notification information generation unit 113 determines to generate a movement trajectory line for the suspicious person whose distance from the vehicle C1 is the closest, based on the suspicious person information from the suspicious person determination unit 112.
  • step S525 the notification information generation unit 113 determines whether the amount of movement of the suspicious person is greater than or equal to the threshold value based on the suspicious person information from the suspicious person determination unit 112. If the amount of movement of the suspicious person is equal to or greater than the threshold value, the process advances to step S526. On the other hand, if the amount of movement of the suspicious person is less than the threshold value, the process advances to step S527.
  • step S526 the notification information generation unit 113 determines not to generate a movement trajectory line for the suspicious person.
  • step S527 the notification information generation unit 113 determines to generate a movement trajectory line for the suspicious person.
  • step S528 the notification information generation unit 113 generates a movement trajectory line of the suspicious person detected in step S502 (see FIG. 15).
  • the notification information generation unit 113 generates a movement trajectory line that connects the suspicious person's previous position to the current position with a straight line for the suspicious person whose movement trajectory line is determined to be generated in step S524 or S527. Generate a line.
  • the notification information generation unit 113 indicates each position without connecting the suspicious person's previous position and current position with a straight line. Generate a circle sign. However, the movement trajectory lines connected before them are maintained.
  • step S529 the notification information generation unit 113 determines whether the movement trajectory line generated in step S529 straddles the vehicle C1. For example, the straight line 416 shown in FIG. 6 is determined to straddle the vehicle C1. If the moving trajectory line straddles the vehicle C1, the process advances to step S530. On the other hand, if the moving trajectory line does not straddle the vehicle C1, the process advances to step S531.
  • step S530 the notification information generation unit 113 newly determines that a movement trajectory line will not be generated for the suspicious person whose movement trajectory line was determined to be generated in step S524 or S527, because the movement trajectory line straddles the vehicle C1. . Then, in step S528, the notification information generation unit 113 generates new round markers indicating each position of the suspicious person.
  • step S531 the notification information generation unit 113 acquires object information (obstacle data) regarding obstacles existing around the vehicle C1 based on the detection information from the object detection unit 111. Based on the obstacle data, the notification information generating unit 113 generates an obstacle image indicating obstacles existing around the vehicle C1. For example, obstacle images 441 and 442 shown in FIGS. 9 and 10 are generated.
  • the notification information generation unit 113 acquires the intimidation control information from the intimidation device control unit 114, and generates an intimidation notification image regarding the intimidation device 60.
  • threatening notification images 461 to 465 shown in FIGS. 11 and 12 are generated.
  • an operation image for example, the threat button 481 and the additional threat button 491 for instructing the threat action may be generated.
  • a suspicious person position indicator regarding the suspicious person before performing the threatening action, and a suspicious person position indicator regarding the suspicious person after performing the threatening action may be generated in different display modes.
  • step S533 the communication unit 120 transmits suspicious person notification information to the electronic device MC1.
  • the notification information generation unit 113 generates suspicious person notification information including the trajectory data generated in step S528, the contour data generated in step S531, and the intimidation data generated in step S532. .
  • the notification information generation unit 113 executes control to transmit the suspicious person notification information to the electronic device MC1 via the communication unit 120.
  • the electronic device MC1 that has received the suspicious person notification information displays the suspicious person notification information on the display unit 30. For example, display screens shown in FIGS. 5 to 14 are displayed.
  • FIG. 17 is a flowchart illustrating an example of the threatening device control process in the monitoring device 110. Further, this threatening device control process is executed based on a program stored in the storage unit 130 (see FIG. 2). Also, in this threatening device control process, similarly to the example shown in FIG. 16, after the vehicle C1 is parked, the start switch of the vehicle C1 is used to turn off the vehicle C1 (or the off operation using the key is performed). Executed in case.
  • step S541 the intimidation device control unit 114 determines whether a suspicious person has been detected in step S502 (see FIG. 15). If a suspicious person is detected, the process advances to step S542. On the other hand, if a suspicious person is not detected, monitoring continues until a suspicious person is detected.
  • step S542 the intimidation device control unit 114 determines, based on the suspicious person information from the suspicious person determination unit 112, whether or not it is the timing for an intimidation action against the suspicious person detected in step S502 (see FIG. 15). do.
  • the timing at which the intimidation device 60 starts the intimidation operation can be the timing at which a suspicious person is detected around the vehicle C1, or the timing at which a predetermined period of time has elapsed since the detection.
  • the process advances to step S543.
  • step S544 the process advances to step S544.
  • step S543 the intimidation device control unit 114 controls the intimidation device 60 based on the suspicious person information from the suspicious person determination unit 112, and causes the intimidation device 60 to perform an intimidation operation against the suspicious person.
  • step S544 the intimidation device control unit 114 controls the intimidation device 60 to stop the intimidation operation toward the suspicious person. Note that if the intimidation device 60 is not performing any intimidation operation, that state is maintained.
  • step S545 the intimidation device control unit 114 determines whether or not the user U1 has performed an intimidation instruction operation. For example, if the threat button 481 shown in FIG. 13 or the additional threat button 491 shown in FIG. 14 is pressed, it is determined that the user U1 has performed a threat instruction operation. If the user U1 has performed an intimidation instruction operation, the process advances to step S545. On the other hand, if there is no intimidation instruction operation by the user U1, the operation of the intimidation device control process is ended.
  • step S546 the intimidation device control unit 114 controls the intimidation device 60 to cause the intimidation device 60 to perform an intimidation operation against the suspicious person based on the control signal related to the intimidation instruction operation transmitted from the electronic device MC1.
  • the present embodiment is also applicable to other moving objects.
  • the present invention can be applied to moving objects that can be approached by people while stopped.
  • it is applicable to all vehicles such as motorcycles, bicycles, airplanes, trains, and ships.
  • people may approach a ship that is docked.
  • it is assumed that other ships will approach the ship. In this way, it is often unknown what exists around the place where the vehicle is stopped, and it is often unknown who will be around the vehicle. Even in such a case, the present embodiment makes it possible to appropriately prevent crime.
  • each process is executed using the battery of the vehicle C1.
  • the power supply of the battery of the vehicle C1 is limited, in order to continuously monitor the surroundings of the vehicle C1, it is necessary to reduce the power consumption of the battery of the vehicle C1. Therefore, for example, it is conceivable to reduce sampling processing of each device of the sensors 50 and use detection information from the device with this reduced sampling rate.
  • monitoring processing using detection information from devices with low sampling rates may not be able to perform appropriate monitoring. For example, when a movement trajectory of a suspicious person is generated based on detection information from a low-sampled device, there is a possibility that the correct movement trajectory cannot be created.
  • the number of devices used for monitoring among the sensors 50 and the frequency of acquisition of detection information are made variable depending on the behavior of the suspicious person.
  • the number of devices used for monitoring among the sensors 50 and the frequency of acquisition of detection information are optimized depending on the behavior of the suspicious person. Thereby, power consumption of the battery of the vehicle C1 can be suppressed.
  • the obstacles and the suspicious person's movement trajectory lines are displayed so that they do not overlap. Furthermore, the movement trajectory lines of some of the suspicious persons are displayed.
  • a monitoring system is configured by each device that executes a part of each of these processes.
  • various information processing devices such as in-vehicle devices, devices usable by the user U1 (e.g., smartphones, tablet terminals, personal computers, car navigation devices, IVI), servers connectable via a predetermined network such as the Internet, At least a portion of each process can be executed using various electronic devices.
  • a part (or all) of the monitoring system that can execute the functions of the monitoring device 110 (or the monitoring system 100) may be provided by an application that can be provided via a predetermined network such as the Internet.
  • This application is, for example, SaaS (Software as a Service).
  • the monitoring method according to the present embodiment is a monitoring method that uses a monitoring device 110 provided in the vehicle C1 (an example of a moving object) to monitor the surroundings of the stopped vehicle C1.
  • This monitoring method includes a detection process (step S502) of detecting objects existing around the vehicle C1 using sensors 50 provided in the vehicle C1, and detecting a suspicious person from among the detected objects;
  • Setting processing steps S504 and S505 for setting the detection cycle of the sensors 50 when executing the detection processing, and suspicious person notification information (notification information) for notifying user U1 that a suspicious person has been detected. (for example, output processing (step S533)).
  • a detection cycle is set based on the suspicious person detection result in the detection process (step S502).
  • the detection period of the sensors 50 can be made variable based on the detection result of a suspicious person, so the power consumption of the battery of the vehicle C1 can be suppressed.
  • the detection cycle is set longer than the reference value (step S505), and the detection process
  • the detection process When a suspicious person is detected in (step S502), (step S503), the position of the suspicious person with respect to the vehicle C1, the stay time of the suspicious person around the vehicle C1, and the moving speed of the suspicious person,
  • the length of the detection period relative to the reference value is set based on at least one of the direction of the suspicious person's face with respect to the vehicle C1 and the number of suspicious persons (step S504).
  • the detection cycle is set longer than the reference value, so power consumption of the battery of the vehicle C1 can be suppressed.
  • the length of the detection period with respect to the reference value is set based on the detection information regarding the suspicious person, so more appropriate detection processing can be realized.
  • the setting process (step S504), when a suspicious person is detected in the detection process (step S502), as the suspicious person's stay time becomes longer, the setting process (step S504) Set the detection period short.
  • the detection cycle is set short, so it is possible to implement appropriate detection processing according to the suspicious person's behavior.
  • the moving speed of the suspicious person becomes faster than the reference value. Set the detection period short.
  • the detection period is set short, so it is possible to implement appropriate detection processing according to the suspicious person's behavior.
  • step S504 in the setting process (step S504), if a suspicious person is detected in the detection process (step S502), the suspicious person approaches the vehicle C1 and the moving speed of the suspicious person is set as the standard. Set the detection period longer than the reference value when the speed is slower than the reference value.
  • the detection cycle is set to be long, so that appropriate detection processing according to the suspicious person's behavior is performed. At the same time, it is possible to suppress the power consumption of the battery of the vehicle C1.
  • the detection cycle is set to be lower than the reference value according to the increase in the number of suspicious persons. Set it short.
  • the detection period is set short, so that it is possible to realize appropriate detection processing according to the behavior of the suspicious persons in the group.
  • a suspicious person is detected using a plurality of sensors (sensors 50), and in the setting process (step S504), a suspicious person is detected in the detection process (step S502).
  • the detection cycles of other sensors close to the sensor including the sensor used to detect the suspicious person are set to be shorter than a reference value.
  • the detection period of the sensor used to detect a suspicious person is set short, it is possible to realize appropriate detection processing according to the behavior of the suspicious person, and to suppress power consumption of the battery of the vehicle C1. can do.
  • a suspicious person is detected using a plurality of sensors (sensors 50), and in the setting process (step S504), a suspicious person is detected in the detection process (step S502).
  • the detection cycles of other sensors close to the sensor including the sensor located in the direction of the suspicious person's face, are set to be shorter than a reference value.
  • a suspicious person is detected using a plurality of sensors (sensors 50), and in the setting process (step S504), a suspicious person is detected in the detection process (step S502).
  • the detection cycle of another sensor installed on the opposite side of the vehicle C1 from the sensor used to detect the suspicious person is set to be longer than a reference value.
  • a vehicle image (an example of a moving object image) showing the vehicle C1, a suspicious person position mark indicating the position of the suspicious person with respect to the vehicle C1, and a current position based on the past suspicious person position mark are used.
  • the process further includes a generation process (steps S521 to S532) that generates suspicious person notification information (an example of notification information) including a movement trajectory line (an example of a line) that connects the suspicious person's movement trajectory to the suspicious person location marker.
  • the current suspicious person position mark and the previous suspicious person position are calculated based on the position of the suspicious person with respect to the vehicle C1, the moving speed of the suspicious person, and the number of suspicious persons. It is determined whether to generate a movement trajectory line between markers.
  • the current suspicious person related to the suspicious person closest to the moving object among the plurality of suspicious persons is A movement trajectory line (an example of a line) between the position mark and the immediately preceding suspicious person position mark is generated, and a movement trajectory line between the current suspicious person position mark and the immediately preceding suspicious person position mark regarding another suspicious person is not generated.
  • step S521 to S532 if the position of a suspicious person changes by a predetermined distance or more within a predetermined time, or if the current suspicious person position mark and the previous suspicious person position mark are If the straight line connecting the lines overlaps the vehicle image (an example of a moving object image), a movement trajectory line (an example of a line) between the current suspicious person position marker and the immediately preceding suspicious person position marker is not generated.
  • the movement trajectory line of the suspicious person that satisfies the predetermined conditions is omitted and only a part of the movement trajectory line is displayed, so that the user U1 can see what the surroundings of the vehicle C1 are like. It becomes easier to see.
  • an obstacle image indicating an obstacle existing around the vehicle C1 is displayed in a manner different from that of a vehicle image (an example of a moving object image).
  • a suspicious person position marker and movement trajectory line are generated around the image so as not to overlap with the vehicle image.
  • the movement trajectory line of the obstacle and the suspicious person are displayed so as not to overlap, so that the user U1 can easily see what state is around the vehicle C1.
  • the monitoring method further includes an intimidation process (steps S543 and S546) that causes the vehicle C1 to perform an intimidation operation against a suspicious person.
  • an intimidation process (steps S543 and S546) that causes the vehicle C1 to perform an intimidation operation against a suspicious person.
  • intimidation notification images 461 to 465 an example of intimidation information regarding the intimidation action executed in the intimidation process
  • an intimidation button 481 for instructing an intimidation action and an additional intimidation button 491 (an operation image (Example)
  • Generate suspicious person notification information including:
  • the intimidation notification images 461 to 465 are displayed. User U1 can easily understand this. Furthermore, by displaying the intimidation button 481, additional intimidation button 491, etc., the user U1 can take necessary measures against the suspicious person.
  • the monitoring method further includes an intimidation process (steps S543 and S546) that causes the vehicle C1 to perform an intimidation operation against a suspicious person.
  • an intimidation process (steps S543 and S546) that causes the vehicle C1 to perform an intimidation operation against a suspicious person.
  • suspicious person notification information including intimidation notification images 461 to 465 (an example of intimidation information) regarding the intimidation action performed in the intimidation process is generated, and suspicious person notification information regarding the suspicious person before the execution of the intimidation action is generated.
  • a position indicator and a suspicious person position indicator related to a suspicious person after performing a threatening action are generated in different display modes.
  • the user U1 since the suspicious person position indicators regarding the suspicious person before and after the execution of the threatening action are generated in different display modes, the user U1 can easily understand whether or not the necessary measures have been taken against the suspicious person. can do.
  • the monitoring device 110 is a monitoring device that is installed in the vehicle C1 (an example of a moving object) and monitors the surroundings of the stopped vehicle C1.
  • the monitoring device 110 includes an object detection unit that detects objects existing around the vehicle C1 using sensors 50 (an example of a sensor) provided in the vehicle C1, and detects a suspicious person from among the detected objects.
  • 111 a suspicious person determination unit 112 (an example of a detection unit), an object detection unit 111, a sensor control unit 115 (an example of a control unit) that controls the detection period of the sensors 50, and a user
  • It includes a notification information generation unit 113 that outputs suspicious person notification information (an example of notification information) to notify U1, and a communication unit 120 (an example of an output unit).
  • the sensor control unit 115 sets a detection cycle based on the detection results of a suspicious person detected by the object detection unit 111 and the suspicious person determination unit 112.
  • the detection period of the sensors 50 can be made variable based on the detection result of a suspicious person, so the power consumption of the battery of the vehicle C1 can be suppressed.
  • each processing procedure shown in this embodiment is an example for realizing this embodiment, and the order of a part of each processing procedure may be changed to the extent that this embodiment can be realized. Often, a part of each processing procedure may be omitted or other processing steps may be added.
  • each process shown in this embodiment is executed based on a program for causing a computer to execute each process procedure. Therefore, this embodiment can also be understood as an embodiment of a program that implements the function of executing each of these processes, and a recording medium that stores the program. For example, by performing an update process to add a new function to the monitoring device, the program can be stored in the storage device of the monitoring device. This allows the updated monitoring device to perform each process described in this embodiment.

Abstract

車両に設けられた監視装置を用いて、停止している車両の周囲を監視する監視方法である。この監視方法は、車両に設けられたセンサ類を用いて車両の周囲に存在する物体を検出し、その検出された物体のうちから不審者を検出する検出処理と、その検出処理を実行する際のセンサ類の検出周期を設定する設定処理と、不審者が検出されたことをユーザU1に通知するための不審者通知情報を出力する出力処理とを含む。設定処理では、検出処理での不審者の検出結果に基づいて検出周期を設定する。

Description

監視方法及び監視装置
 本発明は、停止している移動体の周囲を監視する監視方法及び監視装置に関する。
 従来、監視エリア内に配置された複数のカメラを用いて不審者を検出し、不審者が検出された場合には、不審者の画像を監視装置に送信するとともに、予め登録された携帯電話に不審者発生情報を送信する技術が提案されている(例えば、JP2020-30544A参照)。
 上述した従来技術は、特定のエリアを監視対象とするものであり、緊急通報システムを構成する緊急通報装置、監視装置、一斉通報装置等が固定して設置される。また、これらの各機器では、電力会社からの電源を用いることができる。しかし、車両等の移動体に設けられ、当該移動体の周囲を監視対象とする監視装置の場合には、移動体のバッテリを用いて各処理が実行される。このため、移動体の周囲を継続して監視するためには、移動体のバッテリ消費量を省電力化する必要がある。
 本発明は、停止している移動体の周囲を監視する場合に、消費電力を抑制可能な監視方法及び監視装置を提供することを目的とする。
 本発明の一態様は、移動体に設けられた監視装置を用いて、停止している移動体の周囲を監視する監視方法である。この監視方法は、移動体に設けられたセンサを用いて移動体の周囲に存在する物体を検出し、その検出された物体のうちから不審者を検出する検出処理と、検出処理を実行する際のセンサの検出周期を設定する設定処理と、不審者が検出されたことをユーザに通知するための通知情報を出力する出力処理とを含み、設定処理では、検出処理での不審者の検出結果に基づいて検出周期を設定する。
図1は、通信システムのシステム構成の一例を示す図である。 図2は、監視システムを構成する各機器の機能構成例を示すブロック図である。 図3は、ソナーを用いて車両の周囲に存在する不審者を判定する判定処理の一例を簡略化して示す図である。 図4は、ソナーを用いて車両の周囲に存在する不審者を判定する判定処理の一例を簡略化して示す図である。 図5は、電子機器の表示部に表示される不審者通知画面の表示例を示す図である。 図6は、電子機器の表示部に表示される不審者通知画面の表示例を示す図である。 図7は、電子機器の表示部に表示される不審者通知画面の表示例を示す図である。 図8は、電子機器の表示部に表示される不審者通知画面の表示例を示す図である。 図9は、電子機器の表示部に表示される不審者通知画面の表示例を示す図である。 図10は、電子機器の表示部に表示される不審者通知画面の表示例を示す図である。 図11は、電子機器の表示部に表示される不審者通知画面の表示例を示す図である。 図12は、電子機器の表示部に表示される不審者通知画面の表示例を示す図である。 図13は、電子機器の表示部に表示される不審者通知画面の表示例を示す図である。 図14は、電子機器の表示部に表示される不審者通知画面の表示例を示す図である。 図15は、監視装置における検出周期の設定処理の一例を示すフローチャートである。 図16は、監視装置における不審者情報通知処理の一例を示すフローチャートである。 図17は、監視装置における威嚇装置制御処理の一例を示すフローチャートである。
 以下、添付図面を参照しながら本発明の実施形態について説明する。
 [通信システムの構成例]
 図1は、通信システム10のシステム構成の一例を示す図である。通信システム10は、駐車中において車両C1の周囲を監視する監視処理を実行する情報処理システムである。なお、ユーザU1は、車両C1を所有するユーザであるものとする。また、図1では、説明を容易にするため、ユーザU1が所有する機器として電子機器MC1を例示するが、これに限定されず、車載機器、車両への持込み機器、ユーザU1が装着可能な機器を使用してもよい。
 通信システム10は、ネットワーク20を介して接続される複数の機器により構成される。例えば、監視システム100と、電子機器MC1とがネットワーク20を介して接続される。なお、これらの各器機間の通信については、有線通信を利用した通信又は無線通信を利用した通信が行われる。また、これらの各器機間の通信については、ネットワーク20を経由した通信以外に機器間で直接通信するようにしてもよい。
 監視システム100は、車両C1に設置される車載機器である。また、監視システム100は、車両C1に設置されているバッテリの電力を使用して監視処理を実行する。なお、監視システム100を構成する各機器については、図2を参照して詳細に説明する。
 電子機器MC1は、ユーザU1が所持する携帯型の情報処理装置であり、例えばスマートフォン、タブレット端末、携帯型のパーソナルコンピュータ等の情報処理装置である。また、電子機器MC1は、監視システム100から送信された通知情報を出力することが可能な機器である。例えば、電子機器MC1は、通知情報を表示部30に表示したり、通知情報を音声出力したりすることが可能である。
 [監視システムの構成例]
 図2は、監視システム100を構成する各機器の機能構成例を示すブロック図である。監視システム100は、センサ類50と、威嚇装置60と、監視装置110と、通信部120と、記憶部130とを備える。なお、監視システム100は、車両C1の周囲の状況を把握可能な移動体監視システムの一例である。また、図2では、通信部120及び記憶部130を監視装置110とは別体として構成する例を示すが、通信部120及び記憶部130のうちの少なくとも一方を監視装置110に設けてもよい。
 センサ類50は、車両C1の周囲に存在する物体を検出するため、車両C1に設置されている各種センサであり、その検出情報を監視装置110に出力する。図2では、センサ類50として、カメラ51、ソナー52(Sonar)、ライダー(LIDAR(Light Detection and Ranging))53、レーダー54を備える例を示す。なお、これらは一例であり、他のセンサを用いてもよい。また、これらのうちの一部のセンサのみを用いてもよい。また、これらの各種センサのうちの少なくとも一部は、検出周期(センシングの周期)を変更可能であるものとする。
 カメラ51は、被写体を撮像して画像データを生成するイメージセンサにより構成される検出機器である。例えば、車両C1の周囲を撮像対象とする、1又は複数のカメラ51を車両C1の内部又は外部に設置可能である。カメラ51により車両C1の周囲に存在する人物の全身、又は、一部、例えば顔の画像を取得可能である。例えば、カメラ51により取得された人物の顔の画像に基づいて、その人物を識別可能となる。例えば、その人物がユーザU1の知り合いか不審者かを判定可能である。また、カメラ51により取得された人物の顔の画像に基づいて、その人物の顔の向きを判定可能となる。なお、人物の検出方法、顔の検出方法、顔の識別方法、顔の向きの検出方法等については、公知の画像認識技術を用いることが可能である。
 ソナー52、ライダー53、レーダー54は、車両C1の周囲に存在する物体と、その物体までの距離とを測定するセンサである。例えば、レーザ光、ミリ波等を車両C1の周囲に照射してその反射波を受波して観測することにより、物体との距離を測定することが可能となる。
 威嚇装置60は、車両C1に設置されている各機器のうち、不審者に対する威嚇動作を実行することが可能な機器であり、威嚇装置制御部114の制御に基づいて各機器の状態が制御される。すなわち、威嚇装置60は、不審者を追い払うことが可能な動作を実行可能な機器である。また、図2では、威嚇装置60として、ホーン61、ライト62、スピーカ63を用いる例を示す。なお、これらは一例であり、他の機器を威嚇装置60として用いてもよい。例えば、図3、図4に示すワイパー64、開閉可能なドアミラー65、66等を威嚇装置60として用いてもよい。
 ホーン61は、車両C1の外部に警告音等を出力するものである。スピーカ63は、車両C1の外部又は内部に各種の音声を出力するものである。
 ライト62は、車両C1の外部又は内部に設置される各種発光装置である。ライト62として、方向指示器、ヘッドライト、ブレーキライト、バックライト等の各種の外部ライトを用いることが可能である。また、ライト62として、室内灯等の各種の内部ライトを用いることも可能である。
 また、威嚇装置60による威嚇動作は、例えば、ホーン61からの警告音の出力、ライト62の発光、スピーカ63からの何らかの音の出力等である。これらの威嚇動作を実行した場合には、威嚇装置制御部114は、その威嚇動作を実行した機器に関する情報と、その威嚇動作に関する情報とを通知情報生成部113に出力する。
 監視装置110は、車両C1に搭載される機器であって、物体検出部111と、不審者判定部112と、通知情報生成部113と、威嚇装置制御部114と、センサ制御部115とを備える。監視装置110は、例えば、CPU(Central Processing Unit)等の制御回路により実現される。なお、車両C1の車両ECU(Electronic Control Unit)を監視装置110として使用してもよく、他の制御装置を監視装置110として使用してもよい。
 物体検出部111は、センサ類50の各機器から出力された各検出情報に基づいて、車両C1の周囲に存在する物体を検出するものであり、検出された物体に関する物体情報を不審者判定部112及び通知情報生成部113に出力する。物体情報は、例えば、車両C1に対する物体の位置、距離、画像等である。また、物体情報、例えば物体の位置及び距離等に基づいて、物体の動きを検出可能である。なお、物体の検出方法については、図3、図4等を参照して詳細に説明する。
 不審者判定部112は、物体検出部111から出力された物体情報に基づいて、物体検出部111により検出された物体が不審者であるか否かを判定するものである。そして、不審者判定部112は、物体検出部111により検出された物体が不審者である場合には、その不審者に関する不審者情報を通知情報生成部113、威嚇装置制御部114及びセンサ制御部115に出力する。不審者情報は、例えば、車両C1に対する不審者の位置及び距離、不審者の数である。また、不審者情報、すなわち不審者の位置及び距離に基づいて、不審者の動きを検出可能である。なお、不審者の判定方法については、図3、図4等を参照して詳細に説明する。
 通知情報生成部113は、不審者判定部112からの不審者情報に基づいて、車両C1の周囲に不審者が存在することをユーザU1に通知するための通知情報を生成するものであり、その通知情報を通信部120に出力する。この通知情報は、例えば、車両C1を示す車両画像、不審者の移動軌跡を示す移動軌跡線等を含む情報である。すなわち、通知情報生成部113は、移動軌跡線を生成する画像生成部として機能する。また、通知情報生成部113は、生成された通知情報を通信部120を介して外部機器、例えば電子機器MC1に出力する出力制御を実行する。すなわち、通知情報生成部113は、通知情報を出力する出力部として機能する。なお、通知情報生成部113により生成される通知情報については、図5乃至図12を参照して詳細に説明する。
 威嚇装置制御部114は、不審者判定部112からの不審者情報に基づいて、車両C1の周囲に存在する不審者に対する威嚇動作を威嚇装置60に実行させるものである。また、威嚇装置制御部114は、電子機器MC1を用いたユーザU1による威嚇指示操作に基づいて、車両C1の周囲に存在する不審者に対する威嚇動作を威嚇装置60に実行させることも可能である。なお、これらの威嚇動作については、図11乃至図14を参照して詳細に説明する。
 通信部120は、車両C1に搭載される機器であり、監視装置110の制御に基づいて、有線通信又は無線通信を利用して、他の機器との間で各種情報のやりとりを行うものである。例えば、通信部120は、通知情報生成部113により生成された通知情報を、ネットワーク20を介して電子機器MC1に送信する。また、通信部120は、電子機器MC1から送信された制御信号を、ネットワーク20を介して受信する。また、通信部120は、通知情報生成部113により生成された通知情報を、近距離無線通信、例えば無線LAN(例えばWi-Fi)、Bluetooth(登録商標)を利用して車載機器に送信する。
 記憶部130は、車両C1に搭載される機器であり、各種情報を記憶する記憶媒体である。例えば、記憶部130には監視装置110が各種処理を行うために必要となる各種情報(例えば、制御プログラム、不審者判定情報、威嚇動作情報、登録情報)が記憶される。なお、不審者判定情報は、不審者判定部112が不審者を判定する際に用いる情報である。また、威嚇動作情報は、威嚇装置制御部114が威嚇動作を実行する際に用いる情報である。なお、登録情報については、図3、図4を参照して説明する。また、記憶部130には、通信部120を介して取得された各種情報が記憶される。記憶部130として、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disk Drive)、SSD(Solid State Drive)、又は、これらの組み合わせを用いることができる。
 [ソナーを用いた不審者の判定例]
 図3、図4は、ソナー52を用いて車両C1の周囲に存在する不審者を判定する判定処理の一例を簡略化して示す図である。
 図3、図4に示すように、車両C1には、音波を出力する超音波センサ71乃至80が設置されている。なお、図3、図4では、車両C1において超音波センサ71乃至80が設置されている部分を点線の丸で示す。また、図3、図4では、車両C1の前側のみを図示するが、車両C1の後側についても同様に超音波センサが設置されているものとする。なお、超音波センサ71乃至80は、超音波(送信波)を発射し、対象物により反射された反射波(受信波)を用いて、対象物の有無や距離を測定するセンサである。
 図3では、車両C1の中心方向(矢印AR10、AR11方向)に移動する人U10を判定する判定例を示す。また、図3では、左側の状態から右側の状態に人U10が移動する場合の遷移例を示す。なお、点線で示す矢印は、超音波センサ75乃至77により検出された人U10までの距離L1乃至L6を示す。
 物体検出部111は、超音波センサ71乃至80のうちの少なくとも1つにより、検出距離Lが閾値TH1未満となる物体が検出された場合に、その物体が検出された超音波センサとその周囲の超音波センサとの検出値を用いて、その物体を検出する。図3の左側に示す例では、人U10に対する検出距離が一番短い距離L2と、その左右の超音波センサ75、77により検出された人U10までの距離L1、L3とが、閾値TH1未満であるものとする。この場合には、物体検出部111は、超音波センサ75及び77間の距離と、距離L1及びL3とにより求められる三角形により人U10の位置を推定することができる。同様に、図3の右側に示す例では、人U10に対する検出距離が一番短い距離L5と、その左右の超音波センサ75、77により検出された人U10までの距離L4、L6とを用いて、車両C1に対する人U10の位置を測定する。すなわち、物体検出部111は、超音波センサ75及び77間の距離と、距離L4及びL6とにより求められる三角形により人U10の位置を推定する。
 また、物体検出部111は、超音波センサ75乃至77から出力された検出値(距離L1乃至L6)に基づいて、人U10の移動方向を判定する。具体的には、物体検出部111は、図3の左側に示す状態における検出値(距離L1乃至L3)と、図3の右側に示す状態における検出値(距離L4乃至L6)との変化率に基づいて、人U10の移動方向を判定する。すなわち、検出値が一番短い距離L2、L5と、その左右の距離L1、L3、L4、L6との変化率に基づいて、車両C1に対する人U10の移動方向を判定することができる。または、物体検出部111は、超音波センサ75及び77間の距離と、距離L1及びL3と、距離L4及びL6とに基づいて推定された人U10の位置の遷移に基づいて、人U10の移動方向を判定することができる。
 図4では、車両C1の周囲に長時間滞在する人U11を判定する判定例を示す。また、図4では、左側の状態から右側の状態に人U11が移動する場合の遷移例を示す。なお、点線で示す矢印は、超音波センサ77乃至78により検出された人U11までの距離L7乃至L9を示す。
 図4に示す例では、人U11に対する距離L7乃至L9が閾値TH1未満であるものとする。この場合に、図4の左側に示す例では、物体検出部111は、人U11に対する距離L7を用いて、車両C1に対する人U10の位置を測定する。同様に、図4の右側に示す例では、人U11に対する距離L8、L9を用いて、車両C1に対する人U11の位置を測定する。そして、物体検出部111は、人U11に対する距離L7乃至L9を用いて、車両C1に対する人U11の位置を測定し、その位置の変化に基づいて、人U11の移動方向を判定する。
 具体的には、物体検出部111は、図4の左側に示す状態における検出値(距離L7)と、図4の右側に示す状態における検出値(距離L8、L9)との変化率に基づいて、人U11の移動方向を判定する。
 図3に示す例では、人U10は、車両C1の中心方向(矢印AR10、AR11方向)に移動している。一方、図4に示す例では、人U11は、車両C1の中心方向に向かって移動しておらず、車両C1の周囲を回るような動きをしている。このように、物体検出部111は、車両C1の周囲に存在する物体の位置と移動方向とを検出可能である。すなわち、物体検出部111は、人物の動きを検出可能である。そこで、不審者判定部112は、車両C1の周囲に存在する人物の動きに基づいて、その人物が不審者であるか否かを判定可能である。
 例えば、不審者判定部112は、車両C1の周囲に存在する人物の動きに基づいて、その人物の身体が揺れている場合には、その人物が不審者であると判定することができる。また、不審者判定部112は、車両C1の周囲に存在する人物の動きに基づいて、その人物が車両C1に近付いたり離れたりする移動を繰り返しているような場合には、その人物が不審者であると判定することができる。また、不審者判定部112は、車両C1の周囲に存在する人物の動きに基づいて、その人物が車両C1の周りをウロウロしているような動きをしている場合には、その人物が不審者であると判定することができる。
 また、不審者判定部112は、車両C1の周囲における人物の滞在時間を用いて、不審者を判定してもよい。例えば、不審者判定部112は、車両C1の周囲に存在する人物の動きと滞在時間とに基づいて、その人物が不審者であるか否かを判定可能である。例えば、不審者判定部112は、車両C1の周囲に存在する人物が車両C1の周りをウロウロする動きをし、かつ、車両C1を基準とする所定範囲R1内に、所定時間T1以上滞在しているような場合には、その人物が不審者であると判定することができる。なお、所定範囲R1は、超音波センサ71乃至80により検出が可能な範囲であり、例えば、車両C1からの距離が数mの範囲とすることができる。また、所定時間T1は、不審者が滞在すると想定される時間であり、実験データ等に基づいて適宜設定可能である。例えば、所定時間T1として、数秒乃至数十秒を設定することができる。
 [他の不審者判定例]
 図3、図4では、ソナー52を用いて不審者を判定する判定方法を示したが、他の検出方法を用いて動体を検出してもよい。例えば、ライダー53、レーダー54等の他のセンサを用いて物体を検出し、その物体について不審者か否かを判定する判定方法を用いてもよい。
 また、例えば、カメラ51により取得された画像に基づいて、その画像に含まれる人物とその動きを検出する検出方法を用いてもよい。また、その画像に含まれる人物の顔の表情を用いて不審者を検出してもよい。これらの検出方法では、公知の物体検出技術を用いることができる。この物体検出技術は、例えば人体検出技術、顔検出技術、表情検出技術等の各物体の検出技術である。
 また、例えば、音取得部(図示省略)により取得された音に基づいて、車両C1の周囲の人物とその動きを検出する検出方法を用いてもよい。例えば、音取得部により取得された音の変化に基づいて、その音を発する人物の車両C1への移動状態を推定することができる。また、音を用いた他の公知の物体検出技術を用いてもよい。
 また、例えば、通信部120との間で無線通信が可能な電子機器を用いて、車両C1の周囲の人物を検出する検出方法を用いてもよい。例えば、無線通信が可能な電子機器からの電波を通信部120が受信した場合に、その電波強度(受信強度)に基づいて、その電子機器と車両C1との距離を推定することができる。すなわち、その電子機器を所持する人物や、その電子機器を乗せている乗り物等から車両までの距離を推定することができる。また、例えば、複数のアンテナを用いて通信部120が通信を行う場合には、その電子機器から発信される電波の方向を推定することができる。すなわち、その電子機器を所持する人物や、その電子機器を乗せている乗り物等の車両からの方向を検出することができる。このように、電子機器から発信される電波を用いて、車両C1を基準とする電子機器の位置(距離や方向)を検出することができるため、その電子機器を所持する動体(例えば人や乗り物)の位置を検出することができる。また、電波を用いた他の公知の物体検出技術を用いてもよい。
 また、車両C1が備える位置情報取得部と、無線通信が可能な電子機器が備える位置情報取得部とを用いて、車両C1の周囲の人物を検出する検出方法を用いてもよい。位置情報取得部は、例えば、GNSS(Global Navigation Satellite System:全球測位衛星システム)を利用して位置情報を取得するGNSS受信機により実現できる。また、その位置情報には、GNSS信号の受信時における緯度、経度、高度等の位置に関する各データが含まれる。また、他の位置情報の取得方法により位置情報を取得してもよい。例えば、周囲に存在するアクセスポイントや基地局からの情報を用いて位置情報を導き出してもよい。また、例えば、ナビゲーション装置による位置推定技術を用いて位置情報を導き出してもよい。例えば、物体検出部111は、電子機器が備える位置情報取得部により取得された電子機器の位置情報を通信部120を介して取得する。そして、物体検出部111は、車両C1が備える位置情報取得部により取得された車両C1の位置情報と、電子機器の位置情報とに基づいて、車両C1を基準とする電子機器の位置(距離や方向)を検出することができる。これにより、物体検出部111は、その電子機器を所持する人物の位置を検出することができる。
 [物体検出とともに他の判定条件を用いる例]
 図3、図4に示す検出方法とともに、他の判定条件を組み合わせることにより、判定精度を向上させることができる。そこで、以下では、複数の判定条件を組み合わせて不審者を判定する判定方法について説明する。
 例えば、図3、図4に示す物体検出とともに、その物体検出で検出された物体に関する情報及び登録情報の一致度を用いて、車両C1を所有するユーザU1に関連する人物か他の人物かを判定することができる。
 ここで、登録情報は、車両C1を所有するユーザU1により予め登録されている情報であり、記憶部130に記憶される。また、上述したように、登録情報には、画像識別情報、音識別情報、機器識別情報等が含まれる。なお、音識別情報は、人、動物、機器が発する音に関する情報であり、例えば、声紋を識別するための情報、声のパターンを識別するための情報等である。
 画像識別情報は、例えば、人物の顔を識別する情報である。例えば、カメラ51により取得された画像に基づいて、その画像に含まれる顔を識別する顔識別方法を用いてもよい。この顔識別方法では、公知の顔識別方法を用いることができる。この顔識別方法として、例えば個体認識技術、顔認識技術等の各物体の認識技術を用いることができる。
 機器識別情報に登録される電子機器は、車両C1と連携可能な機器である。例えば、無線通信を利用して通信部120との情報のやり取りが可能な機器であって、人物が携帯可能な機器や乗り物に搭載可能な機器である。この電子機器は、例えば、車両C1のキー(例えばインテリジェントキー)、携帯端末(例えば、携帯電話、スマートフォン、タブレット機器)、ウェアラブル端末(例えばスマートウォッチ)等の機器である。また、機器識別情報は、電子機器に付与されている固有の識別情報(例えば、機器固有情報、端末識別情報)であり、例えば、MAC(Media Access Control)アドレス、ユーザID等の情報である。例えば、車両C1との間で各種情報のやりとりを行うため、電子機器の識別情報を登録情報として記憶部130に記憶(例えばユーザ登録)させることにより、その電子機器を登録することができる。
 声紋は、各個人の声を分析して求められる声の特徴を示す情報である。例えば、ユーザU1の家族や関係者等の声紋を登録しておくことができる。
 声のパターン認識は、人が発する特定の単語や文章を示す情報である。声のパターン認識として、例えば、「すみません」、「誰かいますか」、「聞こえたかな」、「あの~」、「お父さん」等の単語や文章を登録しておくことができる。また、車両C1のドアをたたく音等の動体や各機器が発する音も登録しておくことが可能である。
 例えば、図3、図4に示す物体検出で検出された物体に関する情報と、登録情報とが一致することを条件に、車両C1を所有するユーザU1に関連する人物であるか他の人物であるかを判定することができる。また、他の人物である場合には、上述した不審者の判定処理によりその人物が不審者であるか否かを判定可能である。
 このように、本実施形態では、車両C1の周囲に存在する動体の動きの特徴(例えば、人の近づき方)とともに、声や所有機器等の登録情報を用いて、ユーザU1に関連する人物であるか他の人物であるか不審者であるかを判定することができる。
 ここで、カメラ51により取得された画像に含まれる人物について個体識別処理を実行することが可能である場合には、図3、図4に示す物体検出の一部を省略するようにしてもよい。
 また、通信部120を介して取得可能な電波を用いて物体検出を行う場合には、受信した電波に含まれる電子機器の識別情報を用いて、その電子機器が登録されているか否かを判定可能である。そこで、電波を用いた物体検出を行う場合には、その電波を用いて物体判定も行うことが可能である。
 また、カメラ51により取得された画像に含まれる人の表情について表情識別処理を実行することが可能である場合には、その表情を用いて不審者か否かを判定することができる。例えば、その表情が、車両C1を見回しているような表情であれば、不審者であると判定することができる。
 また、ソナー52から出力された検出波から抽出される波形に基づいて、不審者を判定してもよい(例えば、特開2013-228912号参照)。例えば、ソナー52から出力された検出波から抽出される波形のパターンの特徴を用いて、不審者を判定することが可能である。具体的には、ソナー52から出力された検出波から抽出される波形のパターンと、予め定義された判定基準のパターンとを比較し、これらの類似度に基づいて、不審者を判定することが可能である。これにより、例えば、車両C1を通り過ぎる人か、車両C1の周りをウロウロする不審者かを判定可能である。
 また、人工知能(AI:Artificial Intelligence)を利用して、不審者を判定してもよい。例えば、不審者が検出された際におけるセンサ類50からの検出情報を予め学習しておき、この学習データを判定に用いるようにする。例えば、不審者が検出された際におけるカメラ51からの画像情報を予め学習しておき、この学習データを判定に用いることができる。例えば、不審者判定部112は、カメラ51により取得された画像に含まれる人物(又はその顔)について、その学習データを用いて、その人物が不審者であるかを判定するための評価値を算出し、その評価値に基づいて、その人物が不審者であるか否かを判定することができる。
 [センサの検出周期の設定例]
 上述したように、監視システム100は、車両C1に設置されているバッテリの電力を使用して監視処理を実行する。なお、バッテリの電力は、監視処理以外、例えば車両C1の動力にも使用されるため、監視処理に使用するバッテリの電力を極力抑えることが重要である。そこで、本実施形態では、監視処理に使用するバッテリの電力を抑えるため、センサ類50の各機器の検出周期(センシングの周期)を制御する。具体的には、不審者判定部112の判定結果に基づいて、センサ類50の各機器の基本周期を加減算することにより、各機器の検出周期を設定する。
 例えば、ソナー52の基準となる検出周期(基本周期)が2.0秒である場合を想定する。この場合には、ソナー52の検出周期を短くする場合には、ソナー52の検出周期を半分程度、例えば1.0秒程度とすることができる。また、ソナー52の検出周期を長くする場合には、ソナー52の検出周期を数倍程度、例えば3.0乃至10.0秒程度とすることができる。
 なお、上述したように車両C1には、複数のソナー52が設置されている。また、複数のソナー52は、検出周期を個別に制御することが可能である。そこで、個別に制御することが可能な複数のセンサについては、検出周期を個別に制御してもよい。また、カメラ51の検出周期としては、フレームレート(FPS)を変更することが可能となる。例えば、フレームレートとして5乃至60程度の設定が可能なカメラ51を想定する。この場合に、検出周期を短くするときには、フレームレートとして60に近い値を設定し、検出周期を長くするときには、フレームレートとして5に近い値を設定することが可能となる。
 例えば、不審者と判定された物体を検出したセンサ類50の機器の検出周期を短くするように設定することができる。例えば、図4に示す例では、超音波センサ77乃至79で人が検出されているため、超音波センサ77乃至79の検出周期を基本周期よりも短く設定し、他の超音波センサ71乃至76、80の検出周期として基本周期を維持することができる。なお、超音波センサ77乃至79の周辺、例えば超音波センサ76、80についても超音波センサ77乃至79の検出周期と同様に短く設定してもよい。このように、車両C1への不審者の接近を検出した検出デバイス(又はその周囲の検出デバイス)の検出周期を短くすることができる。例えば、基本周期の半分程度の検出周期に設定することが可能である。
 例えば、車両C1の周囲に存在する不審者の滞在時間(すなわち、うろつき時間)が長い場合には、その不審者が車両C1に対して何らかの行動をする可能性がある。そこで、このような場合には、センサ類50の各機器の検出周期を短くする。すなわち、車両C1の周囲での不審者の滞在時間(すなわち、うろつき時間)が長くなるのに応じて、センサ類50の各機器の検出周期を短くすることができる。例えば、基本周期の半分程度の検出周期に設定することが可能である。また、滞在時間が長くなるのに応じて、検出周期をさらに短くすることも可能である。
 例えば、車両C1の周囲に存在する不審者の移動速度が速い場合には、その不審者の移動に応じて適切に不審者を検出する必要がある。そこで、このような場合には、センサ類50の各機器の検出周期を短くする。すなわち、不審者の移動速度が速くなるのに応じて、センサ類50の各機器の検出周期を短くすることができる。また、移動速度に応じて、検出周期をさらに短くすることも可能である。
 ここで、人は顔を向いている方向に移動することが多い。そこで、不審者の顔の正面に対向する方向に存在するセンサ類50の機器の検出周期を短くすることができる。なお、不審者の顔については、カメラ51により取得された画像に基づいて検出可能である。この顔検出方法については、公知の画像認識技術を用いることができる。なお、カメラ51は、顔の向きを検出する手段の一例である。
 ここで、車両C1の周囲に存在する不審者が、車両C1に近接して車両C1の内部を覗き込みしているような場合も想定される。このような場合には、その不審者は、車両C1に近接して止まって張り付いている状態となることが想定される。このような場合には、不審者がほとんど移動しないことも想定されるため、センサ類50の機器の検出周期を短くしても、その検出結果が変わらないことも想定される。そこで、不審者が車両C1の周囲で立ち止まり車両C1の内部を覗き込んでいるような場合には、センサ類50の機器の検出周期を長くすることができる。すなわち、不審者が車両C1に接近し、かつ、不審者の移動速度が遅い場合、例えば、不審者が覗き込みをしている場合には、センサ類50の機器の検出周期を長くすることができる。なお、車両C1の内部を覗き込みしているか否かについては、車両C1の内部に設置されているカメラ51により取得された画像に基づいて判定可能である。
 上述したように、不審者と判定された物体を検出したセンサ類50の機器(又はその周辺の機器)の検出周期を短くするように設定することができる。このような場合には、不審者が近くに存在しないと想定されるセンサ類50の機器については、検出周期を長くしてもよい。例えば、車両C1の前方で不審者が検出された場合には、車両C1の後方のセンサ類50の機器の検出周期を長くするように設定する。また、例えば、車両C1の左側で不審者が検出された場合には、車両C1の右側のセンサ類50の機器の検出周期を長くするように設定する。このように、不審者が存在する車両C1の位置の対面に設置されている検出デバイスの周期を長くする。
 ここで、車両C1の周囲に複数の不審者が検出されることも想定される。このような場合には、各不審者の行動を適切に検出する必要がある。そこで、車両C1の周囲に複数の不審者が検出された場合には、センサ類50の各機器の検出周期を短くするように設定する。すなわち、車両C1の周囲に複数の不審者が検出された場合には、センサ類50の全ての機器の検出周期を短くする。
 [不審者通知情報の通知例]
 本実施形態では、駐車中の車両C1の周囲に不審者が検出された場合には、不審者に関する情報をユーザU1に通知する。具体的には、電子機器MC1の表示部30に不審者に関する情報を表示させたり、電子機器MC1の音声出力部(図示省略)から不審者に関する音声情報を出力させたり、電子機器MC1自体を振動させて不審者の存在をユーザU1に通知したりすることができる。これらの出力例を図5乃至図14に示す。
 [1人の不審者が検出された場合の表示例]
 図5は、電子機器MC1の表示部30に表示される不審者通知画面400の表示例を示す図である。不審者通知画面400に表示される各情報は、通知情報生成部113により生成される。
 不審者通知画面400には、不審者が検出されたことを示すメッセージとともに、車両C1を示す車両画像C10と、不審者の現在地(又は最新の位置)を示す不審者位置標識401と、不審者の移動軌跡を示す移動軌跡線402とが表示される。通知情報生成部113は、物体検出部111により検出された物体のうち、不審者判定部112により不審者と判定された物体(不審者)の位置を検出周期毎に黒丸(不審者位置標識401)で順次表示する。また、通知情報生成部113は、不審者が移動した場合には、その移動に応じて黒丸(不審者位置標識401)を順次移動させ、その黒丸と直前の黒丸とを直線で結ぶように描画する。このように、不審者の移動軌跡が移動軌跡線402として描画される。なお、図6乃至図14において、車両画像C10は共通するため、同一の符号を付して説明する。
 なお、検出周期に対して不審者の移動速度が速い場合には、現在の黒丸と直前の黒丸とを直線で結ぶと、車両画像C10と重複することも想定される。この例を図6に示す。
 [不審者の移動速度が速い場合の移動軌跡線の表示例]
 図6は、電子機器MC1の表示部30に表示される不審者通知画面410の表示例を示す図である。不審者通知画面410に表示される各情報は、通知情報生成部113により生成される。なお、図6に示す不審者通知画面410は、図5に示す不審者通知画面400の一部を変形したものであるため、ここでは不審者通知画面400と異なる点を中心にして説明する。不審者位置標識411は、図5に示す不審者位置標識401と共通する。
 ここで、不審者が車両C1の周囲を所定値以上の速度でぐるぐる回っているような場合には、現在の不審者の検出位置と、直前の不審者の検出位置との距離が長くなることも想定される。この場合に、現在の不審者の検出位置と、直前の不審者の検出位置とを直線で結ぶと、実際の不審者の移動軌跡とは異なる直線が表示される可能性もある。例えば、現在の不審者の検出位置と、直前の不審者の検出位置とを結ぶ直線が、車両画像C10を横断する可能性もある。このような車両画像C10を跨る直線416が表示された場合には、ユーザU1に違和感を与えるおそれもある。
 また、不審者と判定された人物が車両C1の横を所定値以上の速度で通過するような場合には、現在の不審者の検出位置と、直前の不審者の検出位置との距離が長くなることも想定される。このよう場合には、車両C1の横を単に通過した人物の移動軌跡が表示されると、ユーザU1に違和感を与えたり、ユーザU1が困惑したりするおそれもある。
 そこで、本実施形態では、現在の不審者の検出位置と、直前の不審者の検出位置とを結ぶ直線が車両画像C10を跨るような場合には、その線が車両画像C10を跨がないような処理を施すようにする。具体的には、現在の不審者の検出位置と、直前の不審者の検出位置とを結ぶ線を引かない処理、又は、その線が車両画像C10を跨がないような処理を施す。これにより、ユーザU1は、車両C1の周りの状況をより正確に把握することができ、必要な対処がし易くなる。
 線を引かない処理を施す場合には、現在の不審者の検出位置と、直前の不審者の検出位置とを示す標識(例えば、黒丸413、414)を表示するようにする。また、線が車両画像C10を跨がない処理では、車両画像C10の形状に基づいて補間することが可能である。例えば、車両画像C10の輪郭に沿って線を結ぶようにする。
 移動軌跡線412は、図5に示す移動軌跡線402に相当する。ただし、図6に示す例では、過去の不審者の位置(黒丸413)から、その次の過去の不審者の位置(黒丸414)までの移動速度が閾値以上である場合の例を示す。このような場合に、黒丸413と黒丸414とを直線(点線の直線416で示す)で結ぶと、車両画像C10と重複してしまう。このような表示をユーザU1が見た場合には、車両C1を不審者が通過したような印象を与えてしまうおそれがある。そこで、黒丸413と黒丸414とを直線(点線の直線416で示す)で結ぶと、車両画像C10と重複してしまう場合には、直線を結ばないようにする。又は、車両画像C10の輪郭に沿って、最短の曲線415を描画してもよい。
 [複数の不審者が検出された場合の移動軌跡線の表示例]
 図7、図8は、電子機器MC1の表示部30に表示される不審者通知画面420、430の表示例を示す図である。不審者通知画面420、430に表示される各情報は、通知情報生成部113により生成される。なお、図7、図8に示す不審者通知画面420、430は、図5に示す不審者通知画面400の一部を変形したものであるため、ここでは不審者通知画面400と異なる点を中心にして説明する。図7、図8では、2人の不審者が検出された場合の例を示す。不審者位置標識421は、車両C1に近い位置を移動する不審者に関する画像である。一方、不審者位置標識425、431は、車両C1から遠い位置を移動する不審者に関する画像である。
 ここで、複数の不審者が検出された場合には、各不審者の移動軌跡を表示することが好ましい。しかし、車両C1の周囲を複数の不審者が移動しているような場合において、現在の各不審者の検出位置と、直前の各不審者の検出位置とを直線で結ぶと、それらの各直線が交差したり、重複したりして表示される可能性もある。この場合には、ユーザU1にとって見難くなったり、ユーザU1に違和感を与えたり、ユーザU1が困惑したりするおそれもある。また、各不審者の検出位置を直線で結ぶ処理の負荷が増加し、車両C1のバッテリの消費電力が増加するおそれがある。また、複数の不審者が近接して移動しているような場合には、直線で結ぶ不審者の判定が困難となり、これらの判定処理の負荷が増加し、車両C1のバッテリの消費電力が増加するおそれがある。
 そこで、本実施形態では、車両C1の周囲を複数の不審者が移動する場合には、1人の不審者の線のみを表示し、他の不審者の線を引かないような処理を施すようにする。これにより、ユーザU1に対して不審者を通知するための適切な見せ方を提供することが可能となる。また、ユーザU1は、車両C1の周りの状況をより正確に把握することができ、必要な対処がし易くなる。なお、本実施形態では、1人の不審者の線のみを表示する例を示すが、多数の不審者が存在し、かつ、これらが離れて移動しているような場合には、少数、例えば2、3人程度の不審者の線のみを表示してもよい。
 また、車両C1の周囲を複数の不審者が一緒に移動しているような場合も想定される。この場合には、所定時間内において複数の不審者の距離が略同時に変化することになる。このような場合についても、現在の各不審者の検出位置と、直前の各不審者の検出位置とを直線で結ぶと、それらの各直線が交差したり、重複したりして表示される可能性もある。そこで、所定時間内において複数の不審者の距離が略同時に変化するような場合には、1人の不審者の線のみを表示し、他の不審者の線を引かないような処理を施すようにする。
 図7に示すように、2人の不審者が検出された場合には、各不審者に関する不審者位置標識421、425と、移動軌跡線422、426とを描画してもよい。しかし、上述したように、多数の不審者が検出された場合には、描画処理の負荷が増加する。そこで、図8に示すように、複数の不審者のうちの一部の不審者に関する移動軌跡線422のみを描画し、他の不審者の移動軌跡線の描画を省略してもよい。これにより、描画処理の負荷を軽減することが可能となるとともに、車両C1のバッテリの消費電力を軽減することが可能となる。
 図8に示すように、例えば、車両C1に一番近い位置を移動する不審者に関する移動軌跡線422のみを描画し、他の不審者に関する移動軌跡線の描画を省略することができる。この場合には、図8に示すように、他の不審者に関する過去の位置を示す不審者位置標識432乃至438を描画する。これにより、他の不審者に関する移動経路を推定可能となる。
 [障害物が検出された場合の移動軌跡線の表示例]
 図9、図10は、電子機器MC1の表示部30に表示される不審者通知画面440、450の表示例を示す図である。不審者通知画面440、450に表示される各情報は、通知情報生成部113により生成される。なお、図9、図10に示す不審者通知画面440、450は、図5に示す不審者通知画面400の一部を変形したものであるため、ここでは不審者通知画面400と異なる点を中心にして説明する。図9、図10では、障害物が検出された場合の例を示す。不審者位置標識451及び移動軌跡線452は、不審者に関する画像である。
 図9に示すように、車両C1の周囲に障害物が検出された場合には、障害物に関する障害物画像441、442を描画してもよい。この場合には、障害物画像441、442を車両画像C10とは異なる表示態様とする。例えば、障害物画像441、442と、車両画像C10との線の太さを変更したり、色を変更したりして、異なる表示態様とすることが可能である。すなわち、障害物の輪郭を異なる表示態様とする。
 ここで、障害物は、地物、停止している物体等を意味する。なお、地物は、地上に存在する天然物、人工物等の固定物を示す名称であり、木、建築物、障害物等である。また、停止している物体は、例えば、車両C1の周囲に存在する停車中の他の車両、自転車等を意味する。例えば、不審者判定部112は、物体検出部111により検出された物体のうち、所定時間内で一定時間変化しない物体、すなわち一定時間移動しない物体を障害物と判定することが可能である。
 例えば、障害物画像441は、車両C1の左側に存在する建物等を示す画像である。また、障害物画像442は、車両C1の後側に存在する壁等を示す画像である。これらの障害物については、物体検出部111により検出が可能である。車両C1の周囲に障害物が存在する場合には、不審者は、それらの障害物を避けて移動することが考えられる。そこで、図10に示すように、車両画像C10と障害物画像441、442とに重複しないように、不審者に関する移動軌跡線452を描画するようにする。
 ここで、車両C1の周囲に地物や停止している他の物体、例えば他の車両、自転車が存在しているような場合において、現在の各不審者の検出位置と、直前の各不審者の検出位置とを直線で結ぶと、それらの各直線が地物や他の物体の画像と交差したり、重複したりして表示される可能性もある。この場合には、ユーザU1に違和感を与えたり、ユーザU1が困惑したりするおそれもある。
 そこで、本実施形態では、車両C1の周囲に地物や停止している他の物体が存在する場合には、不審者に関する移動軌跡線が障害物画像に重複しないような処理を施すようにする。これにより、ユーザU1は、車両C1の周りの状況をより正確に把握することができ、必要な対処がし易くなる。
 [威嚇装置を用いた威嚇が実行された場合の移動軌跡線の表示例]
 図11、図12は、電子機器MC1の表示部30に表示される不審者通知画面460、470の表示例を示す図である。不審者通知画面460、470に表示される各情報は、通知情報生成部113により生成される。なお、図11、図12に示す不審者通知画面460、470は、図5に示す不審者通知画面400の一部を変形したものであるため、ここでは不審者通知画面400と異なる点を中心にして説明する。図11、図12では、威嚇装置60を用いた威嚇動作が自動で実行された場合の例を示す。不審者位置標識471、475、移動軌跡線472、474、476、478は、不審者に関する画像である。
 本実施形態では、車両C1の周囲に不審者が検出された場合には、車両C1の威嚇装置制御部114が威嚇装置60を制御して各機器に威嚇動作を実行させる。威嚇装置制御部114は、不審者判定部112により検出された不審者の行動等に基づいて、威嚇動作を実行させる機器を決定し、各威嚇制御を実行する。この場合における威嚇動作を実行する機器の決定、威嚇装置による威嚇動作については、予め設定されている威嚇動作情報に基づいて実行される。
 威嚇装置60による威嚇動作は、例えば、ホーン61(図2参照)からの警告音の出力、ライト62(図2参照)の発光、スピーカ63(図2参照)からの何らかの音の出力等を実行することが可能である。これらの威嚇動作を実行した場合には、威嚇装置制御部114は、その威嚇動作を実行した機器に関する情報と、その威嚇動作に関する情報とを通知情報生成部113に出力する。
 威嚇装置60による威嚇動作を開始するタイミングは、車両C1の周囲に不審者が検出されたタイミング又はその検出時から所定時間が経過したタイミングとすることができる。なお、所定時間は、実験データ等に基づいて適宜設定可能である。また、威嚇動作を実行する機器についても、実験データ等に基づいて適宜設定可能である。
 例えば、駐車中の車両C1から警告音が突然出力されると、近所迷惑となるおそれもある。そこで、威嚇装置60による最初の威嚇動作として、光を用いた威嚇動作を実行することが好ましい。例えば、ライト62(図2参照)の発光による威嚇動作を実行することができる。この場合には、光を用いた威嚇動作をした後に、車両C1の周囲に不審者が残っている場合には、音による威嚇動作を実行する。例えば、ホーン61(図2参照)からの警告音の出力、スピーカ63(図2参照)からの何らかの音の出力等を実行することが可能である。これらの威嚇動作と同時に、光を用いた追加の威嚇動作を実行してもよい。このように、威嚇動作を実行する場合には、不審者の位置、行動に応じて段階的に威嚇動作を実行する。また、ユーザ操作に基づいて威嚇動作を実行してもよい。この例を図13、図14に示す。
 また、不審者の位置、行動に応じて威嚇動作を変化させてもよい。例えば、車両C1に設置されているライト62のうち、不審者が存在する付近のライトのみを発光させてもよい。例えば、不審者が車両C1の右前方に存在する場合には、車両C1の右前方の方向指示器を点滅させることができる。また、例えば、不審者が存在する付近に音声出力させてもよい。例えば、不審者が車両C1の右前方に存在する場合には、車両C1の右前方に向けて音声出力させることができる。これらの不審者の位置については、センサ類50により検出可能である。これらにより、不審者の存在が車両C1に把握されていることを、その不審者に気付き易くさせることができる。そして、不審者を車両C1から遠ざけることが可能となる。
 また、車両C1の内部から外部を撮影可能なカメラ51(図2参照)を設置している場合を想定する。この場合において、不審者が車両C1の窓から車内を覗いているようなときには、カメラ51により取得された画像から不審者の顔を抽出し、その顔を車内の出力装置、例えばカーナビゲーション装置等に表示してもよい。また、例えば、車両C1の窓、ウインドシールド等に画像を表示させることが可能な表示装置、例えばプロジェクタ、光学系を車両C1が備える場合を想定する。この場合には、カメラ51により取得された画像から抽出された不審者の顔を、車両C1の窓、フロントウインド3(図3、図4参照)、リアウインド等に表示してもよい。これらにより、不審者の存在が車両C1に把握されていることを、その不審者に気付き易くさせることができる。そして、不審者を車両C1から遠ざけることが可能となる。
 図11に示すように、威嚇装置60を用いた威嚇が実行された場合には、威嚇を実行した機器を示す威嚇通知画像461乃至465を描画してもよい。ここで、威嚇通知画像461は、ホーン61(図2参照)から警音が発せられたことを示す画像である。また、威嚇通知画像462乃至465は、ライト62(図2参照)が発光されたことを示す画像である。なお、威嚇通知画像462乃至465については、威嚇動作として発光された車両C1のライト部分に重複して表示することが可能である。これらの威嚇を実行した機器については、通知情報生成部113は、威嚇装置制御部114からの威嚇制御情報に基づいて取得可能である。
 威嚇装置60を用いた威嚇動作が実行された場合には、不審者は、それらの威嚇動作により車両C1から離れるような移動することが考えられる。そこで、図12に示すように、威嚇装置60を用いた威嚇が実行された際における不審者の位置を示す不審者位置標識473、477を表示する。また、威嚇装置60を用いた威嚇が実行された前後において、移動軌跡線472、474、476、478の表示態様を変化させる。図12では、威嚇装置60を用いた威嚇が実行される前の移動軌跡線472、476を実線で示し、威嚇装置60を用いた威嚇が実行された後の移動軌跡線474、478を点線で示す。なお、色の変更、線の太さの変更等により表示態様を変化させてもよい。これにより、威嚇装置60を用いた威嚇が実行された場合に、不審者がどのような行動をしたかを、ユーザU1は容易に把握することが可能となる。
 このように、不審者を追い払う威嚇動作を実行した場合には、威嚇動作を実行した威嚇装置60と、それらが動いていることとをユーザU1に通知することが可能となる。すなわち、車両C1の周囲に存在する不審者の動きをユーザU1に通知するのみでは、車両C1を守る行動をしているか否かをユーザU1が把握することができない。そこで、不審者を追い払う威嚇動作を実行した威嚇装置と、それらが動いていることとをユーザに通知する。また、威嚇装置の威嚇動作による不審者の行動変化がわかるように、威嚇装置の威嚇動作を実行した前後で移動軌跡線の表示態様を変化させる。
 [威嚇装置を用いた威嚇をユーザ操作により実行する場合の表示例]
 図13、図14は、電子機器MC1の表示部30に表示される不審者通知画面480、490の表示例を示す図である。不審者通知画面480、490に表示される各情報は、通知情報生成部113により生成される。なお、図13、図14に示す不審者通知画面480、490は、図5に示す不審者通知画面400の一部を変形したものであるため、ここでは不審者通知画面400と異なる点を中心にして説明する。図13、図14では、威嚇装置60を用いた威嚇動作をユーザ操作に基づいて実行する場合の例を示す。不審者位置標識401、492、494、移動軌跡線402、493は、不審者に関する画像である。
 図13に示すように、不審者が検出された場合には、不審者が検出されたことを示すメッセージとともに、威嚇の実行を指示する威嚇ボタン481を表示してもよい。ここで、威嚇ボタン481は、威嚇装置60の威嚇動作を指示するための操作標識である。例えば、ユーザU1が、表示部30に表示されている威嚇ボタン481を操作、例えばタッチ操作すると、電子機器MC1は、威嚇ボタン481が操作されたことを示す制御信号を監視装置110に送信する。監視装置110の威嚇装置制御部114は、通信部120を介して受信した制御信号に基づいて、威嚇装置60の威嚇動作を制御する。例えば、威嚇装置制御部114は、図11、図12に示す例と同様に、ホーン61(図2参照)及びライト62(図2参照)を用いて威嚇動作を実行させる。この場合には、図11、図12に示す例と同様に、威嚇通知画像461乃至465が表示される。この例を図14に示す。
 図14に示す不審者通知画面490において、威嚇装置60を用いた威嚇動作が実行された前後における不審者位置標識492、494、移動軌跡線493の関係は、図12に示す例と同様であるため、ここでの説明を省略する。
 図14では、威嚇動作を実行したことを示すメッセージとともに、追加の威嚇動作の実行を指示する追加威嚇ボタン491を表示する例を示す。ここで、追加威嚇ボタン491は、威嚇装置60の追加動作を指示するための操作標識である。例えば、ユーザU1が、表示部30に表示されている追加威嚇ボタン491を操作、例えばタッチ操作すると、新たな威嚇動作が実行される。例えば、新たな威嚇装置60、例えば、スピーカ63を用いて不審者に対する警告音を発する威嚇動作が実行される。
 図13、図14に示す例では、威嚇ボタン481、追加威嚇ボタン491を表示する例を示したが、威嚇装置60の各機器の威嚇動作を指示するための操作ボタンを表示してもよい。例えば、ホーン61からの音出力を指示するためのホーンボタン、ライト62の発光を指示するためのライトボタン、スピーカ63からの音出力を指示するためのスピーカボタン等を表示してもよい。これにより、ユーザU1は、不審者の移動軌跡を見ながら、所望の威嚇動作を指示することが可能となる。
 図5乃至図14では、不審者通知情報を電子機器MC1の表示部30に表示させる例を示したが、不審者通知情報に相当する音声情報を電子機器MC1の音声出力部から出力させてもよい。また、電子機器MC1以外の他の機器から不審者通知情報を出力させてもよい。例えば、車両C1の内部に設置されている出力機器、例えばスマートフォン、タブレット端末、パーソナルコンピュータ、カーナビゲーション装置、IVI(In-Vehicle Infotainment)等の車載機器に不審者通知情報を出力させてもよい。また、電子機器MC1及び車載機器の双方から不審者通知情報を出力させてもよい。
 例えば、駐車中の車両C1においてユーザU1が寝ていたり、仕事をしていたりすることも想定される。この場合には、車両C1の車載機器から不審者通知情報を出力させることにより、車両C1の周囲における不審者の存在をユーザU1に迅速に通知することが可能となる。また、車載機器においては、電子機器MC1と同じ内容の表示画面を表示してもよく、他の情報を表示してもよい。例えば、車両C1に存在するユーザU1に不審者の存在を迅速に通知するため、「あなたは見られていますよ」等の警告メッセージの表示又は音声出力を車載機器において実行してもよい。
 [検出周期の設定例]
 図15は、監視装置110における検出周期の設定処理の一例を示すフローチャートである。また、この検出周期の設定処理は、記憶部130(図2参照)に記憶されているプログラムに基づいて実行される。
 また、この検出周期の設定処理は、車両C1が駐車された後に、車両C1のスタートスイッチにより車両C1のオフ操作(又はキーを用いたオフ操作)が行われた場合に実行される。なお、図15では、車両C1のオフ操作が行われた場合に検出周期の設定処理を実行する例を示すが、車両C1のオフオフ操作とは別に監視処理のオンオフ操作を可能としてもよい。この場合には、車両C1が駐車された後に、監視処理のオン操作が行われた場合に検出周期の設定処理が実行される。また、この監視処理では、図1乃至図14を適宜参照して説明する。
 ステップS501において、監視装置110の動作が開始される。上述したように、車両C1が駐車された後に、車両C1のスタートスイッチにより車両C1のオフ操作(又はキーを用いたオフ操作)が行われた場合に監視装置110の動作が開始される。例えば、監視装置110が起動した段階で、センサ類50の検出動作が開始される。この場合に、センサ類50の各機器は、基本周期(例えば、2秒)で動作を開始する。
 ステップS502において、監視装置110により不審者検出処理が実行される。具体的には、物体検出部111は、センサ類50の各機器から出力された各検出情報に基づいて、車両C1の周囲に存在する物体を検出する。また、不審者判定部112は、物体検出部111により検出された物体が不審者であるか否かを判定する。
 ステップS503において、センサ制御部115は、ステップS502での不審者検出処理により不審者が検出されたか否かを判定する。不審者が検出された場合には、ステップS504に進む。一方、不審者が検出されていない場合には、ステップS505に進む。
 ステップS504において、センサ制御部115は、ステップS502での不審者検出処理による不審者検出結果に基づいて、センサ類50の各機器の検出周期を設定する。例えば、上述したように、車両C1を基準とする不審者の位置と、車両C1の周囲における不審者の滞在時間と、不審者の移動速度と、車両C1を基準とする不審者の顔の向きと、不審者の数とのうちの少なくとも1つに基づいて、基準値に対する検出周期の長短を設定することができる。
 ステップS505において、センサ制御部115は、不審者の不検出時の検出周期を決定する。具体的には、通常時の検出周期よりも長い周期となるように、センサ類50の各機器の検出周期を設定することができる。通常時の検出周期よりも長い周期は、例えば実験データ等に基づいて適宜設定可能である。
 なお、通常時の検出周期よりも長い周期とするとともに、検出処理に使用する機器を限定してもよい。例えば、車両C1の周囲を撮像範囲とするカメラ51が車両C1に複数設置されている場合には、複数のカメラ51のうち、一部のカメラのみを用いた検出処理としてもよい。このように、車両C1の周囲に不審者が検出されてない状態では、不審者の検出処理を頻繁に行う必要がないため、検出周期を長くしたり、検出処理に使用する機器を限定したりして、バッテリの消費電力を抑制するようにする。
 ステップS506において、監視装置110の動作終了操作があったか否かが判定される。車両C1のスタートスイッチにより車両C1のオン操作(又はキーを用いたオン操作)が行われた場合に監視装置110の動作終了操作があったと判定される。また、監視処理のオンオフ操作が可能な場合には、監視処理のオフ操作が行われた場合に監視装置110の動作終了操作があったと判定される。監視装置110の動作終了操作がない場合には、ステップS502に戻る。一方、監視装置110の動作終了操作がない場合には、監視処理の動作を終了する。
 [不審者情報通知処理例]
 図16は、監視装置110における不審者情報通知処理の一例を示すフローチャートである。また、この不審者情報通知処理は、記憶部130(図2参照)に記憶されているプログラムに基づいて実行される。また、この不審者情報通知処理は、図16に示す例と同様に、車両C1が駐車された後に、車両C1のスタートスイッチにより車両C1のオフ操作(又はキーを用いたオフ操作)が行われた場合に実行される。
 ステップS521において、通知情報生成部113は、ステップS502(図15参照)で不審者が検出されたか否かを判定する。不審者が検出された場合には、ステップS522に進む。一方、不審者が検出されていない場合には、不審者が検出されるまで監視を継続して行う。
 ステップS522において、通知情報生成部113は、不審者判定部112からの不審者情報に基づいて、車両C1と不審者との距離を取得する。
 ステップS523において、通知情報生成部113は、不審者判定部112からの不審者情報に基づいて、複数の不審者が検出されているか否かを判定する。複数の不審者が検出されている場合には、ステップS524に進む。一方、1人の不審者が検出されている場合には、ステップS525に進む。
 ステップS524において、通知情報生成部113は、不審者判定部112からの不審者情報に基づいて、車両C1からの距離が一番近い不審者について移動軌跡線を生成すると決定する。
 ステップS525において、通知情報生成部113は、不審者判定部112からの不審者情報に基づいて、不審者の移動量が閾値以上であるか否かを判定する。不審者の移動量が閾値以上である場合には、ステップS526に進む。一方、不審者の移動量が閾値未満である場合には、ステップS527に進む。
 ステップS526において、通知情報生成部113は、不審者について移動軌跡線を生成しないと決定する。
 ステップS527において、通知情報生成部113は、不審者について移動軌跡線を生成すると決定する。
 ステップS528において、通知情報生成部113は、ステップS502(図15参照)で検出された不審者の移動軌跡線を生成する。この場合に、通知情報生成部113は、ステップS524又はS527で移動軌跡線を生成すると決定された不審者については、その不審者の直前の位置から現在の位置までを直線で結ぶように移動軌跡線を生成する。一方、通知情報生成部113は、ステップS526で移動軌跡線を生成しないと決定された不審者については、その不審者の直前の位置と現在の位置とを直線で結ばずに、各位置を示す丸標識を生成する。ただし、それらより前に結ばれた移動軌跡線は維持する。
 ステップS529において、通知情報生成部113は、ステップS529で生成された移動軌跡線が車両C1に跨るか否かを判定する。例えば、図6に示す直線416は、車両C1に跨ると判定される。移動軌跡線が車両C1に跨る場合には、ステップS530に進む。一方、移動軌跡線が車両C1に跨らない場合には、ステップS531に進む。
 ステップS530において、通知情報生成部113は、ステップS524又はS527で移動軌跡線を生成すると決定された不審者について、移動軌跡線が車両C1に跨るため、移動軌跡線を生成しないと新たに決定する。そして、ステップS528において、通知情報生成部113は、その不審者について各位置を示す丸標識を新たに生成する。
 ステップS531において、通知情報生成部113は、物体検出部111からの検出情報に基づいて、車両C1の周囲に存在する障害物に関する物体情報(障害物データ)を取得する。そして、通知情報生成部113は、その障害物データに基づいて、車両C1の周囲に存在する障害物を示す障害物画像を生成する。例えば、図9、図10に示す障害物画像441、442が生成される。
 ステップS532において、通知情報生成部113は、威嚇装置制御部114からの威嚇制御情報を取得し、威嚇装置60に関する威嚇通知画像を生成する。例えば、図11、図12に示す威嚇通知画像461乃至465が生成される。また、威嚇通知画像ととも、威嚇動作を指示するための操作画像(例えば、威嚇ボタン481、追加威嚇ボタン491)を生成してもよい。また、威嚇通知画像を表示する場合には、図12、図14に示すように、威嚇動作の実行前における不審者に関する不審者位置標識と、威嚇行動の実行後における不審者に関する不審者位置標識とを異なる表示態様で生成してもよい。
 ステップS533において、通信部120は、不審者通知情報を電子機器MC1に送信する。具体的には、通知情報生成部113は、ステップS528で生成された軌跡データと、ステップS531で生成された輪郭データと、ステップS532で生成された威嚇データとを含む不審者通知情報を生成する。そして、通知情報生成部113は、その不審者通知情報を通信部120を介して電子機器MC1に送信する制御を実行する。不審者通知情報を受信した電子機器MC1は、その不審者通知情報を表示部30に表示する。例えば、図5乃至図14に示す表示画面が表示される。
 [威嚇装置制御処理例]
 図17は、監視装置110における威嚇装置制御処理の一例を示すフローチャートである。また、この威嚇装置制御処理は、記憶部130(図2参照)に記憶されているプログラムに基づいて実行される。また、この威嚇装置制御処理は、図16に示す例と同様に、車両C1が駐車された後に、車両C1のスタートスイッチにより車両C1のオフ操作(又はキーを用いたオフ操作)が行われた場合に実行される。
 ステップS541において、威嚇装置制御部114は、ステップS502(図15参照)で不審者が検出されたか否かを判定する。不審者が検出された場合には、ステップS542に進む。一方、不審者が検出されていない場合には、不審者が検出されるまで監視を継続して行う。
 ステップS542において、威嚇装置制御部114は、不審者判定部112からの不審者情報に基づいて、ステップS502(図15参照)で検出された不審者に対する威嚇動作のタイミングとなったか否かを判定する。上述したように、威嚇装置60による威嚇動作を開始するタイミングは、車両C1の周囲に不審者が検出されたタイミング又はその検出時から所定時間が経過したタイミングとすることができる。不審者に対する威嚇動作のタイミングとなった場合には、ステップS543に進む。一方、不審者に対する威嚇動作のタイミングとなっていない場合には、ステップS544に進む。
 ステップS543において、威嚇装置制御部114は、不審者判定部112からの不審者情報に基づいて、威嚇装置60を制御して不審者に対する威嚇動作を威嚇装置60に実行させる。
 ステップS544において、威嚇装置制御部114は、威嚇装置60を制御して不審者に対する威嚇動作を停止させる。なお、威嚇装置60による威嚇動作が実行されてない場合には、その状態を維持する。
 ステップS545において、威嚇装置制御部114は、ユーザU1による威嚇指示操作があったか否かを判定する。例えば、図13に示す威嚇ボタン481、又は、図14に示す追加威嚇ボタン491の押下操作があった場合には、ユーザU1による威嚇指示操作があったと判定される。ユーザU1による威嚇指示操作があった場合には、ステップS545に進む。一方、ユーザU1による威嚇指示操作がない場合には、威嚇装置制御処理の動作を終了する。
 ステップS546において、威嚇装置制御部114は、電子機器MC1から送信された威嚇指示操作に関する制御信号に基づいて、威嚇装置60を制御して不審者に対する威嚇動作を威嚇装置60に実行させる。
 以上では、移動体として車両C1を例にして説明したが、他の移動体についても本実施形態を適用可能である。他の移動体として、停止中に周囲に人が近づける移動体について適用可能である。例えば、オートバイ、自転車、飛行機、電車、船等の乗り物全般について適用可能である。例えば、接岸している船には人が近づく可能性がある。また、船が水上で停止中でも、その船に他の船が近づくことも想定される。このように、乗り物が停止している場所の周囲には、何が存在するか不明であることも多く、その乗り物の周囲に誰が来るかわからないことも多い。このような場合でも、本実施形態では、適切に防犯することが可能となる。
 ここで、車両C1に設けられ、車両C1の周囲を監視対象とする監視装置110の場合には、車両C1のバッテリを用いて各処理が実行される。しかし、車両C1のバッテリの供給電力に限りがあるため、車両C1の周囲を継続して監視するためには、車両C1のバッテリ消費量を省電力化する必要がある。そこで、例えば、センサ類50の各機器のサンプリング処理を低サンプリング化し、この低サンプリング化された機器から検出情報を用いることが考えられる。しかし、低サンプリング化された機器からの検出情報を用いた監視処理では、適切な監視を実行できないおそれがある。例えば、低サンプリング化された機器からの検出情報に基づいて、不審者の移動軌跡を生成する場合には、正しい移動軌跡を作成できないおそれがある。
 そこで、本実施形態では、センサ類50のうち、監視に用いる機器の数、検出情報の取得頻度を不審者の行動に応じて可変とする。言い換えると、センサ類50のうち、監視に用いる機器の数、検出情報の取得頻度を不審者の行動に応じて最適化する。これにより、車両C1のバッテリの消費電力を抑制することができる。
 また、車両C1が駐車する場所によっては、車両C1の周囲に障害物が存在する場合も想定される。この場合に、障害物と不審者の移動軌跡線とを混在して表示すると、ユーザが困惑するおそれがある。また、車両C1の周囲を複数の不審者が移動する場合も想定される。この場合に、全ての不審者の移動軌跡を表示するとユーザが困惑するおそれがある。
 そこで、本実施形態では、障害物と不審者の移動軌跡線とが重複しないように表示する。また、複数の不審者のうち、一部の不審者の移動軌跡線を表示するようにする。これにより、車両C1の周囲において不審者が検出された場合には、車両C1の周囲がどのような状態になっているのかをユーザU1が適切に正確に把握することができる。また、ユーザU1は、必要な対処がし易くなる。
 また、本実施形態では、車両C1の周囲において不審者が検出された場合には、適切なタイミングで不審者に対して威嚇動作を実行するため、不審者に対して必要な対処を実行することができる。また、ユーザ操作に応じて不審者に対して威嚇動作を実行することが可能であるため、不審者に対して必要な対処を実行することができる。
 なお、以上では、検出処理、設定処理、出力処理、生成処理、威嚇処理等を監視装置110(又は監視システム100)において実行する例を示したが、それらの各処理の全部又は一部を他の機器において実行してもよい。この場合には、それらの各処理の一部を実行する各機器により監視システムが構成される。例えば、車載機器、ユーザU1が使用可能な機器(例えば、スマートフォン、タブレット端末、パーソナルコンピュータ、カーナビゲーション装置、IVI)、インターネット等の所定のネットワークを介して接続可能なサーバ等の各種情報処理装置、各種電子機器を用いて各処理の少なくとも一部を実行させることができる。
 また、監視装置110(又は監視システム100)の機能を実行可能な監視システムの一部(又は全部)については、インターネット等の所定のネットワークを介して提供可能なアプリケーションにより提供されてもよい。このアプリケーションは、例えばSaaS(Software as a Service)である。
 [本実施形態の構成例及びその効果]
 本実施形態に係る監視方法は、車両C1(移動体の一例)に設けられた監視装置110を用いて、停止している車両C1の周囲を監視する監視方法である。この監視方法では、車両C1に設けられたセンサ類50を用いて車両C1の周囲に存在する物体を検出し、その検出された物体のうちから不審者を検出する検出処理(ステップS502)と、その検出処理を実行する際のセンサ類50の検出周期を設定する設定処理(ステップS504、S505)と、不審者が検出されたことをユーザU1に通知するための不審者通知情報(通知情報の一例)を出力する出力処理(ステップS533)とを含む。設定処理(ステップS504、S505)では、検出処理(ステップS502)での不審者の検出結果に基づいて検出周期を設定する。
 この構成によれば、不審者の検出結果に基づいて、センサ類50の検出周期を可変とすることができるため、車両C1のバッテリの消費電力を抑制することができる。
 本実施形態に係る監視方法において、設定処理では、検出処理(ステップS502)で不審者が検出されない場合には(ステップS503)、基準値よりも検出周期を長く設定し(ステップS505)、検出処理(ステップS502)で不審者が検出された場合には(ステップS503)、車両C1を基準とする不審者の位置と、車両C1の周囲における不審者の滞在時間と、不審者の移動速度と、車両C1を基準とする不審者の顔の向きと、不審者の数と、のうちの少なくとも1つに基づいて、基準値に対する検出周期の長短を設定する(ステップS504)。
 この構成によれば、不審者が検出されない場合には、基準値よりも検出周期を長く設定するため、車両C1のバッテリの消費電力を抑制することができる。一方、不審者が検出された場合には、不審者に関する検出情報に基づいて、基準値に対する検出周期の長短を設定するため、より適切な検出処理を実現することができる。
 本実施形態に係る監視方法において、設定処理(ステップS504)では、検出処理(ステップS502)で不審者が検出された場合には、不審者の滞在時間が長くなるのに応じて基準値よりも検出周期を短く設定する。
 この構成によれば、不審者の滞在時間が長くなった場合には、検出周期を短く設定するため、不審者の行動に応じた適切な検出処理を実現することができる。
 本実施形態に係る監視方法において、設定処理(ステップS504)では、検出処理(ステップS502)で不審者が検出された場合には、不審者の移動速度が速くなるのに応じて基準値よりも検出周期を短く設定する。
 この構成によれば、不審者の移動速度が速くなった場合には、検出周期を短く設定するため、不審者の行動に応じた適切な検出処理を実現することができる。
 本実施形態に係る監視方法において、設定処理(ステップS504)では、検出処理(ステップS502)で不審者が検出された場合には、不審者が車両C1に接近しかつ不審者の移動速度が基準速度よりも遅いときに基準値よりも検出周期を長く設定する。
 この構成によれば、不審者が車両C1の周囲で立ち止まり車両C1の内部を覗き込んでいるような場合には、検出周期を長く設定するため、不審者の行動に応じた適切な検出処理を実現するとともに、車両C1のバッテリの消費電力を抑制することができる。
 本実施形態に係る監視方法において、設定処理(ステップS504)では、検出処理(ステップS502)で不審者が検出された場合には、不審者の数の増加に応じて基準値よりも検出周期を短く設定する。
 この構成によれば、不審者の数が多くなった場合には、検出周期を短く設定するため、集団の不審者の行動に応じた適切な検出処理を実現することができる。
 本実施形態に係る監視方法において、検出処理(ステップS502)では、複数のセンサ(センサ類50)を用いて不審者を検出し、設定処理(ステップS504)では、検出処理(ステップS502)で不審者が検出された場合には、不審者の検出に用いられたセンサを含むそのセンサに近接する他のセンサの検出周期を基準値よりも短く設定する。
 この構成によれば、不審者の検出に用いられたセンサ等の検出周期を短く設定するため、不審者の行動に応じた適切な検出処理を実現するとともに、車両C1のバッテリの消費電力を抑制することができる。
 本実施形態に係る監視方法において、検出処理(ステップS502)では、複数のセンサ(センサ類50)を用いて不審者を検出し、設定処理(ステップS504)では、検出処理(ステップS502)で不審者が検出された場合には、不審者の顔の方向に位置するセンサを含むそのセンサに近接する他のセンサの検出周期を基準値よりも短く設定する。
 この構成によれば、不審者の顔の方向に位置するセンサ等の検出周期を短く設定するため、不審者の行動に応じた適切な検出処理を実現するとともに、車両C1のバッテリの消費電力を抑制することができる。
 本実施形態に係る監視方法において、検出処理(ステップS502)では、複数のセンサ(センサ類50)を用いて不審者を検出し、設定処理(ステップS504)では、検出処理(ステップS502)で不審者が検出された場合には、不審者の検出に用いられたセンサとは車両C1を基準として反対側に設置されている他のセンサの検出周期を基準値よりも長く設定する。
 この構成によれば、不審者の検出に用いられたセンサとは反対側のセンサ等の検出周期を長く設定するため、不審者の行動に応じた適切な検出処理を実現するとともに、車両C1のバッテリの消費電力を抑制することができる。
 本実施形態に係る監視方法において、車両C1を示す車両画像(移動体画像の一例)と、車両C1を基準とする不審者の位置を示す不審者位置標識と、過去の不審者位置標識から現在の不審者位置標識までを不審者の移動軌跡として結ぶ移動軌跡線(線の一例)とを含む不審者通知情報(通知情報の一例)を生成する生成処理(ステップS521乃至S532)をさらに含む。生成処理(ステップS521乃至S532)では、車両C1を基準とする不審者の位置と、不審者の移動速度と、不審者の数とに基づいて、現在の不審者位置標識及び直前の不審者位置標識間の移動軌跡線を生成するか否かを判定する。
 この構成によれば、不審者の位置、移動速度等に基づいて、移動軌跡線を表示するか否かを変更可能とするため、車両C1の周囲がどのような状態になっているのかをユーザU1が見易くなる。
 本実施形態に係る監視方法において、生成処理(ステップS521乃至S532)では、複数の不審者が検出された場合には、複数の不審者のうち、移動体に最も近い不審者に関する現在の不審者位置標識及び直前の不審者位置標識間の移動軌跡線(線の一例)を生成し、他の不審者に関する現在の不審者位置標識及び直前の不審者位置標識間の移動軌跡線を生成しない。
 この構成によれば、例えば、図8に示すように、複数の不審者のうち、車両C1に最も近い不審者に関する移動軌跡線422のみを表示するため、車両C1の周囲がどのような状態になっているのかをユーザU1が見易くなる。
 本実施形態に係る監視方法において、生成処理(ステップS521乃至S532)では所定時間内で不審者の位置が所定距離以上変化した場合、又は、現在の不審者位置標識と直前の不審者位置標識とを結ぶ直線が車両画像(移動体画像の一例)に重複する場合には、現在の不審者位置標識及び直前の不審者位置標識間の移動軌跡線(線の一例)を生成しない。
 この構成によれば、所定条件を満たす不審者の移動軌跡線を省略し、移動軌跡線の一部のみを表示するため、車両C1の周囲がどのような状態になっているのかをユーザU1が見易くなる。
 本実施形態に係る監視方法において、生成処理(ステップS521乃至S532)では、車両C1の周囲に存在する障害物を示す障害物画像を車両画像(移動体画像の一例)とは異なる表示態様で車両画像の周囲に生成し、車両画像と重複しないように不審者位置標識及び移動軌跡線を生成する。
 この構成によれば、障害物と不審者の移動軌跡線とが重複しないように表示するため、車両C1の周囲がどのような状態になっているのかをユーザU1が見易くなる。
 本実施形態に係る監視方法において、不審者に対する威嚇動作を車両C1に実行させる威嚇処理(ステップS543、S546)をさらに含む。生成処理(ステップS532)では、威嚇処理で実行された威嚇動作に関する威嚇通知画像461乃至465(威嚇情報の一例)と、威嚇動作を指示するための威嚇ボタン481、追加威嚇ボタン491(操作画像の一例)とを含む不審者通知情報を生成する。
 この構成によれば、不審者が検出され、不審者に対する威嚇動作が実行された場合には、威嚇通知画像461乃至465が表示されるため、不審者に対して威嚇動作が実行されたことをユーザU1は容易に把握することができる。また、威嚇ボタン481、追加威嚇ボタン491等を表示することにより、ユーザU1は不審者に対して必要な対処を実行することができる。
 本実施形態に係る監視方法において、不審者に対する威嚇動作を車両C1に実行させる威嚇処理(ステップS543、S546)をさらに含む。生成処理(ステップS532)では、威嚇処理で実行された威嚇動作に関する威嚇通知画像461乃至465(威嚇情報の一例)を含む不審者通知情報を生成し、威嚇動作の実行前における不審者に関する不審者位置標識と、威嚇行動の実行後における不審者に関する不審者位置標識とを異なる表示態様で生成する。
 この構成によれば、威嚇動作の実行前後における不審者に関する不審者位置標識を異なる表示態様で生成されるため、ユーザU1は不審者に対して必要な対処が実行できたか否かを容易に把握することができる。
 監視装置110は、車両C1(移動体の一例)に設けられ、停止している車両C1の周囲を監視する監視装置である。監視装置110は、車両C1に設けられたセンサ類50(センサの一例)を用いて車両C1の周囲に存在する物体を検出し、その検出された物体のうちから不審者を検出する物体検出部111、不審者判定部112(検出部の一例)と、物体検出部111、センサ類50の検出周期を制御するセンサ制御部115(制御部の一例)と、不審者が検出されたことをユーザU1に通知するための不審者通知情報(通知情報の一例)を出力する通知情報生成部113、通信部120(出力部の一例)とを備える。センサ制御部115は、物体検出部111、不審者判定部112により検出された不審者の検出結果に基づいて検出周期を設定する。
 この構成によれば、不審者の検出結果に基づいて、センサ類50の検出周期を可変とすることができるため、車両C1のバッテリの消費電力を抑制することができる。
 なお、本実施形態で示した各処理手順は、本実施形態を実現するための一例を示したものであり、本実施形態を実現可能な範囲で各処理手順の一部の順序を入れ替えてもよく、各処理手順の一部を省略したり他の処理手順を追加したりしてもよい。
 なお、本実施形態で示した各処理は、各処理手順をコンピュータに実行させるためのプログラムに基づいて実行されるものである。このため、本実施形態は、それらの各処理を実行する機能を実現するプログラム、そのプログラムを記憶する記録媒体の実施形態としても把握することができる。例えば、監視装置に新機能を追加するためのアップデート処理により、そのプログラムを監視装置の記憶装置に記憶させることができる。これにより、そのアップデートされた監視装置に本実施形態で示した各処理を実施させることが可能となる。
 以上、本発明の実施形態について説明したが、上記実施形態は本発明の適用例の一部を示したに過ぎず、本発明の技術的範囲を上記実施形態の具体的構成に限定する趣旨ではない。
 なお、本願は2022年8月12日に日本国特許庁に出願された特願2022-129103に基づく優先権を主張し、この出願の全ての内容は参照により本明細書に組み込まれる。

Claims (16)

  1.  移動体に設けられた監視装置を用いて、停止している当該移動体の周囲を監視する監視方法であって、
     前記移動体に設けられたセンサを用いて前記移動体の周囲に存在する物体を検出し、当該検出された物体のうちから不審者を検出する検出処理と、
     前記検出処理を実行する際の前記センサの検出周期を設定する設定処理と、
     前記不審者が検出されたことをユーザに通知するための通知情報を出力する出力処理と、を含み、
     前記設定処理では、前記検出処理での前記不審者の検出結果に基づいて前記検出周期を設定する、
    監視方法。
  2.  請求項1に記載の監視方法であって、
     前記設定処理では、
     前記検出処理で前記不審者が検出されない場合には、基準値よりも前記検出周期を長く設定し、
     前記検出処理で前記不審者が検出された場合には、前記移動体を基準とする当該不審者の位置と、前記移動体の周囲における当該不審者の滞在時間と、当該不審者の移動速度と、前記移動体を基準とする当該不審者の顔の向きと、当該不審者の数と、のうちの少なくとも1つに基づいて、前記基準値に対する前記検出周期の長短を設定する、
    監視方法。
  3.  請求項2に記載の監視方法であって、
     前記設定処理では、前記検出処理で前記不審者が検出された場合には、当該不審者の前記滞在時間が長くなるのに応じて前記基準値よりも前記検出周期を短く設定する、
    監視方法。
  4.  請求項2に記載の監視方法であって、
     前記設定処理では、前記検出処理で前記不審者が検出された場合には、当該不審者の移動速度が速くなるのに応じて前記基準値よりも前記検出周期を短く設定する、
    監視方法。
  5.  請求項2に記載の監視方法であって、
     前記設定処理では、前記検出処理で前記不審者が検出された場合には、当該不審者が前記移動体に接近しかつ当該不審者の移動速度が基準速度よりも遅いときに前記基準値よりも前記検出周期を長く設定する、
    監視方法。
  6.  請求項2に記載の監視方法であって、
     前記設定処理では、前記検出処理で前記不審者が検出された場合には、当該不審者の数の増加に応じて前記基準値よりも前記検出周期を短く設定する、
    監視方法。
  7.  請求項2に記載の監視方法であって、
     前記検出処理では、複数の前記センサを用いて前記不審者を検出し、
     前記設定処理では、前記検出処理で前記不審者が検出された場合には、当該不審者の検出に用いられた前記センサを含む当該センサに近接する他のセンサの前記検出周期を前記基準値よりも短く設定する、
    監視方法。
  8.  請求項2に記載の監視方法であって、
     前記検出処理では、複数の前記センサを用いて前記不審者を検出し、
     前記設定処理では、前記検出処理で前記不審者が検出された場合には、当該不審者の顔の方向に位置する前記センサを含む当該センサに近接する他のセンサの前記検出周期を前記基準値よりも短く設定する、
    監視方法。
  9.  請求項2に記載の監視方法であって、
     前記検出処理では、複数の前記センサを用いて前記不審者を検出し、
     前記設定処理では、前記検出処理で前記不審者が検出された場合には、当該不審者の検出に用いられた前記センサとは前記移動体を基準として反対側に設置されている他のセンサの前記検出周期を前記基準値よりも長く設定する、
    監視方法。
  10.  請求項1に記載の監視方法であって、
     前記移動体を示す移動体画像と、前記移動体を基準とする前記不審者の位置を示す不審者位置標識と、過去の前記不審者位置標識から現在の前記不審者位置標識までを当該不審者の移動軌跡として結ぶ線とを含む前記通知情報を生成する生成処理をさらに含み、
     前記生成処理では、前記移動体を基準とする前記不審者の位置と、当該不審者の移動速度と、当該不審者の数とに基づいて、現在の前記不審者位置標識及び直前の前記不審者位置標識間の前記線を生成するか否かを判定する、
    監視方法。
  11.  請求項10に記載の監視方法であって、
     前記生成処理では、複数の前記不審者が検出された場合には、当該複数の不審者のうち、前記移動体に最も近い不審者に関する現在の前記不審者位置標識及び直前の前記不審者位置標識間の前記線を生成し、他の不審者に関する現在の前記不審者位置標識及び直前の前記不審者位置標識間の前記線を生成しない、
    監視方法。
  12.  請求項10に記載の監視方法であって、
     前記生成処理では、所定時間内で前記不審者の位置が所定距離以上変化した場合、又は、現在の前記不審者位置標識と直前の前記不審者位置標識とを結ぶ直線が前記移動体画像に重複する場合には、現在の前記不審者位置標識及び直前の前記不審者位置標識間の前記線を生成しない、
    監視方法。
  13.  請求項10から12の何れかに記載の監視方法であって、
     前記生成処理では、前記移動体の周囲に存在する障害物を示す障害物画像を前記移動体画像とは異なる表示態様で前記移動体画像の周囲に生成し、前記障害物画像と重複しないように前記不審者位置標識及び前記線を生成する、
    監視方法。
  14.  請求項10から12の何れかに記載の監視方法であって、
     前記不審者に対する威嚇動作を前記移動体に実行させる威嚇処理をさらに含み、
     前記生成処理では、前記威嚇処理で実行された前記威嚇動作に関する威嚇情報と、前記威嚇動作を指示するための操作画像とを含む前記通知情報を生成する、
    監視方法。
  15.  請求項10から12の何れかに記載の監視方法であって、
     前記不審者に対する威嚇動作を前記移動体に実行させる威嚇処理をさらに含み、
     前記生成処理では、前記威嚇処理で実行された前記威嚇動作に関する威嚇情報を含む前記通知情報を生成し、
     当該威嚇動作の実行前における前記不審者に関する前記不審者位置標識と、当該威嚇行動の実行後における当該不審者に関する前記不審者位置標識とを異なる表示態様で生成する、
    監視方法。
  16.  移動体に設けられ、停止している移動体の周囲を監視する監視装置であって、
     前記移動体に設けられたセンサを用いて前記移動体の周囲に存在する物体を検出し、当該検出された物体のうちから不審者を検出する検出部と、
     前記センサの検出周期を制御する制御部と、
     前記不審者が検出されたことをユーザに通知するための通知情報を出力する出力部と、を備え、
     前記制御部は、前記検出部により検出された前記不審者の検出結果に基づいて前記検出周期を設定する、
    監視装置。
PCT/JP2023/020850 2022-08-12 2023-06-05 監視方法及び監視装置 WO2024034241A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022129103 2022-08-12
JP2022-129103 2022-08-12

Publications (1)

Publication Number Publication Date
WO2024034241A1 true WO2024034241A1 (ja) 2024-02-15

Family

ID=89851325

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/020850 WO2024034241A1 (ja) 2022-08-12 2023-06-05 監視方法及び監視装置

Country Status (1)

Country Link
WO (1) WO2024034241A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11198763A (ja) * 1998-01-09 1999-07-27 Denso Corp 車両用盗難防止装置
JP2007320340A (ja) * 2006-05-30 2007-12-13 Honda Motor Co Ltd 車両用灯体
KR20100064628A (ko) * 2008-12-05 2010-06-15 엘지전자 주식회사 텔레매틱스 시스템 및 이를 이용한 제어 방법
KR101584915B1 (ko) * 2014-09-24 2016-01-12 한국오므론전장주식회사 이중 모드 침입 검출을 이용한 침입 감지 시스템 및 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11198763A (ja) * 1998-01-09 1999-07-27 Denso Corp 車両用盗難防止装置
JP2007320340A (ja) * 2006-05-30 2007-12-13 Honda Motor Co Ltd 車両用灯体
KR20100064628A (ko) * 2008-12-05 2010-06-15 엘지전자 주식회사 텔레매틱스 시스템 및 이를 이용한 제어 방법
KR101584915B1 (ko) * 2014-09-24 2016-01-12 한국오므론전장주식회사 이중 모드 침입 검출을 이용한 침입 감지 시스템 및 방법

Similar Documents

Publication Publication Date Title
US11358525B2 (en) Methods and systems for providing alerts to a connected vehicle driver and/or a passenger via condition detection and wireless communications
US11231905B2 (en) Vehicle with external audio speaker and microphone
US9824582B2 (en) Methods and systems for providing alerts to a driver of a vehicle via condition detection and wireless communications
CN110027550A (zh) 用于远程停车辅助的移动装置网络共享
US10525873B2 (en) Turn by turn activation of turn signals
JP2021061057A (ja) ロボット、制御方法及びプログラム
US20150206439A1 (en) Ground vehicle warning to indicate presence of an obstacle near an aircraft
CN108791056A (zh) 车门控制方法、装置及存储介质
JP2013041489A (ja) 車載カメラ制御装置、車載カメラ制御システム及び車載カメラシステム
US20150206438A1 (en) Aircraft tow obstacle alerting and indication & method for recording and notification of parked aircraft damage
JP2012242993A (ja) 移動体監視装置及び移動体の監視方法
WO2024034241A1 (ja) 監視方法及び監視装置
US20230121146A1 (en) Information processing apparatus, information processing method, and computer program
JP2015219721A (ja) 動作支援システム及び物体認識装置
JP7397575B2 (ja) 信号機制御装置及び信号機制御方法
JP7327963B2 (ja) 処理装置、撮影装置及び情報処理装置
KR101642197B1 (ko) 레이더 센서를 이용한 자전거용 블랙박스
CN110807896A (zh) 安全监护方法、装置及系统
JP2020161938A (ja) 処理装置、サーバ装置、路側機、電子機器及び車両
JP7224958B2 (ja) 通知装置及び通知方法
JP7332303B2 (ja) 撮像装置、制御プログラム及び撮像装置の動作方法
WO2023240402A1 (zh) 一种呼救方法、装置、设备及存储介质
US20220351529A1 (en) System and method to detect driver intent and employ safe driving actions
US20230188836A1 (en) Computer vision system used in vehicles
US20230326345A1 (en) Traffic safety support system

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23852225

Country of ref document: EP

Kind code of ref document: A1