WO2025150514A1 - 情報処理装置、情報処理システム、情報処理方法及び記録媒体 - Google Patents
情報処理装置、情報処理システム、情報処理方法及び記録媒体Info
- Publication number
- WO2025150514A1 WO2025150514A1 PCT/JP2025/000369 JP2025000369W WO2025150514A1 WO 2025150514 A1 WO2025150514 A1 WO 2025150514A1 JP 2025000369 W JP2025000369 W JP 2025000369W WO 2025150514 A1 WO2025150514 A1 WO 2025150514A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- person
- information
- detected
- suspicious
- sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B15/00—Identifying, scaring or incapacitating burglars, thieves or intruders, e.g. by explosives
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B25/00—Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
- G08B25/01—Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium
- G08B25/04—Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium using a single signalling line, e.g. in a closed loop
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B25/00—Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
- G08B25/01—Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium
- G08B25/08—Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium using communication transmission lines
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
Definitions
- the present invention relates to an information processing device, an information processing system, an information processing method, and a recording medium.
- the security system described in Patent Document 1 includes an on-board monitoring device, security cameras, and a monitoring server mounted on a vehicle, and detects suspicious people in and around the monitored home. If the vehicle is a delivery truck, it constantly captures and monitors the surroundings while delivering packages, and captures and monitors the surroundings when traveling within a specified range from the home. If the on-board monitoring device determines that a person captured in an image by the on-board camera is suspicious and that the person is not at home during the at-home determination process, it notifies the monitoring server of the suspicious person detection information. On receiving this notification, the monitoring server transmits the suspicious person detection information to the security guard mobile terminal and the owner mobile terminal.
- the information used to determine whether a person is at home as described in Patent Document 1 includes information about the home's power usage, information about the home's security status, and information about the home's absence history.
- Information about power usage is held by the business that supplies power to the home.
- Information about the security status is held by the business that provides security services to the home.
- Information about the absence history is held by the delivery company that delivers packages to the home.
- One of the objectives of this disclosure is to improve safety in homes.
- the information processing device includes: a suspicious person determination means for determining whether a person detected using sensor information obtained from a sensor monitoring the premises of the house is a suspicious person using presence information indicating whether a resident of the house is at home;
- the system further includes a notification control means for causing a notification section to issue a notification to at least one of the person determined to be a suspicious person and the resident when the detected person is determined to be a suspicious person.
- the information processing system includes: A sensor that monitors the residential area; an analysis means for detecting a person present on the premises using sensor information generated by the sensor; a suspicious person determination means for determining whether the detected person is a suspicious person by using presence information indicating whether a resident of the house is at home; The system further includes a notification control means for causing a notification section to issue a notification to at least one of the person determined to be a suspicious person and the resident when the detected person is determined to be a suspicious person.
- the information processing method includes: One or more computers determining whether a person detected using sensor information obtained from a sensor monitoring the premises of the house is a suspicious person using presence information indicating whether a resident of the house is at home; When the detected person is determined to be the suspicious person, a notification unit is caused to issue a notification to at least one of the person determined to be the suspicious person and the resident.
- the recording medium in the present disclosure is On one or more computers, determining whether a person detected using sensor information obtained from a sensor monitoring the premises of the house is a suspicious person using presence information indicating whether a resident of the house is at home; A program is recorded to cause the alarm unit to issue an alarm to at least one of the person determined to be a suspicious person and the resident when the detected person is determined to be a suspicious person.
- This disclosure makes it possible to improve safety in homes.
- FIG. 1 is a block diagram showing a configuration example of a first information processing system according to the present disclosure.
- 1 is a block diagram showing a configuration example of a first information processing device according to the present disclosure.
- 11 is a flowchart illustrating an example of a processing operation of the first information processing device according to the present disclosure.
- 1 is a block diagram showing an example of a device configuration of a first information processing system according to the present disclosure.
- 1 is a block diagram showing a configuration example of a first analysis device according to the present disclosure.
- FIG. 2 is a diagram illustrating an example of a processing operation of a first information processing system according to the present disclosure.
- FIG. 2 is a block diagram showing an example of a physical configuration of a first information processing device according to the present disclosure.
- FIG. 2 is a block diagram showing an example of a device configuration of a second information processing system according to the present disclosure.
- FIG. 2 is a block diagram showing a configuration example of a second information processing device according to the present disclosure.
- FIG. 11 is a diagram illustrating an example of a processing operation of a second information processing system according to the present disclosure.
- FIG. 13 is a block diagram showing an example of a device configuration of a third information processing system according to the present disclosure.
- FIG. 13 is a block diagram showing a configuration example of a third information processing device according to the present disclosure.
- FIG. 11 is a diagram illustrating an example of a processing operation of a third information processing system according to the present disclosure.
- the analysis device 50 includes a sensor information acquisition unit 51 and the above-mentioned analysis unit 52 .
- the residential object presence detection sensor is, for example, a sensor that detects an object that exists within a predetermined distance.
- the vehicle-mounted object presence detection sensor is, for example, a sensor that detects an object that exists within a predetermined distance from the vehicle.
- the vehicle-mounted object presence detection sensor may be, for example, a sensor installed to prevent vehicle collisions, etc.
- the analysis unit 52 generates an analysis result using one or more pieces of sensor information acquired by the sensor information acquisition unit 51.
- the analysis unit 52 transmits the generated analysis result to the information processing device 100, for example, via the communication network NT.
- the method for integrating the individual analysis results is not limited to the one described here, and general techniques may be applied.
- the analysis unit 52 has one or more image analysis functions for analyzing images such as video and still images.
- Each of the image analysis functions may extract an image feature vector and perform analysis using, for example, a machine learning model that has been trained to perform analysis according to the function.
- the machine learning model may be configured using, for example, a neural network. Note that, although an example of analyzing an image using a machine learning model will be described here, the image analysis is not limited to this, and general image processing techniques such as pattern matching may be used.
- the object detection function detects objects from an image.
- the object detection function can also determine the position of an object within an image.
- An example of a model that can be applied to object detection processing is YOLO (You Only Look Once).
- the face analysis function detects human faces from images, extracts feature vectors of the detected faces, and classifies (classifies) the detected faces.
- the face analysis function can also determine the position of the face within the image, and the direction of the face and gaze.
- the face analysis function can also determine the identity of people detected from different images based on the similarity between the facial features of people detected from different images.
- the human analysis function extracts the physical features of people in an image (for example, values that indicate overall characteristics such as whether they are fat or thin, their height, and their clothing) and classifies (classifies) people in an image.
- the human analysis function can also identify a person's position within an image.
- the human analysis function can also determine the identity of people in different images based on the physical features of the people in the different images.
- the posture analysis function detects the joint points of people in an image and creates a stick figure model by connecting the joint points. The posture analysis function then uses the information from the stick figure model to estimate the posture of the person, extracts a feature vector of the estimated posture (posture feature vector), and classifies (classifies) the people contained in the image. The posture analysis function can also determine the identity of people contained in different images based on the posture feature vectors of the people contained in different images.
- the posture analysis function estimates a person's posture, such as standing, squatting, or crouching, from an image and extracts a posture feature vector that indicates the posture of each person.
- the posture analysis function can estimate the posture of an object detected using an object detection function or the like from an image and extract a posture feature vector that indicates that posture.
- the behavior analysis process can estimate a person's movements using information about the stick figure model, changes in posture, etc., extract feature vectors of the person's movements (motion feature vectors), and classify (classify) people contained in the image.
- the behavior analysis process can also estimate a person's height and identify the person's position within the image using information about the stick figure model.
- the behavior analysis process can estimate, for example, a person's behavior, such as changes or transitions in posture, movement (changes or transitions in position), etc., from the image, and extract motion feature vectors related to the person's behavior.
- the appearance attribute analysis function can recognize appearance attributes associated with a person.
- the appearance attribute analysis function extracts feature vectors (appearance attribute feature vectors) related to the recognized appearance attributes and classifies (classifies) people included in the image.
- Appearance attributes are attributes related to a person's appearance. Appearance attributes include, for example, one or more of age group, gender, type and color of clothing, type and color of shoes, hairstyle, whether or not a hat is worn, whether or not a tie is worn, whether or not glasses are worn, whether or not an umbrella is carried, and whether or not an umbrella is being used.
- the gradient feature analysis function extracts gradient features in an image. For example, techniques such as SIFT, SURF, RIFF, ORB, BRISK, CARD, and HOG can be applied to the gradient feature detection process.
- techniques such as SIFT, SURF, RIFF, ORB, BRISK, CARD, and HOG can be applied to the gradient feature detection process.
- the color feature analysis function can detect objects from an image, extract color feature vectors of the detected objects, and classify (classify) the detected objects.
- the color feature amount is, for example, a color histogram.
- the color feature analysis function can, for example, detect people and objects contained in an image. Also, for example, the color feature analysis function can classify each of the people and objects into classes.
- the elements belonging to the moving speed are, for example, at least one of stopping, a low speed below a predetermined speed, etc.
- Elements of behavior include, for example, at least one of the following: a crouching or half-squatting posture, a face or gaze directed toward a residence, within the premises, or indoors, not pressing the intercom, and no contact with residents.
- the elements that belong to the movement route are, for example, at least one of the trajectory of movement, etc.
- the element related to the time period during which a person was detected is, for example, at least one of nighttime, early morning, daytime, etc.
- Nighttime is, for example, 10:00 PM to 12:00 PM and 12:00 PM to 3:00 AM.
- Early morning is, for example, 3:00 AM to 5:00 AM.
- Daytime is, for example, a time period when residents are often not at home (for example, 10:00 AM to 3:00 PM). Note that examples related to time periods are not limited to those given here.
- the element related to the person's attributes is, for example, at least one of the following: the person's height is equal to or greater than a predetermined value, the person is of a predetermined gender, either male or female, the person rides a motorbike or bicycle, etc.
- the element related to the situation around the person is, for example, at least one of the following: the brightness of the premises is dark and below a threshold value, the weather is cloudy or rainy, etc.
- Wandering may be defined, for example, as moving slowly for a predetermined period of time or more, moving slowly a predetermined number of times or more, moving slowly a predetermined number of times or more within a predetermined period of time, etc.
- Wandering may also be defined, for example, as approaching a residence more frequently than a predetermined number of times without contacting the occupants or without pressing the intercom.
- Suspicious movement may be defined as, for example, movement from a gate to the front door along a route that is not the shortest route from the gate to the front door.
- the threshold value according to the presence-at-home status may be determined in advance.
- the suspicious person determination unit 130 may use the presence-at-home information to determine the threshold value according to the presence-at-home status indicated by the presence-at-home information.
- the threshold value according to the presence-at-home status may be set to a value that is smaller when no resident is present at the home than when at least one resident is present at the home. This makes it possible to relax the conditions for detecting suspicious individuals when no resident is present at the home. Therefore, it is possible to appropriately detect suspicious individuals by utilizing the characteristic of suspicious individuals that they generally tend to appear when the resident is absent.
- the threshold value according to the at-home status may be set to be lower when only elderly people or children are present in the home than when other residents are present in the home. This makes it possible to relax the conditions for detecting suspicious individuals when residents other than elderly people and children are absent from the home. Therefore, it is possible to appropriately detect suspicious individuals by utilizing the characteristic of suspicious individuals that they tend to appear at times when only elderly people or children are present in the home.
- Notification control unit 140 As described above, when a detected person is determined to be a suspicious person, the notification control unit 140 causes the notification unit to issue a notification to at least one of the person determined to be a suspicious person and the resident.
- the notification control unit 140 may turn on or flash at least one of these lights, or sound a horn, buzzer, or the like. This can alert and scare off anyone determined to be suspicious that they have been detected, reducing the possibility of danger to the home.
- the notification control unit 140 may, for example, send information indicating that a suspicious person has been detected to a mobile device, causing the mobile device to display or ring. This allows the resident to know that a suspicious person has been detected and to take measures to reduce the possibility of danger to the house.
- Memory 1030 is a main storage device realized by a RAM (Random Access Memory) or the like.
- Storage device 1040 is an auxiliary storage device realized by a hard disk drive (HDD), a solid state drive (SSD), a memory card, or a read only memory (ROM).
- Storage device 1040 stores program modules for realizing the functions of the device that includes it.
- Processor 1020 loads each of these program modules into memory 1030 and executes them to realize the function corresponding to that program module.
- the output interface 1070 is an interface for presenting information to the user.
- the output interface 1070 is composed of, for example, a liquid crystal panel, an organic EL (Electro-Luminescence) panel, etc.
- the analysis device 50 may be physically configured in the same manner as the information processing device 100, for example.
- the functions of the analysis device 50 and the information processing device 100 as a whole are not limited to the above examples, and may be provided in one or more devices.
- the information processing device 100 may have the functions of the analysis device 50 and be physically integrated with the analysis device 50.
- the information processing device 100 includes the suspicious person determination unit 130 and the notification control unit 140 .
- the notification control unit 140 causes the notification unit to issue a notification to at least one of the person determined to be a suspicious person and the resident.
- the information processing system may include multiple analysis devices.
- each of the multiple analysis devices may be associated with a sensor group consisting of one or multiple sensors 10.
- each analysis device may analyze sensor information generated by one or multiple sensors 10 constituting the sensor group, and may integrate these individual analysis results as necessary.
- the suspicious person determination unit 130 may generate an analysis result by integrating the individual analysis results generated by each of the multiple analysis devices or the integrated individual analysis results.
- the information processing system S2 includes a sensor 10 and an analysis device 50 similar to those in the first embodiment, and an information processing device 200, as shown in FIG. 8, for example.
- the information processing device 200 includes a suspicious person determination unit 130 and a notification control unit 140 similar to those in the first embodiment, and a presence-at-home information generation unit 250, as shown in FIG. 9, for example.
- the presence-at-home information generating unit 250 generates presence-at-home information using at least one of the resident's location information and sensor information.
- the information processing system S2 executes information processing as shown in FIG. 10, for example.
- Steps S10, S51, and S52 are executed in the same manner as in embodiment 1.
- Steps S130 and S140 are executed in the same manner as in embodiment 1.
- the history information of a person detected using sensor information is information indicating the history of detection of that person using sensor information, and is, for example, a history of analysis results including the results of person detection.
- This sensor information may be, for example, sensor information generated by a camera installed outside a house, i.e., it may include an image.
- the sensor information may include images generated by a camera.
- the presence information may be generated using historical information of the resident detected using the images.
- the presence-of-presence information generating unit 250 may also generate presence-of-presence information using both the resident's location information and the history information of the person detected using the sensor information.
- the presence-of-presence information generating unit 350 generates presence-of-presence information using historical information of the resident detected using the image. That is, the sensor information includes an image, and the presence-of-presence information is generated using historical information of the resident detected using the image (step S350).
- Step S140 is executed in the same manner as in embodiment 1.
- Different first threshold values may be used for residents and for visitors who are not residents.
- the first threshold value for residents may be greater than the first threshold value for visitors, for example.
- the non-suspicious person identification unit 360 can distinguish and identify whether or not a non-suspicious person is a resident.
- delivery personnel may wear the same type of clothing (for example, uniforms).
- delivery personnel may use the same type of vehicle to make deliveries. Therefore, a person wearing the same type of clothing or a person arriving in the same type of vehicle who is detected more frequently than the second threshold can be identified as a non-suspicious person, such as a delivery personnel, who is unlikely to be suspicious.
- the sensor information for identifying non-suspicious individuals is not limited to sensor information including images.
- sensor 10 is an object presence detection sensor that detects the presence or absence of an object in this path
- the sensor information generated by the object presence detection sensor may be used to identify non-suspicious individuals.
- the non-suspicious person identification unit 360 may also identify non-suspicious people using history information of people detected using multiple types of sensor information.
- the sensor information may include images
- the non-suspicious person may include the resident.
- Presence information may be generated using historical information of the resident detected using the images for the resident identified as a non-suspicious person.
- the suspicious person determination unit 330 uses the presence information to determine whether or not a person, excluding non-suspicious persons identified by the non-suspicious person identification unit 360 from among the detected persons, is a suspicious person.
- the suspicious person determination unit 330 may determine that a non-resident, non-suspicious person is a suspicious person.
- the sensor 10 that detects this passage may be a camera, an object presence detection sensor, a LiDAR sensor, etc.
- the information processing device 300 further includes the non-suspicious individual identifying unit 360 that identifies a non-suspicious individual by using history information of a person detected by using sensor information.
- the information processing device according to 2., wherein the presence-at-home information is generated using the history information of the resident detected using the image. 7. 3. The information processing device according to Item 3, wherein the suspicious person determination means determines whether or not a person remaining after excluding the non-suspicious persons from among the detected persons is a suspicious person using the presence-at-home information. 8.
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- Emergency Management (AREA)
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Alarm Systems (AREA)
Abstract
情報処理装置は、不審者判定部と、報知制御部とを備える。不審者判定部は、住宅の敷地を監視するセンサから得られたセンサ情報を用いて検知された人物が不審者であるか否かを、住宅における居住者の在宅状況を示す在宅情報を用いて判定する。報知制御部は、検知された人物が不審者であると判定された場合に、当該不審者であると判定された人物と居住者との少なくとも一方に対する報知を報知部に行わせる。
Description
本発明は、情報処理装置、情報処理システム、情報処理方法及び記録媒体に関する。
例えば特許文献1に記載の防犯システムは、車両に搭載された車載監視装置、防犯カメラ及び監視サーバを備え、監視対象の家及びその周囲において不審者検出を行う。車両が配送業者のトラックである場合、荷物を配送中に常時周囲を撮影し監視を行い、家から所定の範囲を走行している場合に、周囲を撮影し監視を行う。車載監視装置は、車載カメラが撮影した画像に映っている人物が不審者であり在宅判断処理で不在であると判断すると、不審者検出情報を監視サーバに通知する。監視サーバは、その通知を受けると、警備員携帯端末や所有者携帯端末へ不審者検出情報を送信する。
特許文献1に記載の在宅判断に用いられる情報は、住宅の電力使用量に関する情報、住宅の警戒状態に関する情報、住宅の不在履歴に関する情報である。電力使用量に関する情報は、住宅へ電力を供給する事業者が有する。警戒状態に関する情報は、住宅に対してセキュリティサービスを提供する事業者が有する。不在履歴に関する情報は、住宅への荷物を配送する配送業者が有する。
しかしながら、一般的に、不審者が出現する可能性は、住宅における在宅状況に関連している。特許文献1に記載の技術では、不審者検出情報を監視サーバに通知するか否かを判断するために、在宅判断処理の結果が用いられている。そのため、不審者を適切に検出できず、住宅における安全性を脅かすおそれがある。
本開示の課題の1つは、住宅における安全性を向上させることにある。
本開示における情報処理装置は、
住宅の敷地を監視するセンサから得られたセンサ情報を用いて検知された人物が不審者であるか否かを、前記住宅における居住者の在宅状況を示す在宅情報を用いて判定する不審者判定手段と、
前記検知された人物が前記不審者であると判定された場合に、当該不審者であると判定された人物と前記居住者との少なくとも一方に対する報知を報知部に行わせる報知制御手段とを備える。
住宅の敷地を監視するセンサから得られたセンサ情報を用いて検知された人物が不審者であるか否かを、前記住宅における居住者の在宅状況を示す在宅情報を用いて判定する不審者判定手段と、
前記検知された人物が前記不審者であると判定された場合に、当該不審者であると判定された人物と前記居住者との少なくとも一方に対する報知を報知部に行わせる報知制御手段とを備える。
本開示における情報処理システムは、
住宅の敷地を監視するセンサと、
前記センサで生成されたセンサ情報を用いて、前記敷地に存在する人物を検知する解析手段と、
前記検知された人物が不審者であるか否かを、前記住宅における居住者の在宅状況を示す在宅情報を用いて判定する不審者判定手段と、
前記検知された人物が前記不審者であると判定された場合に、当該不審者であると判定された人物と前記居住者との少なくとも一方に対する報知を報知部に行わせる報知制御手段とを備える。
住宅の敷地を監視するセンサと、
前記センサで生成されたセンサ情報を用いて、前記敷地に存在する人物を検知する解析手段と、
前記検知された人物が不審者であるか否かを、前記住宅における居住者の在宅状況を示す在宅情報を用いて判定する不審者判定手段と、
前記検知された人物が前記不審者であると判定された場合に、当該不審者であると判定された人物と前記居住者との少なくとも一方に対する報知を報知部に行わせる報知制御手段とを備える。
本開示における情報処理方法は、
1つ以上のコンピュータが、
住宅の敷地を監視するセンサから得られたセンサ情報を用いて検知された人物が不審者であるか否かを、前記住宅における居住者の在宅状況を示す在宅情報を用いて判定し、
前記検知された人物が前記不審者であると判定された場合に、当該不審者であると判定された人物と前記居住者との少なくとも一方に対する報知を報知部に行わせる。
1つ以上のコンピュータが、
住宅の敷地を監視するセンサから得られたセンサ情報を用いて検知された人物が不審者であるか否かを、前記住宅における居住者の在宅状況を示す在宅情報を用いて判定し、
前記検知された人物が前記不審者であると判定された場合に、当該不審者であると判定された人物と前記居住者との少なくとも一方に対する報知を報知部に行わせる。
本開示における記録媒体は、
1つ以上のコンピュータに、
住宅の敷地を監視するセンサから得られたセンサ情報を用いて検知された人物が不審者であるか否かを、前記住宅における居住者の在宅状況を示す在宅情報を用いて判定し、
前記検知された人物が前記不審者であると判定された場合に、当該不審者であると判定された人物と前記居住者との少なくとも一方に対する報知を報知部に行わせることを実行させるためのプログラムが記録されている。
1つ以上のコンピュータに、
住宅の敷地を監視するセンサから得られたセンサ情報を用いて検知された人物が不審者であるか否かを、前記住宅における居住者の在宅状況を示す在宅情報を用いて判定し、
前記検知された人物が前記不審者であると判定された場合に、当該不審者であると判定された人物と前記居住者との少なくとも一方に対する報知を報知部に行わせることを実行させるためのプログラムが記録されている。
本開示によれば、住宅における安全性を向上させることが可能になる。
以下、本開示に係る実施形態について、図面を参照して説明する。すべての図面において、同様な構成要素には同様の符号を付し、適宜説明を省略する。また、本開示において図面は、1以上の実施形態に関連付けられる。
[実施形態1]
(概要)
例えば、特許文献2(実用新案登録第3174605号公報)には、複数の動き検知センサと、装置本体と、報知部とを備えるセキュリティ装置が記載されている。
(概要)
例えば、特許文献2(実用新案登録第3174605号公報)には、複数の動き検知センサと、装置本体と、報知部とを備えるセキュリティ装置が記載されている。
特許文献2に記載の複数の動き検知センサは、センサ信号を送出する。
特許文献2に記載の装置本体は、信号受信回路、検知順序認識回路、検知時間計測回路及び不審者判定回路を有する。信号受信回路は、動き検知センサとそれぞれ接続され、センサ信号を最初に送信した動き検知センサを特定して受信する。検知順序認識回路は、複数の動き検知センサの検知順序を時系列に沿って認識する。検知時間計測回路は、動き検知センサの検知時間を計測する。不審者判定回路は、検知順序等に基づいて不審者の動きによるものか否かを判定する。
特許文献2に記載の報知部は、装置本体と接続され、不審者判定回路によって不審者の動きと判定された場合に不審者の存在を報知する。
特許文献2に記載のセキュリティ装置においても、特許文献1に記載の防犯システムと同様に、不審者が出現する可能性は、住宅における在宅状況に関連している点を考慮していない。そのため、不審者を適切に検出できず、住宅における安全性を脅かすおそれがある。
(情報処理システムS1の構成例)
情報処理システムS1は、図1に示すように、センサ10と、解析部52と、不審者判定部130と、報知制御部140とを備える。
情報処理システムS1は、図1に示すように、センサ10と、解析部52と、不審者判定部130と、報知制御部140とを備える。
センサ10は、住宅の敷地を監視する。
解析部52は、センサ10で生成されたセンサ情報を用いて、敷地に存在する人物を検出する。
不審者判定部130は、検知された人物が不審者であるか否かを、住宅における居住者の在宅状況を示す在宅情報を用いて判定する。
報知制御部140は、検知された人物が不審者であると判定された場合に、当該不審者であると判定された人物と居住者との少なくとも一方に対する報知を報知部に行わせる。
この情報処理システムS1によれば、一般的に住宅における居住者の在宅状況に関連して出現する不審者の可能性に応じて、不審者を適切に検出することができる。従って、住宅における安全性を向上させることが可能になる。
(情報処理装置100の構成例)
情報処理装置100は、図2に示すように、不審者判定部130と、報知制御部140とを備える。
情報処理装置100は、図2に示すように、不審者判定部130と、報知制御部140とを備える。
不審者判定部130は、住宅の敷地を監視するセンサ10から得られたセンサ情報を用いて検知された人物が不審者であるか否かを、住宅における居住者の在宅状況を示す在宅情報を用いて判定する。
報知制御部140は、検知された人物が不審者であると判定された場合に、当該不審者であると判定された人物と居住者との少なくとも一方に対する報知を報知部に行わせる。
この情報処理装置100によれば、一般的に住宅における居住者の在宅状況に関連して出現する不審者の可能性に応じて、不審者を適切に検出することができる。従って、住宅における安全性を向上させることが可能になる。
(情報処理装置100の処理動作例)
情報処理装置100は、図3に示すような情報処理を実行する。
情報処理装置100は、図3に示すような情報処理を実行する。
不審者判定部130は、住宅の敷地を監視するセンサ10から得られたセンサ情報を用いて検知された人物が不審者であるか否かを、住宅における居住者の在宅状況を示す在宅情報を用いて判定する(ステップS130)。
報知制御部140は、検知された人物が不審者であると判定された場合に、当該不審者であると判定された人物と居住者との少なくとも一方に対する報知を報知部に行わせる(ステップS140)。
この情報処理によれば、一般的に住宅における居住者の在宅状況に関連して出現する不審者の可能性に応じて、不審者を適切に検出することができる。従って、住宅における安全性を向上させることが可能になる。
(情報処理システムS1の装置構成例)
情報処理システムS1は、例えば図4に示すように、上述のセンサ10と、解析装置50と、上述の情報処理装置100とを備える。
情報処理システムS1は、例えば図4に示すように、上述のセンサ10と、解析装置50と、上述の情報処理装置100とを備える。
センサ10と解析装置50と情報処理装置100とは、例えば有線、無線、又はこれらを組み合わせて構成される通信ネットワークNTを介して互いに接続され、通信ネットワークNTを介して各種情報を互いに送受信する。
なお、センサ10及び解析装置50と、解析装置50と情報処理装置100とは、異なる通信ネットワークを介して接続されてもよい。
(解析装置50の構成例)
解析装置50は、図5に示すように、センサ情報取得部51と、上述の解析部52を備える。
解析装置50は、図5に示すように、センサ情報取得部51と、上述の解析部52を備える。
センサ情報取得部51は、住宅の敷地を監視するセンサ10からセンサ情報を取得する。
(情報処理システムS1の処理動作例)
情報処理システムS1は、例えば図6に示すような情報処理を実行する。
情報処理システムS1は、例えば図6に示すような情報処理を実行する。
センサ10は、住宅の敷地を監視して、センサ情報を生成する(ステップS10)。
センサ情報取得部51は、住宅の敷地を監視するセンサ10からセンサ情報を取得する(ステップS51)。
解析部52は、センサ情報を用いて、敷地に存在する人物を検出する(ステップS52)。
ステップS130及びS140が実行される。
(センサ10について)
センサ10は、住宅の周囲、すなわち住宅の敷地、を監視するためのセンサである。センサ10は、1つであってもよく、複数であってもよい。センサ10は、例えば、住宅に関連付けて設置される住宅センサと、敷地に駐車した自動車に搭載された車載センサとの少なくとも1つを含むとよい。
センサ10は、住宅の周囲、すなわち住宅の敷地、を監視するためのセンサである。センサ10は、1つであってもよく、複数であってもよい。センサ10は、例えば、住宅に関連付けて設置される住宅センサと、敷地に駐車した自動車に搭載された車載センサとの少なくとも1つを含むとよい。
すなわち、センサ10は、住宅に関連付けて設置される1つ以上の住宅センサのみを含んでもよい。センサ10は、敷地に駐車した自動車に搭載された1つ以上の車載センサのみを含んでもよい。センサ10は、複数であり、住宅に関連付けて設置される1つ以上の住宅センサと、敷地に駐車した自動車に搭載された1つ以上の車載センサとを含んでもよい。
住宅センサは、例えば、敷地に設置されるカメラ、住宅用の物体存否検知センサ等の少なくとも1つを含むとよい。車載センサは、例えば、車載カメラ、車載LiDAR(Light Detection And Ranging)センサ、車載の物体存否検知センサ等の少なくとも1つを含むとよい。
敷地に設置されるカメラは、例えば、門扉、玄関、塀、壁、敷地に設けられたポール等に設置されるとよい。敷地に設置されるカメラは、住宅内に設置されるカメラを含んでもよい。敷地に設置されるカメラは、その設置場所に応じた所定の撮影領域を撮影し、撮影した画像を含むセンサ情報を生成するとよい。
車載カメラは、例えば、自動車の車外又は車内を撮影するために自動車に搭載されるとよい。車載カメラは、例えば、自動車の車外又は車内における所定の撮影領域を撮影し、撮影した画像を含むセンサ情報を生成するとよい。
車載LiDARセンサは、自動車に搭載されるLiDARセンサである。LiDARセンサは、LiDARに用いられるセンサである。LiDARは、レーザ光を照射して、その反射光を用いて物体までの距離、対象の形状等を計測する技術である。車載LiDARセンサは、例えば、レーザ光を照射するレーザ照射器、その反射光を受信する光受信器等を含とよい。車載LiDARセンサは、例えば、自動車の車外における所定の領域にレーザを照射し、その反射光を示すセンサ情報を生成するとよい。
センサ10は、敷地に設置されるLiDARセンサを含んでもよい。
住宅用の物体存否検知センサは、例えば、所定距離内に存在する物体を検知するセンサである。車載の物体存否検知センサは、例えば、自動車から所定距離内に存在する物体を検知するセンサである。車載の物体存否検知センサは、例えば、自動車の衝突防止等のために搭載されるセンサであってもよい。
物体存否検知センサは、例えば、音波、電磁波等を照射し、その反射波を示すセンサ情報を生成する。物体存否検知センサが用いる音波、電磁波等は、超音波センサ、赤外線センサ、ミリ波センサの少なくとも1つを含むとよい。物体存否検知センサは、例えば、音波、電磁波等を発振する発振器、その反射波を受信する受信器等を含むとよい。
(センサ情報取得部51について)
センサ情報取得部51は、例えば、1つ又は複数のセンサ10の各々で生成されたセンサ情報を取得する。センサ情報取得部51は、例えば通信ネットワークNTを介して、センサ情報を取得する。
センサ情報取得部51は、例えば、1つ又は複数のセンサ10の各々で生成されたセンサ情報を取得する。センサ情報取得部51は、例えば通信ネットワークNTを介して、センサ情報を取得する。
(解析部52について)
解析部52は、1つ又は複数のセンサ10の各々で生成された1つ又は複数のセンサ情報の解析処理を行うための解析機能を備える。
解析部52は、1つ又は複数のセンサ10の各々で生成された1つ又は複数のセンサ情報の解析処理を行うための解析機能を備える。
例えば、解析部52は、センサ情報取得部51が取得した1つ又は複数のセンサ情報を用いて解析結果を生成する。解析部52は、生成した解析結果を、例えば通信ネットワークNTを介して情報処理装置100へ送信する。
解析部52は、その解析機能を用いて、住宅の敷地に存在する物体を検知し、その物体に関する解析結果を生成する。
物体は、人及び物を含む。物は、例えば自動車であるが、これに限られず、例えば自転車等を含んでもよい。
解析結果は、例えば、物体が検知された時刻、物体の位置、物体の移動速度、物体の移動経路、物体の姿勢、物体の属性等の1つ以上を含むとよい。
移動体の属性は、例えば、人及び自動車等の物の移動体の種類を含んでもよい。移動体が人である場合、移動体の属性は、例えば、身長、体格、服装、性別、年齢層等の1つ以上を含んでもよい。移動体が自動車である場合、移動体の属性は、例えば、車種、サイズ、色等の1つ以上を含んでもよい。
このような解析結果を生成するための機能の詳細例を以下に説明する。なお、解析結果に含まれる情報は、上述の例に限られない。
解析部52は、例えば、センサ情報の種類に応じた解析機能を備えるとよい。センサ情報の種類は、例えば、上述のカメラ、LiDARセンサ、物体存否検知センサ等のセンサの種類に対応する。
詳細には例えば、解析部52は、1つ又は複数のセンサ10の各々で生成されたセンサ情報を、その種類に応じた解析機能を用いて当該センサ情報を解析するとよい。そして、解析部52は、センサ情報が複数の場合、各センサ情報の解析結果(個別解析結果)を統合して、複数のセンサ情報の全体を解析した解析結果(全体的な解析結果)を生成するとよい。単に「解析結果」と称する場合、全体的な解析結果を意味する。
個別解析結果の統合では、例えば、各センサ情報から検知された物体(すなわち、個別解析結果に含まれる物体)を個別の物体として扱って、それらをまとめることで解析結果を生成してもよい。また例えば、個別解析結果の統合では、個別解析結果に含まれる物体が所定距離内である場合、そのような近傍の物体を1つの物体として扱って、解析結果を生成してもよい。この場合の近傍の物体の位置、検出された時刻等は、例えば、個別解析結果に含まれる位置、時刻等の平均であってもよく、個別解析結果に含まれる位置、時刻等のいずれか1つ等であってもよい。
なお、個別解析結果を統合する方法は、ここで説明したものに限られず、一般的な技術が適用されてよい。
一般的に、個別解析結果の精度は、センサ10の周囲の明るさ等の環境によって変化することがある。そのため、個別解析結果を統合することで、より精度の良い解析結果を得ることができる。
以下、センサ情報の種類ごとの個別解析結果を生成する方法の例を説明する。
(カメラで生成されるセンサ情報の個別解析結果を生成する方法の例)
例えば、解析部52は、映像、静止画像等の画像を解析するための1つ又は複数の画像解析機能を備える。画像解析機能の各々は、例えば、その機能に応じた解析を行うための学習をした機械学習モデルを用いて、画像特徴ベクトルを抽出して解析を行うとよい。機械学習モデルは、例えば、ニューラルネットワークを用いて構成されるとよい。なお、ここでは機械学習モデルを用いて画像の解析を行う例を説明するが、画像の解析では、これに限らず、パターンマッチング等の一般的な画像処理技術が用いられてよい。
例えば、解析部52は、映像、静止画像等の画像を解析するための1つ又は複数の画像解析機能を備える。画像解析機能の各々は、例えば、その機能に応じた解析を行うための学習をした機械学習モデルを用いて、画像特徴ベクトルを抽出して解析を行うとよい。機械学習モデルは、例えば、ニューラルネットワークを用いて構成されるとよい。なお、ここでは機械学習モデルを用いて画像の解析を行う例を説明するが、画像の解析では、これに限らず、パターンマッチング等の一般的な画像処理技術が用いられてよい。
解析部52が備える画像解析機能は、例えば、(1)物体検出機能、(2)顔解析機能、(3)人型解析機能、(4)姿勢解析機能、(5)行動解析機能、(6)外観属性解析機能、(7)勾配特徴解析機能、(8)色特徴解析機能、(9)動線解析機能などの1つ又は複数である。
(1)物体検出機能は、画像から物体を検出する。物体検出機能は、画像内の物体の位置を求めることもできる。物体検出処理に適用されるモデルとして、例えば、YOLO(You Only Look Once)がある。
(2)顔解析機能は、画像から人の顔を検出し、検出した顔の特徴ベクトル(顔特徴ベクトル)の抽出、検出した顔の分類(クラス分け)等を行う。顔解析機能は、顔の画像内の位置、顔や視線の方向を求めることもできる。顔解析機能は、異なる画像から検出した人物の顔特徴量同士の類似度などに基づいて、異なる画像から検出した人物の同一性を判定することもできる。
(3)人型解析機能は、画像に含まれる人の人体的特徴量(例えば、体形の肥痩や、身長、服装などの全体的な特徴を示す値)の抽出、画像に含まれる人の分類(クラス分け)などを行う。人型解析機能は、人の画像内の位置を特定することもできる。人型解析機能は、異なる画像に含まれる人の人体的特徴量などに基づいて、異なる画像に含まれる人の同一性を判定することもできる。
(4)姿勢解析機能は、画像から人の関節点を検出し、関節点を繋げた棒人間モデルを作成する。そして、姿勢解析機能は、棒人間モデルの情報を用いて、人の姿勢を推定し、推定した姿勢の特徴ベクトル(姿勢特徴ベクトル)の抽出、画像に含まれる人の分類(クラス分け)等を行う。姿勢解析機能は、異なる画像に含まれる人の姿勢特徴ベクトル等に基づいて、異なる画像に含まれる人の同一性を判定することもできる。
例えば、姿勢解析機能は、人が立っている姿勢、しゃがんだ姿勢、かがんだ姿勢などの姿勢を画像から推定し、それぞれの人の姿勢を示す姿勢特徴ベクトルを抽出する。また例えば、姿勢解析機能は、物体検出機能などを用いて検出された物品の姿勢を画像から推定し、その姿勢を示す姿勢特徴ベクトルを抽出することができる。
(5)行動解析処理は、棒人間モデルの情報、姿勢の変化などを用いて、人の動きを推定し、人の動きの特徴ベクトル(動き特徴ベクトル)の抽出、画像に含まれる人の分類(クラス分け)等を行うことができる。行動解析処理では、棒人間モデルの情報を用いて、人の身長を推定したり、人の画像内の位置を特定したりすることもできる。行動解析処理は、例えば、人の姿勢の変化又は推移、移動(位置の変化又は推移)等の行動を画像から推定し、その人の行動に関する動き特徴ベクトルを抽出することができる。
(6)外観属性解析機能は、人に付随する外観属性を認識することができる。外観属性解析機能は、認識した外観属性に関する特徴ベクトル(外観属性特徴ベクトル)の抽出、画像に含まれる人の分類(クラス分け)などを行う。外観属性とは、人の外観上の属性である。外観属性は、例えば、年齢層、性別、服装のタイプや色、靴のタイプや色、髪型、帽子の着用又は非着用、ネクタイの着用又は非着用、眼鏡の着用又は非着用、傘を所持しているか否か、傘をさしているか否か等の1つ以上を含む。
(7)勾配特徴解析機能は、画像における勾配の特徴量(勾配特徴量)を抽出する。勾配特徴検出処理には、例えば、SIFT、SURF、RIFF、ORB、BRISK、CARD、HOGなどの技術を適用することができる。
SIFTは、Scale-InvariantFeature Transformの略語である。SURFは、Speeded-Up Robust Featuresの略語である。RIFFは、Rotation-Invariant Fast Featureの略語である。BRIEFは、Binary Robust Independent Elementary Featuresの略語である。ORBは、Oriented FAST and Rotated BRIEFの略語である。BRISKは、Binary Robust Invariant Scalable Keypointsの略語である。CARDは、Compact And Real-time Descriptorsの略語である。HOGは、Histograms of Oriented Gradientsの略語である。
(8)色特徴解析機能は、画像から物体を検出し、検出した物体の色の特徴ベクトル(色特徴ベクトル)の抽出、検出した物体の分類(クラス分け)等を行うことができる。
色特徴量は、例えばカラーヒストグラムなどである。色特徴解析機能は、例えば、画像に含まれる人物及び物品を検出することができる。また例えば、色特徴解析機能は、人物及び物品の各々をクラスに分類することができる。
(9)動線解析機能は、例えば上述の(2)~(6)の解析機能のいずれかにおける同一性の判定の結果を用いて、映像に含まれる人の動線(移動の軌跡)を求めることができる。詳細には例えば、時系列的に異なる画像間で同一であると判定された人を接続することで、その人の動線を求めることができる。なお、動線解析機能は、異なる撮影領域を撮影する複数の車載カメラ等で撮影した映像を取得した場合などには、異なる撮影領域を撮影した複数の映像間に跨る動線を求めることもできる。
画像特徴ベクトルは、例えば、物体検出機能での物体の検出結果、顔特徴ベクトル、人体的特徴ベクトル、姿勢特徴ベクトル、動き特徴ベクトル、外観属性特徴ベクトル、勾配特徴ベクトル、色特徴ベクトル、動線を含む。
なお、(1)~(9)の各解析機能は、他の解析機能が行った解析の結果を適宜利用してもよい。
(LiDARセンサで生成されるセンサ情報の個別解析結果を生成する方法の例)
解析部52は、LiDARセンサで生成されたセンサ情報を用いて、点群情報を生成する。点群情報を生成するための技術には、一般的な技術が用いられてよい。解析部52は、点群情報を用いて、物体の位置、形状、検知された時刻等の少なくとも1つを含む個別解析情報を生成する。
解析部52は、LiDARセンサで生成されたセンサ情報を用いて、点群情報を生成する。点群情報を生成するための技術には、一般的な技術が用いられてよい。解析部52は、点群情報を用いて、物体の位置、形状、検知された時刻等の少なくとも1つを含む個別解析情報を生成する。
(物体存否検知センサで生成されるセンサ情報の個別解析結果を生成する方法の例)
解析部52は、例えば、物体存否検知センサで生成されたセンサ情報を用いて、物体の位置、検知された時刻等の少なくとも1つを含む個別解析情報を生成するとよい。このような個別解析情報を生成するための技術には、一般的な技術が用いられてよい。
解析部52は、例えば、物体存否検知センサで生成されたセンサ情報を用いて、物体の位置、検知された時刻等の少なくとも1つを含む個別解析情報を生成するとよい。このような個別解析情報を生成するための技術には、一般的な技術が用いられてよい。
(不審者判定部130について)
不審者判定部130は、上述のように、住宅の敷地を監視するセンサ10から得られたセンサ情報を用いて検知された人物が不審者であるか否かを、住宅における居住者の在宅状況を示す在宅情報を用いて判定する。
不審者判定部130は、上述のように、住宅の敷地を監視するセンサ10から得られたセンサ情報を用いて検知された人物が不審者であるか否かを、住宅における居住者の在宅状況を示す在宅情報を用いて判定する。
例えば、不審者判定部130は、解析部52の解析結果に含まれる人物について、当該人物が不審者であるか否かを、住宅における居住者の在宅状況を示す在宅情報を用いて判定する。
在宅情報は、例えば、少なくとも1人の居住者が住宅に存在するか否かを示す情報であってもよい。在宅情報は、例えば、複数の居住者の各々が住宅に存在するか否かを示す情報であってもよい。この場合、在宅情報は、複数の居住者の各々の属性(例えば、年齢、性別等)が関連付けられてもよい。
例えば、人物が不審者であるか否かの判定には、在宅状況に関して予め定められた判定条件と在宅情報とが用いられるとよい。
判定条件は、例えば、人物が不審な程度を示す不審度と、在宅状況に応じた閾値とを対応付けた条件でよい。この場合例えば、不審者判定部130は、不審度が在宅状況に応じた閾値以上である人物を不審者であると判定するとよい。
(不審度について)
不審度は、例えば人物に関するイベントに関連付けて定められるとよい。この場合、不審者判定部130は、人物に関するイベントに関連付けて予め定められた不審度を用いて、検知された人物の不審度を決定するとよい。
不審度は、例えば人物に関するイベントに関連付けて定められるとよい。この場合、不審者判定部130は、人物に関するイベントに関連付けて予め定められた不審度を用いて、検知された人物の不審度を決定するとよい。
イベントは、1つ又は複数の要素(不審要素)から構成されるとよい。不審要素は、例えば、(A)人物の動作に関する要素、(B)人物が検知された時間帯に関する要素、(C)人物の属性に関する要素、(D)人物の周囲の状況に関する要素等の1つ以上を含むとよい。
すなわち、不審者判定部130は、例えば、検知された人物の動作、人物が検知された時間帯、検知された人物の属性、検知された人物の周囲の状況の少なくとも1つをさらに用いて、検知された人物が不審者であるか否かを判定するとよい。
(A)人物の動作に関する要素は、例えば、(A-1)移動速度、(A-2)位置、(A-3)挙動、(A-4)移動経路、(A-5)頻度等に関する1つ又は複数の要素を含んでもよい。
(A-1)移動速度に属する要素は、例えば、停止、予め定められた速度以下の低速等の少なくとも1つである。
(A-2)位置に属する要素は、例えば、基準位置から所定距離内に居ること等の少なくとも1つである。基準位置は、例えば、住宅の危険に繋がる可能性が高い場所であって、詳細には例えば門扉、窓、裏口、塀等である。
(A-3)挙動に属する要素は、例えば、しゃがみ込みや中腰等の姿勢であること、顔又は視線の方向が住宅の方、敷地内、屋内等であること、インターホンを押さないこと、住人との接触がないこと等の少なくとも1つである。
(A-4)移動経路に属する要素は、例えば、移動した軌跡等の少なくとも1つである。
(A-5)頻度に属する要素は、例えば、所定期間内における所定動作が所定以上の頻度で行われること等の少なくとも1つである。ここでの所定動作は、例えば、(A-1)~(A-4)にて例示した要素の1つ又は複数を用いて規定されてもよい。所定期間は、例えば、これに連付けられた所定動作が、一般的に不審な動作において繰り返される期間に応じて定められるとよい。
(B)人物が検知された時間帯に関する要素は、例えば、夜間、早朝、昼間等の少なくとも1つである。夜間は、例えば、午後10時~午後12時及び午後12時~午前3時等である。早朝は、例えば、午前3時~午前5時等である。昼間は、例えば、住人が住宅に居ないことが多い時間帯(例えば、午前10時~午後3時等)である。なお、時間帯に関する例は、ここで挙げたものに限られない。
(C)人物の属性に関する要素は、例えば、人物の身長が所定値以上であること、人物が男女いずれか予め定められた性別であること、バイクや自転車に乗っていること等の少なくとも1つである。
(D)人物の周囲の状況に関する要素は、例えば、敷地の明るさが閾値以下の暗い状態であること、天候が曇天や雨であること等の少なくとも1つである。
これらの不審要素を用いて、例えば以下のように、うろつき、覗き込み、不審姿勢、不審な移動等の、一般的に不審者である可能性が高い人物のイベントを定めることができる。そして、当該イベントを行う人物が不審者である可能性に応じた不審度がイベントに対応付けて定められるとよい。
うろつきは、例えば、低速で所定時間以上移動していること、低速で所定回数以上移動していること、低速で所定時間内に所定回数以上移動していること等として規定されてもよい。うろつきは、例えば、住人との接触なく或いはインターホンを押さずに所定以上の頻繁で住宅に近づいていること等として規定されてもとよい。
覗き込みは、例えば、敷地から所定の距離内で家を見ながら歩行或いは低速歩行すること、窓等から所定の距離内で住宅内へ顔を向けていること等として規定されるとよい。
不審姿勢は、例えば、しゃがみ込み、車両下へのしゃがみ込み等として規定されるとよい。
不審な移動は、例えば、門扉から玄関までの最短経路ではない経路で、門扉から玄関まで移動していること等として規定されるとよい。
(在宅状況に応じた閾値について)
在宅状況に応じた閾値は、予め定められるとよい。この場合、不審者判定部130は、在宅情報を用いて、当該在宅情報が示す在宅状況に応じた閾値を決定するとよい。
在宅状況に応じた閾値は、予め定められるとよい。この場合、不審者判定部130は、在宅情報を用いて、当該在宅情報が示す在宅状況に応じた閾値を決定するとよい。
例えば、在宅状況に応じた閾値には、居住者が住宅に存在しない場合に、少なくとも1人の居住者が住宅に存在する場合よりも小さい閾値が定められてもよい。これにより、居住者が住宅に不在である場合に、不審者を検出する条件を緩やかにすることができる。そのため、一般的に居住者が不在の時期に出現することが多いという不審者の特性を用いて、不審者を適切に検出することができる。
例えば、在宅状況に応じた閾値には、高齢者又は子供のみが住宅に存在する場合に、高齢者及び子供以外の居住者が住宅に存在する場合よりも小さい閾値が定められてもよい。これにより、高齢者及び子供以外の居住者が住宅に不在である場合に、不審者を検出する条件を緩やかにすることができる。そのため、一般的に高齢者又は子供のみが住宅に存在する時期に出現することが多いという不審者の特性を用いて、不審者を適切に検出することができる。
なお、不審度、在宅状況に応じた閾値、判定条件は、ここで挙げた例に限定されない。
(報知制御部140)
報知制御部140は、上述のように、検知された人物が不審者であると判定された場合に、当該不審者であると判定された人物と居住者との少なくとも一方に対する報知を報知部に行わせる。
報知制御部140は、上述のように、検知された人物が不審者であると判定された場合に、当該不審者であると判定された人物と居住者との少なくとも一方に対する報知を報知部に行わせる。
不審者であると判定された人物に対する報知を行う報知部は、例えば、自動車に搭載されたライト、クラクション等である。不審者であると判定された人物に対する報知を行う報知部は、例えば、敷地に設置されたライト、ブザー等である。
報知制御部140は、これらのライトの少なくとも1つを点灯、点滅させたり、クラクション、ブザー等から音を鳴らせたりするとよい。これにより、不審者であると判定された人物に対して、当該人物が検知されたことを知らせて威嚇し、住宅に危険が及ぶ可能性を低減させることができる。
居住者に対する報知を行う報知部は、例えば、居住者が利用する携帯端末等である。携帯端末は、例えば、スマートフォン、タブレット端末等である。
報知制御部140は、例えば、不審者が検出されたことを示す情報を携帯端末へ送信することで、携帯端末に表示、鳴動等をさせるとよい。これにより、不審者が検出されたこと居住者が知って、住宅に危険が及ぶ可能性を低減させるための対策を講じることができる。
(情報処理装置100の物理的な構成例)
情報処理装置100は物理的には、図7に示すように、バス1010、プロセッサ1020、メモリ1030、ストレージデバイス1040、ネットワークインタフェース1050、ユーザインタフェース1060を有する。
情報処理装置100は物理的には、図7に示すように、バス1010、プロセッサ1020、メモリ1030、ストレージデバイス1040、ネットワークインタフェース1050、ユーザインタフェース1060を有する。
バス1010は、プロセッサ1020、メモリ1030、ストレージデバイス1040、ネットワークインタフェース1050、入力インタフェース1060及び出力インタフェース1070が、相互にデータを送受信するためのデータ伝送路である。ただし、プロセッサ1020などを互いに接続する方法は、バス接続に限定されない。
プロセッサ1020は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)などで実現されるプロセッサである。
メモリ1030は、RAM(Random Access Memory)などで実現される主記憶装置である。
ストレージデバイス1040は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、メモリカード、又はROM(Read Only Memory)などで実現される補助記憶装置である。ストレージデバイス1040は、これを備える装置の機能を実現するためのプログラムモジュールを記憶している。プロセッサ1020がこれら各プログラムモジュールをメモリ1030に読み込んで実行することで、そのプログラムモジュールに対応する機能が実現される。
ネットワークインタフェース1050は、これを備える装置を通信ネットワークに接続するためのインタフェースである。
入力インタフェース1060は、ユーザが情報を入力するためのインタフェースである。入力インタフェース1060は、例えば、タッチパネル、キーボード、マウスなどから構成される。
出力インタフェース1070は、ユーザに情報を提示するためのインタフェースである。出力インタフェース1070は、例えば、液晶パネル、有機EL(Electro-Luminescence)パネルなどから構成される。
このように情報処理装置100の機能は、ソフトウェアプログラムを物理的な各構成要素が協働して実行することによって実現することができる。そのため、本発明は、ソフトウェアプログラムとして実現されてもよく、そのプログラムが記録された非一時的な記憶媒体として実現されてもよい。
解析装置50は、物理的には例えば、情報処理装置100と同様に構成されてよい。
なお、解析装置50及び情報処理装置100の全体が備える機能は、上述の例に限らず、1つ又は複数の装置に備えられればよい。例えば、情報処理装置100が、解析装置50の機能を備え、解析装置50と物理的に一体的に構成されてもよい。
(作用・効果)
以上、本実施形態によれば、情報処理装置100は、不審者判定部130と、報知制御部140とを備える。
以上、本実施形態によれば、情報処理装置100は、不審者判定部130と、報知制御部140とを備える。
不審者判定部130は、住宅の敷地を監視するセンサ10から得られたセンサ情報を用いて検知された人物が不審者であるか否かを、住宅における居住者の在宅状況を示す在宅情報を用いて判定する。
報知制御部140は、検知された人物が不審者であると判定された場合に、当該不審者であると判定された人物と居住者との少なくとも一方に対する報知を報知部に行わせる。
これにより、一般的に住宅における居住者の在宅状況に関連して出現する不審者の可能性に応じて、不審者を適切に検出することができる。従って、住宅における安全性を向上させることが可能になる。
本実施形態によれば、センサ10は、複数である。複数のセンサ10は、住宅に関連付けて設置される1つ以上の住宅センサと、敷地に駐車した自動車に搭載された1つ以上の車載センサとを含む。
これにより、センサ10が住宅センサと車載センサとのいずれか一方のみの場合よりも、、センサ10で監視する範囲を広くすることができる。従って、住宅における安全性を向上させることが可能になる。
本実施形態によれば、不審者判定部130は、検知された人物の動作、人物が検知された時間帯、検知された人物の属性、検知された人物の周囲の状況の少なくとも1つをさらに用いて、検知された人物が不審者であるか否かを判定する。
これにより、不審者を適切に検出することができる。従って、住宅における安全性を向上させることが可能になる。
(変形例1)
実施形態1では、解析装置50が1つの例を説明したが、情報処理システムは、複数の解析装置を含んでもよい。例えば、情報処理システムが複数のセンサ10を備える場合、複数の解析装置の各々は、1つ又は複数のセンサ10から構成されるセンサグループに対応付けられるとよい。この場合、各解析装置は、センサグループを構成する1つ又は複数のセンサ10で生成されたセンサ情報を解析し、必要に応じてこれらの個別解析結果を統合するとよい。不審者判定部130は、複数の解析装置の各々で生成された個別解析結果又は統合された個別解析結果を統合して、解析結果を生成してもよい。
実施形態1では、解析装置50が1つの例を説明したが、情報処理システムは、複数の解析装置を含んでもよい。例えば、情報処理システムが複数のセンサ10を備える場合、複数の解析装置の各々は、1つ又は複数のセンサ10から構成されるセンサグループに対応付けられるとよい。この場合、各解析装置は、センサグループを構成する1つ又は複数のセンサ10で生成されたセンサ情報を解析し、必要に応じてこれらの個別解析結果を統合するとよい。不審者判定部130は、複数の解析装置の各々で生成された個別解析結果又は統合された個別解析結果を統合して、解析結果を生成してもよい。
[実施形態2]
本実施形態では、在宅情報を生成する方法の例について説明する。本実施形態では、説明を簡明にするため、他の実施形態と重複する説明を適宜省略する。
本実施形態では、在宅情報を生成する方法の例について説明する。本実施形態では、説明を簡明にするため、他の実施形態と重複する説明を適宜省略する。
(情報処理システムS2の装置構成例)
情報処理システムS2は、例えば図8に示すように、実施形態1と同様のセンサ10及び解析装置50と、情報処理装置200とを備える。
情報処理システムS2は、例えば図8に示すように、実施形態1と同様のセンサ10及び解析装置50と、情報処理装置200とを備える。
(情報処理装置200の構成例)
情報処理装置200は、例えば図9に示すように、実施形態1と同様の不審者判定部130及び報知制御部140と、在宅情報生成部250とを備える。
情報処理装置200は、例えば図9に示すように、実施形態1と同様の不審者判定部130及び報知制御部140と、在宅情報生成部250とを備える。
在宅情報生成部250は、居住者の位置情報とセンサ情報との少なくとも1つを用いて、在宅情報を生成する。
(情報処理システムS2の処理動作例)
情報処理システムS2は、例えば図10に示すような情報処理を実行する。
情報処理システムS2は、例えば図10に示すような情報処理を実行する。
実施形態1と同様のステップS10,S51,S52が実行される。
在宅情報生成部250は、居住者の位置情報とセンサ情報との少なくとも1つを用いて、在宅情報を生成する(ステップS250)。
実施形態1と同様のステップS130,S140が実行される。
(在宅情報生成部250について)
在宅情報生成部250は、上述のように、居住者の位置情報とセンサ情報を用いて検知された人物の履歴情報との少なくとも1つを用いて、在宅情報を生成する。
在宅情報生成部250は、上述のように、居住者の位置情報とセンサ情報を用いて検知された人物の履歴情報との少なくとも1つを用いて、在宅情報を生成する。
居住者の位置情報は、例えば、居住者が利用する携帯端末等が備えるGPS(Global Positioning System)機能等を用いて取得されるとよい。この場合、在宅情報生成部250は、例えば、居住者が利用する携帯端末から、当該居住者の現在位置を示す位置情報を取得するとよい。そして、在宅情報生成部250は、例えば、予め設定される住宅の位置情報と居住者の現在位置とに基づいて、当該居住者が住宅にいるか否かを判定して、この判定の結果に基づいて在宅情報を生成するとよい。
センサ情報を用いて検知された人物の履歴情報は、当該人物についてセンサ情報を用いて検知された履歴を示す情報であり、例えば人物の検知結果を含む解析結果の履歴である。このセンサ情報は、例えば住宅の外に設置されるカメラで生成されたセンサ情報であればよく、すなわち画像を含むとよい。
この場合、在宅情報生成部250は、例えば、センサ情報を用いて検知された人物のうち、居住者の履歴情報を用いて、当該居住者が帰宅しているか否かを判定して、この判定の結果に基づいて在宅情報を生成するとよい。
ここで、センサ情報を用いて検知された人物のうち、居住者を特定する方法は、種々である。例えば、居住者を特定するための居住者情報が予め設定され、在宅情報生成部250は、当該居住者情報を用いて居住者を特定してもよい。センサ情報が画像を含む場合、居住者情報は、例えば、居住者の顔の画像、当該画像から抽出される顔の特徴ベクトル等であるとよい。
すなわち、センサ情報は、カメラで生成された画像を含んでもよい。この場合、在宅情報は、画像を用いて検知された居住者の履歴情報を用いて生成されてもよい。
なお、在宅情報を生成するためのセンサ情報は、画像を含むセンサ情報に限られない。例えば、居住者が外出する際や帰宅する際に敷地を通る通路が定まっており、センサ10がこの通路の物体の存否を検知する物体存否検知センサである場合等には、物体存否検知センサで生成されるセンサ情報が、在宅情報を生成するために用いられてもよい。
また、在宅情報生成部250は、居住者の位置情報とセンサ情報を用いて検知された人物の履歴情報との両方を用いて、在宅情報を生成してもよい。
(作用・効果)
以上、本実施形態によれば、情報処理装置200は、居住者の位置情報とセンサ情報を用いて検知された人物の履歴情報との少なくとも1つを用いて、在宅情報を生成する在宅情報生成部250をさらに備える。
以上、本実施形態によれば、情報処理装置200は、居住者の位置情報とセンサ情報を用いて検知された人物の履歴情報との少なくとも1つを用いて、在宅情報を生成する在宅情報生成部250をさらに備える。
これにより、住宅における居住者の在宅状況を精度良く示す在宅情報を自動的に生成し、この在宅情報を用いて不審者を適切に検出することができる。従って、住宅における安全性を向上させることが可能になる。
本実施形態によれば、センサ情報は、画像を含む。在宅情報は、画像を用いて検知された居住者の履歴情報を用いて生成される。
これにより、住宅における居住者の在宅状況を精度良く示す在宅情報を自動的に生成し、この在宅情報を用いて不審者を適切に検出することができる。従って、住宅における安全性を向上させることが可能になる。
[実施形態3]
本実施形態では、不審者ではない非不審者を特定し、これを用いて在宅情報を生成する方法の例について説明する。非不審者は、居住者を含む。すなわち、本実施形態は、居住者を特定する方法の例に関する説明を含む。さらに本実施形態では、特定された非不審者を用いて不審者を検出する方法の例について併せて説明する。
本実施形態では、不審者ではない非不審者を特定し、これを用いて在宅情報を生成する方法の例について説明する。非不審者は、居住者を含む。すなわち、本実施形態は、居住者を特定する方法の例に関する説明を含む。さらに本実施形態では、特定された非不審者を用いて不審者を検出する方法の例について併せて説明する。
(情報処理システムS3の装置構成例)
情報処理システムS3は、例えば図11に示すように、実施形態1と同様のセンサ10及び解析装置50と、情報処理装置300とを備える。
情報処理システムS3は、例えば図11に示すように、実施形態1と同様のセンサ10及び解析装置50と、情報処理装置300とを備える。
(情報処理装置300の構成例)
情報処理装置300は、例えば図12に示すように、不審者判定部330と、実施形態1と同様の報知制御部140と、在宅情報生成部350と、非不審者特定部360とを備える。
情報処理装置300は、例えば図12に示すように、不審者判定部330と、実施形態1と同様の報知制御部140と、在宅情報生成部350と、非不審者特定部360とを備える。
非不審者特定部360は、センサ情報を用いて検知された人物の履歴情報を用いて、非不審者を特定する。
在宅情報生成部350は、非不審者として特定された居住者について、画像を用いて検知された居住者の履歴情報を用いて、在宅情報を生成する。すなわち、センサ情報は画像を含み、在宅情報は、非不審者として特定された居住者について、当該画像を用いて検知された居住者の履歴情報を用いて生成される。
不審者判定部330は、検知された人物の中から非不審者を除外した人物について、当該人物が不審者であるか否かを、在宅情報を用いて判定する。
(情報処理システムS3の処理動作例)
情報処理システムS3は、例えば図13に示すような情報処理を実行する。
情報処理システムS3は、例えば図13に示すような情報処理を実行する。
実施形態1と同様のステップS10,S51,S52が実行される。
非不審者特定部360は、センサ情報を用いて検知された人物の履歴情報を用いて、非不審者を特定する(ステップS360)。
在宅情報生成部350は、画像を用いて検知された居住者の履歴情報を用いて、在宅情報を生成する。すなわち、センサ情報は画像を含み、在宅情報は、当該画像を用いて検知された居住者の履歴情報を用いて生成される(ステップS350)。
不審者判定部330は、検知された人物の中から前記非不審者を除外した人物について、当該人物が不審者であるか否かを、在宅情報を用いて判定する(ステップS330)。
実施形態1と同様のステップS140が実行される。
(非不審者特定部360について)
非不審者特定部360は、上述のように、センサ情報を用いて検知された人物の履歴情報を用いて、非不審者を特定する。非不審者は、例えば、居住者、宅配便の配達員等の頻繁に住宅に訪問する者である。
非不審者特定部360は、上述のように、センサ情報を用いて検知された人物の履歴情報を用いて、非不審者を特定する。非不審者は、例えば、居住者、宅配便の配達員等の頻繁に住宅に訪問する者である。
センサ情報を用いて検知された人物の履歴情報は、上述のように、当該人物についてセンサ情報を用いて検知された履歴を示す情報である。このセンサ情報は、上述のように、例えば住宅の外に設置されるカメラで生成されたセンサ情報であればよく、すなわち画像を含むとよい。
非不審者特定部360は、例えば、画像を用いて検知された人物の履歴情報を用いて、非不審者を特定する。
詳細には例えば、非不審者特定部360は、予め定められた第1閾値よりも多い頻度で検知される人物を非不審者として特定するとよい。例えば、非不審者特定部360は、予め定められた第1閾値よりも多い頻度で、かつインターホンを押す等の所定動作を行う人物を非不審者として特定してもよい。
第1閾値は、居住者用と、居住者以外の訪問者用とで異なる閾値が用いられてもよい。居住者用の第1閾値は、例えば、訪問者用の第1閾値よりも大きくてよい。このような閾値を用いることで、非不審者特定部360は、非不審者が居住者であるか否かを区別して特定することができる。
すなわち、非不審者特定部360は、画像を用いて検知された人物の履歴情報を用いて、居住者を特定してもよい。また、非不審者特定部360は、画像を用いて検知された人物の履歴情報を用いて、居住者以外の非不審者である訪問者を特定してもよい。
また例えば、非不審者特定部360は、予め定められた第2閾値よりも多い頻度で検知される同種の服装の人物を非不審者として特定してもよい。非不審者特定部360は、予め定められた第2閾値よりも多い頻度で検知される同種の自動車で訪れる人物を非不審者として特定してもよい。
一般的な宅配業者では、配達員が同じ種類の服装(例えば、制服)を着用することがある。また、一般的な宅配業者では、配達員が同じ種類の自動車を用いて、配達することがある。そのため、第2閾値よりも多い頻度で検知される同種の服装の人物、又は同種の自動車で訪れる人物を、不審者である可能性が低い配達員等の非不審者として特定することができる。
なお、非不審者を特定するためのセンサ情報は、画像を含むセンサ情報に限られない。例えば、居住者が外出する際や帰宅する際に敷地を通る通路が定まっており、センサ10がこの通路の物体の存否を検知する物体存否検知センサである場合等には、物体存否検知センサで生成されるセンサ情報が、非不審者を特定するために用いられてもよい。
また、非不審者特定部360は、複数種類のセンサ情報を用いて検知された人物の履歴情報を用いて、非不審者を特定してもよい。
(在宅情報生成部350について)
在宅情報生成部350は、非不審者特定部360が特定した非不審者のうち、居住者として特定された結果を用いる。在宅情報生成部350は、非不審者特定部360が非不審者として特定した居住者について、画像を用いて検知された居住者の履歴情報を用いて、在宅情報を生成する。
在宅情報生成部350は、非不審者特定部360が特定した非不審者のうち、居住者として特定された結果を用いる。在宅情報生成部350は、非不審者特定部360が非不審者として特定した居住者について、画像を用いて検知された居住者の履歴情報を用いて、在宅情報を生成する。
すなわち、センサ情報は画像を含み、非不審者は、居住者を含んでもよい。在宅情報は、非不審者として特定された居住者について、当該画像を用いて検知された居住者の履歴情報を用いて生成されてもよい。
なお、在宅情報生成部350は、実施形態2にかかる在宅情報生成部250と同様の方法で、在宅情報を生成してもよい。
(不審者判定部330について)
不審者判定部330は、例えば、検知された人物の中から、非不審者特定部360が特定した非不審者を除外した人物について、当該人物が不審者であるか否かを、在宅情報を用いて判定する。
不審者判定部330は、例えば、検知された人物の中から、非不審者特定部360が特定した非不審者を除外した人物について、当該人物が不審者であるか否かを、在宅情報を用いて判定する。
なお、居住者が通常通らない敷地内の領域の通過が検知された場合には、不審者判定部330は、居住者以外の非不審者を、不審者であると判定してもよい。この通過を検知するセンサ10は、カメラ、物体存否検知センサ、LiDARセンサ等のいずれであってもよい。
(作用・効果)
以上、本実施形態によれば、情報処理装置300は、センサ情報を用いて検知された人物の履歴情報を用いて、非不審者を特定する非不審者特定部360をさらに備える。
以上、本実施形態によれば、情報処理装置300は、センサ情報を用いて検知された人物の履歴情報を用いて、非不審者を特定する非不審者特定部360をさらに備える。
これにより、センサ情報を用いて自動的に特定された非不審者を用いて不審者を適切に検出することができる。従って、住宅における安全性を向上させることが可能になる。
本実施形態によれば、センサ情報は画像を含む。非不審者は、居住者を含む。在宅情報は、非不審者として特定された居住者について、当該画像を用いて検知された居住者の履歴情報を用いて生成される。
これにより、住宅における居住者の在宅状況を精度良く示す在宅情報を自動的に生成し、この在宅情報を用いて不審者を適切に検出することができる。従って、住宅における安全性を向上させることが可能になる。
本実施形態によれば、不審者判定部330は、検知された人物の中から非不審者を除外した人物について、当該人物が不審者であるか否かを、在宅情報を用いて判定する。
これにより、非不審者を除外して不審者を適切に検出することができる。従って、住宅における安全性を向上させることが可能になる。
以上、実施の形態を参照して本開示を説明したが、本開示は上述の実施の形態に限定されるものではない。本開示の構成や詳細には、本開示のスコープ内で当業者が理解し得る様々な変更をすることができる。そして、各実施の形態は、適宜他の実施の形態と組み合わせることができる。
また、上述の説明で用いた複数のフローチャートでは、複数の工程(処理)が順番に記載されているが、各実施形態で実行される工程の実行順序は、その記載の順番に制限されない。各実施形態では、図示される工程の順番を内容的に支障のない範囲で変更することができる。
上記の実施形態の一部または全部は、以下の付記のようにも記載されうるが、以下に限られない。
1.
住宅の敷地を監視するセンサから得られたセンサ情報を用いて検知された人物が不審者であるか否かを、前記住宅における居住者の在宅状況を示す在宅情報を用いて判定する不審者判定手段と、
前記検知された人物が前記不審者であると判定された場合に、当該不審者であると判定された人物と前記居住者との少なくとも一方に対する報知を報知部に行わせる報知制御手段とを備える
情報処理装置。
2.
前記居住者の位置情報と前記センサ情報を用いて検知された前記人物の履歴情報との少なくとも1つを用いて、前記在宅情報を生成する在宅情報生成手段をさらに備える
1.に記載の情報処理装置。
3.
前記センサ情報を用いて検知された前記人物の履歴情報を用いて、非不審者を特定する非不審者特定手段をさらに備える
1.又は2.に記載の情報処理装置。
4.
前記センサは、複数であり、
複数の前記センサは、前記住宅に関連付けて設置される1つ以上の住宅センサと、前記敷地に駐車した自動車に搭載された1つ以上の車載センサとを含む
1.から3.のいずれか1つに記載の情報処理装置。
5.
前記不審者判定手段は、前記検知された人物の動作、人物が検知された時間帯、前記検知された人物の属性、前記検知された人物の周囲の状況の少なくとも1つをさらに用いて、前記検知された人物が不審者であるか否かを判定する
1.から4.のいずれか1つに記載の情報処理装置。
6.
前記センサ情報は、画像を含み、
前記在宅情報は、前記画像を用いて検知された前記居住者の前記履歴情報を用いて生成される
2.に記載の情報処理装置。
7.
前記不審者判定手段は、前記検知された人物の中から前記非不審者を除外した人物について、当該人物が不審者であるか否かを、前記在宅情報を用いて判定する
3.に記載の情報処理装置。
8.
住宅の敷地を監視するセンサと、
前記センサで生成されたセンサ情報を用いて、前記敷地に存在する人物を検知する解析手段と、
前記検知された人物が不審者であるか否かを、前記住宅における居住者の在宅状況を示す在宅情報を用いて判定する不審者判定手段と、
前記検知された人物が前記不審者であると判定された場合に、当該不審者であると判定された人物と前記居住者との少なくとも一方に対する報知を報知部に行わせる報知制御手段とを備える
情報処理システム。
9.
前記居住者の位置情報と前記センサ情報を用いて検知された前記人物の履歴情報との少なくとも1つを用いて、前記在宅情報を生成する在宅情報生成手段をさらに備える
8.に記載の情報処理システム。
10.
前記センサ情報を用いて検知された前記人物の履歴情報を用いて、非不審者を特定する非不審者特定手段をさらに備える
8.又は9.に記載の情報処理システム。
11.
前記センサは、複数であり、
複数の前記センサは、前記住宅に関連付けて設置される1つ以上の住宅センサと、前記敷地に駐車した自動車に搭載された1つ以上の車載センサとを含む
8.から10.のいずれか1つに記載の情報処理システム。
12.
前記不審者判定手段は、前記検知された人物の動作、人物が検知された時間帯、前記検知された人物の属性、前記検知された人物の周囲の状況の少なくとも1つをさらに用いて、前記検知された人物が不審者であるか否かを判定する
8.から11.のいずれか1つに記載の情報処理システム。
13.
前記センサ情報は、画像を含み、
前記在宅情報は、前記画像を用いて検知された前記居住者の前記履歴情報を用いて生成される
9.に記載の情報処理システム。
14.
前記不審者判定手段は、前記検知された人物の中から前記非不審者を除外した人物について、当該人物が不審者であるか否かを、前記在宅情報を用いて判定する
10.に記載の情報処理システム。
15.
1つ以上のコンピュータが、
住宅の敷地を監視するセンサから得られたセンサ情報を用いて検知された人物が不審者であるか否かを、前記住宅における居住者の在宅状況を示す在宅情報を用いて判定し、
前記検知された人物が前記不審者であると判定された場合に、当該不審者であると判定された人物と前記居住者との少なくとも一方に対する報知を報知部に行わせる
情報処理方法。
16.
さらに、前記居住者の位置情報と前記センサ情報を用いて検知された前記人物の履歴情報との少なくとも1つを用いて、前記在宅情報を生成する
15.に記載の情報処理方法。
17.
さらに、前記センサ情報を用いて検知された前記人物の履歴情報を用いて、非不審者を特定する
15.又は16.に記載の情報処理方法。
18.
前記センサは、複数であり、
複数の前記センサは、前記住宅に関連付けて設置される1つ以上の住宅センサと、前記敷地に駐車した自動車に搭載された1つ以上の車載センサとを含む
15.から17.のいずれか1つに記載の情報処理方法。
19.
前記人物が不審者であるか否かを判定することでは、前記検知された人物の動作、人物が検知された時間帯、前記検知された人物の属性、前記検知された人物の周囲の状況の少なくとも1つをさらに用いて、前記検知された人物が不審者であるか否かを判定する
15.から18.のいずれか1つに記載の情報処理方法。
20.
前記センサ情報は、画像を含み、
前記在宅情報は、前記画像を用いて検知された前記居住者の前記履歴情報を用いて生成される
16.に記載の情報処理方法。
21.
前記人物が不審者であるか否かを判定することでは、前記検知された人物の中から前記非不審者を除外した人物について、当該人物が不審者であるか否かを、前記在宅情報を用いて判定する
17.に記載の情報処理方法。
22.
1つ以上のコンピュータに、
住宅の敷地を監視するセンサから得られたセンサ情報を用いて検知された人物が不審者であるか否かを、前記住宅における居住者の在宅状況を示す在宅情報を用いて判定し、
前記検知された人物が前記不審者であると判定された場合に、当該不審者であると判定された人物と前記居住者との少なくとも一方に対する報知を報知部に行わせることを実行させるためのプログラム。
23.
さらに、前記居住者の位置情報と前記センサ情報を用いて検知された前記人物の履歴情報との少なくとも1つを用いて、前記在宅情報を生成する
22.に記載のプログラム。
24.
さらに、前記センサ情報を用いて検知された前記人物の履歴情報を用いて、非不審者を特定する
22.又は23.に記載のプログラム。
25.
前記センサは、複数であり、
複数の前記センサは、前記住宅に関連付けて設置される1つ以上の住宅センサと、前記敷地に駐車した自動車に搭載された1つ以上の車載センサとを含む
22.から24.のいずれか1つに記載のプログラム。
26.
前記人物が不審者であるか否かを判定することでは、前記検知された人物の動作、人物が検知された時間帯、前記検知された人物の属性、前記検知された人物の周囲の状況の少なくとも1つをさらに用いて、前記検知された人物が不審者であるか否かを判定する
22.から25.のいずれか1つに記載のプログラム。
27.
前記センサ情報は、画像を含み、
前記在宅情報は、前記画像を用いて検知された前記居住者の前記履歴情報を用いて生成される
23.に記載のプログラム。
28.
前記人物が不審者であるか否かを判定することでは、前記検知された人物の中から前記非不審者を除外した人物について、当該人物が不審者であるか否かを、前記在宅情報を用いて判定する
24.に記載のプログラム。
1.
住宅の敷地を監視するセンサから得られたセンサ情報を用いて検知された人物が不審者であるか否かを、前記住宅における居住者の在宅状況を示す在宅情報を用いて判定する不審者判定手段と、
前記検知された人物が前記不審者であると判定された場合に、当該不審者であると判定された人物と前記居住者との少なくとも一方に対する報知を報知部に行わせる報知制御手段とを備える
情報処理装置。
2.
前記居住者の位置情報と前記センサ情報を用いて検知された前記人物の履歴情報との少なくとも1つを用いて、前記在宅情報を生成する在宅情報生成手段をさらに備える
1.に記載の情報処理装置。
3.
前記センサ情報を用いて検知された前記人物の履歴情報を用いて、非不審者を特定する非不審者特定手段をさらに備える
1.又は2.に記載の情報処理装置。
4.
前記センサは、複数であり、
複数の前記センサは、前記住宅に関連付けて設置される1つ以上の住宅センサと、前記敷地に駐車した自動車に搭載された1つ以上の車載センサとを含む
1.から3.のいずれか1つに記載の情報処理装置。
5.
前記不審者判定手段は、前記検知された人物の動作、人物が検知された時間帯、前記検知された人物の属性、前記検知された人物の周囲の状況の少なくとも1つをさらに用いて、前記検知された人物が不審者であるか否かを判定する
1.から4.のいずれか1つに記載の情報処理装置。
6.
前記センサ情報は、画像を含み、
前記在宅情報は、前記画像を用いて検知された前記居住者の前記履歴情報を用いて生成される
2.に記載の情報処理装置。
7.
前記不審者判定手段は、前記検知された人物の中から前記非不審者を除外した人物について、当該人物が不審者であるか否かを、前記在宅情報を用いて判定する
3.に記載の情報処理装置。
8.
住宅の敷地を監視するセンサと、
前記センサで生成されたセンサ情報を用いて、前記敷地に存在する人物を検知する解析手段と、
前記検知された人物が不審者であるか否かを、前記住宅における居住者の在宅状況を示す在宅情報を用いて判定する不審者判定手段と、
前記検知された人物が前記不審者であると判定された場合に、当該不審者であると判定された人物と前記居住者との少なくとも一方に対する報知を報知部に行わせる報知制御手段とを備える
情報処理システム。
9.
前記居住者の位置情報と前記センサ情報を用いて検知された前記人物の履歴情報との少なくとも1つを用いて、前記在宅情報を生成する在宅情報生成手段をさらに備える
8.に記載の情報処理システム。
10.
前記センサ情報を用いて検知された前記人物の履歴情報を用いて、非不審者を特定する非不審者特定手段をさらに備える
8.又は9.に記載の情報処理システム。
11.
前記センサは、複数であり、
複数の前記センサは、前記住宅に関連付けて設置される1つ以上の住宅センサと、前記敷地に駐車した自動車に搭載された1つ以上の車載センサとを含む
8.から10.のいずれか1つに記載の情報処理システム。
12.
前記不審者判定手段は、前記検知された人物の動作、人物が検知された時間帯、前記検知された人物の属性、前記検知された人物の周囲の状況の少なくとも1つをさらに用いて、前記検知された人物が不審者であるか否かを判定する
8.から11.のいずれか1つに記載の情報処理システム。
13.
前記センサ情報は、画像を含み、
前記在宅情報は、前記画像を用いて検知された前記居住者の前記履歴情報を用いて生成される
9.に記載の情報処理システム。
14.
前記不審者判定手段は、前記検知された人物の中から前記非不審者を除外した人物について、当該人物が不審者であるか否かを、前記在宅情報を用いて判定する
10.に記載の情報処理システム。
15.
1つ以上のコンピュータが、
住宅の敷地を監視するセンサから得られたセンサ情報を用いて検知された人物が不審者であるか否かを、前記住宅における居住者の在宅状況を示す在宅情報を用いて判定し、
前記検知された人物が前記不審者であると判定された場合に、当該不審者であると判定された人物と前記居住者との少なくとも一方に対する報知を報知部に行わせる
情報処理方法。
16.
さらに、前記居住者の位置情報と前記センサ情報を用いて検知された前記人物の履歴情報との少なくとも1つを用いて、前記在宅情報を生成する
15.に記載の情報処理方法。
17.
さらに、前記センサ情報を用いて検知された前記人物の履歴情報を用いて、非不審者を特定する
15.又は16.に記載の情報処理方法。
18.
前記センサは、複数であり、
複数の前記センサは、前記住宅に関連付けて設置される1つ以上の住宅センサと、前記敷地に駐車した自動車に搭載された1つ以上の車載センサとを含む
15.から17.のいずれか1つに記載の情報処理方法。
19.
前記人物が不審者であるか否かを判定することでは、前記検知された人物の動作、人物が検知された時間帯、前記検知された人物の属性、前記検知された人物の周囲の状況の少なくとも1つをさらに用いて、前記検知された人物が不審者であるか否かを判定する
15.から18.のいずれか1つに記載の情報処理方法。
20.
前記センサ情報は、画像を含み、
前記在宅情報は、前記画像を用いて検知された前記居住者の前記履歴情報を用いて生成される
16.に記載の情報処理方法。
21.
前記人物が不審者であるか否かを判定することでは、前記検知された人物の中から前記非不審者を除外した人物について、当該人物が不審者であるか否かを、前記在宅情報を用いて判定する
17.に記載の情報処理方法。
22.
1つ以上のコンピュータに、
住宅の敷地を監視するセンサから得られたセンサ情報を用いて検知された人物が不審者であるか否かを、前記住宅における居住者の在宅状況を示す在宅情報を用いて判定し、
前記検知された人物が前記不審者であると判定された場合に、当該不審者であると判定された人物と前記居住者との少なくとも一方に対する報知を報知部に行わせることを実行させるためのプログラム。
23.
さらに、前記居住者の位置情報と前記センサ情報を用いて検知された前記人物の履歴情報との少なくとも1つを用いて、前記在宅情報を生成する
22.に記載のプログラム。
24.
さらに、前記センサ情報を用いて検知された前記人物の履歴情報を用いて、非不審者を特定する
22.又は23.に記載のプログラム。
25.
前記センサは、複数であり、
複数の前記センサは、前記住宅に関連付けて設置される1つ以上の住宅センサと、前記敷地に駐車した自動車に搭載された1つ以上の車載センサとを含む
22.から24.のいずれか1つに記載のプログラム。
26.
前記人物が不審者であるか否かを判定することでは、前記検知された人物の動作、人物が検知された時間帯、前記検知された人物の属性、前記検知された人物の周囲の状況の少なくとも1つをさらに用いて、前記検知された人物が不審者であるか否かを判定する
22.から25.のいずれか1つに記載のプログラム。
27.
前記センサ情報は、画像を含み、
前記在宅情報は、前記画像を用いて検知された前記居住者の前記履歴情報を用いて生成される
23.に記載のプログラム。
28.
前記人物が不審者であるか否かを判定することでは、前記検知された人物の中から前記非不審者を除外した人物について、当該人物が不審者であるか否かを、前記在宅情報を用いて判定する
24.に記載のプログラム。
この出願は、2024年1月12日に出願された日本出願特願2024-003144号を基礎とする優先権を主張し、その開示の全てをここに取り込む。
S1~S3 情報処理システム
10 センサ
50 解析装置
51 センサ情報取得部
52 解析部
100,200,300 情報処理装置
130,330 不審者判定部
140 報知制御部
250,350 在宅情報生成部
360 非不審者特定部
10 センサ
50 解析装置
51 センサ情報取得部
52 解析部
100,200,300 情報処理装置
130,330 不審者判定部
140 報知制御部
250,350 在宅情報生成部
360 非不審者特定部
Claims (10)
- 住宅の敷地を監視するセンサから得られたセンサ情報を用いて検知された人物が不審者であるか否かを、前記住宅における居住者の在宅状況を示す在宅情報を用いて判定する不審者判定手段と、
前記検知された人物が前記不審者であると判定された場合に、当該不審者であると判定された人物と前記居住者との少なくとも一方に対する報知を報知部に行わせる報知制御手段とを備える
情報処理装置。 - 前記居住者の位置情報と前記センサ情報を用いて検知された前記人物の履歴情報との少なくとも1つを用いて、前記在宅情報を生成する在宅情報生成手段をさらに備える
請求項1に記載の情報処理装置。 - 前記センサ情報を用いて検知された前記人物の履歴情報を用いて、非不審者を特定する非不審者特定手段をさらに備える
請求項1又は2に記載の情報処理装置。 - 前記センサは、複数であり、
複数の前記センサは、前記住宅に関連付けて設置される1つ以上の住宅センサと、前記敷地に駐車した自動車に搭載された1つ以上の車載センサとを含む
請求項1又は2に記載の情報処理装置。 - 前記不審者判定手段は、前記検知された人物の動作、人物が検知された時間帯、前記検知された人物の属性、前記検知された人物の周囲の状況の少なくとも1つをさらに用いて、前記検知された人物が不審者であるか否かを判定する
請求項1又は2に記載の情報処理装置。 - 前記センサ情報は、画像を含み、
前記在宅情報は、前記画像を用いて検知された前記居住者の前記履歴情報を用いて生成される
請求項2に記載の情報処理装置。 - 前記不審者判定手段は、前記検知された人物の中から前記非不審者を除外した人物について、当該人物が不審者であるか否かを、前記在宅情報を用いて判定する
請求項3に記載の情報処理装置。 - 住宅の敷地を監視するセンサと、
前記センサで生成されたセンサ情報を用いて、前記敷地に存在する人物を検知する解析手段と、
前記検知された人物が不審者であるか否かを、前記住宅における居住者の在宅状況を示す在宅情報を用いて判定する不審者判定手段と、
前記検知された人物が前記不審者であると判定された場合に、当該不審者であると判定された人物と前記居住者との少なくとも一方に対する報知を報知部に行わせる報知制御手段とを備える
情報処理システム。 - 1つ以上のコンピュータが、
住宅の敷地を監視するセンサから得られたセンサ情報を用いて検知された人物が不審者であるか否かを、前記住宅における居住者の在宅状況を示す在宅情報を用いて判定し、
前記検知された人物が前記不審者であると判定された場合に、当該不審者であると判定された人物と前記居住者との少なくとも一方に対する報知を報知部に行わせる
情報処理方法。 - 1つ以上のコンピュータに、
住宅の敷地を監視するセンサから得られたセンサ情報を用いて検知された人物が不審者であるか否かを、前記住宅における居住者の在宅状況を示す在宅情報を用いて判定し、
前記検知された人物が前記不審者であると判定された場合に、当該不審者であると判定された人物と前記居住者との少なくとも一方に対する報知を報知部に行わせることを実行させるためのプログラムが記録された記録媒体。
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2024-003144 | 2024-01-12 | ||
| JP2024003144 | 2024-01-12 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2025150514A1 true WO2025150514A1 (ja) | 2025-07-17 |
Family
ID=96386801
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2025/000369 Pending WO2025150514A1 (ja) | 2024-01-12 | 2025-01-08 | 情報処理装置、情報処理システム、情報処理方法及び記録媒体 |
Country Status (1)
| Country | Link |
|---|---|
| WO (1) | WO2025150514A1 (ja) |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2010117889A (ja) * | 2008-11-13 | 2010-05-27 | Toyota Home Kk | 防犯システム |
| JP2011013828A (ja) * | 2009-06-30 | 2011-01-20 | Secom Co Ltd | 警備システム |
| JP2018190199A (ja) * | 2017-05-08 | 2018-11-29 | 株式会社デンソー | 監視装置及び防犯システム |
| JP2019192191A (ja) * | 2018-04-20 | 2019-10-31 | 美和ロック株式会社 | 住宅管理装置、住宅管理方法およびプログラム |
| JP2022003767A (ja) * | 2019-12-16 | 2022-01-11 | Assest株式会社 | 危険度判別プログラム |
-
2025
- 2025-01-08 WO PCT/JP2025/000369 patent/WO2025150514A1/ja active Pending
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2010117889A (ja) * | 2008-11-13 | 2010-05-27 | Toyota Home Kk | 防犯システム |
| JP2011013828A (ja) * | 2009-06-30 | 2011-01-20 | Secom Co Ltd | 警備システム |
| JP2018190199A (ja) * | 2017-05-08 | 2018-11-29 | 株式会社デンソー | 監視装置及び防犯システム |
| JP2019192191A (ja) * | 2018-04-20 | 2019-10-31 | 美和ロック株式会社 | 住宅管理装置、住宅管理方法およびプログラム |
| JP2022003767A (ja) * | 2019-12-16 | 2022-01-11 | Assest株式会社 | 危険度判別プログラム |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| Ibrahim | A comprehensive review on intelligent surveillance systems | |
| US9363483B2 (en) | Method for available parking distance estimation via vehicle side detection | |
| US8744125B2 (en) | Clustering-based object classification | |
| US20190122082A1 (en) | Intelligent content displays | |
| US7639840B2 (en) | Method and apparatus for improved video surveillance through classification of detected objects | |
| US9275286B2 (en) | Short-time stopping detection from red light camera videos | |
| US11616932B1 (en) | Car security camera triggering mechanism | |
| Kumar et al. | Study of robust and intelligent surveillance in visible and multi-modal framework | |
| KR101877294B1 (ko) | 객체, 영역 및 객체가 유발하는 이벤트의 유기적 관계를 기반으로 한 복수 개 기본행동패턴 정의를 통한 복합 상황 설정 및 자동 상황 인지가 가능한 지능형 방범 cctv 시스템 | |
| Hurney et al. | Review of pedestrian detection techniques in automotive far‐infrared video | |
| CN107665326A (zh) | 乘客运输装置的监测系统、乘客运输装置及其监测方法 | |
| Garg | Drowsiness detection of a driver using conventional computer vision application | |
| Lee et al. | Context and profile based cascade classifier for efficient people detection and safety care system | |
| Lan et al. | Real-time automatic obstacle detection method for traffic surveillance in urban traffic | |
| KR101372860B1 (ko) | 영상 검색 시스템 및 영상 분석 서버 | |
| Adrian et al. | An overview of intelligent surveillance systems development | |
| Yang et al. | On-road collision warning based on multiple FOE segmentation using a dashboard camera | |
| Li et al. | A review on vision-based pedestrian detection for intelligent vehicles | |
| Jen et al. | Robust detection and tracking of vehicle taillight signals using frequency domain feature based Adaboost learning | |
| KR101842488B1 (ko) | 원거리 동적 객체의 검지 및 추적을 기반으로 한 행동패턴인식기법이 적용된 지능형 감지시스템 | |
| Gaddipati et al. | Real-time human intrusion detection for home surveillance based on IOT | |
| WO2025150514A1 (ja) | 情報処理装置、情報処理システム、情報処理方法及び記録媒体 | |
| Rathour et al. | KlugOculus: A Vision‐Based Intelligent Architecture for Security System | |
| Tatiya et al. | Anomaly detection for video surveillance | |
| Kumar et al. | Deep Learning based Brake Light Detection for Two Wheelers |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 25738782 Country of ref document: EP Kind code of ref document: A1 |