WO2023181155A1 - 処理装置、処理方法、および記録媒体 - Google Patents

処理装置、処理方法、および記録媒体 Download PDF

Info

Publication number
WO2023181155A1
WO2023181155A1 PCT/JP2022/013433 JP2022013433W WO2023181155A1 WO 2023181155 A1 WO2023181155 A1 WO 2023181155A1 JP 2022013433 W JP2022013433 W JP 2022013433W WO 2023181155 A1 WO2023181155 A1 WO 2023181155A1
Authority
WO
WIPO (PCT)
Prior art keywords
detected
behavior
detection target
detection
processing device
Prior art date
Application number
PCT/JP2022/013433
Other languages
English (en)
French (fr)
Inventor
登 吉田
健全 劉
諒 川合
智史 山崎
テイテイ トウ
カレン ステファン
洋平 佐々木
直樹 進藤
悠太 並木
浩明 竹内
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to PCT/JP2022/013433 priority Critical patent/WO2023181155A1/ja
Publication of WO2023181155A1 publication Critical patent/WO2023181155A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/18Status alarms
    • G08B21/24Reminder alarms, e.g. anti-loss alarms
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • G08B25/01Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium
    • G08B25/04Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium using a single signalling line, e.g. in a closed loop

Definitions

  • the present invention relates to a processing device, a processing method, and a recording medium.
  • Patent Documents 1 to 3 disclose Technologies related to the present invention.
  • Patent Document 1 states that if an image of an ATM (Automatic Teller Machine) user is analyzed and it is determined that the user is or is likely to be involved in bank transfer fraud, a monitoring center A technique is disclosed to notify the user of this fact. Further, it is disclosed that a notification destination can be selected depending on the degree of likelihood of damage.
  • ATM Automatic Teller Machine
  • Patent Document 2 discloses a technology that analyzes an image of an ATM user and issues an alarm if it is detected that the user is in a talking posture.
  • Patent Document 3 discloses that the feature amount of each of a plurality of key points of a human body included in an image is calculated, and based on the calculated feature amount, an image containing a human body with a similar posture or movement is searched for, A technique has been disclosed for classifying objects with similar postures and movements together.
  • Non-Patent Document 1 discloses a technology related to human skeleton estimation.
  • Patent Document 1 The method of selecting a notification destination according to the degree of likelihood of being harmed by the disclosure disclosed in Patent Document 1 cannot be used except in cases where it is likely to be harmed. In other words, there is a problem in that the usage situations are limited. Patent Documents 2 and 3 and Non-Patent Document 1 do not disclose the problem of notifying appropriate information to an appropriate destination and the means for realizing the same.
  • an example of the object of the present invention is to provide a processing device, a processing method, and a recording medium that solve the problem of notifying an appropriate notification destination in response to detection of a person performing a predetermined action. It's about doing.
  • a behavior analysis means for detecting that a target person appearing in an image taken of a person in the facility is performing one of a plurality of detection target behaviors; The detected type of the detection target behavior, the location where the detected detection target behavior is performed, the length of time the detected detection target behavior is performed, and the time at which the detected detection target behavior is performed. determining means for determining a notification destination based on at least one of the time and the certainty of the detection result; notification means for notifying the determined notification destination of the detection of the detection target behavior; A processing device is provided.
  • the computer is Detects that a target person in an image of a person inside the facility is performing one of multiple detection target actions, The detected type of the detection target behavior, the location where the detected detection target behavior is performed, the length of time the detected detection target behavior is performed, and the time at which the detected detection target behavior is performed. determining a notification destination based on at least one of the time and the certainty of the detection result; Notifying the determined notification destination of the detection of the detection target behavior; A processing method is provided.
  • Behavior analysis means for detecting that a target person appearing in an image taken of a person in the facility is performing one of a plurality of detection target behaviors; The detected type of the detection target behavior, the location where the detected detection target behavior is performed, the length of time the detected detection target behavior is performed, and the time at which the detected detection target behavior is performed. determining means for determining a notification destination based on at least one of the time and the certainty of the detection result; notification means for notifying the determined notification destination of the detection of the detection target behavior; A recording medium is provided that records a program that functions as a computer.
  • a processing device, a processing method, and a recording medium are realized that solve the problem of notifying an appropriate notification destination in response to detection of a person performing a predetermined action.
  • FIG. 2 is a diagram showing an example of a functional block diagram of a processing device.
  • FIG. 2 is a diagram showing an example of a functional block diagram of a processing system.
  • FIG. 2 is a diagram showing a specific example of a functional block diagram of a processing system.
  • FIG. 2 is a diagram illustrating an example of the hardware configuration of a processing device.
  • FIG. 3 is a diagram for explaining processing of a behavior analysis unit.
  • FIG. 2 is a diagram schematically showing an example of information processed by a processing device.
  • 3 is a flowchart illustrating an example of a processing flow of a processing device.
  • FIG. 2 is a diagram schematically showing an example of information processed by a processing device.
  • 3 is a flowchart illustrating an example of a processing flow of a processing device.
  • FIG. 1 is a functional block diagram showing an overview of a processing device 10 according to the first embodiment.
  • the processing device 10 includes a behavior analysis section 11, a determination section 12, and a notification section 13.
  • the behavior analysis unit 11 detects that a target person appearing in an image of a person inside the facility is performing one of a plurality of detection target behaviors.
  • the determining unit 12 determines the type of the detected behavior to be detected, the location where the detected behavior is being performed, the length of time the behavior is being performed, and the type of behavior being detected.
  • the notification destination is determined based on at least one of the time when the detection result is detected and the confidence level of the detection result.
  • the notification unit 13 notifies the determined notification destination of the detection of the detection target behavior.
  • the problem of notifying an appropriate notification destination in response to detection of a person performing a predetermined action is solved.
  • the processing device 10 of the second embodiment is a more specific version of the processing device 10 of the first embodiment.
  • FIG. 2 shows an example of a functional block diagram of the processing system. As shown in FIG. 2, the processing system includes a processing device 10, a camera 30, and a notification destination terminal 40.
  • the camera 30 is installed within the facility.
  • Facilities include banks, post offices, supermarkets, convenience stores, department stores, amusement parks, buildings, stations, airports, etc., and the details thereof are not particularly limited.
  • a plurality of cameras 30 are shown in FIG. 2, one camera 30 may be installed in a facility, or a plurality of cameras 30 may be installed in a facility.
  • the camera 30 is installed, for example, at the entrance of the facility, at a location where predetermined equipment is installed within the facility, in an area facing stairs, and the like. Note that the installation position of the camera 30 shown here is just an example, and is not limited thereto.
  • the camera 30 may take moving images, or may take still images at predetermined timings.
  • the processing device 10 analyzes the image generated by the camera 30 and detects that the target person in the image is performing one of a plurality of predefined detection target actions. Next, the processing device 10 determines the type of the detected behavior to be detected, the location where the detected behavior is being performed, the length of time the behavior has been performed, and the detected behavior to be detected. The notification destination of the detection result is determined based on at least one of the time at which the detection is performed and the confidence level of the detection result. Then, the processing device 10 notifies the determined notification destination of the detection result. One of the plurality of notification destination terminals 40 is determined as the notification destination. Note that details of the processing by the processing device 10 will be described later.
  • the notification destination terminal 40 is a terminal to which detection results are notified.
  • the notification destination terminal 40 is a smartphone, a tablet terminal, a mobile phone, a personal computer, a dedicated terminal, a digital signage, etc., but is not limited to these.
  • the processing device 10 transmits the detection result to the determined notification destination terminal 40.
  • the notification destination terminal 40 outputs predetermined information in response to the notification from the processing device 10.
  • FIG. 3 a specific example of the processing system of the second embodiment will be described using FIG. 3. Note that the specific example shown in FIG. 3 is just an example, and the configuration of the processing system is not limited thereto.
  • the facility in this example is a facility where an ATM (Automatic Teller Machine) is installed.
  • ATM Automatic Teller Machine
  • Examples include, but are not limited to, banks, post offices, convenience stores, supermarkets, and department stores.
  • the camera 30 is installed at each ATM and photographs the users of each ATM.
  • a first ATM camera 30-1 and a second ATM camera 30-2 are shown.
  • the first ATM camera 30-1 photographs a user of the first ATM.
  • the second ATM camera 30-2 photographs the user of the second ATM.
  • two ATM cameras 30 are shown in FIG. 3, the number is not limited to this.
  • the camera 30 may be installed at a position to photograph people at other positions within the facility. Examples include, but are not limited to, an entrance camera 30-3 that photographs people near the entrance of a facility, and a digital signage camera 30-4 that photographs people near a digital signage installed in a facility.
  • the notification destination terminals 40 include a facility worker terminal 40-1, a security terminal 40-2, a processing device administrator terminal 40-3, a first ATM terminal 40-4, It can include at least one of a second ATM terminal 40-5, a digital signage 40-6, and a processing device provider terminal 40-7.
  • the facility worker terminal 40-1 is a terminal used by facility workers (workers who serve visitors, etc.). Via the facility worker terminal 40-1, the facility worker is notified of the detection result of the processing device 10, that is, that a person performing a predetermined detection target behavior has been detected.
  • the facility worker terminal 40-1 is a smartphone, a tablet terminal, a mobile phone, a personal computer, a dedicated terminal, or the like.
  • the detection result may be transmitted from the processing device 10 to the facility worker terminal 40-1.
  • the detection result may be transmitted from the processing device 10 to the facility server, and the detection result may be transmitted from the facility server to the facility worker terminal 40-1.
  • the detection results of the processing device 10 may be transmitted to the facility worker terminal 40-1 through other routes.
  • the security terminal 40-2 is a terminal used by security guards and persons related to security organizations (security companies, etc.). Via the security terminal 40-2, a security guard or a person concerned with a security organization (security company, etc.) is notified of the detection result of the processing device 10, that is, that a person performing a predetermined detection target behavior has been detected. be done.
  • the security terminal 40-2 is a smartphone, a tablet terminal, a mobile phone, a personal computer, a dedicated terminal, or the like. Note that the detection result may be transmitted from the processing device 10 to the security terminal 40-2.
  • the detection result may be transmitted from the processing device 10 to a server of a security organization (security company, etc.), and the detection result may be transmitted from the server of the security organization (security company, etc.) to the security terminal 40-2. Furthermore, the detection results of the processing device 10 may be transmitted to the security terminal 40-2 through other routes.
  • the processing device manager terminal 40-3 is a terminal used by a manager (person in charge of a facility, etc.) who manages (maintains, maintains, etc.) the processing device 10. Via the processing device administrator terminal 40-3, the administrator who manages the processing device 10 is notified of the detection result of the processing device 10, that is, that a person performing a predetermined detection target behavior has been detected. .
  • the processing device administrator terminal 40-3 is a smartphone, a tablet terminal, a mobile phone, a personal computer, a dedicated terminal, or the like. Note that the detection result may be transmitted from the processing device 10 to the processing device administrator terminal 40-3.
  • the detection result may be transmitted from the processing device 10 to a server of an organization to which the administrator who manages the processing device 10 belongs, and the detection result may be transmitted from the server to the processing device administrator terminal 40-3. Further, the detection results of the processing device 10 may be transmitted to the processing device administrator terminal 40-3 through other routes.
  • the first ATM terminal 40-4 and the second ATM terminal 40-5 are terminals that send notifications to ATM users.
  • a notification destination terminal 40 is provided for each ATM.
  • the first ATM terminal 40-4 and the second ATM terminal 40-5 may be the ATM itself, or may be an output device installed near the ATM. Examples of output devices include speakers, displays, warning lamps, and the like.
  • the detection results may be transmitted from the processing device 10 to each of the first ATM terminal 40-4 and the second ATM terminal 40-5.
  • the detection results may be transmitted from the processing device 10 to the facility server, and the detection results may be transmitted from the facility server to each of the first ATM terminal 40-4 and the second ATM terminal 40-5.
  • the detection results of the processing device 10 may be transmitted to each of the first ATM terminal 40-4 and the second ATM terminal 40-5 through other routes.
  • the digital signage 40-6 is a terminal that presents notifications and other information to facility visitors.
  • Digital signage 40-6 is installed at any position within the facility.
  • the detection result may be transmitted from the processing device 10 to the digital signage 40-6.
  • the detection result may be transmitted from the processing device 10 to the facility server, and the detection result may be transmitted from the facility server to the digital signage 40-6.
  • the detection results of the processing device 10 may be transmitted to the digital signage 40-6 through other routes.
  • the processing device provider terminal 40-7 is a terminal used by a person in charge of the provider who provided the processing device 10 (manufacturer or seller of the processing device 10). Via the processing device provider terminal 40-7, the person in charge of the provider who provided the processing device 10 is notified of the detection results of the processing device 10, that is, the detection of a person performing a predetermined behavior to be detected. Be notified.
  • the processing device provider terminal 40-7 is a smartphone, a tablet terminal, a mobile phone, a personal computer, a dedicated terminal, or the like. Note that the detection result may be transmitted from the processing device 10 to the processing device provider terminal 40-7.
  • the detection result may be transmitted from the processing device 10 to a server of the provider that provided the processing device 10, and the detection result may be transmitted from the server to the processing device provider terminal 40-7. Furthermore, the detection results of the processing device 10 may be transmitted to the processing device provider terminal 40-7 through other routes.
  • Each functional unit of the processing device 10 includes a CPU (Central Processing Unit) of an arbitrary computer, a memory, a program loaded into the memory, and a storage unit such as a hard disk that stores the program (which is stored in advance from the stage of shipping the device).
  • a CPU Central Processing Unit
  • a memory such as RAM
  • a program loaded into the memory such as a hard disk
  • a storage unit such as a hard disk that stores the program (which is stored in advance from the stage of shipping the device).
  • CDs Compact Discs
  • servers on the Internet it is also possible to store programs downloaded from storage media such as CDs (Compact Discs) or servers on the Internet. Ru. It will be understood by those skilled in the art that there are various modifications to the implementation method and device.
  • FIG. 4 is a block diagram illustrating the hardware configuration of the processing device 10.
  • the processing device 10 includes a processor 1A, a memory 2A, an input/output interface 3A, a peripheral circuit 4A, and a bus 5A.
  • the peripheral circuit 4A includes various modules.
  • the processing device 10 does not need to have the peripheral circuit 4A.
  • the processing device 10 may be composed of a plurality of physically and/or logically separated devices. In this case, each of the plurality of devices can include the above hardware configuration.
  • the bus 5A is a data transmission path through which the processor 1A, memory 2A, peripheral circuit 4A, and input/output interface 3A exchange data with each other.
  • the processor 1A is, for example, an arithmetic processing device such as a CPU or a GPU (Graphics Processing Unit).
  • the memory 2A is, for example, a RAM (Random Access Memory) or a ROM (Read Only Memory).
  • the input/output interface 3A includes an interface for acquiring information from an input device, an external device, an external server, an external sensor, a camera, etc., an interface for outputting information to an output device, an external device, an external server, etc. .
  • Input devices include, for example, a keyboard, mouse, microphone, physical button, touch panel, and the like. Examples of the output device include a display, a speaker, a printer, and a mailer.
  • the processor 1A can issue commands to each module and perform calculations based on the results of those calculations.
  • FIG. 1 shows an example of a functional block diagram of a processing device 10 according to the second embodiment.
  • the processing device 10 includes a behavior analysis section 11, a determination section 12, and a notification section 13.
  • the behavior analysis unit 11 determines whether a person (hereinafter referred to as a "target person") appearing in the image generated by the camera 30, that is, an image of a person inside the facility, is performing any of a plurality of detection target behaviors. detect that there is a
  • Detection target behavior is behavior that is desired to be detected for the purpose of preventing incidents or improving the quality of services provided by the facility.
  • actions to be detected include calls using a mobile phone, actions such as operating an ATM while talking using a mobile phone, movement using a wheelchair, movement using a white cane, and movements placed within a facility.
  • Behaviors that show interest in specific materials placed in the facility include the behavior of reaching for the specific materials, the behavior of picking up the specific materials, the behavior of looking at the specific materials, and the behavior of looking at the specific materials for a specific amount of time. etc.
  • Incidents such as wire transfer fraud can be prevented by detecting calls using a mobile phone or actions such as operating an ATM while talking using a mobile phone. By detecting movement using a wheelchair or white cane and providing assistance to such visitors, the quality of services can be improved. Furthermore, by detecting behavior that shows interest in certain materials placed in the facility and providing appropriate information to such visitors, the quality of services can be improved.
  • Image analysis is performed by an image analysis system 20 prepared in advance. As shown in FIG. 5, the behavior analysis unit 11 inputs images to the image analysis system 20. The behavior analysis unit 11 then acquires the image analysis results from the image analysis system 20.
  • the image analysis system 20 may be a part of the processing device 10 or may be an external device that is physically and/or logically independent from the processing device 10.
  • the image analysis system 20 has a face recognition function, a human figure recognition function, a posture recognition function, a movement recognition function, an appearance attribute recognition function, an image gradient feature detection function, an image color feature detection function, an object recognition function, a character recognition function, and a line of sight detection function.
  • the face recognition function extracts a person's facial features. Furthermore, the similarity between facial feature amounts may be compared and calculated (determining whether they are the same person, etc.). Alternatively, the extracted facial feature amount may be compared with the facial feature amounts of a plurality of users registered in advance in the database to identify which user is the person in the image.
  • the human figure recognition function extracts the human body characteristics of a person (for example, overall characteristics such as body shape, height, clothing, etc.). Furthermore, the similarity between human body features may be compared and calculated (determination of whether they are the same person, etc.). Alternatively, the extracted human body features may be compared with the human body features of a plurality of users registered in advance in the database to identify which person is in the image.
  • the posture recognition function and movement recognition function detect the joint points of a person and connect the joint points to form a stick figure model. Then, based on the stick figure model, the person is detected, the person's height is estimated, the person's posture is determined, and the person's movement is determined based on changes in posture. For example, the posture and behavior of talking on the phone, the posture and behavior of operating an ATM, the posture and behavior of moving around using a wheelchair, the posture and behavior of moving using a white cane, the posture and behavior of reaching for materials. The behavior, the posture of picking up the material, the behavior, etc. are identified. Furthermore, the similarity between posture feature amounts or movement feature amounts may be compared and calculated (determination of whether the postures are the same or the motions are the same, etc.).
  • the estimated height may be compared with the heights of a plurality of users registered in advance in the database to identify which user is the person in the image.
  • the posture recognition function and the movement recognition function may be realized by the techniques disclosed in Patent Document 3 and Non-Patent Document 1 mentioned above.
  • the appearance attribute recognition function recognizes appearance attributes associated with a person (for example, clothing color, shoe color, hairstyle, wearing of a hat, tie, etc., for example, there are more than 100 types of appearance attributes in total). Furthermore, the similarity of recognized appearance attributes may be compared and calculated (it is possible to determine whether they are the same attribute). Alternatively, the recognized external appearance attribute may be compared with the external appearance attributes of a plurality of users registered in advance in the database to identify which user is the person in the image.
  • Image gradient feature detection functions include SIFT, SURF, RIFF, ORB, BRISK, CARD, and HOG. According to this function, gradient features of each frame image are detected.
  • the image color feature detection function generates data indicating the color features of the image, such as a color histogram. According to this function, color features of each frame image are detected.
  • the object recognition function is realized using an engine such as YOLO (which can extract general objects [such as tools and equipment used in sports and other performances] and people).
  • YOLO which can extract general objects [such as tools and equipment used in sports and other performances] and people.
  • various objects can be detected from images. For example, a wheelchair, a white cane, a mobile phone, a predetermined document, etc. may be detected.
  • the character recognition function recognizes numbers and characters that appear in images.
  • the line-of-sight detection function detects the line-of-sight direction of the person in the image. Based on the detected line-of-sight direction and the detected position of the predetermined material in the image, it can be detected that the person is looking at the material.
  • the behavior analysis unit 11 detects that the target person is performing one of the multiple detection target behaviors based on the analysis results received from the image analysis system 20 as described above.
  • the determining unit 12 determines the type of the detected behavior to be detected, the location where the detected behavior is being performed, the length of time the behavior is being performed, the detected
  • the notification destination is determined based on at least one of the time when the target action is performed and the confidence level of the detection result. For example, the determining unit 12 determines the type of the detected behavior to be detected, the location where the detected behavior is being performed, the length of time the behavior is being performed, and the detected behavior to be detected.
  • the notification destination may be determined based on at least two of the time at which the detection is performed and the confidence level of the detection result.
  • the determining unit 12 determines the type of the detected behavior to be detected, the location where the detected behavior is being performed, the length of time the behavior is being performed, and the detected behavior to be detected.
  • the notification destination may be determined based on at least three of the time when the detection is performed and the confidence level of the detection result.
  • the determining unit 12 determines the type of the detected behavior to be detected, the location where the detected behavior is being performed, the length of time the behavior is being performed, and the detected behavior to be detected.
  • the notification destination may be determined based on the time of detection and the reliability of the detection result.
  • the determining unit 12 determines a notification destination from among the plurality of notification destinations.
  • the plurality of predefined notification destinations include a facility worker terminal 40-1, a security terminal 40-2, a processing device administrator terminal 40-3, and a person installed in the facility and present in the facility. It may also include at least one of the visitor terminals that output information to the visitor terminal.
  • the visitor terminal includes at least one of a first ATM terminal 40-4, a second ATM terminal 40-5, and a digital signage 40-6.
  • first correspondence information that associates detection results with notification destinations is generated in advance and stored in the processing device 10.
  • the determining unit 12 determines a notification destination according to the detection result based on the detection result by the behavior analysis unit 11 and the first correspondence information.
  • the detection results by the behavior analysis unit 11 include the type of the detected behavior to be detected, the location where the detected behavior is being performed, the length of time the behavior has been detected, and the length of time the behavior has been detected.
  • the information includes at least one of the time at which the detection target behavior is performed and the confidence level of the detection result.
  • the "type of detected behavior to be detected” indicates any one of a plurality of predefined behaviors to be detected.
  • the "location where the detected behavior to be detected is performed” indicates the location within the facility where the person performing the detected behavior to be detected is located. For example, the installation position of the camera 30 that generated the image in which the detection target behavior was detected may be indicated as the location where the detected detection target behavior is performed.
  • the "length of time for which the detected behavior is being performed” indicates the length of time that the person performing the detected behavior continues to perform the behavior.
  • the length of time is determined by the amount of time a person continuously performs a predetermined detection target behavior (e.g., operating an ATM while talking on a mobile phone) in an image taken with a single camera. It can also be the length of time.
  • a person is continuously performing certain activities within the facility that are subject to detection (e.g., talking on a mobile phone). Time may be calculated. The latter example is realized, for example, by the following processing.
  • the behavior analysis unit 11 identifies a person appearing across a plurality of images taken by a plurality of cameras, using feature amounts of the person's appearance (facial information, etc.). Then, the behavior analysis unit 11 determines the state in which the person detected in the first image as performing a predetermined detection target behavior (e.g., a call using a mobile phone) performs the predetermined detection target behavior. If you frame out from the first image without changing the frame and then enter the frame into the second image while performing the specified detection target action, the frame will change to the second image from the time when you took the frame out from the first image. The length of time may be calculated assuming that the predetermined detection target behavior continues even during the time when the user enters the vehicle.
  • a predetermined detection target behavior e.g., a call using a mobile phone
  • the time from the time when the frame-out from the first image to the second image is less than or equal to a predetermined time.
  • the length of time may be calculated assuming that the predetermined detection target behavior continues even during the time when the frame enters the image.
  • the "time at which the detected behavior to be detected" is performed indicates the time at which the person performing the detected behavior to be detected is performing the behavior to be detected.
  • the "confidence of detection result” indicates the confidence that the detected behavior to be detected is being performed.
  • the reliability of the posture and movement detected by the posture recognition function and the movement recognition function may be used as the certainty of the detection result.
  • the confidence of the posture and movement detected by the posture recognition function and movement recognition function, and the objects used together when performing each detection target action detected by the object recognition function may be integrated using a predetermined method (eg, average, weighted average, etc.) as the certainty of the detection result.
  • the notification destinations are a facility worker terminal 40-1, a security terminal 40-2, a processing device administrator terminal 40-3, a first ATM terminal 40-4, and a second ATM. terminal 40-5 and digital signage 40-6.
  • the facility At least one of the worker terminal 40-1, the security terminal 40-2, and the notification destination terminal 40 for the ATM (the first ATM terminal 40-4 or the second ATM terminal 40-5) It may be determined that the notification destination is determined.
  • the facility worker, security guard, etc. can understand the situation (the situation in which the above-mentioned detection target behavior is detected). Incidents can be prevented by having facility workers, security guards, and the like rush to the scene and talk to the person performing the action.
  • the notification destination terminal 40 for the ATM used by the person performing the detection target behavior as the notification destination, a warning or alert to the person performing the detection target behavior can be realized. Ru.
  • the worker terminal 40-1 of the facility it may be determined that the notification destination is determined.
  • the facility worker can grasp the situation (the situation in which the above-mentioned detection target behavior is detected). Then, the facility worker rushes to the scene and helps the person performing the action, thereby improving the quality of the service.
  • the digital signage 40 near the person performing the behavior -6 may be determined as the notification destination.
  • the digital signage 40-6 installed closest to the camera 30 that generated the image in which the target action was detected may be determined as the notification destination. Identifying the digital signage 40-6 installed closest to a predetermined camera 30 based on information indicating the installation position of the camera 30 registered in advance and information indicating the installation position of the digital signage 40-6. I can do it.
  • the notification destination is the processing device administrator terminal 40-3 and the processing device provider terminal 40-7. It may be determined that at least one of the following is determined as the notification destination.
  • the detected detection target behavior is either "calling using a mobile phone” or "action of operating an ATM while talking using a mobile phone", and If the location where the detection target behavior is detected is a location away from the ATM (that is, a location different from the location where the ATM is located when operating the ATM), the facility worker terminal 40-1 is determined as the notification destination. It may be stipulated that By setting the facility worker terminal 40-1 as the notification destination, the facility worker can grasp the situation (the situation in which the above-mentioned detection target behavior is detected). Incidents can be prevented by having facility workers rush to the scene and talk to the person performing the action.
  • the detected detection target behavior is either "calling using a mobile phone” or "action of operating an ATM while talking using a mobile phone", and If the location where the detection target behavior is detected is near an ATM (that is, the location where the ATM is located when operating the ATM), the notification destination terminal 40 for that ATM (first ATM terminal 40-4, second ATM terminal 40-4, second ATM terminal 40-4, It may be determined that the ATM terminal 40-5, etc.) is determined as the notification destination.
  • the notification destination terminal 40 for the ATM used by the person performing the detection target behavior is determined as the notification destination.
  • the notification destination terminal 40 in a situation where the length of time for operating an ATM while talking on a mobile phone is less than a threshold, the notification destination terminal 40 (first (ATM terminal 40-4, second ATM terminal 40-5, etc.) may be determined as the notification destination.
  • the notification destination terminal 40 in a situation where the length of time for operating an ATM while talking on a mobile phone is less than a threshold, the notification destination terminal 40 (first (ATM terminal 40-4, second ATM terminal 40-5, etc.) may be determined as the notification destination.
  • the facility worker terminal 40-1 when the length of time for operating an ATM while talking on a mobile phone exceeds a threshold, the facility worker terminal 40-1 is notified. It may be determined that the
  • the first correspondence information may specify that when the detection target behavior is detected during business hours of the facility, the worker terminal 40-1 of the facility is determined as the notification destination.
  • the notification destination based on the type of the detected detection target behavior
  • “Determining the notification destination based on the type of the detected detection target behavior” It may be prescribed to determine the notification destination using any of the methods described in "Determining the notification destination based on location”.
  • the processing equipment administrator terminal 40-3 and the processing equipment provider terminal 40-7 is notified. It may be determined that the
  • the detected detection target behavior is either "calling using a mobile phone” or “action of operating an ATM while talking using a mobile phone”, and If the confidence level is high (above the first reference level), it may be determined that the security terminal 40-2 is determined as the notification destination.
  • the detected detection target behavior is either "calling using a mobile phone” or “action of operating an ATM while talking using a mobile phone", and
  • the confidence level is medium (at least the second standard level and below the first standard level)
  • the facility worker terminal 40-1 and the notification destination terminal 40 for the ATM may be determined as the notification destination.
  • At least one of the processing device administrator terminal 40-3 and the processing device provider terminal 40-7 is determined as the notification destination. It may be specified that the By making the processing device administrator terminal 40-3 and the processing device provider terminal 40-7 the destination of all data, it is possible to review the judgment results of the processing device 10, check the validity of the algorithm of the processing device 10, and make corrections. You will be able to appropriately judge whether or not maintenance is necessary.
  • the notification unit 13 notifies the determined notification destination of the detection of the detection target behavior.
  • the notification destination terminal 40 of the notification destination outputs predetermined information in response to the notification from the notification unit 13.
  • the notification destinations are a facility worker terminal 40-1, a security terminal 40-2, a processing device administrator terminal 40-3, a first ATM terminal 40-4, and a second ATM. terminal 40-5 and digital signage 40-6.
  • the facility worker terminal 40-1, security terminal 40-2, and processing device administrator terminal 40-3 output information indicating that a person performing the detection target behavior has been detected.
  • the facility worker terminal 40-1, security terminal 40-2, and processing device administrator terminal 40-3 are configured to identify the type of detected detection target behavior and the detected detection target behavior.
  • the method may further output information indicating at least one of the location, the length of time the detected behavior is being performed, the time the behavior is being detected, and the confidence level of the detection result. good.
  • the first ATM terminal 40-4 and the second ATM terminal 40-5 output predetermined warning information.
  • the first ATM terminal 40-4 and the second ATM terminal 40-5 may output a warning sound through a speaker, or may output audio information to alert people to incidents such as bank transfer fraud. You can also output it.
  • the first ATM terminal 40-4 and the second ATM terminal 40-5 may light up a warning lamp, or output information through a display to alert people to incidents such as wire transfer fraud. You may.
  • the digital signage 40-6 provides appropriate information related to the predetermined material to a person who is interested in the predetermined material.
  • the digital signage 40-6 can output advertisements, guidance, information related to predetermined materials, and the like.
  • the processing device administrator terminal 40-3 and the processing device provider terminal 40-7 output information indicating that new data, that is, new detection results have been accumulated. Then, the processing device administrator terminal 40-3 and the processing device provider terminal 40-7 store the detection results by the processing device 10. That is, the processing device administrator terminal 40-3 and the processing device provider terminal 40-7 store the history of detection results by the processing device 10.
  • the history of detection results includes the type of detected behavior, the location where the detected behavior is performed, the length of time the detected behavior is performed, and the location where the detected behavior is performed. and the confidence level of the detection result.
  • the processing device 10 When the processing device 10 acquires the image generated by the camera 30 (S10), the processing device 10 analyzes the image and detects that the target person in the image is performing one of a plurality of detection target actions (S11). .
  • the processing device 10 detects the detection result in S10, that is, the type of the detected detection target behavior, the location where the detected detection target behavior is performed, and the detected detection result.
  • the notification destination is determined based on at least one of the length of time during which the target behavior is performed, the time when the detected target behavior is performed, and the confidence level of the detection result (S13).
  • the processing device 10 notifies the notification destination determined in S13 of the detection of the detection target behavior (S14).
  • the notification destination terminal 40 that has been notified of the detection of the detection target behavior outputs predetermined information in response to the notification.
  • the processing device 10 having such a configuration the problem of notifying an appropriate notification destination in response to detection of a person performing a predetermined action is solved.
  • a notification is sent to a predetermined notification destination in response to detection of a call using a mobile phone or an action of operating an ATM while talking using a mobile phone. be able to. As a result, incidents can be prevented.
  • the processing device 10 of the second embodiment it is possible to notify a predetermined notification destination in response to detection of movement using a wheelchair or movement using a white cane. As a result, by helping such visitors, the quality of services can be improved.
  • the processing device 10 of the second embodiment it is possible to notify a predetermined notification destination in response to detection of an action showing interest in a predetermined material placed in a facility.
  • the quality of the service can be improved.
  • the processing device 10 of the third embodiment has a function of acquiring operation information indicating the operation details of the ATM, and determining a notification destination for detection of the detection target behavior based on the operation information. This will be explained in detail below.
  • the facility of the third embodiment is a facility where an ATM is installed.
  • the images processed by the behavior analysis unit 11 include images of ATM users (images taken by the first ATM camera 30-1 and the second ATM camera 30-2). It will be done.
  • the behavior analysis unit 11 performs a process of acquiring operation information indicating the details of the ATM operation.
  • the operation information includes at least one of transaction details (transfer, withdrawal, deposit, bookkeeping, etc.) and transaction amount.
  • the behavior analysis unit 11 acquires such operation information from the ATM or from a bank system or post office system linked to the ATM.
  • the determining unit 12 determines the notification destination for the detection of the detection target behavior based on the above operation information. Similar to the second embodiment, the determining unit 12 determines the notification destination based on the first correspondence information generated in advance. A specific example of the first correspondence information will be described below.
  • the detected behavior is "operating an ATM while talking on a mobile phone"
  • the transaction content is a transfer
  • the transaction amount (transfer amount ) is greater than or equal to a predetermined amount
  • the transaction amount is relatively large, not only the facility worker terminal 40-1 but also the security terminal 40-2 can be used as the notification destination, allowing security guards and security organizations (security companies, etc.) It is hoped that this will enable a rapid response and lead to the prevention and early resolution of incidents.
  • the detected behavior is "the behavior of operating an ATM while talking on a mobile phone"
  • the transaction content is a transfer
  • the transaction amount (transfer amount ) is less than a predetermined amount, it may be determined that the worker terminal 40-1 of the facility is determined as the notification destination.
  • the transaction amount is relatively small and the degree of importance is low, by refraining from notifying the security terminal 40-2, the excessive labor burden on security guards and security organizations (security companies, etc.) can be reduced.
  • the detected behavior is "operating an ATM while talking on a mobile phone," but if the transaction content is different from a transfer, the facility It may be determined that the worker terminal 40-1 and the security terminal 40-2 are not determined as notification destinations. If the transaction is not a wire transfer, there is a high possibility that it is not a wire transfer fraud. By refraining from sending unnecessary notifications to the facility worker terminal 40-1 and the security terminal 40-2, it is possible to reduce the excessive labor burden on facility workers, security guards, and security organizations (security companies, etc.).
  • processing device 10 of the third embodiment are similar to those of the processing device 10 of the first and second embodiments.
  • the same effects as those of the processing device 10 of the first and second embodiments are realized. Further, according to the processing device 10 of the third embodiment, it is possible to determine the notification destination for detection of the detection target behavior based on the operation details of the ATM. According to such a processing device 10, unnecessary notifications to the facility worker terminal 40-1 and security terminal 40-2 can be suppressed. As a result, the excessive labor burden on facility workers, security guards, and security organizations (security companies, etc.) can be reduced.
  • the processing device 10 of the fourth embodiment has a function of determining additional notification content to be notified in addition to the detection of the detection target behavior based on the detection result of the detection target behavior. This will be explained in detail below.
  • the determining unit 12 determines the type of the detected behavior to be detected, the location where the detected behavior is being performed, the length of time the behavior is being performed, and the time at which the detected behavior is being performed.
  • the additional notification content to be notified in addition to "detection of detection target behavior” is determined based on at least one of the time when the detection result occurs and the confidence level of the detection result. Then, the notification unit 13 notifies the determined notification destination of the determined “additional notification content" in addition to the "detection of the detection target behavior.”
  • the notification destination terminal 40 can output the notified additional notification content and notify the user.
  • the additional notification content includes an image of the person performing the detected behavior, information indicating the basis for determining that the person is performing the detected behavior, the age of the person whose behavior was detected, and information about the detected behavior.
  • the gender of the detected person the appearance characteristics of the person whose behavior was detected, whether the person whose behavior was detected has a companion, and the details of past transactions of the person whose behavior was detected. and the current location of the person whose behavior is to be detected.
  • the "detected image of a person performing the detection target behavior" is an image in which a person is performing the detection target behavior.
  • the image analysis system 20 can determine posture and movement using the technology disclosed in Patent Document 3.
  • the image analysis system 20 calculates the similarity between a plurality of pre-registered template images showing each of the postures and movements and the posture and movement of the target person in the image, and calculates the degree of similarity between the posture and movement of the target person in the image.
  • a template image whose similarity with the motion satisfies a predetermined condition (for example, the similarity with a template image that is a positive example is above a predetermined level, the similarity with a template image that is a negative example is below a predetermined level, etc.) is searched for.
  • the posture and movement indicated by the template image whose degree of similarity satisfies a predetermined condition are determined to be the posture and movement performed by the target person.
  • the posture and movement determination results by the image analysis system 20 include information indicating the type of posture and movement determined to be performed by the target person, a template image whose degree of similarity satisfies a predetermined condition, and the template image. Including the degree of similarity with the image. Note that if there are a plurality of template images whose similarity satisfies a predetermined condition, the determination result may include the plurality of template images and the similarity with each template image.
  • the person receiving the notification can confirm whether the behavior targeted for detection is actually occurring (the validity of the detection result).
  • the age of the person whose detection target behavior was detected,” “the gender of the person whose detection target behavior was detected,” and “the appearance characteristics of the person whose detection target behavior was detected” are the images generated by the camera 30. can be identified by analyzing it using widely known techniques. The appearance characteristics of the person whose detection target behavior has been detected are the characteristics of clothing and belongings.
  • the person receiving the notification can easily identify the person performing the detection target behavior.
  • Whether or not the person whose detection target behavior was detected has a companion can be determined, for example, by analyzing the image generated by the camera 30, "Is there a person pushing a wheelchair (companion condition)?"
  • the target behavior can be identified by determining whether there is a person moving with the person whose body was detected (other conditions for companions) while touching the body of the person whose target behavior was detected.
  • the person receiving the notification can determine whether or not the person performing the detection target action needs help.
  • Information indicating the past transactions of the person whose detection target behavior was detected is obtained from a bank or post office database, etc. If the person whose behavior is detected can be identified through facial recognition based on the ATM operation details or the image generated by the camera 30 (if the individual can be identified), the information will be stored in the database of the bank or post office, etc. The past (eg, recent) transaction details of that person can be retrieved and used as additional notification details.
  • the person receiving the notification can be provided with materials for determining whether or not the person performing the detection target behavior is a victim of bank transfer fraud.
  • “Current position of a person whose detection target behavior has been detected” can be determined by tracking the person in the image generated by the camera 30 or searching for the person in the image generated by the camera 30 using facial recognition technology. You can identify it by doing so.
  • the person receiving the notification can easily grasp the current location of the person performing the detection target action.
  • the determining unit 12 can determine additional notification content for each determined notification destination. In advance, as shown in FIG. 8, second correspondence information that associates the detection result, notification destination, and additional notification content is generated and stored in the processing device 10. The determining unit 12 determines additional notification content for each detection result based on the detection result by the behavior analysis unit 11, the determined notification destination, and the second correspondence information.
  • the notification destinations are a facility worker terminal 40-1, a security terminal 40-2, a processing device administrator terminal 40-3, a first ATM terminal 40-4, and a second ATM. terminal 40-5 and digital signage 40-6.
  • the detected detection target behavior is "the behavior of operating an ATM while talking on a mobile phone"
  • the determined notification destination is the first ATM terminal 40-4 or
  • additional notification contents are not included. In this case, for example, only the contents described in the second and third embodiments are notified to the first ATM terminal 40-4 or the second ATM terminal 40-5.
  • the detected behavior to be detected is "the behavior of operating an ATM while talking on a mobile phone", and the determined notification destination is the worker terminal 40- of the facility. 1 and the security terminal 40-2, it may be determined that an image of the person performing the detected detection target behavior is determined as the additional notification content.
  • the detected detection target behavior is "the behavior of operating an ATM while talking on a mobile phone”
  • the determined notification destination is the processing device administrator terminal 40- 3 and at least one of the processing device provider terminal 40-7
  • the additional notification will include an image of the person performing the detected behavior and information indicating the basis for determining that the person is performing the behavior to be detected. It may be determined that the content is determined.
  • the detected behavior is "behavior showing interest in a specified material placed in the facility" and the determined notification destination is the digital signage 40-6 , it may be determined that the appearance characteristics of the person whose detection target behavior has been detected are determined as the additional notification content.
  • the detected detection target behavior is "behavior showing interest in a predetermined material placed in the facility," and the determined notification destination is the worker terminal 40- of the facility. 1, it may be determined that an image of the person performing the detected detection target behavior is determined as the additional notification content.
  • the detected detection target behavior is "behavior showing interest in a predetermined material placed in the facility”
  • the determined notification destination is the processing equipment administrator terminal 40- 3 and at least one of the processing device provider terminal 40-7
  • the additional notification will include an image of the person performing the detected behavior and information indicating the basis for determining that the person is performing the behavior to be detected. It may be determined that the content is determined.
  • the processing device 10 When the processing device 10 acquires the image generated by the camera 30 (S20), the processing device 10 analyzes the image and detects that the target person in the image is performing one of a plurality of detection target actions (S21). .
  • the processing device 10 performs the process in S23.
  • the processing device 10 collects the detection results of S20, that is, the type of the detected behavior to be detected, the location where the detected behavior is being performed, the length of time the behavior has been performed, The notification destination is determined based on at least one of the time when the detected behavior to be detected is performed and the confidence level of the detection result. Further, in S23, the processing device 10 processes the detection results of S20, that is, the type of the detected behavior to be detected, the location where the detected behavior is being performed, and the length of time for which the detected behavior is being performed. Then, the content of the additional notification is determined based on at least one of the detected time when the detection target behavior is performed, the confidence level of the detection result, and the determined notification destination.
  • the processing device 10 notifies the notification destination determined in S23 of the detection of the detection target behavior and the additional notification content determined in S23 (S24).
  • the notification destination terminal 40 that has been notified of the detection of the detection target behavior outputs predetermined information in response to the notification.
  • processing device 10 of the fourth embodiment are similar to those of the processing device 10 of the first to third embodiments.
  • the same effects as those of the processing device 10 of the first to third embodiments are realized. Further, according to the processing device 10 of the fourth embodiment, it is possible to notify appropriate additional notification contents according to the detection result and the notification destination. As a result, appropriate information can be notified to the notification destination while suppressing the inconvenience of being notified of too much information.
  • ⁇ Fifth embodiment> variations of various processes performed by the processing system will be described.
  • the processing system may employ one of the variations described below. Further, the processing system can employ a combination of a plurality of variations described below.
  • first ATM camera 30-1 and second ATM camera 30-2- may constantly capture moving images during a predetermined time period (eg, when the facility is open for business, the ATM is in operation, etc.).
  • first ATM camera 30-1 and the second ATM camera 30-2 may take still images in response to detection of a predetermined trigger.
  • first ATM camera 30-1 and the second ATM camera 30-2 may take moving images for a predetermined period of time in response to detection of a predetermined trigger.
  • the predetermined trigger is detection of a predetermined operation performed on the ATM.
  • the predetermined operations include insertion of a card into the ATM, insertion of a passbook into the ATM, and predetermined input via an input device (touch panel, operation button, etc.) of the ATM.
  • the predetermined input may be, for example, an input to start a transfer procedure.
  • the camera 30 may take still images at predetermined intervals (eg, every minute). Then, if a person in a predetermined posture (e.g., a posture when talking, a posture when riding a wheelchair, a posture when using a white cane) is detected in the still image, the camera 30 shoots a moving image from that person. It's okay.
  • a predetermined posture e.g., a posture when talking, a posture when riding a wheelchair, a posture when using a white cane
  • the camera 30 is photographing a moving image.
  • the behavior analysis unit 11 may perform a process of detecting a detection target behavior using all frame images included in the moving image as processing targets.
  • the behavior analysis unit 11 may select some of the plurality of frame images included in the moving image, and perform the process of detecting the detection target behavior using only the selected frame images as processing targets.
  • the behavior analysis unit 11 uses the "predetermined trigger" described in "Photographing by the first ATM camera 30-1 and the second ATM camera 30-2" above. Frame images taken at the timing when " is detected may be selected. In addition, the behavior analysis unit 11 may select frame images for a predetermined period of time from frame images taken at the timing when the predetermined trigger is detected.
  • the behavior analysis unit 11 may select frame images at predetermined intervals (eg, every predetermined number of frame images). If a person in a predetermined posture (e.g., posture while talking, posture when riding a wheelchair, posture when using a white cane) is detected in the frame images selected in this way, the behavior analysis unit 11 may select consecutive frame images for a predetermined period of time from there.
  • a predetermined posture e.g., posture while talking, posture when riding a wheelchair, posture when using a white cane
  • the image analysis system 20 can determine posture and movement using the technology disclosed in Patent Document 3.
  • the image analysis system 20 calculates the similarity between a plurality of pre-registered template images showing each of the postures and movements and the posture and movement of the target person in the image, and calculates the degree of similarity between the posture and movement of the target person in the image.
  • a template image whose similarity with motion satisfies a predetermined condition is searched.
  • the posture and movement indicated by the template image whose degree of similarity satisfies a predetermined condition are determined to be the posture and movement performed by the target person.
  • variations of the processing by the image analysis system 20 will be explained.
  • the template image may be a positive example, a negative example, or both.
  • a positive example is a posture or movement when performing a predetermined detection target action.
  • a negative example is a posture or movement that is not a posture or movement when performing a predetermined detection target action, but is similar to a posture or movement when performing a predetermined detection target action. For example, if the predetermined detection target behavior is "talking using a mobile phone," a positive example would be a talking posture, and a negative example would be an upright posture, a head-scratching posture, etc.
  • essential requirements for matching with the template image may be registered. Images that do not meet the mandatory requirements will not be matched against the template image.
  • the essential requirements may be determined for each posture or movement. For example, "the hand of the target person is shown" may be defined as an essential requirement for matching with a template image showing a telephone conversation posture. If the target person's hands are not included in the image, it will not be possible to determine whether the target person is talking on the phone or not, so there is no point in comparing the target person's hand with the template image. By comparing only images that meet the essential requirements with the template image, unnecessary matching can be avoided and the burden on the computer can be reduced.
  • both positive and negative examples are registered for each posture and movement of the detection target.
  • a plurality of positive examples and a plurality of negative examples are registered in association with the posture or movement of one detection target.
  • the image analysis system 20 may determine that the target person in the image to be analyzed is performing the posture or movement indicated by the matched positive example.
  • the image analysis system 20 detects that the target person in the image to be analyzed has a posture or movement similar to that of the matched negative example. It may be determined that this is not done.
  • the image analysis system 20 may determine the number of matches in each case. For example, if the number of matches with positive examples is greater than the number of matches with negative examples, the image analysis system 20 determines that the target person in the image to be analyzed is performing the posture or movement indicated by the matched positive example. You may judge. On the other hand, if the number of matches with negative examples is greater than the number of matches with positive examples, the image analysis system 20 determines that the target person in the image to be analyzed is a detection target whose posture or movement is similar to that of the matched negative example. It may be determined that the person is not performing the same posture or movement.
  • the image analysis system 20 determines the degree of similarity between the image to be analyzed and the template image. The determination may be made based on the following.
  • the image analysis system 20 determines that the target person in the image to be analyzed takes the first posture (or the first movement). It may be determined that the On the other hand, if the template image with the highest degree of similarity to the image to be analyzed is a negative example, the image analysis system 20 determines that the target person in the image to be analyzed takes the first posture (or the first movement). It may be determined that the
  • the image analysis system 20 may calculate ⁇ statistical values (average value, maximum value , minimum value, mode, median value, etc.)" and "statistical value of the similarity of the negative example that matches the image to be analyzed among the negative examples of the first posture (or first movement).'' The determination may be made based on the magnitude relationship between the two.
  • the image analysis system 20 determines that the target person in the image to be analyzed is performing a detection target posture or movement that is similar to the posture or movement of the matched negative example. It may be determined that there is no such thing.
  • the statistical value of the similarity of the positive examples that match the analysis target image among the positive examples of the first posture (or first movement) can be changed to "the statistical value of the similarity of the positive examples that match the image to be analyzed” may be replaced with "statistical value of the similarity of all positive examples of the first movement)".
  • the statistical value of the similarity of the negative example that matches the image to be analyzed among the negative examples of the first posture (or first movement) is It may be replaced with "statistical value of similarity of all negative examples”.
  • the image analysis system 20 may determine the posture and movement of the target person using other techniques such as machine learning.
  • the image analysis system 20 determines the posture and movement of a target person based on a plurality of images.
  • the plurality of images may be a plurality of still images generated by shooting a plurality of times, or may be a plurality of frame images generated by shooting a moving image.
  • the image analysis system 20 determines that the target person in the image is performing a predetermined posture or movement even once through multiple determinations based on the plurality of images, the image analysis system 20 determines that the target person in the image is performing the predetermined posture or movement. It may be determined that
  • the image analysis system 20 It may be determined that the target person in the photograph has performed the posture or movement.
  • the image analysis system 20 determines through multiple determinations based on multiple images that the object is performing a predetermined posture or movement for a predetermined Q number or more consecutively, It may be determined that the person has performed the posture or movement.
  • the image analysis system 20 may make a determination by weighting the determination results of each of a plurality of images.
  • the image analysis system 20 selects the person who appears largest in the image as the target person. It is possible to identify the object and determine its posture and movement. Alternatively, the person in the image may be tracked using the face or posture, and the person continuously appearing in the image may be identified as the target person. Furthermore, the image analysis system 20 may cooperate with the ATM to identify the timing from the start of the transaction to the end of the transaction. A person may be specified as the target person.
  • the image analysis system 20 may determine whether or not an ATM operation involves looking into the ATM based on the number of people other than the target person, the direction of their faces, the size of their faces, and the like.
  • the digital signage 40-6 may output information related to the material in which the target person has shown interest, and information determined based on various attributes of the target person.
  • Various attributes of the target person may be identified through image analysis generated by the camera 30.
  • an individual is identified from a card or passbook inserted into an ATM, and information (address, etc.) that is linked to that individual and registered in advance in the bank system or post office system is used as information indicating the attributes of the target person. It's okay.
  • the behavior history of the target person which is identified by tracking the target person within the image generated by the camera 30, may be used as information indicating the attributes of the target person. Note that when tracking a target person, a plurality of cameras 30 can be linked.
  • the processing device 10 may calculate the tendency of each detection target behavior to appear based on the detection results of each of the plurality of detection target behaviors. For example, the processing device 10 may calculate the situation for each case by performing statistical processing on the cases by time zone, day of the week, store, or the like. Based on the results of this calculation, facilities can take measures such as increasing the number of workers in specific cases or playing audio warnings of bank transfer fraud.
  • the notification destination terminal 40 receives an image of the person performing the detected behavior for a predetermined period of time before the timing at which the behavior to be detected is detected.
  • a moving image from the timing may be output as additional notification content.
  • the same effects as those of the processing systems of the first to fourth embodiments are realized. Further, according to the processing system of the fifth embodiment, various variations can be adopted, which is preferable because the degree of freedom in design is increased.
  • a behavior analysis means for detecting that a target person appearing in an image taken of a person in the facility is performing one of a plurality of detection target behaviors; The detected type of the detection target behavior, the location where the detected detection target behavior is performed, the length of time the detected detection target behavior is performed, and the time at which the detected detection target behavior is performed. determining means for determining a notification destination based on at least one of the time and the certainty of the detection result; notification means for notifying the determined notification destination of the detection of the detection target behavior; A processing device having: 2.
  • the determining means includes the type of the detected behavior to be detected, the location where the detected behavior is being performed, the length of time the behavior to be detected is being performed, and the detected target to be detected. 2. The processing device according to 1, wherein the notification destination is determined based on at least two of the time when the action is performed and the confidence level of the detection result. 3. The determining means includes the type of the detected behavior to be detected, the location where the detected behavior is being performed, the length of time the behavior to be detected is being performed, and the detected target to be detected. 2. The processing device according to 1, wherein the notification destination is determined based on at least three of the time when the action is performed and the confidence level of the detection result. 4.
  • the determining means includes the type of the detected behavior to be detected, the location where the detected behavior is being performed, the length of time the behavior to be detected is being performed, and the detected target to be detected. 2.
  • the facility is equipped with an ATM (Automatic Teller Machine).
  • the image includes an image of an ATM user,
  • the behavior analysis means acquires operation information indicating operation details of the ATM, 5.
  • the processing device according to any one of 1 to 4, wherein the determining means determines a notification destination for detection of the detection target behavior further based on the operation information. 6.
  • the detection target actions include talking using a mobile phone, operating an ATM while talking using a mobile phone, moving using a wheelchair, moving using a white cane, and 7.
  • the processing device according to any one of 1 to 6, including at least one of the behaviors showing interest in the material.
  • the notification destination is a terminal for workers of the facility, a terminal for security, a terminal for an administrator who manages the processing equipment, and a visitor who is installed in the facility and outputs information to a person inside the facility.
  • the determining means includes the type of the detected behavior to be detected, the location where the detected behavior is being performed, the length of time the behavior to be detected is being performed, and the detected target to be detected. Determining additional notification content to be notified in addition to the detection of the detection target behavior based on at least one of the time when the behavior is performed and the confidence level of the detection result, 9.
  • the processing device according to any one of 1 to 8, wherein the notification means notifies the determined notification destination of the determined additional notification content.
  • the additional notification contents include the image of the person performing the detection target behavior, information indicating the basis for determining that the detection target behavior was performed, and the age of the person whose detection target behavior was detected.
  • the processing device which includes at least one of information indicating past transaction details of the person whose behavior was detected, and the current location of the person whose behavior was detected. 11. 11. The processing device according to 9 or 10, wherein the determining means determines the additional notification content for each of the notification destinations. 12.
  • the computer is Detects that a target person in an image of a person inside the facility is performing one of multiple detection target actions, The detected type of the detection target behavior, the location where the detected detection target behavior is performed, the length of time the detected detection target behavior is performed, and the time at which the detected detection target behavior is performed. determining a notification destination based on at least one of the time and the certainty of the detection result; Notifying the determined notification destination of the detection of the detection target behavior; Processing method. 13.
  • Behavior analysis means for detecting that a target person appearing in an image taken of a person in the facility is performing one of a plurality of detection target behaviors; The detected type of the detection target behavior, the location where the detected detection target behavior is performed, the length of time the detected detection target behavior is performed, and the time at which the detected detection target behavior is performed. determining means for determining a notification destination based on at least one of the time and the certainty of the detection result; notification means for notifying the determined notification destination of the detection of the detection target behavior; A recording medium that records a program that functions as a
  • Processing device 11 Behavior analysis section 12 Determination section 13 Notification section 20 Image analysis system 30 Camera 40 Notification destination terminal 1A Processor 2A Memory 3A Input/output I/F 4A peripheral circuit 5A bus

Landscapes

  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Alarm Systems (AREA)

Abstract

本発明の処理装置(10)は、施設内にいる人物を撮影した画像に写る対象人物が複数の検出対象行動の中のいずれかを行っていることを検出する行動解析部(11)と、検出された検出対象行動の種類、検出された検出対象行動を行っている場所、検出された検出対象行動を行っている時間の長さ、検出された検出対象行動を行っている時刻、及び検出結果の確信度の中の少なくとも1つに基づき、通知先を決定する決定部(12)と、決定された通知先に、検出対象行動の検出を通知する通知部(13)と、を有する。

Description

処理装置、処理方法、および記録媒体
 本発明は、処理装置、処理方法、および記録媒体に関する。
 本発明に関連する技術が特許文献1乃至3、及び非特許文献1に開示されている。
 特許文献1には、ATM(Automatic Teller Machine)の利用者を撮影した画像を解析し、その利用者が振り込め詐欺にあっている又はあいそうな可能性が非常に高いと判定した場合、監視センタにその旨を通知する技術が開示されている。また、被害にあいそうな度合に応じて、通知先を選択することが開示されている。
 特許文献2には、ATMの利用者を撮影した画像を解析し、その利用者が通話姿勢をとっていることが検出された場合、警報する技術が開示されている。
 特許文献3には、画像に含まれる人体の複数のキーポイント各々の特徴量を算出し、算出した特徴量に基づき姿勢が似た人体や動きが似た人体を含む画像を検索したり、当該姿勢や動きが似たもの同士でまとめて分類したりする技術が開示されている。
 非特許文献1には、人物の骨格推定に関連する技術が開示されている。
特開2010-238204号 特開2010-176531号 国際公開第2021/084677号
Zhe Cao, Tomas Simon, Shih-En Wei, Yaser Sheikh, "Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields", The IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2017, P. 7291-7299
 画像解析により、携帯電話で通話している人物、車いすを用いて移動している人物、白杖を用いて移動している人物等、様々な行動を行っている人物を検出することができる。所定の行動を行っている人物の検出に応じて、その旨を適切な通知先に通知することにより、事件の未然防止やサービスの品質向上等が実現される。
 特許文献1に開示の被害にあいそうな度合に応じて通知先を選択する手段は、被害にあいそうなケース以外に利用できない。すなわち、利用場面が限られるという問題がある。特許文献2及び3、非特許文献1は、適切な通知先に適切な情報を通知するという課題及びその実現手段を開示していない。
 本発明の目的の一例は、上述した問題を鑑み、所定の行動を行っている人物の検出に応じて適切な通知先に通知するという課題を解決する処理装置、処理方法、および記録媒体を提供することにある。
 本発明の一態様によれば、
 施設内にいる人物を撮影した画像に写る対象人物が複数の検出対象行動の中のいずれかを行っていることを検出する行動解析手段と、
 検出された前記検出対象行動の種類、検出された前記検出対象行動を行っている場所、検出された前記検出対象行動を行っている時間の長さ、検出された前記検出対象行動を行っている時刻、及び検出結果の確信度の中の少なくとも1つに基づき、通知先を決定する決定手段と、
 決定された前記通知先に、前記検出対象行動の検出を通知する通知手段と、
を有する処理装置が提供される。
 本発明の一態様によれば、
 コンピュータが、
  施設内にいる人物を撮影した画像に写る対象人物が複数の検出対象行動の中のいずれかを行っていることを検出し、
  検出された前記検出対象行動の種類、検出された前記検出対象行動を行っている場所、検出された前記検出対象行動を行っている時間の長さ、検出された前記検出対象行動を行っている時刻、及び検出結果の確信度の中の少なくとも1つに基づき、通知先を決定し、
  決定された前記通知先に、前記検出対象行動の検出を通知する、
処理方法が提供される。
 本発明の一態様によれば、
 コンピュータを、
  施設内にいる人物を撮影した画像に写る対象人物が複数の検出対象行動の中のいずれかを行っていることを検出する行動解析手段、
  検出された前記検出対象行動の種類、検出された前記検出対象行動を行っている場所、検出された前記検出対象行動を行っている時間の長さ、検出された前記検出対象行動を行っている時刻、及び検出結果の確信度の中の少なくとも1つに基づき、通知先を決定する決定手段、
  決定された前記通知先に、前記検出対象行動の検出を通知する通知手段、
として機能させるプログラムを記録した記録媒体が提供される。
 本発明の一態様によれば、所定の行動を行っている人物の検出に応じて適切な通知先に通知するという課題を解決する処理装置、処理方法、および記録媒体が実現される。
 上述した目的、およびその他の目的、特徴および利点は、以下に述べる公的な実施の形態、およびそれに付随する以下の図面によってさらに明らかになる。
処理装置の機能ブロック図の一例を示す図である。 処理システムの機能ブロック図の一例を示す図である。 処理システムの機能ブロック図の具体例を示す図である。 処理装置のハードウエア構成の一例を示す図である。 行動解析部の処理を説明するための図である。 処理装置が処理する情報の一例を模式的に示す図である。 処理装置の処理の流れの一例を示すフローチャートである。 処理装置が処理する情報の一例を模式的に示す図である。 処理装置の処理の流れの一例を示すフローチャートである。
 以下、本発明の実施の形態について、図面を用いて説明する。尚、すべての図面において、同様な構成要素には同様の符号を付し、適宜説明を省略する。
<第1の実施形態>
 図1は、第1の実施形態に係る処理装置10の概要を示す機能ブロック図である。処理装置10は、行動解析部11と、決定部12と、通知部13とを備える。
 行動解析部11は、施設内にいる人物を撮影した画像に写る対象人物が複数の検出対象行動の中のいずれかを行っていることを検出する。決定部12は、検出された検出対象行動の種類、検出された検出対象行動を行っている場所、検出された検出対象行動を行っている時間の長さ、検出された前記検出対象行動を行っている時刻、及び検出結果の確信度の中の少なくとも1つに基づき、通知先を決定する。通知部13は、決定された通知先に、検出対象行動の検出を通知する。
 このような構成を備える処理装置10によれば、所定の行動を行っている人物の検出に応じて適切な通知先に通知するという課題が解決される。
<第2の実施形態>
「概要」
 第2の実施形態の処理装置10は、第1の実施形態の処理装置10をより具体化したものである。
「処理装置10を含む処理システムの全体像」
 図2に、処理システムの機能ブロック図の一例を示す。図2に示すように、処理システムは、処理装置10と、カメラ30と、通知先端末40とを含む。
 カメラ30は、施設内に設置される。施設は、銀行、郵便局、スーパーマーケット、コンビニエンスストア、デパート、アミューズメントパーク、ビル、駅、空港等様々であり、特にその詳細は限定されない。図2には複数のカメラ30が示されているが、1つのカメラ30が施設に設置されてもよいし、複数のカメラ30が施設に設置されてもよい。カメラ30は、例えば、施設の出入口、施設内の所定の機器が設置された場所、階段に向かうエリア等に設置される。なお、カメラ30の設置位置のここでの例示はあくまで一例であり、これらに限定されない。カメラ30は、動画像を撮影してもよいし、予め定められた所定のタイミングで静止画像を撮影してもよい。
 処理装置10は、カメラ30が生成した画像を解析し、画像に写る対象人物が予め定義された複数の検出対象行動の中のいずれかを行っていることを検出する。次いで、処理装置10は、検出された検出対象行動の種類、検出された検出対象行動を行っている場所、検出された検出対象行動を行っている時間の長さ、検出された検出対象行動を行っている時刻、及び検出結果の確信度の中の少なくとも1つに基づき、検出結果の通知先を決定する。そして、処理装置10は、決定した通知先に検出結果を通知する。複数の通知先端末40の中のいずれかが通知先として決定される。なお、処理装置10の処理の詳細は、後述する。
 通知先端末40は、検出結果の通知先の端末である。通知先端末40は、スマートフォン、タブレット端末、携帯電話、パーソナルコンピュータ、専用端末、デジタルサイネージ等であるが、これらに限定されない。処理装置10は、決定した通知先の通知先端末40に、検出結果を送信する。通知先端末40は、処理装置10からの通知に応じて、所定の情報を出力する。
 次に、図3を用いて、第2の実施形態の処理システムの具体例を説明する。なお、図3に示す具体例はあくまで一例であり、処理システムの構成はこれに限定されない。
 当該例の施設は、ATM(Automatic Teller Machine)が設置された施設である。例えば、銀行、郵便局、コンビニエンスストア、スーパーマーケット、デパート等が例示されるが、これらに限定されない。
 カメラ30は、ATM毎に設置され、各ATMの利用者を撮影する。図3では、第1のATM用カメラ30-1、及び第2のATM用カメラ30-2が示されている。第1のATM用カメラ30-1は、第1のATMの利用者を撮影する。第2のATM用カメラ30-2は、第2のATMの利用者を撮影する。図3では、ATM用のカメラ30が2つ示されているが、その数はこれに限定されない。
 また、カメラ30は施設内のその他の位置にいる人を撮影する位置に設置されてもよい。例えば、施設の入口付近の人を撮影する入口カメラ30-3や、施設に設置されたデジタルサイネージ付近の人を撮影するデジタルサイネージ用カメラ30-4等が例示されるが、これに限定されない。
 通知先端末40は、図3に示すように、施設の作業者用端末40-1、警備用端末40-2、処理装置管理者用端末40-3、第1のATM用端末40-4、第2のATM用端末40-5、デジタルサイネージ40-6、及び処理装置提供者用端末40-7の中の少なくとも1つを含むことができる。
 施設の作業者用端末40-1は、施設の作業者(来場者の接客等を行う作業者)が利用する端末である。施設の作業者用端末40-1を介して、施設の作業者に、処理装置10の検出結果、すなわち所定の検出対象行動を行っている人物が検出されたことが通知される。施設の作業者用端末40-1は、スマートフォン、タブレット端末、携帯電話、パーソナルコンピュータ、専用端末等である。なお、処理装置10から施設の作業者用端末40-1に検出結果が送信されてもよい。その他、処理装置10から施設のサーバに検出結果が送信され、施設のサーバから施設の作業者用端末40-1に検出結果が送信されてもよい。また、その他のルートで、処理装置10の検出結果が施設の作業者用端末40-1に送信されてもよい。
 警備用端末40-2は、警備員や警備組織(警備会社等)の関係者が利用する端末である。警備用端末40-2を介して、警備員や警備組織(警備会社等)の関係者に、処理装置10の検出結果、すなわち所定の検出対象行動を行っている人物が検出されたことが通知される。警備用端末40-2は、スマートフォン、タブレット端末、携帯電話、パーソナルコンピュータ、専用端末等である。なお、処理装置10から警備用端末40-2に検出結果が送信されてもよい。その他、処理装置10から警備組織(警備会社等)のサーバに検出結果が送信され、警備組織(警備会社等)のサーバから警備用端末40-2に検出結果が送信されてもよい。また、その他のルートで、処理装置10の検出結果が警備用端末40-2に送信されてもよい。
 処理装置管理者用端末40-3は、処理装置10を管理(保守、整備等)する管理者(施設の担当者等)が利用する端末である。処理装置管理者用端末40-3を介して、処理装置10を管理する管理者に、処理装置10の検出結果、すなわち所定の検出対象行動を行っている人物が検出されたことが通知される。処理装置管理者用端末40-3は、スマートフォン、タブレット端末、携帯電話、パーソナルコンピュータ、専用端末等である。なお、処理装置10から処理装置管理者用端末40-3に検出結果が送信されてもよい。その他、処理装置10から処理装置10を管理する管理者が属する団体のサーバに検出結果が送信され、そのサーバから処理装置管理者用端末40-3に検出結果が送信されてもよい。また、その他のルートで、処理装置10の検出結果が処理装置管理者用端末40-3に送信されてもよい。
 第1のATM用端末40-4及び第2のATM用端末40-5は、ATMの利用者に向けて通知を行う端末である。ATM毎に通知先端末40が設けられる。第1のATM用端末40-4及び第2のATM用端末40-5は、ATMそのものであってもよいし、ATMの近辺に設置された出力装置であってもよい。出力装置の例として、スピーカ、ディスプレイ、警告ランプ等が例示される。なお、処理装置10から第1のATM用端末40-4及び第2のATM用端末40-5各々に検出結果が送信されてもよい。その他、処理装置10から施設のサーバに検出結果が送信され、施設のサーバから第1のATM用端末40-4及び第2のATM用端末40-5各々に検出結果が送信されてもよい。また、その他のルートで、処理装置10の検出結果が第1のATM用端末40-4及び第2のATM用端末40-5各々に送信されてもよい。
 デジタルサイネージ40-6は、施設の来場者に向けて通知やその他の情報の提示を行う端末である。デジタルサイネージ40-6は、施設内の任意の位置に設置される。なお、処理装置10からデジタルサイネージ40-6に検出結果が送信されてもよい。その他、処理装置10から施設のサーバに検出結果が送信され、施設のサーバからデジタルサイネージ40-6に検出結果が送信されてもよい。また、その他のルートで、処理装置10の検出結果がデジタルサイネージ40-6に送信されてもよい。
 処理装置提供者用端末40-7は、処理装置10を提供した提供者(処理装置10のメーカや販売者)の担当者等が利用する端末である。処理装置提供者用端末40-7を介して、処理装置10を提供した提供者の担当者に、処理装置10の検出結果、すなわち所定の検出対象行動を行っている人物が検出されたことが通知される。処理装置提供者用端末40-7は、スマートフォン、タブレット端末、携帯電話、パーソナルコンピュータ、専用端末等である。なお、処理装置10から処理装置提供者用端末40-7に検出結果が送信されてもよい。その他、処理装置10から処理装置10を提供した提供者のサーバに検出結果が送信され、そのサーバから処理装置提供者用端末40-7に検出結果が送信されてもよい。また、その他のルートで、処理装置10の検出結果が処理装置提供者用端末40-7に送信されてもよい。
「ハードウエア構成」
 次に、処理装置10のハードウエア構成の一例を説明する。処理装置10の各機能部は、任意のコンピュータのCPU(Central Processing Unit)、メモリ、メモリにロードされるプログラム、そのプログラムを格納するハードディスク等の記憶ユニット(あらかじめ装置を出荷する段階から格納されているプログラムのほか、CD(Compact Disc)等の記録媒体やインターネット上のサーバ等からダウンロードされたプログラムをも格納できる)、ネットワーク接続用インターフェイスを中心にハードウエアとソフトウエアの任意の組合せによって実現される。そして、その実現方法、装置にはいろいろな変形例があることは、当業者には理解されるところである。
 図4は、処理装置10のハードウエア構成を例示するブロック図である。図4に示すように、処理装置10は、プロセッサ1A、メモリ2A、入出力インターフェイス3A、周辺回路4A、バス5Aを有する。周辺回路4Aには、様々なモジュールが含まれる。処理装置10は周辺回路4Aを有さなくてもよい。なお、処理装置10は物理的及び/又は論理的に分かれた複数の装置で構成されてもよい。この場合、複数の装置各々が上記ハードウエア構成を備えることができる。
 バス5Aは、プロセッサ1A、メモリ2A、周辺回路4A及び入出力インターフェイス3Aが相互にデータを送受信するためのデータ伝送路である。プロセッサ1Aは、例えばCPU、GPU(Graphics Processing Unit)などの演算処理装置である。メモリ2Aは、例えばRAM(Random Access Memory)やROM(Read Only Memory)などのメモリである。入出力インターフェイス3Aは、入力装置、外部装置、外部サーバ、外部センサ、カメラ等から情報を取得するためのインターフェイスや、出力装置、外部装置、外部サーバ等に情報を出力するためのインターフェイスなどを含む。入力装置は、例えばキーボード、マウス、マイク、物理ボタン、タッチパネル等である。出力装置は、例えばディスプレイ、スピーカ、プリンター、メーラ等である。プロセッサ1Aは、各モジュールに指令を出し、それらの演算結果をもとに演算を行うことができる。
「機能構成」
 次に、第2の実施形態の処理装置10の機能構成を詳細に説明する。図1に、第2の実施形態の処理装置10の機能ブロック図の一例を示す。図示するように、処理装置10は、行動解析部11と、決定部12と、通知部13とを有する。
 行動解析部11は、カメラ30が生成した画像、すなわち施設内にいる人物を撮影した画像に写る人物(以下、「対象人物」と呼ぶ)が複数の検出対象行動の中のいずれかを行っていることを検出する。
 「検出対象行動」は、事件の未然防止や施設が提供するサービスの品質向上等の目的で検出することが望まれる行動である。例えば、検出対象行動は、携帯電話を用いた通話、携帯電話を用いた通話をしながらATMを操作する行動、車いすを用いた移動、白杖を用いた移動、及び施設内に置かれた所定の資料(パンフレット、カタログ、広告、ちらし等)に興味を示す行動の中の少なくとも1つを含んでもよい。施設内に置かれた所定の資料に興味を示す行動は、所定の資料に手を伸ばす行動、所定の資料を手に取る行動、所定の資料を見る行動、所定の資料を所定時間以上見る行動等である。
 携帯電話を用いた通話や携帯電話を用いた通話をしながらATMを操作する行動を検出することで、振り込め詐欺等の事件の未然防止が実現される。車いすを用いた移動や白杖を用いた移動を検出し、そのような来場者の手助けを行うことで、サービスの品質向上等が実現される。また、施設内に置かれた所定の資料に興味を示す行動を検出し、そのような来場者に適切な情報を提供することで、サービスの品質向上等が実現される。
 画像の解析により、対象人物が検出対象行動を行っていることを検出することができる。画像の解析は、予め用意された画像解析システム20が行う。図5に示すように、行動解析部11は、画像を画像解析システム20に入力する。そして、行動解析部11は、画像の解析結果を画像解析システム20から取得する。画像解析システム20は、処理装置10の一部であってもよいし、処理装置10から物理的及び/又は論理的に独立した外部装置であってもよい。
 ここで、画像解析システム20について説明する。画像解析システム20は、顔認識機能、人型認識機能、姿勢認識機能、動き認識機能、外観属性認識機能、画像の勾配特徴検出機能、画像の色特徴検出機能、物体認識機能、文字認識機能、及び視線検出機能の中の少なくとも1つを備える。
 顔認識機能では、人物の顔特徴量を抽出する。さらに、顔特徴量間の類似性を照合・計算してもよい(同一人物であるかの判定等)。また、抽出した顔特徴量とデータベースに予め登録されている複数のユーザの顔特徴量との照合を行い、画像に写っている人物がどのユーザであるかを特定してもよい。
 人型認識機能では、人物の人体的特徴量(例えば、体形の肥痩や、身長、服装などの全体的な特徴を指す)を抽出する。さらに、人体的特徴量間の類似性を照合・計算してもよい(同一人物であるかの判定等)。また、抽出した人体的特徴量とデータベースに予め登録されている複数のユーザの人体的特徴量との照合を行い、画像に写っている人物がどの人物であるかを特定してもよい。
 姿勢認識機能及び動き認識機能では、人物の関節点を検出し、関節点を繋げて棒人間モデルを構成する。そして、その棒人間モデルに基づき人物を検出したり、人物の身長を推定したり、姿勢を特定したり、姿勢の変化に基づき動きを特定したりする。例えば、通話する姿勢や通話する行動、ATMを操作する姿勢やその行動、車いすを用いて移動する姿勢やその行動、白杖を用いて移動する姿勢やその行動、資料に手を伸ばす姿勢やその行動、資料を手に取る姿勢やその行動等が特定される。さらに、姿勢の特徴量間や動きの特徴量間の類似性を照合・計算してもよい(同一姿勢また同一の動きであるかの判定等)。また、推定した身長とデータベースに予め登録されている複数のユーザの身長との照合を行い、画像に写っている人物がどのユーザであるかを特定してもよい。姿勢認識機能及び動き認識機能は、上記特許文献3及び非特許文献1に開示の技術で実現されてもよい。
 外観属性認識機能では、人物に付随する外観的な属性(例えば、服装色、靴色、髪型、帽子・ネクタイなどの着用、例えば合計100種類以上の外観属性がある)を認識する。さらに、認識した外観属性の類似性を照合・計算してもよい(同一属性であるかの判定が可能)。また、認識した外観的な属性とデータベースに予め登録されている複数のユーザの外観的な属性との照合を行い、画像に写っている人物がどのユーザであるかを特定してもよい。
 画像の勾配特徴検出機能は、SIFT、SURF、RIFF、ORB、BRISK、CARD、HOGなどである。当該機能によれば、各フレーム画像の勾配特徴が検出される。
 画像の色特徴検出機能では、例えばカラーヒストグラムなど、画像の色の特徴を示すデータが生成される。当該機能によれば、各フレーム画像の色特徴が検出される。
 物体認識機能は、例えばYOLO(一般物体[例えば、スポーツやその他のパフォーマンスで利用される道具、設備など]の抽出や、人の抽出ができる)等のエンジンを利用して実現される。物体認識機能を利用することで、画像から各種物体を検出することができる。例えば、車いす、白杖、携帯電話、所定の資料等が検出されてもよい。
 文字認識機能では、画像に映る数字や文字等を認識する。
 視線検出機能では、画像に写る人物の視線方向を検出する。検出した視線方向と検出された所定の資料の画像内の位置とに基づき、その人物がその資料を見ていることを検出することができる。
 行動解析部11は、上述のような画像解析システム20から受信した解析結果に基づき、対象人物が複数の検出対象行動の中のいずれかを行っていることを検出する。
 図1に戻り、決定部12は、検出された検出対象行動の種類、検出された検出対象行動を行っている場所、検出された検出対象行動を行っている時間の長さ、検出された検出対象行動を行っている時刻、及び検出結果の確信度の中の少なくとも1つに基づき、通知先を決定する。例えば、決定部12は、検出された検出対象行動の種類、検出された検出対象行動を行っている場所、検出された検出対象行動を行っている時間の長さ、検出された検出対象行動を行っている時刻、及び検出結果の確信度の中の少なくとも2つに基づき、通知先を決定してもよい。または、決定部12は、検出された検出対象行動の種類、検出された検出対象行動を行っている場所、検出された検出対象行動を行っている時間の長さ、検出された検出対象行動を行っている時刻、及び検出結果の確信度の中の少なくとも3つに基づき、通知先を決定してもよい。または、決定部12は、検出された検出対象行動の種類、検出された検出対象行動を行っている場所、検出された検出対象行動を行っている時間の長さ、検出された検出対象行動を行っている時刻、及び検出結果の確信度の全てに基づき、通知先を決定してもよい。
 複数の通知先が予め定義される。そして、決定部12は、その複数の通知先の中から通知先を決定する。例えば、予め定義される複数の通知先は、施設の作業者用端末40-1、警備用端末40-2、処理装置管理者用端末40-3、及び施設に設置され、施設内にいる人物に向けて情報を出力する来場者用端末の中の少なくとも1つを含んでもよい。来場者用端末は、第1のATM用端末40-4、第2のATM用端末40-5及びデジタルサイネージ40-6の中の少なくとも1つを含む。
 予め、図6に示すように検出結果と、通知先とを対応付けた第1の対応情報が生成され、処理装置10に記憶される。決定部12は、行動解析部11による検出結果と、当該第1の対応情報とに基づき、検出結果に応じた通知先を決定する。
 なお、行動解析部11による検出結果には、検出された検出対象行動の種類、検出された検出対象行動を行っている場所、検出された検出対象行動を行っている時間の長さ、検出された検出対象行動を行っている時刻、及び検出結果の確信度の中の少なくとも1つが含まれる。
 「検出された検出対象行動の種類」は、予め定義された複数の検出対象行動の中のいずれかを示す。
 「検出された検出対象行動を行っている場所」は、検出された検出対象行動を行っている人物がいる施設内の場所を示す。例えば、その検出対象行動が検出された画像を生成したカメラ30の設置位置が、検出された検出対象行動を行っている場所として示されてもよい。
 「検出された検出対象行動を行っている時間の長さ」は、検出された検出対象行動を行っている人物がその検出対象行動を継続して行っている時間の長さを示す。当該時間の長さは、1つのカメラで撮影された画像内で、ある人物が所定の検出対象行動(例:携帯電話を用いた通話をしながらATMを操作する行動)を継続して行っている時間の長さであってもよい。その他、施設内に設置された複数のカメラで撮影された画像に対する解析結果に基づき、ある人物が施設内で所定の検出対象行動(例:携帯電話を用いた通話)を継続して行っている時間が算出されてもよい。後者の例は、例えば以下のような処理で実現される。まず、行動解析部11は、人物の外観の特徴量(顔情報等)を利用して、複数のカメラで撮影された複数の画像に跨って写っている人物を特定する。そして、行動解析部11は、第1の画像において所定の検出対象行動(例:携帯電話を用いた通話)を行っていることを検出された人物が、その所定の検出対象行動を行った状態のまま第1の画像からフレームアウトし、その所定の検出対象行動を行った状態のまま第2の画像にフレームインしてきた場合、第1の画像からフレームアウトした時刻から第2の画像にフレームインしてきた時刻の間も、その所定の検出対象行動を継続していたものとして、上記時間の長さを算出してもよい。なお、「第1の画像からフレームアウトしてから第2の画像にフレームインしてくるまでの時間が所定時間以下」という条件を満たす場合に、第1の画像からフレームアウトした時刻から第2の画像にフレームインしてきた時刻の間も、その所定の検出対象行動を継続していたものとして、上記時間の長さを算出してもよい。
 「検出された検出対象行動を行っている時刻」は、検出された検出対象行動を行っている人物がその検出対象行動を行っている時刻を示す。
 「検出結果の確信度」は、検出された検出対象行動を行っている確信度を示す。例えば、姿勢認識機能及び動き認識機能で検出した姿勢や動きの確信度を、当該検出結果の確信度としてもよい。その他、姿勢認識機能及び動き認識機能で検出した姿勢や動きの確信度と、物体認識機能で検出した各検出対象行動を行う時に一緒に利用される物体(携帯電話、車いす、白杖、資料等)の確信度とを所定の手法で統合(例:平均、加重平均等)した結果を、当該検出結果の確信度としてもよい。
 ここで、検出結果と通知先とを対応付けた第1の対応情報の具体例を説明する。当該具体例では、通知先は、施設の作業者用端末40-1、警備用端末40-2、処理装置管理者用端末40-3、第1のATM用端末40-4、第2のATM用端末40-5及びデジタルサイネージ40-6を含むものとする。
「検出された検出対象行動の種類に基づく通知先の決定」
 例えば、第1の対応情報においては、検出された検出対象行動が「携帯電話を用いた通話」及び「携帯電話を用いた通話をしながらATMを操作する行動」のいずれかである場合、施設の作業者用端末40-1、警備用端末40-2、及びそのATM用の通知先端末40(第1のATM用端末40-4又は第2のATM用端末40-5)の少なくとも1つが通知先として決定されることが定められていてもよい。
 施設の作業者用端末40-1や警備用端末40-2を通知先とすることで、施設の作業者や警備員等がその状況(上記検出対象行動が検出された状況)を把握できる。そして、施設の作業者や警備員等がその現場に駆けつけてその行動を行っている人物に声掛け等をすることで、事件の未然防止が実現される。また、その検出対象行動を行っている人物が利用しているATM用の通知先端末40を通知先とすることで、その検出対象行動を行っている人物への警告や注意喚起等が実現される。
 また、第1の対応情報においては、検出された検出対象行動が「車いすを用いた移動」及び「白杖を用いた移動」のいずれかである場合、施設の作業者用端末40-1が通知先として決定されることが定められていてもよい。施設の作業者用端末40-1を通知先とすることで、施設の作業者がその状況(上記検出対象行動が検出された状況)を把握できる。そして、施設の作業者がその現場に駆けつけてその行動を行っている人物の手助けを行うことで、サービスの品質向上等が実現される。
 また、第1の対応情報においては、検出された検出対象行動が「施設内に置かれた所定の資料に興味を示す行動」である場合、その行動を行っている人物の近くのデジタルサイネージ40-6が通知先として決定されることが定められていてもよい。例えば、その対象行動が検出された画像を生成したカメラ30の最も近くに設置されているデジタルサイネージ40-6が通知先として決定されてもよい。予め登録されたカメラ30の設置位置を示す情報と、デジタルサイネージ40-6の設置位置を示す情報とに基づき、所定のカメラ30の最も近くに設置されているデジタルサイネージ40-6を特定することができる。このようなデジタルサイネージ40-6を通知先とすることで、所定の資料に興味を示している人物に、その所定の資料に関係する適切な情報等を提供することができる。
 また、第1の対応情報においては、検出された検出対象行動がいずれの検出対象行動であっても、通知先として、処理装置管理者用端末40-3及び処理装置提供者用端末40-7の少なくとも1つが通知先として決定されることが定められていてもよい。処理装置管理者用端末40-3や処理装置提供者用端末40-7をすべてのデータの通知先とすることで、処理装置10の判断結果の見直し、処理装置10のアルゴリズムの妥当性、修正やメンテナンスの要否等を適切に判断できるようになる。
「検出された検出対象行動を行っている場所に基づく通知先の決定」
 例えば、第1の対応情報においては、検出された検出対象行動が「携帯電話を用いた通話」及び「携帯電話を用いた通話をしながらATMを操作する行動」のいずれかであり、かつ、その検出対象行動が検出された場所がATMから離れた場所(すなわち、ATMを操作する時に位置する場所と異なる場所)である場合、施設の作業者用端末40-1が通知先として決定されることが定められていてもよい。施設の作業者用端末40-1を通知先とすることで、施設の作業者がその状況(上記検出対象行動が検出された状況)を把握できる。そして、施設の作業者がその現場に駆けつけてその行動を行っている人物に声掛け等をすることで、事件の未然防止が実現される。
 また、第1の対応情報においては、検出された検出対象行動が「携帯電話を用いた通話」及び「携帯電話を用いた通話をしながらATMを操作する行動」のいずれかであり、かつ、その検出対象行動が検出された場所がATM付近である場合(すなわち、ATMを操作する時に位置する場所)、そのATM用の通知先端末40(第1のATM用端末40-4、第2のATM用端末40-5等)が通知先として決定されることが定められていてもよい。その検出対象行動を行っている人物が利用しているATM用の通知先端末40を通知先とすることで、その検出対象行動を行っている人物への警告や注意喚起等が実現される。
 このように、検出対象行動を行っている人物への直接の警告や注意喚起が可能な状況(通知先端末40の近くにその人物がいる状況)では、その人物への直接の警告や注意喚起を行い、検出対象行動を行っている人物への直接の警告や注意喚起が不可能な状況(近くに通知先端末40がない状況)では、施設の作業者に通知し、その作業者からその人物へのアクションを促すことができる。
「検出された検出対象行動を行っている時間の長さに基づく通知先の決定」
 例えば、第1の対応情報においては、携帯電話を用いた通話をしながらATMを操作する行動を行っている時間の長さが閾値未満の状況では、そのATM用の通知先端末40(第1のATM用端末40-4、第2のATM用端末40-5等)が通知先として決定されることが定められていてもよい。そして、第1の対応情報においては、携帯電話を用いた通話をしながらATMを操作する行動を行っている時間の長さが閾値以上になると、施設の作業者用端末40-1が通知先として決定されることが定められていてもよい。
「検出された検出対象行動を行っている時刻に基づく通知先の決定」
 例えば、第1の対応情報においては、施設の営業時間内に検出対象行動が検出された場合、施設の作業者用端末40-1が通知先として決定されることが定められていてもよい。他の例として、施設の営業時間内に検出対象行動が検出された場合、上述した「検出された検出対象行動の種類に基づく通知先の決定」や「検出された検出対象行動を行っている場所に基づく通知先の決定」で説明した手法のいずれかで通知先を決定することが定められていてもよい。
 また、第1の対応情報においては、施設の営業時間外に検出対象行動が検出された場合、処理装置管理者用端末40-3及び処理装置提供者用端末40-7の少なくとも1つが通知先として決定されることが定められていてもよい。
 営業時間内に、その状況に応じた適切な通知先に検出結果を通知することで、事件の未然防止やサービスの品質行動等が実現される。また、営業時間外には、施設内には来場者がいないため、検出対象行動が検出されることはない。それにも関わらず検出対象行動が検出された場合、処理装置10の不具合等が生じている可能性がある。そこで、営業時間外における検出対象行動の検出を処理装置10の管理者や提供者に通知することで、処理装置10の不具合の早期発見等が実現される。
「検出結果の確信度に基づく通知先の決定」
 例えば、第1の対応情報においては、検出された検出対象行動が「携帯電話を用いた通話」及び「携帯電話を用いた通話をしながらATMを操作する行動」のいずれかであり、かつ、確信度が高い場合(第1の基準レベル以上の場合)、警備用端末40-2が通知先として決定されることが定められていてもよい。
 また、第1の対応情報においては、検出された検出対象行動が「携帯電話を用いた通話」及び「携帯電話を用いた通話をしながらATMを操作する行動」のいずれかであり、かつ、確信度が中程度である場合(第2の基準レベル以上かつ第1の基準レベル未満の場合)、施設の作業者用端末40-1、及びそのATM用の通知先端末40(第1のATM用端末40-4、第2のATM用端末40-5等)の少なくとも1つが通知先として決定されることが定められていてもよい。
 また、第1の対応情報においては、いずれの確信度であっても、通知先として、処理装置管理者用端末40-3及び処理装置提供者用端末40-7の少なくとも1つが通知先として決定されることが定められていてもよい。処理装置管理者用端末40-3や処理装置提供者用端末40-7をすべてのデータの通知先とすることで、処理装置10の判断結果の見直し、処理装置10のアルゴリズムの妥当性、修正やメンテナンスの要否等を適切に判断できるようになる。
 図1に戻り、通知部13は、決定された通知先に、検出対象行動の検出を通知する。通知先の通知先端末40は、通知部13からの通知に応じて、所定の情報を出力する。
 ここで、通知先端末40が出力する情報の具体例を説明する。当該具体例では、通知先は、施設の作業者用端末40-1、警備用端末40-2、処理装置管理者用端末40-3、第1のATM用端末40-4、第2のATM用端末40-5及びデジタルサイネージ40-6を含むものとする。
 例えば、施設の作業者用端末40-1、警備用端末40-2、及び処理装置管理者用端末40-3は、検出対象行動を行っている人物が検出された旨を示す情報を出力する。また、施設の作業者用端末40-1、警備用端末40-2、及び処理装置管理者用端末40-3は、検出された検出対象行動の種類、検出された検出対象行動を行っている場所、検出された検出対象行動を行っている時間の長さ、検出された検出対象行動を行っている時刻、及び検出結果の確信度の中の少なくとも1つを示す情報をさらに出力してもよい。
 また、第1のATM用端末40-4及び第2のATM用端末40-5は、所定の警告情報を出力する。例えば、第1のATM用端末40-4及び第2のATM用端末40-5は、スピーカを介して警告音を出力してもよいし、振り込め詐欺等の事件に関する注意喚起を促す音声情報を出力してもよい。また、第1のATM用端末40-4及び第2のATM用端末40-5は、警告ランプを点灯させてもよいし、ディスプレイを介して振り込め詐欺等の事件に関する注意喚起を促す情報を出力してもよい。
 また、デジタルサイネージ40-6は、所定の資料に興味を示している人物向けに、その所定の資料に関係する適切な情報を提供する。例えば、デジタルサイネージ40-6は、広告、案内、所定の資料に関連する情報等を出力することができる。
 また、処理装置管理者用端末40-3及び処理装置提供者用端末40-7は、新たなデータ、すなわち新たな検出結果が蓄積された旨を示す情報を出力する。そして、処理装置管理者用端末40-3及び処理装置提供者用端末40-7は、処理装置10による検出結果を記憶する。すなわち、処理装置管理者用端末40-3及び処理装置提供者用端末40-7は、処理装置10による検出結果の履歴を記憶する。検出結果の履歴は、検出された検出対象行動の種類、検出された検出対象行動を行っている場所、検出された検出対象行動を行っている時間の長さ、検出された検出対象行動を行っている時刻、及び検出結果の確信度の中の少なくとも1つを含む。
 次に、図7のフローチャートを用いて、処理装置10の処理の流れの一例を説明する。
 処理装置10は、カメラ30が生成した画像を取得すると(S10)、画像を解析し、画像に写る対象人物が複数の検出対象行動の中のいずれかを行っていることを検出する(S11)。
 検出対象行動が検出された場合(S12のYes)、処理装置10は、S10の検出結果、すなわち検出された検出対象行動の種類、検出された検出対象行動を行っている場所、検出された検出対象行動を行っている時間の長さ、検出された検出対象行動を行っている時刻、及び検出結果の確信度の中の少なくとも1つに基づき、通知先を決定する(S13)。
 そして、処理装置10は、S13で決定した通知先に検出対象行動の検出を通知する(S14)。検出対象行動の検出を通知された通知先の通知先端末40は、当該通知に応じて所定の情報を出力する。
「作用効果」
 第2の実施形態の処理装置10によれば、検出された検出対象行動の種類、検出された検出対象行動を行っている場所、検出された検出対象行動を行っている時間の長さ、検出された検出対象行動を行っている時刻、及び検出結果の確信度の中の少なくとも1つに基づき、検出対象行動の検出を通知する通知先を決定することができる。このような構成を備える処理装置10によれば、所定の行動を行っている人物の検出に応じて適切な通知先に通知するという課題が解決される。
 また、第2の実施形態の処理装置10によれば、携帯電話を用いた通話や、携帯電話を用いた通話をしながらATMを操作する行動の検出に応じて、所定の通知先に通知することができる。結果、事件の未然防止等が実現される。
 また、第2の実施形態の処理装置10によれば、車いすを用いた移動や白杖を用いた移動の検出に応じて、所定の通知先に通知することができる。結果、そのような来場者の手助けを行うことで、サービスの品質向上等が実現される。
 また、第2の実施形態の処理装置10によれば、施設内に置かれた所定の資料に興味を示す行動の検出に応じて、所定の通知先に通知することができる。結果、所定の資料に興味を示している人物向けに、その所定の資料に関係する適切な情報を提供することで、サービスの品質向上等が実現される。
 また、第2の実施形態の処理装置10によれば、施設の作業者用端末40-1、警備用端末40-2、処理装置管理者用端末40-3、第1のATM用端末40-4、第2のATM用端末40-5、デジタルサイネージ40-6、処理装置提供者用端末40-7等の通知先端末40の中から、検出結果に応じた適切な通知先を決定することができる。このような多様な通知先端末40の中から適切な通知先を決定することで、事件の未然防止や施設が提供するサービスの品質向上等が効果的に実現される。
<第3の実施形態>
 第3の実施形態の処理装置10は、ATMの操作内容を示す操作情報を取得し、当該操作情報に基づき検出対象行動の検出の通知先を決定する機能を備える。以下、詳細に説明する。
 第3の実施形態の施設は、ATMが設置された施設である。そして、行動解析部11が処理する画像の中には、ATMの利用者を撮影した画像(第1のATM用カメラ30-1や大2のATM用カメラ30-2が撮影した画像)が含まれる。
 行動解析部11は、第1及び2の実施形態で説明した処理に加えて、ATMの操作内容を示す操作情報を取得する処理を行う。操作情報は、取引内容(振込、引出、預入、記帳等)、及び取引金額の少なくとも一方を含む。行動解析部11は、このような操作情報を、ATMから、又はATMと連携した銀行システムや郵便局システムから取得する。
 決定部12は、上記操作情報に基づき、検出対象行動の検出の通知先を決定する。第2の実施形態と同様に、決定部12は、予め生成された第1の対応情報に基づき、通知先を決定する。以下、第1の対応情報の具体例を説明する。
 例えば、第1の対応情報においては、検出された検出対象行動が「携帯電話を用いた通話をしながらATMを操作する行動」であり、取引内容が振込であり、かつ、取引金額(振込金額)が所定金額以上である場合、施設の作業者用端末40-1及び警備用端末40-2が通知先として決定されることが定められていてもよい。取引金額が比較的大きい重要度が高いケースの場合に施設の作業者用端末40-1のみならず警備用端末40-2を通知先とすることで、警備員や警備組織(警備会社等)による迅速な対応が可能となり、事件の未然防止や早期解決等が期待される。
 また、第1の対応情報においては、検出された検出対象行動が「携帯電話を用いた通話をしながらATMを操作する行動」であり、取引内容が振込であり、かつ、取引金額(振込金額)が所定金額未満である場合、施設の作業者用端末40-1が通知先として決定されることが定められていてもよい。取引金額が比較的小さい重要度が低いケースの場合には、警備用端末40-2への通知を控えることで、警備員や警備組織(警備会社等)の労働負担過多を軽減できる。
 また、第1の対応情報においては、検出された検出対象行動が「携帯電話を用いた通話をしながらATMを操作する行動」であるが、取引内容が振込と異なる内容である場合、施設の作業者用端末40-1や警備用端末40-2が通知先として決定されないことが定められていてもよい。取引内容が振込でない場合、振り込め詐欺でない可能性が高い。施設の作業者用端末40-1及び警備用端末40-2への不要な通知を控えることで、施設の作業者や警備員や警備組織(警備会社等)の労働負担過多を軽減できる。
 第3の実施形態の処理装置10のその他の構成は、第1及び第2の実施形態の処理装置10の構成と同様である。
 第3の実施形態の処理装置10によれば、第1及び第2の実施形態の処理装置10と同様の作用効果が実現される。また、第3の実施形態の処理装置10によれば、ATMの操作内容に基づき検出対象行動の検出の通知先を決定することができる。このような処理装置10によれば、施設の作業者用端末40-1や警備用端末40-2への不要な通知を抑制することができる。結果、施設の作業者や警備員や警備組織(警備会社等)の労働負担過多を軽減できる。
<第4の実施形態>
 第4の実施形態の処理装置10は、検出対象行動の検出結果に基づき、検出対象行動の検出に加えて通知する追加通知内容を決定する機能を備える。以下、詳細に説明する。
 決定部12は、検出された検出対象行動の種類、検出された検出対象行動を行っている場所、検出された検出対象行動を行っている時間の長さ、検出された検出対象行動を行っている時刻、及び検出結果の確信度の中の少なくとも1つに基づき、「検出対象行動の検出」に加えて通知する追加通知内容を決定する。そして、通知部13は、決定された通知先に、「検出対象行動の検出」に加えて決定された「追加通知内容」を通知する。通知先端末40は、通知された追加通知内容を出力し、ユーザに通知することができる。
 追加通知内容は、検出された検出対象行動を行っている時の画像、検出対象行動を行っていると判断した根拠を示す情報、検出対象行動を検出された人物の年令、検出対象行動を検出された人物の性別、検出対象行動を検出された人物の外観の特徴、検出対象行動を検出された人物に同伴者がいるか否か、検出対象行動を検出された人物の過去の取引内容を示す情報、及び検出対象行動を検出された人物の現在位置の中の少なくとも1つを含む。
 「検出された検出対象行動を行っている時の画像」は、その検出対象行動を行っている人物が写っている画像である。このような画像を追加通知内容に含めることで、通知を受けた人が、検出対象行動を行っている人物を容易に把握することができる。また、このような画像を追加通知内容に含めることで、通知を受けた人が、本当に検出対象行動が行われているのかを確認することができる。
 「検出対象行動を行っていると判断した根拠を示す情報」は、画像解析システム20による姿勢や動きの判定結果である。以下、判定結果に含まれる情報の具体例を説明する。
 まず、画像解析システム20は特許文献3に開示の技術を利用して姿勢や動きを判定することができる。この場合、画像解析システム20は、予め登録された複数の姿勢や動き各々を示すテンプレート画像と、画像に写る対象人物の姿勢や動きとの類似度を算出し、画像に写る対象人物の姿勢や動きとの類似度が所定条件(例:正例であるテンプレート画像との類似度が所定レベル以上、負例であるテンプレート画像との類似度が所定レベル以下等)を満たすテンプレート画像を検索する。そして、類似度が所定条件を満たすテンプレート画像が示す姿勢や動きを、その対象人物が行っている姿勢や動きと判定する。
 この例においては、画像解析システム20による姿勢や動きの判定結果には、対象人物が行っていると判定した姿勢や動きの種類を示す情報、類似度が所定条件を満たすテンプレート画像、及びそのテンプレート画像との類似度等を含む。なお、類似度が所定条件を満たすテンプレート画像が複数ある場合、判定結果は、複数のテンプレート画像、及び各々との類似度を含んでもよい。
 このような情報を追加通知内容に含めることで、通知を受けた人が、本当に検出対象行動が行われているのか(検出結果の妥当性)を確認することができる。
 「検出対象行動を検出された人物の年令」、「検出対象行動を検出された人物の性別」、及び「検出対象行動を検出された人物の外観の特徴」は、カメラ30が生成した画像を広く知られた技術で解析することで、特定することができる。検出対象行動を検出された人物の外観の特徴は、衣服や所持物の特徴である。
 このような情報を追加通知内容に含めることで、通知を受けた人が、検出対象行動を行っている人物を容易に特定することができる。
「検出対象行動を検出された人物に同伴者がいるか否か」は、例えば、カメラ30が生成した画像を解析し、「車いすを押している人物(同伴者の条件)がいるか」や、「検出対象行動を検出された人物の身体に触れながら一緒に移動している人物(同伴者の他の条件)がいるか」等を判断することで、特定することができる。
 このような情報を追加通知内容に含めることで、通知を受けた人が、検出対象行動を行っている人物の手助けが必要か否かを判断できる。
 「検出対象行動を検出された人物の過去の取引内容を示す情報」は、銀行や郵便局のデータベース等から取得される。ATMの操作内容、又はカメラ30が生成した画像に基づく顔認証等で、検出対象行動を検出された人物が識別できた場合(個人を特定できた場合)、銀行や郵便局のデータベース等に記憶されているその人物の過去(例:直近)の取引内容を取り出し、追加通知内容とすることができる。
 このような情報を追加通知内容に含めることで、通知を受けた人に、検出対象行動を行っている人物が振り込め詐欺にあっているか否かを判断する材料を提供することとできる。
 「検出対象行動を検出された人物の現在位置」は、カメラ30が生成した画像内でその人物を追跡したり、顔認証技術を用いてその人物をカメラ30が生成した画像内で検索したりすることで特定することができる。
 このような情報を追加通知内容に含めることで、通知を受けた人が、検出対象行動を行っている人物の現在位置を容易に把握することができる。
 決定部12は、決定した通知先毎に、追加通知内容を決定することができる。予め、図8示すように検出結果と、通知先と、追加通知内容とを対応付けた第2の対応情報が生成され、処理装置10に記憶される。決定部12は、行動解析部11による検出結果と、決定した通知先と、当該第2の対応情報とに基づき、検出結果毎に追加通知内容を決定する。
 ここで、第2の対応情報の具体例を説明する。なお、ここでの例示はあくまで一例であり、これに限定されない。当該具体例では、通知先は、施設の作業者用端末40-1、警備用端末40-2、処理装置管理者用端末40-3、第1のATM用端末40-4、第2のATM用端末40-5及びデジタルサイネージ40-6を含むものとする。
 第2の対応情報においては、検出された検出対象行動が「携帯電話を用いた通話をしながらATMを操作する行動」であり、決定された通知先が第1のATM用端末40-4又は第2のATM用端末40-5である場合、追加通知内容を含めないことが定められていてもよい。この場合、例えば、第2及び第3の実施形態で説明した内容だけが第1のATM用端末40-4又は第2のATM用端末40-5に通知される。
 また、第2の対応情報においては、検出された検出対象行動が「携帯電話を用いた通話をしながらATMを操作する行動」であり、決定された通知先が施設の作業者用端末40-1及び警備用端末40-2の少なくとも一方を含む場合、検出された検出対象行動を行っている時の画像が追加通知内容として決定されることが定められていてもよい。
 また、第2の対応情報においては、検出された検出対象行動が「携帯電話を用いた通話をしながらATMを操作する行動」であり、決定された通知先が処理装置管理者用端末40-3及び処理装置提供者用端末40-7の少なくとも一方を含む場合、検出された検出対象行動を行っている時の画像、及び検出対象行動を行っていると判断した根拠を示す情報が追加通知内容として決定されることが定められていてもよい。
 その他、第2の対応情報においては、検出された検出対象行動が「施設内に置かれた所定の資料に興味を示す行動」であり、決定された通知先がデジタルサイネージ40-6である場合、検出対象行動を検出された人物の外観の特徴が追加通知内容として決定されることが定められていてもよい。
 また、第2の対応情報においては、検出された検出対象行動が「施設内に置かれた所定の資料に興味を示す行動」であり、決定された通知先が施設の作業者用端末40-1である場合、検出された検出対象行動を行っている時の画像が追加通知内容として決定されることが定められていてもよい。
 また、第2の対応情報においては、検出された検出対象行動が「施設内に置かれた所定の資料に興味を示す行動」であり、決定された通知先が処理装置管理者用端末40-3及び処理装置提供者用端末40-7の少なくとも一方を含む場合、検出された検出対象行動を行っている時の画像、及び検出対象行動を行っていると判断した根拠を示す情報が追加通知内容として決定されることが定められていてもよい。
 次に、図9のフローチャートを用いて、処理装置10の処理の流れの一例を説明する。
 処理装置10は、カメラ30が生成した画像を取得すると(S20)、画像を解析し、画像に写る対象人物が複数の検出対象行動の中のいずれかを行っていることを検出する(S21)。
 検出対象行動が検出された場合(S22のYes)、処理装置10は、S23の処理を行う。S23では、処理装置10は、S20の検出結果、すなわち検出された検出対象行動の種類、検出された検出対象行動を行っている場所、検出された検出対象行動を行っている時間の長さ、検出された検出対象行動を行っている時刻、及び検出結果の確信度の中の少なくとも1つに基づき、通知先を決定する。また、S23では、処理装置10は、S20の検出結果、すなわち検出された検出対象行動の種類、検出された検出対象行動を行っている場所、検出された検出対象行動を行っている時間の長さ、検出された検出対象行動を行っている時刻、及び検出結果の確信度の中の少なくとも1つと、決定した通知先とに基づき、追加通知内容を決定する。
 そして、処理装置10は、S23で決定した通知先に検出対象行動の検出と、S23で決定した追加通知内容を通知する(S24)。検出対象行動の検出を通知された通知先の通知先端末40は、当該通知に応じて所定の情報を出力する。
 第4の実施形態の処理装置10のその他の構成は、第1乃至第3の実施形態の処理装置10の構成と同様である。
 第4の実施形態の処理装置10によれば、第1乃至第3の実施形態の処理装置10と同様の作用効果が実現される。また、第4の実施形態の処理装置10によれば、検出結果や通知先に応じて、適切な追加通知内容を通知することができる。結果、通知される情報が過多になる不都合を抑制しつつ、適切な情報を通知先に通知することができる。
<第5の実施形態>
 第5の実施形態では、処理システムが行う各種処理のバリエーションを説明する。処理システムは、以下で説明するバリエーションの1つを採用することができる。また、処理システムは、以下で説明するバリエーションの複数を組み合わせて採用することができる。
-第1のATM用カメラ30-1及び第2のATM用カメラ30-2の撮影-
 第1のATM用カメラ30-1及び第2のATM用カメラ30-2は、所定時間帯(例:施設が営業中、ATMが稼働中等)の間、動画像を常時撮影してもよい。その他、第1のATM用カメラ30-1及び第2のATM用カメラ30-2は、所定のトリガの検出に応じて、静止画像を撮影してもよい。その他、第1のATM用カメラ30-1及び第2のATM用カメラ30-2は、所定のトリガの検出に応じて、そこから所定時間の間、動画像を撮影してもよい。
 所定のトリガは、ATMに対する所定の操作が行われたことの検出である。所定の操作は、ATMへのカードの挿入、ATMへの通帳の挿入、ATMの入力装置(タッチパネル、操作ボタン等)を介した所定の入力等である。所定の入力は、例えば振込手続きを開始する入力であってもよい。
-カメラ30の撮影-
 カメラ30は、予め定められた所定の時間おきに(例:1分毎)、静止画像を撮影してもよい。そして、静止画像内で所定の姿勢(例:通話姿勢、車いすに乗った時の姿勢、白杖を利用する時の姿勢)の人物が検出された場合、カメラ30はそこから動画像を撮影してもよい。
-行動解析部11による画像選別-
 まず、カメラ30は動画像を撮影している。そして、行動解析部11は、動画像に含まれるすべてのフレーム画像を処理対象として、検出対象行動を検出する処理を行ってもよい。
 その他、行動解析部11は、動画像に含まれる複数のフレーム画像の中から一部を選別し、選別したフレーム画像のみを処理対象として、検出対象行動を検出する処理を行ってもよい。
 一部のフレーム画像を選別する手法として、例えば、行動解析部11は、上記「第1のATM用カメラ30-1及び第2のATM用カメラ30-2の撮影」で説明した「所定のトリガ」が検出されたタイミングで撮影されたフレーム画像を選別してもよい。その他、行動解析部11は、上記所定のトリガが検出されたタイミングで撮影されたフレーム画像から所定時間分のフレーム画像を選別してもよい。
 その他、行動解析部11は、予め定められた所定の時間おき(例:所定数のフレーム画像毎)のフレーム画像を選別してもよい。そして、このようにして選別したフレーム画像内で所定の姿勢(例:通話姿勢、車いすに乗った時の姿勢、白杖を利用する時の姿勢)の人物が検出された場合、行動解析部11は、そこから所定時間分の連続するフレーム画像を選別してもよい。
-画像解析システム20に登録するデータ-
 まず、画像解析システム20は特許文献3に開示の技術を利用して姿勢や動きを判定することができる。この場合、画像解析システム20は、予め登録された複数の姿勢や動き各々を示すテンプレート画像と、画像に写る対象人物の姿勢や動きとの類似度を算出し、画像に写る対象人物の姿勢や動きとの類似度が所定条件を満たすテンプレート画像を検索する。そして、類似度が所定条件を満たすテンプレート画像が示す姿勢や動きを、その対象人物が行っている姿勢や動きと判定する。以下、画像解析システム20による当該処理のバリエーションを説明する。
 テンプレート画像は、正例であってもよいし、負例であってもよいし、両方であってもよい。正例は、所定の検出対象行動を行う時の姿勢や動きである。負例は、所定の検出対象行動を行う時の姿勢や動きではないが、所定の検出対象行動を行う時の姿勢や動きに似ている姿勢や動きである。例えば、所定の検出対象行動が「携帯電話を用いた通話」である場合、正例として通話姿勢等が例示され、負例として直立姿勢や頭を掻く姿勢等が例示される。
 また、登録姿勢に加えて、照合における身体の各部の重みが登録されてもよい。身体の各部の重みを利用した照合については、特許文献3に開示されている。
 また、登録姿勢に加えて、テンプレート画像と照合するための必須要件が登録されてもよい。必須要件を満たさない画像は、テンプレート画像と照合されない。必須要件は、姿勢や動き毎に定められていてもよい。例えば、通話姿勢を示すテンプレート画像と照合するための必須要件として、「対象人物の手が写っている」等が定義されていてもよい。対象人物の手が写っていないと、通話しているか否かを判定できないため、テンプレート画像と照合しても意味がない。必須要件を満たした画像のみテンプレート画像と照合することで、不要な照合を回避し、コンピュータの負担を軽減できる。
-画像解析システム20による第1の姿勢・動き判定処理-
 まず、検出対象の姿勢や動き毎に、正例及び負例の両方が登録される。1つの検出対象の姿勢や動きに紐付けて、複数の正例及び複数の負例が登録される。
 画像解析システム20は、解析対象の画像が少なくとも1つの正例とマッチしたら、その解析対象の画像の対象人物はそのマッチした正例が示す姿勢や動きを行っていると判定してもよい。
 その他、画像解析システム20は、解析対象の画像が少なくとも1つの負例とマッチしたら、その解析対象の画像の対象人物はそのマッチした負例の姿勢や動きと似ている検出対象の姿勢や動きを行っていないと判定してもよい。
 その他、画像解析システム20は、解析対象の画像が正例及び負例の両方とマッチしている場合、各々のマッチ数に応じて決定してもよい。例えば、正例とのマッチ数が負例とのマッチ数よりも多い場合、画像解析システム20は、その解析対象の画像の対象人物はそのマッチした正例が示す姿勢や動きを行っていると判定してもよい。一方、負例とのマッチ数が正例とのマッチ数よりも多い場合、画像解析システム20は、その解析対象の画像の対象人物はそのマッチした負例の姿勢や動きと似ている検出対象の姿勢や動きを行っていないと判定してもよい。
 その他、画像解析システム20は、解析対象の画像が第1の姿勢(又は第1の動き)の正例及び負例の両方とマッチしている場合、解析対象の画像とテンプレート画像との類似度に基づき判定してもよい。
 例えば、解析対象の画像との類似度が最も高いテンプレート画像が正例である場合、画像解析システム20は、その解析対象の画像の対象人物は第1の姿勢(又は第1の動き)を行っていると判定してもよい。一方、解析対象の画像との類似度が最も高いテンプレート画像が負例である場合、画像解析システム20は、その解析対象の画像の対象人物は第1の姿勢(又は第1の動き)を行っていないと判定してもよい。
 他の例として、画像解析システム20は、「第1の姿勢(又は第1の動き)の正例の中の解析対象の画像とマッチした正例の類似度の統計値(平均値、最大値、最小値、最頻値、中央値等)」と、「第1の姿勢(又は第1の動き)の負例の中の解析対象の画像とマッチした負例の類似度の統計値」との大小関係に基づき判定してもよい。
 例えば、正例の統計値の方が大きい場合、その解析対象の画像の対象人物はそのマッチした正例が示す姿勢や動きを行っていると判定してもよい。一方、負例の統計値の方が大きい場合、画像解析システム20は、その解析対象の画像の対象人物はそのマッチした負例の姿勢や動きと似ている検出対象の姿勢や動きを行っていないと判定してもよい。
 当該例の変形例として、「第1の姿勢(又は第1の動き)の正例の中の解析対象の画像とマッチした正例の類似度の統計値」を、「第1の姿勢(又は第1の動き)の全ての正例の類似度の統計値」に置き換えてもよい。そして、「第1の姿勢(又は第1の動き)の負例の中の解析対象の画像とマッチした負例の類似度の統計値を、「第1の姿勢(又は第1の動き)の全ての負例の類似度の統計値」に置き換えてもよい。
 その他、画像解析システム20は、機械学習等のその他の技術を用いて、対象人物の姿勢や動きを判定してもよい。
-画像解析システム20による第2の姿勢・動き判定処理-
 画像解析システム20は、複数の画像に基づき対象人物の姿勢及び動きを判定する。複数の画像は、複数回の撮影で生成された複数の静止画像であってもよいし、動画像の撮影で生成された複数のフレーム画像であってもよい。
 そして、画像解析システム20は、複数の画像に基づく複数回の判定で、1回でも所定の姿勢又は動きを行っていると判定された場合、その画像に写る対象人物はその姿勢又は動きを行ったと判定してもよい。
 その他、画像解析システム20は、複数の画像に基づく複数回の判定で、所定割合以上(すなわちM回中N回以上)、所定の姿勢又は動きを行っていると判定された場合、その画像に写る対象人物はその姿勢又は動きを行ったと判定してもよい。
 その他、画像解析システム20は、複数の画像に基づく複数回の判定で、予め定められたQ回以上連続して、所定の姿勢又は動きを行っていると判定された場合、その画像に写る対象人物はその姿勢又は動きを行ったと判定してもよい。
 その他、画像解析システム20は、複数の画像各々の判定結果に重みをつけて判定してもよい。
-画像解析システム20による第3の姿勢・動き判定処理-
 第1のATM用カメラ30-1及び第2のATM用カメラ30-2が生成した画像に複数の人が写る場合、画像解析システム20は、画像内で最も大きく写っている人を対象人物として特定し、姿勢や動きの判定を行うことができる。また、顔や姿勢を使って画像内の人物を追跡し、継続して写っている人を対象人物として特定してもよい。また、画像解析システム20は、ATMと連携し、取引開始から取引終了までのタイミングを特定してもよい、そして、画像解析システム20は、取引開始から取引終了までの間に最も長く写っている人を対象人物として特定してもよい。
 また、画像解析システム20は、対象人物以外の人物の数、顔の向き、顔の大きさ等に基づき、ATMの操作ののぞき込みを判定してもよい。
-デジタルサイネージ40-6が出力する情報-
 デジタルサイネージ40-6は、対象人物が興味を示した資料に関係する情報であって、対象人物の各種属性に基づき決定された情報を出力してもよい。対象人物の各種属性は、カメラ30が生成した画像解析で特定してもよい。その他、ATMに挿入されたカードや通帳から個人を特定し、その個人に紐付けて予め銀行システムや郵便局システムに登録されている情報(住所等)が対象人物の属性を示す情報として利用されてもよい。
 その他、カメラ30が生成した画像内で対象人物を追跡して特定された、対象人物の行動履歴が、対象人物の属性を示す情報として利用されてもよい。なお、対象人物を追跡する際、複数のカメラ30を連動させることができる。
-検出結果の利用-
 処理装置10は、複数の検出対象行動各々の検出結果に基づき、各検出対象行動が現れる傾向を算出してもよい。例えば、処理装置10は、時間帯別、曜日別、店舗別等のようにケース分けして統計処理することで、ケース毎の状況を算出してもよい。施設は、この算出結果に基づき、特定のケース時には作業員を増やしたり、振り込め詐欺を注意喚起する音声を流すなどの対策をとることができる。
-通知先端末40による出力-
 追加通知内容に、検出された検出対象行動を行っている時の画像が含まれ、かつ画像が動画像の場合、通知先端末40は、検出対象行動が検出されたタイミングよりも所定時間前のタイミングからの動画像を、追加通知内容として出力してもよい。
 第5の実施形態の処理システムのその他の構成は、第1乃至第4の実施形態の処理システムの構成と同様である。
 第5の実施形態の処理システムによれば、第1乃至第4の実施形態の処理システムと同様の作用効果が実現される。また、第5の実施形態の処理システムによれば、各種バリエーションを採用できるので、設計の自由度が増し好ましい。
 以上、図面を参照して本発明の実施形態について述べたが、これらは本発明の例示であり、上記以外の様々な構成を採用することもできる。上述した実施形態の構成は、互いに組み合わせたり、一部の構成を他の構成に入れ替えたりしてもよい。また、上述した実施形態の構成は、趣旨を逸脱しない範囲内において種々の変更を加えてもよい。また、上述した各実施形態や変形例に開示される構成や処理を互いに組み合わせてもよい。
 また、上述の説明で用いた複数のフローチャートでは、複数の工程(処理)が順番に記載されているが、各実施の形態で実行される工程の実行順序は、その記載の順番に制限されない。各実施の形態では、図示される工程の順番を内容的に支障のない範囲で変更することができる。また、上述の各実施の形態は、内容が相反しない範囲で組み合わせることができる。
 上記の実施の形態の一部または全部は、以下の付記のようにも記載されうるが、以下に限られない。
1. 施設内にいる人物を撮影した画像に写る対象人物が複数の検出対象行動の中のいずれかを行っていることを検出する行動解析手段と、
 検出された前記検出対象行動の種類、検出された前記検出対象行動を行っている場所、検出された前記検出対象行動を行っている時間の長さ、検出された前記検出対象行動を行っている時刻、及び検出結果の確信度の中の少なくとも1つに基づき、通知先を決定する決定手段と、
 決定された前記通知先に、前記検出対象行動の検出を通知する通知手段と、
を有する処理装置。
2. 前記決定手段は、検出された前記検出対象行動の種類、検出された前記検出対象行動を行っている場所、検出された前記検出対象行動を行っている時間の長さ、検出された前記検出対象行動を行っている時刻、及び検出結果の確信度の中の少なくとも2つに基づき、前記通知先を決定する1に記載の処理装置。
3. 前記決定手段は、検出された前記検出対象行動の種類、検出された前記検出対象行動を行っている場所、検出された前記検出対象行動を行っている時間の長さ、検出された前記検出対象行動を行っている時刻、及び検出結果の確信度の中の少なくとも3つに基づき、前記通知先を決定する1に記載の処理装置。
4. 前記決定手段は、検出された前記検出対象行動の種類、検出された前記検出対象行動を行っている場所、検出された前記検出対象行動を行っている時間の長さ、検出された前記検出対象行動を行っている時刻、及び検出結果の確信度に基づき、前記通知先を決定する1に記載の処理装置。
5. 前記施設にはATM(Automatic Teller Machine)が設置されており、
 前記画像は、ATMの利用者を撮影した画像を含み、
 前記行動解析手段は、ATMの操作内容を示す操作情報を取得し、
 前記決定手段は、前記操作情報にさらに基づき、前記検出対象行動の検出の通知先を決定する1から4のいずれかに記載の処理装置。
6. 前記操作情報は、取引内容及び取引金額の少なくとも一方を含む5に記載の処理装置。
7. 前記検出対象行動は、携帯電話を用いた通話、携帯電話を用いた通話をしながらATMを操作する行動、車いすを用いた移動、白杖を用いた移動、及び前記施設内に置かれた所定の資料に興味を示す行動の中の少なくとも1つを含む1から6のいずれかに記載の処理装置。
8. 前記通知先は、前記施設の作業者用端末、警備用端末、当該処理装置を管理する管理者用端末、及び前記施設に設置され、前記施設内にいる人物に向けて情報を出力する来場者用端末、当該処理装置を提供した提供者用端末の中の少なくとも1つを含む1から7のいずれかに記載の処理装置。
9. 前記決定手段は、検出された前記検出対象行動の種類、検出された前記検出対象行動を行っている場所、検出された前記検出対象行動を行っている時間の長さ、検出された前記検出対象行動を行っている時刻、及び検出結果の確信度の中の少なくとも1つに基づき、前記検出対象行動の検出に加えて通知する追加通知内容を決定し、
 前記通知手段は、決定された前記通知先に決定された前記追加通知内容を通知する1から8のいずれかに記載の処理装置。
10. 前記追加通知内容は、検出された前記検出対象行動を行っている時の前記画像、前記検出対象行動を行っていると判断した根拠を示す情報、前記検出対象行動を検出された人物の年令、前記検出対象行動を検出された人物の性別、前記検出対象行動を検出された人物の外観の特徴、前記検出対象行動を検出された人物に同伴者がいるか否か、前記検出対象行動を検出された人物の過去の取引内容を示す情報、及び前記検出対象行動を検出された人物の現在位置の中の少なくとも1つを含む9に記載の処理装置。
11. 前記決定手段は、前記通知先毎に、前記追加通知内容を決定する9又は10に記載の処理装置。
12. コンピュータが、
  施設内にいる人物を撮影した画像に写る対象人物が複数の検出対象行動の中のいずれかを行っていることを検出し、
  検出された前記検出対象行動の種類、検出された前記検出対象行動を行っている場所、検出された前記検出対象行動を行っている時間の長さ、検出された前記検出対象行動を行っている時刻、及び検出結果の確信度の中の少なくとも1つに基づき、通知先を決定し、
  決定された前記通知先に、前記検出対象行動の検出を通知する、
処理方法。
13. コンピュータを、
  施設内にいる人物を撮影した画像に写る対象人物が複数の検出対象行動の中のいずれかを行っていることを検出する行動解析手段、
  検出された前記検出対象行動の種類、検出された前記検出対象行動を行っている場所、検出された前記検出対象行動を行っている時間の長さ、検出された前記検出対象行動を行っている時刻、及び検出結果の確信度の中の少なくとも1つに基づき、通知先を決定する決定手段、
  決定された前記通知先に、前記検出対象行動の検出を通知する通知手段、
として機能させるプログラムを記録した記録媒体。
 10  処理装置
 11  行動解析部
 12  決定部
 13  通知部
 20  画像解析システム
 30  カメラ
 40  通知先端末
 1A  プロセッサ
 2A  メモリ
 3A  入出力I/F
 4A  周辺回路
 5A  バス

Claims (13)

  1.  施設内にいる人物を撮影した画像に写る対象人物が複数の検出対象行動の中のいずれかを行っていることを検出する行動解析手段と、
     検出された前記検出対象行動の種類、検出された前記検出対象行動を行っている場所、検出された前記検出対象行動を行っている時間の長さ、検出された前記検出対象行動を行っている時刻、及び検出結果の確信度の中の少なくとも1つに基づき、通知先を決定する決定手段と、
     決定された前記通知先に、前記検出対象行動の検出を通知する通知手段と、
    を有する処理装置。
  2.  前記決定手段は、検出された前記検出対象行動の種類、検出された前記検出対象行動を行っている場所、検出された前記検出対象行動を行っている時間の長さ、検出された前記検出対象行動を行っている時刻、及び検出結果の確信度の中の少なくとも2つに基づき、前記通知先を決定する請求項1に記載の処理装置。
  3.  前記決定手段は、検出された前記検出対象行動の種類、検出された前記検出対象行動を行っている場所、検出された前記検出対象行動を行っている時間の長さ、検出された前記検出対象行動を行っている時刻、及び検出結果の確信度の中の少なくとも3つに基づき、前記通知先を決定する請求項1に記載の処理装置。
  4.  前記決定手段は、検出された前記検出対象行動の種類、検出された前記検出対象行動を行っている場所、検出された前記検出対象行動を行っている時間の長さ、検出された前記検出対象行動を行っている時刻、及び検出結果の確信度に基づき、前記通知先を決定する請求項1に記載の処理装置。
  5.  前記施設にはATM(Automatic Teller Machine)が設置されており、
     前記画像は、ATMの利用者を撮影した画像を含み、
     前記行動解析手段は、ATMの操作内容を示す操作情報を取得し、
     前記決定手段は、前記操作情報にさらに基づき、前記検出対象行動の検出の通知先を決定する請求項1から4のいずれか1項に記載の処理装置。
  6.  前記操作情報は、取引内容及び取引金額の少なくとも一方を含む請求項5に記載の処理装置。
  7.  前記検出対象行動は、携帯電話を用いた通話、携帯電話を用いた通話をしながらATMを操作する行動、車いすを用いた移動、白杖を用いた移動、及び前記施設内に置かれた所定の資料に興味を示す行動の中の少なくとも1つを含む請求項1から6のいずれか1項に記載の処理装置。
  8.  前記通知先は、前記施設の作業者用端末、警備用端末、当該処理装置を管理する管理者用端末、及び前記施設に設置され、前記施設内にいる人物に向けて情報を出力する来場者用端末、当該処理装置を提供した提供者用端末の中の少なくとも1つを含む請求項1から7のいずれか1項に記載の処理装置。
  9.  前記決定手段は、検出された前記検出対象行動の種類、検出された前記検出対象行動を行っている場所、検出された前記検出対象行動を行っている時間の長さ、検出された前記検出対象行動を行っている時刻、及び検出結果の確信度の中の少なくとも1つに基づき、前記検出対象行動の検出に加えて通知する追加通知内容を決定し、
     前記通知手段は、決定された前記通知先に決定された前記追加通知内容を通知する請求項1から8のいずれか1項に記載の処理装置。
  10.  前記追加通知内容は、検出された前記検出対象行動を行っている時の前記画像、前記検出対象行動を行っていると判断した根拠を示す情報、前記検出対象行動を検出された人物の年令、前記検出対象行動を検出された人物の性別、前記検出対象行動を検出された人物の外観の特徴、前記検出対象行動を検出された人物に同伴者がいるか否か、前記検出対象行動を検出された人物の過去の取引内容を示す情報、及び前記検出対象行動を検出された人物の現在位置の中の少なくとも1つを含む請求項9に記載の処理装置。
  11.  前記決定手段は、前記通知先毎に、前記追加通知内容を決定する請求項9又は10に記載の処理装置。
  12.  コンピュータが、
      施設内にいる人物を撮影した画像に写る対象人物が複数の検出対象行動の中のいずれかを行っていることを検出し、
      検出された前記検出対象行動の種類、検出された前記検出対象行動を行っている場所、検出された前記検出対象行動を行っている時間の長さ、検出された前記検出対象行動を行っている時刻、及び検出結果の確信度の中の少なくとも1つに基づき、通知先を決定し、
      決定された前記通知先に、前記検出対象行動の検出を通知する、
    処理方法。
  13.  コンピュータを、
      施設内にいる人物を撮影した画像に写る対象人物が複数の検出対象行動の中のいずれかを行っていることを検出する行動解析手段、
      検出された前記検出対象行動の種類、検出された前記検出対象行動を行っている場所、検出された前記検出対象行動を行っている時間の長さ、検出された前記検出対象行動を行っている時刻、及び検出結果の確信度の中の少なくとも1つに基づき、通知先を決定する決定手段、
      決定された前記通知先に、前記検出対象行動の検出を通知する通知手段、
    として機能させるプログラムを記録した記録媒体。
PCT/JP2022/013433 2022-03-23 2022-03-23 処理装置、処理方法、および記録媒体 WO2023181155A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/013433 WO2023181155A1 (ja) 2022-03-23 2022-03-23 処理装置、処理方法、および記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/013433 WO2023181155A1 (ja) 2022-03-23 2022-03-23 処理装置、処理方法、および記録媒体

Publications (1)

Publication Number Publication Date
WO2023181155A1 true WO2023181155A1 (ja) 2023-09-28

Family

ID=88100242

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/013433 WO2023181155A1 (ja) 2022-03-23 2022-03-23 処理装置、処理方法、および記録媒体

Country Status (1)

Country Link
WO (1) WO2023181155A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010079754A (ja) * 2008-09-26 2010-04-08 Secom Co Ltd 通報装置
JP2010238204A (ja) * 2009-03-31 2010-10-21 Sogo Keibi Hosho Co Ltd 監視装置および監視方法
JP2015046035A (ja) * 2013-08-28 2015-03-12 沖電気工業株式会社 取引装置、及び取引装置の管理方法
JP2021194468A (ja) * 2020-06-18 2021-12-27 コニカミノルタ株式会社 情報処理装置、見守りシステム、および制御プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010079754A (ja) * 2008-09-26 2010-04-08 Secom Co Ltd 通報装置
JP2010238204A (ja) * 2009-03-31 2010-10-21 Sogo Keibi Hosho Co Ltd 監視装置および監視方法
JP2015046035A (ja) * 2013-08-28 2015-03-12 沖電気工業株式会社 取引装置、及び取引装置の管理方法
JP2021194468A (ja) * 2020-06-18 2021-12-27 コニカミノルタ株式会社 情報処理装置、見守りシステム、および制御プログラム

Similar Documents

Publication Publication Date Title
US10477156B2 (en) Video analytics system
JP7031588B2 (ja) 不審者検出装置、不審者検出方法およびプログラム
JP6854881B2 (ja) 顔画像照合システムおよび顔画像検索システム
CN108229335A (zh) 关联人脸识别方法和装置、电子设备、存储介质、程序
US20180115749A1 (en) Surveillance system and surveillance method
JP6915542B2 (ja) 情報処理装置、通知システム、情報送信方法及びプログラム
WO2020001216A1 (zh) 异常事件的检测
CN109033973B (zh) 监控预警方法、装置及电子设备
JP6573185B1 (ja) 情報処理システム、情報処理方法及びプログラム
JP2011039959A (ja) 監視システム
JP6440327B2 (ja) 防犯システム、防犯方法、及びロボット
JP4797517B2 (ja) 監視装置および方法、並びにプログラム
JP2018181159A (ja) 防犯システム、防犯方法、及びロボット
CN106471440A (zh) 基于高效森林感测的眼睛跟踪
KR101084914B1 (ko) 차량번호 및 사람 이미지의 인덱싱 관리시스템
JP2010238204A (ja) 監視装置および監視方法
JPH0535992A (ja) 警報装置
TWI671701B (zh) 交易行為偵測系統及其方法
WO2023181155A1 (ja) 処理装置、処理方法、および記録媒体
JP2021012657A (ja) 情報処理装置、情報処理方法、カメラ
JP2012049774A (ja) 映像監視装置
JP4873216B2 (ja) 監視システムおよび方法、不正遊技者認識サーバおよび方法、並びにプログラム
JP6982168B2 (ja) 顔照合システム
JP2016019093A (ja) 顔識別装置及びプログラム
JP7423904B2 (ja) 情報出力装置、方法、及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22933300

Country of ref document: EP

Kind code of ref document: A1