WO2018104999A1 - 情報処理装置、制御方法、及びプログラム - Google Patents

情報処理装置、制御方法、及びプログラム Download PDF

Info

Publication number
WO2018104999A1
WO2018104999A1 PCT/JP2016/086040 JP2016086040W WO2018104999A1 WO 2018104999 A1 WO2018104999 A1 WO 2018104999A1 JP 2016086040 W JP2016086040 W JP 2016086040W WO 2018104999 A1 WO2018104999 A1 WO 2018104999A1
Authority
WO
WIPO (PCT)
Prior art keywords
person
captured image
determination
image
information processing
Prior art date
Application number
PCT/JP2016/086040
Other languages
English (en)
French (fr)
Inventor
哲夫 井下
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to JP2017534848A priority Critical patent/JP6206627B1/ja
Priority to PCT/JP2016/086040 priority patent/WO2018104999A1/ja
Priority to US16/466,342 priority patent/US20200084416A1/en
Publication of WO2018104999A1 publication Critical patent/WO2018104999A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19613Recognition of a predetermined image pattern or behaviour pattern indicating theft or intrusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Definitions

  • the present invention relates to an information processing apparatus, a control method, and a program.
  • Patent Document 1 discloses a system in which a person's face passing through a gate with a product with a tag attached is captured by a camera provided in the vicinity of the gate, and the captured face is searched from an image of a surveillance camera. ing.
  • Patent Document 2 discloses a system for determining whether or not a fraudulent act has been performed on a product to be investigated for a fraudulent act such as shoplifting. Specifically, in the system of Patent Document 2, (1) a person stays at a store for a product to be investigated for a predetermined time or more, (2) after the person picks up the product, Without returning to the product shelf, and (3) when the person leaves the store, the purchase history of the person is searched. And when there is no purchase history which shows that the person purchased the goods, the system of patent documents 2 judges with fraud.
  • Patent Document 1 detects the occurrence of theft by detecting a tag attached to a product. Therefore, in order to introduce this system, it is necessary to tag each product, and the labor required for introducing the system is great.
  • the present invention has been made in view of the above problems.
  • One of the objects of the present invention is to provide a technology that can monitor fraud and can be easily introduced.
  • the information processing apparatus includes (1) detection means for detecting a person from a first captured image generated by a first camera installed so as to be capable of capturing an exit of a store, and (2) from the first captured image.
  • First determination means for determining whether or not the detected person is included in a second captured image generated by a second camera installed so as to be able to image the display location of the commodity in the store; (3) Second to determine whether the person who is included in the second captured image and has a high suspicious degree is included in the third captured image generated by the third camera installed so as to be able to capture the accounting area of the store
  • the control method of the present invention is executed by a computer.
  • the control method includes (1) a detection step of detecting a person from a first captured image generated by a first camera installed so as to be capable of capturing an exit of a store; and (2) detected from the first captured image.
  • the program of the present invention causes a computer to execute each step of the control method of the present invention.
  • FIG. 2 is a diagram illustrating an example of installation locations of a plurality of types of cameras used by the information processing apparatus according to the first embodiment.
  • FIG. 2 is a diagram conceptually illustrating an operation of the information processing apparatus according to the first embodiment.
  • 1 is a diagram illustrating a configuration of an information processing apparatus according to a first embodiment. It is a figure which illustrates the computer for implement
  • 3 is a flowchart illustrating a flow of processing executed by the information processing apparatus according to the first embodiment. It is a figure which illustrates person information in a table format. It is a figure which illustrates the method of calculating the reduction amount of goods. It is a figure which illustrates the score allocated with respect to the motion of a person in a table format.
  • FIG. 6 is a block diagram illustrating an information processing apparatus according to a second embodiment.
  • each block diagram represents a functional unit configuration, not a hardware unit configuration.
  • FIG. 1 is a diagram exemplifying installation locations of a plurality of types of cameras used by the information processing apparatus 2000 according to the first embodiment.
  • a first camera 10, a second camera 20, and a third camera 30 are installed in a store where the information processing apparatus 2000 is used.
  • the 1st camera 10 is installed so that an exit (exit 50) of a store can be imaged.
  • the 2nd camera 20 is installed so that imaging of the display place (display place 60) of the goods in a store is possible. For example, the product is displayed on a product shelf installed in the display place 60.
  • the 3rd camera 30 is installed so that the place (accounting area 70) where the accounting of goods is performed can be imaged.
  • FIG. 2 is a diagram conceptually illustrating the operation of the information processing apparatus 2000 according to the first embodiment. Note that FIG. 2 is an illustration for the purpose of facilitating understanding of the operation of the information processing apparatus 2000, and the operation of the information processing apparatus 2000 is not limited in any way by FIG.
  • the first camera 10, the second camera 20, and the third camera 30 generate a first captured image 11, a second captured image 21, and a third captured image 31, respectively.
  • An exit 50 is captured in the first captured image 11.
  • the display place 60 is imaged in the second captured image 21.
  • the accounting area 70 is imaged in the third captured image 31.
  • the information processing apparatus 2000 detects a person from the first captured image 11.
  • the person detected here can be said to be a person captured by the first camera 10 at the exit 50.
  • the information processing apparatus 2000 determines whether or not the person detected from the first captured image 11 is included in the second captured image 21. In other words, it is determined whether or not the person imaged at the exit 50 is also imaged at the display place 60.
  • the information processing apparatus 2000 recognizes that person as the third captured image. 31 is also determined. In other words, it is determined whether or not a person who has been imaged in both the exit 50 and the display place 60 and has also been imaged in the accounting area 70.
  • the information processing apparatus 2000 performs a warning process when the person is not detected from the third captured image 31. Therefore, a warning process is performed when a person who is imaged at both the exit 50 and the display place 60 and is not imaged in the accounting area 70 is captured.
  • the person 40 is detected from the first captured image 11-1 captured at time t1. Therefore, the information processing apparatus 2000 tries to detect the person 40 from the second captured image 21. As a result, the person 40 is detected from the second captured image 21-1 at the time point t2. Furthermore, in the example of FIG. 2, the suspicious degree of the person 40 is high. Therefore, the information processing apparatus 2000 tries to detect the person 40 also from the third captured image 31. As a result, the person 40 is not detected from the third captured image 31. Therefore, the information processing apparatus 2000 performs warning processing.
  • the high degree of suspiciousness of the person 40 may be calculated using the second captured image 21, or may be calculated using other than the second captured image 21. A detailed method for calculating the degree of suspiciousness of the person 40 will be described later.
  • the information processing apparatus 2000 is a person (a person included in the first captured image 11 and the second captured image 21) who may be leaving the store after acquiring a product, and is fraudulent. It is determined whether or not a person having a high probability of going to go (a person with a high suspicious degree) has been imaged in the accounting area 70. The information processing apparatus 2000 performs warning processing when the person is not imaged in the accounting area 70. By doing this, warning processing will be performed when there is a high probability that the product has been stolen, etc., so salesclerks should quickly grasp the situation such as theft of the product and take prompt action Is possible.
  • the information processing apparatus 2000 when introducing the information processing apparatus 2000 according to the present embodiment, it is necessary to tag a product to be monitored or to introduce a management system that records which customer has purchased which product as a purchase history. Absent. Therefore, the information processing apparatus 2000 of this embodiment can be easily introduced.
  • FIG. 3 is a diagram illustrating a configuration of the information processing apparatus 2000 according to the first embodiment.
  • the information processing apparatus 2000 includes a detection unit 2020, a first determination unit 2040, a second determination unit 2060, and a warning unit 2080.
  • the detection unit 2020 detects a person from the first captured image 11.
  • the first determination unit 2040 determines whether or not a person detected from the first captured image 11 is included in the second captured image 21. Whether the person detected in the first captured image 11 is included in the second captured image 21 and the person is included in the third captured image 31 if the suspicious degree of the person is high. Determine whether or not.
  • the warning unit 2080 performs warning processing when the person is not included in the third captured image 31.
  • Each functional component of the information processing apparatus 2000 may be realized by hardware (eg, a hard-wired electronic circuit) that implements each functional component, or a combination of hardware and software (eg: It may be realized by a combination of an electronic circuit and a program for controlling it).
  • hardware eg, a hard-wired electronic circuit
  • software eg: It may be realized by a combination of an electronic circuit and a program for controlling it.
  • FIG. 4 is a diagram illustrating a computer 1000 for realizing the information processing apparatus 2000.
  • the computer 1000 is an arbitrary computer.
  • the computer 1000 is a Personal Computer (PC), a server machine, a tablet terminal, or a smartphone.
  • the computer 1000 may be a dedicated computer designed for realizing the information processing apparatus 2000 or a general-purpose computer.
  • the computer 1000 includes a bus 1020, a processor 1040, a memory 1060, a storage device 1080, an input / output interface 1100, and a network interface 1120.
  • the bus 1020 is a data transmission path through which the processor 1040, the memory 1060, the storage device 1080, the input / output interface 1100, and the network interface 1120 transmit / receive data to / from each other.
  • the method of connecting the processors 1040 and the like is not limited to bus connection.
  • the processor 1040 is an arithmetic device such as a CPU (Central Processing Unit) or a GPU (Graphics Processing Unit).
  • the memory 1060 is a main storage device realized using a RAM (Random Access Memory) or the like.
  • the storage device 1080 is an auxiliary storage device realized by using a hard disk, an SSD (Solid State Drive), a memory card, or a ROM (Read Only Memory). However, the storage device 1080 may be configured by hardware similar to the hardware configuring the main storage device such as a RAM.
  • the input / output interface 1100 is an interface for connecting the computer 1000 and an input / output device.
  • the network interface 1120 is an interface for connecting the computer 1000 to a communication network.
  • This communication network is, for example, “LAN (Local Area Network)” or “WAN (Wide Area Network)”.
  • a method of connecting the network interface 1120 to the communication network may be a wireless connection or a wired connection.
  • the computer 1000 is communicably connected to the first camera 10, the second camera 20, and the third camera 30 via a network.
  • the method of connecting the computer 1000 so that it can communicate with each camera is not limited to the connection via a network.
  • the computer 1000 may not be connected to each camera so as to be communicable.
  • the storage device 1080 stores a program module that realizes each functional component (the detection unit 2020, the first determination unit 2040, the second determination unit 2060, and the warning unit 2080) of the information processing apparatus 2000.
  • the processor 1040 implements a function corresponding to each program module by reading each program module into the memory 1060 and executing the program module.
  • the computer 1000 may be realized by using a plurality of computers.
  • the detection unit 2020, the first determination unit 2040, the second determination unit 2060, and the warning unit 2080 can be realized by different computers.
  • the program module stored in the storage device of each computer may be only the program module corresponding to the functional component realized by the computer.
  • Each of the first camera 10, the second camera 20, and the third camera 30 is an arbitrary camera that can repeatedly capture images and generate a plurality of captured images.
  • Each camera may be a video camera that generates moving image data or a still camera that generates still image data.
  • the first captured image 11, the second captured image 21, and the third captured image 31 are image frames that constitute moving image data.
  • Each said camera is a surveillance camera, for example.
  • each camera may be used for the realization.
  • the detection unit 2020 can be realized using the first camera 10.
  • the first camera 10 detects a person from the first captured image 11 generated by itself.
  • the first determination unit 2040 can be realized using the second camera 20.
  • the second camera 20 determines whether or not a person detected from the first captured image 11 is included in the second captured image 21 generated by itself.
  • the second determination unit 2060 can be realized using the third camera 30.
  • the third camera 30 determines whether or not a person who is included in both the first captured image 11 and the second captured image 21 and has a high degree of suspiciousness is included in the third captured image 31 generated by itself.
  • the warning unit 2080 may be realized using the third camera 30. In this case, the third camera 30 performs a warning process when the person is not included in the third captured image 31.
  • an intelligent camera for example, an intelligent camera, a network camera, or a camera called an IP (Internet Protocol) camera can be used.
  • IP Internet Protocol
  • FIG. 5 is a flowchart illustrating the flow of processing executed by the information processing apparatus 2000 according to the first embodiment.
  • the detection unit 2020 acquires the first captured image 11 (S102).
  • the detection unit 2020 detects a person from the first captured image 11 (S104). If no person is detected from the first captured image 11 (S106: NO), the processing in FIG. 5 ends.
  • the first determination unit 2040 acquires the second captured image 21 (S108). The first determination unit 2040 determines whether or not a person detected from the first captured image 11 is included in the second captured image 21 (S110). When the person detected from the 1st captured image 11 is not contained in the 2nd captured image 21 (S110: NO), the process of FIG. 5 is complete
  • the second determination unit 2060 determines whether the suspicious degree of the person is high (S112). If the suspicious degree of the person is not high (S112: NO), the process of FIG. 5 ends.
  • the second determination unit 2060 acquires the third captured image 31 (S114). The second determination unit 2060 determines whether or not the person is included in the third captured image 31 (S116). If the person is included in the third captured image 31 (S116: YES), the processing in FIG. 5 ends.
  • the warning unit 2080 executes a warning process (S118).
  • the timing for acquiring each captured image can be set to an arbitrary timing before using the captured image.
  • the first determination unit 2040 may acquire the second captured image 21 before determining whether or not a person is detected from the first captured image 11 (S106).
  • the second determination unit 2060 determines whether or not a person detected from the first captured image 11 is included in the second captured image 21 (S110) and whether or not the person has a high suspicious degree.
  • the third captured image 31 may be acquired before (S112) is performed.
  • the detection unit 2020 acquires the first captured image 11 (S102).
  • the method by which the detection unit 2020 acquires the first captured image 11 is arbitrary.
  • the detection unit 2020 receives the first captured image 11 transmitted from the first camera 10.
  • the detection unit 2020 accesses the first camera 10 and acquires the first captured image 11 stored in the first camera 10.
  • the first camera 10 may store the first captured image 11 in a storage device provided outside the first camera 10.
  • the detection unit 2020 obtains the first captured image 11 by accessing the storage device.
  • the detection unit 2020 acquires the first captured image 11 generated by the first camera 10 that realizes the detection unit 2020.
  • the first captured image 11 is stored in, for example, a storage device inside the first camera 10. Therefore, the detection unit 2020 acquires the first captured image 11 from these storage devices.
  • the timing at which the detection unit 2020 acquires the first captured image 11 varies. For example, the detection unit 2020 acquires the first captured image 11 every time a new first captured image 11 is generated by the first camera 10. In addition, for example, the detection unit 2020 may periodically acquire the first captured image 11 that has not been acquired. For example, when the detection unit 2020 acquires the first captured image 11 once per second, the detection unit 2020 may be a camera of a plurality of first captured images 11 (for example, 30 fps (frames / second) generated per second). 30 first captured images 11) are collectively acquired.
  • the detection unit 2020 detects a person from the first captured image 11 (S104). Specifically, the detection unit 2020 detects a person from the first captured image 11 by detecting a region representing the person from the first captured image 11. Hereinafter, an area representing a person is referred to as a person area.
  • the detection unit 2020 detects a person region using feature amount matching or template matching.
  • the detection unit 2020 detects, as a person area, an area having a feature amount (hereinafter, a human feature amount) representing a human appearance feature among the regions included in the first captured image 11.
  • the detection unit 2020 detects, as a person area, an area having a high degree of similarity with a template image representing a person among the areas included in the first captured image 11.
  • the person feature amount and the template image are defined in advance.
  • each of the cameras is preferably installed so as to capture the person from the direction where the probability that the front surface of the person's face is imaged is low. It is.
  • each camera is installed so as to face the same direction as the direction of flow of people in the store.
  • the detection unit 2020 enables the person to be detected from the first captured image 11 in which the back of the person is captured. For example, when using feature amount matching, at least an appearance feature amount of the back of a person is determined as a person feature amount. When using template matching, at least a template image representing the back of a person is defined.
  • the first determination unit 2040 determines whether or not a person detected from the first captured image 11 is included in the second captured image 21. In order to make this determination, information for identifying a person detected from the first captured image 11 is required.
  • the detection unit 2020 generates information that identifies the person detected from the first captured image 11.
  • this information is referred to as person information.
  • the detection unit 2020 stores the person information in a storage device accessible from the first determination unit 2040.
  • the detection unit 2020 may output person information to the first determination unit 2040.
  • FIG. 6 is a diagram illustrating person information in a table format.
  • the table in FIG. 6 is referred to as a person information table 500.
  • the person information table 500 includes a person ID 502, a time stamp 504, and a person area 506.
  • the person ID 502 is an identifier assigned by the detection unit 2020 to the person detected from the first captured image 11.
  • the time stamp 504 represents the generation time point of the first captured image 11 in which this person is detected.
  • the person area 506 is information for specifying a person area detected from the first video 12.
  • a method for assigning an identifier to a person detected from the first captured image 11 is arbitrary.
  • the person area 506 may indicate the detected person area itself (a set of values of each pixel included in the person area) or may indicate the characteristics of the detected person.
  • the extracted characteristics of the person indicate, for example, the figure of the person (such as a contour line).
  • the extracted characteristics of the person indicate the clothes, hair color, skin color, and the like of the person.
  • the extracted characteristics of the person indicate the shape and color of the personal belongings.
  • the first determination unit 2040 acquires the second captured image 21 (S108).
  • a method for the first determination unit 2040 to acquire the second captured image 21 a method similar to the method for the detection unit 2020 to acquire the first captured image 11 can be employed.
  • the timing at which the first determination unit 2040 acquires the second captured image 21 is various.
  • the first determination unit 2040 acquires the second captured image 21 at the same timing as the timing at which the detection unit 2020 acquires the first captured image 11.
  • the first determination unit 2040 may acquire the second captured image 21 in response to the person detected from the first captured image 11 by the detection unit 2020. In this case, for example, the first determination unit 2040 acquires the second captured image 21 at the timing when the above-described person information generated by the detection unit 2020 is acquired.
  • the 1st determination part 2040 may acquire all the 2nd captured images 21 produced
  • the person included in the first captured image 11 is captured at the exit 50, and the person included in the second captured image 21 is captured at the display place 60. Therefore, when the same person is included in the first captured image 11 and the second captured image 21, it can be said that the generation time of the second captured image 21 is earlier than the generation time of the first captured image 11. Therefore, when only a part of the second captured image 21 generated by the second camera 20 is acquired, for example, the first determination unit 2040 generates the first captured image 11 at which the person is detected (acquired person information). Only the second captured image 21 generated before (time stamp indicated by) is acquired. By doing so, it is possible to reduce the processing load of the information processing apparatus 2000 required for acquiring the second captured image 21, the bandwidth used for the network used for acquiring the second captured image 21, and the like.
  • the first determination unit 2040 determines whether or not a person detected from the first captured image 11 is included in the second captured image 21 (S110). As described above, the person detected from the first captured image 11 is specified by the person information generated by the detection unit 2020. Therefore, the first determination unit 2040 makes the above determination using the person information generated by the detection unit 2020.
  • the second captured image 21 used for the determination is the second captured image 21 generated at a time point before the generation time point of the first captured image 11 in which the target person is detected.
  • the first determination unit 2040 performs the above determination. Some examples of the method will be described below.
  • the first determination unit 2040 tries to detect a person specified by the person information for each second captured image 21. When the person is detected from any of the second captured images 21, the first determination unit 2040 determines that the person detected from the first captured image 11 is included in the second captured image 21 (S110). : YES). On the other hand, when the person is not detected from any second captured image 21, the first determination unit 2040 determines that the person detected from the first captured image 11 is not included in the second captured image 21. (S110: NO)
  • the person information represents the person area itself extracted from the first captured image 11.
  • the first determination unit 2040 detects a person specified by the person information by detecting an area having a high degree of similarity with the person area from the second captured image 21.
  • the person information represents the characteristics of the person extracted from the first captured image 11.
  • the first determination unit 2040 detects the person specified by the person information by detecting the person having the characteristics indicated by the person information from the second captured image 21.
  • Example 2 of determination method The first determination unit 2040 detects a person from the second captured image 21 in the same manner as the detection unit 2020 detects a person from the first captured image 11. Further, the first determination unit 2040 determines whether the same person as the person detected from the first captured image 11 is included in the persons detected from the second captured image 21.
  • the first determination unit 2040 detects a person from the one or more acquired second captured images 21 and generates person information for each detected person. Further, the first determination unit 2040 performs matching between the person information generated by the detection unit 2020 and the person information generated by the first determination unit 2040. When the person information generated by the first determination unit 2040 includes person information that specifies the same person as the person specified by the person information generated by the detection unit 2020, the first determination unit 2040 It is determined that the person detected by the captured image 11 is included in the second captured image 21 (S110: YES).
  • the first determination unit 2040 determines that the person detected by the detection unit 2020 is not included in the second captured image 21 (S110: NO).
  • the second determination unit 2060 acquires the third captured image 31 (S114).
  • a method for the second determination unit 2060 to acquire the third captured image 31 a method similar to the method for the detection unit 2020 to acquire the first captured image 11 can be employed.
  • the timing at which the second determination unit 2060 acquires the third captured image 31 varies.
  • the second determination unit 2060 acquires the third captured image 31 at the same timing as the timing at which the detection unit 2020 acquires the first captured image 11.
  • the second determination unit 2060 determines that the person detected from the first captured image 11 is included in the second captured image 21 (S110: YES), and the suspicious degree of the person is high (S112). : YES), the third captured image 31 may be acquired (see FIG. 5).
  • the second determination unit 2060 may acquire all of the third captured image 31 generated by the third camera 30, or may acquire only a part thereof. In the latter case, for example, the second determination unit 2060 generates the second captured image 21 including the person who is the target of determination as to whether or not the third captured image 31 is included, and the first imaging including the person. Only the 3rd picked-up image 31 produced
  • the second determination unit 2060 determines that a person who satisfies the two conditions of (1) being included in both the first captured image 11 and the second captured image 21 and (2) having a high suspicious degree is the third captured image. (S116).
  • the person included in both the first captured image 11 and the second captured image 21 is a person detected by the detection unit 2020 and is determined to be included in the second captured image 21 by the first determination unit 2040. It is a person who has been.
  • the second determination unit 2060 is a person detected by the detection unit 2020, and the person who is determined to be included in the second captured image 21 by the first determination unit 2040 has a high suspicious degree of the person. Is determined (S112). Details of this determination method will be described later.
  • the second determination unit 2060 determines whether or not this person is included in the third captured image 31 (S116). On the other hand, when it is determined that the suspicious degree is not high (S112: NO), the second determination unit 2060 does not have to determine whether or not this person is included in the third captured image 31.
  • the third captured image 31 used for the determination is a time point before the generation time point of the first captured image 11 in which the target person is detected, and the generation of the second captured image 21 in which the target person is detected. It is generated at a time point later than the time point.
  • the method for determining whether or not this person is included in the third captured image 31 is the same as the method for determining whether or not the person detected by the detection unit 2020 is included in the second captured image 21. (For example, method 1 and method 2 described above).
  • the person information used for the determination may be acquired from the first determination unit 2040 or may be acquired from a storage device accessible by the second determination unit 2060. In the latter case, the first determination unit 2040 stores the person information of the person determined to be included in the second captured image 21 in a storage device accessed by the second determination unit 2060.
  • the second determination unit 2060 is a person who has been detected by the detection unit 2020 and is determined to be included in the second captured image 21 by the first determination unit 2040. It is determined whether the degree is high (S112). For example, the second determination unit 2060 calculates the suspicious degree of a person as a numerical value. And the 2nd determination part 2060 determines with the suspicious degree of the person being high, when the calculated suspicious degree is more than predetermined value. This predetermined value may be set in advance in the second determination unit 2060 or may be stored in a storage device accessible from the second determination unit 2060.
  • the following is an example of how to calculate a person's suspicious degree.
  • the second determination unit 2060 calculates the reduction amount of the product before and after the period in which the target person (the person detected from the first captured image 11) is included in the second captured image 21 as the suspicious degree of the person. . That is, the more suspicious goods are before and after the person appears in front of the display place 60, the higher the suspicious degree of the person.
  • the second determination unit 2060 determines the amount of products included in the second captured image 21 generated before the target person is included in the imaging range of the second camera 20 and the imaging range of the second camera 20.
  • the difference with the amount of the product included in the second captured image 21 generated after being no longer included in the image is calculated, and the calculated difference is set as the suspicious degree of the person.
  • An existing technique can be used as a technique for calculating the difference between the amounts of objects included in the two images.
  • FIG. 7 is a diagram exemplifying a method for calculating the reduction amount of the product.
  • the target person is included in the second captured image 21-1 generated at time t1 and the second captured image 21 up to the second captured image 21-2 generated at time t2. Therefore, the second determination unit 2060 generates the second captured image 21 generated before time t1 (for example, the second captured image 21 generated immediately before the second captured image 21-1) and the time t2 and subsequent times.
  • the reduction amount of the product is calculated by comparing the second captured image 21 (for example, the second captured image 21 generated immediately after the second captured image 21-2).
  • the second determination unit 2060 calculates the residence time of the target person at the display place 60 as the suspicious degree of the person. In this case, the suspicious degree of the person becomes higher as the residence time of the person in the display place 60 is longer.
  • the residence time of the person in the display place 60 can be calculated using the second captured image 21, for example.
  • the second determination unit 2060 includes the second captured image 21 generated by the second camera 20 that images the display place 60.
  • the second captured image 21 including the person is specified.
  • the second determination unit 2060 determines the generation time of the second captured image 21 with the latest generation time and the generation time of the second captured image 21 with the earliest generation time among the identified second captured images 21. The difference is calculated, and the calculated value is set as the residence time of the person at the display place 60.
  • the residence time of the target person is t2-t1.
  • the second determination unit 2060 calculates the suspicious degree of the person based on the action performed by the target person at the display place 60. Specifically, for various suspicious actions that a person can perform, a score representing the degree of suspicious action is defined in advance. Then, the second determination unit 2060 integrates scores corresponding to each action performed by a certain person, and sets the calculated integrated value as the suspicious degree of the person.
  • FIG. 8 is a diagram illustrating, in a table format, scores assigned to human actions.
  • the table in FIG. 8 is referred to as an operation score table 600.
  • An operation 602 indicates the content of the operation.
  • the score 604 indicates a score of the operation indicated by the operation 602.
  • Each action performed by a person at the display place 60 can be identified by image analysis of the second captured image 21 generated by the second camera 20 that images the display place 60.
  • An existing technique can be used as a technique for identifying a human action by image analysis.
  • the second determination unit 2060 calculates the suspicious degree of the person based on the movement trajectory (flow line) of the target person in the store. Specifically, for various features of the flow line, a score representing the suspicious degree of the feature is defined in advance. Then, the second determination unit 2060 integrates the scores corresponding to the characteristics of the flow lines in a certain person's store, and uses the calculated integrated value as the suspicious degree of the person.
  • the characteristics of the flow line considered to be suspicious are (1) passing the same display place 60 many times (a predetermined number of times or more), (2) staying in the vicinity of the same display place for a long time (a predetermined time or more), (3 ) It passes through a specific area many times (more than a predetermined number of times), (4) The degree of coincidence with the flow line assumed in advance is low.
  • the specific area is a place where goods are likely to be stolen.
  • a place where goods are easily stolen is, for example, a blind spot of a surveillance camera. In places that are blind spots for surveillance cameras, it is easy to take actions such as “putting unaccounted goods in a bag”, so it can be said that goods are easily stolen.
  • Information such as the predetermined number of times, a predetermined time, a specific area, and a flow line assumed in advance may be set in advance in the second determination unit 2060 or accessed from the second determination unit 2060. It may be stored in a possible storage device.
  • FIG. 9 is a diagram illustrating the score assigned to the flow line feature in a table format.
  • the table in FIG. 9 is referred to as a flow line score table 700.
  • a feature 702 indicates a flow line feature.
  • the score 704 indicates the score of the feature of the flow line indicated by the feature 702.
  • Existing technology can be used for the technology to grasp the flow of people in the store.
  • the flow line of a person can be grasped by analyzing captured images generated by cameras installed at various positions in the store and tracking the position of the person.
  • the warning unit 2080 executes warning processing (S118).
  • various processes can be adopted as the warning process performed by the warning unit 2080.
  • the warning unit 2080 outputs a warning message from an output device connected to the information processing apparatus 2000.
  • the output device is, for example, a display device or a speaker.
  • FIG. 10 is a diagram illustrating a warning message displayed on the display device.
  • the warning screen 80 includes a warning message 82 and a captured image 84.
  • the warning message 82 is a message indicating that there is a possibility of theft.
  • the captured image 84 is the first captured image 11 in which a person determined to be not included in the third captured image 31 by the second determination unit 2060 (a person who may have performed fraud such as theft) is detected. .
  • a store clerk, a monitor, or the like can easily grasp the possibility of fraud such as theft and information (such as appearance) of the person who performed the fraud. .
  • the warning message may be output to a stationary output device installed in a security room or a cash register terminal, or may be output to a portable medium such as a portable terminal.
  • this portable terminal is a portable terminal possessed by a store clerk or a security guard.
  • the mobile terminal that has acquired the warning message output from the warning unit 2080 outputs the warning message from the display device or speaker of the mobile terminal.
  • a warning screen similar to that in FIG. 10 is output to the display device of the portable terminal.
  • the warning unit 2080 may execute a warning process of prohibiting passage of a gate (such as an automatic door) of the store exit 50.
  • the warning unit 2080 closes the gate and locks the closed gate. By doing so, a person who is determined not to be included in the third captured image 31 by the second determination unit 2060 (a person who may have performed fraud such as theft) is prevented from leaving the store.
  • the third camera 30 is installed so as to capture a person who is heading toward the gate of the exit 50, not a person passing through the gate of the exit 50. It is preferred that In this way, the gate of the exit 50 can be made impassable before the person leaves the store.
  • FIG. 11 is a block diagram illustrating an information processing apparatus 2000 according to the second embodiment. Except for the items described below, the information processing apparatus 2000 of the second embodiment has the same functions as the information processing apparatus 2000 of the first embodiment.
  • the information processing apparatus 2000 includes an exclusion unit 2100.
  • the excluding unit 2100 includes the first captured image 11, the second captured image 21, and the third captured image 31 that include only the person. Excluded from processing by the information processing apparatus 2000. “After a series of processing relating to a person detected from the first captured image 11 is completed” means (1) after the first determination unit 2040 determines that the person is not included in the second captured image 21.
  • the processing load on the information processing apparatus 2000 can be reduced.
  • the exclusion unit 2100 deletes each captured image excluded from the processing target from the storage device.
  • a flag indicating whether or not it is included in the processing target of the information processing apparatus 2000 may be provided in the metadata of the captured image, and this flag may be used. The initial value of this flag is set to “included in processing target of information processing apparatus 2000”.
  • the exclusion unit 2100 excludes the captured image from the processing target of the information processing device 2000 by changing the value of the flag of the captured image to “not included in the processing target of the information processing device 2000”.
  • the detection unit 2020, the first determination unit 2040, and the second determination unit 2060 according to the second embodiment target only captured images whose flag value is “include in the processing target of the information processing device 2000”. Perform each process.
  • the hardware configuration of a computer that implements the information processing apparatus 2000 according to the second embodiment is represented by, for example, FIG. 4 as in the first embodiment.
  • the storage device 1080 of the computer 1000 that implements the information processing apparatus 2000 of this embodiment further stores a program module that implements the functions of the information processing apparatus 2000 of this embodiment.
  • Detecting means for detecting a person from a first captured image generated by a first camera installed so as to be capable of imaging a store exit; First determination means for determining whether or not a person detected from the first captured image is included in a second captured image generated by a second camera installed so as to be able to capture the display location of the commodity in the store When, First of determining whether or not the person who is included in the second captured image and has a high suspicious degree is included in a third captured image generated by a third camera installed so as to be able to capture the accounting area of the store.
  • the second determination means includes a change in the amount of goods in the display place before and after a period in which the person is included in the second captured image, a residence time of the person in the display place, a suspicious action of the person, Alternatively, a value representing the suspiciousness of the movement trajectory of the person is calculated, and when the calculated value is equal to or greater than a predetermined value, it is determined that the suspicious degree of the person is high.
  • the second captured image used by the second determination unit is an image of a period between the time when the person is imaged by the second camera and the time when the person is imaged by the first camera. 1. Or 2. The information processing apparatus described in 1. 4). Each of the detection unit, the first determination unit, and the second determination unit uses a captured image in which a person is captured from behind. To 3. The information processing apparatus according to any one of the above. 5).
  • the first determination unit is configured to detect the second image of the person based on any one or more of clothes, body shape, hair color, skin color, and personal belongings detected from the first image.
  • the second determination unit is configured to detect the third image of the person based on any one or more of clothes, body shape, hair color, skin color, and personal belongings detected from the first captured image. 3. Determine whether it is included in the image
  • the information processing apparatus described in 1. 6 The first determination means does not use the eyes, nose, and mouth of the person to determine whether or not the person detected from the first captured image is included in the second captured image; 3.
  • the second determination unit does not use the eyes, nose, and mouth of the person to determine whether or not the person detected from the first captured image is included in the third captured image. Or 5.
  • the first captured image used by the detection unit, the second captured image used by the first determination unit, and the third captured image used by the second determination unit include human eyes, nose, and Does not include any of the mouths, 6.
  • a control method executed by a computer A detection step of detecting a person from a first captured image generated by a first camera installed so as to be capable of imaging a store exit; A first determination step of determining whether or not a person detected from the first captured image is included in a second captured image generated by a second camera installed so as to be capable of capturing the display location of the commodity in the store When, First of determining whether or not the person who is included in the second captured image and has a high suspicious degree is included in a third captured image generated by a third camera installed so as to be able to capture the accounting area of the store. 2 determination steps; A warning step of performing a warning process when it is determined in the second determination step that the person is not included in the third captured image; Control method. 11.
  • the second determination step a change in the amount of goods in the display place before and after a period in which the person is included in the second captured image, a residence time of the person in the display place, a suspicious operation of the person, Or calculating a value representing the suspiciousness of the trajectory of the person, and determining that the suspicious degree of the person is high when the calculated value is equal to or greater than a predetermined value;
  • the control method described in 1. 12 The second captured image used in the second determination step is an image of a period between the time when the person is imaged by the second camera and the time when the person is imaged by the first camera. 10. To 11. The control method as described in any one. 13. 9.
  • a captured image in which a person is captured from behind is used.
  • the control method as described in any one. 14
  • the person captures the second captured image. Determine whether it is included in the image
  • the person captures the third captured image. 12. Determine whether it is included in the image; The control method described in 1. 15.
  • the person's eyes, nose, and mouth are not used to determine whether or not the person detected from the first captured image is included in the second captured image. 12. In the second determination step, the person's eyes, nose, and mouth are not used to determine whether or not the person detected from the first captured image is included in the third captured image; Or 14. The control method described in 1. 16. The first captured image used in the detection step, the second captured image used in the first determination step, and the third captured image used in the second determination step include human eyes, nose, and Does not include any of the mouths, 15. The control method described in 1. 17.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Alarm Systems (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Burglar Alarm Systems (AREA)

Abstract

【課題】不正行為を監視できる技術であって、導入が容易な技術を提供する。 【解決手段】第1カメラ(10)、第2カメラ(20)、及び第3カメラ(30)はそれぞれ、第1撮像画像(11)、第2撮像画像(21)、及び第3撮像画像(31)を生成する。第1撮像画像(11)には出口(50)が撮像されている。第2撮像画像(21)には陳列場所(60)が撮像されている。第3撮像画像(31)には会計エリア(70)が撮像されている。情報処理装置(2000)は、第1撮像画像(11)から人物を検出し、検出された人物が第2撮像画像(21)に含まれるか否かを判定する。情報処理装置(2000)は、第1撮像画像(11)から検出された人物が第2撮像画像(21)に含まれていると判定され、なおかつその人物の不審度が高い場合に、その人物が第3撮像画像(31)にも含まれているか否かを判定する。情報処理装置(2000)は、第3撮像画像(31)からその人物が検出されなかった場合に、警告処理を行う。

Description

情報処理装置、制御方法、及びプログラム
 本発明は情報処理装置、制御方法、及びプログラムに関する。
 店舗において、陳列されている商品が盗まれることがある。そこで、商品の盗難を防ぐため、警備員が店舗内を歩き回って警備を行ったり、監視カメラの映像を監視したりしている。
 しかし、人手で行う監視には多くの労力を要する。また、商品が陳列されている場所全てを常に人手で監視することは難しく、監視漏れが発生する可能性がある。
 そこで、情報処理技術を活用した盗難防止のためのシステムが開発されている。例えば特許文献1は、タグが取り付けられた商品を持ってゲートを通る人物の顔を、ゲート付近に設けられたカメラで撮像し、撮像された顔を監視カメラの映像から検索するシステムを開示している。
 特許文献2は、万引き等の不正行為の調査対象とする商品について、不正行為が行われたか否かを判定するシステムを開示している。具体的には、特許文献2のシステムは、(1)調査対象の商品の売り場において或る人物が所定時間以上滞在し、(2)その人物がその商品を手に取った後、その商品を商品棚へ戻さず、なおかつ(3)その人物が店舗を出た場合に、その人物の購入履歴を検索する。そして、その人物がその商品を購入したことを示す購入履歴が無い場合、特許文献2のシステムは、不正行為が行われたと判定する。
特開2011-233133号公報 特開2009-284167号公報
 特許文献1のシステムは、商品に付けられているタグを検出することにより、盗難の発生を検出する。そのため、このシステムを導入するためには、各商品にタグを付ける作業が必要となり、システムの導入に要する労力が大きい。
 特許文献2のシステムを導入するためには、「どの商品が購入されたか」だけでなく、「どの顧客がどの商品を購入したか」を購入履歴として記録できる購入管理システムを導入する必要がある。よって、このような購入管理システムを導入していない店舗では、購入管理システムの入れ替え等が必要となる。
 本発明は、上記の課題に鑑みてなされたものである。本発明の目的の一つは、不正行為を監視できる技術であって、導入が容易な技術を提供することである。
 本発明の情報処理装置は、(1)店舗の出口を撮像可能に設置された第1カメラによって生成される第1撮像画像から人物を検出する検出手段と、(2)前記第1撮像画像から検出された人物が、前記店舗の商品の陳列場所を撮像可能に設置された第2カメラによって生成される第2撮像画像に含まれるか否かを判定する第1判定手段と、(3)前記第2撮像画像に含まれなおかつ不審度が高い前記人物が、前記店舗の会計エリアを撮像可能に設置された第3カメラによって生成される第3撮像画像に含まれるか否かを判定する第2判定手段と、(4)前記第2判定手段によって前記人物が前記第3撮像画像に含まれないと判定された場合、警告処理を行う警告手段と、を有する。
 本発明の制御方法は、コンピュータによって実行される。当該制御方法は、(1)店舗の出口を撮像可能に設置された第1カメラによって生成される第1撮像画像から人物を検出する検出ステップと、(2)前記第1撮像画像から検出された人物が、前記店舗の商品の陳列場所を撮像可能に設置された第2カメラによって生成される第2撮像画像に含まれるか否かを判定する第1判定ステップと、(3)前記第2撮像画像に含まれなおかつ不審度が高い前記人物が、前記店舗の会計エリアを撮像可能に設置された第3カメラによって生成される第3撮像画像に含まれるか否かを判定する第2判定ステップと、(4)前記第2判定ステップによって前記人物が前記第3撮像画像に含まれないと判定された場合、警告処理を行う警告ステップと、を有する。
 本発明のプログラムは、本発明の制御方法が有する各ステップをコンピュータに実行させる。
 本発明によれば、不正行為を監視できる技術であって、導入が容易な技術が提供される。
 上述した目的、およびその他の目的、特徴および利点は、以下に述べる好適な実施の形態、およびそれに付随する以下の図面によってさらに明らかになる。
実施形態1の情報処理装置が利用する複数の種類のカメラの設置場所を例示する図である。 実施形態1の情報処理装置の動作を概念的に例示する図である。 実施形態1の情報処理装置の構成を例示する図である。 情報処理装置を実現するための計算機を例示する図である。 実施形態1の情報処理装置によって実行される処理の流れを例示するフローチャートである。 人物情報をテーブル形式で例示する図である。 商品の減少量を算出する方法を例示する図である。 人物の動作に対して割り当てられたスコアをテーブル形式で例示する図である。 動線の特徴に対して割り当てられたスコアをテーブル形式で例示する図である。 ディスプレイ装置に表示される警告メッセージを例示する図である。 実施形態2の情報処理装置を例示するブロック図である。
 以下、本発明の実施の形態について、図面を用いて説明する。尚、すべての図面において、同様な構成要素には同様の符号を付し、適宜説明を省略する。また、特に説明する場合を除き、各ブロック図において、各ブロックは、ハードウエア単位の構成ではなく、機能単位の構成を表している。
[実施形態1]
<情報処理装置2000の概要>
 図1は、実施形態1の情報処理装置2000が利用する複数の種類のカメラの設置場所を例示する図である。情報処理装置2000が利用される店舗には、第1カメラ10、第2カメラ20、及び第3カメラ30が設置されている。第1カメラ10は、店舗の出口(出口50)を撮像可能に設置されている。第2カメラ20は、店舗における商品の陳列場所(陳列場所60)を撮像可能に設置されている。例えば商品は、陳列場所60に設置されている商品棚に陳列される。第3カメラ30は、商品の会計が行われる場所(会計エリア70)を撮像可能に設置されている。
 図2は、実施形態1の情報処理装置2000の動作を概念的に例示する図である。なお図2は、情報処理装置2000の動作の理解を容易にすることを目的とする例示のための図であり、情報処理装置2000の動作は図2によって何ら限定されない。
 第1カメラ10、第2カメラ20、及び第3カメラ30はそれぞれ、第1撮像画像11、第2撮像画像21、及び第3撮像画像31を生成する。第1撮像画像11には、出口50が撮像されている。第2撮像画像21には、陳列場所60が撮像されている。第3撮像画像31には、会計エリア70が撮像されている。
 情報処理装置2000は、第1撮像画像11から人物を検出する。ここで検出される人物は、出口50において第1カメラ10が撮像した人物とも言える。
 次に情報処理装置2000は、第1撮像画像11から検出された人物が第2撮像画像21に含まれるか否かを判定する。言い換えれば、出口50で撮像された人物が、陳列場所60でも撮像されたか否かが判定される。
 さらに情報処理装置2000は、第1撮像画像11から検出された人物が第2撮像画像21に含まれていると判定され、なおかつその人物の不審度が高い場合に、その人物が第3撮像画像31にも含まれているか否かを判定する。言い換えれば、出口50及び陳列場所60の双方において撮像され、なおかつ不審度の高い人物が、会計エリア70においても撮像されたか否かが判定される。
 そして情報処理装置2000は、第3撮像画像31からその人物が検出されなかった場合に、警告処理を行う。よって、出口50及び陳列場所60の双方では撮像され、なおかつ不審度の高い人物が、会計エリア70では撮像されなかった場合に、警告処理が行われることとなる。
 図2では、時点t1に撮像された第1撮像画像11-1から人物40が検出されている。そのため情報処理装置2000は、第2撮像画像21からも人物40の検出を試みる。その結果、時点t2における第2撮像画像21-1から人物40が検出されている。さらに図2の例では、人物40の不審度が高い。そこで情報処理装置2000は、第3撮像画像31からも人物40の検出を試みる。その結果、第3撮像画像31からは人物40が検出されない。よって情報処理装置2000は警告処理を行う。
 ここで、人物40の不審度の高さは、第2撮像画像21を利用して算出されてもよいし、第2撮像画像21以外を利用して算出されてもよい。人物40の不審度の高さを算出する詳細な方法については後述する。
<作用・効果>
 出口50で撮像された人物が陳列場所60でも撮像されている場合、その人物は、店舗の商品を取得した後、店舗から出ようとしている可能性がある。さらにその人物の不審度が高い場合、その人物は、盗難等の不正な目的で商品を取得した可能性がある。ただし、その人物が会計エリア70において商品の会計をしていれば、その人物は取得した商品を購入したと考えられる。
 そこで本実施形態の情報処理装置2000は、商品を取得した後に店舗から出ようとしている可能性がある人物(第1撮像画像11及び第2撮像画像21に含まれる人物)であり、なおかつ不正を行おうとしている蓋然性が高い人物(不審度が高い人物)が、会計エリア70において撮像されたか否かを判定する。そして、情報処理装置2000は、この人物が会計エリア70において撮像されていない場合に警告処理を行う。こうすることで、商品の盗難などが行われた蓋然性が高い場合に警告処理が行われるようになるため、店員等は、商品の盗難などの事態を早期に把握し、迅速な対処を行うことが可能となる。
 また、本実施形態の情報処理装置2000を導入するにあたり、監視対象の商品にタグを付けたり、どの顧客がどの商品を購入したか」を購入履歴として記録する管理システムを導入したりする必要はない。よって、本実施形態の情報処理装置2000は容易に導入することができる。
 以下、本実施形態についてさらに詳細に説明する。
<情報処理装置2000の機能構成の例>
 図3は、実施形態1の情報処理装置2000の構成を例示する図である。情報処理装置2000は、検出部2020、第1判定部2040、第2判定部2060、及び警告部2080を有する。検出部2020は、第1撮像画像11から人物を検出する。第1判定部2040は、第1撮像画像11から検出された人物が第2撮像画像21に含まれるか否かを判定する。第2判定部2060は、第1撮像画像11から検出された人物が第2撮像画像21に含まれ、なおかつその人物の不審度が高い場合に、第3撮像画像31にその人物が含まれるか否かを判定する。警告部2080は、その人物が第3撮像画像31に含まれない場合に警告処理を行う。
<情報処理装置2000のハードウエア構成>
 情報処理装置2000の各機能構成部は、各機能構成部を実現するハードウエア(例:ハードワイヤードされた電子回路など)で実現されてもよいし、ハードウエアとソフトウエアとの組み合わせ(例:電子回路とそれを制御するプログラムの組み合わせなど)で実現されてもよい。以下、情報処理装置2000の各機能構成部がハードウエアとソフトウエアとの組み合わせで実現される場合について、さらに説明する。
 図4は、情報処理装置2000を実現するための計算機1000を例示する図である。計算機1000は任意の計算機である。例えば計算機1000は、Personal Computer(PC)、サーバマシン、タブレット端末、又はスマートフォンなどである。計算機1000は、情報処理装置2000を実現するために設計された専用の計算機であってもよいし、汎用の計算機であってもよい。
 計算機1000は、バス1020、プロセッサ1040、メモリ1060、ストレージデバイス1080、入出力インタフェース1100、及びネットワークインタフェース1120を有する。バス1020は、プロセッサ1040、メモリ1060、ストレージデバイス1080、入出力インタフェース1100、及びネットワークインタフェース1120が、相互にデータを送受信するためのデータ伝送路である。ただし、プロセッサ1040などを互いに接続する方法は、バス接続に限定されない。プロセッサ1040は、CPU(Central Processing Unit)や GPU(Graphics Processing Unit)などの演算装置である。メモリ1060は、RAM(Random Access Memory)などを用いて実現される主記憶装置である。ストレージデバイス1080は、ハードディスク、SSD(Solid State Drive)、メモリカード、又は ROM(Read Only Memory)などを用いて実現される補助記憶装置である。ただし、ストレージデバイス1080は、RAM など、主記憶装置を構成するハードウエアと同様のハードウエアで構成されてもよい。
 入出力インタフェース1100は、計算機1000と入出力デバイスとを接続するためのインタフェースである。ネットワークインタフェース1120は、計算機1000を通信網に接続するためのインタフェースである。この通信網は、例えば LAN(Local Area Network)や WAN(Wide Area Network)である。ネットワークインタフェース1120が通信網に接続する方法は、無線接続であってもよいし、有線接続であってもよい。
 例えば計算機1000は、ネットワークを介して、第1カメラ10、第2カメラ20、及び第3カメラ30と通信可能に接続されている。ただし、計算機1000を各カメラと通信可能に接続する方法は、ネットワークを介した接続に限定されない。また、計算機1000は、各カメラと通信可能に接続されていなくてもよい。
 ストレージデバイス1080は、情報処理装置2000の各機能構成部(検出部2020、第1判定部2040、第2判定部2060、及び警告部2080)を実現するプログラムモジュールを記憶している。プロセッサ1040は、これら各プログラムモジュールをメモリ1060に読み出して実行することで、各プログラムモジュールに対応する機能を実現する。
 なお、計算機1000は、複数の計算機を利用して実現されてもよい。例えば検出部2020、第1判定部2040、第2判定部2060、及び警告部2080をそれぞれ異なる計算機で実現することができる。この場合、各計算機のストレージデバイスに記憶されるプログラムモジュールは、その計算機で実現される機能構成部に対応するプログラムモジュールだけでもよい。
<カメラについて>
 第1カメラ10、第2カメラ20、及び第3カメラ30はそれぞれ、繰り返し撮像を行って複数の撮像画像を生成することができる任意のカメラである。各カメラは、動画データを生成するビデオカメラであってもよいし、静止画像データを生成するスチルカメラであってもよい。前者の場合、第1撮像画像11、第2撮像画像21、及び第3撮像画像31は、動画データを構成する画像フレームである。上記各カメラは、例えば監視カメラである。
 前述したように計算機1000を複数の計算機で実現する場合、その実現に各カメラを利用してもよい。例えば検出部2020は、第1カメラ10を用いて実現することができる。この場合、第1カメラ10は、自身で生成した第1撮像画像11から人物の検出を行う。
 その他にも例えば、第1判定部2040は、第2カメラ20を用いて実現することができる。この場合、第2カメラ20は、自身が生成した第2撮像画像21に第1撮像画像11から検出された人物が含まれるか否かを判定する。
 その他にも例えば、第2判定部2060は、第3カメラ30を用いて実現することができる。第3カメラ30は、第1撮像画像11と第2撮像画像21の双方に含まれ、なおかつ不審度が高い人物が、自身で生成した第3撮像画像31に含まれるか否かを判定する。またさらに、警告部2080が第3カメラ30を用いて実現されてもよい。この場合、第3カメラ30は、上記人物が第3撮像画像31に含まれない場合に警告処理を行う。
 このように計算機1000を実現するために用いられる各カメラには、例えば、インテリジェントカメラ、ネットワークカメラ、又は IP(Internet Protocol)カメラなどと呼ばれるカメラを利用できる。
<処理の流れ>
 図5は、実施形態1の情報処理装置2000によって実行される処理の流れを例示するフローチャートである。検出部2020は、第1撮像画像11を取得する(S102)。検出部2020は、第1撮像画像11から人物を検出する(S104)。第1撮像画像11から人物が検出されなかった場合(S106:NO)、図5の処理は終了する。
 第1撮像画像11から人物が検出された場合(S106:YES)、第1判定部2040は、第2撮像画像21を取得する(S108)。第1判定部2040は、第1撮像画像11から検出された人物が第2撮像画像21に含まれるか否かを判定する(S110)。第1撮像画像11から検出された人物が第2撮像画像21に含まれない場合(S110:NO)、図5の処理は終了する。
 第1撮像画像11から検出された人物が第2撮像画像21に含まれる場合(S110:YES)、第2判定部2060は、その人物の不審度が高いか否かを判定する(S112)。その人物の不審度が高くない場合(S112:NO)、図5の処理は終了する。
 その人物の不審度が高い場合(S112:YES)、第2判定部2060は第3撮像画像31を取得する(S114)。第2判定部2060は、その人物が第3撮像画像31に含まれるか否かを判定する(S116)。その人物が第3撮像画像31に含まれる場合(S116:YES)、図5の処理は終了する。
 その人物が第3撮像画像31に含まれない場合(S116:NO)、警告部2080は警告処理を実行する(S118)。
 なお、図5が示す処理の流れはあくまで一例であり、情報処理装置2000によって実行される処理の流れは図5が示す流れに限定されない。例えば各撮像画像を取得するタイミングは、その撮像画像を利用する前の任意のタイミングとすることができる。例えば第1判定部2040は、第1撮像画像11から人物が検出されるか否かの判定(S106)が行われる前に第2撮像画像21を取得してもよい。同様に、第2判定部2060は、第1撮像画像11から検出された人物が第2撮像画像21に含まれるか否かの判定(S110)やその人物の不審度が高いか否かの判定(S112)が行われる前に第3撮像画像31を取得してもよい。
<第1映像12の取得方法:S102>
 検出部2020は第1撮像画像11を取得する(S102)。ここで、検出部2020が第1撮像画像11を取得する方法は任意である。例えば検出部2020は、第1カメラ10から送信される第1撮像画像11を受信する。また例えば、検出部2020は、第1カメラ10にアクセスし、第1カメラ10に記憶されている第1撮像画像11を取得する。
 なお、第1カメラ10は、第1カメラ10の外部に設けられている記憶装置に第1撮像画像11を記憶してもよい。この場合、検出部2020は、この記憶装置にアクセスして第1撮像画像11を取得する。
 検出部2020を第1カメラ10で実現される場合、検出部2020は、検出部2020を実現する第1カメラ10自身によって生成された第1撮像画像11を取得する。この場合、第1撮像画像11は、例えば第1カメラ10の内部にある記憶装置に記憶されている。そこで検出部2020は、これらの記憶装置から第1撮像画像11を取得する。
 検出部2020が第1撮像画像11を取得するタイミングは様々である。例えば検出部2020は、第1カメラ10によって新たな第1撮像画像11が生成される度に、その第1撮像画像11を取得する。その他にも例えば、検出部2020は、定期的に未取得の第1撮像画像11を取得してもよい。例えば検出部2020が1秒間に1回第1撮像画像11を取得する場合、検出部2020は、1秒間に生成される複数の第1撮像画像11(例えば 30fps(frames/second) のカメラであれば30枚の第1撮像画像11)をまとめて取得する。
<第1撮像画像11からの人物の検出:S104>
 検出部2020は、第1撮像画像11から人物を検出する(S104)。具体的には、検出部2020は、第1撮像画像11から人物を表す領域を検出することにより、第1撮像画像11から人物を検出する。以下、人物を表す領域を人物領域と呼ぶ。
 第1撮像画像11から人物領域を検出する方法は様々である。例えば検出部2020は、特徴量マッチングやテンプレートマッチングを利用して人物領域の検出を行う。前者の場合、検出部2020は、第1撮像画像11に含まれる領域のうち、人間の外見的な特徴を表す特徴量(以下、人物特徴量)を持つ領域を、人物領域として検出する。後者の場合、検出部2020は、第1撮像画像11に含まれる領域のうち、人物を表すテンプレート画像との類似度が高い領域を、人物領域として検出する。なお、人物特徴量やテンプレート画像は予め定義しておく。
 なお、プライバシー保護などの観点から、カメラで人の顔の前面を撮像することが好ましくないこともある。そこで、各カメラ(第1カメラ10、第2カメラ20及び第3カメラ30)はいずれも、人の顔の前面が撮像される蓋然性が低い方向から人を撮像するように設置されることが好適である。例えば各カメラは、店舗における人の動線方向と同じ方向を向くように設置される。
 このように人の顔の前面が撮像される蓋然性が低いように第1カメラ10が設置されると、第1撮像画像11には、人物の顔の前面にある特徴的な要素(目、鼻、及び口など)が含まれない蓋然性が高い。そこでこの場合、検出部2020は、人物の後ろ姿が撮像されている第1撮像画像11から人物を検出できるようにする。例えば特徴量マッチングを利用する場合、人物特徴量として、少なくとも、人物の後ろ姿の外見的な特徴量を定めておく。また、テンプレートマッチングを利用する場合、少なくとも、人物の後ろ姿を表すテンプレート画像を定めておく。
<検出された人物に関する情報>
 第1判定部2040は、第1撮像画像11から検出された人物が第2撮像画像21に含まれるか否かを判定する。この判定を行うためには、第1撮像画像11から検出された人物を特定する情報が必要となる。
 そこで検出部2020は、第1撮像画像11から検出された人物を特定する情報を生成する。以下、この情報を人物情報と呼ぶ。例えば検出部2020は、第1判定部2040からアクセス可能な記憶装置に人物情報を記憶させる。その他にも例えば、検出部2020は、第1判定部2040に対して人物情報を出力してもよい。
 図6は人物情報をテーブル形式で例示する図である。図6のテーブルを人物情報テーブル500と呼ぶ。人物情報テーブル500は、人物ID502、タイムスタンプ504、及び人物領域506を有する。人物ID502は、第1撮像画像11から検出された人物に検出部2020が割り当てる識別子である。タイムスタンプ504は、この人物が検出された第1撮像画像11の生成時点を表す。人物領域506は、第1映像12から検出された人物領域を特定する情報である。なお、第1撮像画像11から検出された人物に対して識別子を割り当てる方法は任意である。
 人物領域506は、検出された人物領域そのもの(人物領域に含まれる各画素の値の集合)を示してもよいし、検出された人物の特徴を示してもよい。抽出された人物の特徴は、例えば、その人物の体型(輪郭線など)を示す。その他にも例えば、抽出された人物の特徴は、その人物の服装、髪の色、及び肌の色などを示す。その他にも例えば、抽出された人物の特徴は、その人物の所持品の形状や色などを示す。
<第2撮像画像21の取得:S108>
 第1判定部2040は第2撮像画像21を取得する(S108)。第1判定部2040が第2撮像画像21を取得する方法には、検出部2020が第1撮像画像11を取得する方法と同様の方法を採用できる。
 第1判定部2040が第2撮像画像21を取得するタイミングは様々である。例えば第1判定部2040は、検出部2020が第1撮像画像11を取得するタイミングと同様のタイミングで第2撮像画像21を取得する。その他にも例えば、第1判定部2040は、検出部2020によって第1撮像画像11から人物が検出されたことに応じて、第2撮像画像21を取得してもよい。この場合、例えば第1判定部2040は、検出部2020によって生成された前述の人物情報を取得したタイミングで、第2撮像画像21を取得する。
 なお第1判定部2040は、第2カメラ20によって生成された第2撮像画像21の全てを取得してもよいし、一部のみを取得してもよい。ここで、第1撮像画像11に含まれる人物は出口50で撮像されており、第2撮像画像21に含まれる人物は陳列場所60で撮像されている。そのため、同じ人物が第1撮像画像11と第2撮像画像21に含まれる場合、第2撮像画像21の生成時点は、第1撮像画像11の生成時点よりも前であると言える。そこで、第2カメラ20によって生成された第2撮像画像21の一部のみを取得する場合、例えば第1判定部2040は、人物が検出された第1撮像画像11の生成時点(取得した人物情報が示すタイムスタンプ)よりも前に生成された第2撮像画像21のみを取得する。こうすることで、第2撮像画像21の取得に要する情報処理装置2000の処理負荷や、第2撮像画像21の取得に利用されるネットワークの使用帯域などを削減することができる。
<第2撮像画像21からの人物の検出:S110>
 第1判定部2040は、第1撮像画像11から検出された人物が第2撮像画像21に含まれるか否かを判定する(S110)。前述したように、第1撮像画像11から検出された人物は、検出部2020によって生成される人物情報で特定される。そこで第1判定部2040は、検出部2020によって生成された人物情報を利用して、上記判定を行う。判定に利用される第2撮像画像21は、対象の人物が検出された第1撮像画像11の生成時点よりも前の時点において生成された第2撮像画像21である。
 第1判定部2040が上記判定を行う具体的な方法は様々である。以下、その方法をいくつか例示する。
<<判定方法の例1>>
 第1判定部2040は、各第2撮像画像21を対象に、人物情報によって特定される人物の検出を試みる。そして、その人物がいずれかの第2撮像画像21から検出された場合、第1判定部2040は、第1撮像画像11から検出された人物が第2撮像画像21に含まれると判定する(S110:YES)。一方、その人物がどの第2撮像画像21からも検出されない場合、第1判定部2040は、第1撮像画像11から検出された人物が第2撮像画像21に含まれないと判定する。(S110:NO)
 例えば人物情報が、第1撮像画像11から抽出された人物領域そのものを表しているとする。この場合、第1判定部2040は、第2撮像画像21から、その人物領域との類似度が高い領域を検出することで、人物情報によって特定される人物の検出を行う。
 その他にも例えば、人物情報が、第1撮像画像11から抽出された人物の特徴を表しているとする。この場合、第1判定部2040は、第2撮像画像21から、その人物情報が示す特徴を持つ人物を検出することで、人物情報によって特定される人物の検出を行う。
<<判定方法の例2>>
 第1判定部2040は、検出部2020が第1撮像画像11から人物を検出する方法と同様の方法で、第2撮像画像21からも人物を検出する。さらに第1判定部2040は、第2撮像画像21から検出された人物の中に、第1撮像画像11から検出された人物と同じ人物が含まれるか否かを判定する。
 例えば第1判定部2040は、取得した1つ以上の第2撮像画像21から人物を検出し、検出された各人物について人物情報を生成する。さらに第1判定部2040は、検出部2020によって生成された人物情報と、第1判定部2040によって生成された人物情報とのマッチングを行う。第1判定部2040によって生成された人物情報の中に、検出部2020によって生成された人物情報によって特定される人物と同じ人物を特定する人物情報がある場合、第1判定部2040は、第1撮像画像11によって検出された人物が第2撮像画像21に含まれると判定する(S110:YES)。一方、第1判定部2040によって生成された人物情報の中に、検出部2020によって生成された人物情報によって特定される人物と同じ人物を特定する人物情報がない場合、第1判定部2040は、検出部2020によって検出された人物が第2撮像画像21に含まれないと判定する(S110:NO)。
<第3撮像画像31の取得:S114>
 第2判定部2060は第3撮像画像31を取得する(S114)。第2判定部2060が第3撮像画像31を取得する方法には、検出部2020が第1撮像画像11を取得する方法と同様の方法を採用できる。
 第2判定部2060が第3撮像画像31を取得するタイミングは様々である。例えば第2判定部2060は、検出部2020が第1撮像画像11を取得するタイミングと同様のタイミングで第3撮像画像31を取得する。その他にも例えば、第2判定部2060は、第1撮像画像11から検出された人物が第2撮像画像21に含まれると判定され(S110:YES)、なおかつその人物の不審度が高い(S112:YES)と判定されたことに応じて、第3撮像画像31を取得してもよい(図5参照)。
 なお第2判定部2060は、第3カメラ30によって生成された第3撮像画像31の全てを取得してもよいし、一部のみを取得してもよい。後者の場合、例えば第2判定部2060は、第3撮像画像31に含まれるか否かの判定対象である人物が含まれる第2撮像画像21の生成時点と、その人物が含まれる第1撮像画像11の生成時点との間の期間に生成された第3撮像画像31のみを取得する。これは、或る人物が会計エリア70(第3カメラ30の撮像範囲)で撮像されるのは、その人物が陳列場所60で撮像される時点(商品を陳列場所60から取得する時点)と、その人物が出口50で撮像される時点(出口50から出ようとする時点)との間であると言えるためである。このように一部の第3撮像画像31のみを取得するようにすることで、第3撮像画像31の取得に要する情報処理装置2000の処理負荷や、第3撮像画像31の取得に利用されるネットワークの使用帯域などを削減することができる。
<第2判定部2060による判定:S116>
 第2判定部2060は、(1)第1撮像画像11及び第2撮像画像21の双方に含まれている、及び(2)不審度が高いという2つの条件を満たす人物が、第3撮像画像に含まれているか否かを判定する(S116)。第1撮像画像11及び第2撮像画像21の双方に含まれている人物は、検出部2020から検出された人物で、なおかつ第1判定部2040によって第2撮像画像21に含まれていると判定された人物である。
 第2判定部2060は、検出部2020から検出された人物で、なおかつ第1判定部2040によって第2撮像画像21に含まれていると判定された人物について、その人物の不審度が高いか否かを判定する(S112)。この判定方法の詳細については後述する。
 不審度が高いと判定された場合(S112:YES)、第2判定部2060は、この人物が第3撮像画像31に含まれているか否かを判定する(S116)。一方、不審度が高くないと判定された場合(S112:NO)、第2判定部2060は、この人物が第3撮像画像31に含まれているか否かを判定しなくてよい。
 判定に利用される第3撮像画像31は、対象の人物が検出された第1撮像画像11の生成時点よりも前の時点であり、なおかつ対象の人物が検出された第2撮像画像21の生成時点よりも後の時点において生成されたものである。
 なお、この人物が第3撮像画像31に含まれるか否かを判定する方法は、検出部2020によって検出された人物が第2撮像画像21に含まれるか否かを判定する方法と同様である(例えば前述の方法1や方法2)。判定に利用される人物情報は、第1判定部2040から取得されてもよいし、第2判定部2060によってアクセス可能な記憶装置から取得されてもよい。後者の場合、第1判定部2040は、第2撮像画像21に含まれると判定された人物の人物情報を、第2判定部2060によってアクセスされる記憶装置に記憶しておく。
<不審度の高さの判定:S112>
 前述したように、第2判定部2060は、検出部2020から検出された人物で、なおかつ第1判定部2040によって第2撮像画像21に含まれていると判定された人物について、その人物の不審度が高いか否かを判定する(S112)。例えば第2判定部2060は、人物の不審度を数値で算出する。そして第2判定部2060は、算出した不審度が所定値以上である場合に、その人物の不審度が高いと判定する。この所定値は、第2判定部2060に予め設定されていてもよいし、第2判定部2060からアクセス可能な記憶装置に記憶されていてもよい。
 以下、人物の不審度の算出方法について例示する。
<<算出方法の例1>>
 例えば第2判定部2060は、対象の人物(第1撮像画像11から検出された人物)が第2撮像画像21に含まれる期間の前後における商品の減少量を、その人物の不審度として算出する。つまり、その人物が陳列場所60の前に現れる前後で商品が多く減少しているほど、その人物の不審度が高くなる。
 例えば第2判定部2060は、対象の人物が第2カメラ20の撮像範囲に含まれる前に生成された第2撮像画像21に含まれる商品の量と、その人物が第2カメラ20の撮像範囲に含まれなくなった後に生成された第2撮像画像21に含まれる商品の量との差分を算出し、算出した差分をその人物の不審度とする。2つの画像に含まれる物の量の差異を算出する技術には、既存の技術を利用することができる。
 図7は、商品の減少量を算出する方法を例示する図である。対象の人物は、時点t1において生成された第2撮像画像21-1と、時点t2において生成された第2撮像画像21-2までの各第2撮像画像21に含まれている。そこで第2判定部2060は、時点t1以前に生成された第2撮像画像21(例えば第2撮像画像21-1の1つ前に生成された第2撮像画像21)と、時点t2以降に生成された第2撮像画像21(例えば第2撮像画像21-2の1つ後に生成された第2撮像画像21)とを比較することで、商品の減少量を算出する。
<<算出方法の例2>>
 例えば第2判定部2060は、陳列場所60における対象の人物の滞留時間を、その人物の不審度として算出する。この場合、陳列場所60における人物の滞留時間が長いほど、その人物の不審度が高くなる。
 陳列場所60における人物の滞留時間は、例えば、第2撮像画像21を利用して算出することができる。具体的には、或る人物の陳列場所60における滞留時間を算出するために、第2判定部2060は、その陳列場所60を撮像する第2カメラ20によって生成された第2撮像画像21の中から、その人物が含まれる第2撮像画像21を特定する。そして、第2判定部2060は、特定された第2撮像画像21のうち、生成時点が最も遅い第2撮像画像21の生成時点と、生成時点が最も早い第2撮像画像21の生成時点との差異を算出し、算出した値をその人物の陳列場所60における滞留時間とする。例えば図7において、対象の人物の滞留時間はt2-t1となる。
<<算出方法の例3>>
 例えば第2判定部2060は、陳列場所60において対象の人物が行った動作に基づいて、その人物の不審度を算出する。具体的には、人が行いうる様々な不審な動作に対し、その動作の不審度合いを表すスコアを予め定義しておく。そして第2判定部2060は、或る人物が行った各動作に対応するスコアを積算し、算出された積算値をその人物の不審度とする。
 図8は、人物の動作に対して割り当てられたスコアをテーブル形式で例示する図である。図8のテーブルを動作スコアテーブル600と呼ぶ。動作602は、動作の内容を示す。スコア604は、動作602で示される動作のスコアを示す。
 陳列場所60において人物が行った各動作は、その陳列場所60を撮像する第2カメラ20によって生成された第2撮像画像21を画像解析することで特定できる。画像解析によって人の動作を特定する技術には、既存の技術を利用することができる。
<<算出方法の例4>>
 例えば第2判定部2060は、店舗における対象の人物の移動の軌跡(動線)に基づいて、その人物の不審度を算出する。具体的には、動線の様々な特徴に対し、その特徴の不審度合いを表すスコアを予め定義しておく。そして第2判定部2060は、或る人物の店舗における動線の各特徴に対応するスコアを積算し、算出された積算値をその人物の不審度とする。
 不審と考えられる動線の特徴には、様々なものがある。例えば不審と考えられる動線の特徴には、(1)同じ陳列場所60を何度も(所定回数以上)通る、(2)同じ陳列場所付近に長い時間(所定時間以上)滞留する、(3)特定のエリアを何度も(所定回数以上)通る、(4)事前に想定されている動線との一致度合いが低い、などがある。上記特定のエリアは、商品の盗難などが起こりやすいと考えられる場所である。商品の盗難などが起こりやすい場所は、例えば監視カメラの死角となる場所である。監視カメラの死角となる場所では、「未会計の商品を鞄に入れる」といった行動をとりやすいため、商品の盗難などが起こりやすいと言える。なお、上述の所定回数、所定時間、特定のエリア、及び事前に想定されている動線などの情報は、予め第2判定部2060に設定されていてもよいし、第2判定部2060からアクセス可能な記憶装置に記憶されていてもよい。
 図9は、動線の特徴に対して割り当てられたスコアをテーブル形式で例示する図である。図9のテーブルを動線スコアテーブル700と呼ぶ。特徴702は、動線の特徴を示す。スコア704は、特徴702で示される動線の特徴のスコアを示す。
 店舗における人物の動線を把握する技術には、既存の技術を利用することができる。例えば人物の動線は、店舗の様々な位置に設置されたカメラによって生成される撮像画像を解析してその人物の位置をトラッキングすることにより、把握することができる。
<警告処理の実行:S118>
 条件(1)及び(2)を満たす人物がいずれの第3撮像画像31にも含まれない場合(S116:NO)、警告部2080は警告処理を実行する(S118)。ここで、警告部2080が行う警告処理としては、様々なものを採用できる。例えば警告部2080は、情報処理装置2000に接続されている出力装置から、警告メッセージを出力する。出力装置は、例えばディスプレイ装置やスピーカなどである。
 図10は、ディスプレイ装置に表示される警告メッセージを例示する図である。警告画面80は、警告メッセージ82及び撮像画像84を含む。警告メッセージ82は、盗難の可能性があることを表すメッセージである。撮像画像84は、第2判定部2060によって第3撮像画像31に含まれないと判定された人物(盗難などの不正を行った可能性がある人物)が検出された第1撮像画像11である。
 警告画面80を見ることで、店員や監視員等は、盗難などの不正が行われた可能性があること、及びその不正を行った人物の情報(外見など)を容易に把握することができる。
 上記警告メッセージは、警備員室やレジ端末に設置されている据え置き型の出力装置に出力されてもよいし、携帯端末などの可搬媒体に出力されてもよい。例えばこの携帯端末は、店舗の店員や警備員などが所持する携帯端末である。警告部2080から出力された警告メッセージを取得した携帯端末は、その携帯端末のディスプレイ装置やスピーカから警告メッセージを出力する。例えば携帯端末のディスプレイ装置には、図10と同様の警告画面が出力される。
 その他にも例えば、警告部2080は、店舗の出口50が有するゲート(自動ドアなど)を通行不可にするという警告処理を実行してもよい。例えば警告部2080は、ゲートを閉じ、閉じたゲートをロックする。こうすることで、第2判定部2060によって第3撮像画像31に含まれないと判定された人物(盗難などの不正を行った可能性がある人物)が店舗から出られないようにする。
 なお、ゲートを通行不可にするという警告処理を採用する場合、第3カメラ30は、出口50のゲートを通過している人物ではなく、出口50のゲートに向かっている人物を撮像するように設置されることが好適である。こうすることで、より確実に、上記人物が店舗から出る前に出口50のゲートを通行不可にできるようになる。
[実施形態2]
 図11は、実施形態2の情報処理装置2000を例示するブロック図である。下記で説明する事項を除き、実施形態2の情報処理装置2000は、実施形態1の情報処理装置2000と同様の機能を有する。
 実施形態1の図5で例示したように、検出部2020から人物が検出されると(S106:YES)、その人物に関する警告処理を実行するか否かが判定され(S108からS116)、警告処理が実行される(S118)。検出部2020から検出された人物は出口50から店舗の外へ出るため、その人物に関する一連の処理が完了した後は、その人物しか含まれない撮像画像を処理する必要はなくなると言える。
 そこで実施形態2の情報処理装置2000は除外部2100を有する。除外部2100は、第1撮像画像11から検出された人物に関する一連の処理が完了した後、その人物のみが含まれる第1撮像画像11、第2撮像画像21、及び第3撮像画像31を、情報処理装置2000による処理の対象から除外する。「第1撮像画像11から検出された人物に関する一連の処理が完了した後」とは、(1)第1判定部2040により、その人物が第2撮像画像21に含まれないと判定された後(S110:NO)、(2)第2判定部2060により、その人物の不審度は高くないと判定された後(S112:NO)、又は(3)第2判定部2060によってその人物が第3撮像画像31に含まれるか否かの判定が行われた後(S116)である。
 このように情報処理装置2000による処理が完了した撮像画像を情報処理装置2000の処理対象から除外することで、情報処理装置2000の処理負荷を削減することができる。
 ここで、各撮像画像を情報処理装置2000の処理対象から除外する方法は様々である。例えば除外部2100は、処理対象から除外する各撮像画像を記憶装置から削除する。その他にも例えば、情報処理装置2000の処理対象に含まれるか否かを表すフラグを撮像画像のメタデータに設けておき、このフラグを利用してもよい。このフラグの初期値は、「情報処理装置2000の処理対象に含まれる」に設定しておく。そして除外部2100は、撮像画像のフラグの値を「情報処理装置2000の処理対象に含めない」に変更することにより、その撮像画像を情報処理装置2000の処理対象から除外する。この場合、実施形態2の検出部2020、第1判定部2040、及び第2判定部2060は、フラグの値が「情報処理装置2000の処理対象に含める」となっている撮像画像のみを対象として各処理を行う。
<ハードウエア構成の例>
 実施形態2の情報処理装置2000を実現する計算機のハードウエア構成は、実施形態1と同様に、例えば図4によって表される。ただし、本実施形態の情報処理装置2000を実現する計算機1000のストレージデバイス1080には、本実施形態の情報処理装置2000の機能を実現するプログラムモジュールがさらに記憶される。
 以上、図面を参照して本発明の実施形態について述べたが、これらは本発明の例示であり、上記各実施形態の組み合わせ、又は上記以外の様々な構成を採用することもできる。
 上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
1. 店舗の出口を撮像可能に設置された第1カメラによって生成される第1撮像画像から人物を検出する検出手段と、
 前記第1撮像画像から検出された人物が、前記店舗の商品の陳列場所を撮像可能に設置された第2カメラによって生成される第2撮像画像に含まれるか否かを判定する第1判定手段と、
 前記第2撮像画像に含まれなおかつ不審度が高い前記人物が、前記店舗の会計エリアを撮像可能に設置された第3カメラによって生成される第3撮像画像に含まれるか否かを判定する第2判定手段と、
 前記第2判定手段によって前記人物が前記第3撮像画像に含まれないと判定された場合、警告処理を行う警告手段と、
 を有する情報処理装置。
2. 前記第2判定手段は、前記第2撮像画像に前記人物が含まれる期間の前後における前記陳列場所の商品の量の変化、前記陳列場所における前記人物の滞留時間、前記人物の動作の不審さ、又は前記人物の移動の軌跡の不審さを表す値を算出し、前記算出した値が所定値以上である場合に、前記人物の不審度が高いと判定する、1.に記載の情報処理装置。
3. 前記第2判定手段が利用する第2撮像画像は、前記第2カメラによって前記人物が撮像された時点と、前記第1カメラによって前記人物が撮像された時点との間の期間の映像である、1.又は2.に記載の情報処理装置。
4. 前記検出手段、前記第1判定手段、及び前記第2判定手段はそれぞれ、人物が背後から撮像されている撮像画像を利用する、1.乃至3.いずれか一つに記載の情報処理装置。
5. 前記第1判定手段は、前記第1撮像画像から検出された人物の服装、体型、髪の色、肌の色、及び所持品のいずれか1つ以上に基づいて、その人物が前記第2撮像画像に含まれるか否かを判定し、
 前記第2判定手段は、前記第1撮像画像から検出された人物の服装、体型、髪の色、肌の色、及び所持品のいずれか1つ以上に基づいて、その人物が前記第3撮像画像に含まれるか否かを判定する、4.に記載の情報処理装置。
6. 前記第1判定手段は、前記第1撮像画像から検出された人物が前記第2撮像画像に含まれるか否かの判定に、その人物の目、鼻、及び口を用いず、
 前記第2判定手段は、前記第1撮像画像から検出された人物が前記第3撮像画像に含まれるか否かの判定に、その人物の目、鼻、及び口を用いない、4.又は5.に記載の情報処理装置。
7. 前記検出手段が利用する前記第1撮像画像、前記第1判定手段が利用する前記第2撮像画像、及び前記第2判定手段が利用する前記第3撮像画像には、人物の目、鼻、及び口のいずれもが含まれない、6.に記載の情報処理装置。
8. 第1判定手段により前記人物が第2撮像画像に含まれないと判定された後か、前記第2判定手段により前記人物の不審度は高くないと判定された後か、又は前記第2判定手段により前記人物が前記第3撮像画像に含まれるか否かが判定された後に、前記検出手段、前記第1判定手段、及び前記第2判定手段それぞれが処理する撮像画像から、前記人物以外の人物が含まれない撮像画像を除外する除外手段を有する、1.乃至7.いずれか一つに記載の情報処理装置。
9. 前記出口にゲートが設けられており、
 前記警告手段が行う警告処理は、前記ゲートを通行不可の状態に設定する処理である、1.乃至8.いずれか一つに記載の情報処理装置。
10. コンピュータによって実行される制御方法であって、
 店舗の出口を撮像可能に設置された第1カメラによって生成される第1撮像画像から人物を検出する検出ステップと、
 前記第1撮像画像から検出された人物が、前記店舗の商品の陳列場所を撮像可能に設置された第2カメラによって生成される第2撮像画像に含まれるか否かを判定する第1判定ステップと、
 前記第2撮像画像に含まれなおかつ不審度が高い前記人物が、前記店舗の会計エリアを撮像可能に設置された第3カメラによって生成される第3撮像画像に含まれるか否かを判定する第2判定ステップと、
 前記第2判定ステップによって前記人物が前記第3撮像画像に含まれないと判定された場合、警告処理を行う警告ステップと、
 を有する制御方法。
11. 前記第2判定ステップにおいて、前記第2撮像画像に前記人物が含まれる期間の前後における前記陳列場所の商品の量の変化、前記陳列場所における前記人物の滞留時間、前記人物の動作の不審さ、又は前記人物の移動の軌跡の不審さを表す値を算出し、前記算出した値が所定値以上である場合に、前記人物の不審度が高いと判定する、10.に記載の制御方法。
12. 前記第2判定ステップにおいて利用する第2撮像画像は、前記第2カメラによって前記人物が撮像された時点と、前記第1カメラによって前記人物が撮像された時点との間の期間の映像である、10.乃至11.いずれか一つに記載の制御方法。
13. 前記検出ステップ、前記第1判定ステップ、及び前記第2判定ステップそれぞれにおいて、人物が背後から撮像されている撮像画像を利用する、10.乃至12.いずれか一つに記載の制御方法。
14. 前記第1判定ステップにおいて、前記第1撮像画像から検出された人物の服装、体型、髪の色、肌の色、及び所持品のいずれか1つ以上に基づいて、その人物が前記第2撮像画像に含まれるか否かを判定し、
 前記第2判定ステップにおいて、前記第1撮像画像から検出された人物の服装、体型、髪の色、肌の色、及び所持品のいずれか1つ以上に基づいて、その人物が前記第3撮像画像に含まれるか否かを判定する、13.に記載の制御方法。
15. 前記第1判定ステップにおいて、前記第1撮像画像から検出された人物が前記第2撮像画像に含まれるか否かの判定に、その人物の目、鼻、及び口を用いず、
 前記第2判定ステップにおいて、前記第1撮像画像から検出された人物が前記第3撮像画像に含まれるか否かの判定に、その人物の目、鼻、及び口を用いない、13.又は14.に記載の制御方法。
16. 前記検出ステップにおいて利用する前記第1撮像画像、前記第1判定ステップにおいて利用する前記第2撮像画像、及び前記第2判定ステップにおいて利用する前記第3撮像画像には、人物の目、鼻、及び口のいずれもが含まれない、15.に記載の制御方法。
17. 第1判定ステップにおいて前記人物が第2撮像画像に含まれないと判定された後か、前記第2判定ステップにおいて前記人物の不審度は高くないと判定された後か、又は前記第2判定ステップにおいて前記人物が前記第3撮像画像に含まれるか否かが判定された後に、前記検出ステップ、前記第1判定ステップ、及び前記第2判定ステップそれぞれにおいて処理する撮像画像から、前記人物以外の人物が含まれない撮像画像を除外する除外ステップを有する、10.乃至16.いずれか一つに記載の制御方法。
18. 前記出口にゲートが設けられており、
 前記警告ステップにおいて行う警告処理は、前記ゲートを通行不可の状態に設定する処理である、10.乃至17.いずれか一つに記載の制御方法。
19. 10.乃至18.いずれか一つに記載の制御方法の各ステップをコンピュータに実行させるプログラム。

Claims (19)

  1.  店舗の出口を撮像可能に設置された第1カメラによって生成される第1撮像画像から人物を検出する検出手段と、
     前記第1撮像画像から検出された人物が、前記店舗の商品の陳列場所を撮像可能に設置された第2カメラによって生成される第2撮像画像に含まれるか否かを判定する第1判定手段と、
     前記第2撮像画像に含まれなおかつ不審度が高い前記人物が、前記店舗の会計エリアを撮像可能に設置された第3カメラによって生成される第3撮像画像に含まれるか否かを判定する第2判定手段と、
     前記第2判定手段によって前記人物が前記第3撮像画像に含まれないと判定された場合、警告処理を行う警告手段と、
     を有する情報処理装置。
  2.  前記第2判定手段は、前記第2撮像画像に前記人物が含まれる期間の前後における前記陳列場所の商品の量の変化、前記陳列場所における前記人物の滞留時間、前記人物の動作の不審さ、又は前記人物の移動の軌跡の不審さを表す値を算出し、前記算出した値が所定値以上である場合に、前記人物の不審度が高いと判定する、請求項1に記載の情報処理装置。
  3.  前記第2判定手段が利用する第2撮像画像は、前記第2カメラによって前記人物が撮像された時点と、前記第1カメラによって前記人物が撮像された時点との間の期間の映像である、請求項1又は2に記載の情報処理装置。
  4.  前記検出手段、前記第1判定手段、及び前記第2判定手段はそれぞれ、人物が背後から撮像されている撮像画像を利用する、請求項1乃至3いずれか一項に記載の情報処理装置。
  5.  前記第1判定手段は、前記第1撮像画像から検出された人物の服装、体型、髪の色、肌の色、及び所持品のいずれか1つ以上に基づいて、その人物が前記第2撮像画像に含まれるか否かを判定し、
     前記第2判定手段は、前記第1撮像画像から検出された人物の服装、体型、髪の色、肌の色、及び所持品のいずれか1つ以上に基づいて、その人物が前記第3撮像画像に含まれるか否かを判定する、請求項4に記載の情報処理装置。
  6.  前記第1判定手段は、前記第1撮像画像から検出された人物が前記第2撮像画像に含まれるか否かの判定に、その人物の目、鼻、及び口を用いず、
     前記第2判定手段は、前記第1撮像画像から検出された人物が前記第3撮像画像に含まれるか否かの判定に、その人物の目、鼻、及び口を用いない、請求項4又は5に記載の情報処理装置。
  7.  前記検出手段が利用する前記第1撮像画像、前記第1判定手段が利用する前記第2撮像画像、及び前記第2判定手段が利用する前記第3撮像画像には、人物の目、鼻、及び口のいずれもが含まれない、請求項6に記載の情報処理装置。
  8.  第1判定手段により前記人物が第2撮像画像に含まれないと判定された後か、前記第2判定手段により前記人物の不審度は高くないと判定された後か、又は前記第2判定手段により前記人物が前記第3撮像画像に含まれるか否かが判定された後に、前記検出手段、前記第1判定手段、及び前記第2判定手段それぞれが処理する撮像画像から、前記人物以外の人物が含まれない撮像画像を除外する除外手段を有する、請求項1乃至7いずれか一項に記載の情報処理装置。
  9.  前記出口にゲートが設けられており、
     前記警告手段が行う警告処理は、前記ゲートを通行不可の状態に設定する処理である、請求項1乃至8いずれか一項に記載の情報処理装置。
  10.  コンピュータによって実行される制御方法であって、
     店舗の出口を撮像可能に設置された第1カメラによって生成される第1撮像画像から人物を検出する検出ステップと、
     前記第1撮像画像から検出された人物が、前記店舗の商品の陳列場所を撮像可能に設置された第2カメラによって生成される第2撮像画像に含まれるか否かを判定する第1判定ステップと、
     前記第2撮像画像に含まれなおかつ不審度が高い前記人物が、前記店舗の会計エリアを撮像可能に設置された第3カメラによって生成される第3撮像画像に含まれるか否かを判定する第2判定ステップと、
     前記第2判定ステップによって前記人物が前記第3撮像画像に含まれないと判定された場合、警告処理を行う警告ステップと、
     を有する制御方法。
  11.  前記第2判定ステップにおいて、前記第2撮像画像に前記人物が含まれる期間の前後における前記陳列場所の商品の量の変化、前記陳列場所における前記人物の滞留時間、前記人物の動作の不審さ、又は前記人物の移動の軌跡の不審さを表す値を算出し、前記算出した値が所定値以上である場合に、前記人物の不審度が高いと判定する、請求項10に記載の制御方法。
  12.  前記第2判定ステップにおいて利用する第2撮像画像は、前記第2カメラによって前記人物が撮像された時点と、前記第1カメラによって前記人物が撮像された時点との間の期間の映像である、請求項10乃至11いずれか一項に記載の制御方法。
  13.  前記検出ステップ、前記第1判定ステップ、及び前記第2判定ステップそれぞれにおいて、人物が背後から撮像されている撮像画像を利用する、請求項10乃至12いずれか一項に記載の制御方法。
  14.  前記第1判定ステップにおいて、前記第1撮像画像から検出された人物の服装、体型、髪の色、肌の色、及び所持品のいずれか1つ以上に基づいて、その人物が前記第2撮像画像に含まれるか否かを判定し、
     前記第2判定ステップにおいて、前記第1撮像画像から検出された人物の服装、体型、髪の色、肌の色、及び所持品のいずれか1つ以上に基づいて、その人物が前記第3撮像画像に含まれるか否かを判定する、請求項13に記載の制御方法。
  15.  前記第1判定ステップにおいて、前記第1撮像画像から検出された人物が前記第2撮像画像に含まれるか否かの判定に、その人物の目、鼻、及び口を用いず、
     前記第2判定ステップにおいて、前記第1撮像画像から検出された人物が前記第3撮像画像に含まれるか否かの判定に、その人物の目、鼻、及び口を用いない、請求項13又は14に記載の制御方法。
  16.  前記検出ステップにおいて利用する前記第1撮像画像、前記第1判定ステップにおいて利用する前記第2撮像画像、及び前記第2判定ステップにおいて利用する前記第3撮像画像には、人物の目、鼻、及び口のいずれもが含まれない、請求項15に記載の制御方法。
  17.  第1判定ステップにおいて前記人物が第2撮像画像に含まれないと判定された後か、前記第2判定ステップにおいて前記人物の不審度は高くないと判定された後か、又は前記第2判定ステップにおいて前記人物が前記第3撮像画像に含まれるか否かが判定された後に、前記検出ステップ、前記第1判定ステップ、及び前記第2判定ステップそれぞれにおいて処理する撮像画像から、前記人物以外の人物が含まれない撮像画像を除外する除外ステップを有する、請求項10乃至16いずれか一項に記載の制御方法。
  18.  前記出口にゲートが設けられており、
     前記警告ステップにおいて行う警告処理は、前記ゲートを通行不可の状態に設定する処理である、請求項10乃至17いずれか一項に記載の制御方法。
  19.  請求項10乃至18いずれか一項に記載の制御方法の各ステップをコンピュータに実行させるプログラム。
PCT/JP2016/086040 2016-12-05 2016-12-05 情報処理装置、制御方法、及びプログラム WO2018104999A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017534848A JP6206627B1 (ja) 2016-12-05 2016-12-05 情報処理装置、制御方法、及びプログラム
PCT/JP2016/086040 WO2018104999A1 (ja) 2016-12-05 2016-12-05 情報処理装置、制御方法、及びプログラム
US16/466,342 US20200084416A1 (en) 2016-12-05 2016-12-05 Information processing apparatus, control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/086040 WO2018104999A1 (ja) 2016-12-05 2016-12-05 情報処理装置、制御方法、及びプログラム

Publications (1)

Publication Number Publication Date
WO2018104999A1 true WO2018104999A1 (ja) 2018-06-14

Family

ID=59997722

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/086040 WO2018104999A1 (ja) 2016-12-05 2016-12-05 情報処理装置、制御方法、及びプログラム

Country Status (3)

Country Link
US (1) US20200084416A1 (ja)
JP (1) JP6206627B1 (ja)
WO (1) WO2018104999A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020107226A (ja) * 2018-12-28 2020-07-09 富士通クライアントコンピューティング株式会社 判定装置およびプログラム

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7224779B2 (ja) * 2018-05-23 2023-02-20 株式会社タイトー ゲーム装置
US11012601B1 (en) * 2019-09-23 2021-05-18 Amazon Technologies, Inc. Dual camera module systems
CN112885014A (zh) * 2021-01-15 2021-06-01 广州穗能通能源科技有限责任公司 预警方法、装置、系统和计算机可读存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009009231A (ja) * 2007-06-26 2009-01-15 Toshiba Corp セキュリティ管理システムおよびセキュリティ管理方法
JP2012242912A (ja) * 2011-05-16 2012-12-10 Ishida Co Ltd 販売管理システム
JP2013186495A (ja) * 2012-03-05 2013-09-19 Glory Ltd 販売管理システム、販売管理装置及び販売管理方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004171241A (ja) * 2002-11-20 2004-06-17 Casio Comput Co Ltd 不正監視システムおよびプログラム
JP4677737B2 (ja) * 2004-06-01 2011-04-27 沖電気工業株式会社 防犯支援システム
JP2008257487A (ja) * 2007-04-05 2008-10-23 Multi Solution:Kk 顔認証応用万引き検知システム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009009231A (ja) * 2007-06-26 2009-01-15 Toshiba Corp セキュリティ管理システムおよびセキュリティ管理方法
JP2012242912A (ja) * 2011-05-16 2012-12-10 Ishida Co Ltd 販売管理システム
JP2013186495A (ja) * 2012-03-05 2013-09-19 Glory Ltd 販売管理システム、販売管理装置及び販売管理方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020107226A (ja) * 2018-12-28 2020-07-09 富士通クライアントコンピューティング株式会社 判定装置およびプログラム

Also Published As

Publication number Publication date
US20200084416A1 (en) 2020-03-12
JP6206627B1 (ja) 2017-10-04
JPWO2018104999A1 (ja) 2018-12-13

Similar Documents

Publication Publication Date Title
US10846537B2 (en) Information processing device, determination device, notification system, information transmission method, and program
US20180115749A1 (en) Surveillance system and surveillance method
JP6206627B1 (ja) 情報処理装置、制御方法、及びプログラム
JP2011248836A (ja) 滞留検出システム及びプログラム
WO2015033576A1 (ja) セキュリティシステム、セキュリティ方法及び非一時的なコンピュータ可読媒体
JP2008544705A (ja) 頭上ビデオストリームからの監視対象の検出及び追跡
WO2018179202A1 (ja) 情報処理装置、制御方法、及びプログラム
US20190327451A1 (en) Video image analysis apparatus and video image analysis method
JP6536643B2 (ja) 情報処理装置、制御方法、及びプログラム
JP2016131288A (ja) 情報処理装置及びプログラム
US20230136054A1 (en) Information processing method, information processing device, and recording medium
JP5423740B2 (ja) 映像提供装置、映像利用装置、映像提供システム、映像提供方法、および、コンピュータ・プログラム
JP2021196741A (ja) 画像処理装置、画像処理方法、及びプログラム
US10783365B2 (en) Image processing device and image processing system
US11600158B2 (en) Information processing apparatus, control method, and program
JP5758165B2 (ja) 物品検出装置および静止人物検出装置
CN112419637B (zh) 安防图像数据的处理方法及装置
JP7039084B1 (ja) セルフレジ監視システム及びセルフレジ監視方法
JP2021012657A (ja) 情報処理装置、情報処理方法、カメラ
JP6531804B2 (ja) 情報処理装置、制御方法、及びプログラム
JP2022155061A (ja) 画像処理装置、画像処理方法およびプログラム
JP5618366B2 (ja) 監視システム、監視装置、監視方法、及びプログラム
JP7347481B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP7302539B2 (ja) 処理装置、処理方法及びプログラム
KR20230032976A (ko) 증강현실을 이용한 영상 감시 시스템 및 방법

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2017534848

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16923380

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16923380

Country of ref document: EP

Kind code of ref document: A1