WO2017038035A1 - 行動履歴情報生成装置、システム、及び方法 - Google Patents

行動履歴情報生成装置、システム、及び方法 Download PDF

Info

Publication number
WO2017038035A1
WO2017038035A1 PCT/JP2016/003795 JP2016003795W WO2017038035A1 WO 2017038035 A1 WO2017038035 A1 WO 2017038035A1 JP 2016003795 W JP2016003795 W JP 2016003795W WO 2017038035 A1 WO2017038035 A1 WO 2017038035A1
Authority
WO
WIPO (PCT)
Prior art keywords
person
temperature
history information
action history
infrared image
Prior art date
Application number
PCT/JP2016/003795
Other languages
English (en)
French (fr)
Inventor
新貝 安浩
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Publication of WO2017038035A1 publication Critical patent/WO2017038035A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion

Definitions

  • the present invention provides an action history information generation apparatus, system, and method capable of identifying a person and generating action history information while performing shooting in a manner in which an individual cannot be specified. Objective.
  • the present invention provides a person extracting means for extracting a person from an infrared image captured using an infrared imaging device that images a monitoring target area, and a person extracted based on the infrared image.
  • Temperature measuring means for measuring temperature
  • person identifying means for identifying a person based on the temperature measured by the temperature measuring means
  • person tracking means for tracking the movement of the extracted person, and based on the movement of the tracked person
  • an action history information generating device including action history information generating means for generating action history information.
  • the action history information generation device of the present invention preferably further includes a person specifying information database that stores a person identifier and a measured temperature of the person in association with each other, and the person identifying means refers to the person specifying information database. It is preferable to identify the person.
  • the person identifying means updates the temperature stored in the person specifying information database with the temperature after the change when the temperature measured while the person is being tracked changes.
  • the action history information generating apparatus of the present invention assigns an identifier to the first extracted person, and associates the assigned identifier with the measured temperature of the person in the person specifying information database. You may further have the database registration means to register.
  • the person extracting means may extract a region corresponding to the person's face from the infrared image.
  • the temperature measuring means may measure the temperature of the person based on the partial image of the region corresponding to the extracted human face in the infrared image.
  • the person extracting means may further extract a region corresponding to at least one of the exposed part of the person's arm and the exposed part of the foot from the infrared image.
  • the temperature measuring means may measure the temperature of the person based on the partial image of the region corresponding to at least one of the extracted exposed portion of the person's arm and the exposed portion of the foot in the infrared image.
  • the person identification means is measured based on the temperature measured based on the partial image of the region corresponding to the face and the partial image of the region corresponding to at least one of the exposed portion of the arm and the exposed portion of the foot.
  • a person may be identified based on temperature.
  • the action history information generation apparatus of the present invention may further include an accompanying object extracting unit that extracts an accompanying object accompanying a person from an infrared image.
  • the temperature measuring means may further measure the temperature of the accessory based on the partial image of the region corresponding to the extracted accessory region in the infrared image.
  • the person identifying means may identify the person based on the temperature measured based on the partial image of the region corresponding to the face and the temperature of the accompanying accessory.
  • the present invention also provides an infrared imaging device that images a monitoring target region to generate an infrared image, a person extraction unit that extracts a person from the infrared image, and a temperature that measures the temperature of the extracted person based on the infrared image Measuring means, person identifying means for identifying a person based on the temperature measured by the temperature measuring means, person tracking means for tracking the movement of the extracted person, and action history information based on the movement of the tracked person
  • An action history information generation system provided with action history information generation means for generating.
  • the action history information generation system of the present invention may have one infrared imaging device, and the infrared imaging device may image the entire monitoring target area.
  • the infrared imaging device has a shooting angle of view of 360 °.
  • the action history information generation system of the present invention may have a plurality of infrared imaging devices. In that case, it is preferable that the plurality of infrared imaging devices are installed at a plurality of different positions.
  • the present invention provides a step in which a computer extracts a person from an infrared image obtained by imaging a monitoring target area with an infrared imaging device, and the computer calculates the temperature of the extracted person based on the infrared image.
  • a step of measuring, a step of identifying a person based on the measured temperature, a step of tracking a movement of the extracted person by the computer, and an action history based on the movement of the tracked person There is provided an action history information generation method including a step of generating information.
  • an image of a monitoring target area is imaged using an infrared imaging device.
  • a person is extracted from an infrared image captured by the infrared imaging device.
  • an image to be captured is an infrared image, unlike a case where a visible light camera is used, a person's face, clothes, and the like are not clearly imaged.
  • the person is identified based on the temperature measured based on the infrared image.
  • the temperature of a person is often different between persons, and therefore the person can be identified based on the temperature.
  • it is possible to identify a person and generate action history information while performing shooting in a manner in which an individual cannot be specified.
  • (A) is a figure which shows the image of the person imaged with the visible light camera
  • (b) is a figure which shows the image of the person imaged with the infrared camera (far-infrared camera).
  • the figure which shows the position of the person in the sales area at the time after the time of FIG. The block diagram which shows the action history information generation system which concerns on 2nd Embodiment of this invention.
  • A is a figure which shows the image of the person imaged with the visible light camera
  • (b) is a figure which shows the image of the person imaged with the infrared camera (far-infrared camera).
  • FIG. 1 shows an action history information generation system according to the first embodiment of the present invention.
  • the action history information generation system 100 includes an action history information generation device 10, cameras CA1 to CA4, and a camera controller 30.
  • the action history information generation apparatus 10 includes a video database (DB: Data Base) 11, a person extraction means 12, a temperature measurement means 13, a database registration means 14, a person identification information database 15, a person identification means 16, a person tracking means 17, an action A history information generating means 18, an action history information database 19 and a data analyzing means 20 are provided.
  • DB Data Base
  • an in-store sales area of a store such as a convenience store is mainly used as a monitoring area, and a trajectory of a customer moving in the monitoring area, that is, a person flow line is generated as action history information.
  • Cameras CA1 to CA4 are infrared cameras (infrared imaging devices), and image an area to be monitored to generate an infrared image.
  • Each camera CA is installed, for example, on the ceiling of a space such as a store that is a monitoring target area.
  • Each camera CA typically includes an imaging optical system including one or more lenses, and an infrared imaging element (infrared sensor) that captures an optical image formed by the imaging optical system and converts it into an electrical signal.
  • the infrared sensor detects infrared rays having a wavelength ranging from 0.83 ⁇ m to 1000 ⁇ m, for example.
  • the infrared sensor preferably detects far infrared rays having a wavelength in the range of 6 ⁇ m to 1000 ⁇ m.
  • a thermal infrared sensor such as a microbolometer or an SOI (Silicon-on-insulator) diode type can be used.
  • Fig. 2 shows the store area in the store.
  • the sales area includes a plurality of store shelves R, a checkout counter CC, and POS (Point Of Sales) terminals POS1 and POS2.
  • the cameras CA1 to CA4 are installed at a plurality of different positions in the sales area.
  • the camera CA is used to track the trajectory of a customer who moves in the sales floor area by the view volume intersection method, that is, a person flow line.
  • the visual volume intersection method is, for example, a method in which a customer's head is photographed from a plurality of directions and a coordinate value in a three-dimensional coordinate system appropriately installed in the store space of the head is calculated from the position of the head of each image. is there.
  • At least one of the four cameras CA (camera CA4 in the example of FIG. 2) preferably includes an entrance / exit of the sales area in the imaging range.
  • each camera CA can be taken with the camera CA in consideration of the effects of shielding such as fixtures in the store by referring to the store drawings or actually installed temporarily in the store. Is determined as appropriate.
  • Each camera CA is preferably a wide-angle lens camera such as a camera using a fisheye lens or a camera with an omnidirectional mirror.
  • the number of cameras CA is not necessarily plural.
  • the camera CA may capture the entire monitoring target area. In that case, a camera CA having a 360 ° field of view may be used.
  • the number of cameras installed can be reduced to one. In that case, in addition to being able to reduce the cost by setting the number of cameras CA to be used to one, it is also possible to expect an effect of suppressing the customer's alertness.
  • the camera controller 30 controls each camera CA.
  • the camera controller 30 has a built-in timer function, and controls the imaging timing of each camera CA in synchronization so that, for example, 10 infrared images are captured per second.
  • the camera controller 30 stores in the video database 11 an infrared image (its image data) captured by each camera CA and data indicating the imaging date and time.
  • the camera CA and camera controller 30 and the video database 11 do not necessarily have to be installed at the same location, and may be installed at remote locations. In that case, the camera controller 30 may transmit an infrared image and data indicating the imaging date and time to the video database 11 through a network such as the Internet.
  • the person extracting means 12 reads an infrared image from the video database 11 and extracts a region where a person exists from the read infrared image. In an infrared image, particularly a far-infrared image, a portion where a person's skin is exposed is imaged. The person extracting means 12 extracts a region corresponding to the person's face from the infrared image. The person extraction means 12 extracts, for example, an area including a certain area or more that has a temperature close to the average body temperature (eg, 36.5 ° C.) of the person as an area corresponding to the person's face. The person extracting means 12 may further extract a region corresponding to at least one of the exposed portion of the person's arm and the exposed portion of the foot in addition to the region corresponding to the face from the infrared image.
  • an infrared image particularly a far-infrared image
  • the person extracting means 12 extracts a region corresponding to the person's face from the inf
  • the temperature measuring means 13 measures the temperature of the extracted person based on the infrared image.
  • the temperature measurement unit 13 measures the temperature based on, for example, a partial image of an area corresponding to the face of the person extracted by the person extraction unit 12 in the infrared image.
  • the temperature measuring means 13 is based on the partial image of those regions in the infrared image. The temperature may be measured.
  • the person specifying information database 15 stores a person identifier (ID: Identifier) and a temperature measured for the person in association with each other.
  • ID Identifier
  • the database registration unit 14 assigns an identifier to the first extracted person, and the temperature measured by the temperature measuring unit 13 for the assigned identifier and the person.
  • extracting a person for the first time means extracting a person who does not exist in the infrared image at a time point before that time point. For example, when a person is tracked by the person tracking means 17 described later, this refers to a case where there is no corresponding person before that.
  • the entrance of the monitoring target area is determined, it indicates the case where it is extracted at the entrance.
  • Person identifying means 16 identifies a person based on the temperature measured by temperature measuring means 13.
  • the person identifying unit 16 identifies a person extracted from the infrared image with reference to, for example, a person specifying information database.
  • the person identifying means 16 identifies a person based on the temperature measured based on the partial image of the area corresponding to the face, for example.
  • the person identification unit 16 corresponds to the face when the temperature measurement unit 13 measures the temperature based on the partial image of the region corresponding to at least one of the exposed part of the person's arm and the exposed part of the foot.
  • the person can be identified based on the temperature measured based on the partial image of the region and the temperature measured based on the partial image of the region corresponding to at least one of the exposed portion of the arm and the exposed portion of the foot. Good. For example, when the temperature measured based on the partial images of the region corresponding to the face is the same among a plurality of persons, the person identification unit 16 corresponds to at least one of the exposed part of the person's arm and the exposed part of the foot. The person may be identified based on the temperature measured based on the partial image of the region.
  • the same measured temperature includes not only completely the same, but also includes a temperature difference that is within a threshold value.
  • T1 and T2 are real numbers greater than 0 (T1> 0, T2> 0), and the temperature difference is in the range of ⁇ T1 [° C.] to + T2 [° C.], the temperatures are considered to be the same. Also good.
  • T1 and T2 may be the same value or different values. Specifically, for example, if the resolution of the temperature measured on the basis of the infrared image is 0.1 ° C., the temperature will be increased if the temperature difference is in the range of ⁇ 0.2 ° C. to + 0.2 ° C. You may consider them the same.
  • Person tracking means 17 tracks a person extracted from the infrared image.
  • the action history information generation means 18 generates action history information based on the movement of the person tracked by the person tracking means 17.
  • the action history information generating unit 18 generates, for example, the trajectory information of the person tracked by the person tracking unit 17 as the action history information.
  • the action history information generation unit 18 stores the generated action history information in the action history information database 19.
  • the action history information database 19 stores, for example, person trajectory information, store entry time, and store opening time in association with the person identifier.
  • the data analysis means 20 refers to the action history information database 19 and displays a flow line analysis screen or the like on the display unit 50 in accordance with an operation input via the input unit 40.
  • the input unit 40 is, for example, a keyboard or a pointing device
  • the display unit 50 is a liquid crystal display or the like.
  • the flow line analysis screen includes, for example, a flow line display area that displays a person's trajectory information superimposed on a map of the sales area, and a camera image display area that displays infrared images captured by the cameras CA1 to CA4.
  • the action history information generation device 10 is configured as a computer device including, for example, a processor, a memory, a bus, and an auxiliary storage device. At least a part of the function of each means in the action history information generation device 10 may be realized by a processor executing a process according to a program.
  • the action history information generation apparatus 10 includes a video database 11, a person identification information database 15, and an action history information database 19, but these databases may be outside the action history information generation apparatus 10.
  • the action history information generation apparatus 10 and the video database 11 may be in a remote location. In this case, the action history information generation apparatus 10 may acquire an infrared image from the video database through a network such as the Internet.
  • FIG. 3A shows an image of a person imaged by a visible light camera
  • FIG. 3B shows an image of a person imaged by an infrared camera (far infrared camera).
  • FIG. 6A when a person 60 is imaged with a visible light camera, the face of the person, clothes worn, and the like are clearly imaged.
  • the same person 60 is imaged by the far-infrared camera, exposed portions of skin such as the face 61, arms 62, and feet 63 are mainly imaged as shown in FIG.
  • the measurement is performed from a far-infrared image. Identify the person using temperature.
  • the identification of a person here means not identifying who the person is, but identifying a person and a different person when there are a plurality of persons.
  • the person extracting unit 12 extracts, as a face 61 area, an area in which a portion having a temperature close to an average human body temperature (for example, 36.5 ° C.) in a far infrared image is included in a certain area or more.
  • the person extracting unit 12 extracts the arms 62 and the legs 63 from the far infrared image.
  • the arms 62 and legs 63 can be extracted based on the positional relationship with the face 61.
  • the pixel value in the far infrared image can be converted into a temperature based on the relationship between the radiation temperature of the object calibrated in advance and the pixel value in the far infrared image.
  • the temperature measuring unit 13 measures the temperature of the face 61 by, for example, converting an average value of pixel values of pixels constituting the face 61 into a temperature.
  • the temperature of the arm 62 and the leg 63 is measured by converting the average value of the pixel values of the pixels constituting the arm 62 and the leg 63 into a temperature.
  • the person extraction means 12 does not extract the arms and legs. In that case, the temperature measuring means 13 does not have to measure the temperature of the arms and legs.
  • FIG. 4 shows the data structure of the person identification information database 15.
  • the person specifying information database 15 stores a person identifier (person ID), a face temperature, and a limb temperature for each person.
  • the person ID stores an identifier for uniquely identifying each person.
  • the face temperature the temperature of the face 61 measured by the temperature measuring means 13 is stored.
  • the limb temperature the temperature of the arm 62 and the foot 63 measured by the temperature measuring means 13 is stored.
  • the temperature of the arm 62 and the foot 63 may be individually stored, or an average value thereof may be stored.
  • the person identifying means 16 is that the person whose face temperature measured by the temperature measuring means 13 is 35.8 ° C. is the person with the identifier A (person A). Can be specified. Further, the person identification means 16 can specify that the person whose face temperature measured by the temperature measurement means 13 is 37.2 ° C. is the person of the identifier B (person B), and is measured by the temperature measurement means 13. The person whose face temperature is 36.7 ° C. can be identified as the person with the identifier C (person C). If the face temperatures of person B and person C are the same, person B and person C can be identified by determining whether the limb temperature is 35.6 ° C or 34.2 ° C. Can do.
  • the person identifying unit 16 stores the changed temperature in the person specifying information database 15.
  • the updated temperature may be updated.
  • the change in the temperature of the person can be recognized by, for example, feeding back the result of tracking the person based on the temperature measured by the temperature measuring unit 13 and the position of the person in the person tracking unit 17 to the person identifying unit 16. .
  • FIG. 5 shows the change in the temperature of the person over time.
  • the temperature (face temperature) of the person A is 35.8 ° C.
  • the temperature of the person B is 37.2 ° C.
  • the temperature of the person C is 36.7 ° C.
  • the temperatures of person B and person C decrease, the temperature of person B changes to 36.9 ° C., and the temperature of person C changes to 36.3 ° C. .
  • the temperature of the person B changes from 37.2 ° C. to 36.9 ° C. from the result of the person tracking based on the position. It can be seen that the temperature has changed from 36.7 ° C. to 36.3 ° C.
  • FIG. 6 shows the update of the person identification information database 15.
  • Each data stored in the person specifying information database 15 at the time t1 is the same as the data shown in FIG.
  • the face temperatures of person A to person C are unchanged from time t1 (see FIG. 5), but the limb temperatures of person B and person C have dropped to 35.4 ° C. and 34.0 ° C., respectively.
  • the limb temperature of person B and the limb temperature of person C stored in person identification information database 15 are updated to 35.4 ° C. and 34.0 ° C., respectively.
  • the person identification information database 15 The stored temperature of the face of the person B is updated to 36.9 ° C., and the temperature of the face of the person C is updated to 36.3 ° C. Further, when the temperature of the limb of the person B changes from 35.4 ° C. to 35.2 ° C. and the temperature of the limb of the person C changes from 34.0 ° C. to 33.7 ° C., it is stored in the person identification information database 15.
  • Person B's limb temperature is updated to 35.2 ° C
  • Person C's limb temperature is updated to 33.7 ° C.
  • the temperature of the face of the person A is 35.8 ° C. and has not changed since time t1, so it is not updated.
  • FIG. 7 shows an operation procedure in the action history information generation system.
  • the action history information generation device 10 performs the action history information generation process in a state in which the infrared image captured by the camera CA is accumulated to some extent in the video database 11.
  • the behavior history information generation apparatus 10 may perform the behavior history information generation processing when there are no customers in the store or outside the business hours of the store.
  • the action history information generation process may be performed in parallel with the new video stored in the video database 11.
  • the person extracting means 12 reads an infrared image from the video database 11 and extracts a region where a person exists from the read infrared image (step S1).
  • the person extracting unit 12 reads out an infrared image in time series, and extracts a person's face 61 (see FIG. 3B) from the read out infrared image.
  • human arms 62 and legs 63 are extracted from the infrared image.
  • the temperature measuring means 13 measures the temperature of the person extracted in step S1 (step S2). For example, the temperature measurement unit 13 converts the pixel values of the areas of the face 61, the arm 62, and the foot 63 in the infrared image into temperatures, and measures the temperatures. If a plurality of persons are extracted in step S1, the temperature measuring unit 13 measures the temperature for each of the plurality of persons.
  • the person extracting means 12 determines whether or not the extracted person is newly extracted (step S3). For example, when a person is extracted at the store entrance / exit IN / OUT (see FIG. 2), the person extracting unit 12 determines that the person has been newly extracted. When it is determined that the person extraction unit 12 has newly extracted, the person extraction unit 12 instructs the database registration unit 14 to register the temperature measured in step S2 in the person identification information database 15. The database registration unit 14 assigns a new identifier to the newly extracted person and associates the identifier with the temperature measured in step S2 and stores it in the person specifying information database 15 (step S4). The database registration unit 14 may store the person's entry time in the action history information database 19.
  • step S5 If it is determined in step S3 that the person has not been newly extracted, the person identifying means 16 identifies the person based on the temperature measured in step S2 (step S5).
  • step S5 for example, the person identification means 16 collates the temperature measured in step S2 with the temperature stored in the person specifying information database 15, thereby identifying the person identifier extracted in step S1.
  • the person tracking means 17 tracks the person identified in step S5 along the time series (step S6).
  • the person tracking means 17 tracks a person among infrared images at a plurality of times, and specifies the coordinate position of the person at the time of the infrared image read in step S1. If there is no person at the corresponding temperature in step S5 and / or if there is no person to be tracked in the past infrared image in step S6, the database registration unit 14 performs step S2 by the same operation as in step S4.
  • the temperature of the person measured in step 1 may be registered in the person specifying information database 15 in association with the newly assigned person identifier.
  • the action history information generation unit 18 generates action history information based on the movement of the person tracked in step S6 (step S7).
  • step S7 the action history information generation means 18 adds the coordinate position of the person specified in step S6 to the locus information of the identifier of the person identified in step S5 stored in the action history information database 19. Then, action history information is generated.
  • the action history information generation means 18 records the opening time in the action history information database 19 when the person tracked by the person tracking means 17 is not extracted in step S1 after being traced to the vicinity of the store entrance. Also good.
  • FIG. 8 shows the position of a person in the sales area at a certain time.
  • FIG. 9 shows the position of a person in the sales area at a time later than the time in FIG. 8 and 9, three persons, person A, person B, and person C, are depicted.
  • the temperature of the person A is 35.8 ° C.
  • the temperature of the person B is 37.2 ° C.
  • the temperature of the person C is 36.7 ° C.
  • the persons A to C can be identified by the temperature difference between the persons.
  • the position of the person A is included in the imaging range of the camera CA1
  • the position of the person B is included in the imaging range of the camera CA2
  • the position of the person C is included in the imaging range of the camera CA3.
  • each person moves to the arrangement shown in FIG. Between the time in FIG. 8 and the time in FIG. 9, the person A and the person B cross each other, the person A moves to the imaging range of the camera CA2, and the person B moves to the imaging range of the camera CA1.
  • the person identification means 16 identifies the person having the temperature of 35.8 ° C. as the person A and identifies the person having the temperature of 37.2 ° C. as the person B, so that the person A and the person B can be mistaken. Can be tracked without.
  • the person C has moved from the front of the store shelf R to the front of the POS terminal POS2 between the time in FIG. 8 and the time in FIG.
  • the person C can also be correctly tracked by the person identifying means 16 identifying the person whose temperature is 36.7 ° C. as the person C.
  • the person who purchased the product can be recognized as the person C in front of the POS terminal POS2.
  • the purchase information of the product recorded by the POS terminal POS2 may be associated with the identifier of the person C in a purchase information database (not shown).
  • the camera CA captures an infrared image of the monitoring target area.
  • the person extracting means 12 extracts a person from the infrared image
  • the temperature measuring means 13 measures the temperature of the person extracted based on the infrared image.
  • the person identifying means 16 identifies a person based on the measured temperature.
  • the person tracking means 17 tracks the extracted person, and the action history information generating means 18 generates action history information of the tracked person.
  • the image to be captured is an infrared image, unlike a case where a visible light camera is used, a person's face, a plurality of faces, and the like are not clearly imaged. For this reason, it is difficult to identify an individual from an infrared image.
  • the person is identified based on the temperature. Therefore, in the present embodiment, it is possible to identify the person and generate the action history information while performing shooting in such a manner that an individual cannot be specified.
  • FIG. 10 shows an action history information generation system according to the second embodiment of the present invention.
  • the action history information generation system 100a of this embodiment is different from the action history information generation system 100 described in the first embodiment shown in FIG. 1 in that the action history information generation apparatus 10a further includes an accompanying substance extraction unit 21. To do. Other points may be the same as in the first embodiment.
  • the incidental substance extraction means 21 extracts an incidental incidental to a person from an infrared image.
  • customers can use products such as warm drinks such as canned coffee warmed in the shopping basket, cold drinks such as chilled plastic bottle juice, etc. May be put in or moved directly by hand.
  • the accompanying object extraction means 21 extracts an object having such a temperature different from the ambient temperature as an accompanying object.
  • the temperature measuring unit 13 measures the temperature of the accessory based on the partial image of the region corresponding to the region of the accessory extracted by the accessory extracting unit 21.
  • the person identifying unit 16 identifies a person based on the face temperature measured by the temperature measuring unit 13 and the temperature of the accompanying object. For example, when the temperature of the face measured by the temperature measuring unit 13 is the same among a plurality of persons, the person identifying unit 16 may identify the person based on the temperature of the accessory. Also in the present embodiment, as in the first embodiment, the temperature of at least one of the arm and the foot may be measured.
  • the person identification means 16 has the same face temperature among a plurality of persons, and the temperature of at least one of the arms and legs is the same, or the temperature of at least one of the arms and legs is not measured. In such a case, the person may be identified based on the temperature of the accompanying object measured by the temperature measuring means 13.
  • FIG. 11A shows an image of a person taken by a visible light camera
  • FIG. 11B shows an image of a person taken by an infrared camera (far infrared camera).
  • FIG. 6A when a person 70 holding a shopping basket is imaged with a visible light camera, the face of the person, clothes worn, and the like are clearly imaged. The shopping basket and its contents are also imaged.
  • the radiator 80 in the shopping basket is imaged.
  • the accessory extraction means 21 extracts the radiator 80 near the person's hand 72 as an accessory.
  • the temperature measuring means 13 measures the temperature of the radiator 80 by converting the pixel value of the pixel in the region of the radiator 80 extracted by the accompanying substance extracting means 21 in the far-infrared image into the temperature.
  • the temperature of the radiator 80 changes depending on whether the customer puts a warm product in the shopping basket or a cold product in the shopping basket. Since the temperature of the product to be put in the shopping cart may be different among a plurality of persons, the temperature can also be used for identifying the person.
  • the measured temperature of the accompanying object is stored in the person specifying information database 15. In the case where the temperature of the accessory changes while tracking the person, the temperature of the accessory may be updated with the temperature after the change.
  • FIG. 12 shows the data structure of the person specifying information database 15 in the present embodiment.
  • the person specifying information database 15 stores a person identifier (person ID), a face temperature, a limb temperature, and an accompanying temperature for each person.
  • the face temperature and limb temperature are the same as those described in the first embodiment (see FIGS. 4 and 6).
  • the limb temperature may be omitted.
  • the accompanying temperature measured by the temperature measuring means 13 is stored in the accompanying temperature.
  • the accompanying object temperature of the person A measured by the temperature measuring means 13 is stored in the accompanying object temperature.
  • the temperature of the incidental measured by the temperature measuring means 13 is stored in the incidental temperature of the person C.
  • the accompanying temperature of the person A is updated to 5.2 ° C.
  • the accompanying temperature of the person C is updated to 79.3 ° C.
  • the incidental substance extraction unit 21 extracts an incidental element from the infrared image.
  • the temperature measuring means 13 measures the temperature of an accompanying object in addition to a person.
  • the person identification means 16 identifies a person based on the temperature of the person and the temperature of the accompanying object. In the present embodiment, even when the person cannot be identified by the temperature of the person, the person can be identified by the difference in temperature of an accessory such as a product put in the shopping basket. Therefore, the accuracy of person identification can be improved. Other effects are the same as those of the first embodiment.
  • the action history information is not limited to the trajectory information as long as it is information that can understand the movement of the person.
  • the monitoring target area may be divided into a plurality of subareas, and information indicating the subarea where the person stayed and the staying time of the subarea may be generated as the action history information.
  • FIG. 13 shows an example in which the sales area shown in FIG. 2 is divided into sub-areas. In this example, the sales area is divided into six areas: area A81, area B82, area C83, area D84, area E85, and area F86.
  • the action history information generation means 18 can generate as the action history information the area in which the person tracked by the person tracking means 17 has stayed and the staying time in the areas A81 to F86.
  • the action history information generation means 18 may further generate as action history information what route the area has moved between.
  • Action history information generation device 11 Video database 12: Person extraction means 13: Temperature measurement means 14: Database registration means 15: Person identification information database 16: Person identification means 17: Person tracking means 18: Action history information generation means 19 : Action history information database 20: Data analysis means 21: Accompanying substance extraction means 30: Camera controller 40: Input part 50: Display part 60, 70: Person 61, 71: Face 62: Arm 63: Leg 72: Hand 80: Heat dissipation Body 81 to 86: Areas A to C: Person CA: Camera R: Store shelf CC: Checkout counter POS1, POS2: POS terminal

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】行動履歴情報生成装置、システム、及び方法において、個人が特定することができない態様で撮影を実施しつつ、人物を識別して行動履歴情報を生成する。 【解決手段】カメラ(CA)は、監視対象領域を撮像する。人物抽出手段(12)は、カメラ(CA)により撮像された赤外線画像から人物を抽出する。温度計測手段(13)は、赤外線画像に基づいて、抽出された人物の温度を計測する。人物識別手段(16)は、計測された温度に基づいて人物を識別する。人物追跡手段(17)は、抽出された人物の動きを追跡する。行動履歴情報生成手段は、追跡された人物の動きに基づいて行動履歴情報を生成する。

Description

行動履歴情報生成装置、システム、及び方法
 本発明は、行動履歴情報生成装置、システム、及び方法に関し、更に詳しくは、監視対象領域を撮像した画像から人物を抽出し、その人物の行動履歴情報を生成する行動履歴情報生成装置、システム、及び方法に関する。
 コンビニエンスストアやスーパーマーケットなどの店舗内を移動する客の行動を追跡するシステムとして、人物動線追跡システム(行動履歴情報生成システム)が知られている(例えば特許文献1)。特許文献1では、店舗内に設置されたカメラにより撮影された映像から人物を抽出し、抽出した人物を追跡して人物の座標位置を記録する。各人物が店舗内をどのような経路で移動したかを分析することで、店舗内で客がどのような商品に興味があるか、どのような商品陳列であれば客をスムーズに移動させることができるかなどを解析することが可能である。
特開2006-350751号公報
 ところで、人物動線追跡システムにおいて、人物を追跡するためにはある人物と別の人物とを識別する必要がある。特許文献1では、カメラに通常の可視光カメラが用いられており、撮影画像における外形や、上下の服の色などで人物を識別している。しかしながら、可視光カメラを店舗内に設置して撮影を行うと、顔などが撮影されることから、人物が個人が特定できる態様で撮影されることになる。近年、プライバシーに関する意識が高まり、個人が特定できる態様で撮影されることを好まない人も多い。店舗において顔などが撮影されることに対する抵抗感から、客が店舗に入ることを躊躇する場面も考えられる。したがって、個人が特定できない態様で人物の撮影が実施される人物動線追跡システムが要望される。
 本発明は、上記事情に鑑み、個人が特定できない態様で撮影を実施しつつ、人物を識別して行動履歴情報を生成することができる行動履歴情報生成装置、システム、及び方法を提供することを目的とする。
 上記目的を達成するために、本発明は、監視対象領域を撮像する赤外線撮像装置を用いて撮像された赤外線画像から人物を抽出する人物抽出手段と、赤外線画像に基づいて、抽出された人物の温度を計測する温度計測手段と、温度計測手段が計測した温度に基づいて人物を識別する人物識別手段と、抽出された人物の動きを追跡する人物追跡手段と、追跡された人物の動きに基づいて行動履歴情報を生成する行動履歴情報生成手段とを備えた行動履歴情報生成装置を提供する。
 本発明の行動履歴情報生成装置は、人物の識別子とその人物の計測された温度とを対応付けて記憶する人物特定情報データベースを更に有することが好ましく、人物識別手段は、人物特定情報データベースを参照して人物を識別することが好ましい。
 本発明において、人物識別手段は、人物が追跡されている間に計測された温度が変化した場合は、変化後の温度で人物特定情報データベースに記憶された温度を更新することが好ましい。
 本発明の行動履歴情報生成装置は、人物が初めて抽出された場合に、その初めて抽出された人物に識別子を割り当て、割り当てた識別子と人物の計測された温度とを対応付けて人物特定情報データベースに登録するデータベース登録手段を更に有していてもよい。
 人物抽出手段は、赤外線画像から人物の顔に対応する領域を抽出してもよい。その場合、温度計測手段は、赤外線画像における抽出された人物の顔に対応する領域の部分画像に基づいて人物の温度を計測してもよい。
 人物抽出手段は、赤外線画像から人物の腕の露出部分及び足の露出部分の少なくとも一方に対応する領域を更に抽出してもよい。その場合、温度計測手段は、赤外線画像における抽出された人物の腕の露出部分及び足の露出部分の少なくとも一方に対応する領域の部分画像に基づいて人物の温度を計測してもよい。
 上記において、人物識別手段は、顔に対応する領域の部分画像に基づいて計測された温度と、腕の露出部分及び足の露出部分の少なくとも一方に対応する領域の部分画像に基づいて計測された温度とに基づいて人物を識別してもよい。
 本発明の行動履歴情報生成装置は、赤外線画像から、人物に付随する付随物を抽出する付随物抽出手段を更に有していてもよい。その場合、温度計測手段は、赤外線画像における抽出された付随物の領域に対応する領域の部分画像に基づいて付随物の温度を更に計測してもよい。
 上記において、人物識別手段は、顔に対応する領域の部分画像に基づいて計測された温度と、計測された付随物の温度とに基づいて人物を識別してもよい。
 本発明は、また、監視対象領域を撮像し赤外線画像を生成する赤外線撮像装置と、赤外線画像から人物を抽出する人物抽出手段と、赤外線画像に基づいて、抽出された人物の温度を計測する温度計測手段と、温度計測手段が計測した温度に基づいて人物を識別する人物識別手段と、抽出された人物の動きを追跡する人物追跡手段と、追跡された人物の動きに基づいて、行動履歴情報を生成する行動履歴情報生成手段とを備えた行動履歴情報生成システムを提供する。
 本発明の行動履歴情報生成システムは、赤外線撮像装置を1つ有するものであってもよく、その赤外線撮像装置は監視対象領域の全体を撮像するものであってもよい。この場合において、赤外線撮像装置は360°の撮影画角を有するものであることが好ましい。
 本発明の行動履歴情報生成システムは、赤外線撮像装置を複数有していてもよい。その場合、それら複数の赤外線撮像装置は相互に異なる複数の位置に設置されることが好ましい。
 さらに、本発明は、コンピュータが、赤外線撮像装置により監視対象領域を撮像することにより得られた赤外線画像から人物を抽出するステップと、コンピュータが、赤外線画像に基づいて、抽出された人物の温度を計測するステップと、コンピュータが、計測した温度に基づいて人物を識別するステップと、コンピュータが、抽出された人物の動きを追跡するステップと、コンピュータが、追跡された人物の動きに基づいて行動履歴情報を生成するステップとを有する行動履歴情報生成方法を提供する。
 本発明の行動履歴情報生成装置、システム、及び方法では、赤外線撮像装置を用いて監視対象領域を撮像する。赤外線撮像装置により撮像された赤外線画像から人物を抽出する。本発明では、撮像される画像は赤外線画像であるため、可視光カメラを用いた場合とは異なり、人物の顔や服装などが鮮明に画像化されることはない。人物の識別は、赤外線画像に基づいて計測された温度に基づいて実施される。人物の温度は人物間で異なることが多く、従って温度に基づいて人物の識別が可能である。このように、本発明では、個人が特定できない態様で撮影を実施しつつ、人物を識別して行動履歴情報を生成することができる。
本発明の第1実施形態に係る行動履歴情報生成システムを示すブロック図。 店舗内売り場領域を示す図。 (a)は可視光カメラにより撮像された人物の画像を示す図、(b)は赤外線カメラ(遠赤外線カメラ)により撮像された人物の画像を示す図。 人物特定情報データベースのデータ構造を示す図。 時間経過に伴う人物の温度の変化を示す図。 人物特定情報データベースの更新を示す図。 行動履歴情報生成システムにおける動作手順を示すフローチャート。 ある時刻での売り場領域内における人物の位置を示す図。 図8の時刻よりも後の時刻での売り場領域内における人物の位置を示す図。 本発明の第2実施形態に係る行動履歴情報生成システムを示すブロック図。 (a)は可視光カメラにより撮像された人物の画像を示す図、(b)は赤外線カメラ(遠赤外線カメラ)により撮像された人物の画像を示す図。 第2実施形態における人物特定情報データベースのデータ構造を示す図。 図2に示す売り場領域をサブエリアに分割した例を示す図。
 以下、図面を参照し、本発明の実施の形態を詳細に説明する。図1は、本発明の第1実施形態に係る行動履歴情報生成システムを示す。行動履歴情報生成システム100は、行動履歴情報生成装置10と、カメラCA1~CA4と、カメラコントローラ30とを備える。行動履歴情報生成装置10は、映像データベース(DB:Data Base)11、人物抽出手段12、温度計測手段13、データベース登録手段14、人物特定情報データベース15、人物識別手段16、人物追跡手段17、行動履歴情報生成手段18、行動履歴情報データベース19及びデータ解析手段20を備える。以下では、主にコンビニエンスストアなどの店舗の店内売場領域を監視領域とし、この監視領域を移動する客の軌跡、すなわち人物動線を行動履歴情報として生成する例について説明する。
 カメラCA1~CA4(以下、特に4台のカメラを区別しない場合はカメラCAと称する)は、赤外線カメラ(赤外線撮像装置)であり、監視対象領域を撮像し、赤外線画像を生成する。各カメラCAは、例えば監視対象領域である店舗などの空間の天井に設置される。各カメラCAは、典型的には、1以上のレンズを含む結像光学系と、結像光学系により形成された光学像を撮像して電気信号に変換する赤外線撮像素子(赤外センサ)とを有する。赤外センサは、例えば波長0.83μmから1000μmの範囲の赤外線を検出する。赤外センサは、特に、波長6μmから1000μmの範囲の遠赤外線を検出するものであることが好ましい。赤外センサには、マイクロボロメータ又はSOI(Silicon on Insulator)ダイオード型などの熱型の赤外線センサを用いることができる。
 図2は、店舗内売り場領域を示す。売り場領域は、複数の店舗棚Rと、チェックアウトカウンタCCと、POS(Point Of Sales)端末POS1、POS2とを有する。カメラCA1~CA4は、例えば図2に示すように、売り場領域内の相互に異なる複数の位置に設置される。カメラCAは、視体積交差法により売場領域を移動する客の軌跡、すなわち人物動線を追跡するために用いられる。視体積交差法は、例えば客の頭部を複数の方向から撮影し、各画像の頭部の位置から頭部の店内空間に適宜設置された3次元座標系内の座標値を算出する方法である。4台のカメラCAのうちの少なくとも1つ(図2の例ではカメラCA4)は、売り場領域の出入り口IN/OUTを撮像範囲に含むことが好ましい。
 各カメラCAの配置位置は、店舗図面を参照したり、実際に店舗内に仮設置したりして、店舗内の什器などの遮蔽の影響も考慮し、店舗全域がカメラCAで撮影されるように適宜決定される。各カメラCAは、魚眼レンズを用いたカメラや全方位ミラー付のカメラ等の広角レンズカメラであることが好ましい。カメラCAの台数は必ずしも複数でなくてもよい。カメラCAは、監視対象領域の全体を撮像するものであってもよい。その場合、カメラCAには360°の撮影画角を有するものを用いればよい。そのようなカメラCAを売り場領域の中央に1台設置し、売り場領域全体を撮像することで、カメラの設置台数を1台にすることができる。その場合、使用するカメラCAの台数を1台にすることでコストを低減させることができることに加えて、客の警戒感を抑制する効果も期待できる。
 図1に戻り、カメラコントローラ30は、各カメラCAの制御を行う。カメラコントローラ30は、タイマ機能を内蔵しており、例えば1秒間に10枚の赤外線画像を撮像させるように、各カメラCAの撮像タイミングを同期をとって制御する。カメラコントローラ30は、各カメラCAが撮像した赤外線画像(その画像データ)と、撮像日時を示すデータとを、映像データベース11に格納する。カメラCA及びカメラコントローラ30と映像データベース11とは、必ずしも同一の場所に設置されている必要はなく、離れた場所に設置されていてもよい。その場合、カメラコントローラ30は、インターネットなどのネットワークを通じて赤外線画像と撮像日時を示すデータとを映像データベース11に送信してもよい。
 人物抽出手段12は、映像データベース11から赤外線画像を読み出し、読み出した赤外線画像から人物が存在する領域を抽出する。赤外線画像、特に遠赤外線画像では、人物の肌が露出している部分が画像化される。人物抽出手段12は、赤外線画像から人物の顔に対応した領域を抽出する。人物抽出手段12は、例えば人の平均体温(例えば36.5℃)に近い温度の部分がある面積以上含まれる領域を、人物の顔に対応した領域として抽出する。人物抽出手段12は、赤外線画像から、顔に対応した領域に加えて人物の腕の露出部分及び足の露出部分の少なくとも一方に対応する領域を更に抽出してもよい。
 温度計測手段13は、赤外線画像に基づいて、抽出された人物の温度を計測する。温度計測手段13は、例えば赤外線画像における、人物抽出手段12にて抽出された人物の顔に対応する領域の部分画像に基づいて温度を計測する。温度計測手段13は、人物抽出手段12にて人物の腕の露出部分及び足の露出部分の少なくとも一方に対応する領域が抽出されていた場合は、赤外線画像におけるそれら領域の部分画像に基づいて人物の温度を計測してもよい。
 人物特定情報データベース15は、人物の識別子(ID:Identifier)と、その人物について計測された温度とを対応付けて記憶する。データベース登録手段14は、人物抽出手段12にて人物が初めて抽出された場合に、その初めて抽出された人物に識別子を割り当て、割り当てた識別子と、その人物について温度計測手段13にて計測された温度とを対応付けて人物特定情報データベース15に登録する。ここで、人物が初めて抽出されるとは、その時点よりも前の時点において赤外線画像に存在していない人物が抽出されることをいう。例えば後述する人物追跡手段17において人物を追跡する場合に、それ以前には対応する人物が存在しない場合などを指す。あるいは、監視対象領域の入り口が決まっているような場合は、その入り口において抽出された場合などを指す。
 人物識別手段16は、温度計測手段13にて計測された温度に基づいて人物を識別する。人物識別手段16は、例えば人物特定情報データベースを参照して、赤外線画像から抽出された人物を識別する。人物識別手段16は、例えば、顔に対応する領域の部分画像に基づいて計測された温度に基づいて人物を識別する。人物識別手段16は、温度計測手段13にて人物の腕の露出部分及び足の露出部分の少なくとも一方に対応する領域の部分画像に基づいて温度が計測されている場合には、顔に対応する領域の部分画像に基づいて計測された温度と、腕の露出部分及び足の露出部分の少なくとも一方に対応する領域の部分画像に基づいて計測された温度と、に基づいて人物を識別してもよい。人物識別手段16は、例えば、複数の人物間で顔に対応する領域の部分画像に基づいて計測された温度が同じ場合は、人物の腕の露出部分及び足の露出部分の少なくとも一方に対応する領域の部分画像に基づいて計測された温度に基づいて人物を識別してもよい。
 ここで、計測された温度が同じとは、完全同一だけでなく、温度差がある場合でも、その差がしきい値以内である場合も含む。例えばT1及びT2をそれぞれ0より大きな実数(T1>0、T2>0)とした場合、温度差が-T1[℃]から+T2[℃]の範囲であるとき、温度が同じであるとみなしてもよい。T1とT2とは同じ値であってもよいし、異なる値であってもよい。具体的に、例えば、赤外線画像に基づいて計測される温度の分解能が0.1℃であるとすれば、温度差が-0.2℃から+0.2℃の範囲にある場合は、温度が同じであるとみなしてもよい。
 人物追跡手段17は、赤外線画像から抽出された人物を追跡する。行動履歴情報生成手段18は、人物追跡手段17により追跡された人物の動きに基づいて行動履歴情報を生成する。行動履歴情報生成手段18は、例えば人物追跡手段17により追跡された人物の軌跡情報を行動履歴情報として生成する。行動履歴情報生成手段18は、生成した行動履歴情報を、行動履歴情報データベース19に格納する。行動履歴情報データベース19は、例えば人物の軌跡情報と、入店時刻と、出店時刻とを、人物の識別子に対応付けて記憶する。POS端末POS1又はPOS2(図2を参照)により商品の購入が記録されたときは、行動履歴情報データベース19又は図示しない他のデータベースに、人物(その識別子)と購入した商品の情報とを対応付けて記憶してもよい。どの人物が商品を購入したかは、POS端末POS1又はPOS2による購入が記録された時刻と、その時刻における各人物の位置とを照合することにより推定することができる。
 データ解析手段20は、行動履歴情報データベース19を参照し、入力部40を介して入力される操作に応じて、表示部50に、動線解析画面などを表示させる。入力部40は、例えばキーボードやポインティングデバイスであり、表示部50は、液晶ディスプレイなどである。動線解析画面は、例えば、売り場領域のマップ図に人物の軌跡情報を重ねて表示する動線表示領域と、カメラCA1~CA4で撮像された赤外線画像を表示するカメラ画像表示領域とを含む。
 ここで、行動履歴情報生成装置10は、例えばプロセッサ、メモリ、バス、及び補助記憶装置などを備えたコンピュータ装置として構成される。行動履歴情報生成装置10内の各手段の機能の少なくとも一部は、プロセッサがプログラムに従って処理を実行することにより実現されてもよい。図1では、行動履歴情報生成装置10が映像データベース11、人物特定情報データベース15、及び行動履歴情報データベース19を有しているが、これらデータベースは行動履歴情報生成装置10の外部にあってもよい。例えば行動履歴情報生成装置10と映像データベース11とが離れた場所にあってもよく、その場合、行動履歴情報生成装置10はインターネットなどのネットワークを通じて映像データベースから赤外線画像を取得してもよい。
 以下、赤外線画像を用いた人物の識別について詳細に説明する。図3(a)は可視光カメラにより撮像された人物の画像を示し、(b)は赤外線カメラ(遠赤外線カメラ)により撮像された人物の画像を示す。同図(a)に示すように、人物60を可視光カメラで撮像すると、人物の顔や、着用している服などが鮮明に画像化される。一方、遠赤外線カメラで同じ人物60を撮像すると、同図(b)に示すように、主に顔61や腕62、足63などの肌の露出部分が画像化される。遠赤外線画像では、顔の中の目や鼻、口といったパーツは鮮明に画像化されないため、プライバシーを保護することはできる。しかし、一方で、遠赤外線画像において顔の特徴を用いて人物を識別することは困難である。また、着用している服の模様や色などを用いて人物を識別することも困難である。
 そこで、本実施形態では、遠赤外線画像により人物の温度を計測することが可能なこと、及び人物の温度(体温)は個人間で異なることが多いことに着目し、遠赤外線画像により計測される温度を用いて人物を識別する。ここでいう人物の識別とは、その人物が誰であるかを識別するということではなく、複数の人物が存在する場合に、ある人物と別の人物とを区別して認識することを指す。人物抽出手段12は、例えば遠赤外線画像において人の平均体温(例えば36.5℃)に近い温度の部分が、ある面積以上含まれる領域を、顔61の領域として抽出する。また、人物抽出手段12は、遠赤外線画像から腕62及び足63を抽出する。腕62及び足63は、顔61との位置関係に基づいて抽出できる。
 遠赤外線画像における画素値は、あらかじめ校正された物体の放射温度と遠赤外線画像における画素値との関係に基づいて温度に変換できる。温度計測手段13は、例えば顔61を構成する画素の画素値の平均値を温度に変換することで、顔61の温度を計測する。腕62及び足63についても同様に、それらを構成する画素の画素値の平均値を温度に変換することで、腕62及び足63の温度を計測する。人物の腕や足が着衣から露出していない場合は、人物抽出手段12により腕及び足が抽出されない。その場合、温度計測手段13は腕及び足の温度を計測しなくてよい。
 図4は、人物特定情報データベース15のデータ構造を示す。人物特定情報データベース15は、各人物に対して、人物の識別子(人物ID)、顔温度、及び手足温度を記憶する。人物IDは、各人物を一意に識別するための識別子が格納される。顔温度には、温度計測手段13により計測された顔61の温度が格納される。手足温度には、温度計測手段13により計測された腕62及び足63の温度が格納される。手足温度には、腕62及び足63の温度が個別に格納されてもよいし、それらの平均値が格納されてもよい。
 図4に示す人物特定情報データベースを参照することで、人物識別手段16は、温度計測手段13にて計測された顔の温度が35.8℃の人物は識別子Aの人物(人物A)であると特定できる。また、人物識別手段16は、温度計測手段13にて計測された顔の温度が37.2℃の人物は識別子Bの人物(人物B)であると特定でき、温度計測手段13にて計測された顔の温度が36.7℃の人物は識別子Cの人物(人物C)であると特定できる。仮に人物Bと人物Cとで顔の温度が同じであったとした場合には、手足温度が35.6℃か34.2℃かを判断することで、人物Bと人物Cとを識別することができる。
 ここで、例えば夏の暑い時期や冬の寒い時期など、店舗の内外で温度差が大きい場合、人物が店舗内の冷房や暖房などに冷やされ又は暖められ、時間が経過するに連れて人物の温度が変化することがある。そのような場合に対処するため、人物識別手段16は、人物が追跡されている間に温度計測手段13によって計測された温度が変化した場合は、変化後の温度で人物特定情報データベース15に記憶された温度を更新してもよい。人物の温度が変化したことは、例えば人物追跡手段17において温度計測手段13により計測された温度と人物の位置とに基づいて人物を追跡した結果を、人物識別手段16にフィードバックすることで認識できる。
 図5は、時間経過に伴う人物の温度の変化を示す。ある時刻t1において、人物Aの温度(顔温度)は35.8℃であり、人物Bの温度は37.2℃であり、人物Cの温度は36.7℃である。時刻t1よりも後の時刻t2においても、人物Aの温度は35.8℃であり、人物Bの温度は37.2℃であり、人物Cの温度は36.7℃である。時刻t2よりもさらに後の時刻である時刻t3では、人物B及び人物Cの温度が低下し、人物Bの温度は36.9℃に変化し、人物Cの温度は36.3℃に変化する。温度変化時に人物B及び人物Cの位置が大きく変化していないとすれば、位置に基づく人物追跡の結果から、人物Bの温度が37.2℃から36.9℃に変化し、人物Cの温度が36.7℃から36.3℃に変化したことを認識できる。
 図6は、人物特定情報データベース15の更新を示す。時刻t1における人物特定情報データベース15に格納される各データは、図4に示すデータと同じである。時刻t2では、人物Aから人物Cの顔の温度は時刻t1から不変であるが(図5を参照)、人物B及び人物Cの手足温度がそれぞれ35.4℃及び34.0℃に下がったとする。その場合、時刻t2において、人物特定情報データベース15に格納される人物Bの手足温度及び人物Cの手足温度は、それぞれ35.4℃及び34.0℃に更新される。
 時刻t3において、人物Bの顔の温度が37.2℃から36.9℃に変化し、人物Cの顔の温度が36.7℃から36.3℃に変化すると、人物特定情報データベース15に格納される人物Bの顔の温度が36.9℃に更新され、人物Cの顔の温度が36.3℃に更新される。また、人物Bの手足の温度が35.4℃から35.2℃に変化し、人物Cの手足の温度が34.0℃から33.7℃に変化すると、人物特定情報データベース15に格納される人物Bの手足温度が35.2℃に更新され、人物Cの手足温度が33.7℃に更新される。人物Aの顔の温度は35.8℃で時刻t1から不変であるので更新されない。変化後の温度で人物特定情報データベース15を更新することで、時刻t3以後も、人物B及び人物Cの識別が可能である。
 続いて処理手順について説明する。図7は、行動履歴情報生成システムにおける動作手順を示す。行動履歴情報生成装置10は、映像データベース11に、カメラCAにより撮像された赤外線画像がある程度蓄積された状態で、行動履歴情報生成処理を実施する。行動履歴情報生成装置10は、例えば店舗に客がいない場合、又は店舗の営業時間外に、行動履歴情報生成処理を実施してもよい。あるいは新たな映像が映像データベース11に格納されるのと並行して、行動履歴情報生成処理を実施してもよい。
 人物抽出手段12は、映像データベース11から赤外線画像を読み出し、読み出した赤外線画像から人物が存在する領域を抽出する(ステップS1)。人物抽出手段12は、ステップS1では時系列に沿って赤外線画像を読み出し、読み出した赤外線画像から人物の顔61(図3(b)を参照)を抽出する。また、赤外線画像から人物の腕62及び足63を抽出する。温度計測手段13は、ステップS1で抽出された人物の温度を計測する(ステップS2)。温度計測手段13は、例えば赤外線画像における顔61、腕62、及び足63の領域の画素値をそれぞれ温度に変換することで、それらの温度を計測する。温度計測手段13は、ステップS1で複数の人物が抽出されている場合は、複数の人物のそれぞれについて温度を計測する。
 人物抽出手段12は、抽出した人物が、新規に抽出されたものであるか否かを判断する(ステップS3)。人物抽出手段12は、例えば店舗の出入り口IN/OUT(図2を参照)において人物を抽出した場合は、その人物は新規に抽出されたと判断する。人物抽出手段12は、新規に抽出したと判断すると、データベース登録手段14に、ステップS2で計測された温度の人物特定情報データベース15への登録を指示する。データベース登録手段14は、新規に抽出された人物に新たな識別子を割り当て、その識別子とステップS2で計測された温度とを対応付けて人物特定情報データベース15に格納する(ステップS4)。また、データベース登録手段14は、人物の入店時刻を行動履歴情報データベース19に格納してもよい。
 ステップS3で人物が新規に抽出されたものではないと判断された場合、人物識別手段16は、ステップS2で計測された温度に基づいて人物を識別する(ステップS5)。人物識別手段16は、ステップS5では、例えばステップS2で計測された温度と、人物特定情報データベース15に格納された温度とを照合することで、ステップS1で抽出された人物の識別子を同定する。
 人物追跡手段17は、ステップS5で識別された人物を時系列に沿って追跡する(ステップS6)。人物追跡手段17は、ステップS6では複数時刻の赤外線画像間で人物を追跡し、ステップS1で読み出された赤外線画像の時刻における人物の座標位置を特定する。ステップS5において対応する温度の人物が存在しない場合、及び/又はステップS6で過去の赤外線画像に追跡対象の人物が存在しない場合は、ステップS4と同様な動作により、データベース登録手段14が、ステップS2で計測された人物の温度を、新たに割り当てた人物の識別子と対応付けて人物特定情報データベース15に登録してもよい。
 行動履歴情報生成手段18は、ステップS6で追跡された人物の動きに基づいて行動履歴情報を生成する(ステップS7)。行動履歴情報生成手段18は、ステップS7では、ステップS6で特定された人物の座標位置を、行動履歴情報データベース19に格納された、ステップS5で識別された人物の識別子の軌跡情報に追記することで、行動履歴情報を生成する。行動履歴情報生成手段18は、人物追跡手段17において追跡されていた人物が店舗の出入り口付近まで追跡された後にステップS1で抽出されなくなった場合は、行動履歴情報データベース19に出店時刻を記録してもよい。
 本実施形態における人物の追跡について説明する。図8に、ある時刻での売り場領域内における人物の位置を示す。また、図9に、図8の時刻よりも後の時刻での売り場領域内における人物の位置を示す。図8及び図9には、人物A、人物B、及び人物Cの3人の人物が描かれている。人物Aの温度は35.8℃、人物Bの温度は37.2℃、人物Cの温度は36.7℃であったとする。このように人物間に温度差があることにより、人物A~Cを識別することが可能である。
 図8において、人物Aの位置はカメラCA1の撮像範囲に含まれ、人物Bの位置はカメラCA2の撮像範囲に含まれ、人物Cの位置はカメラCA3の撮像範囲に含まれている。各人物が移動し、図9に示す配置になったとする。図8における時刻から図9における時刻までの間に、人物Aと人物Bとが交差し、人物AはカメラCA2の撮像範囲に移動し、人物BはカメラCA1の撮像範囲に移動している。この場合でも、人物識別手段16が、温度が35.8℃の人物を人物Aと識別し、温度が37.2℃の人物を人物Bと識別することで、人物Aと人物Bとを取り違えることなく追跡することができる。
 人物Cについては、図8における時刻から図9における時刻までの間に、店舗棚Rの前からPOS端末POS2の前まで移動している。人物Cも、人物識別手段16が温度が36.7℃の人物を人物Cと識別することで、正しく追跡できる。図9に示す時刻の前後において、POS端末POS2において商品の購入が記録されている場合、商品を購入した人物はPOS端末POS2の前にいる人物Cであると認識できる。この場合は、図示しない購入情報データベースにおいて、POS端末POS2により記録された商品の購入情報を、人物Cの識別子と対応付けてもよい。
 本実施形態では、カメラCAは監視対象領域の赤外線画像を撮像する。人物抽出手段12は赤外線画像から人物を抽出し、温度計測手段13は赤外線画像に基づいて抽出された人物の温度を計測する。人物識別手段16は、計測された温度に基づいて、人物を識別する。人物追跡手段17は抽出された人物を追跡し、行動履歴情報生成手段18は追跡された人物の行動履歴情報を生成する。本実施形態では、撮像される画像は赤外線画像であるため、可視光カメラを用いた場合とは異なり、人物の顔や複数などが鮮明に画像化されることはない。このため、赤外線画像から個人を特定することは困難である。本実施形態では、人物の温度は人物間で異なることが多いことに着目し、温度に基づいて人物を識別する。したがって、本実施形態では、個人が特定できない態様で撮影を実施しつつも、人物を識別して行動履歴情報を生成することができる。
 次いで、本発明の第2実施形態を説明する。図10は、本発明の第2実施形態に係る行動履歴情報生成システムを示す。本実施形態の行動履歴情報生成システム100aは、行動履歴情報生成装置10a内に付随物抽出手段21を更に有する点で、図1に示す第1実施形態で説明した行動履歴情報生成システム100と相違する。その他の点は、第1実施形態と同様でよい。
 付随物抽出手段21は、赤外線画像から人物に付随する付随物を抽出する。客は、店舗において、買い物かごなどに暖められた缶コーヒーなどの暖かい飲み物や、冷やされたペットボトル入りのジュースなどの冷たい飲み物など、温度が人物とも周辺環境とも異なる温度の商品を買い物かごに入れるか、又は手で直接もって移動することがある。付随物抽出手段21は、そのような温度が周辺温度とは異なる物体を付随物として抽出する。
 本実施形態では、温度計測手段13は、付随物抽出手段21により抽出された付随物の領域に対応する領域の部分画像に基づいて付随物の温度を計測する。人物識別手段16は、温度計測手段13にて計測された顔の温度と、付随物の温度とに基づいて人物を識別する。人物識別手段16は、例えば複数の人物間で温度計測手段13にて計測された顔の温度が同じ場合は、付随物の温度に基づいて人物を識別してもよい。本実施形態においても、第1実施形態と同様に、腕及び足の少なくとも一方の温度を計測してもよい。その場合、人物識別手段16は、複数の人物間で顔の温度が同じであり、かつ腕及び足の少なくとも一方の温度が同一であるか又は腕及び足の少なくとも一方の温度が計測されていない場合に、温度計測手段13にて計測された付随物の温度に基づいて人物を識別してもよい。
 図11(a)は可視光カメラにより撮像された人物の画像を示し、(b)は赤外線カメラ(遠赤外線カメラ)により撮像された人物の画像を示す。同図(a)に示すように、買い物かごを持っている人物70を可視光カメラで撮像すると、人物の顔や、着用している服などが鮮明に画像化される。また、買い物かごやその中身も画像化される。一方、遠赤外線カメラで同じ人物70を撮像すると、同図(b)に示すように、主に顔71や手72などの肌の露出部分が画像化される。また、買い物かごに中にある放熱体80が画像化される。付随物抽出手段21は、人物の手72の近くにある放熱体80を付随物として抽出する。
 温度計測手段13は、遠赤外線画像における、付随物抽出手段21により抽出された放熱体80の領域の画素の画素値を温度に変換することで、放熱体80の温度を計測する。放熱体80の温度は、客が暖かい商品を買い物かごに入れたか、冷たい商品を買い物かごに入れたかに依存して変化する。買い物かごに入れる商品の温度は複数の人物間で異なることがあるため、その温度も人物の識別に利用することができる。計測された付随物の温度は、人物特定情報データベース15に格納される。人物を追跡している間に付随物の温度が変化する場合には、変化後の温度で付随物の温度を更新するとよい。
 図12は、本実施形態における人物特定情報データベース15のデータ構造を示す。人物特定情報データベース15は、各人物に対して、人物の識別子(人物ID)、顔温度、手足温度、及び付随物温度を記憶する。顔温度及び手足温度は、第1実施形態で説明したものと同様である(図4及び図6を参照)。手足温度は省略してもよい。付随物温度には、温度計測手段13により計測された付随物の温度が格納される。
 図12を参照すると、時刻t1において、人物A~人物Cは商品などを買い物かごなどに入れていない場合、付随物は存在せず、付随物温度は空欄となっている。時刻t2において、人物Aが例えば冷たい飲み物を買い物かごに入れると、人物Aの付随物温度には、温度計測手段13によって計測された付随物の温度5.0℃が格納される。また、人物Cが例えばホットコーヒーを買い物かごに入れると、人物Cの付随物温度には、温度計測手段13によって計測された付随物の温度80.2℃が格納される。その後、時刻t3において、人物Aが持ち運ぶ冷たい飲み物の温度が5.2℃に変化すると、人物Aの付随物温度は5.2℃に更新される。また、人物Cが持ち運ぶホットコーヒーの温度が79.3℃に変化すると、人物Cの付随物温度は79.3℃に更新される。
 本実施形態では、付随物抽出手段21は赤外線画像から付随物を抽出する。温度計測手段13は、人物に加えて、付随物の温度を計測する。人物識別手段16は、人物の温度と付随物の温度とに基づいて人物を識別する。本実施形態では、人物の温度で人物が識別できない場合でも、買い物かごに入れた商品などの付随物の温度の相違により、人物の識別が可能である。したがって、人物の識別の精度を向上できる。その他の効果は第1実施形態と同様である。
 なお、上記各実施形態では、人物の軌跡情報を行動履歴情報とする例について説明したが、行動履歴情報は人物の動きがわかる情報であればよく、軌跡情報には限定されない。軌跡情報に代えて又は加えて、監視対象領域を複数のサブエリアに分割し、人物が滞在したサブエリアとそのサブエリアの滞在時間とを示す情報を行動履歴情報として生成してもよい。図13は、図2に示す売り場領域をサブエリアに分割した例を示す。この例では、売り場領域は、領域A81、領域B82、領域C83、領域D84、領域E85、及び領域F86の6つの領域に分割されている。行動履歴情報生成手段18は、人物追跡手段17によって追跡された人物が、領域A81~領域F86のどの領域に人物が滞在したか、及びその滞在時間を、行動履歴情報として生成することができる。行動履歴情報生成手段18は、更に各領域間をどのような経路で移動したかを行動履歴情報として生成してもよい。
 以上、本発明をその好適な実施形態に基づいて説明したが、本発明の行動履歴情報生成装置、システム、及び方法は、上記実施形態にのみ限定されるものではなく、上記実施形態の構成から種々の修正及び変更を施したものも、本発明の範囲に含まれる。
10:行動履歴情報生成装置
11:映像データベース
12:人物抽出手段
13:温度計測手段
14:データベース登録手段
15:人物特定情報データベース
16:人物識別手段
17:人物追跡手段
18:行動履歴情報生成手段
19:行動履歴情報データベース
20:データ解析手段
21:付随物抽出手段
30:カメラコントローラ
40:入力部
50:表示部
60、70:人物
61、71:顔
62:腕
63:足
72:手
80:放熱体
81~86:領域
A~C:人物
CA:カメラ
R:店舗棚
CC:チェックアウトカウンタ
POS1、POS2:POS端末

Claims (14)

  1.  監視対象領域を撮像する赤外線撮像装置を用いて撮像された赤外線画像から人物を抽出する人物抽出手段と、
     前記赤外線画像に基づいて、前記抽出された人物の温度を計測する温度計測手段と、
     前記温度計測手段が計測した温度に基づいて前記人物を識別する人物識別手段と、
     前記抽出された人物の動きを追跡する人物追跡手段と、
     前記追跡された人物の動きに基づいて行動履歴情報を生成する行動履歴情報生成手段とを備えた行動履歴情報生成装置。
  2.  前記人物の識別子と該人物の前記計測された温度とを対応付けて記憶する人物特定情報データベースを更に有し、前記人物識別手段は、前記人物特定情報データベースを参照して前記人物を識別する請求項1に記載の行動履歴情報生成装置。
  3.  前記人物識別手段は、前記人物が追跡されている間に前記計測された温度が変化した場合は、変化後の温度で前記人物特定情報データベースに記憶された温度を更新する請求項2に記載の行動履歴情報生成装置。
  4.  前記人物が初めて抽出された場合に、該初めて抽出された人物に前記識別子を割り当て、該割り当てた識別子と当該人物の前記計測された温度とを対応付けて前記人物特定情報データベースに登録するデータベース登録手段を更に有する請求項2又は3に記載の行動履歴情報生成装置。
  5.  前記人物抽出手段は、前記赤外線画像から人物の顔に対応する領域を抽出し、前記温度計測手段は、前記赤外線画像における前記抽出された人物の顔に対応する領域の部分画像に基づいて人物の温度を計測する請求項1から4何れか1項に記載の行動履歴情報生成装置。
  6.  前記人物抽出手段は、前記赤外線画像から人物の腕の露出部分及び足の露出部分の少なくとも一方に対応する領域を更に抽出し、前記温度計測手段は、前記赤外線画像における前記抽出された人物の腕の露出部分及び足の露出部分の少なくとも一方に対応する領域の部分画像に基づいて人物の温度を計測する請求項5に記載の行動履歴情報生成装置。
  7.  前記人物識別手段は、前記顔に対応する領域の部分画像に基づいて計測された温度と、前記腕の露出部分及び足の露出部分の少なくとも一方に対応する領域の部分画像に基づいて計測された温度とに基づいて前記人物を識別する請求項6に記載の行動履歴情報生成装置。
  8.  前記赤外線画像から、人物に付随する付随物を抽出する付随物抽出手段を更に有し、
     前記温度計測手段は、更に、前記赤外線画像における前記抽出された付随物の領域に対応する領域の部分画像に基づいて前記付随物の温度を計測する請求項5又は6に記載の行動履歴情報生成装置。
  9.  前記人物識別手段は、前記顔に対応する領域の部分画像に基づいて計測された温度と、前記計測された付随物の温度に基づいて前記人物を識別する請求項8に記載の行動履歴情報生成装置。
  10.  監視対象領域を撮像し赤外線画像を生成する赤外線撮像装置と、
     前記赤外線画像から人物を抽出する人物抽出手段と、
     前記赤外線画像に基づいて、前記抽出された人物の温度を計測する温度計測手段と、
     前記温度計測手段が計測した温度に基づいて前記人物を識別する人物識別手段と、
     前記抽出された人物の動きを追跡する人物追跡手段と、
     前記追跡された人物の動きに基づいて、行動履歴情報を生成する行動履歴情報生成手段とを備えた行動履歴情報生成システム。
  11.  前記赤外線撮像装置を1つ有しており、該赤外線撮像装置は監視対象領域の全体を撮像するものである請求項10に記載の行動履歴情報生成システム。
  12.  前記赤外線撮像装置は360°の撮影画角を有する請求項11に記載の行動履歴情報生成システム。
  13.  前記赤外線撮像装置を複数有しており、該複数の赤外線撮像装置は相互に異なる複数の位置に設置される請求項10に記載の行動履歴情報生成システム。
  14.  コンピュータが、赤外線撮像装置により監視対象領域を撮像することにより得られた赤外線画像から人物を抽出するステップと、
     前記コンピュータが、前記赤外線画像に基づいて、前記抽出された人物の温度を計測するステップと、
     前記コンピュータが、計測した温度に基づいて前記人物を識別するステップと、
     前記コンピュータが、前記抽出された人物の動きを追跡するステップと、
     前記コンピュータが、前記追跡された人物の動きに基づいて行動履歴情報を生成するステップとを有する行動履歴情報生成方法。
PCT/JP2016/003795 2015-08-31 2016-08-22 行動履歴情報生成装置、システム、及び方法 WO2017038035A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015-170536 2015-08-31
JP2015170536 2015-08-31

Publications (1)

Publication Number Publication Date
WO2017038035A1 true WO2017038035A1 (ja) 2017-03-09

Family

ID=58186904

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/003795 WO2017038035A1 (ja) 2015-08-31 2016-08-22 行動履歴情報生成装置、システム、及び方法

Country Status (1)

Country Link
WO (1) WO2017038035A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018165849A (ja) * 2017-03-28 2018-10-25 達広 佐野 カメラによる属性収集システム
CN111212593A (zh) * 2017-10-11 2020-05-29 深圳传音通讯有限公司 一种基于智能终端的拍照测温方法及拍照测温系统
CN111951058A (zh) * 2020-08-24 2020-11-17 珠海格力电器股份有限公司 基于电子价签的商品关注度分析方法、装置及系统
CN113069088A (zh) * 2021-03-24 2021-07-06 重庆电子工程职业学院 一种人工智能交互装置
CN114424263A (zh) * 2020-03-25 2022-04-29 株式会社日立制作所 行为识别服务器和行为识别方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005512245A (ja) * 2001-12-11 2005-04-28 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 不審な挙動を検出する監視システム
JP2006350751A (ja) * 2005-06-17 2006-12-28 Hitachi Ltd 店舗内の販売分析装置及びその方法
JP2010092353A (ja) * 2008-10-09 2010-04-22 Sumitomo Electric Ind Ltd 画像処理装置及び画像処理方法
JP2013196047A (ja) * 2012-03-15 2013-09-30 Omron Corp ジェスチャ入力装置、制御プログラム、コンピュータ読み取り可能な記録媒体、電子機器、ジェスチャ入力システム、および、ジェスチャ入力装置の制御方法
JP2015060832A (ja) * 2013-09-17 2015-03-30 スリーイーサイエンス株式会社 監視カメラ付き照明装置
WO2015098442A1 (ja) * 2013-12-26 2015-07-02 株式会社日立国際電気 映像検索システム及び映像検索方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005512245A (ja) * 2001-12-11 2005-04-28 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 不審な挙動を検出する監視システム
JP2006350751A (ja) * 2005-06-17 2006-12-28 Hitachi Ltd 店舗内の販売分析装置及びその方法
JP2010092353A (ja) * 2008-10-09 2010-04-22 Sumitomo Electric Ind Ltd 画像処理装置及び画像処理方法
JP2013196047A (ja) * 2012-03-15 2013-09-30 Omron Corp ジェスチャ入力装置、制御プログラム、コンピュータ読み取り可能な記録媒体、電子機器、ジェスチャ入力システム、および、ジェスチャ入力装置の制御方法
JP2015060832A (ja) * 2013-09-17 2015-03-30 スリーイーサイエンス株式会社 監視カメラ付き照明装置
WO2015098442A1 (ja) * 2013-12-26 2015-07-02 株式会社日立国際電気 映像検索システム及び映像検索方法

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018165849A (ja) * 2017-03-28 2018-10-25 達広 佐野 カメラによる属性収集システム
CN111212593A (zh) * 2017-10-11 2020-05-29 深圳传音通讯有限公司 一种基于智能终端的拍照测温方法及拍照测温系统
CN114424263A (zh) * 2020-03-25 2022-04-29 株式会社日立制作所 行为识别服务器和行为识别方法
CN111951058A (zh) * 2020-08-24 2020-11-17 珠海格力电器股份有限公司 基于电子价签的商品关注度分析方法、装置及系统
CN113069088A (zh) * 2021-03-24 2021-07-06 重庆电子工程职业学院 一种人工智能交互装置
CN113069088B (zh) * 2021-03-24 2023-05-05 重庆电子工程职业学院 一种人工智能交互装置

Similar Documents

Publication Publication Date Title
WO2017038035A1 (ja) 行動履歴情報生成装置、システム、及び方法
JP6909575B2 (ja) 監視情報収集システム
JP7448065B2 (ja) 店舗装置、店舗システム、店舗管理方法、プログラム
JP6253311B2 (ja) 画像処理装置、画像処理方法
CN108010008B (zh) 目标的追踪方法、装置及电子设备
EP3794577B1 (en) Smart platform counter display system and method
JP6707940B2 (ja) 情報処理装置及びプログラム
TW201913501A (zh) 店鋪裝置、店鋪管理方法及程式
KR101699479B1 (ko) 매장 혼잡도 분석 시스템 및 방법
JP7416165B2 (ja) 情報処理装置
JP2006285409A (ja) 店舗等における人数及び人流カウント方法並びにこれらを利用したインストアマーチャンダイジングの提言方法。
US20210342807A1 (en) System and methods for automatic detection of product insertions and product extraction in an open shopping cart
JP4677737B2 (ja) 防犯支援システム
US20170193309A1 (en) Moving information analyzing system and moving information analyzing method
JP2013238973A (ja) 購買情報管理システム、商品移動検出装置および購買情報管理方法
WO2022160592A1 (zh) 一种信息处理方法、装置、电子设备及存储介质
US20230079693A1 (en) Elevated temperature screening systems and methods
JP3489491B2 (ja) 人物行動解析装置及び人物行動解析プログラムを記録した記録媒体
CN105955451A (zh) 基于用户图像的出行提示方法
JP2017054229A (ja) 人物判別システム
JP2012124658A (ja) 特定人物検知システムおよび検知方法
JP7015430B2 (ja) 見込み客情報収集システム及びその収集法
US20190050630A1 (en) A system and method for detecting a person interested in a target
JP2016045743A (ja) 情報処理装置およびプログラム
JP6573259B2 (ja) カメラによる属性収集システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16841075

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16841075

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP