WO2017164272A1 - 動線判定装置、動線判定システム、動線判定方法及びプログラム - Google Patents

動線判定装置、動線判定システム、動線判定方法及びプログラム Download PDF

Info

Publication number
WO2017164272A1
WO2017164272A1 PCT/JP2017/011602 JP2017011602W WO2017164272A1 WO 2017164272 A1 WO2017164272 A1 WO 2017164272A1 JP 2017011602 W JP2017011602 W JP 2017011602W WO 2017164272 A1 WO2017164272 A1 WO 2017164272A1
Authority
WO
WIPO (PCT)
Prior art keywords
flow line
information
unit
line information
flow
Prior art date
Application number
PCT/JP2017/011602
Other languages
English (en)
French (fr)
Inventor
信一 阿南
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to US15/999,623 priority Critical patent/US20210209615A1/en
Publication of WO2017164272A1 publication Critical patent/WO2017164272A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0201Market modelling; Market analysis; Collecting market data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising

Definitions

  • the present invention relates to a flow line determination device, a flow line determination system, a flow line determination method, and a program.
  • Patent Document 1 describes a technique for extracting a customer's movement trajectory and adding attribute information such as the customer's sex and age extracted from video to information indicating the trajectory as a related technique.
  • An example of an object of the present invention is to provide a flow line determination device, a flow line determination system, a flow line determination method, and a program that can solve the above-described problems.
  • the flow line determination device includes a flow line information acquisition unit that acquires a plurality of flow lines, and a flow line that includes at least a part of the plurality of flow lines in a predetermined region. Are determined to be the flow lines of the persons belonging to the first classification.
  • a plurality of flow lines are obtained, and a flow line in which at least a part of the plurality of flow lines is included in a predetermined region is first. Determining that it is a flow line of a person belonging to the classification.
  • the program according to the third embodiment of the present invention obtains a plurality of flow lines in a computer and a flow line including at least a part of the flow lines of the plurality of flow lines in a predetermined area. And determining that it is a flow line of a person belonging to the first classification.
  • a flow line determination system includes an imaging unit that captures an image to acquire an image, a flow line generation unit that generates a plurality of flow lines based on the image, and the generated A determination unit that determines that a flow line at least a part of which is included in the predetermined region is a flow line of a person belonging to the first classification.
  • the flow line determination system 1 includes a video acquisition system 10, a flow line information generation device 20, and a flow line determination device 30.
  • the video acquisition system 10 includes video acquisition units (imaging units) 101a, 101b, 101c, 101d, 101e, 101f, 101g, 101h, and 101i.
  • the video acquisition units 101a to 101i may be video cameras.
  • the video acquisition units 101a to 101i are collectively referred to as the video acquisition unit 101.
  • Each of the video acquisition units 101 is provided on a side wall, a ceiling, or the like in a space R (area) (region) such as a supermarket or a convenience store (store).
  • a space R area
  • region region
  • each of the video acquisition units 101 acquires a video in the space R by photographing the space R. That is, each of the video acquisition units 101 acquires a video including a movement target by photographing the movement target in the space R.
  • the flow line information generation apparatus 20 includes a flow line information generation unit 201 (flow line generation unit) and a storage unit 202.
  • the flow line information generation unit 201 acquires videos captured by each of the video acquisition units 101.
  • the flow line information generation unit 201 generates the flow line information of each movement target by using the technique described in Patent Literature 1 for an acquired video.
  • the flow line information is information indicating a flow line of a movement target, that is, information indicating a line indicating a route (trajectory) along which the movement target has moved (passed).
  • the storage unit 202 stores various information necessary for processing performed by the flow line information generation device 20.
  • the flow line determination apparatus 30 includes a flow line information acquisition unit 301, a first movement target detection unit (determination unit) 302, and a flow line information classification unit 303.
  • the flow line information acquisition unit 301 acquires the flow line information of each moving object that moves in the space R. Specifically, the flow line information acquisition unit 301 acquires the flow line information generated by the flow line information generation unit 201 from the flow line information generation device 20.
  • the first movement target detection unit 302 detects flow line information of employees (first movement target) belonging to the first classification. Specifically, the first movement target detection unit 302 passes one or a plurality of predetermined positions within a determination error range from the plurality of flow line information acquired by the flow line information acquisition unit 301. Identify flow line information.
  • the predetermined position here is a position such as a register or a backyard where only employees pass.
  • the first movement target detection unit 302 determines the identified flow line information as the flow line information of employees belonging to the first category.
  • the flow line information classification unit 303 includes flow line information about employees among employees belonging to the first classification (first movement target) and movement targets belonging to customers not belonging to the first classification (second movement target).
  • the flow line information that does not include is determined as customer flow line information. That is, the plurality of flow line information acquired by the flow line information acquisition unit 301 includes flow line information regarding a plurality of movement targets. Each of the plurality of moving objects belongs to either the first moving object or the second moving object.
  • the flow line information classification unit 303 determines that the flow line information excluding the flow line information related to the movement target belonging to the first classification among the plurality of flow line information is the flow line information related to the movement target belonging to the second classification. .
  • the flow line information classification unit 303 excludes the flow line information that the first movement target detection unit 302 determines as the employee's flow line information from the plurality of flow line information acquired by the flow line information acquisition unit 301.
  • the flow line information is determined as the customer flow line information.
  • FIG. 5 A processing flow of the flow line determination system 1 according to the first embodiment of the present invention shown in FIG. 5 will be described. It is assumed that the flow line determination system 1 has the configuration shown in FIG. It is assumed that the video acquisition system 10 has the configuration shown in FIG. It is assumed that the flow line information generation device 20 has the configuration shown in FIG. It is assumed that the flow line determination device 30 has the configuration shown in FIG.
  • Each of the video acquisition units 101 acquires video in the space R by photographing the space R such as a supermarket or a convenience store (step S1).
  • the flow line information generation unit 201 acquires the videos acquired from each of the video acquisition units 101 (step S2).
  • the flow line information generation unit 201 writes the acquired video in the storage unit 202 (step S3).
  • the flow line information generation unit 201 generates flow line information for each movement target by using, for example, the technique described in Patent Document 1 for an acquired video (step S4).
  • the flow line information acquisition unit 301 acquires the flow line information of each movement target moving in the space R (step S5). Specifically, the flow line information acquisition unit 301 acquires the flow line information generated by the flow line information generation unit 201 from the flow line information generation device 20.
  • the flow line information acquisition unit 301 transmits the acquired flow line information of each movement target to the first movement target detection unit 302 and the flow line information classification unit 303.
  • the first movement target detection unit 302 and the flow line information classification unit 303 receive the flow line information of each movement target from the flow line information acquisition unit 301.
  • the first movement target detection unit 302 detects the flow line information of the employee (first movement target) belonging to the first classification (step S6). Specifically, the first movement target detection unit 302 passes one or a plurality of predetermined positions within a determination error range from the plurality of flow line information received from the flow line information acquisition unit 301. Identify flow line information including flow lines. The first movement target detection unit 302 determines the identified flow line information as the flow line information of employees belonging to the first category. The first movement target detection unit 302 transmits the determined employee flow line information to the flow line information classification unit 303.
  • the flow line information classification unit 303 receives the employee's flow line information from the first movement target detection unit 302.
  • the flow line information classification unit 303 includes flow line information about employees among employees belonging to the first classification (first movement target) and movement targets belonging to customers not belonging to the first classification (second movement target).
  • the flow line information that does not include is determined as customer flow line information (step S7).
  • the flow line information classification unit 303 excludes the flow line information that the first movement target detection unit 302 determines as the employee's flow line information from the plurality of flow line information acquired by the flow line information acquisition unit 301.
  • the flow line information is determined as the customer flow line information.
  • the flow line determination system 1 includes the video acquisition system 10, the flow line information generation device 20, and the flow line determination device 30.
  • the video acquisition system 10 includes video acquisition units 101a to 101i. Each of the video acquisition units 101 is provided on a side wall or a ceiling in a space R such as a supermarket or a convenience store. Each of the video acquisition units 101 captures the space R and acquires the video in the space R.
  • the flow line information generation device 20 includes a flow line information generation unit 201 and a storage unit 202.
  • the flow line information generation unit 201 acquires the video acquired from each of the video acquisition units 101.
  • the storage unit 202 stores various information necessary for processing performed by the flow line information generation device 20.
  • the flow line determination device 30 includes a flow line information acquisition unit 301, a first movement target detection unit 302, and a flow line information classification unit 303.
  • the flow line information acquisition unit 301 acquires the flow line information of each moving object that moves in the space R.
  • the first movement target detection unit 302 detects flow line information of employees (first movement target) belonging to the first classification.
  • the flow line information classification unit 303 includes flow line information about employees among employees belonging to the first classification (first movement target) and movement targets belonging to customers not belonging to the first classification (second movement target). The flow line information that does not include is determined as customer flow line information.
  • the flow line determination system 1 can distinguish between the customer flow line information and the employee flow line information in the region, and can specify only the customer flow line information. As a result, the flow line determination system 1 can analyze the flow line of the customer in the area with high accuracy without forcing the customer to take a special action.
  • the flow line determination system 1 includes a video acquisition system 10, a flow line information generation apparatus 20, a flow line determination apparatus 30, and an internal attribute acquisition system 40. .
  • the internal attribute acquisition system 40 manages attribute information.
  • the attribute information is information stored in association with each customer.
  • the attribute information may be, for example, information indicating age and gender estimated using a program that estimates age and gender from an image including a face.
  • the attribute information may be personal information including a personal name obtained from registration information at the time of registration, such as a face image or a point card.
  • the attribute information may be information indicating a hobby preference estimated from the purchase history.
  • the attribute information may be information indicating affiliation information obtained from object recognition such as a uniform or belongings.
  • the internal attribute acquisition system 40 is a system provided in its own company.
  • the flow line information generation apparatus 20 includes a flow line information generation unit 201, a storage unit 202, an attribute extraction unit 203, and a correspondence unit 204.
  • the attribute extraction unit 203 acquires a video corresponding to the customer flow line information determined by the flow line information classification unit 303.
  • the attribute extraction unit 203 selects attribute information closest to the customer from the attribute information managed by the internal attribute acquisition system 40 (the highest relevance with the customer). Attribute information) is extracted. For example, when the customer has registered a face image in the past, the attribute extraction unit 203 uses the face included in the image corresponding to the customer's flow line information to manage the attribute information managed by the internal attribute acquisition system 40. Identify the customer's face from the inside. The attribute extraction unit 203 extracts attribute information associated with the identified customer face. For example, when the customer has not registered the facial image, the following processing may be performed. In other words, the attribute extraction unit 203 identifies the age and sex of the customer using a program that estimates age and gender.
  • the attribute extraction unit 203 also obtains personal information including personal names obtained from registration information such as facial images and point cards, hobbies and preferences estimated from purchase history, and object recognition such as uniforms and belongings. The information indicating the assigned affiliation information is specified. Then, the attribute extraction unit 203 uses the attribute information managed by the internal attribute acquisition system 40 for the attribute information that is closest to personal information including the specified age, sex, personal name, hobbies and preferences estimated from the purchase history, affiliation information, and the like. Extract from
  • the association unit 204 associates the customer flow line information with the attribute information extracted by the corresponding attribute extraction unit 203.
  • the flow line determination system 1 performs the processes of steps S1 to S7.
  • the attribute extraction unit 203 reads the video corresponding to the customer flow line information determined by the flow line information classification unit 303 from the storage unit 202 (step S8).
  • the attribute extraction unit 203 selects the attribute information closest to the customer from the attribute information managed by the internal attribute acquisition system 40 (the higher relevance to the customer). Attribute information) is extracted (step S9). For example, when the customer has registered a face image in the past, the attribute extraction unit 203 uses the face in the image corresponding to the customer's flow line information, and uses the attribute information managed by the internal attribute acquisition system 40. Identify the customer's face. The attribute extraction unit 203 extracts attribute information associated with the identified customer face. For example, when the customer has not registered the facial image, the attribute extraction unit 203 specifies the age and gender of the customer using a program that estimates the age and gender.
  • the attribute extraction unit 203 also obtains personal information including personal names obtained from registration information such as facial images and point cards, hobbies and preferences estimated from purchase history, and object recognition such as uniforms and belongings. The information indicating the assigned affiliation information is specified. Then, the attribute extraction unit 203 uses the attribute information managed by the internal attribute acquisition system 40 for the attribute information that is closest to personal information including the specified age, sex, personal name, hobbies and preferences estimated from the purchase history, affiliation information, and the like. You may extract from.
  • the association unit 204 associates the customer flow line information with the attribute information extracted by the corresponding attribute extraction unit 203 (step S10).
  • the processing flow of the flow line determination system 1 according to the second embodiment of the present invention has been described above.
  • the flow line determination system 1 according to the second embodiment of the present invention includes the video acquisition system 10, the flow line information generation device 20, the flow line determination device 30, and the internal attribute acquisition system 40.
  • the internal attribute acquisition system 40 manages attribute information.
  • the internal attribute acquisition system 40 is a system provided in its own company.
  • the flow line information generation device 20 includes a flow line information generation unit 201, a storage unit 202, an attribute extraction unit 203, and a correspondence unit 204.
  • the attribute extraction unit 203 acquires a video corresponding to the customer flow line information determined by the flow line information classification unit 303.
  • the attribute extraction unit 203 extracts attribute information closest to the customer from the attribute information managed by the internal attribute acquisition system 40 based on the video corresponding to the acquired flow line information of the customer.
  • the association unit 204 associates the customer flow line information with the attribute information extracted by the corresponding attribute extraction unit 203.
  • the flow line determination system 1 can associate the attribute information with the customer's flow line information in the area.
  • the flow line determination system 1 can analyze the flow line of the customer in the area with high accuracy without forcing the customer to take a special action, and can provide a service more suitable for the customer.
  • the flow line determination system 1 according to the third embodiment of the present invention includes a video acquisition system 10, a flow line information generation device 20, a flow line determination device 30, and an external attribute acquisition system 50. .
  • the external attribute acquisition system 50 manages attribute information.
  • the attribute information is information stored in association with each customer.
  • the attribute information may be information indicating the age and gender estimated from an image including a face using an age and gender estimation program.
  • the attribute information may be personal information including a personal name obtained from registration information at the time of registration, such as a face image or a point card.
  • the attribute information may be information indicating a hobby preference estimated from the purchase history.
  • the attribute information may be information indicating affiliation information obtained from object recognition such as a uniform or belongings.
  • the external attribute acquisition system 50 is a system provided by an external company.
  • the flow line information generation device 20 includes a flow line information generation unit 201, a storage unit 202, a correspondence unit 204, and an attribute acquisition unit 205.
  • the attribute acquisition unit 205 acquires a video corresponding to the customer flow line information determined by the flow line information classification unit 303.
  • the attribute acquisition unit 205 selects attribute information closest to the customer from the attribute information managed by the external attribute acquisition system 50 (a higher relevance with the customer). Attribute information) is extracted. For example, when the customer has registered a face image in the past, the attribute acquisition unit 205 uses the face included in the image corresponding to the customer's flow line information to manage the attribute information managed by the external attribute acquisition system 50. Identify the customer's face from the inside. The attribute acquisition unit 205 extracts attribute information associated with the identified customer face. For example, when the customer has not registered the facial image, the following processing may be performed.
  • the attribute acquisition unit 205 identifies the age and sex of the customer using a program that estimates age and sex.
  • the attribute acquisition unit 205 also obtains personal information including personal names obtained from registration information such as facial images and point cards, hobbies and preferences estimated from purchase history, and object recognition such as uniforms and belongings.
  • the information indicating the assigned affiliation information is specified.
  • the attribute acquisition unit 205 manages the attribute information managed by the external attribute acquisition system 50, such as personal information including the specified age, gender, and personal name, and the attribute information closest to the hobbies and preferences estimated from the purchase history. Extract from
  • the association unit 204 associates the customer flow line information with the attribute information extracted by the corresponding attribute acquisition unit 205.
  • the flow line determination system 1 performs the processes of steps S1 to S7.
  • the attribute acquisition unit 205 reads the video corresponding to the customer flow line information determined by the flow line information classification unit 303 from the storage unit 202 (step S11).
  • the attribute acquisition unit 205 extracts attribute information closest to the customer from the attribute information managed by the external attribute acquisition system 50 based on the video corresponding to the acquired flow line information of the customer (step S12). For example, when the customer has registered a face image in the past, the attribute acquisition unit 205 uses the face in the image corresponding to the flow line information of the customer to select from the attribute information managed by the external attribute acquisition system 50. Identify the customer's face. The attribute acquisition unit 205 extracts attribute information associated with the identified customer face. For example, when the customer has not registered the facial image, the attribute acquisition unit 205 specifies the age and gender of the customer using a program that estimates the age and gender.
  • the attribute acquisition unit 205 also obtains personal information including personal names obtained from registration information such as facial images and point cards, hobbies and preferences estimated from purchase history, and object recognition such as uniforms and belongings. The information indicating the assigned affiliation information is specified. Then, the attribute acquisition unit 205 manages the attribute information managed by the external attribute acquisition system 50, such as personal information including the specified age, gender, and personal name, and the attribute information closest to the hobbies and preferences estimated from the purchase history. You may extract from.
  • the association unit 204 associates the customer flow line information with the attribute information extracted by the corresponding attribute acquisition unit 205 (step S13).
  • the flow line determination system 1 includes the video acquisition system 10, the flow line information generation device 20, the flow line determination device 30, and the external attribute acquisition system 50.
  • the external attribute acquisition system 50 manages attribute information.
  • the external attribute acquisition system 50 is a system provided by an external company.
  • the flow line information generation device 20 includes a flow line information generation unit 201, a storage unit 202, a correspondence unit 204, and an attribute acquisition unit 205.
  • the attribute acquisition unit 205 acquires a video corresponding to the customer flow line information determined by the flow line information classification unit 303.
  • the attribute acquisition unit 205 extracts attribute information closest to the customer from the attribute information managed by the external attribute acquisition system 50 based on the acquired video corresponding to the flow line information of the customer.
  • the association unit 204 associates the customer flow line information with the attribute information extracted by the corresponding attribute acquisition unit 205.
  • the flow line determination system 1 can associate the attribute information with the customer's flow line information in the area.
  • the flow line determination system 1 can analyze the flow line of the customer in the area with high accuracy without forcing the customer to take a special action, and can provide a service more suitable for the customer.
  • the flow line determination system 1 includes a video acquisition system 10, a flow line information generation device 20, a flow line determination device 30, and a terminal device 60. Prepare.
  • the video acquisition system 10 includes short-range communication units 102a, 102b, 102c, 102d, 102e, 102f, 102g, 102h, 102i, and 102j.
  • the near field communication units 102a to 102j are collectively referred to as the near field communication unit 102.
  • Each of the short-range communication units 102 may pass only employees such as accounting areas, backyards, product shelves, etc. in space R such as supermarkets and convenience stores, or employees may stay longer than customers. It is installed in a high place.
  • Each of the short-range communication units 102 performs short-range communication with a terminal device 60 described later.
  • the near field communication is communication performed using, for example, WiFi (registered trademark), BLE (Bluetooth Low Energy) (Bluetooth is a registered trademark), or the like.
  • Each of the short-range communication units 102 records the time when short-range communication with the terminal device 60 was performed.
  • the short-range communication unit 102 communicates with the terminal device 60 provided (carried) by each employee.
  • the terminal device 60 is, for example, a smartphone.
  • the flow line determination system 1 performs the process of step S1. In parallel with the process of step S1 of the flow line determination system 1, each of the short-range communication units 102 performs short-range communication with the terminal device 60 (step S14).
  • Each of the near field communication units 102 records the time when the near field communication was performed with the terminal device 60 (step S15).
  • the flow line determination system 1 performs the processes of steps S2 to S5.
  • the flow line information acquisition unit 301 transmits the acquired flow line information of each movement target to the first movement target detection unit 302 and the flow line information classification unit 303.
  • the first movement target detection unit 302 and the flow line information classification unit 303 receive the flow line information of each movement target from the flow line information acquisition unit 301.
  • the first movement target detection unit 302 acquires the time when the short-range communication unit 102 performs short-range communication with the terminal device 60 and the position information of the short-range communication unit 102 from the video acquisition system 10 (step S16).
  • the first movement target detection unit 302 detects the flow line information of the employee (first movement target) belonging to the first classification (step S17). Specifically, the first movement target detection unit 302 determines the position and time of the employee from the time when the short-range communication unit 102 performs short-range communication with the terminal device 60 and the position information of the short-range communication unit 102. The correspondence with is identified.
  • the correspondence relationship between the position and the time includes a time when the vehicle passes through the predetermined position and a residence time during which the vehicle stays at the predetermined position.
  • the first movement target detection unit 302 specifies the correspondence between the position and time for each of the plurality of flow line information received from the flow line information acquisition unit 301.
  • the first movement target detection unit 302 compares the correspondence between the position and time for each of the plurality of flow line information received from the flow line information acquisition unit 301 with the correspondence between the employee's position and time.
  • the first movement target detection unit 302 uses the flow line information received from the flow line information acquisition unit 301 including the correspondence that matches the correspondence between the employee's position and time within the range of the determination error. Identify with information.
  • the first movement target detection unit 302 identifies the flow line information indicating that it stays in the same product shelf for a predetermined time or more as the employee flow line information. The reason for this is based on the determination that a person who stays in the same product shelf for a predetermined time or more is likely to be performing the work of displaying the product.
  • the first movement target detection unit 302 has a dwell time for a predetermined time (and at least a part of the flow lines included in the predetermined area (predetermined position)) among the plurality of flow lines. For example, it may be determined that the flow line indicating that it is 1 minute or more is the flow line of the employee.
  • the first movement target detection unit 302 may determine a position where the employee stays for a predetermined time or more based on the correspondence relationship between the position of the employee and the time, and may set the determined position as a predetermined area.
  • the first movement target detection unit 302 transmits the determined employee flow line information to the flow line information classification unit 303.
  • the flow line information classification unit 303 receives the employee's flow line information from the first movement target detection unit 302.
  • the flow line determination system 1 performs the process of step S7.
  • GPS Global Positioning System
  • UWB User WideBand
  • sound wave IMES (Indoor Messaging System)
  • IMES Indoor Messaging System
  • PDR Pedestrian
  • the processing flow of the flow line determination system 1 according to the fourth embodiment of the present invention has been described above.
  • the flow line determination system 1 according to the above-described fourth embodiment of the present invention includes the video acquisition system 10, the flow line information generation device 20, the flow line determination device 30, and the terminal device 60.
  • the video acquisition system 10 includes short-range communication units 102a to 102j.
  • Each of the short-range communication units 102 may pass only employees such as accounting areas, backyards, product shelves, etc. in space R such as supermarkets and convenience stores, or employees may stay longer than customers. It is installed in a high place.
  • Each of the near field communication units 102 performs near field communication with the terminal device 60.
  • Each of the short-range communication units 102 records the time when short-range communication with the terminal device 60 was performed.
  • the first movement target detection unit 302 acquires the time when the short-range communication unit 102 performs short-range communication with the terminal device 60 and the position information of the short-range communication unit 102 from the video acquisition system 10.
  • the first movement target detection unit 302 detects flow line information of employees (first movement target) belonging to the first classification. Specifically, the first movement target detection unit 302 determines the position and time of the employee from the time when the short-range communication unit 102 performs short-range communication with the terminal device 60 and the position information of the short-range communication unit 102. The correspondence with is identified.
  • the first movement target detection unit 302 specifies the correspondence between the position and time for each of the plurality of flow line information received from the flow line information acquisition unit 301.
  • the first movement target detection unit 302 compares the correspondence between the position and time for each of the plurality of flow line information received from the flow line information acquisition unit 301 with the correspondence between the employee's position and time.
  • the first movement target detection unit 302 uses the flow line information received from the flow line information acquisition unit 301 including the correspondence that matches the correspondence between the employee's position and time within the range of the determination error. Identify with information.
  • the flow line determination system 1 can further distinguish between the customer flow line information and the employee flow line information in the area based on the correspondence between the employee position and the time. Only the flow line information can be specified. As a result, the flow line determination system 1 can analyze the flow line of the customer in the area with higher accuracy without forcing the customer to take a special action.
  • the flow line determination system 1 according to the fifth embodiment of the present invention includes a video acquisition system 10, a flow line information generation device 20, and a flow line. And a determination device 30.
  • the flow line determination device 30 includes a flow line information acquisition unit 301, a first movement target detection unit 302, a flow line information classification unit 303, a flow line information output unit 304, and service information output. Unit 305.
  • the flow line information output unit 304 outputs the flow line information determined to correspond to a predetermined flow line in the customer flow line information.
  • the service information output unit 305 outputs service information for a customer who has moved on the trajectory of the flow line information output by the flow line information output unit 304.
  • the service information is, for example, information on special sale dates or information on discount coupons related to products on the trajectory.
  • the flow line determination system 1 performs the processes of steps S1 to S7.
  • the flow line information output unit 304 outputs the flow line information determined to correspond to a predetermined flow line in the customer flow line information (step S18). For example, the flow line information output unit 304 reads predetermined flow line information indicating a predetermined flow line determined in advance from the storage unit. The flow line information output unit 304 compares the read predetermined flow line information with each of the customer's flow line information. If the flow line information output unit 304 determines that the predetermined flow line information read out of the customer's flow line information matches within the range of the determination error, the flow line information output unit 304 determines that the customer's flow line information corresponds to the predetermined flow line. To do. Then, the flow line information output unit 304 outputs the flow line information to a monitor or the like. At this time, the flow line information output unit 304 may simultaneously display the customer's video on the monitor together with the flow line information.
  • the service information output unit 305 outputs service information to a customer who has moved on the trajectory of the flow line information output by the flow line information output unit 304.
  • the service information is, for example, information on special sale dates or information on discount coupons related to products on the trajectory.
  • the service information may be provided by handing or mailing by the employee looking at the customer displayed on the monitor or the like.
  • the processing flow of the flow line determination system 1 according to the fifth embodiment of the present invention has been described above.
  • the flow line determination system 1 according to the fifth embodiment of the present invention described above includes the video acquisition system 10, the flow line information generation device 20, and the flow line determination device 30.
  • the flow line determination device 30 includes a flow line information acquisition unit 301, a first movement target detection unit 302, a flow line information classification unit 303, a flow line information output unit 304, and a service information output unit 305.
  • the flow line information output unit 304 outputs the flow line information determined to correspond to a predetermined flow line in the customer flow line information.
  • the service information output unit 305 outputs service information for a customer who has moved on the trajectory of the flow line information output by the flow line information output unit 304. In this way, the flow line determination system 1 can provide service information according to the customer's hobbies and preferences.
  • the flow line determination device 30 includes a flow line information acquisition unit 301 and a determination unit 302.
  • the flow line information acquisition unit 301 acquires a target flow line.
  • the determination unit 302 determines, among the target flow lines, a flow line in which at least a part of the flow line is included in the predetermined region as a flow line of a person belonging to the first category.
  • the flow line determination device 30 can determine the flow line information of a person (for example, an employee) belonging to the first classification, and the flow line information of the person belonging to the first classification is determined by the customer's movement line. It can be distinguished from line information. As a result, the flow line determination device 30 can analyze the flow line of the customer in the area with higher accuracy without forcing the customer to take a special action.
  • the flow line determination system 1 includes an imaging unit 101, a flow line generation unit 201, and a determination unit 302.
  • the imaging unit 101 captures and acquires an image.
  • the flow line generation unit 201 generates a target flow line included in the image acquired by the imaging unit 101.
  • the determination unit 302 determines, among the target flow lines acquired from the flow line generation unit 201, a flow line in which at least a part of the flow line is included in the predetermined region as a flow line of a person belonging to the first category. .
  • the flow line determination system 1 can determine the flow line information of a person (for example, an employee) belonging to the first category, and the flow line information of the person belonging to the first category is determined based on the flow of the customer. It can be distinguished from line information.
  • the flow line determination device 30 can analyze the flow line of the customer in the area with higher accuracy without forcing the customer to take a special action.
  • the flow line determination device 30 may include some or all of the functional units of the flow line information generation device 20.
  • the order of processing may be changed within a range where appropriate processing is performed.
  • Each of the storage unit 202 and other storage units in the embodiment of the present invention may be provided anywhere as long as appropriate information is transmitted and received.
  • each of the storage unit 202 and other storage units may exist in a range in which appropriate information is transmitted and received, and data may be distributed and stored.
  • Each of the video acquisition system 10, the flow line information generation device 20, the flow line determination device 30, the internal attribute acquisition system 40, the external attribute acquisition system 50, and the terminal device 60 described above may have a computer system therein.
  • the process described above is stored in a computer-readable recording medium in the form of a program, and the above process is performed by the computer reading and executing this program.
  • the computer-readable recording medium means a magnetic disk, a magneto-optical disk, a CD-ROM, a DVD-ROM, a semiconductor memory, or the like.
  • the computer program may be distributed to the computer via a communication line, and the computer that has received the distribution may execute the program.
  • the above program may realize part of the functions described above. Further, the program may be a so-called difference file (difference program) that can realize the above-described functions in combination with a program already recorded in the computer system.
  • difference file difference program
  • the present invention may be applied to a flow line determination device, a flow line determination system, a flow line determination method, and a program.

Landscapes

  • Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Engineering & Computer Science (AREA)
  • Accounting & Taxation (AREA)
  • Development Economics (AREA)
  • Finance (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Game Theory and Decision Science (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Abstract

動線判定装置は、複数の動線を取得する動線情報取得部と、前記複数の動線のうち、少なくとも一部が所定領域に含まれている動線が、第1分類に属する人物の動線であると判定する判定部と、を備える。

Description

動線判定装置、動線判定システム、動線判定方法及びプログラム
 本発明は、動線判定装置、動線判定システム、動線判定方法及びプログラムに関する。
 販売促進や顧客満足度の向上などを目的として顧客の動線の分析が行われる場合がある。
 特許文献1には、関連する技術として、顧客の動きの軌跡を抽出し、その軌跡を示す情報に映像から抽出した顧客の性別、年齢、などの属性情報を付加する技術が記載されている。
日本国特開平08-242987号公報
 スーパーマーケットやコンビニエンスストアなどで端末などの認証装置を持たない顧客の動線を分析する場合、作業中の店員と顧客とが混在し、顧客の動線の分析の精度が低下する可能性がある。
 そのため、顧客に特別な行為を強いることなく領域における顧客の動線の分析を高精度で行うことのできる技術が求められていた。
 この発明の目的の一例は、上記の課題を解決することのできる動線判定装置、動線判定システム、動線判定方法及びプログラムを提供することである。
 本発明の第1の実施態様による動線判定装置は、複数の動線を取得する動線情報取得部と、前記複数の動線のうち、少なくとも一部が所定領域に含まれている動線が、第1分類に属する人物の動線であると判定する判定部と、を備える。
 本発明の第2の実施態様による動線判定方法は、複数の動線を取得することと、前記複数の動線のうち、少なくとも一部が所定領域に含まれている動線が、第1分類に属する人物の動線であると判定することと、を含む。
 本発明の第3の実施態様によるプログラムは、コンピュータに、複数の動線を取得することと、前記複数の動線の動線のうち、少なくとも一部が所定領域に含まれている動線が、第1分類に属する人物の動線であると判定することと、を実行させる。
 本発明の第4の実施態様による動線判定システムは、撮影を行って画像を取得する撮像部と、前記画像に基づいて、複数の動線を生成する動線生成部と、前記生成された複数のうち、少なくとも一部が所定領域に含まれている動線が、第1分類に属する人物の動線であると判定する判定部と、を備える。
 本発明の実施形態によれば、顧客に特別な行為を強いることなく領域における顧客の動線の分析を高精度で行うことができる。
本発明の第一の実施形態による動線判定システムの構成を示す図である。 本発明の第一の実施形態による映像取得システムの構成を示す図である。 本発明の第一の実施形態による動線情報生成装置の構成を示す図である。 本発明の第一の実施形態による動線判定装置の構成を示す図である。 本発明の第一の実施形態による動線判定システムの処理フローを示す図である。 本発明の第二の実施形態による動線判定システムの構成を示す図である。 本発明の第二の実施形態による動線情報生成装置の構成を示す図である。 本発明の第二の実施形態による動線判定システムの処理フローを示す図である。 本発明の第三の実施形態による動線判定システムの構成を示す図である。 本発明の第三の実施形態による動線情報生成装置の構成を示す図である。 本発明の第三の実施形態による動線判定システムの処理フローを示す図である。 本発明の第四の実施形態による動線判定システムの構成を示す図である。 本発明の第四の実施形態による映像取得システムの構成を示す図である。 本発明の第四の実施形態による動線判定システムの処理フローを示す図である。 本発明の第五の実施形態による動線判定装置の構成を示す図である。 本発明の第五の実施形態による動線判定システムの処理フローを示す図である。 本発明の実施形態による動線判定装置の構成を示す図である。 本発明の実施形態による動線判定システムの構成を示す図である。
<第一の実施形態>
 以下、図面を参照しながら実施形態について詳しく説明する。
 本発明の第一の実施形態による動線判定システム1の構成について説明する。
 本発明の第一の実施形態による動線判定システム1は、図1に示すように、映像取得システム10と、動線情報生成装置20と、動線判定装置30と、を備える。
 映像取得システム10は、図2に示すように、映像取得部(撮像部)101a、101b、101c、101d、101e、101f、101g、101h、101iを備える。映像取得部101a~101iは、ビデオカメラであってもよい。
 映像取得部101a~101iを、映像取得部101と総称する。
 映像取得部101のそれぞれは、スーパーマーケットやコンビニエンスストア(店舗)などの空間R(エリア)(領域)における側壁や天井などに設けられている。
 映像取得部101のそれぞれは、空間R内を撮影することにより、空間R内の映像を取得する。すなわち、映像取得部101のそれぞれは、空間R内の移動対象を撮影することにより、移動対象を含む映像を取得する。
 動線情報生成装置20は、図3に示すように、動線情報生成部201(動線生成部)と、記憶部202と、を備える。
 動線情報生成部201は、映像取得部101のそれぞれからそれぞれが撮影した映像を取得する。
 動線情報生成部201は、例えば、上記の特許文献1に記載の技術を取得した映像に用いることにより、移動対象それぞれの動線情報を生成する。動線情報は、移動対象の動線を示す情報、すなわち、移動対象が移動(通過)した経路(軌跡)を示す線を示す情報である。
 記憶部202は、動線情報生成装置20が行う処理に必要な種々の情報を記憶する。
 動線判定装置30は、図4に示すように、動線情報取得部301と、第一移動対象検出部(判定部)302と、動線情報分類部303と、を備える。
 動線情報取得部301は、空間R内を移動する移動対象それぞれの動線情報を取得する。
 具体的には、動線情報取得部301は、動線情報生成装置20から動線情報生成部201が生成した動線情報を取得する。
 第一移動対象検出部302は、第一分類に属する従業員(第一移動対象)の動線情報を検出する。
 具体的には、第一移動対象検出部302は、動線情報取得部301が取得した複数の動線情報の中から、1つまたは複数の所定の位置を判定の誤差の範囲内で通過する動線情報を特定する。ここでの所定の位置は、従業員しか通過しないレジスターやバックヤードなどの位置である。第一移動対象検出部302は、特定した動線情報を第一分類に属する従業員の動線情報と判定する。
 動線情報分類部303は、第一分類に属する従業員(第一移動対象)と、第一分類に属さない顧客(第二移動対象)に属する移動対象のうち、従業員についての動線情報を含まない動線情報を顧客の動線情報と判定する。すなわち、動線情報取得部301が取得した複数の動線情報は、複数の移動対象に関する動線情報からなる。複数の移動対象各々は、第一移動対象と第二移動対象とのいずれかに属する。動線情報分類部303は、複数の動線情報のうち第一分類に属する移動対象に関する動線情報を除いた動線情報が、第二分類に属する移動対象に関する動線情報であると判定する。
 例えば、動線情報分類部303は、動線情報取得部301が取得した複数の動線情報の中から、第一移動対象検出部302が従業員の動線情報と判定した動線情報を除いた動線情報を顧客の動線情報と判定する。
 次に、本発明の第一の実施形態による動線判定システム1の処理について説明する。
 図5に示す本発明の第一の実施形態による動線判定システム1の処理フローについて説明する。
 動線判定システム1が図1で示した構成を有することを前提とする。映像取得システム10が図2で示した構成を有することを前提とする。動線情報生成装置20が図3で示した構成を有することを前提とする。動線判定装置30が図4で示した構成を有することを前提とする。
 映像取得部101のそれぞれは、スーパーマーケットやコンビニエンスストアなどの空間R内を撮影することにより、空間R内の映像を取得する(ステップS1)。
 動線情報生成部201は、映像取得部101のそれぞれからそれぞれが取得した映像を取得する(ステップS2)。動線情報生成部201は、取得した映像を記憶部202に書き込む(ステップS3)。
 動線情報生成部201は、例えば、上記の特許文献1に記載の技術を取得した映像に用いることにより、移動対象それぞれの動線情報を生成する(ステップS4)。
 動線情報取得部301は、空間R内を移動する移動対象それぞれの動線情報を取得する(ステップS5)。
 具体的には、動線情報取得部301は、動線情報生成装置20から動線情報生成部201が生成した動線情報を取得する。
 動線情報取得部301は、取得した移動対象それぞれの動線情報を第一移動対象検出部302と動線情報分類部303とに送信する。
 第一移動対象検出部302と動線情報分類部303は、動線情報取得部301から移動対象それぞれの動線情報を受信する。
 第一移動対象検出部302は、第一分類に属する従業員(第一移動対象)の動線情報を検出する(ステップS6)。
 具体的には、第一移動対象検出部302は、動線情報取得部301から受信した複数の動線情報の中から、1つまたは複数の所定の位置を判定の誤差の範囲内で通過する動線を含む動線情報を特定する。第一移動対象検出部302は、特定した動線情報を第一分類に属する従業員の動線情報と判定する。
 第一移動対象検出部302は、判定した従業員の動線情報を動線情報分類部303に送信する。
 動線情報分類部303は、第一移動対象検出部302から従業員の動線情報を受信する。
 動線情報分類部303は、第一分類に属する従業員(第一移動対象)と、第一分類に属さない顧客(第二移動対象)に属する移動対象のうち、従業員についての動線情報を含まない動線情報を顧客の動線情報と判定する(ステップS7)。
 例えば、動線情報分類部303は、動線情報取得部301が取得した複数の動線情報の中から、第一移動対象検出部302が従業員の動線情報と判定した動線情報を除いた動線情報を顧客の動線情報と判定する。
 以上、本発明の第一の実施形態による動線判定システム1の処理フローについて説明した。上述の本発明の第一の実施形態による動線判定システム1は、映像取得システム10と、動線情報生成装置20と、動線判定装置30と、を備える。映像取得システム10は、映像取得部101a~101iを備える。映像取得部101のそれぞれは、スーパーマーケットやコンビニエンスストアなどの空間Rにおける側壁や天井などに設けられている。映像取得部101のそれぞれは、空間R内を撮影して、空間R内の映像を取得する。動線情報生成装置20は、動線情報生成部201と、記憶部202と、を備える。動線情報生成部201は、映像取得部101のそれぞれからそれぞれが取得した映像を取得する。記憶部202は、動線情報生成装置20が行う処理に必要な種々の情報を記憶する。動線判定装置30は、動線情報取得部301と、第一移動対象検出部302と、動線情報分類部303と、を備える。動線情報取得部301は、空間R内を移動する移動対象それぞれの動線情報を取得する。第一移動対象検出部302は、第一分類に属する従業員(第一移動対象)の動線情報を検出する。動線情報分類部303は、第一分類に属する従業員(第一移動対象)と、第一分類に属さない顧客(第二移動対象)に属する移動対象のうち、従業員についての動線情報を含まない動線情報を顧客の動線情報と判定する。
 このようにすれば、動線判定システム1は、領域における顧客の動線情報と従業員の動線情報とを区別することができ、顧客の動線情報のみを特定することができる。その結果、動線判定システム1は、顧客に特別な行為を強いることなく領域における顧客の動線の分析を高精度で行うことができる。
<第二の実施形態>
 本発明の第二の実施形態による動線判定システム1の構成について説明する。
 本発明の第二の実施形態による動線判定システム1は、図6に示すように、映像取得システム10と、動線情報生成装置20と、動線判定装置30と、内部属性取得システム40と、を備える。
 内部属性取得システム40は、属性情報を管理する。属性情報は、顧客毎に関連付けられて記憶される情報である。属性情報は、例えば、顔を含む映像から年齢および性別を推定するプログラムを用いて推定された年齢や性別を示す情報であってもよい。属性情報は、顔の映像やポイントカードなどの登録時の登録情報から得られた個人名を含む個人情報であってもよい。属性情報は、購買履歴から推定される趣味趣向を示す情報であってもよい。属性情報は、制服や持ち物などの物体認識から得られた所属情報などを示す情報であってもよい。
 内部属性取得システム40は、自企業が備えるシステムである。
 動線情報生成装置20は、図7に示すように、動線情報生成部201と、記憶部202と、属性抽出部203と、対応付部204と、を備える。
 属性抽出部203は、動線情報分類部303が判定した顧客の動線情報に対応する映像を取得する。
 属性抽出部203は、取得した顧客の動線情報に対応する映像に基づいて、内部属性取得システム40が管理する属性情報の中からその顧客に最も近い属性情報(その顧客と最も高い関連性を有する属性情報)を抽出する。
 例えば、顧客が過去に顔の映像を登録していた場合、属性抽出部203は、客の動線情報に対応する映像に含まれる顔を用いて、内部属性取得システム40が管理する属性情報の中からその顧客の顔を特定する。属性抽出部203は、特定した顧客の顔に関連付けられている属性情報を抽出する。
 例えば、顧客が顔の映像を登録していない場合においては以下のような処理を行ってもよい。すなわち、属性抽出部203は、年齢および性別を推定するプログラムを用いて、顧客の年齢や性別を特定する。また、属性抽出部203は、顔の映像やポイントカードなどの登録時の登録情報から得られた個人名を含む個人情報、購買履歴から推定される趣味趣向、制服や持ち物などの物体認識から得られた所属情報などを示す情報を特定する。そして、属性抽出部203は、特定した年齢や性別、個人名を含む個人情報、購買履歴から推定される趣味趣向、所属情報などが最も近い属性情報を、内部属性取得システム40が管理する属性情報の中から抽出する。
 対応付部204は、顧客の動線情報と、対応する属性抽出部203が抽出した属性情報とを対応付ける。
 次に、本発明の第二の実施形態による動線判定システム1の処理について説明する。
 ここでは、図8に示す本発明の第二の実施形態による動線判定システム1の処理フローについて説明する。
 動線判定システム1は、ステップS1~ステップS7の処理を行う。
 属性抽出部203は、動線情報分類部303が判定した顧客の動線情報に対応する映像を記憶部202から読み出す(ステップS8)。
 属性抽出部203は、取得した顧客の動線情報に対応する映像に基づいて、内部属性取得システム40が管理する属性情報の中からその顧客に最も近い属性情報(その顧客ともっと高い関連性を有する属性情報)を抽出する(ステップS9)。
 例えば、顧客が過去に顔の映像を登録していた場合、属性抽出部203は、客の動線情報に対応する映像における顔を用いて、内部属性取得システム40が管理する属性情報の中からその顧客の顔を特定する。属性抽出部203は、特定した顧客の顔に関連付けられている属性情報を抽出する。
 また、例えば、顧客が顔の映像を登録していない場合、属性抽出部203は、年齢および性別を推定するプログラムを用いて、その顧客の年齢や性別を特定する。また、属性抽出部203は、顔の映像やポイントカードなどの登録時の登録情報から得られた個人名を含む個人情報、購買履歴から推定される趣味趣向、制服や持ち物などの物体認識から得られた所属情報などを示す情報を特定する。そして、属性抽出部203は、特定した年齢や性別、個人名を含む個人情報、購買履歴から推定される趣味趣向、所属情報などが最も近い属性情報を、内部属性取得システム40が管理する属性情報の中から抽出してもよい。
 対応付部204は、顧客の動線情報と、対応する属性抽出部203が抽出した属性情報とを対応付ける(ステップS10)。
 以上、本発明の第二の実施形態による動線判定システム1の処理フローについて説明した。上述の本発明の第二の実施形態による動線判定システム1は、映像取得システム10と、動線情報生成装置20と、動線判定装置30と、内部属性取得システム40と、を備える。内部属性取得システム40は、属性情報を管理する。内部属性取得システム40は、自企業が備えるシステムである。動線情報生成装置20は、動線情報生成部201と、記憶部202と、属性抽出部203と、対応付部204と、を備える。属性抽出部203は、動線情報分類部303が判定した顧客の動線情報に対応する映像を取得する。属性抽出部203は、取得した顧客の動線情報に対応する映像に基づいて、内部属性取得システム40が管理する属性情報の中からその顧客に最も近い属性情報を抽出する。対応付部204は、顧客の動線情報と対応する属性抽出部203が抽出した属性情報とを対応付ける。
 このようにすれば、動線判定システム1は、領域における顧客の動線情報に属性情報を関連付けることができる。その結果、動線判定システム1は、顧客に特別な行為を強いることなく領域における顧客の動線の分析を高精度で行うことができ、より顧客に適したサービスを提供することができる。
<第三の実施形態>
 本発明の第三の実施形態による動線判定システム1の構成について説明する。
 本発明の第三の実施形態による動線判定システム1は、図9に示すように、映像取得システム10と、動線情報生成装置20と、動線判定装置30と、外部属性取得システム50と、を備える。
 外部属性取得システム50は、属性情報を管理する。属性情報は、顧客毎に関連付けられて記憶される情報である。例えば、属性情報は、顔を含む映像から年齢性別推定プログラムを用いて推定された年齢や性別を示す情報であってもよい。属性情報は、顔の映像やポイントカードなどの登録時の登録情報から得られた個人名を含む個人情報であってもよい。属性情報は、購買履歴から推定される趣味趣向を示す情報であってもよい。属性情報は、制服や持ち物などの物体認識から得られた所属情報などを示す情報であってもよい。
 外部属性取得システム50は、外部の企業が備えるシステムである。
 動線情報生成装置20は、図10に示すように、動線情報生成部201と、記憶部202と、対応付部204と、属性取得部205と、を備える。
 属性取得部205は、動線情報分類部303が判定した顧客の動線情報に対応する映像を取得する。
 属性取得部205は、取得した顧客の動線情報に対応する映像に基づいて、外部属性取得システム50が管理する属性情報の中からその顧客に最も近い属性情報(その顧客ともっと高い関連性を有する属性情報)を抽出する。
 例えば、顧客が過去に顔の映像を登録していた場合、属性取得部205は、客の動線情報に対応する映像に含まれる顔を用いて、外部属性取得システム50が管理する属性情報の中からその顧客の顔を特定する。属性取得部205は、特定した顧客の顔に関連付けられている属性情報を抽出する。
 例えば、顧客が顔の映像を登録していない場合においては以下のような処理を行ってもよい。すなわち、属性取得部205は、年齢および性別を推定するプログラムを用いて、顧客の年齢や性別を特定する。また、属性取得部205は、顔の映像やポイントカードなどの登録時の登録情報から得られた個人名を含む個人情報、購買履歴から推定される趣味趣向、制服や持ち物などの物体認識から得られた所属情報などを示す情報を特定する。そして、属性取得部205は、特定した年齢や性別、個人名を含む個人情報、購買履歴から推定される趣味趣向、所属情報などが最も近い属性情報を、外部属性取得システム50が管理する属性情報の中から抽出する。
 対応付部204は、顧客の動線情報と、対応する属性取得部205が抽出した属性情報とを対応付ける。
 次に、本発明の第三の実施形態による動線判定システム1の処理について説明する。
 ここでは、図11に示す本発明の第三の実施形態による動線判定システム1の処理フローについて説明する。
 動線判定システム1は、ステップS1~ステップS7の処理を行う。
 属性取得部205は、動線情報分類部303が判定した顧客の動線情報に対応する映像を記憶部202から読み出す(ステップS11)。
 属性取得部205は、取得した顧客の動線情報に対応する映像に基づいて、外部属性取得システム50が管理する属性情報の中からその顧客に最も近い属性情報を抽出する(ステップS12)。
 例えば、顧客が過去に顔の映像を登録していた場合、属性取得部205は、客の動線情報に対応する映像における顔を用いて、外部属性取得システム50が管理する属性情報の中からその顧客の顔を特定する。属性取得部205は、特定した顧客の顔に関連付けられている属性情報を抽出する。
 また、例えば、顧客が顔の映像を登録していない場合、属性取得部205は、年齢および性別を推定するプログラムを用いて、その顧客の年齢や性別を特定する。また、属性取得部205は、顔の映像やポイントカードなどの登録時の登録情報から得られた個人名を含む個人情報、購買履歴から推定される趣味趣向、制服や持ち物などの物体認識から得られた所属情報などを示す情報を特定する。そして、属性取得部205は、特定した年齢や性別、個人名を含む個人情報、購買履歴から推定される趣味趣向、所属情報などが最も近い属性情報を、外部属性取得システム50が管理する属性情報の中から抽出してもよい。
 対応付部204は、顧客の動線情報と、対応する属性取得部205が抽出した属性情報とを対応付ける(ステップS13)。
 以上、本発明の第三の実施形態による動線判定システム1の処理フローについて説明した。上述の本発明の第三の実施形態による動線判定システム1は、映像取得システム10と、動線情報生成装置20と、動線判定装置30と、外部属性取得システム50と、を備える。外部属性取得システム50は、属性情報を管理する。外部属性取得システム50は、外部の企業が備えるシステムである。動線情報生成装置20は、動線情報生成部201と、記憶部202と、対応付部204と、属性取得部205と、を備える。属性取得部205は、動線情報分類部303が判定した顧客の動線情報に対応する映像を取得する。属性取得部205は、取得した顧客の動線情報に対応する映像に基づいて、外部属性取得システム50が管理する属性情報の中からその顧客に最も近い属性情報を抽出する。対応付部204は、顧客の動線情報と対応する属性取得部205が抽出した属性情報とを対応付ける。
 このようにすれば、動線判定システム1は、領域における顧客の動線情報に属性情報を関連付けることができる。その結果、動線判定システム1は、顧客に特別な行為を強いることなく領域における顧客の動線の分析を高精度で行うことができ、より顧客に適したサービスを提供することができる。
<第四の実施形態>
 本発明の第四の実施形態による動線判定システムの構成について説明する。
 本発明の第四の実施形態による動線判定システム1は、図12に示すように、映像取得システム10と、動線情報生成装置20と、動線判定装置30と、端末装置60と、を備える。
 映像取得システム10は、図13に示すように、近距離通信部102a、102b、102c、102d、102e、102f、102g、102h、102i、102jを備える。
 近距離通信部102a~102jを、近距離通信部102と総称する。
 近距離通信部102のそれぞれは、スーパーマーケットやコンビニエンスストアなどの空間Rにおける会計領域、バックヤード、商品棚など、従業員しか通過しない、または、顧客に比べて従業員が長時間滞在する可能性の高い場所に設けられている。
 近距離通信部102のそれぞれは、後述する端末装置60と近距離通信を行う。近距離通信とは、例えば、WiFi(登録商標)、BLE(Bluetooth Low Energy)(Bluetoothは登録商標)などを用いて行う通信である。近距離通信部102のそれぞれは、端末装置60と近距離通信を行った時刻を記録する。
 近距離通信部102は、従業員のそれぞれが備える(携帯する)端末装置60と通信する。端末装置60は、例えば、スマートフォンである。
 次に、本発明の第四の実施形態による動線判定システム1の処理について説明する。
 ここでは、図14に示す本発明の第四の実施形態による動線判定システム1の処理フローについて説明する。
 動線判定システム1が図12で示した構成を有することを前提とする。映像取得システム10が図13で示した構成を有することを前提とする。動線情報生成装置20図3で示した構成を有することを前提とする。動線判定装置30が図4で示した構成を有することを前提とする。
 動線判定システム1は、ステップS1の処理を行う。
 また、動線判定システム1のステップS1の処理と並行して、近距離通信部102のそれぞれは、端末装置60と近距離通信を行う(ステップS14)。
 近距離通信部102のそれぞれは、端末装置60と近距離通信を行った時刻を記録する(ステップS15)。
 動線判定システム1は、ステップS2~ステップS5の処理を行う。
 動線情報取得部301は、取得した移動対象それぞれの動線情報を第一移動対象検出部302と動線情報分類部303とに送信する。
 第一移動対象検出部302と動線情報分類部303は、動線情報取得部301から移動対象それぞれの動線情報を受信する。
 第一移動対象検出部302は、映像取得システム10から近距離通信部102が端末装置60と近距離通信を行った時刻と、近距離通信部102の位置情報とを取得する(ステップS16)。
 第一移動対象検出部302は、第一分類に属する従業員(第一移動対象)の動線情報を検出する(ステップS17)。
 具体的には、第一移動対象検出部302は、近距離通信部102が端末装置60と近距離通信を行った時刻と、近距離通信部102の位置情報とから、従業員の位置と時刻との対応関係を特定する。ここでの位置と時刻との対応関係は、所定の位置を通過した時刻、所定の位置に滞留した滞留時間を含む。また、第一移動対象検出部302は、動線情報取得部301から受信した複数の動線情報のそれぞれに対して位置と時刻との対応関係を特定する。第一移動対象検出部302は、動線情報取得部301から受信した複数の動線情報のそれぞれに対する位置と時刻との対応関係と、従業員の位置と時刻との対応関係とを比較する。第一移動対象検出部302は、従業員の位置と時刻との対応関係に判定誤差の範囲内で一致する対応関係を含む動線情報取得部301から受信した動線情報を従業員の動線情報と特定する。
 例えば、第一移動対象検出部302は、同一の商品棚に所定時間以上滞留することを示す動線情報を従業員の動線情報と特定する。この理由は、同一の商品棚に所定時間以上滞留する人物は、商品を陳列する作業を行っている可能性が高いという判定に基づく。よって、第一移動対象検出部302は、複数の動線のうち、(少なくとも一部が所定領域(所定位置)に含まれている動線であってかつ)所定領域における滞留時間が所定時間(例えば、1分間)以上であることを示す動線が、従業員の動線であると判定してもよい。第一移動対象検出部302は、従業員の位置と時刻との対応関係に基づいて従業員が所定時間以上滞留した位置を判定し、その判定された位置を所定領域に設定してもよい。
 第一移動対象検出部302は、判定した従業員の動線情報を動線情報分類部303に送信する。
 動線情報分類部303は、第一移動対象検出部302から従業員の動線情報を受信する。
 動線判定システム1は、ステップS7の処理を行う。
 従業員の位置と時刻との対応関係を特定する手段として、近距離通信部102の代わりに、GPS(Global Positioning System)、UWB(Ultra WideBand)、音波、IMES(Indoor MEssaging System)、PDR(Pedestrian Dead Reckoning)などを用いて位置と時刻を特定する装置を使用してもよい。
 以上、本発明の第四の実施形態による動線判定システム1の処理フローについて説明した。上述の本発明の第四の実施形態による動線判定システム1は、映像取得システム10と、動線情報生成装置20と、動線判定装置30と、端末装置60と、を備える。映像取得システム10は、近距離通信部102a~102jを備える。近距離通信部102のそれぞれは、スーパーマーケットやコンビニエンスストアなどの空間Rにおける会計領域、バックヤード、商品棚など、従業員しか通過しない、または、顧客に比べて従業員が長時間滞在する可能性の高い場所に設けられている。近距離通信部102のそれぞれは、端末装置60と近距離通信を行う。近距離通信部102のそれぞれは、端末装置60と近距離通信を行った時刻を記録する。第一移動対象検出部302は、映像取得システム10から近距離通信部102が端末装置60と近距離通信を行った時刻と、近距離通信部102の位置情報とを取得する。第一移動対象検出部302は、第一分類に属する従業員(第一移動対象)の動線情報を検出する。具体的には、第一移動対象検出部302は、近距離通信部102が端末装置60と近距離通信を行った時刻と、近距離通信部102の位置情報とから、従業員の位置と時刻との対応関係を特定する。また、第一移動対象検出部302は、動線情報取得部301から受信した複数の動線情報のそれぞれに対して位置と時刻との対応関係を特定する。第一移動対象検出部302は、動線情報取得部301から受信した複数の動線情報のそれぞれに対する位置と時刻との対応関係と、従業員の位置と時刻との対応関係とを比較する。第一移動対象検出部302は、従業員の位置と時刻との対応関係に判定誤差の範囲内で一致する対応関係を含む動線情報取得部301から受信した動線情報を従業員の動線情報と特定する。
 このようにすれば、動線判定システム1は、従業員の位置と時刻との対応関係に基づいて領域における顧客の動線情報と従業員の動線情報とをより区別することができ、顧客の動線情報のみを特定することができる。その結果、動線判定システム1は、顧客に特別な行為を強いることなく領域における顧客の動線の分析をより高精度で行うことができる。
<第五の実施形態>
 本発明の第五の実施形態による動線判定システム1の構成について説明する。
 本発明の第五の実施形態による動線判定システム1は、本発明の第一の実施形態による動線判定システム1と同様に、映像取得システム10と、動線情報生成装置20と、動線判定装置30と、を備える。
 動線判定装置30は、図15に示すように、動線情報取得部301と、第一移動対象検出部302と、動線情報分類部303と、動線情報出力部304と、サービス情報出力部305と、を備える。
 動線情報出力部304は、顧客の動線情報のうち所定の動線に対応すると判定した動線情報を出力する。
 サービス情報出力部305は、動線情報出力部304の出力した動線情報の軌跡上を移動した顧客に対するサービス情報を出力する。サービス情報は、例えば、特売日の情報やその軌跡上の商品に関連する割引クーポンの情報などである。
 次に、本発明の第五の実施形態による動線判定システム1の処理について説明する。
 ここでは、図16に示す本発明の第五の実施形態による動線判定システム1の処理フローについて説明する。
 なお、動線判定システム1が図1で示した構成を有することを前提とする。映像取得システム10が図12で示した構成を有することを前提とする。動線情報生成装置20が図3で示した構成を有することを前提とする。動線判定装置30が図15で示した構成を有することを前提とする。
 動線判定システム1は、ステップS1~ステップS7の処理を行う。
 動線情報出力部304は、顧客の動線情報のうち所定の動線に対応すると判定した動線情報を出力する(ステップS18)。
 例えば、動線情報出力部304は、記憶部から予め定めた所定の動線を示す所定の動線情報を読み出す。動線情報出力部304は、読み出した所定の動線情報と、顧客の動線情報のそれぞれとを比較する。動線情報出力部304は、顧客の動線情報のうち読み出した所定の動線情報と判定誤差の範囲内で一致すると判定した場合、その顧客の動線情報を所定の動線に対応すると判定する。そして、動線情報出力部304は、動線情報をモニタなどに出力する。このとき、動線情報出力部304は、動線情報と共に顧客の映像をモニタに同時に表示してもよい。
 サービス情報出力部305は、動線情報出力部304の出力した動線情報の軌跡上を移動した顧客に対してサービス情報を出力する。サービス情報は、例えば、特売日の情報やその軌跡上の商品に関連する割引クーポンの情報などである。
 なお、サービス情報は、従業員がモニタなどに表示された顧客を見て、手渡しや郵送などで提供してもよい。
 以上、本発明の第五の実施形態による動線判定システム1の処理フローについて説明した。上述の本発明の第五の実施形態による動線判定システム1は、映像取得システム10と、動線情報生成装置20と、動線判定装置30と、を備える。動線判定装置30は、動線情報取得部301と、第一移動対象検出部302と、動線情報分類部303と、動線情報出力部304と、サービス情報出力部305と、を備える。動線情報出力部304は、顧客の動線情報のうち所定の動線に対応すると判定した動線情報を出力する。サービス情報出力部305は、動線情報出力部304の出力した動線情報の軌跡上を移動した顧客に対するサービス情報を出力する。
 このようにすれば、動線判定システム1は、顧客の趣味趣向に応じたサービス情報を提供することができる。
 本発明の実施形態に係る動線判定装置30の構成について説明する。
 動線判定装置30は、図17に示すように、動線情報取得部301と、判定部302と、を備える。
 動線情報取得部301は、対象の動線を取得する。
 判定部302は、対象の動線のうち、動線の少なくとも一部が所定領域に含まれている動線を、第1分類に属する人物の動線と判定する。
 このようにすれば、動線判定装置30は、第1分類に属する人物(例えば、従業員)の動線情報を判定することができ、第1分類に属する人物の動線情報を顧客の動線情報と区別することができる。その結果、動線判定装置30は、顧客に特別な行為を強いることなく領域における顧客の動線の分析をより高精度で行うことができる。
 本発明の実施形態に係る動線判定システム1の構成について説明する。
 動線判定システム1は、図18に示すように、撮像部101と、動線生成部201と、判定部302と、を備える。
 撮像部101は、撮影して画像を取得する。
 動線生成部201は、撮像部101が取得した画像に含まれる対象の動線を生成する。
 判定部302は、動線生成部201から取得した対象の動線のうち、動線の少なくとも一部が所定領域に含まれている動線を、第1分類に属する人物の動線と判定する。
 このようにすれば、動線判定システム1は、第1分類に属する人物(例えば、従業員)の動線情報を判定することができ、第1分類に属する人物の動線情報を顧客の動線情報と区別することができる。その結果、動線判定装置30は、顧客に特別な行為を強いることなく領域における顧客の動線の分析をより高精度で行うことができる。
 本発明の実施形態による動線判定装置30は、動線情報生成装置20の機能部の一部または全部を含んでいてもよい。
 本発明の実施形態における処理フローは、適切な処理が行われる範囲において、処理の順番が入れ替わってもよい。
 本発明の実施形態における記憶部202、その他の記憶部のそれぞれは、適切な情報の送受信が行われる範囲においてどこに備えられていてもよい。また、記憶部202、その他の記憶部のそれぞれは、適切な情報の送受信が行われる範囲において複数存在しデータを分散して記憶していてもよい。
 本発明の実施形態について説明した。上述の映像取得システム10、動線情報生成装置20、動線判定装置30、内部属性取得システム40、外部属性取得システム50、端末装置60のそれぞれは内部に、コンピュータシステムを有していてもよい。そして、上述した処理の過程は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータが読み出して実行することによって、上記処理が行われる。ここでコンピュータ読み取り可能な記録媒体とは、磁気ディスク、光磁気ディスク、CD-ROM、DVD-ROM、半導体メモリ等をいう。また、このコンピュータプログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータがそのプログラムを実行するようにしてもよい。
 また、上記プログラムは、前述した機能の一部を実現してもよい。さらに、上記プログラムは、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるファイル、いわゆる差分ファイル(差分プログラム)であってもよい。
 本発明のいくつかの実施形態を説明したが、これらの実施形態は、例であり、発明の範囲を限定しない。これらの実施形態は、発明の要旨を逸脱しない範囲で、追加、種々の省略、置き換え、変更を行ってよい。
 この出願は、2016年3月23日に出願された日本国特願2016-059142を基礎とする優先権を主張し、その開示の全てをここに取り込む。
 本発明は、動線判定装置、動線判定システム、動線判定方法及びプログラムに適用してもよい。
1・・・動線判定システム
10・・・映像取得システム
20・・・動線情報生成装置
30・・・動線判定装置
40・・・内部属性取得システム
50・・・外部属性取得システム
60・・・端末装置
101、101a~101i・・・映像取得部
102、102a~102j・・・近距離通信部
201・・・動線情報生成部
202・・・記憶部
203・・・属性抽出部
204・・・対応付部
205・・・属性取得部
301・・・動線情報取得部
302・・・第一移動対象検出部、判定部
303・・・動線情報分類部
304・・・動線情報出力部
305・・・サービス情報出力部

Claims (9)

  1.  複数の動線を取得する動線情報取得部と、
     前記複数の動線のうち、少なくとも一部が所定領域に含まれている動線が、第1分類に属する人物の動線であると判定する判定部と、
     を備える動線判定装置。
  2.  前記判定部は、前記複数の動線のうち、前記第1分類に属する人物の動線以外の動線が、前記第1分類とは異なる第2分類に属する人物の動線であると判定する、
     請求項1に記載の動線判定装置。
  3.  前記判定部は、前記複数の動線のうち、所定時刻に前記所定領域に存在していたことを示す動線が、前記第1分類に属する人物の動線であると判定する、
     請求項1または請求項2に記載の動線判定装置。
  4.  前記所定領域は、携帯端末の存在していた位置であり、
     前記所定時刻は、前記位置に前記携帯端末が存在していた時刻である、
     請求項3に記載の動線判定装置。
  5.  前記所定領域は複数の領域を含み、
     前記判定部は、前記複数の動線のうち、少なくとも一部が前記複数の領域のいずれに含まれている動線が、前記第1分類に属する人物の動線であると判定する、
     請求項1から請求項4の何れか一項に記載の動線判定装置。
  6.  前記判定部は、前記複数の動線のうち、前記所定領域における滞留時間が所定時間以上である動線が、前記第1分類に属する人物の動線であると判定する
     請求項1から請求項5の何れか一項に記載の動線判定装置。
  7.  複数の動線を取得することと、
     前記複数の動線のうち、少なくとも一部が所定領域に含まれている動線が、第1分類に属する人物の動線であると判定することと、
     を含む動線判定方法。
  8.  コンピュータに、
     複数の動線を取得することと、
     前記複数の動線の動線のうち、少なくとも一部が所定領域に含まれている動線が、第1分類に属する人物の動線であると判定することと、
     を実行させるプログラム。
  9.  撮影を行って画像を取得する撮像部と、
     前記画像に基づいて、複数の動線を生成する動線生成部と、
     前記生成された複数のうち、少なくとも一部が所定領域に含まれている動線が、第1分類に属する人物の動線であると判定する判定部と、
     を備える動線判定システム。
PCT/JP2017/011602 2016-03-23 2017-03-23 動線判定装置、動線判定システム、動線判定方法及びプログラム WO2017164272A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/999,623 US20210209615A1 (en) 2016-03-23 2017-03-23 Traffic flow determination device, traffic flow determination system, traffic flow determination method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016059142A JP7160430B2 (ja) 2016-03-23 2016-03-23 動線判定装置、動線判定システム、動線判定方法及びプログラム
JP2016-059142 2016-03-23

Publications (1)

Publication Number Publication Date
WO2017164272A1 true WO2017164272A1 (ja) 2017-09-28

Family

ID=59900299

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/011602 WO2017164272A1 (ja) 2016-03-23 2017-03-23 動線判定装置、動線判定システム、動線判定方法及びプログラム

Country Status (3)

Country Link
US (1) US20210209615A1 (ja)
JP (3) JP7160430B2 (ja)
WO (1) WO2017164272A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230120579A1 (en) * 2018-08-09 2023-04-20 Capital One Services, Llc Systems and methods using facial recognition for detecting previous visits of a plurality of individuals at a location

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7373187B2 (ja) * 2019-09-19 2023-11-02 株式会社Local24 動線分析システム、および、動線分析方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011086045A (ja) * 2009-10-14 2011-04-28 Giken Torasutemu Kk 店員顧客分離集計装置
JP5679086B1 (ja) * 2014-10-07 2015-03-04 富士ゼロックス株式会社 情報処理装置及び情報処理プログラム
WO2015140853A1 (ja) * 2014-03-20 2015-09-24 日本電気株式会社 Pos端末装置、posシステム、商品認識方法及びプログラムが格納された非一時的なコンピュータ可読媒体

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08242987A (ja) * 1995-03-08 1996-09-24 Sanyo Electric Co Ltd 店内レイアウト評価装置
US6837436B2 (en) * 1996-09-05 2005-01-04 Symbol Technologies, Inc. Consumer interactive shopping system
JP2000200357A (ja) * 1998-10-27 2000-07-18 Toshiba Tec Corp 人物動線情報の収集方法及び収集装置
US20090231436A1 (en) * 2001-04-19 2009-09-17 Faltesek Anthony E Method and apparatus for tracking with identification
US9355530B1 (en) * 2002-03-18 2016-05-31 Diebold Self-Service Systems Division Of Diebold, Incorporated Processing automated banking transactions requiring approval
US8010402B1 (en) * 2002-08-12 2011-08-30 Videomining Corporation Method for augmenting transaction data with visually extracted demographics of people using computer vision
US20060010027A1 (en) * 2004-07-09 2006-01-12 Redman Paul J Method, system and program product for measuring customer preferences and needs with traffic pattern analysis
US7957565B1 (en) * 2007-04-05 2011-06-07 Videomining Corporation Method and system for recognizing employees in a physical space based on automatic behavior analysis
JP3142791U (ja) * 2008-04-15 2008-06-26 シーアイ化成株式会社 化粧板及びサービスカウンター
US8009863B1 (en) * 2008-06-30 2011-08-30 Videomining Corporation Method and system for analyzing shopping behavior using multiple sensor tracking
JP4753193B2 (ja) * 2008-07-31 2011-08-24 九州日本電気ソフトウェア株式会社 動線管理システムおよびプログラム
JP5622629B2 (ja) * 2011-03-24 2014-11-12 三菱電機インフォメーションテクノロジー株式会社 情報処理システム及びプログラム
JP6120404B2 (ja) 2013-05-28 2017-04-26 Kddi株式会社 移動体行動分析・予測装置
JP5811295B1 (ja) * 2015-02-12 2015-11-11 日本電気株式会社 精算処理ユニット集合体及び精算処理ユニット集合体用の架台
JP2015133131A (ja) * 2015-02-27 2015-07-23 株式会社野村総合研究所 販売機会損失分析用データ出力システム及び方法
JP6366529B2 (ja) * 2015-03-20 2018-08-01 株式会社日立ソリューションズ 動線処理システム及び動線処理方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011086045A (ja) * 2009-10-14 2011-04-28 Giken Torasutemu Kk 店員顧客分離集計装置
WO2015140853A1 (ja) * 2014-03-20 2015-09-24 日本電気株式会社 Pos端末装置、posシステム、商品認識方法及びプログラムが格納された非一時的なコンピュータ可読媒体
JP5679086B1 (ja) * 2014-10-07 2015-03-04 富士ゼロックス株式会社 情報処理装置及び情報処理プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230120579A1 (en) * 2018-08-09 2023-04-20 Capital One Services, Llc Systems and methods using facial recognition for detecting previous visits of a plurality of individuals at a location

Also Published As

Publication number Publication date
JP7160430B2 (ja) 2022-10-25
US20210209615A1 (en) 2021-07-08
JP2023153340A (ja) 2023-10-17
JP2021185533A (ja) 2021-12-09
JP2017174135A (ja) 2017-09-28

Similar Documents

Publication Publication Date Title
JP2023153340A (ja) 動線判定装置、動線判定システム、動線判定方法及びプログラム
US9418352B2 (en) Image-augmented inventory management and wayfinding
JP5704279B1 (ja) 関連付プログラム及び情報処理装置
US20170068945A1 (en) Pos terminal apparatus, pos system, commodity recognition method, and non-transitory computer readable medium storing program
US20200334454A1 (en) People stream analysis method, people stream analysis apparatus, and people stream analysis system
JP2019109751A (ja) 情報処理装置、システム、情報処理装置の制御方法、及び、プログラム
JPWO2014148395A1 (ja) 映像監視システム、映像監視方法、および映像監視装置
JP2009003701A (ja) 情報システム及び情報処理装置
JP2004348618A (ja) 顧客情報収集管理方法及びそのシステム
US20190066169A1 (en) Tracking of members within a group
WO2016151643A1 (ja) 接客モニタリング装置、接客モニタリングシステムおよび接客モニタリング方法
JP5780348B1 (ja) 情報提示プログラム及び情報処理装置
JP2013084182A (ja) 情報処理装置およびプログラム
US11216651B2 (en) Information processing device and reporting method
JP2019036349A (ja) 販売促進装置、販売促進システム、店舗システム、システム、販売促進方法及びプログラム
US20160189170A1 (en) Recognizing Customers Requiring Assistance
JP2018194901A (ja) 顧客分析システム
US20230360098A1 (en) Methods and systems for providing information about a location with image analysis
US20210090135A1 (en) Commodity information notifying system, commodity information notifying method, and program
US20190122231A1 (en) Container, non-transitory computer-readable storage medium for storing program, and customer management method
JP2016081498A (ja) 関連付プログラム及び情報処理装置
JP7315046B2 (ja) セルフレジシステム、購入商品管理方法および購入商品管理プログラム
US20220269890A1 (en) Method and system for visual analysis and assessment of customer interaction at a scene
US11574294B2 (en) Information processing method, information processing device, and recording medium
US9842276B2 (en) System and method for analyzing personalized characteristics

Legal Events

Date Code Title Description
NENP Non-entry into the national phase

Ref country code: DE

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17770312

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 17770312

Country of ref document: EP

Kind code of ref document: A1