WO2023170949A1 - 情報処理装置、情報処理方法 - Google Patents

情報処理装置、情報処理方法 Download PDF

Info

Publication number
WO2023170949A1
WO2023170949A1 PCT/JP2022/011004 JP2022011004W WO2023170949A1 WO 2023170949 A1 WO2023170949 A1 WO 2023170949A1 JP 2022011004 W JP2022011004 W JP 2022011004W WO 2023170949 A1 WO2023170949 A1 WO 2023170949A1
Authority
WO
WIPO (PCT)
Prior art keywords
person
information
tracking
content
behavior
Prior art date
Application number
PCT/JP2022/011004
Other languages
English (en)
French (fr)
Inventor
功 高橋
Original Assignee
シャープNecディスプレイソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャープNecディスプレイソリューションズ株式会社 filed Critical シャープNecディスプレイソリューションズ株式会社
Priority to PCT/JP2022/011004 priority Critical patent/WO2023170949A1/ja
Publication of WO2023170949A1 publication Critical patent/WO2023170949A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising

Definitions

  • the present invention relates to an information processing device and an information processing method.
  • Measuring the effectiveness of display advertising by determining whether or not people are viewing advertisements displayed on displays such as digital signage, and tracking the face of the person viewing the advertisement when viewing the advertisement.
  • a system that does this (for example, see Patent Document 1).
  • a shelf system that performs effective promotions according to customers' actions toward products (for example, Patent Document 2).
  • This system can encourage customers to purchase products by analyzing images from cameras attached to signage systems and signage displays and displaying advertisements tailored to the customer.
  • the present invention provides an information processing device and an information processing method that prevents the degree of use of information related to an individual person from becoming too high and grasps the behavior of a person.
  • one aspect of the present disclosure is to detect at least the subsequent position of a person within a range where the content can be viewed during a period in which the content is displayed on a display device.
  • a tracking unit that tracks a person
  • a behavior detection unit that detects the behavior of the person related to the content
  • visibility opportunity information that is information that corresponds to the fact that the person was in the range during the period
  • a storage unit that stores the information in association with each other based on the tracking result of the tracking unit without being associated with person identification information that is information that can identify the person.
  • one aspect of the present disclosure is to track the person by detecting at least the subsequent position of the person who is within a range where the content can be viewed during a period when the content is displayed on the display device, and Detecting the behavior of the person related to the person, and associating the behavior with visibility opportunity information, which is information corresponding to the person being in the range during the period, based on the tracked result,
  • This is an information processing method in which a person is stored in a storage unit without being associated with person identification information, which is information that can be identified.
  • FIG. 1 is a schematic configuration diagram illustrating the configuration of a content display system S.
  • FIG. 3 is a schematic block diagram illustrating the functions of an information processing device 30.
  • FIG. 3 is a diagram illustrating an example of measurement information stored in a storage unit 304.
  • FIG. It is a flowchart explaining the operation of the content display system S.
  • 2 is a conceptual diagram illustrating the flow of processing of the content display system S.
  • FIG. It is a schematic block diagram explaining the structure of content display system Sa in other embodiments.
  • It is a schematic block diagram showing the composition of information processing device 30a in other embodiments.
  • the operation of the content display system S in another embodiment will now be described. It is a schematic block diagram explaining the function of information processing device 30b in other embodiments.
  • FIG. 1 is a schematic configuration diagram illustrating the configuration of a content display system S in the present disclosure.
  • a signage device 10 a plurality of cameras (camera 20a, camera 20b, camera 20c), an information processing device 30, and a cash register terminal 40 are electrically connected via a communication cable.
  • the signage device 10, camera 20a, camera 20b, and camera 20c are installed in an area where the viewing effect of content is to be measured, and are installed, for example, in a shopping mall, a store, a public facility, or the like.
  • the signage device 10 is provided near the entrance of the store (for example, outside the entrance) at a position where the content displayed on the signage device 10 can be viewed from outside the store.
  • the signage device 10 includes a camera 11, a display section 12, and a control section 13.
  • the signage device displays content on the display unit 12.
  • the content may be either a still image or a moving image.
  • the content may be, for example, any of advertisements, notices, guidance, news, and the like.
  • a case where the content is an advertisement regarding a product of a store where the signage device 10 is installed will be described as an example.
  • the camera 11 is provided above the display unit 12 in the signage device 10 and images an area including a visible area of the display screen of the display unit 12 of the signage device 10. For example, the camera 11 images an area on the front side of the display unit 12. This area is an area through which people can pass and where they can stop. In this figure, the camera 11 can image a person PS who is on the entire surface side of the display section 12.
  • the camera 11 has a function of continuously capturing video at an arbitrary frame rate, and a function of outputting a captured image as a result of the capturing.
  • the display unit 12 displays content.
  • the display unit 12 is, for example, a liquid crystal panel.
  • the display unit 12 displays an image according to the content by driving each pixel element according to a drive signal supplied from a drive control circuit provided in the signage device 10.
  • the control unit 13 estimates attributes based on the person's appearance.
  • the attributes include the person's age, gender, and the like.
  • the signage device 10 causes the display unit 12 to display content according to the estimated attributes. Further, the control unit 13 transmits the estimated attributes to the information processing device 30 as attribute information.
  • Camera 20a, camera 20b, and camera 20c are provided at different positions on the ceiling of the store. At least one of these cameras 20a, 20b, and 20c may be provided on a wall or the like instead of on the ceiling.
  • images of the person are taken from the ceiling toward the floor (from above to below). Therefore, although the top of a person's head is imaged, the face is not imaged or is imaged from an oblique direction, so that the person's face is not imaged as much as possible. Therefore, it is possible to reduce the possibility of acquiring private information.
  • the camera 20a is provided on the ceiling above the signage device 10 and images the surrounding area including the signage device 10. If there is a person in front of the signage device 10, the camera 20a can take an image of the person.
  • the camera 20b is installed at any position in the flow line (route) between the signage device 10 and the position where the camera 20c is installed in the facility, and images a person moving along this flow line. be able to.
  • the camera 20c is provided at a different position from the cameras 20a and 20c.
  • the camera 20c is installed on the ceiling above the checkout counter in a store within the facility.
  • the camera 20c can take an image of a person paying at a cash register in a store.
  • the information processing device 30 has a function of tracking a person imaged by a camera, a function of measuring the effectiveness of content displayed on the signage device 10, and the like.
  • the cash register terminal 40 is, for example, a POS (point of sales system) terminal, and when a payment is made for a registered product at the cash register terminal 40, information indicating the determined product, price, sales date and time is sent as sales information. etc., and transmits it to the information processing device 30.
  • POS point of sales system
  • FIG. 2 is a schematic block diagram illustrating the functions of the information processing device 30.
  • the information processing device 30 includes a communication section 301 , a tracking section 302 , an action detection section 303 , a storage section 304 , and a writing processing section 305 .
  • the communication unit 301 is communicably connected to the camera 20a, camera 20b, camera 20c, and signage device 10 by wire or wirelessly.
  • the communication unit 301 receives captured images from the camera 20a, camera 20b, camera 20c, and camera 11.
  • the tracking unit 302 tracks the position of the person imaged by the camera 11 or the camera 20a based on images obtained from other cameras. This tracking is the movement of a person along a route from the vicinity of the position where the signage device 10 is installed to the area imaged by the camera 20c. For example, tracking is from the time a user enters a store through the entrance in response to viewing the content until an action such as purchasing a product is performed. Note that tracking ends when the person enters the store but leaves the store without making a purchase.
  • the tracking unit 302 tracks a person by detecting at least the subsequent position of the person who is within a visible range of the content during a period in which the content is displayed on the display device. By detecting the position of the person and tracking the position, the tracking unit 302 can track the person without associating the person with person identification information that is information that can identify the person.
  • the person identification information is information that can identify a person, and is, for example, a facial image of a person, or a feature quantity that is a numerical representation of a feature that can identify a person's face. A person who is within a range where the content can be viewed during the period when the content is displayed on the display device can be considered to have viewed the content.
  • the tracking unit 302 performs identification processing to determine whether or not the persons imaged by different cameras are the same person.
  • This identification process includes a first identification process that is an identification process based on the position of the person, a second identification process that is an identification process based on the feature amount of the person, and a third identification process that is an identification process based on the attributes of the person. There is.
  • the tracking unit 302 performs at least one of a first identification process, a second identification process, and a third identification process.
  • the behavior detection unit 303 detects a person's behavior related to the content.
  • the action related to this content may be any action that is related to the content, for example, any action that occurs as a result of viewing the content. More specifically, if the content is an advertisement for a product, the action of holding and examining the actual product, purchasing the product, application procedure for purchasing the product, and payment for providing services related to the advertisement content. etc.
  • the behavior detection unit 303 detects as a behavior when any one of purchasing, applying for, or paying for a product or service related to the content is performed.
  • the behavior detection unit 303 can detect from the location information that the person was in the vicinity of the cash register terminal 40 at the time when the payment process was performed at the cash register terminal 40, It can be determined that the person made the purchase or payment.
  • the behavior detection unit 303 determines that the application has been made, if it can be detected from the location information that the person was in the vicinity of the cash register terminal 40 at the time when the application details were input from the store terminal. It can be determined that the person has applied.
  • the application may be an application for services, an application for ordering a product, an application for registering as a store member, or the like.
  • the behavior detection unit 303 detects the behavior of a person in a location different from the area (range) where content can be viewed by the signage device 10.
  • the different location is, for example, a checkout counter, and the behavior detection unit 303 detects actions such as purchase, application, payment, etc. at the checkout counter.
  • the storage unit 304 adds viewing opportunity information and behavior, which is information corresponding to the fact that the person was within the viewing range of the content during the viewing period of the content on the signage device 10, to the tracking result of the tracking unit 302. It is stored without being associated with person identification information.
  • the storage unit 304 stores visibility opportunity information and actions in association with each other based on the location where the purchase, application, or payment was made and the tracking results.
  • FIG. 3 is a diagram showing an example of measurement information stored in the storage unit 304.
  • the measurement information is data in which visibility opportunity information and behavior information are associated.
  • the viewing opportunity information may be any information that indicates that the content was within a visible range when the content was played.Here, as an example, the viewing opportunity information may be information indicating that the content was within a visible range when the content was played back.
  • Content identification information to be identified is stored as viewing opportunity information. In FIG. 3, "content A" is stored as visibility opportunity information and "payment” is stored as behavior information, and a person who was in the vicinity of the signage device 10 when content A was played back purchased a product related to the content. This indicates that you have paid for the purchase.
  • the storage unit 304 stores visual recognition opportunity information and behavior information without being associated with person identification information that can identify an individual, such as an image of a person.
  • the writing processing unit 305 uses the tracking unit 302 to track viewing opportunity information and behavior information, which are information that corresponds to the fact that the person was within the viewing range of the content during the viewing period of the content on the signage device 10. Based on the results, the information is associated and written into the storage unit 304 without being associated with person identification information.
  • the writing processing unit 305 writes information to the storage unit 304, but does not write information about a person's face image or the feature amount obtained from the person's face image. Therefore, various types of information are stored without being associated with person identification information.
  • a person is imaged by the camera 11, camera 20a, camera 20b, and camera 20c, and the captured image is used, but the captured image is not stored in the storage unit 304.
  • FIG. 4 is a flowchart explaining the operation of the content display system S
  • FIG. 5 is a conceptual diagram explaining the process flow of the content display system S.
  • the camera 20a images an area including the person who has entered the store, and transmits the captured image to the information processing device 30.
  • the information processing device 30 determines whether or not a person is included in the captured image, and if a person is included, detects the position of the person from the captured image.
  • the tracking unit 302 starts tracking processing (tracking) for the extracted position of the person (FIG. 4: Step S201, FIG. 5: S231).
  • tracking information is generated in which information indicating an area where a person has been extracted from a captured image obtained from the camera 20a is associated with information indicating that the person is a tracking target.
  • the tracking unit 302 collects data such as the center coordinates of the area corresponding to the person, the coordinates of the person's feet, and the outline corresponding to the person in the image in which the person is captured. This is used to track a person by adding data indicating that the content has been viewed to the data indicating that the person is being tracked. This makes it possible to track the position of a person without associating it with information that specifies who the person is (person identification information).
  • the signage device 10 When a person entering the store approaches the display unit 12 of the signage device 10 (FIG. 4: Step S102), the signage device 10 images the person with the camera 11 and determines the person's attributes by estimating the person's attributes from the captured image. (FIG. 4: Step S301), and displays content according to the determined attribute on the display unit 12 (FIG. 4: Step S302).
  • this content is an advertisement that introduces recommended products to be recommended to consumers with determined attributes.
  • the control unit 13 of the signage device 10 detects that only one person exists in the vicinity of the signage device 10, the control unit 13 determines the attribute of that person. On the other hand, if there are multiple people near the signage device 10, the control unit 13 extracts the person closest to the signage device 10 and determines the attributes of that person (FIG. 5: Step S331 ). By determining the attributes of the person closest to the person, it is possible to obtain the attributes of the person who is estimated to have viewed the content displayed on the display unit 12 of the signage device 10. In this case, it is possible to estimate which person among the plurality of people is viewing the content through simple processing. When the content is displayed on the display unit 12, the person views the content (FIG. 4: Step S103).
  • the camera 11 of the signage device 10 continues to image the person, detects the position of the person included in the captured image, and determines whether the person is viewing the content (FIG. 4: Step S303). If it is determined that the person is viewing the content, the control unit 13 of the signage device 10 performs information processing on the viewing opportunity information indicating that the person is viewing the content, the attribute information determined in step S301, and the captured image. The information is transmitted to the device 30.
  • the information processing device 30 When the information processing device 30 receives the visibility opportunity information, the attribute information, and the captured image transmitted from the signage device 10, the information processing device 30 performs tracking on the person included in the captured image and the person imaged by the camera 20a. Performs identification processing with the target person. By performing the identification process, the tracking unit 302 associates the visibility opportunity information and the attribute information with the tracking information based on the captured image obtained from the camera 20a (FIG. 4: Step S304), and continues tracking. (FIG. 4: Step S202). As a result, when it is detected that a person has viewed the advertisement displayed on the signage device 10, the attribute information generated in the signage device 10 is added to the tracking information for the captured image obtained from the camera that imaged the person who viewed the advertisement.
  • attribute information indicates a person's age, gender, etc., but since it is not possible to identify a person based on attribute information alone, tracking processing can be performed using information that makes it difficult to identify a person. .
  • attribute information used to determine the content to be displayed in the signage device 10 can be held and finally stored in the storage unit 304, the attributes of the target who actually displayed the content and the behavior can be You can understand relationships.
  • the tracking unit 302 performs a first identification process that performs an identification process based on the position of the person. That is, the camera 11 and camera 20a of the signage device 10 are capable of identifying the position of a person. For example, if it is determined that the size of the person's face imaged by the camera 11 and the size of the person's face imaged by the camera 20a are the same size (or almost the same size), the camera 11 It is possible to identify that the photographed person and the person photographed by the camera 20a are the same person.
  • Another method is to provide two cameras 11 of the signage device 10 and use them as stereo cameras, and based on the captured images obtained from these two cameras, the signage device 10 can determine the position of the person on a plane. Find position information that indicates depth. Then, a method may be used in which the coordinates of the person included in the captured image obtained from the camera 20a on a plane are determined, and the position of the person is identified by comparing the coordinates with the position information.
  • the signage device 10 is provided with a depth sensor in addition to the camera 11, and the distance to the person is measured by measuring the depth direction starting from the signage device 10.
  • the location and distance to the person may be obtained as location information.
  • a method may be used in which the coordinates of the person included in the captured image obtained from the camera 20a on a plane are determined, and the position of the person is identified by comparing the coordinates with the position information.
  • the tracking unit 302 may perform a second identification process that performs an identification process based on the feature amount of the person.
  • the tracking unit 302 uses a first feature amount of a person included in a first image captured by a first camera that captures a viewable range of content displayed on a display device, and a second feature amount that captures an area to be tracked. It has a function as a feature amount acquisition unit that obtains a second feature amount of the person included in the second image captured by the camera. Using the function of the feature value acquisition unit, the tracking unit 302 tracks the person for whom the second feature value corresponding to the first feature value has been obtained.
  • the tracking unit 302 determines that there is a correspondence relationship if the degree of similarity between the first feature amount and the second feature amount is a certain level or more. You may judge.
  • a plurality of second cameras may be installed at different positions.
  • the tracking unit 302 calculates the feature amount of the person included in the image captured by one second camera (third feature amount) and the feature amount of the person included in the image captured by the other second camera.
  • a feature quantity (fourth feature quantity) is acquired, and a person for whom a fourth feature quantity corresponding to the third feature quantity is obtained is tracked.
  • the tracking unit 302 can track the person even if the person moves between the imaging ranges of the respective second cameras.
  • the tracking unit 302 determines that there is a correspondence relationship if the degree of similarity between the first feature amount and the second feature amount is a certain level or more. You may judge.
  • the tracking unit 302 may perform a third identification process that performs an identification process based on a person's attributes.
  • the tracking unit 302 uses a first attribute estimated for a person included in an image captured in an area including a range where content can be visually recognized, and a second attribute estimated for a person included in an image captured in an area to be tracked. It may also have a function as an attribute acquisition unit that acquires attributes. Using the function of the attribute acquisition unit, the tracking unit 302 tracks the person for whom the second attribute corresponding to the first attribute has been obtained. Regarding whether or not the first attribute and the second attribute have a correspondence relationship, the tracking unit 302 may determine that there is a correspondence relationship when the first attribute and the second attribute match. Further, the tracking unit 302 may determine that there is a correspondence relationship if the degree of similarity between the first attribute and the second attribute is a certain level or more.
  • the tracking unit 302 of the information processing device 30 tracks the person whose content is to be displayed by the camera 11 (the person whose attributes are estimated by the camera 11) using the captured image obtained by the camera 20a. be able to.
  • the attribute information is associated with the tracking information, so the person is not identified, but the attribute information can be retained continuously. .
  • the person moves around the store to search for the recommended products introduced in the content (FIG. 4: Step S104).
  • the camera 20b continuously captures images and transmits the captured images to the information processing device 30.
  • the person to be tracked moves around and moves from the area imaged by the camera 20a to the area to be imaged by the camera 20b, the person to be tracked will be included in the image captured by the camera 20b.
  • the tracking unit 302 of the information processing device 30 detects that the person included in the image captured by the camera 20a is included in the image captured by the camera 20b, the tracking unit 302 sets the detected person as a tracking target and continues to hold the tracking information. do.
  • the tracking unit 302 can identify the person included in the image captured by the camera 20a and the person included in the image captured by the camera 20b. , it is possible to determine whether or not they are the same person.
  • Step S105 the camera 20c continuously captures images and transmits the captured images to the information processing device 30.
  • the person to be tracked arrives at the checkout counter and moves from the area imaged by the camera 20b to the area to be imaged by the camera 20c, the person to be tracked is included in the image captured by the camera 20c. becomes.
  • the tracking unit 302 of the information processing device 30 detects that the person included in the image captured by the camera 20b is included in the image captured by the camera 20c, the tracking unit 302 tracks the detected person as a tracking target (FIG. 4: Step S203), the tracking information is continued to be held.
  • the tracking unit 302 can identify the person included in the image captured by the camera 20b and the person included in the image captured by the camera 20c. , it is possible to determine whether or not they are the same person.
  • the behavior detection unit 303 of the information processing device 30 detects the movement of the person based on the captured image obtained from the camera 20c, and determines whether an action corresponding to payment has been performed.
  • the payment operation for example, when the time when the person to be tracked stands near the cashier counter and the sales information generated at the cashier terminal 40 match or there is a correspondence that can be considered to match, It can be determined that the payment has been made. Further, the payment operation is the operation of placing the product on the cash register counter, then taking out a credit card or the like from the wallet and making the payment. When payment is made in cash, the action of taking out cash from the wallet and handing it to the clerk may be detected as the action of making the payment.
  • the behavior detection unit 303 detects that the behavior of purchasing a recommended product has been performed.
  • the action of filling out an application form may be detected as behavioral information.
  • the cashier terminal 40 transmits the sales information to the information processing device 30 (FIG. 5: Step S431).
  • the writing processing unit 305 of the information processing device 30 receives the sales information from the cash register terminal 40 (FIG. 4: step S401), it associates the attribute information with the behavioral information, without associating it with information that can identify a person. , is written in the storage unit 304 (FIG. 4: Step S402).
  • log information is stored in which the person who viewed the content on the signage device 10 is associated with the sales information generated on the cash register terminal 40. By analyzing this log information, it is possible to understand whether a person (consumer) has purchased an advertised product related to the viewed content.
  • the tracking unit 302 ends the tracking process for the person who made the payment (FIG. 5: Step S432).
  • the tracking unit 302 deletes the retained feature amounts (first feature amount, second feature amount, third feature amount, and fourth feature amount) for the person for whom tracking has been completed.
  • the tracking unit 302 may discard the feature amount of the person by discarding the tracking information.
  • the storage unit 403 can store the visibility opportunity information and the behavior without storing the first feature amount and the second feature amount.
  • the storage unit 403 can store the visibility opportunity information and the behavior without storing the third feature amount and the fourth feature amount.
  • the tracking unit 302 deletes the attribute information (first attribute, second attribute) used for tracking for the person whose tracking has been completed.
  • the tracking unit 302 may discard the attribute information by discarding the tracking information.
  • the storage unit 403 can store the visibility opportunity information and the behavior without storing the first attribute and the second attribute.
  • FIG. 6 is a schematic configuration diagram illustrating the configuration of a content display system Sa in another embodiment.
  • a signage device 10 a plurality of cameras (camera 20a, camera 20b, camera 20d), an information processing device 30a, a cash register terminal 40, and a camera 50 are electrically connected via a communication cable.
  • the signage device 10, the plurality of cameras (camera 20a, camera 20b), and the cash register terminal 40 are the same as those of the content display system S in FIG. 1, so a description thereof will be omitted.
  • the camera 20d has the same function as the camera 20c, but determines whether or not a person is included in the captured image, and if a person is included, estimates the attributes of the person.
  • the camera 20d transmits the estimated attributes to the information processing device 30a as attribute information.
  • the process by which the camera 20d estimates an attribute is similar to the process by which the signage device 10 estimates an attribute. Therefore, the camera 20d can obtain the same attribute information as the signage device 10 for the same person.
  • FIG. 7 is a schematic block diagram showing the configuration of an information processing device 30a in another embodiment.
  • This information processing device 30a shows another form of the information processing device 30 in the content display system S described above.
  • the information processing device 30a is communicably connected to the signage device 10, the camera 20a, the camera 20b, the camera 20c, and the cash register terminal 40, similarly to the content display system S described above.
  • the information processing device 30a includes a communication section 301, a tracking section 302a, an action detection section 303, a storage section 304, and a write processing section 305a.
  • the functions of the communication unit 301, behavior detection unit 303, and storage unit 304 are the same as those of the information processing device 30, so the same reference numerals as in FIG. 2 are given, and the explanation thereof will be omitted.
  • the tracking unit 302a has the same function of tracking a person as the tracking unit 302, but while tracking a person, even if the attribute information is estimated in the signage device 10, the tracking unit 302a does not retain the attribute information. They differ in terms of tracking.
  • the writing processing unit 305a determines whether or not the person whose behavior has been detected is a tracking target.
  • the writing processing unit 305a stores visibility opportunity information and behavior information in the storage unit 304. Further, when storing the viewing opportunity information and the behavior information in the storage unit 304, the writing processing unit 305a can store them together with the attribute information obtained from the camera 50.
  • FIG. 8 illustrates the operation of the content display system S in another embodiment.
  • the operations from step S101 to step S105, step S201, step S301 to step S303, and step S401 are the same as those in FIG.
  • step S303 if it is determined that the person is viewing the content, the control unit 13 of the signage device 10 transmits viewing opportunity information indicating that the person is viewing the content to the information processing device 30 together with the captured image.
  • the information processing device 30 When the information processing device 30 receives the visibility opportunity information and the captured image transmitted from the signage device 10, the information processing device 30 identifies the person included in the captured image and the person imaged by the camera 20a and is tracking the person. Performs identification processing with the target person. By performing the identification process, the tracking unit 302 associates the visibility opportunity information with the tracking information based on the captured image obtained from the camera 20a (step S304a), and continues tracking (step S202a).
  • the tracking unit 302 associates the visibility opportunity information with the tracking information based on the captured image obtained from the camera 20a (step S304a), and continues tracking (step S202a).
  • the camera 20d captures an image of the person making the payment, and transmits the captured image to the information processing device 30a.
  • the camera 20d also estimates the attributes of the person making the payment (step S304a), and transmits attribute information indicating the estimation result to the information processing device 30a together with the captured image.
  • the behavior detection unit 303 of the information processing device 30a detects the movement of the person based on the captured image obtained from the camera 20c, and determines whether an action corresponding to payment has been performed.
  • the cashier terminal 40 transmits the sales information to the information processing device 30a.
  • the writing processing unit 305a of the information processing device 30a receives sales information from the cash register terminal 40 (step S401), it associates the attribute information received from the camera 20d with behavioral information to correspond to information that can identify a person.
  • the data is written into the storage unit 304 without being attached (step S402).
  • log information is stored in which the person who viewed the content on the signage device 10 is associated with the sales information generated on the cash register terminal 40.
  • attribute information is not used during tracking, it is possible to avoid using information related to the individuality of the person as much as possible.
  • the camera 20d captures an image for tracking a person and estimates the person's attributes from the captured image, but another camera is provided near the camera 20d to perform tracking.
  • the imaging for estimating the attributes and the imaging for estimating the attributes may be performed using separate cameras.
  • FIG. 9 is a schematic block diagram illustrating the functions of the information processing device 30b in another embodiment.
  • the tracking unit 302b detects at least the subsequent position of a person who is within a range where the content can be viewed during the period when the content is displayed on the display device, and associates the person with person identification information that is information that can identify the person. Track people without having to worry about them.
  • the behavior detection unit 303b detects a person's behavior related to content.
  • the storage unit 304 associates visibility opportunity information, which is information that corresponds to the fact that the person was within a visible range of the content during the display period of the content, with the behavior based on the tracking result of the tracking unit 302b, and generates person identification information. be memorized without being associated with it.
  • the position of the terminal device such as a smartphone or a mobile phone carried by a person
  • the position information that is the measurement result may be used.
  • GNSS Global Navigation Satellite System
  • the information processing device 30 uses application software installed in the terminal device to acquire location information via a wireless communication network owned by the terminal device. You can also do this.
  • the wireless communication network may be 4G, 5G, LTE, Wi-Fi (registered trademark), or the like.
  • the tracking unit 302 detects a terminal device whose location information is within the area in front of the display screen of the signage device 10, and Track people based on the device's location information.
  • the information processing device 30 (30a, 30b) continuously acquires position information from the terminal device, and generates tracking information by associating the position information with visibility opportunity information.
  • the behavior detection unit 303 associates the held visibility opportunity information with the sales information. and stored in the storage unit 304 (304b).
  • people can be tracked by acquiring location information from terminal devices such as smartphones or mobile phones carried by people, so it is possible to track a person without having to identify the person based on the person's appearance. The location can be determined.
  • construction management is performed by recording a program for realizing the functions of the processing section shown in Fig. 1 on a computer-readable recording medium, and having the computer system read and execute the program recorded on this recording medium. It's okay.
  • the "computer system” herein includes hardware such as an OS and peripheral devices.
  • the term "computer system” includes the homepage providing environment (or display environment) if a WWW system is used.
  • the term “computer-readable recording medium” refers to portable media such as flexible disks, magneto-optical disks, ROMs, and CD-ROMs, and storage devices such as hard disks built into computer systems.
  • the term “computer-readable recording medium” includes a medium that retains a program for a certain period of time, such as a volatile memory inside a computer system that is a server or a client.
  • the above-mentioned program may be one for realizing a part of the above-mentioned functions, or may be one that can realize the above-mentioned functions in combination with a program already recorded in the computer system.
  • the above program may be stored in a predetermined server, and the program may be distributed (downloaded, etc.) via a communication line in response to a request from another device.

Abstract

表示装置にコンテンツが表示された期間に、前記コンテンツを視認し得る範囲にいる人物の、少なくともその後の位置を検出することにより、前記人物を追跡する追跡部(302b)と、前記コンテンツに関連する、前記人物の行動を検出する行動検出部(303b)と、前記人物が前記期間に前記範囲にいたことに対応する情報である視認機会情報と前記行動とを、前記追跡部の追跡結果に基づき関連付けて、前記人物を特定可能な情報である人物特定情報に対応付けることなく記憶する記憶部(304b)と、を有する。

Description

情報処理装置、情報処理方法
 本発明は、情報処理装置、情報処理方法に関する。
 デジタルサイネージなどのディスプレイに表示された広告を見ているか否かを判定し、広告を閲覧している場合に、広告を閲覧している人物の顔をトラッキングすることで、ディスプレイの広告効果を測定するシステムがある(例えば特許文献1参照)。
 また、顧客の商品に対する動作に応じて効果的なプロモーションを行う棚システムがある(例えば特許文献2)。このシステムでは、サイネージシステムや、サイネージディスプレイに取り付いているカメラの映像を解析し、顧客に合った広告を表示することで、商品の購入を促すことができる。
 しかしながら、これらのシステムでは、個人を特定可能な個人情報を保存し、その個人情報を用いている。そのため、プライバシー情報の保護の観点から、人物の個人に関係する情報を利用する度合いが高くならないように配慮することが好ましい。一方で、個人を特定しないようにしつつ、広告を見た人物が、その後どのような行動(商品購入、申し込み、支払い等)をしたかを把握することは難しい。
特開2011-70629号公報 特許第6264380号公報
 本発明では、プライバシー情報の保護の観点から、人物の個人に関係する情報を利用する度合いが高くならないようにし、人物の行動を把握する情報処理装置、情報処理方法を提供する。
 上述した課題を解決するために、本開示における一態様は、表示装置にコンテンツが表示された期間に、前記コンテンツを視認し得る範囲にいる人物の、少なくともその後の位置を検出することにより、前記人物を追跡する追跡部と、前記コンテンツに関連する、前記人物の行動を検出する行動検出部と、前記人物が前記期間に前記範囲にいたことに対応する情報である視認機会情報と前記行動とを、前記追跡部の追跡結果に基づき関連付けて、前記人物を特定可能な情報である人物特定情報に対応付けることなく記憶する記憶部と、を有する情報処理装置である。
 また、本開示における一態様は、表示装置にコンテンツが表示された期間に、前記コンテンツを視認し得る範囲にいる人物の、少なくともその後の位置を検出することにより、前記人物を追跡し、前記コンテンツに関連する、前記人物の行動を検出し、前記人物が前記期間に前記範囲にいたことに対応する情報である視認機会情報と前記行動とを、前記追跡された結果に基づき関連付けて、前記人物を特定可能な情報である人物特定情報に対応付けることなく記憶部に記憶する情報処理方法である。
 人物の個人に関係する情報を利用する度合いが高くならないようにしつつ、人物の行動を把握することができる。
コンテンツ表示システムSの構成を説明する概略構成図である。 情報処理装置30の機能について説明する概略ブロック図である。 記憶部304に記憶される測定情報の一例を示す図である。 コンテンツ表示システムSの動作を説明するフローチャートである。 コンテンツ表示システムSの処理の流れを説明する概念図である。 他の実施形態におけるコンテンツ表示システムSaの構成を説明する概略構成図である 他の実施形態における情報処理装置30aの構成を示す概略ブロック図である。 他の実施形態におけるコンテンツ表示システムSの動作を説明するである。 他の実施形態における情報処理装置30bの機能について説明する概略ブロック図である。
 次に、本発明の一態様について図面を参照して詳細に説明する。
 図1は、本開示における、コンテンツ表示システムSの構成を説明する概略構成図である。
 コンテンツ表示システムSは、サイネージ装置10、複数のカメラ(カメラ20a、カメラ20b、カメラ20c)、情報処理装置30、レジ端末40が、通信ケーブルを介して電気的に接続される。
 サイネージ装置10、カメラ20a、カメラ20b、カメラ20cは、コンテンツの視聴効果を測定する対象のエリアに設けられるものであり、例えば、ショッピングモール、店舗、公共施設等のうちいずれかに設けられる。この実施形態においては、サイネージ装置10は、店舗の入口近傍(例えば、入口の外)であって、店舗の外からサイネージ装置10の表示されるコンテンツを視認可能な位置に設けられる。
 サイネージ装置10は、カメラ11、表示部12、制御部13を含む。サイネージ装置は、コンテンツを表示部12に表示する。コンテンツは、静止画、動画のいずれであってもよい。コンテンツは、例えば、広告、お知らせ、案内、ニュース等のうちいずれであってもよい。ここでは、コンテンツが、サイネージ装置10が設置される店舗の商品に関する広告である場合を一例として説明する。
 カメラ11は、サイネージ装置10において表示部12の上側に設けられ、サイネージ装置10の表示部12の表示画面を視認可能な領域を含む領域を撮像する。例えば、カメラ11は、表示部12の前面側の領域を撮像する。この領域は、人物が通行可能であり、立ち止まることも可能な領域である。この図においては、カメラ11は、表示部12の全面側にいる人物PSを撮像することができる。
 カメラ11は、任意のフレームレートで継続的に映像を撮像する機能と、撮像した結果である撮像画像を出力する機能とを有する。
 表示部12は、コンテンツを表示する。表示部12は、例えば、液晶パネルである。表示部12は、サイネージ装置10に設けられた駆動制御回路から供給される駆動信号に応じて各画素の素子を駆動することで、コンテンツに応じた画像を表示する。
 制御部13は、カメラ11によって撮像された撮像画像に人物が含まれる場合に、その人物の容姿に基づいて属性を推定する。属性は、人物の年齢、性別等である。サイネージ装置10は、推定された属性に応じたコンテンツを表示部12に表示させる。
 また、制御部13は、推定された属性を属性情報として情報処理装置30に送信する。
 カメラ20a、カメラ20b、カメラ20cは、店舗の天井であって、お互いに異なる位置に設けられる。これらカメラ20a、カメラ20b、カメラ20cは、少なくともいずれか1つが天井ではなく壁面等に設けられてもよい。これらカメラ20a、カメラ20b、カメラ20cの少なくともいずれか1つが天井に設けられた場合には、人物を天井から床方向に向かって(上方から下方に向かって)撮像する。そのため、人物の頭頂部は撮像されるが、顔については撮像されない、または斜め方向から撮像されるため、人物の顔がなるべく撮像されないようになっている。このため、プライベートな情報を取得してしまうことを低減することができる。
 カメラ20aは、サイネージ装置10の上方の天井に設けられ、サイネージ装置10を含む周囲の領域を撮像する。カメラ20aは、サイネージ装置10の前に人物がいる場合には、人物を撮像することができる。
 カメラ20bは、施設内において、サイネージ装置10とカメラ20cが設置された位置との間の動線(経路)のうちいずれかの位置に設けられ、この動線に沿って移動する人物を撮像することができる。
 カメラ20cは、カメラ20a、カメラ20cとは異なる位置に設けられる。例えばカメラ20cは、施設内の店舗におけるレジカウンターの上方の天井に設けられる。カメラ20cは、店舗のレジにおいて支払をする人物を撮像することができる。
 情報処理装置30は、カメラによって撮像された人物を追跡する機能、サイネージ装置10において表示されたコンテンツの効果を測定する機能等を有する。
 レジ端末40は、例えば、POS(point of sales system)端末であり、レジ端末40において登録された商品に対する決済が行われると、販売情報として、判定された商品を示す情報と、価格、販売日時等を生成し、情報処理装置30に送信する。
 図2は、情報処理装置30の機能について説明する概略ブロック図である。
 情報処理装置30は、通信部301、追跡部302、行動検出部303、記憶部304、書き込み処理部305を有する。
 通信部301は、カメラ20a、カメラ20b、カメラ20c、サイネージ装置10と有線または無線によって通信可能に接続される。通信部301は、カメラ20a、カメラ20b、カメラ20c、カメラ11から、撮像画像を受信する。
 追跡部302は、カメラ11またはカメラ20aによって撮像された人物の位置を、他のカメラから得られる画像に基づいて追跡する。この追跡は、サイネージ装置10が設置された位置の近傍から、カメラ20cが撮像する領域までの経路における人物の移動である。例えば、追跡は、コンテンツを視認したことに応じて店舗の入口から入った時点から、商品の購入等の行動が行われるまでである。なお、人物が店舗に入っても購入等せずに店舗を出たときは追跡を終了する。
 追跡部302は、表示装置にコンテンツが表示された期間に、コンテンツを視認し得る範囲にいる人物の、少なくともその後の位置を検出することにより、人物を追跡する。追跡部302は、人物の位置を検出し、その位置を追跡することで、人物を特定可能な情報である人物特定情報に対応付けることなく、人物を追跡することができる。人物特定情報は、人物を特定可能な情報であり、例えば、人物の顔画像、人物の顔を特定することが可能な特徴を数値化した特徴量である。
 表示装置にコンテンツが表示された期間に、コンテンツを視認し得る範囲にいる人物については、そのコンテンツを視認したと考えることができる。
 また、追跡部302は、異なるカメラにおいて撮像された人物が同一人物であるか否かの同定処理を行う。この同定処理は、人物の位置に基づく同定処理である第1同定処理と、人物の特徴量に基づく同定処理である第2同定処理と、人物の属性に基づく同定処理である第3同定処理とがある。追跡部302は、第1同定処理と第2同定処理と第3同定処理のうち少なくともいずれか1つの同定処理を行う。
 行動検出部303は、コンテンツに関連する、人物の行動を検出する。このコンテンツに関連する行動は、コンテンツに関連するものであればよく、例えば、コンテンツを視聴したことを契機として生じる行動であればよい。より具体的には、コンテンツが商品の広告である場合には、実際の商品を手にとって吟味する行動、商品の購入、商品を購入するための申し込み手続、広告内容に関連するサービスの提供に対する支払等がある。行動検出部303は、コンテンツに関連する商品又は役務の購入、申込み、又は支払のうちいずれかについて行われた場合に、行動として検出する。行動検出部303は、購入または支払がなされたことについては、レジ端末40において決済処理がされた時刻において、レジ端末40の近傍にいたことが位置情報から検出することができた場合には、その人物が購入または支払をしたと判定することができる。行動検出部303は、申し込みが行われたことについては、申し込み内容を店舗の端末から入力された時刻において、レジ端末40の近傍にいたことが位置情報から検出することができた場合には、その人物が申し込みをしたと判定することができる。申し込みは、役務(サービス)の申し込み、商品を注文するための申し込み、店舗の会員登録をするための申し込み等であってもよい。
 行動検出部303は、サイネージ装置10によってコンテンツを視聴可能な領域(範囲)とは異なる場所における人物の行動を検出する。異なる場所としては、例えば、レジカウンターであり、行動検出部303は、このレジカウンターにおける行動として購入、申し込み、支払等の行動を検出する。
 記憶部304は、人物が、サイネージ装置10におけるコンテンツの視聴可能な期間に、コンテンツを視聴可能な範囲にいたことに対応する情報である視認機会情報と行動とを、追跡部302の追跡結果に基づき関連付けて、人物特定情報に対応付けることなく記憶する。
 記憶部304は、購入、申込み、支払のいずれかが行われた場所と、追跡結果とに基づいて、視認機会情報と行動とを関連付けて記憶する。
 図3は、記憶部304に記憶される測定情報の一例を示す図である。
 計測情報は、視認機会情報と行動情報とを対応づけられたデータである。
 視認機会情報は、コンテンツが再生された際に、コンテンツを視認可能な範囲にいたことを示す情報であればよく、ここでは、一例として、視認機会が得られたときに再生されていたコンテンツを識別するコンテンツ識別情報を、視認機会情報として記憶される。この図3では、視認機会情報として「コンテンツA」、行動情報として「支払」が記憶されており、コンテンツAが再生された際にサイネージ装置10の近傍にいた人物が、コンテンツに関連する商品の購入のために支払をしたことを表している。コンテンツ識別情報を視認機会情報として用いた場合には、再生されたコンテンツの種類と行動との関係を把握することができる。
 このように、記憶部304には、視認機会情報と行動情報とについては、人物の画像等のような、個人を特定可能な人物特定情報については対応づけされることなく記憶される。
 書き込み処理部305は、人物が、サイネージ装置10におけるコンテンツの視聴可能な期間に、コンテンツを視聴可能な範囲にいたことに対応する情報である視認機会情報と行動情報とを、追跡部302の追跡結果に基づき関連付けて、人物特定情報に対応付けることなく記憶部304に書き込む。
 書き込み処理部305は、記憶部304に対する情報の書き込みを行うが、人物の顔画像、人物の顔画像から得られる特徴量については書き込みを行わない。そのため、人物特定情報に対応付けることなく、各種情報を記憶する。
 ここで、カメラ11、カメラ20a、カメラ20b、カメラ20cによって人物を撮像し、撮像画像を利用するが、撮像画像が記憶部304に記憶されることはない。
 次に、上述したコンテンツ表示システムSの動作を説明する。
 図4は、コンテンツ表示システムSの動作を説明するフローチャート、図5は、コンテンツ表示システムSの処理の流れを説明する概念図である。
 人物が店舗に入店すると(図4:ステップS101)、カメラ20aは、入店した人物を含む領域を撮像し、撮像画像を情報処理装置30に送信する。情報処理装置30は、撮像された画像に人物が含まれるか否かを判定し、人物が含まれる場合には、撮像画像からその人物の位置を検出する。追跡部302は、抽出された人物の位置に対する追跡処理(トラッキング)を開始する(図4:ステップS201,図5:S231)。
 ここでは、カメラ20aから得られる撮像画像から人物が抽出された領域を示す情報と、当該人物を追跡対象としていることを示す情報とを対応付けたトラッキング情報を生成する。ここでは、追跡処理をする場合、追跡部302は、人物が撮像された画像のうち人物に該当する領域の中心座標、人物の足元の座標、人物に該当する輪郭等のうちいずれかのデータを利用して人物を追跡するものであり、追跡をしていることを表すデータに対して、コンテンツを視聴したことを表すデータを付与し、人物の追跡を行う。これにより、人物が誰であるかを特定する情報(人物特定情報)に対応付けることなく、人物の位置を追跡することができる。
 入店した人物がサイネージ装置10の表示部12に近づくと(図4:ステップS102)、サイネージ装置10は、カメラ11によって人物を撮像し、撮像画像から人物の属性を推定することで属性を判別し(図4:ステップS301)、判別された属性に応じたコンテンツを表示部12に表示する(図4:ステップS302)。例えば、このコンテンツは、判別された属性の消費者に対してお勧めするためのお勧め商品を紹介する広告である。
 サイネージ装置10の制御部13は、サイネージ装置10の近傍に人物が1人のみ存在することを検出した場合には、その人物の属性を判別する。一方、制御部13は、サイネージ装置10の近傍に複数の人物が存在する場合には、サイネージ装置10に最も近い位置にいる人物を抽出し、その人物の属性を判別する(図5:ステップS331)。最も近い位置にいる人物の属性を判別することで、サイネージ装置10の表示部12に表示されたコンテンツを見た可能性が高いと推定される人物の属性を得ることができる。この場合、複数の人物のうち、どの人物がコンテンツを視聴しているか否かについて、簡単な処理によって推定することができる。
 人物は、表示部12にコンテンツが表示されると、そのコンテンツを視聴する(図4:ステップS103)。
 サイネージ装置10のカメラ11は、引き続き人物を撮像しており、その撮像画像に含まれる人物の位置を検出し、人物がコンテンツを視聴しているか否かを判別する(図4:ステップS303)。人物がコンテンツを視聴していると判別された場合、サイネージ装置10の制御部13は、視聴していることを示す視認機会情報と、ステップS301において判別された属性情報と撮像画像とを情報処理装置30に送信する。
 情報処理装置30は、サイネージ装置10から送信された、視認機会情報と、属性情報と、撮像画像とを受信すると、この撮像画像に含まれる人物と、カメラ20aによって撮像された人物であってトラッキングをしている対象の人物との同定処理を行う。同定処理を行うことにより、追跡部302は、カメラ20aから得られる撮像画像に基づくトラッキング情報に対して、視認機会情報と、属性情報とを対応づけし(図4:ステップS304)、トラッキングを継続する(図4:ステップS202)。これにより、サイネージ装置10に表示された広告を人物によって視聴されたことが検出されると、視聴した人物を撮像したカメラから得られる撮像画像に対するトラッキング情報に、サイネージ装置10において生成された属性情報であって表示されたコンテンツを視聴済みであることをマーキングする情報を付与することができる。ここで、属性情報は、人物の年齢や性別等を示すものであるが、属性情報のみによって人物を特定できるわけではないため、人物が特定されにくい情報を利用して追跡処理をすることができる。また、サイネージ装置10において表示するコンテンツを決めるために用いられた属性情報を保持し、最終的に記憶部304に記憶することができるため、実際にコンテンツを表示した対象の属性と、行動との関係を把握できる。
 ここで、同定処理の一例を説明する。追跡部302は、人物の位置に基づいて同定処理を行う第1同定処理を行う。すなわち、サイネージ装置10のカメラ11と、カメラ20aは、人物の位置を同定できるようになっている。例えば、カメラ11によって撮像された人物の顔の大きさと、カメラ20aによって撮像された人物の顔の大きさとが同じ大きさ(または、ほぼ同一)であると判定された場合には、カメラ11によって撮像された人物と、カメラ20aによって撮像された人物とが同じ人物であると同定することができる。
 また、他の方法としては、サイネージ装置10のカメラ11を2つ設けることでステレオカメラとして用い、この2つのカメラから得られる撮像画像に基づいて、サイネージ装置10から、人物の平面上の位置と奥行きを示す位置情報を求める。そして、カメラ20aから得られる撮像画像に含まれる人物の平面上における座標を求め、この座標と、位置情報とを突合させることで、人物の位置を同定する方法であってもよい。
 また、さらに他の方法としては、サイネージ装置10にカメラ11の他に深度センサーを設け、サイネージ装置10を起点とした奥行き方向を測定することで、人物までの距離を測定することで、人物の位置と人物までの距離を位置情報として得るようにしてもよい。そして、カメラ20aから得られる撮像画像に含まれる人物の平面上における座標を求め、この座標と、位置情報とを突合させることで、人物の位置を同定する方法であってもよい。
 追跡部302は、人物の特徴量に基づいて同定処理を行う第2同定処理を行ってもよい。追跡部302は、表示装置に表示されるコンテンツを視聴可能な範囲を撮影する第1カメラによって撮像された第1画像に含まれる人物の第1特徴量と、追跡対象の領域を撮像する第2カメラによって撮像された第2画像に含まれる人物の第2特徴量とを取得する特徴量取得部としての機能を有する。
 この特徴量取得部の機能を用い、追跡部302は、第1特徴量に対応する第2特徴量が得られた人物について追跡する。第1特徴量と第2特徴量とが対応関係にあるか否かについては、追跡部302は、第1特徴量と第2特徴量との類似度合いが一定以上であれば対応関係にあると判定してもよい。
 ここで、第2カメラが複数であって、互いに異なる位置に設置される場合もある。このような場合、追跡部302は、1つの第2カメラによって撮像された画像に含まれる人物の特徴量(第3特徴量)と、他の第2カメラによって撮像された画像に含まれる人物の特徴量(第4特徴量)とを取得し、第3特徴量に対応する第4特徴量が得られた人物について追跡する。これにより、第2カメラが複数ある場合、それぞれの第2カメラの撮像範囲の間を人物が移動したとしても、追跡部302は、人物の追跡をすることができる。
 第3特徴量と第4特徴量とが対応関係にあるか否かについては、追跡部302は、第1特徴量と第2特徴量との類似度合いが一定以上であれば対応関係にあると判定してもよい。
 追跡部302は、人物の属性に基づいて同定処理を行う第3同定処理を行ってもよい。追跡部302は、コンテンツを視認し得る範囲を含む領域を撮像した画像に含まれる人物について推定された第1属性と、追跡対象の領域が撮像された画像に含まれる人物について推定された第2属性とを取得する属性取得部としての機能を有するようにしてもよい。
 この属性取得部の機能を用い、追跡部302は、第1属性に対応する第2属性が得られた人物について追跡する。第1属性と第2属性とが対応関係にあるか否かについては、追跡部302は、第1属性と第2属性とが一致している場合に対応関係があると判定してもよい。また、追跡部302は、第1属性と第2属性との類似度合いが一定以上であれば対応関係に有ると判定してもよい。
 このようにして、カメラ11によって撮像された人物と、カメラ20aによって撮像された人物の同定をすることで、カメラ20aによって撮像された撮像画像から、カメラ11によって撮像され属性が推定された人物と、同一の人物を抽出することができる。これにより、情報処理装置30の追跡部302は、カメラ11によってコンテンツを表示する対象とされた人物(カメラ11によって属性が推定された人物)を、カメラ20aによって得られる撮像画像を用いて追跡することができる。ここでは、人物に対する追跡処理をしている間においては、トラッキング情報に対して属性情報を対応付けているため、人物を特定しない状態であるが、属性情報については継続的に保持することができる。
 コンテンツの再生時間が終了することでコンテンツの視聴が終了すると、人物は、コンテンツにおいて紹介されたお勧め商品を店内において探すために店内を回遊する(図4:ステップS104)。
 ここでは、カメラ20bは、継続的に撮像を行い、撮像画像を情報処理装置30に送信する。追跡対象とされた人物が回遊することで、カメラ20aによって撮像される領域から、カメラ20bによって撮像される領域に移動すると、カメラ20bの撮像画像に、追跡対象の人物が含まれることとなる。情報処理装置30の追跡部302は、カメラ20aの撮像画像に含まれていた人物がカメラ20bの撮像画像に含まれること検出すると、その検出された人物をトラッキング対象とし、トラッキング情報の保持を継続する。
 ここで、カメラ20aとカメラ20bとにおいても、上述したような同定処理を行うことで、追跡部302は、カメラ20aの撮像画像に含まれる人物と、カメラ20bの撮像画像に含まれる人物とについて、同じ人物であるか否かを判別できるようになっている。
 人物は、お勧め商品が陳列された棚に到達すると、お勧め商品を手に取り、レジカウンターに向かう。
 人物は、商品を購入する場合、商品をレジまで持参し、レジにおいて支払をする(図4:ステップS105)。
 ここで、カメラ20cは、継続的に撮像を行い、撮像画像を情報処理装置30に送信する。追跡対象とされた人物がレジカウンターに到着することで、カメラ20bによって撮像される領域から、カメラ20cによって撮像される領域に移動すると、カメラ20cの撮像画像に、追跡対象の人物が含まれることとなる。情報処理装置30の追跡部302は、カメラ20bの撮像画像に含まれていた人物がカメラ20cの撮像画像に含まれること検出すると、その検出された人物をトラッキング対象として追跡し(図4:ステップS203)、トラッキング情報の保持を継続する。
 ここで、カメラ20bとカメラ20cとにおいても、上述したような同定処理を行うことで、追跡部302は、カメラ20bの撮像画像に含まれる人物と、カメラ20cの撮像画像に含まれる人物とについて、同じ人物であるか否かを判別できるようになっている。
 情報処理装置30の行動検出部303は、カメラ20cから得られる撮像画像に基づいて、人物の動きを検出し、支払に該当する動作が行われたか否かを判別する。支払の動作としては、例えば、追跡対象の人物が、レジカウンターの近傍の位置に立った時刻と、レジ端末40において生成された販売情報とが一致するまたは一致すると見なせる対応関係にある場合に、支払が行われたと判定することができる。また、支払の動作としては、商品をレジカウンターに置いた後、財布からクレジットカード等を取り出して決済を行う動作である。支払が現金で行われる場合は、財布から現金を取り出して店員に渡す動作を決済を行う動作として検出するようにしてもよい。支払いの動作を検出した場合には、行動検出部303は、お勧め商品を購入した行動が行われたことを検出する。ここで、レジカウンターにおいて、商品の購入ではなく、サービスの申し込み等をする場合には、申し込み書に記入する動作を行動情報として検出するようにしてもよい。
 レジ端末40は、決済が完了すると、販売情報を情報処理装置30に送信する(図5:ステップS431)。情報処理装置30の書き込み処理部305は、販売情報をレジ端末40から受信すると(図4:ステップS401)、属性情報と行動情報とを対応づけて、人物を特定可能な情報に対応づけることなく、記憶部304に書き込む(図4:ステップS402)。これにより、サイネージ装置10においてコンテンツを視聴した人物と、レジ端末40において生成された販売情報とが関係づけされたログ情報が記憶される。このログ情報を解析することにより、人物(消費者)が視聴したコンテンツに関連する広告の品を購入したか否かを把握することができる。
 記憶部304への書き込みが終了すると、追跡部302は、支払をした人物に対する追跡処理を終了する(図5:ステップS432)。追跡が終了すると、追跡部302は、追跡が終了した人物について、保持していた特徴量(第1特徴量、第2特徴量、第3特徴量、第4特徴量)を削除する。ここでは、追跡部302は、トラッキング情報を破棄することで、人物の特徴量を破棄してもよい。これにより、特徴量が、トラッキング情報に含まれていたとしても、記憶部403に記憶されることなく破棄される。そのため、記憶部403は、第1特徴量と第2特徴量とについて記憶することなく、視認機会情報と行動とを記憶することができる。また、記憶部403は、第3特徴量と第4特徴量とについて記憶することなく、視認機会情報と行動とを記憶することができる。
 また、追跡部302は、追跡が終了した人物について、トラッキングに用いていた属性情報(第1属性、第2属性)を削除する。ここでは、追跡部302は、トラッキング情報を破棄することで、属性情報を破棄してもよい。これにより、属性情報が、トラッキング情報に含まれていたとしても、トラッキングに用いられていた属性情報について、記憶部403に記憶されることなく破棄される。そのため、記憶部403は、第1属性と第2属性とについて記憶することなく、視認機会情報と行動とを記憶することができる。
 図6は、他の実施形態におけるコンテンツ表示システムSaの構成を説明する概略構成図である。
 コンテンツ表示システムSaは、サイネージ装置10、複数のカメラ(カメラ20a、カメラ20b、カメラ20d)、情報処理装置30a、レジ端末40、カメラ50が、通信ケーブルを介して電気的に接続される。
 サイネージ装置10、複数のカメラ(カメラ20a、カメラ20b)、レジ端末40については、図1のコンテンツ表示システムSと同じであるのでその説明を省略する。
 カメラ20dは、カメラ20cと同一の機能を有しているが、撮像された画像に人物が含まれているか否かを判定し、人物が含まれる場合には、その人物の属性を推定する。カメラ20dは、推定された属性を属性情報として情報処理装置30aに送信する。カメラ20dが属性を推定する処理は、サイネージ装置10が属性を推定する処理と同様である。そのため、カメラ20dは、同じ人物であれば、サイネージ装置10と同じ属性情報を得ることができる。
 図7は、他の実施形態における情報処理装置30aの構成を示す概略ブロック図である。この情報処理装置30aは、上述のコンテンツ表示システムSにおける情報処理装置30の他の形態を示す。情報処理装置30aは、上述したコンテンツ表示システムSと同様に、サイネージ装置10、カメラ20a、カメラ20b、カメラ20c、レジ端末40と通信可能に接続される。
 情報処理装置30aは、通信部301、追跡部302a、行動検出部303、記憶部304、書き込み処理部305aを有する。
 通信部301、行動検出部303、記憶部304の機能は情報処理装置30と同様であるので、図2と同一の符号を付し、その説明を省略する。
 追跡部302aは、人物を追跡する機能については追跡部302と同様であるが、人物を追跡する間においては、サイネージ装置10において属性情報が推定されたとしても、その属性情報は保持せずに追跡をする点において異なる。
 書き込み処理部305aは、行動が検出された人物について、追跡対象であるか否かを判定し、追跡対象である場合には、視認機会情報と、行動情報とを記憶部304に記憶する。また、書き込む処理部305aは、視認機会情報と行動情報とを記憶部304に記憶する場合に、カメラ50から得られる属性情報ととともに記憶することができる。
 図8は、他の実施形態におけるコンテンツ表示システムSの動作を説明するである。ここでは、ステップS101からステップS105、ステップS201、ステップS301からステップS303、ステップS401については、図4と同様の動作であるため、同一の符号を付し、その説明を省略する。
 ステップS303において、人物がコンテンツを視聴していると判別された場合、サイネージ装置10の制御部13は、視聴していることを示す視認機会情報を、撮像画像とともに情報処理装置30に送信する。
 情報処理装置30は、サイネージ装置10から送信された、視認機会情報と、撮像画像とを受信すると、この撮像画像に含まれる人物と、カメラ20aによって撮像された人物であってトラッキングをしている対象の人物との同定処理を行う。同定処理を行うことにより、追跡部302は、カメラ20aから得られる撮像画像に基づくトラッキング情報に対して、視認機会情報を対応づけし(ステップS304a)、トラッキングを継続する(ステップS202a)。ここでは、人物を追跡する段階では、視認機会情報を保持していることで、コンテンツを視聴済みであることを把握できているが、属性情報を保持していない。
 一方、追跡対象とされた人物がレジカウンターに到着し、支払をすると、カメラ20dは、人物が支払をしている動作を撮像し、撮像画像を情報処理装置30aに送信する。また、カメラ20dは、支払をしている人物の属性を推定し(ステップS304a)、推定結果を示す属性情報を、撮像画像とともに情報処理装置30aに送信する。
 情報処理装置30aの行動検出部303は、カメラ20cから得られる撮像画像に基づいて、人物の動きを検出し、支払に該当する動作が行われたか否かを判別する。
 レジ端末40は、決済が完了すると、販売情報を情報処理装置30aに送信する。情報処理装置30aの書き込み処理部305aは、販売情報をレジ端末40から受信すると(ステップS401)、カメラ20dから受信した属性情報と、行動情報とを対応づけて、人物を特定可能な情報に対応づけることなく、記憶部304に書き込む(ステップS402)。これにより、サイネージ装置10においてコンテンツを視聴した人物と、レジ端末40において生成された販売情報とが関係づけされたログ情報が記憶される。
 この実施形態によれば、属性情報を追跡中には用いないため、人物の個人に関連する情報をなるべく利用しないようにすることができる。
 なお、この実施形態において、カメラ20dが人物の追跡をするための撮像と、撮像画像から人物の属性の推定とを行う場合について説明したが、カメラ20dの近傍に別のカメラを設け、追跡のための撮像と、属性を推定するための撮像とをそれぞれ別のカメラで行うようにしてもよい。
 図9は、他の実施形態における情報処理装置30bの機能について説明する概略ブロック図である。
 追跡部302bは、表示装置にコンテンツが表示された期間に、コンテンツを視認し得る範囲にいる人物の、少なくともその後の位置を検出することにより、人物を特定可能な情報である人物特定情報に対応付けることなく、人物を追跡する。
 行動検出部303bは、コンテンツに関連する、人物の行動を検出する。
 記憶部304は、人物がコンテンツの表示期間に、コンテンツを視認し得る範囲にいたことに対応する情報である視認機会情報と行動とを、追跡部302bの追跡結果に基づき関連付けて、人物特定情報に対応付けることなく記憶する。
 また、以上説明した実施形態において、人物の追跡は、店舗内の移動経路をカメラによって撮像し、撮像画像に基づいて人物を追跡する場合について説明したが、人物の追跡は、別の方法で行うようにしてもよい。例えば、人物が携帯しているスマートフォンまたは携帯電話等の端末装置によって、この端末装置の位置を計測し、その計測結果である位置情報を用いるようにしてもよい。位置情報の測定は、例えば、GNSS(Global Navigation Satellite System)を利用してもよい。
 情報処理装置30(30a、30b)は、人物が携帯する端末装置から位置情報を取得する場合、端末装置に搭載されたアプリケーションソフトウェア等によって、端末装置が有する、無線通信網を介して取得するようにしてもよい。無線通信網としては、4G、5G、LTE、Wi-Fi(登録商標)等であってもよい。
 この場合、サイネージ装置10において視聴したことが判定されると、追跡部302(302a,302b)が、位置情報がサイネージ装置10の表示画面の前の領域内にある端末装置を検出し、その端末装置の位置情報を元に、人物を追跡する。この場合、情報処理装置30(30a、30b)が、位置情報を継続的に端末装置から取得し、その位置情報に視認機会情報を対応づけることでトラッキング情報を生成する。そして、端末装置の位置情報がレジカウンターに対応する場所に到達した後、人物によって支払がなされると、行動検出部303(303b)は、保持していた視認機会情報と販売情報とを対応付けて記憶部304(304b)に記憶する。
 このように、人物が携帯するスマートフォンまたは携帯電話等の端末装置の位置情報を取得して人物を追跡するようにしたので、人物の外観に基づく個人の特定をすることなく、追跡対象の人物の位置を特定することができる。
 また、図1における処理部の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより施工管理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
 また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
 また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、サーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものを含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。また、上記のプログラムを所定のサーバに記憶させておき、他の装置からの要求に応じて、当該プログラムを通信回線を介して配信(ダウンロード等)させるようにしてもよい。
 以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
 10・・・サイネージ装置、11,20a,20b,20c,20d,50・・・カメラ、12・・・表示部、13・・・制御部、30,30a,30b・・・情報処理装置、40・・・レジ端末、301・・・通信部、302,302a,302b・・・追跡部、303,303b・・・行動検出部、304,304b・・・記憶部、305,305a・・・処理部

Claims (12)

  1.  表示装置にコンテンツが表示された期間に、前記コンテンツを視認し得る範囲にいる人物の、少なくともその後の位置を検出することにより、前記人物を追跡する追跡部と、
     前記コンテンツに関連する、前記人物の行動を検出する行動検出部と、
     前記人物が前記期間に前記範囲にいたことに対応する情報である視認機会情報と前記行動とを、前記追跡部の追跡結果に基づき関連付けて、前記人物を特定可能な情報である人物特定情報に対応付けることなく記憶する記憶部と、
     を有する情報処理装置。
  2.  前記行動検出部は、前記範囲とは異なる場所における前記人物の行動を検出する
     請求項1に記載の情報処理装置。
  3.  前記行動検出部は、前記コンテンツに関連する商品又は役務の購入、申込み、又は支払を、前記行動として検出し、
     前記記憶部は、前記購入、前記申込み、前記支払のいずれかが行われた場所と、前記追跡結果とに基づいて、前記視認機会情報と前記行動とを関連付けて記憶する
     請求項2に記載の情報処理装置。
  4.  前記追跡部は、前記人物特定情報に対応付けることなく、前記人物を追跡する
     請求項1から請求項3のうちいずれか1項に記載の情報処理装置。
  5.  前記追跡部は、前記人物が携帯する端末装置によって測定された位置情報を取得し、取得された位置情報に基づいて、前記人物を追跡する
     請求項1から請求項3のうちいずれか1項に記載の情報処理装置。
  6.  前記表示装置に表示されるコンテンツを視聴可能な範囲を撮影する第1カメラによって撮像された第1画像に含まれる人物の第1特徴量と、追跡対象の領域を撮像する第2カメラによって撮像された第2画像に含まれる人物の第2特徴量とを取得する特徴量取得部をさらに有し、
     前記追跡部は、前記第1特徴量に対応する第2特徴量が得られた人物について追跡し、
     前記記憶部は、前記第1特徴量と前記第2特徴量とについて記憶することなく、前記視認機会情報と前記行動とを記憶する
     請求項1から請求項4のうちいずれか1項に記載の情報処理装置。
  7.  前記追跡部は、追跡が終了した人物について、前記第1特徴量と前記第2特徴量を削除する
     請求項6に記載の情報処理装置。
  8.  前記範囲を含む領域を撮像した画像に含まれる人物について推定された第1属性と、追跡対象の領域が撮像された画像に含まれる人物について推定された第2属性とを取得する属性取得部をさらに有し、
     前記追跡部は、前記第1属性に対応する第2属性が得られた人物について追跡し、
     前記記憶部は、前記第1属性と前記第2属性とについて記憶することなく、前記視認機会情報と前記行動とを記憶する
     請求項1から請求項4のうちいずれか1項に記載の情報処理装置。
  9.  前記追跡部は、追跡が終了した人物について、前記第1属性と前記第2属性を削除する
     請求項8に記載の情報処理装置。
  10.  前記記憶部は、前記範囲に複数の人物がいる場合には、表示装置に最も近い位置にいる人物の行動を記憶する
     請求項1から請求項9のうちいずれか1項に記載の情報処理装置。
  11.  前記記憶部は、コンテンツを識別するコンテンツ識別情報を含む前記視認機会情報を記憶する
     請求項1から請求項10のうちいずれか1項に記載された情報処理装置。
  12.  表示装置にコンテンツが表示された期間に、前記コンテンツを視認し得る範囲にいる人物の、少なくともその後の位置を検出することにより、前記人物を追跡し、
     前記コンテンツに関連する、前記人物の行動を検出し、
     前記人物が前記期間に前記範囲にいたことに対応する情報である視認機会情報と前記行動とを、前記追跡された結果に基づき関連付けて、前記人物を特定可能な情報である人物特定情報に対応付けることなく記憶部に記憶する
     情報処理方法。
PCT/JP2022/011004 2022-03-11 2022-03-11 情報処理装置、情報処理方法 WO2023170949A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/011004 WO2023170949A1 (ja) 2022-03-11 2022-03-11 情報処理装置、情報処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/011004 WO2023170949A1 (ja) 2022-03-11 2022-03-11 情報処理装置、情報処理方法

Publications (1)

Publication Number Publication Date
WO2023170949A1 true WO2023170949A1 (ja) 2023-09-14

Family

ID=87936493

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/011004 WO2023170949A1 (ja) 2022-03-11 2022-03-11 情報処理装置、情報処理方法

Country Status (1)

Country Link
WO (1) WO2023170949A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005251170A (ja) * 2004-01-23 2005-09-15 Sony United Kingdom Ltd 表示装置
JP2008102176A (ja) * 2006-10-17 2008-05-01 Mitsubishi Electric Corp 行動計数システム
JP2010113692A (ja) * 2008-11-10 2010-05-20 Nec Corp 顧客行動記録装置及び顧客行動記録方法並びにプログラム
JP2010140287A (ja) * 2008-12-12 2010-06-24 Nomura Research Institute Ltd 購買行動分析装置、方法及びコンピュータプログラム
JP2012208854A (ja) * 2011-03-30 2012-10-25 Nippon Telegraph & Telephone East Corp 行動履歴管理システムおよび行動履歴管理方法
WO2021240889A1 (ja) * 2020-05-28 2021-12-02 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005251170A (ja) * 2004-01-23 2005-09-15 Sony United Kingdom Ltd 表示装置
JP2008102176A (ja) * 2006-10-17 2008-05-01 Mitsubishi Electric Corp 行動計数システム
JP2010113692A (ja) * 2008-11-10 2010-05-20 Nec Corp 顧客行動記録装置及び顧客行動記録方法並びにプログラム
JP2010140287A (ja) * 2008-12-12 2010-06-24 Nomura Research Institute Ltd 購買行動分析装置、方法及びコンピュータプログラム
JP2012208854A (ja) * 2011-03-30 2012-10-25 Nippon Telegraph & Telephone East Corp 行動履歴管理システムおよび行動履歴管理方法
WO2021240889A1 (ja) * 2020-05-28 2021-12-02 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム

Similar Documents

Publication Publication Date Title
JP5666772B2 (ja) 情報提供装置、情報提供方法及びプログラム
JP5906558B1 (ja) 顧客行動分析装置、顧客行動分析システム及び顧客行動分析方法
US8775252B2 (en) Electronic media system
US9811840B2 (en) Consumer interface device system and method for in-store navigation
JP4991440B2 (ja) 商品販売装置、商品販売管理システム、商品販売管理方法およびプログラム
JP4125634B2 (ja) 顧客情報収集管理方法及びそのシステム
JP2012208854A (ja) 行動履歴管理システムおよび行動履歴管理方法
JP4778532B2 (ja) 顧客情報収集管理システム
US20110199486A1 (en) Customer behavior recording device, customer behavior recording method, and recording medium
JP5728871B2 (ja) 移動管理システム、情報処理装置、移動管理方法、プログラム
JP2012088878A (ja) 顧客優待管理システム
JP7092354B2 (ja) 商品情報管理装置、商品情報管理方法およびプログラム
JP2017033401A (ja) 顧客情報収集装置、顧客情報収集システムおよび顧客情報収集方法
JP2010140287A (ja) 購買行動分析装置、方法及びコンピュータプログラム
US20130328765A1 (en) Signage system and display method by the same
US20020010622A1 (en) System and method capable of appropriately managing customer information and computer-readable recording medium having customer information management program recorded therein
JP2018005691A (ja) 情報処理システム、情報処理装置及び情報処理方法
JP2002032553A (ja) 顧客情報管理システムおよびその方法ならびに顧客情報管理プログラムを記録したコンピュータ読み取り可能な記録媒体
CN106056396A (zh) 销售数据处理装置及其控制方法
JP2002032558A (ja) 顧客情報管理システムおよびその方法ならびに顧客情報管理プログラムを記録したコンピュータ読み取り可能な記録媒体
WO2023170949A1 (ja) 情報処理装置、情報処理方法
US20200202553A1 (en) Information processing apparatus
KR200468822Y1 (ko) 광고측정이 가능한 멀티디스플레이 샘플러
JP2018128895A (ja) 支援システム、支援装置、支援方法及びプログラム
JP5027637B2 (ja) マーケティングデータ分析方法、マーケティングデータ分析システム、データ分析サーバ装置およびプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22930930

Country of ref document: EP

Kind code of ref document: A1