WO2022259865A1 - 店舗運営支援装置および店舗運営支援方法 - Google Patents

店舗運営支援装置および店舗運営支援方法 Download PDF

Info

Publication number
WO2022259865A1
WO2022259865A1 PCT/JP2022/021269 JP2022021269W WO2022259865A1 WO 2022259865 A1 WO2022259865 A1 WO 2022259865A1 JP 2022021269 W JP2022021269 W JP 2022021269W WO 2022259865 A1 WO2022259865 A1 WO 2022259865A1
Authority
WO
WIPO (PCT)
Prior art keywords
person
product
camera image
store
behavior
Prior art date
Application number
PCT/JP2022/021269
Other languages
English (en)
French (fr)
Inventor
達矢 石橋
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Priority to CN202280041338.4A priority Critical patent/CN117461046A/zh
Publication of WO2022259865A1 publication Critical patent/WO2022259865A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions

Definitions

  • the present disclosure analyzes the person's item selection status based on a camera image of a person staying in front of a display area in a store, and presents the analysis result to the user to support the user's store management work.
  • the present invention relates to a store operation support device and a store operation support method.
  • the present disclosure provides a store operation support device and a store operation support method that enable the user to fully grasp the customer's product selection status and immediately take effective measures for improving the store operation.
  • the main purpose is to
  • the store operation support device of the present disclosure analyzes the item selection status of the person based on the camera image of the person staying in front of the display area in the store, and includes a processor that performs processing for presenting the analysis result to the user.
  • the processor detects a person from the camera image, identifies the person to be analyzed, detects behavior of the person from the camera image, and determines the person to be analyzed.
  • Behavior information for each person is acquired in association with products, the behavior information for each person is accumulated in a storage unit, and at least the time required for product selection is included based on the behavior information accumulated in the storage unit.
  • Generate item determination information store the item determination information for each person in the storage unit, and obtain the analysis result visualizing the item determination status corresponding to each product based on the item determination information accumulated in the storage unit. Configuration.
  • the store operation support method of the present disclosure analyzes the item selection status of the person based on the camera image of the person staying in front of the display area in the store, and presents the analysis results to the user.
  • a store operation support method performed by a device wherein a person is detected from the camera image, a person to be analyzed is specified, behavior of the person is detected from the camera image, and each person to be analyzed is detected. is acquired in association with the product, the behavior information for each person is accumulated in a storage unit, and based on the behavior information accumulated in the storage unit, product determination includes at least the time required for product selection.
  • the analysis result that visualizes the item selection status corresponding to each product is acquired and the analysis result is presented to the user.
  • the user can fully grasp the customer's product selection status, and can immediately take effective measures to improve the management of the store.
  • a first invention which has been made to solve the above-mentioned problems, is based on a camera image of a person staying in front of a display area in a store, analyzes the person's item selection status, and presents the analysis results to the user.
  • a store operation support device comprising a processor for processing, wherein the processor detects a person from the camera image, identifies the person to be analyzed, detects the person's behavior from the camera image, Acquiring the behavior information of each person to be analyzed in association with the product, accumulating the behavior information of each person in a storage unit, and determining at least the product based on the behavior information accumulated in the storage unit and storing the item determination information for each person in the storage unit, and visualizing the item determination situation corresponding to each product based on the item determination information accumulated in the storage unit. It is configured to acquire the analysis result.
  • the analysis result that visualizes the product selection status corresponding to each product is acquired and the analysis result is presented to the user.
  • the user can fully grasp the customer's product selection status, and can immediately take effective measures to improve the management of the store.
  • the processor determines that the person is a store clerk based on the feature information of the person detected from the camera image, the person is excluded from the analysis target.
  • the processor detects a product holding behavior and a product gazing behavior as behaviors related to a person's product selection, and acquires the behavior information including the detection results.
  • the processor outputs the analysis result including a map image in which an image visualizing the item determination information for each display area includes a map image drawn on an image representing the layout of the store. do.
  • the user can immediately grasp the customer's product selection status for each display area.
  • the map image at each time may be reproduced as a moving image.
  • the analysis result including the camera image corresponding to the selected display area is generated by the processor in response to a user's operation to select the display area on the screen displaying the map image. is configured to output
  • the user can specifically grasp the customer's product selection status by viewing the camera image for the display area that the user has focused on by viewing the map image.
  • the camera image at each time may be reproduced as a moving image.
  • the processor acquires the product holding count, the product watching time, and the holding product count as the product determination information based on the behavior information, and obtains the product holding frequency, product watching time, and holding product number. Based on the number of products, it is configured to acquire a product selection frequency obtained by quantifying the degree to which a person has trouble deciding on a product.
  • the information processing apparatus analyzes the item selection status of the person based on the camera image of the person staying in front of the display area in the store, and presents the analysis result to the user.
  • a store operation support method that detects a person from the camera image, specifies a person to be analyzed, detects behavior of the person from the camera image, and provides behavior information for each person to be analyzed. is associated with the product, the behavior information for each person is stored in a storage unit, and based on the behavior information stored in the storage unit, product determination information including at least the time required to determine the product is generated. Then, the item determination information for each person is accumulated in the storage unit, and based on the item determination information accumulated in the storage unit, the analysis result of visualizing the item determination situation corresponding to each product is acquired.
  • the user can fully grasp the customer's product selection status, and can immediately take effective measures to improve store management.
  • FIG. 1 is an overall configuration diagram of the store operation support system according to this embodiment.
  • This store management support system analyzes the situation of customers who select items in front of display shelves in a store, presents the analysis results to the user (store manager), and supports the user's business.
  • the store operation support system includes a camera 1 , an analysis server 2 (store operation support device, information processing device), and a viewing terminal 3 . Camera 1, analysis server 2, and viewing terminal 3 are connected via a network.
  • the camera 1 is installed at an appropriate place in the store.
  • the camera 1 photographs a display shelf (display area) in the store and an aisle (stay area) in front of the store where customers stay to check the products.
  • the analysis server 2 analyzes the customer's product selection status at the store.
  • the analysis server 2 is composed of a PC or the like. Note that the analysis server 2 may be installed in a store or may be a cloud computer.
  • the viewing terminal 3 is for users (such as store managers) to view the analysis results of the analysis server 2 .
  • the browsing terminal 3 is composed of a PC, a tablet terminal, or the like.
  • an analysis of the customer's product selection status is performed for each display area (display shelf) corresponding to the product category (noodles, rice balls, etc.).
  • the camera 1 photographs the display area of the target product category.
  • the analysis server 2 can analyze the customer's product selection status for each display area (product category) based on the camera image.
  • a single camera 1 may be used to photograph a plurality of display areas, and the photographed image of each display area may be extracted from the camera image obtained by the camera 1 .
  • FIG. 2 is an explanatory diagram showing a transition state of camera images when a customer decides an item.
  • the camera 1 shoots from above the display shelf (display area) and the aisle (stay area) in front of it where customers stay to check out the products.
  • the camera image shows the products on the display shelf and the person (customer) who checks the product in front of the display shelf. It should be noted that the camera 1 may take a picture of the display shelf and the person from the side. Further, the camera 1 regularly transmits camera images (frames) at each time taken at a predetermined frame rate to the analysis server 2 .
  • FIGS. 2A and 2B a person appears in front of the display shelf.
  • FIG. 2C the person reaches out to the product shelf and picks up the product on the product shelf.
  • FIG. 2(D) the person gazes at the product in hand.
  • FIG. 2(E) the person returns the picked product to the product shelf.
  • FIGS. 2F and 2G the person disappears from the front of the display shelf.
  • product holding behavior and product gazing behavior are detected as behaviors related to the customer's product selection.
  • a product holding action is an action in which a person holds a product in his hand, as shown in FIGS. 2(C), (D), and (E). Based on the detection status of this product holding behavior, it can be detected that a person picks up a product on the product shelf or returns the picked product to the product shelf.
  • the commodity gazing action is a behavior in which a person gazes at a commodity.
  • the duration of this product gazing behavior is the time required to select the product, and represents the degree to which the customer is troubled in deciding on the product. Presumed.
  • store fixtures on which products are displayed are not limited to display shelves.
  • products may be displayed on display stands (trolleys) in addition to display shelves.
  • FIG. 3 is a block diagram showing a schematic configuration of the analysis server 2. As shown in FIG.
  • the analysis server 2 includes a communication unit 11, a storage unit 12, and a processor 13.
  • the communication unit 11 communicates with the camera 1 and the viewing terminal 3.
  • the storage unit 12 stores programs and the like executed by the processor 13 .
  • the storage unit 12 also stores registered information in the camera image database (see FIG. 4), registered information in the action information database (see FIG. 5), and registered information in the worry level information database (see FIG. 6).
  • the processor 13 performs various processes by executing programs stored in the storage unit 12 .
  • the processor 13 performs image acquisition processing, person identification processing, behavior detection processing, degree-of-worry estimation processing, degree-of-worry aggregation processing, analysis result presentation processing, and the like.
  • the processor 13 acquires the camera image received from the camera 1 by the communication unit 11. This camera image is registered in the camera image database (see FIG. 4) in association with the ID of the camera 1 and the shooting time.
  • the processor 13 identifies the person to be analyzed based on the camera image. At this time, first, a person is detected from the camera image (person detection processing), and based on the characteristic information of the person, a person determined not to be a store clerk, that is, a customer, is given a person ID as an analysis target. do. On the other hand, if the detected person is a store clerk, that person is excluded from the analysis target (detection result) (clerk exclusion processing). If the processor 13 is the same person as the previously detected person based on the person's feature information extracted from the camera image, the processor 13 performs processing (person tracking processing) to associate the person.
  • the processor 13 detects the behavior of the person analyzed by the person identification process from the camera image (frame) at each time.
  • action information for each person in each camera is registered in the action information database (see FIG. 5).
  • the processor 13 recognizes, as behaviors related to the customer's product selection, the behavior of a person holding a product in his/her hand (goods holding behavior) and the behavior of a person gazing at a product (goods gazing behavior). to detect
  • the processor 13 associates the actions detected from the camera images (frames) at each time as a series of actions by the same person (action tracking processing). Specifically, when a new action of a person is detected from a camera image, a new action ID is assigned to the action, and the same action ID is assigned to a series of actions by the same person detected from subsequent camera images. is given.
  • the processor 13 detects the product picked up by the person from the camera image and identifies the name of the product by image recognition (product detection processing).
  • the processor 13 acquires the time during which the person gazes at the product (product gaze time) by measuring the duration of the person's product gaze behavior (gazing time measurement process). Specifically, the product gazing time is measured based on the number of camera images (frames) in which the product gazing behavior is detected and one cycle time corresponding to the interval between camera images (frame interval).
  • the processor 13 determines whether or not there is a purchase when the person's tracking period (the period from when the person enters the shooting area of the camera 1 until it leaves) ends (purchase determination processing). At this time, by tracking the product holding behavior of the person, it is detected whether or not the product picked up by the person has been returned to the product shelf, and the presence or absence of purchase is determined according to the result. It should be noted that if a person leaves the display shelf without returning the product picked up by the person to the display shelf, it can be judged as a purchase. may be
  • the processor 13 estimates the worry level of each person at each time in each display area based on the behavior information that is the detection result of the behavior detection process registered in the behavior information database (see FIG. 5). do.
  • the distress level of each person at each time of each camera 1 corresponding to each display area is registered in the distress level information database (see FIG. 6).
  • the difficulty level is a quantification of the degree to which a person has difficulty in selecting a product when purchasing a product.
  • Concern level ⁇ 1 ⁇ product gaze time (seconds) + ⁇ 2 ⁇ number of product holdings (times) + ⁇ 3 ⁇ number of held products (pieces)
  • the number of product holding times is the number of times a person has taken the product holding action.
  • the product gazing time is the duration of the product gazing action in which the person gazes at the product.
  • the number of held products is the number of products targeted for the product holding behavior in which a person picks up the products. Duplicates of picking up the same product repeatedly are not counted.
  • the processor 13 aggregates the trouble level of each person at each time of each camera acquired in the trouble level estimation process, and calculates the trouble level of each display area corresponding to each camera at each time. .
  • the processor 13 presents to the user the analysis results regarding the customer's product selection status in the store. Specifically, in response to a request from the browsing terminal 3, the in-store map screen 21 (see FIG. 10) including the trouble level heat map that visualizes the trouble level at each time for each display area acquired by the trouble level aggregation process is displayed. It is displayed on the viewing terminal 3. In addition, a camera image screen 51 (see FIG. 11) including a camera image for each display area and a degree-of-concern graph that visualizes the degree of concern for each display area at each time is displayed on the viewing terminal 3 .
  • FIG. 4 is an explanatory diagram showing registered contents of the camera image database.
  • the analysis server 2 registers camera images (frames) at each time received from the camera 1 in a camera image database and manages them.
  • a camera image is registered in association with the name (camera ID) of the camera 1 and the shooting time.
  • FIG. 5 is an explanatory diagram showing the registered contents of the action information database.
  • a process (behavior detection process) is performed to detect a person's behavior from camera images (frames) at each time. Registered in the information database.
  • the action information database as action information for each person, the name of camera 1 (camera ID) corresponding to the display area (camera ID), person ID, action ID, product name (product ID), product gaze time, and purchase status information ( Purchased (True) and non-purchased (False) are registered as information on whether or not a purchase has been made.
  • an action ID is assigned to a series of actions in which the person picks up the product and returns it, or leaves the display shelf without picking up the product and returning it. Therefore, when a person picks up and puts back a product in one display area multiple times, even if the product picked up by the person is different, or even if the product is the same, it is considered to be a different action. It is detected and given another action ID.
  • FIG. 6 is an explanatory diagram showing registered contents of the worry level information database.
  • a process of estimating the level of worry for each person is performed.
  • the worry level is registered in the worry level information database.
  • the name of camera 1 (camera ID), estimated time, person ID, and degree of concern are registered in the concern level information database as concern level information for each person.
  • the process of estimating the worry level of each person is performed periodically. Therefore, as the time for which a person gazes at a product for product selection (the duration of the product-gazing action) increases, the value of the degree of concern for that person at each time gradually increases.
  • FIG. 7 is a flowchart showing the procedure of person identification processing performed by the analysis server 2. As shown in FIG.
  • processing for identifying a person to be analyzed is performed based on the camera image.
  • this person identification processing the flow shown in FIG. 7 is executed each time a camera image (frame) periodically transmitted from the camera 1 is received.
  • the processor 13 acquires the camera image received from the camera 1 by the communication unit 11 (image acquisition process) (ST101).
  • the processor 13 detects a person from the camera image (person detection processing) (ST102). At this time, a rectangular person frame (person area) surrounding the person is set in the camera image, and the position information of the person frame on the camera image is acquired.
  • the processor 13 determines whether the person detected from the camera image is a store clerk (ST103). At this time, whether or not the person is a store clerk can be determined based on the characteristics of the clothing. Specifically, whether or not the person is a store clerk can be determined according to whether or not the person is wearing a store uniform. In addition, the store clerk is confused with the customer who selects the items in front of the display shelf because the store clerk carries out work such as stocking items in front of the display shelf.
  • the processor 13 determines whether the person detected from the camera image is already being tracked. is determined (ST105). If a plurality of persons are present in the camera image, and if a person who is not a store clerk (that is, a customer) is detected, the process of ST105 is performed for each person.
  • the person detected from the camera image is not being tracked anymore, that is, if the person is detected for the first time from the current camera image (No in ST105), the person is added to the tracking target, and the person is added to the tracking target.
  • a person ID is assigned to the person (ST106).
  • the processor 13 registers the current camera image in the camera image database (see FIG. 4) in association with the camera ID and shooting time.
  • Processor 13 also associates the detection result of the current camera image, that is, the position information of the person frame on the camera image with the person ID and adds it to the person tracking information (ST107).
  • FIG. 8 is a flowchart showing the procedure of action detection processing performed by the analysis server 2. As shown in FIG.
  • processing is performed to detect the behavior of the customer who selects the items in front of the display shelf.
  • this action detection processing the flow shown in FIG. 8 is executed each time a camera image (frame) periodically transmitted from the camera 1 is received.
  • the processor 13 sets the person detected from the current camera image as the person of interest, the current camera image (frame) in which the person of interest is captured, the person ID, and the position information of the person frame on the current camera image. (ST201).
  • the processor 13 executes a predetermined behavior recognition process on the entire image including the person of interest, and detects the behavior of the person of interest, such as product holding behavior and product gazing behavior (ST202).
  • the processor 13 extracts from the action information database the action information about the action previously detected for the person of interest and set as the tracking target (ST203).
  • the processor 13 compares the behavior detected this time with respect to the person of interest and the behavior detected previously with respect to the person of interest, and determines whether the behavior previously detected with respect to the person of interest was not detected this time ( ST204).
  • the processor 13 determines that the behavior detected this time for the person of interest has already been set as a tracking target. (ST205).
  • the behavior detected this time regarding the person of interest has not already been set as a tracking target (No in ST205)
  • the behavior detected this time regarding the person of interest is additionally set as a tracking target, and the behavior detected this time is set as a tracking target.
  • a behavior ID is given to the behavior obtained (ST206).
  • the processor 13 determines whether or not the action detected this time regarding the person of interest is a product gazing action (ST207).
  • one cycle corresponding to the camera image interval (frame interval) is added to the cumulative value of the gazing time for that behavior. is added (ST208).
  • the accumulated value of the gaze time is updated so that the time for one cycle is added every time the product gaze action is detected from the camera image (frame).
  • the processor 13 updates the registered contents of the action information database (ST209).
  • the behavior of the target person detected this time is a product gazing behavior
  • the gazing time added this time for that behavior is registered in the behavior information database (see FIG. 5).
  • processor 13 determines a tracking period for the behavior of the person of interest, and A detection result related to the camera image, that is, action information (corresponding to the action ID) of the person of interest included in the tracking period is extracted (ST210).
  • the processor 13 determines whether or not the target person has purchased a product (purchase determination process) based on the behavior information (corresponding to the behavior ID) of the person of interest included in the tracking period (ST211). At this time, if it is detected that the target person returned the product to the display shelf, it is determined that the product is not purchased. On the other hand, when it is detected that the target person has put the product in the basket, or when the target person leaves the display shelf while holding the product, it is determined that the product is purchased.
  • the processor 13 excludes the behavior of the person of interest that has been set as the tracking target from the tracking target (ST212).
  • the processor 13 updates the registered contents of the action information database (ST209).
  • the determination result of the purchase determination process that is, information on the purchase status (whether or not there is a purchase) is registered in the behavior information database (see FIG. 5).
  • FIG. 9 is a flowchart showing the procedure of the degree-of-worry estimation process performed by the analysis server 2. As shown in FIG.
  • processing for estimating the degree of worry for each person (worry degree estimation processing) based on the behavior information for each person registered in the behavior information database (see FIG. 5) by the behavior detection processing (see FIG. 8). is done.
  • this worry level estimation process the flow shown in FIG. 9 is repeated for each person whose behavior is detected in the behavior detection process, that is, for each person whose person ID is registered in the behavior information database.
  • the processor 13 acquires behavior information about the person of interest from the behavior information database (see FIG. 5) (ST301).
  • the processor 13 acquires the number of product holding times, the product gaze time, and the number of held products based on the behavior information regarding the person of interest (ST302).
  • the processor 13 calculates the degree of concern about the person of interest based on the number of times the item is held, the time spent gazing at the item, and the number of items held (ST303).
  • the processor 13 registers the degree of concern about the person of interest in the concern level information database (see FIG. 6) together with the camera name, current time, and person ID (ST304).
  • FIG. 10 is an explanatory diagram showing the in-store map screen 21 displayed on the viewing terminal 3. As shown in FIG. 10
  • the viewing terminal 3 displays an in-store map screen 21 that visualizes the customer's product selection status for each display area (display shelf) and presents it to the user.
  • a map display section 22 is provided on the in-store map screen 21 .
  • the map display unit 22 displays a concern degree heat map 31 (map image) that visualizes the degree of concern (item selection status) for each display area on a store map showing the layout of the store.
  • a display area image 32 representing a display area (display shelf) for each product category (noodles, rice balls, etc.) is drawn on the worry level heat map 31.
  • the display mode changes accordingly.
  • the level of concern for each display area is represented by color densities.
  • a display area image 32 relating to a display area with a high degree of concern is highlighted in a dark color.
  • the degree of concern (status of product selection) for each display area is visualized in the degree-of-concern heat map 31 .
  • This allows the user (store manager, etc.) to immediately grasp the level of concern (item selection status) for each display area. In the example shown in FIG. 10, the user can immediately grasp that the display area for noodles has the highest degree of concern.
  • the in-store map screen 21 is provided with a playback operation section 23 .
  • the reproduction operation unit 23 is provided with a slider 42 that can move on a seek bar 41 .
  • the seek bar 41 corresponds to the daily business hours (from opening time to closing time) of the target store.
  • the worry level heat map 31 is displayed as a moving image.
  • a playback button 43 is provided in the playback operation unit 23 . By operating the play button 43 , the user can play back the anxiety level heat map 31 as a moving image from the time the store opens or from an arbitrary time specified with the slider 42 . Thereby, the user can immediately grasp the changing state of the customer's degree of anxieties for each display area.
  • the analysis server 2 calculates the degree of concern for each display area by aggregating the degree of concern for each person for each display area (camera 1). At this time, a totaling period of a predetermined length (for example, one minute) is set based on the display time. For example, a totaling period of a predetermined length is set immediately before the display time. Then, the degree of anxietyies for each person included in the aggregation period is aggregated, and the degree of anxieties for each display area at the display time is calculated. As a result, since the aggregation period shifts as the display time progresses, the degree of concern for each display area changes with the passage of time. The display state (for example, color density) of the area image 32 changes.
  • the display state for example, color density
  • the worry level heat map 31 is displayed as a moving image. This allows the user to immediately grasp the change in the degree of concern of the customer in each display area.
  • the user can specify the analysis target period on the seek bar 41.
  • two section designation buttons 44 are provided in the reproduction operation section 23 so as to be movable along the seek bar 41 .
  • the two section designation buttons 44 correspond to the start point and end point of the analysis target period.
  • the user can specify any period as the analysis target period by operating the section specification button 44 .
  • a portion 45 corresponding to the analysis target period on the seek bar 41 is highlighted.
  • the analysis server 2 When the analysis target period is specified in this way, the analysis server 2 performs analysis based on the customer behavior information included in the specified analysis target period, and the trouble level heat map 31 as the analysis result is displayed in the store. It is displayed on the map screen 21 . This allows the user to narrow down the time period and check the customer's level of concern.
  • the in-store map screen 21 is provided with a tab 25 for selecting the screen. By operating the tab 25, the user can switch between the in-store map screen 21 (see FIG. 10) and the camera image screen 51 (see FIG. 11).
  • FIG. 11 is an explanatory diagram showing a camera image screen 51 displayed on the viewing terminal 3. As shown in FIG.
  • a camera image screen 51 relating to the selected display area is displayed.
  • the camera image tab 25 is operated on the in-store map screen 21 , the camera image screen 51 is displayed.
  • a camera image display section 52 is provided on the camera image screen 51 .
  • a camera image 61 is displayed on the camera image display section 52 .
  • the camera 1 shoots a display area (display shelf) and an area in front of the display area where customers stay to check the products from above.
  • the camera image 61 shows the product in the display area and the customer who picks up and looks at the product. Accordingly, by viewing the camera image 61, the user can specifically visually confirm the customer's actual product selection status.
  • a balloon 62 (information display section) is displayed.
  • the balloon 62 displays the name of the product picked up by the person, the number of times the person picked up the product (number of times the product was held), and the time during which the person is selecting the product (product gaze time). be done.
  • the name of the product may be displayed in the balloon 62 when the operation of selecting the product is performed, and the person ID may be displayed in the balloon 62 when the operation of selecting the person is performed.
  • the camera image screen 51 is provided with a reproduction operation section 23 in the same manner as the in-store map screen 21 (see FIG. 10).
  • a camera image at a desired time can be displayed.
  • the playback button 43 the camera image can be played back as a moving image from an arbitrary time.
  • a graph display section 53 is also provided on the camera image screen 51 .
  • the graph display section 53 displays a worry level graph 65 regarding the display area corresponding to the camera image.
  • the horizontal axis represents time and the vertical axis represents the level of worry, and the change in the level of worry over time is expressed. This allows the user to immediately grasp the change in the level of concern in the target display area.
  • the camera image screen 51 is provided with a plurality of area selection buttons 54 for each display area.
  • the area selection button 54 When the user operates the area selection button 54 , the screen transitions to the camera image screen 51 regarding the display area corresponding to the area selection button 54 .
  • the user can easily switch to the camera image screen 51 relating to the desired display area and check the customer's item selection status in the desired display area.
  • the user can immediately grasp the time when the worry level is high.
  • the user can operate the reproduction operation unit 23 to display the camera image 61 at the time when the customer is concerned, so that the customer can confirm the situation in which the customer is concerned. It is possible to grasp whether or not the customer has purchased the
  • the user can confirm the name of the product picked up by the customer.
  • the customer's item selection status is displayed in real time based on the customer's behavior information on the current day. may be displayed in In this case, the in-store map screen 21 and the camera image screen 51 are generated based on past customer behavior information so that the user can specify conditions (date, day of the week, period, etc.) so as to meet the conditions. Just do it.
  • the embodiment has been described as an example of the technology disclosed in this application.
  • the technology in the present disclosure is not limited to this, and can also be applied to embodiments with modifications, replacements, additions, omissions, and the like. Further, it is also possible to combine the constituent elements described in the above embodiments to create new embodiments.
  • the store operation support device and the store operation support method according to the present disclosure have the effect that the user can fully grasp the customer's product selection status and can immediately take effective measures to improve the store operation.
  • Store operation support that analyzes the person's item selection status based on camera images taken of people staying in front of the display area in the store, and presents the analysis results to the user to support the user's business. It is useful as a device and a store management support method.

Abstract

【課題】ユーザが、顧客の品定め状況を十分に把握することができ、直ちに店舗の運営改善に向けた有効な施策等を講ずることができるようにする。 【解決手段】分析サーバ2は、店舗において陳列エリアの前に滞在する人物を撮影したカメラ画像に基づいて、人物の品定め状況に関する分析を行い、その分析結果をユーザに提示する。特に分析サーバ2は、カメラ画像から人物を検出して、分析対象とする人物を特定し、カメラ画像から人物の行動を検出して、分析対象とする人物ごとの行動情報を商品と対応付けて取得して、その人物ごとの行動情報を記憶部に蓄積し、記憶部に蓄積された行動情報に基づき、少なくとも商品の品定めに要した時間を含む品定め情報を生成して、その人物ごとの品定め情報を記憶部に蓄積し、記憶部に蓄積された品定め情報に基づき、各商品に対応した品定め状況を可視化した分析結果を取得する。

Description

店舗運営支援装置および店舗運営支援方法
 本開示は、店舗において陳列エリアの前に滞在する人物を撮影したカメラ画像に基づいて、人物の品定め状況に関する分析を行い、その分析結果をユーザに提示することでユーザの店舗運営業務を支援する店舗運営支援装置および店舗運営支援方法に関するものである。
 店舗では、顧客が、商品を購入する際に、陳列棚の前で商品の品定めを行う。このような顧客の品定め状況に関する分析を行うと、在庫管理や店内レイアウトなどに関する改善策を検討する上で有益な情報を、ユーザ(店舗の管理者など)に提示して、ユーザの業務を支援することができる。
 このような店舗における顧客の品定め状況に関する分析に関連する技術として、従来、陳列棚を撮影したカメラ画像に基づいて、「商品棚に商品が配置されたことによる変化」、または、「商品棚に配置された商品の位置をずらしたことによる変化」を検出して、顧客が興味を持ったが購入されなかった商品を特定し、顧客が商品に興味を持ったが購入しなかった頻度を取得する技術が知られている(特許文献1参照)。
国際公開第2019/171574号
 しかしながら、従来の技術は、顧客が商品に興味を持ったが購入しなかった頻度にしか注目していない。このため、ユーザが、顧客の品定め状況、具体的には、顧客が品定めにどの程度悩んでいたかを十分に把握できない。これにより、ユーザが、提示された情報に基づいて、直ちに店舗の運営改善に向けた有効な施策等を講ずることができないという問題があった。
 そこで、本開示は、ユーザが、顧客の品定め状況を十分に把握することができ、直ちに店舗の運営改善に向けた有効な施策等を講ずることができる店舗運営支援装置および店舗運営支援方法を提供することを主な目的とする。
 本開示の店舗運営支援装置は、店舗において陳列エリアの前に滞在する人物を撮影したカメラ画像に基づき、人物の品定め状況に関する分析を行い、その分析結果をユーザに提示する処理を行うプロセッサを備えた店舗運営支援装置であって、前記プロセッサが、前記カメラ画像から人物を検出して、分析対象とする人物を特定し、前記カメラ画像から人物の行動を検出して、前記分析対象とする人物ごとの行動情報を商品と対応付けて取得して、その人物ごとの行動情報を記憶部に蓄積し、前記記憶部に蓄積された前記行動情報に基づき、少なくとも商品の品定めに要した時間を含む品定め情報を生成して、その人物ごとの品定め情報を前記記憶部に蓄積し、前記記憶部に蓄積された前記品定め情報に基づき、各商品に対応した品定め状況を可視化した前記分析結果を取得する構成とする。
 また、本開示の店舗運営支援方法は、店舗において陳列エリアの前に滞在する人物を撮影したカメラ画像に基づき、人物の品定め状況に関する分析を行い、その分析結果をユーザに提示する処理を情報処理装置に行わせる店舗運営支援方法であって、前記カメラ画像から人物を検出して、分析対象とする人物を特定し、前記カメラ画像から人物の行動を検出して、前記分析対象とする人物ごとの行動情報を商品と対応付けて取得して、その人物ごとの行動情報を記憶部に蓄積し、前記記憶部に蓄積された前記行動情報に基づき、少なくとも商品の品定めに要した時間を含む品定め情報を生成して、その人物ごとの品定め情報を前記記憶部に蓄積し、前記記憶部に蓄積された前記品定め情報に基づき、各商品に対応した品定め状況を可視化した前記分析結果を取得する構成とする。
 本開示によれば、商品の品定めに要した時間を含む品定め情報に基づき、各商品に対応した品定め状況を可視化した分析結果を取得して、その分析結果をユーザに提示する。これにより、ユーザが、顧客の品定め状況を十分に把握することができ、直ちに店舗の運営改善に向けた有効な施策等を講ずることができる。
本実施形態に係る店舗運営支援システムの全体構成図 顧客が品定めを行う際のカメラ画像の遷移状況を示す説明図 分析サーバの概略構成を示すブロック図 分析サーバで管理されるカメラ画像データベースの登録内容を示す説明図 分析サーバで管理される行動情報データベースの登録内容を示す説明図 分析サーバで管理される悩み度情報データベースの登録内容を示す説明図 分析サーバで行われる人物特定処理の手順を示すフロー図 分析サーバで行われる行動検出処理の手順を示すフロー図 分析サーバで行われる悩み度推定処理の手順を示すフロー図 閲覧端末に表示される店内マップ画面を示す説明図 閲覧端末に表示されるカメラ画像画面を示す説明図
 前記課題を解決するためになされた第1の発明は、店舗において陳列エリアの前に滞在する人物を撮影したカメラ画像に基づき、人物の品定め状況に関する分析を行い、その分析結果をユーザに提示する処理を行うプロセッサを備えた店舗運営支援装置であって、前記プロセッサが、前記カメラ画像から人物を検出して、分析対象とする人物を特定し、前記カメラ画像から人物の行動を検出して、前記分析対象とする人物ごとの行動情報を商品と対応付けて取得して、その人物ごとの行動情報を記憶部に蓄積し、前記記憶部に蓄積された前記行動情報に基づき、少なくとも商品の品定めに要した時間を含む品定め情報を生成して、その人物ごとの品定め情報を前記記憶部に蓄積し、前記記憶部に蓄積された前記品定め情報に基づき、各商品に対応した品定め状況を可視化した前記分析結果を取得する構成とする。
 これによると、商品の品定めに要した時間を含む品定め情報に基づき、各商品に対応した品定め状況を可視化した分析結果を取得して、その分析結果をユーザに提示する。これにより、ユーザが、顧客の品定め状況を十分に把握することができ、直ちに店舗の運営改善に向けた有効な施策等を講ずることができる。
 また、第2の発明は、前記プロセッサが、前記カメラ画像から検出された人物の特徴情報に基づき、その人物を店員と判定すると、その人物を分析対象から除外する構成とする。
 これによると、品出しなどの作業を行う店員が分析対象に含まれることを避けることができるため、適切な分析結果を得ることができる。
 また、第3の発明は、前記プロセッサが、人物の品定めに関係する行動として、商品保持行動と商品注視行動とを検出し、その検出結果を含む前記行動情報を取得する構成とする。
 これによると、行動情報に基づいて、人物の品定め状況に関する品定め情報を適切に取得することができる。
 また、第4の発明は、前記プロセッサが、前記陳列エリアごとの前記品定め情報を可視化した画像が、店舗内のレイアウトを表す画像上に描画されたマップ画像を含む前記分析結果を出力する構成とする。
 これによると、ユーザが、陳列エリアごとの顧客の品定め状況を即座に把握することができる。この場合、各時刻のマップ画像が動画で再生されるものとしてもよい。
 また、第5の発明は、前記プロセッサが、前記マップ画像を表示した画面において前記陳列エリアを選択するユーザの操作に応じて、選択された前記陳列エリアに対応する前記カメラ画像を含む前記分析結果を出力する構成とする。
 これによると、ユーザが、マップ画像を閲覧することで注目した陳列エリアに関して、カメラ画像を閲覧することで、顧客の品定め状況を具体的に把握することができる。この場合、各時刻のカメラ画像が動画で再生されるものとしてもよい。
 また、第6の発明は、前記プロセッサが、前記行動情報に基づき、前記品定め情報として、商品保持回数、商品注視時間、および保持商品数を取得し、この商品保持回数、商品注視時間、および保持商品数に基づき、人物が品定めに悩んだ度合を数値化した品定め度数を取得する構成とする。
 これによると、品定め度数(悩み度)により、顧客の品定め状況をヒートマップやグラフを用いて可視化することができる。これにより、ユーザが、顧客の品定め状況を容易に把握することができる。
 また、第7の発明は、店舗において陳列エリアの前に滞在する人物を撮影したカメラ画像に基づき、人物の品定め状況に関する分析を行い、その分析結果をユーザに提示する処理を情報処理装置に行わせる店舗運営支援方法であって、前記カメラ画像から人物を検出して、分析対象とする人物を特定し、前記カメラ画像から人物の行動を検出して、前記分析対象とする人物ごとの行動情報を商品と対応付けて取得して、その人物ごとの行動情報を記憶部に蓄積し、前記記憶部に蓄積された前記行動情報に基づき、少なくとも商品の品定めに要した時間を含む品定め情報を生成して、その人物ごとの品定め情報を前記記憶部に蓄積し、前記記憶部に蓄積された前記品定め情報に基づき、各商品に対応した品定め状況を可視化した前記分析結果を取得する構成とする。
 これによると、第1の発明と同様に、ユーザが、顧客の品定め状況を十分に把握することができ、直ちに店舗の運営改善に向けた有効な施策等を講ずることができる。
 以下、本開示の実施の形態を、図面を参照しながら説明する。
 図1は、本実施形態に係る店舗運営支援システムの全体構成図である。
 この店舗運営支援システムは、店舗において陳列棚の前で品定めを行う顧客の状況に関する分析を行い、その分析結果をユーザ(店舗の管理者)に提示して、ユーザの業務を支援するものである。店舗運営支援システムは、カメラ1と、分析サーバ2(店舗運営支援装置、情報処理装置)と、閲覧端末3とを備えている。カメラ1、分析サーバ2、および閲覧端末3は、ネットワークを介して接続されている。
 カメラ1は、店舗内の適所に設置される。カメラ1は、店舗内の陳列棚(陳列エリア)と、その手前側で顧客が品定めのために滞在する通路(滞在エリア)とを撮影する。
 分析サーバ2は、店舗における顧客の品定めの状況に関する分析を行う。分析サーバ2は、PCなどで構成される。なお、分析サーバ2は、店舗内に設置される他に、クラウドコンピュータであってもよい。
 閲覧端末3は、ユーザ(店舗の管理者など)が分析サーバ2の分析結果を閲覧するものである。閲覧端末3は、PCやタブレット端末などで構成される。
 ここで、本実施形態では、顧客の品定め状況に関する分析が、商品区分(麺類、おにぎりなど)に対応する陳列エリア(陳列棚)ごとに行われる。一方、カメラ1は、対象とする商品区分の陳列エリアを撮影する。これにより、分析サーバ2は、カメラ画像に基づいて、顧客の品定め状況に関する分析を陳列エリア(商品区分)ごとに行うことができる。なお、1台のカメラ1で複数の陳列エリアを撮影して、そのカメラ1によるカメラ画像から、各陳列エリアの撮影画像を抽出するものとしてもよい。
 次に、店舗内の陳列棚の前における顧客の行動について説明する。図2は、顧客が品定めを行う際のカメラ画像の遷移状況を示す説明図である。
 カメラ1は、陳列棚(陳列エリア)と、その手前側で顧客が品定めのために滞在する通路(滞在エリア)とを、上方から撮影する。カメラ画像には、陳列棚の商品や、陳列棚の前で品定めを行う人物(顧客)が写る。なお、カメラ1が陳列棚および人物を側方から撮影するものとしてもよい。また、カメラ1では、所定のフレームレートで撮影された各時刻のカメラ画像(フレーム)が定期的に分析サーバ2に送信される。
 ここで、人物が商品を購入しなかった場合について説明する。この場合、まず、図2(A),(B)に示すように、陳列棚の前に人物が現れる。次に、図2(C)に示すように、人物が、商品棚に手を伸ばして商品棚の商品を手に取る。次に、図2(D)に示すように、人物が、手に取った商品を注視する。次に、図2(E)に示すように、人物が、手に取った商品を商品棚に戻す。次に、図2(F),(G)に示すように、人物が、陳列棚の前からいなくなる。
 一方、人物が商品を購入した場合には、図2(D)に示すように、人物が、手に取った商品を注視した後、手に取った商品を商品棚に戻さないまま、図2(G)に示すように、陳列棚の前からいなくなる。このため、人物が、手に取った商品を商品棚に戻す動作を検知できない場合には、その人物が商品を購入したものと判定することができる。
 また、本実施形態では、顧客の品定めに関係する行動として、商品保持行動と商品注視行動とが検出される。商品保持行動は、図2(C),(D),(E)に示すように、人物が商品を手に保持する行動である。この商品保持行動の検出状況に基づいて、人物が、商品棚の商品を手に取ったり、手に取った商品を商品棚に戻したりしたことを検知することができる。また、商品注視行動は、図2(D)に示すように、人物が商品を注視する行動である。この商品注視行動の継続時間(商品注視時間)は、商品の品定めに要した時間であり、顧客が品定めに悩んでいる度合を表し、注視時間が長い程、顧客が品定めに悩んでいるものと推定される。
 なお、本実施形態では、商品が陳列棚に陳列された例について説明するが、商品が陳列される店舗什器は陳列棚に限定されない。例えば、陳列棚の他に陳列台(ワゴン)などに商品が陳列される場合もある。
 次に、分析サーバ2の概略構成について説明する。図3は、分析サーバ2の概略構成を示すブロック図である。
 分析サーバ2は、通信部11と、記憶部12と、プロセッサ13と、を備えている。
 通信部11は、カメラ1および閲覧端末3との間で通信を行う。
 記憶部12は、プロセッサ13で実行されるプログラムなどを記憶する。また、記憶部12は、カメラ画像データベース(図4参照)の登録情報、行動情報データベース(図5参照)の登録情報、および悩み度情報データベース(図6参照)の登録情報を記憶する。
 プロセッサ13は、記憶部12に記憶されたプログラムを実行することで各種の処理を行う。本実施形態では、プロセッサ13が、画像取得処理、人物特定処理、行動検出処理、悩み度推定処理、悩み度集計処理、および分析結果提示処理などを行う。
 画像取得処理では、プロセッサ13が、通信部11によりカメラ1から受信したカメラ画像を取得する。このカメラ画像は、カメラ1のIDおよび撮影時刻と対応付けてカメラ画像データベース(図4参照)に登録される。
 人物特定処理では、プロセッサ13が、カメラ画像に基づいて、分析対象とする人物を特定する。このとき、まず、カメラ画像から人物を検出し(人物検出処理)、その人物の特徴情報に基づいて、店員でないと判定された人物、すなわち、顧客に対して、分析対象としての人物IDを付与する。一方、検出された人物が店員である場合には、その人物を分析対象(検出結果)から除外する(店員除外処理)。また、プロセッサ13が、カメラ画像から抽出された人物の特徴情報に基づいて、以前に検出された人物と同一人物である場合には、その人物を対応付ける処理(人物追跡処理)を行う。
 行動検出処理では、プロセッサ13が、人物特定処理で分析対象とした人物に関して、各時刻のカメラ画像(フレーム)から人物の行動を検出する。行動検出処理の結果として、各カメラにおける人物ごとの行動情報が、行動情報データベース(図5参照)に登録される。
 ここで、本実施形態では、プロセッサ13が、顧客の品定めに関係する行動として、人物が商品を手に保持する行動(商品保持行動)と、人物が商品を注視する行動(商品注視行動)とを検出する。
 また、ここでは、プロセッサ13が、各時刻のカメラ画像(フレーム)から検出された行動を、同一人物による一連の行動として対応付ける(行動追跡処理)。具体的には、カメラ画像から人物の行動が新規に検出されると、その行動に新たな行動IDが付与され、以降のカメラ画像から検出される同一人物による一連の行動には同一の行動IDが付与される。
 また、ここでは、プロセッサ13が、カメラ画像から人物が手に取った商品を検出して、その商品の名称を画像認識により特定する(商品検出処理)。
 また、ここでは、プロセッサ13が、人物の商品注視行動の継続時間を測定することで、人物が商品を注視した時間(商品注視時間)を取得する(注視時間測定処理)。具体的には、商品注視行動が検出されたカメラ画像(フレーム)の枚数と、カメラ画像の間隔(フレーム間隔)に対応する1サイクル分の時間とに基づいて、商品注視時間が測定される。
 また、ここでは、プロセッサ13が、人物の追跡期間(人物がカメラ1の撮影エリアに進入してから退出するまでの期間)が終了したところで、購入の有無を判定する(購入判定処理)。このとき、人物の商品保持行動を追跡することで、人物が手に取った商品を商品棚に戻したか否かが検知され、その結果に応じて購入の有無を判定する。なお、人物が手に取った商品を陳列棚に戻さないまま陳列棚の前からいなくなることで、購入と判定すればよいが、人物が手に取った商品をカゴに入れる動作を検知するものとしてもよい。
 悩み度推定処理では、プロセッサ13が、行動情報データベース(図5参照)に登録された行動検出処理の検出結果である行動情報に基づいて、各陳列エリアの各時刻における人物ごとの悩み度を推定する。悩み度推定処理の結果として、各陳列エリアに対応する各カメラ1の各時刻における人物ごとの悩み度が悩み度情報データベース(図6参照)に登録される。
 悩み度(品定め度数)は、人物が商品を購入する際に品定めに悩んだ度合を数値化したものである。本実施形態では、人物ごとに商品保持回数、商品注視時間、および保持商品数を取得し、この商品保持回数、商品注視時間、および保持商品数に基づいて、人物ごとの悩み度を次式に基づいて算出する。
 悩み度=λ×商品注視時間(秒)+λ×商品保持回数(回)+λ×保持商品数(個)
 例えば、各係数に対して、λ=1,λ=5,λ=10が設定され、2種類の商品をそれぞれ1回ずつ手に取り、合計で30秒注視した場合の悩み度は、1×30+5×2+10×2=60となる。
 ここで、商品保持回数は、人物が商品を手に取る商品保持行動の実施回数である。商品注視時間は、人物が商品を注視する商品注視行動の継続時間である。保持商品数は、人物が商品を手に取る商品保持行動の対象となる商品の数である。なお、同一の商品を繰り返し手に取った場合の重複分はカウントされない。
 悩み度集計処理では、プロセッサ13が、悩み度推定処理で取得した各カメラの各時刻における人物ごとの悩み度を集計して、各カメラに対応する陳列エリアごとの各時刻の悩み度を算出する。
 分析結果提示処理では、プロセッサ13が、店舗内での顧客の品定め状況に関する分析結果をユーザに提示する。具体的には、閲覧端末3からの要求に応じて、悩み度集計処理で取得した陳列エリアごとの各時刻の悩み度を可視化した悩み度ヒートマップを含む店内マップ画面21(図10参照)を閲覧端末3に表示する。また、陳列エリアごとのカメラ画像と、陳列エリアごとの各時刻の悩み度を可視化した悩み度グラフとを含むカメラ画像画面51(図11参照)を閲覧端末3に表示する。
 次に、分析サーバ2で管理されるカメラ画像データベースについて説明する。図4は、カメラ画像データベースの登録内容を示す説明図である。
 分析サーバ2は、カメラ1から受信した各時刻のカメラ画像(フレーム)を、カメラ画像データベースに登録して管理する。カメラ画像データベースでは、カメラ画像が、カメラ1の名称(カメラID)および撮影時刻と対応付けて登録される。
 次に、分析サーバ2で管理される行動情報データベースについて説明する。図5は、行動情報データベースの登録内容を示す説明図である。
 分析サーバ2では、各時刻のカメラ画像(フレーム)から人物の行動を検出する処理(行動検出処理)が行われ、この行動検出処理の結果、すなわち、各カメラにおける人物ごとの行動情報が、行動情報データベースに登録される。
 行動情報データベースには、人物ごとの行動情報として、陳列エリアに対応するカメラ1の名称(カメラID)、人物ID、行動ID、商品の名称(商品ID)、商品注視時間、および購入状況情報(購入の有無に関する情報)として購入(True)および非購入(False)が登録される。
 ここで、行動検出処理では、人物が商品を手に取って戻す、または商品を手に取って戻さないまま陳列棚の前から去る一連の行動に対して行動IDが付与される。したがって、ある人物が1つの陳列エリアにおいて、商品を手に取って戻す行動を複数回行った場合、人物が手に取った商品が異なる場合でも、また、商品が同じ場合でも、別の行動として検出されて、別の行動IDが付与される。
 次に、分析サーバ2で管理される悩み度情報データベースについて説明する。図6は、悩み度情報データベースの登録内容を示す説明図である。
 分析サーバ2では、人物ごとの悩み度を推定する処理(悩み度推定処理)が行われ、この悩み度推定処理の結果、すなわち、各陳列エリアに対応する各カメラ1の各時刻における人物ごとの悩み度が、悩み度情報データベースに登録される。
 悩み度情報データベースには、人物ごとの悩み度情報として、カメラ1の名称(カメラID)、推定時刻、人物ID、および悩み度が登録される。
 ここで、悩み度推定処理では、人物ごとの悩み度を推定する処理が定期的に行われる。したがって、品定めのために人物が商品を注視する時間(商品注視行動の継続時間)が長くなると、その人物に関する各時刻の悩み度の値は次第に大きくなる。
 次に、分析サーバ2で行われる人物特定処理について説明する。図7は、分析サーバ2で行われる人物特定処理の手順を示すフロー図である。
 分析サーバ2では、カメラ画像に基づいて、分析対象とする人物を特定する処理(人物特定処理)が行われる。この人物特定処理では、図7に示すフローが、カメラ1から定期的に送信される各時刻のカメラ画像(フレーム)を受信する度に実行される。
 まず、プロセッサ13が、通信部11によりカメラ1から受信したカメラ画像を取得する(画像取得処理)(ST101)。
 次に、プロセッサ13が、カメラ画像から人物を検出する(人物検出処理)(ST102)。このとき、カメラ画像に対して、人物を取り囲む矩形の人物枠(人物領域)を設定して、カメラ画像上での人物枠の位置情報を取得する。
 次に、プロセッサ13が、カメラ画像から検出された人物が店員か否かを判定する(ST103)。このとき、服装の特徴に基づいて人物が店員か否かを判定することができる。具体的には、人物が店舗の制服を着用しているか否かに応じて、その人物が店員か否かを判定することができる。なお、店員は、陳列棚の前で品出しなどの作業を行うため、陳列棚の前で品定めをする顧客と混同される。
 ここで、カメラ画像から検出された人物が店員である場合には(ST103でYes)、その人物を分析対象(検出結果)から除外する(店員除外処理)(ST104)。そして、今回のカメラ画像(フレーム)に対する処理は終了される。
 一方、カメラ画像から検出された人物が店員でない場合、すなわち顧客である場合には(ST103でNo)、次に、プロセッサ13が、カメラ画像から検出された人物が既に追跡中であるか否かを判定する(ST105)。なお、カメラ画像内に複数の人物が存在する場合、店員でない人物(すなわち、顧客)が検出された場合には、その人物ごとにST105の処理が行われる。
 ここで、カメラ画像から検出された人物が既に追跡中でない、すなわち、今回のカメラ画像で初めて検出された人物である場合には(ST105でNo)、その人物を追跡対象に追加すると共に、その人物に人物IDを付与する(ST106)。
 次に、プロセッサ13が、今回のカメラ画像を、カメラIDおよび撮影時刻と対応付けてカメラ画像データベース(図4参照)に登録する。また、プロセッサ13が、今回のカメラ画像に関する検出結果、すなわち、カメラ画像上での人物枠の位置情報を、人物IDと対応付けて人物追跡情報に追加する(ST107)。
 一方、カメラ画像から検出された人物が既に追跡中である場合には(ST105でYes)、ST106の処理は省略される。
 次に、分析サーバ2で行われる行動検出処理について説明する。図8は、分析サーバ2で行われる行動検出処理の手順を示すフロー図である。
 分析サーバ2では、カメラ1から受信したカメラ画像に基づいて、陳列棚の前で品定めを行う顧客の行動を検出する処理(行動検出処理)が行われる。この行動検出処理では、図8に示すフローが、カメラ1から定期的に送信される各時刻のカメラ画像(フレーム)を受信する度に実行される。
 まず、プロセッサ13が、今回のカメラ画像から検出された人物を注目人物として、その注目人物が写る今回のカメラ画像(フレーム)と、人物IDおよび今回のカメラ画像上での人物枠の位置情報とを取得する(ST201)。
 次に、プロセッサ13が、注目人物が含まれる画像全体に対して、所定の行動認識処理を実行し、商品保持行動、商品注視行動等の注目人物の行動を検出する(ST202)。
 次に、プロセッサ13が、注目人物に関して以前に検出されて追跡対象に設定された行動に関する行動情報を行動情報データベースから抽出する(ST203)。
 次に、プロセッサ13が、注目人物に関して今回検出された行動と、以前に検出された行動とを比較して、注目人物に関して以前に検出された行動が今回検出されなかったか否かを判定する(ST204)。
 ここで、注目人物に関して以前に検出された行動が今回も検出された場合には(ST101でNo)、次に、プロセッサ13が、注目人物に関して今回検出された行動が、既に追跡対象に設定されているか否かを判定する(ST205)。
 ここで、注目人物に関して今回検出された行動が、既に追跡対象に設定されていない場合には(ST205でNo)、注目人物に関して今回検出された行動を追跡対象に追加設定すると共に、今回検出された行動に行動IDを付与する(ST206)。
 次に、プロセッサ13が、注目人物に関して今回検出された行動が商品注視行動であるか否かを判定する(ST207)。
 ここで、注目人物に関して今回検出された行動が商品注視行動である場合には(ST207でYes)、その行動に関する注視時間の累積値に、カメラ画像の間隔(フレーム間隔)に対応する1サイクル分の時間を加算する(ST208)。ここでは、カメラ画像(フレーム)から商品注視行動が検出されるたびに、1サイクル分の時間が加算されるように注視時間の累積値が更新される。
 次に、プロセッサ13が、行動情報データベースの登録内容を更新する(ST209)。このとき、今回検出された対象人物の行動が商品注視行動である場合には、その行動に関して今回加算された注視時間を行動情報データベース(図5参照)に登録する。
 一方、注目人物に関して以前に検出された行動が今回検出されなかった場合には(ST204でYes)、次に、プロセッサ13が、注目人物の行動に関する追跡期間を確定し、その追跡期間に含まれるカメラ画像に関する検出結果、すなわち、追跡期間に含まれる注目人物の行動情報(行動IDに対応)を抽出する(ST210)。
 次に、プロセッサ13が、追跡期間に含まれる注目人物の行動情報(行動IDに対応)に基づいて、対象人物が商品を購入したか否かを判定する(購入判定処理)(ST211)。このとき、対象人物が商品を陳列棚に戻したことが検知された場合には、非購入と判定する。一方、対象人物が商品をカゴに入れたことが検知された場合や、対象人物が商品を持ったまま陳列棚から離れた場合には、購入と判定する。
 次に、プロセッサ13が、注目人物に関して追跡対象に設定されていた行動を追跡対象から除外する(ST212)。
 次に、プロセッサ13が、行動情報データベースの登録内容を更新する(ST209)。このとき、購入判定処理の判定結果、すなわち、購入状況(購入の有無)の情報を行動情報データベース(図5参照)に登録する。
 次に、分析サーバ2で行われる悩み度推定処理について説明する。図9は、分析サーバ2で行われる悩み度推定処理の手順を示すフロー図である。
 分析サーバ2では、行動検出処理(図8参照)により行動情報データベース(図5参照)に登録された人物ごとの行動情報に基づいて、人物ごとの悩み度を推定する処理(悩み度推定処理)が行われる。この悩み度推定処理では、図9に示すフローが、行動検出処理で行動が検出された人物、すなわち、行動情報データベースに人物IDが登録された人物ごとに繰り返される。
 まず、プロセッサ13が、注目人物に関する行動情報を、行動情報データベース(図5参照)から取得する(ST301)。
 次に、プロセッサ13が、注目人物に関する行動情報に基づいて、商品保持回数、商品注視時間、および保持商品数を取得する(ST302)。
 次に、プロセッサ13が、商品保持回数、商品注視時間、および保持商品数に基づいて、注目人物に関する悩み度を算出する(ST303)。
 次に、プロセッサ13が、注目人物に関する悩み度を、カメラ名称、現在時刻、および人物IDと共に、悩み度情報データベース(図6参照)に登録する(ST304)。
 次に、閲覧端末3に表示される店内マップ画面21について説明する。図10は、閲覧端末3に表示される店内マップ画面21を示す説明図である。
 閲覧端末3では、陳列エリア(陳列棚)ごとの顧客の品定め状況を可視化してユーザに提示する店内マップ画面21が表示される。
 店内マップ画面21には、マップ表示部22が設けられている。マップ表示部22には、店舗内のレイアウトを表す店内マップ上に、陳列エリアごとの悩み度(品定め状況)の高さを可視化した悩み度ヒートマップ31(マップ画像)が表示される。
 具体的には、悩み度ヒートマップ31に、商品区分(麺類、おにぎりなど)ごとの陳列エリア(陳列棚)を表す陳列エリア画像32が描画され、この陳列エリア画像32が、悩み度の高さに応じて表示形態が変化する。図10に示す例では、陳列エリアごとの悩み度の高さが色の濃淡で表現されている。悩み度の高い陳列エリアに関する陳列エリア画像32が濃い色で強調表示される。
 このように本実施形態では、悩み度ヒートマップ31において、陳列エリアごとの悩み度(品定め状況)が可視化される。これにより、ユーザ(店舗の管理者など)が、陳列エリアごとの悩み度(品定め状況)を即座に把握することができる。図10に示す例では、ユーザが、麺類の陳列エリアで悩み度が最も高くなっていることを即座に把握することができる。
 また、店内マップ画面21には、再生操作部23が設けられている。この再生操作部23には、シークバー41上を移動可能なスライダー42が設けられている。シークバー41は、対象となる店舗における1日の営業時間(開店時刻から閉店時刻まで)に対応する。ユーザは、スライダー42を操作して再生位置(再生時刻)を指定することで、営業時間内の任意の時刻における悩み度ヒートマップ31を表示させることができる。
 また、悩み度ヒートマップ31は、動画で表示される。再生操作部23には、再生ボタン43が設けられている。ユーザは、再生ボタン43を操作することで、開店時刻から、あるいはスライダー42で指定した任意の時刻から、悩み度ヒートマップ31を動画で再生させることができる。これにより、ユーザが、陳列エリアごとに顧客の悩み度の変化状況を即座に把握することができる。
 ここで、分析サーバ2では、人物ごとの悩み度を陳列エリア(カメラ1)ごとに集計することで、陳列エリアごとの悩み度が算出される。このとき、表示時刻を基準にした所定長さ(例えば1分間)の集計期間が設定される。例えば、表示時刻の直前に所定長さの集計期間が設定される。そして、その集計期間に含まれる人物ごとの悩み度を集計して、表示時刻における陳列エリアごとの悩み度が算出される。これにより、表示時刻が進むのに応じて集計期間がずれるため、時間の経過に伴って陳列エリアごとの悩み度が変化し、その悩み度の変化に応じて、悩み度ヒートマップ31では、陳列エリア画像32の表示状態(例えば色の濃淡)が変化する。
 このように本実施形態では、悩み度ヒートマップ31が動画で表示される。これにより、ユーザが、各陳列エリアにおける顧客の悩み度の推移状況を即座に把握することができる。
 また、再生操作部23では、ユーザが、分析対象期間をシークバー41上で指定することができる。具体的には、再生操作部23に2つの区間指定ボタン44がシークバー41に沿って移動可能に設けられている。2つの区間指定ボタン44は分析対象期間の始点および終点に対応する。ユーザは、区間指定ボタン44を操作することで、分析対象期間として任意の期間を指定することができる。このとき、シークバー41上の分析対象期間に対応する部分45が強調表示される。
 このように分析対象期間が指定されると、分析サーバ2では、指定された分析対象期間に含まれる顧客の行動情報に基づいて分析が行われ、その分析結果としての悩み度ヒートマップ31が店内マップ画面21に表示される。これにより、ユーザが、時間帯を絞り込んで顧客の悩み度を確認することができる。
 また、店内マップ画面21には、画面を選択するためのタブ25が設けられている。ユーザは、タブ25を操作することで、店内マップ画面21(図10参照)とカメラ画像画面51(図11参照)とを切り換えることができる。
 次に、閲覧端末3に表示されるカメラ画像画面51について説明する。図11は、閲覧端末3に表示されるカメラ画像画面51を示す説明図である。
 店内マップ画面21(図10参照)において、陳列エリアを選択する操作を行うと、選択された陳列エリアに関するカメラ画像画面51が表示される。また、店内マップ画面21において、カメラ画像のタブ25を操作すると、カメラ画像画面51に遷移する。
 カメラ画像画面51には、カメラ画像表示部52が設けられている。カメラ画像表示部52には、カメラ画像61が表示される。カメラ1は、陳列エリア(陳列棚)と、その手前側で顧客が品定めのために滞在するエリアとを上方から撮影する。カメラ画像61には、陳列エリアの商品や、その商品を手に取って見る顧客が写る。これにより、ユーザが、カメラ画像61を閲覧することで、顧客の実際の品定め状況を目視で具体的に確認することができる。
 また、カメラ画像表示部52では、ユーザが、カメラ画像61上において人物または商品を選択する操作を行うと、吹き出し62(情報表示部)が表示される。この吹き出し62には、人物が手に取った商品の名称、その商品を人物が手に取った回数(商品保持回数)、その商品を人物が品定めをしている時間(商品注視時間)が表示される。なお、商品を選択する操作を行うと、吹き出し62に商品の名称が表示され、人物を選択する操作を行うと、吹き出し62に人物IDが表示されるものとしてもよい。
 また、カメラ画像画面51には、店内マップ画面21(図10参照)と同様に、再生操作部23が設けられている。この再生操作部23では、シークバー41に沿ってスライダー42を移動させる操作を行うことで、所要の時刻のカメラ画像を表示させることができる。また、再生ボタン43を操作することで、任意の時刻からカメラ画像を動画で再生させることができる。
 また、カメラ画像画面51には、グラフ表示部53が設けられている。グラフ表示部53には、カメラ画像に対応する陳列エリアに関する悩み度グラフ65が表示される。悩み度グラフ65では、横軸が時間を表し、縦軸が悩み度を表しており、時間の経過に応じた悩み度の推移状況が表現される。これにより、ユーザが、対象とする陳列エリアにおける悩み度の推移状況を即座に把握することができる。
 また、カメラ画像画面51には、複数のエリア選択ボタン54が陳列エリアごとに設けられている。ユーザが、エリア選択ボタン54を操作すると、そのエリア選択ボタン54に対応する陳列エリアに関するカメラ画像画面51に遷移する。これにより、ユーザが、所望の陳列エリアに関するカメラ画像画面51に容易に切り換えて、所望の陳列エリアにおける顧客の品定め状況を確認することができる。
 このように本実施形態では、悩み度の推移状況を表す悩み度グラフ65が表示されるため、ユーザが、悩み度の高い時刻を即座に把握することができる。また、ユーザが、再生操作部23を操作して、悩み度の高い時刻のカメラ画像61を表示させることで、顧客が悩んでいる最中の状況を確認することができ、また、顧客が商品を購入したか否かを把握することができる。また、ユーザが、カメラ画像61上に吹き出し62を表示させることで、顧客が手に取った商品の名称などを確認することができる。
 これにより、例えば、ユーザが、顧客がよく悩んだ末に商品を購入したか否かを認識することができる。ここで、顧客がよく悩んだ末に商品を購入した場合、顧客が他の商品と十分に比較した上で購入を決断したものと想定されることから、顧客が選んだ商品が他の商品より優れているものと考えられる。このため、当該商品を多くの顧客の目に触れやすい位置に陳列することで、売上を増やすことができる。一方、顧客がよく悩んだ末に何も購入しなかった場合には、店員が商品の案内を行うなどのサポートを実施していれば、顧客が商品を購入したことが想定される。そこで、ユーザが、顧客に対する店員のサポートのタイミングなどの販売促進のアイデアを考察することができる。
 なお、店内マップ画面21およびカメラ画像画面51では、当日における顧客の行動情報に基づいて顧客の品定め状況がリアルタイムに表示されるが、過去の顧客の品定め状況が店内マップ画面21およびカメラ画像画面51に表示されるものとしてもよい。この場合、ユーザが条件(日付や曜日や期間など)を指定することで、その条件に該当するように、過去の顧客の行動情報に基づいて、店内マップ画面21およびカメラ画像画面51を生成すればよい。
 以上のように、本出願において開示する技術の例示として、実施形態を説明した。しかしながら、本開示における技術は、これに限定されず、変更、置き換え、付加、省略などを行った実施形態にも適用できる。また、上記の実施形態で説明した各構成要素を組み合わせて、新たな実施形態とすることも可能である。
 本開示に係る店舗運営支援装置および店舗運営支援方法は、ユーザが、顧客の品定め状況を十分に把握することができ、直ちに店舗の運営改善に向けた有効な施策等を講ずることができる効果を有し、店舗において陳列エリアの前に滞在する人物を撮影したカメラ画像に基づいて、人物の品定め状況に関する分析を行い、その分析結果をユーザに提示することでユーザの業務を支援する店舗運営支援装置および店舗運営支援方法などとして有用である。
1 カメラ
2 分析サーバ(店舗運営支援装置、情報処理装置)
3 閲覧端末
12 記憶部
13 プロセッサ
21 店内マップ画面
23 再生操作部
31 悩み度ヒートマップ
32 陳列エリア画像
41 シークバー
42 スライダー
43 再生ボタン
44 区間指定ボタン
45 分析対象期間に対応する部分
51 カメラ画像画面
54 エリア選択ボタン
61 カメラ画像
62 吹き出し
65 悩み度グラフ

Claims (7)

  1.  店舗において陳列エリアの前に滞在する人物を撮影したカメラ画像に基づき、人物の品定め状況に関する分析を行い、その分析結果をユーザに提示する処理を行うプロセッサを備えた店舗運営支援装置であって、
     前記プロセッサが、
     前記カメラ画像から人物を検出して、分析対象とする人物を特定し、
     前記カメラ画像から人物の行動を検出して、前記分析対象とする人物ごとの行動情報を商品と対応付けて取得して、その人物ごとの行動情報を記憶部に蓄積し、
     前記記憶部に蓄積された前記行動情報に基づき、少なくとも商品の品定めに要した時間を含む品定め情報を生成して、その人物ごとの品定め情報を前記記憶部に蓄積し、
     前記記憶部に蓄積された前記品定め情報に基づき、各商品に対応した品定め状況を可視化した前記分析結果を取得することを特徴とする店舗運営支援装置。
  2.  前記プロセッサが、
     前記カメラ画像から検出された人物の特徴情報に基づき、その人物を店員と判定すると、その人物を分析対象から除外することを特徴とする請求項1に記載の店舗運営支援装置。
  3.  前記プロセッサが、
     人物の品定めに関係する行動として、商品保持行動と商品注視行動とを検出し、その検出結果を含む前記行動情報を取得することを特徴とする請求項1に記載の店舗運営支援装置。
  4.  前記プロセッサが、
     前記陳列エリアごとの前記品定め情報を可視化した画像が、店舗内のレイアウトを表す画像上に描画されたマップ画像を含む前記分析結果を出力することを特徴とする請求項1に記載の店舗運営支援装置。
  5.  前記プロセッサが、
     前記マップ画像を表示した画面において前記陳列エリアを選択するユーザの操作に応じて、選択された前記陳列エリアに対応する前記カメラ画像を含む前記分析結果を出力することを特徴とする請求項4に記載の店舗運営支援装置。
  6.  前記プロセッサが、
     前記行動情報に基づき、前記品定め情報として、商品保持回数、商品注視時間、および保持商品数を取得し、この商品保持回数、商品注視時間、および保持商品数に基づき、人物が品定めに悩んだ度合を数値化した品定め度数を取得することを特徴とする請求項1に記載の店舗運営支援装置。
  7.  店舗において陳列エリアの前に滞在する人物を撮影したカメラ画像に基づき、人物の品定め状況に関する分析を行い、その分析結果をユーザに提示する処理を情報処理装置に行わせる店舗運営支援方法であって、
     前記カメラ画像から人物を検出して、分析対象とする人物を特定し、
     前記カメラ画像から人物の行動を検出して、前記分析対象とする人物ごとの行動情報を商品と対応付けて取得して、その人物ごとの行動情報を記憶部に蓄積し、
     前記記憶部に蓄積された前記行動情報に基づき、少なくとも商品の品定めに要した時間を含む品定め情報を生成して、その人物ごとの品定め情報を前記記憶部に蓄積し、
     前記記憶部に蓄積された前記品定め情報に基づき、各商品に対応した品定め状況を可視化した前記分析結果を取得することを特徴とする店舗運営支援方法。
PCT/JP2022/021269 2021-06-11 2022-05-24 店舗運営支援装置および店舗運営支援方法 WO2022259865A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202280041338.4A CN117461046A (zh) 2021-06-11 2022-05-24 店铺经营辅助装置和店铺经营辅助方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021097760A JP2022189266A (ja) 2021-06-11 2021-06-11 店舗運営支援装置および店舗運営支援方法
JP2021-097760 2021-06-11

Publications (1)

Publication Number Publication Date
WO2022259865A1 true WO2022259865A1 (ja) 2022-12-15

Family

ID=84425889

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/021269 WO2022259865A1 (ja) 2021-06-11 2022-05-24 店舗運営支援装置および店舗運営支援方法

Country Status (3)

Country Link
JP (1) JP2022189266A (ja)
CN (1) CN117461046A (ja)
WO (1) WO2022259865A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016174878A1 (ja) * 2015-04-27 2016-11-03 株式会社日立ソリューションズ 行動分析システム及び行動分析方法
WO2016194274A1 (ja) * 2015-06-02 2016-12-08 パナソニックIpマネジメント株式会社 人物行動分析装置、人物行動分析システムおよび人物行動分析方法
WO2017163909A1 (ja) * 2016-03-22 2017-09-28 日本電気株式会社 画像表示装置、画像表示システム、画像表示方法及びプログラム
WO2017169225A1 (ja) * 2016-03-31 2017-10-05 パナソニックIpマネジメント株式会社 施設内活動分析装置、施設内活動分析システムおよび施設内活動分析方法
JP2018195017A (ja) * 2017-05-16 2018-12-06 富士通株式会社 情報処理プログラム、情報処理方法及び情報処理装置
WO2021049300A1 (ja) * 2019-09-09 2021-03-18 パナソニックIpマネジメント株式会社 店舗利用情報配信装置及びこれを備えた店舗利用情報配信システム並びに店舗利用情報配信方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016174878A1 (ja) * 2015-04-27 2016-11-03 株式会社日立ソリューションズ 行動分析システム及び行動分析方法
WO2016194274A1 (ja) * 2015-06-02 2016-12-08 パナソニックIpマネジメント株式会社 人物行動分析装置、人物行動分析システムおよび人物行動分析方法
WO2017163909A1 (ja) * 2016-03-22 2017-09-28 日本電気株式会社 画像表示装置、画像表示システム、画像表示方法及びプログラム
WO2017169225A1 (ja) * 2016-03-31 2017-10-05 パナソニックIpマネジメント株式会社 施設内活動分析装置、施設内活動分析システムおよび施設内活動分析方法
JP2018195017A (ja) * 2017-05-16 2018-12-06 富士通株式会社 情報処理プログラム、情報処理方法及び情報処理装置
WO2021049300A1 (ja) * 2019-09-09 2021-03-18 パナソニックIpマネジメント株式会社 店舗利用情報配信装置及びこれを備えた店舗利用情報配信システム並びに店舗利用情報配信方法

Also Published As

Publication number Publication date
JP2022189266A (ja) 2022-12-22
CN117461046A (zh) 2024-01-26

Similar Documents

Publication Publication Date Title
JP5906558B1 (ja) 顧客行動分析装置、顧客行動分析システム及び顧客行動分析方法
CA2861652C (en) Investigation generation in an observation and surveillance system
JP6724827B2 (ja) 人物動向記録装置
JP4125634B2 (ja) 顧客情報収集管理方法及びそのシステム
JP4991440B2 (ja) 商品販売装置、商品販売管理システム、商品販売管理方法およびプログラム
JP4778532B2 (ja) 顧客情報収集管理システム
JP5974312B1 (ja) 販売管理装置、販売管理システムおよび販売管理方法
US20170330208A1 (en) Customer service monitoring device, customer service monitoring system, and customer service monitoring method
WO2010053194A1 (ja) 顧客行動記録装置及び顧客行動記録方法並びに記録媒体
JP2011253344A (ja) 購買行動分析装置、購買行動分析方法、およびプログラム
JP2012208854A (ja) 行動履歴管理システムおよび行動履歴管理方法
JP5866542B1 (ja) 施設管理支援装置、施設管理支援システムおよび施設管理支援方法
JP2010181920A (ja) エリア管理システム
JP2016018361A (ja) 施設管理支援装置、施設管理支援システムおよび施設管理支援方法
JP5780348B1 (ja) 情報提示プログラム及び情報処理装置
US20140214568A1 (en) Retail loss prevention using biometric data
WO2016194274A1 (ja) 人物行動分析装置、人物行動分析システムおよび人物行動分析方法
WO2010053192A1 (ja) 行動分析装置及び行動分析方法並びに記録媒体
JP2019149641A (ja) 監視システム、監視方法及び監視プログラム。
CN113887884A (zh) 商超服务系统
WO2022259865A1 (ja) 店舗運営支援装置および店舗運営支援方法
JP6161011B2 (ja) 施設管理支援装置、施設管理支援システムおよび施設管理支援方法
JP7010030B2 (ja) 店内監視装置、店内監視方法、および店内監視プログラム
JP2003150773A (ja) 販売支援システム、販売支援装置およびプログラム
CN108256729A (zh) 评价方法、装置、电子设备及计算机可读存储介质

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22820047

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 18567614

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE