WO2015173872A1 - 商品情報表示システム、制御装置、制御プログラムおよび制御方法 - Google Patents

商品情報表示システム、制御装置、制御プログラムおよび制御方法 Download PDF

Info

Publication number
WO2015173872A1
WO2015173872A1 PCT/JP2014/062639 JP2014062639W WO2015173872A1 WO 2015173872 A1 WO2015173872 A1 WO 2015173872A1 JP 2014062639 W JP2014062639 W JP 2014062639W WO 2015173872 A1 WO2015173872 A1 WO 2015173872A1
Authority
WO
WIPO (PCT)
Prior art keywords
display
product
information
detected
person
Prior art date
Application number
PCT/JP2014/062639
Other languages
English (en)
French (fr)
Inventor
照平 桑原
伊藤 史
紗也香 諏訪
金田 直樹
Original Assignee
富士通株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士通株式会社 filed Critical 富士通株式会社
Priority to PCT/JP2014/062639 priority Critical patent/WO2015173872A1/ja
Priority to JP2016519002A priority patent/JP6315085B2/ja
Publication of WO2015173872A1 publication Critical patent/WO2015173872A1/ja
Priority to US15/349,471 priority patent/US20170061491A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0251Targeted advertisements
    • G06Q30/0261Targeted advertisements based on user location
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders

Definitions

  • the present invention relates to a product information display system, a control device, a control program, and a control method.
  • an advertisement related to a product can be provided to a person by outputting an advertisement related to the product on a display installed at the place. Can not be sustained easily.
  • An object of the present invention is, in one aspect, to provide a product information display system, a control device, a control program, and a control method capable of easily maintaining a person's interest in a product.
  • the product information display system includes a sensor, a first display, a second display, and a control unit.
  • a control part performs control which starts the display on the 1st display of the 1st information about the specific goods determined according to the attribute of the person detected with the sensor.
  • the control unit detects the second information on the second information related to the specific product. Control to start display on the display.
  • FIG. 1 is a diagram illustrating an example of a store configuration.
  • FIG. 2 is a diagram illustrating an example of a schematic configuration of the entire product information display system.
  • FIG. 3 is a diagram illustrating an example of position information indicating the position of a part of the human body output from the sensor device.
  • FIG. 4 is a diagram illustrating an example of a functional configuration of the control device.
  • FIG. 5 is a diagram illustrating an example of a data configuration of product information.
  • FIG. 6 is a diagram illustrating an example of a data configuration of display content information.
  • FIG. 7 is a diagram illustrating an example of a data configuration of product image information.
  • FIG. 8 is a diagram illustrating an example of a region.
  • FIG. 9 is a diagram for explaining pickup detection.
  • FIG. 1 is a diagram illustrating an example of a store configuration.
  • FIG. 2 is a diagram illustrating an example of a schematic configuration of the entire product information display system.
  • FIG. 3 is illustrating an
  • FIG. 10 is a diagram illustrating an example of an image displayed on the display.
  • FIG. 11 is a diagram illustrating an example of an image displayed on the tablet terminal.
  • FIG. 12 is a diagram illustrating an example of a projected image.
  • FIG. 13 is a flowchart illustrating an example of the procedure of the display control process.
  • FIG. 14 is a diagram illustrating a computer that executes a control program.
  • FIG. 1 is a diagram illustrating an example of a store configuration.
  • the store 1 is provided with a product shelf 2 for displaying products.
  • the merchandise shelf 2 has a flat top surface, is placed beside a passage through which people can pass, and merchandise is displayed along the passage.
  • the product is perfume 3
  • four types of perfume 3A to 3D are displayed on the product shelf 2 as products.
  • the product is not limited to perfume, and the types are not limited to four types.
  • a tablet terminal 23 is arranged on the back side of the perfumes 3A to 3D when viewed from the passage with the display surface facing the passage. Furthermore, on the product shelf 2, an exhibition stand 4 for displaying products is arranged on the back side of the tablet terminal 23 as viewed from the passage.
  • the display stand 4 is flat and has an L-shaped cross section with one side on the back side standing, and is formed by a stand portion 4A and a wall portion 4B. In the stand portion 4A, a physically separate perfume 5 of the same type as the perfume 3 placed on the commodity shelf 2 is arranged.
  • the same type and physically separate perfumes 5A to 5D as the four types of perfumes 3A to 3D are arranged corresponding to the arrangement positions of the perfumes 3A to 3D in the same arrangement order as the perfumes 3A to 3D.
  • the perfume 5 may be the same as the perfume 3, or may be a model that looks like the real thing.
  • a sensor device 21 is provided on the wall portion 4B. The sensor device 21 can detect a person and is arranged so that the passage side is a detection region. Further, a control device 20 is disposed inside the product shelf 2.
  • the store 1 is provided with a projector 24.
  • the projector 24 is arranged so that the perfumes 5A to 5D are within the projection area where the video can be projected, and the video can be projected onto the perfumes 5A to 5D.
  • the projector 24 may be fixed to the ceiling of the store 1 or may be fixed to the wall.
  • the store 1 is provided with a display 22 on the surrounding wall surface.
  • the display 22 has a display surface size larger than that of the tablet terminal 23 so that the display 22 can be seen from a wide range of positions in the store 1, and is arranged at a position farther from the positions of the perfumes 3A to 3D than the tablet terminal 23. Yes.
  • the tablet terminal 23 is arranged at a position close to the perfumes 3A to 3D so that the display surface can be seen when the customer is positioned in front of the perfumes 3A to 3D.
  • FIG. 2 is a diagram illustrating an example of a schematic configuration of the entire product information display system.
  • the product information display system 10 includes a control device 20, a sensor device 21, a display 22, a tablet terminal 23, and a projector 24.
  • the sensor device 21 is a sensor device that can detect a person.
  • the sensor device 21 has a built-in camera, takes an image with the camera at a predetermined frame rate, and detects a human body from the taken image.
  • the sensor device 21 performs a skeletal analysis and specifies the position of a human body part such as a head or a fingertip.
  • the sensor apparatus 21 outputs the image data of a picked-up image, and the positional information which shows the position for every part of a human body.
  • KINECT registered trademark
  • FIG. 3 is a diagram illustrating an example of position information indicating the position of a part of the human body output from the sensor device.
  • the position of each part of the human body indicated by the position information is indicated by a point, and the skeleton portion of the human body is indicated by connecting the points.
  • the display 22 is a display device that displays various types of information.
  • Examples of the display 22 include display devices such as LCD (Liquid Crystal Display) and CRT (Cathode Ray Tube).
  • the display 22 displays various information. For example, in this embodiment, various images such as advertisement videos are displayed on the display 22.
  • the tablet terminal 23 is a terminal device capable of displaying and inputting various information.
  • the tablet terminal 23 is used as a display device that performs promotions for individual customers.
  • a display device a display or a notebook personal computer may be used instead of the tablet terminal 23.
  • the projector 24 is a projection device that projects various types of information.
  • the projector 24 displays various information by projecting it.
  • the projector 24 projects an image showing an image representing the product on the product.
  • an image representing the smell, taste, touch, sound emitted from the product is projected.
  • images representing the scents emitted from each of the perfumes 5A to 5D are projected.
  • the control device 20 is a device that controls the entire product information display system 10.
  • the control device 20 is, for example, a computer such as a personal computer or a server computer.
  • the control device 20 may be implemented as a single computer, or may be implemented by a plurality of computers. In the present embodiment, a case where the control device 20 is a single computer will be described as an example.
  • the control device 20 is connected to the sensor device 21 so that a customer can be detected via the sensor device 21.
  • the control device 20 is connected to the display 22, the tablet terminal 23, and the projector 24, and can control the display 22 by controlling the display 22, the tablet terminal 23, and the projector 24.
  • the control device 20 is communicably connected to an SNS (Social Networking Service) 25 via a network (not shown), and can exchange various types of information.
  • SNS Social Networking Service
  • any type of communication network such as mobile communication such as a mobile phone, the Internet (Internet), a LAN (Local Area Network), a VPN (Virtual Private Network), or the like, regardless of wired or wireless. Can be adopted.
  • SNS 25 is a cloud system that provides social media for distributing information by posting and exchanging messages between users.
  • the SNS 25 may be implemented by a single computer or may be implemented by a plurality of computers. Examples of the SNS 25 include Twitter (registered trademark) and Facebook (registered trademark).
  • FIG. 4 is a diagram illustrating an example of a functional configuration of the control device.
  • the control device 20 includes an external I / F (interface) unit 30, a communication I / F unit 31, a storage unit 32, and a control unit 33.
  • the external I / F unit 30 is an interface for inputting and outputting various data.
  • the external I / F unit 30 may be a general-purpose interface such as USB (Universal Serial Bus).
  • the external I / F unit 30 may be a video interface such as D-Sub (D-Subminiature), DVI (Digital Visual Interface), DisplayPort, HDMI (registered trademark) (High-Definition Multimedia Interface). Good.
  • the external I / F unit 30 inputs and outputs various information with other connected devices.
  • the external I / F unit 30 is connected to the sensor device 21 and receives image data of a captured image and position information indicating the position of a human body part from the sensor device 21.
  • the external I / F unit 30 is connected to the display 22 and the projector 24, and outputs video data displayed on the display 22 and projected from the projector 24.
  • the communication I / F unit 31 is an interface for performing communication control with other devices.
  • a network interface card such as a LAN card can be adopted.
  • the communication I / F unit 31 transmits / receives various information to / from other apparatuses via a network (not shown). For example, the communication I / F unit 31 transmits video data to be displayed on the tablet terminal 23. Further, the communication I / F unit 31 receives information related to a message posted from the SNS 25.
  • the storage unit 32 is a storage device that stores various data.
  • the storage unit 32 is a storage device such as a hard disk, an SSD (Solid State Drive), or an optical disk.
  • the storage unit 32 may be a semiconductor memory capable of rewriting data such as RAM (Random Access Memory), flash memory, NVSRAM (Non Volatile Static Random Access Memory).
  • the storage unit 32 stores an OS (Operating System) executed by the control unit 33 and various programs.
  • the storage unit 32 stores various programs including a program for executing a display control process described later.
  • the storage unit 32 stores various data used in the program executed by the control unit 33.
  • the storage unit 32 stores product information 40, display content information 41, product image information 42, content data 43, and Internet information 44.
  • the merchandise information 40 is data storing information related to merchandise to be promoted.
  • information relating to the perfumes 3A to 3D is stored in the product information 40.
  • the product information 40 stores product information such as a product name for each product and information such as a target purchase layer.
  • FIG. 5 is a diagram showing an example of the data structure of the product information.
  • the product information 40 includes items of “product ID”, “product”, and “attribute”.
  • the item of product ID is an area for storing identification information for identifying a product.
  • a unique product ID is assigned to the product as identification information for identifying each product.
  • the product ID assigned to the product is stored.
  • the item of the product is an area for storing information indicating the product such as a product name.
  • the item of attribute is an area for storing information related to the purchase layer targeted by the product.
  • the product ID “S001” indicates that the product is “Perfume 3A” and the attribute of the target purchase layer is “for young people and women”.
  • the product ID “S002” indicates that the product is “Perfume 3B” and the attribute of the target purchase layer is “for young people and men”.
  • the product ID “S003” indicates that the product is “Perfume 3C” and the attribute of the target purchase layer is “mature, for women”.
  • the product ID “S004” indicates that the product is “perfume 3D” and the attribute of the target purchase layer is “mature, for men”.
  • the display content information 41 is data storing information related to the content.
  • the display content information 41 stores what kind of data the content is and where it is stored.
  • FIG. 6 is a diagram illustrating an example of a data configuration of display content information.
  • the display content information 41 includes items of “content ID”, “time”, “file type”, “storage location”, and “product ID”.
  • the item of content ID is an area for storing identification information for identifying content. Each content is given a unique content ID as identification information for identifying each.
  • the time item is an area for storing the reproduction time of the video saved as the content.
  • the file type item is an area for storing the type of content data.
  • the storage location item is an area for storing the storage location of the content data and the file name of the content data. In this embodiment, a path to content data is stored in the storage location.
  • the item of product ID is an area for storing identification information for identifying a product.
  • the content ID “C001” has a playback time of “6 seconds”, a file type of “avi”, a storage location of “C: ⁇ aaaa ⁇ bbbb ⁇ cccc”,
  • the product ID of the received product is “S001”.
  • the file type “avi” indicates an avi (Audio Video Interleaving) file.
  • the content ID “C002” has a playback time of “6 seconds”, a file type of “avi”, a storage location of “C: ⁇ aaaaa ⁇ bbbb ⁇ cccc”, and a product ID of the associated product Indicates “S002”.
  • the content ID “C003” has a playback time of “6 seconds”, a file type of “mp4”, a storage location of “C: ⁇ aaaa ⁇ bbbb ⁇ cccc”, and a product ID of the associated product Indicates “S003”.
  • the file type “MP4” indicates MPEG-4 (Moving Picture Experts Group phase 4).
  • the content ID “C004” has a playback time of “6 seconds”, a file type of “mp4T”, a storage location of “C: ⁇ aaaaa ⁇ bbbb ⁇ cccc”, and a product ID of the associated product Indicates “S004”.
  • the file type “MP4T” indicates MPEG-4 Transport Stream.
  • the product image information 42 is data storing information related to the product image.
  • the product image information 42 stores information related to an image expressing the smell, taste, touch, sound emitted, etc.
  • information relating to an image expressing the odor emitted by the perfumes 5A to 5D is stored.
  • FIG. 7 is a diagram showing an example of the data structure of the product image information.
  • the product image information 42 includes items of “product ID”, “product”, “top note”, “middle note”, and “last note”.
  • the item of product ID is an area for storing identification information for identifying a product.
  • the item of the product is an area for storing information indicating the product.
  • Each item of the top note, the middle note, and the last note is an area for storing information about an image expressing each odor.
  • perfume changes its scent over time from the moment it is applied to the skin.
  • the top note is an area for storing information indicating an image of a fragrance in about 10 to 30 minutes after being put on.
  • the middle note is an area for storing information indicating an image of a fragrance in about 2 to 3 hours after being put on.
  • the last note is an area for storing information indicating an image of a fragrance in about 5 to 12 hours after being put on.
  • the product ID “S001” has the product “Perfume 3A”, the top note “Reiko”, the middle note “Rose Blossom”, and the last note “Whitewood Accord”. It shows that there is.
  • the content data 43 is data that stores content such as video and images used in the promotion of products.
  • content data 43 video data shown in the display content information 41 is stored.
  • content data 43 video data of advertisements for promoting the perfumes 3A to 3D are stored.
  • image data associated with the scent images of the top note, the middle note, and the last note of the product image information 42 is stored.
  • Internet information 44 is data storing information about each product acquired from the Internet.
  • the Internet information 44 stores information regarding each product acquired from the SNS 25.
  • the control unit 33 is a device that controls the control device 20.
  • an electronic circuit such as a CPU (Central Processing Unit) or MPU (Micro Processing Unit), or an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or FPGA (Field Programmable Gate Array) can be adopted.
  • the control unit 33 has an internal memory for storing programs defining various processing procedures and control data, and executes various processes using these.
  • the control unit 33 functions as various processing units by operating various programs.
  • the control unit 33 includes a setting unit 50, an identification unit 51, a detection unit 52, an acquisition unit 53, and a display control unit 54.
  • the setting unit 50 performs various settings. For example, the setting unit 50 sets an area for detecting the pickup of the product according to the position of the product. For example, the setting unit 50 detects the area of each product from the captured image input from the sensor device 21 based on the characteristics of each product. For example, the setting unit 50 detects the areas of the perfumes 3A to 3D from the captured image based on the characteristics such as the colors and shapes of the perfumes 3A to 3D. And the setting part 50 sets the 1st area
  • the setting part 50 sets the 2nd area
  • the setting unit 50 sets a second area in which the same size areas are arranged one by one around the first area for each product. This second area is an area for determining whether or not the customer has picked up the product.
  • FIG. 8 is a diagram illustrating an example of a region.
  • the setting unit 50 detects the region 60 of the perfume 3A from the captured image based on characteristics such as the color and shape of the perfume 3A. Moreover, the setting part 50 sets the 1st area
  • the identification unit 51 performs various types of identification. For example, the identification unit 51 identifies the attribute of the person detected by the sensor device 21. For example, the identification unit 51 identifies the gender and age group of the detected person as the person attribute. In this embodiment, the age group is identified in two stages: young people or mature years. For example, standard patterns such as facial contours, eye, nose, and mouth positions are stored in the storage unit 32 in advance for each gender and age group. Then, when a person is detected by the sensor device 21, the identification unit 51 detects a face area from an image input from the sensor device 21. Then, the identification unit 51 compares the position of the face in the detected face area and the positions of eyes, nose, and mouth with standard patterns for each gender and age group, and identifies the most similar one. Identify gender and age group. Note that the sensor device 21 may identify the person's attribute. That is, the sensor device 21 may identify a person attribute and output attribute information of the identification result to the control device 20.
  • the detection unit 52 performs various types of detection. For example, the detection unit 52 detects whether a product has been picked up for each product. For example, the detection unit 52 monitors the first area of each product set by the setting unit 50 in the captured image input from the sensor device 21 and detects whether or not a human hand has entered the first area. To do. For example, when the coordinates of the fingertip of the person's hand input from the sensor device 21 are within the first area, the detection unit 52 detects that the person's hand has entered the first area.
  • the detection unit 52 determines whether or not a product is detected in the product area when the human hand is no longer detected in the second region after the human hand is detected in the first region. To do.
  • the detection unit 52 detects that the product has been picked up when the product is not detected in the product area. For example, it is detected that a human hand has entered the first area set for the product 3A, and then a human hand is not detected in the second area set for the product 3A, and the product 3A is also detected. If not, it is detected that the product 3A has been picked up.
  • the number of products to be detected by the detection unit 52 may be one or more.
  • FIG. 9 is a diagram illustrating pickup detection.
  • the detection unit 52 monitors the first region 61 of the perfume 3 ⁇ / b> A and detects whether or not a human hand has entered the first region 61.
  • a human hand is in the first area 61.
  • the detection unit 52 detects that the perfume 3A has been picked up when no human hand is detected in the second region 62 where the human hand is detected and no product is detected in the region 60 of the perfume 3A. .
  • the acquisition unit 53 performs various acquisitions. For example, the acquisition unit 53 acquires information about each product from the Internet. For example, the acquisition unit 53 searches the SNS 25 for posts related to each product, and acquires information related to each product. In addition, the acquisition part 53 may acquire the information regarding each goods by accepting the posting regarding each goods from SNS25. For example, the SNS 25 may periodically provide posts related to each product to the control device 20, and the acquisition unit 53 may acquire information related to each product provided.
  • the acquisition unit 53 stores the post regarding each acquired product in the Internet information 44.
  • the display control unit 54 controls various displays. For example, when no person is detected by the sensor device 21, the display control unit 54 displays product information according to a predetermined scenario on the display 22. For example, the display control unit 54 causes the display 22 to repeatedly display the video of the content of each product in a predetermined order. Note that a video different from the video of the content of each product may be displayed. For example, video data of product information for advertisement according to a predetermined scenario is stored in advance in the storage unit 32 in addition to the content video of each product, and the display control unit 54 detects the person by the sensor device 21. If not, the video data may be repeatedly displayed on the display 22.
  • the display control unit 54 specifies a product corresponding to the attribute of the person identified by the identification unit 51 when a person is detected by the sensor device 21. For example, when the attribute of the person is identified as “young” or “female”, the display control unit 54 identifies the perfume 3A corresponding to “young” or “female” as the corresponding product.
  • the display control unit 54 causes the display 22 to display information related to the specified product. For example, the display control unit 54 reads content data corresponding to the specified perfume 3 ⁇ / b> A from the content data 43 based on the display content information 41, and causes the display 22 to display the read content video.
  • the display control unit 54 displays the content video on the display 22, and then determines whether or not a predetermined behavior of the person is detected by the sensor device 21.
  • This predetermined behavior is a behavior indicating whether a person has shown interest. For example, when a person shows an interest in an image displayed on the display 22, the person stops to view the image. Therefore, for example, the display control unit 54 determines that a predetermined behavior has been detected when a detected person remains after a predetermined time has elapsed since the start of video display on the display 22.
  • the predetermined behavior is not limited to the stay of the detected person for a predetermined time, and may be any behavior as long as it indicates whether the person is interested.
  • a predetermined behavior when a person is detected after an image is displayed on the display 22, it may be determined that a predetermined behavior has been detected. Further, for example, when the detected human gaze is detected and the human gaze is directed to the display 22 or the product corresponding to the image displayed on the display 22 for a predetermined time or more, it is determined that the predetermined behavior is detected. May be.
  • the display control unit 54 causes the tablet terminal 23 to start displaying information about the product. For example, the display control unit 54 reads information acquired from the Internet for a specific product from the Internet information 44 and causes the tablet terminal 23 to display the read information.
  • the display control unit 54 ends the display of the content video on the display 22 when a predetermined behavior of the person is detected. After the display of the content video on the display 22 is finished, the display control unit 54 causes the display 22 to display product information according to a predetermined scenario, as in the case where no person is detected. For example, the display control unit 54 causes the display 22 to repeatedly display the video of the content of each product in a predetermined order.
  • the display control unit 54 When the detection unit 52 detects that a product has been picked up, the display control unit 54 outputs an image associated with the picked up product. For example, the display control unit 54 reads content data corresponding to the picked-up product and causes the projector 24 to project a video of the read content. Thereby, for example, when the perfume 3A is picked up, an image is projected onto the perfume 5A of the same type as the perfume 3A and disposed on the display stand 4. The display control unit 54 changes the video projected from the projector 24 in accordance with the product image information 42, and expresses the temporal change in the odor emitted by the perfume 3A by the video.
  • the display control unit 54 projects each image of the top note, the middle note, and the last note in order at a predetermined timing, and expresses the temporal change of the odor as a video.
  • the display control unit 54 may project the image with various image effects.
  • the display control unit 54 displays the image by changing the effect such as every 2 seconds.
  • the person who picked up the perfume 3A can feel the temporal change of the odor emitted by the perfume 3A from the image projected on the perfume 5A.
  • the display control unit 54 may project an image showing product features, product effects, and the like.
  • the display control unit 54 may change the type of video to be projected for each person attribute. For example, when the attribute is female, the display control unit 54 may project an image showing the scent emitted by the perfume 3, and when the attribute is male, the display control unit 54 may project an image showing the characteristics and effects of the perfume 3.
  • the display control unit 54 When the detection unit 52 detects that another product has been picked up during the projection of the video, the display control unit 54 outputs a video associated with the other picked up product. For example, when the pickup of the perfume 3A is detected and the pickup of the perfume 3B is detected while the video is projected onto the perfume 5A, the display control unit 54 stops the projection of the video onto the perfume 5A. Then, the display control unit 54 reads content data corresponding to the picked-up perfume 3B and causes the projector 24 to project the read content video. Thereby, the projection of the image on the perfume 5 ⁇ / b> A is stopped, and the image is projected on the perfume 5 ⁇ / b> B arranged on the display table 4.
  • FIG. 10 is a diagram illustrating an example of an image displayed on the display.
  • the display control unit 54 displays product information according to a predetermined scenario on the display 22.
  • the display control unit 54 causes the display 22 to repeatedly display the video of the content of each product in a predetermined order.
  • the screen example on the left side of FIG. 10 shows that a story advertisement according to a predetermined scenario is displayed.
  • the identification unit 51 identifies the attribute of the person detected by the sensor device 21.
  • the display control unit 54 causes the display 22 to display an image of the content of the product corresponding to the identified person attribute.
  • an image of the perfume corresponding to the detected attribute of the person is displayed.
  • the display control unit 54 causes the tablet terminal 23 to start displaying information on the product when a predetermined behavior of the person is detected after displaying the content video on the display 22.
  • the display control unit 54 reads information acquired from the Internet for the product corresponding to the attribute of the person from the Internet information 44 and causes the tablet terminal 23 to display the read information.
  • FIG. 11 is a diagram illustrating an example of an image displayed on the tablet terminal. In the example of FIG. 11, the larger the appearance frequency of keywords included in articles related to products posted to the SNS 25, the larger the characters are displayed. Further, in the example of FIG. 11, an article related to a product posted to the SNS 25 is displayed. Thereby, the third party's evaluation regarding goods can be shown to the detected person.
  • third-party evaluation such as word-of-mouth may have a great influence on purchasing behavior.
  • a third party's evaluation is searched by SNS 25 or the like to determine whether or not to purchase. Therefore, by presenting a third party's evaluation regarding the product to the tablet terminal 23, it is possible to provide a sense of security and reliability with respect to the product rather than simply presenting an advertisement regarding the product.
  • FIG. 12 is a diagram illustrating an example of a projected image. In the example of FIG. 12, the images are sequentially changed from an image A expressing the scent of the top note to an image B expressing the scent of the middle note and an image C expressing the scent of the last note.
  • the product image can be improved by making the scent feel from the projected image.
  • the product information display system 10 can more effectively promote products to customers.
  • control device 20 may further display incentive information regarding the product.
  • the display control unit 54 may cause the tablet terminal 23 to display a coupon for discounting a picked-up product using a two-dimensional barcode or the like. Thereby, the product information display system 10 can prompt the purchase of the product.
  • control device 20 may accumulate human reaction status. For example, for each product, the control device 20 accumulates the number of times a person with a target attribute is detected and the number of times a predetermined behavior and pickup are detected, so that the customer targeted by the product can be justified. It is possible to evaluate whether the displayed video is effective, and to review the contents of the promotion.
  • FIG. 13 is a flowchart illustrating an example of the procedure of the display control process. This display control process is executed at a predetermined timing, for example, when a person is detected by the sensor device 21.
  • the display control unit 54 causes the display 22 to repeatedly display the video of the content of each product in a predetermined order when no person is detected by the sensor device 21.
  • the identification unit 51 identifies the attribute of the person detected by the sensor device 21 (S10).
  • the display control unit 54 causes the display 22 to display a video of the content of the product corresponding to the identified person attribute (S11).
  • the display control unit 54 determines whether or not a predetermined behavior of a person has been detected (S12). If the predetermined behavior is not detected (No at S12), the process ends.
  • the display control unit 54 reads out the information acquired from the Internet for the product corresponding to the attribute of the person from the Internet information 44, and uses the read information as the tablet terminal 23. (S13). In addition, the display control unit 54 ends the display of the content video on the display 22 (S14).
  • the display control unit 54 determines whether or not the pickup of the product is detected by the detection unit 52 (S15). If no product pickup is detected (No at S15), the process is terminated.
  • the display control unit 54 outputs an image associated with the picked-up product from the projector 24 (S16).
  • the display control unit 54 ends the process when the video output ends.
  • the display control unit 54 When the display control process ends, the display control unit 54 repeatedly displays the video of the content of each product on the display 22 in a predetermined order.
  • the display of the product content video on the display 22 may be ended, and the display of the story advertisement according to a predetermined scenario may be started.
  • the control device 20 in the display 22 of the first information related to a specific product determined according to the attribute of the person detected by the sensor device 21. Control to start display.
  • the control device 20 detects that the detected behavior of the person shows a predetermined behavior after the display of the first information on the display 22 is started, the tablet terminal 23 of the second information related to the specific product is detected. Control to start display at.
  • the merchandise information display system 10 can maintain the person's interest in the merchandise.
  • the commodity information display system 10 retains a detected person after a predetermined time has elapsed from the start of display of the first information on the display 22 or after the first information is displayed according to a predetermined display scenario. If it is, it is determined as a predetermined behavior. Thereby, the merchandise information display system 10 can detect a behavior in which a person is interested and can cause the tablet terminal 23 to start displaying the second information.
  • the product information display system 10 ends the display of the first information on the display 22 when the display of the second information is started.
  • the merchandise information display system 10 can concentrate human attention on the tablet terminal 23.
  • the product information display system 10 is such that the tablet terminal 23 is smaller in size than the display 22. Thereby, the merchandise information display system 10 can arrange the tablet terminal 23 in the vicinity of the merchandise.
  • the tablet terminal 23 is arranged on a product shelf on which a specific product is displayed. Thereby, the product information display system 10 can easily display information corresponding to the specific product from the tablet terminal 23.
  • the product information display system 10 outputs product information including information on not only a specific product but also other products from the display 22. Thereby, the product information display system 10 can advertise various products as well as specific products.
  • the product information display system 10 displays information acquired from the Internet for specific products on the tablet terminal 23. Thereby, the merchandise information display system 10 can provide a sense of security and reliability to the merchandise rather than simply presenting an advertisement related to the merchandise.
  • the control device 20 may output a video representing the taste, tactile sensation, sound generated, etc. of the product.
  • Taste can be expressed by images of foods that represent each type of taste such as sweet, sour, salty, bitter, pungent and astringent.
  • the fruity degree such as sweetness can be visualized by expressing it with the type and amount (number) of other fruits different from the product, and the ease of imaging can be improved from the visual effect.
  • the tactile sensation can also be expressed by the image of each representative article.
  • the rough feeling can be expressed by the roughness of the surface of the article.
  • freshness as a tactile sensation can be expressed by a sense of speed such as shaking of a water surface or a drop of water, stickiness, moisture content, and how to play.
  • the sound can be expressed by, for example, converting the sound into an effect and showing it as a waveform.
  • a plurality of scents, tastes, tactile sensations, and sounds to be emitted may be expressed by video.
  • the product is perfume
  • the disclosed apparatus is not limited thereto. Any product may be used as long as it has a difference in smell, taste, tactile sensation, emitted sound, and the like.
  • the product is wine, it is conceivable to express the smell, taste, and touch with images.
  • the product is a cosmetic such as an emulsion, it may be possible to express the tactile sensation with an image.
  • the product is a car or a motorcycle, it may be possible to express the sound generated by a video. In this way, the product can stimulate the customer's willingness to purchase by expressing the smell, taste, touch and sound produced by the video.
  • one tablet terminal 23 has been described.
  • the disclosed apparatus is not limited to this.
  • a plurality of tablet terminals 23 may be provided.
  • the tablet terminal 23 may be provided for each product shelf 2.
  • one tablet terminal 23 may be set for each of one or a plurality of products.
  • the case where one display 22 is provided has been described, but the disclosed apparatus is not limited thereto.
  • a plurality of displays 22 may be provided.
  • the perfume 5 is provided on a one-to-one basis with respect to the perfume 3
  • the disclosed apparatus is not limited thereto.
  • only one perfume 5 may be provided, and an image representing the smell of each perfume 3 may be projected onto the perfume 5. That is, when it is detected that any one of the perfumes 3A to 3D shows a specific behavior such as being picked up, an image representing the perfume smell detected is projected onto the perfume 5A. May be.
  • the perfume 5 may have the same shape as any of the perfumes 3 or a general perfume bottle.
  • the display 22 may display product information according to a predetermined scenario.
  • the display 22 and the tablet terminal 23 are different devices.
  • the disclosed device is not limited to this.
  • the first display exemplified by the display 22 and the second display exemplified by the tablet terminal 23 may be outputs on the same display device.
  • a first display area corresponding to the first display and a second display area corresponding to the second display can be provided on the same display device.
  • each component of each illustrated apparatus is functionally conceptual and does not necessarily need to be physically configured as illustrated.
  • the specific state of distribution / integration of each device is not limited to the one shown in the figure, and all or a part thereof may be functionally or physically distributed or arbitrarily distributed in arbitrary units according to various loads or usage conditions.
  • the processing units of the setting unit 50, the identification unit 51, the detection unit 52, the acquisition unit 53, and the display control unit 54 may be appropriately integrated.
  • the processing of each processing unit may be appropriately separated into a plurality of processing units.
  • all or any part of each processing function performed in each processing unit can be realized by a CPU and a program analyzed and executed by the CPU, or can be realized as hardware by wired logic. .
  • FIG. 14 is a diagram illustrating a computer that executes a control program.
  • the computer 300 includes a CPU (Central Processing Unit) 310, an HDD (Hard Disk Drive) 320, and a RAM (Random Access Memory) 340. These units 300 to 340 are connected via a bus 400.
  • CPU Central Processing Unit
  • HDD Hard Disk Drive
  • RAM Random Access Memory
  • the HDD 320 stores in advance a control program 320a that performs the same functions as the setting unit 50, the identification unit 51, the detection unit 52, the acquisition unit 53, and the display control unit 54 described above. Note that the control program 320a may be separated as appropriate.
  • the HDD 320 stores various information.
  • the HDD 320 stores data of various contents such as videos and images used for product promotion.
  • the CPU 310 reads out and executes the control program 320a from the HDD 320, thereby executing the same operation as each processing unit of the embodiment. That is, the control program 320a performs the same operations as the setting unit 50, the identification unit 51, the detection unit 52, the acquisition unit 53, and the display control unit 54.
  • control program 320a is not necessarily stored in the HDD 320 from the beginning.
  • the program is stored in a “portable physical medium” such as a flexible disk (FD), a CD-ROM, a DVD disk, a magneto-optical disk, or an IC card inserted into the computer 300. Then, the computer 300 may read and execute the program from these.
  • a “portable physical medium” such as a flexible disk (FD), a CD-ROM, a DVD disk, a magneto-optical disk, or an IC card
  • the program is stored in “another computer (or server)” connected to the computer 300 via a public line, the Internet, a LAN, a WAN, or the like. Then, the computer 300 may read and execute the program from these.

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Strategic Management (AREA)
  • Development Economics (AREA)
  • Multimedia (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Economics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Game Theory and Decision Science (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

 制御部(20)は、センサ(21)で検知した人の属性に応じて決定された特定の商品に関する第1の情報の第1のディスプレイ(22)における表示を開始させる制御を行う。制御部(20)は、第1の情報の第1のディスプレイ(22)における表示の開始後に、検知した人の挙動が所定の挙動を示すことが検出されると、特定の商品に関する第2の情報の第2のディスプレイ(23)における表示を開始させる制御を行う。

Description

商品情報表示システム、制御装置、制御プログラムおよび制御方法
 本発明は、商品情報表示システム、制御装置、制御プログラムおよび制御方法に関する。
 複数のディスプレイを用いて訴求力のある広告を提供する技術として、例えば、センサが人体を検出した時に、その場所に設置されたディスプレイにコンテンツを出力する技術がある。
特開2004-102714号公報
 上記の技術により、例えば、センサが人体を検出した際に、その場所に設置されたディスプレイに商品に関する広告を出力することにより、人に対して商品に関する広告を提供できるものの、商品に対する人の興味を持続させ易くすることができない。
 本発明は、一側面では、商品に対する人の興味を持続させ易くすることができる商品情報表示システム、制御装置、制御プログラムおよび制御方法を提供することを目的とする。
 1つの態様では、商品情報表示システムは、センサと、第1のディスプレイと、第2のディスプレイと、制御部とを有する。制御部は、センサで検知した人の属性に応じて決定された特定の商品に関する第1の情報の第1のディスプレイにおける表示を開始させる制御を行う。制御部は、第1の情報の第1のディスプレイにおける表示の開始後に、検知した人の挙動が所定の挙動を示すことが検出されると、特定の商品に関する第2の情報の前記第2のディスプレイにおける表示を開始させる制御を行う。
 本発明の一側面によれば、商品に対する人の興味を持続させ易くすることができる。
図1は、店舗構成の一例を説明する図である。 図2は、商品情報表示システムの全体の概略構成の一例を示す図である。 図3は、センサ装置から出力される人体の部位の位置を示す位置情報の一例を示す図である。 図4は、制御装置の機能的な構成の一例を示す図である。 図5は、商品情報のデータ構成の一例を示す図である。 図6は、表示コンテンツ情報のデータ構成の一例を示す図である。 図7は、商品イメージ情報のデータ構成の一例を示す図である。 図8は、領域の一例を示す図である。 図9は、ピックアップの検出を説明する図である。 図10は、ディスプレイに表示される画像の一例を示す図である。 図11は、タブレット端末に表示される画像の一例を示す図である。 図12は、投影される画像の一例を示す図である。 図13は、表示制御処理の手順の一例を示すフローチャートである。 図14は、制御プログラムを実行するコンピュータを示す図である。
 以下に、本発明にかかる商品情報表示システム、制御装置、制御プログラムおよび制御方法の実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。そして、各実施例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。
[店舗構成]
 最初に、実施例1に係る商品情報表示システムを用いて商品のプロモーションを行う店舗構成の一例を説明する。図1は、店舗構成の一例を説明する図である。図1に示すように、店舗1は、商品を陳列する商品棚2が設けられている。商品棚2は、上面が平板状とされており、人が通過可能な通路の脇に配置され、当該通路に沿って商品が陳列されている。本実施例では、商品を香水3とした場合を例にしており、商品棚2上に商品として4種類の香水3A~3Dが陳列されている。なお、商品は、香水に限定されるものではなく、また、種類も4種類に限定されるものではない。
 また、商品棚2には、通路から見て香水3A~3Dの奥側にタブレット端末23が表示面を通路側へ向けて配置されている。さらに、商品棚2には、通路から見てタブレット端末23の奥側に、商品を展示するための展示台4が配置されている。展示台4は、平板状で奥側の1辺が立設された断面がL字の形状とされ、スタンド部分4Aと壁部分4Bにより形成されている。このスタンド部分4Aには、商品棚2上に置かれた香水3と同じ種類で物理的に別個の香水5が、配置されている。本実施例では、4種類の香水3A~3Dと同じ種類で物理的に別個の香水5A~5Dが、香水3A~3Dと同じ並び順で香水3A~3Dの配置位置に対応させて配置されている。この香水5は、香水3と同じものとしてもよく、外見を実物そっくりに似せた模型であってもよい。また、壁部分4Bには、センサ装置21が設けられている。センサ装置21は、人の検出が可能とされており、通路側が検出領域となるように配置されている。また、商品棚2の内側には、制御装置20が配置されている。
 また、店舗1には、プロジェクタ24が設けられている。プロジェクタ24は、映像を投影可能な投影領域内に香水5A~5Dが収まるように配置されており、香水5A~5Dに対して映像の投影が可能とされている。プロジェクタ24は、店舗1の天井に固定されていてもよく、壁に固定されていてもよい。
 また、店舗1は、周囲の壁面にディスプレイ22が設けられている。ディスプレイ22は、店舗1内の広範囲な位置から見えるように、表示面のサイズがタブレット端末23よりも大きいものとされ、タブレット端末23よりも香水3A~3Dの位置から離れた位置に配置されている。また、タブレット端末23は、顧客が香水3A~3Dの前に位置した際に表示面が見えるように、香水3A~3Dに近い位置に配置されている。
[システム構成]
 次に、本実施例に係る商品情報表示システムについて説明する。図2は、商品情報表示システムの全体の概略構成の一例を示す図である。図2に示すように、商品情報表示システム10は、制御装置20と、センサ装置21と、ディスプレイ22と、タブレット端末23と、プロジェクタ24とを有する。
 センサ装置21は、人の検出が可能とされたセンサバイスである。例えば、センサ装置21は、カメラが内蔵され、所定のフレームレートでカメラにより画像を撮影し、撮影された撮影画像から人体の検出を行う。センサ装置21は、人体が検出されると、骨格分析を行って頭や指先などの人体の部位の位置を特定する。そして、センサ装置21は、撮影画像の画像データと、人体の部位毎の位置を示す位置情報を出力する。このようなセンサ装置21としては、例えば、KINECT(登録商標)が挙げられる。
 図3は、センサ装置から出力される人体の部位の位置を示す位置情報の一例を示す図である。図3の例では、位置情報により示される人体の部位毎の位置を点で示し、点を結んで人体の骨格部分を示している。
 図2に戻り、ディスプレイ22は、各種情報を表示する表示デバイスである。ディスプレイ22としては、LCD(Liquid Crystal Display)やCRT(Cathode Ray Tube)などの表示デバイスが挙げられる。ディスプレイ22は、各種情報を表示する。例えば、本実施例では、ディスプレイ22に、広告の映像など各種の画像を表示する。
 タブレット端末23は、各種情報の表示および入力が可能とされた端末装置である。本実施例では、タブレット端末23を、個別の顧客に対するプロモーションを行う表示デバイスとして用いている。このような表示デバイスとしてタブレット端末23の代わりにディスプレイや、ノートブック型パソコンを用いてもよい。
 プロジェクタ24は、各種情報を投影する投影デバイスである。プロジェクタ24は、各種情報を投影することにより、表示する。例えば、プロジェクタ24により商品に対して当該商品を表現したイメージを示す映像を投影する。例えば、商品が発する匂い、味、触感、発する音などを表現した映像を投影する。本実施例では、香水5A~5Dに対して、それぞれが発する匂いを表現した映像を投影する。
 制御装置20は、商品情報表示システム10全体を制御する装置である。制御装置20は、例えば、パーソナルコンピュータやサーバコンピュータなどのコンピュータなどである。制御装置20は、1台のコンピュータとして実装してもよく、また、複数台のコンピュータによる実装してもよい。なお、本実施例では、制御装置20を1台のコンピュータとした場合を例として説明する。
 制御装置20は、センサ装置21と接続され、センサ装置21を介して顧客の検出が可能とされている。また、制御装置20は、ディスプレイ22、タブレット端末23およびプロジェクタ24と接続され、ディスプレイ22、タブレット端末23およびプロジェクタ24を制御して、表示させる映像の制御が可能とされている。また、制御装置20は、不図示のネットワークを介してSNS(Social Networking Service)25と通信可能に接続され、各種の情報を交換することが可能とされている。かかるネットワークの一態様としては、有線または無線を問わず、携帯電話などの移動体通信、インターネット(Internet)、LAN(Local Area Network)やVPN(Virtual Private Network)などの任意の種類の通信網を採用できる。
 SNS25は、ユーザ同士がメッセージを投稿し、交換することによって情報流通を行うソーシャルメディアを提供するクラウドシステムである。SNS25は、1台のコンピュータにより実装されてもよく、また、複数台のコンピュータにより実装されてもよい。このSNS25としては、例えば、ツイッター(登録商標)やフェイスブック(登録商標)などが挙げられる。
[制御装置の構成]
 次に、本実施例に係る制御装置20の構成について説明する。図4は、制御装置の機能的な構成の一例を示す図である。図4に示すように、制御装置20は、外部I/F(インタフェース)部30と、通信I/F部31と、記憶部32と、制御部33とを有する。
 外部I/F部30は、各種データの入出力を行うインタフェースである。外部I/F部30は、例えば、USB(Universal Serial Bus)などの汎用のインタフェースであってもよい。また、外部I/F部30は、D-Sub(D-Subminiature)、DVI(Digital Visual Interface)、DisplayPort、HDMI(登録商標)(High-Definition Multimedia Interface)などの映像用のインタフェースであってもよい。
 外部I/F部30は、接続された他の装置と各種情報を入出力する。例えば、外部I/F部30は、センサ装置21と接続され、センサ装置21から撮影画像の画像データおよび人体の部位の位置を示す位置情報が入力する。また、外部I/F部30は、ディスプレイ22およびプロジェクタ24と接続され、ディスプレイ22に表示およびプロジェクタ24から投影する映像のデータを出力する。
 通信I/F部31は、他の装置との間で通信制御を行うインタフェースである。通信I/F部31としては、LANカードなどのネットワークインタフェースカードを採用できる。
 通信I/F部31は、不図示のネットワークを介して他の装置と各種情報を送受信する。例えば、通信I/F部31は、タブレット端末23へ表示させる映像のデータを送信する。また、通信I/F部31は、SNS25から投稿されたメッセージに関する情報を受信する。
 記憶部32は、各種のデータを記憶する記憶デバイスである。例えば、記憶部32は、ハードディスク、SSD(Solid State Drive)、光ディスクなどの記憶装置である。なお、記憶部32は、RAM(Random Access Memory)、フラッシュメモリ、NVSRAM(Non Volatile Static Random Access Memory)などのデータを書き換え可能な半導体メモリであってもよい。
 記憶部32は、制御部33で実行されるOS(Operating System)や各種プログラムを記憶する。例えば、記憶部32は、後述する表示制御処理を実行するプログラムを含む各種のプログラムを記憶する。さらに、記憶部32は、制御部33で実行されるプログラムで用いられる各種データを記憶する。例えば、記憶部32は、商品情報40と、表示コンテンツ情報41と、商品イメージ情報42と、コンテンツデータ43と、インターネット情報44とを記憶する。
 商品情報40は、プロモーションの対象となる商品に関する情報を記憶したデータである。本実施例では、商品情報40に、香水3A~3Dに関する情報が記憶されている。例えば、商品情報40には、商品毎に商品名などの商品の情報や、ターゲットとなる購買層などの情報が記憶される。
 図5は、商品情報のデータ構成の一例を示す図である。図5に示すように、商品情報40は、「商品ID」、「商品」、「属性」の各項目を有する。商品IDの項目は、商品を識別する識別情報を記憶する領域である。商品には、それぞれを識別する識別情報として、ユニークな商品IDが付与される。商品IDの項目には、商品に付与された商品IDが格納される。商品の項目は、例えば、商品名など、商品を示す情報を記憶する領域である。属性の項目は、商品がターゲットとする購買層に関する情報を記憶する領域である。
 図5の例では、商品ID「S001」は、商品が「香水3A」であり、ターゲットとする購買層の属性が「若者、女性向け」であることを示す。また、商品ID「S002」は、商品が「香水3B」であり、ターゲットとする購買層の属性が「若者、男性向け」であることを示す。商品ID「S003」は、商品が「香水3C」であり、ターゲットとする購買層の属性が「熟年、女性向け」であることを示す。商品ID「S004」は、商品が「香水3D」であり、ターゲットとする購買層の属性が「熟年、男性向け」であることを示す。
 図4に戻り、表示コンテンツ情報41は、コンテンツに関する情報を記憶したデータである。例えば、表示コンテンツ情報41には、コンテンツがどのような種類のデータであるかや、どこに記憶されているかが記憶される。
 図6は、表示コンテンツ情報のデータ構成の一例を示す図である。図6に示すように、表示コンテンツ情報41は、「コンテンツID」、「時間」、「ファイル種別」、「格納場所」、「商品ID」の各項目を有する。コンテンツIDの項目は、コンテンツを識別する識別情報を記憶する領域である。コンテンツには、それぞれを識別する識別情報として、ユニークなコンテンツIDが付与される。コンテンツIDの項目には、コンテンツに付与されたコンテンツIDが格納される。時間の項目は、コンテンツとして保存された映像の再生時間を記憶する領域である。ファイル種別の項目は、コンテンツのデータの種類を記憶する領域である。格納場所の項目は、コンテンツのデータの格納先およびコンテンツのデータのファイル名を記憶する領域である。本実施例では、格納場所に、コンテンツのデータへのパスが記憶されている。商品IDの項目は、商品を識別する識別情報を記憶する領域である。
 図6の例では、コンテンツID「C001」は、再生時間が「6秒」であり、ファイル種別が「avi」であり、格納場所が「C:\aaaa\bbbb\cccc」であり、対応付けられた商品の商品IDが「S001」であることを示す。ファイル種別「avi」は、avi(Audio Video Interleaving)ファイルを示す。コンテンツID「C002」は、再生時間が「6秒」であり、ファイル種別が「avi」であり、格納場所が「C:\aaaa\bbbb\cccc」であり、対応付けられた商品の商品IDが「S002」であることを示す。コンテンツID「C003」は、再生時間が「6秒」であり、ファイル種別が「mp4」であり、格納場所が「C:\aaaa\bbbb\cccc」であり、対応付けられた商品の商品IDが「S003」であることを示す。ファイル種別「MP4」は、MPEG-4(Moving Picture Experts Group phase 4)であることを示す。コンテンツID「C004」は、再生時間が「6秒」であり、ファイル種別が「mp4T」であり、格納場所が「C:\aaaa\bbbb\cccc」であり、対応付けられた商品の商品IDが「S004」であることを示す。ファイル種別「MP4T」は、MPEG-4 Transport Streamであることを示す。
 図4に戻り、商品イメージ情報42は、商品のイメージに関する情報を記憶したデータである。例えば、商品イメージ情報42には、商品が発する匂い、味、触感、発する音などを表現したイメージに関する情報が記憶される。本実施例では、香水5A~5Dが発する匂いを表現したイメージに関する情報が記憶される。
 図7は、商品イメージ情報のデータ構成の一例を示す図である。図7に示すように、商品イメージ情報42は、「商品ID」、「商品」、「トップノート」、「ミドルノート」、「ラストノート」の各項目を有する。商品IDの項目は、商品を識別する識別情報を記憶する領域である。商品の項目は、商品を示す情報を記憶する領域である。トップノート、ミドルノートおよびラストノートの各項目は、それぞれの匂いを表現したイメージに関する情報を記憶する領域である。ここで、香水は、肌につけた瞬間から時間を追って香りが変化する。トップノートは、つけてから10~30分程度での香りのイメージを示す情報を記憶する領域である。ミドルノートは、つけてから2~3時間程度での香りのイメージを示す情報を記憶する領域である。ラストノートは、つけてから5~12時間程度での香りのイメージを示す情報を記憶する領域である。
 図7の例では、商品ID「S001」は、商品が「香水3A」であり、トップノートが「柚子」であり、ミドルノートが「ローズブロッサム」であり、ラストノートが「ホワイトウッドアコード」であることを示す。
 図4に戻り、コンテンツデータ43は、商品のプロモーションで使用する映像や画像などのコンテンツを記憶したデータである。例えば、コンテンツデータ43としては、表示コンテンツ情報41に示された映像のデータが記憶されている。例えば、コンテンツデータ43としては、香水3A~3Dをそれぞれプロモーションする広告の映像のデータが記憶されている。また、コンテンツデータ43としては、商品イメージ情報42のトップノート、ミドルノート、ラストノートの各項目の香りのイメージに対応付けられた画像のデータが記憶されている。
 インターネット情報44は、インターネットから取得された各商品に関する情報を記憶したデータである。例えば、インターネット情報44には、SNS25から取得された各商品に関する情報が記憶されている。
 制御部33は、制御装置20を制御するデバイスである。制御部33としては、CPU(Central Processing Unit)、MPU(Micro Processing Unit)等の電子回路や、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等の集積回路を採用できる。制御部33は、各種の処理手順を規定したプログラムや制御データを格納するための内部メモリを有し、これらによって種々の処理を実行する。制御部33は、各種のプログラムが動作することにより各種の処理部として機能する。例えば、制御部33は、設定部50と、識別部51と、検出部52と、取得部53と、表示制御部54とを有する。
 設定部50は、各種の設定を行う。例えば、設定部50は、商品の位置に応じて、商品のピックアップを検出するための領域を設定する。例えば、設定部50は、各商品の特徴に基づき、センサ装置21から入力する撮影画像内から各商品の領域を検出する。例えば、設定部50は、香水3A~3Dの色や形状などの特徴に基づいて、撮影画像内から香水3A~3Dの領域を検出する。そして、設定部50は、商品毎に、商品の位置に応じた第1の領域を設定する。例えば、設定部50は、商品毎に、商品の領域に囲む矩形状の領域を第1の領域として設定する。この第1の領域は、顧客が商品に触れたか否かを判定するための領域である。また、設定部50は、商品毎に、第1の領域を包含する第2の領域を設定する。例えば、設定部50は、商品毎に、第1の領域の周囲に、同じサイズ領域を1つずつ配置した第2の領域を設定する。この第2の領域は、顧客が商品を手に取ったか否かを判定するための領域である。
 図8は、領域の一例を示す図である。例えば、設定部50は、香水3Aの色や形状などの特徴に基づいて、撮影画像内から香水3Aの領域60を検出する。また、設定部50は、香水3Aの領域に囲む矩形状の領域を第1の領域61を設定する。また、設定部50は、例えば、第1の領域61の周囲に、第1の領域61と同じサイズ領域を1つずつ配置した第2の領域62を設定する。
 識別部51は、各種の識別を行う。例えば、識別部51は、センサ装置21で検知された人の属性を識別する。例えば、識別部51は、人の属性として、検知された人の性別および年齢層を識別する。本実施例では、年齢層を若者か熟年の2段階で識別する。例えば、性別および年齢層毎に、顔の輪郭や目、鼻、口の位置などの標準的なパターンを記憶部32に予め記憶しておく。そして、識別部51は、センサ装置21で人が検出された場合、センサ装置21から入力する画像から顔領域の検出を行う。そして、識別部51は、検出された顔領域内の顔の輪郭や目、鼻、口の位置を性別および年齢層毎の標準的なパターンと比較して、もっとも類似するものを特定することにより、性別および年齢層を識別する。なお、人の属性を識別は、センサ装置21が行ってもよい。すなわち、センサ装置21が人の属性の識別を行い、識別結果の属性情報を制御装置20へ出力としてもよい。
 検出部52は、各種の検出を行う。例えば、検出部52は、商品毎に、商品がピックアップされたか否かを検出する。例えば、検出部52は、センサ装置21から入力する撮影画像において、設定部50により設定された各商品の第1の領域をそれぞれ監視し、第1の領域に人の手が入ったか否か検知する。例えば、検出部52は、センサ装置21から入力される人の手の指先の座標が第1の領域内となった場合、第1の領域に人の手が入ったと検知する。
 検出部52は、第1の領域内で人の手を検知した後に、第2の領域内で人の手が検知されなくなった場合、商品の領域内で商品が検知されるか否かを判定する。検出部52は、商品の領域内で商品が検知されない場合、商品がピックアップされたと検出する。例えば、商品3Aについて設定した第1の領域に人の手が入ったことを検知し、その後、商品3Aについて設定した第2の領域で人の手が検知されない状態になり、かつ商品3Aも検知されない場合、商品3Aがピックアップされたと検出する。なお、検出部52の検出対象とする商品は、1個でもよいし、複数個であってもよい。
 図9は、ピックアップの検出を説明する図である。例えば、検出部52は、香水3Aの第1の領域61を監視し、第1の領域61に人の手が入ったか否か検知する。図8の例では、第1の領域61に人の手が入っている。検出部52は、人の手を検知した第2の領域62内で人の手が検知されなくなり、かつ、香水3Aの領域60内で商品が検知されない場合に、香水3Aがピックアップされたと検出する。これにより、商品が触られただけの場合とピックアップされた場合を判別できる。
 取得部53は、各種の取得を行う。例えば、取得部53は、インターネットから各商品に関する情報を取得する。例えば、取得部53は、SNS25から、各商品に関する投稿を検索し、各商品に関する情報を取得する。なお、取得部53は、SNS25から、各商品に関する投稿を受け付けることにより、各商品に関する情報を取得してもよい。例えば、SNS25が、定期的に各商品に関する投稿を制御装置20に提供し、取得部53が、提供される各商品に関する情報を取得するものとしてもよい。
 取得部53は、取得した各商品に関する投稿をインターネット情報44に格納する。
 表示制御部54は、各種の表示の制御を行う。例えば、表示制御部54は、センサ装置21により人が検出されていない場合、所定のシナリオに従った商品情報をディスプレイ22に表示させる。例えば、表示制御部54は、各商品のコンテンツの映像を所定の順に繰り返しディスプレイ22に表示させる。なお、各商品のコンテンツの映像とは別の映像を表示させてもよい。例えば、各商品のコンテンツの映像とは別に所定のシナリオに従った広告用の商品情報の映像のデータを記憶部32に予め記憶させ、表示制御部54は、センサ装置21により人が検出されていない場合、当該映像のデータを繰り返しディスプレイ22に表示させてもよい。
 表示制御部54は、センサ装置21により人が検出された場合、識別部51により識別された人の属性に対応する商品を特定する。例えば、表示制御部54は、人の属性が「若者」、「女性」と識別された場合、「若者」、「女性」に対応する香水3Aを対応する商品と特定する。表示制御部54は、特定された商品に関する情報をディスプレイ22に表示させる。例えば、表示制御部54は、表示コンテンツ情報41に基づいて、特定された香水3Aに対応するコンテンツのデータをコンテンツデータ43から読み出し、読み出したコンテンツの映像をディスプレイ22に表示させる。
 表示制御部54は、コンテンツの映像をディスプレイ22に表示させた後、センサ装置21により、人の所定の挙動が検出されたか否かを判定する。この所定の挙動とは、人が興味を示したかを示す挙動である。例えば、人は、ディスプレイ22に表示させた映像に興味を示した場合、映像を見るために立止る。そこで、例えば、表示制御部54は、ディスプレイ22に映像の表示の開始から所定時間経過後、検知された人が滞留している場合、所定の挙動が検出されたと判定する。なお、所定の挙動は、検知された人の所定時間の滞留に限定されるものではなく、人が興味を示したかを示す挙動であれば何れであってもよい。例えば、ディスプレイ22に映像が表示された後に、人が検知される場合、所定の挙動が検出されたと判定してもよい。また、例えば、検知された人の視線を検出して人の視線がディスプレイ22またはディスプレイ22に表示された映像に対応する商品に所定時間以上向いている場合、所定の挙動が検出されたと判定してもよい。
 表示制御部54は、人の所定の挙動が検出されると、タブレット端末23に商品に関する情報の表示を開始させる。例えば、表示制御部54は、インターネット情報44から、特定の商品についてインターネットから取得された情報を読み出し、読み出した情報をタブレット端末23に表示させる。
 また、表示制御部54は、人の所定の挙動が検出されると、ディスプレイ22へのコンテンツの映像の表示を終了させる。表示制御部54は、ディスプレイ22へのコンテンツの映像の表示の終了後、人が検知されていない場合と同様に、所定のシナリオに従った商品情報をディスプレイ22に表示させる。例えば、表示制御部54は、各商品のコンテンツの映像を所定の順に繰り返しディスプレイ22に表示させる。
 表示制御部54は、検出部52により、商品がピックアップされたことが検出された場合、ピックアップされた商品に対応づけられた映像の出力を行う。例えば、表示制御部54は、ピックアップされた商品に対応するコンテンツのデータを読み出し、読み出したコンテンツの映像をプロジェクタ24から投影させる。これにより、例えば、香水3Aがピックアップされた場合、香水3Aと同種の、展示台4上に配置された香水5Aに対して映像が投影される。表示制御部54は、商品イメージ情報42に従い、プロジェクタ24から投影させる映像を変化させて、香水3Aが発する匂いの時間的変化を映像により表現する。例えば、表示制御部54は、所定のタイミングで、トップノート、ミドルノート、ラストノートの各画像を順に投影して匂いの時間的変化を映像により表現する。この際、表示制御部54は、各種の画像効果を加えて投影してもよい。例えば、表示制御部54は、2秒ごとなどエフェクトを変化させて画像を表示させる。これにより、香水3Aをピックアップした人は、香水5Aに対して投影された映像から香水3Aが発する匂いの時間的変化を疑似的に感じることができる。なお、表示制御部54は、商品の特徴や商品の効果などを示す映像を投影してもよい。また、表示制御部54は、人の属性毎に、投影する映像の種類を変えてもよい。例えば、表示制御部54は、属性が女性の場合、香水3が発する匂いを示した映像を投影し、属性が男性の場合、香水3の特徴や効果などを示す映像を投影してもよい。
 表示制御部54は、映像の投影中に、検出部52により、他の商品がピックアップされたことが検出された場合、ピックアップされた他の商品に対応づけられた映像の出力を行う。例えば、表示制御部54は、香水3Aのピックアップが検出されて香水5Aに対して映像が投影している途中で、香水3Bのピックアップが検出された場合、香水5Aに対する映像の投影を中止する。そして、表示制御部54は、ピックアップされた香水3Bに対応するコンテンツのデータを読み出し、読み出したコンテンツの映像をプロジェクタ24から投影させる。これにより、香水5Aに対する映像の投影を中止されて、展示台4上に配置された香水5Bに対して映像を投影される。
 ここで、具体例を用いて説明する。図10は、ディスプレイに表示される画像の一例を示す図である。表示制御部54は、センサ装置21により人が検出されていない場合、所定のシナリオに従った商品情報をディスプレイ22に表示させる。表示制御部54は、各商品のコンテンツの映像を所定の順に繰り返しディスプレイ22に表示させる。図10の左側の画面例は、所定のシナリオに従ったストーリ広告が表示されていることが示されている。
 センサ装置21により人が検出された場合、識別部51は、センサ装置21で検知された人の属性を識別する。表示制御部54は、識別された人の属性に対応する商品のコンテンツの映像をディスプレイ22に表示させる。図10の右側の画面例では、人が検知された場合、検知された人の属性に対応する香水の映像が表示されている。これにより、検知された人に対して、人の属性に対応した商品の広告が表示されるため、ひとりひとりの嗜好を判断した販売促進の実現でき、広告の効果を高めることができる。なお、図10の例では、表示制御部54が、人の属性を識別している間、ストーリ広告に判定中と表示させているが、この判定中の表示は行わなくてもよい。
 表示制御部54は、コンテンツの映像をディスプレイ22に表示させた後、人の所定の挙動が検出された場合、タブレット端末23に商品に関する情報の表示を開始させる。例えば、表示制御部54は、インターネット情報44から、人の属性に対応する商品についてインターネットから取得された情報を読み出し、読み出した情報をタブレット端末23に表示させる。図11は、タブレット端末に表示される画像の一例を示す図である。図11の例では、SNS25に投稿された商品に関する記事に多く含まれるキーワードが、出現頻度が多いものほど文字が大きく表示されている。また、図11の例では、SNS25に投稿された商品に関する記事が表示されている。これにより、検知された人に対して、商品に関する第三者の評価を提示できる。ここで、近年、口コミなど第三者の評価が、購買行動に対して大きな影響を持つ場合がある。例えば、商品を購入する場合に、SNS25などで第三者の評価を検索して購入するか否かを検討する場合がある。そこで、タブレット端末23に商品に関する第三者の評価を提示することにより、単純に商品に関する広告を提示するより、商品に対する安心感や信頼感を提供できる。
 商品がピックアップされた場合、表示制御部54は、ピックアップされた商品と同じ種類で物理的に別個の商品に対して映像を投影する。本実施例では、ピックアップされた香水3と同じ種類で別に配置された香水5に対して、トップノート、ミドルノート、ラストノートの各画像を順に投影して匂いの時間的変化を映像により表現する。図12は、投影される画像の一例を示す図である。図12の例では、トップノートの香りを表現した画像Aからミドルノートの香りを表現した画像B、ラストノートの香りを表現した画像Cへと画像が順に変化している。これにより、ピックアップされた香水3に対応する香水5に映像を投影することにより、投影された映像からピックアップされた香水3が発する匂いの時間的変化を疑似的に感じることができる。また、投影された映像から匂いを疑似的に感じさせることにより、商品のイメージを向上させることができる。
 このように、商品情報表示システム10は、顧客に対して商品のプロモーションをより効果的に行うことができる。
 なお、制御装置20は、さらに商品に関するインセンティブ情報をさらに表示させてもよい。例えば、表示制御部54は、2次元バーコードなどにより、ピックアップされた商品の割引を行うクーポンをタブレット端末23に表示させてもよい。これにより、商品情報表示システム10は、商品の購入を促すことができる。
 また、制御装置20は、人の反応状況を蓄積してもよい。例えば、制御装置20は、商品毎に、対象となる属性の人が検出された回数と、所定の挙動、ピックアップが検出された回数を蓄積することにより、商品が対象とする顧客が正当化や、表示する映像に効果があるかを評価でき、プロモーションの内容の見直しを行うことができる。
[処理の流れ]
 本実施例に係る制御装置20が実施する表示制御の流れについて説明する。図13は、表示制御処理の手順の一例を示すフローチャートである。この表示制御処理は、所定のタイミング、例えば、センサ装置21で人が検知されたタイミングで実行される。
 表示制御部54は、センサ装置21により人が検出されていない場合、各商品のコンテンツの映像を所定の順に繰り返しディスプレイ22に表示させる。
 センサ装置21により人が検出された場合、図13に示すように、識別部51は、センサ装置21で検知された人の属性を識別する(S10)。表示制御部54は、識別された人の属性に対応する商品のコンテンツの映像をディスプレイ22に表示させる(S11)。
 表示制御部54は、人の所定の挙動が検出されたか否かを判定する(S12)。所定の挙動が検出されない場合(S12否定)、処理を終了する。
 一方、所定の挙動が検出された場合(S12肯定)、表示制御部54は、インターネット情報44から、人の属性に対応する商品についてインターネットから取得された情報を読み出し、読み出した情報をタブレット端末23に表示させる(S13)。また、表示制御部54は、ディスプレイ22へのコンテンツの映像の表示を終了させる(S14)。
 表示制御部54は、検出部52により商品のピックアップが検出されたか否かを判定する(S15)。商品のピックアップが検出されない場合(S15否定)、処理を終了する。
 一方、商品のピックアップが検出された場合(S15肯定)、表示制御部54は、ピックアップされた商品に対応づけられた映像をプロジェクタ24から出力する(S16)。表示制御部54は、映像の出力が終了すると、処理を終了する。
 表示制御部54は、表示制御処理が終了すると、各商品のコンテンツの映像を所定の順に繰り返しディスプレイ22に表示させる。なお、S14では、ディスプレイ22への商品のコンテンツの映像の表示を終了させるとともに、所定のシナリオに従ったストーリ広告の表示を開始させても良い。
[効果]
 上述してきたように、本実施例に係る商品情報表示システム10は、制御装置20が、センサ装置21で検知した人の属性に応じて決定された特定の商品に関する第1の情報のディスプレイ22における表示を開始させる制御を行う。また、制御装置20が、第1の情報のディスプレイ22における表示の開始後に、検知した人の挙動が所定の挙動を示すことが検出されると、特定の商品に関する第2の情報のタブレット端末23における表示を開始させる制御を行う。これにより、商品情報表示システム10は、商品に対する人の興味を持続させることができる。
 また、商品情報表示システム10は、第1の情報のディスプレイ22における表示の開始から所定時間経過後、又は、第1の情報が所定の表示シナリオに従って表示された後に、検知された人が滞留している場合、所定の挙動と判定する。これにより、商品情報表示システム10は、人が興味を示す挙動を検出してタブレット端末23に第2の情報の表示を開始させることができる。
 また、商品情報表示システム10は、第2の情報の表示が開始される場合に、ディスプレイ22おける第1の情報の表示を終了する。このように、ディスプレイ22おける第1の情報の表示を終了させることにより、商品情報表示システム10は、人の注意をタブレット端末23に集中させることができる。
 また、商品情報表示システム10は、タブレット端末23がディスプレイ22よりもサイズが小さいものとされている。これにより、商品情報表示システム10は、タブレット端末23を商品の近傍に配置できる。
 また、商品情報表示システム10は、タブレット端末23が特定の商品が陳列された商品棚に配置されている。これにより、商品情報表示システム10は、タブレット端末23から特定の商品に対応した情報を認識しやすく表示できる。
 また、商品情報表示システム10は、ディスプレイ22から特定の商品だけでなく他の商品に関する情報を含む商品情報を出力する。これにより、商品情報表示システム10は、特定の商品だけでなく様々な商品の広告を行うことができる。
 また、商品情報表示システム10は、特定の商品についてインターネットから取得した情報をタブレット端末23に表示せる。これにより、商品情報表示システム10は、単純に商品に関する広告を提示するより、商品に対する安心感や信頼感を提供できる。
 さて、これまで開示の装置に関する実施例について説明したが、開示の技術は上述した実施例以外にも、種々の異なる形態にて実施されてよいものである。そこで、以下では、本発明に含まれる他の実施例を説明する。
 例えば、上記の実施例では、商品の匂いを表現した映像を出力する場合について説明したが、開示の装置はこれに限定されない。例えば、制御装置20は、商品の味、触感、発する音など表現した映像を出力してもよい。味は、甘味、酸味、塩味、苦味、辛味、渋味など味覚の種類をそれぞれの代表する食材の映像により表現できる。例えば、甘味などフルーティ度は、商品と異なる他の果物の種類および量(数)で表現することで、可視化し、イメージし易さを視覚的効果から向上可能である。触感も、触感の種類をそれぞれの代表する物品の映像により表現できる。例えば、触感としてざらざら感は、物品の表面の粗さなどにより表現できる。また、例えば、触感としてみずみずしさは、水面の揺れや水滴が落ちる様子のスピード感、粘り気、水分量、弾け方などにより表現できる。音は、例えば、音をエフェクト化して波形として示すことで表現できる。また、商品の匂い、味、触感、発する音のうちの複数を映像により表現してもよい。
 また、上記の実施例では、商品を香水とした場合について説明したが、開示の装置はこれに限定されない。商品は、匂い、味、触感、発する音などに違いがあるものであれば何れでもよい。例えば、商品をワインとする場合、匂い、味、触感を映像により表現することが考えられる。また、商品を乳液などの化粧品とする場合、触感を映像により表現することが考えられる。また、商品を車やバイクとする場合、発する音を映像により表現することが考えられる。このように、商品は、匂い、味、触感、発する音を映像で表現することにより、顧客の購入意欲を刺激することができる。
 また、上記の実施例では、タブレット端末23を1台設けた場合について説明したが、開示の装置はこれに限定されない。タブレット端末23は、複数台設けてもよい。例えば、商品棚2が複数ある場合、タブレット端末23は、商品棚2毎に設けてもよい。また、タブレット端末23は、1または複数の商品に対して1台ずつ設定してもよい。また、上記の実施例では、ディスプレイ22も1台設けた場合について説明したが、開示の装置はこれに限定されない。ディスプレイ22も、複数台設けてもよい。
 また、上記の実施例では、香水3に対して香水5を1対1で設けた場合について説明したが、開示の装置はこれに限定されない。例えば、香水5を1つだけ設け、各香水3の匂いを表す映像を香水5に投影するようにしてもよい。即ち、香水3A~3Dのいずれかに対して、例えば、ピックアップされるなど、特定の挙動を示したことが検出された場合に、検出された香水の匂いを表す映像を、香水5Aに投影してもよい。この場合、香水5は、香水3の何れかと同じの形状であってもよく、一般的な香水瓶の形状であってもよい。
 また、上記の実施例では、タブレット端末23に第2の情報の表示が開始されると、ディスプレイ22おける第1の情報の表示を終了する場合について説明したが、開示の装置はこれに限定されない。例えば、タブレット端末23に第2の情報の表示が開始される場合に、ディスプレイ22に所定のシナリオに従った商品情報の表示を行わせてもよい。
 また、上記の実施例では、ディスプレイ22とタブレット端末23とは別の装置である例を示したが、開示の装置はこれに限定されない。ディスプレイ22に例示される第一のディスプレイと、タブレット端末23に例示される第二のディスプレイとは、同一の表示装置上に対する出力であっても構わない。この場合、同一の表示装置上に第一のディスプレイに相当する第一の表示領域と、第二のディスプレイに相当する第二の表示領域とを設けることができる。
 また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的状態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、設定部50、識別部51、検出部52、取得部53および表示制御部54の各処理部が適宜統合されてもよい。また、各処理部の処理が適宜複数の処理部の処理に分離されてもよい。さらに、各処理部にて行なわれる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
[制御プログラム]
 また、上記の実施例で説明した各種の処理は、あらかじめ用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータシステムで実行することによって実現することもできる。そこで、以下では、上記の実施例と同様の機能を有するプログラムを実行するコンピュータシステムの一例を説明する。図14は、制御プログラムを実行するコンピュータを示す図である。
 図14に示すように、コンピュータ300は、CPU(Central Processing Unit)310、HDD(Hard Disk Drive)320、RAM(Random Access Memory)340を有する。これら300~340の各部は、バス400を介して接続される。
 HDD320には上記の設定部50、識別部51、検出部52、取得部53および表示制御部54と同様の機能を発揮する制御プログラム320aが予め記憶される。なお、制御プログラム320aについては、適宜分離しても良い。
 また、HDD320は、各種情報を記憶する。例えば、HDD320は、商品のプロモーションで使用する映像や画像などの各種のコンテンツのデータを記憶する。
 そして、CPU310が、制御プログラム320aをHDD320から読み出して実行することで、実施例の各処理部と同様の動作を実行する。すなわち、制御プログラム320aは、設定部50、識別部51、検出部52、取得部53および表示制御部54と同様の動作を実行する。
 なお、上記した制御プログラム320aについては、必ずしも最初からHDD320に記憶させることを要しない。
 例えば、コンピュータ300に挿入されるフレキシブルディスク(FD)、CD-ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」にプログラムを記憶させておく。そして、コンピュータ300がこれらからプログラムを読み出して実行するようにしてもよい。
 さらには、公衆回線、インターネット、LAN、WANなどを介してコンピュータ300に接続される「他のコンピュータ(またはサーバ)」などにプログラムを記憶させておく。そして、コンピュータ300がこれらからプログラムを読み出して実行するようにしてもよい。
 1 店舗
 2 商品棚
 3、3A~3D 香水
 4 展示台
 4A スタンド部分
 4B 壁部分
 5、5A~5D 香水
 10 商品情報表示システム
 20 制御装置
 21 センサ装置
 22 ディスプレイ
 23 タブレット端末
 24 プロジェクタ
 32 記憶部
 33 制御部
 40 商品情報
 41 表示コンテンツ情報
 42 商品イメージ情報
 43 コンテンツデータ
 44 インターネット情報
 50 設定部
 51 識別部
 52 検出部
 53 取得部
 54 表示制御部

Claims (13)

  1.  センサと、
     第1のディスプレイと、
     第2のディスプレイと、
     センサで検知した人の属性に応じて決定された特定の商品に関する第1の情報の前記第1のディスプレイにおける表示を開始させ、前記第1の情報の前記第1のディスプレイにおける表示の開始後に、検知した前記人の挙動が所定の挙動を示すことが検出されると、前記特定の商品に関する第2の情報の前記第2のディスプレイにおける表示を開始させる制御を行う制御部と、
    を備えたことを特徴とする商品情報表示システム。
  2.  前記所定の挙動は、前記第1の情報の前記第1のディスプレイにおける表示の開始から所定時間経過後、又は、前記第1の情報が所定の表示シナリオに従って表示された後に、検知された前記人が滞留していること、であることを特徴とする請求項1記載の商品情報表示システム。
  3.  前記第2の情報の表示が開始される場合に、前記第1のディスプレイにおける前記第1の情報の表示を終了する、ことを特徴とする請求項1記載の商品情報表示システム。
  4.  前記センサで検知した人の属性に応じて決定された特定の商品に関する前記第1の情報の前記第1のディスプレイにおける表示の開始前は、前記第1のディスプレイに所定のシナリオに従った商品情報を表示させ、前記第2の情報の表示が開始される場合に、前記第1のディスプレイに前記所定のシナリオに従った商品情報の表示を行わせる、ことを特徴とする請求項1記載の商品情報表示システム。
  5.  前記2のディスプレイは、前記第1のディスプレイよりもサイズが小さい、ことを特徴とする請求項1記載の商品情報表示システム。
  6.  前記第2のディスプレイは、前記特定の商品が陳列された商品棚に配置された、ことを特徴とする請求項1記載の商品情報表示システム。
  7.  前記第2のディスプレイは、前記第1のディスプレイよりも前記特定の商品に近い位置に配置された、ことを特徴とする請求項1記載の商品情報表示システム。
  8.  前記所定のシナリオに従った商品情報は、前記特定の商品だけでなく他の商品に関する情報を含む、ことを特徴とする請求項1記載の商品情報表示システム。
  9.  前記第2の情報は、前記特定の商品についてインターネットから取得した情報に基づいて生成される、ことを特徴とする請求項1記載の商品情報表示システム。
  10.  前記制御部はさらに、前記第2のディスプレイにおける表示の開始後に、前記人が第一の商品に対して特定の挙動を示したことが検知されると、該第一の商品とは物理的に別個の商品である第二の商品の方向に向けた、該第一の商品と対応付けられた映像の出力を開始させる、ことを特徴とする請求項1記載の商品情報表示システム。
  11.  センサで検知した人の属性に応じて決定された特定の商品に関する第1の情報の前記第1のディスプレイにおける表示を開始させ、前記第1の情報の前記第1のディスプレイにおける表示の開始後に、検知した前記人の挙動が所定の挙動を示すことが検出されると、前記特定の商品に関する第2の情報の前記第2のディスプレイにおける表示を開始させる表示制御部と、
     を有することを特徴とする制御装置。
  12.  センサで検知した人の属性に応じて決定された特定の商品に関する第1の情報の前記第1のディスプレイにおける表示を開始させ、
     前記第1の情報の前記第1のディスプレイにおける表示の開始後に、検知した前記人の挙動が所定の挙動を示すことが検出されると、前記特定の商品に関する第2の情報の前記第2のディスプレイにおける表示を開始させる、
     処理をコンピュータに実行させることを特徴とする制御プログラム。
  13.  センサで検知した人の属性に応じて決定された特定の商品に関する第1の情報の前記第1のディスプレイにおける表示を開始させ、
     前記第1の情報の前記第1のディスプレイにおける表示の開始後に、検知した前記人の挙動が所定の挙動を示すことが検出されると、前記特定の商品に関する第2の情報の前記第2のディスプレイにおける表示を開始させる、
     処理をコンピュータが実行することを特徴とする制御方法。
PCT/JP2014/062639 2014-05-12 2014-05-12 商品情報表示システム、制御装置、制御プログラムおよび制御方法 WO2015173872A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2014/062639 WO2015173872A1 (ja) 2014-05-12 2014-05-12 商品情報表示システム、制御装置、制御プログラムおよび制御方法
JP2016519002A JP6315085B2 (ja) 2014-05-12 2014-05-12 商品情報表示システム、制御装置、制御プログラムおよび制御方法
US15/349,471 US20170061491A1 (en) 2014-05-12 2016-11-11 Product information display system, control device, control method, and computer-readable recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/062639 WO2015173872A1 (ja) 2014-05-12 2014-05-12 商品情報表示システム、制御装置、制御プログラムおよび制御方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/349,471 Continuation US20170061491A1 (en) 2014-05-12 2016-11-11 Product information display system, control device, control method, and computer-readable recording medium

Publications (1)

Publication Number Publication Date
WO2015173872A1 true WO2015173872A1 (ja) 2015-11-19

Family

ID=54479444

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/062639 WO2015173872A1 (ja) 2014-05-12 2014-05-12 商品情報表示システム、制御装置、制御プログラムおよび制御方法

Country Status (3)

Country Link
US (1) US20170061491A1 (ja)
JP (1) JP6315085B2 (ja)
WO (1) WO2015173872A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020246596A1 (ja) * 2019-06-07 2020-12-10 株式会社TanaーX 店舗用デジタルサイネージ

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7489375B2 (ja) * 2019-03-27 2024-05-23 日本たばこ産業株式会社 情報処理装置、プログラム及び情報提供システム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005215577A (ja) * 2004-02-02 2005-08-11 Nanao Corp 表示装置
JP2009003740A (ja) * 2007-06-22 2009-01-08 Naltec Inc 電子広告端末を有するシステム
JP2009277097A (ja) * 2008-05-15 2009-11-26 Nippon Telegr & Teleph Corp <Ntt> 情報処理装置
JP2013044874A (ja) * 2011-08-23 2013-03-04 Spin:Kk 展示装置
JP2013109051A (ja) * 2011-11-18 2013-06-06 Glory Ltd 電子情報提供システム及び電子情報提供方法
WO2014017001A1 (ja) * 2012-07-27 2014-01-30 日本電気株式会社 サイネージ装置、サイネージ表示方法及びプログラム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006030882A (ja) * 2004-07-21 2006-02-02 Hitachi Ltd 情報表示操作端末
JP5124912B2 (ja) * 2005-06-23 2013-01-23 ソニー株式会社 電子広告システム及び電子広告方法
JP2009295016A (ja) * 2008-06-06 2009-12-17 Sharp Corp 情報表示の制御方法、表示制御プログラムおよび情報表示装置
JP4592785B2 (ja) * 2008-06-18 2010-12-08 シャープ株式会社 表示一体型画像形成装置及び画像表示システム並びに画像表示方法
US8332255B2 (en) * 2009-11-09 2012-12-11 Palo Alto Research Center Incorporated Sensor-integrated mirror for determining consumer shopping behavior
US20120271715A1 (en) * 2011-03-25 2012-10-25 Morton Timothy B System and method for the automatic delivery of advertising content to a consumer based on the consumer's indication of interest in an item or service available in a retail environment
JP2012208854A (ja) * 2011-03-30 2012-10-25 Nippon Telegraph & Telephone East Corp 行動履歴管理システムおよび行動履歴管理方法
US20130110666A1 (en) * 2011-10-28 2013-05-02 Adidas Ag Interactive retail system
JP5714530B2 (ja) * 2012-03-30 2015-05-07 東芝テック株式会社 情報処理装置、及び情報表示システム
JPWO2013147003A1 (ja) * 2012-03-30 2015-12-14 日本電気株式会社 デジタルサイネージシステム、デジタルサイネージ、物品情報提示方法及びプログラム
US20140223721A1 (en) * 2013-02-13 2014-08-14 Display Technologies Product display rack and system
JPWO2014132525A1 (ja) * 2013-03-01 2017-02-02 日本電気株式会社 情報処理システム、および情報処理方法
CN112631438B (zh) * 2014-12-30 2023-08-04 欧姆尼消费品有限责任公司 交互式投影的系统和方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005215577A (ja) * 2004-02-02 2005-08-11 Nanao Corp 表示装置
JP2009003740A (ja) * 2007-06-22 2009-01-08 Naltec Inc 電子広告端末を有するシステム
JP2009277097A (ja) * 2008-05-15 2009-11-26 Nippon Telegr & Teleph Corp <Ntt> 情報処理装置
JP2013044874A (ja) * 2011-08-23 2013-03-04 Spin:Kk 展示装置
JP2013109051A (ja) * 2011-11-18 2013-06-06 Glory Ltd 電子情報提供システム及び電子情報提供方法
WO2014017001A1 (ja) * 2012-07-27 2014-01-30 日本電気株式会社 サイネージ装置、サイネージ表示方法及びプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020246596A1 (ja) * 2019-06-07 2020-12-10 株式会社TanaーX 店舗用デジタルサイネージ

Also Published As

Publication number Publication date
JPWO2015173872A1 (ja) 2017-04-20
US20170061491A1 (en) 2017-03-02
JP6315085B2 (ja) 2018-04-25

Similar Documents

Publication Publication Date Title
JP6197952B2 (ja) 商品情報出力方法、商品情報出力プログラムおよび制御装置
Xi et al. Shopping in virtual reality: A literature review and future agenda
US10074129B2 (en) Virtual reality system including smart objects
JP6267861B2 (ja) 対話型広告のための使用測定技法およびシステム
Einstein Advertising: What everyone needs to know®
US9940589B2 (en) Virtual reality system including viewer responsiveness to smart objects
US8341022B2 (en) Virtual reality system for environment building
Peters et al. The role of dynamic digital menu boards in consumer decision making
Ho et al. Multisensory augmented reality in the context of a retail clothing application
Agustin Branding strategy of contemporary coffee shops in Indonesia
Park et al. Futuristic VR image presentation technique for better mobile commerce effectiveness
CN113301441B (zh) 应用程序的交互方法、装置和电子设备
JP6315085B2 (ja) 商品情報表示システム、制御装置、制御プログラムおよび制御方法
Rosenberg Marketing in the Metaverse and the Need for Consumer Protections
Frechette et al. Immersive technology as a social marketing tool: exploring the impact of 360-video & virtual reality on intent to help and attitudes toward the homeless
Pini et al. Augmented grocery shopping: fostering healthier food purchases through AR
WO2015173871A1 (ja) 商品情報出力方法、プログラムおよび制御装置
US20170039620A1 (en) Server, analysis method and computer program product for analyzing recognition information and combination information
Alexander et al. Blurring of the channel boundaries: The impact of advanced technologies in the physical fashion store on consumer experience
US20170221247A1 (en) Display of overlays and events in augmented reality using graph traversal
JP2020052994A (ja) 推奨方法及び現実感提示デバイス
US20150363818A1 (en) Digital display platform for promotional/advertisement/gaming inclusive of static and motion graphic images with method of use
Chaerunnisa et al. Critical Factors Implemented in Viral Marketing: A Content Analysis of Indonesia’s Viral YouTube Video Advertisement
JP7485203B2 (ja) 商品デザイン生成支援装置、商品デザイン生成支援方法およびコンピュータプログラム
Gao et al. Enrichment of Product Presentation Video: Methods and Impacts on User Experience

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14891669

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2016519002

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14891669

Country of ref document: EP

Kind code of ref document: A1