WO2018033954A1 - ショッピング支援システム及びショッピング支援方法 - Google Patents

ショッピング支援システム及びショッピング支援方法 Download PDF

Info

Publication number
WO2018033954A1
WO2018033954A1 PCT/JP2016/073863 JP2016073863W WO2018033954A1 WO 2018033954 A1 WO2018033954 A1 WO 2018033954A1 JP 2016073863 W JP2016073863 W JP 2016073863W WO 2018033954 A1 WO2018033954 A1 WO 2018033954A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
store
image
virtual
control unit
Prior art date
Application number
PCT/JP2016/073863
Other languages
English (en)
French (fr)
Inventor
勝裕 高田
Original Assignee
ヘンムー合同会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ヘンムー合同会社 filed Critical ヘンムー合同会社
Priority to PCT/JP2016/073863 priority Critical patent/WO2018033954A1/ja
Publication of WO2018033954A1 publication Critical patent/WO2018033954A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions

Definitions

  • the present invention relates to a shopping support system and a shopping support method.
  • an electronic commerce site is transmitted to the terminal device via the Internet, and the user can perform electronic commerce related to the advertisement data via the Internet.
  • Patent Document 1 Japanese Patent Document 1
  • Internet shopping is convenient, but there are many users who are more motivated to purchase by browsing many products at stores in the real world than Internet shopping.
  • an object of the present invention is to provide a shopping support system and a shopping support method that can stimulate users' willingness to purchase.
  • the shopping support system of the present invention includes: A user terminal comprising an operation detection unit for detecting a user's operation and a user terminal output unit for outputting information to be recognized by the user; A storage unit that stores an image of one or more products and stores a virtual store image mapped to a virtual position in the virtual store; An image display control unit that causes the user terminal output unit to display the virtual store image corresponding to the user's operation and the virtual position in the virtual store of the user.
  • the virtual store image corresponding to the user's operation and the virtual position is displayed.
  • the virtual store image includes one or a plurality of product images.
  • a detailed description control unit that starts detailed description of a product when the user's operation in the virtual store detected by the motion detection unit is an operation for requesting detailed description of the product.
  • the shopping support system having the configuration, when a user requests a detailed description of a product, the detailed description of the product is started.
  • a service similar to the service that can be received at the actual store is provided in that the detailed explanation is started according to the user's operation, so that the user feels like shopping at the actual store. While giving, the user's willingness to purchase can be stimulated.
  • the detailed description control unit preferably starts the detailed description by establishing communication between the user terminal and a salesclerk terminal of a salesclerk corresponding to the virtual store.
  • the shopping support system of the said structure since the detailed explanation of goods is performed by the salesclerk matched with the virtual shop via the said salesclerk terminal, a user can be made aware of the correspondence between a salesclerk and a virtual shop. . Since the store and the store clerk correspond to each other in common with the actual store, the user's willingness to purchase can be stimulated while giving the user an impression that they are shopping in the actual store.
  • the image display control unit communicates with a store terminal having a store terminal output unit for outputting information, thereby displaying a layout change screen for changing the correspondence between the virtual store image and the virtual position of the virtual store image. It is preferable to output to the store terminal output unit.
  • the correspondence relationship between the virtual store image and the virtual position can be changed.
  • the layout can be changed relatively easily.
  • by observing the purchase amount of the user in the layout it is possible to easily verify what layout is effective.
  • the image display control unit is preferably configured to output an image of a recommended layout to the output unit of the store terminal based on a past purchase history of a plurality of users and a movement history in the virtual store. .
  • the store staff it is possible for the store staff to recognize a recommended layout that takes into account past purchase histories of a plurality of users and movement histories in the virtual store.
  • the recommended layout is preferably a layout that provides the shortest travel route in the virtual store for purchasing a predetermined product.
  • the shopping support system configured as described above, by adopting the recommended layout, it is possible to stimulate the user's desire to purchase while reducing or eliminating the troublesomeness of the user who purchases the predetermined product.
  • the image display control unit preferably causes the user terminal output unit of the user terminal to output a recommended image of a product for which a predetermined period has elapsed since the user's previous purchase.
  • the shopping support system of the said structure even if it recommends the same goods repeatedly, since it recommends goods on condition that the predetermined period passed since the last purchase, while eliminating or reducing a user's uncomfortable feeling , Can stimulate the user's willingness to purchase.
  • the shopping support system 1 is a system that supports the shopping of the user U using a virtual space, and as shown in FIG. 1, shopping support connected to each other via a network such as a public communication network (for example, the Internet).
  • the server 100, the user terminal 200, the store terminal 300, and the salesclerk terminal 400 are provided.
  • the virtual space is divided into a virtual external space that is a space outside the virtual store and a virtual store internal space that is a space inside the virtual store.
  • the user U is given one virtual position in any of these spaces.
  • Various images are displayed on the user terminal 200 according to the virtual position of the user U.
  • the shopping support server 100 includes a server control unit 110, a server storage unit 120, and a server communication unit 130.
  • a part or all of the computer constituting the shopping support server 100 may be constituted by another terminal, for example, a computer constituting the user terminal 200.
  • a part or all of the shopping support server 100 may be configured by one or a plurality of user terminals 200 as mobile stations.
  • the server control unit 110 includes an arithmetic processing unit such as a CPU (Central Processing Unit), a memory, an I / O (Input / Output) device, and the like.
  • the server control unit 110 may be configured by a single processor or may be configured by a plurality of processors that can communicate with each other.
  • the server control unit 110 functions as a server image display control unit 112 and a server detailed description control unit 114 that execute arithmetic processing described later by reading and executing a predetermined program.
  • the server storage unit 120 includes a storage device such as a ROM (Read Only Memory), a RAM (Random Access Memory), and an HDD (Hard Disk Drive).
  • the server storage unit 120 is configured to store the calculation result of the server control unit 110 or the data received by the server control unit 110 via the server communication unit 130.
  • the server storage unit 120 corresponds to the “storage unit” of the present invention.
  • the server storage unit 120 includes landscape image information 121, virtual store image information 122, virtual in-store image information 123, product information 124, purchase history information 125, sales clerk, and the like. Status information 126 is stored.
  • the landscape image information 121 includes a landscape image ID column 1211 for storing an ID of a landscape image such as a city, a landscape position information column 1212 for storing position information in a virtual external space of the landscape, And a landscape image column 1213 for storing a link to the landscape image.
  • a landscape image ID column 1211 for storing an ID of a landscape image such as a city
  • a landscape position information column 1212 for storing position information in a virtual external space of the landscape
  • a landscape image column 1213 for storing a link to the landscape image.
  • the position information of the scenery can be expressed by, for example, three-dimensional coordinate values of X, Y, and Z or two-dimensional coordinates of X and Y.
  • the position information of the scenery can correspond to, for example, the latitude and longitude of the real world at the point where the image of the scenery is taken.
  • the position information of the landscape may be expressed by coordinate values indicating a certain range.
  • the link to the landscape image may be indicated by a file path, for example, or may be indicated by a URL (Uniform Resource Locator).
  • the virtual store image information 122 stores a virtual store ID column 1221 that stores the ID of the virtual store, a virtual store location information column 1222 that stores location information in the virtual external space of the virtual store, and a link to the virtual store image.
  • a virtual store image column 1223 and a detailed information column 1224 for storing detailed information of the virtual store such as the type and supplementary explanation of the virtual store are included.
  • the position information of the virtual store can be represented by, for example, three-dimensional coordinate values of X, Y, and Z, or two-dimensional coordinates of X and Y, similarly to the position information of the scenery.
  • the position information of the virtual store can correspond to, for example, the latitude and longitude in the real world at the point where the appearance of the store corresponding to the virtual store is captured. Further, the position information of the virtual store may be expressed by coordinate values indicating a certain range. Further, the position information of the virtual store may be a position determined for each landscape image, such as a predetermined position on the upper right in a certain landscape image.
  • the link to the virtual store image may be indicated by a file path, for example, or may be indicated by a URL.
  • the virtual store image information 123 includes a virtual store image ID column 1231 for storing an ID of an image inside the virtual store, a virtual store position information column 1232 for storing position information in the virtual internal space of the virtual store, and a virtual store.
  • a virtual store image column 1233 for storing a link to the store image and a virtual store ID column 1234 for storing a corresponding virtual store ID are included.
  • the position information in the virtual store internal space may be indicated by three-dimensional coordinate values of X, Y, Z or two-dimensional coordinate values of X, Y.
  • the product information 124 includes a product ID column 1241, a product position information column 1242, a product image column 1243, a product cycle column 1244, a product detail information column 1245, and a recommendation information column 1246.
  • the product ID column 1241 is a column for storing the product ID.
  • the product position information column 1242 is a column for storing position information in the virtual store internal space.
  • the position information in the virtual store internal space may be indicated by three-dimensional coordinate values of X, Y, and Z, or the placement on the shelf for placing the product, such as the fifth from the right on the third stage of a certain shelf.
  • the position may be indicated by a position, or may be indicated by a position linked to the image in the virtual store, such as a predetermined position in the upper right in the image in the virtual store.
  • the product image column 1243 is a column that stores a link of product images.
  • the link of the product image may be indicated by a file path, for example, or may be indicated by a URL.
  • the product cycle column 1244 is a column for storing the consumption period of each product.
  • the value of the product cycle column 1244 may be determined in advance for each product type, may be determined by the administrator of the shopping support server 100, or may be determined by the person in charge of the virtual store.
  • the product detail information column 1245 is a column for storing product detail information such as a product category, product name, inventory quantity, unit price, and supplementary explanation.
  • the recommendation information column 1246 is a column that indicates whether or not there is a recommendation set by the person in charge of the virtual store.
  • the recommendation information may be expressed not only by the presence / absence of recommendation, but also by a discount rate or a discount condition such as purchasing a predetermined number or more together with a predetermined product.
  • the purchase history information 125 includes a user ID column 1251, a purchase date / time column 1252, a product ID column 1253, a purchase store ID column 1254, and a purchase amount column 1255.
  • the user ID column 1251 is a column for storing IDs of users who have purchased products in the past with the shopping support system 1.
  • the purchase date / time column 1252 is a column for storing the date / time when the user purchased the product.
  • the purchased product ID column 1253 is a column for storing the ID of the product purchased by the user.
  • the purchase store ID column 1254 is a column for storing the ID of the virtual store where the user purchased the product.
  • the purchase amount column 1255 is a column for storing the purchase amount of the purchased product.
  • the store clerk status information 126 includes a store ID column 1261 for storing a virtual store ID at which the store clerk works, a store clerk ID column 1262 for storing the store clerk ID, a store clerk status column 1263 indicating whether the store clerk can respond, and address information of the store clerk terminal.
  • a salesclerk terminal address column 1264 is displayed.
  • the server communication unit 130 is connected to a public communication network as a network, and includes a communication device that communicates with external terminals such as the user terminal 200, the store terminal 300, and the store clerk terminal 400.
  • the user terminal 200 includes a user terminal control unit 210, a user terminal output unit 220 including an image display unit 222 that can display an image, a user terminal input unit 230, and a user terminal communication unit 240.
  • the user terminal 200 is configured by a wearable terminal that is designed in size, shape, and weight so that the image display unit can be visually recognized when the user U wears it like glasses.
  • a wearable terminal can be composed of, for example, a wearing device and a mobile terminal such as a smartphone attached to the wearing device.
  • the user terminal 200 is installed in a portable terminal or laptop computer or a specific location that is designed in size, shape, and weight so that it can be carried by the user U such as a smartphone or a tablet. It may be constituted by a desktop computer whose size, shape and weight are designed.
  • the user terminal control unit 210 includes an arithmetic processing unit such as a CPU, a memory, an I / O device, and the like.
  • the user terminal control unit 210 functions as an operation detection unit 212, a user terminal image display control unit 214, and a user terminal detailed description control unit 216 that execute arithmetic processing described later by reading and executing a predetermined program.
  • the server image display control unit 112 and the user terminal image display control unit 214 correspond to the “image display control unit” of the present invention.
  • the server detailed description control unit 114 and the user terminal detailed description control unit 216 correspond to the “detailed description control unit” of the present invention.
  • the user terminal output unit 220 includes an image display unit 222 and an audio output unit 224.
  • the image display unit 222 is configured by a display device such as a liquid crystal panel.
  • the image display unit 222 may be configured by a projector and a screen.
  • the audio output unit 224 includes a speaker or an earphone.
  • the user terminal input unit 230 includes a voice input unit 232 such as a microphone.
  • the user terminal input unit 230 may include a camera, a position input device such as a touch pad, or a keyboard that captures the movement of the user's eyes or the movement of the user's body.
  • the user terminal communication unit 240 is connected to a public communication network as a network, and includes a communication device that communicates with external terminals such as the shopping support server 100 and the clerk terminal 400.
  • the store terminal 300 includes a store terminal control unit 310, a store terminal storage unit 320, a store terminal communication unit 330, a store terminal imaging unit 340, and a store terminal output unit 350.
  • the store terminal 300 is installed in a store in the real world (hereinafter referred to as “target store”), and is configured so that a person in charge of the store can use it.
  • the store terminal 300 is a mobile terminal or laptop computer whose size, shape, and weight are designed so that it can be carried by a user U such as a smartphone or a tablet. Can be configured by a desktop computer designed for. Part or all of the store terminal 300 may be configured by the store clerk terminal 400.
  • the store terminal control unit 310 includes an arithmetic processing unit such as a CPU, a memory, an I / O device, and the like.
  • the store terminal storage unit 320 includes, for example, a storage device such as a ROM (Read Only Memory), a RAM (Random Access Memory), and an HDD (Hard Disk Drive).
  • the store terminal storage unit 320 is configured to store the calculation result of the store terminal control unit 310 or the data received by the store terminal control unit 310 via the store terminal communication unit 330.
  • the store terminal communication unit 330 is connected to a public communication network as a network, and includes a communication device that communicates with an external terminal such as the shopping support server 100.
  • the store terminal imaging unit 340 includes, for example, a monitor camera C in the store or a robot with a camera that automatically goes around the store. In addition to or in place of the image captured by the store terminal imaging unit 340, an image captured by a store staff or the like may be used.
  • the store terminal output unit 350 is configured by a display device such as a liquid crystal panel.
  • the store terminal output unit 350 may include a projector and a screen.
  • the store terminal output unit 350 may include an audio output device.
  • the clerk terminal 400 includes a clerk terminal control unit 410, a clerk terminal output unit 420, a clerk terminal input unit 430, and a clerk terminal communication unit 440.
  • the clerk terminal 400 is composed of a wearable terminal that is designed in size, shape, and weight so that the clerk S can wear the eyeglasses so that the image display unit can be visually recognized.
  • a wearable terminal can be composed of, for example, a wearing device and a mobile terminal such as a smartphone attached to the wearing device.
  • the clerk terminal 400 is installed in a portable terminal or laptop computer or a specific location that is designed in size, shape, and weight so that it can be carried by the clerk S such as a smartphone or a tablet. It may be constituted by a desktop computer whose size, shape and weight are designed.
  • the clerk terminal control unit 410 is configured by an arithmetic processing unit such as a CPU, a memory, an I / O device, and the like.
  • the clerk terminal output unit 420 includes an image display unit and an audio output unit.
  • the image display unit is composed of a display device such as a liquid crystal panel.
  • the image display unit may be configured by a projector and a screen.
  • the audio output unit is configured by a speaker or an earphone.
  • the salesclerk terminal input unit 430 includes a microphone.
  • the clerk terminal input unit 430 may include a camera, a position input device such as a touch pad, or a keyboard that captures the movement of the user's eyes or the movement of the user's body.
  • the clerk terminal communication unit 440 is connected to a public communication network as a network, and is configured by a communication device that communicates with external terminals such as the shopping support server 100 and the user terminal 200.
  • the store terminal control unit 310 images the inside of the target store via the store terminal imaging unit 340 (FIG. 3 / STEP 302). Image capturing position information in the target store is added to the imaged image of the target store (hereinafter, referred to as “target in-store image” as appropriate).
  • the store terminal control unit 310 recognizes the shelf from the target in-store image (FIG. 3 / STEP 304). For example, the store terminal control unit 310 detects a shelf from the in-store image based on information that can specify a shelf, such as shelf position information stored in the store terminal control unit 310 or information related to the shape of the shelf.
  • the store terminal control unit 310 recognizes the product ID of the product to be placed in the virtual store (FIG. 3 / STEP 306).
  • the store terminal control unit 310 may recognize the product ID of the product included in the target in-store image as the product ID of the product to be placed in the virtual store, or the product specified in advance by the store manager.
  • the product ID may be recognized.
  • the store terminal control unit 310 recognizes the position of each product to be placed in the virtual store (FIG. 3 / STEP 308).
  • the store terminal control unit 310 may recognize the position of the product on the shelf of the image in the target store as the position of the product to be placed in the virtual store, or the position of the product designated in advance by the person in charge of the store. You may recognize it.
  • the store terminal control unit 310 recognizes a product image of a product to be placed in the virtual store (FIG. 3 / STEP 310).
  • the store terminal control unit 310 may recognize the image of the product included in the target in-store image as the product image of the product to be arranged, and should arrange an enlarged image of the product imaged by the store terminal imaging unit 340 It may be recognized as a product image of a product, or an image downloaded from an external terminal via the store terminal communication unit 330 is recognized as a product image of a product to be arranged based on information that can specify a product such as a product name. Alternatively, the image downloaded from the shopping support server 100 based on the product ID may be recognized as the product image of the product to be arranged.
  • the store terminal control unit 310 recognizes the number of products to be placed (FIG. 3 / STEP 312).
  • the store terminal control unit 310 may recognize the number of products detected from the target in-store image as the number of products to be placed, or is designated by the store person in charge detected via the store terminal input unit 430.
  • the inventory quantity may be recognized as the inventory quantity of the commodity to be arranged, or the inventory quantity of the commodity existing in a predetermined distribution center read from the database may be recognized as the inventory quantity of the commodity to be arranged.
  • the store terminal control unit 310 may recognize the product cycle, detailed information, and recommendation information.
  • the store terminal control unit 310 executes FIG. 3 / STEP 306 to FIG. 3 / STEP 312 for all the products to be placed in the virtual store.
  • the store terminal control unit 310 creates a virtual store image based on the target store image captured in FIG. 3 / STEP 302 and the product image recognized in FIG. 3 / STEP 310 (FIG. 3 / STEP 314). More specifically, the store terminal control unit 310 adjusts the size and orientation of the product image based on the position of the product to be arranged from the imaging point, and then the target in-store image corresponding to the position of the product to be arranged. A virtual in-store image is created by superimposing the product image on the corresponding position.
  • the store terminal control unit 310 transmits the virtual store information including the virtual store image to the shopping support server 100 via the store terminal communication unit 330 (FIG. 3 / STEP 316).
  • the virtual in-store information may include, for example, the position of the shelf, the product ID of the product to be arranged, the position, the number of inventory, the period, the detailed information, the recommendation information, and the like.
  • the server control unit 110 determines whether or not the virtual store information has been received via the server communication unit 130 (FIG. 3 / STEP 102).
  • the server control unit 110 executes the process of FIG. 3 / STEP 102 again.
  • the server control unit 110 stores the virtual store information as virtual store image information 123 and product information 124 in the server storage unit 120 ( FIG. 3 / STEP 104). Note that the processing in FIG. 3 / STEP 304 to STEP 314 may be executed by the server control unit 110.
  • the virtual store image information 123 and the product information 124 are stored in the server storage unit 120.
  • the virtual space is divided into a virtual external space that is an external space of the virtual store and a virtual store internal space that is an internal space of the virtual store.
  • a virtual external space that is an external space of the virtual store
  • a virtual store internal space that is an internal space of the virtual store.
  • the user terminal image display control unit 214 recognizes the position of the user U in the virtual space (FIG. 4 / STEP 202).
  • the user terminal image display control unit 214 recognizes the position in the virtual space corresponding to the position in the real world specified by the user, such as Akasaka in Tokyo, Arc de Triomphe in Paris, and a famous store in Singapore, as the position of the user U. May be.
  • the user terminal image display control unit 214 may recognize a predetermined position in the virtual space as the position of the user U, such as the position designated by the store visited by the user last time or the administrator of the shopping support server 100. Good.
  • the position in the virtual space does not necessarily correspond to the position in the real world, but it is more preferable that the position corresponds to the position in the real world on a one-to-one basis.
  • the user terminal image display control unit 214 transmits the position of the user U in the virtual space to the shopping support server 100 via the user terminal communication unit 240 (FIG. 4 / STEP 204).
  • the server image display control unit 112 determines whether or not the position of the user U in the virtual space has been received via the server communication unit 130 (FIG. 4 / STEP 110).
  • the server image display control unit 112 executes the process of FIG. 4 / STEP 110 again.
  • the server image display control unit 112 refers to the landscape image information 121 shown in FIG. 2A or the virtual in-store image information 123 shown in FIG. 2B. As a result, an image corresponding to the position corresponding to the virtual space of the user U is recognized (FIG. 4 / STEP 112).
  • a landscape image P1 corresponding to the position may be recognized as shown in FIG. 5A.
  • the landscape image P1 may include a virtual store appearance image P11.
  • the virtual store image P2 corresponding to the position may be recognized.
  • the virtual store image P2 includes a plurality of product images P21.
  • This virtual in-store image P2 is the image created in FIG.
  • the server image display control unit 112 transmits the recognized image to the user terminal 200 via the server communication unit 130 (FIG. 4 / STEP 114). In addition to the recognized image, the server image display control unit 112 highlights the product purchased by the user U last time indicated in the purchase history and the previous travel route of the user U indicated in the purchase history or log. You may transmit to the terminal 200.
  • FIG. 4 / STEP 114 the server image display control unit 112 highlights the product purchased by the user U last time indicated in the purchase history and the previous travel route of the user U indicated in the purchase history or log. You may transmit to the terminal 200.
  • the user terminal image display control unit 214 determines whether an image is received via the user terminal communication unit 240 (FIG. 4 / STEP 206).
  • the user terminal image display control unit 214 displays the received image (hereinafter referred to as “target virtual image” as appropriate) on the image display unit 222. (FIG. 4 / STEP208).
  • the landscape image P1 shown in FIG. 5A can be displayed on the image display unit 222.
  • the search button P12 may be displayed superimposed on the landscape image P1.
  • 5B can be displayed on the image display unit 222.
  • the recommendation button P22, the search button P23, and the detailed explanation button P24 may be displayed superimposed on the virtual store image P2.
  • a predetermined sound or the like may be output from the sound output unit 224 in accordance with the display of the image.
  • the operation detection unit 212 recognizes the operation of the user U through the user terminal input unit 230 (FIG. 4 / STEP 210). For example, the motion detection unit 212 may recognize an utterance such as “right”, “move north”, “forward”, or “description of OO (product name)” via the voice input unit 232. In addition to or instead of this, the motion detection unit 212 may recognize a direction in which the user U stares by photographing the eyes of the user U via the camera. In addition to or instead of this, the operation detection unit 212 may recognize the user's operation through an operation of the touch panel or a keyboard.
  • the motion detection unit 212 determines whether or not the first condition that the recognized motion of the user U is a motion desired to move is satisfied (FIG. 4 / STEP 212).
  • the motion detection unit 212 may determine that the first condition is satisfied when it is determined by pattern recognition or voice analysis that the content of the utterance is content that desires movement in a predetermined direction. In addition, when the motion detection unit 212 determines that an object is not included in the user's gaze direction by analyzing the target virtual image, the motion detection unit 212 may recognize that the user's gaze motion satisfies the first condition. . The operation detection unit 212 may determine that the user's operation satisfies the first condition when the touch panel operation or the keyboard operation is a predetermined operation.
  • the user terminal image display control unit 214 creates a destination image request (FIG. 4 / STEP 214).
  • the user terminal image display control unit 214 is an image in a direction in which the user desires to move, for example, a landscape image adjacent to the position of the landscape image P1, or a virtual store adjacent to the position of the virtual store internal image P2. Create an image transmission request.
  • the operation detection unit 212 determines whether or not the second condition that the operation of the user U is an operation for obtaining detailed information is satisfied. (FIG. 4 / STEP 216).
  • the motion detection unit 212 determines that the second condition is satisfied when it is determined by pattern recognition or voice analysis that the detailed content of the utterance is desired to be included in the target virtual image. Also good. Further, when the motion detection unit 212 determines that an object is included in the user's gaze direction by analyzing the target virtual image, the motion detection unit 212 may determine that the gaze motion of the user satisfies the second condition. The operation detection unit 212 may determine that the user's operation satisfies the second condition when the touch panel operation or the keyboard operation is a predetermined operation.
  • the user terminal image display control unit 214 creates a request for a detailed image (FIG. 4 / STEP 218).
  • the user terminal image display control unit 214 may create a display request for an enlarged image of the store when the user is requesting detailed information from the store included in the landscape image P1.
  • the target for which detailed information is requested is a shelf included in the virtual store image P2
  • a display request for the enlarged image P3 of the shelf shown in FIG. 5C may be created.
  • the object for which detailed information is requested is a product included in the virtual in-store image P2
  • a display request for the enlarged image P4 of the product shown in FIG. 5D may be created.
  • the operation detection unit 212 executes the processing of FIG. 4 / STEP 210 and subsequent steps again.
  • the user terminal image display control unit 214 transmits an image request to the shopping support server 100 via the user terminal communication unit 240 (FIG. 4 / STEP 220).
  • the server image display control unit 112 determines whether an image request has been received via the server communication unit 130 (FIG. 4 / STEP 116).
  • the server image display control unit 112 executes the process of FIG. 4 / STEP 116 again.
  • the server image display control unit 112 recognizes an image corresponding to the image request (FIG. 4 / STEP 118).
  • the server image display control unit 112 transmits the image recognized through the server communication unit 130 to the user terminal 200 (FIG. 4 / STEP 120).
  • the user terminal image display control unit 214 determines whether an image has been received via the user terminal communication unit 240 (FIG. 4 / STEP 222). When the determination result is negative (FIG. 4 / STEP222... NO), the user terminal image display control unit 214 executes the process of FIG. 4 / STEP222 again. If the determination result is affirmative (FIG. 4 / STEP 222... YES), the user terminal image display control unit 214 executes the processing of FIG.
  • the image of the virtual space is displayed on the image display unit 222 according to various operations of the user U.
  • the server image display control unit 112 recognizes the product information 124 by referring to the server storage unit 120 (FIG. 6 / STEP 130).
  • the server image display control unit 112 determines whether each product is a recommended product by referring to the recommendation information column 1246 (FIG. 6 / STEP 132).
  • the server image display control unit 112 refers to the purchase history information 125 based on the user ID of the user U, and the predetermined organization has changed from the previous purchase. It is determined whether there is a product that has passed (FIG. 6 / STEP 134).
  • the predetermined period may be a period shown in the product cycle column 1244 determined for each product or each product category, or may be a uniformly determined time period, or a previous period of the product. It may be a period according to the purchase amount (a period that becomes longer as the purchase amount increases).
  • the server image display control unit 112 ends the product recommendation process.
  • the server image display control unit 112 recommends via the server communication unit 130.
  • the product information is transmitted to the user terminal 200 (FIG. 6 / STEP 136).
  • the user terminal image display control unit 214 determines whether or not the recommended product information has been received via the user terminal communication unit 240 (FIG. 6 / STEP 230).
  • the user terminal image display control unit 214 displays, for example, the product recommendation image P5 shown in FIG. 5E on the image display unit 222 (FIG. 6 / STEP 232). ).
  • the product recommendation image P5 includes a list of recommended products, list information P51 indicating the total purchase price, and quantity selection images P52, P53, and P54 for selecting the quantity of each product.
  • the recommended product may be a product selected based on the purchase history of the user, or may be a product selected based on the purchase history of another user's product. For a product that many users are browsing or purchasing, recommendation information such as “XX people pay attention to this product” may be added to the recommended product. Further, the user terminal image display control unit 214 may highlight and display the recommended product when displaying the virtual store image.
  • the user terminal detailed description control unit 216 transmits a detailed description request including the product ID of the target product to the shopping support server 100 via the user terminal communication unit 240 (FIG. 7 / STEP 240).
  • the server detailed description control unit 114 determines whether or not a detailed description request has been received via the server communication unit 130 (FIG. 7 / STEP 140).
  • the server detailed description control unit 114 recognizes the store ID of the virtual store visited by the user U (FIG. 7 / STEP 142).
  • the server detailed description control unit 114 refers to the store clerk status information 126 (see FIG. 2F) stored in the server storage unit 120, and determines whether there is a store clerk who can respond among the store clerk corresponding to the store ID. (FIG. 7 / STEP 144).
  • the server detailed description control unit 114 refers to the product detailed information column 1245 stored in the server storage unit 120 using the product ID of the target product. Then, the detailed information of the target product is recognized (FIG. 7 / STEP 146).
  • the server detailed description control unit 114 transmits the detailed information of the recognized target product to the user terminal 200 via the server communication unit 130 (FIG. 7 / STEP 148).
  • the user terminal detailed description control unit 216 When receiving the detailed information of the target product via the user terminal communication unit 240 (FIG. 7 / STEP242... YES), the user terminal detailed description control unit 216 receives the enlarged image P4 and the detailed information of the target product as shown in FIG. 5D. P44 is displayed on the image display unit 222 (FIG. 7 / STEP 244).
  • the detailed information P44 preferably includes a description corresponding to the product or sample held by the user U, such as the product previously purchased by the user U or the texture of the received sample.
  • the detailed information includes a sentence “The texture of this product is similar to that of the clothes you purchased in April 2016” and an image of the clothes.
  • the detailed information includes a sentence “The texture of this product is similar to the food you purchased before” and the image of the food.
  • the server detailed explanation control unit 114 refers to the store clerk terminal address column 1264 and addresses the store clerk terminal 400 of the store clerk who can respond. An inquiry notification indicating that there is an inquiry is transmitted (FIG. 7 / STEP 150).
  • the server detailed description control unit 114 transmits a communication start request including the address of the store clerk terminal 400 of the store clerk who can be handled via the server communication unit 130 to the user terminal 200 (FIG. 7 / STEP 152).
  • the user terminal detailed description control unit 216 receives a communication start request via the user terminal communication unit 240 (FIG. 7 / STEP 246). YES), communication with the clerk terminal 400 is established using the address of the clerk terminal 400 of the clerk who can be accommodated included in the communication start request (FIG. 7 / STEP248).
  • FIG. 7 / STEP 244 when the determination result of FIG. 7 / STEP 246 is negative (FIG. 7 / STEP 246... NO) or after the processing of FIG. 7 / STEP 248, the user terminal detailed description control unit 216 This cycle of the explanation process is terminated. Instead, for example, the user terminal detailed description control unit 216 may execute the process of FIG. 7 / STEP 246 until the determination result of FIG. 7 / STEP 246 becomes affirmative.
  • the detailed description can be appropriately provided to the user U who requests the detailed description of the target product.
  • Layout change processing Next, layout change processing for changing the layout in the virtual store will be described with reference to FIGS. 8 and 9. This process can be executed at any time, for example, periodically or in response to a request from a store manager.
  • the server image display control unit 112 refers to the purchase history information 125 (FIG. 2E) stored in the server storage unit 120 to recognize the movement path of the user at the time of product purchase (FIG. 8 / STPE 160). In addition to or instead of this, the movement path of the user may be recognized by recognizing the movement path of the user stored in the log.
  • the server image display control unit 112 recognizes a movement route R1 for purchasing products in the order of the entrance / exit L1, the fresh food shelf L2, the frozen food shelf L3, the alcoholic beverage shelf L4, and the cash register L5. .
  • the server image display control unit 112 creates a recommended layout based on the recognized movement path of the user (FIG. 8 / STPE 162).
  • the recommended layout includes layout information in which the position of the product associated with the virtual store image is changed in addition to the position of the virtual store image.
  • the recommended layout may be a layout in which the movement route R1 between the shelves becomes the shortest route, or a layout in which the route for purchasing a combination of popular products becomes the shortest route, for example. There may be.
  • the server image display control unit 112 may obtain a layout that minimizes the movement paths of many users as the recommended layout.
  • the server image display control unit 112 obtains a layout that makes the user's movement route the longest or a predetermined distance or more as a recommended layout when purchasing the same product in order to allow the user to browse many products. Also good.
  • a layout in which the position of the product on the shelf is changed may be created instead of or in addition to the replacement of the position of the shelf.
  • the server image display control unit 112 transmits the recommended layout information to the store terminal 300 via the server communication unit 130 (FIG. 8 / STEP 164).
  • the store terminal control unit 310 When the store terminal control unit 310 receives the recommended layout information via the store terminal communication unit 330 (FIG. 8 / STEP 380... YES), the store terminal control unit 310 displays the recommended layout on the store terminal output unit 350 (FIG. 8 / STEP 382). In addition to the recommended layout, the store terminal control unit 310 displays dashboard information such as statistics or rankings of products for which each user's travel route or number of purchases is equal to or greater than a certain number or product image display time is equal to or greater than a certain time. You may output to the output part 350. FIG. ⁇ If the determination result of FIG. 8 / STEP 380 is negative (FIG. 8 / STEP 380... NO), the shop terminal control unit 310 executes the process of FIG. 8 / STEP 380 again.
  • the shop terminal control unit 310 accepts a layout change operation via an appropriate input device such as a touch panel, a keyboard, or a mouse (FIG. 8 / STEP 384).
  • the store terminal control unit 310 transmits the changed layout information to the shopping support server 100 via the store terminal communication unit 330 (FIG. 8 / STEP 386). Similar to the recommended layout, the changed layout includes layout information in which the position of the product associated with the virtual store image is changed in addition to the position of the virtual store image.
  • the server image display control unit 112 When the server image display control unit 112 receives the changed layout information via the server communication unit 130 (FIG. 8 / STEP 166... YES), the server image display control unit 112 stores the changed layout information in the server storage unit 120 (FIG. 8 / (STEP168). For example, change information of the in-virtual store position information column 1232 of the in-virtual store image shown in FIG. 2C or the item position information column 1242 shown in FIG. 2D is stored.
  • the server image display control unit 112 causes the user terminal output unit 220 to display a virtual in-store image corresponding to the changed layout information when the user U accesses the next time. At the same time, the server image display control unit 112 may cause the user terminal output unit 220 to output information on where the products often purchased by the user are based on the user's past purchase history. .
  • the server image display control unit 112 and the user terminal image display control unit 214 function as the “image display control unit” of the present invention, but instead, either one, for example, the user terminal image display control The unit 214 may function as an “image display control unit” of the present invention.
  • server detailed description control unit 114 and the user terminal detailed description control unit 216 functioned as the “detailed description control unit” of the present invention, but instead, for example, the user terminal detailed description control unit 216 By appropriately acquiring information from the shopping support server 100, it may function as the “detailed description control unit” of the present invention.
  • the user terminal may include a storage unit that stores the various types of information described above.
  • the store terminal 300 may function as the shopping support server 100.
  • the server image display control unit 112 Based on the movement path of the user U at the time of product purchase recognized in FIG. 8 / STPE 160, when the user U is in the virtual store, the server image display control unit 112 has an arrow on the floor surface of the virtual store image, for example.
  • the moving route of another user may be output as a recommended route by superimposing an image or the like.
  • the server image display control unit 112 may output a travel route of a user whose similarity between the user U and the product purchase history is a predetermined value or more as a recommended route, or a route through which a predetermined number or more users pass. It may be output as a recommended route.
  • information such as “XX people are taking this route” may be added to the recommended route.
  • the server image display control unit 112 may display an image representing another user based on the movement path of each other user.
  • the user terminal detailed description control unit 216 creates a list of user U's favorite products that the user U is paying attention to based on an operation such as gaze or utterance of the user U, and automatically or after the next login. Based on the operation, a list of the favorite products may be displayed, or an image of a product included in the list of the favorite products in the virtual store image may be highlighted.
  • the user terminal detailed description control unit 216 may display the product images of each product included in the list of favorite products collectively or automatically based on the user's operation.
  • SYMBOLS 1 ... Shopping support system, 100 ... Shopping support server, 112 ... Server image display control part, 120 ... Server memory

Abstract

ユーザの購買意欲を刺激できるショッピング支援システムを提供する。 ショッピング支援システム1は、ユーザUの動作を検知する動作検知部212と情報を出力するユーザ端末出力部220とを備えるユーザ端末200と、一又は複数の商品の画像P21を含み、かつ、仮想店舗内の仮想位置とマッピングされた仮想店舗内画像P2を記憶する記憶部120と、ユーザUの動作及びユーザUの仮想店舗内における仮想位置に対応する仮想店舗画像P2をユーザ端末出力部220に表示させる画像表示制御部112、214とを備える。

Description

ショッピング支援システム及びショッピング支援方法
 本発明は、ショッピング支援システム及びショッピング支援方法に関する。
 近年インターネットショッピング(電子商取引)が急速に普及している。
 例えば、ユーザが端末装置に表示された広告データを選択すると、当該端末装置にインターネットを介して電子商取引サイトが送信され、ユーザがインターネットを介して当該広告データに係る電子商取引を行うことが出来るシステムが知られている(特許文献1参照)。
特開2016-057899号公報
 インターネットショッピングは便利であるが、しかしながら、インターネットショッピングよりも現実世界の店舗で多数の商品を閲覧したほう方が購買意欲が刺激されるというユーザは多い。
 そこで、本発明は、このような問題に鑑み、ユーザの購買意欲を刺激できるショッピング支援システム及びショッピング支援方法を提供することを目的とする。
 本発明のショッピング支援システムは、
 ユーザの動作を検知する動作検知部と前記ユーザに認知させる情報を出力するユーザ端末出力部とを備えるユーザ端末と、
 一又は複数の商品の画像を含み、かつ、仮想店舗内の仮想位置とマッピングされた仮想店舗画像を記憶する記憶部と、
 前記ユーザの動作及び前記ユーザの前記仮想店舗内における前記仮想位置に対応する前記仮想店舗画像を前記ユーザ端末出力部に表示させる画像表示制御部とを備えることを特徴とする。
 本発明のショッピング支援システムによれば、ユーザの動作及び仮想位置に対応する仮想店舗画像が表示される。そして、仮想店舗画像には一又は複数の商品の画像が含まれている。これにより、ユーザに仮想店舗内で商品の画像を閲覧しているとの印象を与えることが出来るので、ユーザの購買意欲を刺激することが出来る。
 本発明のショッピング支援システムにおいて、
 前記動作検知部により検知されたユーザの前記仮想店舗内における動作が商品の詳細説明を求める動作である場合に、商品の詳細説明を開始する詳細説明制御部を備えることが好ましい。
 当該構成のショッピング支援システムによれば、ユーザが商品の詳細説明を求める場合に、商品の詳細説明が開始される。これにより、ユーザの動作に応じて詳細説明が開始されるという点で、実店舗で受けうるサービスと同様のサービスが提供されるので、ユーザに実店舗でショッピングをしているかのような印象を与えながら、ユーザの購買意欲を刺激することが出来る。
 本発明のショッピング支援システムにおいて、
 前記詳細説明制御部は、前記ユーザ端末と前記仮想店舗に対応する店員の店員端末との通信を確立することにより、前記詳細説明を開始することが好ましい。
 当該構成のショッピング支援システムによれば、前記店員端末を介して仮想店舗に対応付けられた店員により商品の詳細説明が行われるので、ユーザに店員と仮想店舗との対応関係を意識させることが出来る。店舗と店員とが対応しているという点で実店舗と共通しているので、ユーザに実店舗でショッピングをしているかのような印象を与えながら、ユーザの購買意欲を刺激することが出来る。
 本発明のショッピング支援システムにおいて、
 前記画像表示制御部は、情報を出力する店舗端末出力部を有する店舗端末と通信することにより、前記仮想店舗画像と前記仮想店舗画像の仮想位置との対応関係を変更するためのレイアウト変更画面を前記店舗端末出力部に出力させることが好ましい。
 当該構成のショッピング支援システムによれば、仮想店舗画像と仮想位置との対応関係が変更されうる。これにより、比較的容易にレイアウトの変更を行うことが出来る。この結果、例えば、当該レイアウトにおけるユーザの購買量などを観察することにより、どのようなレイアウトが効果的か等を容易に検証することが可能となる。
 当該構成のショッピング支援システムにおいて、
 前記画像表示制御部は、複数のユーザの過去の購買履歴及び前記仮想店舗内の移動履歴に基づいて、推薦レイアウトの画像を前記店舗端末の出力部に出力させるように構成されていることが好ましい。
 当該構成のショッピング支援システムによれば、店舗担当者に複数のユーザの過去の購買履歴及び前記仮想店舗内の移動履歴を勘案した推薦レイアウトを認識させることが出来る。
 当該構成のショッピング支援システムにおいて、
 前記推薦レイアウトは、所定の商品を購入するための仮想店舗内の移動経路が最短となるレイアウトであることが好ましい。
 当該構成のショッピング支援システムによれば、推薦レイアウトが採用されることにより所定の商品を購入するユーザの煩雑感を軽減または解消しながら、ユーザの購買意欲を刺激することが出来る。
 当該構成のショッピング支援システムにおいて、
 前記画像表示制御部は、ユーザの前回の購入から所定期間が経過した商品の推薦画像を前記ユーザ端末のユーザ端末出力部に出力させることが好ましい。
 当該構成のショッピング支援システムによれば、同一の商品を繰り返し推薦する場合でも、前回の購入から所定期間が経過したことを要件として商品を推薦しているので、ユーザの違和感を解消又は軽減しながら、ユーザの購買意欲を刺激することが出来る。
ショッピング支援システムの構成説明図。 風景画像情報を示す図。 仮想店舗画像情報を示す図。 仮想店舗内画像情報を示す図。 商品情報を示す図。 購入履歴情報を示す図。 店員状態情報を示す図。 仮想店舗情報準備処理のフローチャート。 仮想空間画像表示制御処理のフローチャート。 風景画像の構成を示す図。 仮想店舗内画像を示す図。 仮想店舗内画像の棚の画像を示す図。 商品画像を示す図。 推薦商品画面を示す図。 商品推薦処理のフローチャート。 詳細説明処理のフローチャート。 レイアウト変更処理のフローチャート。 ユーザの移動軌跡の一例を示す図。 推薦レイアウトの一例を示す図。
 図1~図9を参照しながら、本発明のショッピング支援システムの一実施形態について説明する。
 (ショッピング支援システムの構成)
 ショッピング支援システム1は、仮想空間を利用してユーザUのショッピングを支援するシステムであり、図1に示されるように、互いに公衆通信網(例えばインターネット)等のネットワークを介して接続されたショッピング支援サーバ100と、ユーザ端末200と、店舗端末300と、店員端末400とを備える。
 仮想空間は、仮想店舗の外部の空間である仮想外部空間と、仮想店舗の内部の空間である仮想店舗内部空間とに分けられる。これらの空間のいずれかにおいてユーザUには一つの仮想位置が与えられる。ユーザUの仮想位置に応じて、ユーザ端末200に種々の画像が表示される。
 (ショッピング支援サーバの構成)
 ショッピング支援サーバ100は、サーバ制御部110と、サーバ記憶部120と、サーバ通信部130とを備えている。なお、ショッピング支援サーバ100を構成するコンピュータの一部または全部が、他の端末、例えば、ユーザ端末200を構成するコンピュータにより構成されていてもよい。例えば、移動局としての一または複数のユーザ端末200により、ショッピング支援サーバ100の一部または全部が構成されていてもよい。
 サーバ制御部110は、CPU(Central Processing Unit)等の演算処理装置、メモリ、及びI/O(Input/Output)デバイスなどにより構成されている。サーバ制御部110は、一のプロセッサにより構成されてもよく、相互通信可能な複数のプロセッサにより構成されてもよい。
 サーバ制御部110は、所定のプログラムを読み込んで実行することにより、後述の演算処理を実行するサーバ画像表示制御部112、サーバ詳細説明制御部114として機能する。
 サーバ記憶部120は、例えばROM(Read Only Memory),RAM(Random Access Memory)、HDD(Hard Disk Drive)等の記憶装置により構成されている。サーバ記憶部120は、サーバ制御部110の演算結果、又はサーバ制御部110がサーバ通信部130を介して受信したデータを記憶するように構成されている。サーバ記憶部120が、本発明の「記憶部」に相当する。
 サーバ記憶部120は、図2A~図2Fに示されるように、風景画像情報121と、仮想店舗画像情報122と、仮想店舗内画像情報123と、商品情報124と、購入履歴情報125と、店員状態情報126とを記憶している。
 風景画像情報121は、図2Aに示されるように、街中等の風景の画像のIDを格納する風景画像IDカラム1211と、風景の仮想外部空間における位置情報を格納する風景位置情報カラム1212と、風景画像へのリンクを格納する風景画像カラム1213とを含む。
 風景の位置情報は、例えば、X,Y、Zの3次元又はX,Yの2次元の座標値で表現されうる。風景の位置情報は、例えば、その風景の画像を撮影した地点の現実世界の緯度及び経度などに対応しうる。また、一定の範囲を示す座標値により、風景の位置情報が表現されてもよい。風景画像へのリンクは、例えばファイルパスで示されてもよいし、URL(Uniform Resource Locator)で示されてもよい。
 仮想店舗画像情報122は、仮想店舗のIDを格納する仮想店舗IDカラム1221と、仮想店舗の仮想外部空間における位置情報を格納する仮想店舗位置情報カラム1222と、仮想店舗画像へのリンクを格納する仮想店舗画像カラム1223と、仮想店舗の種別及び補足説明など、仮想店舗の詳細情報を格納する詳細情報カラム1224とを含む。
 仮想店舗の位置情報は、風景の位置情報と同様に、例えば、X,Y、Zの3次元又はX,Yの2次元の座標値で表現されうる。仮想店舗の位置情報は、例えば、その仮想店舗に対応する店舗の外観を撮影した地点の現実世界における緯度及び経度に対応しうる。また、一定の範囲を示す座標値により、仮想店舗の位置情報が表現されてもよい。また、仮想店舗の位置情報は、ある風景画像内の右上の所定位置など、風景画像ごとに定められる位置であってもよい。
 仮想店舗画像へのリンクは、例えばファイルパスで示されてもよいし、URLで示されてもよい。
 仮想店舗内画像情報123は、仮想店舗の内部の画像のIDを格納する仮想店舗内画像IDカラム1231と、仮想店舗の仮想内部空間における位置情報を格納する仮想店舗内位置情報カラム1232と、仮想店舗内画像へのリンクを格納する仮想店舗内画像カラム1233と、対応する仮想店舗IDを格納する仮想店舗IDカラム1234とを含む。
 仮想店舗内部空間における位置情報は、X,Y、Zの3次元の座標値又はX,Yの2次元の座標値で示されてもよい。
 商品情報124は、商品IDカラム1241と、商品位置情報カラム1242と、商品画像カラム1243と、商品周期カラム1244と、商品詳細情報カラム1245と、推薦情報カラム1246とを含む。
 商品IDカラム1241は、商品のIDを格納するカラムである。
 商品位置情報カラム1242は、仮想店舗内部空間における位置情報を格納するカラムである。仮想店舗内部空間における位置情報は、X,Y、Zの3次元の座標値で示されてもよいし、ある棚の3段目の右から5番目といった、商品を配置するための棚における配置位置で示されてもよいし、仮想店舗内画像内の右上の所定の位置など、仮想店舗内画像に紐づけられた位置で示されてもよい。
 商品画像カラム1243は、商品の画像のリンクを格納するカラムである。商品の画像のリンクは、例えばファイルパスで示されてもよいし、URLで示されてもよい。
 商品周期カラム1244は、各商品の消費期間を格納するカラムである。商品周期カラム1244の値は、予め商品の種別ごとに定められてもよいし、ショッピング支援サーバ100の管理者によって定められてもよいし、仮想店舗の担当者によって定められてもよい。
 商品詳細情報カラム1245は、商品のカテゴリ、商品名、在庫数、単価及び補足説明などの商品の詳細情報を格納するカラムである。
 推薦情報カラム1246は、仮想店舗の担当者により設定された、推薦の有無を示すカラムである。推薦情報は、推薦の有無だけでなく、割引率又は所定数以上購入する若しくは所定の商品と一緒に購入するなどの割引の条件などにより表現されてもよい。
 購入履歴情報125は、ユーザIDカラム1251と、購入日時カラム1252と、商品IDカラム1253と、購入店舗IDカラム1254と、購入量カラム1255とを含む。
 ユーザIDカラム1251は、ショッピング支援システム1で過去に商品を購入したユーザのIDを格納するカラムである。
 購入日時カラム1252は、当該ユーザが商品を購入した日時を格納するカラムである。
 購入商品IDカラム1253は、当該ユーザが購入した商品のIDを格納するカラムである。
 購入店舗IDカラム1254は、当該ユーザが商品を購入した仮想店舗のIDを格納するカラムである。
 購入量カラム1255は、購入された商品の購入量を格納するカラムである。
 店員状態情報126は、店員が働く仮想店舗IDを格納する店舗IDカラム1261と、店員のIDを格納する店員IDカラム1262と、店員の応答可否を示す店員状態カラム1263と、店員端末のアドレス情報を示す店員端末アドレスカラム1264を含む。
 サーバ通信部130は、ネットワークとしての公衆通信網に接続され、ユーザ端末200、店舗端末300及び店員端末400等の外部の端末と通信する通信装置により構成されている。
 (ユーザ端末の構成)
 ユーザ端末200は、ユーザ端末制御部210と、画像を表示可能な画像表示部222を含むユーザ端末出力部220と、ユーザ端末入力部230と、ユーザ端末通信部240とを備える。
 ユーザ端末200は、ユーザUが眼鏡のように装着することにより、画像表示部を視認可能なように、サイズ、形状及び重量が設計されているウェアラブル端末により構成される。このようなウェアラブル端末は、例えば装着器具と、当該装着器具に取り付けられたスマートフォン等の携帯端末により構成されうる。
 これに代えて、ユーザ端末200は、スマートフォン又はタブレット等のユーザUによる携帯が可能なようにサイズ、形状および重量が設計されている携帯端末若しくはラップトップコンピュータ又特定箇所に設置されるように、サイズ、形状および重量が設計されたデスクトップコンピュータにより構成されてもよい。
 ユーザ端末制御部210は、CPU等の演算処理装置、メモリ、及びI/Oデバイスなどにより構成されている。ユーザ端末制御部210は、所定のプログラムを読み込んで実行することにより、後述の演算処理を実行する動作検知部212、ユーザ端末画像表示制御部214及びユーザ端末詳細説明制御部216として機能する。なお、サーバ画像表示制御部112及びユーザ端末画像表示制御部214が、本発明の「画像表示制御部」に相当する。また、サーバ詳細説明制御部114及びユーザ端末詳細説明制御部216が、本発明の「詳細説明制御部」に相当する。
 ユーザ端末出力部220は、画像表示部222と音声出力部224とを備えている。
 画像表示部222は、液晶パネルのような表示装置により構成される。画像表示部222は、プロジェクタとスクリーンにより構成されてもよい。
 音声出力部224は、スピーカ又はイヤホンにより構成される。
 ユーザ端末入力部230は、マイク等の音声入力部232を備えている。
 これに代えてまたは加えて、ユーザ端末入力部230は、ユーザの目の動きまたはユーザの身体の動きを撮影するカメラ、タッチパッドのような位置入力装置又はキーボードを備えてもよい。
 ユーザ端末通信部240は、ネットワークとしての公衆通信網に接続され、ショッピング支援サーバ100及び店員端末400等の外部の端末と通信する通信装置により構成されている。
 (店舗端末)
 店舗端末300は、店舗端末制御部310と、店舗端末記憶部320と、店舗端末通信部330と、店舗端末撮像部340と、店舗端末出力部350とを備える。店舗端末300は、現実世界の店舗(以下、「対象店舗」という。)に設置され、当該店舗の担当者が使用可能なように構成される。
 店舗端末300は、スマートフォン又はタブレット等のユーザUによる携帯が可能なようにサイズ、形状および重量が設計されている携帯端末若しくはラップトップコンピュータ又特定箇所に設置されるように、サイズ、形状および重量が設計されたデスクトップコンピュータにより構成されうる。店舗端末300は、その一部または全部が店員端末400により構成されてもよい。
 店舗端末制御部310は、CPU等の演算処理装置、メモリ、及びI/Oデバイスなどにより構成されている。
 店舗端末記憶部320は、例えばROM(Read Only Memory),RAM(Random Access Memory)、HDD(Hard Disk Drive)等の記憶装置により構成されている。店舗端末記憶部320は、店舗端末制御部310の演算結果、又は店舗端末制御部310が店舗端末通信部330を介して受信したデータを記憶するように構成されている。
 店舗端末通信部330は、ネットワークとしての公衆通信網に接続され、ショッピング支援サーバ100等の外部の端末と通信する通信装置により構成されている。
 店舗端末撮像部340は、例えば店舗の監視カメラC、又は店舗を自動周回するカメラ付ロボット等により構成される。なお、店舗端末撮像部340により撮像された画像に加えてまたは代えて、店舗の担当者等により撮像された画像が用いられてもよい。
 店舗端末出力部350は、液晶パネルのような表示装置により構成される。店舗端末出力部350は、プロジェクタとスクリーンにより構成されてもよい。店舗端末出力部350は、音声出力装置を備えてもよい。
 (店員端末)
 店員端末400は、店員端末制御部410と、店員端末出力部420と、店員端末入力部430と、店員端末通信部440とを備える。
 店員端末400は、店員Sが眼鏡のように装着することにより、画像表示部を視認可能なように、サイズ、形状及び重量が設計されているウェアラブル端末により構成される。このようなウェアラブル端末は、例えば装着器具と、当該装着器具に取り付けられたスマートフォン等の携帯端末により構成されうる。
 これに代えて、店員端末400は、スマートフォン又はタブレット等の店員Sによる携帯が可能なようにサイズ、形状および重量が設計されている携帯端末若しくはラップトップコンピュータ又特定箇所に設置されるように、サイズ、形状および重量が設計されたデスクトップコンピュータにより構成されてもよい。
 店員端末制御部410は、CPU等の演算処理装置、メモリ、及びI/Oデバイスなどにより構成されている。
 店員端末出力部420は、画像表示部と音声出力部とを備えている。
 画像表示部は、液晶パネルのような表示装置により構成される。画像表示部は、プロジェクタとスクリーンにより構成されてもよい。音声出力部は、スピーカ又はイヤホンにより構成される。
 店員端末入力部430は、マイクを備えている。これに代えてまたは加えて、店員端末入力部430は、ユーザの目の動きまたはユーザの身体の動きを撮影するカメラ、タッチパッドのような位置入力装置又はキーボードを備えてもよい。
 店員端末通信部440は、ネットワークとしての公衆通信網に接続され、ショッピング支援サーバ100及びユーザ端末200等の外部の端末と通信する通信装置により構成されている。
 (仮想店舗情報準備処理)
 次に、図3を参照して、仮想店舗内画像情報123及び商品情報124をサーバ記憶部120に記憶する仮想店舗情報準備処理について説明する。
 店舗端末制御部310は、店舗端末撮像部340を介して対象店舗の内部を撮像する(図3/STEP302)。撮像された対象店舗の内部の画像(以下、適宜「対象店舗内画像」という。)には、対象店舗内における撮像位置情報が付加されている。
 店舗端末制御部310は、対象店舗内画像から棚を認識する(図3/STEP304)。店舗端末制御部310は、例えば、予め店舗端末制御部310に記憶された棚の位置情報又は棚の形状に関する情報等の棚を特定できる情報を基に、対象店舗内画像から棚を検出する。
 店舗端末制御部310は、仮想店舗内に配置すべき商品の商品IDを認識する(図3/STEP306)。
 店舗端末制御部310は、仮想店舗内に配置すべき商品の商品IDとして、対象店舗内画像に含まれる商品の商品IDを認識してもよいし、予め店舗の担当者に指定された商品の商品IDを認識してもよい。
 店舗端末制御部310は、仮想店舗内に配置すべき商品のそれぞれの位置を認識する(図3/STEP308)。
 店舗端末制御部310は、仮想店舗内に配置すべき商品の位置として、対象店舗内画像の棚における商品の位置を認識してもよいし、予め店舗の担当者に指定された商品の位置を認識してもよい。
 店舗端末制御部310は、仮想店舗内に配置すべき商品の商品画像を認識する(図3/STEP310)。
 店舗端末制御部310は、対象店舗内画像に含まれる商品の画像を配置すべき商品の商品画像として認識してもよいし、店舗端末撮像部340に撮像させた商品の拡大画像を配置すべき商品の商品画像として認識してもよいし、商品名等の商品を特定できる情報を基に店舗端末通信部330を介して外部の端末からダウンロードした画像を配置すべき商品の商品画像として認識してもよいし、商品IDを基にショッピング支援サーバ100からダウンロードした画像を配置すべき商品の商品画像として認識してもよい。
 店舗端末制御部310は、配置すべき商品の在庫数を認識する(図3/STEP312)。店舗端末制御部310は、対象店舗内画像から検出された商品の個数を配置すべき商品の在庫数として認識してもよいし、店舗端末入力部430を介して検知した店舗担当者に指定された在庫数を配置すべき商品の在庫数として認識してもよいし、データーベースから読み込んだ所定の流通センターに存在する商品の在庫数を配置すべき商品の在庫数として認識してもよい。加えて、店舗端末制御部310は、商品の周期、詳細情報及び推薦情報を認識してもよい。
 店舗端末制御部310は、仮想店舗に配置するべき商品の全てに対し、図3/STEP306~図3/STEP312を実行する。
 店舗端末制御部310は、図3/STEP302で撮像した対象店舗内画像と図3/STEP310で認識した商品画像とに基づいて、仮想店舗内画像を作成する(図3/STEP314)。より具体的には、店舗端末制御部310は、撮像地点から配置すべき商品の位置に基づいて商品画像の大きさ及び向きを調整した後、配置すべき商品の位置に対応する対象店舗内画像の対応する位置に、当該商品画像を重ねることで、仮想店舗内画像を作成する。
 店舗端末制御部310は、店舗端末通信部330を介して仮想店舗内画像を含む仮想店舗内情報をショッピング支援サーバ100に送信する(図3/STEP316)。仮想店舗内情報には、例えば棚の位置、配置すべき商品の商品ID、位置、在庫数、周期、詳細情報及び推薦情報などが含まれうる。
 サーバ制御部110は、サーバ通信部130を介して仮想店舗内情報を受信したか否かを判定する(図3/STEP102)。
 当該判定結果が否定的である場合(図3/STEP102‥NO)、サーバ制御部110は、再度図3/STEP102の処理を実行する。
 当該判定結果が肯定的である場合(図3/STEP102‥YES)、サーバ制御部110は、仮想店舗内情報を、仮想店舗内画像情報123及び商品情報124として、サーバ記憶部120に記憶する(図3/STEP104)。なお、図3/STEP304~STEP314の処理がサーバ制御部110により実行されてもよい。
 以上により、仮想店舗内画像情報123及び商品情報124がサーバ記憶部120に記憶される。
 (仮想空間画像表示制御処理)
 次に、ユーザUの種々の動作に応じて仮想空間の画像を画像表示部222に表示する仮想空間画像表示制御処理について説明する。
 仮想空間は、上述したように、仮想店舗の外部の空間である仮想外部空間と、仮想店舗の内部の空間である仮想店舗内部空間とに分けられる。しかし、仮想外部空間及び仮想店舗内部空間のいずれにおいても同様の処理により仮想空間の画像を表示できるので、両方のケースについて、図4及び図5A~図5Dを参照して一度に説明する。
 ユーザ端末画像表示制御部214は、ユーザUの仮想空間における位置を認識する(図4/STEP202)。ユーザ端末画像表示制御部214は、例えば、東京の赤坂、パリの凱旋門及びシンガポールの有名店など、ユーザにより指定された現実世界の位置に対応する仮想空間における位置を、ユーザUの位置として認識してもよい。また、ユーザ端末画像表示制御部214は、ユーザが前回訪れた店舗又はショッピング支援サーバ100の管理者により指定された位置のように、仮想空間における所定の位置をユーザUの位置として認識してもよい。仮想空間における位置は、必ずしも現実世界の位置に対応する必要はないが、現実世界の位置に1対1で対応していることがより好ましい。
 ユーザ端末画像表示制御部214は、ユーザ端末通信部240を介してユーザUの仮想空間における位置をショッピング支援サーバ100に送信する(図4/STEP204)。
 サーバ画像表示制御部112は、サーバ通信部130を介してユーザUの仮想空間における位置を受信したか否かを判定する(図4/STEP110)。
 当該判定結果が否定的である場合(図4/STEP110‥NO)、サーバ画像表示制御部112は、再度図4/STEP110の処理を実行する。
 当該判定結果が肯定的である場合(図4/STEP110‥YES)、サーバ画像表示制御部112は、図2Aに示される風景画像情報121、又は図2Bに示される仮想店舗内画像情報123を参照することにより、ユーザUの仮想空間に対応する位置に対応する画像を認識する(図4/STEP112)。
 例えば、ユーザUの仮想空間に対応する位置が仮想外部空間に含まれる場合には、図5Aに示されるように、当該位置に対応する風景画像P1が認識されてもよい。風景画像P1には、仮想店舗外観画像P11が含まれてもよい。
 例えば、ユーザUの仮想空間に対応する位置が仮想店舗内部空間に含まれる場合には、図5Bに示されるように、当該位置に対応する仮想店舗内画像P2が認識されてもよい。仮想店舗内画像P2には、複数の商品画像P21が含まれている。この仮想店舗内画像P2は、図3/STEP314で作成された画像である。
 サーバ画像表示制御部112は、認識した画像をサーバ通信部130を介してユーザ端末200に送信する(図4/STEP114)。サーバ画像表示制御部112は、当該認識した画像に併せて、購入履歴に示されるユーザUが前回購入した商品をハイライトする情報及び購入履歴またはログに示されるユーザUの前回の移動経路をユーザ端末200に送信してもよい。 
 ユーザ端末画像表示制御部214は、ユーザ端末通信部240を介して画像を受信したか否かを判定する(図4/STEP206)。
 当該判定結果が否定的である場合(図4/STEP206‥NO)、ユーザ端末画像表示制御部214は、再度図4/STEP206の処理を実行する。
 当該判定結果が肯定的である場合(図4/STEP206‥YES)、ユーザ端末画像表示制御部214は、受信した画像(以下、適宜「対象仮想画像」という。)を画像表示部222に表示する(図4/STEP208)。
 これにより、例えば、図5Aに示される風景画像P1が画像表示部222に表示されうる。このとき、検索ボタンP12が風景画像P1に重畳して表示されてもよい。また、図5Bに示される仮想店舗内画像P2が画像表示部222に表示されうる。このとき、推薦ボタンP22,検索ボタンP23,詳細説明ボタンP24が仮想店舗内画像P2に重畳して表示されてもよい。
 また、画像の表示にあわせ、所定の音声などが、音声出力部224から出力されてもよい。
 動作検知部212は、ユーザ端末入力部230を介してユーザUの動作を認識する(図4/STEP210)。たとえば、動作検知部212は、音声入力部232を介して「右」、「北に移動」、「前進」、又は「○○(商品名)の説明」などの発声を認識してもよい。これに加えてまたは代えて、動作検知部212は、カメラを介してユーザUの目を撮影することにより、ユーザUが凝視する方向などを認識してもよい。これに加えてまたは代えて、動作検知部212は、タッチパネルの操作またはキーボードを介してユーザの動作を認識してもよい。
 動作検知部212は、認識したユーザUの動作が移動を希望する動作であるという第1条件を充足するかどうかを判定する(図4/STEP212)。
 例えば、動作検知部212は、パターン認識又は音声解析により、発声の内容が所定方向への移動を希望する内容であると判定した場合に、第1条件を充足すると判定してもよい。また、動作検知部212は、対象仮想画像の解析によりユーザの凝視する方向に物体が含まれていないと判定した場合には、ユーザの凝視動作が、第1条件を充足すると認識してもよい。動作検知部212は、タッチパネルの操作またはキーボードの操作が所定の操作である場合に、ユーザの動作が第1条件を充足すると判定してもよい。
 当該判定結果が肯定的である場合(図4/STEP212‥YES)、ユーザ端末画像表示制御部214は、移動先画像要求を作成する(図4/STEP214)。たとえば、ユーザ端末画像表示制御部214は、ユーザが移動を希望する方向の画像、たとえば、風景画像P1の位置に隣接する風景の画像、又は仮想店舗内画像P2の位置に隣接する仮想店舗内の画像の送信要求を作成する。
 当該判定結果が否定的である場合(図4/STEP212‥NO)、動作検知部212は、ユーザUの動作が、詳細情報を求める動作であるという第2条件を充足するか否かを判定する(図4/STEP216)。
 例えば、動作検知部212は、パターン認識又は音声解析により、発声の内容が対象仮想画像に含まれる一部の詳細説明を希望していると判定した場合に、第2条件を充足すると判定してもよい。また、動作検知部212は、対象仮想画像の解析によりユーザの凝視する方向に物体が含まれていると判定した場合には、ユーザの凝視動作が第2条件を充足すると判定してもよい。動作検知部212は、タッチパネルの操作またはキーボードの操作が所定の操作である場合に、ユーザの動作が第2条件を充足すると判定してもよい。
 当該判定結果が肯定的である場合(図4/STEP216‥YES)、ユーザ端末画像表示制御部214は、詳細画像の要求を作成する(図4/STEP218)。たとえば、ユーザ端末画像表示制御部214は、ユーザが詳細情報を求める対象が風景画像P1に含まれる店舗である場合には、その店舗の拡大画像の表示要求を作成してもよい。ユーザが詳細情報を求める対象が仮想店舗内画像P2に含まれる棚である場合には、例えば図5Cに示されるその棚の拡大画像P3の表示要求を作成してもよい。また、ユーザが詳細情報を求める対象が仮想店舗内画像P2に含まれる商品である場合には、例えば図5Dに示されるその商品の拡大画像P4の表示要求を作成してもよい。
 当該判定結果が否定的である場合(図4/STEP216‥NO)、動作検知部212は、再度図4/STEP210以下の処理を実行する。
 図4/STEP214又は図4/STEP218の処理の後、ユーザ端末画像表示制御部214は、ユーザ端末通信部240を介して画像要求をショッピング支援サーバ100に送信する(図4/STEP220)。
 サーバ画像表示制御部112は、サーバ通信部130を介して画像要求を受信したか判定する(図4/STEP116)。
 当該判定結果が否定的である場合(図4/STEP116‥NO)、サーバ画像表示制御部112は、再度図4/STEP116の処理を実行する。
 当該判定結果が肯定的である場合(図4/STEP116‥YES)、サーバ画像表示制御部112は、画像要求に対応する画像を認識する(図4/STEP118)。
 サーバ画像表示制御部112は、サーバ通信部130を介して認識した画像をユーザ端末200に送信する(図4/STEP120)。
 ユーザ端末画像表示制御部214は、ユーザ端末通信部240を介して画像を受信したか否かを判定する(図4/STEP222)。当該判定結果が否定的である場合(図4/STEP222‥NO)、ユーザ端末画像表示制御部214は、再度図4/STEP222の処理を実行する。当該判定結果が肯定的である場合(図4/STEP222‥YES)、ユーザ端末画像表示制御部214は、図4/STEP208以下の処理を実行する。
 以上により、ユーザUの種々の動作に応じて仮想空間の画像が画像表示部222に表示される。
 (商品推薦処理)
 次に、図6を参照して、商品推薦処理を説明する。この処理は、例えば、ユーザUが仮想店舗に入店したとき、ユーザUが図5Bの推薦ボタンP22、図5Cの推薦ボタンP31、若しくは図5Dの推薦ボタンP41を選択したとき又は、カメラによりユーザUの視線が同じところを往復することを検知した若しくはマイク、タッチパネル若しくはキーボード等に対するユーザUの操作が一定時間されなかったことを検知したなど、ユーザUがどの商品を選ぶか迷っている動作を示したときなどに実行されうる。
 サーバ画像表示制御部112は、サーバ記憶部120を参照することにより、商品情報124を認識する(図6/STEP130)。
 サーバ画像表示制御部112は、夫々の商品について、推薦情報カラム1246を参照することにより、推薦商品か否かを判定する(図6/STEP132)。
 当該判定結果が否定的である場合(図6/STEP132‥NO)、サーバ画像表示制御部112は、ユーザUのユーザIDを基に、購入履歴情報125を参照して、前回購入から所定機関が経過している商品があるか否かを判定する(図6/STEP134)。ここで所定期間は、商品ごと又は商品のカテゴリごとに定められた商品周期カラム1244に示される期間であってもよいし、一律に定められた期間であってもよいし、前回の当該商品の購入量に応じた期間(購入量が多いほど長くなる期間)であってもよい。
 当該判定結果が否定的である場合(図6/STEP134‥NO)、サーバ画像表示制御部112は、商品推薦処理を終了する。
 図6/STEP132又は図6/STEP134の判定結果が肯定的である場合(図6/STEP132‥YES又は図6/STEP134‥YES)、サーバ画像表示制御部112は、サーバ通信部130を介して推薦商品の情報をユーザ端末200に送信する(図6/STEP136)。
 ユーザ端末画像表示制御部214は、ユーザ端末通信部240を介して推薦商品の情報を受信したか否かを判定する(図6/STEP230)。
 当該判定結果が否定的である場合(図6/STEP230‥NO)、ユーザ端末画像表示制御部214は、再度図6/STEP230の処理を実行する。
 当該判定結果が肯定的である場合(図6/STEP230‥YES)、ユーザ端末画像表示制御部214は、例えば図5Eに示される商品推薦画像P5を画像表示部222に表示する(図6/STEP232)。
 商品推薦画像P5には、推薦商品のリストと合計購入金額を示すリスト情報P51,各商品の数量を選択する数量選択画像P52、P53、P54が含まれる。推薦商品は、ユーザの購入履歴に基づいて選択された商品であってもよいし、他のユーザの商品の購入履歴に基づいて選択された商品であってもよい。多くのユーザが閲覧している又は購入している商品について、「○○人の人がこの商品に注目します」等の推薦情報が推薦商品に付加されてもよい。また、ユーザ端末画像表示制御部214は、仮想店舗画像を表示する際に、推薦商品をハイライトして表示してもよい。 
 以上の処理により、店舗の思惑に合致する又はユーザのニーズに合致する商品が推薦されうる。
 (詳細説明処理)
 次に、図7を参照して、詳細説明処理を説明する。この処理は、例えば、ユーザUが図5Bの詳細説明ボタンP24、図5Cの詳細説明ボタンP33、若しくは図5Dの詳細説明ボタンP43を選択したとき、カメラによりユーザUの視線が一つの商品を凝視することを検知したとき又はマイクを介して商品名の発声を検知したときなど、ユーザUの商品の詳細説明を求める動作が検知された時に実行されうる。以下、ユーザUが詳細説明を求めた商品を「対象商品」という。
 なお、この詳細説明は、商品に限られず、例えば、風景画像に含まれる建物の詳細説明に適用されてもよい。
 ユーザ端末詳細説明制御部216は、ユーザ端末通信部240を介して対象商品の商品IDを含む詳細説明要求をショッピング支援サーバ100に送信する(図7/STEP240)。
 サーバ詳細説明制御部114は、サーバ通信部130を介して詳細説明要求を受信したか否かを判定する(図7/STEP140)。
 当該判定結果が否定的である場合(図7/STEP140‥NO)、サーバ詳細説明制御部114は、再度図7/STEP140の処理を実行する。
 当該判定結果が肯定的である場合(図7/STEP140‥YES)、サーバ詳細説明制御部114は、ユーザUが訪れている仮想店舗の店舗IDを認識する(図7/STEP142)。
 サーバ詳細説明制御部114は、サーバ記憶部120に記憶された店員状態情報126(図2F参照)を参照し、店舗IDに対応する店員のうち、応答可能な店員が存在するかどうかを判定する(図7/STEP144)。
 当該判定結果が否定的である場合(図7/STEP144‥NO)、サーバ詳細説明制御部114は、対象商品の商品IDを用いて、サーバ記憶部120に記憶された商品詳細情報カラム1245を参照し、対象商品の詳細情報を認識する(図7/STEP146)。
 サーバ詳細説明制御部114は、サーバ通信部130を介して、認識した対象商品の詳細情報をユーザ端末200に送信する(図7/STEP148)。
 ユーザ端末詳細説明制御部216は、ユーザ端末通信部240を介して対象商品の詳細情報を受信すると(図7/STEP242‥YES)、図5Dに示されるような対象商品の拡大画像P4と詳細情報P44とを画像表示部222に表示する(図7/STEP244)。
 この詳細情報P44には、ユーザUが以前購入した商品または受け取ったサンプルの質感など、ユーザUが持っている商品またはサンプルに対応する記載が含まれていることが好ましい。
 例えば、「この商品の質感は、あなたが2016年4月に購入した洋服と質感が似ています」という文章とその洋服の画像とが詳細情報に含まれていることが好ましい。
 また、「この商品の質感は、あなたが以前購入した食品と食感が似ています」という文章とその食品の画像とが詳細情報に含まれていることが好ましい。
 図7/STEP144の判定結果が肯定的である場合(図7/STEP144‥YES)、サーバ詳細説明制御部114は、店員端末アドレスカラム1264を参照して、応対可能な店員の店員端末400のアドレスに問合せがある旨の問合せ通知を送信する(図7/STEP150)。
 サーバ詳細説明制御部114は、サーバ通信部130を介して応対可能な店員の店員端末400のアドレスを含む通信開始要求をユーザ端末200に送信する(図7/STEP152)。
 図7/STEP242の判定結果が否定的である場合(図7/STEP242‥NO)、ユーザ端末詳細説明制御部216は、ユーザ端末通信部240を介して通信開始要求を受信すると(図7/STEP246‥YES)、通信開始要求に含まれる応対可能な店員の店員端末400のアドレスを用いて、店員端末400との通信を確立する(図7/STEP248)。
 図7/STEP244の処理の後、図7/STEP246の判定結果が否定的である場合(図7/STEP246‥NO)又は図7/STEP248の処理の後、ユーザ端末詳細説明制御部216は、詳細説明処理の今回周期を終了する。これに代えて、例えば、図7/STEP246の判定結果が肯定的になるまで、ユーザ端末詳細説明制御部216は、図7/STEP246の処理を実行してもよい。
 以上により、対象商品の詳細説明を求めるユーザUに適切に詳細説明が提供されうる。
 (レイアウト変更処理)
 次に、図8及び図9を参照して、仮想店舗内のレイアウトを変更するレイアウト変更処理を説明する。この処理は、例えば、定期的に又は店舗担当者の要求に応じて随時に実行されうる。
 サーバ画像表示制御部112は、サーバ記憶部120に記憶された購入履歴情報125(図2E)を参照することにより、商品購入時のユーザの移動経路を認識する(図8/STPE160)。これに加えてまたは代えて、ログに記憶されたユーザの移動軌跡を認識することにより、ユーザの移動経路を認識してもよい。
 例えば、サーバ画像表示制御部112は、購入履歴情報125に基づいて、出入口L1→生鮮食品棚L2→冷凍食品棚L3→酒類棚L4→レジL5の順で商品を購入する移動経路R1を認識する。
 サーバ画像表示制御部112は、認識したユーザの移動経路に基づいて、推薦レイアウトを作成する(図8/STPE162)。推薦レイアウトには、仮想店舗内画像の位置に加え、当該仮想店舗内画像に関連付けられた商品の位置が変更されたレイアウト情報が含まれる。推薦レイアウトは、各棚間の移動経路R1が最短の経路となるようなレイアウトであってもよいし、例えば人気のある商品の組合せを購入するための経路が最短の経路となるようなレイアウトであってもよい。 
 たとえば、図9に示される移動経路R1のような経路を通過するユーザが多い場合、酒類棚L4と消耗品棚L6との位置を交換した図9Bのレイアウトの方が、移動経路R2が短くなる。このように、サーバ画像表示制御部112は、多くのユーザの移動経路が最短となるようなレイアウトを推薦レイアウトとして求めてもよい。なお、サーバ画像表示制御部112は、多くの商品をユーザに閲覧させるため、同一の商品を購入する場合にユーザの移動経路が最長又は所定の距離以上となるようなレイアウトを推薦レイアウトとして求めてもよい。なお、棚の位置の交換に代えてまたは加えて棚における商品の位置が変更されたレイアウトが作成されてもよい。 
 サーバ画像表示制御部112は、サーバ通信部130を介して推薦レイアウト情報を店舗端末300に送信する(図8/STEP164)。
 店舗端末制御部310は、店舗端末通信部330を介して推薦レイアウト情報を受信すると(図8/STEP380‥YES)、推薦レイアウトを店舗端末出力部350に表示する(図8/STEP382)。店舗端末制御部310は、推薦レイアウトに併せて、各ユーザの移動経路又は購入数が一定数以上若しくは商品画像の表示時間が一定時間以上の商品の統計量若しくはランキングなどのダッシュボード情報を店舗端末出力部350に出力してもよい。 図8/STEP380の判定結果が否定的である場合(図8/STEP380‥NO)、店舗端末制御部310は、図8/STEP380の処理を再度実行する。
 店舗端末制御部310は、タッチパネル、キーボード又はマウスなどの適当な入力装置を介してレイアウトの変更操作を受け付ける(図8/STEP384)。
 店舗端末制御部310は、店舗端末通信部330を介して変更後のレイアウト情報をショッピング支援サーバ100に送信する(図8/STEP386)。変更後のレイアウトには、推薦レイアウトと同様に、仮想店舗内画像の位置に加え、当該仮想店舗内画像に関連付けられた商品の位置が変更されたレイアウト情報が含まれる。 
 サーバ画像表示制御部112は、サーバ通信部130を介して変更後のレイアウト情報を受信すると(図8/STEP166‥YES)、サーバ記憶部120に当該変更後のレイアウト情報を記憶する(図8/STEP168)。例えば、図2Cに示される仮想店舗内画像の仮想店舗内位置情報カラム1232、又は、図2Dに示される商品位置情報カラム1242の変更情報を記憶する。
 サーバ画像表示制御部112は、次回以降のユーザUのアクセスの際に、ユーザ端末出力部220に、変更後のレイアウト情報に対応した仮想店舗内画像を表示させる。この際に併せて、サーバ画像表示制御部112は、ユーザの過去の購入履歴に基づいて、ユーザがよく購入している商品がどこにあるかの情報をユーザ端末出力部220に出力させてもよい。 
 レイアウト変更処理により、仮想店舗内でユーザUの移動経路に適する蓋然性の高いレイアウトが適用されうる。
 (変形態様)
 本実施形態では、サーバ画像表示制御部112とユーザ端末画像表示制御部214とが本発明の「画像表示制御部」として機能したが、これに代えて、どちらか一方、例えばユーザ端末画像表示制御部214が本発明の「画像表示制御部」として機能してもよい。
 また、サーバ詳細説明制御部114とユーザ端末詳細説明制御部216とが本発明の「詳細説明制御部」として機能したが、これに代えて、どちらか一方、例えばユーザ端末詳細説明制御部216が適宜ショッピング支援サーバ100から情報を取得することにより、本発明の「詳細説明制御部」として機能してもよい。
 また、ユーザ端末が、上述した各種情報を記憶する記憶部を備えてもよい。
 また、店舗端末300がショッピング支援サーバ100として機能してもよい。
 図8/STPE160で認識された商品購入時のユーザUの移動経路に基づいて、サーバ画像表示制御部112は、ユーザUが仮想店舗内にいる場合に、例えば、仮想店舗画像の床面に矢印画像を重畳表示する等を行って、他のユーザの移動経路を推奨経路として出力してもよい。例えば、サーバ画像表示制御部112は、ユーザUと商品購入履歴の類似度が所定以上のユーザの移動経路を推奨経路として出力してもよいし、所定の数以上のユーザが通っている経路を推奨経路として出力してもよい。また、「○○人の人がこの経路を通っています」等の情報が推奨経路に付加されてもよい。また、サーバ画像表示制御部112は、各他のユーザの移動経路に基づいて、他のユーザを表す画像を表示させてもよい。  ユーザ端末詳細説明制御部216が、ユーザUの凝視又は発声等の動作に基づいて、ユーザUが注目しているユーザUのお気に入り商品のリストを作成し、次回のログイン以降に自動で又はユーザの動作に基づいて、当該お気に入り商品のリストを表示させたり、仮想店舗内画像における当該お気に入り商品のリストに含まれる商品の画像をハイライト表示させてもよい。 
 また、ユーザ端末詳細説明制御部216は、自動で又はユーザの動作に基づいて、当該お気に入り商品のリストに含まれる各商品の商品画像をまとめて表示させるようにしてもよい。 
 1‥ショッピング支援システム、100‥ショッピング支援サーバ、112‥サーバ画像表示制御部、120‥サーバ記憶部、200‥ユーザ端末、212‥動作検知部、214‥ユーザ端末画像表示制御部、220‥ユーザ端末出力部、U‥ユーザ、P21‥商品の画像、P2‥仮想店舗画像。

Claims (8)

  1.  ユーザの動作を検知する動作検知部と前記ユーザに認知させる情報を出力するユーザ端末出力部とを備えるユーザ端末と、
     一又は複数の商品の画像を含み、かつ、仮想店舗内の仮想位置とマッピングされた仮想店舗画像を記憶する記憶部と、
     前記ユーザの動作及び前記ユーザの前記仮想店舗内における前記仮想位置に対応する前記仮想店舗画像を前記ユーザ端末出力部に表示させる画像表示制御部とを備えることを特徴とするショッピング支援システム。
  2.  請求項1記載のショッピング支援システムにおいて、
     前記動作検知部により検知されたユーザの前記仮想店舗内における動作が商品の詳細説明を求める動作である場合に、商品の詳細説明を開始する詳細説明制御部を備えることを特徴とするショッピング支援システム。
  3.  請求項2記載のショッピング支援システムにおいて、
     前記詳細説明制御部は、前記ユーザ端末と前記仮想店舗に対応する店員の店員端末との通信を確立することにより、前記詳細説明を開始することを特徴とするショッピング支援システム。
  4.  請求項1~3のうちいずれか1項記載のショッピング支援システムにおいて、
     前記画像表示制御部は、情報を出力する店舗端末出力部を有する店舗端末と通信することにより、前記仮想店舗画像と前記仮想店舗画像の仮想位置との対応関係を変更するためのレイアウト変更画面を前記店舗端末出力部に出力させることを特徴とするショッピング支援システム。
  5.  請求項4記載のショッピング支援システムにおいて、
     前記画像表示制御部は、複数のユーザの過去の購買履歴及び前記仮想店舗内の移動履歴に基づいて、推薦レイアウトの画像を前記店舗端末の出力部に出力させるように構成されていることを特徴とするショッピング支援システム。
  6.  請求項5記載のショッピング支援システムにおいて、
     前記推薦レイアウトは、所定の商品を購入するための仮想店舗内の移動経路が最短となるレイアウトであることを特徴とするショッピング支援システム。
  7.  請求項6記載のショッピング支援システムにおいて、
     前記画像表示制御部は、ユーザの前回の購入から所定期間が経過した商品の推薦画像を前記ユーザ端末のユーザ端末出力部に出力させることを特徴とするショッピング支援システム。
  8.  ユーザに認知させる情報を出力するユーザ端末出力部を備えるユーザ端末と、
     一又は複数の商品の画像を含み、かつ、仮想店舗内の仮想位置とマッピングされた仮想店舗画像を記憶する記憶部とを備えるシステムが実行する方法であって、
     ユーザの動作を検知する動作検知ステップと、
     前記ユーザの動作及び前記ユーザの前記仮想店舗内における前記仮想位置に対応する前記仮想店舗画像を前記ユーザ端末出力部に表示させる画像表示制御ステップとを含むショッピング支援方法。
PCT/JP2016/073863 2016-08-15 2016-08-15 ショッピング支援システム及びショッピング支援方法 WO2018033954A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/073863 WO2018033954A1 (ja) 2016-08-15 2016-08-15 ショッピング支援システム及びショッピング支援方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/073863 WO2018033954A1 (ja) 2016-08-15 2016-08-15 ショッピング支援システム及びショッピング支援方法

Publications (1)

Publication Number Publication Date
WO2018033954A1 true WO2018033954A1 (ja) 2018-02-22

Family

ID=61196518

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/073863 WO2018033954A1 (ja) 2016-08-15 2016-08-15 ショッピング支援システム及びショッピング支援方法

Country Status (1)

Country Link
WO (1) WO2018033954A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022259977A1 (ja) * 2021-06-08 2022-12-15 エヌ・ティ・ティ・コミュニケーションズ株式会社 処理装置、処理方法及び処理プログラム
JP7388309B2 (ja) 2020-07-31 2023-11-29 トヨタ自動車株式会社 遠隔ショッピングシステム、遠隔ショッピング方法、及びプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001283055A (ja) * 2000-03-31 2001-10-12 Plat'home Kk 電子商取引システム及びその方法
JP2002288563A (ja) * 2001-03-27 2002-10-04 Honda Motor Co Ltd 仮想店舗システム
JP2003168022A (ja) * 2001-12-04 2003-06-13 Mitsubishi Denki Information Technology Corp オンラインショッピングシステム、オンラインショッピングにおける商品確認画面生成方法
JP2015062119A (ja) * 2013-09-22 2015-04-02 株式会社リコー 医療関係者用モバイル情報ゲートウェイ
JP2015153157A (ja) * 2014-02-14 2015-08-24 Kddi株式会社 仮想情報管理システム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001283055A (ja) * 2000-03-31 2001-10-12 Plat'home Kk 電子商取引システム及びその方法
JP2002288563A (ja) * 2001-03-27 2002-10-04 Honda Motor Co Ltd 仮想店舗システム
JP2003168022A (ja) * 2001-12-04 2003-06-13 Mitsubishi Denki Information Technology Corp オンラインショッピングシステム、オンラインショッピングにおける商品確認画面生成方法
JP2015062119A (ja) * 2013-09-22 2015-04-02 株式会社リコー 医療関係者用モバイル情報ゲートウェイ
JP2015153157A (ja) * 2014-02-14 2015-08-24 Kddi株式会社 仮想情報管理システム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7388309B2 (ja) 2020-07-31 2023-11-29 トヨタ自動車株式会社 遠隔ショッピングシステム、遠隔ショッピング方法、及びプログラム
WO2022259977A1 (ja) * 2021-06-08 2022-12-15 エヌ・ティ・ティ・コミュニケーションズ株式会社 処理装置、処理方法及び処理プログラム
JP2022187811A (ja) * 2021-06-08 2022-12-20 エヌ・ティ・ティ・コミュニケーションズ株式会社 処理装置、処理方法及び処理プログラム
JP7233469B2 (ja) 2021-06-08 2023-03-06 株式会社Nttコノキュー 処理装置、処理方法及び処理プログラム

Similar Documents

Publication Publication Date Title
JP7182652B2 (ja) 購入のための拡張現実デバイス、システムおよび方法
AU2017240823B2 (en) Virtual reality platform for retail environment simulation
US20190043118A1 (en) System and method of three-dimensional virtual commerce environments
JP5280475B2 (ja) 情報処理システム、情報処理方法及びプログラム
US20140363059A1 (en) Retail customer service interaction system and method
CN106796700A (zh) 用于电子商务的使用标记媒体、3d索引虚拟现实图像和全球定位系统位置的用户界面
JP2012190094A (ja) サーバ装置、情報処理方法及びプログラム
KR101724999B1 (ko) 가상 쇼핑 방문자 단말기와 가상 쇼핑 서버를 포함하는 가상 쇼핑 시스템
US20180158134A1 (en) Shopping System Using Augmented Reality
CN110073348A (zh) 用于在应用内访问第三方服务的方法和系统
EP3780537A1 (en) Store system, and method and apparatus for processing information of clothes to be tried on
US10963938B2 (en) Systems and methods for providing an interactive virtual environment
JP2022000794A (ja) 情報処理装置、及び制御方法
JP2011138367A (ja) 商品関連情報を提供するサーバ、方法及びシステム
JP2019530932A (ja) クロスオーバー相互作用取引システム及びその方法
WO2018033954A1 (ja) ショッピング支援システム及びショッピング支援方法
JP2021107959A (ja) 価格提示システム
US20170221108A1 (en) Methods and systems for dynamic pricing
JP2016018326A (ja) 情報提示装置およびプログラム
JP7200938B2 (ja) プログラム、情報処理装置、および情報処理方法
US20240112416A1 (en) Scheduling timed interchange protocols via augmented-reality (ar) systems and methods
KR102658873B1 (ko) 구매를 위한 증강 현실 디바이스들, 시스템들 및 방법들
KR20240056477A (ko) 메타버스로 진입하기 위한 관심지점의 거래 및 메타버스 상점에서 구매 활동을 허여하는 장치 및 방법
KR20230064176A (ko) 메타버스로 진입하기 위한 관심지점의 거래 및 메타버스 상점에서 구매 활동을 허여하는 장치 및 방법
JP2015219529A (ja) 商品情報提示装置およびプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16913484

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

NENP Non-entry into the national phase

Ref country code: JP

122 Ep: pct application non-entry in european phase

Ref document number: 16913484

Country of ref document: EP

Kind code of ref document: A1