WO2021132414A1 - 情報処理装置、情報処理方法、情報処理プログラム、情報処理システム、端末装置、端末装置制御方法、端末装置制御プログラムおよび端末プログラム - Google Patents

情報処理装置、情報処理方法、情報処理プログラム、情報処理システム、端末装置、端末装置制御方法、端末装置制御プログラムおよび端末プログラム Download PDF

Info

Publication number
WO2021132414A1
WO2021132414A1 PCT/JP2020/048320 JP2020048320W WO2021132414A1 WO 2021132414 A1 WO2021132414 A1 WO 2021132414A1 JP 2020048320 W JP2020048320 W JP 2020048320W WO 2021132414 A1 WO2021132414 A1 WO 2021132414A1
Authority
WO
WIPO (PCT)
Prior art keywords
store
information
information processing
unit
user
Prior art date
Application number
PCT/JP2020/048320
Other languages
English (en)
French (fr)
Inventor
佳弘 遠藤
正憲 丹澤
浩司 日高
直洋 秋山
淳一郎 間宮
Original Assignee
ソフトバンク株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2019232836A external-priority patent/JP2021101295A/ja
Priority claimed from JP2019237012A external-priority patent/JP6906594B2/ja
Priority claimed from JP2019237003A external-priority patent/JP6948379B2/ja
Application filed by ソフトバンク株式会社 filed Critical ソフトバンク株式会社
Priority to KR1020217007791A priority Critical patent/KR20220118901A/ko
Priority to US17/276,421 priority patent/US20220358550A1/en
Publication of WO2021132414A1 publication Critical patent/WO2021132414A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/02Reservations, e.g. for tickets, services or events
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/04Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0631Resource planning, allocation, distributing or scheduling for enterprises or organisations
    • G06Q10/06315Needs-based resource requirements planning or analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0207Discounts or incentives, e.g. coupons or rebates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0282Rating or review of business operators or products
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Definitions

  • the present invention relates to an information processing device, an information processing method, an information processing program, an information processing system, a terminal device, a terminal device control method, a terminal device control program, and a terminal program.
  • the information processing device includes an image acquisition unit, a reservation information acquisition unit, and a selection unit.
  • the image acquisition unit acquires an image obtained by photographing the inside of the store.
  • the reservation information acquisition department acquires the reservation information of the store.
  • the selection unit selects a store that is presumed to be available based on the acquired image of the store and the reservation information of the store.
  • FIG. 1 is a diagram showing an example of information processing according to the first embodiment.
  • FIG. 2 is a diagram showing an example of a process in which the information processing apparatus according to the first embodiment analyzes an image of a situation in each store and determines the vacancy status of each store in real time.
  • FIG. 3 is a diagram showing a configuration example of the information processing system according to the first embodiment.
  • FIG. 4 is a diagram showing an example of a store reservation database according to the first embodiment.
  • FIG. 5A is a diagram showing a configuration example of the photographing apparatus according to the first embodiment.
  • FIG. 5B is a diagram showing a configuration example of the information processing apparatus according to the first embodiment.
  • FIG. 6 is a diagram showing an example of a usage status database according to the first embodiment.
  • FIG. 7 is a diagram showing an example of a store database according to the first embodiment.
  • FIG. 8 is a diagram showing a configuration example of a user terminal according to the first embodiment.
  • FIG. 9 is a diagram showing an example of a usage condition reception screen on the user terminal according to the first embodiment.
  • FIG. 10 is a diagram showing an example of a store information display screen on the user terminal according to the first embodiment.
  • FIG. 11 is a flowchart showing an example of the information processing procedure of the information processing apparatus according to the first embodiment.
  • FIG. 12 is a flowchart showing an example of the information processing procedure of the user terminal according to the first embodiment.
  • FIG. 13 is a diagram showing a configuration example of the information processing system according to the second embodiment.
  • FIG. 14 is a diagram showing an example of an image database according to the second embodiment.
  • FIG. 15 is a flowchart showing an example of the information processing procedure of the information processing apparatus according to the second embodiment.
  • FIG. 16 is a diagram showing an example of a display screen of a user terminal according to each embodiment.
  • FIG. 17 is a hardware configuration diagram showing an example of a computer that realizes the functions of the information processing device.
  • FIG. 18 is a diagram showing an example of a customer attraction service according to the third embodiment.
  • FIG. 19 is a diagram showing an example of information processing according to the third embodiment.
  • FIG. 20 is a diagram showing an example (1) of a modified example according to the third embodiment.
  • FIG. 21 is a diagram showing an example (2) of a modified example according to the third embodiment.
  • FIG. 22 is a diagram showing a configuration example of the information processing system according to the third embodiment.
  • FIG. 23 is a diagram showing a configuration example of the terminal device according to the third embodiment.
  • FIG. 24 is a diagram showing a configuration example of the information processing apparatus according to the third embodiment.
  • FIG. 25 is a sequence diagram showing a privilege granting processing procedure by the information processing system according to the third embodiment.
  • FIG. 26 is a sequence diagram showing a billing processing procedure by the information processing system according to the third embodiment.
  • FIG. 27 is a hardware configuration diagram showing an example of a computer that realizes the functions of the information processing device.
  • FIG. 28 is a diagram showing an example of information processing according to the fourth embodiment.
  • FIG. 29 is a diagram showing a configuration example of the information processing system according to the fourth embodiment.
  • FIG. 29 is a diagram showing a configuration example of the information processing system according to the fourth embodiment.
  • FIG. 30 is a diagram showing a configuration example of the information processing apparatus according to the fourth embodiment.
  • FIG. 31 is a diagram showing an example of an image database according to the fourth embodiment.
  • FIG. 32 is a diagram showing an example of a usage database according to the fourth embodiment.
  • FIG. 33 is a diagram showing an example of providing a plurality of scores showing the situation in each store.
  • FIG. 34 is a flowchart showing an example of the information processing procedure according to the fourth embodiment.
  • FIG. 35 is a diagram showing an example of information processing according to the fifth embodiment.
  • FIG. 36 is a diagram showing an example of a search condition reception screen on the user terminal.
  • FIG. 37 is a diagram showing an example of a search result display screen on the user terminal.
  • FIG. 38 is a diagram showing a configuration example of a user terminal according to a fifth embodiment.
  • FIG. 39 is a diagram showing a configuration example of the information processing apparatus according to the fifth embodiment.
  • FIG. 40 is a diagram showing an example of a store database according to the fifth embodiment.
  • FIG. 41 is a flowchart showing an example of the information processing procedure according to the fifth embodiment.
  • FIG. 42 is a diagram showing an example of information processing according to the sixth embodiment.
  • FIG. 43 is a diagram showing a configuration example of the photographing apparatus according to the sixth embodiment.
  • FIG. 44 is a diagram showing a configuration example of the information processing apparatus according to the sixth embodiment.
  • FIG. 45 is a diagram showing an example of information processing according to the seventh embodiment.
  • FIG. 45 is a diagram showing an example of information processing according to the seventh embodiment.
  • FIG. 46 is a diagram showing an example of an estimation result screen according to the seventh embodiment.
  • FIG. 47 is a diagram showing an example of a store database according to the seventh embodiment.
  • FIG. 48 is a hardware configuration diagram showing an example of a computer that realizes the functions of the information processing device.
  • FIG. 1 is a diagram showing an example of information processing according to the first embodiment.
  • the information processing device selects a store that matches the usage conditions entered by the store user based on the store vacancy status determined from the image taken by the photographing device and the store reservation database. The processing to be performed will be described.
  • the store is, for example, a restaurant such as a cafe, a pub, or a restaurant.
  • the photographing device that captures the image of each store is, for example, an AI (Artificial Intelligence) camera, and analyzes the captured image.
  • AI Artificial Intelligence
  • the information processing device receives input of store usage conditions from the store user's terminal device (user terminal) (step S1).
  • the conditions for using this store are, for example, the location of the store (the area where the store is located), the usage time, the number of people, the budget, the atmosphere, and the like.
  • the shooting device installed in each store determines the number of people in the store by analyzing the images of the situation inside the store. Then, the information processing device grasps (determines) the vacancy status of each store in real time based on the number of users of each store acquired from each photographing device (step S2).
  • the information processing device refers to the information in the store reservation database provided by, for example, a gourmet site or the like, and confirms whether or not there is a reservation for each store (step S3). Thereby, for example, the information processing device can confirm whether or not the desired number of seats are vacant at the desired usage time for the store determined to have vacant seats based on the number of users of each store. ..
  • the information processing device selects a store that matches the usage conditions input in S1 and confirms that seats for the desired number of users are available at the desired usage time, and the user of the user. Display on a terminal or the like (step S4). After that, for example, the user selects a desired store from the stores displayed in S4, performs reservation processing to the selected store, and then enters the store.
  • the user can obtain information on the store that matches his / her desired usage time, number of users, and preference.
  • a primary party such as a banquet
  • the three photographing devices 10-1 to 10-3 are installed in stores E1 to E3 will be described. Further, in the following, unless otherwise specified, the three stores E1 to E3 are collectively referred to as store E. Similarly, the three imaging devices 10-1 to 10-3 are collectively referred to as an imaging device 10.
  • the photographing device 10 is, for example, a camera installed in the store, a camera held by a store clerk, or the like.
  • the three photographing devices 10 installed in each of the three stores E photograph the situation in each corresponding store E (step S21).
  • the photographing device 10-1 installed in the store E1 photographs the situation in the store E1.
  • the photographing device 10-2 installed in the store E2 photographs the situation in the store E2.
  • the photographing device 10-3 installed in the store E3 photographs the situation in the store E3.
  • each of the photographing devices 10 analyzes the photographed image of the situation in the store E (step S22), and determines the number of users in the store E. Then, the information processing device 100 acquires the number of users of the store E (step S23). Specifically, the information processing device 100 acquires the number of users of each store E corresponding to each of the three stores E1 to E3 by the three photographing devices 10-1 to 10-3. Subsequently, the information processing device 100 determines the vacancy status of each store E based on the acquired number of users of each store E (step S24). For example, in the information processing device 100, based on the acquired number of users of the store E and the number of seats of the store E described in the store database, a person is assigned to a percentage of the seats prepared in the store E. Judge whether you are sitting or not.
  • FIG. 3 is a diagram showing a configuration example of the information processing system S according to the first embodiment.
  • the information processing system S includes a photographing device 10, a user terminal (terminal device) 20, a store reservation server 30, and an information processing device 100.
  • the photographing device 10, the user terminal 20, the store reservation server 30, and the information processing device 100 are connected to each other via a network N so as to be communicable by wire or wirelessly.
  • the photographing device 10 is, for example, a camera installed in the store, a camera held by a store clerk, or the like.
  • the image captured by the photographing device 10 may be a still image or a moving image.
  • the photographing device 10 analyzes an image of the situation in the store and determines the number of users in the store.
  • the user terminal 20 is an information processing device used by a user who browses store information via an application or a web page.
  • the user terminal 20 is, for example, a smartphone, a mobile phone, a tablet terminal, a PDA (Personal Digital Assistant), a desktop PC (Personal Computer), a notebook PC, or the like.
  • the store reservation server 30 has a store reservation database 31.
  • FIG. 4 shows an example of the store reservation database 31 according to the first embodiment.
  • the store reservation database 31 stores the reservation information of each store. As shown in FIG. 4, this reservation information has items such as "store ID”, "reservation ID”, "reservation number of people", and "reservation time”.
  • the number of reservations for the reservation ID "1" of the store ID "E1" is "4 (people)", and the reservation time is "2019/10/8 19: 00-21: 00". Is shown.
  • the information processing device 100 is realized by, for example, a server device or the like.
  • the information processing device 100 selects a store that matches the usage conditions input by the store user based on the number of store users acquired from the photographing device 10 and the store reservation database.
  • FIG. 5A is a diagram showing a configuration example of the photographing apparatus 10 according to the first embodiment.
  • the photographing device 10 includes a communication unit 110, a storage unit 12, and a control unit 13.
  • the communication unit 11 is realized by, for example, a NIC (Network Interface Card) or the like. Then, the communication unit 11 is connected to the network by wire or wirelessly, and transmits / receives information to / from the information processing device 100.
  • NIC Network Interface Card
  • the storage unit 12 is realized by, for example, a semiconductor memory element such as a RAM (Random Access Memory) or a flash memory (Flash Memory), or a storage device such as a hard disk or an optical disk.
  • the storage unit 12 stores information, processing results, and the like that the control unit 13 refers to when performing various processes.
  • the control unit 13 includes an image acquisition unit 14, an image analysis unit 15, and an analysis result transmission unit 16.
  • the image acquisition unit 14 acquires an image. For example, the image acquisition unit 14 acquires an image of the situation inside the store.
  • the image analysis unit 15 analyzes the image acquired by the image acquisition unit 14. For example, the image analysis unit 15 determines the number of users in the store by analyzing an image of the situation in the store. The image analysis unit 15 may identify a person image from an image or a moving image by a known image analysis technique using a person detection technique, and count the number of people based on the number of the identified person images.
  • the analysis result transmission unit 16 transmits the analysis result by the image analysis unit 15 to the information processing device 100.
  • the analysis result transmission unit 16 attaches a store ID and a time stamp (shooting date and time) to the information processing device 100 to the number of users in the store, which is the analysis result by the image analysis unit 15, (of the store). Information about the number of users) is sent.
  • the analysis result transmission unit 16 may use the camera ID, which is the identification information of its own photographing device 10, instead of the store ID described above.
  • the amount of traffic when the photographing device 10 transmits information to the information processing device 100 can be obtained. Can be reduced. Further, since the information transmitted by the photographing device 10 to the information processing device 100 indicates only the number of users and does not include information for identifying an individual such as a person's image, privacy can be maintained.
  • FIG. 5B is a diagram showing a configuration example of the information processing apparatus 100 according to the first embodiment.
  • the information processing device 100 includes a communication unit 110, a storage unit 120, and a control unit 130.
  • the communication unit 110 is realized by, for example, a NIC or the like. Then, the communication unit 110 is connected to the network by wire or wirelessly, and transmits / receives information to / from the photographing device 10, the user terminal 20, and the store reservation server 30.
  • the storage unit 120 is realized by, for example, a semiconductor memory element such as a RAM or a flash memory, or a storage device such as a hard disk or an optical disk.
  • the storage unit 120 has a usage status database 121 and a store database 122.
  • the usage status database 121 stores information regarding the number of users of the store transmitted from the photographing device 10.
  • FIG. 6 is a diagram showing an example of the usage status database 121 according to the first embodiment.
  • the usage status database 121 has items such as "store ID”, "number of users", and "shooting date and time”.
  • FIG. 6 shows that the number of users of "2019/9/17: 00 10:00" in the store E1 identified by the store ID is "12 people”.
  • the store database 122 stores the store information of each store.
  • FIG. 7 shows an example of the store database 122 according to the embodiment. As shown in FIG. 7, the store information has items such as "store ID”, "cooking genre”, “budget”, “atmosphere”, “location”, and "number of seats”.
  • the cooking genre of the store with the store ID "E1" is "Japanese food”
  • the budget is "000 to XXX yen”
  • the atmosphere is “suitable for dates”
  • the location is " It is "Shimbashi ⁇ - ⁇ - ⁇ ”
  • the number of seats is " ⁇ ".
  • the control unit 130 is a controller, and for example, various programs (information processing programs) stored in a storage device inside the information processing device 100 by a CPU (Central Processing Unit), an MPU (Micro Processing Unit), or the like. (Corresponding to one example) is realized by executing RAM as a work area. Further, the control unit 130 is a controller, and is realized by, for example, an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array).
  • ASIC Application Specific Integrated Circuit
  • FPGA Field Programmable Gate Array
  • the control unit 130 includes a usage condition acquisition unit 131, an analysis result acquisition unit 132, a reservation information acquisition unit 133, a selection unit 134, a provision unit 135, and a reservation processing unit 136.
  • the usage condition acquisition unit 131 acquires the usage conditions of the store from the user terminal 20.
  • the usage conditions of this store include, for example, information such as the usage date and time (usage time), location, cooking genre, number of users, budget, atmosphere, etc. of the store desired to be used.
  • the analysis result acquisition unit 132 acquires the analysis result of the image in the store E from the photographing device 10. Specifically, the analysis result acquisition unit 132 acquires information on the number of users of each store E transmitted from the photographing device 10 in each store E for each of the plurality of stores E. Then, the analysis result acquisition unit 132 stores the acquired information in the usage status database 121.
  • the reservation information acquisition unit 133 acquires store reservation information from the store reservation database 31 of the store reservation server 30.
  • the selection unit 134 can use the seats for the number of users indicated in the usage conditions at the usage date and time indicated in the usage conditions acquired from the user terminal 20. Select a store (candidate store).
  • the selection unit 134 determines the vacancy status in the store based on the number of users of the store (recent number of users) stored in the usage status database 121 and the number of seats in the store shown in the store database 122. To do. Then, the selection unit 134 determines the usage date and time (for example, 10 minutes later) indicated in the above usage conditions based on the determined vacancy status in the store and the reservation information of the store acquired by the reservation information acquisition unit 133. ), Select a store where it is estimated that seats for the number of users indicated in the terms of use can be used.
  • the selection unit 134 has a usage date and time indicated in the usage conditions 10 minutes later and the number of users is four.
  • the selection unit 134 has four seats in the store based on the number of users (recent number of users) of the store stored in the usage status database 121 and the number of seats in the store shown in the store database 122. If it is determined that there are vacant seats, it is confirmed whether or not seats for four people are vacant in the store even after 10 minutes by referring to the reservation information of the store acquired by the reservation information acquisition unit 133. Then, the selection unit 134 estimates that the store can be used if it can be confirmed that the store has seats for four people even after 10 minutes.
  • the selection unit 134 may select, for example, in consideration of other conditions included in the usage conditions (for example, store location, cooking genre, budget, atmosphere, etc.).
  • the selection unit 134 refers to the store information in the store database 122 and selects a store that satisfies these conditions. To do. As a result, the selection unit 134 can select a store in consideration of conditions such as the location of the store, the cooking genre, the budget, and the atmosphere shown in the usage conditions.
  • the providing unit 135 provides the information of the store selected by the selection unit 134 to the user terminal 20.
  • the providing unit 135 transmits the information of the store selected by the selecting unit 134 to the user terminal 20 of the transmission source of the usage conditions.
  • the reservation processing unit 136 processes the reservation of the store. For example, when the providing unit 135 receives the reservation information of the store from the user terminal 20 after transmitting the store information to the user terminal 20, the reservation processing unit 136 sends the store reservation server 30 based on the reservation information. Perform store reservation processing.
  • FIG. 8 is a diagram showing a configuration example of the user terminal 20 according to the first embodiment.
  • the user terminal 20 includes a communication unit 21, a storage unit 22, an input unit 23, an output unit 24, and a control unit 25.
  • the communication unit 21 is an interface such as a NIC that communicates with the information processing device 100 that is communicably connected to the network N.
  • the storage unit 22 is realized by, for example, a semiconductor memory element such as a RAM or a flash memory, or a storage device such as a hard disk or an optical disk.
  • the input unit 23 is an input device that receives various operations from the user.
  • the input unit 23 is realized by a keyboard, a mouse, operation keys, or the like.
  • the output unit 24 is a display device for displaying various information.
  • the output unit 24 is realized by a liquid crystal display or the like.
  • the control unit 25 is a controller, and for example, various programs (corresponding to an example of a terminal device control program) stored in a storage device inside the user terminal 20 are executed by a CPU, MPU, or the like using the RAM as a work area. It is realized by. Further, the control unit 25 is a controller, and is realized by, for example, an integrated circuit such as an ASIC or FPGA.
  • the control unit 25 includes a reception unit 251, a transmission unit 252, a reception unit 253, and a display unit 254.
  • Reception unit 251 accepts input of usage conditions of store E.
  • the reception unit 251 accepts the input of the usage conditions from the usage condition reception screen shown below, for example.
  • FIG. 9 is a diagram showing an example of a usage condition reception screen on the user terminal 20 according to the first embodiment.
  • the reception unit 251 displays information such as "Please enter the terms of use", a pull-down display of "location”, and a pull-down display of "time”, for example, as shown in FIG. ,
  • the pull-down display of "cooking genre”, the pull-down display of "number of people”, the pull-down display of "budget”, and the confirmation button are displayed on the output unit 24.
  • the reception unit 251 accepts the input of the usage conditions from the above-mentioned usage condition reception screen, and when the input of the confirmation button is received, outputs the input usage conditions to the transmission unit 252.
  • the transmission unit 252 transmits the usage conditions received by the reception unit 251 to the information processing device 100.
  • the receiving unit 253 receives the store information (store information that matches the usage conditions) selected by the information processing device 100.
  • the display unit 254 displays the store information received by the reception unit 253 on the output unit 24.
  • FIG. 10 is a diagram showing an example of a store information display screen on the user terminal 20 according to the embodiment.
  • the display unit 254 displays a list of stores selected by the information processing device 100 as "recommended stores" on the output unit 24 as shown in FIG.
  • the reservation information transmission unit 255 transmits the reservation information of the store to the information processing device 100. For example, when the display unit 254 displays the information of the store selected by the information processing device 100 on the output unit 24 and then receives the selection input of the store to be reserved from the user via the input unit 23, the reservation information transmission unit 255 Sends the reservation information of the store to the information processing device 100.
  • the photographing device 10 has decided to transmit information regarding the number of users of the store to the information processing device 100 as a result of image analysis of the store, but the present invention is not limited to this.
  • the image analysis unit 15 of the photographing device 10 analyzes the image of the store and determines the vacancy status of the store (for example, how many users are using the number of seats in the store). Then, the analysis result transmission unit 16 may transmit the vacancy status of the store to the information processing device 100 as a result of image analysis of the store. In this case, it is not necessary for the information processing device 100 to determine the vacancy status of the store.
  • FIG. 11 is a flowchart showing an example of the information processing procedure of the information processing apparatus 100 according to the first embodiment.
  • the usage condition acquisition unit 131 of the information processing device 100 acquires the usage conditions of the store from the user terminal 20 (step S11).
  • the analysis result acquisition unit 132 acquires information on the number of users of each store from each of the photographing devices 10 (step S12). Then, the analysis result acquisition unit 132 stores the acquired information on the number of users of each store in the usage status database 121.
  • the selection unit 134 determines the vacancy status in each store based on the latest number of users of each store stored in the usage status database 121 and the number of seats in each store shown in the store database 122. (Step S13).
  • the reservation information acquisition unit 133 acquires the reservation information of the store from the store reservation database 31 (step S14).
  • the selection unit 134 selects a store that satisfies the usage condition acquired in S11 based on the vacancy status in the store determined in S13, the reservation information of the store acquired in S14, and the store information of the store database 122. Select (step S15). After that, the providing unit 135 provides the information of the store selected in S15 to the user terminal 20 (step S16).
  • the reservation processing unit 136 receives the store reservation information from the user terminal 20 after S16, the store reservation process is performed based on the reservation information.
  • FIG. 12 is a flowchart showing an example of the information processing procedure of the user terminal 20 according to the first embodiment.
  • the reception unit 251 accepts the usage conditions of the store E (step S31).
  • the transmission unit 252 transmits the usage conditions to the information processing device 100 (step S32).
  • the information processing device 100 receives the usage conditions from the user terminal 20, the information processing device 100 selects a store based on the usage conditions, the image of each store, and the reservation information of each store. Then, the information processing device 100 transmits the information of the selected store to the user terminal 20.
  • the receiving unit 253 receives the information of the store selected by the information processing device 100 (step S33).
  • the display unit 254 displays the store information received by the reception unit 253 on the output unit 24 (step S34).
  • the reservation information transmission unit 255 receives the selection input of the store information to be reserved from the store information displayed on the output unit 24 after S34, the store is concerned.
  • the reservation information of is transmitted to the information processing apparatus 100.
  • the information processing system S may use a photographing device that does not have an image analysis function.
  • the image analysis of each store is performed on the information processing device side.
  • the photographing device photographs the situation in the store, it transmits information to the information processing apparatus by adding the store ID (or the camera ID of its own photographing device) and the time stamp (shooting date and time) to the image. ..
  • the information processing device analyzes the image of the store transmitted from each of the photographing devices, and determines the vacancy status of each store based on the analysis result.
  • the information processing system S in this case will be described as the second embodiment.
  • the same configurations as those of the first embodiment are designated by the same reference numerals, and the description thereof will be omitted.
  • the information processing device 100a includes an image acquisition unit 132a in place of the analysis result acquisition unit 132 (see FIG. 5B), and an image database 121a in place of the usage status database 121 (see FIG. 5B). Further, the information processing apparatus 100a includes a selection unit 134a instead of the selection unit 134 (see FIG. 5B).
  • the image acquisition unit 132a acquires an image of the situation inside the store from the photographing device. Specifically, the image acquisition unit 132a acquires an image of the situation of the store from the photographing device in each store for each of the plurality of stores. Then, the image acquisition unit 132a stores the acquired image in the image database 121a. For example, the image acquisition unit 132a acquires an image of each store in real time from each photographing device and stores it in the image database 121a.
  • the image database 121a stores the image of the store transmitted from the photographing device.
  • FIG. 14 is a diagram showing an example of the image database 121a according to the second embodiment.
  • the image database 121a has items such as "store ID”, "image”, and "shooting date and time”.
  • FIG. 14 shows that the shooting date and time of the image “image # 3” of the store ID “store E1” is “2019/9/17: 00 10:00”.
  • the selection unit 134a is presumed to be able to use the seats for the number of users indicated in the usage conditions at the usage date and time indicated in the usage conditions acquired from the user terminal 20. Select (Store Candidate).
  • the selection unit 134a analyzes the real-time store image acquired by the image acquisition unit 132a and determines the vacancy status in the store. Then, the selection unit 134a is based on the determined vacancy status in the store and the reservation information of the store acquired by the reservation information acquisition unit 133, and the usage date and time indicated in the above usage conditions (for example, 10 minutes later). ), Select a store where it is estimated that seats for the number of users indicated in the terms of use can be used.
  • the selection unit 134a has a usage date and time indicated in the usage conditions 10 minutes later and the number of users is four.
  • the selection unit 134a determines that the store has vacant seats for four people from the analysis result of the image of the store in real time
  • the reservation information of the store acquired by the reservation information acquisition unit 133 is referred to.
  • the selection unit 134a presumes that the store can be used if it can be confirmed that the store has seats for four people even after 10 minutes.
  • FIG. 15 is a flowchart showing an example of the information processing procedure of the information processing apparatus 100a according to the second embodiment.
  • the image acquisition unit 132a of the information processing device 100a acquires an image of each store from each of the photographing devices (step S42 in FIG. 15). Then, the image acquisition unit 132a stores the acquired image of each store in the image database 121a. After that, the selection unit 134a analyzes the image acquired in S42 and determines the vacancy status in each store (step S43). Since the processing of S44 to S46 is the same as that of S14 to S16 of FIG. 11, the description thereof will be omitted.
  • the information processing system S selects a store that matches the usage conditions input by the store user based on the image of each store taken by the photographing device and the store reservation database 31. be able to.
  • the store may be selected so that the distance from the user terminal 20 that sends the usage conditions is within a predetermined value.
  • the user terminal 20 when the user terminal 20 transmits the usage conditions to the information processing devices 100 and 100a, the user terminal 20 also transmits the position information (for example, GPS (Global Positioning System) information) of the user terminal 20.
  • the position information for example, GPS (Global Positioning System) information
  • the selection unit 134 of the information processing device 100 selects a store, the location information of the user terminal 20 is used, the above usage conditions are satisfied, and the distance from the user terminal 20 is within a predetermined value. Select a store. Then, the providing unit 135 transmits the information of the selected store to the user terminal 20.
  • the user can obtain information on the store that satisfies the above usage conditions and is relatively close to the place where he / she is.
  • the user terminal 20 may display a screen in which the location of the store transmitted from the information processing device 100 is mapped on the map.
  • the display unit 254 of the user terminal 20 displays a screen on a map in which the current location of the user terminal 20 and the location of the store transmitted from the information processing device 100 are mapped.
  • the user can confirm the location of the store that satisfies the above-mentioned usage conditions and is relatively close to the location of the user on the map.
  • the user terminal 20 may display the information of the store, perform the reservation processing of the store, or the like.
  • the information processing apparatus 100 selects a store, it may be selected without using the above usage conditions.
  • the information processing device 100 can be used from stores whose distance from the user terminal 20 is within a predetermined value based on the position information of the user terminal 20, the real-time image of the store, and the reservation information of the store. Select a store that is presumed to be. Then, the information processing device 100 transmits the information of the selected store to the user terminal 20. After that, for example, the user terminal 20 displays the store information received from the information processing device 100 on the screen (for example, on the map described above). Further, when the usage conditions are received from the user terminal 20 after transmitting the store information selected by the information processing device 100 to the user terminal 20, a store satisfying the above usage conditions is selected from the selected stores. It may be transmitted to the user terminal 20.
  • the user can select a store after confirming the stores that can be used relatively close to the place where he / she is.
  • the store may be selected using the location information designated by the user terminal 20.
  • This location information may be included in the usage conditions when the user terminal 20 transmits the usage conditions to the information processing device 100, or may be transmitted separately from the usage conditions. Further, the location information may be specified by the name of the place (for example, Shinjuku, Shimbashi, etc.) or may be specified from the map.
  • the selection units 134 and 134a select stores, the stores are ranked according to the degree of matching with the usage conditions, and the store information including the ranking is output to the providing unit 135. You may.
  • the selection units 134 and 134a may, for example, rank higher in the order of a predetermined store designated from a gourmet site or the like.
  • the store reservation processing is performed by the information processing devices 100 and 100a, but the present invention is not limited to this.
  • the user terminal 20 may make a reservation by making a phone call to the store or accessing the store reservation server 30.
  • the reservation processing unit 136 in the information processing devices 100 and 100a is unnecessary, and the reservation information transmission unit 255 in the user terminal 20 is also unnecessary.
  • the information processing apparatus 100 includes a usage condition acquisition unit 131, an analysis result acquisition unit 132, a reservation information acquisition unit 133, and a selection unit 134.
  • the usage condition acquisition unit 131 acquires the usage conditions of the store including the usage date and time of the store and the number of users.
  • the analysis result acquisition unit 132 acquires an image obtained by photographing the situation in the store.
  • the reservation information acquisition unit 133 acquires the reservation information of the store including the reservation date and time of the store and the number of reserved people.
  • the selection unit 134 selects a store where it is estimated that seats for the number of users can be used at the usage date and time indicated in the usage conditions, based on the acquired image of the store and the reservation information of the store.
  • the selection unit 134 analyzes the image of the store in real time to determine the vacancy status in the store, and is shown in the usage conditions based on the determined vacancy status in the store and the reservation information of the store. Select a store where it is estimated that seats for the number of users can be used at the date and time of use.
  • the information processing device 100 can select a store where it is estimated that seats for the number of users can be used at the usage date and time indicated in the usage conditions. As a result, it is possible to reduce the time and effort for the user to search for a store.
  • the store usage conditions further include at least one of the store location, genre, and budget at the time of use.
  • the selection unit 134 estimates that seats for the number of users can be used at the date and time of use indicated in the terms of use, and at least one of the location, genre, and budget at the time of use indicated in the terms of use. Select a store that meets the conditions of.
  • the information processing device 100 can select a store in consideration of the location, genre, budget at the time of use, etc. of the store desired by the user. As a result, the information processing device 100 can select a store that suits the user's taste.
  • the information processing device 100 further includes a providing unit 135 that provides information on the store selected by the selection unit 134.
  • the information processing device 100 can provide the information of the selected store.
  • the user terminal 20 includes a reception unit 251, a transmission unit 252, a reception unit 253, and a display unit 254.
  • the reception unit 251 accepts input of store usage conditions including the store usage date and time and the number of users.
  • the transmission unit 252 selects a store where it is estimated that seats for the number of users can be used at the date and time of use indicated in the usage conditions, based on the image obtained by photographing the situation in the store and the reservation information of the store.
  • the store usage conditions are transmitted to the processing device.
  • the receiving unit 253 receives the information of the store selected by the information processing device 100.
  • the display unit 254 displays the received store information.
  • the user terminal 20 can display the information of the store selected by the information processing device 100.
  • the user terminal 20 further includes a reservation information transmission unit 255 for transmitting reservation information for a store selected from the displayed store information.
  • the user terminal 20 can reserve the store selected by the information processing device 100.
  • FIG. 13 is a hardware configuration diagram showing an example of a computer that realizes the functions of the information processing device 100.
  • the computer 1000 has a CPU 1100, a RAM 1200, a ROM 1300, an HDD 1400, a communication interface (I / F) 1500, an input / output interface (I / F) 1600, and a media interface (I / F) 1700.
  • the CPU 1100 operates based on the program stored in the ROM 1300 or the HDD 1400, and controls each part.
  • the ROM 1300 stores a boot program executed by the CPU 1100 when the computer 1000 is started, a program depending on the hardware of the computer 1000, and the like.
  • the HDD 1400 stores a program executed by the CPU 1100, data used by such a program, and the like.
  • the communication interface 1500 receives data from another device via a predetermined communication network and sends it to the CPU 1100, and transmits the data generated by the CPU 1100 to the other device via the predetermined communication network.
  • the CPU 1100 controls an output device such as a display or a printer and an input device such as a keyboard or a mouse via the input / output interface 1600.
  • the CPU 1100 acquires data from the input device via the input / output interface 1600. Further, the CPU 1100 outputs the generated data to the output device via the input / output interface 1600.
  • the media interface 1700 reads the program or data stored in the recording medium 1800 and provides the program or data to the CPU 1100 via the RAM 1200.
  • the CPU 1100 loads the program from the recording medium 1800 onto the RAM 1200 via the media interface 1700, and executes the loaded program.
  • the recording medium 1800 is, for example, an optical recording medium such as a DVD (Digital Versatile Disc) or PD (Phase change rewritable Disk), a magneto-optical recording medium such as an MO (Magneto-Optical disk), a tape medium, a magnetic recording medium, or a semiconductor memory. And so on.
  • the CPU 1100 of the computer 1000 realizes the function of the control unit 130 by executing the program loaded on the RAM 1200.
  • the CPU 1100 of the computer 1000 reads and executes these programs from the recording medium 1800, but as another example, these programs may be acquired from another device via a predetermined communication network.
  • each component of each device shown in the figure is a functional concept, and does not necessarily have to be physically configured as shown in the figure. That is, the specific form of distribution / integration of each device is not limited to the one shown in the figure, and all or part of the device is functionally or physically distributed / physically in arbitrary units according to various loads and usage conditions. Can be integrated and configured.
  • section, module, unit can be read as “means” or “circuit”.
  • acquisition unit can be read as an acquisition means or an acquisition circuit.
  • a store that is presumed to be available is selected based on an image of the situation inside the store taken by the photographing device and the reservation information of the store, and the information of the selected store is given to the user.
  • the customer attraction service such as providing.
  • information processing that realizes a cycle of continuing to visit the store using the customer attraction service is further enhanced. May be combined.
  • the third embodiment below the information processing will be described.
  • the information processing system aims to realize a customer attraction service capable of effectively attracting customers to creating customers.
  • An example of information processing according to the third embodiment will be described with reference to FIGS. 19 to 21.
  • FIG. 22 is a diagram showing a configuration example of the information processing system S1 according to the third embodiment.
  • the information processing system S1 according to the third embodiment includes a terminal device T10, an external device 60, an information processing device 100-1, and a payment device 200-1.
  • the terminal device T10, the external device 60, the information processing device 100-1, the payment device 200-1, and the network N1 are connected so as to be able to communicate by wire or wirelessly.
  • the terminal device T10 is an information processing terminal used by the user.
  • the terminal device T10 is, for example, a smartphone, a tablet terminal, a notebook PC (Personal Computer), a desktop PC, a mobile phone, a PDA (Personal Digital Assistant), or the like.
  • the terminal device T10 transmits the store visit information indicating that the user has visited the store presented by the predetermined customer attraction service to the information processing device 100-1 in response to the user's operation.
  • the external device 60 is a server device that charges a fee to the store that is the target of billing according to the billing process performed with the information processing device 100-1 according to the embodiment. The fee will be described later.
  • the payment device 200-1 is a server device corresponding to a predetermined payment service (hereinafter, may be referred to as "payment service KSV"). The processing performed between the information processing device 100-1 and the payment device 200-1 will be described later with reference to FIG.
  • the information processing device 100-1 is a server device that performs information processing according to the third embodiment as described above. Specifically, when the information processing device 100-1 receives the store visit information transmitted by the terminal device T10, the information processing device 100-1 calculates the number of customers of the store corresponding to the store visit information based on the store visit information, and the calculated number of visitors. The fee according to the above is calculated as the fee charged to this store. In addition, the information processing device 100-1 grants this user a privilege due to the transmission of store visit information by the user. Further, the information processing device 100-1 determines whether or not the user has visited the store based on the usage status of the user for the predetermined customer attraction service, and transmits the determination result to the terminal device T10. A predetermined control process is performed on T10.
  • the customer attraction service GSV is illustrated as an example of the predetermined customer attraction service.
  • the customer attraction service GSV is a customer attraction service according to the third embodiment
  • the information processing device 100-1 is a server device corresponding to the customer attraction service GSV.
  • the server device corresponding to the customer attraction service GSV is a server device other than the information processing device 100-1, and the information processing device 100-1 may cooperate with this server device.
  • the former example shall be adopted in this embodiment.
  • the business owner who manages and operates the customer attraction service and the business owner who operates and manages the information processing device 100-1 may be the same or different.
  • the terminal device T10 operates according to the control of the terminal program according to the embodiment. Then, the terminal program according to the embodiment is an application corresponding to the customer attraction service GSV (hereinafter, may be referred to as "application AP"). Therefore, it is assumed that the application AP is pre-installed in the terminal device T10. Further, as a result, the terminal device T10 executes the information processing according to the following embodiment under the control of the application AP.
  • application AP an application corresponding to the customer attraction service GSV
  • the terminal device T10 transmits the store visit information indicating that the user of the own device has visited the store presented by the customer attraction service GSV to the information processing device 100-1 in response to the operation of the user. ..
  • the terminal device T10 when it is determined that a user who has performed a store search using the customer attraction service GSV has visited one of the stores presented as the search result, the user visits this store.
  • the store visit information indicating that the service has been performed is transmitted to the information processing device 100-1.
  • the terminal device T10 indicates that a user who has made a store reservation using the customer attraction service GSV has visited the reserved store when it is determined that the user has visited the store. Information is transmitted to the information processing device 100-1.
  • the terminal device T10 means that the user has visited this store.
  • the store visit information indicating the above is transmitted to the information processing device 100-1.
  • the information processing device 100-1 determines whether or not the user has visited the store targeted by the customer attraction service GSV based on the usage status of the user for the customer attraction service GSV. For example, the information processing device 100-1 determines whether or not the manifestation of intention (check-in) indicating that the customer has visited the target store in the customer attraction service GSV is performed using the customer attraction service GSV, and the intention is determined. When it is determined that the display has been performed, it is determined that the store record user has visited the store. As an example, in the information processing device 100-1, the user visits this store at this store based on the location information of the store targeted by the customer attraction service GSV and the location information of the user. Judge whether or not the manifestation of intention indicating is performed. The information processing device 100-1 responds to the terminal device T10 with the determination result by performing such a store visit determination process.
  • the terminal device T10 controls the terminal device T10 so that the user can transmit the store visit information.
  • the terminal device T10 controls the store visit information so that it can be read from the code information installed in the store according to the control of the application AP.
  • the terminal device T10 turns on the camera function CM corresponding to the application AP according to the control of the application AP, so that the user can capture the code information by using the camera function.
  • the terminal device T10 dynamically controls the mutual communication with a predetermined sensor (for example, a beacon) installed in the store according to the control of the application AP, so that the store visit information is dynamically irrespective of the user's operation. May be sent.
  • a predetermined sensor for example, a beacon
  • the terminal device T10 performs mutual communication with a predetermined sensor by turning on the short-range wireless communication function NFC according to the control of the application AP. Then, the terminal device T10 transmits the store visit information acquired by mutual communication to the information processing device 100-1.
  • FIG. 18 is a diagram showing an example of the customer attraction service GSV according to the third embodiment.
  • the customer attraction service GSV is a service that supports the search for a store, and provides the user with store information indicating a store according to the user's information (for example, the user's location information or the search condition entered by the user) as a search result.
  • the information processing device 100-1 performs a store search based on the user's information (for example, the user's location information and the search conditions input by the user), and searches for the store information indicating the searched store as a search result. Is displayed on the user's terminal device T10.
  • a store that is a member of the customer attraction service GSV is provided with a photographing device (for example, a camera) that photographs the inside of the store. Then, the camera captures the inside of the store in real time, and transmits the captured images obtained by the photographing to the information processing device 100-1 one by one.
  • the information processing device 100-1 searches for a store located around the user's current position, and for each searched store, the information processing device 100-1 is said to be based on a photographed image sent from the photographing device of the store. Calculate the degree of congestion in the store. Then, the information processing device 100-1 displays the map information around the user in a form in which an index mark indicating the congestion status of each searched store is superimposed.
  • the information processing device 100-1 is a position on the map information around the user, and is a position corresponding to the location of the searched store, depending on the degree of congestion. Display a color-coded index mark.
  • the customer attraction service GSV is a service that supports the store search by presenting the congestion status of each store.
  • the customer attraction service GSV is not limited to such a service, and provides, for example, store information indicating a store that matches the search conditions (“store for the second party”, etc.) regarding the intended use. It may be a thing.
  • the information processing apparatus 100-1 estimates information about the usage of the store based on the photographed image of the store for each store. In such a state, when the information processing apparatus 100-1 receives a search condition related to the usage purpose from the user, the information processing apparatus 100-1 presents store information indicating a store whose usage usage is estimated to meet the accepted search condition.
  • the information processing device 100-1 is used at the usage date and time indicated in the usage conditions based on the photographed image of the store and the reservation information among the stores whose usage is estimated to meet the search conditions.
  • a store that is presumed to be possible may be selected, and the store information of the selected store may be provided to the user.
  • the customer attraction service GSV may also use a reservation service that accepts reservations from the presented stores to any store.
  • the information processing device 100-1 according to the third embodiment provides a service to the user by performing information processing corresponding to the customer attraction service GSV. May be performed by a server device other than the information processing device 100-1.
  • the customer attraction service GSV is a service that supports the search for a store by presenting the congestion status of each store
  • this example will be described in more detail with reference to FIG. ..
  • user U1-1 is given as an example of the user.
  • the user U1-1 transmits a search condition (for example, "current position") to the information processing device 100-1 corresponding to the customer attraction service GSV via the application AP. Further, as a result, on the display screen D of the terminal device T10 of the user U1-1, the map information MP1 around the current position of the user U1-1 is displayed for each store existing around the current position of the user U1-1. The map information MP1 on which the index mark indicating the congestion status is superimposed and displayed is displayed. In other words, on the display screen D of the terminal device T10, index marks indicating the congestion status of each store are listed as store information of each store.
  • a search condition for example, "current position”
  • the user U1-1 can search for a store he / she wants to visit, for example, based on the sense of distance from his / her current position and the congestion situation. For example, it is assumed that the user U1-1 selects the index mark AISH1 corresponding to the store SH1 because it is close and vacant. In such a case, the information processing apparatus 100-1 presents the detailed screen C1 showing the detailed information of the store SH1 to the user U1-1 in response to the selection of the index mark AISH1 corresponding to the store SH1.
  • the user U1-1 actually visits the store SH1 because the interest in the store SH1 is increased by looking at the detail screen C1.
  • the customer attraction service GSV it is necessary to use the customer attraction service GSV to indicate the intention of visiting the store SH1.
  • the user U1-1 wants to receive the privilege of visiting the store SH1 from the information processing device 100-1
  • the user U1-1 needs to check in to the store SH1 by using the customer attraction service GSV. More specifically, the user U1-1 needs to use the customer attraction service GSV to transmit check-in information indicating that the user has checked in to the store SH1 to the information processing device 100-1.
  • the user U1-1 transitions to the detail screen C1 by selecting the index mark AISH1 from the map information MP1, presses the check-in button BT displayed in the detail screen C1, and presses the check-in button BT displayed in the detail screen C1.
  • the check-in information By transmitting the check-in information to 1, it is possible to virtually check-in to the store SH1.
  • FIG. 18 it is assumed that the user U1-1 has checked in to the store SH1 by pressing the check-in button BT.
  • the information processing device 100-1 Upon receiving the check-in information, the information processing device 100-1 performs a store visit determination process for determining whether or not the user U1-1 has visited the store SH1. Specifically, the information processing device 100-1 determines whether or not the check-in button BT is pressed while the user U1-1 is visiting the store SH1. Then, the information processing device 100-1 responds to the terminal device T10 of the user U1-1 with the determination result of the store visit determination process.
  • the terminal device T10 can transmit the store visit information by using the user U1-1. Control so that it can be transmitted.
  • the terminal device T10 controls the store visit information so that it can be read from the code information installed in the store SH1 according to the control of the application AP.
  • the terminal device T10 turns on the camera function CM corresponding to the application AP according to the control of the application AP, so that the user U1-1 can capture the code information using the camera function CM.
  • the terminal device T10 dynamically controls mutual communication with a predetermined sensor (for example, a beacon) installed in the store SH1 according to the control of the application AP, regardless of the operation of the user U1-1. You may send the store visit information to. For example, the terminal device T10 performs mutual communication with a predetermined sensor by turning on the short-range wireless communication function NFC according to the control of the application AP. Then, the terminal device T10 transmits the store visit information acquired by mutual communication to the information processing device 100-1.
  • a predetermined sensor for example, a beacon
  • FIG. 19 is a diagram showing an example of information processing according to the third embodiment.
  • the information processing according to the third embodiment is performed by the information processing system S1 (from FIG. 22) including the terminal device T10 and the information processing device 100-1.
  • the example of FIG. 18 is appropriately adopted.
  • the user U1-1 uses the customer attraction service GSV (application AP) to search the information processing device 100-1 with a search condition (for example, the current location).
  • GSV customer attraction service
  • the store you want to use is searched for with the index mark indicating the congestion status displayed in a list as store information (* 1).
  • the user U1-1 wants to use the store SH1 by a search operation (for example, selecting an index mark at a position of concern and checking the detailed screens of various stores), and goes to the store SH1. (* 2).
  • the user U1-1 accesses the detail screen C1 again and presses the check-in button BT when he / she visits the store SH1 in order to receive the privilege from the information processing device 100-1 (* 3). ). That is, it is assumed that the user U1-1 indicates the intention to visit the information processing device 100-1 by pressing the check-in button BT to transmit the check-in information to the information processing device 100-1. ..
  • the user U1-1 may press the check-in button BT with the number of visitors entered in the number of people input field AR included in the detail screen C1. For example, if a group including user U1-1 (for example, 5 or more people) visits the store, they can receive benefits according to the number of visitors, but for this reason, each person belonging to the group checks in. It is troublesome to have to image the code information. In order to avoid such a situation, in the information processing device 100-1, when a group visits the store, only one of them (for example, user U1-1) declares the number of visitors and checks in, and the information is input. It is a mechanism that is considered to have been checked in for the number of people. In the example of FIG.
  • the user U1-1 inputs the check-in information to the information processing device 100-1 by pressing the check-in button BT while inputting "1" in the number input field AR. It is assumed that the intention to visit the store is displayed to the information processing device 100-1 by transmitting the information.
  • the terminal device T10 detects that the check-in button BT is pressed by the user U1-1, for example, the store ID "SH1" that identifies the store SH1 and the user that identifies the user U1
  • the ID "U1-1” is transmitted to the information processing device 100-1 (step S1901). It is assumed that the user ID transmitted here is, so to speak, a user ID dedicated to the customer attraction service GSV, which is issued by the customer attraction service GSV.
  • the information processing device 100-1 executes a store visit determination process for determining whether or not the user U1-1 has visited the store SH1 (step S1903). For example, the information processing device 100-1 determines whether or not the user U1-1 has visited the store SH1 based on the usage status of the user U1-1 for the customer attraction service GSV. As a simple example, whether or not the information processing device 100-1 can detect the manifestation of intention that the user U1-1 has visited the store SH1 by receiving the check-in information corresponding to the user U1. , It may be determined whether or not the user U1-1 has visited the store SH1. For example, when the information processing device 100-1 receives the check-in information corresponding to the user U1-1 and can detect the manifestation of intention indicating that the user U1-1 has visited the store SH1, the user. It is determined that U1-1 has visited the store SH1.
  • the information processing device 100-1 may also use the position information of the user U1-1 in order to improve the accuracy of the store visit determination process. For example, the information processing device 100-1 visits the store SH1 while the user U1-1 is visiting the store SH1 by matching the location information of the store SH1 with the location information of the user U1-1. By determining whether or not the intention indicating the above is displayed, it is determined whether or not the user U1 has visited the store SH1. For example, when the location information of the store SH1 and the location information of the user U1-1 match, the information processing device 100-1 visits the store SH1 with the user U1-1 visiting the store SH1. It is determined that the intention to indicate that the store has been visited has been made. That is, the information processing device 100-1 determines that the user U1-1 has visited the store SH1. Further, in order to perform such a store visit determination process, the terminal device T10 may transmit check-in information including GPS-derived position information in step S11, for example.
  • the store visit determination process is performed by the information processing device 100-1, but may be performed by the terminal device T10.
  • the terminal device T10 detects that the check-in button BT included in the detail screen C1 is pressed, it may determine that the user U1-1 has visited the store SH1. Further, when the terminal device T10 detects that the check-in button BT included in the detail screen C1 is pressed, the terminal device T10 matches the location information of the store SH1 with the location information of the user U1-1 to allow the user. It may be determined whether or not U1-1 has visited the store SH1.
  • the information processing device 100-1 responds to the terminal device T10 with the determination result in the store visit determination process (step S1904). Then, the terminal device T10 receives the determination result (step S1905), and controls the own device so that it can transmit the store visit information indicating that the user U1-1 has visited the store SH1 according to the determination result (step S1905). Step S1906).
  • the information processing device 100-1 determines that the user U1-1 has visited the store SH1.
  • the transmission control unit T15d (FIG. 23) realized by deploying the application AP in the terminal device T10 indicates that the user U1-1 has visited the store SH1 using the terminal device T10.
  • the information is controlled so that it can be transmitted to the information processing device 100-1.
  • the transmission control unit T15d turns on the camera function CM corresponding to the application AP so that the user U1-1 can use the camera function CM to capture the code information installed in the store SH1. ..
  • the transmission control unit T15d automatically launches the camera function CM corresponding to the application AP so that the user U1-1 can capture the code information.
  • the code information referred to here may be a QR code (registered trademark) or a barcode.
  • the code information is a QR code.
  • this QR code installed in the store SH1 is referred to as the QR code QR1.
  • the QR code QR1 is code information (dedicated to the customer attraction service GSV) corresponding to the customer attraction service GSV.
  • the user U1-1 uses the camera function CM to image the QR code QR1.
  • the terminal device T10 detects the QR code QR1, it reads the store visit information from the QR code Q1 (step S1907).
  • the store visit information includes the store ID "SH1" that identifies the store SH1. Therefore, the terminal device T10 informs the store visit information including the store ID "SH1" that identifies the store SH1, the user ID "U1-1” that identifies the user U1-1 in the customer attraction service GSV, and the number of visitors "1". It is transmitted to the processing device 100 (step S18).
  • the second transmission unit 15e (FIG.
  • the transmission control unit T15d dynamically controls mutual communication with a predetermined sensor (for example, a beacon) installed in the store SH1 regardless of the operation of the user U1-1. You may control so that the store visit information is transmitted to.
  • the transmission control unit T15d realizes mutual communication with a predetermined sensor by turning on the short-range wireless communication function NFC.
  • the second transmission unit T15e acquires store visit information by mutual communication, for example, and transmits the acquired store visit information to the information processing device 100-1.
  • the terminal device T10 of each user automatically transmits the store visit information, so that the number of visitors cannot be entered on, for example, a detail screen. It is preferable to keep it.
  • the store information storage unit 123-1 adds the number of visitors this time to the "number of visitors" corresponding to the store SH1 (store ID "SH1"). (Step S1910).
  • the information processing device 100-1 performs a privilege control process for controlling the privilege given to the user U1-1 (step S1911). Specifically, since the information processing device 100-1 is to transmit the store visit information in response to the operation of the user U1-1, the privilege control process for controlling the privilege given to the user U1 as this privilege is performed. Do.
  • the privilege control process is performed by, for example, the privilege control unit 136-1 (FIG. 24).
  • the information processing device 100-1 performs a privilege control process for determining what kind of privilege is to be given to the user U1-1. For example, the information processing device 100-1 determines the privilege according to the number of visitors. Assuming that the privilege is a coupon, the information processing device 100-1 determines a coupon having a higher discount rate as a coupon to be granted as the number of visitors increases. Further, assuming that the privilege is a point, the information processing apparatus 100-1 determines that the larger the number of visitors, the higher the point with respect to the reference point as the point to be granted. In the example of FIG. 19, the information processing device 100-1 determines the above-mentioned privilege based on the number of visitors "1" included in the store visit information. Further, the information processing device 100-1 may determine a privilege that can be used only in the store SH1 as a privilege to be granted.
  • the information processing device 100-1 grants the privilege determined in the privilege control process to the user U1-1 (step S1912). Specifically, the information processing device 100-1 transmits the privilege determined by the privilege control process to the terminal device T10 of the user U1-1. For example, when the privilege is a coupon, the information processing device 100-1 transmits this coupon to the terminal device T10. As a result, the terminal device T10 acquires the privilege from the information processing device 100-1 (step S1913).
  • the information processing device 100-1 is set in the store visit information storage unit 122-1 so that the user U1 can obtain a coupon from the information processing device 100-1 at an arbitrary timing via, for example, the customer attraction service GSV.
  • privilege information corresponding to (user ID "U1-1")
  • privilege information indicating the privilege determined by the privilege control process may be registered. Therefore, the process of granting the privilege includes the concept of transmitting the privilege to the terminal device T10 and the concept of registering the privilege in the storage unit.
  • the information processing device 100-1 calculates a fee charged to the store SH1 which is a fee according to the "number of visitors" at the store SH1.
  • the information processing device 100-1 has "visitors" for a predetermined period (for example, the latest one month) among the "number of visitors" corresponding to the store SH1 (store ID "SH1") in the store information storage unit 123-1.
  • the fee charged to the store SH1 is calculated based on the "number". Since there is a possibility that the store SH1 will attract more customers due to the result of the customer attraction service GSV, the information processing device 100-1 calculates the fee charged to the store SH1.
  • the information processing device 100-1 calculates the fee charged to the store SH1 by multiplying the number of visitors of the store SH1 by a predetermined amount (for example, 100 yen). Further, for example, the business owner of the information processing apparatus 100-1 receives a fee from the store SH1 and uses at least a part of the fee as a source of benefits given to the user. For this reason, the information processing apparatus 100-1 calculates, as a fee, a fee that is at least partly used as a source of benefits given to the user.
  • a predetermined amount for example, 100 yen
  • the information processing device 100-1 performs billing processing with the external device 60.
  • the information processing device 100-1 controls the external device 60 so that the fee calculated for the store SH1 is charged to the store SH1.
  • the external device 60 charges a fee to the store SH1 according to the control by the information processing device 100-1.
  • the information processing system S1 includes the terminal device T10 used by the user and the information processing device 100-1. Then, in the information processing system S1, the terminal device T10 transmits the store visit information indicating that the user has visited the store presented by the customer attraction service GSV to the information processing device 100-1. For example, when the terminal device T10 is determined to have visited a store handled by the customer attraction service GSV in response to the check-in by using the customer attraction service GSV, the terminal device T10 is determined to have visited the store. This user is controlled so that the privilege can be received from the information processing device 100-1. For example, the terminal device T10 activates various functions in its own device so that the user can transmit store visit information.
  • the information processing device 100-1 calculates the number of visitors based on the store visit information, and calculates the fee according to the number of visitors to the store as the fee charged to the store. In addition, the information processing device 100-1 grants the user a privilege due to the store visit information being transmitted by the user.
  • the users who actually come to the store via the customer attraction service GSV are given the privilege of checking in. Because of this, it is possible to effectively increase the motivation of users to visit the store and check in first.
  • the information processing system S1 can acquire more store visit information according to the check-in as the user checks in, so that a larger fee can be charged to the store side. .. Since the fee is a source of the privilege, the information processing system S1 can enhance the content of the privilege as much as it becomes possible to charge a larger fee to the store side.
  • the information processing system S1 can realize a cycle of visiting the store using the customer attraction service GSV, it is possible to realize a service capable of effectively attracting customers to creating customers. Further, from such a thing, the information processing system S1 can realize a useful service for both the user side and the store side.
  • the information processing system S1 according to the third embodiment may be implemented in various different forms other than the third embodiment. Therefore, another embodiment of the information processing system S1 will be described below.
  • the information processing device 100-1 receives the store visit information read from the QR code for the customer attraction service GSV (QR code QR1 in the example of FIG. 19) to attract customers.
  • An example of giving a privilege that can be acquired via an application AP corresponding to the service GSV is shown.
  • the information processing device 100-1 is a service different from the customer attraction service GSV, and when the store visit information read from the code information corresponding to the predetermined payment service is transmitted by the terminal device T10, this store visit As a privilege due to the transmission of information, a privilege that can be used in a predetermined payment service may be given to the user.
  • FIG. 20 is a diagram showing an example (1) of a modified example according to the third embodiment.
  • a payment service KSV is given as an example of a predetermined payment service.
  • the payment device 200-1 is a server device corresponding to the payment service KSV.
  • FIG. 20 illustrates a variation of the privilege control process described in step S1911 of FIG. 3 as a variation of the information processing according to the third embodiment. Further, the privilege control process described with reference to FIG. 20 is performed by, for example, the privilege control unit 136-1 (FIG. 24).
  • the user U1-1 has a QR code as code information (dedicated to the payment service KSV) corresponding to the payment service KSV because the camera function CM is enabled in step S1906 of FIG. It is assumed that the QR2 image is taken. Then, when the terminal device T10 detects the QR code QR2, the terminal device T10 reads the store visit information from the QR code Q2. The store visit information also includes the store ID "SH1" that identifies the store SH1. Therefore, the terminal device T10 informs the store visit information including the store ID "SH1" that identifies the store SH1, the user ID "U1-2" that identifies the user U1-1 in the payment service GSV, and the number of visitors "1". It is transmitted to the processing device 100-1.
  • QR code code information
  • the information processing device 100-1 when the information processing device 100-1 receives the store visit information, the information processing device 100-1 responds to the payment service KSV by including the user ID "U1-2" corresponding to the payment service KSV in the store visit information. Perform privilege control processing. For example, the information processing device 100-1 cooperates with the payment device 200-1 by using the user ID “U1-2” for the payment service KSV (step S21-1a). As shown in FIG. 20, the payment device 200-1 has a "user ID” that identifies a user who uses the payment service KSV, and a "user ID” that can be used only within the payment service KSV by the user identified by the "user ID”. It has a privilege DB that stores "privilege information" in association with each other.
  • the payment device 200-1 receives the user ID "U1-2" and the user ID "U1-2” in response to the access (cooperation request) from the information processing device 100-1 including the user ID "U1-2" corresponding to the payment service KSV. Matching with the "user ID” registered in the privilege DB is performed. Then, the payment device 200-1 establishes the cooperation according to the matching result. For example, when the payment device 200-1 determines that the user ID "U1-2" is registered in the privilege DB by matching, the payment device 200-1 establishes the cooperation with the information processing device 100-1.
  • the information processing device 100-1 determines what kind of privilege is to be given to the user U1 when the cooperation with the payment device 200-1 is established, and determines the privilege to be granted, and determines the determined privilege. Instruct the payment device 200-1 to be given (step S21-2a). It is assumed that the information processing device 100-1 determines "500 pt" for the electronic money points that can be used in the payment service KSV. Then, the information processing device 100-1 instructs the payment device 200 to give "500 pt" to the user U1-1. In such a case, the payment device 200-1 registers "500pt" in the "privilege information" corresponding to the user ID "U1-2" that identifies the user U1-1 in the payment service KSV in the privilege DB.
  • the information processing system S1 can give the privilege that can be used in the payment service used by the user, so that the privilege that is convenient for the user can be given. Further, as a result, the information processing apparatus 100-1 can more effectively motivate the person to check in, so that it is possible to realize a service capable of effectively attracting customers to creating customers. it can.
  • the information processing device 100-1 shows an example in which the privilege control process for determining the privilege to be granted is performed.
  • the information processing device 100-1 may control the winning rate of the privilege. Specifically, the information processing device 100-1 calculates the number of visits to the store by the user based on the store visit information, and controls the winning rate of the privilege for the user according to the calculated number of visits to the store. .. Then, the information processing device 100-1 draws a lottery with a controlled probability, and when the privilege is won by the user, the privilege is given to the user. This point will be described with reference to FIG.
  • FIG. 21 is a diagram showing an example (2) of a modified example according to the embodiment.
  • FIG. 21 illustrates a variation of the privilege control process described in step S1911 of FIG. 19 as a variation of information processing according to the third embodiment. Further, the privilege control process described with reference to FIG. 21 is performed by, for example, the privilege control unit 136-1 (FIG. 24).
  • the information processing device 100-1 obtains information such as which user visited which store, when, and which store, based on the acquired store visit information. It is registered in the store visit information storage unit 122-1.
  • FIG. 21 shows an example of the store visit information storage unit 122-1.
  • the store visit information storage unit 122-1 has items such as "user ID”, "store visit date”, "store visit store”, and "privilege information”.
  • the "user ID” indicates identification information that identifies the user who uses the terminal device T10 that has transmitted the store visit information. Further, the "user ID” is assumed to be identification information (dedicated to the customer attraction service GSV) corresponding to the customer attraction service GSV. Therefore, the user ID that identifies the user U1 shown in FIG. 19 corresponds to the user ID “U1-1” in the example of the store visit information storage unit 122-1 shown in FIG.
  • the "store visit date” indicates the date and time when the user identified by the "user ID” visits the "store visit store”. In the example of the store visit information storage unit 122-1 shown in FIG. 21, a conceptual symbol is used for the “store visit date”, but the official date and time are actually registered.
  • the "store visit” indicates identification information (store ID) that identifies the store that the user identified by the "user ID” visited on the "store visit date”.
  • the "privilege information” indicates privilege information indicating the privilege defined for the user identified by the "user ID”.
  • the user identified by the user ID “U1-1” shows an example of visiting the store “SH1” on the store visit date "DAY11". Further, in the example of the store visit information storage unit 122-1 shown in FIG. 21, an example in which the privilege indicated by the privilege information “CP1” is given to the user identified by the user ID “U1-1” is shown.
  • the information processing device 100-1 receives the store visit information from the terminal device T10 of the user U1-1 (step S1909), the store ID "SH1" and the user ID "U1-1” are added to the store visit information.
  • Count step S21-1b
  • the information processing device 100-1 refers to the store visit information storage unit 122-1 and counts the number of times the user U1-1 has visited the store SH1 so far. For example, the information processing device 100-1 counts the number of times the user U1-1 has visited the store SH1 so far during a predetermined period (for example, a month including the store visit information reception date).
  • the information processing device 100-1 controls the winning rate of the privilege according to the counted number of visits to the store, and draws a lottery at the controlled winning rate (step S21-2b). For example, the information processing device 100-1 determines the privilege to be granted to the user U1-1 and controls the winning rate of the determined privilege to be granted. Then, the information processing device 100-1 controls the winning rate of the privilege to be granted, and draws the lottery at the controlled winning rate. For example, the information processing device 100-1 determines a higher winning rate with respect to the standard winning rate as the number of visits to the store increases, and draws the privilege to be granted at the determined winning rate.
  • the information processing device 100-1 grants the winning privilege to the user U1-1 (step S21-3b). If the result of the lottery is wrong, the information processing device 100-1 may set a privilege having a rank lower than the privilege at the time of winning as a privilege to be granted and grant the privilege. For example, the information processing device 100-1 determines that if the privilege at the time of winning is a "500 yen discount coupon" and the lottery is missed, the "100 yen discount coupon" is given as a privilege to be granted. As a result, although the rank is lowered, it is controlled to give all the benefits.
  • the store visit information storage unit 122-1 may store the “store visit day” in addition to the “store visit date” information.
  • the store visit information storage unit 122-1 stores the day of the week when the store visits when the store visit information is received from the terminal device T10 of each user. Then, for example, when the information processing device 100-1 can identify a user who tends to visit the store on Saturday or Sunday from the "visit day", on a weekday (for example, Monday) when the number of visitors is smaller than that of Saturday or Sunday. By granting available benefits to this user, it may be possible to encourage the creation of customers on weekdays (for example, Monday). In addition, if a user who tends to visit the store on weekdays other than Saturday or Sunday can be identified, this user can be given preferential benefits over the user who tends to visit the store on Saturday or Sunday to create customers on weekdays. It may be sustained.
  • the information processing device 100-1 may register the analysis result as marketing data by performing marketing analysis based on the store visit information. For example, the information processing device 100-1 counts the "number of visitors" to the store based on the store visit information of the store for each store. In addition, the information processing device 100-1 counts the "number of visits” so far for each user who has visited the store. Then, the information processing device 100-1 calculates the repeat rate based on the "number of visitors" and the "number of visits”. Further, the information processing device 100-1 analyzes the "visitor attribute tendency" indicating what kind of attribute tendency the visitor has based on the store visit information and the attribute information of the user who sent the store visit information. You may.
  • FIG. 21 shows an example of the store information storage unit 123-1.
  • the store information storage unit 123-1 has items such as “store ID”, “number of visitors”, “repeat rate”, and “visitor attribute tendency”.
  • “Store ID” indicates identification information that identifies a store handled by the customer attraction service GSV.
  • the "number of visitors” indicates the number of customers who have visited the store identified by the "store ID”.
  • the store information storage unit 123-1 sets the "number of visitors" corresponding to the store SH1 (store ID "SH1"). Add the number of visitors this time.
  • the "repeat rate” indicates the repeat rate of customers for the store identified by the "store ID".
  • the information processing device 100-1 has a predetermined period (for example, the latest) based on the "number of visitors" corresponding to the store SH1 (store ID "SH1") in the store information storage unit 123-1. Count the "number of visitors" in one month).
  • the information processing device 100-1 counts the "number of visits” in the predetermined period for each user who has visited the store SH1 in the predetermined period (for example, the latest one month). Then, the information processing device 100-1 calculates the "repeat rate" of the store SH1 based on the "number of visitors" and the "number of visits”.
  • "Store visitor attribute tendency” indicates the attribute tendency of customers who visit the store identified by the "store ID".
  • the information processing device 100 tends to have customers of what attributes visit the store SH1 based on the attribute information of the user who has transmitted the store visit information corresponding to the store SH1. Analyze the tendency of visitor attributes to indicate the existence.
  • the information processing apparatus 100-1 has obtained the analysis result that the customer of "male in his thirties” and the “salaryman" tend to come to the store SH1 as customers.
  • the information processing device 100-1 performs marketing analysis and registers the analysis result as marketing data in the store information storage unit 123-1 to the business partner company (for example, the business owner of the store). And may provide marketing data. As a result, the information processing device 100-1 can support the marketing activity for the business partner company. Further, the information processing device 100-1 may present marketing data to the user via the customer attraction service GSV. For example, the information processing apparatus 100-1 may display the "repeat rate" on the detail screen. As a result, the information processing device 100-1 can present information effective for the store search to the user, so that the store search can be effectively supported.
  • the marketing analysis as described above is performed by, for example, the analysis unit 138-1 (FIG. 24).
  • FIG. 23 is a diagram showing a configuration example of the terminal device T10 according to the third embodiment.
  • the terminal device T10 includes a communication unit T11, an input unit T12, an imaging unit T13, an output unit T14, and an application control unit T15.
  • the communication unit T11 is realized by, for example, a NIC (Network Interface Card) or the like. Then, the communication unit 11 is connected to the network N by wire or wirelessly, and transmits / receives information to / from, for example, the information processing device 100-1.
  • NIC Network Interface Card
  • the input unit T12 is an input device that receives various operations from the user.
  • the input unit T12 is realized by a keyboard, a mouse, operation keys, or the like.
  • the output unit T14 is a display device for displaying various information.
  • the output unit T14 is realized by a liquid crystal display or the like.
  • the output unit T14 corresponds to, for example, the display screen D shown in FIG.
  • the imaging unit T13 corresponds to a camera function for capturing an image of an object.
  • the application control unit T15 various programs stored in the storage device inside the terminal device T10 are executed by the CPU (Central Processing Unit), the MPU (Micro Processing Unit), etc. using the RAM as the work area. It is realized by. Further, the application control unit T15 is realized by, for example, an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array). Further, the application control unit T15 is, for example, a control unit developed by executing the application AP.
  • ASIC Application Specific Integrated Circuit
  • FPGA Field Programmable Gate Array
  • the application control unit T15 includes a display control unit T15a, a first transmission unit T15b, a reception unit T15c, a transmission control unit T15d, and a second transmission unit T15e, which will be described below. Realize or execute the functions and actions of information processing.
  • the internal configuration of the application control unit T15 is not limited to the configuration shown in FIG. 23, and may be another configuration as long as it is a configuration for performing information processing described later.
  • the connection relationship of each processing unit included in the application control unit T15 is not limited to the connection relationship shown in FIG. 23, and may be another connection relationship.
  • the display control unit T15a displays store information about the store targeted by the customer attraction service GSV.
  • the display control unit T15a causes the output unit T14 (display screen D) to display the search results corresponding to the search conditions input by the user.
  • the display control unit T15a displays the map information around the user by superimposing an index mark indicating the congestion status of each store searched according to the search conditions.
  • the display control unit T15a displays a color-coded index mark according to the degree of congestion at a position on the map information around the user and corresponding to the location of the searched store. .. Further, for this reason, the display control unit 15a displays a list of index marks indicating the congestion status of each store as store information of each store.
  • the display control unit T15a displays a detailed screen showing detailed information of the store corresponding to the selected index mark when any of the displayed index marks is selected. Let me.
  • the first transmission unit T15b transmits check-in information to the information processing device 100-1.
  • the first transmission unit T15b detects that the check-in button BT displayed on the detail screen is pressed
  • the first transmission unit T15b identifies the store ID of the store corresponding to the check-in and the user who pressed the check-in button BT.
  • Check-in information including the ID is transmitted to the information processing device 100-1. Since the user presses the check-in button BT as a manifestation of intention to visit the store, it can be said that the first transmission unit T15b transmits information indicating the manifestation of intention to visit the store.
  • the receiving unit T15c receives various information. For example, the receiving unit T15c receives various information from the information processing device 100-1. For example, the receiving unit T15c receives the determination result in the store visit determination process by the information processing device 100-1.
  • the transmission control unit T15d can transmit store visit information according to a determination result (received by the reception unit T15c) that determines whether or not the user has visited the store based on the usage status of the user for the customer attraction service GSV. Control to state. For example, the transmission control unit T15d can transmit store visit information when it is determined that a user has visited the store because the manifestation of intention indicating that the store has been visited is made via the customer attraction service GSV. Control to the state. As an example, when the transmission control unit T15d determines that the manifestation of intention has been made in the store based on the location information of the store and the location information of the user, it is determined that the user has visited the store. , Control the store visit information so that it can be sent.
  • the transmission control unit T15d controls the terminal device T10 so that the store visit information can be read from the code information provided in the store so that the store visit information can be transmitted. Further, for example, the transmission control unit T15d controls mutual communication by the terminal device with a predetermined sensor provided in the store in a state where the store visit information can be transmitted.
  • the second transmission unit T15e transmits the store visit information indicating that the user has visited the store presented by the customer attraction service GSV to the information processing device 100-1 in response to the user's operation.
  • the second transmission unit T15e transmits the store visit information indicating that the user has visited the store presented by the customer attraction service GSV to the information processing device 100-1 in response to the user checking in.
  • the second transmission unit T15e when the second transmission unit T15e is controlled by the transmission control unit T15d so that the store visit information can be transmitted, the second transmission unit T15e transmits the store visit information to the information processing device 100-1.
  • the second transmission unit T15e transmits the read store visit information to the information processing device 100-1.
  • the terminal device T10 performs mutual communication with a predetermined sensor, the second transmission unit T15e transmits the store visit information based on the mutual communication to the information processing device 100-1.
  • FIG. 24 is a diagram showing a configuration example of the information processing apparatus 100-1 according to the third embodiment.
  • the information processing device 100-1 includes a communication unit 110-1, a storage unit 120-1, and a control unit 130-1.
  • the communication unit 110-1 is realized by, for example, a NIC or the like. Then, the communication unit 110-1 is connected to the network N by wire or wirelessly, and transmits / receives information to / from, for example, the terminal device T10, the external device 60, and the payment device 200-1.
  • the storage unit 120-1 is realized by, for example, a semiconductor memory element such as a RAM (Random Access Memory) or a flash memory, or a storage device such as a hard disk or an optical disk.
  • the storage unit 120-1 includes a user information storage unit 121-1, a store visit information storage unit 122-1, and a store information storage unit 123-1.
  • the user information storage unit 121-1 stores various information (for example, attribute information) about the user.
  • the store visit information storage unit 122-1 and the store information storage unit 123-1 are as described with reference to FIG.
  • control unit 130-1 is realized by executing various programs stored in the storage device inside the information processing device 100-1 by using the RAM as a work area by the CPU, MPU, or the like. Further, the control unit 130-1 is realized by, for example, an integrated circuit such as an ASIC or an FPGA.
  • the control unit 130-1 includes the first reception unit 131-1, the determination unit 132-1, the transmission unit 133-1 and the second reception unit 134-1, and the calculation unit 135-. 1. It has a privilege control unit 136-1, a grant unit 137-1, and an analysis unit 138-1, and realizes or executes the functions and actions of information processing described below.
  • the internal configuration of the control unit 130-1 is not limited to the configuration shown in FIG. 24, and may be another configuration as long as it is a configuration for performing information processing described later.
  • the connection relationship of each processing unit included in the control unit 130-1 is not limited to the connection relationship shown in FIG. 24, and may be another connection relationship.
  • the first receiving unit 131-1 receives various information from the terminal device T10. For example, the first receiving unit 131-1 receives the check-in information transmitted by the first transmitting unit T15b of the terminal device T10.
  • the determination unit 132-1 performs a store visit determination process for determining whether or not a user has visited the store presented by the customer attraction service GSV. For example, when the check-in information is received by the first receiving unit 131-1, the determination unit 132-1 determines the check-in information based on the usage status of the customer attraction service GSV by the user who transmitted the check-in information. It is determined whether or not this user has visited the store identified by.
  • the determination unit 132-1 can detect that a manifestation of intention indicating that the store has been visited to the store identified by the check-in information has been made, that is, when the check-in information is received, the check-in information It is determined that the user has visited the store identified by.
  • the determination unit 132-1 is in a state where the user is visiting the store by matching the location information of the store identified by the check-in information with the location information of the user who transmitted the check-in information. It may be determined whether or not the user has visited the store by determining whether or not the intention has been expressed in. For example, when the location information of the store and the location information of the user match, the determination unit 132-1 determines that the user has made a manifestation of intention while visiting the store. That is, the determination unit 132-1 determines that the user has visited the store.
  • the transmission unit 133-1 transmits the determination result by the determination unit 132-1 to the terminal device T10 that has transmitted the check-in information.
  • the second receiving unit 134-1 receives the store visit information indicating that the user has visited the store presented by the customer attraction service GSV. For example, the second receiving unit 134-1 receives the store visit information transmitted by the second transmitting unit T15e of the terminal device T10. For example, the second receiving unit 134-1 receives store visit information including at least identification information (store ID) that identifies the store.
  • store ID identification information
  • the calculation unit 135-1 calculates the number of visitors to the store for each store based on the store visit information received by the second reception unit 134-1. Then, the calculation unit 135-1 calculates a fee according to the number of visitors as a fee charged to the store based on the calculated number of visitors. For example, the calculation unit 135-1 calculates the fee by multiplying the number of visitors by a predetermined amount. Further, for example, the calculation unit 135-1 calculates, as a fee, a fee for which at least a part of the fee is a source of benefits.
  • the store information storage unit 123-1 sets the number of visitors this time to the "number of visitors" corresponding to the store SH1 (store ID "SH1"). By adding, the latest number of visitors is calculated. Further, when the calculation unit 135-1 determines that it is the timing to charge the store SH1 for a fee (for example, the end of the month), the calculation unit 135-1 determines that the “visitor” for a predetermined period (for example, the latest one month) including this timing The fee charged to the store SH1 is calculated based on the "number".
  • the calculation unit 135-1 performs billing processing with the external device 60.
  • the calculation unit 135-1 controls the external device 60 so as to charge the store SH1 for the calculated fee for the store SH1.
  • the external device 60 charges the store SH1 a fee according to the control by the calculation unit 135-1.
  • the privilege control unit 136-1 performs a privilege control process for controlling the privilege given to the user. Specifically, the privilege control unit 136-1 performs the privilege control process for controlling the privilege given to the user as this privilege because the store visit information is transmitted according to the operation of the user.
  • the privilege control unit 136-1 performs a privilege control process for determining what kind of privilege is to be granted to the user and the privilege to be granted. For example, the privilege control unit 136-1 determines the privilege according to the number of visitors. For example, the privilege control unit 136-1 determines a coupon with a higher discount rate as a coupon to be granted as the number of visitors increases. Further, for example, the privilege control unit 136-1 determines that the larger the number of visitors, the higher the points to be given as the reference points.
  • the privilege control unit 136-1 is due to the fact that when the store visit information read from the code information corresponding to the predetermined payment service is received by the second receiving unit 134-1, the store visit information is transmitted. As a privilege, it is controlled so that the privilege that can be used in a predetermined payment service is given to the user. In addition, the privilege control unit 136-1 controls that the privilege that can be used only in the store identified by the store visit information is given as the privilege due to the transmission of the store visit information.
  • the privilege control unit 136-1 calculates the number of visits to the store by the user based on the store visit information, and controls the winning rate of the privilege for the user according to the calculated number of visits.
  • the granting unit 137-1 grants the user a privilege due to the store visit information being transmitted by the user. For example, when the store visit information read from the code information corresponding to the predetermined payment service is transmitted as the code information, the granting unit 137-1 is predetermined as a privilege due to the transmission of the store visit information. Give users the benefits that can be used with the payment service.
  • the granting unit 137-1 grants a privilege according to the number of visitors to the user of the terminal device that has transmitted the store visit information as a privilege due to the transmission of the store visit information. Further, for example, the granting unit 137-1 grants a privilege that can be used only at the store identified by the store visit information as a privilege due to the transmission of the store visit information.
  • the analysis unit 138-1 performs marketing analysis based on the store visit information, and registers the analysis result as marketing data. For example, the analysis unit 138-1 counts the "number of visitors" to the store for each store based on the store visit information of the store. In addition, the analysis unit 138-1 counts the "number of visits” so far for each user who visits the store. Then, the analysis unit 138-1 calculates the repeat rate based on the "number of visitors" and the "number of visits”. In addition, the analysis unit 138-1 analyzes the "visitor attribute tendency" indicating what kind of attribute tendency the visitor has, based on the store visit information and the attribute information of the user who sent the store visit information. ..
  • FIG. 25 describes the information processing procedure performed between the terminal device T10 and the information processing device 100-1 among the processing procedures by the information processing system S1 according to the third embodiment.
  • FIG. 26 describes the information processing procedure performed between the external device 60 and the information processing device 100-1 among the processing procedures by the information processing system S1 according to the third embodiment.
  • FIG. 25 is a sequence diagram showing a privilege granting processing procedure by the information processing system S1 according to the third embodiment.
  • the first transmission unit T15b of the terminal device T10 detects that the check-in button BT is pressed, it transmits the check-in information to the information processing device 100-1 (step S2501).
  • the determination unit 132-1 of the information processing device 100-1 terminals the terminal at the store (store to be processed) corresponding to the received check-in information.
  • a store visit determination process for determining whether or not the user of the device T10 has visited the store is performed (step S2502).
  • the transmission unit 133-1 of the information processing device 100-1 transmits the determination result by the determination unit 132-1 to the terminal device T10 (step S2503).
  • the receiving unit T15c of the terminal device T10 receives the determination result transmitted by the transmitting unit 133-1 (step S2504). Then, the transmission control unit T15d controls the image pickup unit T13 (camera function CM) of the terminal device T10 so that it can be used according to the determination result received by the reception unit T15c (step S2505).
  • the imaging unit T13 determines whether or not the QR code can be detected (step S2506). While the QR code cannot be detected (step S2506; No), the imaging unit T13 waits until it can be detected. On the other hand, if the image pickup unit T13 can detect the QR code (step S2506; Yes), the imaging unit T13 reads the store visit information from the detected QR code (step S2507). Then, the second transmission unit T15e of the terminal device T10 transmits the store visit information read by the image pickup unit T13 to the information processing device 100-1 (step S2508).
  • the second receiving unit 134-1 of the information processing device 100-1 receives the store visit information transmitted by the second transmitting unit T15e (step S2509). Then, the calculation unit 135-1 adds the number of visitors this time to the "number of visitors" at the store to be processed (step S2510). In addition, such addition may be performed by the second receiving unit 134-1.
  • the privilege control unit 136-1 of the information processing device 100-1 performs a privilege control process for controlling (determining) the privilege to be granted to the user of the terminal device T10 (step S2511). Then, the granting unit 137-1 transmits the privilege information indicating the privilege controlled by the privilege control unit 136-1 to the terminal device T10 (step S2512). Further, for example, the receiving unit T15c of the terminal device T10 receives the privilege information transmitted from the granting unit 137-1.
  • FIG. 26 is a sequence diagram showing a billing processing procedure by the information processing system S1 according to the third embodiment.
  • the calculation unit 135-1 of the information processing device 100-1 determines whether or not it is time to charge the store a fee (step S2601).
  • the calculation unit 135-1 waits until it is time to charge the fee while it is not the timing to charge the fee to the store (step S2601; No).
  • the calculation unit 135-1 determines that it is time to charge the fee to the store (step S2601; Yes)
  • the calculation unit 135-1 refers to the store information storage unit 123-1 and determines the predetermined value at the store to be charged.
  • the number of visitors during the period is calculated (step S2602).
  • the calculation unit 135-1 calculates a fee according to the calculated number of visitors (step S2603).
  • the calculation unit 135-1 performs a billing process such as instructing the external device 60 to bill the store to be billed (step S2604).
  • the external device 60 charges a fee to the billing store according to the control by the calculation unit 135-1 (step S2605).
  • FIG. 27 is a hardware configuration diagram showing an example of a computer 1000 that realizes the functions of the information processing device 100-1.
  • the computer 1000 has a CPU 1100, a RAM 1200, a ROM 1300, an HDD 1400, a communication interface (I / F) 1500, an input / output interface (I / F) 1600, and a media interface (I / F) 1700.
  • the CPU 1100 operates based on the program stored in the ROM 1300 or the HDD 1400, and controls each part.
  • the ROM 1300 stores a boot program executed by the CPU 1100 when the computer 1000 is started, a program depending on the hardware of the computer 1000, and the like.
  • the HDD 1400 stores a program executed by the CPU 1100, data used by the program, and the like.
  • the communication interface 1500 receives data from another device via the communication network 50 and sends it to the CPU 1100, and transmits the data generated by the CPU 1100 to the other device via the communication network 50.
  • the CPU 1100 controls an output device such as a display or a printer and an input device such as a keyboard or a mouse via the input / output interface 1600.
  • the CPU 1100 acquires data from the input device via the input / output interface 1600. Further, the CPU 1100 outputs the generated data to the output device via the input / output interface 1600.
  • the media interface 1700 reads the program or data stored in the recording medium 1800 and provides the program or data to the CPU 1100 via the RAM 1200.
  • the CPU 1100 loads the program from the recording medium 1800 onto the RAM 1200 via the media interface 1700, and executes the loaded program.
  • the recording medium 1800 is, for example, an optical recording medium such as a DVD (Digital Versatile Disc) or PD (Phase change rewritable Disk), a magneto-optical recording medium such as an MO (Magneto-Optical disk), a tape medium, a magnetic recording medium, or a semiconductor memory. And so on.
  • the CPU 1100 of the computer 1000 realizes the function of the control unit 130-1 by executing the program loaded on the RAM 1200. Further, the data in the storage unit 120-1 is stored in the HDD 1400. The CPU 1100 of the computer 1000 reads and executes these programs from the recording medium 1800, but as another example, these programs may be acquired from another device via the communication network 50.
  • each component of each of the illustrated devices is a functional concept, and does not necessarily have to be physically configured as shown in the figure. That is, the specific form of distribution / integration of each device is not limited to the one shown in the figure, and all or part of the device is functionally or physically distributed / physically in arbitrary units according to various loads and usage conditions. Can be integrated and configured.
  • section, module, unit can be read as “means” or “circuit”.
  • the granting unit can be read as a granting means or a granting circuit.
  • information processing such as providing information on the usage of the store estimated from the image, sound, or attribute of the situation in the store may be further combined with each of the above embodiments.
  • the information processing will be described.
  • FIG. 28 is a diagram showing an example of information processing according to the fourth embodiment.
  • information processing in which the information processing device 100-2 estimates information regarding the usage of the store based on an image obtained by capturing the situation of the store by the photographing device will be described.
  • the photographing device is, for example, a camera installed in the store, a camera held by a store clerk, or the like.
  • the photographing device has not only a photographing function but also a microphone function for collecting sound.
  • a store is, for example, a restaurant such as a cafe, a tavern, or a restaurant.
  • the store situation is a concept including, for example, the atmosphere (mood) in the store and the attributes of customers in the store.
  • the atmosphere in a store is a concept including, for example, quietness and brightness.
  • the attribute of the customer in the store is a concept including, for example, the ratio of men and women, the age group, the number of families, and the length of stay.
  • the information regarding the usage of the store is a concept including, for example, the usage of the store itself and information used for estimating the usage of the store (for example, a score described later).
  • a concept including, for example, the usage of the store itself and information used for estimating the usage of the store (for example, a score described later).
  • three photographing devices 10-21 to 10-23 having a microphone function are installed in each of the three stores E21 to E23.
  • the three stores E21 to E23 are collectively referred to as a store E20.
  • the three photographing devices 10-21 to 10-23 are collectively referred to as a photographing device 10-2.
  • the three photographing devices 10-2 installed in each of the three stores E20 photograph the situation in each corresponding store E20 (step S281).
  • the photographing device 10-21 installed in the store E21 photographs the situation in the store E21.
  • the photographing device 10-22 installed in the store E22 photographs the situation in the store E22.
  • the photographing device 10-23 installed in the store E23 photographs the situation in the store E23.
  • the information processing device 100-2 acquires an image obtained by photographing the situation in the store E20 (step S282). Specifically, the information processing device 100-2 captures an image obtained by photographing the situation in each store E20 corresponding to each of the three stores E21 to E23 by the three photographing devices 10-21 to 10-23. get. More specifically, the information processing device 100-2 acquires an image including audio. In the example of FIG. 28, the information processing apparatus 100-2 acquires an image including the voices of four customers obtained by photographing the situation of the store E21 by the photographing apparatus 10-21. Further, the information processing device 100-2 acquires an image including the voices of two customers obtained by photographing the situation of the store E22 by the photographing device 10-22. Further, the information processing device 100-2 acquires an image including the voices of five customers obtained by photographing the situation of the store E23 by the photographing device 10-23.
  • the information processing device 100-2 estimates information regarding the usage of each store E based on the acquired image including voice (step S283). Specifically, the information processing device 100-2 analyzes the image and calculates one or a plurality of scores indicating the situation in the store E. For example, the information processing apparatus 100-2 calculates one or more scores indicating the atmosphere (for example, quietness and brightness) in the store E included in the image. Further, for example, the information processing device 100-2 sets one or a plurality of scores indicating the attributes of the customers in the store E included in the image (for example, the ratio of men and women, the age group, the number of families, and the length of stay). calculate.
  • the information processing device 100-2 sets one or a plurality of scores indicating the attributes of the customers in the store E included in the image (for example, the ratio of men and women, the age group, the number of families, and the length of stay). calculate.
  • the information processing device 100-2 estimates the information on the usage of the store E20 based on the comparison result between the calculated score and the usage database in which the usage of the store E20 is classified according to the conditions to be satisfied by the score. To do. In the example of FIG. 28, the information processing apparatus 100-2 searches the usage database, and when the condition that the score indicating the quietness in the store E22 is equal to or less than a predetermined value is satisfied, the condition corresponding to the condition is satisfied. "For entertainment" is estimated as the usage of store E22.
  • the information processing device 100-2 provides information regarding the estimated usage of each store E20 (step S284). Specifically, the information processing device 100-2 provides information on the usage of each store E20 to the user terminal T20 used by the user U1-2 for viewing the browsing information of each store E20. In the example of FIG. 28, the information processing apparatus 100-2 provides a sentence to inform the user terminal T20 that "the store E22 is for entertainment" based on the estimation result of the usage of the store E22.
  • the information processing apparatus 100-2 according to the fourth embodiment acquires an image obtained by photographing the situation in the store E20, and based on the acquired image, information on the usage of the store E20. To estimate. Thereby, the information processing apparatus 100-2 according to the fourth embodiment can appropriately estimate the information regarding the usage of the store E20 according to the actual situation in the store E20.
  • FIG. 29 is a diagram showing a configuration example of the information processing system S2 according to the fourth embodiment.
  • the information processing system S2 includes a photographing device 10, a user terminal 20, and an information processing device 100.
  • the photographing device 10-2, the user terminal T20, and the information processing device 100-2 are connected to each other via a network N2 so as to be communicable by wire or wirelessly.
  • the photographing device 10-2 is, for example, a camera installed in the store, a camera held by a store clerk, or the like.
  • the photographing device-2 has not only a photographing function but also a microphone function for collecting sound.
  • the user terminal T20 is an information processing device used by a user who browses store browsing information via an application or a web page.
  • the user terminal T20 is, for example, a desktop PC (Personal Computer), a notebook PC, a tablet terminal, a mobile phone, a PDA (Personal Digital Assistant), or the like.
  • the information processing device 100-2 is realized by, for example, a server device or the like.
  • the information processing device 100-2 acquires an image obtained by photographing the situation in the store, and estimates information on the usage of the store based on the acquired image.
  • FIG. 30 is a diagram showing a configuration example of the information processing apparatus 100-2 according to the fourth embodiment.
  • the information processing device 100-2 includes a communication unit 110-2, a storage unit 120-2, and a control unit 130-2.
  • the communication unit 110-2 is realized by, for example, a NIC (Network Interface Card) or the like. Then, the communication unit 110-2 is connected to the network by wire or wirelessly, and transmits / receives information between the photographing device 10-2 and the user terminal T20.
  • NIC Network Interface Card
  • the storage unit 120-2 is realized by, for example, a semiconductor memory element such as a RAM (Random Access Memory) or a flash memory (Flash Memory), or a storage device such as a hard disk or an optical disk.
  • the storage unit 120-2 has an image database 121-2 and a usage database 122-2.
  • the image database 121-2 stores information about images taken by the photographing device 10-2.
  • FIG. 31 shows an example of the image database 121-2 according to the fourth embodiment.
  • the image database 121-2 has items such as "store ID”, "image”, and "shooting date and time”.
  • the "store ID” is an identifier that identifies the store in which the photographing device 10-2 for capturing an image is installed.
  • the "image” is information about an image obtained by photographing the situation in the store by the photographing device 10-2 associated with the "store ID”.
  • the image is, for example, information about the image including audio.
  • the "shooting date and time” is information regarding the shooting date and time of the image taken by the shooting device 10-2 associated with the "store ID”.
  • FIG. 31 shows that the image “image # 1” was taken at the shooting date and time “2019/9/14 10:00” by the shooting device 10-2 installed in the store E1 identified by the store ID. ..
  • the usage database 122-2 is a database that classifies the usage of the store according to the conditions that one or more scores indicating the situation in the store should be satisfied.
  • FIG. 32 shows an example of the usage database 122-2 according to the fourth embodiment. In the example shown in FIG. 32, the usage database 122-2 has items such as "usage” and "condition”.
  • “Usage” indicates the usage of the store associated with “conditions”.
  • the "condition” indicates a condition to be satisfied by one or more scores indicating the situation in the store.
  • FIG. 32 shows that the usage of the store is "suitable for dates" when the score indicating the situation in the store satisfies the condition that "brightness is AA or less and quietness is BB or less". ..
  • the control unit 130-2 is a controller, and various programs stored in the storage device inside the information processing device 100-2 by, for example, a CPU (Central Processing Unit) or an MPU (Micro Processing Unit) ( It is realized by executing the RAM as a work area (corresponding to an example of an information processing program). Further, the control unit 130-2 is a controller, and is realized by, for example, an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array).
  • ASIC Application Specific Integrated Circuit
  • FPGA Field Programmable Gate Array
  • the control unit 130-2 has an acquisition unit 131-2, an estimation unit 132-2, and a providing unit 133-2.
  • Acquisition unit 131-2 acquires an image obtained by capturing the situation inside the store E20. Specifically, the acquisition unit 131-2 acquires an image obtained by photographing the situation in each store E20 for each of the plurality of stores E20. More specifically, the acquisition unit 131-2 acquires an image including audio. The acquisition unit 131-2 stores the acquired image in the image database 121-2.
  • the acquisition unit 131-2 acquires the image in real time and stores the image in the image database 121-2 in association with the shooting date and time.
  • the acquisition unit 131-2 acquires a plurality of images having different shooting dates and stores, and stores each image in the image database 121-2 for each store E20 in which each image was taken.
  • the estimation unit 132-2 estimates information on the usage of each store E20 based on the image acquired by the acquisition unit 131-2 (that is, the image including voice). Specifically, the estimation unit 132-2 analyzes the image and calculates one or a plurality of scores indicating the situation in the store E20. For example, the estimation unit 132-2 calculates one or more scores indicating the atmosphere (for example, quietness and brightness) in the store E20 included in the image. One or more scores indicating the atmosphere (for example, quietness and brightness) in the store E20 are calculated using, for example, the illuminance of the lighting shown in the image, the volume of the sound included in the image, and the like. To. The sound included in the image is extracted by, for example, a predetermined voice analysis.
  • the estimation unit 132-2 may separate the BGM and the noise in the store and calculate the score for each of the BGM and the noise. Further, for example, the estimation unit 132-2 calculates one or a plurality of scores indicating the attributes of customers in the store E20 included in the image (for example, gender ratio, age group, number of families, and staying time). To do. One or more scores indicating the attributes of customers in the store E20 (eg, gender ratio, age group, number of families, and length of stay) are calculated, for example, by pattern matching or the like. Further, for example, the estimation unit 132-2 may calculate one or a plurality of scores indicating the situation in the store E20 by using predetermined machine learning.
  • the estimation unit 132-2 estimates the information regarding the usage of the store E20 based on the comparison result between the calculated score and the usage database 122-2. Specifically, the estimation unit 132-2 searches for a condition that is satisfied by the calculated score from a plurality of conditions included in the usage database 122-2, and stores the usage that corresponds to the satisfied condition at the store E20. Estimated as the intended use of. For example, the estimation unit 132-2 searches the usage database 122-2, and when the condition that the score indicating the quietness in the store E20 is equal to or less than the predetermined value CC is satisfied, the "entertainment" corresponding to the condition is satisfied. "Orientation" is estimated as the usage of the store E20. For example, in FIG.
  • the information processing device 100-2 searches the usage database 122-2 and satisfies the condition that the score indicating the quietness in the store E22 is equal to or less than the predetermined value CC, so that the usage of the store E22 is used. Is presumed to be "for entertainment".
  • the estimation unit 132-2 sequentially updates the estimated usage of the store E20 based on the real-time image acquired by the acquisition unit 131-2. Specifically, the estimation unit 132-2 sequentially uses the estimated usage of the store E20 based on the image having the latest shooting date and time among the plurality of images for each store E20 in the image database 121-2. Update.
  • the estimation unit 132-2 provides information on the usage of the store E20 in the predetermined period based on the images whose shooting date and time are included in the predetermined period among the plurality of images acquired by the acquisition unit 131-2.
  • the predetermined period is, for example, a designated period designated by a user who browses the browsing information of the store E20. Examples of the designated period include weekdays, holidays, and seasons. It is assumed that there are a plurality of images whose shooting date and time are included in a predetermined period.
  • the estimation unit 132-2 selects an arbitrary image from a plurality of images included in the predetermined period, and estimates information on the usage of the store E20 in the predetermined period based on the selected image. Further, the estimation unit 132-2 may estimate information on the usage of the store E20 in the predetermined period based on the average image obtained by averaging a plurality of images included in the predetermined period.
  • the provision unit 133-2 provides information on the usage of each store E20 estimated by the estimation unit 132-2. Specifically, the providing unit 133-2 provides information on the usage of each store E20 to the user terminal T20 used by the user U1-2 for viewing the browsing information of each store E20. For example, the providing unit 133-2 provides the user terminal T20 with a sentence or a push notification that conveys the estimation result of the usage of each store E20. Further, for example, the providing unit 133-2 may provide the estimation result of the usage of each store E20 via the web page of each store E. Further, for example, the providing unit 133-2 receives an update request for the estimation result from the user terminal T20 in real time, and when the update request is received, causes the estimation unit 132-2 to re-estimate the usage of the store E20.
  • the latest estimation results may be provided. Further, for example, when the designated period (for example, weekdays, holidays, seasons, etc.) is designated by the user who browses the browsing information of the store E20, the providing unit 133-2 provides information on the usage of the store E20 in the designated period. May be provided. Further, for example, the providing unit 133-2 provides one or more scores indicating the situation in each store E20, which was used for estimating the usage of each store E20, as information regarding the usage of each store E20. You may.
  • the designated period for example, weekdays, holidays, seasons, etc.
  • FIG. 33 is a diagram showing an example of providing a plurality of scores showing the situation in each store E20.
  • quietness, gender ratio, age group, family, brightness, and staying time are shown by a chart as a plurality of scores showing the situation in each store E20.
  • FIG. 34 is a flowchart showing an example of the information processing procedure according to the fourth embodiment.
  • the acquisition unit 131-2 acquires an image obtained by photographing the situation in the store E20 (step S3401).
  • the estimation unit 132-2 analyzes the image and calculates one or more scores indicating the situation in the store E20 (step S3402).
  • the estimation unit 132-2 estimates the information regarding the usage of the store E20 based on the comparison result between the calculated score and the usage database 122-2 (step S3403).
  • the provision unit 133-2 provides information on the estimated usage of the store E20 (step S3404), and ends the process.
  • the information processing apparatus 100-2 has an acquisition unit 131-2 and an estimation unit 132-2.
  • the acquisition unit 131-2 acquires an image obtained by photographing the situation in the store.
  • the estimation unit 132-2 estimates information on the usage of the store based on the image acquired by the acquisition unit 131-2.
  • the information processing device 100-2 can appropriately estimate the information regarding the usage of the store according to the actual situation in the store.
  • the acquisition unit 131-2 acquires an image including audio.
  • the estimation unit 132-2 estimates information regarding the usage of the store based on the image including the sound acquired by the acquisition unit 131-2.
  • the information processing device 100-2 can appropriately determine the intended use of the store based on the image including the voice.
  • the information processing device 100-2 stores a storage usage database 122-2 that classifies the usage usage of the store according to the conditions to be satisfied by one or more scores indicating the situation in the store. It has more parts.
  • the estimation unit 132-2 analyzes the image to calculate one or more scores indicating the situation in the store, and uses the store based on the comparison result between the calculated score and the usage database 122-2. Estimate information about the application.
  • the information processing device 100-2 appropriately obtains information on the usage of the store by using the usage database 122-2 including various usages according to various situations in the store. Can be estimated.
  • the acquisition unit 131-2 acquires the image in real time.
  • the estimation unit 132-2 sequentially updates the estimated usage of the store based on the real-time image acquired by the acquisition unit 131-2.
  • the information processing device 100-2 can sequentially update the usage of the store according to the change in the situation in the store.
  • the acquisition unit 131-2 acquires a plurality of images having different shooting dates and times.
  • the estimation unit 132-2 estimates information on the usage of the store in a predetermined period based on the images whose shooting date and time are included in the predetermined period among the plurality of images acquired by the acquisition unit 131-2. To do.
  • the information processing device 100-2 can appropriately estimate the information regarding the usage of the store in the designated period specified by the user who browses the browsing information of the store, for example.
  • the acquisition unit 131-2 acquires an image obtained by photographing the situation in each store for each of the plurality of stores.
  • the estimation unit 132-2 estimates information regarding the usage of each store based on the image acquired by the acquisition unit 131-2.
  • the information processing device 100-2 can appropriately estimate information on the usage of each store for each of the plurality of stores.
  • the information processing device 100-2 further has a providing unit 133-2 that provides information on the usage of the store estimated by the estimating unit 132-2.
  • the information processing device 100-2 can provide information on the usage of the store, which reflects the actual situation in the store.
  • the fifth embodiment is different from the fourth embodiment in that the user terminal T20 accepts the search condition and displays the information about the store searched by the information processing device 100-2A.
  • FIG. 35 is a diagram showing an example of information processing according to the fifth embodiment.
  • FIG. 35 describes information processing in which the user terminal T20 accepts search conditions and displays information about the store searched by the information processing device 100-2A. Since steps S281 to S283 in FIG. 35 correspond to steps S281 to S283 in FIG. 28, respectively, detailed description thereof will be omitted.
  • the user terminal T20 receives a search condition including information on the usage of the store E20 from the user U1-2 (step S284).
  • the search condition includes, for example, the date when the store E20 is used, the area where the store E20 is located, and the like, in addition to the information regarding the usage of the store E20.
  • FIG. 36 is a diagram showing an example of a search condition reception screen on the user terminal T20.
  • information such as "Enter search conditions”, a pull-down display TB11 of "Usage”, and “Date” are sent to the output unit D24 of the user terminal T20.
  • the pull-down display TB12 of ",” the pull-down display T1B3 of "area”, and the button display TB14 of "confirm” are displayed.
  • the user terminal T20 transmits a search condition to the information processing device 100-2A (step S285).
  • the information processing device 100-2A searches for the store E that satisfies the search condition (step S286).
  • the information processing apparatus 100-2A searches for the store E satisfying the search condition by referring to the store database in which the search condition and the information about the store E20 are associated with each other.
  • the information processing device 100-2A transmits a search result including information about the store E satisfying the search condition to the user terminal T20 (step S287).
  • the user terminal T20 receives the search result and displays the received search result (step S288).
  • FIG. 37 is a diagram showing an example of a search result display screen on the user terminal T20.
  • the output unit D24 of the user terminal T20 includes information such as "recommended store” and the search result.
  • the display column TB21 of information about the store E20 (for example, store A, store B, store C ...) is displayed.
  • the user terminal T20 according to the fifth embodiment receives the search condition including the information regarding the usage of the store E20, and displays the information regarding the store E20 searched by the information processing device 100-2A.
  • the user terminal T20 according to the fifth embodiment can display information about the store E20 that satisfies the search condition including information about the usage of the store E20.
  • FIG. 38 is a diagram showing a configuration example of the user terminal T20 according to the fifth embodiment.
  • the user terminal T20 has a communication unit T21, a storage unit T22, an input unit T23, an output unit T24, and a control unit T25.
  • the communication unit T21 is an interface such as a NIC that communicates with the information processing device 100-2A that is communicably connected to the network N2.
  • the storage unit T22 is realized by, for example, a semiconductor memory element such as a RAM or a flash memory, or a storage device such as a hard disk or an optical disk.
  • the input unit T23 is an input device that receives various operations from the user.
  • the input unit T23 is realized by a keyboard, a mouse, operation keys, or the like.
  • the output unit D24 is a display device for displaying various information.
  • the output unit D24 is realized by a liquid crystal display or the like.
  • the control unit T25 is a controller, and for example, various programs (corresponding to an example of the terminal device control program) stored in the storage device inside the user terminal T20 are executed by the CPU, MPU, or the like using the RAM as a work area. It is realized by. Further, the control unit T25 is a controller, and is realized by, for example, an integrated circuit such as an ASIC or FPGA.
  • the control unit T25 includes a reception unit T251, a transmission unit T252, a reception unit T253, and a display unit T254.
  • the reception unit T251 accepts search conditions including information on the usage of the store E20.
  • the search condition includes, for example, the date when the store E20 is used, the area where the store E20 is located, and the like, in addition to the information regarding the usage of the store E20.
  • the transmission unit T252 transmits the search condition to the information processing device 100-2A.
  • the receiving unit T253 receives the search result by the information processing device 100-2A.
  • the display unit T254 displays the search result received by the reception unit T253 on the output unit D24. Further, when the search result includes one or more scores indicating the status in each store E20 used for estimating the usage of each store E20, the display unit T254 indicates the status in each store E20. One or more scores indicating the above may be displayed on the output unit D24 together with the search result.
  • FIG. 39 is a diagram showing a configuration example of the information processing apparatus 100-2A according to the fifth embodiment.
  • the same configurations as those of the information processing apparatus 100-2 of the fourth embodiment are designated by the same reference numerals, and the description of the overlapping configurations and operations will be omitted.
  • the information processing device 100-2A includes a communication unit 110-2, a storage unit 120-2, and a control unit 130-2.
  • the storage unit 120-2 has an image database 121-2, a usage database 122-2, and a store database 123-2.
  • the store database 123-2 stores information about the store to be searched.
  • FIG. 40 shows an example of the store database 123-2 according to the fifth embodiment.
  • the store database 123-2 has items such as "store ID”, “detailed information”, “full availability”, and "area”.
  • the "Store ID” is an identifier that identifies a store registered as a search target.
  • the “detailed information” is information indicating in detail the contents of the store associated with the "store ID”.
  • the “search condition” is information indicating a search condition for searching a store corresponding to the "store ID”.
  • the “search condition” has items such as "usage”, “full availability”, and “area”.
  • the “usage” indicates information on the usage of the store associated with the "store ID”.
  • the “full vacancy status” indicates the full vacancy status for each date when the store corresponding to the "store ID” is used.
  • the "area” indicates an area where the store corresponding to the "store ID” is located.
  • the detailed information of the store E21 identified by the store ID is "detailed information # 1", and the usage is "for dates”, the vacancy status is "full vacancy status # 1", and the area “area # 1". 1 ”indicates that it is specified by the search condition.
  • the control unit 130-2 has an acquisition unit 131-2, an estimation unit 132-2, a provision unit 133-2, and a search unit 134-2.
  • the estimation unit 132-2 estimates information on the usage of each store E20 based on the image acquired by the acquisition unit 131-2 (that is, the image including voice).
  • the estimation unit 132-2 registers the estimated information on the usage of each store E20 in the store database 123-2 as a search condition.
  • the search unit 134-2 accepts the search condition from the user terminal T20.
  • the search unit 134-2 searches for the store E that satisfies the search condition.
  • the information processing apparatus 100-2A searches the store E20 satisfying the search condition with reference to the store database 123-2.
  • the search unit 134-2 transmits a search result including information about the store E20 satisfying the search condition to the user terminal T20.
  • FIG. 41 is a flowchart showing an example of the information processing procedure according to the fifth embodiment.
  • FIG. 41 shows a procedure of information processing executed by the user terminal T20.
  • the reception unit T251 accepts a search condition including information on the usage of the store E20 (step S4101).
  • the transmission unit T252 transmits the search condition to the information processing device 100-2A (step S4102).
  • the information processing device 100-2A receives the search condition from the user terminal T20, the information processing device 100-2A searches for the store E20 that satisfies the search condition. Then, the information processing device 100-2A transmits a search result including information about the store E20 satisfying the search condition to the user terminal T20.
  • the receiving unit T253 receives the search result by the information processing device 100-2A (step S4103).
  • the display unit T254 displays the search result received by the reception unit T253 on the output unit D24 (step S4104), and ends the process.
  • the user terminal T20 has a reception unit T251, a transmission unit T252, a reception unit T253, and a display unit T254.
  • the reception unit T251 receives a search condition including information on the usage of the store.
  • the transmission unit T252 is an information processing device 100-2A that estimates information about the usage of the store based on an image obtained by photographing the situation in the store, and is an information processing device 100 that searches for a store that satisfies the search condition. -Send search conditions to -2A.
  • the receiving unit T253 receives the search result by the information processing device 100-2A.
  • the display unit T254 displays the search result received by the reception unit T253.
  • the user terminal T20 can display information on the store satisfying the search condition including the information on the usage of the store.
  • a fourth aspect of the sixth embodiment is that the photographing device 10-2 acquires an image obtained by photographing the situation in the store, and estimates information on the usage of the store based on the acquired image. Is different from the embodiment of. That is, in the sixth embodiment, some functions (acquisition unit 131-2 and estimation unit 132-2) of the information processing device 100-2 of the fourth embodiment are incorporated in the photographing device 10-2.
  • FIG. 42 is a diagram showing an example of information processing according to the sixth embodiment.
  • FIG. 42 describes information processing in which the photographing device 10-2 acquires an image obtained by photographing the situation in the store and estimates information on the usage of the store based on the acquired image.
  • the three photographing devices 10-2 installed in each of the three stores E20 photograph the situation in each corresponding store E20 (step S421).
  • each photographing device 10-2 acquires an image obtained by photographing the situation in the store E20 (step S422). Specifically, each photographing device 10-2 acquires an image obtained by photographing the situation in each corresponding store E20. More specifically, each photographing device 10-2 acquires an image including audio.
  • each photographing device 10-2 estimates information regarding the usage of each store E20 based on the acquired image including sound (step S423). Specifically, each photographing device 10-2 analyzes the image and calculates one or a plurality of scores indicating the situation in the store E20. Then, each photographing device 10-2 estimates the information on the usage of the store E based on the comparison result between the calculated score and the usage database in which the usage of the store E20 is classified according to the conditions to be satisfied by the score. To do.
  • each photographing device 10-2 transmits information regarding the estimated usage of each store E20 to the information processing device 100-2B (step S424).
  • the information processing device 100-2B receives the information regarding the usage of each store E20 transmitted from each photographing device 10-2, the information processing device 100-2B provides the information regarding the usage of each store E20 (step S425). Specifically, the information processing device 100-2B provides information on the usage of each store E20 to the user terminal T20 used by the user U1-2 for viewing the browsing information of each store E20.
  • the photographing device 10-2 according to the sixth embodiment acquires an image obtained by photographing the situation in the store E20, and based on the acquired image, provides information on the usage of the store E20. presume. Thereby, the photographing apparatus 10-2 according to the sixth embodiment can appropriately estimate the information regarding the usage of the store E20 according to the actual situation in the store E20.
  • FIG. 43 is a diagram showing a configuration example of the photographing apparatus 10-2 according to the sixth embodiment.
  • the photographing device 10-2 includes a communication unit 11-2, a photographing unit 14-2, a storage unit 12-2, and a control unit 13-2.
  • the communication unit 11-2 is an interface such as a NIC that communicates with the information processing device 100-2B that is communicably connected to the network N2.
  • the shooting unit 14-2 is a camera that realizes a shooting function for shooting the situation inside the store E20.
  • the photographing unit 14-2 has not only a photographing function but also a microphone function for collecting sound.
  • the storage unit 12-2 is realized by, for example, a semiconductor memory element such as a RAM or a flash memory, or a storage device such as a hard disk or an optical disk.
  • the storage unit 12-2 has an image database 121-2 and a usage database 122-2.
  • the image database 121-2 and the usage database 122-2 correspond to the image database 121-2 and the usage database 122-2 (see FIG. 30) of the information processing apparatus 100-2 according to the fourth embodiment, respectively. To do.
  • the control unit 13-2 is a controller, and for example, various programs (corresponding to an example of an information processing program) stored in a storage device inside the photographing device 10-2 by a CPU, MPU, or the like use the RAM as a work area. It is realized by being executed. Further, the control unit 13-2 is a controller, and is realized by, for example, an integrated circuit such as an ASIC or FPGA.
  • the control unit 13-2 has an acquisition unit 131-2 and an estimation unit 132-2.
  • the acquisition unit 131-2 and the estimation unit 132-2 are basically the acquisition unit 131-2 and the estimation unit 132-2 of the information processing apparatus 100-2 according to the fourth embodiment, respectively (see FIG. 30). ) Corresponds to.
  • the estimation unit 132-2 further transmits information regarding the estimated usage of each store E20 to the information processing device 100-2B.
  • FIG. 44 is a diagram showing a configuration example of the information processing apparatus 100-2B according to the sixth embodiment.
  • the information processing device 100-2B has a communication unit 110-2 and a control unit 130-2.
  • the control unit 130-2 has a providing unit 133-2 and a receiving unit 135-2.
  • the receiving unit 135-2 receives the information regarding the usage of each store E20 transmitted from each photographing device 10-2.
  • the providing unit 133-2 provides information on the usage of each store E20 received by the receiving unit 135-2.
  • the photographing apparatus 10-2 has an acquisition unit 131-2 and an estimation unit 132-2.
  • the acquisition unit 131-2 acquires an image obtained by photographing the situation in the store.
  • the estimation unit 132-2 estimates information on the usage of the store based on the image acquired by the acquisition unit 131-2.
  • the photographing device 10-2 according to the present embodiment can appropriately estimate the information regarding the usage of the store according to the actual situation in the store.
  • the information processing device 100-2 or the photographing device 10-2 captures the situation in the store as a part of the service for supporting the user to search for a store. Based on the obtained image information, the information regarding the usage of the store was estimated. That is, in the fourth to sixth embodiments described so far, the information processing device 100-2 or the photographing device 10-2 estimates the information used for the store search as the information regarding the usage of the store. An example is shown.
  • the information processing according to the seventh embodiment is different from the conventional embodiments in that it is performed as a part of the service for supporting the opening of a store. Further, from this, it can be said that the information processing according to the seventh embodiment is a service for users who are considering opening a store (for example, a store owner) or a service for consulting work related to opening a store.
  • the estimation unit 132-2 of the information processing device 100-2 estimates the information used for opening a store as information regarding the usage of the store based on the image information acquired by the acquisition unit 131-2. To do.
  • the acquisition unit 131-2 may further acquire the store information registered in advance for the store from which the image information was acquired. Then, the estimation unit 132-2 estimates the information used for opening the store based on the image information and the store information.
  • the estimation unit 132-2 identifies a store that satisfies the condition information regarding the opening of a store among the stores included in the predetermined area, and among the information (image information and image store information) acquired by the acquisition unit, this identification is performed. Based on the information at the store, the area that is the candidate site for opening the store is estimated as the information used for opening the store. As an example, the estimation unit 132-2 uses the information acquired by the acquisition unit 131-2 to obtain conditional information regarding store openings (for example, a store opening desired area, a store) based on information at a store included in a predetermined area. Identify stores that meet the category, store customer base, unit price per customer, or intended use for the store).
  • conditional information regarding store openings for example, a store opening desired area, a store
  • FIG. 45 is a diagram showing an example of information processing according to the seventh embodiment.
  • FIG. 36 shows an example in which a search condition reception screen for store search is displayed when a predetermined application is started.
  • the user can use the predetermined application. It is possible to enter store opening conditions (an example of condition information regarding store opening), which is a condition for searching an area that can be a candidate site for opening a store.
  • the content (condition input screen C1) corresponding to the predetermined application is displayed on the display screen D24 of the user terminal T20 of the user U5 with a service name such as "store opening support service".
  • the user U5 is, for example, a store owner who is considering opening a second store, but this is only an example, and may be a user who performs consulting work related to store opening.
  • the input field AR1 for inputting the "store opening desired area" as the store opening condition and the "store genre” (an example of the store category) are input as the store opening condition.
  • the condition input screen C1 includes a transmission button BT for transmitting the store opening condition to the information processing device 100.
  • the store opening conditions may not be limited to the example shown in FIG. 45, specifically, the desired store area, the store category, the customer unit price, and the intended use for the store.
  • the customer base of the store may be further added as a store opening condition.
  • the store category can be rephrased as the cooking category (cooking genre).
  • the user terminal 20 transmits the condition information indicating the store opening condition input on the condition input screen C1 to the information processing device 100 (step S4501). Then, for example, the receiving unit 135-2 receives the condition information from the user terminal T20 (step S4502).
  • the estimation unit 132-2 determines the area to be processed based on the store opening desired area "AR1" (step S4503). For example, the estimation unit 132-2 determines the store opening desired area "AR1" and the adjacent area adjacent to the store opening desired area "AR1" as the processing target area based on the store opening desired area "AR1". In the example of FIG. 45, it is assumed that the estimation unit 132-2 determines the areas AR1, area AR2 (an example of an adjacent area), and area AR3 (an example of an adjacent area) as the areas to be processed. ..
  • the acquisition unit 131-2 acquires the image information corresponding to the store included in the area to be processed and the store information (step S4504).
  • the acquisition unit 131-2 acquires the image information corresponding to the store included in the area to be processed among the image information stored in the image database 121-2.
  • the store information is store information registered in advance for the store from which the image information was acquired (the store included in the area to be processed). Such store information is stored in, for example, the store database 123-2.
  • FIG. 47 is a diagram showing an example of the store database 123-2 according to the sixth embodiment.
  • the store database 123-2 has items such as "area”, “store ID”, “genre”, “customer unit price”, and "usage”.
  • Area indicates an area that may be provided (presented) as a candidate site for opening a store.
  • the "area” is also an area where the store identified by the “store ID” is located.
  • the "store ID” indicates identification information that identifies the store.
  • a photographing device 10 is installed in the store identified by the "store ID", and the photographing device transmits image information obtained by capturing the situation in the store in real time to the information processing device 100 at any time. ..
  • “Genre” indicates the genre of the store identified by the “store ID” (which can also be said to be the genre of food provided by the store identified by the “store ID”).
  • the “customer unit price” indicates the customer unit price of the store identified by the “store ID”.
  • the “usage” is information about the estimated usage for the store identified by the "store ID”. The information regarding such usage is used when assisting the user in finding a store, and the estimation process is described in detail in the fourth to sixth embodiments.
  • the store identified by the store ID "SH11” and the store located in the area "AR1" has a customer unit price of "900 yen”.
  • An example is shown in which the store mainly provides Italian food and is presumed to be a store for dating based on image information.
  • the store database 123-2 may also store the "customer base" of the store for each store. Further, the customer base is estimated from, for example, image information. Further, it is assumed that the information stored for each item in the store database 123-2 is the store information according to the present embodiment.
  • step S4504 in step S4504, is the acquisition unit 131-2 is the image information of each store included in the area AR1, the area AR2, and the area AR3 (hereinafter, abbreviated as “area AR1 to AR3”). Is acquired from the store database 123-2, and the store information of each store included in the areas AR1 to AR3 is acquired from the store database 123-2.
  • the estimation unit 132-2 sets the store opening condition among the stores included in the area based on the image information of each store included in the area and the store information for each area to be processed. (Step S4505). Taking the store SH11 included in the area AR1 which is the processing target area as an example, the estimation unit 132-2 sets the store opening conditions by the user U5 based on the image information and the store information acquired for the store SH11. Determine if it meets or not. Then, when the estimation unit 132-2 determines that the store SH11 satisfies the store opening condition by the user U5, the estimation unit 132-2 identifies the store SH11 as a store that satisfies the store opening condition. Further, in the example of FIG. 47, the estimation unit 132-2 performs the same processing on each of the stores SH12, SH13, SH21, SH22, SH23, SH31, SH32, and SH33.
  • step S4505 the estimation unit 132-2 finds an area in which there is no store that satisfies the store opening condition among the areas that have been the processing target areas, the estimation unit 132-2 selects the area from the processing target area. Exclude and perform the following processing. In the example of FIG. 47, since there are stores satisfying the store opening conditions in each of the areas AR1 to AR3, the estimation unit 132-2 does not exclude any area from the processing target area.
  • the estimation unit 132-2 calculates the flow score in the area for each processing target area based on the image information corresponding to the store satisfying the store opening condition in the area or the store information (step). S4506).
  • the person flow score is a quantification of the degree of flow of people in the target area, and the more people there are in this area (the more crowded the stores in this area), the more people there are. Calculated at a higher value.
  • the estimation unit 132-2 analyzes the image information acquired for the store SH11 to calculate a congestion degree score indicating the degree of congestion in the store SH11.
  • the estimation unit 132-2 analyzes the image information acquired for the store SH12 to calculate a congestion degree score indicating the degree of congestion in the store SH12. Then, the estimation unit 132-2 calculates the crowd score in the area AR1 based on the congestion score of the store SH11 and the congestion score of the store SH12.
  • the estimation unit 132-2 may calculate the traffic score in the area AR1 by adding the congestion scores, or may calculate the traffic score in the area AR1 by multiplying each congestion score. Good. For example, the estimation unit 132-2 may determine the average value of each congestion score as the human flow score.
  • the estimation unit 132-2 may further weight the calculated personnel flow score based on the store information of the store SH11 and the store SH12. For example, the estimation unit 132-2 may perform weighting so that the lower the average customer unit price, the higher the flow score. Further, the estimation unit 132-2 may determine the store rank (for example, the higher the rank as the store rank is, the higher the rank is) from the image information, and weight the store rank so as to increase the flow score as the store rank is higher. Further, the estimation unit 132-2 performs the same processing on the areas AR2 and AR3.
  • the estimation unit 132-2 calculates the customer attraction score in the area based on the flow score in the area for each area to be processed (step S4507).
  • the customer attraction score is a numerical value of the degree of customer attraction when opening a store in the target area, and is calculated with a higher value as the person flow score is higher. This is based on the viewpoint that the more people are estimated to be in the area, the higher the number of customers can be expected.
  • the estimation unit 132-2 may determine the customer flow score itself calculated in step S4506 as the customer attraction score. For example, the estimation unit 132-2 calculates the customer flow score by weighting the customer flow score according to the number of competing stores in the same area. You may. For example, the estimation unit 132-2 lowers the flow score as the number of competing stores in the area increases, from the viewpoint that the more competing stores in the area, the more intense the competition and the less likely to attract customers. Weighting is performed as follows.
  • the estimation unit 132-2 estimates the area to be processed as a candidate site for opening a store based on the customer attraction score of each area to be processed (step S4508). For example, the estimation unit 132-2 estimates an area in which a customer attraction score of a predetermined value (for example, 5 pt) or more is calculated as an area to be a candidate for opening a store among the areas to be processed. In the example of FIG. 45, it is assumed that the estimation unit 132-2 estimates that the area AR1 is not a candidate site for opening a store because the customer attraction score is "out of 3pt / 10pt perfect score". On the other hand, in the example of FIG.
  • the estimation unit 132-2 has a customer attraction score of "out of 8 pt / 10 pt" in the area AR2 and a customer attraction score of "out of 7 pt / 10 pt" in the area AR3. It is assumed that the area is.
  • the provision unit 133-2 provides the user U5 with the area information indicating the area that is the candidate site for opening a store and the customer attraction score calculated for the area (step S4509). Specifically, the providing unit 133-2 transmits the area information indicating the area that is the candidate site for opening a store and the customer attraction score calculated for the area to the user terminal T20 of the user U5. Further, according to the above example, it is estimated that the area AR1 that the user U5 originally wanted to open a store is not a candidate site for opening a store, but the provision department 133-2 wants to open a store specified in the store opening conditions. We will present any estimation results for the area. Therefore, the providing unit 133-2 provides the user U5 with the customer attraction score calculated for the desired store opening area. For example, the providing unit 133-2 generates an estimation result screen C2 in which these information are displayed in a list, and distributes the generated estimation result screen C2 to the user terminal T20.
  • FIG. 46 is a diagram showing an example of the estimation result screen C2 according to the seventh embodiment.
  • the providing unit 133-2 generates an estimation result screen C2 in which the customer attraction score in the area and the evaluation comment based on the customer attraction score are displayed for each area. More specifically, the provision unit 133-2 displays the estimation results (customer attraction score and evaluation comment) in the area AR1 which is the desired area for opening a store, and estimates in the areas AR2 and AR3 estimated as candidate sites for opening a store.
  • An estimation result screen C2 is generated in which the results (customer attraction score and evaluation comment) are displayed in a recommended manner.
  • the information processing device 100-2 according to the seventh embodiment can provide the user with a judgment material for judging whether or not opening a store in the desired area for opening a store is appropriate from the viewpoint of attracting customers.
  • the information processing device 100-2 according to the seventh embodiment also includes information such as, for example, even if it is estimated that it is difficult to open a store in the desired area for opening a store, how about opening a store in the neighboring area. It is possible to realize a service that can effectively support the opening of a store.
  • the estimation unit 132-2 may estimate whether the area is a fierce battlefield or a little-known spot based on the number of stores in the area and the person flow score for each area. 2 may also present the estimation result of whether it is a fierce battlefield or a little-known spot. For example, the estimation unit 132-2 estimates that the area where the person flow score is equal to or higher than the predetermined value and the number of stores is equal to or higher than the predetermined value is a fierce battlefield but can be expected to attract customers. In addition, the estimation unit 132-2 estimates that an area where the number of stores is less than the predetermined value but the number of stores is equal to or higher than the predetermined value is a little-known spot (a good location because there are not so many stores but there are many people). To do.
  • the estimation unit 132-2 shows an example of estimating the information used for opening a store based on the image information and the store information, but the estimation unit 132-2 shows an image.
  • the information used for opening a store may be estimated from the information alone.
  • FIG. 48 is a hardware configuration diagram showing an example of a computer that realizes the functions of the information processing device 100-2.
  • the computer 1000 has a CPU 1100, a RAM 1200, a ROM 1300, an HDD 1400, a communication interface (I / F) 1500, an input / output interface (I / F) 1600, and a media interface (I / F) 1700.
  • the CPU 1100 operates based on the program stored in the ROM 1300 or the HDD 1400, and controls each part.
  • the ROM 1300 stores a boot program executed by the CPU 1100 when the computer 1000 is started, a program depending on the hardware of the computer 1000, and the like.
  • the HDD 1400 stores a program executed by the CPU 1100, data used by such a program, and the like.
  • the communication interface 1500 receives data from another device via a predetermined communication network and sends it to the CPU 1100, and transmits the data generated by the CPU 1100 to the other device via the predetermined communication network.
  • the CPU 1100 controls an output device such as a display or a printer and an input device such as a keyboard or a mouse via the input / output interface 1600.
  • the CPU 1100 acquires data from the input device via the input / output interface 1600. Further, the CPU 1100 outputs the generated data to the output device via the input / output interface 1600.
  • the media interface 1700 reads the program or data stored in the recording medium 1800 and provides the program or data to the CPU 1100 via the RAM 1200.
  • the CPU 1100 loads the program from the recording medium 1800 onto the RAM 1200 via the media interface 1700, and executes the loaded program.
  • the recording medium 1800 is, for example, an optical recording medium such as a DVD (Digital Versatile Disc) or PD (Phase change rewritable Disk), a magneto-optical recording medium such as an MO (Magneto-Optical disk), a tape medium, a magnetic recording medium, or a semiconductor memory. And so on.
  • the CPU 1100 of the computer 1000 realizes the function of the control unit 130-2 by executing the program loaded on the RAM 1200.
  • the CPU 1100 of the computer 1000 reads and executes these programs from the recording medium 1800, but as another example, these programs may be acquired from another device via a predetermined communication network.
  • each component of each device shown in the figure is a functional concept, and does not necessarily have to be physically configured as shown in the figure. That is, the specific form of distribution / integration of each device is not limited to the one shown in the figure, and all or part of the device is functionally or physically distributed / physically in arbitrary units according to various loads and usage conditions. Can be integrated and configured.
  • section, module, unit can be read as “means” or “circuit”.
  • acquisition unit can be read as an acquisition means or an acquisition circuit.

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Strategic Management (AREA)
  • Development Economics (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Economics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Human Resources & Organizations (AREA)
  • Tourism & Hospitality (AREA)
  • Game Theory and Decision Science (AREA)
  • Quality & Reliability (AREA)
  • Operations Research (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Educational Administration (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本願に係る情報処理装置(100)は、利用条件取得部(131)と、画像取得部(132)と、予約情報取得部(133)と、選択部(134)とを備える。利用条件取得部(131)は、店舗の利用条件を取得する。画像取得部(132)は、店舗の内部が撮影されて得られる画像を取得する。予約情報取得部(133)は、店舗の予約情報を取得する。選択部(134)は、取得された店舗の画像および当該店舗の予約情報に基づき、利用条件に示される利用日時において利用可能と推測される店舗を選択する。

Description

情報処理装置、情報処理方法、情報処理プログラム、情報処理システム、端末装置、端末装置制御方法、端末装置制御プログラムおよび端末プログラム
 本発明は、情報処理装置、情報処理方法、情報処理プログラム、情報処理システム、端末装置、端末装置制御方法、端末装置制御プログラムおよび端末プログラムに関する。
 従来、店舗の利用者に対し、店舗に空き席がある否か、また空き席がない場合、待ち人数や待ち時間等の情報(混雑状況の情報)を提供したり、画像により、リアルタイムな店舗の雰囲気を伝えたりする技術が提案されている(特許文献1参照)。
特開2004-220150号公報
 しかしながら、上述した技術では、例えば、店舗の利用者が、指定された時刻(例えば、現在から10分後等)に利用可能な店舗を探す場合、複数の店舗の混雑状況の情報と画像とを見ながら探さなくてはならないため、店舗を探すのに手間がかかる。本願は、上記に鑑みてなされたものであって、店舗を探す際の手間を軽減することを目的とする。
 本願に係る情報処理装置は、画像取得部と、予約情報取得部と、選択部とを備える。画像取得部は、前記店舗の内部が撮影されて得られる画像を取得する。予約情報取得部は、店舗の予約情報を取得する。選択部は、取得された前記店舗の画像および当該店舗の予約情報に基づき、利用可能と推測される店舗を選択する。
 実施形態の一態様によれば、店舗を探す際の手間を軽減することができるという効果を奏する。
図1は、第1の実施形態に係る情報処理の一例を示す図である。 図2は、第1の実施形態に係る情報処理装置が各店舗内の状況を撮影した画像の解析を行い、リアリタイムで各店舗の空席状況を判断する処理の一例を示す図である。 図3は、第1の実施形態に係る情報処理システムの構成例を示す図である。 図4は、第1の実施形態に係る店舗予約データベースの一例を示す図である。 図5Aは、第1の実施形態に係る撮影装置の構成例を示す図である。 図5Bは、第1の実施形態に係る情報処理装置の構成例を示す図である。 図6は、第1の実施形態に係る利用状況データベースの一例を示す図である。 図7は、第1の実施形態に係る店舗データベースの一例を示す図である。 図8は、第1の実施形態に係るユーザ端末の構成例を示す図である。 図9は、第1の実施形態に係るユーザ端末における利用条件受付画面の一例を示す図である。 図10は、第1の実施形態に係るユーザ端末における店舗の情報の表示画面の一例を示す図である。 図11は、第1の実施形態に係る情報処理装置の情報処理の手順の一例を示すフローチャートである。 図12は、第1の実施形態に係るユーザ端末の情報処理の手順の一例を示すフローチャートである。 図13は、第2の実施形態に係る情報処理システムの構成例を示す図である。 図14は、第2の実施形態に係る画像データベースの一例を示す図である。 図15は、第2の実施形態に係る情報処理装置の情報処理の手順の一例を示すフローチャートである。 図16は、各実施形態に係るユーザ端末の表示画面の一例を示す図である。 図17は、情報処理装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。 図18は、第3の実施形態に係る集客サービスの一例を示す図である。 図19は、第3の実施形態に係る情報処理の一例を示す図である。 図20は、第3の実施形態に係る変形例の一例(1)を示す図である。 図21は、第3の実施形態に係る変形例の一例(2)を示す図である。 図22は、第3の実施形態に係る情報処理システムの構成例を示す図である。 図23は、第3の実施形態に係る端末装置の構成例を示す図である。 図24は、第3の実施形態に係る情報処理装置の構成例を示す図である。 図25は、第3の実施形態に係る情報処理システムによる特典付与処理手順を示すシーケンス図である。 図26は、第3の実施形態に係る情報処理システムによる請求処理手順を示すシーケンス図である。 図27は、情報処理装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。 図28は、第4の実施形態に係る情報処理の一例を示す図である。 図29は、第4の実施形態に係る情報処理システムの構成例を示す図である。 図30は、第4の実施形態に係る情報処理装置の構成例を示す図である。 図31は、第4の実施形態に係る画像データベースの一例を示す図である。 図32は、第4の実施形態に係る利用用途データベースの一例を示す図である。 図33は、各店舗内の状況を示す複数のスコアの提供の一例を示す図である。 図34は、第4の実施形態に係る情報処理の手順の一例を示すフローチャートである。 図35は、第5の実施形態に係る情報処理の一例を示す図である。 図36は、ユーザ端末における検索条件受付画面の一例を示す図である。 図37は、ユーザ端末における検索結果表示画面の一例を示す図である。 図38は、第5の実施形態に係るユーザ端末の構成例を示す図である。 図39は、第5の実施形態に係る情報処理装置の構成例を示す図である。 図40は、第5の実施形態に係る店舗データベースの一例を示す図である。 図41は、第5の実施形態に係る情報処理の手順の一例を示すフローチャートである。 図42は、第6の実施形態に係る情報処理の一例を示す図である。 図43は、第6の実施形態に係る撮影装置の構成例を示す図である。 図44は、第6の実施形態に係る情報処理装置の構成例を示す図である。 図45は、第7の実施形態に係る情報処理の一例を示す図である。 図46は、第7の実施形態に係る推定結果画面の一例を示す図である。 図47は、第7の実施形態に係る店舗データベースの一例を示す図である。 図48は、情報処理装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。
 以下に、本願に係る情報処理装置、情報処理方法、情報処理プログラム、情報処理システム、端末装置、端末装置制御方法、端末装置制御プログラムおよび端末プログラムを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る情報処理装置、情報処理方法、情報処理プログラム、情報処理システム、端末装置、端末装置制御方法、端末装置制御プログラムおよび端末プログラムが限定されるものではない。また、以下に示す実施形態において同一の部位には同一の符号を付し、重複する説明は省略する。
(第1の実施形態)
[情報処理の一例]
 図1を用いて、第1の実施形態に係る情報処理の一例について説明する。図1は、第1の実施形態に係る情報処理の一例を示す図である。図1では、情報処理装置が、撮影装置により撮影された画像から判断される店舗の空席状況と、店舗予約データベースとに基づいて、店舗の利用者により入力された利用条件に合致する店舗を選択する処理について説明する。なお、店舗とは、例えばカフェ、居酒屋およびレストラン等の飲食店である。なお、第1の実施形態において各店舗の画像を撮影する撮影装置は、例えば、AI(Artificial Intelligence)カメラであり、撮影した画像の解析を行う。
 なお、飲食店における予約サービス等で開放している飲食店の空席数と、実際の空席数との間には差異があることがある。これは予約サービス上で全ての空席数を開放してしまうと、予約専用の店舗になり、一般客が入店できないからである。よって、リアルタイムでの店舗の空席情報を確認するためには、店舗予約データベースの情報に加え、カメラで撮影された実際の店舗の画像から判断される店舗の空席情報も必要である。
 情報処理装置は、店舗の利用者の端末装置(ユーザ端末)から店舗の利用条件の入力を受け付ける(ステップS1)。この店舗の利用条件は、例えば、利用を希望する店舗の場所(店舗の所在エリア)、利用時間、人数、予算、雰囲気等である。
 各店舗に設置された撮影装置は、店舗内の状況を撮影した画像の解析により、店舗の利用人数を判断する。そして、情報処理装置は、各撮影装置から取得した各店舗の利用人数に基づき、リアルタイムで各店舗の空席状況を把握(判断)する(ステップS2)。
 次に、情報処理装置は、例えば、グルメサイト等が提供する店舗予約データベースの情報を参照して、各店舗の予約の有無を確認する(ステップS3)。これにより、例えば、情報処理装置は、各店舗の利用人数に基づき空席があると判断した店舗について、希望する利用時間に、希望する人数分の席が空いているか否かを確認することができる。
 そして、情報処理装置は、S1で入力された利用条件に合致し、かつ、希望する利用時間に希望する利用人数分の席が空いていることが確認できた店舗を選択し、利用者のユーザ端末等に表示する(ステップS4)。その後、利用者は、例えば、S4で表示された店舗の中から希望する店舗を選択し、選択した店舗への予約処理等を行った後、入店する。
 このようにすることで、利用者は、自身の希望する利用時間、利用人数、好みに合致する店舗の情報を得ることができる。その結果、例えば、宴会等の一次会の後、利用者が二次会の会場となる店舗を探す手間を軽減することができる。
 ここで、図1のS2で述べた、情報処理装置100がリアルタイムで各店舗の空席状況を判断する処理について、図2を用いて説明する。
 例えば、店舗E1~E3に3つの撮影装置10-1~10-3がそれぞれ設置された例を挙げて説明を行う。また、以下では、特に区別しない場合は、3つの店舗E1~E3をまとめて店舗Eと呼ぶ。また同様に、3つの撮影装置10-1~10-3をまとめて撮影装置10と呼ぶ。撮影装置10は、例えば、店舗内に設置されたカメラや、店舗の店員が保持するカメラ等である。
 図2に示すように、3つの店舗Eそれぞれに設置された3つの撮影装置10は、対応する各店舗E内の状況を撮影する(ステップS21)。図2の例では、店舗E1に設置された撮影装置10-1は、店舗E1内の状況を撮影する。また、店舗E2に設置された撮影装置10-2は、店舗E2内の状況を撮影する。また、店舗E3に設置された撮影装置10-3は、店舗E3内の状況を撮影する。
 続いて、撮影装置10はそれぞれ、店舗E内の状況を撮影した画像を解析し(ステップS22)、店舗E内の利用人数を判断する。そして、情報処理装置100は、店舗Eの利用人数を取得する(ステップS23)。具体的には、情報処理装置100は、3つの店舗E1~E3それぞれについて、3つの撮影装置10-1~10-3により対応する各店舗Eの利用人数を取得する。続いて、情報処理装置100は、取得された各店舗Eの利用人数に基づいて、各店舗Eの空席状況を判断する(ステップS24)。例えば、情報処理装置100は、取得された店舗Eの利用人数と店舗データベースに記載の当該店舗Eの座席数とに基づき、店舗E内に用意された座席のうち、何割の座席に人が座っているか等を判断する。
[情報処理システムの構成]
 次に、図3を用いて、第1の実施形態に係る情報処理システムSの構成について説明する。図3は、第1の実施形態に係る情報処理システムSの構成例を示す図である。図3に示すように、情報処理システムSは、撮影装置10と、ユーザ端末(端末装置)20と、店舗予約サーバ30と、情報処理装置100とを有する。撮影装置10、ユーザ端末20、店舗予約サーバ30および情報処理装置100は、ネットワークNを介して有線または無線により通信可能に接続される。
 撮影装置10は、例えば、店舗内に設置されたカメラや、店舗の店員が保持するカメラ等である。撮影装置10が撮影する画像は、静止画であってもよいし、動画であってもよい。この撮影装置10は、店舗内の状況を撮影した画像を解析し、当該店舗内の利用人数を判断する。
 ユーザ端末20は、アプリケーションやウェブページを介して店舗の情報を閲覧するユーザによって利用される情報処理装置である。ユーザ端末20は、例えば、スマートフォンや、携帯電話機や、タブレット端末や、PDA(Personal Digital Assistant)や、デスクトップ型PC(Personal Computer)や、ノート型PC等である。
 店舗予約サーバ30は、店舗予約データベース31を有する。図4に、第1の実施形態に係る店舗予約データベース31の一例を示す。店舗予約データベース31は、各店舗の予約情報を記憶する。この予約情報は、例えば、図4に示すように、「店舗ID」、「予約ID」、「予約人数」および「予約時間」といった項目を有する。
 例えば、図4では、店舗ID「E1」の予約ID「1」の予約人数は「4(人)」であり、予約時間は「2019/10/8 19:00~21:00」であることを示す。
 図3の説明に戻る。情報処理装置100は、例えば、サーバ装置等により実現される。情報処理装置100は、撮影装置10から取得した店舗の利用人数と、店舗予約データベースとに基づいて、店舗の利用者により入力された利用条件に合致する店舗を選択する。
[撮影装置の構成]
 次に、図5Aを用いて、第1の実施形態に係る撮影装置10の構成について説明する。図5Aは、第1の実施形態に係る撮影装置10の構成例を示す図である。図5Aに示すように、撮影装置10は、通信部110と、記憶部12と、制御部13とを有する。
 通信部11は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部11は、ネットワークと有線又は無線で接続され、情報処理装置100との間で情報の送受信を行う。
 記憶部12は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。記憶部12は、制御部13が各種処理を行う際に参照する情報や、処理結果等を記憶する。
 制御部13は、画像取得部14と、画像解析部15と、解析結果送信部16とを備える。
 画像取得部14は、画像を取得する。例えば、画像取得部14は、店舗内の状況を撮影した画像を取得する。
 画像解析部15は、画像取得部14により取得された画像を解析する。例えば、画像解析部15は、店舗内の状況を撮影した画像を解析することにより、当該店舗内の利用人数を判断する。この画像解析部15は、公知の画像解析技術が人物検出技術を用いて、画像や動画像から人物像を特定し、特定した人物像の数に基づいて、人数を計数してもよい。
 解析結果送信部16は、情報処理装置100へ、画像解析部15による解析結果を送信する。例えば、解析結果送信部16は、情報処理装置100へ、画像解析部15による解析結果である店舗内の利用人数に、店舗IDと、タイムスタンプ(撮影日時)とを付した情報(当該店舗の利用人数に関する情報)を送信する。なお、解析結果送信部16は、上記の店舗IDに替えて、自身の撮影装置10の識別情報であるカメラIDを用いてもよい。
 上記のように撮影装置10側で店舗内の画像の解析を行い、その解析結果を情報処理装置100へ送信することで、撮影装置10が情報処理装置100へ情報送信を行う際のトラフィック量を低減することができる。また、撮影装置10が情報処理装置100へ送信する情報は利用人数のみを示し、人物像等個人を特定するための情報が含まれないので、プライバシーを保つことができる。
[情報処理装置の構成]
 次に、図5Bを用いて、第1の実施形態に係る情報処理装置100の構成について説明する。図5Bは、第1の実施形態に係る情報処理装置100の構成例を示す図である。図5Bに示すように、情報処理装置100は、通信部110と、記憶部120と、制御部130とを有する。
 通信部110は、例えば、NIC等によって実現される。そして、通信部110は、ネットワークと有線又は無線で接続され、撮影装置10、ユーザ端末20、店舗予約サーバ30との間で情報の送受信を行う。
 記憶部120は、例えば、RAM、フラッシュメモリ等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。記憶部120は、利用状況データベース121と、店舗データベース122とを有する。
 利用状況データベース121は、撮影装置10から送信された店舗の利用人数に関する情報を記憶する。図6は、第1の実施形態に係る利用状況データベース121の一例を示す図である。図6に示した例では、利用状況データベース121は、「店舗ID」、「利用人数」および「撮影日時」といった項目を有する。
 例えば、図6では、店舗IDにより識別される店舗E1における「2019/9/17:00 10:00」の利用人数は「12人」であることを示す。
 店舗データベース122は、各店舗の店舗情報を記憶する。図7に、実施形態に係る店舗データベース122の一例を示す。店舗情報は、図7に示すように、「店舗ID」、「料理ジャンル」、「予算」、「雰囲気」、「所在地」、「座席数」といった項目を有する。
 例えば、図7では、店舗ID「E1」の店舗の料理ジャンルは「和食」であり、予算は「〇〇〇~×××円」であり、雰囲気は「デート向き」であり、所在地は「新橋〇‐〇‐〇」であり、座席数は「○○」であることを示す。
 図5Bの説明に戻る。制御部130は、コントローラ(Controller)であり、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、情報処理装置100内部の記憶装置に記憶されている各種プログラム(情報処理プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部130は、コントローラであり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
 制御部130は、利用条件取得部131と、解析結果取得部132と、予約情報取得部133と、選択部134と、提供部135と、予約処理部136とを有する。
 利用条件取得部131は、ユーザ端末20から店舗の利用条件を取得する。なお、この店舗の利用条件は、例えば、利用を希望する店舗の利用日時(利用時間)、場所、料理ジャンル、利用人数、予算、雰囲気等の情報を含む。
 解析結果取得部132は、撮影装置10から店舗E内の画像の解析結果を取得する。具体的には、解析結果取得部132は、複数の店舗Eそれぞれについて、各店舗E内の撮影装置10から送信された各店舗Eの利用人数に関する情報を取得する。そして、解析結果取得部132は、取得した情報を利用状況データベース121に記憶する。
 予約情報取得部133は、店舗予約サーバ30の店舗予約データベース31から、店舗の予約情報を取得する。
 選択部134は、店舗の利用人数および当該店舗の予約情報に基づき、ユーザ端末20から取得した利用条件に示される利用日時に当該利用条件に示される利用人数分の席が利用可能と推測される店舗(店舗の候補)を選択する。
 例えば、選択部134は、利用状況データベース121に記憶される店舗の利用人数(最近の利用人数)と、店舗データベース122に示される当該店舗の座席数とに基づき、当該店舗内の空席状況を判断する。そして、選択部134は、判断した当該店舗内の空席状況と、予約情報取得部133により取得された当該店舗の予約情報とに基づき、上記の利用条件に示される利用日時(例えば、10分後)において、当該利用条件に示される利用人数分の席が利用可能と推測される店舗を選択する。
 例えば、選択部134は、利用条件に示される利用日時が10分後であり、利用人数が4人である場合を考える。この場合、選択部134が、利用状況データベース121に記憶される店舗の利用人数(最近の利用人数)と、店舗データベース122に示される当該店舗の座席数とに基づき、当該店舗に4人分の空席があると判断すると、予約情報取得部133により取得された当該店舗の予約情報を参照して、10分後においても当該店舗に4人分の席が空いているか否かを確認する。そして、選択部134は、10分後においても当該店舗に4人分の席が空いていることが確認できると、当該店舗を利用可能と推測する。
 また、選択部134は、店舗を選択する際、例えば、利用条件に含まれる他の条件(例えば、店舗の場所、料理ジャンル、予算、雰囲気等)も考慮して選択してよい。
 例えば、選択部134は、利用条件に、店舗の場所、料理ジャンル、予算、雰囲気等の条件が含まれていれば、店舗データベース122の店舗情報を参照して、これらの条件を満たす店舗を選択する。これにより、選択部134は、利用条件に示される店舗の場所、料理ジャンル、予算、雰囲気等の条件も考慮して店舗を選択することができる。
 提供部135は、選択部134により選択された店舗の情報をユーザ端末20へ提供する。例えば、提供部135は、選択部134により選択された店舗の情報を、利用条件の送信元のユーザ端末20へ送信する。
 予約処理部136は、店舗の予約処理を行う。例えば、提供部135が、ユーザ端末20に店舗の情報を送信した後、当該ユーザ端末20から当該店舗の予約情報を受信した場合、予約処理部136は当該予約情報に基づき店舗予約サーバ30に対し店舗の予約処理を行う。
[ユーザ端末の構成]
 次に、図8を用いて、第1の実施形態に係るユーザ端末20の構成について説明する。図8は、第1の実施形態に係るユーザ端末20の構成例を示す図である。図8に示すように、ユーザ端末20は、通信部21と、記憶部22と、入力部23と、出力部24と、制御部25とを有する。
 通信部21は、ネットワークNに通信可能に接続された情報処理装置100との間で通信するNICなどのインターフェイスである。
 記憶部22は、例えば、RAM、フラッシュメモリ等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。
 入力部23は、ユーザから各種操作を受け付ける入力装置である。例えば、入力部23は、キーボードやマウスや操作キー等によって実現される。出力部24は、各種情報を表示するための表示装置である。例えば、出力部24は、液晶ディスプレイ等によって実現される。なお、ユーザ端末20にタッチパネルが採用された場合には、入力部23と出力部24とは一体化される。
 制御部25は、コントローラであり、例えば、CPUやMPU等によって、ユーザ端末20内部の記憶装置に記憶されている各種プログラム(端末装置制御プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部25は、コントローラであり、例えば、ASICやFPGA等の集積回路により実現される。
 制御部25は、受付部251と、送信部252と、受信部253と、表示部254とを有する。
 受付部251は、店舗Eの利用条件の入力を受け付ける。受付部251は、例えば、以下に示す利用条件受付画面上から利用条件の入力を受け付ける。
 図9は、第1の実施形態に係るユーザ端末20における利用条件受付画面の一例を示す図である。所定のアプリケーションが起動されると、受付部251は、例えば、図9に示すように、「利用条件を入力して下さい」といった情報と、「場所」のプルダウン表示と、「時間」のプルダウン表示と、「料理ジャンル」のプルダウン表示と、「人数」のプルダウン表示と、「予算」のプルダウン表示と、確定ボタンとを出力部24に表示する。そして、受付部251は、上記の利用条件受付画面上から利用条件の入力を受け付け、確定ボタンの入力を受け付けると、入力された利用条件を送信部252に出力する。
 送信部252は、情報処理装置100に対して、上記の受付部251で受け付けた利用条件を送信する。受信部253は、情報処理装置100により選択された店舗の情報(利用条件に合致する店舗の情報)を受信する。
 表示部254は、受信部253が受信した店舗の情報を出力部24に表示する。図10は、実施形態に係るユーザ端末20における店舗の情報の表示画面の一例を示す図である。例えば、表示部254は、出力部24に、図10に示すように「おすすめの店舗」として、情報処理装置100により選択された店舗の一覧を表示する。
 図8の説明に戻る。予約情報送信部255は、店舗の予約情報を情報処理装置100へ送信する。例えば、表示部254が、情報処理装置100により選択された店舗の情報を出力部24に表示した後、入力部23経由でユーザから予約対象の店舗の選択入力を受け付けると、予約情報送信部255は、当該店舗の予約情報を情報処理装置100へ送信する。
 なお、撮影装置10は、店舗の画像解析の結果として、情報処理装置100へ当該店舗の利用人数に関する情報を送信することとしたが、これに限定されない。例えば、撮影装置10の画像解析部15は、店舗の画像を解析し、当該店舗の空席状況(例えば、店内の座席数に対し何人の利用者が利用しているか)を判断する。そして、解析結果送信部16は、当該店舗の空席状況を当該店舗の画像解析の結果として、当該情報処理装置100へ送信してもよい。この場合、情報処理装置100側で、当該店舗の空席状況を判断する必要はない。
[処理手順]
 次に、図11を用いて、第1の実施形態に係る情報処理装置100の情報処理手順について説明する。図11は、第1の実施形態に係る情報処理装置100の情報処理の手順の一例を示すフローチャートである。
 図11に示すように、情報処理装置100の利用条件取得部131は、ユーザ端末20から、店舗の利用条件を取得する(ステップS11)。また、解析結果取得部132は、撮影装置10それぞれから各店舗の利用人数に関する情報を取得する(ステップS12)。そして、解析結果取得部132は、取得した各店舗の利用人数に関する情報を利用状況データベース121に記憶する。その後、選択部134は、利用状況データベース121に記憶された各店舗の最新の利用人数と、店舗データベース122に示される各店舗の座席数とに基づき、各店舗内の店舗内の空席状況を判断する(ステップS13)。また、予約情報取得部133は、店舗予約データベース31から当該店舗の予約情報を取得する(ステップS14)。そして、選択部134は、S13で判断した店舗内の空席状況と、S14で取得された当該店舗の予約情報と、店舗データベース122の店舗情報とに基づき、S11で取得した利用条件を満たす店舗を選択する(ステップS15)。その後、提供部135は、S15で選択された店舗の情報をユーザ端末20に提供する(ステップS16)。
 なお、図11において説明を省略しているが、S16の後、予約処理部136がユーザ端末20から店舗の予約情報を受信した場合、当該予約情報に基づく店舗の予約処理を行う。
 次に、図12を用いて、第1の実施形態に係るユーザ端末20の情報処理手順について説明する。図12は、第1の実施形態に係るユーザ端末20の情報処理の手順の一例を示すフローチャートである。
 図12に示すように、受付部251は、店舗Eの利用条件を受け付ける(ステップS31)。
 送信部252は、情報処理装置100に対して利用条件を送信する(ステップS32)。情報処理装置100は、利用条件をユーザ端末20から受け付けると、利用条件と、各店舗の画像と、各店舗の予約情報とに基づき、店舗を選択する。そして、情報処理装置100は、選択した店舗の情報をユーザ端末20に送信する。
 受信部253は、情報処理装置100により選択された店舗の情報を受信する(ステップS33)。
 表示部254は、受信部253により受信された店舗の情報を出力部24に表示する(ステップS34)。
 なお、図12において説明を省略しているが、S34の後、予約情報送信部255が、出力部24に表示された店舗の情報から予約対象の店舗の情報の選択入力を受け付けると、当該店舗の予約情報を情報処理装置100へ送信する。
(第2の実施形態)
 なお、情報処理システムSは、画像解析機能を備えない撮影装置を用いてもよい。この場合、各店舗の画像解析は情報処理装置側で行う。例えば、撮影装置は、店舗内の状況を撮影すると、当該画像に、店舗ID(または自身の撮影装置のカメラID)と、タイムスタンプ(撮影日時)とを付加した情報を情報処理装置へ送信する。そして、情報処理装置は、撮影装置それぞれから送信された店舗の画像の解析を行い、その解析結果に基づき各店舗の空席状況を判断する。この場合の情報処理システムSを第2の実施形態として説明する。第1の実施形態と同じ構成は同じ符号を付して説明を省略する。
 図13を用いて第2の実施形態に係る情報処理装置100aを説明する。情報処理装置100aは、解析結果取得部132(図5B参照)に代えて画像取得部132aを備え、また、利用状況データベース121(図5B参照)に代えて、画像データベース121aを備える。さらに、情報処理装置100aは、選択部134(図5B参照)に代えて、選択部134aを備える。
 画像取得部132aは、撮影装置から店舗内の状況を撮影した画像を取得する。具体的には、画像取得部132aは、複数の店舗それぞれについて、各店舗内の撮影装置から店舗の状況を撮影した画像を取得する。そして、画像取得部132aは、取得した画像を画像データベース121aに記憶する。例えば、画像取得部132aは、各撮影装置から、各店舗の画像をリアルタイムに取得し、画像データベース121aに記憶する。
 画像データベース121aは、撮影装置から送信された店舗の画像を記憶する。図14は、第2の実施形態に係る画像データベース121aの一例を示す図である。図14に示した例では、画像データベース121aは、「店舗ID」、「画像」および「撮影日時」といった項目を有する。例えば、図14では、店舗ID「店舗E1」の画像「画像#3」の撮影日時は「2019/9/17:00 10:00」であることを示す。
 選択部134aは、店舗の画像および当該店舗の予約情報に基づき、ユーザ端末20から取得した利用条件に示される利用日時に当該利用条件に示される利用人数分の席が利用可能と推測される店舗(店舗の候補)を選択する。
 例えば、選択部134aは、画像取得部132aにより取得されたリアルタイムの店舗の画像を解析し、当該店舗内の空席状況を判断する。そして、選択部134aは、判断した当該店舗内の空席状況と、予約情報取得部133により取得された当該店舗の予約情報とに基づき、上記の利用条件に示される利用日時(例えば、10分後)において、当該利用条件に示される利用人数分の席が利用可能と推測される店舗を選択する。
 例えば、選択部134aは、利用条件に示される利用日時が10分後であり、利用人数が4人である場合を考える。この場合、選択部134aが、リアルタイムの店舗の画像の解析結果から当該店舗に4人分の空席があると判断すると、予約情報取得部133により取得された当該店舗の予約情報を参照して、10分後においても当該店舗に4人分の席が空いているか否かを確認する。そして、選択部134aは、10分後においても当該店舗に4人分の席が空いていることが確認できると、当該店舗を利用可能と推測する。
[処理手順]
 次に、図15を用いて、第2の実施形態に係る情報処理装置100aの情報処理手順について説明する。図15は、第2の実施形態に係る情報処理装置100aの情報処理の手順の一例を示すフローチャートである。
 図15のS41の処理は、図11のS11と同じ処理なので、説明を省略し、図15のS42から説明する。情報処理装置100aの画像取得部132aは、撮影装置それぞれから各店舗の画像を取得する(図15のステップS42)。そして、画像取得部132aは、取得した各店舗の画像を画像データベース121aに記憶する。その後、選択部134aは、S42で取得した画像を解析し、各店舗内の店舗内の空席状況を判断する(ステップS43)。S44~S46の処理は、図11のS14~S16と同様なので説明を省略する。
 このようにすることでも情報処理システムSは、撮影装置により撮影された各店舗の画像と、店舗予約データベース31とに基づいて、店舗の利用者により入力された利用条件に合致する店舗を選択することができる。
[変形例]
 なお、前記した選択部134,134aが店舗を選択する際、利用条件の送信元のユーザ端末20からの距離が所定値以内の店舗を選択してもよい。
 この場合、例えば、ユーザ端末20は、情報処理装置100,100aへ利用条件を送信する際に、当該ユーザ端末20の位置情報(例えば、GPS(Global Positioning System)情報)もあわせて送信する。そして、情報処理装置100の選択部134が店舗を選択する際には、当該ユーザ端末20の位置情報を用い、上記の利用条件を満たし、かつ、当該ユーザ端末20からの距離が所定値以内の店舗を選択する。そして、提供部135は、選択した店舗の情報をユーザ端末20へ送信する。
 このようにすることで、ユーザは、上記の利用条件を満たし、かつ、自身のいる場所から比較的近い店舗の情報を得ることができる。
 また、ユーザ端末20は、情報処理装置100から送信された店舗の位置を地図上にマッピングした画面を表示させてもよい。例えば、ユーザ端末20の表示部254は、図13に示すように、地図上に当該ユーザ端末20の現在地と情報処理装置100から送信された店舗の位置とをマッピングした画面を表示する。このようにすることで、ユーザは、上記の利用条件を満たし、かつ、自身のいる場所から比較的近い店舗の位置を地図上で確認することができる。なお、ユーザ端末20は、地図上の店舗の選択入力を受け付けた場合、当該店舗の情報を表示したり、当該店舗の予約処理等を行ったりしてもよい。
 また、情報処理装置100が店舗を選択する際、上記の利用条件を用いずに選択してもよい。
 例えば、情報処理装置100は、ユーザ端末20の位置情報と、リアルタイムの店舗の画像および当該店舗の予約情報とに基づき、当該ユーザ端末20からの距離が所定値以内の店舗の中から、利用可能と推測される店舗を選択する。そして、情報処理装置100は、選択した店舗の情報を当該ユーザ端末20へ送信する。その後、例えば、ユーザ端末20は、情報処理装置100から受信した店舗の情報を画面上(例えば、上記の地図上)に表示する。また、情報処理装置100が選択した店舗の情報をユーザ端末20に送信した後、当該ユーザ端末20から利用条件を受信した場合、選択した店舗の中から上記の利用条件を満たす店舗を選択し、当該ユーザ端末20に送信してもよい。
 このようにすることで、ユーザは、自身のいる場所から比較的近く利用可能な店舗を確認した上で、店舗を選択することができる。
 また、選択部134,134aが店舗を選択する際、ユーザ端末20により指定された位置情報を用いて店舗を選択してもよい。この位置情報は、例えば、ユーザ端末20が情報処理装置100に利用条件を送信する際に、当該利用条件に含めてもよいし、利用条件とは別に送信してもよい。また、位置情報は、場所の名称(例えば、新宿、新橋等)で指定してもよいし、地図上から指定してもよい。
 また、例えば、選択部134,134aが店舗の選択を行う際、利用条件にマッチする度合いの高さに応じて店舗の順位付けを行い、その順位も含めた店舗の情報を提供部135に出力してもよい。この場合、選択部134,134aは、例えば、グルメサイト等から指定された所定の店舗の順位を上位にするようにしてもよい。
 なお、前記した各実施形態において、店舗の予約処理は情報処理装置100,100aが行うこととしたが、これに限定されない。例えば、ユーザ端末20が店舗に電話を掛けたり、店舗予約サーバ30にアクセスしたりして予約を行ってもよい。この場合、情報処理装置100,100aにおける予約処理部136は不要であり、ユーザ端末20における予約情報送信部255も不要である。
[効果]
 上述してきたように、本実施形態に係る情報処理装置100は、利用条件取得部131と、解析結果取得部132と、予約情報取得部133と、選択部134とを備える。利用条件取得部131は、店舗の利用日時および利用人数を含む店舗の利用条件を取得する。解析結果取得部132は、店舗内の状況が撮影されて得られる画像を取得する。予約情報取得部133は、店舗の予約日時および予約人数を含む店舗の予約情報を取得する。選択部134は、取得された店舗の画像および当該店舗の予約情報に基づき、利用条件に示される利用日時において利用人数分の席が利用可能と推測される店舗を選択する。
 また、選択部134は、リアルタイムの店舗の画像を解析して当該店舗内の空席状況を判断し、判断された当該店舗内の空席状況と当該店舗の予約情報とに基づき、利用条件に示される利用日時において利用人数分の席が利用可能と推測される店舗を選択する。
 これにより、本実施形態に係る情報処理装置100は、利用条件に示される利用日時において利用人数分の席が利用可能と推測される店舗を選択することができる。これにより、ユーザが店舗を探す際の手間を軽減することができる。
 また、店舗の利用条件は、店舗の所在地、ジャンルおよび利用時の予算の少なくともいずれかをさらに含む。選択部134は、店舗を選択する際、利用条件に示される利用日時において利用人数分の席が利用可能と推測され、かつ、利用条件に示される所在地、ジャンルおよび利用時の予算の少なくともいずれかの条件を満たす店舗を選択する。
 これにより、本実施形態に係る情報処理装置100は、ユーザの希望する店舗の所在地、ジャンル、利用時の予算等も考慮して、店舗を選択することができる。これにより、情報処理装置100は、ユーザの嗜好にあった店舗を選択することができる。
 本実施形態に係る情報処理装置100は、選択部134により選択された店舗の情報を提供する提供部135をさらに備える。
 これにより、本実施形態に係る情報処理装置100は、選択した店舗の情報を提供することができる。
 また、本実施形態に係るユーザ端末20は、受付部251と、送信部252と、受信部253と、表示部254とを備える。受付部251は、店舗の利用日時および利用人数を含む店舗の利用条件の入力を受け付ける。送信部252は、店舗内の状況が撮影されて得られる画像および当該店舗の予約情報に基づき、利用条件に示される利用日時において利用人数分の席が利用可能と推測される店舗を選択する情報処理装置に対し、店舗の利用条件を送信する。受信部253は、情報処理装置100により選択された店舗の情報を受信する。表示部254は受信された店舗の情報を表示する。
 これにより、本実施形態に係るユーザ端末20は、情報処理装置100により選択された店舗の情報を表示することができる。
 また、本実施形態に係るユーザ端末20は、表示された店舗の情報の中から選択された店舗に対する予約情報を送信する予約情報送信部255をさらに備える。
 これにより、本実施形態に係るユーザ端末20は、情報処理装置100により選択された店舗を予約することができる。
[ハードウェア構成]
 また、上述してきた各実施形態に係る情報処理装置、ユーザ端末または撮影装置は、例えば、図13に示すような構成のコンピュータ1000によって実現される。以下、情報処理装置100を例に挙げて説明する。図13は、情報処理装置100の機能を実現するコンピュータの一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、HDD1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
 CPU1100は、ROM1300またはHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。
 HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、所定の通信網を介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータを所定の通信網を介して他の機器へ送信する。
 CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、生成したデータを入出力インターフェイス1600を介して出力装置へ出力する。
 メディアインターフェイス1700は、記録媒体1800に格納されたプログラムまたはデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
 例えば、コンピュータ1000が実施形態に係る情報処理装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部130の機能を実現する。コンピュータ1000のCPU1100は、これらのプログラムを記録媒体1800から読み取って実行するが、他の例として、他の装置から所定の通信網を介してこれらのプログラムを取得してもよい。
[その他]
 また、上記実施形態及び変形例において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
 また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
 また、上述してきた実施形態及び変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。
 以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。
 また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、取得部は、取得手段や取得回路に読み替えることができる。
 ここで、上記の各実施形態では、撮影装置が店舗内の状況を撮影した画像と、店舗の予約情報とに基づき利用可能と推測される店舗を選択し、選択した店舗の情報を利用者に提供するといった集客サービスについて説明した。ここで、係る集客サービスを利用して実際に来店した利用者に対して所定のインセンティブを付与することで、係る集客サービスを利用して今後も来店しようというサイクルを実現するような情報処理がさらに組み合わされてもよい。以下の第3の実施形態では、係る情報処理について説明する。
(第3の実施形態)
[情報処理の概要]
 まず、第3の実施形態に係る情報処理システムによって行われる情報処理の概要について前提を交えて説明する。例えば、店舗に関する各種情報を提示することで利用者による店舗探しを支援する集客サービス(例えば、グルメサイト等)がある。このような集客サービスでは、例えば、利用者がより望む店舗情報を提示したり、さらに予約サービスも兼用する等して、店舗への効果的な集客を目指そうとするが、これだけでは必ずしも効果的に顧客づくり(創客)することができるとは限らない。そこで、第3の実施形態に係る情報処理システムでは、所定の集客サービスを介して実際に来店した利用者を検知し、来店した利用者にはインセンティブを付与することで、今後もこの所定の集客サービスを利用して来店させるというサイクルを実現する。このようにして、第3の実施形態に係る情報処理システムでは、集客から創客までを効果的に行うことのできる集客サービスを実現しようとするものである。第3実施形態に係る情報処理の一例については、図19~図21を用いて説明する。
[情報処理システム]
 図19~図21の説明に先立って、図22を用いて、まず、第3の実施形態に係る情報処理システムについて説明する。図22は、第3の実施形態に係る情報処理システムS1の構成例を示す図である。第3の実施形態に係る情報処理システムS1は、図22に示すように、端末装置T10と、外部装置60と、情報処理装置100-1と、決済装置200-1とを含む。端末装置T10、外部装置60、情報処理装置100-1、決済装置200-1、ネットワークN1を介して有線または無線により通信可能に接続される。
 端末装置T10は、利用者によって利用される情報処理端末である。端末装置T10は、例えば、スマートフォンや、タブレット型端末や、ノート型PC(Personal Computer)や、デスクトップPCや、携帯電話機や、PDA(Personal Digital Assistant)等である。例えば、端末装置T10は、利用者の操作に応じて、所定の集客サービスにより提示された店舗に利用者が来店したことを示す来店情報を情報処理装置100-1に送信する。
 外部装置60は、実施形態に係る情報処理装置100-1との間で行われた請求処理に応じて、請求対象となっている店舗に対して手数料を請求するサーバ装置である。係る手数料については後述する。
 決済装置200-1は、所定の決済サービス(以下、「決済サービスKSV」と表記する場合がある)に対応するサーバ装置である。情報処理装置100-1と、決済装置200-1との間で行われる処理については後に図20を用いて説明する。
 情報処理装置100-1は、上述したような第3の実施形態に係る情報処理を行うサーバ装置である。具体的には、情報処理装置100-1は、端末装置T10により送信された来店情報を受信すると、来店情報に基づいて、この来店情報に対応する店舗の来客数を算出し、算出した来客数に応じた手数料をこの店舗に請求される手数料として算出する。また、情報処理装置100-1は、利用者により来店情報が送信されたことによる特典をこの利用者に付与する。また、情報処理装置100-1は、所定の集客サービスに対する利用者の利用状況に基づき店舗に利用者が来店したか否かを判定し、判定結果を端末装置T10に送信することにより、端末装置T10に対して所定の制御処理を行わせる。
 また、以下の実施形態では、所定の集客サービスの一例として、集客サービスGSVを例示する。集客サービスGSVは、第3の実施形態に係る集客サービスであり、情報処理装置100-1は、この集客サービスGSVに対応するサーバ装置であるものとする。一方で、集客サービスGSVに対応するサーバ装置は、情報処理装置100-1以外のサーバ装置であり、情報処理装置100-1は、このサーバ装置と協働するものであってもよいが、説明を簡単にするために、本実施形態では前者の例を採用するものとする。また、集客サービスを管理・運営する事業主と、情報処理装置100-1を運営・管理する事業主とは、同一であってもよいし、異なっていてもよい。
[端末プログラムについて]
 上記端末装置T10は、実施形態に係る端末プログラムの制御に従って、動作する。そして、実施形態に係る端末プログラムは、集客サービスGSVに対応するアプリケーション(以下、「アプリAP」と表記する場合がある)であるものとする。よって、端末装置T10には、アプリAPが予めインストールされているものとする。また、これにより、端末装置T10は、アプリAPの制御に従って、以下の実施形態に係る情報処理を実行する。
 具体的には、端末装置T10は、利用者の操作に応じて、集客サービスGSVにより提示された店舗に自装置の利用者が来店したことを示す来店情報を情報処理装置100-1に送信する。例えば、端末装置T10は、集客サービスGSVを利用し店舗検索を行った利用者が、検索結果として提示された店舗のいずれかに来店したと判定された場合には、この店舗に利用者が来店したことを示す来店情報を情報処理装置100-1に送信する。また、例えば、端末装置T10は、集客サービスGSVを利用し店舗予約を行った利用者が、予約した店舗に来店したと判定された場合には、この店舗に利用者が来店したことを示す来店情報を情報処理装置100-1に送信する。このようなことから、端末装置T10は、集客サービスGSVを利用した利用者が、集客サービスGSVで取り扱われている店舗に来店したと判定された場合には、この店舗に利用者が来店したことを示す来店情報を情報処理装置100-1に送信するものである。
 より詳細に説明する。情報処理装置100-1は、集客サービスGSVに対する利用者の利用状況に基づき、集客サービスGSVで対象となっている店舗に利用者が来店したか否かを判定する。例えば、情報処理装置100-1は、集客サービスGSVで対象となっている店舗に来店したことを示す意思表示(チェックイン)が集客サービスGSVを利用して行われたか否かを判定し、意思表示が行われたと判定した場合には、この店舗記利用者が来店したと判定する。一例としては、情報処理装置100-1は、集客サービスGSVで対象となっている店舗の位置情報と、利用者の位置情報とに基づいて、係る利用者がこの店舗においてこの店舗に来店したことを示す意思表示を行ったか否かを判定する。情報処理装置100-1は、このような来店判定処理を行うことで、判定結果を端末装置T10に応答する。
 そして、端末装置T10は、店舗に利用者が来店したと判定された場合には、利用者が来店情報を送信できるよう、送信可能な状態に制御する。例えば、端末装置T10は、アプリAPの制御に従って、店舗に設置されるコード情報から来店情報を読み取り可能な状態に制御する。例えば、端末装置T10は、アプリAPの制御に従って、アプリAPに対応するカメラ機能CMをONにすることで、利用者がカメラ機能を用いてコード情報の撮像を行える状況にする。
 また、端末装置T10は、アプリAPの制御に従って、店舗に設置される所定のセンサ(例えば、ビーコン)との相互通信を可能に制御することで、利用者の操作に拘わらず動的に来店情報を送信してもよい。例えば、端末装置T10は、アプリAPの制御に従って、近距離無線通信機能NFCをONにすることで、所定のセンサとの相互通信を行う。そして、端末装置T10は、相互通信により取得した来店情報を情報処理装置100-1に送信する。
[集客サービスについて]
 ここからは、図18を用いて、第3の実施形態に係る集客サービスGSVについて説明する。図18は、第3の実施形態に係る集客サービスGSVの一例を示す図である。集客サービスGSVは、店舗探しを支援するサービスであり、利用者の情報(例えば、利用者の位置情報や利用者が入力した検索条件)に応じた店舗を示す店舗情報を検索結果として利用者に提示する。すなわち、情報処理装置100-1は、利用者の情報(例えば、利用者の位置情報や利用者が入力した検索条件)に基づいて、店舗検索を行い、検索した店舗を示す店舗情報を検索結果として利用者の端末装置T10に表示させる。
 例えば、集客サービスGSVに加盟する店舗には、店舗内を撮影する撮影装置(例えば、カメラ)が設けられている。そして、係るカメラは、店舗内をリアルタイムに撮影し、撮影によって得られた撮影画像を逐一情報処理装置100-1に送信する。これにより、情報処理装置100-1は、例えば、利用者の現在位置周辺に位置する店舗を検索し、検索した店舗毎に、当該店舗の撮影装置から送られてきた撮影画像に基づいて、当該店舗の混雑状況の度合いを算出する。そして、情報処理装置100-1は、利用者周辺の地図情報に対して、検索した店舗毎の混雑状況を示す指標マークを重畳させる形で表示させる。例えば、情報処理装置100-1は、図18に示すように、利用者周辺の地図情報上の位置であって、検索した店舗の所在地に対応する位置に対して、混雑状況の度合いに応じて色分けされた指標マークを表示させる。これにより、利用者は、自身の周辺に存在する店舗のうち、どの店舗が空いていて、どの店舗が混雑しているかを容易に把握することができるため、空いている店舗を容易に探すことができる。また、このようなことから、実施形態に係る集客サービスGSVは、店舗毎の混雑状況を提示することで店舗探しを支援するサービスといえる。
 なお、第3の実施形態に係る集客サービスGSVは、このようなサービスに限定されず、例えば、利用用途に関する検索条件(「二次会向けの店舗」等)に合った店舗を示す店舗情報を提供するものであってもよい。係る場合、情報処理装置100-1は、店舗毎に、当該店舗の撮影画像に基づいて、当該店舗の利用用途に関する情報を推定しておく。このような状態において、情報処理装置100-1は、利用者から利用用途に関する検索条件を受け付けると、受け付けた検索条件に合った利用用途が推定されている店舗を示す店舗情報を提示する。また、例えば、情報処理装置100-1は、検索条件に合った利用用途が推定されている店舗のうち、当該店舗の撮影画像と予約情報とに基づいて、利用条件に示される利用日時において利用可能と推測される店舗を選択し、選択した店舗の店舗情報を利用者に提供してもよい。
 また、第3の実施形態に係る集客サービスGSVは、提示した店舗の中から任意の店舗への予約を受け付ける予約サービスを併用していてもよい。また、上記例によると、第3の実施形態に係る情報処理装置100-1が、集客サービスGSVに対応する情報処理を行うことにより、利用者に対してサービスを提供しているが、係る処理は、情報処理装置100-1以外のサーバ装置によって行われてもよい。
 ここからは、第3の実施形態に係る集客サービスGSVは、店舗毎の混雑状況を提示することで店舗探しを支援するサービスであるものとして、この一例について図18を用いてより詳細に説明する。また、係る例では、利用者の一例として、ユーザU1-1を挙げる。
 まず、図18の例では、ユーザU1-1は、アプリAPを介して、集客サービスGSVに対応する情報処理装置100-1に検索条件(例えば、「現在位置」)を送信している。また、これにより、ユーザU1-1の端末装置T10の表示画面Dには、ユーザU1-1の現在位置周辺の地図情報MP1であって、ユーザU1-1の現在位置周辺に存在する店舗毎の混雑状況を示す指標マークが重畳表示された地図情報MP1が表示されている。換言すると、端末装置T10の表示画面Dには、店舗毎の混雑状況を示す指標マークが、各店舗の店舗情報として一覧表示されている。
 このような状態では、ユーザU1-1は、自身の現在位置との距離感や、混雑状況に基づいて、例えば、行ってみたい店舗を探すことができる。例えば、ユーザU1-1は、近いし空いているといった理由で、店舗SH1に対応する指標マークAISH1を選択したとする。係る場合、情報処理装置100-1は、店舗SH1に対応する指標マークAISH1が選択されたことに応じて、店舗SH1の詳細情報が示される詳細画面C1をユーザU1-1に提示する。
 ここで、ユーザU1-1は、詳細画面C1を見て、店舗SH1への興味が高められたことで、実際に店舗SH1へと来店したとする。ユーザU1-1は、店舗SH1へと来店したことによる特典を情報処理装置100-1から受けたい場合、店舗SH1へ来店したことを示す意思表示を集客サービスGSVを利用して行う必要がある。具体的には、ユーザU1-1は、店舗SH1へと来店したことによる特典を情報処理装置100-1から受けたい場合、集客サービスGSVを利用して、店舗SH1へチェックインする必要がある。より具体的には、ユーザU1-1は、集客サービスGSVを利用して、店舗SH1へチェックインしたことを示すチェックイン情報を情報処理装置100-1に送信する必要がある。
 例えば、ユーザU1-1は、地図情報MP1から指標マークAISH1を選択することで、詳細画面C1へと遷移し、詳細画面C1内に表示されるチェックインボタンBTを押下し、情報処理装置100-1にチェックイン情報を送信することで、店舗SH1に対して仮想的にチェックインすることができる。図18の例では、ユーザU1-1は、チェックインボタンBTを押下することにより、店舗SH1にチェックインしたものとする。
 情報処理装置100-1は、チェックイン情報を受信すると、ユーザU1-1が店舗SH1に来店したか否かを判定する来店判定処理を行う。具体的には、情報処理装置100-1は、ユーザU1-1が店舗SH1に来店した状態で、チェックインボタンBTを押下したか否かを判定する。そして、情報処理装置100-1は、来店判定処理による判定結果をユーザU1-1の端末装置T10に応答する。
 そして、端末装置T10は、情報処理装置100-1により店舗SH1にユーザU1-1が来店したと判定された場合には、ユーザU1-1が自装置を利用して来店情報を送信できるよう、送信可能な状態に制御する。例えば、端末装置T10は、アプリAPの制御に従って、店舗SH1に設置されるコード情報から来店情報を読み取り可能な状態に制御する。例えば、端末装置T10は、アプリAPの制御に従って、アプリAPに対応するカメラ機能CMをONにすることで、ユーザU1-1がカメラ機能CMを用いてコード情報の撮像を行える状況にする。
 また、端末装置T10は、アプリAPの制御に従って、店舗SH1に設置される所定のセンサ(例えば、ビーコン)との相互通信を可能に制御することで、ユーザU1-1の操作に拘わらず動的に来店情報を送信してもよい。例えば、端末装置T10は、アプリAPの制御に従って、近距離無線通信機能NFCをONにすることで、所定のセンサとの相互通信を行う。そして、端末装置T10は、相互通信により取得した来店情報を情報処理装置100-1に送信する。
[実施形態に係る情報処理の一例]
 次に、図19を用いて、第3の実施形態に係る情報処理の一例について説明する。図19は、第3の実施形態に係る情報処理の一例を示す図である。第3の実施形態に係る情報処理は、端末装置T10と、情報処理装置100-1とを含む情報処理システムS1(図22より)によって行われる。また、図19では、図18の例を適宜採用するものとする。具体的には、図19では、図18の例と同様に、ユーザU1-1は、集客サービスGSV(アプリAP)を利用して情報処理装置100-1に対して検索条件(例えば、現在地)を送信することで、混雑状況を示す指標マークが店舗情報として一覧表示された状態で、利用したい店舗を検索したものとする(※1)。また、ユーザU1-1は、検索作業(例えば、気になる位置の指標マークを選択しては、様々な店舗の詳細画面を確認する作業)により、店舗SH1を利用したいと考え、店舗SH1へと来店したとする(※2)。また、ユーザU1-1は、店舗SH1へ来店した際、情報処理装置100-1から特典を受けたいために、再度、詳細画面C1にアクセスし、チェックインボタンBTを押下したとする(※3)。つまり、ユーザU1-1は、チェックインボタンBTを押下することにより、チェックイン情報を情報処理装置100-1に送信させることで情報処理装置100-1に対して来店の意思表示を行ったとする。
 なお、ユーザU1-1は、詳細画面C1に含まれる人数入力欄ARに来店人数を入力した状態で、チェックインボタンBTを押下してもよい。例えば、ユーザU1-1を含むグループ(例えば、5人以上等)で来店された場合、この来店人数に応じた特典を受けることができるが、このためにグループに属する1人1人がチェックインやコード情報の撮像を行わなければならないのは面倒である。このような状況を回避するために、情報処理装置100-1では、グループで来店の場合、そのうち1人(例えば、ユーザU1-1)だけが来店人数を申告しチェックインすれば、入力された人数分のチェックインが行われたと見做される仕組みとなっている。図19の例では、単純な例として、ユーザU1-1は、人数入力欄ARに「1」を入力した状態でチェックインボタンBTを押下することにより、チェックイン情報を情報処理装置100-1に送信させることで情報処理装置100-1に対して来店の意思表示を行ったとする。
 このような意思表示では、端末装置T10は、ユーザU1-1によりチェックインボタンBTが押下されたことを検知すると、例えば、店舗SH1を識別する店舗ID「SH1」と、ユーザU1を識別するユーザID「U1-1」とを情報処理装置100-1に送信する(ステップS1901)。ここで送信されるユーザIDは、集客サービスGSVによって払い出されている、いわば集客サービスGSV専用のユーザIDであるものとする。
 情報処理装置100-1は、チェックイン情報を受信すると(ステップS1902)、ユーザU1-1が店舗SH1に来店したか否かを判定する来店判定処理を実行する(ステップS1903)。例えば、情報処理装置100-1は、集客サービスGSVに対するユーザU1-1の利用状況に基づき、ユーザU1-1が店舗SH1に来店したか否かを判定する。単純な例としては、情報処理装置100-1は、ユーザU1に対応するチェックイン情報を受信することにより、ユーザU1-1により店舗SH1に来店したことを示す意思表示を検知できたか否かで、ユーザU1-1が店舗SH1に来店したか否かを判定してもよい。例えば、情報処理装置100-1は、ユーザU1-1に対応するチェックイン情報を受信することにより、ユーザU1-1により店舗SH1に来店したことを示す意思表示を検知できた場合には、ユーザU1-1が店舗SH1に来店したと判定する。
 また、情報処理装置100-1は、来店判定処理の精度を高めるために、ユーザU1-1の位置情報を併用してもよい。例えば、情報処理装置100-1は、店舗SH1の位置情報と、ユーザU1-1の位置情報とのマッチングにより、ユーザU1-1が店舗SH1に来店している状態で、店舗SH1に来店したことを示す意思表示を行ったか否か判定することで、ユーザU1が店舗SH1に来店したか否かを判定する。例えば、情報処理装置100-1は、店舗SH1の位置情報と、ユーザU1-1の位置情報とが一致する場合には、ユーザU1-1が店舗SH1に来店している状態で、店舗SH1に来店したことを示す意思表示を行ったと判定する。すなわち、情報処理装置100-1は、ユーザU1-1が店舗SH1に来店したと判定する。また、このような来店判定処理が行われるために、端末装置T10は、例えば、ステップS11において、GPS由来の位置情報をさらに含めたチェックイン情報を送信してもよい。
 また、本実施形態では、来店判定処理は、情報処理装置100-1によって行われるものとするが、端末装置T10によって行われてもよい。例えば、端末装置T10は、詳細画面C1に含まれるチェックインボタンBTが押下されたことを検知した場合には、ユーザU1-1が店舗SH1に来店したと判定してもよい。また、端末装置T10は、詳細画面C1に含まれるチェックインボタンBTが押下されたことを検知した場合には、店舗SH1の位置情報と、ユーザU1-1との位置情報とのマッチングにより、ユーザU1-1が店舗SH1に来店したか否かを判定してもよい。
 図2の説明に戻る。情報処理装置100-1は、来店判定処理での判定結果を端末装置T10に応答する(ステップS1904)。そうすると、端末装置T10は、判定結果を受信し(ステップS1905)、判定結果に応じて、店舗SH1にユーザU1-1が来店したことを示す来店情報を送信可能な状態に自装置を制御する(ステップS1906)。図19では、情報処理装置100-1は、ユーザU1-1が店舗SH1に来店したと判定したものとする。そうすると、端末装置T10内においてアプリAPが展開されることで実現される送信制御部T15d(図23)は、ユーザU1-1が端末装置T10を利用して、店舗SH1に来店したことを示す来店情報を情報処理装置100-1に送信できるよう、送信可能な状態に制御する。例えば、送信制御部T15dは、アプリAPに対応するカメラ機能CMをONにすることで、ユーザU1-1がカメラ機能CMを用いて、店舗SH1に設置されるコード情報の撮像を行える状況にする。例えば、送信制御部T15dは、アプリAPに対応するカメラ機能CMを自動で立ち上げることにより、ユーザU1-1がコード情報の撮像を行える状況にする。
 なお、ここでいうコード情報は、QRコード(登録商標)であってもよいし、バーコードであってもよい。図19の例では、コード情報は、QRコードであるものとする。また、図19の例では、店舗SH1に設置されるこのQRコードをQRコードQR1とする。QRコードQR1は、集客サービスGSVに対応する(集客サービスGSV専用の)コード情報である。
 また、このような状態において、ユーザU1-1は、カメラ機能CMを利用して、QRコードQR1を撮像する。端末装置T10は、QRコードQR1を検知すると、QRコードQ1から来店情報を読み取る(ステップS1907)。係る来店情報には、店舗SH1を識別する店舗ID「SH1」が含まれる。したがって、端末装置T10は、店舗SH1を識別する店舗ID「SH1」と、集客サービスGSVにおいてユーザU1-1を識別するユーザID「U1-1」と、来店人数「1」を含む来店情報を情報処理装置100に送信する(ステップS18)。例えば、情報処理装置100内においてアプリAPが展開されることで実現される第2送信部15e(図6)が、店舗SH1を識別する店舗ID「SH1」と、ユーザID「U1-1」と、来店人数「1」とを含む来店情報を情報処理装置100に送信する。
 ここで、送信制御部T15dは、ステップS1906では、店舗SH1に設置される所定のセンサ(例えば、ビーコン)との相互通信を可能に制御することで、ユーザU1-1の操作に拘わらず動的に来店情報が送信されるよう制御してもよい。例えば、送信制御部T15dは、近距離無線通信機能NFCをONにすることで、所定のセンサとの相互通信を実現する。このように制御された場合、第2送信部T15eは、例えば、相互通信により来店情報を取得し、取得した来店情報を情報処理装置100-1に送信する。このように、来店情報が自動送信される構成が採用される場合には、各利用者の端末装置T10が、来店情報を自動送信するため、例えば、詳細画面等において来店人数を入力できないようにしておくことが好ましい。
 情報処理装置100-1は、来店情報を受信すると(ステップS1909)、店舗情報記憶部123-1において店舗SH1(店舗ID「SH1」)に対応する「来客数」に、今回の来店人数を加算する(ステップS1910)。
 次に、情報処理装置100-1は、ユーザU1-1に付与される特典を制御する特典制御処理を行う(ステップS1911)。具体的には、情報処理装置100-1は、ユーザU1-1の操作に応じて来店情報が送信されることとなったため、この特典としてユーザU1に付与される特典を制御する特典制御処理を行う。係る特典制御処理は、例えば、特典制御部136-1(図24)によって行われる。
 例えば、情報処理装置100-1は、ユーザU1-1に対してどのような特典を付与させるか付与対象の特典を決定する特典制御処理を行う。例えば、情報処理装置100-1は、来客人数に応じた特典を決定する。特典はクーポンであるものとすると、情報処理装置100-1は、来客人数が多い程、割引率の高いクーポンを付与対象のクーポンとして決定する。また、特典はポイントであるものとすると、情報処理装置100-1は、来客人数が多い程、基準ポイントに対してより高いポイントを付与対象のポイントとして決定する。図19の例では、情報処理装置100-1は、来店情報に含まれる来店人数「1」に基づいて、上記のような特典を決定する。また、情報処理装置100-1は、店舗SH1でのみ利用可能な特典を付与対象の特典として決定してもよい。
 次に、情報処理装置100-1は、特典制御処理で決定された特典をユーザU1-1に付与する(ステップS1912)。具体的には、情報処理装置100-1は、特典制御処理で決定された特典をユーザU1-1の端末装置T10に送信する。例えば、特典がクーポンの場合、情報処理装置100-1は、このクーポンを端末装置T10に送信する。これにより、端末装置T10は、情報処理装置100-1から特典を取得する(ステップS1913)。
 また、情報処理装置100-1は、ユーザU1が、例えば、集客サービスGSVを介して、任意のタイミングで情報処理装置100-1からクーポンを取得できるよう、来店情報記憶部122-1においてユーザU1(ユーザID「U1-1」)に対応する「特典情報」に、特典制御処理で決定された特典を示す特典情報を登録してもよい。このようなことから、特典を付与するという処理は、端末装置T10に特典を送信するという概念や、記憶部に特典を登録するという概念を含むものである。
 また、図19の例では、情報処理装置100-1は、店舗SH1での「来客数」に応じた手数料であって、店舗SH1に対して請求される手数料を算出する。例えば、情報処理装置100-1は、店舗情報記憶部123-1において店舗SH1(店舗ID「SH1」)に対応する「来客数」のうち、所定期間(例えば、直近1ヶ月)分の「来客数」に基づいて、店舗SH1に対して請求される手数料を算出する。集客サービスGSVの成果によって、店舗SH1はより多く集客される可能性があるため、情報処理装置100-1は、店舗SH1に対して請求される手数料を算出する。
 例えば、情報処理装置100-1は、店舗SH1の来客数に対して所定の金額(例えば、100円)を乗算することにより、店舗SH1に対して請求される手数料を算出する。また、例えば、情報処理装置100-1の事業主は、店舗SH1から手数料の支払いを受けることで、この手数料の少なくとも一部を利用者に付与される特典の原資とする。このようなことから、情報処理装置100-1は、手数料として、少なくとも一部が利用者に付与される特典の原資となる手数料を算出する。
 また、情報処理装置100-1は、外部装置60との間で請求処理を行う。例えば、情報処理装置100-1は、店舗SH1に対して算出した手数料を、店舗SH1に請求するよう外部装置60を制御する。外部装置60は、情報処理装置100-1による制御に応じて、店舗SH1に対して手数料を請求する。
 これまで、図19で説明してきたように、第3の実施形態に係る情報処理システムS1は、利用者によって利用される端末装置T10と、情報処理装置100-1とを含む。そして、情報処理システムS1の中では、端末装置T10は、集客サービスGSVにより提示された店舗に利用者が来店したことを示す来店情報を情報処理装置100-1に送信する。例えば、端末装置T10は、集客サービスGSVを利用することによるチェックインに応じて、チェックインした利用者が、集客サービスGSVで取り扱われている店舗に確かに来店したと判定された場合には、この利用者が情報処理装置100-1から特典を受けられるように制御する。例えば、端末装置T10は、利用者が来店情報を送信することができるよう自装置における各種機能をアクティブ化させる。
 そして、情報処理装置100-1は、来店情報を受信すると、来店情報に基づく来客数であって、店舗への来客数に応じた手数料を当該店舗に対して請求される手数料として算出する。また、情報処理装置100-1は、利用者により来店情報が送信されたことによる特典を利用者に付与する。
 このような情報処理システムS1によると、特定の操作(例えば、チェックインという)を行った利用者のうち、集客サービスGSVを介して実際に来店した利用者には、チェックインしたことによる特典を与えるため、利用者に対して来店してまずはチェックインしようというモチベーションを効果的に高めることができる。また、情報処理システムS1は、利用者がチェックインすればするほど、チェックインに応じた分だけより多く来店情報を取得することができるため、より多くの手数料を店舗側に請求することができる。手数料は特典の原資となるため、情報処理システムS1は、より多くの手数料を店舗側に請求することができるようになれば、特典の内容をそれだけ充実させることができる。この結果、情報処理システムS1は、集客サービスGSVを利用して来店させるというサイクルを実現することができるため、集客から創客までを効果的に行うことのできるサービスを実現することができる。また、このようなことから、情報処理システムS1は、利用者側、店舗側の双方にとって、有益なサービスを実現することができる。
[第3の実施形態に係る情報処理のバリエーション]
 上記第3の実施形態に係る情報処理システムS1は、上記第3の実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下では、情報処理システムS1の他の実施形態について説明する。
[バリエーション1.決済サービスとの連携]
 上記実施形態では、情報処理システムS1において、情報処理装置100-1が、集客サービスGSV用のQRコード(図19の例では、QRコードQR1)から読み取られた来店情報を受信することで、集客サービスGSVに対応するアプリAPを介して取得できるような特典を付与する例を示した。しかし、情報処理装置100-1は、集客サービスGSVとは異なるサービスであって、所定の決済サービスに対応するコード情報から読み取られた来店情報が端末装置T10によって送信された場合には、この来店情報が送信されたことによる特典として、所定の決済サービスで利用可能な特典を利用者に付与してもよい。
 この点について、図20を用いて説明する。図20は、第3の実施形態に係る変形例の一例(1)を示す図である。図20の例では、所定の決済サービスの一例として、決済サービスKSVを挙げる。また、決済装置200-1は、決済サービスKSVに対応するサーバ装置である。また、図20は、第3の実施形態に係る情報処理のバリエーションとして、図3のステップS1911で説明した特典制御処理のバリエーションを説明するものである。また、図20で説明する特典制御処理は、例えば、特典制御部136-1(図24)によって行われる。
 また、図20の例では、ユーザU1-1は、図19のステップS1906においてカメラ機能CMが有効化されたことにより、決済サービスKSVに対応する(決済サービスKSV専用の)コード情報として、QRコードQR2の撮像を行ったものとする。そして、端末装置T10は、QRコードQR2を検知すると、QRコードQ2から来店情報を読み取る。係る来店情報にも、店舗SH1を識別する店舗ID「SH1」が含まれる。したがって、端末装置T10は、店舗SH1を識別する店舗ID「SH1」と、決済サービスGSVにおいてユーザU1-1を識別するユーザID「U1-2」と、来店人数「1」を含む来店情報を情報処理装置100-1に送信する。
 このような状態において、情報処理装置100-1は、来店情報を受信すると、係る来店情報に決済サービスKSVに対応するユーザID「U1-2」が含まれていることにより、決済サービスKSVに応じた特典制御処理を行う。例えば、情報処理装置100-1は、決済サービスKSV用のユーザID「U1-2」を用いて、決済装置200-1との連携を行う(ステップS21-1a)。図20に示すように、決済装置200-1は、決済サービスKSVを利用するユーザを識別する「ユーザID」と、「ユーザID」によって識別されるユーザが決済サービスKSV内でのみ利用可能な「特典情報」とを対応付けて記憶する特典DBを有している。
 そこで、決済装置200-1は、決済サービスKSVに対応するユーザID「U1-2」を含む情報処理装置100-1からのアクセス(連携依頼)に応じて、ユーザID「U1-2」と、特典DBに登録されている「ユーザID」とのマッチングを行う。そして、決済装置200-1は、マッチング結果に応じて連携を成立させる。例えば、決済装置200-1は、マッチングによりユーザID「U1-2」が特典DBに登録されていると判定した場合には、情報処理装置100-1との連携を成立させる。
 そして、情報処理装置100-1は、決済装置200-1との連携が成立した場合には、ユーザU1に対してどのような特典を付与させるか付与対象の特典を決定し、決定した特典を付与する決済装置200-1に指示する(ステップS21-2a)。情報処理装置100-1は、決済サービスKSVで利用可能な電子マネーポイントについて「500pt」を決定したとする。そうすると、情報処理装置100-1は、ユーザU1-1に「500pt」を付与するよう決済装置200に指示する。係る場合、決済装置200-1は、特典DBにおいて、決済サービスKSV内でユーザU1-1を識別するユーザID「U1-2」に対応する「特典情報」に「500pt」を登録する。
 これにより、情報処理システムS1は、利用者が利用している決済サービスで利用可能な特典を付与することができるため、利用者にとって使い勝手のよい特典を付与することができる。また、この結果、情報処理装置100-1は、チェックインしようとする動機付けをより効果的に行うことができるため、集客から創客までを効果的に行うことのできるサービスを実現することができる。
[バリエーション2.特典当選率を制御]
 上記実施形態では、情報処理システムS1において、情報処理装置100-1が、付与対象の特典を決定する特典制御処理を行う例を示した。しかし、情報処理装置100-1は、特典の当選率を制御してもよい。具体的には、情報処理装置100-1は、来店情報に基づいて、利用者による店舗への来店回数を算出し、算出した来店回数に応じて、当該利用者に対する特典の当選率を制御する。そして、情報処理装置100-1は、制御した確率で抽選を行い、利用者に特典が当選した場合には、当該特典を当該利用者に付与する。この点について、図21を用いて説明する。図21は、実施形態に係る変形例の一例(2)を示す図である。
 また、図21は、第3の実施形態に係る情報処理のバリエーションとして、図19のステップS1911で説明した特典制御処理のバリエーションを説明するものである。また、図21で説明する特典制御処理は、例えば、特典制御部136-1(図24)によって行われる。
 まず、情報処理装置100-1は、利用者の端末装置T10から来店情報を取得する度に、取得した来店情報に基づいて、どの利用者が、いつ、どの店に来店したかといった情報を、来店情報記憶部122-1に登録している。図21には、来店情報記憶部122-1の一例が示されている。図21の例では、来店情報記憶部122-1は、「ユーザID」、「来店日」、「来店店舗」、「特典情報」といった項目を有する。
 「ユーザID」は、来店情報を送信した端末装置T10を利用する利用者を識別する識別情報を示す。また、「ユーザID」は、集客サービスGSVに対応する(集客サービスGSV専用の)識別情報であるものとする。したがって、図19に示したユーザU1を識別するユーザIDは、図21に示す来店情報記憶部122-1の例ではユーザID「U1-1」に対応する。「来店日」は、「ユーザID」で識別されるユーザが「来店店舗」に来店した日時を示す。図21に示す来店情報記憶部122-1の例では、「来店日」に概念的な記号が用いられているが、実際には正式な日時が登録される。
 「来店店舗」は、「ユーザID」で識別されるユーザが「来店日」において来店した店舗を識別する識別情報(店舗ID)を示す。「特典情報」は、「ユーザID」で識別されるユーザに対して定められた特典を示す特典情報を示す。
 すなわち、図21に示す来店情報記憶部122-1の例では、ユーザID「U1-1」によって識別されるユーザは、来店日「DAY11」に店舗「SH1」に来店した例を示す。また、図21に示す来店情報記憶部122-1の例では、ユーザID「U1-1」によって識別されるユーザには特典情報「CP1」で示される特典が付与された例を示す。
 このような状態において、情報処理装置100-1は、ユーザU1-1の端末装置T10から来店情報を受信すると(ステップS1909)、係る来店情報に店舗ID「SH1」およびユーザID「U1-1」が含まれていることにより、ユーザID「U1-1」で識別されるユーザ(ユーザU1-1)が店舗ID「SH1」で識別される店舗(店舗SH1)にこれまでに来店した来店回数を計数する(ステップS21-1b)。具体的には、情報処理装置100-1は、来店情報記憶部122-1を参照し、ユーザU1-1が店舗SH1にこれまでに来店した来店回数を計数する。例えば、情報処理装置100-1は、所定期間(例えば、来店情報受信日を含む月)の間に、ユーザU1-1が店舗SH1にこれまでに来店した来店回数を計数する。
 そして、情報処理装置100-1は、計数した来店回数に応じて、特典の当選率を制御し、制御した当選率で抽選を行う(ステップS21-2b)。例えば、情報処理装置100-1は、ユーザU1-1に付与される付与対象の特典を決定し、決定した付与対象の特典の当選率を制御する。そして、情報処理装置100-1は、付与対象の特典の当選率を制御し、制御した当選率で抽選を行う。例えば、情報処理装置100-1は、来店回数が多い程、基準の当選率に対してより高い当選率を定め、この定めた当選率で付与対象の特典の抽選を行う。
 そして、情報処理装置100-1は、抽選の結果、特典が当選した場合には、当選した特典をユーザU1-1に付与する(ステップS21-3b)。なお、情報処理装置100-1は、抽選の結果がはずれであった場合、当選時の特典よりもランクの低い特典を付与対象の特典として定め、これを付与してもよい。例えば、情報処理装置100-1は、当選時の特典が「500円引きクーポン」であった場合には、抽選が外れた際には、「100円引きクーポン」を付与対象の特典として決定することで、ランクは低くなるもののもれなく特典を付与するよう制御する。
 これにより、情報処理システムS1は、利用者に対して、再び来店しようという動機付けを効果的に行うことができる。また、来店情報記憶部122-1は、図21に示すように、「来店日」情報以外に「来店曜日」を記憶してもよい。この場合、来店情報記憶部122-1は、各ユーザの端末装置T10から来店情報を受信すると来店した曜日を記憶する。そして、情報処理装置100-1は、例えば、「来店曜日」から土曜日あるいは日曜日に来店する傾向にあるユーザを特定できた場合には、土曜や日曜よりも来客数が少ない平日(例えば月曜日)に使用可能な特典をこのユーザに付与することで平日(例えば、月曜日)の創客を促すようにしてもよい。また、土曜日あるいは日曜日以外の平日の来店する傾向にあるユーザを特定できた場合には、土曜日あるいは日曜日に来店する傾向にあるユーザより優遇した特典をこのユーザに付与することで平日の創客を持続させるようにしてもよい。
[バリエーション3.マーケティングへの活用]
 また、情報処理装置100-1は、来店情報に基づいて、マーケティング分析を行うことで、分析結果をマーケティングデータとして登録してもよい。例えば、情報処理装置100-1は、店舗毎に、当該店舗の来店情報に基づいて、当該店舗への「来客数」を計数する。また、情報処理装置100-1は、店舗に来店した利用者毎にこれまでの「来店回数」を計数する。そして、情報処理装置100-1は、「来客数」と「来店回数」とに基づいて、リピート率を算出する。また、情報処理装置100-1は、来店情報と、来店情報送信元の利用者の属性情報とに基づいて、来店者はどのような属性傾向にあるかを示す「来店者属性傾向」を分析してもよい。
 また、情報処理装置100-1は、上記のようなマーケティング分析による分析結果を店舗情報記憶部123-1に登録する。図21には、店舗情報記憶部123-1の一例が示されている。図21の例では、店舗情報記憶部123-1は、「店舗ID」、「来客数」、「リピート率」、「来店者属性傾向」といった項目を有する。
 「店舗ID」は、集客サービスGSVで取り扱われている店舗を識別する識別情報を示す。「来客数」は、「店舗ID」で識別される店舗へと来店した客の人数を示す。図19の例によると、情報処理装置100-1は、ステップS1909で来店情報を受信すると、店舗情報記憶部123-1において店舗SH1(店舗ID「SH1」)に対応する「来客数」に、今回の来店人数を加算する。
 「リピート率」は、「店舗ID」で識別される店舗に対する客のリピート率を示す。店舗SH1を例に挙げると、情報処理装置100-1は、店舗情報記憶部123-1において店舗SH1(店舗ID「SH1」)に対応する「来客数」に基づいて、所定期間(例えば、直近1ヶ月)での「来客数」を計数する。また、情報処理装置100-1は、所定期間(例えば、直近1ヶ月)において、店舗SH1に来店した利用者毎にこの所定期間での「来店回数」を計数する。そして、情報処理装置100-1は、「来客数」と「来店回数」とに基づいて、店舗SH1の「リピート率」を算出する。
 「来店者属性傾向」は、「店舗ID」で識別される店舗への来店客の属性傾向を示す。店舗SH1を例に挙げると、情報処理装置100は、店舗SH1に対応する来店情報を送信した利用者の属性情報に基づいて、店舗SH1にはどのような属性の客が来店している傾向にあるかを示す来店者属性傾向を分析する。図21の例では、情報処理装置100-1は、店舗SH1には「30代男性」の客や、「サラリーマン」が客として来店している傾向にあるとの分析結果を得ている。
 また、情報処理装置100-1は、マーケティング分析を行い、分析結果をマーケティングデータとして店舗情報記憶部123-1に登録しておくことで、取引先の企業(例えば、店舗の事業主)に対して、マーケティングデータを提供してもよい。これにより、情報処理装置100-1は、取引先の企業に対して、マーケティング活動を支援することができる。また、情報処理装置100-1は、集客サービスGSVを介して、マーケティングデータを利用者に提示してもよい。例えば、情報処理装置100-1は、詳細画面に「リピート率」を表示させてもよい。これにより、情報処理装置100-1は、店舗探しに有効な情報を利用者に提示することができるため、店舗探しを効果的に支援することができる。なお、上記のようなマーケティング分析は、例えば、分析部138-1(図24)によって行われる。
[端末装置の構成]
 次に、図23を用いて、第3の実施形態に係る端末装置T10について説明する。図23は、第3の実施形態に係る端末装置T10の構成例を示す図である。図23に示すように、端末装置T10は、通信部T11と、入力部T12と、撮像部T13、出力部T14と、アプリ制御部T15とを有する。
[通信部T11について]
 通信部T11は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部11は、ネットワークNと有線または無線で接続され、例えば、情報処理装置100-1との間で情報の送受信を行う。
(入力部T12、撮像部T13、出力部T14について)
 入力部T12は、利用者から各種操作を受け付ける入力装置である。例えば、入力部T12は、キーボードやマウスや操作キー等によって実現される。出力部T14は、各種情報を表示するための表示装置である。例えば、出力部T14は、液晶ディスプレイ等によって実現される。なお、端末装置T10にタッチパネルが採用された場合には、入力部T12と出力部T14とは一体化される。また、出力部T14は、例えば、図18に示す表示画面Dに対応する。また、撮像部T13は、対象の撮像を行うカメラ機能に対応する。
[アプリ制御部T15について]
 図23に戻り、アプリ制御部T15は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、端末装置T10内部の記憶装置に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。また、アプリ制御部T15は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。また、アプリ制御部T15は、例えば、アプリAPを実行することで展開される制御部である。
 図23に示すように、アプリ制御部T15は、表示制御部T15aと、第1送信部T15bと、受信部T15cと、送信制御部T15dと、第2送信部T15eとを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、アプリ制御部T15の内部構成は、図23に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、アプリ制御部T15が有する各処理部の接続関係は、図23に示した接続関係に限られず、他の接続関係であってもよい。
[表示制御部T15aについて]
 表示制御部T15aは、集客サービスGSVで対象となっている店舗に関する店舗情報を表示させる。例えば、表示制御部T15aは、利用者により入力された検索条件に対応する検索結果を出力部T14(表示画面D)に表示させる。図18の例では、表示制御部T15aは、利用者周辺の地図情報に対して、検索条件に応じて検索された店舗毎の混雑状況を示す指標マークを重畳させる形で表示させる。例えば、表示制御部T15aは、利用者周辺の地図情報上の位置であって、検索された店舗の所在地に対応する位置に対して、混雑状況の度合いに応じて色分けされた指標マークを表示させる。また、このようなことから、表示制御部15aは、店舗毎の混雑状況を示す指標マークを、各店舗の店舗情報として一覧表示させる。
 また、表示制御部T15aは、図18に示すように、表示された指標マークのいずれかが選択された場合には、選択された指標マークに対応する店舗の詳細情報が示される詳細画面を表示させる。
[第1送信部T15bについて]
 第1送信部T15bは、情報処理装置100-1に対して、チェックイン情報を送信する。第1送信部T15bは、詳細画面に表示されるチェックインボタンBTが押下されたことを検知すると、チェックインに対応する店舗の店舗IDと、チェックインボタンBTを押下した利用者を識別するユーザIDとを含むチェックイン情報を情報処理装置100-1に送信する。なお、利用者は来店の意思表示としてチェックインボタンBTを押下するため、第1送信部T15bは、来店したことの意思表示を示す情報を送信するものともいえる。
[受信部T15cについて]
 受信部T15cは、各種情報を受信する。例えば、受信部T15cは、情報処理装置100-1から各種情報を受信する。例えば、受信部T15cは、情報処理装置100-1による来店判定処理での判定結果を受信する。
[送信制御部T15dについて]
 送信制御部T15dは、集客サービスGSVに対する利用者の利用状況に基づき店舗に利用者が来店したか否かが判定された判定結果(受信部T15cが受信)に応じて、来店情報を送信可能な状態に制御する。例えば、送信制御部T15dは、店舗に来店したことを示す意思表示が集客サービスGSVを介して行われたことで、店舗に利用者が来店したと判定された場合には、来店情報を送信可能な状態に制御する。一例としては、送信制御部T15dは、店舗の位置情報および利用者の位置情報に基づき店舗において意思表示が行われたと判定されたことで、店舗に利用者が来店したと判定された場合には、来店情報を送信可能な状態に制御する。
 例えば、送信制御部T15dは、来店情報を送信可能な状態として、端末装置T10が店舗に設けられるコード情報から来店情報を読み取り可能な状態に制御する。また、例えば、送信制御部T15dは、来店情報を送信可能な状態として、店舗に設けられる所定のセンサとの端末装置による相互通信を可能に制御する。
[第2送信部T15eについて]
 第2送信部T15eは、利用者の操作に応じて、集客サービスGSVにより提示された店舗に利用者が来店したことを示す来店情報を情報処理装置100-1に送信する。例えば、第2送信部T15eは、利用者がチェックインしたことに応じて、集客サービスGSVにより提示された店舗に利用者が来店したことを示す来店情報を情報処理装置100-1に送信する。
 例えば、第2送信部T15eは、送信制御部T15dにより来店情報を送信可能な状態に制御された場合には、来店情報を情報処理装置100-1に送信する。例えば、第2送信部T15eは、利用者の操作に応じて端末装置T10によりコード情報から来店情報が読み取られた場合には、読み取られた来店情報を情報処理装置100-1に送信する。また、例えば、第2送信部T15eは、端末装置T10により所定のセンサとの相互通信が行われた場合には、当該相互通信に基づく来店情報を情報処理装置100-1に送信する。
[情報処理装置の構成]
 次に、図24を用いて、第3の実施形態に係る情報処理装置100-1について説明する。図24は、第3の実施形態に係る情報処理装置100-1の構成例を示す図である。図24に示すように、情報処理装置100-1は、通信部110-1と、記憶部120-1と、制御部130-1とを有する。
[通信部110-1について]
 通信部110-1は、例えば、NIC等によって実現される。そして、通信部110-1は、ネットワークNと有線または無線で接続され、例えば、端末装置T10、外部装置60、決済装置200-1との間で情報の送受信を行う。
[記憶部120-1について]
 記憶部120-1は、例えば、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子またはハードディスク、光ディスク等の記憶装置によって実現される。記憶部120-1は、ユーザ情報記憶部121-1と、来店情報記憶部122-1と、店舗情報記憶部123-1とを有する。ユーザ情報記憶部121-1は、利用者に関する各種情報(例えば、属性情報)を記憶する。来店情報記憶部122-1、および、店舗情報記憶部123-1については、図21で説明した通りである。
[制御部130-1について]
 図24に戻り、制御部130-1は、CPUやMPU等によって、情報処理装置100-1内部の記憶装置に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。また、制御部130-1は、例えば、ASICやFPGA等の集積回路により実現される。
 図24に示すように、制御部130-1は、第1受信部131-1と、判定部132-1と、送信部133-1と、第2受信部134-1と、算出部135-1と、特典制御部136-1と、付与部137-1と、分析部138-1とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130-1の内部構成は、図24に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部130-1が有する各処理部の接続関係は、図24に示した接続関係に限られず、他の接続関係であってもよい。
[第1受信部131-1について]
 第1受信部131-1は、端末装置T10から各種情報を受信する。例えば、第1受信部131-1は、端末装置T10の第1送信部T15bにより送信されたチェックイン情報を受信する。
[判定部132-1について]
 判定部132-1は、集客サービスGSVにより提示された店舗に利用者が来店したか否かを判定する来店判定処理を行う。例えば、判定部132-1は、第1受信部131-1によりチェックイン情報が受信された場合には、チェックイン情報を送信した利用者による集客サービスGSVの利用状況に基づいて、チェックイン情報で識別される店舗にこの利用者が来店したか否かを判定する。
 例えば、判定部132-1は、チェックイン情報で識別される店舗に来店したことを示す意思表示が行われたことを検知できた場合、すなわちチェックイン情報を受信した場合には、チェックイン情報で識別される店舗に利用者が来店したと判定する。
 また、例えば、判定部132-1は、チェックイン情報で識別される店舗の位置情報と、チェックイン情報を送信した利用者の位置情報とのマッチングにより、利用者が店舗に来店している状態で意思表示を行ったか否か判定することで、利用者が店舗に来店したか否かを判定してもよい。例えば、判定部132-1は、店舗の位置情報と、利用者の位置情報とが一致する場合には、利用者が店舗に来店している状態で意思表示を行ったと判定する。すなわち、判定部132-1は、利用者が店舗に来店したと判定する。
[送信部133-1について]
 送信部133-1は、チェックイン情報を送信した端末装置T10に、判定部132-1による判定結果を送信する。
[第2受信部134-1について]
 第2受信部134-1は、集客サービスGSVにより提示された店舗に利用者が来店したことを示す来店情報を受信する。例えば、第2受信部134-1は、端末装置T10の第2送信部T15eにより送信された来店情報を受信する。例えば、第2受信部134-1は、少なくとも店舗を識別する識別情報(店舗ID)を含む来店情報を受信する。
[算出部135-1について]
 算出部135-1は、第2受信部134-1により受信された来店情報に基づいて、店舗毎に当該店舗への来客数を算出する。そして、算出部135-1は、算出した来客数に基づいて、来客数に応じた手数料を当該店舗に対して請求される手数料として算出する。例えば、算出部135-1は、来客数に対して所定の金額を乗算することにより手数料を算出する。また、例えば、算出部135-1は、手数料として、少なくとも一部が特典の原資となる手数料を算出する。
 図19の例では、算出部135-1は、来店情報を受信すると、店舗情報記憶部123-1において店舗SH1(店舗ID「SH1」)に対応する「来客数」に、今回の来店人数を加算することにより、最新の来客数を算出する。また、算出部135-1は、例えば、店舗SH1に手数料を請求するタイミング(例えば、月末)になったと判定した場合には、このタイミングを含む所定期間(例えば、直近1ヶ月)分の「来客数」に基づいて、店舗SH1に対して請求される手数料を算出する。
 また、算出部135-1は、外部装置60との間で請求処理を行う。例えば、算出部135-1は、店舗SH1に対して算出した手数料を、店舗SH1に請求するよう外部装置60を制御する。外部装置60は、算出部135-1による制御に応じて、店舗SH1に対して手数料を請求する。
[特典制御部136-1について]
 特典制御部136-1は、利用者に付与される特典を制御する特典制御処理を行う。具体的には、特典制御部136-1は、利用者の操作に応じて来店情報が送信されることとなったため、この特典として利用者に付与される特典を制御する特典制御処理を行う。
 例えば、特典制御部136-1は、利用者に対してどのような特典を付与させるか付与対象の特典を決定する特典制御処理を行う。例えば、特典制御部136-1は、来客人数に応じた特典を決定する。例えば、特典制御部136-1は、来客人数が多い程、割引率の高いクーポンを付与対象のクーポンとして決定する。また、例えば、特典制御部136-1は、来客人数が多い程、基準ポイントに対してより高いポイントを付与対象のポイントとして決定する。
 また、特典制御部136-1は、所定の決済サービスに対応するコード情報から読み取られた来店情報が第2受信部134-1により受信された場合には、この来店情報が送信されたことによる特典として、所定の決済サービスで利用可能な特典が利用者に付与されるよう制御する。また、特典制御部136-1は、来店情報が送信されたことによる特典として、当該来店情報によって識別される店舗でのみ利用可能な特典が付与されるよう制御する。
 また、特典制御部136-1は、来店情報に基づいて、利用者による店舗への来店回数を算出し、算出した来店回数に応じて、当該利用者に対する特典の当選率を制御する。
[付与部137-1について]
 付与部137-1は、利用者により来店情報が送信されたことによる特典を利用者に付与する。例えば、付与部137-1は、コード情報として、所定の決済サービスに対応するコード情報から読み取られた来店情報が送信された場合には、この来店情報が送信されたことによる特典として、所定の決済サービスで利用可能な特典を利用者に付与する。
 また、例えば、付与部137-1は、来店情報が送信されたことによる特典として、来店人数に応じた特典を、当該来店情報を送信した端末装置の利用者に対して付与する。また、例えば、付与部137-1は、来店情報が送信されたことによる特典として、当該来店情報によって識別される店舗でのみ利用可能な特典を付与する。
[分析部138-1について]
 分析部138-1は、来店情報に基づいて、マーケティング分析を行うことで、分析結果をマーケティングデータとして登録する。例えば、分析部138-1は、店舗毎に、当該店舗の来店情報に基づいて、当該店舗への「来客数」を計数する。また、分析部138-1は、店舗に来店した利用者毎にこれまでの「来店回数」を計数する。そして、分析部138-1は、「来客数」と「来店回数」とに基づいて、リピート率を算出する。また、分析部138-1は、来店情報と、来店情報送信元の利用者の属性情報とに基づいて、来店者はどのような属性傾向にあるかを示す「来店者属性傾向」を分析する。
[処理手順]
 次に、第3の実施形態に係る情報処理システムS1による処理手順について説明する。図25では、第3の実施形態に係る情報処理システムS1による処理手順のうち、端末装置T10と情報処理装置100-1との間で行われる情報処理手順について説明する。図26では、第3の実施形態に係る情報処理システムS1による処理手順のうち、外部装置60と情報処理装置100-1との間で行われる情報処理手順について説明する。
[処理手順(1)]
 まず、図25を用いて、第3の実施形態に係る情報処理システムS1による情報処理手順について説明する。図25は、第3の実施形態に係る情報処理システムS1による特典付与処理手順を示すシーケンス図である。
 まず、端末装置T10の第1送信部T15bは、チェックインボタンBTが押下されたことを検知すると、チェックイン情報を情報処理装置100-1に送信する(ステップS2501)。情報処理装置100-1の判定部132-1は、第1受信部131-1によりチェックイン情報が受信されると、受信されたチェックイン情報に対応する店舗(処理対象の店舗)に、端末装置T10の利用者が来店したか否かを判定する来店判定処理を行う(ステップS2502)。そして、情報処理装置100-1の送信部133-1は、判定部132-1による判定結果を端末装置T10に送信する(ステップS2503)。
 端末装置T10の受信部T15cは、送信部133-1により送信された判定結果を受信する(ステップS2504)。そして、送信制御部T15dは、受信部T15cにより受信された判定結果に応じて、端末装置T10の撮像部T13(カメラ機能CM)を利用可能な状態に制御する(ステップS2505)。
 このような状態において、撮像部T13は、QRコードを検出できたか否かを判定する(ステップS2506)。撮像部T13は、QRコードを検出できない間は(ステップS2506;No)、検出できるまで待機する。一方、撮像部T13は、QRコードを検出できた場合には(ステップS2506;Yes)、検出したQRコードから来店情報を読み取る(ステップS2507)。そして、端末装置T10の第2送信部T15eは、撮像部T13により読み取られた来店情報を情報処理装置100-1に送信する(ステップS2508)。
 情報処理装置100-1の第2受信部134-1は、第2送信部T15eにより送信された来店情報を受信する(ステップS2509)。そして、算出部135-1は、処理対象の店舗での「来客数」に今回の来店人数を加算する(ステップS2510)。なお、このような加算は第2受信部134-1によって行われてもよい。
 また、情報処理装置100-1の特典制御部136-1は、端末装置T10の利用者に付与される付与対象の特典を制御(決定)する特典制御処理を行う(ステップS2511)。そして、付与部137-1は、特典制御部136-1により制御された特典を示す特典情報を端末装置T10に送信する(ステップS2512)。また、例えば、端末装置T10の受信部T15cは、付与部137-1から送信された特典情報を受信する。
[処理手順(2)]
 次に、図26を用いて、第3の実施形態に係る情報処理システムS1による情報処理手順について説明する。図26は、第3の実施形態に係る情報処理システムS1による請求処理手順を示すシーケンス図である。
 まず、情報処理装置100-1の算出部135-1は、店舗に対して手数料を請求するタイミングになったか否かを判定する(ステップS2601)。算出部135-1は、店舗に対して手数料を請求するタイミングでない間は(ステップS2601;No)、手数料を請求するタイミングになるまで待機する。一方、算出部135-1は、店舗に対して手数料を請求するタイミングであると判定した場合には(ステップS2601;Yes)、店舗情報記憶部123-1を参照し、請求対象の店舗における所定期間での来客数を算出する(ステップS2602)。そして、算出部135-1は、算出した来客数に応じた手数料を算出する(ステップS2603)。
 次に、算出部135-1は、請求対象の店舗に手数料を請求するよう外部装置60に指示するといった請求処理を行う(ステップS2604)。外部装置60は、算出部135-1による制御に応じて、請求対象の店舗に対して手数料を請求する(ステップS2605)。
[ハードウェア構成]
 また、上記第3の実施形態に係る情報処理システムS1に含まれる端末装置T10および情報処理装置100-1は、例えば図27に示すような構成のコンピュータ1000によって実現される。以下、情報処理装置100-1を例に挙げて説明する。図27は、情報処理装置100-1の機能を実現するコンピュータ1000の一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、HDD1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
 CPU1100は、ROM1300又はHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。
 HDD1400は、CPU1100によって実行されるプログラム、および、係るプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、通信網50を介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータを、通信網50を介して他の機器へ送信する。
 CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、生成したデータを、入出力インターフェイス1600を介して出力装置へ出力する。
 メディアインターフェイス1700は、記録媒体1800に格納されたプログラム又はデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、係るプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
 例えば、コンピュータ1000が実施形態に係る情報処理装置100-1として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部130-1の機能を実現する。また、HDD1400には、記憶部120-1内のデータが格納される。コンピュータ1000のCPU1100は、これらのプログラムを、記録媒体1800から読み取って実行するが、他の例として、他の装置から、通信網50を介してこれらのプログラムを取得してもよい。
[その他]
 また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
 以上、本願の実施形態をいくつかの図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。
 また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、付与部は、付与手段や付与回路に読み替えることができる。
 ここで、店舗内の状況を撮影した画像、音声、あるいは属性から推定された店舗の利用用途に関する情報を提供するといった情報処理が、上記の各実施形態に対してさらに組み合わされてもよい。以下の第4~第7の実施形態では、係る情報処理について説明する。
(第4の実施形態)
[情報処理の一例]
 図28を用いて、第4の実施形態に係る情報処理の一例について説明する。図28は、第4の実施形態に係る情報処理の一例を示す図である。図28では、情報処理装置100-2が店舗の状況が撮影装置により撮影されて得られる画像に基づいて店舗の利用用途に関する情報を推定する情報処理について説明する。
 ここで、撮影装置は、例えば店舗内に設置されたカメラや、店舗の店員が保持するカメラ等である。撮影装置は、撮影機能だけでなく、音声を収集するマイク機能を有する。店舗とは、例えばカフェ、居酒屋およびレストラン等の飲食店である。店舗の状況とは、例えば店舗内の雰囲気(mood)および店舗内の客の属性等を含む概念である。店舗内の雰囲気とは、例えば静かさおよび明るさ等を含む概念である。店舗内の客の属性とは、例えば男女比率、年齢層、家族連れの数、および滞在時間等を含む概念である。店舗の利用用途に関する情報とは、例えば、店舗の利用用途自体、並びに、店舗の利用用途の推定に用いられる情報等(例えば、後述のスコア)を含む概念である。以下では、3つの店舗E21~E23に、マイク機能を有する3つの撮影装置10-21~10-23がそれぞれ設置された例を挙げて説明を行う。また、以下では、特に区別しない場合は、3つの店舗E21~E23をまとめて店舗E20と呼ぶ。また同様に、3つの撮影装置10-21~10-23をまとめて撮影装置10-2と呼ぶ。
 まず、図28に示すように、3つの店舗E20それぞれに設置された3つの撮影装置10-2は、対応する各店舗E20内の状況を撮影する(ステップS281)。図28の例では、店舗E21に設置された撮影装置10-21は、店舗E21内の状況を撮影する。また、店舗E22に設置された撮影装置10-22は、店舗E22内の状況を撮影する。また、店舗E23に設置された撮影装置10-23は、店舗E23内の状況を撮影する。
 続いて、情報処理装置100-2は、店舗E20内の状況が撮影されて得られる画像を取得する(ステップS282)。具体的には、情報処理装置100-2は、3つの店舗E21~E23それぞれについて、3つの撮影装置10-21~10-23により対応する各店舗E20内の状況が撮影されて得られる画像を取得する。より具体的には、情報処理装置100-2は、音声を含む画像を取得する。図28の例では、情報処理装置100-2は、撮影装置10-21により店舗E21の状況が撮影されて得られる、4人の客の音声を含む画像を取得する。また、情報処理装置100-2は、撮影装置10-22により店舗E22の状況が撮影されて得られる、2人の客の音声を含む画像を取得する。また、情報処理装置100-2は、撮影装置10-23により店舗E23の状況が撮影されて得られる、5人の客の音声を含む画像を取得する。
 続いて、情報処理装置100-2は、取得された、音声を含む画像に基づいて、各店舗Eの利用用途に関する情報を推定する(ステップS283)。具体的には、情報処理装置100-2は、画像を解析して店舗E内の状況を示す1つまたは複数のスコアを算出する。例えば、情報処理装置100-2は、画像に含まれる店舗E内の雰囲気(例えば、静かさおよび明るさ)を示す1つまたは複数のスコアを算出する。また、例えば、情報処理装置100-2は、画像に含まれる店舗E内の客の属性(例えば、男女比率、年齢層、家族連れの数、および滞在時間)を示す1つまたは複数のスコアを算出する。そして、情報処理装置100-2は、算出したスコアと、スコアが満たすべき条件ごとに店舗E20の利用用途が分類された利用用途データベースとの比較結果に基づいて店舗E20の利用用途に関する情報を推定する。図28の例では、情報処理装置100-2は、利用用途データベースを検索して、店舗E22内の静かさを示すスコアが所定値以下であるという条件が満たされる場合、該条件に対応する「接待向き」を店舗E22の利用用途として推定する。
 続いて、情報処理装置100-2は、推定された各店舗E20の利用用途に関する情報を提供する(ステップS284)。具体的には、情報処理装置100-2は、各店舗E20の利用用途に関する情報を、各店舗E20の閲覧情報の閲覧にユーザU1-2が利用しているユーザ端末T20に提供する。図28の例では、情報処理装置100-2は、店舗E22の利用用途の推定結果に基づいて、ユーザ端末T20に「店舗E22が接待向けである」旨を伝える文章を提供する。
 このように、第4の実施形態に係る情報処理装置100-2は、店舗E20内の状況が撮影されて得られる画像を取得し、取得された画像に基づいて、店舗E20の利用用途に関する情報を推定する。これにより、第4の実施形態に係る情報処理装置100-2は、店舗E20内の実際の状況に応じて、店舗E20の利用用途に関する情報を適切に推定することができる。
[情報処理システムの構成]
 次に、図29を用いて、第4の実施形態に係る情報処理システムS2の構成について説明する。図29は、第4の実施形態に係る情報処理システムS2の構成例を示す図である。図29に示すように、情報処理システムS2は、撮影装置10と、ユーザ端末20と、情報処理装置100とを有する。撮影装置10-2、ユーザ端末T20および情報処理装置100-2は、ネットワークN2を介して有線または無線により通信可能に接続される。
 撮影装置10-2は、例えば店舗内に設置されたカメラや、店舗の店員が保持するカメラ等である。撮影装置-2は、撮影機能だけでなく、音声を収集するマイク機能を有する。
 ユーザ端末T20は、アプリケーションやウェブページを介して店舗の閲覧情報を閲覧するユーザによって利用される情報処理装置である。ユーザ端末T20は、例えば、デスクトップ型PC(Personal Computer)や、ノート型PCや、タブレット端末や、携帯電話機や、PDA(Personal Digital Assistant)等である。
 情報処理装置100-2は、例えば、サーバ装置等により実現される。情報処理装置100-2は、店舗内の状況が撮影されて得られる画像を取得し、取得された画像に基づいて、店舗の利用用途に関する情報を推定する。
[情報処理装置の構成]
 次に、図30を用いて、実施形態1に係る情報処理装置100-2の構成について説明する。図30は、第4の実施形態に係る情報処理装置100-2の構成例を示す図である。図30に示すように、情報処理装置100-2は、通信部110-2と、記憶部120-2と、制御部130-2とを有する。
 通信部110-2は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110-2は、ネットワークと有線又は無線で接続され、撮影装置10-2とユーザ端末T20との間で情報の送受信を行う。
 記憶部120-2は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。記憶部120-2は、画像データベース121-2と、利用用途データベース122-2とを有する。
 画像データベース121-2は、撮影装置10-2によって撮影された画像に関する情報を記憶する。図31に、第4の実施形態に係る画像データベース121-2の一例を示す。図31に示した例では、画像データベース121-2は、「店舗ID」、「画像」および「撮影日時」といった項目を有する。
 「店舗ID」は、画像を撮影する撮影装置10-2が設置された店舗を識別する識別子である。「画像」は、「店舗ID」に対応付けられた撮影装置10-2により店舗内の状況が撮影されて得られる画像に関する情報である。画像は、例えば、音声を含む画像に関する情報である。「撮影日時」は、「店舗ID」に対応付けられた撮影装置10-2により撮影された画像の撮影日時に関する情報である。
 例えば、図31では、店舗IDにより識別される店舗E1に設置された撮影装置10-2により撮影日時「2019/9/14 10:00」において画像「画像#1」が撮影されたことを示す。
 利用用途データベース122-2は、店舗内の状況を示す1つまたは複数のスコアが満たすべき条件ごとに店舗の利用用途を分類するデータベースである。図32に、第4の実施形態に係る利用用途データベース122-2の一例を示す。図32に示した例では、利用用途データベース122-2は、「利用用途」および「条件」といった項目を有する。
 「利用用途」は、「条件」に対応付けられた、店舗の利用用途を示す。「条件」は、店舗内の状況を示す1つまたは複数のスコアが満たすべき条件を示す。
 例えば、図32では、店舗内の状況を示すスコアが「明るさがAA以下、かつ静かさがBB以下」という条件を満たす場合に、該店舗の利用用途が「デート向き」であることを示す。
 制御部130-2は、コントローラ(Controller)であり、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、情報処理装置100-2内部の記憶装置に記憶されている各種プログラム(情報処理プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部130-2は、コントローラであり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
 制御部130-2は、取得部131-2と、推定部132-2と、提供部133-2とを有する。
 取得部131-2は、店舗E20内の状況が撮影されて得られる画像を取得する。具体的には、取得部131-2は、複数の店舗E20それぞれについて、各店舗E20内の状況が撮影されて得られる画像を取得する。より具体的には、取得部131-2は、音声を含む画像を取得する。取得部131-2は、取得された画像を画像データベース121-2に記憶する。
 また、取得部131-2は、画像をリアルタイムに取得し、撮影日時に対応付けて画像を画像データベース121-2に記憶する。
 また、取得部131-2は、撮影日時が異なる複数の画像を取得し、各画像が撮影された店舗E20ごとに各画像を画像データベース121-2に記憶する。
 推定部132-2は、取得部131-2により取得された画像(つまり、音声を含む画像)に基づいて、各店舗E20の利用用途に関する情報を推定する。具体的には、推定部132-2は、画像を解析して店舗E20内の状況を示す1つまたは複数のスコアを算出する。例えば、推定部132-2は、画像に含まれる店舗E20内の雰囲気(例えば、静かさおよび明るさ)を示す1つまたは複数のスコアを算出する。店舗E20内の雰囲気(例えば、静かさおよび明るさ)を示す1つまたは複数のスコアは、例えば、画像に映っている照明の照度や、画像に含まれる音声の音量等を用いて、算出される。画像に含まれる音声は、例えば、所定の音声解析により、抽出される。推定部132-2は、画像に含まれる音声を所定の音声解析により抽出する場合、店舗内のBGMと雑音とを分離し、BGMおよび雑音の各々に関してスコアを算出してもよい。また、例えば、推定部132-2は、画像に含まれる店舗E20内の客の属性(例えば、男女比率、年齢層、家族連れの数、および滞在時間)を示す1つまたは複数のスコアを算出する。店舗E20内の客の属性(例えば、男女比率、年齢層、家族連れの数、および滞在時間)を示す1つまたは複数のスコアは、例えば、パターンマッチング等によって、算出される。また、例えば、推定部132-2は、所定の機械学習を用いて、店舗E20内の状況を示す1つまたは複数のスコアを算出してもよい。そして、推定部132-2は、算出したスコアと利用用途データベース122-2との比較結果に基づいて店舗E20の利用用途に関する情報を推定する。具体的には、推定部132-2は、利用用途データベース122-2に含まれる複数の条件から、算出したスコアにより満足される条件を検索し、満足される条件に対応する利用用途を店舗E20の利用用途として推定する。例えば、推定部132-2は、利用用途データベース122-2を検索して、店舗E20内の静かさを示すスコアが所定値CC以下であるという条件が満たされる場合、該条件に対応する「接待向き」を店舗E20の利用用途として推定する。例えば、図28において、店舗E22内の2人の客の音声の音量が小さいため、店舗E22内の静かさを示すスコアが所定値CC以下であるものとする。この場合、情報処理装置100-2は、利用用途データベース122-2を検索して、店舗E22内の静かさを示すスコアが所定値CC以下であるという条件が満たされるため、店舗E22の利用用途を「接待向き」と推定する。
 また、推定部132-2は、取得部131-2により取得された、リアルタイムの画像に基づいて、推定済みの店舗E20の利用用途を逐次更新する。具体的には、推定部132-2は、画像データベース121-2における店舗E20ごとの複数の画像のうち、撮影日時が最新である画像に基づいて、推定済みの該店舗E20の利用用途を逐次更新する。
 また、推定部132-2は、取得部131-2により取得された複数の画像のうち、撮影日時が所定の期間に含まれる画像に基づいて、所定の期間における店舗E20の利用用途に関する情報を推定する。所定の期間は、例えば、店舗E20の閲覧情報を閲覧するユーザにより指定された指定期間である。指定期間としては、例えば、平日、休日、季節等が挙げられる。なお、撮影日時が所定の期間に含まれる画像が複数存在する場合が想定される。この場合、推定部132-2は、所定の期間に含まれる複数の画像から任意の画像を選択し、選択した画像に基づいて、所定の期間における店舗E20の利用用途に関する情報を推定する。また、推定部132-2は、所定の期間に含まれる複数の画像を平均化して得られる平均画像に基づいて、所定の期間における店舗E20の利用用途に関する情報を推定してもよい。
 提供部133-2は、推定部132-2により推定された各店舗E20の利用用途に関する情報を提供する。具体的には、提供部133-2は、各店舗E20の利用用途に関する情報を、各店舗E20の閲覧情報の閲覧にユーザU1-2が利用しているユーザ端末T20に提供する。例えば、提供部133-2は、ユーザ端末T20に各店舗E20の利用用途の推定結果を伝える文章又はプッシュ通知を提供する。また、例えば、提供部133-2は、各店舗Eのウェブページを介して各店舗E20の利用用途の推定結果を提供してもよい。また、例えば、提供部133-2は、ユーザ端末T20から推定結果の更新要求をリアルタイムに受け付け、更新要求を受け付けた時点で推定部132-2に店舗E20の利用用途を再度推定させることで、最新の推定結果を提供してもよい。また、例えば、提供部133-2は、店舗E20の閲覧情報を閲覧するユーザにより指定期間(例えば、平日、休日、季節等)が指定された場合、指定期間における店舗E20の利用用途に関する情報を提供してもよい。また、例えば、提供部133-2は、各店舗E20の利用用途の推定に用いられた、各店舗E20内の状況を示す1つまたは複数のスコアを、各店舗E20の利用用途に関する情報として提供してもよい。
 図33は、各店舗E20内の状況を示す複数のスコアの提供の一例を示す図である。図33の例では、各店舗E20内の状況を示す複数のスコアとして、静かさ、男女比率、年齢層、家族連れ、明るさ、および滞在時間がチャート図により示されている。
[処理手順]
 次に、図34を用いて、第4の実施形態に係る情報処理の手順について説明する。図34は、第4の実施形態に係る情報処理の手順の一例を示すフローチャートである。
 図34に示すように、取得部131-2は、店舗E20内の状況が撮影されて得られる画像を取得する(ステップS3401)。
 推定部132-2は、画像を解析して店舗E20内の状況を示す1つまたは複数のスコアを算出する(ステップS3402)。推定部132-2は、算出したスコアと利用用途データベース122-2との比較結果に基づいて店舗E20の利用用途に関する情報を推定する(ステップS3403)。
 提供部133-2は、推定された店舗E20の利用用途に関する情報を提供し(ステップS3404)、処理を終了する。
[効果]
 上述してきたように、本実施形態に係る情報処理装置100-2は、取得部131-2と、推定部132-2とを有する。取得部131-2は、店舗内の状況が撮影されて得られる画像を取得する。推定部132-2は、取得部131-2により取得された画像に基づいて、店舗の利用用途に関する情報を推定する。
 これにより、本実施形態に係る情報処理装置100-2は、店舗内の実際の状況に応じて、店舗の利用用途に関する情報を適切に推定することができる。
 また、取得部131-2は、音声を含む画像を取得する。また、推定部132-2は、取得部131-2により取得された、音声を含む画像に基づいて、店舗の利用用途に関する情報を推定する。
 これにより、本実施形態に係る情報処理装置100-2は、音声を含む画像に基づいて、店舗の利用用途を適切に決定することができる。
 また、本実施形態に係る情報処理装置100-2は、店舗内の状況を示す1つまたは複数のスコアが満たすべき条件ごとに店舗の利用用途を分類する利用用途データベース122-2を記憶する記憶部をさらに有する。また、推定部132-2は、画像を解析して店舗内の状況を示す1つまたは複数のスコアを算出し、算出したスコアと利用用途データベース122-2との比較結果に基づいて店舗の利用用途に関する情報を推定する。
 これにより、本実施形態に係る情報処理装置100-2は、店舗内の多様な状況に応じた多様な利用用途を含む利用用途データベース122-2を用いて、店舗の利用用途に関する情報を適切に推定することができる。
 また、取得部131-2は、画像をリアルタイムに取得する。また、推定部132-2は、取得部131-2により取得された、リアルタイムの画像に基づいて、推定済みの店舗の利用用途を逐次更新する。
 これにより、本実施形態に係る情報処理装置100-2は、店舗内の状況の変化に応じて、店舗の利用用途を逐次更新することができる。
 また、取得部131-2は、撮影日時が異なる複数の画像を取得する。また、推定部132-2は、取得部131-2により取得された複数の画像のうち、撮影日時が所定の期間に含まれる画像に基づいて、所定の期間における店舗の利用用途に関する情報を推定する。
 これにより、本実施形態に係る情報処理装置100-2は、例えば、店舗の閲覧情報を閲覧するユーザにより指定された指定期間における店舗の利用用途に関する情報を適切に推定することができる。
 また、取得部131-2は、複数の店舗それぞれについて、各店舗内の状況が撮影されて得られる画像を取得する。また、推定部132-2は、取得部131-2により取得された画像に基づいて、各店舗の利用用途に関する情報を推定する。
 これにより、本実施形態に係る情報処理装置100-2は、複数の店舗それぞれについて、各店舗の利用用途に関する情報を適切に推定することができる。
 また、本実施形態に係る情報処理装置100-2は、推定部132-2により推定された店舗の利用用途に関する情報を提供する提供部133-2をさらに有する。
 これにより、本実施形態に係る情報処理装置100-2は、店舗内の実際の状況が反映された、店舗の利用用途に関する情報を提供することができる。
(第5の実施形態)
 第5の実施形態は、ユーザ端末T20が検索条件を受け付け、情報処理装置100-2Aにおいて検索された店舗に関する情報を表示する点が第4の実施形態とは異なる。
[情報処理の一例]
 図35は、第5の実施形態に係る情報処理の一例を示す図である。図35では、ユーザ端末T20が検索条件を受け付け、情報処理装置100-2Aにおいて検索された店舗に関する情報を表示する情報処理について説明する。図35におけるステップS281~S283は、それぞれ図28におけるステップS281~S283に対応するので、その詳細な説明を省略する。
 図35に示すように、ユーザ端末T20は、店舗E20の利用用途に関する情報を含む検索条件をユーザU1-2から受け付ける(ステップS284)。検索条件には、店舗E20の利用用途に関する情報の他に、例えば、店舗E20を利用する日付、店舗E20の位置するエリア等が含まれる。
 図36は、ユーザ端末T20における検索条件受付画面の一例を示す図である。所定のアプリケーションが起動されると、図36に示すように、ユーザ端末T20の出力部D24に、「検索条件を入力して下さい」といった情報と、「利用用途」のプルダウン表示TB11と、「日付」のプルダウン表示TB12と、「エリア」のプルダウン表示T1B3と、「確定」のボタン表示TB14とが表示される。
 ユーザは、プルダウン表示TB11を押下することで店舗E20の利用用途の候補が表示される。また、ユーザがプルダウン表示TB12を押下することで店舗E20を利用する日付の候補が表示される。また、ユーザがプルダウン表示TB13を押下することで店舗E20の位置するエリアの候補が表示される。そして、ユーザがプルダウン表示TB11~TB13を介して所望の利用用途、日付およびエリアを選択するとともに、「確定」のボタン表示TB14を押下することで、検索条件が受け付けられる。
 図35の説明に戻る。続いて、ユーザ端末T20は、情報処理装置100-2Aに対して検索条件を送信する(ステップS285)。
 そして、情報処理装置100-2Aは、検索条件をユーザ端末T20から受け付けると、検索条件を満たす店舗Eを検索する(ステップS286)。例えば、情報処理装置100-2Aは、検索条件と店舗E20に関する情報とが対応付けられた店舗データベースを参照して、検索条件を満たす店舗Eを検索する。
 続いて、情報処理装置100-2Aは、検索条件を満たす店舗Eに関する情報を含む検索結果をユーザ端末T20に送信する(ステップS287)。
 そして、ユーザ端末T20は、検索結果を受信し、受信した検索結果を表示する(ステップS288)。
 図37は、ユーザ端末T20における検索結果表示画面の一例を示す図である。ユーザ端末T20が情報処理装置100-2Aから送信された検索結果を受信すると、図37に示すように、ユーザ端末T20の出力部D24に、「おすすめの店舗」といった情報と、検索結果に含まれる、店舗E20(例えば、A店、B店、C店…)に関する情報の表示欄TB21とが表示される。
 このように、第5の実施形態に係るユーザ端末T20は、店舗E20の利用用途に関する情報を含む検索条件を受け付け、情報処理装置100-2Aにおいて検索された店舗E20に関する情報を表示する。これにより、第5の実施形態に係るユーザ端末T20は、店舗E20の利用用途に関する情報を含む検索条件を満たす店舗E20に関する情報を表示することができる。
[情報処理システムの構成]
 第5の実施形態に係る情報処理システムS2は、図29に示す第4の実施形態に係る情報処理システムS2と同一の構成であるので、その詳細な説明を省略する。
[ユーザ端末の構成]
 次に、図38を用いて、第5の実施形態2に係るユーザ端末T20の構成について説明する。図38は、第5の実施形態に係るユーザ端末T20の構成例を示す図である。図38に示すように、ユーザ端末T20は、通信部T21と、記憶部T22と、入力部T23と、出力部T24と、制御部T25とを有する。
 通信部T21は、ネットワークN2に通信可能に接続された情報処理装置100-2Aとの間で通信するNICなどのインターフェイスである。
 記憶部T22は、例えば、RAM、フラッシュメモリ等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。
 入力部T23は、ユーザから各種操作を受け付ける入力装置である。例えば、入力部T23は、キーボードやマウスや操作キー等によって実現される。出力部D24は、各種情報を表示するための表示装置である。例えば、出力部D24は、液晶ディスプレイ等によって実現される。なお、ユーザ端末T20にタッチパネルが採用された場合には、入力部T23と出力部D24とは一体化される。
 制御部T25は、コントローラであり、例えば、CPUやMPU等によって、ユーザ端末T20内部の記憶装置に記憶されている各種プログラム(端末装置制御プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部T25は、コントローラであり、例えば、ASICやFPGA等の集積回路により実現される。
 制御部T25は、受付部T251と、送信部T252と、受信部T253と、表示部T254とを有する。
 受付部T251は、店舗E20の利用用途に関する情報を含む検索条件を受け付ける。検索条件には、店舗E20の利用用途に関する情報の他に、例えば、店舗E20を利用する日付、店舗E20の位置するエリア等が含まれる。
 送信部T252は、情報処理装置100-2Aに対して検索条件を送信する。受信部T253は、情報処理装置100-2Aによる検索結果を受信する。
 表示部T254は、受信部T253により受信された検索結果を出力部D24に表示する。また、表示部T254は、各店舗E20の利用用途の推定に用いられた、各店舗E20内の状況を示す1つまたは複数のスコアが検索結果に含まる場合には、各店舗E20内の状況を示す1つまたは複数のスコアを検索結果とともに出力部D24に表示してもよい。
[情報処理装置の構成例]
 次に、図39を用いて、第5の実施形態に係る情報処理装置100-2Aについて説明する。図39は、第5の実施形態に係る情報処理装置100-2Aの構成例を示す図である。なお、図39では、第4の実施形態の情報処理装置100-2と同一の構成には同一符号を付すことで、その重複する構成および動作の説明については省略する。図39に示すように、情報処理装置100-2Aは、通信部110-2と、記憶部120-2と、制御部130-2とを有する。
 記憶部120-2は、画像データベース121-2と、利用用途データベース122-2と、店舗データベース123-2とを有する。
 店舗データベース123-2は、検索対象となる店舗に関する情報を記憶する。図40に、第5の実施形態に係る店舗データベース123-2の一例を示す。図40に示した例では、店舗データベース123-2は、「店舗ID」、「詳細情報」、「満空状況」および「エリア」といった項目を有する。
 「店舗ID」は、検索対象として登録された店舗を識別する識別子である。「詳細情報」は、「店舗ID」に対応付られた店舗の内容を詳細に示す情報である。「検索条件」は、「店舗ID」に対応付られた店舗を検索するための検索条件を示す情報である。「検索条件」は、例えば、「利用用途」、「満空状況」および「エリア」といった項目を有する。「利用用途」は、「店舗ID」に対応付られた店舗の利用用途に関する情報を示す。「満空状況」は、「店舗ID」に対応付られた店舗が利用される日付ごとの満空状況を示す。「エリア」は、「店舗ID」に対応付られた店舗が位置するエリアを示す。
 例えば、図40では、店舗IDにより識別される店舗E21は、詳細情報が「詳細情報#1」であり、利用用途「デート向け」、満空状況「満空状況#1」およびエリア「エリア#1」という検索条件により特定されることを示す。
 制御部130-2は、取得部131-2と、推定部132-2と、提供部133-2と、検索部134-2とを有する。
 推定部132-2は、取得部131-2により取得された画像(つまり、音声を含む画像)に基づいて、各店舗E20の利用用途に関する情報を推定する。推定部132-2は、推定した各店舗E20の利用用途に関する情報を検索条件として店舗データベース123-2に登録する。
 検索部134-2は、検索条件をユーザ端末T20から受け付ける。検索部134-2は、検索条件を受け付けた場合に、検索条件を満たす店舗Eを検索する。具体的には、情報処理装置100-2Aは、店舗データベース123-2を参照して、検索条件を満たす店舗E20を検索する。検索部134-2は、検索条件を満たす店舗E20に関する情報を含む検索結果をユーザ端末T20に送信する。
[処理手順]
 次に、図41を用いて、第5の実施形態に係る情報処理の手順について説明する。図41は、第5の実施形態に係る情報処理の手順の一例を示すフローチャートである。図41には、ユーザ端末T20により実行される情報処理の手順が示されている。
 図41に示すように、受付部T251は、店舗E20の利用用途に関する情報を含む検索条件を受け付ける(ステップS4101)。
 送信部T252は、情報処理装置100-2Aに対して検索条件を送信する(ステップS4102)。情報処理装置100-2Aは、検索条件をユーザ端末T20から受け付けると、検索条件を満たす店舗E20を検索する。そして、情報処理装置100-2Aは、検索条件を満たす店舗E20に関する情報を含む検索結果をユーザ端末T20に送信する。
 受信部T253は、情報処理装置100-2Aによる検索結果を受信する(ステップS4103)。
 表示部T254は、受信部T253により受信された検索結果を出力部D24に表示し(ステップS4104)、処理を終了する。
[効果]
 上述してきたように、本実施形態に係るユーザ端末T20は、受付部T251と、送信部T252と、受信部T253と、表示部T254とを有する。受付部T251は、店舗の利用用途に関する情報を含む検索条件を受け付ける。送信部T252は、店舗内の状況が撮影されて得られる画像に基づいて店舗の利用用途に関する情報を推定する情報処理装置100-2Aであって、検索条件を満たす店舗を検索する情報処理装置100-2Aに対して検索条件を送信する。受信部T253は、情報処理装置100-2Aによる検索結果を受信する。表示部T254は、受信部T253により受信された検索結果を表示する。
 これにより、本実施形態に係るユーザ端末T20は、店舗の利用用途に関する情報を含む検索条件を満たす店舗に関する情報を表示することができる。
[第6の実施形態]
 第6の実施形態は、撮影装置10-2が、店舗内の状況が撮影されて得られる画像を取得し、取得された画像に基づいて、店舗の利用用途に関する情報を推定する点が第4の実施形態とは異なる。すなわち、第6の実施形態では、第4の実施形態の情報処理装置100-2の一部の機能(取得部131-2および推定部132-2)が撮影装置10-2に組み込まれる。
[情報処理の一例]
 図42は、第6の実施形態に係る情報処理の一例を示す図である。図42では、撮影装置10-2が、店舗内の状況が撮影されて得られる画像を取得し、取得された画像に基づいて、店舗の利用用途に関する情報を推定する情報処理について説明する。
 まず、図42に示すように、3つの店舗E20それぞれに設置された3つの撮影装置10-2は、対応する各店舗E20内の状況を撮影する(ステップS421)。
 続いて、各撮影装置10-2は、店舗E20内の状況が撮影されて得られる画像を取得する(ステップS422)。具体的には、各撮影装置10-2は、対応する各店舗E20内の状況が撮影されて得られる画像を取得する。より具体的には、各撮影装置10-2は、音声を含む画像を取得する。
 続いて、各撮影装置10-2は、取得された、音声を含む画像に基づいて、各店舗E20の利用用途に関する情報を推定する(ステップS423)。具体的には、各撮影装置10-2は、画像を解析して店舗E20内の状況を示す1つまたは複数のスコアを算出する。そして、各撮影装置10-2は、算出したスコアと、スコアが満たすべき条件ごとに店舗E20の利用用途が分類された利用用途データベースとの比較結果に基づいて店舗Eの利用用途に関する情報を推定する。
 続いて、各撮影装置10-2は、推定された各店舗E20の利用用途に関する情報を情報処理装置100-2Bに送信する(ステップS424)。
 続いて、情報処理装置100-2Bは、各撮影装置10-2から送信された、各店舗E20の利用用途に関する情報を受信すると、各店舗E20の利用用途に関する情報を提供する(ステップS425)。具体的には、情報処理装置100-2Bは、各店舗E20の利用用途に関する情報を、各店舗E20の閲覧情報の閲覧にユーザU1-2が利用しているユーザ端末T20に提供する。
 このように、第6の実施形態に係る撮影装置10-2は、店舗E20内の状況が撮影されて得られる画像を取得し、取得された画像に基づいて、店舗E20の利用用途に関する情報を推定する。これにより、第6の実施形態に係る撮影装置10-2は、店舗E20内の実際の状況に応じて、店舗E20の利用用途に関する情報を適切に推定することができる。
[情報処理システムの構成]
 第6の実施形態に係る情報処理システムS2は、図29に示す第4の実施形態に係る情報処理システムS2と同一の構成であるので、その詳細な説明を省略する。
[撮影装置の構成]
 次に、図43を用いて、第6の実施形態に係る撮影装置10-2の構成について説明する。図43は、第6の実施形態に係る撮影装置10-2の構成例を示す図である。図43に示すように、撮影装置10-2は、通信部11-2と、撮影部14-2と、記憶部12-2と、制御部13-2とを有する。
 通信部11-2は、ネットワークN2に通信可能に接続された情報処理装置100-2Bとの間で通信するNICなどのインターフェイスである。
 撮影部14-2は、店舗E20内の状況を撮影する撮影機能を実現するカメラである。撮影部14-2は、撮影機能だけでなく、音声を収集するマイク機能を有する。
 記憶部12-2は、例えば、RAM、フラッシュメモリ等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。記憶部12-2は、画像データベース121-2と、利用用途データベース122-2とを有する。画像データベース121-2および利用用途データベース122-2は、それぞれ、第4の実施形態に係る情報処理装置100-2が有する画像データベース121-2および利用用途データベース122-2(図30参照)に相当する。
 制御部13-2は、コントローラであり、例えば、CPUやMPU等によって、撮影装置10-2内部の記憶装置に記憶されている各種プログラム(情報処理プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部13-2は、コントローラであり、例えば、ASICやFPGA等の集積回路により実現される。
 制御部13-2は、取得部131-2と推定部132-2とを有する。取得部131-2および推定部132-2は、基本的には、それぞれ、第4の実施形態に係る情報処理装置100-2が有する取得部131-2および推定部132-2(図30参照)に相当する。推定部132-2は、さらに、推定された各店舗E20の利用用途に関する情報を情報処理装置100-2Bに送信する。
[情報処理装置の構成]
 次に、図44を用いて、第6の実施形態に係る情報処理装置100-2Bの構成について説明する。図44は、第6の実施形態に係る情報処理装置100-2Bの構成例を示す図である。情報処理装置100-2Bは、通信部110-2と、制御部130-2とを有する。制御部130-2は、提供部133-2と、受信部135-2とを有する。
 受信部135-2は、各撮影装置10-2から送信された、各店舗E20の利用用途に関する情報を受信する。
 提供部133-2は、受信部135-2により受信された各店舗E20の利用用途に関する情報を提供する。
[効果]
 上述してきたように、本実施形態に係る撮影装置10-2は、取得部131-2と、推定部132-2とを有する。取得部131-2は、店舗内の状況が撮影されて得られる画像を取得する。推定部132-2は、取得部131-2により取得された画像に基づいて、店舗の利用用途に関する情報を推定する。
 これにより、本実施形態に係る撮影装置10-2は、店舗内の実際の状況に応じて、店舗の利用用途に関する情報を適切に推定することができる。
[第7の実施形態]
 これまで説明してきた第4~第6実施形態では、ユーザによる店舗探しを支援するサービスの一環として、情報処理装置100-2、または、撮影装置10-2が、店舗内の状況が撮影されて得られる画像情報に基づいて、店舗の利用用途に関する情報を推定するものであった。すなわち、これまで説明してきた第4~第6実施形態では、情報処理装置100-2、または、撮影装置10-2が、店舗の利用用途に関する情報として、店舗検索に利用される情報を推定する例を示した。
 これに対し、第7の実施形態に係る情報処理は、出店を支援するサービスの一環として行われる点でこれまでの実施形態とは異なる。また、このようなことから、第7の実施形態に係る情報処理は、出店を検討しているユーザ(例えば、店舗のオーナー)向けのサービス、あるいは、出店に関するコンサルタント業務向けのサービスといえる。
 具体的には、情報処理装置100-2の推定部132-2は、取得部131-2により取得された画像情報に基づいて、店舗の利用用途に関する情報として、出店に利用される情報を推定する。例えば、取得部131-2は、画像情報が取得された取得元の店舗について予め登録されている店舗情報をさらに取得してもよい。そうすると、推定部132-2は、画像情報と店舗情報とに基づいて、出店に利用される情報を推定する。
 例えば、推定部132-2は、所定のエリアに含まれる店舗のうち出店に関する条件情報を満たす店舗を特定し、取得部により取得された情報(画像情報および画店舗情報)のうち、この特定した店舗での情報に基づいて、出店候補地となるエリアを出店に利用される情報として推定する。一例として、推定部132-2は、取得部131-2により取得された情報のうち、所定のエリアに含まれる店舗での情報に基づいて、出店に関する条件情報(例えば、出店希望エリア、店舗のカテゴリ、店舗の客層、客単価、または、店舗に対する利用用途)を満たす店舗を特定する。以下、図45を用いて、第7の実施形態4に係る情報処理の一例について説明する。
[情報処理の一例]
 図45は、第7の実施形態に係る情報処理の一例を示す図である。なお、図36では、所定のアプリケーションが起動されると、店舗検索用の検索条件受付画面が表示される例を示したが、本実施形態では、ユーザは、この所定のアプリケーションを用いることで、出店候補地となり得るエリアを検索するための条件である出店条件(出店に関する条件情報の一例)を入力することができるものとする。
 図45の例では、「出店サポートサービス」といったサービス名で、所定のアプリケーションに対応するコンテンツ(条件入力画面C1)がユーザU5のユーザ端末T20の表示画面D24に表示されている。なお、ユーザU5は、例えば、2店舗目の出店を検討している店舗オーナーでるものとするが、これは一例に過ぎず、出店に関するコンサルタント業務を行うようなユーザであってもよい。また、図45の例によると、条件入力画面C1には、出店条件として「出店希望エリア」を入力させる入力欄AR1、出店条件として「お店のジャンル」(店舗のカテゴリの一例)を入力させる入力欄AR2、出店条件として「想定客単価」を入力させる入力欄AR3、出店条件として「利用用途」を入力させる入力欄AR4が含まれる。また、条件入力画面C1には、出店条件を情報処理装置100に送信する送信ボタンBTが含まれる。
 なお、ユーザは、条件入力画面C1において入力を求められる出店条件の全てを入力しなくともよい。また、出店条件は、図45に示す例、具体的には、店希望エリア、店舗のカテゴリ、客単価、店舗に対する利用用途に限定されなくてもよい。例えば、店舗の客層が出店条件としてさらに加えられてもよい。また、店舗のカテゴリは、料理のカテゴリ(料理のジャンル)と言い換えることができる。
 このような状態において、ユーザU5は、出店希望エリア「AR1」、お店のジャンル「イタリアン」、想定客単価「1,000円/人」を出店条件として入力したものとする。そして、係る出店条件は、客単価「1,000円/人」で「イタリアン」のお店をエリア「AR1」に出店することを検討しているが、エリア「AR1」ではうまくゆくか?他により良いエリアは存在するか?といったことを条件として、情報処理装置100に対して問い合わせていることに相当する。
 係る場合、ユーザ端末20は、条件入力画面C1で入力された出店条件を示す条件情報を情報処理装置100に送信する(ステップS4501)。そうすると、例えば、受信部135-2は、ユーザ端末T20から条件情報を受信する(ステップS4502)。
 推定部132-2は、受信部135-2により条件情報が受信されると、出店希望エリア「AR1」に基づいて、処理対象のエリアを決定する(ステップS4503)。例えば、推定部132-2は、出店希望エリア「AR1」に基づいて、出店希望エリア「AR1」および出店希望エリア「AR1」に隣接する隣接エリアを処理対象のエリアとして決定する。図45の例では、推定部132-2は、処理対象のエリアとして、エリアAR1、エリアAR2(隣接エリアの一例)、エリアAR3(隣接エリアの一例)を処理対象のエリアとして決定したものとする。
 次に、取得部131-2は、処理対象のエリアに含まれる店舗に対応する画像情報、および、店舗情報を取得する(ステップS4504)。例えば、取得部131-2は、画像データベース121-2に記憶される画像情報のうち、処理対象のエリアに含まれる店舗に対応する画像情報を取得する。また、店舗情報は、画像情報が取得された取得元の店舗(処理対象のエリアに含まれる店舗)について予め登録されている店舗情報である。このような店舗情報は、例えば、店舗データベース123-2に記憶されている。
 店舗データベース123-2の一例については、図40で説明済みであるが、ここで図47を用いて、第6の実施形態に対応する構成で再度その一例を説明する。図47は、第6の実施形態に係る店舗データベース123-2の一例を示す図である。図47の例では、店舗データベース123-2は、「エリア」、「店舗ID」、「ジャンル」、「客単価」、「利用用途」といった項目を有する。
 「エリア」は、出店候補地として提供(提示)される可能性のあるエリアを示す。また、「エリア」は、「店舗ID」で識別される店舗が所在するエリアでもある。「店舗ID」は、店舗を識別する識別情報を示す。また、「店舗ID」で識別される店舗には、撮影装置10が設置されており、係る撮影装置は、当該店舗内の状況をリアルタイム撮影した画像情報を情報処理装置100に随時送信している。
 「ジャンル」は、「店舗ID」で識別される店舗のジャンル(「店舗ID」で識別される店舗が提供する料理のジャンルともいえる)を示す。「客単価」は、「店舗ID」で識別される店舗の客単価を示す。「利用用途」は、「店舗ID」で識別される店舗に対して推定されている利用用途に関する情報である。このような利用用途に関する情報は、ユーザによる店舗探しを支援する際に用いられるものであり、第4~第6の実施形態にてこの推定処理については詳細に説明されている。
 すなわち、図47に示す店舗データベース123-2の例では、店舗ID「SH11」で識別される店舗であって、エリア「AR1」に所在する店舗(店舗SH11)は、客単価「900円」でイタリアンをメインに提供する店舗であり、また、画像情報に基づきデート向けの店舗であると推定されている例を示す。
 なお、図47では不図示であるが、店舗データベース123-2は、店舗毎に当該店舗の「客層」も記憶してよい。また、係る客層は、例えば、画像情報から推定される。また、店舗データベース123-2での各項目毎に記憶される情報が、本実施形態に係る店舗情報であるものとする。
 ここで、図47の例を用いると、ステップS4504では、取得部131-2は、エリアAR1、エリアAR2、エリアAR3(以下、「エリアAR1~AR3」と略す)に含まれる各店舗の画像情報を店舗データベース123-2から取得するとともに、エリアAR1~AR3に含まれる各店舗の店舗情報を店舗データベース123-2から取得する。
 次に、推定部132-2は、処理対象のエリア毎に、当該エリアに含まれる各店舗の画像情報、および、店舗情報に基づいて、当該エリアに含まれる店舗のうち、出店条件を満たす店舗を特定する(ステップS4505)。処理対象のエリアであるエリアAR1に含まれる店舗SH11を例に挙げると、推定部132-2は、店舗SH11について取得された画像情報および店舗情報に基づいて、店舗SH11はユーザU5による出店条件を満たすか否かを判定する。そして、推定部132-2は、店舗SH11はユーザU5による出店条件を満たすと判定した場合には、店舗SH11を出店条件を満たす店舗であると特定する。また、図47の例では、推定部132-2は、同様の処理を店舗SH12、SH13、SH21、SH22、SH23、SH31、SH32、SH33それぞれに対しても行う。
 なお、推定部132-2は、ステップS4505により、これまで処理対象のエリアであったエリアのうち、出店条件を満たす店舗が存在しないエリアが判明した場合には、係るエリアを処理対象のエリアから除外して以下の処理を行う。図47の例では、エリアAR1~AR3それぞれに出店条件を満たす店舗が存在するため、推定部132-2は、どのエリアも処理対象のエリアから除外しない。
 次に、推定部132-2は、処理対象のエリア毎に、当該エリアにおいて出店条件を満たす店舗に対応する画像情報、または、店舗情報に基づいて、当該エリアでの人流スコアを算出する(ステップS4506)。人流スコアとは、対象のエリアでの人の流れの度合いが数値化されたものであり、このエリアにより多くの人物が存在する程(このエリアに存在する店舗がより混雑している程)、より高い値で算出される。
 処理対象のエリアであるエリアAR1に含まれ、かつ、出店条件を満たすと判定された店舗SH11およびSH12を例に、エリアAR1での人流スコアが算出される例を説明する。係る例では、推定部132-2は、店舗SH11について取得された画像情報を解析することで、店舗SH11での混雑状況の度合いを示す混雑度スコアを算出する。また、推定部132-2は、店舗SH12について取得された画像情報を解析することで、店舗SH12での混雑状況の度合いを示す混雑度スコアを算出する。そして、推定部132-2は、店舗SH11の混雑スコアと、店舗SH12の混雑スコアとに基づいて、エリアAR1での人流スコアを算出する。例えば、推定部132-2は、各混雑スコアを足し合わせることでエリアAR1での人流スコアを算出してもよいし、各混雑スコアを乗算することでエリアAR1での人流スコアを算出してもよい。例えば、推定部132-2は、各混雑スコアの平均値を人流スコアと定めてもよい。
 また、推定部132-2は、店舗SH11および店舗SH12の店舗情報に基づいて、算出した人流スコアに対してさらに重み付けを行ってもよい。例えば、推定部132-2は、客単価の平均が低い程、人流スコアを高めるように重み付けを行ってもよい。また、推定部132-2は、画像情報から店舗ランク(例えば、清潔感があるほど高ランク等)を判断し、店舗ランクが高い程、人流スコアを高めるように重み付けを行ってもよい。また、推定部132-2は、同様の処理をエリアAR2およびAR3に対しても行う。
 次に、推定部132-2は、処理対象のエリア毎に、当該エリアでの人流スコアに基づいて、当該エリアでの集客スコアを算出する(ステップS4507)。集客スコアとは、対象のエリアに出店した際の集客の度合いが数値化されたものであり、人流スコアが高い程、より高い値で算出される。これは、より人が多いと推定されるエリア程、高い集客が見込めるという観点に基づくものである。推定部132-2は、ステップS4506で算出した人流スコアそのものを集客スコアと定めてもよいし、例えば、同エリア内における競合店の数に応じて人流スコアに重み付けを行うことにより集客スコアを算出してもよい。例えば、推定部132-2は、同エリア内における競合店の数が多い程、競争が激しくなり集客が見込めなくなるとの観点から、同エリア内における競合店の数が多い程、人流スコアを下げるように重み付けを行う。
 そして、推定部132-2は、処理対象のエリアそれぞれの集客スコアに基づいて、処理対象のエリアのうち、出店候補地となるエリアを推定する(ステップS4508)。例えば、推定部132-2は、処理対象のエリアのうち、所定値(例えば、5pt)以上の集客スコアが算出されたエリアを出店候補地となるエリアとして推定する。図45の例では、推定部132-2は、エリアAR1は集客スコアが「3pt/10pt満点中」であったため出店候補地とはならないと推定したとする。一方で、図45の例では、推定部132-2は、エリアAR2は集客スコアが「8pt/10pt満点中」、エリアAR3は集客スコアが「7pt/10pt満点中」であったため、出店候補地となるエリアであると推定したとする。
 そして、提供部133-2は、出店候補地となるエリアを示すエリア情報と、当該エリアについて算出された集客スコアをユーザU5に提供する(ステップS4509)。具体的には、提供部133-2は、出店候補地となるエリアを示すエリア情報と、当該エリアについて算出された集客スコアをユーザU5のユーザ端末T20に送信する。また、上記例によると、ユーザU5が当初出店を希望していたエリアAR1は、出店候補地とはならないと推定されているが、提供部133-2は、出店条件で指定されていた出店希望エリアについては如何なる推定結果であろうとこれを提示する。したがって、提供部133-2は、出店希望エリアについて算出された集客スコアをユーザU5に提供する。例えば、提供部133-2は、これらの情報が一覧表示される推定結果画面C2を生成し、生成した推定結果画面C2をユーザ端末T20に配信する。
 ここで、図46を用いて、推定結果画面C2の一例について説明する。図46は、第7の実施形態に係る推定結果画面C2の一例を示す図である。図46の例によると、提供部133-2は、エリア毎に、当該エリアでの集客スコアと、集客スコアに基づく評価コメントが表示される推定結果画面C2を生成している。より詳細には、提供部133-2は、出店希望エリアであるエリアAR1での推定結果(集客スコアおよび評価コメント)が表示されるとともに、出店候補地として推定されたエリアAR2およびAR3での推定結果(集客スコアおよび評価コメント)がそれぞれレコメンドされる態様で表示される推定結果画面C2を生成している。
 これにより、第7の実施形態に係る情報処理装置100-2は、出店希望エリアで出店することは集客の観点からふさわしいか否か判断するための判断材料をユーザに提供することができる。また、第7の実施形態に係る情報処理装置100-2は、例えば、出店希望エリアで出店が難しいと推定される場合であっても、その近隣エリアでの出店した場合ではどうかといった情報も合わせて提供することができるため、出店を効果的にサポート可能なサービスを実現することができる。
 なお、推定部132-2は、エリア毎に、当該エリアでの店舗数と、人流スコアとに基づいて、当該エリアが激戦区または穴場かを推定してもよく、係る場合、提供部133-2は、激戦区または穴場のいずれであるかの推定結果も提示してよい。例えば、推定部132-2は、人流スコアが所定値以上であり、かつ、店舗数が所定値以上であるようなエリアについては、激戦区だが集客は見込めると推定する。また、推定部132-2は、人流スコアは所定値以上であるが、店舗数は所定値より少ないようなエリアについては、穴場(それほど店舗は多くないが人通りは多いためよい立地)と推定する。
 また、上記第7の実施形態では、推定部132-2が、画像情報と店舗情報とに基づいて、出店に利用される情報を推定する例を示したが、推定部132-2は、画像情報のみから出店に利用される情報を推定してもよい。
[ハードウェア構成]
 また、上述してきた各実施形態に係る情報処理装置、ユーザ端末または撮影装置は、例えば、図48に示すような構成のコンピュータ1000によって実現される。以下、情報処理装置100-2を例に挙げて説明する。図48は、情報処理装置100-2の機能を実現するコンピュータの一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、HDD1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
 CPU1100は、ROM1300またはHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。
 HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、所定の通信網を介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータを所定の通信網を介して他の機器へ送信する。
 CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、生成したデータを入出力インターフェイス1600を介して出力装置へ出力する。
 メディアインターフェイス1700は、記録媒体1800に格納されたプログラムまたはデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
 例えば、コンピュータ1000が実施形態に係る情報処理装置100-2として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部130-2の機能を実現する。コンピュータ1000のCPU1100は、これらのプログラムを記録媒体1800から読み取って実行するが、他の例として、他の装置から所定の通信網を介してこれらのプログラムを取得してもよい。
[その他]
 また、上記実施形態及び変形例において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
 また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
 また、上述してきた実施形態及び変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。
 以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。
 また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、取得部は、取得手段や取得回路に読み替えることができる。
     20   ユーザ端末
    100   情報処理装置
    131   利用条件取得部
    132   解析結果取得部
    133   予約情報取得部
    134   選択部
    135   提供部
    251   受付部
    252   送信部
    253   受信部
    254   表示部
    255   予約情報送信部
     S1   情報処理システム
    T10   端末装置
    T15   アプリ制御部
   T15a   表示制御部
   T15b   第1送信部
   T15c   受信部
   T15d   送信制御部
   T15e   第2送信部
     60   外部装置
  100-1   情報処理装置
  120-1   記憶部
  121-1   ユーザ情報記憶部
  122-1   来店情報記憶部
  123-1   店舗情報記憶部
  130-1   制御部
  131-1   第1受信部
  132-1   判定部
  133-1   送信部
  134-1   第2受信部
  135-1   算出部
  136-1   特典制御部
  137-1   付与部
  138-1   分析部
    T20   ユーザ端末
    T25   制御部
  100-2   情報処理装置
  120-2   記憶部
  121-2   画像データベース
  122-2   利用用途データベース
  130-2   制御部
  131-2   取得部
  132-2   推定部
  133-2   提供部
   T251   受付部
   T252   送信部
   T253   受信部
   T254   表示部

Claims (46)

  1.  店舗の内部が撮影されて得られる画像を取得する画像取得部と、
     前記店舗の予約情報を取得する予約情報取得部と、
     取得された前記店舗の画像および当該店舗の予約情報に基づき、利用可能と推測される店舗を選択する選択部と、
     を備えることを特徴とする情報処理装置。
  2.  前記情報処理装置は、
     前記店舗の利用条件を取得する利用条件取得部をさらに備え、
     前記選択部は、
     前記取得された前記店舗の画像および当該店舗の予約情報に基づき、前記利用条件に示される利用日時において利用可能と推測される店舗を選択する ことを特徴とする請求項1に記載の情報処理装置。
  3.  前記店舗の利用条件は、
     当該店舗の利用日時および利用人数を含み、
     前記店舗の予約情報は、
     当該店舗の予約日時および予約人数を含み、
     前記選択部は、
     前記利用可能と推測される店舗を選択する際、取得された前記店舗の画像および当該店舗の予約情報に基づき、前記利用条件に示される利用日時において前記利用人数分の席が利用可能と推測される店舗を選択する
     ことを特徴とする請求項2に記載の情報処理装置。
  4.  前記選択部は、
     リアルタイムの前記店舗の画像を解析して当該店舗内の空席状況を判断し、前記判断された当該店舗内の空席状況と当該店舗の予約情報とに基づき、前記利用条件に示される利用日時において前記利用人数分の席が利用可能と推測される店舗を選択すること
     を特徴とする請求項3に記載の情報処理装置。
  5.  前記店舗の利用条件は、
     前記店舗の場所、ジャンルおよび利用時の予算の少なくともいずれかをさらに含み、
     前記選択部は、
     前記店舗を選択する際、前記利用条件に示される利用日時において前記利用人数分の席が利用可能と推測され、かつ、前記利用条件に示される場所、ジャンルおよび利用時の予算の少なくともいずれかの条件を満たす店舗を選択すること
     を特徴とする請求項3に記載の情報処理装置。
  6.  前記選択部により選択された店舗の情報を提供する提供部をさらに備えること
     を特徴とする請求項1に記載の情報処理装置。
  7.  前記選択部は、
     ユーザの端末装置の位置情報と、取得された前記店舗の画像および当該店舗の予約情報とに基づき、前記ユーザの端末装置からの距離が所定値以内であり、かつ、利用可能と推測される店舗を選択する
     ことを特徴とする請求項1に記載の情報処理装置。
  8.  コンピュータが実行する情報処理方法であって、
     店舗の内部が撮影されて得られる画像を取得する画像取得工程と、
     前記店舗の予約情報を取得する予約情報取得工程と、
     取得された前記店舗の画像および当該店舗の予約情報に基づき、利用可能と推測される店舗を選択する選択工程と、
     を含むことを特徴とする情報処理方法。
  9.  店舗の利用条件の入力を受け付ける受付部と、
     店舗の内部が撮影されて得られる画像および当該店舗の予約情報に基づき、前記利用条件に示される利用日時において利用可能と推測される店舗を選択する情報処理装置に対し、前記店舗の利用条件を送信する送信部と、
     前記情報処理装置により選択された店舗の情報を受信する受信部と、
     前記受信された店舗の情報を表示する表示部と、
     を備えることを特徴とする端末装置。
  10.  前記表示された店舗の情報の中から選択された店舗に対する予約情報を送信する予約情報送信部をさらに備えること
     を特徴とする請求項9に記載の端末装置。
  11.  店舗の利用条件の入力を受け付ける受付手順と、
     店舗の内部が撮影されて得られる画像および当該店舗の予約情報に基づき、前記利用条件に示される利用日時において利用可能と推測される店舗を選択する情報処理装置に対し、前記店舗の利用条件を送信する送信手順と、
     前記情報処理装置により選択された店舗の情報を受信する受信手順と、
     前記受信された店舗の情報を表示する表示手順と、
     をコンピュータに実行させることを特徴とする端末装置制御プログラム。
  12.  利用者によって利用される端末装置と、情報処理装置とを含む情報処理システムであって、
     前記端末装置は、
     前記利用者の操作に応じて、所定の集客サービスにより提示された店舗に前記利用者が来店したことを示す来店情報を前記情報処理装置に送信する送信部を有し、
     前記情報処理装置は、
     前記来店情報に基づく来客数であって、前記店舗への来客数に応じた手数料を当該店舗に対して請求される手数料として算出する算出部と、
     前記利用者により前記来店情報が送信されたことによる特典を前記利用者に付与する付与部と
     を有することを特徴とする情報処理システム。
  13.  前記端末装置は、
     前記所定の集客サービスに対する前記利用者の利用状況に基づき前記店舗に前記利用者が来店したか否かが判定された判定結果に応じて、前記来店情報を送信可能な状態に制御する送信制御部をさらに有し、
     前記送信部は、前記送信制御部により前記来店情報を送信可能な状態に制御された場合には、前記来店情報を前記情報処理装置に送信する
     ことを特徴とする請求項12に記載の情報処理システム。
  14.  前記送信制御部は、前記店舗に来店したことを示す意思表示が前記所定の集客サービスを利用して行われたことで、前記店舗に前記利用者が来店したと判定された場合には、前記来店情報を送信可能な状態に制御する
     ことを特徴とする請求項13に記載の情報処理システム。
  15.  前記送信制御部は、前記店舗の位置情報および前記利用者の位置情報に基づき前記店舗において前記意思表示が行われたと判定されたことで、前記店舗に前記利用者が来店したと判定された場合には、前記来店情報を送信可能な状態に制御する
     ことを特徴とする請求項14に記載の情報処理システム。
  16.  前記送信制御部は、前記来店情報を送信可能な状態として、前記端末装置が前記店舗に設けられるコード情報から前記来店情報を読み取り可能な状態に制御し、
     前記送信部は、前記利用者の操作に応じて前記端末装置により前記コード情報から前記来店情報が読み取られた場合には、読み取られた前記来店情報を前記情報処理装置に送信する
     ことを特徴とする請求項13~15のいずれか1つに記載の情報処理システム。
  17.  前記付与部は、前記コード情報として、所定の決済サービスに対応するコード情報から読み取られた前記来店情報が送信された場合には、前記来店情報が送信されたことによる特典として、所定の決済サービスで利用可能な特典を前記利用者に付与する
     ことを特徴とする請求項16に記載の情報処理システム。
  18.  前記送信制御部は、前記来店情報を送信可能な状態として、前記店舗に設けられる所定のセンサとの前記端末装置による相互通信を可能に制御し、
     前記送信部は、前記端末装置により前記所定のセンサとの相互通信が行われた場合には、当該相互通信に基づく前記来店情報を送信する
     ことを特徴とする請求項13~17のいずれか1つに記載の情報処理システム。
  19.  前記算出部は、前記来客数に対して所定の金額を乗算することにより前記手数料を算出する
     ことを特徴とする請求項12~18のいずれか1つに記載の情報処理システム。
  20.  前記算出部は、前記手数料として、少なくとも一部が前記付与部により付与される特典の原資となる手数料を算出する
     ことを特徴とする請求項12~19のいずれか1つに記載の情報処理システム。
  21.  前記付与部は、前記来店情報を送信した端末装置の利用者に対して、前記来店情報が送信されたことによる特典を付与する
     ことを特徴とする請求項12~19のいずれか1つに記載の情報処理システム。
  22.  前記送信部は、前記店舗に来店した来店人数の入力が前記利用者から受け付けられた場合には、当該来店人数を含む前記来店情報を前記情報処理装置に送信し、
     前記付与部は、前記来店情報が送信されたことによる特典として、前記来店人数に応じた特典を、当該来店情報を送信した端末装置の利用者に対して付与する
     ことを特徴とする請求項12~21のいずれか1つに記載の情報処理システム。
  23.  前記付与部は、前記来店情報が送信されたことによる特典として、当該来店情報によって識別される店舗でのみ利用可能な特典を付与する
     ことを特徴とする請求項12~22のいずれか1つに記載の情報処理システム。
  24.  前記情報処理装置は、
     前記来店情報に基づいて、前記利用者による前記店舗への来店回数を算出し、算出した来店回数に応じて、当該利用者に対する前記特典の当選率を制御する特典制御部をさらに有し、
     前記付与部は、前記特典制御部により制御された確率に応じて前記利用者に前記特典が当選させられた場合には、当該特典を当該利用者に付与する
     ことを特徴とする請求項12~23のいずれか1つに記載の情報処理システム。
  25.  利用者によって利用される端末装置と、情報処理装置とを含む情報処理システムが実行する情報処理方法であって、
     所定の集客サービスにより提示された店舗へと前記利用者が来店したことを示す来店情報を前記情報処理装置に送信する送信工程と、
     前記来店情報に基づく来客数であって、前記店舗への来客数に応じた手数料を当該店舗に対して請求する請求工程と、
     前記来店情報が送信されたことによる特典を前記利用者に付与する付与工程と
     を含むことを特徴とする情報処理方法。
  26.  利用者によって利用される端末装置に対して、
     所定の集客サービスで対象となっている店舗に関する店舗情報を表示させる表示制御手順と、
     前記店舗のいずれかに利用者が来店した場合には、当該利用者の操作に応じて、当該店舗に当該利用者が来店したことを示す来店情報を情報処理装置に送信することにより、当該情報処理装置に対して、当該利用者が当該来店情報を送信したことによる特典を付与させる送信手順と
     を実行させることを特徴とする端末プログラム。
  27.  店舗内の状況が撮影されて得られる画像を取得する取得部と、
     前記取得部により取得された前記画像に基づいて、前記店舗の利用用途に関する情報を推定する推定部と、
     を備えることを特徴とする情報処理装置。
  28.  前記取得部は、
     音声を含む前記画像を取得し、
     前記推定部は、
     前記取得部により取得された、音声を含む前記画像に基づいて、前記店舗の利用用途に関する情報を推定することを特徴とする請求項27に記載の情報処理装置。
  29.  前記店舗内の状況を示す1つまたは複数のスコアが満たすべき条件ごとに前記店舗の利用用途を分類する利用用途データベースを記憶する記憶部をさらに備え、
     前記推定部は、
     前記画像を解析して前記店舗内の状況を示す1つまたは複数のスコアを算出し、算出した前記スコアと前記利用用途データベースとの比較結果に基づいて前記店舗の利用用途に関する情報を推定することを特徴とする請求項27または28に記載の情報処理装置。
  30.  前記取得部は、
     前記画像をリアルタイムに取得し、
     前記推定部は、
     前記取得部により取得された、リアルタイムの前記画像に基づいて、推定済みの前記店舗の利用用途に関する情報を逐次更新することを特徴とする請求項27~29のいずれか一つに記載の情報処理装置。
  31.  前記取得部は、
     撮影日時が異なる複数の前記画像を取得し、
     前記推定部は、
     前記取得部により取得された複数の前記画像のうち、撮影日時が所定の期間に含まれる前記画像に基づいて、前記所定の期間における前記店舗の利用用途に関する情報を推定することを特徴とする請求項27~30のいずれか一つに記載の情報処理装置。
  32.  前記取得部は、
     複数の店舗それぞれについて、各前記店舗内の状況が撮影されて得られる画像を取得し、
     前記推定部は、
     前記取得部により取得された前記画像に基づいて、各前記店舗の利用用途に関する情報を推定することを特徴とする請求項27~31のいずれか一つに記載の情報処理装置。
  33.  前記推定部により推定された前記店舗の利用用途に関する情報を提供する提供部をさらに備えることを特徴とする請求項27~32のいずれか一つに記載の情報処理装置。
  34.  前期推定部は、
     前記取得部により取得された画像情報に基づいて、前記店舗の利用用途に関する情報として、出店に利用される情報を推定する
     ことを特徴とする請求項27~33のいずれか1つに記載の情報処理装置。
  35.  前記取得部は、前記画像情報が取得された取得元の店舗について予め登録されている店舗情報をさらに取得し、
     前記推定部は、前記画像情報と前記店舗情報とに基づいて、出店に利用される情報を推定する
     ことを特徴とする請求項34に記載の情報処理装置。
  36.  前記推定部は、
     所定のエリアに含まれる店舗のうち出店に関する条件情報を満たす店舗を特定し、前記取得部により取得された情報のうち、特定した店舗での情報に基づいて、出店候補地となるエリアを前記出店に利用される情報として推定する
     ことを特徴とする請求項34または35に記載の情報処理装置。
  37.  前記推定部は、
     前記取得部により取得された情報のうち、前記所定のエリアに含まれる店舗での情報に基づいて、出店に関する条件情報を満たす店舗を特定する
     ことを特徴とする請求項36に記載の情報処理装置。
  38.  前記推定部は、
     出店に関する条件情報として、出店希望エリア、店舗のカテゴリ、店舗の客層、客単価、または、店舗に対する利用用途のうち、少なくともいずれか1つを満たす店舗を特定する
     ことを特徴とする請求項37に記載の情報処理装置。
  39.  前記推定部は、
     前記取得部により取得された情報のうち、特定した店舗での情報に基づき推定された度合いであって、前記所定のエリアでの人流の度合いに基づいて、前記所定のエリアに出店した際の集客の度合いを示す集客スコアを算出し、算出した集客スコアに基づいて、前記出店候補地となるエリアを推定する
     ことを特徴とする請求項36~38のいずれか1つに記載の情報処理装置。
  40.  前記推定部は、
     前記取得部により取得された情報のうち、前記特定した店舗での情報から解析された混雑状況であって、当該店舗での混雑状況に基づき推定された前記人流の度合いに基づいて、前記集客スコアを算出する
     ことを特徴とする請求項39に記載の情報処理装置。
  41.  前記推定部は、
     前記出店候補地を示すエリア情報とともに、当該出店候補地での前記集客スコアを提示させる
     ことを特徴とする請求項39または40に記載の情報処理装置。
  42.  コンピュータが実行する情報処理方法であって、
     店舗内の状況が撮像されて得られる画像を取得する取得工程と、
     前記取得工程により取得された前記画像に基づいて、前記店舗の利用用途に関する情報を推定する推定工程と、
     を含むことを特徴とする情報処理方法。
  43.  店舗内の状況が撮像されて得られる画像を取得する取得手順と、
     前記取得手順により取得された前記画像に基づいて、前記店舗の利用用途に関する情報を推定する推定手順と、
     をコンピュータに実行させることを特徴とする情報処理プログラム。
  44.  店舗の利用用途に関する情報を含む検索条件を受け付ける受付部と、
     店舗内の状況が撮影されて得られる画像に基づいて前記店舗の利用用途に関する情報を推定する情報処理装置であって、前記検索条件を満たす店舗を検索する前記情報処理装置に対して前記検索条件を送信する送信部と、
     前記情報処理装置による検索結果を受信する受信部と、
     前記受信部により受信された検索結果を表示する表示部と、
     を備える端末装置。
  45.  コンピュータが実行する端末装置制御方法であって、
     店舗の利用用途に関する情報を含む検索条件を受け付ける受付工程と、
     店舗内の状況が撮影されて得られる画像に基づいて前記店舗の利用用途に関する情報を推定する情報処理装置であって、前記検索条件を満たす店舗を検索する前記情報処理装置に対して前記検索条件を送信する送信工程と、
     前記情報処理装置による検索結果を受信する受信工程と、
     前記受信工程により受信された検索結果を表示する表示工程と、
     を含むことを特徴とする端末装置制御方法。
  46.  店舗の利用用途に関する情報を含む検索条件を受け付ける受付手順と、
     店舗内の状況が撮影されて得られる画像に基づいて前記店舗の利用用途に関する情報を推定する情報処理装置であって、前記検索条件を満たす店舗を検索する前記情報処理装置に対して前記検索条件を送信する送信手順と、
     前記情報処理装置による検索結果を受信する受信手順と、
     前記受信手順により受信された検索結果を表示する表示手順と、
     をコンピュータに実行させることを特徴とする端末装置制御プログラム。
PCT/JP2020/048320 2019-12-24 2020-12-23 情報処理装置、情報処理方法、情報処理プログラム、情報処理システム、端末装置、端末装置制御方法、端末装置制御プログラムおよび端末プログラム WO2021132414A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020217007791A KR20220118901A (ko) 2019-12-24 2020-12-23 정보 처리 장치, 정보 처리 방법, 정보 처리 프로그램, 정보 처리 시스템, 단말 장치, 단말 장치 제어 방법, 단말 장치 제어 프로그램 및 단말 프로그램
US17/276,421 US20220358550A1 (en) 2019-12-24 2020-12-23 Information processing apparatus, information processing method, information processing system, terminal device, terminal-device control method, and non-transitory computer readable storage medium

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP2019-232836 2019-12-24
JP2019232836A JP2021101295A (ja) 2019-12-24 2019-12-24 情報処理装置、情報処理方法、端末装置、および、端末装置制御プログラム
JP2019237012A JP6906594B2 (ja) 2019-12-26 2019-12-26 情報処理システム、情報処理方法および端末プログラム
JP2019-237012 2019-12-26
JP2019237003A JP6948379B2 (ja) 2019-10-02 2019-12-26 情報処理装置、情報処理方法および情報処理プログラム
JP2019-237003 2019-12-26

Publications (1)

Publication Number Publication Date
WO2021132414A1 true WO2021132414A1 (ja) 2021-07-01

Family

ID=76574243

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/048320 WO2021132414A1 (ja) 2019-12-24 2020-12-23 情報処理装置、情報処理方法、情報処理プログラム、情報処理システム、端末装置、端末装置制御方法、端末装置制御プログラムおよび端末プログラム

Country Status (3)

Country Link
US (1) US20220358550A1 (ja)
KR (1) KR20220118901A (ja)
WO (1) WO2021132414A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11847679B2 (en) * 2021-11-30 2023-12-19 Dell Products, L.P. Persona based co-operative multi-agent reinforcement learning to enhance user experience

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011115010A1 (ja) * 2010-03-18 2011-09-22 楽天株式会社 サーバ装置、情報提供プログラム、情報提供プログラムが記録された記録媒体、情報提供方法、端末装置、端末用プログラム、及び端末用プログラムが記録された記録媒体
JP2016177775A (ja) * 2015-03-20 2016-10-06 株式会社リコー 情報処理装置、空き情報提供プログラム及び空き情報提供方法
WO2018116359A1 (ja) * 2016-12-19 2018-06-28 株式会社オプティム コンピュータシステム、店舗情報提供方法及びプログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004220150A (ja) 2003-01-10 2004-08-05 Hitachi Ltd 予約システムおよび予約方法
US7788188B2 (en) * 2006-01-30 2010-08-31 Hoozware, Inc. System for providing a service to venues where people aggregate
AU2011343977A1 (en) * 2010-12-14 2013-07-25 Scenetap, Llc Apparatus and method to monitor customer demographics in a venue or similar facility
US20140278768A1 (en) * 2013-03-12 2014-09-18 Michael J. Zenor Methods, systems and apparatus to select store sites
US10332178B1 (en) * 2014-09-14 2019-06-25 Barferno LLC Real-time patron-activity information system
KR20160064337A (ko) * 2014-11-27 2016-06-08 삼성전자주식회사 컨텐트 제공 방법 및 장치
US20170124465A1 (en) * 2015-10-29 2017-05-04 Foursquare Labs, Inc. Analysis and prediction from venue data
SG10201705480UA (en) * 2017-07-03 2019-02-27 Nec Asia Pacific Pte Ltd System and method for determining event

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011115010A1 (ja) * 2010-03-18 2011-09-22 楽天株式会社 サーバ装置、情報提供プログラム、情報提供プログラムが記録された記録媒体、情報提供方法、端末装置、端末用プログラム、及び端末用プログラムが記録された記録媒体
JP2016177775A (ja) * 2015-03-20 2016-10-06 株式会社リコー 情報処理装置、空き情報提供プログラム及び空き情報提供方法
WO2018116359A1 (ja) * 2016-12-19 2018-06-28 株式会社オプティム コンピュータシステム、店舗情報提供方法及びプログラム

Also Published As

Publication number Publication date
KR20220118901A (ko) 2022-08-26
US20220358550A1 (en) 2022-11-10

Similar Documents

Publication Publication Date Title
US8458177B2 (en) Automated search
US20100010873A1 (en) System and method for information acquisition and sharing
JP4609896B2 (ja) 情報提供システム
US20130311270A1 (en) Mood-based searching and/or advertising systems, apparatus and methods
WO2016035699A1 (ja) 予約システム
US20150127638A1 (en) Automatic selection of an intermediate dating location
KR20080045331A (ko) 이동통신 시스템에서 선호도 기반의 위치 정보 제공을 위한장치 및 방법
CN109348417A (zh) 路线的显示方法、装置、终端及存储介质
KR101671856B1 (ko) 어플리케이션을 기반으로 관광 정보를 제공하는 방법 및 장치
JP2004005502A (ja) 情報提供サーバ及び情報提供方法
WO2021132414A1 (ja) 情報処理装置、情報処理方法、情報処理プログラム、情報処理システム、端末装置、端末装置制御方法、端末装置制御プログラムおよび端末プログラム
JP4731272B2 (ja) 携帯端末装置、移動先情報提供サーバ装置、移動先情報表示プログラム、移動先情報提供プログラム及び移動先情報提供システム
CN110866175A (zh) 信息推荐方法、装置及电子设备
TWI674803B (zh) 興趣點媒體內容管理方法與系統
JP2009116424A (ja) 自動予約システム
JP6906594B2 (ja) 情報処理システム、情報処理方法および端末プログラム
KR101943854B1 (ko) 모임 스케줄링 서비스 제공 방법 및 모임 스케줄링 서비스 제공 시스템
US20210049641A1 (en) Affiliate-driven benefits matching system and methods with benefits along planned route
KR20180001120A (ko) 온라인 식당 예약 통합 시스템, 서버 및 방법
JP6518023B1 (ja) 情報設定装置及びコンピュータプログラム
US11068542B2 (en) Serviceability tracking system
JP6280381B2 (ja) アイテム提示装置、アイテム提示方法、およびプログラム
JP2014119991A (ja) 訪問先提案装置及び訪問先提案方法
CN112927052A (zh) 基于多人协同决策及多出发地的商户推荐方法和装置
JP6948379B2 (ja) 情報処理装置、情報処理方法および情報処理プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20906114

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20906114

Country of ref document: EP

Kind code of ref document: A1