WO2020053914A1 - ウェアラブル端末表示システム、方法、プログラム及びウェアラブル端末 - Google Patents

ウェアラブル端末表示システム、方法、プログラム及びウェアラブル端末 Download PDF

Info

Publication number
WO2020053914A1
WO2020053914A1 PCT/JP2018/033346 JP2018033346W WO2020053914A1 WO 2020053914 A1 WO2020053914 A1 WO 2020053914A1 JP 2018033346 W JP2018033346 W JP 2018033346W WO 2020053914 A1 WO2020053914 A1 WO 2020053914A1
Authority
WO
WIPO (PCT)
Prior art keywords
word
mouth information
purchased
wearable terminal
mouth
Prior art date
Application number
PCT/JP2018/033346
Other languages
English (en)
French (fr)
Inventor
研次 落合
和也 箕部
将仁 谷口
Original Assignee
株式会社ウフル
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ウフル filed Critical 株式会社ウフル
Priority to PCT/JP2018/033346 priority Critical patent/WO2020053914A1/ja
Priority to JP2020546543A priority patent/JP6908792B2/ja
Publication of WO2020053914A1 publication Critical patent/WO2020053914A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising

Definitions

  • the present invention relates to IoT (Internet of Things), a technical field corresponding to G06Q or the like in the IPC classification, and relates to a wearable terminal display system, a method, a program, and a wearable terminal.
  • IoT Internet of Things
  • G06Q technical field corresponding to G06Q or the like in the IPC classification
  • a technique for displaying an augmented reality image in which other information is superimposed on a captured image is known.
  • Patent Literature 1 relates to an imaging unit for renting a store where various products are displayed, such as a supermarket, for imaging a real space, and a product included in a captured image captured by the imaging unit.
  • a merchandise information acquiring unit for acquiring merchandise information, and a merchandise information acquiring unit configured to superimpose and display the merchandise information acquired by the merchandise information acquiring unit on a real space based on a position of the merchandise included in the image captured by the imaging unit.
  • a product information providing terminal device including an image generation unit that generates an augmented reality image and a display unit that can display the augmented reality image generated by the image generation unit has been proposed.
  • the user when purchasing a product or using a restaurant, the user refers to word-of-mouth information on the subject such as the product or the restaurant and purchases or uses the subject. Decide to do it.
  • the product information providing terminal device of Patent Literature 1 can display the product information of the product when the location of the product is determined in advance, such as in a specific store. If the object cannot be specified in advance, there is a problem that word-of-mouth information of the object cannot be obtained and word-of-mouth information cannot be displayed. Further, since the merchandise information providing terminal device of Patent Document 1 cannot display word-of-mouth information, naturally, when the object is purchased, the selling price of the object is distributed between the store and the word-of-mouth information provider. Can not.
  • the present invention provides a wearable terminal that displays word-of-mouth information of an object in the field of view of a wearable terminal and, when the object is purchased, can distribute the sales amount between a store and a word-of-mouth information provider. It is an object to provide a display system, a method, a program, and a wearable terminal.
  • the present invention provides the following solutions.
  • the present invention is a wearable terminal display system that displays word-of-mouth information of an object on a display board of the wearable terminal, Image acquisition means for acquiring an image of an object that has entered the field of view of the wearable terminal, Analyzing the image, specifying means for specifying the object, Word-of-mouth information acquisition means for acquiring word-of-mouth information of the identified object from an external word-of-mouth database, Word-of-mouth information display means for displaying the acquired word-of-mouth information as augmented reality, on the display plate of the wearable terminal, for the object visible through the display plate, Determining means for analyzing the image to determine whether the object has been purchased; When the object is purchased, the sales amount of the purchased object, the store that sold the purchased object, and a word-of-mouth information provider that provides word-of-mouth information of the purchased object And a distributing means for distributing by A wearable terminal display system comprising:
  • the present invention further includes a calculating unit that determines a contribution degree of the shop and the word-of-mouth information provider with respect to the purchased object,
  • the distributing means may distribute according to the degree of contribution.
  • the word-of-mouth information acquisition means acquires a plurality of the word-of-mouth information
  • the word-of-mouth information display means may display a plurality of the word-of-mouth information in association with each other.
  • the present invention is in the category of the system, but may be a method and a program.
  • the present invention also provides a wearable terminal used in the above wearable terminal display system.
  • the present invention it is possible to display word-of-mouth information of an object that has entered the field of view of the wearable terminal and, when the object is purchased, distribute the sales amount between the store and the word-of-mouth information provider. Become.
  • FIG. 1 is a conceptual diagram illustrating an outline of a wearable terminal display system according to the present embodiment.
  • FIG. 2 is a diagram illustrating an appearance of a wearable terminal used in the wearable terminal display system according to the present embodiment.
  • FIG. 3 is a block diagram illustrating a functional configuration of the wearable terminal used in the wearable terminal display system according to the present embodiment.
  • FIG. 4 is a block diagram illustrating a functional configuration of a control unit in the wearable terminal according to the present embodiment.
  • FIG. 5 is a diagram schematically illustrating the contribution determination DB.
  • FIG. 6 is a flowchart illustrating an example of the wearable terminal display process according to the present embodiment.
  • FIG. 7 is a diagram illustrating an example of the augmented reality displayed on the display board of the wearable terminal.
  • FIG. 1 is a conceptual diagram illustrating an outline of a wearable terminal display system according to the present embodiment.
  • the wearable terminal display system 100 is a system that displays word-of-mouth information of an object on the display panel 20 of the wearable terminal 1.
  • the wearable terminal display system 100 acquires an image of an object that is within the field of view of the wearable terminal 1 (an image capture range of an image acquisition unit (for example, a camera or the like) provided in the wearable terminal 1).
  • an image capture range of an image acquisition unit for example, a camera or the like
  • the “object” is a product (book, cosmetics, electric product, etc.) that can be identified by analyzing an image, or a real estate (name, which can be identified by a signboard such as a store name).
  • a product book, cosmetics, electric product, etc.
  • name which can be identified by a signboard such as a store name.
  • the wearable terminal display system 100 analyzes the acquired image of the target object and specifies the target object (in the example illustrated in FIG. 1, the target object is specified as the book “nature”).
  • the wearable terminal display system 100 acquires word-of-mouth information of the specified object (in the example shown in FIG. 1, the book “nature”) from an external database.
  • the “word-of-mouth information” is a third-party evaluation of the object, a comment, a photograph of the object, or the like, but is a comment or a photograph of a person related to the object. Is also good.
  • the wearable terminal display system 100 displays the word-of-mouth information (“Evaluation A” in the example shown in FIG. 1) on the display panel 20 of the wearable terminal 1 with respect to an object that is seen through the display panel.
  • the word-of-mouth information (“Evaluation A” in the example shown in FIG. 1)
  • the name of the object (“nature” in the example shown in FIG. 1)
  • the name of the word-of-mouth information provider that provided the word-of-mouth information
  • the wearable terminal display system 100 analyzes the image and determines whether or not the target object has been purchased. For example, the wearable terminal display system 100 displays word-of-mouth information as augmented reality for a certain object, and then, if the object has been imaged for a predetermined time or more, triggers the word-of-mouth information to trigger the object. Is determined to have been purchased.
  • the wearable terminal display system 100 displays the sales amount of the purchased object, the store that sold the purchased object, and word-of-mouth information of the purchased object. It is distributed with the provided word-of-mouth information provider.
  • the wearable terminal display system 100 includes a store and word-of-mouth information that triggered the purchase of the object (for example, word-of-mouth information displayed immediately before the object was imaged for a predetermined time or longer). And a word-of-mouth information provider that has provided, determines a distribution ratio for distributing the sales amount.
  • the acquired image of the target is analyzed, the target is specified, word-of-mouth information of the target is obtained from an external database, and the display board 20 of the wearable terminal 1 is displayed. And display it as augmented reality. Then, when the object is purchased, the sales amount of the purchased object is determined by the store that sold the purchased object, the word-of-mouth information provider that provided word-of-mouth information of the purchased object, Distribute with.
  • word-of-mouth information of various objects within the field of view of the wearable terminal 1 is not limited to augmented reality, not limited to objects whose positions and the like are determined in advance, such as products placed in a specific store.
  • the sales price of the object can be distributed between the retailer and the word-of-mouth information provider, so the word-of-mouth information provider It is possible to encourage the provision. Therefore, it is possible to display word-of-mouth information of the object within the field of view of the wearable terminal, and distribute the sales amount between the store and the word-of-mouth information provider when the object is purchased.
  • the wearable terminal display system 100 includes at least the wearable terminal 1.
  • various processes are executed by the wearable terminal 1.
  • the wearable terminal display system 100 may perform a part of the various processes on a server connected to the wearable terminal 1 via a network. Alternatively, it may be executed by a mobile terminal (for example, a smartphone or the like) operated by the user.
  • FIG. 2 is a diagram illustrating an appearance of a wearable terminal used in the wearable terminal display system according to the present embodiment.
  • FIG. 3 is a block diagram illustrating a functional configuration of the wearable terminal used in the wearable terminal display system according to the present embodiment.
  • the wearable terminal 1 is of a spectacle type, but is not limited thereto, and may be of any type such as a wristwatch type as long as it can acquire an image of an object and display word-of-mouth information as augmented reality. Is also good.
  • the wearable terminal 1 is composed of an HMD (Head @ Mounted @ Display), and includes an eyeglass-shaped frame 2 as shown in FIG. 2, and the frame 2 includes a control unit 10, a display panel 20, and a display panel 20 shown in FIG. An image acquisition unit 30 and a communication unit 40 are provided.
  • HMD Head @ Mounted @ Display
  • the frame 2 includes a control unit 10, a display panel 20, and a display panel 20 shown in FIG.
  • An image acquisition unit 30 and a communication unit 40 are provided.
  • the control unit 10 includes a processor, a memory, and a storage (not shown), which are connected by a bus.
  • the processor is constituted by, for example, a CPU (Central Processing Unit) and performs various processes by reading and executing various programs stored in a memory, thereby functioning as each unit described later.
  • the memory stores a program executed by the CPU, and includes, for example, a ROM (Read Only Memory) and a RAM (Random Access Memory).
  • the storage stores a database and a control program for displaying augmented reality.
  • the display panel 20 is configured to be able to display an augmented reality image in which word-of-mouth information in a virtual space is superimposed and displayed on an object in a real space by a known means.
  • the display plate 20 is a transmissive display, is disposed in front of the user's eyes, and is controlled by the control unit 10 to transmit through the display and to display an object in the real space visually recognized by the user.
  • An augmented reality image in which information generated by the control unit 10 is superimposed and displayed is displayed.
  • the image acquisition unit 30 is configured by, for example, a camera, provided near the display panel 20, and controlled by the control unit 10 to enter the field of view of the wearable terminal 1 (a range that can be imaged by the image acquisition unit 30). Get the image of
  • the communication unit 40 performs data communication with an external database via a network under the control of the control unit 10.
  • FIG. 4 is a block diagram illustrating a functional configuration of a control unit in the wearable terminal according to the present embodiment.
  • the control unit 10 includes a specifying unit 11, a word-of-mouth information acquisition unit 12, a word-of-mouth information display unit 13, a determination unit 14, a trigger information transmission unit 15, a calculation unit 16, and a contribution determination database (hereinafter, “contribution 17) and distribution means 18.
  • the identifying unit 11 analyzes the image acquired by the image acquiring unit 30 (see FIGS. 2 and 3) and identifies the target. Specifically, the specifying unit 11 searches for an image similar to the obtained image or extracts text data such as a product name from a character image by a known unit.
  • the identification unit 11 may access an external server to search for an image, search based on extracted text data, or search a database stored in a storage unit.
  • Word-of-mouth information acquisition means 12 acquires word-of-mouth information of the specified object from an external database.
  • the word-of-mouth information acquisition means 12 may acquire a plurality of word-of-mouth information.
  • the word-of-mouth information obtaining means 12 searches an external database corresponding to the type of the object specified by the specifying means 11, and obtains word-of-mouth information of the object from the database extracted by this search.
  • the word-of-mouth information acquisition means 12 may receive, along with the word-of-mouth information, purchase trigger number information indicating the number of times the purchase of the target object has been triggered based on the word-of-mouth information.
  • the word-of-mouth information acquiring means 12 acquires word-of-mouth information of the specified object when the image of the specified object is acquired by the image acquiring means 30 for a predetermined time (for example, 5 seconds or more). Is also good. This makes it possible to acquire and display word-of-mouth information only for an object that is presumed to be of interest to the user.
  • the word-of-mouth information display means 13 displays the obtained word-of-mouth information as augmented reality on the display panel 20 of the wearable terminal 1 for an object visible through the display panel 20.
  • the word-of-mouth information display unit 13 displays the word-of-mouth information in association with each other.
  • the word-of-mouth information display unit 13 may display the number of purchase triggers in association with the word-of-mouth information.
  • the determining unit 14 analyzes the image to determine whether the object has been purchased. Specifically, after the word-of-mouth information display unit 13 displays word-of-mouth information as augmented reality for a certain object, the image acquisition unit 30 determines that the word-of-mouth information display unit 13 determines that the object has a predetermined amount (time, If the image has been captured for the number of times described above, it is determined that the target object has been purchased, triggered by the mouth information. The determining unit 14 determines that the object has been purchased when the image obtaining unit 30 obtains an image of a number with a “ ⁇ ” (for example, “$ 2,500”). Is also good.
  • for example, “$ 2,500”.
  • the trigger information transmitting unit 15 indicates that the trigger information indicates that the target object has been purchased. Is transmitted to the external database from which the word-of-mouth information obtaining means 12 has obtained the word-of-mouth information. Upon receiving the trigger information, the external database adds “1” to the purchase trigger count information of the mouth information corresponding to the trigger information. In this way, when the object is purchased triggered by certain word-of-mouth information, the trigger information is transmitted to a database that provides word-of-mouth information, and the number of times of purchase trigger indicating the accumulated value of the trigger information is Display with word of mouth information.
  • the user can know the number of actual purchases for the word-of-mouth information that is referred to when determining whether or not to purchase a certain object.
  • the reliability of the word-of-mouth information can be determined more accurately than when the number of times indicating is displayed.
  • Calculating means 16 determines the degree of contribution of the dealer and the word-of-mouth information provider regarding the purchased object. Specifically, the calculating unit 16 refers to the contribution degree determination DB 17 based on the value obtained by adding “1” to the purchase opportunity count information acquired by the word-of-mouth information acquiring unit 12 (addition due to the current purchase). Then, the contribution degree of the shop and the word-of-mouth information provider regarding the purchased object is determined.
  • FIG. 5 is a diagram schematically illustrating the contribution determination DB.
  • the contribution determination DB 17 determines the degree of contribution of the shop and the word-of-mouth information provider with respect to the purchased object with respect to the purchase opportunity count information indicating the number of times the purchase of the object was triggered by the word-of-mouth information (see FIG. In the example shown in FIG. 5, it is indicated by%.). Specifically, for example, when the information on the number of times of purchase of word-of-mouth information is “1” (this is the first purchase opportunity), the calculating unit 16 determines that the contribution degree of the store is 99% and provides word-of-mouth information. Is determined to be 1%.
  • the calculating unit 16 determines the contribution degree of the store to be 95% and the contribution degree of the word-of-mouth information provider to 5%.
  • the setting is made such that the greater the number of purchase trigger information (the number of purchase triggers), the higher the contribution degree.
  • the calculation unit 16 is not limited to the mode in which the greater the number of purchase trigger information, the higher the contribution is. In an arbitrary mode in which the contribution is higher for word-of-mouth information having a greater influence on purchase, The contribution can be determined.
  • the distribution unit 18 calculates the sales amount of the purchased object, the store that sold the purchased object, and word-of-mouth information of the purchased object. And the word-of-mouth information provider who provided it. In detail, the distribution unit 18 distributes according to the contribution determined by the calculation unit 16. For example, if the sales amount is 1000 yen and the word-of-mouth information is the first opportunity to purchase this time, in the example shown in FIG. 5, the calculating means 16 determines that the contribution of the store is 99%, the word-of-mouth information provider Is determined to be 1%, and the distribution means 18 distributes the sales amount of 1,000 yen to the sales shop for 990 yen and the word-of-mouth information provider to 10 yen.
  • the control unit 10 may transmit information indicating such distribution to, for example, a server managed by the store or a database that provides word-of-mouth information. Then, it is desirable that the information is returned to the word-of-mouth information provider from the store side or the administrator of the database that provides the word-of-mouth information. In this case, the money may be returned in an actual currency, a virtual currency, or a coupon having a monetary value.
  • the control unit 10 of the wearable terminal 1 includes a specifying unit 11, a determination unit 14, a trigger information transmission unit 15, a calculation unit 16, a contribution determination DB 17, and a distribution unit 18.
  • the present invention is not limited thereto, and some or all of these units are provided in the wearable terminal 1, a wearable terminal display server connected to an external database via a network, and a user terminal (for example, a smartphone or the like) operated by a user. You may.
  • the wearable terminal 1 transmits the image acquired by the image acquisition unit 30 to the wearable terminal display server or the user terminal by the communication unit 40, and the wearable terminal display server or the user terminal And transmits word-of-mouth information of the specified object to the wearable terminal 1.
  • FIG. 6 is a flowchart illustrating an example of the wearable terminal display process according to the present embodiment.
  • the wearable terminal display process is executed by the control unit 10 of the wearable terminal 1.
  • step S ⁇ b> 1 the control unit 10 causes the image acquisition unit 30 to acquire an image of an object that is within the field of view of the wearable terminal 1 (a range that can be imaged by the image acquisition unit 30).
  • step S2 the specifying unit 11 analyzes the image obtained by the image obtaining unit 30 in step S1, and specifies the target.
  • step S3 the word-of-mouth information acquiring means 12 acquires word-of-mouth information of the object specified by the specifying means 11 in step S2 from an external database.
  • the word-of-mouth information acquisition means 12 may acquire a plurality of word-of-mouth information.
  • step S4 the word-of-mouth information display unit 13 extends the word-of-mouth information acquired by the word-of-mouth information acquisition unit 12 in step S6 on the display panel 20 of the wearable terminal 1 with respect to an object visible through the display panel 20. Display as reality.
  • FIG. 7 is a diagram illustrating an example of the augmented reality displayed on the display board of the wearable terminal.
  • the word-of-mouth information acquisition unit 12 acquires a plurality of word-of-mouth information in step S3
  • the word-of-mouth information display unit 13 displays the plurality of word-of-mouth information in association with each other.
  • the word-of-mouth information display means 13 displays the name of the object (“nature”) on the display panel 20 near the object that can be seen through, and displays the name of the object as the name.
  • Word of mouth information (“aaa site a, impressed!” In the example shown in (a) and “bbb site bs should buy” in the example shown in (b)) are displayed in association with each other.
  • the word-of-mouth information includes the database name (“aaa site” shown in (a), “bbb site” shown in (b)), the word-of-mouth information provider name (“a” in (a), (“B”) shown in (b)) and a comment (“I was impressed!” Shown in (a) and “buy it.” Shown in (b)) may be included.
  • the word-of-mouth information display means 13 uses an icon indicating that there is other word-of-mouth information along the word-of-mouth information as an arrow (a downward arrow in the example shown in (a), (b) In the example shown in (1), an upward arrow) is displayed.
  • the word-of-mouth information display means 13 displays such an icon when a plurality of word-of-mouth information has been acquired by the word-of-mouth information acquisition means 12, and changes the display to another word-of-mouth information in response to a user operation or a voice instruction. May be.
  • the word-of-mouth information shown in (a) is displayed on the display panel 20
  • the user changes the display to the word-of-mouth information shown in (b) by a downward operation or a voice instruction.
  • the display can be changed to the word-of-mouth information shown in (a) by an upward operation or a voice instruction.
  • the display mode of the plurality of word-of-mouth information by the word-of-mouth information display means 13 is not limited to the example shown in FIG. (Adjacent) may be displayed.
  • step S5 the determination unit 14 analyzes the image acquired by the image acquisition unit 30, and determines whether the object has been purchased. If the determining unit 14 determines that the target has been purchased, the process proceeds to step S6, and if it determines that the target has not been purchased, the process proceeds to step S1. In this step, for example, when a predetermined time (for example, 5 minutes or the like) has elapsed since the word-of-mouth information display unit 13 displayed the word-of-mouth information in step S4, the determination unit 14 determines that the object has not been purchased. judge.
  • a predetermined time for example, 5 minutes or the like
  • step S6 the opportunity information transmitting unit 15 sends the word-of-mouth information acquired by the word-of-mouth information acquiring unit 12 in step S3 to the word-of-mouth information indicating that the purchase of the object has been triggered.
  • the word-of-mouth information is transmitted to the acquired external database.
  • step S7 the calculating means 16 determines the degree of contribution of the dealer and the word-of-mouth information provider to the purchased object.
  • step S8 when the object is purchased, the distribution unit 18 provides the sales amount of the purchased object, the store where the purchased object was sold, and word-of-mouth information of the purchased object. And the word-of-mouth information provider who gave it.
  • the wearable terminal display system of the present embodiment described above the acquired image of the target object is analyzed, the target object is specified, word-of-mouth information of the target object is obtained from an external database, and the wearable terminal 1 The information is displayed on the display panel 20 as augmented reality. Then, when the object is purchased, the sales amount of the purchased object is determined by the store that sold the purchased object, the word-of-mouth information provider that provided word-of-mouth information of the purchased object, Distribute with. Thereby, word-of-mouth information of various objects that are within the field of view of the wearable terminal 1 is not limited to augmented reality, not limited to objects whose positions and the like are determined in advance, such as products placed in a specific store.
  • the sales price of the object can be distributed between the store and the word-of-mouth information provider, so the word-of-mouth information provider It is possible to encourage the provision. Therefore, it is possible to display word-of-mouth information of the object within the field of view of the wearable terminal, and to distribute the sales amount between the store and the word-of-mouth information provider when the object is purchased.
  • the contribution of the store and the word-of-mouth information provider to the purchased object is determined, and the sales amount is distributed according to the contribution. For this reason, it becomes possible for the word-of-mouth information provider to be more helpful to the user and to increase the willingness to provide word-of-mouth information that leads to a purchase. Word-of-mouth information can be displayed.
  • a plurality of word-of-mouth information is displayed in association with each other, so that the user can compare the plurality of word-of-mouth information and examine the evaluation of the object. On the other hand, it is possible to make more useful decisions.

Landscapes

  • Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Engineering & Computer Science (AREA)
  • Accounting & Taxation (AREA)
  • Development Economics (AREA)
  • Finance (AREA)
  • Economics (AREA)
  • Game Theory and Decision Science (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Marketing (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】本発明は、IoT(Internet of Things)に関連し、技術分野はIPC分類においてG06Q等に該当し、ウェアラブル端末の視界に入った対象物の口コミ情報を表示して、対象物が購入された場合に、販売金額を販売店と口コミ情報提供者とで分配することを可能にする。【解決手段】ウェアラブル端末表示システム100は、ウェアラブル端末の視界に入った対象物の画像を取得し、この画像を解析して、対象物を特定する特定手段11と、特定された対象物の口コミ情報を外部の口コミのデータベースから取得する口コミ情報取得手段12と、口コミ情報を拡張現実として表示する口コミ情報表示手段13と、対象物が購入されたかどうかを判定する判定手段14と、対象物が購入された場合に、購入された対象物の販売金額を、購入された対象物を販売した販売店と、購入された対象物の口コミ情報を提供した口コミ情報提供者と、で分配する分配手段18と、を備える。

Description

ウェアラブル端末表示システム、方法、プログラム及びウェアラブル端末
 本発明は、IoT(Internet of Things)に関連し、技術分野はIPC分類においてG06Q等に該当し、ウェアラブル端末表示システム、方法、プログラム及びウェアラブル端末に関する。
 従来、光学シースルー方式またはビデオシースルー方式を採用した表示部を備える携帯型の端末装置において、撮像画像に他の情報を重畳した拡張現実画像を表示する技術が知られている。
 例えば、特許文献1には、スーパーマーケットなどのように様々な商品が陳列されている店舗で貸与され、現実空間を撮像するための撮像手段と、撮像手段によって撮像された撮像画像に含まれる商品に関する商品情報を取得する商品情報取得部と、撮像手段によって撮像された撮像画像に含まれる商品の位置に基づいて、商品情報取得部によって取得された商品情報を現実空間に重畳して表示するための拡張現実画像を生成する画像生成部と、画像生成部によって生成された拡張現実画像を表示可能な表示部と、を備える商品情報提供端末装置が提案されている。
特開2011-2583324号公報
 ところで、近年、ユーザは、商品を購入する場合や、飲食店を利用する場合等において、当該商品や飲食店等の対象物に対する口コミ情報を参照して、対象物を購入したり、利用したりすることを決定する。
 しかしながら、特許文献1の商品情報提供端末装置は、特定の店舗内のように、予め商品の位置が決まっている場合には、当該商品の商品情報を表示できるが、任意の場所で、商品等の対象物が、予め特定できない場合には、対象物の口コミ情報を取得することもできず、口コミ情報を表示できないという問題がある。さらに、特許文献1の商品情報提供端末装置は、口コミ情報を表示できないため、当然に、対象物が購入された場合に、対象物の販売金額を、販売店と口コミ情報の提供者とで分配できない。
 本発明は、ウェアラブル端末の視界に入った対象物の口コミ情報を表示して、対象物が購入された場合に、販売金額を販売店と口コミ情報提供者とで分配することが可能なウェアラブル端末表示システム、方法、プログラム及びウェアラブル端末を提供することを目的とする。
 本発明では、以下のような解決手段を提供する。
 本発明は、ウェアラブル端末の表示板に、対象物の口コミ情報を表示するウェアラブル端末表示システムであって、
 前記ウェアラブル端末の視界に入った対象物の画像を取得する画像取得手段と、
 前記画像を解析して、前記対象物を特定する特定手段と、
 前記特定された対象物の口コミ情報を外部の口コミのデータベースから取得する口コミ情報取得手段と、
 前記ウェアラブル端末の表示板に、当該表示板を透過して見える前記対象物に対して、前記取得された口コミ情報を拡張現実として表示する口コミ情報表示手段と、
 前記画像を解析して、前記対象物が購入されたかどうかを判定する判定手段と、
 前記対象物が購入された場合に、前記購入された対象物の販売金額を、前記購入された対象物を販売した販売店と、前記購入された対象物の口コミ情報を提供した口コミ情報提供者と、で分配する分配手段と、
を備えるウェアラブル端末表示システムを提供する。
 また、本発明は、前記販売店と、前記口コミ情報提供者と、の前記購入された対象物に係る寄与度を決定する計算手段を備え、
 前記分配手段は、寄与度に応じて分配してもよい。
 また、本発明は、前記口コミ情報取得手段は、複数の前記口コミ情報を取得し、
 前記口コミ情報表示手段は、複数の前記口コミ情報を関連させて表示してもよい。
 また、本発明は、システムのカテゴリであるが、方法及びプログラムであってもよい。
 また、本発明は、上記ウェアラブル端末表示システムで使用されるウェアラブル端末を提供する。
 本発明によれば、ウェアラブル端末の視界に入った対象物の口コミ情報を表示して、対象物が購入された場合に、販売金額を販売店と口コミ情報提供者とで分配することが可能となる。
図1は、本実施形態に係るウェアラブル端末表示システムの概要を示す概念図である。 図2は、本実施形態のウェアラブル端末表示システムで使用されるウェアラブル端末の外観を説明する図である。 図3は、本実施形態のウェアラブル端末表示システムで使用されるウェアラブル端末の機能構成を示すブロック図である。 図4は、本実施形態のウェアラブル端末における制御部の機能構成を示すブロック図である。 図5は、寄与度決定DBを模式的に示す図である。 図6は、本実施形態のウェアラブル端末表示処理の一例を示すフローチャートである。 図7は、ウェアラブル端末の表示板に表示された拡張現実の一例を示す図である。
 以下、本発明を実施するための最良の形態について図を参照しながら説明する。なお、これはあくまでも一例であって、本発明の技術的範囲はこれに限られるものではない。
 <全体構成>
 図1は、本実施形態に係るウェアラブル端末表示システムの概要を示す概念図である。
 ウェアラブル端末表示システム100は、ウェアラブル端末1の表示板20に、対象物の口コミ情報を表示するシステムである。
 ウェアラブル端末表示システム100は、ウェアラブル端末1の視界(ウェアラブル端末1に設けられた画像取得手段(例えば、カメラ等)の撮像可能範囲)に入った対象物の画像を取得する。
 ここで、本実施形態において「対象物」とは、画像の解析により特定可能となる商品(本、化粧品、電気製品等)や、不動産(店舗名等の看板等により名称が特定可能な不動産であり、各種店舗、会社の社屋、公共施設、アミューズメント施設、競技場等)である。
 ウェアラブル端末表示システム100は、取得した対象物の画像を解析し、対象物を特定する(図1に示す例では、対象物を本「nature」と特定)。
 次に、ウェアラブル端末表示システム100は、特定された対象物(図1に示す例では、本「nature」)の口コミ情報を、外部のデータベースから取得する。ここで、本実施形態において、「口コミ情報」とは、対象物に対する第三者の評価や、コメントや、対象物に関する写真等であるが、対象物の関係者によるコメントや写真等であってもよい。
 そして、ウェアラブル端末表示システム100は、ウェアラブル端末1の表示板20に、当該表示板を透過して見える対象物に対して、取得された口コミ情報((図1に示す例では「評価A」))を、例えば、対象物を示す情報(例えば、対象物の名称等(図1に示す例では「nature」))と、当該口コミ情報を提供した口コミ情報提供者の名前(図1に示す例では「aさん」))ともに、拡張現実として表示する。
 次に、ウェアラブル端末表示システム100は、画像を解析して、対象物が購入されたかどうかを判定する。例えば、ウェアラブル端末表示システム100は、ある対象物に対して、口コミ情報を拡張現実として表示した後、当該対象物が所定時間以上撮像されていた場合、当該口込み情報を契機として、当該対象物が購入されたと判定する。
 そして、ウェアラブル端末表示システム100は、対象物が購入された場合には、購入された対象物の販売金額を、購入された対象物を販売した販売店と、購入された対象物の口コミ情報を提供した口コミ情報提供者と、で分配する。例えば、ウェアラブル端末表示システム100は、販売店と、対象物が購入された契機となった口コミ情報(例えば、当該対象物が所定時間以上撮像される状態になる直前に表示していた口コミ情報)を提供した口コミ情報提供者と、で販売金額を分配するための分配率を決定する。
 このようなウェアラブル端末表示システム100によれば、取得した対象物の画像を解析し、対象物を特定し、この対象物の口コミ情報を、外部のデータベースから取得し、ウェアラブル端末1の表示板20に、拡張現実として表示する。そして、対象物が購入された場合に、購入された対象物の販売金額を、購入された対象物を販売した販売店と、購入された対象物の口コミ情報を提供した口コミ情報提供者と、で分配する。
 これにより、特定の店舗内に配置された商品のように、予め位置等が決まっているような対象物に限らず、ウェアラブル端末1の視界に入った様々な対象物の口コミ情報を、拡張現実として表示できる。さらに、この口コミ情報を契機に、対象物が購入された場合、対象物の販売金額を、販売店と、口コミ情報提供者と、で分配できるので、口コミ情報提供者に対して、口コミ情報の提供を促すことが可能となる。
 したがって、ウェアラブル端末の視界に入った対象物の口コミ情報を表示して、対象物が購入された場合に、販売金額を販売店と口コミ情報提供者とで分配することが可能となる。
 <機能構成>
 本実施形態のウェアラブル端末表示システム100は、少なくともウェアラブル端末1を備える。以下に説明する実施形態では、各種処理をウェアラブル端末1により実行するが、これに限らず、ウェアラブル端末表示システム100は、各種処理の一部を、ウェアラブル端末1とネットワークを介して接続されたサーバや、ユーザに操作される携帯端末(例えば、スマートフォン等)により実行してもよい。
 図2は、本実施形態のウェアラブル端末表示システムで使用されるウェアラブル端末の外観を説明する図である。
 図3は、本実施形態のウェアラブル端末表示システムで使用されるウェアラブル端末の機能構成を示すブロック図である。
 本実施形態では、ウェアラブル端末1は、眼鏡型であるが、これに限らず、対象物の画像を取得し、口コミ情報を拡張現実として表示できれば、例えば、腕時計型等の任意の形態であってもよい。
 ウェアラブル端末1は、HMD(Head Mounted Display)で構成され、図2に示すように、眼鏡形状のフレーム2を備え、このフレーム2に、図3に示す、制御部10と、表示板20と、画像取得手段30と、通信手段40と、が設けられている。
 制御部10は、図示しないプロセッサ、メモリ、ストレージを備え、これらはバスにより接続されている。プロセッサは、例えば、CPU(Central Processing Unit)により構成され、メモリに記憶された各種プログラムを読み出して実行することで、各種処理を行うことで、後述する各手段として機能する。メモリは、CPUにより実行されるプログラムを記憶するものであり、例えば、ROM(Read Only Memory)やRAM(Random Access Memory)により構成される。ストレージは、拡張現実を表示するためのデータベースや制御プログラムなどを記憶するものである。
 表示板20は、公知の手段により、現実空間の対象物に仮想空間の口コミ情報を重畳して表示した拡張現実画像を表示可能に構成されている。詳細には、表示板20は、透過型のディスプレイであり、ユーザの目の前面に配置され、制御部10の制御により、ディスプレイを透過して、ユーザに視認される現実空間の対象物に、制御部10により生成された情報を重畳して表示した拡張現実画像を表示する。
 画像取得手段30は、例えば、カメラで構成され、表示板20の近傍に設けられ、制御部10の制御により、ウェアラブル端末1の視界(画像取得手段30で撮像可能な範囲)に入った対象物の画像を取得する。
 通信手段40は、制御部10の制御により、ネットワークを介して外部のデータベースとデータ通信を行う。
 図4は、本実施形態のウェアラブル端末における制御部の機能構成を示すブロック図である。
 制御部10は、特定手段11と、口コミ情報取得手段12と、口コミ情報表示手段13と、判定手段14と、契機情報送信手段15と、計算手段16と、寄与度決定データベース(以下、「寄与度決定DB」とも言う。)17と、分配手段18と、を備える。
 特定手段11は、画像取得手段30(図2及び図3参照)が取得した画像を解析し、対象物を特定する。具体的には、特定手段11は、公知の手段により、取得した画像と類似する画像を検索したり、文字の画像から商品名等のテキストデータを抽出したりする。特定手段11は、外部のサーバにアクセスし、画像を検索したり、抽出したテキストデータに基づき検索したりしてもよいし、記憶手段に記憶されたデータベースを検索してもよい。
 口コミ情報取得手段12は、特定された対象物の口コミ情報を、外部のデータベースから取得する。また、口コミ情報取得手段12は、複数の口コミ情報を取得してもよい。口コミ情報取得手段12は、特定手段11が特定した対象物の種類に応じた外部のデータベースを検索し、この検索により抽出されたデータベースから、対象物の口コミ情報を取得する。また、口コミ情報取得手段12は、口コミ情報とともに、当該口コミ情報を契機に対象物の購入に至った回数を示す購入契機回数情報を受信してもよい。
 また、口コミ情報取得手段12は、特定された対象物の画像が、所定時間(例えば、5秒等)以上、画像取得手段30により取得された場合に、当該対象物の口コミ情報を取得してもよい。これにより、ユーザの興味があると推測される対象物にのみ口コミ情報を取得し、表示することが可能となる。
 口コミ情報表示手段13は、ウェアラブル端末1の表示板20に、当該表示板20を透過して見える対象物に対して、取得された口コミ情報を拡張現実として表示する。また、口コミ情報表示手段13は、口コミ情報取得手段12が複数の口コミ情報を取得した場合、口コミ情報を関連させて表示する。また、口コミ情報表示手段13は、口コミ情報取得手段12が購入契機回数情報を受信していた場合には、口コミ情報に対応付けて購入契機回数を表示してもよい。
 判定手段14は、画像を解析して、対象物が購入されたかどうかを判定する。具体的には、判定手段14は、口コミ情報表示手段13が、ある対象物に対して、口コミ情報を拡張現実として表示した後、画像取得手段30により、当該対象物が所定量(時間や、回数等)以上、撮像されていた場合、当該口込み情報を契機として、当該対象物が購入されたと判定する。また、判定手段14は、画像取得手段30により、「¥」が付された数字(例えば、「¥2,500」等)の画像が取得された場合に、対象物が購入されたと判定してもよい。
 契機情報送信手段15は、判定手段14がある口込み情報を契機として、対象物が購入されたと判定した場合、当該口込み情報が、当該対象物の購入の契機となったことを示す契機情報を、口コミ情報取得手段12が当該口コミ情報を取得した外部のデータベースに送信する。外部のデータベースは、契機情報を受信した場合、当該契機情報に対応する口込み情報の購入契機回数情報に“1”加算する。このように、ある口コミ情報が契機となって対象物が購入された場合に、契機情報を、口コミ情報を提供するデータベースに送信し、この契機情報を累積した値を示す購入契機回数情報を、口コミ情報とともに表示する。これにより、ユーザは、ある対象物を購入するか否かを判断するときに参考にする口コミ情報に対して、実際に購入に至った回数を知ることができるので、単に参考になったか否かを示す回数が表示される場合に比べ、口コミ情報に対する信頼度をより正確に判断することが可能となる。
 計算手段16は、販売店と、口コミ情報提供者と、の購入された対象物に係る寄与度を決定する。具体的には、計算手段16は、口コミ情報取得手段12が取得した購入契機回数情報に“1”加算(今回、購入に至ったことによる加算)した値に基づき、寄与度決定DB17を参照して、販売店と、口コミ情報提供者と、の購入された対象物に係る寄与度を決定する。
 図5は、寄与度決定DBを模式的に示す図である。
 寄与度決定DB17は、口コミ情報を契機に対象物の購入に至った回数を示す購入契機回数情報に対し、販売店と、口コミ情報提供者と、の購入された対象物に係る寄与度(図5に示す例では%で示されている。)が対応付けられている。
 具体的には、計算手段16は、例えば、口コミ情報の購入契機回数情報が“1”の場合(今回、初めて購入の契機となった場合)、販売店の寄与度を99%、口コミ情報提供者の寄与度を1%に決定する。また、計算手段16は、例えば、口コミ情報の購入契機回数情報が“21以上”の場合、販売店の寄与度を95%、口コミ情報提供者の寄与度を5%に決定する。図5に示す例では、購入契機回数情報(購入の契機となった回数)が多いほど、寄与度がより高くなるように設定されている。なお、計算手段16は、購入契機回数情報が多いほど、寄与度がより高くなる態様に限らず、購入への影響がより多い口コミ情報に対して、寄与度がより高くなる任意の態様で、寄与度を決定することができる。
 図4に戻って、分配手段18は、対象物が購入された場合に、購入された対象物の販売金額を、購入された対象物を販売した販売店と、購入された対象物の口コミ情報を提供した口コミ情報提供者と、で分配する。詳細には、分配手段18は、計算手段16が決定した寄与度に応じて分配する。例えば、販売金額が1000円であり、口コミ情報が、今回、初めて購入の契機となった場合、図5に示す例では、計算手段16は、販売店の寄与度を99%、口コミ情報提供者の寄与度を1%に決定し、分配手段18は、販売金額1000円を、販売店に990円、口コミ情報提供者に10円に分配する。
 制御部10は、このような分配を示す情報を、例えば、販売店側が管理するサーバや、口コミ情報を提供するデータベースに送信してもよい。そして、販売店側や口コミ情報を提供するデータベースの管理者から、口コミ情報提供者に還元されるのが望ましい。この場合、実際の通貨で還元してもよいし、仮想通貨でもよいし、金銭的価値を有するクーポンでもよい。
 本実施形態のウェアラブル端末表示システムでは、ウェアラブル端末1の制御部10が、特定手段11と、判定手段14、契機情報送信手段15、計算手段16、寄与度決定DB17及び分配手段18を備えるが、これに限らす、これらの手段の一部又は全てを、ウェアラブル端末1、外部のデータベースとネットワークを介して接続されたウェアラブル端末表示サーバや、ユーザが操作するユーザ端末(例えば、スマートフォン等)が備えてもよい。このように構成する場合、ウェアラブル端末1は、画像取得手段30が取得した画像を、通信手段40により、ウェアラブル端末表示サーバや、ユーザ端末に送信し、ウェアラブル端末表示サーバや、ユーザ端末は、上記の各種処理を実行し、特定された対象物の口コミ情報を、ウェアラブル端末1に送信する。
 <ウェアラブル端末表示処理>
 次に、ウェアラブル端末表示システムによるウェアラブル端末表示処理の一例について、図6を参照して説明する。
 図6は、本実施形態のウェアラブル端末表示処理の一例を示すフローチャートである。
 本実施形態において、ウェアラブル端末表示処理は、ウェアラブル端末1の制御部10が実行する。
 ステップS1において、制御部10は、画像取得手段30により、ウェアラブル端末1の視界(画像取得手段30で撮像可能な範囲)に入った対象物の画像を取得する。
 ステップS2において、特定手段11は、ステップS1で画像取得手段30が取得した画像を解析し、対象物を特定する。
 ステップS3において、口コミ情報取得手段12は、ステップS2で特定手段11が特定した対象物の口コミ情報を、外部のデータベースから取得する。また、本ステップにおいて、口コミ情報取得手段12は、複数の口コミ情報を取得してもよい。
 ステップS4において、口コミ情報表示手段13は、ウェアラブル端末1の表示板20に、当該表示板20を透過して見える対象物に対して、ステップS6で口コミ情報取得手段12が取得した口コミ情報を拡張現実として表示する。
 図7は、ウェアラブル端末の表示板に表示された拡張現実の一例を示す図である。
 口コミ情報表示手段13は、ステップS3で口コミ情報取得手段12が複数の口コミ情報を取得した場合、複数口コミ情報を関連させて表示する。
 この場合、図7に示すように、口コミ情報表示手段13は、表示板20において、透過して見える対象物近傍に、対象物の名称(「nature」)を表示し、この対象物の名称に紐付けて口コミ情報((a)に示す例では「aaaサイト aさん 感動した!」、(b)に示す例では「bbbサイト bsん 買うべき。」)を表示している。このように、口コミ情報には、データベース名((a)に示す「aaaサイト」、(b)に示す「bbbサイト」)と、口コミ情報提供者名((a)に示す「aさん」、(b)に示す「bさん」)と、コメント((a)に示す「感動した!」、(b)に示す「買うべき。」)とが含まれてもよい。また、図7に示す例では、口コミ情報表示手段13は、口コミ情報に沿って、他の口コミ情報が有ることを示すアイコンとして、矢印((a)に示す例では下向きの矢印、(b)に示す例では上向きの矢印)を表示している。口コミ情報表示手段13は、口コミ情報取得手段12により、複数の口コミ情報が取得されていた場合、このようなアイコンを表示し、ユーザによる操作や音声による指示により、他の口コミ情報に表示を遷移させてもよい。図7に示す例では、ユーザは、表示板20に(a)に示す口コミ情報が表示されていた場合、下向きの操作や音声による指示により、(b)に示す口コミ情報に表示を遷移させることが可能であり、(b)に示す口コミ情報が表示されていた場合、上向きの操作や音声による指示により、(a)に示す口コミ情報に表示を遷移させることが可能である。なお、口コミ情報表示手段13による複数の口コミ情報の表示態様は、図7に示す例に限らず、複数の口コミ情報を関連させた表示態様であれば、例えば、複数の口コミ情報を対比する形態(隣接して)で表示してもよい。
 図6に戻って、ステップS5において、判定手段14は、画像取得手段30により取得された画像を解析して、対象物が購入されたかどうかを判定する。判定手段14は、対象物が購入されたと判定した場合にはステップS6に処理を移し、対象物が購入されていないと判定した場合にはステップS1に処理を移す。本ステップにおいて、判定手段14は、例えば、ステップS4で口コミ情報表示手段13が口コミ情報を表示してから、所定時間(例えば、5分等)経過した場合に、対象物が購入されていないと判定する。
 ステップS6において、契機情報送信手段15は、ステップS3で口コミ情報取得手段12が取得した口込み情報が、当該対象物の購入の契機となったことを示す契機情報を、口コミ情報取得手段12が当該口コミ情報を取得した外部のデータベースに送信する。
 ステップS7において、計算手段16は、販売店と、口コミ情報提供者と、の購入された対象物に係る寄与度を決定する。
 ステップS8において、分配手段18は、対象物が購入された場合に、購入された対象物の販売金額を、購入された対象物を販売した販売店と、購入された対象物の口コミ情報を提供した口コミ情報提供者と、で分配する。
 <効果>
 以上説明した本実施形態のウェアラブル端末表示システムによれば、取得した対象物の画像を解析し、対象物を特定し、この対象物の口コミ情報を、外部のデータベースから取得し、ウェアラブル端末1の表示板20に、拡張現実として表示する。そして、対象物が購入された場合に、購入された対象物の販売金額を、購入された対象物を販売した販売店と、購入された対象物の口コミ情報を提供した口コミ情報提供者と、で分配する。
 これにより、特定の店舗内に配置された商品のように、予め位置等が決まっているような対象物に限らず、ウェアラブル端末1の視界に入った様々な対象物の口コミ情報を、拡張現実として表示できる。さらに、この口コミ情報を契機に、対象物が購入された場合、対象物の販売金額を、販売店と、口コミ情報提供者と、で分配できるので、口コミ情報提供者に対して、口コミ情報の提供を促すことが可能となる。
 したがって、ウェアラブル端末の視界に入った対象物の口コミ情報を表示して、対象物が購入された場合に、販売金額を販売店と口コミ情報提供者とで分配することが可能となる。
 また、本実施形態のウェアラブル端末表示システムによれば、販売店と、口コミ情報提供者と、の購入された対象物に係る寄与度を決定し、寄与度に応じて販売金額を分配する。このため、口コミ情報提供者に対し、よりユーザの参考になり、購入に至るような口コミ情報を提供することへの意欲を向上させることが可能となり、口コミ情報の内容が充実し、より有用な口コミ情報を表示することが可能となる。
 また、本実施形態のウェアラブル端末表示システムによれば、複数の口コミ情報を関連させて表示するので、ユーザは、複数の口コミ情報を対比させて、対象物の評価を検討できるので、対象物に対して、より有用な判断をすることが可能となる。
 以上、本発明の実施形態について説明したが、本発明は上述したこれらの実施形態に限るものではない。また、本発明の実施形態に記載された効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、本発明の実施形態に記載されたものに限定されるものではない。
 1・・・ウェアラブル端末、2・・・フレーム、10・・・制御部、11・・・特定手段、12・・・口コミ情報取得手段、13・・・口コミ情報表示手段、14・・・判定手段、15・・・契機情報送信手段、16・・・計算手段、17・・・寄与度決定DB、18・・・分配手段、20・・・表示板、30・・・画像取得手段、40・・・通信手段、100・・・ウェアラブル端末表示システム

Claims (6)

  1.  ウェアラブル端末の表示板に、対象物の口コミ情報を表示するウェアラブル端末表示システムであって、
     前記ウェアラブル端末の視界に入った対象物の画像を取得する画像取得手段と、
     前記画像を解析して、前記対象物を特定する特定手段と、
     前記特定された対象物の口コミ情報を外部の口コミのデータベースから取得する口コミ情報取得手段と、
     前記ウェアラブル端末の表示板に、当該表示板を透過して見える前記対象物に対して、前記取得された口コミ情報を拡張現実として表示する口コミ情報表示手段と、
     前記画像を解析して、前記対象物が購入されたかどうかを判定する判定手段と、
     前記対象物が購入された場合に、前記購入された対象物の販売金額を、前記購入された対象物を販売した販売店と、前記購入された対象物の口コミ情報を提供した口コミ情報提供者と、で分配する分配手段と、
    を備えるウェアラブル端末表示システム。
  2.  前記販売店と、前記口コミ情報提供者と、の前記購入された対象物に係る寄与度を決定する計算手段を備え、
     前記分配手段は、寄与度に応じて分配する
    請求項1に記載のウェアラブル端末表示システム。 
  3.  前記口コミ情報取得手段は、複数の前記口コミ情報を取得し、
     前記口コミ情報表示手段は、複数の前記口コミ情報を関連させて表示する請求項1又は2に記載のウェアラブル端末表示システム。
  4.  ウェアラブル端末の表示板に、対象物の口コミ情報を表示するウェアラブル端末表示システムが実行する方法であって、
     前記ウェアラブル端末の視界に入った対象物の画像を取得するステップと、
     前記画像を解析して、前記対象物を特定するステップと、
     前記特定された対象物の口コミ情報を外部の口コミのデータベースから取得するステップと、
     前記ウェアラブル端末の表示板に、当該表示板を透過して見える前記対象物に対して、前記取得された口コミ情報を拡張現実として表示するステップと、
     前記画像を解析して、前記対象物が購入されたかどうかを判定するステップと、
     前記対象物が購入された場合に、前記購入された対象物の販売金額を、前記購入された対象物を販売した販売店と、前記購入された対象物の口コミ情報を提供した口コミ情報提供者と、で分配するステップと、
    を含むウェアラブル端末表示方法。
  5.  ウェアラブル端末の表示板に、対象物の口コミ情報を表示するウェアラブル端末表示システムを、
     前記ウェアラブル端末の視界に入った対象物の画像を取得する画像取得手段、
     前記画像を解析して、前記対象物を特定する特定手段、
     前記特定された対象物の口コミ情報を外部の口コミのデータベースから取得する口コミ情報取得手段、
     前記ウェアラブル端末の表示板に、当該表示板を透過して見える前記対象物に対して、前記取得された口コミ情報を拡張現実として表示する口コミ情報表示手段、
     前記画像を解析して、前記対象物が購入されたかどうかを判定する判定手段、
     前記対象物が購入された場合に、前記購入された対象物の販売金額を、前記購入された対象物を販売した販売店と、前記購入された対象物の口コミ情報を提供した口コミ情報提供者と、で分配する分配手段、
    として機能させるためのプログラム。
  6.  請求項1から3のいずれかに記載のウェアラブル端末表示システムで使用されるウェアラブル端末。
     
     
     
     
     
     
PCT/JP2018/033346 2018-09-10 2018-09-10 ウェアラブル端末表示システム、方法、プログラム及びウェアラブル端末 WO2020053914A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2018/033346 WO2020053914A1 (ja) 2018-09-10 2018-09-10 ウェアラブル端末表示システム、方法、プログラム及びウェアラブル端末
JP2020546543A JP6908792B2 (ja) 2018-09-10 2018-09-10 ウェアラブル端末表示システム、方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/033346 WO2020053914A1 (ja) 2018-09-10 2018-09-10 ウェアラブル端末表示システム、方法、プログラム及びウェアラブル端末

Publications (1)

Publication Number Publication Date
WO2020053914A1 true WO2020053914A1 (ja) 2020-03-19

Family

ID=69777758

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/033346 WO2020053914A1 (ja) 2018-09-10 2018-09-10 ウェアラブル端末表示システム、方法、プログラム及びウェアラブル端末

Country Status (2)

Country Link
JP (1) JP6908792B2 (ja)
WO (1) WO2020053914A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022049559A (ja) * 2020-09-16 2022-03-29 ヤフー株式会社 制御プログラム、制御方法、端末装置及びサーバ装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170293947A1 (en) * 2014-09-30 2017-10-12 Pcms Holdings, Inc. Reputation sharing system using augmented reality systems
JP6243570B1 (ja) * 2017-03-27 2017-12-06 エヌカント株式会社 販売促進システム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170293947A1 (en) * 2014-09-30 2017-10-12 Pcms Holdings, Inc. Reputation sharing system using augmented reality systems
JP6243570B1 (ja) * 2017-03-27 2017-12-06 エヌカント株式会社 販売促進システム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022049559A (ja) * 2020-09-16 2022-03-29 ヤフー株式会社 制御プログラム、制御方法、端末装置及びサーバ装置
JP7260517B2 (ja) 2020-09-16 2023-04-18 ヤフー株式会社 制御プログラム、制御方法、端末装置及びサーバ装置

Also Published As

Publication number Publication date
JPWO2020053914A1 (ja) 2021-08-30
JP6908792B2 (ja) 2021-07-28

Similar Documents

Publication Publication Date Title
US10679282B2 (en) Method, apparatus, and manufacture for virtual jewelry shopping in secondary markets
JP2012208854A (ja) 行動履歴管理システムおよび行動履歴管理方法
EP3975131A1 (en) Systems and methods for generating augmented reality content based on distorted three-dimensional models
WO2012147238A1 (ja) 情報処理装置、情報処理方法、情報処理プログラム、及び情報処理プログラムが記録された記録媒体
US20140337177A1 (en) Associating analytics data with an image
KR20150106020A (ko) 스마트 기기를 이용한 미술품 중개 시스템
WO2020053914A1 (ja) ウェアラブル端末表示システム、方法、プログラム及びウェアラブル端末
KR101863541B1 (ko) 쇼핑몰 이용자를 위한 맞춤형 이벤트 제공 방법 및 이에 사용되는 관리 서버
CN107958399B (zh) 信息提供方法、装置及结算终端设备
JP6574641B2 (ja) 視線情報処理システム及び視線情報処理方法
WO2010150371A1 (ja) 人物評価装置、人物評価方法および人物評価プログラム
US11004115B2 (en) Determining a user's shopping interests based on sensor data identifying attributes of the user's garment
JP2011180745A (ja) 評価コメント表示システム、および評価コメント表示方法
JP2021108071A5 (ja) プログラム、情報処理方法、端末
KR20130038534A (ko) 온라인 쇼핑몰의 상품 판매시스템 및 그 판매방법
KR20150010050A (ko) 상품구매 ui 제공시스템 및 그 제공방법
KR20150071073A (ko) 온라인 상에서 포인트 선구매를 통한 상품구매의 할인 및 그 방법
WO2018033954A1 (ja) ショッピング支援システム及びショッピング支援方法
WO2013183053A2 (en) Wearable articles identification
KR20170019394A (ko) 상품 판매 중개 방법 및 시스템
CN111723307A (zh) 信息处理方法、装置、系统、存储介质及计算机设备
WO2020075229A1 (ja) ウェアラブル端末マーケティングシステム、方法、プログラム及びウェアラブル端末
KR20160032291A (ko) 고객이 구매하여 제공하는 상품 관련 이미지 또는 영상 정보에 기초한 상품 판매 방법
US9886732B2 (en) Systems and methods for pixel-based watermarking
EP3886030A1 (en) System and method of purchase verification for crowdsourcing based referral

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18933287

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020546543

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18933287

Country of ref document: EP

Kind code of ref document: A1