WO2020053913A1 - ウェアラブル端末表示システム、方法、プログラム及びウェアラブル端末 - Google Patents
ウェアラブル端末表示システム、方法、プログラム及びウェアラブル端末 Download PDFInfo
- Publication number
- WO2020053913A1 WO2020053913A1 PCT/JP2018/033345 JP2018033345W WO2020053913A1 WO 2020053913 A1 WO2020053913 A1 WO 2020053913A1 JP 2018033345 W JP2018033345 W JP 2018033345W WO 2020053913 A1 WO2020053913 A1 WO 2020053913A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- word
- wearable terminal
- mouth information
- terminal
- display
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
Definitions
- the present invention relates to IoT (Internet of Things), a technical field corresponding to G06Q or the like in the IPC classification, and relates to a wearable terminal display system, a method, a program, and a wearable terminal.
- IoT Internet of Things
- G06Q technical field corresponding to G06Q or the like in the IPC classification
- a technique for displaying an augmented reality image in which other information is superimposed on a captured image is known.
- Patent Literature 1 relates to an imaging unit for renting a store where various products are displayed, such as a supermarket, for imaging a real space, and a product included in a captured image captured by the imaging unit.
- a merchandise information acquiring unit for acquiring merchandise information, and a merchandise information acquiring unit configured to superimpose and display the merchandise information acquired by the merchandise information acquiring unit on a real space based on a position of the merchandise included in the image captured by the imaging unit.
- a product information providing terminal device including an image generation unit that generates an augmented reality image and a display unit that can display the augmented reality image generated by the image generation unit has been proposed.
- the user when purchasing a product or using a restaurant, the user refers to word-of-mouth information on the subject such as the product or the restaurant and purchases or uses the subject. Decide to do it.
- the product information providing terminal device of Patent Literature 1 can display the product information of the product when the location of the product is determined in advance, such as in a specific store. If the object cannot be specified in advance, there is a problem that word-of-mouth information of the object cannot be obtained and word-of-mouth information cannot be displayed.
- the present invention estimates the position of an object from the position and direction of the wearable terminal, specifies the object, and displays word-of-mouth information on the object that can be seen through the display panel of the wearable terminal. It is an object to provide a wearable terminal display system, a method, a program, and a wearable terminal capable of displaying a video in augmented reality.
- the word-of-mouth information acquisition means acquires a plurality of the word-of-mouth information
- the word-of-mouth information display means may display a plurality of the word-of-mouth information in association with each other.
- a sound acquisition means for acquiring sound around the wearable terminal, Voice conversion means for converting the obtained voice to text data, Transmitting means for transmitting the converted text data to the external database, May be further provided.
- a voice generating means for generating a voice around the wearable terminal, Translation means for translating the acquired word-of-mouth information from a predetermined language to another language, Text conversion means for converting the translated word-of-mouth information from text data to voice data, Further comprising The voice generating means generates a voice based on the converted voice data, The word-of-mouth information display means may display the translated word-of-mouth information.
- the present invention is in the category of the system, but may be a method and a program.
- the present invention also provides a wearable terminal used in the above wearable terminal display system.
- the present invention it is possible to display the word-of-mouth by specifying the object after estimating the position of the object.
- FIG. 1 is a conceptual diagram illustrating an outline of a wearable terminal display system according to the present embodiment.
- FIG. 2 is a diagram illustrating an appearance of a wearable terminal used in the wearable terminal display system according to the present embodiment.
- FIG. 3 is a block diagram illustrating a functional configuration of the wearable terminal used in the wearable terminal display system according to the present embodiment.
- FIG. 4 is a block diagram illustrating a functional configuration of a control unit in the wearable terminal according to the present embodiment.
- FIG. 5 is a flowchart illustrating an example of the wearable terminal display process according to the present embodiment.
- FIG. 6 is a diagram illustrating an example of the augmented reality displayed on the display board of the wearable terminal.
- FIG. 1 is a conceptual diagram illustrating an outline of a wearable terminal display system according to the present embodiment.
- the wearable terminal display system 100 is a system that displays word-of-mouth information of an object in the field of view of the wearable terminal 1 on the display board 20 of the wearable terminal 1 as augmented reality.
- the wearable terminal display system 100 acquires an image of an object that is within the field of view of the wearable terminal 1 (an image capture range of an image acquisition unit (for example, a camera or the like) provided in the wearable terminal 1).
- an image capture range of an image acquisition unit for example, a camera or the like
- the wearable terminal display system 100 estimates the position of the target imaged in the image from the acquired terminal position of the wearable terminal 1 and the imaging direction.
- the wearable terminal display system 100 acquires word-of-mouth information of the specified target object (“AA shop @ Shinjuku store” in the example shown in FIG. 1) from an external database.
- the “word-of-mouth information” is a third-party evaluation of the object, a comment, a photograph of the object, or the like, but is a comment or a photograph of a person related to the object. Is also good.
- the acquired image of the target object and the estimated position of the target object are analyzed, the target object is specified, and word-of-mouth information of the target object is obtained from an external database. It is displayed on the display panel 20 of the terminal 1 as augmented reality.
- word-of-mouth information of various objects within the field of view of the wearable terminal 1 is not limited to augmented reality, not limited to objects whose positions and the like are determined in advance, such as products placed in a specific store. Can be displayed as For this reason, the user can easily search for a target according to the purpose at a place visited for the first time by a trip or the like, and can further see word-of-mouth information of the searched target in real time.
- the wearable terminal display system includes at least the wearable terminal 1.
- various processes are executed by the wearable terminal 1.
- the wearable terminal display system 100 may perform a part of the various processes on a server connected to the wearable terminal 1 via a network. Alternatively, it may be executed by a mobile terminal (for example, a smartphone or the like) operated by the user.
- FIG. 2 is a diagram illustrating an appearance of a wearable terminal used in the wearable terminal display system according to the present embodiment.
- FIG. 3 is a block diagram illustrating a functional configuration of the wearable terminal used in the wearable terminal display system according to the present embodiment.
- the wearable terminal 1 is of a spectacle type, but is not limited thereto, and may be of any type such as a wristwatch type as long as it can acquire an image of an object and display word-of-mouth information as augmented reality. Is also good.
- the wearable terminal 1 is composed of an HMD (Head @ Mounted @ Display), and includes an eyeglass-shaped frame 2 as shown in FIG. 2, and the frame 2 includes a control unit 10, a display panel 20, and a display panel 20 shown in FIG.
- An image acquisition unit 30, a speech acquisition unit 40, a speech generation unit 50, a terminal position acquisition unit 60, an imaging direction acquisition unit 70, and a communication unit 80 are provided.
- the control unit 10 includes a processor, a memory, and a storage (not shown), which are connected by a bus.
- the processor is constituted by, for example, a CPU (Central Processing Unit) and performs various processes by reading and executing various programs stored in a memory, thereby functioning as each unit described later.
- the memory stores a program executed by the CPU, and includes, for example, a ROM (Read Only Memory) and a RAM (Random Access Memory).
- the storage stores a database and a control program for displaying augmented reality.
- the display panel 20 is configured to be able to display an augmented reality image in which word-of-mouth information in a virtual space is superimposed and displayed on an object in a real space by a known means.
- the display plate 20 is a transmissive display, is disposed in front of the user's eyes, and is controlled by the control unit 10 to transmit through the display and to display an object in the real space visually recognized by the user.
- An augmented reality image in which information generated by the control unit 10 is superimposed and displayed is displayed.
- the image acquisition unit 30 is configured by, for example, a camera, provided near the display panel 20, and controlled by the control unit 10 to enter the field of view of the wearable terminal 1 (a range that can be imaged by the image acquisition unit 30). Get the image of
- the audio acquisition unit 40 is configured by, for example, a microphone, and acquires audio around the wearable terminal 1 under the control of the control unit 10.
- the sound generation unit 50 is formed of, for example, a speaker, and generates sound around the wearable terminal 1 under the control of the control unit 10.
- the terminal position acquisition unit 60 is configured by, for example, a GPS (Global Positioning System), and acquires a terminal position (for example, latitude / longitude or address) of the wearable terminal 1 under the control of the control unit 10.
- a GPS Global Positioning System
- the imaging direction acquisition unit 70 is configured by, for example, an electronic compass, and acquires an imaging direction of the wearable terminal 1 (a direction in which a range in which the image can be captured by the image acquisition unit 30 is facing).
- the communication unit 80 performs data communication with an external database via a network under the control of the control unit 10.
- the communication unit 80 also functions as a transmission unit that transmits text data converted from audio data to an external database under the control of the control unit 10.
- FIG. 4 is a block diagram illustrating a functional configuration of a control unit in the wearable terminal according to the present embodiment.
- the control unit 10 includes an estimating unit 11, a specifying unit 12, a word-of-mouth information acquiring unit 13, a word-of-mouth information displaying unit 14, a voice converting unit 15, a translating unit 16, and a text converting unit 17.
- the estimating unit 11 is configured to determine the target object based on the terminal position acquired by the terminal position acquiring unit 60 (see FIGS. 2 and 3) and the imaging direction acquired by the imaging direction acquiring unit 70 (see FIGS. 2 and 3).
- the position of the object is estimated.
- the estimating means 11 estimates a position that is a predetermined distance (for example, 3 m or the like) away from the terminal position in the shooting direction as the target object position.
- the specifying unit 12 analyzes the image obtained by the image obtaining unit 30 (see FIGS. 2 and 3) and the position of the target object estimated by the estimating unit 11, and specifies the target object. Specifically, the specifying unit 12 searches for an image similar to the acquired image by a known unit. In addition, the specifying unit 12 searches for a real estate such as a store located at the target position. Then, the specifying unit 12 specifies an object from such a search result.
- the identification unit 12 may access an external server to search for an image, search for a real estate, or search a database stored in the storage unit.
- Word-of-mouth information acquisition means 13 acquires word-of-mouth information of the specified object from an external database. Further, the word-of-mouth information acquisition means 13 may acquire a plurality of word-of-mouth information. The word-of-mouth information obtaining means 13 searches an external database corresponding to the type of the object specified by the specifying means 12, and obtains word-of-mouth information of the object from the database extracted by this search. Specifically, if the specified object is a restaurant, the word-of-mouth information acquisition unit 13 collects evaluations and comments (word-of-mouth information) of the restaurant by a third party, and obtains word-of-mouth information from a provided database. Get information.
- the word-of-mouth information acquisition means 13 collects and provides word-of-mouth information such as a miscellaneous goods information site if the specified object is a general store or a data bank for accumulating information on the company if the specified object is a company. Get word-of-mouth information from.
- the word-of-mouth information display means 14 displays the obtained word-of-mouth information as augmented reality on the display panel 20 of the wearable terminal 1 for an object visible through the display panel 20.
- the word-of-mouth information display unit 14 displays the word-of-mouth information in association with each other.
- the voice conversion unit 15 converts the voice acquired by the voice acquisition unit 40 (see FIG. 3) into text data.
- the control unit 10 transmits the text data converted by the voice conversion unit 15 as user word-of-mouth information to an external database via the communication unit 80 (see FIG. 3).
- the voice conversion unit 15 transmits the obtained voice to an external server that provides a service for converting voice data to text data via the communication unit 80, and transmits the converted text data to the server. May be received.
- the translation means 16 translates the acquired word-of-mouth information from a predetermined language (the language of the word-of-mouth information acquired by the word-of-mouth information acquisition means 13) into another language (for example, a language set by the user).
- the translating unit 16 transmits the acquired word-of-mouth information in the predetermined language to an external server that provides a service for translating via the communication unit 80, and converts the word-of-mouth information translated into another language. It may be received from the server.
- the text conversion means 17 converts the translated word-of-mouth information from text data to voice data.
- the control unit 10 generates a voice based on the voice data converted by the text conversion unit 17 by the voice generation unit 50 (see FIG. 3).
- the text conversion means 17 transmits the translated word-of-mouth information via the communication means 80 to an external server which provides a service for converting text data to voice data, and converts the converted voice data to the external server. It may be received from the server.
- the control unit 10 of the wearable terminal 1 includes the estimation unit 11, the identification unit 12, the word-of-mouth information acquisition unit 13, the voice conversion unit 15, the translation unit 16, and the text conversion unit 17,
- the present invention is not limited thereto, and a part or all of these means may be replaced by a wearable terminal 1, an external database, a wearable terminal display server connected to an external server via a network, or a user terminal operated by a user (for example, a smartphone). Etc.) may be provided.
- the wearable terminal 1 includes the image acquired by the image acquisition unit 30, the audio acquired by the audio generation unit 50, the terminal position acquired by the terminal position acquisition unit 60, and the imaging acquired by the imaging direction acquisition unit 70. The direction is transmitted to the wearable terminal display server or the user terminal by the communication means 80. Is transmitted to the wearable terminal 1.
- FIG. 5 is a flowchart illustrating an example of the wearable terminal display process according to the present embodiment.
- the wearable terminal display process is executed by the control unit 10 of the wearable terminal 1.
- step S ⁇ b> 1 the control unit 10 causes the image acquisition unit 30 to acquire an image of an object that is within the field of view of the wearable terminal 1 (a range that can be imaged by the image acquisition unit 30).
- step S3 the control unit 10 causes the imaging direction acquisition unit 70 to acquire the imaging direction of the wearable terminal 1 (the direction in which the range in which the image can be captured by the image acquisition unit 30 is facing).
- step S4 the estimation unit 11 estimates the target position of the target based on the terminal position acquired by the terminal position acquisition unit 60 in step S2 and the imaging direction acquired by the imaging direction acquisition unit 70 in step S3. I do.
- step S5 the specifying unit 12 analyzes the image obtained by the image obtaining unit 30 in step S1 and the target position estimated by the estimating unit 11 in step S4, and specifies the target.
- the control unit 10 proceeds to step S4. If there is a real estate (a store or the like) (if the target object can be specified), the process proceeds to step S6.
- step S7 the word-of-mouth information display unit 14 expands the word-of-mouth information acquired by the word-of-mouth information acquisition unit 13 in step S6 on the display panel 20 of the wearable terminal 1 with respect to an object visible through the display panel 20. Display as reality.
- FIG. 6 is a diagram illustrating an example of the augmented reality displayed on the display board of the wearable terminal.
- the word-of-mouth information acquisition unit 13 acquires a plurality of word-of-mouth information in step S6, the word-of-mouth information display unit 14 displays the plurality of word-of-mouth information in association with each other.
- the word-of-mouth information display means 14 displays the name of the object (“AA shop Shinjuku store”) on the display panel 20 in the vicinity of the object that can be seen transparently.
- a plurality of word-of-mouth information (“[Eating site] evaluation A cheap and delicious”, “[Guru site] evaluation A Yakitori is excellent”) is displayed in a form (adjacent) that is associated with the name of the user.
- the word-of-mouth information display means 14 displays the database name (site name) ([eating site], [ Word-of-mouth information).
- the wearable terminal display system of the present embodiment described above the acquired image of the object and the estimated position of the object are analyzed, the object is specified, and word-of-mouth information of the object is obtained from an external database. Then, the information is displayed on the display panel 20 of the wearable terminal 1 as augmented reality.
- word-of-mouth information of various objects within the field of view of the wearable terminal 1 is not limited to augmented reality, not limited to objects whose positions and the like are determined in advance, such as products placed in a specific store.
- the user can easily search for a target according to the purpose at a place visited for the first time by a trip or the like, and can further see word-of-mouth information of the searched target in real time. Therefore, it is possible to estimate the position of the object from the position and direction of the wearable terminal and then specify the object, and display the word-of-mouth information on the display board of the wearable terminal in augmented reality for the object that can be seen through. It becomes possible.
- a plurality of word-of-mouth information is displayed in association with each other, so that the user can compare the plurality of word-of-mouth information and examine the evaluation of the object. On the other hand, it is possible to make more useful decisions.
- the wearable terminal display system of the present embodiment since the voice of the user is acquired and converted into text data, and this text data can be transmitted to an external database, not only word-of-mouth information is displayed, but also , Word-of-mouth information can also be provided.
- the word-of-mouth information is translated from a predetermined language to another language, and the translated word-of-mouth information is converted from text data to audio data, and the converted audio data Generates speech based on the word-of-mouth and displays translated word-of-mouth information. For this reason, for example, when a user visits a country other than the home country, even if the word-of-mouth information of the object is in the language of the country, the user hears the voice translated into the language of the home country and translates the word-of-mouth information translated. Can be seen.
Landscapes
- Business, Economics & Management (AREA)
- Strategic Management (AREA)
- Engineering & Computer Science (AREA)
- Accounting & Taxation (AREA)
- Development Economics (AREA)
- Finance (AREA)
- Economics (AREA)
- Game Theory and Decision Science (AREA)
- Entrepreneurship & Innovation (AREA)
- Marketing (AREA)
- Physics & Mathematics (AREA)
- General Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本発明は、IoT(Internet of Things)に関連し、技術分野はIPC分類においてG06Q等に該当し、対象物の位置を推測してから対象物を特定して口コミを表示することを可能にする。ウェアラブル端末表示システム100は、ウェアラブル端末1の視界に入った対象物の画像を取得する画像取得手段30と、ウェアラブル端末1の端末位置を取得する端末位置取得手段60と、ウェアラブル端末1の撮像方向を取得する撮像方向取得手段70と、端末位置と撮像方向とに基づいて、対象物の対象物位置を推測する推測手段11と、画像及び対象物位置を解析し、対象物を特定する特定手段12と、特定された対象物の口コミ情報を、外部のデータベースから取得する口コミ情報取得手段13と、ウェアラブル端末の表示板に、当該表示板を透過して見える対象物に対して、取得された口コミ情報を拡張現実として表示する口コミ情報表示手段14と、を備える。
Description
本発明は、IoT(Internet of Things)に関連し、技術分野はIPC分類においてG06Q等に該当し、ウェアラブル端末表示システム、方法、プログラム及びウェアラブル端末に関する。
従来、光学シースルー方式またはビデオシースルー方式を採用した表示部を備える携帯型の端末装置において、撮像画像に他の情報を重畳した拡張現実画像を表示する技術が知られている。
例えば、特許文献1には、スーパーマーケットなどのように様々な商品が陳列されている店舗で貸与され、現実空間を撮像するための撮像手段と、撮像手段によって撮像された撮像画像に含まれる商品に関する商品情報を取得する商品情報取得部と、撮像手段によって撮像された撮像画像に含まれる商品の位置に基づいて、商品情報取得部によって取得された商品情報を現実空間に重畳して表示するための拡張現実画像を生成する画像生成部と、画像生成部によって生成された拡張現実画像を表示可能な表示部と、を備える商品情報提供端末装置が提案されている。
ところで、近年、ユーザは、商品を購入する場合や、飲食店を利用する場合等において、当該商品や飲食店等の対象物に対する口コミ情報を参照して、対象物を購入したり、利用したりすることを決定する。
しかしながら、特許文献1の商品情報提供端末装置は、特定の店舗内のように、予め商品の位置が決まっている場合には、当該商品の商品情報を表示できるが、任意の場所で、商品等の対象物が、予め特定できない場合には、対象物の口コミ情報を取得することもできず、口コミ情報を表示できないという問題がある。
本発明は、これらの課題に鑑み、ウェアラブル端末の位置と方向から対象物の位置を推測してから対象物を特定し、ウェアラブル端末の表示板に、透過して見える対象物に対して口コミ情報を拡張現実で表示することが可能なウェアラブル端末表示システム、方法、プログラム及びウェアラブル端末を提供することを目的とする。
本発明では、以下のような解決手段を提供する。
本発明は、ウェアラブル端末の表示板に、対象物の口コミ情報を表示するウェアラブル端末表示システムであって、
前記ウェアラブル端末の視界に入った対象物の画像を取得する画像取得手段と、
前記ウェアラブル端末の端末位置を取得する端末位置取得手段と、
前記ウェアラブル端末の撮像方向を取得する撮像方向取得手段と、
前記端末位置と前記撮像方向とに基づいて、前記対象物の対象物位置を推測する推測手段と、
前記画像及び前記対象物位置を解析し、前記対象物を特定する特定手段と、
前記特定された対象物の口コミ情報を、外部のデータベースから取得する口コミ情報取得手段と、
前記ウェアラブル端末の表示板に、当該表示板を透過して見える前記対象物に対して、前記取得された口コミ情報を拡張現実として表示する口コミ情報表示手段と、
を備えるウェアラブル端末表示システムを提供する。
本発明は、ウェアラブル端末の表示板に、対象物の口コミ情報を表示するウェアラブル端末表示システムであって、
前記ウェアラブル端末の視界に入った対象物の画像を取得する画像取得手段と、
前記ウェアラブル端末の端末位置を取得する端末位置取得手段と、
前記ウェアラブル端末の撮像方向を取得する撮像方向取得手段と、
前記端末位置と前記撮像方向とに基づいて、前記対象物の対象物位置を推測する推測手段と、
前記画像及び前記対象物位置を解析し、前記対象物を特定する特定手段と、
前記特定された対象物の口コミ情報を、外部のデータベースから取得する口コミ情報取得手段と、
前記ウェアラブル端末の表示板に、当該表示板を透過して見える前記対象物に対して、前記取得された口コミ情報を拡張現実として表示する口コミ情報表示手段と、
を備えるウェアラブル端末表示システムを提供する。
また、本発明において、前記口コミ情報取得手段は、複数の前記口コミ情報を取得し、
前記口コミ情報表示手段は、複数の前記口コミ情報を関連させて表示してもよい。
前記口コミ情報表示手段は、複数の前記口コミ情報を関連させて表示してもよい。
また、本発明は、前記ウェアラブル端末の周囲の音声を取得する音声取得手段と、
前記取得された音声を、テキストデータに変換する音声変換手段と、
前記変換されたテキストデータを、前記外部のデータベースに送信する送信手段と、
をさらに備えてもよい。
前記取得された音声を、テキストデータに変換する音声変換手段と、
前記変換されたテキストデータを、前記外部のデータベースに送信する送信手段と、
をさらに備えてもよい。
また、本発明は前記ウェアラブル端末の周囲に音声を発生する音声発生手段と、
前記取得された口コミ情報を、所定の言語から他の言語に翻訳する翻訳手段と、
前記翻訳された口コミ情報を、テキストデータから音声データに変換するテキスト変換手段と、
をさらに備え、
前記音声発生手段は、前記変換された音声データに基づく音声を発生し、
前記口コミ情報表示手段は、前記翻訳された口コミ情報を表示してもよい。
前記取得された口コミ情報を、所定の言語から他の言語に翻訳する翻訳手段と、
前記翻訳された口コミ情報を、テキストデータから音声データに変換するテキスト変換手段と、
をさらに備え、
前記音声発生手段は、前記変換された音声データに基づく音声を発生し、
前記口コミ情報表示手段は、前記翻訳された口コミ情報を表示してもよい。
また、本発明は、システムのカテゴリであるが、方法及びプログラムであってもよい。
また、本発明は、上記ウェアラブル端末表示システムで使用されるウェアラブル端末を提供する。
本発明によれば、対象物の位置を推測してから対象物を特定して口コミを表示することが可能となる。
以下、本発明を実施するための最良の形態について図を参照しながら説明する。なお、これはあくまでも一例であって、本発明の技術的範囲はこれに限られるものではない。
<全体構成>
図1は、本実施形態に係るウェアラブル端末表示システムの概要を示す概念図である。
ウェアラブル端末表示システム100は、ウェアラブル端末1の視界に入った対象物の口コミ情報を、ウェアラブル端末1の表示板20に拡張現実として表示するシステムである。
図1は、本実施形態に係るウェアラブル端末表示システムの概要を示す概念図である。
ウェアラブル端末表示システム100は、ウェアラブル端末1の視界に入った対象物の口コミ情報を、ウェアラブル端末1の表示板20に拡張現実として表示するシステムである。
ウェアラブル端末表示システム100は、ウェアラブル端末1の視界(ウェアラブル端末1に設けられた画像取得手段(例えば、カメラ等)の撮像可能範囲)に入った対象物の画像を取得する。
ここで、本実施形態において「対象物」とは、位置により特定可能となる不動産(各種店舗、会社の社屋、公共施設、アミューズメント施設、競技場等)である。
また、ウェアラブル端末表示システム100は、取得したウェアラブル端末1の端末位置と撮像方向とから、画像に撮像されている対象物位置を推測する。
そして、ウェアラブル端末表示システム100は、取得した対象物の画像及び推測した対象物位置を解析し、対象物を特定する(図1に示す例では、対象物を「AA屋 新宿店」と特定)。
次に、ウェアラブル端末表示システム100は、特定された対象物(図1に示す例では、「AA屋 新宿店」)の口コミ情報を、外部のデータベースから取得する。ここで、本実施形態において、「口コミ情報」とは、対象物に対する第三者の評価や、コメントや、対象物に関する写真等であるが、対象物の関係者によるコメントや写真等であってもよい。
そして、ウェアラブル端末表示システム100は、ウェアラブル端末1の表示板20に、当該表示板を透過して見える対象物に対して、取得された口コミ情報((図1に示す例では「評価A:安くて美味しい」))を、例えば、対象物を示す情報(例えば、対象物の名称等(図1に示す例では「AA屋 新宿店」))とともに、拡張現実として表示する。
このようなウェアラブル端末表示システム100によれば、取得した対象物の画像及び推測した対象物位置を解析し、対象物を特定し、この対象物の口コミ情報を、外部のデータベースから取得し、ウェアラブル端末1の表示板20に、拡張現実として表示する。
これにより、特定の店舗内に配置された商品のように、予め位置等が決まっているような対象物に限らず、ウェアラブル端末1の視界に入った様々な対象物の口コミ情報を、拡張現実として表示できる。このため、ユーザは、旅行等により、初めて訪れた場所で、目的に応じた対象物の探索が容易になり、さらに、探索した対象物の口コミ情報をリアルタイムで見ることができる。
したがって、ウェアラブル端末の位置と方向から対象物の位置を推測してから対象物を特定し、ウェアラブル端末の表示板に、透過して見える対象物に対して口コミ情報を拡張現実で表示することが可能となる。
これにより、特定の店舗内に配置された商品のように、予め位置等が決まっているような対象物に限らず、ウェアラブル端末1の視界に入った様々な対象物の口コミ情報を、拡張現実として表示できる。このため、ユーザは、旅行等により、初めて訪れた場所で、目的に応じた対象物の探索が容易になり、さらに、探索した対象物の口コミ情報をリアルタイムで見ることができる。
したがって、ウェアラブル端末の位置と方向から対象物の位置を推測してから対象物を特定し、ウェアラブル端末の表示板に、透過して見える対象物に対して口コミ情報を拡張現実で表示することが可能となる。
<機能構成>
本実施形態のウェアラブル端末表示システムは、少なくともウェアラブル端末1を備える。以下に説明する実施形態では、各種処理をウェアラブル端末1により実行するが、これに限らず、ウェアラブル端末表示システム100は、各種処理の一部を、ウェアラブル端末1とネットワークを介して接続されたサーバや、ユーザに操作される携帯端末(例えば、スマートフォン等)により実行してもよい。
本実施形態のウェアラブル端末表示システムは、少なくともウェアラブル端末1を備える。以下に説明する実施形態では、各種処理をウェアラブル端末1により実行するが、これに限らず、ウェアラブル端末表示システム100は、各種処理の一部を、ウェアラブル端末1とネットワークを介して接続されたサーバや、ユーザに操作される携帯端末(例えば、スマートフォン等)により実行してもよい。
図2は、本実施形態のウェアラブル端末表示システムで使用されるウェアラブル端末の外観を説明する図である。
図3は、本実施形態のウェアラブル端末表示システムで使用されるウェアラブル端末の機能構成を示すブロック図である。
本実施形態では、ウェアラブル端末1は、眼鏡型であるが、これに限らず、対象物の画像を取得し、口コミ情報を拡張現実として表示できれば、例えば、腕時計型等の任意の形態であってもよい。
図3は、本実施形態のウェアラブル端末表示システムで使用されるウェアラブル端末の機能構成を示すブロック図である。
本実施形態では、ウェアラブル端末1は、眼鏡型であるが、これに限らず、対象物の画像を取得し、口コミ情報を拡張現実として表示できれば、例えば、腕時計型等の任意の形態であってもよい。
ウェアラブル端末1は、HMD(Head Mounted Display)で構成され、図2に示すように、眼鏡形状のフレーム2を備え、このフレーム2に、図3に示す、制御部10と、表示板20と、画像取得手段30と、音声取得手段40と、音声発生手段50と、端末位置取得手段60と、撮像方向取得手段70と、通信手段80と、が設けられている。
制御部10は、図示しないプロセッサ、メモリ、ストレージを備え、これらはバスにより接続されている。プロセッサは、例えば、CPU(Central Processing Unit)により構成され、メモリに記憶された各種プログラムを読み出して実行することで、各種処理を行うことで、後述する各手段として機能する。メモリは、CPUにより実行されるプログラムを記憶するものであり、例えば、ROM(Read Only Memory)やRAM(Random Access Memory)により構成される。ストレージは、拡張現実を表示するためのデータベースや制御プログラムなどを記憶するものである。
表示板20は、公知の手段により、現実空間の対象物に仮想空間の口コミ情報を重畳して表示した拡張現実画像を表示可能に構成されている。詳細には、表示板20は、透過型のディスプレイであり、ユーザの目の前面に配置され、制御部10の制御により、ディスプレイを透過して、ユーザに視認される現実空間の対象物に、制御部10により生成された情報を重畳して表示した拡張現実画像を表示する。
画像取得手段30は、例えば、カメラで構成され、表示板20の近傍に設けられ、制御部10の制御により、ウェアラブル端末1の視界(画像取得手段30で撮像可能な範囲)に入った対象物の画像を取得する。
音声取得手段40は、例えば、マイクロフォンで構成され、制御部10の制御により、ウェアラブル端末1の周囲の音声を取得する。
音声発生手段50は、例えば、スピーカで構成され、制御部10の制御により、ウェアラブル端末1の周囲に音声を発生する。
端末位置取得手段60は、例えば、GPS(Global Positioning System)で構成され、制御部10の制御により、ウェアラブル端末1の位置である端末位置(例えば、緯度・経度や、住所)を取得する。
撮像方向取得手段70は、例えば、電子コンパスで構成され、ウェアラブル端末1の撮像方向(画像取得手段30で撮像可能な範囲が向いている方向)を取得する。
通信手段80は、制御部10の制御により、ネットワークを介して外部のデータベースとデータ通信を行う。また、通信手段80は、制御部10の制御により、音声データから変換されたテキストデータを、外部のデータベースに送信する送信手段としても機能する。
図4は、本実施形態のウェアラブル端末における制御部の機能構成を示すブロック図である。
制御部10は、推測手段11と、特定手段12と、口コミ情報取得手段13と、口コミ情報表示手段14と、音声変換手段15と、翻訳手段16と、テキスト変換手段17と、を備える。
制御部10は、推測手段11と、特定手段12と、口コミ情報取得手段13と、口コミ情報表示手段14と、音声変換手段15と、翻訳手段16と、テキスト変換手段17と、を備える。
推測手段11は、端末位置取得手段60(図2及び図3参照)が取得した端末位置と、撮像方向取得手段70(図2及び図3参照)が取得した撮像方向とに基づいて、対象物の対象物位置を推測する。具体的には、推測手段11は、端末位置から、撮影方向に向かって、所定距離(例えば、3m等)離れた位置を対象物位置に推定する。
特定手段12は、画像取得手段30(図2及び図3参照)が取得した画像及び推測手段11が推定した対象物位置を解析し、対象物を特定する。具体的には、特定手段12は、公知の手段により、取得した画像と類似する画像を検索する。また、特定手段12は、対象物位置に存在する店舗等の不動産を検索する。そして、特定手段12は、このような検索結果から、対象物を特定する。特定手段12は、外部のサーバにアクセスし、画像を検索したり、不動産を検索したりしてもよいし、記憶手段に記憶されたデータベースを検索してもよい。
制御部10は、特定手段12の検索結果において、推測手段11が推定した対象物位置に、不動産(店舗等)が存在しない場合、推測手段11において、対象物位置に推定する場合に、端末位置から、撮影方向に向かって、所定距離離れた位置を、所定間隔(例えば、1m)ずつ延長する。すなわち、制御部10は、例えば、所定距離3mで、不動産(店舗等)が存在しない場合、1m延長し、4m離れた位置を対象物位置に推定し、この対象物位置で、再度、店舗等の不動産を検索する。制御部10は、店舗等の不動産が特定できるまで、このような処理を繰り返す。
口コミ情報取得手段13は、特定された対象物の口コミ情報を、外部のデータベースから取得する。また、口コミ情報取得手段13は、複数の口コミ情報を取得してもよい。口コミ情報取得手段13は、特定手段12が特定した対象物の種類に応じた外部のデータベースを検索し、この検索により抽出されたデータベースから、対象物の口コミ情報を取得する。具体的には、口コミ情報取得手段13は、特定された対象物が飲食店であれば、飲食店についての第三者の評価やコメント(口コミ情報)を収集し、提供しているデータベースから口コミ情報を取得する。その他、口コミ情報取得手段13は、特定された対象物が、雑貨屋であれば雑貨情報サイト、会社であれば会社に関する情報を蓄積するデータバンク等の口コミ情報を収集し、提供しているデータベースから口コミ情報を取得する。
口コミ情報表示手段14は、ウェアラブル端末1の表示板20に、当該表示板20を透過して見える対象物に対して、取得された口コミ情報を拡張現実として表示する。また、口コミ情報表示手段14は、口コミ情報取得手段13が複数の口コミ情報を取得した場合、口コミ情報を関連させて表示する。
音声変換手段15は、音声取得手段40(図3参照)により取得された音声を、テキストデータに変換する。制御部10は、音声変換手段15により変換したテキストデータをユーザの口コミ情報として、通信手段80(図3参照)を介して、外部のデータベースに送信する。なお、音声変換手段15は、取得された音声を、通信手段80を介して、音声データをテキストデータに変換するサービスを提供している外部のサーバに送信し、変換されたテキストデータを当該サーバから受信してもよい。
翻訳手段16は、取得された口コミ情報を、所定の言語(口コミ情報取得手段13が取得した口コミ情報の言語)から他の言語(例えば、ユーザにより設定された言語)に翻訳する。なお、翻訳手段16は、取得された所定の言語の口コミ情報を、通信手段80を介して、翻訳するサービスを提供している外部のサーバに送信し、他の言語に翻訳された口コミ情報を当該サーバから受信してもよい。
テキスト変換手段17は、翻訳された口コミ情報を、テキストデータから音声データに変換する。制御部10は、テキスト変換手段17により変換した音声データに基づく音声を、音声発生手段50(図3参照)により発生する。なお、テキスト変換手段17は、翻訳された口コミ情報を、通信手段80を介して、テキストデータを音声データに変換するサービスを提供している外部のサーバに送信し、変換された音声データを当該サーバから受信してもよい。
本実施形態のウェアラブル端末表示システムでは、ウェアラブル端末1の制御部10が、推測手段11、特定手段12、口コミ情報取得手段13、音声変換手段15、翻訳手段16及びテキスト変換手段17を備えるが、これに限らす、これらの手段の一部又は全てを、ウェアラブル端末1、外部のデータベース、外部のサーバとネットワークを介して接続されたウェアラブル端末表示サーバや、ユーザが操作するユーザ端末(例えば、スマートフォン等)が備えてもよい。このように構成する場合、ウェアラブル端末1は、画像取得手段30が取得した画像、音声発生手段50が取得した音声、端末位置取得手段60が取得した端末位置、撮像方向取得手段70が取得した撮像方向を、通信手段80により、ウェアラブル端末表示サーバや、ユーザ端末に送信し、ウェアラブル端末表示サーバや、ユーザ端末は、上記の各種処理を実行し、特定された対象物の口コミ情報や、テキストデータから変換された音声データを、ウェアラブル端末1に送信する。
<ウェアラブル端末表示処理>
次に、ウェアラブル端末表示システムによるウェアラブル端末表示処理の一例について、図5を参照して説明する。
図5は、本実施形態のウェアラブル端末表示処理の一例を示すフローチャートである。
本実施形態において、ウェアラブル端末表示処理は、ウェアラブル端末1の制御部10が実行する。
次に、ウェアラブル端末表示システムによるウェアラブル端末表示処理の一例について、図5を参照して説明する。
図5は、本実施形態のウェアラブル端末表示処理の一例を示すフローチャートである。
本実施形態において、ウェアラブル端末表示処理は、ウェアラブル端末1の制御部10が実行する。
ステップS1において、制御部10は、画像取得手段30により、ウェアラブル端末1の視界(画像取得手段30で撮像可能な範囲)に入った対象物の画像を取得する。
ステップS2において、制御部10は、端末位置取得手段60により、ウェアラブル端末1の位置である端末位置(例えば、緯度・経度や、住所)を取得する。
ステップS3において、制御部10は、撮像方向取得手段70により、ウェアラブル端末1の撮像方向(画像取得手段30で撮像可能な範囲が向いている方向)を取得する。
ステップS4において、推測手段11は、ステップS2で端末位置取得手段60が取得した端末位置と、ステップS3で撮像方向取得手段70が取得した撮像方向とに基づいて、対象物の対象物位置を推測する。
ステップS5において、特定手段12は、ステップS1で画像取得手段30が取得した画像及びステップS4で推測手段11が推定した対象物位置を解析し、対象物を特定する。本ステップにおいて、制御部10は、特定手段12の検索結果において、推測手段11が推定した対象物位置に、不動産(店舗等)が存在しない場合(対象物を特定できない場合)はステップS4に処理を戻し、不動産(店舗等)が存在する場合(対象物を特定できた場合)はステップS6に処理を移す。
ステップS6において、口コミ情報取得手段13は、ステップS5で特定手段12が特定した対象物の口コミ情報を、外部のデータベースから取得する。
ステップS7において、口コミ情報表示手段14は、ウェアラブル端末1の表示板20に、当該表示板20を透過して見える対象物に対して、ステップS6で口コミ情報取得手段13が取得した口コミ情報を拡張現実として表示する。
図6は、ウェアラブル端末の表示板に表示された拡張現実の一例を示す図である。
口コミ情報表示手段14は、ステップS6で口コミ情報取得手段13が複数の口コミ情報を取得した場合、複数口コミ情報を関連させて表示する。
この場合、図6に示すように、口コミ情報表示手段14は、表示板20において、透過して見える対象物近傍に、対象物の名称(「AA屋 新宿店」)を表示し、この対象物の名称に紐付けて複数の口コミ情報(「[食べサイト]評価A 安くて美味しい」、「[ぐるサイト]評価A 焼き鳥が絶品」)を対比する形態(隣接して)で表示する。また、図6に示す例では、口コミ情報取得手段13が、互いに異なるデータベースから、口コミ情報を取得しているので、口コミ情報表示手段14は、データベース名(サイト名)([食べサイト]、[ぐるサイト])を含む口コミ情報を表示している。
口コミ情報表示手段14は、ステップS6で口コミ情報取得手段13が複数の口コミ情報を取得した場合、複数口コミ情報を関連させて表示する。
この場合、図6に示すように、口コミ情報表示手段14は、表示板20において、透過して見える対象物近傍に、対象物の名称(「AA屋 新宿店」)を表示し、この対象物の名称に紐付けて複数の口コミ情報(「[食べサイト]評価A 安くて美味しい」、「[ぐるサイト]評価A 焼き鳥が絶品」)を対比する形態(隣接して)で表示する。また、図6に示す例では、口コミ情報取得手段13が、互いに異なるデータベースから、口コミ情報を取得しているので、口コミ情報表示手段14は、データベース名(サイト名)([食べサイト]、[ぐるサイト])を含む口コミ情報を表示している。
図7に戻って、また、本ステップにおいて、ユーザの操作や予めの設定があった場合、翻訳手段16は、取得された口コミ情報を、所定の言語(口コミ情報取得手段13が取得した口コミ情報の言語)から他の言語(例えば、ユーザにより設定された言語)に翻訳する。テキスト変換手段17は、翻訳手段16により翻訳された口コミ情報を、テキストデータから音声データに変換する。そして、制御部10は、テキスト変換手段17により変換した音声データに基づく音声を、音声発生手段50(図3参照)により発生する。また、この場合、口コミ情報表示手段14は、翻訳手段16により翻訳された口コミ情報を拡張現実として表示してもよい。
<効果>
以上説明した本実施形態のウェアラブル端末表示システムによれば、取得した対象物の画像及び推測した対象物位置を解析し、対象物を特定し、この対象物の口コミ情報を、外部のデータベースから取得し、ウェアラブル端末1の表示板20に、拡張現実として表示する。
これにより、特定の店舗内に配置された商品のように、予め位置等が決まっているような対象物に限らず、ウェアラブル端末1の視界に入った様々な対象物の口コミ情報を、拡張現実として表示できる。このため、ユーザは、旅行等により、初めて訪れた場所で、目的に応じた対象物の探索が容易になり、さらに、探索した対象物の口コミ情報をリアルタイムで見ることができる。
したがって、ウェアラブル端末の位置と方向から対象物の位置を推測してから対象物を特定し、ウェアラブル端末の表示板に、透過して見える対象物に対して口コミ情報を拡張現実で表示することが可能となる。
以上説明した本実施形態のウェアラブル端末表示システムによれば、取得した対象物の画像及び推測した対象物位置を解析し、対象物を特定し、この対象物の口コミ情報を、外部のデータベースから取得し、ウェアラブル端末1の表示板20に、拡張現実として表示する。
これにより、特定の店舗内に配置された商品のように、予め位置等が決まっているような対象物に限らず、ウェアラブル端末1の視界に入った様々な対象物の口コミ情報を、拡張現実として表示できる。このため、ユーザは、旅行等により、初めて訪れた場所で、目的に応じた対象物の探索が容易になり、さらに、探索した対象物の口コミ情報をリアルタイムで見ることができる。
したがって、ウェアラブル端末の位置と方向から対象物の位置を推測してから対象物を特定し、ウェアラブル端末の表示板に、透過して見える対象物に対して口コミ情報を拡張現実で表示することが可能となる。
また、本実施形態のウェアラブル端末表示システムによれば、複数の口コミ情報を関連させて表示するので、ユーザは、複数の口コミ情報を対比させて、対象物の評価を検討できるので、対象物に対して、より有用な判断をすることが可能となる。
また、本実施形態のウェアラブル端末表示システムによれば、例えば、ユーザの音声を取得し、テキストデータに変換し、このテキストデータを、外部のデータベースに送信できるので、口コミ情報を表示するだけでなく、口コミ情報を提供することも可能となる。
また、本実施形態のウェアラブル端末表示システムによれば、口コミ情報を、所定の言語から他の言語に翻訳し、翻訳された口コミ情報を、テキストデータから音声データに変換し、変換された音声データに基づく音声を発生し、翻訳された口コミ情報を表示する。このため、例えば、ユーザは、自国以外の国に訪れた場合に、対象物の口コミ情報が、当該国の言語であっても、自国の言語に翻訳された音声を聞き、翻訳された口コミ情報を見ることができる。
以上、本発明の実施形態について説明したが、本発明は上述したこれらの実施形態に限るものではない。また、本発明の実施形態に記載された効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、本発明の実施形態に記載されたものに限定されるものではない。
1・・・ウェアラブル端末、2・・・フレーム、10・・・制御部、11・・・推測手段、12・・・特定手段、13・・・口コミ情報取得手段、14・・・口コミ情報表示手段、15・・・音声変換手段、16・・・翻訳手段、17・・・テキスト変換手段、20・・・表示板、30・・・画像取得手段、40・・・音声取得手段、50・・・音声発生手段、60・・・端末位置取得手段、70・・・撮像方向取得手段、80・・・通信手段、100・・・ウェアラブル端末表示システム
Claims (7)
- ウェアラブル端末の表示板に、対象物の口コミ情報を表示するウェアラブル端末表示システムであって、
前記ウェアラブル端末の視界に入った対象物の画像を取得する画像取得手段と、
前記ウェアラブル端末の端末位置を取得する端末位置取得手段と、
前記ウェアラブル端末の撮像方向を取得する撮像方向取得手段と、
前記端末位置と前記撮像方向とに基づいて、前記対象物の対象物位置を推測する推測手段と、
前記画像及び前記対象物位置を解析し、前記対象物を特定する特定手段と、
前記特定された対象物の口コミ情報を、外部のデータベースから取得する口コミ情報取得手段と、
前記ウェアラブル端末の表示板に、当該表示板を透過して見える前記対象物に対して、前記取得された口コミ情報を拡張現実として表示する口コミ情報表示手段と、
を備えるウェアラブル端末表示システム。 - 前記口コミ情報取得手段は、複数の前記口コミ情報を取得し、
前記口コミ情報表示手段は、複数の前記口コミ情報を関連させて表示する請求項1に記載のウェアラブル端末表示システム。 - 前記ウェアラブル端末の周囲の音声を取得する音声取得手段と、
前記取得された音声を、テキストデータに変換する音声変換手段と、
前記変換されたテキストデータを、前記外部のデータベースに送信する送信手段と、
をさらに備える請求項1又は2に記載のウェアラブル端末表示システム。 - 前記ウェアラブル端末の周囲に音声を発生する音声発生手段と、
前記取得された口コミ情報を、所定の言語から他の言語に翻訳する翻訳手段と、
前記翻訳された口コミ情報を、テキストデータから音声データに変換するテキスト変換手段と、
をさらに備え、
前記音声発生手段は、前記変換された音声データに基づく音声を発生し、
前記口コミ情報表示手段は、前記翻訳された口コミ情報を表示する請求項1から3のいずれかに記載のウェアラブル端末表示システム。 - ウェアラブル端末の表示板に、対象物の口コミ情報を表示するウェアラブル端末表示システムが実行する方法であって、
前記ウェアラブル端末の視界に入った対象物の画像を取得するステップと、
前記ウェアラブル端末の端末位置を取得するステップと、
前記ウェアラブル端末の撮像方向を取得するステップと、
前記端末位置と前記撮像方向とに基づいて、前記対象物の対象物位置を推測するステップと、
前記画像及び前記対象物位置を解析し、前記対象物を特定するステップと、
前記特定された対象物の口コミ情報を、外部のデータベースから取得するステップと、
前記ウェアラブル端末の表示板に、当該表示板を透過して見える前記対象物に対して、前記取得された口コミ情報を拡張現実として表示するステップと、
を含むウェアラブル端末表示方法。 - ウェアラブル端末の表示板に、対象物の口コミ情報を表示するウェアラブル端末表示システムを、
前記ウェアラブル端末の視界に入った対象物の画像を取得する画像取得手段、
前記ウェアラブル端末の端末位置を取得する端末位置取得手段、
前記ウェアラブル端末の撮像方向を取得する撮像方向取得手段、
前記端末位置と前記撮像方向とに基づいて、前記対象物の対象物位置を推測する推測手段、
前記画像及び前記対象物位置を解析し、前記対象物を特定する特定手段、
前記特定された対象物の口コミ情報を、外部のデータベースから取得する口コミ情報取得手段、
前記ウェアラブル端末の表示板に、当該表示板を透過して見える前記対象物に対して、前記取得された口コミ情報を拡張現実として表示する口コミ情報表示手段、
として機能させるためのプログラム。 - 請求項1から4のいずれかに記載のウェアラブル端末表示システムで使用されるウェアラブル端末。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2018/033345 WO2020053913A1 (ja) | 2018-09-10 | 2018-09-10 | ウェアラブル端末表示システム、方法、プログラム及びウェアラブル端末 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2018/033345 WO2020053913A1 (ja) | 2018-09-10 | 2018-09-10 | ウェアラブル端末表示システム、方法、プログラム及びウェアラブル端末 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2020053913A1 true WO2020053913A1 (ja) | 2020-03-19 |
Family
ID=69776660
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2018/033345 WO2020053913A1 (ja) | 2018-09-10 | 2018-09-10 | ウェアラブル端末表示システム、方法、プログラム及びウェアラブル端末 |
Country Status (1)
Country | Link |
---|---|
WO (1) | WO2020053913A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024130194A1 (en) * | 2022-12-16 | 2024-06-20 | Snap Inc. | Generating augmented reality content including translations |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010066811A (ja) * | 2008-09-08 | 2010-03-25 | Dainippon Printing Co Ltd | 情報登録提示装置、情報登録提示システム、情報登録提示方法及び情報登録提示処理プログラム |
JP2012098936A (ja) * | 2010-11-02 | 2012-05-24 | Dainippon Printing Co Ltd | 電子掲示板システム,サーバ装置及び端末装置 |
WO2015107625A1 (ja) * | 2014-01-15 | 2015-07-23 | 日立マクセル株式会社 | 情報表示端末、情報表示システム及び情報表示方法 |
WO2015145544A1 (ja) * | 2014-03-24 | 2015-10-01 | パイオニア株式会社 | 表示制御装置、制御方法、プログラム及び記憶媒体 |
WO2018087969A1 (ja) * | 2016-11-11 | 2018-05-17 | パナソニックIpマネジメント株式会社 | 翻訳装置の制御方法、翻訳装置、および、プログラム |
-
2018
- 2018-09-10 WO PCT/JP2018/033345 patent/WO2020053913A1/ja active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010066811A (ja) * | 2008-09-08 | 2010-03-25 | Dainippon Printing Co Ltd | 情報登録提示装置、情報登録提示システム、情報登録提示方法及び情報登録提示処理プログラム |
JP2012098936A (ja) * | 2010-11-02 | 2012-05-24 | Dainippon Printing Co Ltd | 電子掲示板システム,サーバ装置及び端末装置 |
WO2015107625A1 (ja) * | 2014-01-15 | 2015-07-23 | 日立マクセル株式会社 | 情報表示端末、情報表示システム及び情報表示方法 |
WO2015145544A1 (ja) * | 2014-03-24 | 2015-10-01 | パイオニア株式会社 | 表示制御装置、制御方法、プログラム及び記憶媒体 |
WO2018087969A1 (ja) * | 2016-11-11 | 2018-05-17 | パナソニックIpマネジメント株式会社 | 翻訳装置の制御方法、翻訳装置、および、プログラム |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024130194A1 (en) * | 2022-12-16 | 2024-06-20 | Snap Inc. | Generating augmented reality content including translations |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6231362B2 (ja) | プラント監視サーバーおよびプラント監視方法 | |
US10747991B2 (en) | People stream analysis method, people stream analysis apparatus, and people stream analysis system | |
US20120019557A1 (en) | Displaying augmented reality information | |
JP6092761B2 (ja) | 買い物支援装置及び買い物支援方法 | |
JP6512283B2 (ja) | 情報処理装置及び発注支援方法 | |
JP5395920B2 (ja) | 検索装置、検索方法、検索プログラム、及びそのプログラムを記憶するコンピュータ読取可能な記録媒体 | |
JP2005293052A (ja) | 顧客応対ロボット | |
KR101295544B1 (ko) | 증강 현실 통합정보 제공 장치와 그 방법 및, 이를 포함하는 시스템 | |
US20160350826A1 (en) | High-quality image marketplace | |
US10969922B2 (en) | Messaging system for providing multi-zone messages | |
WO2018066102A1 (ja) | 情報提供システム、情報提供装置、情報提供方法、及びプログラム | |
US10140637B2 (en) | Customer selection determination system | |
US20160148292A1 (en) | Computer vision product recognition | |
NO20120982A1 (no) | Anordning, system og fremgangsmåte for identifisering av objekter i et digitalt bilde, samt transponderanordning | |
KR20160009686A (ko) | 증강 현실 콘텐츠를 스크리닝하는 방법, 장치, 및 시스템 | |
US20200349188A1 (en) | Tagging an object within an image and/or a video | |
JP2020086658A (ja) | 情報処理装置、情報処理システム、情報処理方法および類否判断方法 | |
JP2017033334A (ja) | ヘッドマウントディスプレイ、データ出力方法、及びヘッドマウントディスプレイ用プログラム。 | |
US9953359B2 (en) | Cooperative execution of an electronic shopping list | |
JP2023029520A (ja) | 表示制御装置、制御方法、プログラム及び記憶媒体 | |
KR20220149644A (ko) | 상품의 상품 속성 정보 및 구매자 활동 정보를 이용하여 상품 정보를 주기적으로 업데이트하는 기능을 지원하는 글로벌 이커머스 통합 관리 방법 및 시스템 | |
JP6621228B1 (ja) | プログラム、情報処理装置、情報処理方法、及び情報処理システム | |
WO2020053913A1 (ja) | ウェアラブル端末表示システム、方法、プログラム及びウェアラブル端末 | |
US20140214612A1 (en) | Consumer to consumer sales assistance | |
JP6908792B2 (ja) | ウェアラブル端末表示システム、方法、及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 18933641 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 18933641 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: JP |