JP7250308B2 - AR library system - Google Patents

AR library system Download PDF

Info

Publication number
JP7250308B2
JP7250308B2 JP2018213167A JP2018213167A JP7250308B2 JP 7250308 B2 JP7250308 B2 JP 7250308B2 JP 2018213167 A JP2018213167 A JP 2018213167A JP 2018213167 A JP2018213167 A JP 2018213167A JP 7250308 B2 JP7250308 B2 JP 7250308B2
Authority
JP
Japan
Prior art keywords
data
user
library
appearance
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018213167A
Other languages
Japanese (ja)
Other versions
JP2020080057A (en
Inventor
何書勉
李庚�
向東川
王勃霏
孟祥穎
Original Assignee
NeoX株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NeoX株式会社 filed Critical NeoX株式会社
Priority to JP2018213167A priority Critical patent/JP7250308B2/en
Publication of JP2020080057A publication Critical patent/JP2020080057A/en
Application granted granted Critical
Publication of JP7250308B2 publication Critical patent/JP7250308B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、ARライブラリシステムに関する。 The present invention relates to an AR library system.

従来、ユーザ端末で取得した物体の映像と、当該物体に関連付けられた付加的な情報とをユーザ端末の表示画面中に重ね合わせて表示するARシステムが知られている(例えば特許文献1参照。)。 2. Description of the Related Art Conventionally, an AR system is known in which an image of an object acquired by a user terminal and additional information associated with the object are superimposed and displayed on the display screen of the user terminal (see Patent Document 1, for example). ).

文献1のARシステムでは、ユーザ自らがユーザ端末を操作して、位置情報及び当該ユーザ端末が取得した例えば建造物等の物体の映像情報と関連付けたい情報として例えば当該建造物の名称などの情報をサーバに送信しサーバのデータベースに記憶させることができる。 In the AR system of Literature 1, the user himself/herself operates the user terminal to input information such as the name of the building as information to be associated with the position information and the video information of the object such as the building acquired by the user terminal. It can be sent to the server and stored in the server's database.

そして、文献1のARシステムでは、ユーザはユーザ端末の位置情報と当該ユーザ端末が取得した物体の映像情報とに基づいて、サーバのデータベース内を検索して映像中の物体を特定するとともに、当該物体に関連付けられた情報をサーバから取得して、ユーザ端末の画面中に当該物体の映像と重ね合わせて表示させることができるので、ユーザは例えば初めて訪れた場所で初めて見る建造物の名称を知るなどのことができる。 Then, in the AR system of Document 1, the user searches the database of the server based on the position information of the user terminal and the image information of the object acquired by the user terminal to identify the object in the image. Information associated with the object can be obtained from the server and displayed on the screen of the user terminal by superimposing it on the image of the object. And so on.

特開2018-32381JP 2018-32381

しかしながら、上記特許文献1のシステムによれば、ユーザ端末が取得した物体を特定するために、GPSなどから取得した当該ユーザ端末の位置情報を併せて用いる必要があり、GPSを用いた位置情報の取得が困難な屋内などの場所では当該システムを用いることができない。 However, according to the system of Patent Document 1, in order to specify an object acquired by the user terminal, it is necessary to use the location information of the user terminal acquired from GPS or the like. The system cannot be used indoors where it is difficult to obtain.

また、例えば量産型の自動車などの同一の外観を持つ物体が複数の場所に同時に存在しうる物体又は美術品などの時期によって異なる場所に存在しうる物体については、当該場所ごとに位置情報と物体とを関連付けて記憶させる必要があり、同一の外観を持つ物体について、場所によっては関連する情報が表示できたりできなかったりする不便をユーザに感じさせる。 For objects with the same appearance, such as mass-produced automobiles, that can exist in multiple locations at the same time, or objects that can exist in different locations at different times, such as works of art, location information and object This makes the user feel inconvenient that related information may or may not be displayed for objects having the same appearance depending on the location.

さらに、ユーザがどのような種類の物体についての情報を得たいかは、ユーザによって大きく異なり、あるいは同じユーザであっても場面によって異なるため、より多くのユーザの様々な場面における要望に対応しようとすると情報量が膨大となる。 Furthermore, the type of information that a user wants to obtain varies greatly depending on the user, or even for the same user, depending on the situation. Then the amount of information becomes enormous.

上記特許文献1のシステムによれば、ユーザ端末で物体を認識する毎にサーバで一元管理されているデータベース全体を毎回検索する。 According to the system of Patent Literature 1, every time the user terminal recognizes an object, the entire database centrally managed by the server is searched.

そのため、ユーザ端末とサーバとの間の通信量が増大し、またサーバのデータベース内の検索処理に時間がかかるため、ユーザ端末で物体を認識してからユーザ端末の画面中に当該物体の映像と当該物体と関連した情報とを重ね合わせて表示させるまでの時間が長くなるなどの不便を生じさせる。 As a result, the amount of communication between the user terminal and the server increases, and the search processing in the database of the server takes time. Inconvenience is caused, for example, that it takes a long time to superimpose and display information related to the object.

これに加え、ユーザが不便を感じずにユーザが場面に応じて関心を持つ物体について当該物体に関連する情報を表示するためには、ユーザが関心を持つ物体に関連する情報が十分に記憶されている必要がある。 In addition, in order to display the information related to the object of interest to the user according to the scene without causing inconvenience to the user, sufficient information related to the object of interest to the user is stored. must be

上記特許文献1のシステムによれば、ユーザが関心を持つ物体に関連する十分な情報が記憶されるか否かは、各ユーザの意欲にゆだねられている一方で、ユーザの意欲を向上する仕組みを備えていない。 According to the system of Patent Document 1, whether or not sufficient information related to an object that the user is interested in is stored depends on the motivation of each user. does not have

そのため、結果的にユーザが関心を持つ物体について当該物体に関連する情報を十分に表示することができず、ユーザに不便を感じさせる。 Therefore, as a result, it is not possible to sufficiently display information related to the object that the user is interested in, which causes the user to feel inconvenient.

このように、上記特許文献1のシステムによれば、ユーザが関心を持つ物体について当該物体に関連した情報を十分に得られない不便を感じることとなる。 As described above, according to the system of Patent Document 1, the user feels inconvenient that he or she cannot obtain sufficient information related to an object of interest to the user.

本発明の目的は、かかる従来技術の課題に鑑み、システムを利用する場所に左右されず、ユーザに不便を感じさせずにユーザが関心を持つ物体について当該物体に関連した情報を表示することができるARライブラリシステムを提供することにある。 In view of the above problems of the prior art, it is an object of the present invention to display information related to an object that the user is interested in, regardless of where the system is used and without making the user feel inconvenient. It is to provide an AR library system capable of

本発明によるARライブラリシステムは、
物体の外観を認識し、該物体の外観に基づいて該物体について説明するデータである説明データを出力する複数のユーザ端末及び当該複数のユーザ端末と通信する1つ以上のノードを備えるARライブラリシステムであって、
前記ユーザ端末は、
前記物体の外観を撮像するカメラ部と、
前記カメラ部を介して前記物体の外観を認識し、該物体の外観に関するデータである外観データを生成する外観データ生成部と、
ユーザによる該物体についての前記説明データの入力を受け付け、該物体の前記外観データと該説明データと該ユーザのユーザ識別情報とを関連付けたデータである物体データを生成して前記ノードに送信する物体データ生成部と、
前記ノードが配信する前記物体データの集合体であるデータライブラリを受信して記憶する端末記憶部と、
前記カメラ部が撮像している前記物体の外観に基づいて、該物体の外観と一致する外観データに関連付けられた前記説明データを前記端末記憶部から取得し、該カメラ部が撮像している映像に含まれる該物体の映像に該説明データを重ね合わせた映像を生成して出力する映像生成部とを備え、
前記ノードは、
前記ユーザ端末から受信した前記物体データを該物体データの種別に応じて分類して前記データライブラリとして蓄積するライブラリ生成部と、
前記データライブラリを前記ユーザ端末に配信するライブラリ配信部と、
前記データライブラリの配信を受けた前記ユーザに対する配信費用を示す配信費用データを生成すると共に、配信した該データライブラリに含まれる前記物体データから前記ユーザ識別情報を取得することにより、該配信した該データライブラリに含まれる各該物体データを送信した各前記ユーザを識別し、配信した該データライブラリに含まれる該物体データの数を該ユーザごとに集計し、該ユーザごとの該物体データの数の比率に応じて該配信費用の全部または一部を分配することにより、配信した該データライブラリに含まれる該物体データを送信した1又は複数の前記ユーザのそれぞれに対する報酬を示す配信報酬データを生成する報酬等データ生成部とを備えることを特徴とする。
The AR library system according to the present invention is
An AR library system comprising a plurality of user terminals for recognizing the appearance of an object and outputting descriptive data, which is data describing the object based on the appearance of the object, and one or more nodes communicating with the plurality of user terminals. and
The user terminal is
a camera unit that captures the appearance of the object;
an appearance data generation unit that recognizes the appearance of the object through the camera unit and generates appearance data that is data relating to the appearance of the object;
An object that receives an input of the description data about the object by a user, generates object data that is data that associates the appearance data of the object, the description data, and user identification information of the user, and transmits the object data to the node. a data generator;
a terminal storage unit that receives and stores a data library that is an aggregate of the object data distributed by the node;
Based on the appearance of the object captured by the camera, the explanation data associated with the appearance data matching the appearance of the object is acquired from the terminal storage, and the image captured by the camera. an image generation unit that generates and outputs an image in which the description data is superimposed on the image of the object included in
The node is
a library generating unit that classifies the object data received from the user terminal according to the type of the object data and stores them as the data library;
a library distribution unit that distributes the data library to the user terminal;
generating distribution cost data indicating a distribution cost for the user who received the distribution of the data library, and obtaining the user identification information from each of the object data included in the distributed data library; identifying each user who transmitted each piece of object data contained in the data library, counting the number of pieces of object data contained in the distributed data library for each user, and counting the number of pieces of object data for each user; Proportional distribution of all or part of the distribution cost to generate distribution reward data indicating a reward for each of the one or more users who transmitted the object data contained in the distributed data library. and a remuneration data generation unit.

本発明によれば、ユーザ自らがユーザ端末のカメラ部を用いて任意の物体の外観を撮像し、ユーザ端末に当該物体の外観データを生成させ、各物体の外観データと説明データとを関連付けた物体データを生成してノードに送信する。 According to the present invention, the user himself/herself takes an image of the appearance of an arbitrary object using the camera unit of the user terminal, causes the user terminal to generate the appearance data of the object, and associates the appearance data of each object with the description data. Generate object data and send it to the node.

その後に、ユーザは物体データの集合体であって、物体の種別ごとに分類されたデータライブラリをノードから受信して、ユーザ端末の端末記憶部に記憶させる。 After that, the user receives from the node a data library, which is a collection of object data classified by type of object, and stores it in the terminal storage unit of the user terminal.

そして、ユーザがユーザ端末のカメラ部で物体を撮像すると、当該物体の外観に関連付けられた情報が、端末記憶部内のデータライブラリから取得されて、カメラ部で撮像している映像に含まれる各物体の映像に当該説明データが重ねあわされて表示される。 Then, when the user captures an image of an object with the camera unit of the user terminal, information associated with the appearance of the object is obtained from the data library in the terminal storage unit, and each object included in the image captured by the camera unit is acquired. The description data is superimposed on the video of the display.

このように、本発明によれば、物体データはGPSによる位置情報を必要としないので、GPSを用いた位置情報の取得が困難な屋内などの場所でも当該システムを用いることができる。 Thus, according to the present invention, object data does not require GPS position information, so the system can be used indoors where it is difficult to obtain position information using GPS.

また、同一の外観を持つ物体であれば、複数の場所に同時に存在したり、時期によって異なる場所に存在したりしても当該物体に関連した情報を表示できるので便利である。 Moreover, if an object has the same appearance, it is convenient because information related to the object can be displayed even if the object exists in multiple places at the same time or in different places depending on the time of year.

さらに、ユーザは、あらかじめノードからデータライブラリの配信を受けてユーザ端末に記憶させ、端末記憶部から説明データを取得するので、ユーザ端末で物体を認識してユーザ端末の画面中に当該物体の映像と当該物体と関連した情報とを重ね合わせて表示させる際には、ノードとの通信やノード内部での検索処理を待つ必要がない。 Furthermore, the user receives the data library distributed from the node in advance and stores it in the user terminal, and acquires the explanation data from the terminal storage unit. and information related to the object are superimposed on each other, there is no need to wait for communication with the node or search processing inside the node.

また、データライブラリはノードにおいて物体の種別ごとに分類されて配信されており、ユーザは自身が関心を持つ物体の種別のデータライブラリのみを選択して受信しユーザ端末に記憶させることができるので、端末記憶部中のデータ量を最小限とすることができるため、端末記憶部から説明データを取得する処理を効率的に行うことができる。 In addition, the data library is classified by type of object at the node and distributed, and the user can select and receive only the data library of the type of object that the user is interested in, and store it in the user terminal. Since the amount of data in the terminal storage can be minimized, the process of acquiring the explanation data from the terminal storage can be performed efficiently.

これらのことから、ユーザ端末で物体を認識してからユーザ端末の画面中に当該物体の映像と当該物体と関連した情報とを重ね合わせて表示させるまでの時間を最小限にすることができるので便利である。 For these reasons, it is possible to minimize the time from when the user terminal recognizes an object to when the image of the object and information related to the object are superimposed and displayed on the screen of the user terminal. Convenient.

これに加え、本発明によれば、ノードに物体データを送信したユーザは、当該物体データを含むデータライブラリがユーザに配信された際に、当該データライブラリの配信を受けたユーザが負担する配信費用の全部又は一部を当該データライブラリに含まれる物体データを送信したユーザで分配して報酬として受け取ることができる。 In addition, according to the present invention, when a data library containing the object data is distributed to the user who has transmitted the object data to the node, the user who received the distribution of the data library bears the distribution cost. can be distributed to the users who have sent the object data included in the data library and received as a reward.

そのため、ユーザは自身が関心を持つので他のユーザにも関心を持ってもらいたい物体について、あるいは他のユーザが関心を持つと当該ユーザが考える物体について物体データを生成しノードに送信する意欲が増進され、各ユーザが関心を持つ物体に関連する十分な情報がノードに記憶される可能性が高まる。 Therefore, users are motivated to generate and transmit object data to nodes for objects that they are interested in and want other users to be interested in, or objects that the user thinks other users will be interested in. This increases the likelihood that sufficient information will be stored in the nodes relating to the objects of interest to each user.

これにより、結果的にユーザが関心を持つ物体について当該物体に関連する情報を十分に表示することができるので、ユーザに不便を感じさせない。 As a result, as a result, it is possible to sufficiently display information related to the object that the user is interested in, so that the user does not feel inconvenient.

このように、本発明によれば、システムを利用する場所に左右されず、ユーザに不便を感じさせずにユーザが関心を持つ物体について当該物体に関連した情報を表示することができるARライブラリシステムを提供することができる。 As described above, according to the present invention, an AR library system capable of displaying information related to an object of interest to the user regardless of the location where the system is used and without causing inconvenience to the user. can be provided.

本発明のARライブラリシステムにおいて、
前記ノードは複数であり、
前記配信費用データ及び前記配信報酬データを一定数生成する毎に該配信費用データ及び該配信報酬データに基づいてブロックデータを生成し、該ブロックデータをブロックチェーンに追加して該ブロックチェーンを他のノードと分散管理するブロックチェーン部を備えることが好ましい。
In the AR library system of the present invention,
said node is plural,
generating block data based on the distribution cost data and the distribution reward data each time a certain number of the distribution cost data and the distribution reward data are generated; It is preferable to have a node and a block chain part for distributed management.

本発明によれば、ノードは複数であり、各ノードは、前記配信費用データ及び前記配信報酬データを一定数生成する毎に生成するブロックデータをブロックチェーンに追加するブロックチェーン部を備えており、当該ブロックチェーンをノード間で同期された分散データベースとして記録し共有するブロックチェーンネットワークを形成する。 According to the present invention, there are a plurality of nodes, and each node includes a block chain unit that adds block data to the block chain generated each time a certain number of the distribution cost data and the distribution reward data are generated, Form a blockchain network that records and shares the blockchain as a distributed database that is synchronized between nodes.

そのため、配信費用データ及び配信報酬データの改ざんを容易に防止でき、ノードに物体データを送信したユーザが、当該物体データを含むデータライブラリがユーザに配信された際に、報酬を受け取ることができる確実性が高まるので、物体データを生成しノードに送信する意欲がより増進される。 Therefore, falsification of distribution cost data and distribution reward data can be easily prevented, and it is certain that a user who has transmitted object data to a node can receive a reward when a data library containing the object data is distributed to the user. Because of the increased volatility, there is more incentive to generate object data and send it to nodes.

これにより、結果的にユーザが関心を持つ物体について当該物体に関連する情報を十分に表示することがより確実にできるので、ユーザに不便を感じさせない。 As a result, as a result, it is possible to more reliably display sufficient information related to the object that the user is interested in, so that the user does not feel inconvenient.

このように、本発明によれば、ユーザに不便を感じさせずにユーザが関心を持つ物体について当該物体に関連した情報を表示することができるARライブラリシステムをより確実に提供することができる。 Thus, according to the present invention, it is possible to more reliably provide an AR library system capable of displaying information related to an object of interest to the user without causing inconvenience to the user.

本発明のARライブラリシステムにおいて、
前記ライブラリ生成部は、前記ユーザ端末から受信した前記物体データを解析し、データ容量を圧縮して前記データライブラリとして記憶するように構成されていることが好ましい。
In the AR library system of the present invention,
It is preferable that the library generator analyzes the object data received from the user terminal, compresses the data volume, and stores the compressed data as the data library.

本発明によれば、データライブラリのデータ容量が小さくなるため、ユーザがノードからデータライブラリを受信する際に要する時間が短縮されるので、ユーザがより多くのデータライブラリを受信する場合の不便を軽減することができる。 According to the present invention, since the data volume of the data library is reduced, the time required for the user to receive the data library from the node is shortened, thereby reducing inconvenience when the user receives more data libraries. can do.

このように、本発明によれば、ユーザに不便を感じさせずにユーザが関心を持つより多くの物体について当該物体に関連した情報を表示することができるARライブラリシステムを提供することができる。 Thus, according to the present invention, it is possible to provide an AR library system that can display information related to more objects that the user is interested in without causing inconvenience to the user.

本発明のARライブラリシステムにおいて、
前記映像生成部は、前記カメラ部が撮像した複数の前記物体の外観に基づいて、複数の該物体の外観それぞれと一致する各外観データに関連付けられた各説明データを前記端末記憶部から取得し、該カメラ部が撮像している映像に含まれる各物体のそれぞれの映像に各説明データを重ね合わせた映像を生成して出力するように構成されていることが好ましい。
In the AR library system of the present invention,
The video generation unit obtains, from the terminal storage unit, each description data associated with each appearance data that matches each of the appearances of the plurality of objects, based on the appearances of the plurality of objects captured by the camera unit. Preferably, it is configured to generate and output an image in which each description data is superimposed on each image of each object included in the image picked up by the camera unit.

本発明によれば、映像生成部は、ユーザがカメラ部で撮像した複数の物体の説明データを同時に取得して各物体のそれぞれの映像に各説明データを重ね合わせた映像を生成して出力する。 According to the present invention, the video generation unit simultaneously acquires explanatory data of a plurality of objects captured by the camera unit by the user, and generates and outputs a video in which each explanatory data is superimposed on each video of each object. .

そのため、ユーザは関心を持つ複数の物体について当該物体に関連する情報を同時に表示することができるので、ユーザの利便性がさらに向上する。 Therefore, the user can simultaneously display information related to a plurality of objects of interest to the user, thereby further improving convenience for the user.

このように、本発明によれば、ユーザの利便性をさらに向上させつつ、ユーザが関心を持つ物体について当該物体に関連した情報を表示することができるARライブラリシステムを提供することができる。 Thus, according to the present invention, it is possible to provide an AR library system capable of displaying information related to an object of interest to the user while further improving user convenience.

本発明の一実施形態に係るARライブラリシステムの構成の概略を示す概略図。1 is a schematic diagram showing an overview of the configuration of an AR library system according to one embodiment of the present invention; FIG. 本発明の一実施形態に係るARライブラリシステムの処理の流れを示すフローチャート。4 is a flow chart showing the processing flow of the AR library system according to one embodiment of the present invention. 本発明の一実施形態に係るARライブラリシステムの処理の流れを示すフローチャート。4 is a flow chart showing the processing flow of the AR library system according to one embodiment of the present invention. 本発明の一実施形態に係るARライブラリシステムの処理の流れを示すフローチャート。4 is a flow chart showing the processing flow of the AR library system according to one embodiment of the present invention. 本発明の一実施形態に係るARライブラリシステムの画面表示を示す図。FIG. 4 is a diagram showing a screen display of the AR library system according to one embodiment of the present invention; 本発明の一実施形態に係るARライブラリシステムの画面表示を示す図。FIG. 4 is a diagram showing a screen display of the AR library system according to one embodiment of the present invention;

以下、図面を用いて本発明の実施形態を説明する。 Embodiments of the present invention will be described below with reference to the drawings.

まず、図1を参照して、本発明の一実施形態に係るARライブラリシステムの構成の概略を説明する。 First, with reference to FIG. 1, an outline of the configuration of an AR library system according to one embodiment of the present invention will be described.

本発明の一実施形態に係るARライブラリシステムは、複数のユーザ端末10と1つ以上のノード20とを備えるネットワークシステムである。 An AR library system according to an embodiment of the present invention is a network system comprising multiple user terminals 10 and one or more nodes 20 .

ユーザ端末10とノード20との間及びノード20同士の間は、例えば携帯電話通信網、Wi-Fi(登録商標)その他の無線通信又はEthernet、PLC(パワー・ライン・コミュニケーション)などの有線通信などを介してインターネット等の通信ネットワーク30により接続されており、各ユーザ端末10及びノード20に割り当てられているIPアドレス、識別符号などに基づいて相手方を特定して相互に種々の情報を送受信することができる。 Between the user terminal 10 and the node 20 and between the nodes 20, for example, wireless communication such as mobile phone communication network, Wi-Fi (registered trademark), wired communication such as Ethernet, PLC (power line communication), etc. are connected by a communication network 30, such as the Internet, through which each user terminal 10 and each node 20 are assigned an IP address, an identification code, etc. to identify the other party and exchange various information with each other. can be done.

ユーザ端末10は、カメラ部100、端末入力部110、端末表示部120、端末通信部130、端末制御部140、外観データ生成部141、物体データ生成部142、映像生成部143及び端末記憶部150を備える端末であり、例えばスマートフォン、タブレット、パーソナルコンピュータである。 The user terminal 10 includes a camera unit 100, a terminal input unit 110, a terminal display unit 120, a terminal communication unit 130, a terminal control unit 140, an appearance data generation unit 141, an object data generation unit 142, an image generation unit 143, and a terminal storage unit 150. , such as smartphones, tablets, and personal computers.

カメラ部100は、物体の外観を撮像することができるカメラである。カメラ部100は、外観データ生成部141が物体の外観を録画して外観データを作成し、各物体の外観データと説明データとを関連付けた物体データを生成してノード20に送信する際と、映像生成部143が物体の外観に基づいてユーザ端末10の端末表示部120に当該物体の映像と当該物体と関連した情報とを重ね合わせて表示させる際とに用いられる。 The camera unit 100 is a camera capable of capturing the appearance of an object. When the appearance data generation unit 141 records the appearance of objects to create appearance data, generates object data in which the appearance data and description data of each object are associated with each other, and transmits the generated object data to the node 20, It is used when the image generation unit 143 causes the terminal display unit 120 of the user terminal 10 to superimpose and display the image of the object and information related to the object based on the appearance of the object.

物体の外観とは、物体の形状、色彩などのユーザの目に見える部分に関する情報である。ある一方向から撮像した外観でもよいし、前方、後方、上方、下方、斜めなど複数の方向からの外観の組み合わせでもよい。 The appearance of an object is information about the part visible to the user, such as the shape and color of the object. Appearance captured from a certain direction may be used, or a combination of appearances taken from a plurality of directions such as front, rear, upper, lower, oblique, etc. may be used.

端末入力部110は、ユーザによる情報の入力を受け付ける部分であり、たとえばタッチパネル、キーボード、マウス又はタッチパッドその他のポインティングデバイスである。ユーザは、カメラ部100を用いて任意の物体の外観を撮像して、当該に物体に関する説明データを端末入力部110を用いて入力する。 The terminal input unit 110 is a portion that receives information input by the user, and is, for example, a touch panel, keyboard, mouse, touch pad, or other pointing device. The user uses the camera unit 100 to capture an image of the appearance of an arbitrary object, and uses the terminal input unit 110 to input explanatory data about the object.

端末表示部120は、ユーザ端末10が出力する情報を表示する部分であり、例えば液晶ディスプレイ、有機ELディスプレイである。 The terminal display unit 120 is a part that displays information output by the user terminal 10, and is, for example, a liquid crystal display or an organic EL display.

端末表示部120は、ユーザがカメラ部100を用いて撮像した物体の映像及び当該物体と関連した情報と当該物体とが重ねあわされた映像を表示する。 The terminal display unit 120 displays an image of an object captured by the user using the camera unit 100 and an image in which the information related to the object and the object are superimposed.

端末通信部130は、有線通信又はWiFi(登録商標)等の通信規格にしたがった無線通信を介して、ノード20と相互通信するよう構成されている。 The terminal communication unit 130 is configured to mutually communicate with the node 20 via wired communication or wireless communication according to a communication standard such as WiFi (registered trademark).

端末制御部140は、CPU(Central Processing Unit)等の演算処理装置及びメモリ等により構成されている。 The terminal control unit 140 includes an arithmetic processing unit such as a CPU (Central Processing Unit), a memory, and the like.

端末制御部140は、所定のプログラムを読み込んで実行することにより、後述の処理を実行する外観データ生成部141、物体データ生成部142、映像生成部143として機能する。 The terminal control unit 140 functions as an appearance data generation unit 141, an object data generation unit 142, and an image generation unit 143 that execute processing described later by reading and executing predetermined programs.

端末制御部140は、端末入力部110に対するユーザによる操作(例えば、ボタンのタッチやクリック、あるいはスワイプ操作等)に応じて、読み込むべきプログラムを認識して読み込んで実行し、あるいはプログラムの実行を終了する。 The terminal control unit 140 recognizes the program to be read, reads it, and executes it, or terminates the execution of the program, in response to the user's operation on the terminal input unit 110 (for example, a touch or click of a button, or a swipe operation). do.

外観データ生成部141は、カメラ部100を介して録画した物体の映像から外観データを生成する。外観データは、例えば当該映像と、当該映像を撮影した際のユーザ端末10の角度及び向きに関する情報を含む情報のセットである。 Appearance data generation section 141 generates appearance data from an image of an object recorded via camera section 100 . Appearance data is, for example, a set of information including the video and information about the angle and orientation of the user terminal 10 when the video was captured.

物体データ生成部142は、外観データとユーザが端末入力部110を用いて入力した説明データとを関連付けた情報のセットである物体データを生成する。 The object data generation unit 142 generates object data, which is a set of information that associates appearance data with description data input by the user using the terminal input unit 110 .

このように、本発明によれば、物体データはGPSによる位置情報を必要としないので、ユーザはGPSを用いた位置情報の取得が困難な屋内などの場所でも当該システムを用いることができる。 Thus, according to the present invention, the object data does not require GPS position information, so the user can use the system even indoors where it is difficult to obtain position information using GPS.

また本発明によれば、同一の外観を持つ物体であれば、複数の場所に同時に存在したり、時期によって異なる場所に存在したりしても当該物体に関連した情報を表示できるので便利である。 Further, according to the present invention, if an object has the same appearance, it is convenient because information related to the object can be displayed even if the object exists in multiple places at the same time or in different places depending on the time. .

映像生成部143は、端末記憶部150内のデータライブラリ151を参照し、カメラ部100が撮像している物体の外観に基づいて、当該物体の外観と一致する外観データに関連付けられた説明データを取得し、カメラ部100が撮像している映像に含まれる当該物体の映像に当該説明データを重ね合わせた映像を生成し、端末表示部120を介してユーザに表示する。 The video generation unit 143 refers to the data library 151 in the terminal storage unit 150, and based on the appearance of the object captured by the camera unit 100, generates description data associated with appearance data that matches the appearance of the object. An image is generated by superimposing the explanation data on the image of the object included in the image captured by the camera unit 100 and displayed to the user via the terminal display unit 120 .

なお、映像生成部143は、カメラ部100が撮像した複数の物体の外観に基づいて、複数の物体の外観それぞれと一致する各外観データに関連付けられた各説明データをデータライブラリ151から取得し、カメラ部100が撮像している映像に含まれる各物体のそれぞれの映像に各説明データを重ね合わせた映像を生成して出力するように構成されていることが好ましい。 Note that the video generation unit 143 acquires from the data library 151 each description data associated with each appearance data that matches each appearance of the plurality of objects based on the appearance of the plurality of objects captured by the camera unit 100, It is preferable to generate and output an image in which each description data is superimposed on each image of each object included in the image captured by the camera unit 100 .

これにより、ユーザは関心を持つ複数の物体について当該物体に関連する情報を同時に表示することができるので、ユーザの利便性がさらに向上する。 This allows the user to simultaneously display information relating to a plurality of objects of interest to the user, thereby further improving convenience for the user.

端末記憶部150は、例えばROM(Read Only Memory),RAM(Random Access Memory)、HDD(Hard Disk Drive)等の記憶装置により構成されている。 The terminal storage unit 150 is configured by storage devices such as ROM (Read Only Memory), RAM (Random Access Memory), and HDD (Hard Disk Drive).

端末記憶部150は、データライブラリ151、ユーザID152の他、端末制御部140の処理結果、又は端末制御部140が端末通信部130を介してノード20から受信したデータを記憶するように構成されている。 The terminal storage unit 150 is configured to store the data library 151, the user ID 152, the processing result of the terminal control unit 140, or the data that the terminal control unit 140 receives from the node 20 via the terminal communication unit 130. there is

これにより、ユーザは、あらかじめノードからデータライブラリの配信を受けてユーザ端末に記憶させ、端末記憶部から説明データを取得するので、ユーザ端末で物体を認識してユーザ端末の画面中に当該物体の映像と当該物体と関連した情報とを重ね合わせて表示させる際には、ノードとの通信やノード内部での検索処理を待つ必要がない。 As a result, the user receives the data library distributed from the node in advance, stores it in the user terminal, and acquires the explanation data from the terminal storage section. When superimposing and displaying an image and information related to the object, there is no need to wait for communication with the node or search processing inside the node.

データライブラリ151は、ノード20が配信する物体データの集合体であり、物体データを1つ以上含んでいる。ユーザID152は、ユーザを特定するためのIDである。 The data library 151 is a collection of object data distributed by the node 20 and includes one or more pieces of object data. User ID 152 is an ID for specifying a user.

ノード20は、ノード通信部200、ノード制御部210、ライブラリ生成部211、ライブラリ配信部212、報酬等データ生成部213、ブロックチェーン部214及びノード記憶部220を備える。 The node 20 includes a node communication unit 200 , a node control unit 210 , a library generation unit 211 , a library distribution unit 212 , a reward data generation unit 213 , a blockchain unit 214 and a node storage unit 220 .

ノード通信部200は、有線通信又はWiFi(登録商標)等の通信規格にしたがった無線通信を介して、ユーザ端末10と相互通信するよう構成されている。 The node communication unit 200 is configured to mutually communicate with the user terminal 10 via wired communication or wireless communication according to a communication standard such as WiFi (registered trademark).

ノード制御部210は、所定のプログラムを読み込んで実行することにより、後述の処理を実行するライブラリ生成部211、ライブラリ配信部212、報酬等データ生成部213、ブロックチェーン部214として機能する。 The node control unit 210 functions as a library generation unit 211, a library distribution unit 212, a remuneration data generation unit 213, and a block chain unit 214 that execute processing described later by reading and executing predetermined programs.

ライブラリ生成部211は、ユーザ端末から受信した物体データを当該物体データの種別に応じて分類してノードデータライブラリ221としてノード記憶部220に蓄積する。 The library generation unit 211 classifies the object data received from the user terminal according to the type of the object data and stores them in the node storage unit 220 as a node data library 221 .

物体データの種別は、例えばユーザ端末10において、物体データ生成部142がユーザによる各物体についての説明データの入力を受け付ける際に併せて受け付けられる。 For example, in the user terminal 10, the object data generation unit 142 accepts input of description data for each object by the user together with the object data type.

ライブラリ生成部211は、ユーザ端末から受信した前記物体データを解析し、データ容量を圧縮してデータライブラリとして記憶するように構成されていることが好ましい。 The library generation unit 211 is preferably configured to analyze the object data received from the user terminal, compress the data volume, and store it as a data library.

これにより、データライブラリのデータ容量が小さくなるため、ユーザがノード20からデータライブラリを受信する際に要する時間が短縮されるので、ユーザがより多くのデータライブラリを受信する場合の不便を軽減することができる。 As a result, the data capacity of the data library is reduced, and the time required for the user to receive the data library from the node 20 is shortened, thereby alleviating inconvenience when the user receives more data libraries. can be done.

ライブラリ配信部212は、ノード記憶部220のノードデータライブラリ221の全部又は一部をノード通信部200を介してユーザ端末10に配信する。ライブラリ配信部212は、例えばユーザ端末10からのデータライブラリの配信要求を受け付け、当該ユーザ端末に対してデータライブラリを配信する。 The library distribution unit 212 distributes all or part of the node data library 221 in the node storage unit 220 to the user terminal 10 via the node communication unit 200 . The library distribution unit 212 receives, for example, a data library distribution request from the user terminal 10 and distributes the data library to the user terminal.

このように、データライブラリはノードにおいて物体の種別ごとに分類されて配信されており、ユーザは自身が関心を持つ物体の種別のデータライブラリのみを選択して受信しユーザ端末に記憶させることができるので、端末記憶部中のデータ量を最小限とすることができるため、端末記憶部から説明データを取得する処理を効率的に行うことができる。 In this way, the data library is classified by object type at the node and distributed, and the user can select, receive, and store only the data library for the object type that the user is interested in, and store it in the user terminal. Therefore, since the amount of data in the terminal storage can be minimized, the process of acquiring the explanation data from the terminal storage can be performed efficiently.

そのため、ユーザは、ユーザ端末で物体を認識してからユーザ端末の画面中に当該物体の映像と当該物体と関連した情報とを重ね合わせて表示させるまでの時間を最小限にすることができるので便利である。 Therefore, the user can minimize the time from recognizing an object on the user terminal to superimposing and displaying the image of the object and information related to the object on the screen of the user terminal. Convenient.

報酬等データ生成部213は、データライブラリの配信を受けたユーザに対する当該データライブラリの配信費用を示す配信費用データを生成すると共に、配信した当該データライブラリに含まれる物体データを送信したユーザを特定し、当該ユーザに対する報酬を示す配信報酬データを当該配信費用の全部又は一部を分配して生成し、ノード記憶部220に記憶する。 The remuneration data generation unit 213 generates distribution cost data indicating the distribution cost of the data library to the user who received the distribution of the data library, and identifies the user who transmitted the object data included in the distributed data library. , distributes all or part of the distribution fee, generates distribution reward data indicating a reward for the user, and stores the distribution reward data in the node storage unit 220 .

これにより、ノードに物体データを送信したユーザは、当該物体データを含むデータライブラリがユーザに配信された際に、当該データライブラリの配信を受けたユーザが負担する配信費用の全部又は一部を当該データライブラリに含まれる物体データを送信したユーザで分配して報酬として受け取ることができる。 As a result, when a data library containing the object data is distributed to the user, the user who has transmitted the object data to the node can pay all or part of the distribution costs borne by the user who received the distribution of the data library. The object data contained in the data library can be distributed among the users who have sent it and received as a reward.

そのため、ユーザは自身が関心を持つので他のユーザにも関心を持ってもらいたい物体について、あるいは他のユーザが関心を持つと当該ユーザが考える物体について物体データを生成しノードに送信する意欲が増進され、各ユーザが関心を持つ物体に関連する十分な情報がノードに記憶される可能性が高まるため、結果的にユーザが関心を持つ物体について当該物体に関連する情報を十分に表示することができるので、ユーザに不便を感じさせない。 Therefore, users are motivated to generate and transmit object data to nodes for objects that they are interested in and want other users to be interested in, or objects that the user thinks other users will be interested in. Displaying sufficient information related to objects of interest to users as a result of enhanced likelihood that sufficient information related to the objects of interest to each user will be stored in the nodes. Therefore, the user does not feel inconvenient.

ブロックチェーン部214は、配信費用データ及び配信報酬データを一定数生成する毎に当該配信費用データ及び当該配信報酬データに基づいてブロックデータを生成し、当該ブロックデータをブロックチェーンに追加して当該ブロックチェーンを他のノード20と分散管理する。 The blockchain unit 214 generates block data based on the distribution cost data and the distribution reward data each time a certain number of distribution cost data and distribution reward data is generated, adds the block data to the block chain, and adds the block data to the block chain. The chain is distributed and managed with other nodes 20.

これにより、配信費用データ及び配信報酬データの改ざんを容易に防止でき、ノード20に物体データを送信したユーザが、当該物体データを含むデータライブラリがユーザに配信された際に、報酬を受け取ることができる確実性が高まるので、物体データを生成しノード20に送信する意欲がより増進される。 As a result, falsification of distribution cost data and distribution reward data can be easily prevented, and a user who has transmitted object data to the node 20 can receive a reward when a data library containing the object data is distributed to the user. There is greater certainty that object data can be generated and the motivation to generate and transmit object data to node 20 is increased.

ノード記憶部220は、例えばROM(Read Only Memory),RAM(Random Access Memory)、HDD(Hard Disk Drive)等の記憶装置により構成されている。 The node storage unit 220 is configured by a storage device such as a ROM (Read Only Memory), a RAM (Random Access Memory), and an HDD (Hard Disk Drive).

ノード記憶部220は、ノードデータライブラリ221、ユーザDB222、種別DB223、ブロックDB224の他、ノード制御部210の処理結果、又はノード制御部210がノード通信部200を介してユーザ端末10から受信したデータを記憶するように構成されている。 The node storage unit 220 stores a node data library 221, a user DB 222, a type DB 223, a block DB 224, a processing result of the node control unit 210, or data received by the node control unit 210 from the user terminal 10 via the node communication unit 200. is configured to store

ノードデータライブラリ221は、ノード20に格納されているデータライブラリであり、ユーザ端末10から受信したすべての物理データが記憶されている。 The node data library 221 is a data library stored in the node 20 and stores all physical data received from the user terminal 10 .

ユーザDB222は、ARライブラリシステムのユーザを特定するためのユーザIDを格納しているデータベースである。 The user DB 222 is a database that stores user IDs for specifying users of the AR library system.

種別DB223は、ノードデータライブラリ221に含まれる各物体データの種別を特定するための種別コードを格納しているデータベースである。 The type DB 223 is a database that stores a type code for specifying the type of each object data included in the node data library 221 .

ブロックDB224は、ブロックチェーン部214が生成したブロックデータにより構成されるブロックチェーンを格納しているデータベースである。 The block DB 224 is a database that stores a block chain composed of block data generated by the block chain unit 214 .

次に、図2A~図2Cを参照して、本発明の一実施形態に係るARライブラリシステムによる処理の流れを説明する。 Next, the flow of processing by the AR library system according to one embodiment of the present invention will be described with reference to FIGS. 2A to 2C.

(データライブラリ生成処理)
図2Aは、本発明の一実施形態に係るARライブラリシステムがデータライブラリを生成する一連の処理であるデータライブラリ生成処理を説明するフローチャートである。
(data library generation processing)
FIG. 2A is a flowchart illustrating data library generation processing, which is a series of processing for generating a data library by the AR library system according to one embodiment of the present invention.

まず、端末入力部110の外観データ生成部141は、ユーザによる操作に応じて、カメラ部100を介して物体の外観を録画する(図2A/STEP10)。 First, the appearance data generation unit 141 of the terminal input unit 110 records the appearance of the object through the camera unit 100 according to the user's operation (FIG. 2A/STEP 10).

物体の外観を録画する際に、外観データ生成部141は、ユーザが外観データの生成を希望する物体を特定する情報である物体指定情報の入力を受け付ける。 When recording the appearance of an object, the appearance data generation unit 141 receives input of object designation information, which is information specifying an object for which the user wishes to generate appearance data.

例えばユーザ端末10がスマートフォン又はタブレットである場合、図3に示すようにユーザは端末表示部120中のユーザが外観データの生成を希望する物体が表示されている範囲をタッチパネル上で指でなぞることなどにより、外観データ生成部141は、物体指定情報の入力を受け付ける処理を開始する。 For example, when the user terminal 10 is a smart phone or a tablet, the user traces the area where the object for which the user wishes to generate appearance data is displayed on the terminal display unit 120 with a finger, as shown in FIG. For example, the appearance data generation unit 141 starts processing for accepting input of object designation information.

外観データ生成部141は、ユーザが指でなぞった範囲にある物体をユーザが外観データの生成を希望する物体として認識し、当該物体の外観を録画する。 The appearance data generation unit 141 recognizes an object within a range traced by the user's finger as an object for which the user wishes to generate appearance data, and records the appearance of the object.

外観データ生成部141は、ユーザが当該物体の例えば前方、後方、上方、下方、斜めなど様々な方向からの外観を録画するためにユーザ端末を傾けたり動かしたりしても、外観データ生成部141が当該物体の位置を認識できる範囲に当該物体がある限りにおいて当該物体の位置を認識して追従し、当該物体の外観の録画を継続する。 Even if the user tilts or moves the user terminal in order to record the appearance of the object from various directions such as front, rear, upward, downward, oblique, etc., the external appearance data generation unit 141 As long as the object is within the range where the can recognize the position of the object, it will recognize the position of the object and follow it, and will continue to record the appearance of the object.

そして、外観データ生成部141は、録画した物体の外観に基づいて、当該物体の外観データを生成する(図2A/STEP20)。 Then, the appearance data generation unit 141 generates appearance data of the object based on the recorded appearance of the object (FIG. 2A/STEP 20).

外観データ生成部141は、例えばユーザが端末表示部120中に表示されている録画終了ボタンなどをタッチすることにより当該物体の外観データの作成を終了する。 Appearance data generation unit 141 finishes creating the appearance data of the object when the user touches a recording end button or the like displayed in terminal display unit 120, for example.

次に、物体データ生成部142は、ユーザに当該物体の説明データの入力を促す表示を端末表示部120に表示して、ユーザによる説明データの入力を端末入力部110を介して受け付ける(図2A/STEP30)。 Next, the object data generator 142 displays on the terminal display unit 120 a display prompting the user to input description data of the object, and accepts input of the description data by the user via the terminal input unit 110 (FIG. 2A). / STEP 30).

物体データ生成部142は、説明データとして、「赤いスポーツカー」、「醤油さし」、「竹の物差し」などの文字情報の入力を受け付ける。文字情報に加えて又は替えて静止画像、動画像、音声などの入力を受け付けるようにしてもよい。 The object data generation unit 142 accepts input of character information such as "red sports car", "soy sauce dispenser", and "bamboo ruler" as description data. In addition to or instead of character information, input of still images, moving images, voices, etc. may be accepted.

また、物体データ生成部142は、説明データとして、物体の種別に関する情報の入力を受け付ける。種類に関する情報は、例えば物体が「赤いスポーツカー」であれば「自動車」又は「スポーツカー」であり、「醤油さし」であれば「調味料」又は「調味料入れ」であり、「竹の物差し」であれば「文房具」などである。なお、物体の種別に関する情報は、物体につき1つだけであってもよいし、複数であってもよい。 In addition, the object data generation unit 142 receives input of information regarding the type of object as explanation data. For example, if the object is a ``red sports car'', the information about the type is ``car'' or ``sports car''; If it is a ruler, it is "stationery". Note that there may be only one piece of information about the type of object, or a plurality of pieces of information.

物体データ生成部142は、例えば定期的にノード20の種別DBを参照し、種別の一覧を取得して端末記憶部150に記憶し、ユーザに当該物体の説明データの入力を促す際に、当該物体の種別の一覧をユーザに表示し当該一覧の中から選択させるように構成される。 For example, the object data generation unit 142 periodically refers to the type DB of the node 20, acquires a list of types, stores it in the terminal storage unit 150, and when prompting the user to input description data of the object, generates the It is configured to display a list of types of objects to the user and allow the user to select from the list.

そして、物体データ生成部142は、物体の外観データと当該説明データとを関連付けたデータである物体データを生成する(図2A/STEP40)。なお、物体データには、物体の外観データと当該説明データとのほか、ユーザのユーザIDが含まれている。 Then, the object data generation unit 142 generates object data, which is data in which the appearance data of the object and the description data are associated (FIG. 2A/STEP 40). Note that the object data includes the user ID of the user in addition to the appearance data and the description data of the object.

その後、物体データ生成部142は、当該物体データをノード20に送信する(図2A/STEP50)。 After that, the object data generator 142 transmits the object data to the node 20 (FIG. 2A/STEP 50).

ノード20のライブラリ生成部211は、ユーザ端末10が送信した物体データを受信する(図2A/STEP100)。そして、ライブラリ生成部211は、ユーザ端末から受信した物体データを当該物体データの種別に応じて分類してノードデータライブラリ221としてノード記憶部220に蓄積して(図2A/STEP110)処理を終了する。 The library generator 211 of the node 20 receives the object data transmitted by the user terminal 10 (FIG. 2A/STEP 100). Then, the library generation unit 211 classifies the object data received from the user terminal according to the type of the object data, stores them in the node storage unit 220 as the node data library 221 (FIG. 2A/STEP 110), and ends the processing. .

なお、ライブラリ生成部211は、ユーザ端末10から受信した物体データをノードデータライブラリとしてノード記憶部220に蓄積する処理を定期的に繰り返す(例えば1分毎。当該時間の長さは適宜変更可能である。)。 Note that the library generation unit 211 periodically repeats the process of accumulating the object data received from the user terminal 10 in the node storage unit 220 as a node data library (for example, every minute. The length of time can be changed as appropriate). be.).

ライブラリ生成部211は、物体データの種別を、当該物体データ中の説明データに含まれる物体の種類に関する情報に基づいて判断し、当該情報に応じて分類する。 The library generation unit 211 determines the type of object data based on information about the type of object included in the description data in the object data, and classifies the object data according to the information.

(データライブラリ配信処理)
図2Bは、本発明の一実施形態に係るARライブラリシステムがデータライブラリを配信する一連の処理であるデータライブラリ配信処理について説明するフローチャートである。
(data library delivery processing)
FIG. 2B is a flowchart illustrating data library distribution processing, which is a series of processing for distributing the data library by the AR library system according to one embodiment of the present invention.

ユーザ端末10は、ユーザの操作に基づいてデータライブラリの配信要求をノード20に送信する(図2B/STEP200)。 The user terminal 10 transmits a data library distribution request to the node 20 based on the user's operation (FIG. 2B/STEP 200).

ユーザ端末10は、データライブラリの配信要求をノード20に送信する際に、ユーザが配信を希望する物体データの種別の入力を受け付け、当該種別に関する情報をノード20に送信する配信要求に含めて送信する。なお、当該種別に関する情報は1つの配信要求につき1つでもよいし、複数でもよいし、あるいはすべての種別としてもよい。 When the user terminal 10 transmits a data library distribution request to the node 20, the user terminal 10 accepts input of the type of object data that the user wishes to distribute, and transmits information about the type in the distribution request to be transmitted to the node 20. do. Note that the information regarding the type may be one for one distribution request, may be plural, or may be all types.

ノード20ライブラリ配信部212は、ユーザ端末10からデータライブラリの配信要求を受信する(図2B/STEP300)。 The node 20 library distribution unit 212 receives a data library distribution request from the user terminal 10 (FIG. 2B/STEP 300).

データライブラリの配信要求を受信したライブラリ配信部212は、当該配信要求からユーザが配信を希望する物体データの種別を認識し、ノード記憶部220のノードデータライブラリ221に蓄積されたデータライブラリからユーザが配信を希望する種別の物体データを抽出し、抽出した物体データを含むデータライブラリを生成する(図2B/STEP310)。 Upon receiving the data library distribution request, the library distribution unit 212 recognizes the type of object data that the user wishes to distribute from the distribution request, Object data of a desired type to be distributed is extracted, and a data library containing the extracted object data is generated (FIG. 2B/STEP 310).

ノード20の報酬等データ生成部213は、データライブラリの配信を受ける前記ユーザに対する配信費用を示す配信費用データを生成する(図2B/STEP320)。 The remuneration data generation unit 213 of the node 20 generates distribution cost data indicating the distribution cost for the user who receives the distribution of the data library (FIG. 2B/STEP 320).

配信費用データに含まれる配信費用の額は、データライブラリ内に含まれる物体データの数に応じて変動させてもよいし、固定の額としてもよい。ユーザは、配信費用は通貨のほか、ARライブラリシステム内で用いることのできるポイントなどにより支払う。 The amount of distribution cost included in the distribution cost data may be varied according to the number of object data included in the data library, or may be a fixed amount. The user pays the delivery cost with currency, points that can be used within the AR library system, and the like.

報酬等データ生成部213は、ユーザごとの配信費用データをライブラリ配信部212がデータライブラリの配信を行うたびにユーザに送信してもよいし、一定期間(1カ月など)の配信費用データを集計してユーザに送信してもよい。 The remuneration data generation unit 213 may transmit the distribution cost data for each user to the user each time the library distribution unit 212 distributes the data library, or aggregate the distribution cost data for a certain period of time (such as one month). may be sent to the user as

そして、ノード20の報酬等データ生成部213は、配信したデータライブラリの配信費用の全部又は一部を分配して配信したデータライブラリに含まれる物体データを送信したユーザに対する報酬を示す配信報酬データを生成する(図2B/STEP330)。 Then, the remuneration data generating unit 213 of the node 20 distributes all or part of the distribution cost of the distributed data library and generates distribution remuneration data indicating a remuneration for the user who transmitted the object data included in the distributed data library. Generate (FIG. 2B/STEP 330).

報酬等データ生成部213は、まず配信したデータライブラリに含まれる各物体データ中のユーザIDを取得し、配信したデータライブラリに含まれる物体データの数をユーザごとに集計する。 The remuneration data generation unit 213 first acquires a user ID in each piece of object data included in the distributed data library, and tallies the number of pieces of object data included in the distributed data library for each user.

そして、報酬等データ生成部213は、ユーザごとの物体データの比率に応じて、配信したデータライブラリの配信費用の全部又は一部を分配して配信したデータライブラリに含まれる物体データを送信したユーザに対する報酬を示す配信報酬データを生成する。 Then, the remuneration data generation unit 213 distributes all or part of the distribution cost of the distributed data library according to the ratio of the object data for each user, and distributes the object data contained in the distributed data library to the user generate delivery reward data that indicates the reward for

報酬等データ生成部213は、ユーザごとの配信報酬データをライブラリ配信部212がデータライブラリの配信を行うたびにユーザに送信してもよいし、一定期間(1カ月など)の配信報酬データを集計してユーザに送信してもよい。 The remuneration data generation unit 213 may transmit the distribution remuneration data for each user to the user each time the library distribution unit 212 distributes the data library, or aggregate the distribution remuneration data for a certain period of time (such as one month). may be sent to the user as

次に、ブロックチェーン部214は、配信費用データ及び配信報酬データが一定数生成されたかを判定する(図2B/STEP340)。 Next, the blockchain unit 214 determines whether a certain number of delivery cost data and delivery reward data have been generated (FIG. 2B/STEP 340).

配信費用データ及び配信報酬データが一定数生成されている場合(図2B/STEP340:YES)は、ブロックチェーン部214は、該配信費用データ及び該配信報酬データに基づいてブロックデータを生成し、当該ブロックデータをブロックチェーンに追加する(図2B/STEP350)。 If a certain number of distribution cost data and distribution reward data have been generated (FIG. 2B/STEP 340: YES), the blockchain unit 214 generates block data based on the distribution cost data and the distribution reward data, Add the block data to the blockchain (FIG. 2B/STEP 350).

そして、ブロックチェーン部214は、当該ブロックデータを他のノード20に送信する(図2B/STEP360)。 The block chain unit 214 then transmits the block data to another node 20 (FIG. 2B/STEP 360).

また、ブロックチェーン部214は、他のノード20からブロックデータを受信した際には、当該ブロックデータをブロックチェーンに追加する。これにより、ブロックチェーン部214は、他のノード20とブロックチェーンを分散管理する。 Also, when block data is received from another node 20, the block chain unit 214 adds the block data to the block chain. Thereby, the blockchain unit 214 distributes and manages the other nodes 20 and the blockchain.

配信費用データ及び配信報酬データが一定数生成されていない場合(図2B/STEP340:NO)は、ブロックチェーン部214は、STEP350及びSTEP360の処理を行わない。 If a certain number of distribution cost data and distribution reward data have not been generated (FIG. 2B/STEP340: NO), the blockchain unit 214 does not perform STEP350 and STEP360.

そして、ノード20のライブラリ配信部212は、配信要求を送信したユーザ端末10にSTEP310にて生成したデータライブラリを配信する(図2B/STEP370)。 Then, the library distribution unit 212 of the node 20 distributes the data library generated in STEP310 to the user terminal 10 that transmitted the distribution request (FIG. 2B/STEP370).

ユーザ端末10は、ノード20のライブラリ配信部212が配信したデータライブラリを受信し、端末記憶部150に記憶して(図2B/STEP400)処理を終了する。 The user terminal 10 receives the data library distributed by the library distribution unit 212 of the node 20, stores it in the terminal storage unit 150 (FIG. 2B/STEP 400), and ends the process.

(説明データ表示処理)
図2Cは、本発明の一実施形態に係るARライブラリシステムが物品に関連する説明データをユーザに表示する一連の処理である説明データ表示処理について説明するフローチャートである。
(Description data display processing)
FIG. 2C is a flowchart for explaining explanation data display processing, which is a series of processes for displaying explanation data related to articles to the user by the AR library system according to one embodiment of the present invention.

端末制御部140は、端末入力部110に対するユーザによる操作に応じて、所定のプログラムを読み込み、映像生成部143としての機能を開始し、カメラ部100を介して、物体の外観を認識する(図2C/STEP500)。 The terminal control unit 140 reads a predetermined program in response to the user's operation on the terminal input unit 110, starts functioning as the video generation unit 143, and recognizes the appearance of the object via the camera unit 100 (Fig. 2C/STEP500).

なお、映像生成部143は、STEP500~540の処理を非常に短い時間間隔で繰り返し実行する。 Note that the video generation unit 143 repeatedly executes the processing of STEP500 to STEP540 at very short time intervals.

映像生成部143は、端末記憶部150に記憶されたデータライブラリ151を参照し、認識した物体の外観に基づいて、当該外観と一致する外観データがデータライブラリ151に存在するか否かを判定する(図2C/STEP510)。 The video generation unit 143 refers to the data library 151 stored in the terminal storage unit 150, and determines whether appearance data matching the appearance of the recognized object exists in the data library 151 based on the appearance of the recognized object. (FIG. 2C/STEP 510).

当該外観と一致する外観データがデータライブラリ151に存在しない場合(図2C/STEP510:NO)、映像生成部143は、以降の処理を実行せず、STEP500から処理を繰り返す。 If appearance data matching the appearance does not exist in the data library 151 (FIG. 2C/STEP 510: NO), the video generation unit 143 repeats the processing from STEP 500 without executing subsequent processing.

当該外観と一致する外観データがデータライブラリ151に存在する場合(図2C/STEP510:YES)、映像生成部143は、当該外観データに関連付けられた説明データをデータライブラリ151から取得する(図2C/STEP520)。 If appearance data that matches the appearance exists in the data library 151 (FIG. 2C/STEP 510: YES), the video generation unit 143 acquires explanatory data associated with the appearance data from the data library 151 (FIG. 2C/ STEP 520).

なお、「外観と一致する」とは、必ずしも完全に一致することのみを意味するのではなく、映像生成部143は、例えば一致の度合いが一定以上である場合に、外観と一致する外観データが存在すると判定してもよい。 It should be noted that "matching the appearance" does not necessarily mean that the appearance matches completely. may be determined to exist.

一致の度合いが一定以上である外観データが複数存在する場合は、映像生成部143は、それらのうち当該度合いが最も高いものを選択して説明データを取得することとしてもよいし、それらすべてのデータを取得することとしてもよい。 If there are a plurality of pieces of appearance data with a certain degree of matching or more, the video generation unit 143 may select the one with the highest degree of matching to acquire the explanation data, or may select all of them. Data may be acquired.

そして、映像生成部143は、STEP520にて取得したデータを用いて、カメラ部100を介して撮像している映像に含まれる各物体の映像に当該説明データが重ねあわされた映像を生成し、例えば図4に示されるような形式で、端末表示部120に表示してする(図2C/STEP530)。 Then, using the data acquired in STEP 520, the image generation unit 143 generates an image in which the description data is superimposed on the image of each object included in the image captured by the camera unit 100, For example, in the format shown in FIG. 4, it is displayed on the terminal display unit 120 (FIG. 2C/STEP 530).

上述のとおり、映像生成部143は、説明データ表示処理を非常に短い時間間隔で繰り返し実行するので、カメラ部100を介して撮像している映像に含まれる各物体が移動した場合、映像生成部143が当該物体の位置を認識できる範囲に当該物体がある限りにおいて当該物体の位置を認識して追従し、各物体の映像に当該説明データが重ねあわされた映像を生成して、端末表示部120に表示し続ける。 As described above, the video generation unit 143 repeatedly executes the explanation data display process at very short time intervals. 143 recognizes and follows the position of the object as long as the object is within the range where the position of the object can be recognized, generates an image in which the explanation data is superimposed on the image of each object, and displays the terminal display unit Continue to display at 120.

そして、映像生成部143は、ユーザによる処理終了の操作がなされたか否かを判定する(図2C/STEP540)。 Then, the video generation unit 143 determines whether or not the user has performed an operation to end the process (FIG. 2C/STEP 540).

ユーザによる処理終了の操作がなされていない場合(図2C/STEP540:NO)、映像生成部143は、STEP500以降の処理を繰り返す。一方ユーザによる処理終了の操作がなされた場合(図2C/STEP540:YES)、映像生成部143は、処理を終了する。 If the user has not performed an operation to end processing (FIG. 2C/STEP 540: NO), the video generation unit 143 repeats the processing from STEP 500 onwards. On the other hand, if the user has performed an operation to end the process (FIG. 2C/STEP 540: YES), the video generator 143 ends the process.

なお、本発明は、上述した実施形態に限定されるものではなく、本発明の要旨の範囲内で各種の変形実施形態が可能であり、そのような実施形態も本発明の範囲に含まれる。 The present invention is not limited to the above-described embodiments, and various modified embodiments are possible within the scope of the present invention, and such embodiments are also included in the scope of the present invention.

10…ユーザ端末、20…ノード、30…通信ネットワーク、100…カメラ部、110…端末入力部、120…端末表示部、130…端末通信部、140…端末制御部、141…外観データ生成部、142…物体データ生成部、143…映像生成部、150…端末記憶部、151…データライブラリ、152…ユーザID、200…ノード通信部、210…ノード制御部、211…ライブラリ生成部、212…ライブラリ配信部、213…報酬等データ生成部、214…ブロックチェーン部、220…ノード記憶部、221…ノードデータライブラリ、222…ユーザDB、223…種別DB、224…ブロックDB DESCRIPTION OF SYMBOLS 10... User terminal, 20... Node, 30... Communication network, 100... Camera part, 110... Terminal input part, 120... Terminal display part, 130... Terminal communication part, 140... Terminal control part, 141... Appearance data generation part, DESCRIPTION OF SYMBOLS 142... Object data generation part 143... Video generation part 150... Terminal storage part 151... Data library 152... User ID 200... Node communication part 210... Node control part 211... Library generation part 212... Library Distribution unit 213 Reward data generation unit 214 Block chain unit 220 Node storage unit 221 Node data library 222 User DB 223 Class DB 224 Block DB

Claims (4)

物体の外観を認識し、該物体の外観に基づいて該物体について説明するデータである説明データを出力する複数のユーザ端末及び当該複数のユーザ端末と通信する1つ以上のノードを備えるARライブラリシステムであって、
前記ユーザ端末は、
前記物体の外観を撮像するカメラ部と、
前記カメラ部を介して前記物体の外観を認識し、該物体の外観に関するデータである外観データを生成する外観データ生成部と、
ユーザによる該物体についての前記説明データの入力を受け付け、該物体の前記外観データと該説明データと該ユーザのユーザ識別情報とを関連付けたデータである物体データを生成して前記ノードに送信する物体データ生成部と、
前記ノードが配信する前記物体データの集合体であるデータライブラリを受信して記憶する端末記憶部と、
前記カメラ部が撮像している前記物体の外観に基づいて、該物体の外観と一致する外観データに関連付けられた前記説明データを前記端末記憶部から取得し、該カメラ部が撮像している映像に含まれる該物体の映像に該説明データを重ね合わせた映像を生成して出力する映像生成部とを備え、
前記ノードは、
前記ユーザ端末から受信した前記物体データを該物体データの種別に応じて分類して前記データライブラリとして蓄積するライブラリ生成部と、
前記データライブラリを前記ユーザ端末に配信するライブラリ配信部と、
前記データライブラリの配信を受けた前記ユーザに対する配信費用を示す配信費用データを生成すると共に、配信した該データライブラリに含まれる前記物体データから前記ユーザ識別情報を取得することにより、該配信した該データライブラリに含まれる各該物体データを送信した各前記ユーザを識別し、配信した該データライブラリに含まれる該物体データの数を該ユーザごとに集計し、該ユーザごとの該物体データの数の比率に応じて該配信費用の全部または一部を分配することにより、配信した該データライブラリに含まれる該物体データを送信した1又は複数の前記ユーザのそれぞれに対する報酬を示す配信報酬データを生成する報酬等データ生成部とを備えることを特徴とするARライブラリシステム。
An AR library system comprising a plurality of user terminals for recognizing the appearance of an object and outputting descriptive data, which is data describing the object based on the appearance of the object, and one or more nodes communicating with the plurality of user terminals. and
The user terminal is
a camera unit that captures the appearance of the object;
an appearance data generation unit that recognizes the appearance of the object through the camera unit and generates appearance data that is data relating to the appearance of the object;
An object that receives an input of the description data about the object by a user, generates object data that is data that associates the appearance data of the object, the description data, and user identification information of the user, and transmits the object data to the node. a data generator;
a terminal storage unit that receives and stores a data library that is an aggregate of the object data distributed by the node;
Based on the appearance of the object captured by the camera, the explanation data associated with the appearance data matching the appearance of the object is acquired from the terminal storage, and the image captured by the camera. an image generation unit that generates and outputs an image in which the description data is superimposed on the image of the object included in
The node is
a library generating unit that classifies the object data received from the user terminal according to the type of the object data and stores them as the data library;
a library distribution unit that distributes the data library to the user terminal;
generating distribution cost data indicating a distribution cost for the user who received the distribution of the data library, and obtaining the user identification information from each of the object data included in the distributed data library; identifying each user who transmitted each piece of object data contained in the data library, counting the number of pieces of object data contained in the distributed data library for each user, and counting the number of pieces of object data for each user; Proportional distribution of all or part of the distribution cost to generate distribution reward data indicating a reward for each of the one or more users who transmitted the object data contained in the distributed data library. An AR library system, comprising: a remuneration data generation unit.
請求項1に記載のARライブラリシステムにおいて、
前記ノードは複数であり、
前記配信費用データ及び前記配信報酬データを一定数生成する毎に該配信費用データ及び該配信報酬データに基づいてブロックデータを生成し、該ブロックデータをブロックチェーンに追加して該ブロックチェーンを他のノードと分散管理するブロックチェーン部を備えることを特徴とするARライブラリシステム。
In the AR library system according to claim 1,
said node is plural,
generating block data based on the distribution cost data and the distribution reward data each time a certain number of the distribution cost data and the distribution reward data are generated; An AR library system characterized by comprising a node and a block chain unit for distributed management.
請求項1又は2に記載のARライブラリシステムにおいて、
前記ライブラリ生成部は、前記ユーザ端末から受信した前記物体データを解析し、データ容量を圧縮して前記データライブラリとして記憶するように構成されていることを特徴とするARライブラリシステム。
In the AR library system according to claim 1 or 2,
The AR library system, wherein the library generator analyzes the object data received from the user terminal, compresses the data volume, and stores the data as the data library.
請求項1~3の何れか1項に記載のARライブラリシステムにおいて、
前記映像生成部は、前記カメラ部が撮像した複数の前記物体の外観に基づいて、複数の該物体の外観それぞれと一致する各外観データに関連付けられた各説明データを前記端末記憶部から取得し、該カメラ部が撮像している映像に含まれる各物体のそれぞれの映像に各説明データを重ね合わせた映像を生成して出力するように構成されていることを特徴とするARライブラリシステム。
In the AR library system according to any one of claims 1 to 3,
The video generation unit obtains, from the terminal storage unit, each description data associated with each appearance data that matches each of the appearances of the plurality of objects, based on the appearances of the plurality of objects captured by the camera unit. 1. An AR library system configured to generate and output an image in which each description data is superimposed on each image of each object contained in an image picked up by the camera unit.
JP2018213167A 2018-11-13 2018-11-13 AR library system Active JP7250308B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018213167A JP7250308B2 (en) 2018-11-13 2018-11-13 AR library system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018213167A JP7250308B2 (en) 2018-11-13 2018-11-13 AR library system

Publications (2)

Publication Number Publication Date
JP2020080057A JP2020080057A (en) 2020-05-28
JP7250308B2 true JP7250308B2 (en) 2023-04-03

Family

ID=70801792

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018213167A Active JP7250308B2 (en) 2018-11-13 2018-11-13 AR library system

Country Status (1)

Country Link
JP (1) JP7250308B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004164333A (en) 2002-11-13 2004-06-10 Pasuko:Kk Provided data management method and provided data managing device
JP2011081556A (en) 2009-10-06 2011-04-21 Sony Corp Information processor, method of processing information, program, and server
JP2011242861A (en) 2010-05-14 2011-12-01 Ntt Docomo Inc Object recognition device, object recognition system and object recognition method
JP2015228050A (en) 2014-05-30 2015-12-17 ソニー株式会社 Information processing device and information processing method
JP2017532672A (en) 2014-09-29 2017-11-02 株式会社ソニー・インタラクティブエンタテインメント Content item retrieval and association scheme with real world objects using augmented reality and object recognition
JP6417467B1 (en) 2017-11-30 2018-11-07 ソフトバンク株式会社 Virtual, augmented reality space service providing system, program and method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004164333A (en) 2002-11-13 2004-06-10 Pasuko:Kk Provided data management method and provided data managing device
JP2011081556A (en) 2009-10-06 2011-04-21 Sony Corp Information processor, method of processing information, program, and server
JP2011242861A (en) 2010-05-14 2011-12-01 Ntt Docomo Inc Object recognition device, object recognition system and object recognition method
JP2015228050A (en) 2014-05-30 2015-12-17 ソニー株式会社 Information processing device and information processing method
JP2017532672A (en) 2014-09-29 2017-11-02 株式会社ソニー・インタラクティブエンタテインメント Content item retrieval and association scheme with real world objects using augmented reality and object recognition
JP6417467B1 (en) 2017-11-30 2018-11-07 ソフトバンク株式会社 Virtual, augmented reality space service providing system, program and method

Also Published As

Publication number Publication date
JP2020080057A (en) 2020-05-28

Similar Documents

Publication Publication Date Title
US8745502B2 (en) System and method for interfacing interactive systems with social networks and media playback devices
US9418293B2 (en) Information processing apparatus, content providing method, and computer program
CN107909443A (en) Information-pushing method, apparatus and system
CN104205854A (en) Method and system for providing a display of social messages on a second screen which is synched to content on a first screen
JP6120467B1 (en) Server device, terminal device, information processing method, and program
JP2009128498A (en) Electronic advertising system
US9607094B2 (en) Information communication method and information communication apparatus
US20130229342A1 (en) Information providing system, information providing method, information processing apparatus, method of controlling the same, and control program
JP2007200099A (en) Item selection support device, method and program
WO2006095443A1 (en) Information management system
JP6714306B1 (en) Distribution system, live distribution device, live distribution method and program
US9152707B2 (en) System and method for creating and providing media objects in a navigable environment
JP2017162432A (en) Image processing system, information processing apparatus, information terminal, and program
US20210329310A1 (en) System and method for the efficient generation and exchange of descriptive information with media data
JP6799655B1 (en) User interface methods, terminal programs, terminal devices, and advertising systems
JP7250308B2 (en) AR library system
CN110764676B (en) Information resource display method and device, electronic equipment and storage medium
KR102243958B1 (en) Method and system for inducing to participate in the event
CN114861033A (en) Live broadcast recommendation method, device, equipment and computer readable storage medium
KR20220090159A (en) Method and device for controlling live shopping streaming service
CN110780968A (en) Information display method, device, equipment and storage medium
JP6871470B1 (en) Information processing equipment, information processing methods and programs
WO2018235318A1 (en) Information processing device, information processing method, and program
KR20200024539A (en) Providing Method of information related to an image searching and service device thereof
JP6905133B1 (en) Information processing equipment, information processing methods and programs

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20201127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20201127

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211006

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220812

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220920

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230307

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230314

R150 Certificate of patent or registration of utility model

Ref document number: 7250308

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150