JP6210554B2 - Recognition device, recognition program, and recognition method - Google Patents

Recognition device, recognition program, and recognition method Download PDF

Info

Publication number
JP6210554B2
JP6210554B2 JP2014065908A JP2014065908A JP6210554B2 JP 6210554 B2 JP6210554 B2 JP 6210554B2 JP 2014065908 A JP2014065908 A JP 2014065908A JP 2014065908 A JP2014065908 A JP 2014065908A JP 6210554 B2 JP6210554 B2 JP 6210554B2
Authority
JP
Japan
Prior art keywords
article
unit
recognition
user
feature amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014065908A
Other languages
Japanese (ja)
Other versions
JP2015191265A (en
Inventor
直紀 関口
直紀 関口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2014065908A priority Critical patent/JP6210554B2/en
Publication of JP2015191265A publication Critical patent/JP2015191265A/en
Application granted granted Critical
Publication of JP6210554B2 publication Critical patent/JP6210554B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)

Description

本発明は、物体認識におけるリファレンスデータを適切なサイズに保つことで身の回りの物体等を認識することが可能な、認識装置、データサーバ、認識プログラム及び認識方法に関する。   The present invention relates to a recognition apparatus, a data server, a recognition program, and a recognition method that can recognize a surrounding object or the like by keeping reference data in object recognition at an appropriate size.

画像認識において、クエリ画像として入力した画像の特徴量とデータベースに登録されたリファレンス画像の特徴量とを比較し、クエリ画像中の物体を認識する技術が知られている。しかし、この技術を用いて物体認識を行う場合、リファレンス画像の特徴量データベースをメモリ上に保持しておく必要があるが、世の中にあるありとあらゆる物体のリファレンス画像データを保持しておくことは不可能である。入力画像や入力画像から計算した特徴量をサーバに送信し、サーバ上で物体認識を行うことで、サーバ上の巨体なメモリを使用することはできるが、その場合、サーバとの通信量が増大してしまう。   In image recognition, a technique for recognizing an object in a query image by comparing a feature amount of an image input as a query image with a feature amount of a reference image registered in a database is known. However, when performing object recognition using this technology, it is necessary to store a feature image database of reference images in memory, but it is impossible to store reference image data of any object in the world. It is. By sending input features and feature quantities calculated from the input images to the server and performing object recognition on the server, it is possible to use a huge memory on the server, but in that case the amount of communication with the server increases. Resulting in.

この問題に対し、特許文献1では、実空間に存在している物体は場所によって偏りがある点に注目して、現在位置情報や方位情報を基にリファレンス画像データの選択を行い、メモリ上に保持するリファレンス画像DB(データベース)のサイズの削減を行っている。   With respect to this problem, in Patent Document 1, focusing on the fact that an object existing in real space is biased depending on the location, reference image data is selected based on the current position information and azimuth information, and stored in the memory. The size of the stored reference image DB (database) is being reduced.

特開2011-242861号公報(物体認識装置、物体認識システムおよび物体認識方法)JP 2011-242861 A (Object recognition apparatus, object recognition system, and object recognition method)

上記のように特許文献1では、現在位置情報や方位情報を基にリファレンス画像DBサイズの削減を行っている。しかしながら、現実には各個人が持ち歩いている私物や身の回りの物体の中には位置情報と紐付いていない物も多く、このような物については、位置情報や方位情報によって必要なリファレンス画像データの選択を行うことは難しい。   As described above, in Patent Document 1, the reference image DB size is reduced based on current position information and orientation information. However, in reality, there are many personal items that are carried around by individuals and objects around them that are not associated with location information. It is difficult to make a choice.

例えば、上記の各個人が持ち歩く私物は、当該持ち歩くことより明らかなように、個人が移動する任意の位置において現れることが想定されるので、現在位置情報や方位情報により当該私物についてのリファレンス画像データを選択することは困難である。   For example, since it is assumed that the personal items carried by each individual above appear at any position where the individual moves, as is clear from the carrying, the reference image data about the personal item based on the current position information and direction information It is difficult to choose.

本発明は、上記従来技術の課題に鑑み、私物などであってもリファレンスデータを選択してデータサイズ削減が可能な、認識システム、データサーバ、認識プログラム及び認識方法を提供することを特徴とする。   The present invention provides a recognition system, a data server, a recognition program, and a recognition method capable of reducing the data size by selecting reference data even if it is a private item in view of the above-described problems of the prior art. .

上記目的を達成するため、本発明は、認識装置であって、画像を撮影する撮影部と、ユーザの周囲に存在する物品の名前として物品情報を取得する物品情報取得部と、前記取得した物品情報に対応する特徴量を管理する管理部と、前記管理された特徴量に基づき、前記撮影部の撮影した画像に含まれる物品を認識する認識部と、を備え、各物品の名前と特徴量とを紐付けて保持しているデータサーバに対して、前記取得した物品情報を送信して対応する特徴量を受信することにより、前記管理部は前記取得した物品情報に対応する特徴量を取得して管理することを第一の特徴とする。   In order to achieve the above object, the present invention provides a recognition device, a photographing unit that captures an image, an article information acquisition unit that acquires article information as the name of an article existing around the user, and the acquired article. A management unit that manages a feature amount corresponding to information; and a recognition unit that recognizes an article included in an image captured by the imaging unit based on the managed feature amount. The management unit obtains the feature quantity corresponding to the acquired article information by transmitting the obtained article information and receiving the corresponding feature quantity to the data server that holds and holds Management is the first feature.

また、本発明は、各物品の名前と特徴量とを紐付けて保持するデータサーバであって、上記認識装置が前記取得して送信した物品情報を受信して、当該物品情報に対応する特徴量を上記認識装置へと返信することを第二の特徴とする。   Further, the present invention is a data server that associates and holds the name and feature amount of each article, and receives the article information acquired and transmitted by the recognition device, and corresponds to the article information. A second feature is that the amount is returned to the recognition device.

また、本発明は、コンピュータを上記認識装置として機能させる認識プログラムであることを第三の特徴とする。   A third feature of the present invention is a recognition program that causes a computer to function as the recognition device.

また、本発明は、上記認識装置において、前記物品情報取得部が以下(1)〜(3)の少なくとも1つの手法により、商品名として物品情報を取得することを第四の特徴とする。
(1)前記撮影部の撮影したレシートの画像を解析することで商品名を抽出する手法
(2)前記撮影部の撮影したコード付与された商品の画像におけるコードを解析することで、当該コードに対応する商品名を取得する手法
(3)ユーザの電子商取引の履歴より購入した商品名を抽出する手法
Further, the present invention is characterized in that, in the recognition device, the article information acquisition unit acquires article information as a product name by at least one of the following methods (1) to (3).
(1) A method for extracting a product name by analyzing an image of a receipt photographed by the photographing unit. (2) By analyzing a code in a product image provided with a code photographed by the photographing unit, Method of obtaining the corresponding product name (3) Method of extracting the purchased product name from the user's electronic commerce history

さらに、本発明は、データサーバにおいて、各物品の名前と特徴量とを紐付けて保持するステップと、画像を撮影する撮部が備わる認識装置において、ユーザの周囲に存在する物品の名前として物品情報を取得する物品情報取得ステップと、前記取得した物品情報に対応する特徴量を管理する管理ステップと、前記管理された特徴量に基づき、前記撮影部の撮影した画像に含まれる物品を認識する認識ステップと、を備える認識方法であって、前記データサーバに対して、前記取得した物品情報を送信して対応する特徴量を受信することにより、前記管理ステップでは前記取得した物品情報に対応する特徴量を取得して管理することを第五の特徴とする。 Furthermore, the present invention provides a data server, a step of holding in association with the names and characteristics of each article, the recognition apparatus shadow facilities Taking for capturing an image, as the name of the article around the user An article information acquisition step for acquiring article information, a management step for managing a feature quantity corresponding to the acquired article information, and an article included in an image captured by the imaging unit based on the managed feature quantity A recognition step, wherein the management step corresponds to the acquired article information by transmitting the acquired article information to the data server and receiving a corresponding feature quantity. The fifth feature is to acquire and manage the feature amount.

前記第一、第二、第三又は第五の特徴によれば、ユーザの周囲に存在する物品の名前として物品情報に対応する特徴量のみをデータサーバから取得して認識を行うので、当該リファレンスデータとしての特徴量のデータサイズを適切な大きさに保つことが可能となる。   According to the first, second, third, or fifth feature, since only the feature quantity corresponding to the article information is acquired from the data server as the name of the article existing around the user, the reference is performed. It is possible to keep the data size of the feature quantity as data at an appropriate size.

前記第四の特徴によれば、(1)〜(3)の少なくとも1つの手法により、物品情報を、商品名として容易に取得することが可能となる。   According to the fourth feature, the article information can be easily acquired as the product name by at least one of the methods (1) to (3).

一実施形態に係る認識システムの機能ブロック図である。It is a functional block diagram of the recognition system concerning one embodiment. 一実施形態に係る認識システムの動作のフローチャートである。It is a flowchart of operation | movement of the recognition system which concerns on one Embodiment. 図2の第一ステップ(リファレンスデータ取得)の詳細なフローチャートである。It is a detailed flowchart of the 1st step (reference data acquisition) of FIG. 図2の第二ステップ(認識処理等)の詳細なフローチャートである。It is a detailed flowchart of the 2nd step (recognition process etc.) of FIG. コンテンツ提示の例を示す図である。It is a figure which shows the example of content presentation. 管理部の詳細を含み、更新処理とデータ共有処理とを説明するための機能ブロック図である。It is a functional block diagram for explaining an update process and a data sharing process including the detail of a management part.

図1は、一実施形態に係る認識システムの機能ブロック図である。認識システム100は、ユーザ毎のヘッドマウントディスプレイ(HMD)型端末、スマートフォンその他の携帯情報端末として実現可能な認識装置10,10B等と、データサーバ15と、を備える。   FIG. 1 is a functional block diagram of a recognition system according to an embodiment. The recognition system 100 includes a recognition device 10, 10B that can be realized as a head-mounted display (HMD) type terminal for each user, a smartphone or other portable information terminal, and a data server 15.

図1では、2ユーザについてのみ認識装置10,10Bが示されているが、認識システム100には任意数のユーザの任意台数の認識装置が存在可能である。なお、各ユーザの認識装置は共通の機能部を備えることで共通の処理を行うことができるが、本発明の説明においては、想定する「自」ユーザの認識装置を認識装置10とし、想定する「他」ユーザ(当該「自」ユーザからみて任意の「他」ユーザ)の認識装置を認識装置10Bとして説明する。   In FIG. 1, the recognition devices 10 and 10B are shown for only two users, but the recognition system 100 can have any number of recognition devices for any number of users. In addition, although each user's recognition apparatus can perform a common process by providing a common functional unit, in the description of the present invention, the assumed “self” user recognition apparatus is assumed to be the recognition apparatus 10. A recognition device of an “other” user (an arbitrary “other” user as viewed from the “self” user) will be described as a recognition device 10B.

認識装置10は、撮影部21、購入情報取得部22、物品情報取得部25、送信部26、受信部35、管理部40、近接利用者特定部45、認識部50、提示部60及び受付部65を備える。データサーバ15は、サーバ側受信部31、データ取得部32、リファレンスDB(データベース)33及びサーバ側送信部34を備える。   The recognition device 10 includes a photographing unit 21, a purchase information acquisition unit 22, an article information acquisition unit 25, a transmission unit 26, a reception unit 35, a management unit 40, a proximity user identification unit 45, a recognition unit 50, a presentation unit 60, and a reception unit. With 65. The data server 15 includes a server side reception unit 31, a data acquisition unit 32, a reference DB (database) 33, and a server side transmission unit.

なお、図1では、各認識装置10,10B及びデータサーバ15間でのやりとりを示すために、自ユーザの認識装置10及びデータサーバ15に加えて他ユーザの認識装置10Bが示されている。従って、上述のように他ユーザの認識装置10Bも自ユーザの認識装置10と同様の構成であるが、図が煩雑化することを避けるため、図1では当該同様の機能ブロックの詳細図示を省略している。各部の機能概要は以下の通りである。   In addition, in order to show the exchange between each recognition apparatus 10 and 10B and the data server 15, in FIG. 1, in addition to the own user's recognition apparatus 10 and the data server 15, the recognition apparatus 10B of another user is shown. Therefore, as described above, the other user's recognition device 10B has the same configuration as that of the own user's recognition device 10, but the detailed illustration of the same functional block is omitted in FIG. doing. The function outline of each part is as follows.

撮影部21は画像を撮影して物品情報取得部25及び認識部50に渡す。購入情報取得部22は購入情報を取得して物品情報取得部25に渡す。物品情報取得部25は撮影部21及び/又は購入情報取得部22から渡される情報より物品情報を取得して、送信部26に渡して送信させることにより、当該物品情報がサーバ側受信部31に送信される。   The imaging unit 21 captures an image and passes it to the article information acquisition unit 25 and the recognition unit 50. The purchase information acquisition unit 22 acquires purchase information and passes it to the article information acquisition unit 25. The article information acquisition unit 25 acquires the article information from the information passed from the photographing unit 21 and / or the purchase information acquisition unit 22 and passes it to the transmission unit 26 so that the article information is transmitted to the server side reception unit 31. Sent.

データ取得部32では、上記送信されサーバ側受信部31にて受信した物品情報によってリファレンスDB33を検索して、特徴量等を取得して当該特徴量等をサーバ側送信部34に渡して送信させることにより、当該特徴量等が受信部35において受信される。   The data acquisition unit 32 searches the reference DB 33 based on the article information transmitted and received by the server-side reception unit 31, acquires the feature amount, and passes the feature amount to the server-side transmission unit 34 for transmission. Thus, the feature amount or the like is received by the receiving unit 35.

管理部40は、受信部35にて上記受信した特徴量等を管理し、認識部50等における参照に供する。認識部50は、撮影部21で撮影された画像内にある物品を、当該管理されている特徴量をリファレンスとして用いることによって認識する。提示部60は、当該認識された結果に基づいて、ユーザに対してコンテンツの提示を行う。なお、コンテンツは管理部40において管理されているものを参照する。受付部65は、ユーザより当該提示したコンテンツに対する応答を受け取る。   The management unit 40 manages the received feature amount and the like by the reception unit 35 and provides the reference for the recognition unit 50 and the like. The recognition unit 50 recognizes an article in the image photographed by the photographing unit 21 by using the managed feature amount as a reference. The presentation unit 60 presents content to the user based on the recognized result. Note that content managed by the management unit 40 is referred to. The accepting unit 65 receives a response to the presented content from the user.

管理部40では上記のように特徴量を管理する他にも、上記のように提示部60で提示するためのコンテンツを管理し、さらに、一連の履歴の管理も行う。すなわち、認識部50で上記認識した結果や、受付部65において上記受け取った応答を管理することで、管理部40は、一連の認識された物品の履歴や、一連の提示されたコンテンツの履歴を管理する。管理部40では当該履歴に基づき、管理している特徴量のうち保存しておく必要が乏しいと判断されるものを削除して管理する。   In addition to managing the feature quantities as described above, the management section 40 manages the content to be presented by the presentation section 60 as described above, and also manages a series of histories. That is, by managing the recognition result by the recognition unit 50 and the received response by the reception unit 65, the management unit 40 can display a series of recognized article histories and a series of presented content histories. to manage. Based on the history, the management unit 40 deletes and manages the managed feature quantities that are determined to be less necessary to be stored.

近接利用者特定部45は、自ユーザの近辺に存在し認識装置10Bを有している他ユーザの特定を行う。特定された近接ユーザの認識装置10Bとの間では、データサーバ15より取得するのと同種の特徴量等を相互授受することにより、データの共有処理が可能となる。   The proximity user specifying unit 45 specifies another user that exists in the vicinity of the user and has the recognition device 10B. Data sharing processing can be performed by mutually exchanging the same type of feature quantity acquired from the data server 15 with the identified proximity user recognition device 10B.

図2は、一実施形態に係る認識システム100の動作のフローチャートである。ステップS1では、認識装置10がデータサーバ15に物品情報を送信してデータサーバ15より各物品の特徴量等を受信することにより、管理部40においてリファレンスデータとしての特徴量等の取得が行われる。ステップS2では、管理部40において取得されたリファレンスデータとしての特徴量を参照することで、認識装置10が認識部50等を機能させることで、認識処理等が行われる。   FIG. 2 is a flowchart of the operation of the recognition system 100 according to an embodiment. In step S1, the recognition device 10 transmits the article information to the data server 15 and receives the feature quantities and the like of each article from the data server 15, whereby the management section 40 acquires the feature quantities and the like as reference data. . In step S2, recognition processing or the like is performed when the recognition device 10 functions the recognition unit 50 or the like by referring to the feature amount as reference data acquired by the management unit 40.

なお、ステップS2の実行には、ステップS1を少なくとも1回は実行して、認識装置10内にリファレンスデータを用意しておくことが必要となるが、ステップS2の実行と並行して、ステップS1を適宜、追加的に実行することで、認識装置10内にリファレンスデータの補充を行いながらステップS2を継続することも可能である。   In order to execute step S2, it is necessary to execute step S1 at least once and prepare reference data in the recognition apparatus 10, but in parallel with the execution of step S2, step S1 It is also possible to continue step S2 while replenishing the reference data in the recognition apparatus 10 by appropriately executing.

以下、当該ステップS1,S2及び図1の各機能部の詳細を説明する。   Hereinafter, the details of the steps S1 and S2 and the functional units in FIG. 1 will be described.

図3は、図2のステップS1の詳細なフローチャートである。ステップS11では、物品情報取得部25が物品情報を取得してその蓄積が一定量に到達した後、当該物品情報を送信部26よりデータサーバ15に送信する。当該物品情報は、認識装置10のユーザの身の回りにあることが想定される物品の名前、特に例えば、日用品その他の商品の名前の情報である。当該物品情報の取得には、以下の第一〜第四実施形態のいずれか又はその任意の組み合わせが可能である。なお、複数の実施形態を併用する場合は、ユーザ操作等に従って、物品情報を取得する各回ごとに個別の実施形態を適用することが可能である。例えば1回目に第一実施形態で物品情報「A」を取得し、2回目に第二実施形態で物品情報「B」を取得し、3回目に第三実施形態で物品情報「C」を取得した場合、当該一連の取得履歴により、これらをリストアップした物品情報「A,B,C」が取得されることとなる。   FIG. 3 is a detailed flowchart of step S1 in FIG. In step S11, after the article information acquisition unit 25 acquires the article information and the accumulation reaches a certain amount, the article information is transmitted from the transmission unit 26 to the data server 15. The article information is information on the name of an article that is assumed to be around the user of the recognition device 10, particularly, for example, the name of a commodity or other commodity. The acquisition of the article information can be any one of the following first to fourth embodiments or any combination thereof. In addition, when using several embodiment together, according to user operation etc., it is possible to apply an individual embodiment for every time which acquires article information. For example, the article information “A” is acquired in the first embodiment for the first time, the article information “B” is acquired in the second embodiment for the second time, and the article information “C” is acquired in the third embodiment for the third time. In this case, the article information “A, B, C” listing them is acquired from the series of acquisition histories.

第一実施形態では、ユーザ端末(認識装置10)に備わるカメラとして実現可能な撮影部21において、ユーザ操作のもとで、ユーザが購買行動を通して受け取った商品のレシートを撮影し、当該レシートの画像に対して物品情報取得部25において周知のOCR(光学文字認識)処理を施すことにより、ユーザが購入した商品名として、物品情報を取得することができる。なお、当該レシートはユーザの身内等の購買した際のものであってもよい。   In the first embodiment, in the photographing unit 21 that can be realized as a camera provided in the user terminal (recognition device 10), a receipt of a product received by a user through purchase behavior is photographed under a user operation, and an image of the receipt By performing a well-known OCR (optical character recognition) process on the article information acquisition unit 25, the article information can be acquired as the product name purchased by the user. The receipt may be a purchase made by the user or the like.

第二実施形態では、ユーザ(又はその身内等)が購入した商品におけるバーコード等のコードを、ユーザ操作によって撮影部21において撮影して、当該コードの画像を物品情報取得部25で解析して、購入した商品名としての物品情報を取得してもよい。ここで、コード解析には、当該コードの種類に応じた周知手法を利用することができる。なお、このように商品におけるバーコード等のコードの画像を撮影する際は、ユーザは必ずしも当該商品を購入する必要はなく、自身が興味を持って手に取った際に当該画像が取得されるといったことも可能である。   In the second embodiment, a code such as a barcode in a product purchased by the user (or the relative) is photographed by the photographing unit 21 by a user operation, and an image of the code is analyzed by the article information acquiring unit 25. The article information as the purchased product name may be acquired. Here, for the code analysis, a known method corresponding to the type of the code can be used. In addition, when photographing an image of a code such as a barcode on a product in this way, the user does not necessarily have to purchase the product, and the image is acquired when the user takes it with interest. It is also possible.

第三実施形態では、上記第一、第二実施形態と同様のユーザの購入した商品名としての物品情報を、撮影部21で取得した画像からではなく、購入情報取得部22から直接、物品情報取得部25が取得してもよい。具体的には購入情報取得部22は、ユーザの電子マネー使用履歴やネットショッピング履歴といったような、ユーザの電子商取引履歴を参照することにより、物品情報を取得して物品情報取得部25に渡す。   In the third embodiment, the article information as the product name purchased by the user as in the first and second embodiments is directly from the purchase information acquisition unit 22 instead of the image acquired by the imaging unit 21. The acquisition unit 25 may acquire it. Specifically, the purchase information acquisition unit 22 acquires the item information by referring to the user's electronic commerce history such as the user's electronic money use history and the net shopping history, and passes the item information to the item information acquisition unit 25.

第四実施形態では、ユーザがタッチパネルやキーパッド等の入力手段(図1では不図示)を用いてマニュアルで入力することにより、物品名(商品名である場合を含む)としての物品情報を物品情報取得部25が取得する。   In the fourth embodiment, the article information as the article name (including the case of the article name) is entered by manually inputting the input means (not shown in FIG. 1) such as a touch panel or a keypad by the user. Acquired by the information acquisition unit 25.

なお、物品が商品である場合は、上記各実施形態のような商品名(後述のリファレンスDB33に管理者等が予め登録しておく対象としての商品名)を容易に用意することができるが、商品に限らない一般の物品においても、その物品名を用意してリファレンスDB33にその他の情報と紐付けて予め登録しておきさえすれば、本発明は実施可能である。例えば、一般に日用品としての購買対象ではない道路標識なども、本発明における物品として利用でき、物品情報取得部25ではユーザからのマニュアル入力(第四実施形態)を含む何らかの手法でその物品名を取得すればよい。なお、商品を用いる場合、物品としては同一種類に属するものを商品名によって区別することができるので、多様な日用品をそれぞれ区別して本発明による認識処理やコンテンツ提示を実施することができるようになる。また、物品は量産されるものであることが好ましい。   In addition, when the article is a commodity, a commodity name as in each of the above embodiments (a commodity name as a target to be registered in advance by a manager or the like in the reference DB 33 described later) can be easily prepared. The present invention can be implemented even for general articles that are not limited to commodities, as long as the article names are prepared and registered in advance in the reference DB 33 in association with other information. For example, road signs that are not generally purchased items as daily necessities can also be used as articles in the present invention, and the article information acquisition unit 25 acquires the article name by some method including manual input from the user (fourth embodiment). do it. In addition, when using goods, since articles belonging to the same type can be distinguished by the name of the goods, it is possible to carry out recognition processing and content presentation according to the present invention by distinguishing various daily necessities. . Also, the article is preferably mass-produced.

ステップS12では、以上のステップS11で取得され送信された物品情報をデータサーバ15がサーバ側受信部31にて受け取り、データ取得部32が当該物品情報をキーとしてリファレンスDB33を検索して各物品に対応する特徴量等を求め、当該特徴量等をサーバ側送信部34より認識装置10の受信部35へと返信する。   In step S12, the data server 15 receives the article information acquired and transmitted in the above step S11 at the server-side receiving unit 31, and the data acquisition unit 32 searches the reference DB 33 using the article information as a key for each article. A corresponding feature amount or the like is obtained, and the feature amount or the like is returned from the server-side transmission unit 34 to the reception unit 35 of the recognition apparatus 10.

当該検索を可能とするため、リファレンスDB33には、各物品名Nに紐付けて、当該物品を様々な空間的な角度Ai(i=1, 2 ,…, mN;mNは各物品名N毎の所定数)において撮影した画像Gi,Nよりそれぞれ取得された特徴量Fi,Nが格納されている。こうして、データ取得部32では、認識装置10から送信された物品情報に含まれる各物品名NをクエリとしてリファレンスDB33を検索することで、当該物品名Nに対応する特徴量Fi,Nを取得することができる。 In order to enable the search, the reference DB 33 associates each article name N with each article name N, and various kinds of spatial angles A i (i = 1, 2,..., M N ; m N represents each article. Stored are feature values F i, N acquired from images G i, N taken in a predetermined number for each name N). In this way, the data acquisition unit 32 acquires the feature amounts F i, N corresponding to the article name N by searching the reference DB 33 using each article name N included in the article information transmitted from the recognition device 10 as a query. can do.

ここで、リファレンスDB33に当該格納されている特徴量Fi,Nは、後述の認識部50で画像より抽出されるのと同種の所定種類の特徴量であり、例えば周知のSIFT特徴量を採用することができる。また、当該特徴量Fi,Nは、テクスチャ付きの3次元モデルデータの形式でリファレンスDB33に格納しておいてもよい。この際、テクスチャからはSIFTその他の特徴量を抽出しておく。当該形式でも上記種々の角度で撮影しておくのと同様に、認識部50において任意視点(種々の空間的な角度Ai)での物品認識が可能となる。 Here, the feature values F i, N stored in the reference DB 33 are the same kind of feature values extracted from the image by the recognition unit 50 described later, and for example, a well-known SIFT feature value is adopted. can do. Further, the feature amounts Fi , N may be stored in the reference DB 33 in the form of textured 3D model data. At this time, SIFT and other feature quantities are extracted from the texture. In this format as well, as in the case of photographing at various angles, the recognition unit 50 can recognize an article at an arbitrary viewpoint (various spatial angles A i ).

なお、リファレンスDB33では、後述の提示部60において周知のAR(拡張現実)表示を実現するために、当該特徴量Fi,Nにさらに、当該物品の3次元モデルデータを紐付けて保持しておいてもよい。なお、特徴量Fi,Nが上記のようにテクスチャ付きの3次元モデルデータの形式で与えられていれば、このようにAR表示のためにさらに3次元モデルデータを紐付ける必要はない。また、リファレンスDB33では、後述の提示部60において物品に紐付けたコンテンツ提示を実現するために、各物品名にさらに、提示するコンテンツを紐付けて保持しておいてもよい。このように提示部60で利用する際は、当該3Dモデルデータやコンテンツを、特徴量Fi,Nと合わせて認識装置10の受信部35へと返信する。 In the reference DB 33, in order to realize a well-known AR (augmented reality) display in the presentation unit 60 described later, the feature quantity F i, N is further linked to the three-dimensional model data of the article. It may be left. If the feature amounts Fi, N are given in the form of textured 3D model data as described above, it is not necessary to further associate 3D model data for AR display in this way. Further, in the reference DB 33, in order to realize content presentation associated with an article in the presentation unit 60 described later, the content to be presented may be associated with each article name and held. In this way, when used by the presentation unit 60, the 3D model data and content are returned to the reception unit 35 of the recognition apparatus 10 together with the feature amounts Fi, N.

なおまた、一般には、リファレンスDB33には大量の物品名における特徴量等のデータを管理者の作業等によってあらかじめ格納しておき、この中から、認識装置10では自身が取得した物品情報に該当する一部分の特徴量等のみを受信する。従って、本発明において、認識装置10はリファレンスデータサイズを適切な大きさに保ちながら、身の回りの物品の認識が可能となる。   In addition, generally, the reference DB 33 stores in advance data such as feature quantities for a large number of article names by the administrator's work, etc., and among these, the recognition apparatus 10 corresponds to the article information acquired by itself. Only a partial feature amount or the like is received. Therefore, in the present invention, the recognition apparatus 10 can recognize the articles around us while keeping the reference data size at an appropriate size.

ステップS13では、以上のステップS12でデータサーバ15において取得されたリファレンスとしての特徴量等が受信部35で受信され、管理部40に格納される。特徴量の他、上記のように3Dモデルデータやコンテンツが取得された際は、これらも合わせて管理部40に格納される。   In step S13, the feature quantity or the like as a reference acquired in the data server 15 in the above step S12 is received by the receiving unit 35 and stored in the management unit 40. In addition to the feature amount, when 3D model data or content is acquired as described above, these are also stored in the management unit 40 together.

なお、リファレンスDB33では、各物品名に複数のコンテンツを紐付けて格納しておいてもよい。ユーザが当該ステップS13にて物品名に紐付くものとしてコンテンツを取得する際は、紐付けられた複数のコンテンツの一つ、あるいは複数のコンテンツをユーザが選択して取得し、管理部40に格納されるようにしてもよいし、ユーザが属するグループ、コミュニティその他のユーザ属性に応じて取得するコンテンツが自動選別されるようにしておいてもよい。   In the reference DB 33, a plurality of contents may be associated with each article name and stored. When the user acquires content as being associated with the article name in step S13, the user selects and acquires one or more of the associated content and stores it in the management unit 40 Alternatively, the content to be acquired may be automatically selected according to the group, community, or other user attribute to which the user belongs.

以上、図3のフローは、ステップS11において所定量の物品情報が得られてから、すなわち、物品名が所定個数だけ蓄積してから、一括で実施されるものとして説明したが、物品情報取得部25で物品情報を取得する都度、図3のフローが実施されてもよい。この場合、物品情報が取得される都度、対応する特徴量等が取得され管理部40に格納されていくこととなる。   As described above, the flow of FIG. 3 has been described as being performed collectively after a predetermined amount of product information is obtained in step S11, that is, after a predetermined number of product names are accumulated, the product information acquisition unit Each time the article information is acquired at 25, the flow of FIG. In this case, each time the article information is acquired, the corresponding feature amount or the like is acquired and stored in the management unit 40.

図4は、図2のステップS2の詳細なフローチャートである。   FIG. 4 is a detailed flowchart of step S2 in FIG.

ステップS21では、撮影部21において画像が取得されたかが確認され、取得されていればステップS22へ進み、取得されていなければ取得されるまで当該ステップS21において待機する。ここで、撮影部21が、HMDに備わるカメラとして実現されているのであれば、当該HMDを装着しているユーザにおいてリアルタイムで得られる一人称映像の各画像につき、ステップS22へ至るようにすることが可能であるが、その他のカメラの場合でもユーザ操作によって同様のことが可能である。あるいは、ユーザが明示的に指定した画像についてのみ、ステップS22へ至るようにしてもよい。   In step S21, it is confirmed whether or not an image has been acquired in the photographing unit 21, and if acquired, the process proceeds to step S22, and if not acquired, the process waits in step S21 until it is acquired. Here, if the photographing unit 21 is realized as a camera provided in the HMD, it is possible to reach step S22 for each image of the first person video obtained in real time by the user wearing the HMD. Although it is possible, in the case of other cameras, the same can be done by user operation. Alternatively, only the image explicitly designated by the user may reach step S22.

ステップS22では、当該取得された画像を対象として、認識部50が認識処理を実施し、画像内に含まれる物品を特定する。当該特定は、画像より特徴量を抽出し、当該抽出された特徴量が管理部40にリファレンスデータとして管理されているいずれの特徴量に最も類似しているかを特定することで、当該特定された特徴量に紐付いている物品名として、物品の特定結果を得ることができる。ここで、特徴量の抽出や特徴量の類似度の計算等については、周知の手法が利用できる。   In step S22, the recognition unit 50 performs a recognition process on the acquired image, and identifies an article included in the image. The identification is performed by extracting a feature amount from the image and identifying which feature amount is most similar to the feature amount managed as reference data by the management unit 40. A product identification result can be obtained as the product name associated with the feature quantity. Here, well-known methods can be used for extracting feature amounts, calculating similarity of feature amounts, and the like.

また、リファレンスDB33の説明において前述のように、特徴量は、各物品Nについて、複数の空間的な角度Ai((i=1, 2 ,…, mN)から当該物品Nを見た際の特徴量Fi,Nとして管理部40に管理されている。従って、認識部50では、画像内の物品Nを認識すると共に、画像内において当該物品Nがいずれの角度Aiで見たものであるかを特定することができる。すなわち、認識部50は各角度Aiにおいて物品Nを認識することができる。 Further, as described above in the description of the reference DB 33, the feature amount is obtained when the article N is viewed from a plurality of spatial angles A i ((i = 1, 2,..., M N ) for each article N. is managed in the management unit 40 as the feature amount F i, N the. Therefore, the recognition unit 50, recognizes the article N in the image, which the article N saw in any angle a i in the image That is, the recognition unit 50 can recognize the article N at each angle A i .

なお、認識部50による認識結果は管理部40に保存され、管理部40は過去の一連の認識結果を履歴として管理する。   The recognition result by the recognition unit 50 is stored in the management unit 40, and the management unit 40 manages a series of past recognition results as a history.

ステップS22では、上記のように物品の特定のみを実施してもよいが、一実施形態ではさらに、当該特定結果に基づいて、提示部60がコンテンツの提示を行うようにしてもよい。ここで、特定された物品に対応する所定のコンテンツを管理部40より取得することで、コンテンツを提示するようにすればよい。この際、周知のAR技術により、撮影部21で撮影された画像に重畳させる形で、コンテンツの提示を行うことができる。また、予めリファレンスDB33に用意しておくことで、画像、映像以外の音声等の形式も含む任意のコンテンツを提示することができる。   In step S22, only the identification of the article may be performed as described above, but in one embodiment, the presentation unit 60 may further present the content based on the identification result. Here, the content may be presented by acquiring predetermined content corresponding to the identified article from the management unit 40. At this time, the content can be presented in a form that is superimposed on the image captured by the image capturing unit 21 using a known AR technique. Also, by preparing in the reference DB 33 in advance, it is possible to present arbitrary content including formats such as audio other than images and video.

図5は、コンテンツ提示の例を示す図である。撮影部21で得た画像G1には、(1)に示すように物品として「OX牛乳」という商品が含まれており、認識部50は当該商品を認識する。当該認識結果に基づいて、物品「OX牛乳」に予め紐付けられた所定内容のコンテンツとして、AR表示による英単語学習コンテンツを提示した例が、(2),(3)に示されている。   FIG. 5 is a diagram illustrating an example of content presentation. The image G1 obtained by the photographing unit 21 includes a product “OX Milk” as an article as shown in (1), and the recognition unit 50 recognizes the product. (2) and (3) show examples in which English-language learning content by AR display is presented as content of predetermined content linked in advance to the article “OX milk” based on the recognition result.

図5の(2)では、画像G1に対する重畳表示A2によって、当該「OX牛乳」の瓶に関連する単語が何であるかをユーザに問うている。(3)ではその答えが同じく、画像G1に対する重畳表示A3としてユーザに示されている。   In (2) of FIG. 5, the user is asked what the word related to the bottle of “OX milk” is based on the superimposed display A2 on the image G1. In (3), the answer is also shown to the user as a superimposed display A3 on the image G1.

コンテンツが上記の例のように、ユーザからの解答を受け付ける等の応答を受け取るような内容となっている場合は、受付部65において当該応答を受け取ることができ、提示部60では応答内容に基づいてコンテンツ提示を継続することができる。例えば、上記の英単語学習コンテンツであれば、ユーザに解答を入力させ、正解/不正解の区別を提示することができる。   When the content is such as to receive a response such as accepting an answer from the user, as in the above example, the response can be received by the receiving unit 65, and the presentation unit 60 can receive the response based on the response content. Can continue to present content. For example, in the case of the above-mentioned English word learning content, the user can input an answer and present the correct / incorrect answer distinction.

提示部60にてコンテンツを提示した場合、管理部40では、当該提示したコンテンツを履歴として管理し、応答があった場合は当該応答も保存して管理する。   When the presentation unit 60 presents content, the management unit 40 manages the presented content as a history, and when there is a response, the management unit 40 also stores and manages the response.

以上のようなステップS22を終えると、ステップS23へ進む。なお、ステップS22において最も類似している特徴量における類似度が閾値以下であった場合は、当該画像には管理部40で管理されている物品は含まれていないとの結果を得たうえで、ステップS23へ進む。   When step S22 as described above is completed, the process proceeds to step S23. If the similarity in the most similar feature amount is equal to or less than the threshold value in step S22, a result that the image managed by the management unit 40 is not included in the image is obtained. The process proceeds to step S23.

ステップS23では、管理部40が、当該時点において自身が管理しているデータが更新可能であるか否かを判断し、可能であると判断すればステップS24に進んでデータ更新を実施し、可能ではないと判断すればステップS21に戻る。当該ステップS23,S24における更新処理は以下の通りであり、管理部40において古くなっている、あるいは用途を終えていると判断されるデータを削除して更新することにより、携帯端末等として実現される認識装置10においてメモリ領域を効率的に利用することが可能となる。   In step S23, the management unit 40 determines whether or not the data managed by the management unit 40 at that time can be updated. If the management unit 40 determines that the data can be updated, the process proceeds to step S24 to update the data. If not, the process returns to step S21. The update process in steps S23 and S24 is as follows, and is realized as a portable terminal or the like by deleting and updating data that is judged to be outdated or has been used by the management unit 40. The recognition device 10 can efficiently use the memory area.

図6は、管理部40における当該更新処理についての機能を担う機能部を含む機能ブロック図である。管理部40は、記憶部41、期間監視部42、頻度監視部43、削除部44及び開示設定部49を含む。   FIG. 6 is a functional block diagram including a functional unit responsible for the update processing in the management unit 40. The management unit 40 includes a storage unit 41, a period monitoring unit 42, a frequency monitoring unit 43, a deletion unit 44, and a disclosure setting unit 49.

なお、図6では、図1で描くのを省略していた構成として、認識装置10が備える送受部46及び認証部47も描かれているが、これら(及び開示設定部49)については他ユーザの認識装置10Bとの間で、後述するデータ共有処理を行う際に参照する。すなわち、図6は更新処理とデータ共有処理とを説明するための機能ブロック図となっており、更新処理に関しては以下のようにして、削除部44によって実施される。   In FIG. 6, the transmission / reception unit 46 and the authentication unit 47 included in the recognition device 10 are also illustrated as a configuration that is not illustrated in FIG. 1, but these (and the disclosure setting unit 49) are also provided by other users. This is referred to when performing data sharing processing described later with the recognition device 10B. That is, FIG. 6 is a functional block diagram for explaining the update process and the data sharing process. The update process is performed by the deletion unit 44 as follows.

記憶部41は、管理部40における記憶機能を担うものであり、保存対象としての各物品名に紐付いた特徴量、コンテンツ、3Dデータモデル等を記憶している。   The storage unit 41 is responsible for the storage function in the management unit 40, and stores the feature amount, content, 3D data model, and the like associated with each article name to be stored.

期間監視部42は、当該記憶部41に記憶された物品名ごとの特徴量について、その継続期間を監視して、当該継続期間が一定値に到達した物品名を、削除部44に通知する。当該監視される継続期間は、記憶部41に格納された時点からの継続期間(すなわち、データサーバ15より取得された後、あるいは後述する共有処理で得られた後の経過期間)、あるいは、利用がなされていないこと(すなわち、認識部50において対応する物品が認識されていないこと)の継続期間である。   The period monitoring unit 42 monitors the duration of the feature quantity for each article name stored in the storage unit 41 and notifies the deletion unit 44 of the article name whose duration has reached a certain value. The monitored continuation period is a continuation period from the time when it is stored in the storage unit 41 (that is, an elapsed period after being acquired from the data server 15 or obtained by sharing processing described later), or used. This is a duration of the time that the item has not been made (that is, that the corresponding article has not been recognized by the recognition unit 50).

頻度監視部43は、当該記憶部41に記憶された物品名ごとの特徴量について、その利用される頻度、すなわち、認識部50において対応する物品が認識された頻度を監視し、当該利用頻度が一定値以下となった物品名を、削除部44に通知する。   The frequency monitoring unit 43 monitors the frequency of use of the feature quantity for each article name stored in the storage unit 41, that is, the frequency at which the corresponding article is recognized by the recognition unit 50, and the usage frequency is The article name that has become a certain value or less is notified to the deletion unit 44.

削除部44は、上記のように期間監視部42及び/又は頻度監視部43からの通知があった物品名に関するデータ(特徴量、コンテンツ、3Dデータモデル等)を、記憶部41から削除させる。こうして、図4のステップS23では、当該時点まで(前回のステップS23に至った時点から今回のステップS23の時点まで)に新たな通知が期間監視部42及び/又は頻度監視部43からあったか否かが判定され、新たな通知があった場合は、ステップS24において削除部44が対応する削除処理を実施する。   The deletion unit 44 deletes, from the storage unit 41, data related to the article name notified from the period monitoring unit 42 and / or the frequency monitoring unit 43 as described above (feature amount, content, 3D data model, etc.). Thus, in step S23 of FIG. 4, whether or not a new notification has been received from the period monitoring unit 42 and / or the frequency monitoring unit 43 until the time (from the time when the previous step S23 was reached to the time of the current step S23). Is determined, and when there is a new notification, the deletion unit 44 performs a corresponding deletion process in step S24.

なお、期間監視部42及び頻度監視部43のそれぞれにおける通知判断の閾値は、物品ごとの所定値として設定しておくことができる。例えば、期間監視部42における期間閾値であれば、飲食物に該当する物品は3日、文房具類に該当する物品は1ヶ月、などのように、商品毎の利用サイクルや日常的に見かける頻度に応じて設定しておくことができる。   Note that the threshold for notification determination in each of the period monitoring unit 42 and the frequency monitoring unit 43 can be set as a predetermined value for each article. For example, if it is the period threshold in the period monitoring unit 42, the item corresponding to food and drink is 3 days, the item corresponding to stationery is 1 month, etc. It can be set accordingly.

削除部44ではまた、上記のような利用に関する期間や頻度による判断とは別の実施形態として、記憶部41において物品名に紐付けられているコンテンツのユーザにおける利用が終了した際に、当該物品名に関するデータを記憶部41から削除させるようにしてもよい。例えば、ある物品名に学習コンテンツが紐付けられていれば、ユーザにおいて当該学習コンテンツによる学習が完了した際に、当該物品名に紐付いた一連のデータを削除するようにしてもよい。   In the deletion unit 44, as another embodiment different from the determination based on the period and frequency relating to the use as described above, when the use of the content linked to the product name in the storage unit 41 ends, Data related to the name may be deleted from the storage unit 41. For example, if learning content is linked to a certain article name, a series of data linked to the article name may be deleted when learning by the learning content is completed by the user.

以上、図4の各ステップを説明した。次に、ユーザからの要求があった際に随時実行可能な、本発明におけるユーザ間でのリファレンスデータの共有について説明する。当該共有により、図2のステップS1として説明した、個別ユーザにおいて物品情報を蓄積したうえでのデータサーバ15からのリファレンスデータの取得を省略、あるいは補強することが可能となる。   In the above, each step of FIG. 4 was demonstrated. Next, sharing of reference data between users according to the present invention, which can be performed as needed when requested by a user, will be described. This sharing makes it possible to omit or reinforce the acquisition of the reference data from the data server 15 after the article information is accumulated in the individual user, which is described as step S1 in FIG.

このため、まず、近接利用者特定部45がデータ共有対象の候補としての、近接ユーザを特定しておく。当該特定される近接ユーザは、典型的には、実生活で頻繁に接触するユーザや生活スタイルが類似しているユーザであり、以下のような各実施形態によって特定が可能である。   For this reason, first, the proximity user specifying unit 45 specifies a proximity user as a candidate for data sharing. The specified proximity user is typically a user who frequently contacts in real life or a user whose life style is similar, and can be specified by the following embodiments.

一実施形態では、認識装置10(端末)同士で周知の無線通信(特に近距離無線通信)による互いの探知を実施するようにしておき、すれ違うなどで互いに物理的に近接したことのある端末を検出することで、当該検出された端末を近接ユーザのものであるとして特定することができる。この際、当該近接することが所定頻度に到達した端末のみを特定するようにしてもよい。   In one embodiment, the recognizing devices 10 (terminals) detect each other by well-known wireless communication (especially short-range wireless communication), and terminals that have been physically close to each other by passing each other. By detecting, it is possible to identify the detected terminal as that of a nearby user. At this time, only the terminals that have reached the predetermined frequency may be specified.

一実施形態では、顔認識を行うことで近接ユーザの特定を行ってもよい。このため、ユーザはHMDに装着されたカメラより日常生活等において継続的に撮影を行い、取得された画像に対して顔認識を行う。認識された顔の特徴量を一時領域に格納しておくことで、一定期間内に頻繁に顔を合わせる人物を検出する。頻繁に顔を合わせる人物の特徴量を基に顔画像DBサーバ(不図示)に問い合せを行い、人物特定を行うことで、当該人物を近接ユーザとして特定することができる。さらに、人物・端末DBサーバ(不図示)に問い合わせを行い、当該近接ユーザの端末を特定することができる。   In one embodiment, the proximity user may be specified by performing face recognition. For this reason, the user continuously photographs in daily life or the like from the camera attached to the HMD, and performs face recognition on the acquired image. By storing the recognized face feature amount in a temporary area, a person who frequently meets the face within a certain period is detected. By querying the face image DB server (not shown) based on the feature amount of the person who frequently meets the face and specifying the person, the person can be specified as a proximity user. Furthermore, an inquiry can be made to a person / terminal DB server (not shown) to identify the terminal of the adjacent user.

以上は自動的に近接ユーザの特定が可能な実施形態であるが、ユーザが手動で近接ユーザを特定して近接利用者特定部45に対して当該近接ユーザ及びその端末を伝えるようにしてもよい。例えば、SNS(ソーシャルネットワークサービス)上で繋がっている人物の中から近接ユーザを選択するようにしてもよい。   The above is an embodiment in which the proximity user can be automatically specified, but the user may manually specify the proximity user and inform the proximity user specifying unit 45 of the proximity user and its terminal. . For example, you may make it select a near user from the person connected on SNS (social network service).

以上の各実施形態によって近接利用者特定部45が近接ユーザを特定すると、次に、当該近接ユーザの端末との間で、データ共有を実施する。図6を参照して、当該データ共有の処理を説明する。ここで、図6に示す認識装置10Bが、近接ユーザとして特定されたユーザにおける端末であるものとする。   When the proximity user specifying unit 45 specifies the proximity user according to each of the above embodiments, data sharing is performed with the terminal of the proximity user. The data sharing process will be described with reference to FIG. Here, it is assumed that the recognition device 10B illustrated in FIG. 6 is a terminal of a user specified as a proximity user.

すなわち、データ共有処理は、送受部46,46Bを介して、認識装置10,10B間で、記憶部41,41Bにそれぞれ記憶されている各物品名に対応するデータ(特徴量、コンテンツ、3Dモデルデータ)を共有する処理である。これにより、記憶部41には存在しないデータであるが、記憶部41Bには存在するデータが、記憶部41に追加されることとなり、その逆も同様に実施される。データ共有処理の開始のトリガは、いずれかのユーザ又は両ユーザからの共有要求の受信である。   That is, in the data sharing process, data (features, content, 3D model) corresponding to each article name stored in the storage units 41 and 41B between the recognition devices 10 and 10B via the transmission and reception units 46 and 46B. Data). As a result, data that does not exist in the storage unit 41 but exists in the storage unit 41B is added to the storage unit 41, and vice versa. The trigger for starting the data sharing process is reception of a sharing request from one or both users.

なお、少なくとも物品名のみを共有するようにして、当該共有された物品名を新たに得た物品情報として各認識装置10,10Bがそれぞれ図2のステップS1を実行することで、特徴量等はデータサーバ15から取り寄せるようにしてもよい。特にコンテンツについては、ユーザ毎に設定されている場合、データサーバ15より取り寄せるようにすることが好ましい。また、期間監視部42や頻度監視部43で監視する履歴関連の情報は、共有することなくユーザ毎に管理することが好ましい。   It should be noted that at least only the article name is shared, and each recognition device 10 and 10B executes step S1 in FIG. 2 as article information obtained by newly obtaining the shared article name. It may be ordered from the data server 15. In particular, when content is set for each user, it is preferable to obtain the content from the data server 15. Moreover, it is preferable to manage history-related information monitored by the period monitoring unit 42 and the frequency monitoring unit 43 for each user without sharing.

ここで、上記のようなデータ共有処理を実際に行う前に、共有要求の受信後にまず、認証部47,47B間で互いに認証を行い、互いにデータ共有を許可することに同意して認証に成功した場合に、データ共有処理を行うようにしてもよい。   Here, before actually performing the data sharing process as described above, after receiving the sharing request, the authentication units 47 and 47B first authenticate each other and agree to allow data sharing with each other and succeed in authentication. In such a case, data sharing processing may be performed.

あるいは、共有するユーザ同士で、少なくともいずれかの記憶部41,41Bに記憶されている特定の商品を同時に(短期間に)認識することで認証を行っても良い。この場合、当該商品を実際に準備して、両ユーザがそれぞれの撮影部21で当該商品を撮影して認識部50によりその画像を解析して商品名を求め、当該商品名が少なくともいずれかの記憶部41,41Bに記憶されており、且つ互いに一致する場合に、認証成功とする。この際、当該商品の認識に必要な特徴量を所持していないユーザの端末では、認識部50による認識処理が不可能であるので、代わりに、前述の物品情報取得部25における第二実施形態と同様にして、当該商品のバーコードを撮影してその画像を解析することで商品名を求める。   Or you may authenticate by recognizing the specific goods memorize | stored in at least any one of the memory | storage parts 41 and 41B simultaneously (in a short period) between the users who share. In this case, the user actually prepares the product, the two users photograph the product with the respective photographing units 21, analyze the image with the recognition unit 50, obtain the product name, and the product name is at least one of the product names If the data are stored in the storage units 41 and 41B and match each other, the authentication is successful. At this time, since the recognition process by the recognition unit 50 is impossible in the terminal of the user who does not possess the feature quantity necessary for the recognition of the product, the second embodiment in the above-described article information acquisition unit 25 is used instead. Similarly, the product name is obtained by photographing the barcode of the product and analyzing the image.

すなわち、より一般には、両ユーザが一定期間内の間にそれぞれ画像を取得して、当該両画像に共通の商品が含まれていると判断される場合に、認証が成功したと判定するようにしてもよい。当該共通の商品は、任意の商品としてもよいし、上記のような制約が課された商品であってもよい。つまり、商品名が少なくともいずれかの記憶部41,41Bに記憶されており、少なくともいずれかの認識部50にて認識可能となっているという制約の課された商品であってもよい。   That is, more generally, when both users acquire images during a certain period and it is determined that the common products are included in both images, it is determined that the authentication is successful. May be. The common product may be an arbitrary product, or may be a product on which the above restrictions are imposed. That is, the product may be a product with a restriction that the product name is stored in at least one of the storage units 41 and 41B and can be recognized by at least one of the recognition units 50.

また、実際にデータ共有を行う際は、上記説明のように互いに可能な限り全てのデータを共有するのではなく、共有する範囲に制限を設けるようにしてもよい。この場合、互いの開示設定部49,49Bにおいて互いの記憶部41,41Bにそれぞれ記憶されている物品名に対して、共有対象とするか否かをマニュアルで設定しておく。そして、共有対象として設定されているデータについて、上記のような共有処理が実施される。   Further, when actually sharing data, it is possible not to share all data as much as possible as described above, but to limit the range to be shared. In this case, it is manually set whether or not to make it a sharing target for the article names stored in the mutual storage units 41 and 41B in the mutual disclosure setting units 49 and 49B, respectively. Then, the sharing process as described above is performed on the data set as the sharing target.

あるいは、上記の特定商品のバーコードの同時認識による認証を実施した場合であれば、認証に用いた商品に応じて開示範囲を設定しても良い。このため、各商品には予めカテゴリ区別を設けておき、認証に用いた商品が属するカテゴリのみを開示するようにしてもよい。カテゴリは飲料、文房具などの既定の商品カテゴリとして、リファレンスDB33に各商品名に紐付く追加情報として登録しておくものを用いてもよいし、興味関心度、重要度などに応じてユーザが個別に設定したカテゴリを用いてもよい。   Alternatively, in the case where authentication is performed by simultaneously recognizing the barcode of the specific product, the disclosure range may be set according to the product used for authentication. For this reason, category classification may be provided for each product in advance, and only the category to which the product used for authentication belongs may be disclosed. Categories can be used as default product categories such as beverages, stationery, etc., registered in the reference DB 33 as additional information linked to each product name, or users can be individually selected according to their interest level, importance level, etc. You may use the category set in.

あるいは、上記のように各物品名にカテゴリを設けておき、両ユーザの記憶部41,41Bに共通して存在しているカテゴリに対応する物品名のデータを共有対象としてもよい。   Alternatively, a category may be provided for each article name as described above, and the article name data corresponding to the category existing in common in the storage units 41 and 41B of both users may be shared.

以上、本発明によれば、例えばレシートや商品に付属しているバーコードを利用して、あらかじめ利用者の身の回りにある商品等を特定し、データサーバに問い合わせることで身の回りにある物品の特徴量のみを端末に保存し、当該保存された特徴量で身の回りにある物品を認識する。これにより、認識の都度毎回サーバに問い合わせる必要のない、端末内での物体認識でありながら、端末内のメモリ上のリファレンス画像DBサイズを削減しつつ、身の回りの物体認識を行うことができるようになる。またソーシャルネットワーク等に基づき、ユーザ間で特徴量を共有することで、物体認識できる範囲を拡大することができるようになる。   As described above, according to the present invention, for example, by using a receipt or a barcode attached to a product, a product or the like that is around the user is identified in advance, and the feature amount of the item around you is obtained by inquiring the data server. Is stored in the terminal, and an article around us is recognized with the stored feature amount. As a result, it is possible to recognize objects around us while reducing the size of the reference image DB on the memory in the terminal while recognizing the object in the terminal without having to inquire the server every time of recognition. Become. In addition, by sharing feature quantities between users based on a social network or the like, the range in which object recognition can be performed can be expanded.

なお、本発明はコンピュータを認識装置10として機能させるプログラム(記憶媒体に格納されたものであってもよい)として提供することもできる。当該コンピュータのハードウェア構成は、命令を実行するCPU(中央演算装置)、メモリ及び種々の入出力インターフェースを含む周知の構成でよい。また、本発明は、認識装置10あるいは認識システム100の動作方法として提供することもできる。   Note that the present invention can also be provided as a program (which may be stored in a storage medium) that causes a computer to function as the recognition device 10. The hardware configuration of the computer may be a known configuration including a CPU (Central Processing Unit) that executes instructions, a memory, and various input / output interfaces. The present invention can also be provided as an operation method of the recognition apparatus 10 or the recognition system 100.

以下、本発明の認識システム100を利用した例として、英単語学習システムの動作について説明する。当該説明において関連する機能ブロックを適宜、括弧を付すことで示している。   Hereinafter, the operation of the English word learning system will be described as an example using the recognition system 100 of the present invention. In the description, related functional blocks are indicated by parentheses as appropriate.

商品名と商品の物体認識に用いる特徴量と商品に関連する英単語コンテンツとが紐付けられて保存されている特徴量DBサーバ(データサーバ15)を用意する。特徴量DBサーバは、学習者の端末(認識装置10)より、商品名をリクエストとして受け取り、商品名に紐付く特徴量と英単語学習コンテンツをレスポンスとして返す。   A feature DB server (data server 15) is prepared in which the product name, the feature used for product object recognition, and the English word content related to the product are linked and stored. The feature DB server receives a product name as a request from the learner's terminal (recognition device 10), and returns a feature value associated with the product name and English word learning content as a response.

本システムを利用して英単語を学習する学習者は、学習者端末としてのHMDを装着する。学習者がHMDを装着して生活している中で商品のバーコードやレシートを見つめた際、HMDに装着されたカメラによりバーコードやレシートの内容を読取り、学習者が見つめた、あるいは購入した商品の商品名を特定する(物品情報取得部25)。特定した商品名を特徴量DBサーバへ送り、商品の物体認識に必要な特徴量と関連する英単語学習データを取得し、HMD端末内のメモリ内に保存する(管理部40)。   A learner who learns English words using this system wears an HMD as a learner terminal. When a learner looks at a barcode or receipt of a product while living with an HMD, the learner reads or reads the contents of the barcode or receipt with a camera attached to the HMD, or purchases it. The product name of the product is specified (article information acquisition unit 25). The specified product name is sent to the feature DB server, English word learning data related to the feature necessary for object recognition of the product is acquired, and stored in the memory in the HMD terminal (management unit 40).

ここで、英単語学習コンテンツは英単語の意味を4択の選択肢で回答する問題が複数個まとまっているものとする。   Here, it is assumed that the English language learning content includes a plurality of problems in which the meaning of English words is answered with four choices.

以降、HMDのカメラ(撮影部21)から取得した画像内に先ほど取得した商品が含まれているかどうか、メモリ内に保存された特徴量を基に認識を行う(認識部50)。商品の認識が行われた場合、商品に紐付けられた英単語学習コンテンツをメモリ内から読取り、HMDのディスプレイ上に英単語学習コンテンツの中からランダムで一つの問題を表示する(提示部60)。学習者は表示された英単語問題に回答する(受付部65)。ここで、商品に紐付けられた英単語問題の全てに回答し、正解した際には、商品の特徴量データとコンテンツデータをメモリ内から削除する(管理部40)。また、商品の物体認識特徴量を取得してから、商品毎に設定されている保存期間を経過した特徴量データはメモリ内から削除する(管理部40)。   Thereafter, the image acquired from the HMD camera (imaging unit 21) recognizes whether or not the previously acquired product is included based on the feature amount stored in the memory (recognizing unit 50). When the product is recognized, the English word learning content linked to the product is read from the memory, and one question is randomly displayed on the HMD display from the English word learning content (presentation unit 60) . The learner answers the displayed English word problem (reception unit 65). Here, when all the English word problems associated with the product are answered and correctly answered, the feature amount data and the content data of the product are deleted from the memory (management unit 40). Further, after acquiring the object recognition feature value of the product, the feature value data that has passed the storage period set for each product is deleted from the memory (management unit 40).

学習者のHMDは無線通信を用いて近くいる学習者(近接学習者)のHMDとすれ違い通信を行い、すれ違い回数をメモリ内に蓄積する(近接利用者特定部45)。すれ違い回数が一定数を超えた近接学習者がいた場合、近接学習者に特徴量取得要求を送信する(送受部46)。   The learner's HMD uses wireless communication to perform passing communication with a nearby learner (proximity learner) HMD and accumulates the number of passing in the memory (proximity user identification unit 45). When there is a proximity learner whose pass count exceeds a certain number, a feature amount acquisition request is transmitted to the proximity learner (transmission / reception unit 46).

近接学習者が特徴量取得要求を受け取った際、近接学習者のHMD上に通知を行う。通知を受けた近接学習者は特徴量データを提供するかどうかを選択する(開示設定部49B)。データの提供を許可する場合、近接学習者は(1)全ての特徴量データを提供する、(2)共通して保持しているカテゴリの特徴量データを提供する、(3)認識した物体のカテゴリを提供する、の3パターンの提供方法を選択する。   When a proximity learner receives a feature amount acquisition request, a notification is made on the proximity learner's HMD. The proximity learner who has received the notification selects whether or not to provide the feature data (disclosure setting unit 49B). When permitting the provision of data, the proximity learner (1) provides all the feature data, (2) provides the feature data of the category held in common, (3) the recognized object Select a method of providing three patterns of providing categories.

(1)を選択した場合、近接学習者の所持している特徴量データを全て提供する。
(2)を選択した場合、学習者と近接学習者の間で共通して保持している商品カテゴリの特徴量データを提供する。
(3)を選択した場合、近接学習者は特徴量データを保持している商品を取り出し、学習者にバーコードの認識を行わせると同時に自身でも商品の認識を行う。バーコードの認識と商品の認識が同時に行われた場合、該当商品の属するカテゴリの特徴量データが共有される。
When (1) is selected, all feature amount data possessed by the proximity learner is provided.
When (2) is selected, the feature amount data of the product category that is commonly held between the learner and the proximity learner is provided.
When (3) is selected, the proximity learner takes out the product holding the feature amount data, makes the learner recognize the barcode, and at the same time recognizes the product itself. When the barcode recognition and the product recognition are performed at the same time, the feature amount data of the category to which the product belongs is shared.

100…認識システム、10…認識装置、15…データサーバ、25…物品情報取得部、40…管理部、50…認識部、60…提示部、45…近接利用者特定部   DESCRIPTION OF SYMBOLS 100 ... Recognition system, 10 ... Recognition apparatus, 15 ... Data server, 25 ... Article information acquisition part, 40 ... Management part, 50 ... Recognition part, 60 ... Presentation part, 45 ... Proximity user identification part

Claims (13)

画像を撮影する撮影部と、
ユーザの周囲に存在する物品の名前として物品情報を取得する物品情報取得部と、
前記取得した物品情報に対応する特徴量を管理する管理部と、
前記管理された特徴量に基づき、前記撮影部の撮影した画像に含まれる物品を認識する認識部と、を備える認識装置であって、
各物品の名前と特徴量とを紐付けて保持しているデータサーバに対して、前記取得した物品情報を送信して対応する特徴量を受信することにより、前記管理部は前記取得した物品情報に対応する特徴量を取得して管理することを特徴とする認識装置。
A shooting section for shooting images;
An article information acquisition unit for acquiring article information as the name of an article existing around the user;
A management unit for managing a feature amount corresponding to the acquired article information;
A recognition unit that recognizes an article included in an image captured by the imaging unit based on the managed feature amount,
By transmitting the acquired article information and receiving the corresponding feature quantity to the data server that holds the name and the feature quantity associated with each article, the management unit receives the acquired article information. The recognition apparatus characterized by acquiring and managing the feature-value corresponding to.
前記物品情報取得部が以下の(1)〜(3)に掲げる少なくとも1つの手法により、商品名として物品情報を取得することを特徴とする請求項1に記載の認識装置。
(1)前記撮影部の撮影したレシートの画像を解析することで商品名を抽出する手法
(2)前記撮影部の撮影したコード付与された商品の画像におけるコードを解析することで、当該コードに対応する商品名を取得する手法
(3)ユーザの電子商取引の履歴より購入した商品名を抽出する手法
The recognition apparatus according to claim 1, wherein the article information acquisition unit acquires article information as a product name by at least one of the following methods (1) to (3).
(1) A method for extracting a product name by analyzing an image of a receipt photographed by the photographing unit. (2) By analyzing a code in a product image provided with a code photographed by the photographing unit, Method of obtaining the corresponding product name (3) Method of extracting the purchased product name from the user's electronic commerce history
前記データサーバは、各物品の名前と当該物品を各角度から見た画像より抽出した特徴量とを紐付けて保持しており、
前記管理部では当該各角度における特徴量を管理することで、前記認識部は各角度において物品を認識することを特徴とする請求項1または2に記載の認識装置。
The data server holds the name of each article and the feature amount extracted from the image of the article viewed from each angle,
The recognition apparatus according to claim 1, wherein the management unit manages feature quantities at each angle so that the recognition unit recognizes an article at each angle.
前記管理部は、以下の(1)〜(3)に掲げるいずれかに該当する特徴量を削除することを特徴とする請求項1ないし3のいずれかに記載の認識装置。
(1)前記データサーバより取得された後の経過期間が一定期間に到達した特徴量
(2)前記認識部にて対応する物品が認識されないことの継続期間が一定期間に到達した特徴量
(3)前記認識部にて対応する物品が認識される頻度が一定値以下となった特徴量
The recognition apparatus according to claim 1, wherein the management unit deletes a feature amount corresponding to any of the following (1) to (3).
(1) A feature quantity whose elapsed period after being acquired from the data server has reached a certain period (2) A feature quantity whose continuation period that the corresponding article is not recognized by the recognition unit has reached a certain period (3 ) The feature amount at which the frequency at which the recognition unit recognizes the corresponding article is less than a certain value
前記認識装置のユーザに対する近接ユーザを特定する近接利用者特定部をさらに備え、
前記管理部は、自身が管理する特徴量と、前記近接ユーザの有する第二認識装置が備える第二管理部において管理される、前記近接ユーザにおいて取得された物品情報に対応する特徴量と、を共有して管理することを特徴とする請求項1ないし4のいずれかに記載の認識装置。
A proximity user specifying unit for specifying a proximity user for the user of the recognition device;
The management unit includes a feature amount managed by the management unit and a feature amount corresponding to article information acquired by the proximity user, which is managed by a second management unit included in the second recognition device of the proximity user. The recognition apparatus according to claim 1, wherein the recognition apparatus is shared and managed.
前記管理部は、前記近接ユーザとの間での認証に成功した場合に、前記共有して管理することを特徴とする請求項5に記載の認識装置。   The recognition apparatus according to claim 5, wherein the management unit manages the shared information when authentication with the proximity user is successful. 前記認証が、両ユーザが一定期間の間にそれぞれ画像を取得して、当該両画像に共通の商品が含まれると判断される場合に、認証が成功したものと判定するものであることを特徴とする請求項6に記載の認識装置。   In the authentication, when both users acquire images during a certain period and it is determined that a common product is included in both images, it is determined that the authentication is successful. The recognition device according to claim 6. 物品にはカテゴリが付与されており、
前記管理部は、自身が管理する特徴量と、前記近接ユーザの有する第二認識装置が備える第二管理部において管理される、前記近接ユーザにおいて取得された物品情報に対応する特徴量と、のうち、カテゴリが共通の物品における物品情報に対応する特徴量同士を、共有して管理することを特徴とする請求項5ないし7のいずれかに記載の認識装置。
Categories are assigned to goods,
The management unit includes: a feature amount managed by the management unit; and a feature amount corresponding to article information acquired by the proximity user, which is managed by a second management unit included in the second recognition device of the proximity user. 8. The recognition apparatus according to claim 5, wherein feature quantities corresponding to article information in articles having a common category are shared and managed.
前記管理部は、ユーザから共有許可が与えられている物品情報を、前記共有して管理することを特徴とする請求項5ないし8のいずれかに記載の認識装置。   The recognition apparatus according to claim 5, wherein the management unit shares and manages article information for which sharing permission is given by a user. 前記データサーバでは各物品の名前と特徴量とコンテンツとを紐付けて保持しており、
前記取得した物品情報を送信して対応する特徴量及びコンテンツを受信することにより、前記管理部は前記取得した物品情報に対応する特徴量及びコンテンツを取得して管理し、
前記認識された物品に対応する、前記管理されたコンテンツを提示する提示部をさらに備えることを特徴とする請求項1ないし9のいずれかに記載の認識装置。
In the data server, the name, feature amount, and content of each article are linked and held,
By transmitting the acquired item information and receiving the corresponding feature amount and content, the management unit acquires and manages the feature amount and content corresponding to the acquired item information,
The recognition apparatus according to claim 1, further comprising a presentation unit that presents the managed content corresponding to the recognized article.
前記管理部は、前記提示したコンテンツのユーザにおける利用が完了した際に、当該コンテンツに対応する特徴量を削除することを特徴とする請求項10に記載の認識装置。   The recognition apparatus according to claim 10, wherein when the use of the presented content by a user is completed, the management unit deletes a feature amount corresponding to the content. コンピュータを請求項1ないし11のいずれかに記載の認識装置として機能させることを特徴とする認識プログラム。   A recognition program for causing a computer to function as the recognition device according to claim 1. データサーバにおいて、各物品の名前と特徴量とを紐付けて保持するステップと、
画像を撮影する撮影部が備わる認識装置において、
ユーザの周囲に存在する物品の名前として物品情報を取得する物品情報取得ステップと、
前記取得した物品情報に対応する特徴量を管理する管理ステップと、
前記管理された特徴量に基づき、前記撮影部の撮影した画像に含まれる物品を認識する認識ステップと、を備える認識方法であって、
前記データサーバに対して、前記取得した物品情報を送信して対応する特徴量を受信することにより、前記管理ステップでは前記取得した物品情報に対応する特徴量を取得して管理することを特徴とする認識方法。
In the data server, the step of associating and holding the name and feature amount of each article;
In a recognition device equipped with a photographing unit for photographing an image,
An article information acquisition step of acquiring article information as the name of an article existing around the user;
A management step of managing a feature amount corresponding to the acquired article information;
A recognition step of recognizing an article included in an image captured by the imaging unit based on the managed feature amount,
By transmitting the acquired article information to the data server and receiving the corresponding feature quantity, the management step acquires and manages the feature quantity corresponding to the acquired article information. How to recognize.
JP2014065908A 2014-03-27 2014-03-27 Recognition device, recognition program, and recognition method Active JP6210554B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014065908A JP6210554B2 (en) 2014-03-27 2014-03-27 Recognition device, recognition program, and recognition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014065908A JP6210554B2 (en) 2014-03-27 2014-03-27 Recognition device, recognition program, and recognition method

Publications (2)

Publication Number Publication Date
JP2015191265A JP2015191265A (en) 2015-11-02
JP6210554B2 true JP6210554B2 (en) 2017-10-11

Family

ID=54425749

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014065908A Active JP6210554B2 (en) 2014-03-27 2014-03-27 Recognition device, recognition program, and recognition method

Country Status (1)

Country Link
JP (1) JP6210554B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102058580B1 (en) * 2017-10-11 2019-12-24 권봉균 Method for estimating genuine article based on image
CN112580412A (en) * 2019-09-30 2021-03-30 百度(美国)有限责任公司 Commodity identification method and device

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4017828B2 (en) * 2001-02-14 2007-12-05 富士フイルム株式会社 Digital camera
JP4486053B2 (en) * 2006-03-13 2010-06-23 株式会社エム・エヌ・ユー Design work support system
JP2010044630A (en) * 2008-08-14 2010-02-25 Nippon Telegr & Teleph Corp <Ntt> Building-related information providing system
JP2014049015A (en) * 2012-09-03 2014-03-17 Toshiba Tec Corp Commodity recognition apparatus and commodity recognition program

Also Published As

Publication number Publication date
JP2015191265A (en) 2015-11-02

Similar Documents

Publication Publication Date Title
US20200168003A1 (en) Offline shopping guide method and apparatus
US10380170B2 (en) Integrated image searching system and service method thereof
KR101729938B1 (en) Integrative image searching system and service method of the same
JP5621897B2 (en) Processing method, computer program, and processing apparatus
JP5395920B2 (en) Search device, search method, search program, and computer-readable recording medium storing the program
US9633272B2 (en) Real time object scanning using a mobile phone and cloud-based visual search engine
JP6185216B1 (en) Information providing system, information providing apparatus, information providing method, and program
CN108960892B (en) Information processing method and device, electronic device and storage medium
US20120296776A1 (en) Adaptive interactive search
CN104504402A (en) Data processing method and system based on image search
CN109242473A (en) A kind of method of payment, device and electronic equipment
KR101784287B1 (en) Integrative image searching system and service method of the same
JP6609434B2 (en) Product information providing system, product information providing method, and management server
JP2010204733A (en) Device, method, program and system for managing found article information
US9621505B1 (en) Providing images with notifications
WO2020007141A1 (en) Offline commodity information query method, apparatus, device and system
JP6210554B2 (en) Recognition device, recognition program, and recognition method
TW201305945A (en) Device for providing information, method for providing information, program for providing information, and computer-readable recording medium storing program thereof
KR20110137004A (en) System and method for providing price comparison service based on integrative searching using mobile terminal
JP2019083532A (en) Image processing system, image processing method, and image processing program
CN115983873A (en) Big data based user data analysis management system and method
JP6152188B1 (en) Information processing apparatus, information processing method, and program
CN111667347B (en) Big data type search system based on 5G communication technology and search method thereof
JP2018142293A (en) Commodity discrimination device, commodity discrimination program, and commodity discrimination method
US11403697B1 (en) Three-dimensional object identification using two-dimensional image data

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160729

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20160822

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170427

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170605

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170628

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170810

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170906

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170907

R150 Certificate of patent or registration of utility model

Ref document number: 6210554

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150