JP2019070887A - Object recognition device for recognizing place and object by two steps - Google Patents

Object recognition device for recognizing place and object by two steps Download PDF

Info

Publication number
JP2019070887A
JP2019070887A JP2017195570A JP2017195570A JP2019070887A JP 2019070887 A JP2019070887 A JP 2019070887A JP 2017195570 A JP2017195570 A JP 2017195570A JP 2017195570 A JP2017195570 A JP 2017195570A JP 2019070887 A JP2019070887 A JP 2019070887A
Authority
JP
Japan
Prior art keywords
image
place
information
store
recognizing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017195570A
Other languages
Japanese (ja)
Other versions
JP2019070887A5 (en
Inventor
西野 有
Tamotsu Nishino
有 西野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Basai Co Ltd
Original Assignee
Basai Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Basai Co Ltd filed Critical Basai Co Ltd
Priority to JP2017195570A priority Critical patent/JP2019070887A/en
Publication of JP2019070887A publication Critical patent/JP2019070887A/en
Publication of JP2019070887A5 publication Critical patent/JP2019070887A5/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Abstract

To solve problems in a case of recognizing objects appearing in an image: that when the number of objects to be recognized increases, the number of very similar objects may increase to degrade identification accuracy; and that a name to be used for the object in the image cannot be determined when different names are used in different places, for objects similar to the object in the image.SOLUTION: A device for recognizing objects appearing in an image improves identification accuracy, by adding information about a place where the image is captured, to reduce erroneous recognition between the objects and very similar objects in other places, and to enable adding the information peculiar to that place to recognized results.SELECTED DRAWING: Figure 1

Description

本発明は、画像に写った物体を認識する装置において、撮影した場所の情報を加えることで、認識精度を向上させ、他の場所にあるよく似た物体との誤認識を減らすとともに、その場所固有の情報を認識結果に加えることを可能とする物体認識装置である。   The present invention is an apparatus for recognizing an object captured in an image, which adds information on a photographed place to improve recognition accuracy and reduce false recognition with similar objects in other places, as well as the place It is an object recognition device that makes it possible to add unique information to the recognition result.

大量のデジタル画像をコンピュータで機械学習を行い、その学習結果を用いて、画像に写った物体を認識する装置により、スマートホン等で撮影した画像が何であるかを表示することが可能となった。   It became possible to perform machine learning of a large number of digital images with a computer and use the learning results to display what an image taken with a smartphone etc. is by a device that recognizes an object shown in the image. .

しかし、認識すべき物体が多くなると、よく似た物体が増大し、その識別精度は低下する。また、同じような画像であっても、場所によって異なる呼称が用いられている場合はどの呼称を用いるべきか判別できない。   However, as the number of objects to be recognized increases, similar objects increase, and the identification accuracy decreases. Further, even if similar images are used, it is not possible to determine which designation should be used if different designations are used depending on places.

これに対して、写真を公開するソーシャルネットワークを利用するユーザーが増大し、例えばどのレストランで提供された料理であるかなどと言った場所と物体の両方の情報が求められる機会が増えている。   On the other hand, the number of users using social networks that publish photos is increasing, and there is an increasing opportunity to request information on both places and objects, such as, for example, which restaurant the food is served.

特開2013−114596号公報JP, 2013-114596, A

大量のデジタル画像をコンピュータで機械学習を行い、その学習結果を用いて、画像に写った物体を認識する装置により、スマートホン等で撮影した画像が何であるかを表示する際に、場所によって異なる呼称が用いられている場合でも適切な呼称を用いて表示することで、物体のより詳細な情報が得られる。   The machine learning of a large number of digital images by a computer and using the learning results, it is different depending on the place when displaying what is the image taken with a smart phone etc. Even when a name is used, displaying it using an appropriate name can provide more detailed information on the object.

しかし、画像の情報からだけではよく似た物体がどこで撮影されたかを知るのは困難である。   However, it is difficult to know where the similar object was shot from the image information alone.

特許文献1の技術を用いれば、撮影された画像から複数の物体を認識し、その中で場所に係る物体があれば撮影された場所を特定することが可能であり、同時に写っている物体の認識過程に場所に係る情報を反映することができる。   By using the technology of Patent Document 1, it is possible to recognize a plurality of objects from a photographed image, and if there is an object relating to a place, it is possible to specify the photographed place, Information on location can be reflected in the recognition process.

しかし、必ずしも場所に係る物体が写されているとは限らない。また認識の過程においてはすべての対象物体から認識する必要があり、効率がわるい。   However, an object relating to a place is not necessarily photographed. Moreover, in the process of recognition, it is necessary to recognize from all target objects, and the efficiency is low.

本発明は、スマートホン等で撮影した画像が何であるかを表示する際に、場所によって異なる呼称が用いられている場合でも適切な呼称を用いて表示することを可能にすることを目的としている。   An object of the present invention is to make it possible to display an image taken with a smartphone or the like by using an appropriate name even when a name different from one place to another is used. .

上記目的のため、本発明は、撮影された場所を限定するために、認識する物体の対象を1次物体と2次物体に分類し、1次物体は場所を限定するために使用し、その場所の情報を用いて2次物体の認識率を高め、更には場所に固有の名称を表示する手段等を持つことを特徴とする。 To this end, the invention classifies the objects of the objects to be recognized into primary objects and secondary objects in order to limit the places taken, the primary objects being used to limit the places, It is characterized in that the information on the place is used to increase the recognition rate of the secondary object, and further, it has means for displaying a name unique to the place.

また、本発明は、上記2次物体を認識する際に、一致度の高い複数の候補に対して、1次物体で認識した場所に関連する候補を選択させることで、画像に写った物体の認識率を高くする手段を有する。 Further, according to the present invention, when the secondary object is recognized, a candidate related to a place recognized by the primary object is selected with respect to a plurality of candidates having a high degree of coincidence, whereby the object shown in the image is displayed. It has means for increasing the recognition rate.

更に、本発明は、上記1次物体で認識した場所の範囲にある物体を機械学習した結果を用いて2次物体を認識することで、画像に写った物体の認識率を高くする手段を有する。 Furthermore, the present invention has a means for increasing the recognition rate of an object shown in an image by recognizing a secondary object using the result of machine learning of an object within the range of the location recognized by the primary object. .

あるいは、本発明は、特定の場所に設置したQRコード(QRコードは特定の番号を画像化したもので、株式会社デンソーウェーブの登録商標)を読み込むことで、場所を特定することを特徴とする。 Alternatively, the present invention is characterized in that the location is specified by reading a QR code (a QR code is an image of a specific number, which is a registered trademark of Denso Wave Inc.) installed at a specific location. .

あるいは、本発明は、特定の場所に設置したビーコン信号発信器の発信するビーコンIDを受信することで、場所を特定することを特徴とする。 Alternatively, the present invention is characterized by specifying a place by receiving a beacon ID transmitted by a beacon signal transmitter installed at a specific place.

あるいは、本発明は、GPS衛星の信号を受信し、その緯度と経度の情報で、場所を認識することを特徴とする。 Alternatively, the present invention is characterized in that a GPS satellite signal is received, and the location is recognized by the information of its latitude and longitude.

あるいは、本発明は、GPS衛星の信号を受信し、その緯度と経度の情報で、場所を認識する際に、その緯度と経度の近傍の複数の位置に紐づいた機械学習の学習結果に対して、先のGPS衛星の信号を受信して得られた位置との距離に応じて物体の認識結果に重みづけをした後、1つ以上の認識結果を表示することを特徴とする。 Alternatively, according to the present invention, when receiving a GPS satellite signal and using information on its latitude and longitude to recognize a place, the learning result of machine learning associated with a plurality of positions near the latitude and longitude is obtained. One or more recognition results are displayed after weighting the recognition results of the object in accordance with the distance to the position obtained by receiving the signal of the previous GPS satellite.

本発明は、上記のように撮影された場所を限定するために、認識する物体の対象を1次物体と2次物体に分類し、1次物体は場所を限定するために使用し、その場所の情報を用いて2次物体の認識率を高めているため、スマートホン等で撮影した画像が何であるかを表示する際に、場所によって異なる呼称が用いられている場合でも適切な呼称を用いて表示することができる。   The present invention classifies the objects of the object to be recognized into primary objects and secondary objects in order to limit the locations taken as described above, the primary objects being used to define the location, which locations Because the recognition rate of secondary objects is increased using information from the above, when displaying what is the image taken with a smart phone etc., even when different names are used depending on the location, use appropriate names Can be displayed.

また、上記2次物体を認識する際に、適合度の高い複数の候補に対して、1次物体で認識した場所に関連する候補を選択させることで、画像に写った物体の認識率を高くすることもできる。   In addition, when the secondary object is recognized, the recognition rate of the object shown in the image is increased by selecting candidates related to the place recognized by the primary object with respect to a plurality of candidates with high matching degrees. You can also

また、上記1次物体を撮影して場所を特定する代わりに、特定の場所に設置したQRコード(QRコードは特定の番号を画像化したもので、株式会社デンソーウェーブの登録商標)を読み込むこと、特定の場所に設置したビーコン信号発信器の発信するビーコンIDを受信すること、GPS衛星の信号を受信し、その緯度と経度の情報を得る等の方法を用いることで場所を認識することができる。   Also, instead of capturing the primary object and specifying the location, read the QR code (QR code is an image of a specific number, a registered trademark of Denso Wave Inc.) installed at a specific location. To receive a beacon ID transmitted from a beacon signal transmitter installed at a specific location, to receive GPS satellite signals, and to recognize the location by using information such as latitude and longitude it can.

あるいは、上記1次物体を撮影して場所を特定する代わりに、GPS衛星の信号を受信し、その緯度と経度の情報で、場所を認識する際に、その緯度と経度の近傍の複数の位置に紐づいた機械学習の学習結果に対して、先のGPS衛星の信号を受信して得られた位置の近傍にある複数の場所に係る物体の認識結果を表示することができる。   Alternatively, instead of capturing the primary object and specifying the location, a GPS satellite signal is received, and when the location is recognized using the latitude and longitude information, a plurality of positions near the latitude and longitude With respect to the learning result of machine learning linked to, it is possible to display the recognition results of objects related to a plurality of places in the vicinity of the position obtained by receiving the signal of the previous GPS satellite.

あるいは、上記1次物体を撮影して場所を特定する代わりに、GPS衛星の信号を受信し、その緯度と経度の情報で、場所を認識する際に、その緯度と経度の近傍の複数の位置に紐づいた機械学習の学習結果に対して、先のGPS衛星の信号を受信して得られた位置との距離に応じて物体の認識結果に重みづけをした後、1つ以上の認識結果を表示することができる。   Alternatively, instead of capturing the primary object and specifying the location, a GPS satellite signal is received, and when the location is recognized using the latitude and longitude information, a plurality of positions near the latitude and longitude After weighting the recognition result of the object according to the distance to the position obtained by receiving the signal of the previous GPS satellite with respect to the learning result of machine learning linked to the one or more recognition results Can be displayed.

本発明のシステムを用いて、スマートホン等で撮影した画像が何であるかを表示する際に、場所によって異なる呼称が用いられている場合でも適切な呼称を用いて表示することを可能にすることができるという利点がある。 When displaying what is an image taken with a smartphone or the like by using the system of the present invention, it is possible to display using an appropriate name even when a different name is used depending on the place. Has the advantage of being able to

また、場所によって異なる呼称が用いられている場合でも適切な呼称がわかるため、特定の店舗の、特定の商品と画像を関連付けられ、それによって画像には、特定の店舗の特定の商品の情報を紐づけることができるという利点がある。 Also, even if different names are used depending on the location, an image can be associated with a specific product of a specific store, because an appropriate name can be known, whereby the image has information on a specific product of a specific store. There is an advantage that it can be linked.

図1は、本発明の実施例の1次物体撮影の概略図である。FIG. 1 is a schematic view of primary object imaging according to an embodiment of the present invention. 図2は、本発明の実施例の1次物体認識の概略図である。FIG. 2 is a schematic diagram of primary object recognition according to an embodiment of the present invention. 図3は、本発明の実施例の2次物体撮影の概略図であるFIG. 3 is a schematic view of secondary object imaging according to an embodiment of the present invention. 図4は、本発明の実施例の2次物体認識の概略図であるFIG. 4 is a schematic view of secondary object recognition according to an embodiment of the present invention 図5は、本発明の実施例の動作の流れを示す図である。FIG. 5 is a diagram showing the flow of the operation of the embodiment of the present invention. 図6は、本発明の実施例のサーバーの構成とデータの流れを示す図である。FIG. 6 is a diagram showing the configuration of the server and the flow of data according to the embodiment of this invention.

スマートホン等で撮影した画像が何であるかを表示する際に、認識する物体の対象を1次物体と2次物体に分類し、1次物体は場所を限定するために使用し、その場所の情報を用いて2次物体の認識率を高め、場所によって異なる呼称が用いられている場合でも適切な呼称を用いて表示することを可能とした。   When displaying what an image taken with a smart phone or the like is, the object of the object to be recognized is classified into a primary object and a secondary object, and the primary object is used to limit the location. The information was used to increase the recognition rate of secondary objects, and even when different names were used depending on the location, it was possible to display using appropriate names.

実施例は、店舗を利用するユーザーを想定して記載するが、店舗以外の施設においても同様な効果が得られる。また、商品として具体的な物体である必要はなく、場所で提供されるサービスのような行為や、場所の説明のような文章でもよい。   Although an example is described supposing the user who uses a store, the same effect is acquired also in facilities other than a store. Moreover, it is not necessary for the product to be a specific object, but may be an act such as a service provided at a place, or a sentence such as an explanation of a place.

図1は、本発明の実施例の1次物体撮影の概略図であって、101はユーザー、102は店舗、103はカメラ付き情報端末である。   FIG. 1 is a schematic view of primary object imaging according to an embodiment of the present invention, wherein 101 is a user, 102 is a store, and 103 is an information terminal with a camera.

ユーザー101は、店舗102をカメラ付き情報端末103で撮影することで、あらかじめ1次物体として登録している店舗102を認識する。   The user 101 recognizes the store 102 registered in advance as a primary object by photographing the store 102 with the camera-equipped information terminal 103.

図2は、本発明の実施例の1次物体認識の概略図であって、201はカメラ付き情報端末、202はカメラ付き情報端末に映る店舗、203は店舗202の画像の中で1次物体を認識するための画像情報を示すマーク、204は1次物体の第1の認識候補、205は1次物体の第2の認識候補、210は第1の候補204と第2の候補205から、ユーザーが選択するための指である。   FIG. 2 is a schematic view of primary object recognition according to an embodiment of the present invention, wherein 201 is a camera-equipped information terminal, 202 is a store reflected in the camera-equipped information terminal, 203 is a primary object in the image of the store 202 From the first candidate 204 and the second candidate 205, the first recognition candidate for the primary object, the second recognition candidate for the primary object, and the second recognition candidate for the first object. It is a finger for the user to select.

カメラ付き情報端末201に映っている店舗202の画像の中に、1次物体を認識するための画像情報がある場合、1次物体を認識するための画像情報を示すマーク203が表示されると同時に、認識された1次物体の候補が表示される。候補が絞り切れず、複数ある場合は、画面の下側に第1候補204と、第2候補205が表示され、ユーザーがどちらかを判断して確定する。   When there is image information for recognizing a primary object in the image of the store 202 shown on the camera-equipped information terminal 201, a mark 203 indicating the image information for recognizing the primary object is displayed At the same time, the recognized primary object candidates are displayed. If a plurality of candidates can not be narrowed down, a first candidate 204 and a second candidate 205 are displayed on the lower side of the screen, and the user determines which of them is determined.

画像情報を示すマーク203が表示されない場合は、画像の中に店舗を認識するための1次物体がないことを示しているため、ユーザーは他の部分を撮影することになるが、一般的には何が店舗を認識するための1次物体であるかはあらかじめわかっているため、ユーザーが困ることはない。   When the mark 203 indicating the image information is not displayed, it indicates that there is no primary object for recognizing the store in the image, so the user will shoot another part, but in general Since it is known in advance that what is the primary object for recognizing the store, the user will not be bothered.

1次物体を認識するための画像情報としてQRコード等の幾何学図形を用いる場合も、同様に撮影することで同じ効果が得られる。   Also in the case of using a geometric figure such as a QR code as image information for recognizing a primary object, the same effect can be obtained by photographing similarly.

ビーコン信号を受信することで店舗を認識する場合には、カメラ付き情報端末201で撮影する必要はなく、カメラ付き情報端末201が受信したビーコン信号のコードに応じて、あらかじめ登録されている店舗の画像等の店舗を示す画像と、1次物体の候補が表示され、自動的に確定するか、あるいはユーザーが判断して確定する。複数の信号を受信して、候補が複数ある場合には複数の候補が表示され、ユーザーが判断して確定する。   In the case of recognizing a store by receiving a beacon signal, it is not necessary to take a picture with the camera-equipped information terminal 201, and according to the code of the beacon signal received by the camera-equipped information terminal 201, An image indicating a store such as an image and a candidate for a primary object are displayed and determined automatically or determined by the user or determined. A plurality of signals are received, and if there are a plurality of candidates, a plurality of candidates are displayed and determined by the user.

GPS信号を受信することで店舗を認識する場合も同様であり、カメラ付き情報端末201で撮影する必要はなく、カメラ付き情報端末201が受信したGPS信号から計算した位置に応じて、あらかじめ登録されている店舗の画像等の店舗を示す画像と、1次物体の候補が表示され、自動的に確定するか、あるいはユーザーが判断して確定する。GPS信号から計算した位置の近くに、複数の候補がある場合にはそれらの候補が表示され、ユーザーが判断して確定する。   The same applies to the case of recognizing a store by receiving a GPS signal, and it is not necessary to take a picture with the camera-equipped information terminal 201, and registered in advance according to the position calculated from the GPS signal received by the camera-equipped information terminal 201. An image showing the store, such as an image of the store in question, and a candidate for the primary object are displayed, and are automatically determined or determined by the user or determined. If there are multiple candidates near the position calculated from the GPS signal, those candidates are displayed and determined by the user.

図3は、本発明の実施例の2次物体撮影の概略図であって、301はユーザー、310はテーブル、311は2次物体である商品、320はカメラ付き情報端末、330はサーバー、340はカメラ付き情報端末320で撮影された商品311を含む画像データ、350は店舗のコンピュータ、351は店舗内の商品に関する情報である。   FIG. 3 is a schematic diagram of secondary object imaging according to an embodiment of the present invention, wherein 301 is a user, 310 is a table, 311 is a commodity which is a secondary object, 320 is a camera information terminal, 330 is a server, 340 Is image data including the product 311 captured by the camera-equipped information terminal 320, 350 is a computer of the store, and 351 is information on the product in the store.

ユーザー301がカメラ付き情報端末320で商品311を撮影し、カメラ付き情報端末320に具備した無線回線を介して、画像データ340をサーバー330に伝送する。サーバー330は、撮影された場所に応じた物体認識のためのパラメータを用いて2次物体である商品311が何であるかを認識し、あらかじめ店舗のコンピュータ350から店舗内の商品に関する情報351から商品311に関する情報を画像データ340に結び付けて保存する。   The user 301 photographs the product 311 with the camera-equipped information terminal 320, and transmits the image data 340 to the server 330 through the wireless circuit provided in the camera-equipped information terminal 320. The server 330 recognizes what the product 311, which is a secondary object, is by using the parameter for object recognition according to the photographed location, and the product 350 from the information 351 on the product in the store from the computer 350 of the store in advance Information related to 311 is linked to image data 340 and stored.

図4は、本発明の実施例の2次物体認識の概略図であって、401はカメラ付き情報端末、402はカメラ付き情報端末に映る認識対象の商品、403はカメラ付き情報端末に映る認識対象でない別の商品、404は画像の中で2次物体を認識するための画像情報を示すマーク、410は2次物体の第1の認識候補、411は2次物体の第2の認識候補、420は第1の候補410と第2の候補411から、ユーザーが選択するための指である。   FIG. 4 is a schematic view of secondary object recognition according to an embodiment of the present invention, in which 401 is a camera-equipped information terminal, 402 is a product to be recognized that is displayed on the camera-equipped information terminal, and 403 is displayed on the camera-equipped information terminal Another item which is not the object, 404 is a mark indicating image information for recognizing a secondary object in the image, 410 is a first recognition candidate of the secondary object, 411 is a second recognition candidate of the secondary object, Reference numeral 420 denotes a finger for the user to select from the first candidate 410 and the second candidate 411.

カメラ付き情報端末401に映っている画像の中に、2次物体を認識するための画像情報がある場合、2次物体を認識するための画像情報を示すマーク404が表示され、認識された2次物体の候補が表示される。候補が絞り切れず、複数ある場合は、画面の下側に第1候補410と、第2候補411が表示され、ユーザーがどちらかを判断して確定する。また、認識対象でない別の商品403には2次物体を認識するための画像情報を示すマーク404は表示されない。   If the image shown on the camera-equipped information terminal 401 includes image information for recognizing a secondary object, a mark 404 indicating the image information for recognizing the secondary object is displayed and recognized. The candidates for the next object are displayed. If the candidates can not be narrowed down and there are a plurality of candidates, the first candidate 410 and the second candidate 411 are displayed on the lower side of the screen, and the user determines and decides which one. Moreover, the mark 404 which shows the image information for recognizing a secondary object is not displayed on another goods 403 which are not recognition object.

図5は、本発明の実施例の動作の流れを示す図であって、501、504、505、506、507、510、511、513はサーバー側の動作、502、503、508、509、512はユーザー端末の動作である。   FIG. 5 is a diagram showing the flow of the operation of the embodiment of the present invention, wherein 501, 504, 505, 506, 507, 510, 511, 513 are server-side operations, 502, 503, 508, 509, 512. Is the operation of the user terminal.

動作開始にあたって、動作501でサーバーは画像の物体を認識するためのパラメータを店舗を対象とするものに設定する。動作502でユーザーはユーザー端末であらかじめ決められている店舗の象徴となる対象を撮影する。動作503でユーザー端末から撮影した店舗の象徴となる対象となる物体の画像をサーバーに送信する。動作504でサーバーは店舗の象徴となる対象となる物体の画像を受信する。動作505でサーバーは動作504で受信した画像を物体認識し、店舗の象徴である物体から店舗を特定する。動作506でサーバーは物体認識の為のパラメータを商品を対象とするものに設定する。動作507でサーバーはパラメータを商品を対象とするものに設定したことをユーザー端末に通知する。動作508でユーザーは店舗内で商品を撮影する。動作509でユーザーは商品の画像をサーバーに送信する。動作510でサーバーは商品の画像を受信する。動作511でサーバーは動作5010で受信した画像を物体認識し、商品を特定する。複数の候補がある場合にはそれらの候補を通知する。動作512でユーザーは認識された商品と撮影された対象が一致していることを確認し、通知する。ここで、候補の中に商品がない場合は、さらに別の候補を通知するように要求することもできる。動作513でサーバーは画像と、あらかじめ登録されている画像に関する情報、撮影者の情報を関連付けて保存する。動作508から動作513は繰り返して実施してよい。動作514でユーザーは店舗から出たことを通知すると、動作501によりサーバーは物体を認識するためのパラメータを店舗を対象とするものに戻す。   At the start of operation, at operation 501, the server sets parameters for recognizing an object of an image to those for a store. At operation 502, the user captures an object that is a symbol of a predetermined store on the user terminal. In operation 503, an image of an object to be a symbol of the store photographed from the user terminal is transmitted to the server. At act 504, the server receives an image of an object that is a symbol of the store. At act 505, the server object recognizes the image received at act 504 and identifies the store from the object that is a symbol of the store. At act 506, the server sets the object recognition parameters to those targeted for the item. At operation 507, the server notifies the user terminal that the parameter has been set for the product. At act 508, the user shoots the item in the store. At act 509, the user sends the product image to the server. At act 510, the server receives an image of the item. In operation 511, the server performs object recognition on the image received in operation 5010 and identifies a product. If there are multiple candidates, the candidates are notified. At operation 512, the user confirms and notifies that the recognized product matches the photographed object. Here, if there is no product among the candidates, it may be requested to notify another candidate. In operation 513, the server associates and stores the image, information on the image registered in advance, and information on the photographer. Operations 508 to 513 may be performed repeatedly. Upon notifying that the user has left the store at operation 514, the server returns the parameters for recognizing the object to those intended for the store at operation 501.

上記は物体認識をサーバーで行う場合の動作の流れであるが、物体認識をユーザー端末で実施する場合は、動作501、505、506、511をユーザー端末で行う。このとき、動作503、504、507、509、510、512は不要である。   The above is the flow of operations when object recognition is performed by the server, but when object recognition is performed by the user terminal, operations 501, 505, 506, and 511 are performed by the user terminal. At this time, operations 503, 504, 507, 509, 510, and 512 are unnecessary.

また、ビーコン信号やGPS信号により店舗を特定する場合は、動作501、502、503、504、505の代わりに、ユーザー端末からビーコン信号のコードや、受信したGPS信号から計算した位置をサーバーが受信し、その値を基に店舗を特定する。   In addition, when specifying a store with a beacon signal or a GPS signal, the server receives the position calculated from the beacon signal code or the received GPS signal from the user terminal instead of the operations 501, 502, 503, 504, and 505. And identify the store based on the value.

図6は、本発明の実施例のサーバーの構成とデータの流れを示す図であって、601は画像受信装置、602は物体認識装置、603は物体確定装置、604は重み係数入れ替え装置、605は物体認識用重み係数保存装置、607は商品情報紐付け装置、608は商品情報保存装置、609は画像情報保存装置、611は画像入力部、612は画像認識部、613は結果出力部、621は候補表示装置、622は結果確定装置、623は店舗が確定したかどうかの分岐、631は店舗A向けの商品認識データベース用の重み係数保存部、632は店舗B向けの商品認識データベース用の重み係数保存部、633は店舗C向けの商品認識データベース用の重み係数保存部、634は店舗Z向けの商品認識データベース用の重み係数保存部、651は商品情報選択部、661は店舗A向けの商品情報保存部、662は店舗B向けの商品情報保存部、663は店舗C向けの商品情報保存部、664は店舗Z向けの商品情報保存部、671は画像情報AA保存部、672は画像情報ZZ保存部である。   FIG. 6 is a diagram showing the configuration of the server and the flow of data according to an embodiment of the present invention, wherein 601 is an image receiving device, 602 is an object recognition device, 603 is an object determination device, 604 is a weight coefficient replacement device, 605 Is a weight coefficient storage device for object recognition, 607 is a product information linking device, 608 is a product information storage device, 609 is an image information storage device, 611 is an image input unit, 612 is an image recognition unit, 613 is a result output unit, 621 Is a candidate display device, 622 is a result determination device, 623 is a branch as to whether the store has been determined, 631 is a weight coefficient storage unit for a product recognition database for store A, 632 is a weight for a product recognition database for store B Coefficient storage unit, 633 is a weighting coefficient storage unit for a product recognition database for store C, 634 is a weighting coefficient storage unit for a product recognition database for store Z, 651 is Product information selection unit, 661 is a product information storage unit for store A, 662 is a product information storage unit for store B, 663 is a product information storage unit for store C, 664 is a product information storage unit for store Z, 671 Is an image information AA storage unit, and 672 is an image information ZZ storage unit.

画像受信装置601はユーザー端末より撮影画像を受信し、物体認識装置602へ伝達する。物体認識装置602は認識結果を物体確定装置603に伝達する。店舗が確定していない状態では、物体認識装置602の物体認識の為の重み係数は店舗認識データベース用の重み係数であり、画像受信装置601から受け取った画像は店舗を認識するために用いられる。物体確定装置603は物体認識装置602の認識結果から店舗を特定し、重み係数入れ替え装置604に特定した店舗を通知する。重み係数入れ替え装置604は特定した店舗に相当する商品認識データベース用の重み係数を物体認識用の重み係数保存装置605から受け取り、物体認識装置画像認識装置602の重み係数を、店舗認識データベース用の重み係数から、商品認識データベース用の重み係数へ入れ替える。この状態で、画像受信装置601はユーザー端末より次の撮影画像を受信し、物体認識装置602へ伝達する。物体認識装置602は認識結果を物体確定装置603に伝達するが、店舗は確定しているので、その結果を商品情報紐付け装置607へ伝達する。商品情報紐付け装置607は特定された商品に関する情報を商品情報保存装置608から受け取り、さらに画像受信装置601から受け取った画像に関連付けて、画像情報保存装置609に保存する。この時、ユーザーに係る情報を同様に関連付けることもできる。   The image reception device 601 receives a photographed image from the user terminal and transmits it to the object recognition device 602. The object recognition device 602 transmits the recognition result to the object determination device 603. In the state where the store is not determined, the weight coefficient for object recognition of the object recognition device 602 is a weight coefficient for the store recognition database, and the image received from the image reception device 601 is used to recognize the store. The object determination device 603 identifies a store from the recognition result of the object recognition device 602, and notifies the weighting factor replacement device 604 of the identified store. The weighting factor replacing device 604 receives the weighting factor for the product recognition database corresponding to the specified store from the weighting factor storage device 605 for object recognition, and the weighting factor for the object recognition device image recognition device 602 for the store recognition database The coefficients are replaced with weighting coefficients for the product recognition database. In this state, the image reception device 601 receives the next captured image from the user terminal and transmits it to the object recognition device 602. The object recognition device 602 transmits the recognition result to the object determination device 603, but since the store is determined, the result is transmitted to the commodity information linking device 607. The product information linking device 607 receives information on the specified product from the product information storage device 608, and further stores the information in the image information storage device 609 in association with the image received from the image reception device 601. At this time, information related to the user can be similarly associated.

物体認識装置602は画像入力部611で画像を受け取ったのち、画像認識部612で画像の中からすでに登録されている物体の有無、またその物体が何であるかを検出し、認識する。この際、あらかじめ多くの画像データから例えばニューラルネットワーク等の技術を用いて機械的に学習し、その画像データの集合ごとに学習されたニューラルネットワーク等の重み係数を用いる。認識された物体は一致度の順番を付けて結果出力部613から出力する。   After receiving an image by the image input unit 611, the object recognition device 602 detects and recognizes the presence or absence of an object already registered in the image and what the object is from the image. At this time, a large number of image data are mechanically learned in advance using a technique such as a neural network, and a weighting factor such as a neural network learned for each set of image data is used. The recognized objects are output from the result output unit 613 with the order of the degree of coincidence.

物体確定装置603の候補表示装置621は物体認識装置602の結果出力部613から一致度の順番を付けた物体の認識結果を受け取り、一致度の高い順にユーザー端末に物体の候補として表示する指示を出す。結果確定装置622はユーザー端末からユーザーが物体の候補から選択した物体が何であるかを受け取り、その結果を物体として確定する。店舗が確定していない状態では、この物体が店舗を象徴する物体であるので、店舗が確定できる。この場合は特定された店舗を重み係数入れ替え装置604へ伝達する。店舗が確定している状態では、特定された物体は商品であり、特定された商品を商品情報紐付け装置607へ伝達する。   The candidate display device 621 of the object determination device 603 receives the recognition result of the object given the order of the coincidence from the result output unit 613 of the object recognition device 602, and instructs the user terminal to display the object as the object candidate in descending order of coincidence. put out. The result determination device 622 receives from the user terminal what object the user has selected from the object candidates, and determines the result as an object. In the state where the store is not determined, the store can be determined because this object is an object that symbolizes the store. In this case, the identified store is transmitted to the weight coefficient replacing device 604. In the state where the store is determined, the specified object is a product, and the specified product is transmitted to the product information linking device 607.

物体認識用重み係数保存装置605は店舗を認識するために用いられる店舗認識データベース用の重み係数保存部と、店舗ごとの商品を認識するための各店舗向商品認識データベース用重み係数保存部から成る。例えば店舗A向商品認識データベース用重み係数保存部631には、店舗Aにいることを前提として、撮影画像に写っている物体が何であるかを認識するためのパラメータであり、例えば店舗Bによく似た商品があっても、店舗Aでの商品であることが確定できる。同様に登録されている全店舗の商品を各店舗ごとに認識するための重み係数が保存されている。   The object recognition weight coefficient storage device 605 comprises a weight coefficient storage unit for a store recognition database used to recognize a store and a weight coefficient storage unit for each store oriented product recognition database for recognizing a product for each store. . For example, the weighting coefficient storage unit for item recognition database for store A is a parameter for recognizing what the object shown in the photographed image is on the premise that it is in the store A, for example, Even if there is a similar product, it can be determined that the product is at the store A. A weighting factor is stored for recognizing, for each store, the products of all stores registered in the same manner.

商品情報紐付け装置607は物体確定装置603で確定した商品と、あらかじめ商品情報保存装置608に保存されている商品の情報を紐づける。また、この時ユーザーの情報を紐づけることもできる。画像と、店舗名と、商品名と、商品情報と、ユーザー情報を紐づけた状態で、画像情報保存装置609に保存する。   The product information linking device 607 links the product confirmed by the object fixing device 603 with the information of the product stored in advance in the product information storage device 608. Also, at this time, user information can be linked. The image information storage device 609 stores the image, the store name, the product name, the product information, and the user information in a linked state.

QRコードを用いて店舗を特定する場合は、一般的なQRコードの認識装置にて店舗を確定した後、その店舗に応じた商品認識データベース用重み係数を用いればよい。   When a store is specified using a QR code, after a store is determined by a general QR code recognition device, a weighting factor for a product recognition database may be used according to the store.

また、ビーコン信号やGPS信号により店舗を特定する場合も、ユーザー端末からビーコン信号のコードや、受信したGPS信号から計算した位置を受けとり、その値を基に店舗を特定すればよい。   Also, in the case where a store is specified by a beacon signal or a GPS signal, the store may be specified based on the value obtained by receiving the code of the beacon signal from the user terminal or the position calculated from the received GPS signal.

店舗を確定するための物体は、可能な限り店舗に固有の物が好ましく、店舗名の記載された看板や、特徴的な外装、内装であれば一致度が高く、候補を限定しやすい。しかし、チェーン店のようによく似た看板、外装の場合には、ビーコン信号やGPS信号を組み合わせることで、一致度を高めることができる。   The object for determining the store is preferably as unique as possible to the store, and if it is a signboard with the store name described, a characteristic exterior or interior, the degree of coincidence is high and it is easy to limit the candidates. However, in the case of a similar signboard or exterior like a chain store, the degree of coincidence can be enhanced by combining beacon signals and GPS signals.

本実施例は以上のように構成されているので、例えば店舗Aの商品と店舗Bの商品が外見上非常に似ていても、店舗が異なることが認識できるため、それぞれの店舗の商品の情報を関連付けて記録できる。   Since the present embodiment is configured as described above, for example, even if the product of the store A and the product of the store B are very similar in appearance, it can be recognized that the stores are different. Can be associated and recorded.

ここでいう店舗ごとに異なる情報とは、例えば商品の値段、商品の名前、製作者の名前、販売者の名前、購入時の天候、サービス提供者の名前、商品の由来、商品の広告、店舗の広告、などである。   Here, the information that varies depending on the store includes, for example, the price of the product, the name of the product, the name of the producer, the name of the seller, the weather at the time of purchase, the name of the service provider, the origin of the product, the advertisement of the product, the store Advertising, etc.

本実施例では、店舗を用いて説明したが、他の施設でも同様な動作が可能である。神社仏閣では、撮影した木や石のように他にもよく似た物体の写真に、場所ならではの由来などの情報を紐づけることができる。また、アミューズメントパークであれば、1次物体認識でアミューズメントパークを認識し、2次物体認識でアトラクションを認識し、3次物体認識で風景や小道具を認識することもできる。   Although the present embodiment has been described using a store, the same operation is possible at other facilities. Shrines and temples can associate information such as the origin of a place with photographs of similar objects like trees and stones taken. In the case of an amusement park, it is possible to recognize an amusement park by primary object recognition, recognize an attraction by secondary object recognition, and recognize landscapes and props by tertiary object recognition.

本実施例で示したように、最終的に画像情報保存装置609に保存された情報は、画像と、店舗名と、商品名と、商品情報と、ユーザー情報が紐づいているため、そのどれかを検索すれば、関連情報として他の情報を参照することが可能であり、その関連情報から新たに検索することで、更に他の情報を得ることができる。   As described in the present embodiment, the information finally stored in the image information storage device 609 includes the image, the store name, the product name, the product information, and the user information. If it is searched, it is possible to refer to other information as related information, and further new information can be obtained by newly searching from the related information.

画像に写った物体を認識する装置において、撮影した場所の情報を加えることで、認識精度を向上させ、他の場所にあるよく似た物体との誤認識を減らすとともに、その場所固有の情報を認識結果に加えることを可能とした。これにより、撮影した画像を閲覧した際に、撮影した本人も知らなかった画像に関係する情報を知ることができる。また、それをソーシャルネットワーク等に公開することで、第三者が画像を閲覧し、同様に新しい情報を知ることができる。このように撮影した人の好奇心を用いて撮影を促すことで、店舗に多くの人が来る効果が期待できる。また、画像と、店舗名と、商品名と、商品情報と、ユーザー情報が関連付けられた情報は、店舗の販売計画の改善等に役立てることが可能であり、情報自体が大きな価値をもつ。   In the device that recognizes an object captured in an image, information on the location where the image was taken is added to improve the recognition accuracy, reduce misrecognition with similar objects in other locations, and reduce information specific to that location. It was possible to add to the recognition result. Thus, when the photographed image is browsed, it is possible to know information related to the image that the photographed person did not know. Also, by publishing it on a social network etc., a third party can view the image and similarly get new information. By promoting the photographing using the curiosity of the person thus photographed, it is possible to expect an effect that many people come to the store. Further, the information associated with the image, the store name, the product name, the product information, and the user information can be used to improve the sales plan of the store, and the information itself has great value.

本発明は、画像に写った物体を認識する装置において、撮影した場所の情報を加えることで、認識精度を向上させ、他の場所にあるよく似た物体との誤認識を減らすとともに、その場所固有の情報を認識結果に加えることを可能とする。   The present invention is an apparatus for recognizing an object captured in an image, which adds information on a photographed place to improve recognition accuracy and reduce false recognition with similar objects in other places, as well as the place It is possible to add unique information to the recognition result.

101 ユーザー
102 店舗
103 カメラ付き情報端末

201 カメラ付き情報端末
202 カメラ付き情報端末に映る店舗
203 画像情報を示すマーク
204 1次物体の第1の認識候補
205 1次物体の第2の認識候補
210 ユーザーが選択するための指

301 ユーザー
310 テーブル
311 2次物体である商品
320 カメラ付き情報端末
330 サーバー
340 商品311を含む画像データ
350 店舗のコンピュータ
351 店舗内の商品に関する情報

401 カメラ付き情報端末
402 認識対象の商品
403 認識対象でない別の商品
404 画像情報を示すマーク
410 2次物体の第1の認識候補
411 2次物体の第2の認識候補
420 ユーザーが選択するための指

501 サーバー側の動作
502 ユーザー端末の動作
503 ユーザー端末の動作
504 サーバー側の動作
505 サーバー側の動作
506 サーバー側の動作
507 サーバー側の動作
508 ユーザー端末の動作
509 ユーザー端末の動作
510 サーバー側の動作
511 サーバー側の動作
512 ユーザー端末の動作
513 サーバー側の動作

601 画像受信装置
602 物体認識装置
603 物体確定装置
604 重み係数入れ替え装置
605 物体認識用重み係数保存装置
607 商品情報紐付け装置
608 商品情報保存装置
609 画像情報保存装置
611 画像入力部
612 画像認識部
613 結果出力部
621 候補表示装置
622 結果確定装置
623 店舗が確定したかどうかの分岐
631 店舗A向けの商品認識データベース用の重み係数保存部
632 店舗B向けの商品認識データベース用の重み係数保存部
633 店舗C向けの商品認識データベース用の重み係数保存部
634 店舗Z向けの商品認識データベース用の重み係数保存部
651 商品情報選択部
661 店舗A向けの商品情報保存部
662 店舗B向けの商品情報保存部
663 店舗C向けの商品情報保存部
664 店舗Z向けの商品情報保存部
671 画像情報AA保存部
672 画像情報ZZ保存部
101 users 102 stores 103 information terminals with cameras

201 camera-equipped information terminal 202 store 203 shown on camera-equipped information terminal mark 204 indicating image information 204 first recognition candidate for primary object 205 first recognition candidate for primary object 210 finger for user selection

301 user 310 table 311 secondary object product 320 information terminal with camera 330 server 340 image data including product 311 computer of store 351 information about product in store

401 A camera-equipped information terminal 402 A product 403 to be recognized Another product 404 not to be recognized A mark 410 indicating image information 410 A first recognition candidate for a secondary object 411 A second recognition candidate for a secondary object 420 For the user to select finger

501 server side operation 502 user terminal operation 503 user terminal operation 504 server side operation 505 server side operation 506 server side operation 507 server side operation 508 user terminal operation 509 user terminal operation 510 server side operation 511 Server side operation 512 User terminal operation 513 Server side operation

601 image reception device 602 object recognition device 603 object determination device 604 weight coefficient replacing device 605 weight coefficient storage device for object recognition 607 product information linking device 608 product information storage device 609 image information storage device 611 image input unit 612 image recognition unit 613 Result output unit 621 Candidate display device 622 Result confirmation device 623 Branch whether or not the store has been decided 631 Weight coefficient storage unit for product recognition database for store A 632 Weight coefficient storage unit for product recognition database for store B Weight coefficient storage unit 634 for product recognition database for C Weight coefficient storage unit 651 for product recognition database for store Z Product information selection unit 661 Product information storage unit 662 for store A Product information storage unit 663 for store B Product information storage unit 664 for store C Product information for store Z Information storage unit 671 Image information AA storage unit 672 Image information ZZ storage unit

Claims (6)

事前に学習したパラメータを用いて画像内の物体を認識する手段と、あらかじめ登録した場所から画像を撮影した場所を特定するための第一の物体を認識するための第一のパラメータセットを記録する手段と、登録された各々の場所の範囲にある第二の物体を認識するための第二のパラメータセットを記録する手段と、少なくとも一回以上、前記第一のパラメータセットでの物体の認識を行い、その結果で場所を特定したのち、前記第二のパラメータセットの中から、特定された場所に所属する第二の物体を認識するためのパラメータセットを選択し、前記第一のパラメータセットと入れ替える手段から成る、物体認識装置。   Means for recognizing an object in an image using parameters learned in advance, and a first set of parameters for recognizing a first object for identifying a place where an image was taken from a location registered in advance are recorded Means, means for recording a second set of parameters for recognizing a second object in the range of each registered location, and recognition of an object with said first set of parameters at least once or more After the location is identified by the result, a parameter set for recognizing a second object belonging to the identified location is selected from the second parameter set, and the first parameter set is selected. Object recognition device comprising means to replace. 事前に学習したパラメータを用いて画像内の物体を認識する手段と、画像撮影時に受信したビーコン信号の符号を記録する手段と、前記の記録した符号により、あらかじめ登録した場所から画像を撮影した場所を特定するための手段と、登録された場所の範囲にある物体を認識するためのパラメータセットを記録する手段と、前記ビーコン信号により場所を特定するための手段で場所が特定されたのち、前記パラメータセットの中から、特定された場所に所属する物体を認識するためのパラメータセットを選択する手段から成る、物体認識装置。   A means for recognizing an object in an image using parameters learned in advance, a means for recording a code of a beacon signal received at the time of image taking, and a place where an image was taken from a place registered in advance by the recorded code. After the location is identified by the means for identifying the object, the means for recording the parameter set for recognizing the object within the range of the registered place, and the means for identifying the place by the beacon signal, An object recognition apparatus comprising means for selecting a parameter set for recognizing an object belonging to a specified place from among a parameter set. 事前に学習したパラメータを用いて画像内の物体を認識する手段と、画像撮影時に受信した測位信号の符号を記録する手段と、前記の記録した符号により、あらかじめ登録した場所から画像を撮影した場所を特定するための手段と、登録された場所の範囲にある物体を認識するためのパラメータセットを記録する手段と、前記ビーコン信号により場所を特定するための手段で場所が特定されたのち、前記パラメータセットの中から、特定された場所に所属する物体を認識するためのパラメータセットを選択する手段から成る、物体認識装置。   A means for recognizing an object in an image using parameters learned in advance, a means for recording a code of a positioning signal received at the time of image taking, and a place where an image was taken from a place registered in advance by the recorded code. After the location is identified by the means for identifying the object, the means for recording the parameter set for recognizing the object within the range of the registered place, and the means for identifying the place by the beacon signal, An object recognition apparatus comprising means for selecting a parameter set for recognizing an object belonging to a specified place from among a parameter set. 事前に学習したパラメータを用いて画像内の物体を認識する手段と、画像撮影時に受信した測位信号の符号を記録する手段と、前記の記録した符号により、あらかじめ登録した場所から画像を撮影した場所を特定するための手段と、あらかじめ登録した場所から画像を撮影した場所を特定するための第一の物体を認識するための第一のパラメータセットを記録する手段と、登録された各々の場所の範囲にある第二の物体を認識するための第二のパラメータセットを記録する手段と、前記の測位信号から特定したある範囲にある、あらかじめ登録した場所に係る前記第一のパラメータセットでの物体の認識を行い、その結果で場所を特定したのち、前記第二のパラメータセットの中から、特定された場所に所属する第二の物体を認識するためのパラメータセットを選択し、前記第一のパラメータセットと入れ替える手段から成る、物体認識装置。   A means for recognizing an object in an image using parameters learned in advance, a means for recording a code of a positioning signal received at the time of image taking, and a place where an image was taken from a place registered in advance by the recorded code. A means for identifying the first set of parameters for identifying the first object for identifying the place where the image was taken from the place registered in advance; A means for recording a second set of parameters for recognizing a second object in range, and an object at said first set of parameters associated with a pre-registered location in a range identified from said positioning signal To identify the second object belonging to the specified place from the second parameter set after the recognition of the Select La meter set consists of means for replacing said first parameter set, the object recognition device. 記録された画像内で認識された物体に係り、かつ撮影された場所ごとに異なる情報を、画像に紐付けて保存する手段をもつ、請求項1あるいは請求項2あるいは請求項3あるいは請求項4の物体認識装置。   A method according to claim 1 or claim 2 or claim 3 or claim 4 having means for storing information associated with an object recognized in a recorded image and different information for each photographed place in the image. Object recognition device. 記録された画像内で認識された物体に係り、かつ撮影された場所ごとに異なる情報に、時間によって異なる情報を追加する手段を有する請求項5の物体認識装置。
6. The object recognition apparatus according to claim 5, further comprising means for adding information that varies with time to information that is associated with the recognized object in the recorded image and that is different for each photographed location.
JP2017195570A 2017-10-06 2017-10-06 Object recognition device for recognizing place and object by two steps Pending JP2019070887A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017195570A JP2019070887A (en) 2017-10-06 2017-10-06 Object recognition device for recognizing place and object by two steps

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017195570A JP2019070887A (en) 2017-10-06 2017-10-06 Object recognition device for recognizing place and object by two steps

Publications (2)

Publication Number Publication Date
JP2019070887A true JP2019070887A (en) 2019-05-09
JP2019070887A5 JP2019070887A5 (en) 2021-10-21

Family

ID=66440674

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017195570A Pending JP2019070887A (en) 2017-10-06 2017-10-06 Object recognition device for recognizing place and object by two steps

Country Status (1)

Country Link
JP (1) JP2019070887A (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003308331A (en) * 2002-04-16 2003-10-31 Ntt Data Corp Device for providing information, and program
JP2009020014A (en) * 2007-07-12 2009-01-29 Toyota Motor Corp Self-location estimation device
JP2011242861A (en) * 2010-05-14 2011-12-01 Ntt Docomo Inc Object recognition device, object recognition system and object recognition method
JP2013098588A (en) * 2011-10-27 2013-05-20 Canon Inc Image processor and image processing method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003308331A (en) * 2002-04-16 2003-10-31 Ntt Data Corp Device for providing information, and program
JP2009020014A (en) * 2007-07-12 2009-01-29 Toyota Motor Corp Self-location estimation device
JP2011242861A (en) * 2010-05-14 2011-12-01 Ntt Docomo Inc Object recognition device, object recognition system and object recognition method
JP2013098588A (en) * 2011-10-27 2013-05-20 Canon Inc Image processor and image processing method

Similar Documents

Publication Publication Date Title
US11615136B2 (en) System and method of identifying visual objects
JP7302638B2 (en) mobile information equipment
CN104504155B (en) A kind of data capture method and system based on picture search
JP2005038103A (en) Guide device, guide system and guide method
JP2013167973A (en) Retrieval device, retrieval method, retrieval program, and recording medium for storing the program
CN104504402A (en) Data processing method and system based on image search
CN109242473A (en) A kind of method of payment, device and electronic equipment
JP2010230813A (en) Information providing device, information providing method, and program
JP2017033157A (en) Commodity information provision system, commodity information provision method, terminal, application program, and management server
CN106980612A (en) Information recommendation system and method
US9854132B2 (en) Image processing apparatus, data registration method, and data registration program
CN107169691A (en) system and method for information processing
JP2019070887A (en) Object recognition device for recognizing place and object by two steps
US9064020B2 (en) Information providing device, information providing processing program, recording medium having information providing processing program recorded thereon, and information providing method
US11741520B2 (en) Methods and systems for providing crowd information and repeat information related to an establishment using digital image information
CN108984638B (en) Photo naming processing method
CN111079727A (en) Point reading control method and electronic equipment
KR102278680B1 (en) System, method, and computer readable medium for providing photography pose
JP5429875B2 (en) Information display device, information display system, and program
KR102168635B1 (en) Apparatus and method for posting information
JP2014021771A (en) Evaluation system, and program
CN108270859A (en) Information processing method and its device based on LiFi

Legal Events

Date Code Title Description
A917 Reason for reinstatement of right to file examination request

Free format text: JAPANESE INTERMEDIATE CODE: A917

Effective date: 20201206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201228

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210711

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211130

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220128

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220614