JP2019070887A - Object recognition device for recognizing place and object by two steps - Google Patents
Object recognition device for recognizing place and object by two steps Download PDFInfo
- Publication number
- JP2019070887A JP2019070887A JP2017195570A JP2017195570A JP2019070887A JP 2019070887 A JP2019070887 A JP 2019070887A JP 2017195570 A JP2017195570 A JP 2017195570A JP 2017195570 A JP2017195570 A JP 2017195570A JP 2019070887 A JP2019070887 A JP 2019070887A
- Authority
- JP
- Japan
- Prior art keywords
- image
- place
- information
- store
- recognizing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、画像に写った物体を認識する装置において、撮影した場所の情報を加えることで、認識精度を向上させ、他の場所にあるよく似た物体との誤認識を減らすとともに、その場所固有の情報を認識結果に加えることを可能とする物体認識装置である。 The present invention is an apparatus for recognizing an object captured in an image, which adds information on a photographed place to improve recognition accuracy and reduce false recognition with similar objects in other places, as well as the place It is an object recognition device that makes it possible to add unique information to the recognition result.
大量のデジタル画像をコンピュータで機械学習を行い、その学習結果を用いて、画像に写った物体を認識する装置により、スマートホン等で撮影した画像が何であるかを表示することが可能となった。 It became possible to perform machine learning of a large number of digital images with a computer and use the learning results to display what an image taken with a smartphone etc. is by a device that recognizes an object shown in the image. .
しかし、認識すべき物体が多くなると、よく似た物体が増大し、その識別精度は低下する。また、同じような画像であっても、場所によって異なる呼称が用いられている場合はどの呼称を用いるべきか判別できない。 However, as the number of objects to be recognized increases, similar objects increase, and the identification accuracy decreases. Further, even if similar images are used, it is not possible to determine which designation should be used if different designations are used depending on places.
これに対して、写真を公開するソーシャルネットワークを利用するユーザーが増大し、例えばどのレストランで提供された料理であるかなどと言った場所と物体の両方の情報が求められる機会が増えている。 On the other hand, the number of users using social networks that publish photos is increasing, and there is an increasing opportunity to request information on both places and objects, such as, for example, which restaurant the food is served.
大量のデジタル画像をコンピュータで機械学習を行い、その学習結果を用いて、画像に写った物体を認識する装置により、スマートホン等で撮影した画像が何であるかを表示する際に、場所によって異なる呼称が用いられている場合でも適切な呼称を用いて表示することで、物体のより詳細な情報が得られる。 The machine learning of a large number of digital images by a computer and using the learning results, it is different depending on the place when displaying what is the image taken with a smart phone etc. Even when a name is used, displaying it using an appropriate name can provide more detailed information on the object.
しかし、画像の情報からだけではよく似た物体がどこで撮影されたかを知るのは困難である。 However, it is difficult to know where the similar object was shot from the image information alone.
特許文献1の技術を用いれば、撮影された画像から複数の物体を認識し、その中で場所に係る物体があれば撮影された場所を特定することが可能であり、同時に写っている物体の認識過程に場所に係る情報を反映することができる。
By using the technology of
しかし、必ずしも場所に係る物体が写されているとは限らない。また認識の過程においてはすべての対象物体から認識する必要があり、効率がわるい。 However, an object relating to a place is not necessarily photographed. Moreover, in the process of recognition, it is necessary to recognize from all target objects, and the efficiency is low.
本発明は、スマートホン等で撮影した画像が何であるかを表示する際に、場所によって異なる呼称が用いられている場合でも適切な呼称を用いて表示することを可能にすることを目的としている。 An object of the present invention is to make it possible to display an image taken with a smartphone or the like by using an appropriate name even when a name different from one place to another is used. .
上記目的のため、本発明は、撮影された場所を限定するために、認識する物体の対象を1次物体と2次物体に分類し、1次物体は場所を限定するために使用し、その場所の情報を用いて2次物体の認識率を高め、更には場所に固有の名称を表示する手段等を持つことを特徴とする。 To this end, the invention classifies the objects of the objects to be recognized into primary objects and secondary objects in order to limit the places taken, the primary objects being used to limit the places, It is characterized in that the information on the place is used to increase the recognition rate of the secondary object, and further, it has means for displaying a name unique to the place.
また、本発明は、上記2次物体を認識する際に、一致度の高い複数の候補に対して、1次物体で認識した場所に関連する候補を選択させることで、画像に写った物体の認識率を高くする手段を有する。 Further, according to the present invention, when the secondary object is recognized, a candidate related to a place recognized by the primary object is selected with respect to a plurality of candidates having a high degree of coincidence, whereby the object shown in the image is displayed. It has means for increasing the recognition rate.
更に、本発明は、上記1次物体で認識した場所の範囲にある物体を機械学習した結果を用いて2次物体を認識することで、画像に写った物体の認識率を高くする手段を有する。 Furthermore, the present invention has a means for increasing the recognition rate of an object shown in an image by recognizing a secondary object using the result of machine learning of an object within the range of the location recognized by the primary object. .
あるいは、本発明は、特定の場所に設置したQRコード(QRコードは特定の番号を画像化したもので、株式会社デンソーウェーブの登録商標)を読み込むことで、場所を特定することを特徴とする。 Alternatively, the present invention is characterized in that the location is specified by reading a QR code (a QR code is an image of a specific number, which is a registered trademark of Denso Wave Inc.) installed at a specific location. .
あるいは、本発明は、特定の場所に設置したビーコン信号発信器の発信するビーコンIDを受信することで、場所を特定することを特徴とする。 Alternatively, the present invention is characterized by specifying a place by receiving a beacon ID transmitted by a beacon signal transmitter installed at a specific place.
あるいは、本発明は、GPS衛星の信号を受信し、その緯度と経度の情報で、場所を認識することを特徴とする。 Alternatively, the present invention is characterized in that a GPS satellite signal is received, and the location is recognized by the information of its latitude and longitude.
あるいは、本発明は、GPS衛星の信号を受信し、その緯度と経度の情報で、場所を認識する際に、その緯度と経度の近傍の複数の位置に紐づいた機械学習の学習結果に対して、先のGPS衛星の信号を受信して得られた位置との距離に応じて物体の認識結果に重みづけをした後、1つ以上の認識結果を表示することを特徴とする。 Alternatively, according to the present invention, when receiving a GPS satellite signal and using information on its latitude and longitude to recognize a place, the learning result of machine learning associated with a plurality of positions near the latitude and longitude is obtained. One or more recognition results are displayed after weighting the recognition results of the object in accordance with the distance to the position obtained by receiving the signal of the previous GPS satellite.
本発明は、上記のように撮影された場所を限定するために、認識する物体の対象を1次物体と2次物体に分類し、1次物体は場所を限定するために使用し、その場所の情報を用いて2次物体の認識率を高めているため、スマートホン等で撮影した画像が何であるかを表示する際に、場所によって異なる呼称が用いられている場合でも適切な呼称を用いて表示することができる。 The present invention classifies the objects of the object to be recognized into primary objects and secondary objects in order to limit the locations taken as described above, the primary objects being used to define the location, which locations Because the recognition rate of secondary objects is increased using information from the above, when displaying what is the image taken with a smart phone etc., even when different names are used depending on the location, use appropriate names Can be displayed.
また、上記2次物体を認識する際に、適合度の高い複数の候補に対して、1次物体で認識した場所に関連する候補を選択させることで、画像に写った物体の認識率を高くすることもできる。 In addition, when the secondary object is recognized, the recognition rate of the object shown in the image is increased by selecting candidates related to the place recognized by the primary object with respect to a plurality of candidates with high matching degrees. You can also
また、上記1次物体を撮影して場所を特定する代わりに、特定の場所に設置したQRコード(QRコードは特定の番号を画像化したもので、株式会社デンソーウェーブの登録商標)を読み込むこと、特定の場所に設置したビーコン信号発信器の発信するビーコンIDを受信すること、GPS衛星の信号を受信し、その緯度と経度の情報を得る等の方法を用いることで場所を認識することができる。 Also, instead of capturing the primary object and specifying the location, read the QR code (QR code is an image of a specific number, a registered trademark of Denso Wave Inc.) installed at a specific location. To receive a beacon ID transmitted from a beacon signal transmitter installed at a specific location, to receive GPS satellite signals, and to recognize the location by using information such as latitude and longitude it can.
あるいは、上記1次物体を撮影して場所を特定する代わりに、GPS衛星の信号を受信し、その緯度と経度の情報で、場所を認識する際に、その緯度と経度の近傍の複数の位置に紐づいた機械学習の学習結果に対して、先のGPS衛星の信号を受信して得られた位置の近傍にある複数の場所に係る物体の認識結果を表示することができる。 Alternatively, instead of capturing the primary object and specifying the location, a GPS satellite signal is received, and when the location is recognized using the latitude and longitude information, a plurality of positions near the latitude and longitude With respect to the learning result of machine learning linked to, it is possible to display the recognition results of objects related to a plurality of places in the vicinity of the position obtained by receiving the signal of the previous GPS satellite.
あるいは、上記1次物体を撮影して場所を特定する代わりに、GPS衛星の信号を受信し、その緯度と経度の情報で、場所を認識する際に、その緯度と経度の近傍の複数の位置に紐づいた機械学習の学習結果に対して、先のGPS衛星の信号を受信して得られた位置との距離に応じて物体の認識結果に重みづけをした後、1つ以上の認識結果を表示することができる。 Alternatively, instead of capturing the primary object and specifying the location, a GPS satellite signal is received, and when the location is recognized using the latitude and longitude information, a plurality of positions near the latitude and longitude After weighting the recognition result of the object according to the distance to the position obtained by receiving the signal of the previous GPS satellite with respect to the learning result of machine learning linked to the one or more recognition results Can be displayed.
本発明のシステムを用いて、スマートホン等で撮影した画像が何であるかを表示する際に、場所によって異なる呼称が用いられている場合でも適切な呼称を用いて表示することを可能にすることができるという利点がある。 When displaying what is an image taken with a smartphone or the like by using the system of the present invention, it is possible to display using an appropriate name even when a different name is used depending on the place. Has the advantage of being able to
また、場所によって異なる呼称が用いられている場合でも適切な呼称がわかるため、特定の店舗の、特定の商品と画像を関連付けられ、それによって画像には、特定の店舗の特定の商品の情報を紐づけることができるという利点がある。 Also, even if different names are used depending on the location, an image can be associated with a specific product of a specific store, because an appropriate name can be known, whereby the image has information on a specific product of a specific store. There is an advantage that it can be linked.
スマートホン等で撮影した画像が何であるかを表示する際に、認識する物体の対象を1次物体と2次物体に分類し、1次物体は場所を限定するために使用し、その場所の情報を用いて2次物体の認識率を高め、場所によって異なる呼称が用いられている場合でも適切な呼称を用いて表示することを可能とした。 When displaying what an image taken with a smart phone or the like is, the object of the object to be recognized is classified into a primary object and a secondary object, and the primary object is used to limit the location. The information was used to increase the recognition rate of secondary objects, and even when different names were used depending on the location, it was possible to display using appropriate names.
実施例は、店舗を利用するユーザーを想定して記載するが、店舗以外の施設においても同様な効果が得られる。また、商品として具体的な物体である必要はなく、場所で提供されるサービスのような行為や、場所の説明のような文章でもよい。 Although an example is described supposing the user who uses a store, the same effect is acquired also in facilities other than a store. Moreover, it is not necessary for the product to be a specific object, but may be an act such as a service provided at a place, or a sentence such as an explanation of a place.
図1は、本発明の実施例の1次物体撮影の概略図であって、101はユーザー、102は店舗、103はカメラ付き情報端末である。 FIG. 1 is a schematic view of primary object imaging according to an embodiment of the present invention, wherein 101 is a user, 102 is a store, and 103 is an information terminal with a camera.
ユーザー101は、店舗102をカメラ付き情報端末103で撮影することで、あらかじめ1次物体として登録している店舗102を認識する。
The
図2は、本発明の実施例の1次物体認識の概略図であって、201はカメラ付き情報端末、202はカメラ付き情報端末に映る店舗、203は店舗202の画像の中で1次物体を認識するための画像情報を示すマーク、204は1次物体の第1の認識候補、205は1次物体の第2の認識候補、210は第1の候補204と第2の候補205から、ユーザーが選択するための指である。
FIG. 2 is a schematic view of primary object recognition according to an embodiment of the present invention, wherein 201 is a camera-equipped information terminal, 202 is a store reflected in the camera-equipped information terminal, 203 is a primary object in the image of the
カメラ付き情報端末201に映っている店舗202の画像の中に、1次物体を認識するための画像情報がある場合、1次物体を認識するための画像情報を示すマーク203が表示されると同時に、認識された1次物体の候補が表示される。候補が絞り切れず、複数ある場合は、画面の下側に第1候補204と、第2候補205が表示され、ユーザーがどちらかを判断して確定する。
When there is image information for recognizing a primary object in the image of the
画像情報を示すマーク203が表示されない場合は、画像の中に店舗を認識するための1次物体がないことを示しているため、ユーザーは他の部分を撮影することになるが、一般的には何が店舗を認識するための1次物体であるかはあらかじめわかっているため、ユーザーが困ることはない。
When the
1次物体を認識するための画像情報としてQRコード等の幾何学図形を用いる場合も、同様に撮影することで同じ効果が得られる。 Also in the case of using a geometric figure such as a QR code as image information for recognizing a primary object, the same effect can be obtained by photographing similarly.
ビーコン信号を受信することで店舗を認識する場合には、カメラ付き情報端末201で撮影する必要はなく、カメラ付き情報端末201が受信したビーコン信号のコードに応じて、あらかじめ登録されている店舗の画像等の店舗を示す画像と、1次物体の候補が表示され、自動的に確定するか、あるいはユーザーが判断して確定する。複数の信号を受信して、候補が複数ある場合には複数の候補が表示され、ユーザーが判断して確定する。
In the case of recognizing a store by receiving a beacon signal, it is not necessary to take a picture with the camera-equipped
GPS信号を受信することで店舗を認識する場合も同様であり、カメラ付き情報端末201で撮影する必要はなく、カメラ付き情報端末201が受信したGPS信号から計算した位置に応じて、あらかじめ登録されている店舗の画像等の店舗を示す画像と、1次物体の候補が表示され、自動的に確定するか、あるいはユーザーが判断して確定する。GPS信号から計算した位置の近くに、複数の候補がある場合にはそれらの候補が表示され、ユーザーが判断して確定する。
The same applies to the case of recognizing a store by receiving a GPS signal, and it is not necessary to take a picture with the camera-equipped
図3は、本発明の実施例の2次物体撮影の概略図であって、301はユーザー、310はテーブル、311は2次物体である商品、320はカメラ付き情報端末、330はサーバー、340はカメラ付き情報端末320で撮影された商品311を含む画像データ、350は店舗のコンピュータ、351は店舗内の商品に関する情報である。
FIG. 3 is a schematic diagram of secondary object imaging according to an embodiment of the present invention, wherein 301 is a user, 310 is a table, 311 is a commodity which is a secondary object, 320 is a camera information terminal, 330 is a server, 340 Is image data including the
ユーザー301がカメラ付き情報端末320で商品311を撮影し、カメラ付き情報端末320に具備した無線回線を介して、画像データ340をサーバー330に伝送する。サーバー330は、撮影された場所に応じた物体認識のためのパラメータを用いて2次物体である商品311が何であるかを認識し、あらかじめ店舗のコンピュータ350から店舗内の商品に関する情報351から商品311に関する情報を画像データ340に結び付けて保存する。
The
図4は、本発明の実施例の2次物体認識の概略図であって、401はカメラ付き情報端末、402はカメラ付き情報端末に映る認識対象の商品、403はカメラ付き情報端末に映る認識対象でない別の商品、404は画像の中で2次物体を認識するための画像情報を示すマーク、410は2次物体の第1の認識候補、411は2次物体の第2の認識候補、420は第1の候補410と第2の候補411から、ユーザーが選択するための指である。
FIG. 4 is a schematic view of secondary object recognition according to an embodiment of the present invention, in which 401 is a camera-equipped information terminal, 402 is a product to be recognized that is displayed on the camera-equipped information terminal, and 403 is displayed on the camera-equipped information terminal Another item which is not the object, 404 is a mark indicating image information for recognizing a secondary object in the image, 410 is a first recognition candidate of the secondary object, 411 is a second recognition candidate of the secondary object,
カメラ付き情報端末401に映っている画像の中に、2次物体を認識するための画像情報がある場合、2次物体を認識するための画像情報を示すマーク404が表示され、認識された2次物体の候補が表示される。候補が絞り切れず、複数ある場合は、画面の下側に第1候補410と、第2候補411が表示され、ユーザーがどちらかを判断して確定する。また、認識対象でない別の商品403には2次物体を認識するための画像情報を示すマーク404は表示されない。
If the image shown on the camera-equipped
図5は、本発明の実施例の動作の流れを示す図であって、501、504、505、506、507、510、511、513はサーバー側の動作、502、503、508、509、512はユーザー端末の動作である。 FIG. 5 is a diagram showing the flow of the operation of the embodiment of the present invention, wherein 501, 504, 505, 506, 507, 510, 511, 513 are server-side operations, 502, 503, 508, 509, 512. Is the operation of the user terminal.
動作開始にあたって、動作501でサーバーは画像の物体を認識するためのパラメータを店舗を対象とするものに設定する。動作502でユーザーはユーザー端末であらかじめ決められている店舗の象徴となる対象を撮影する。動作503でユーザー端末から撮影した店舗の象徴となる対象となる物体の画像をサーバーに送信する。動作504でサーバーは店舗の象徴となる対象となる物体の画像を受信する。動作505でサーバーは動作504で受信した画像を物体認識し、店舗の象徴である物体から店舗を特定する。動作506でサーバーは物体認識の為のパラメータを商品を対象とするものに設定する。動作507でサーバーはパラメータを商品を対象とするものに設定したことをユーザー端末に通知する。動作508でユーザーは店舗内で商品を撮影する。動作509でユーザーは商品の画像をサーバーに送信する。動作510でサーバーは商品の画像を受信する。動作511でサーバーは動作5010で受信した画像を物体認識し、商品を特定する。複数の候補がある場合にはそれらの候補を通知する。動作512でユーザーは認識された商品と撮影された対象が一致していることを確認し、通知する。ここで、候補の中に商品がない場合は、さらに別の候補を通知するように要求することもできる。動作513でサーバーは画像と、あらかじめ登録されている画像に関する情報、撮影者の情報を関連付けて保存する。動作508から動作513は繰り返して実施してよい。動作514でユーザーは店舗から出たことを通知すると、動作501によりサーバーは物体を認識するためのパラメータを店舗を対象とするものに戻す。
At the start of operation, at
上記は物体認識をサーバーで行う場合の動作の流れであるが、物体認識をユーザー端末で実施する場合は、動作501、505、506、511をユーザー端末で行う。このとき、動作503、504、507、509、510、512は不要である。
The above is the flow of operations when object recognition is performed by the server, but when object recognition is performed by the user terminal,
また、ビーコン信号やGPS信号により店舗を特定する場合は、動作501、502、503、504、505の代わりに、ユーザー端末からビーコン信号のコードや、受信したGPS信号から計算した位置をサーバーが受信し、その値を基に店舗を特定する。
In addition, when specifying a store with a beacon signal or a GPS signal, the server receives the position calculated from the beacon signal code or the received GPS signal from the user terminal instead of the
図6は、本発明の実施例のサーバーの構成とデータの流れを示す図であって、601は画像受信装置、602は物体認識装置、603は物体確定装置、604は重み係数入れ替え装置、605は物体認識用重み係数保存装置、607は商品情報紐付け装置、608は商品情報保存装置、609は画像情報保存装置、611は画像入力部、612は画像認識部、613は結果出力部、621は候補表示装置、622は結果確定装置、623は店舗が確定したかどうかの分岐、631は店舗A向けの商品認識データベース用の重み係数保存部、632は店舗B向けの商品認識データベース用の重み係数保存部、633は店舗C向けの商品認識データベース用の重み係数保存部、634は店舗Z向けの商品認識データベース用の重み係数保存部、651は商品情報選択部、661は店舗A向けの商品情報保存部、662は店舗B向けの商品情報保存部、663は店舗C向けの商品情報保存部、664は店舗Z向けの商品情報保存部、671は画像情報AA保存部、672は画像情報ZZ保存部である。 FIG. 6 is a diagram showing the configuration of the server and the flow of data according to an embodiment of the present invention, wherein 601 is an image receiving device, 602 is an object recognition device, 603 is an object determination device, 604 is a weight coefficient replacement device, 605 Is a weight coefficient storage device for object recognition, 607 is a product information linking device, 608 is a product information storage device, 609 is an image information storage device, 611 is an image input unit, 612 is an image recognition unit, 613 is a result output unit, 621 Is a candidate display device, 622 is a result determination device, 623 is a branch as to whether the store has been determined, 631 is a weight coefficient storage unit for a product recognition database for store A, 632 is a weight for a product recognition database for store B Coefficient storage unit, 633 is a weighting coefficient storage unit for a product recognition database for store C, 634 is a weighting coefficient storage unit for a product recognition database for store Z, 651 is Product information selection unit, 661 is a product information storage unit for store A, 662 is a product information storage unit for store B, 663 is a product information storage unit for store C, 664 is a product information storage unit for store Z, 671 Is an image information AA storage unit, and 672 is an image information ZZ storage unit.
画像受信装置601はユーザー端末より撮影画像を受信し、物体認識装置602へ伝達する。物体認識装置602は認識結果を物体確定装置603に伝達する。店舗が確定していない状態では、物体認識装置602の物体認識の為の重み係数は店舗認識データベース用の重み係数であり、画像受信装置601から受け取った画像は店舗を認識するために用いられる。物体確定装置603は物体認識装置602の認識結果から店舗を特定し、重み係数入れ替え装置604に特定した店舗を通知する。重み係数入れ替え装置604は特定した店舗に相当する商品認識データベース用の重み係数を物体認識用の重み係数保存装置605から受け取り、物体認識装置画像認識装置602の重み係数を、店舗認識データベース用の重み係数から、商品認識データベース用の重み係数へ入れ替える。この状態で、画像受信装置601はユーザー端末より次の撮影画像を受信し、物体認識装置602へ伝達する。物体認識装置602は認識結果を物体確定装置603に伝達するが、店舗は確定しているので、その結果を商品情報紐付け装置607へ伝達する。商品情報紐付け装置607は特定された商品に関する情報を商品情報保存装置608から受け取り、さらに画像受信装置601から受け取った画像に関連付けて、画像情報保存装置609に保存する。この時、ユーザーに係る情報を同様に関連付けることもできる。
The image reception device 601 receives a photographed image from the user terminal and transmits it to the
物体認識装置602は画像入力部611で画像を受け取ったのち、画像認識部612で画像の中からすでに登録されている物体の有無、またその物体が何であるかを検出し、認識する。この際、あらかじめ多くの画像データから例えばニューラルネットワーク等の技術を用いて機械的に学習し、その画像データの集合ごとに学習されたニューラルネットワーク等の重み係数を用いる。認識された物体は一致度の順番を付けて結果出力部613から出力する。
After receiving an image by the image input unit 611, the
物体確定装置603の候補表示装置621は物体認識装置602の結果出力部613から一致度の順番を付けた物体の認識結果を受け取り、一致度の高い順にユーザー端末に物体の候補として表示する指示を出す。結果確定装置622はユーザー端末からユーザーが物体の候補から選択した物体が何であるかを受け取り、その結果を物体として確定する。店舗が確定していない状態では、この物体が店舗を象徴する物体であるので、店舗が確定できる。この場合は特定された店舗を重み係数入れ替え装置604へ伝達する。店舗が確定している状態では、特定された物体は商品であり、特定された商品を商品情報紐付け装置607へ伝達する。
The
物体認識用重み係数保存装置605は店舗を認識するために用いられる店舗認識データベース用の重み係数保存部と、店舗ごとの商品を認識するための各店舗向商品認識データベース用重み係数保存部から成る。例えば店舗A向商品認識データベース用重み係数保存部631には、店舗Aにいることを前提として、撮影画像に写っている物体が何であるかを認識するためのパラメータであり、例えば店舗Bによく似た商品があっても、店舗Aでの商品であることが確定できる。同様に登録されている全店舗の商品を各店舗ごとに認識するための重み係数が保存されている。
The object recognition weight
商品情報紐付け装置607は物体確定装置603で確定した商品と、あらかじめ商品情報保存装置608に保存されている商品の情報を紐づける。また、この時ユーザーの情報を紐づけることもできる。画像と、店舗名と、商品名と、商品情報と、ユーザー情報を紐づけた状態で、画像情報保存装置609に保存する。
The product
QRコードを用いて店舗を特定する場合は、一般的なQRコードの認識装置にて店舗を確定した後、その店舗に応じた商品認識データベース用重み係数を用いればよい。 When a store is specified using a QR code, after a store is determined by a general QR code recognition device, a weighting factor for a product recognition database may be used according to the store.
また、ビーコン信号やGPS信号により店舗を特定する場合も、ユーザー端末からビーコン信号のコードや、受信したGPS信号から計算した位置を受けとり、その値を基に店舗を特定すればよい。 Also, in the case where a store is specified by a beacon signal or a GPS signal, the store may be specified based on the value obtained by receiving the code of the beacon signal from the user terminal or the position calculated from the received GPS signal.
店舗を確定するための物体は、可能な限り店舗に固有の物が好ましく、店舗名の記載された看板や、特徴的な外装、内装であれば一致度が高く、候補を限定しやすい。しかし、チェーン店のようによく似た看板、外装の場合には、ビーコン信号やGPS信号を組み合わせることで、一致度を高めることができる。 The object for determining the store is preferably as unique as possible to the store, and if it is a signboard with the store name described, a characteristic exterior or interior, the degree of coincidence is high and it is easy to limit the candidates. However, in the case of a similar signboard or exterior like a chain store, the degree of coincidence can be enhanced by combining beacon signals and GPS signals.
本実施例は以上のように構成されているので、例えば店舗Aの商品と店舗Bの商品が外見上非常に似ていても、店舗が異なることが認識できるため、それぞれの店舗の商品の情報を関連付けて記録できる。 Since the present embodiment is configured as described above, for example, even if the product of the store A and the product of the store B are very similar in appearance, it can be recognized that the stores are different. Can be associated and recorded.
ここでいう店舗ごとに異なる情報とは、例えば商品の値段、商品の名前、製作者の名前、販売者の名前、購入時の天候、サービス提供者の名前、商品の由来、商品の広告、店舗の広告、などである。 Here, the information that varies depending on the store includes, for example, the price of the product, the name of the product, the name of the producer, the name of the seller, the weather at the time of purchase, the name of the service provider, the origin of the product, the advertisement of the product, the store Advertising, etc.
本実施例では、店舗を用いて説明したが、他の施設でも同様な動作が可能である。神社仏閣では、撮影した木や石のように他にもよく似た物体の写真に、場所ならではの由来などの情報を紐づけることができる。また、アミューズメントパークであれば、1次物体認識でアミューズメントパークを認識し、2次物体認識でアトラクションを認識し、3次物体認識で風景や小道具を認識することもできる。 Although the present embodiment has been described using a store, the same operation is possible at other facilities. Shrines and temples can associate information such as the origin of a place with photographs of similar objects like trees and stones taken. In the case of an amusement park, it is possible to recognize an amusement park by primary object recognition, recognize an attraction by secondary object recognition, and recognize landscapes and props by tertiary object recognition.
本実施例で示したように、最終的に画像情報保存装置609に保存された情報は、画像と、店舗名と、商品名と、商品情報と、ユーザー情報が紐づいているため、そのどれかを検索すれば、関連情報として他の情報を参照することが可能であり、その関連情報から新たに検索することで、更に他の情報を得ることができる。
As described in the present embodiment, the information finally stored in the image
画像に写った物体を認識する装置において、撮影した場所の情報を加えることで、認識精度を向上させ、他の場所にあるよく似た物体との誤認識を減らすとともに、その場所固有の情報を認識結果に加えることを可能とした。これにより、撮影した画像を閲覧した際に、撮影した本人も知らなかった画像に関係する情報を知ることができる。また、それをソーシャルネットワーク等に公開することで、第三者が画像を閲覧し、同様に新しい情報を知ることができる。このように撮影した人の好奇心を用いて撮影を促すことで、店舗に多くの人が来る効果が期待できる。また、画像と、店舗名と、商品名と、商品情報と、ユーザー情報が関連付けられた情報は、店舗の販売計画の改善等に役立てることが可能であり、情報自体が大きな価値をもつ。 In the device that recognizes an object captured in an image, information on the location where the image was taken is added to improve the recognition accuracy, reduce misrecognition with similar objects in other locations, and reduce information specific to that location. It was possible to add to the recognition result. Thus, when the photographed image is browsed, it is possible to know information related to the image that the photographed person did not know. Also, by publishing it on a social network etc., a third party can view the image and similarly get new information. By promoting the photographing using the curiosity of the person thus photographed, it is possible to expect an effect that many people come to the store. Further, the information associated with the image, the store name, the product name, the product information, and the user information can be used to improve the sales plan of the store, and the information itself has great value.
本発明は、画像に写った物体を認識する装置において、撮影した場所の情報を加えることで、認識精度を向上させ、他の場所にあるよく似た物体との誤認識を減らすとともに、その場所固有の情報を認識結果に加えることを可能とする。 The present invention is an apparatus for recognizing an object captured in an image, which adds information on a photographed place to improve recognition accuracy and reduce false recognition with similar objects in other places, as well as the place It is possible to add unique information to the recognition result.
101 ユーザー
102 店舗
103 カメラ付き情報端末
201 カメラ付き情報端末
202 カメラ付き情報端末に映る店舗
203 画像情報を示すマーク
204 1次物体の第1の認識候補
205 1次物体の第2の認識候補
210 ユーザーが選択するための指
301 ユーザー
310 テーブル
311 2次物体である商品
320 カメラ付き情報端末
330 サーバー
340 商品311を含む画像データ
350 店舗のコンピュータ
351 店舗内の商品に関する情報
401 カメラ付き情報端末
402 認識対象の商品
403 認識対象でない別の商品
404 画像情報を示すマーク
410 2次物体の第1の認識候補
411 2次物体の第2の認識候補
420 ユーザーが選択するための指
501 サーバー側の動作
502 ユーザー端末の動作
503 ユーザー端末の動作
504 サーバー側の動作
505 サーバー側の動作
506 サーバー側の動作
507 サーバー側の動作
508 ユーザー端末の動作
509 ユーザー端末の動作
510 サーバー側の動作
511 サーバー側の動作
512 ユーザー端末の動作
513 サーバー側の動作
601 画像受信装置
602 物体認識装置
603 物体確定装置
604 重み係数入れ替え装置
605 物体認識用重み係数保存装置
607 商品情報紐付け装置
608 商品情報保存装置
609 画像情報保存装置
611 画像入力部
612 画像認識部
613 結果出力部
621 候補表示装置
622 結果確定装置
623 店舗が確定したかどうかの分岐
631 店舗A向けの商品認識データベース用の重み係数保存部
632 店舗B向けの商品認識データベース用の重み係数保存部
633 店舗C向けの商品認識データベース用の重み係数保存部
634 店舗Z向けの商品認識データベース用の重み係数保存部
651 商品情報選択部
661 店舗A向けの商品情報保存部
662 店舗B向けの商品情報保存部
663 店舗C向けの商品情報保存部
664 店舗Z向けの商品情報保存部
671 画像情報AA保存部
672 画像情報ZZ保存部
101
201 camera-equipped
301
401 A camera-equipped information terminal 402
501
601
Claims (6)
6. The object recognition apparatus according to claim 5, further comprising means for adding information that varies with time to information that is associated with the recognized object in the recorded image and that is different for each photographed location.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017195570A JP2019070887A (en) | 2017-10-06 | 2017-10-06 | Object recognition device for recognizing place and object by two steps |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017195570A JP2019070887A (en) | 2017-10-06 | 2017-10-06 | Object recognition device for recognizing place and object by two steps |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019070887A true JP2019070887A (en) | 2019-05-09 |
JP2019070887A5 JP2019070887A5 (en) | 2021-10-21 |
Family
ID=66440674
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017195570A Pending JP2019070887A (en) | 2017-10-06 | 2017-10-06 | Object recognition device for recognizing place and object by two steps |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019070887A (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003308331A (en) * | 2002-04-16 | 2003-10-31 | Ntt Data Corp | Device for providing information, and program |
JP2009020014A (en) * | 2007-07-12 | 2009-01-29 | Toyota Motor Corp | Self-location estimation device |
JP2011242861A (en) * | 2010-05-14 | 2011-12-01 | Ntt Docomo Inc | Object recognition device, object recognition system and object recognition method |
JP2013098588A (en) * | 2011-10-27 | 2013-05-20 | Canon Inc | Image processor and image processing method |
-
2017
- 2017-10-06 JP JP2017195570A patent/JP2019070887A/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003308331A (en) * | 2002-04-16 | 2003-10-31 | Ntt Data Corp | Device for providing information, and program |
JP2009020014A (en) * | 2007-07-12 | 2009-01-29 | Toyota Motor Corp | Self-location estimation device |
JP2011242861A (en) * | 2010-05-14 | 2011-12-01 | Ntt Docomo Inc | Object recognition device, object recognition system and object recognition method |
JP2013098588A (en) * | 2011-10-27 | 2013-05-20 | Canon Inc | Image processor and image processing method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11615136B2 (en) | System and method of identifying visual objects | |
JP7302638B2 (en) | mobile information equipment | |
CN104504155B (en) | A kind of data capture method and system based on picture search | |
JP2005038103A (en) | Guide device, guide system and guide method | |
JP2013167973A (en) | Retrieval device, retrieval method, retrieval program, and recording medium for storing the program | |
CN104504402A (en) | Data processing method and system based on image search | |
CN109242473A (en) | A kind of method of payment, device and electronic equipment | |
JP2010230813A (en) | Information providing device, information providing method, and program | |
JP2017033157A (en) | Commodity information provision system, commodity information provision method, terminal, application program, and management server | |
CN106980612A (en) | Information recommendation system and method | |
US9854132B2 (en) | Image processing apparatus, data registration method, and data registration program | |
CN107169691A (en) | system and method for information processing | |
JP2019070887A (en) | Object recognition device for recognizing place and object by two steps | |
US9064020B2 (en) | Information providing device, information providing processing program, recording medium having information providing processing program recorded thereon, and information providing method | |
US11741520B2 (en) | Methods and systems for providing crowd information and repeat information related to an establishment using digital image information | |
CN108984638B (en) | Photo naming processing method | |
CN111079727A (en) | Point reading control method and electronic equipment | |
KR102278680B1 (en) | System, method, and computer readable medium for providing photography pose | |
JP5429875B2 (en) | Information display device, information display system, and program | |
KR102168635B1 (en) | Apparatus and method for posting information | |
JP2014021771A (en) | Evaluation system, and program | |
CN108270859A (en) | Information processing method and its device based on LiFi |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A917 | Reason for reinstatement of right to file examination request |
Free format text: JAPANESE INTERMEDIATE CODE: A917 Effective date: 20201206 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201228 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201228 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210127 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210128 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210711 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211130 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20220128 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220614 |