JP2011242861A - Object recognition device, object recognition system and object recognition method - Google Patents
Object recognition device, object recognition system and object recognition method Download PDFInfo
- Publication number
- JP2011242861A JP2011242861A JP2010112185A JP2010112185A JP2011242861A JP 2011242861 A JP2011242861 A JP 2011242861A JP 2010112185 A JP2010112185 A JP 2010112185A JP 2010112185 A JP2010112185 A JP 2010112185A JP 2011242861 A JP2011242861 A JP 2011242861A
- Authority
- JP
- Japan
- Prior art keywords
- object model
- position information
- object recognition
- feature point
- model database
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 30
- 230000008569 process Effects 0.000 claims description 17
- 238000003384 imaging method Methods 0.000 claims description 10
- 238000000605 extraction Methods 0.000 abstract description 17
- 238000012545 processing Methods 0.000 description 32
- 238000004891 communication Methods 0.000 description 28
- 238000010586 diagram Methods 0.000 description 13
- 230000004048 modification Effects 0.000 description 10
- 238000012986 modification Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 9
- 239000013598 vector Substances 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 5
- 239000000284 extract Substances 0.000 description 3
- 241000238631 Hexapoda Species 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、物体を認識する物体認識装置、物体認識システムおよび物体認識方法に関する。 The present invention relates to an object recognition apparatus, an object recognition system, and an object recognition method for recognizing an object.
コンピュータビジョンの分野において、カメラ等で取得した画像から複数の特徴点を抽出し、データベースに登録された物体モデルの特徴点と照合することで物体認識を行う技術が知られている。このような物体認識技術で用いられる特徴点抽出のアルゴリズムとしては、SIFT(Scale-Invariant Feature Transform)やSURF(Speeded Up Robust Features)が知られている。SIFTについては、例えば、米国特許6711293(特許文献1)に、その詳細が記載されている。このSIFTにおいては、データベースに登録した物体モデル数が多いほど認識できる物体の種類は増えることになる。 In the field of computer vision, a technique is known in which object recognition is performed by extracting a plurality of feature points from an image acquired by a camera or the like and comparing them with feature points of an object model registered in a database. As algorithm for feature point extraction used in such object recognition technology, SIFT (Scale-Invariant Feature Transform) and SURF (Speeded Up Robust Features) are known. The details of SIFT are described in, for example, US Pat. No. 6,711,293 (Patent Document 1). In this SIFT, the types of objects that can be recognized increase as the number of object models registered in the database increases.
このように物体認識処理を実現するには物体モデルDBを予めメモリに格納しておく必要がある。しかしながら、一般的にメモリには記憶容量には限りがあり、また物体認識速度を向上させるため、物体モデルデータベース(DB)のサイズは極力低減したいという要望がある。 Thus, in order to realize the object recognition processing, the object model DB needs to be stored in the memory in advance. However, in general, memory has a limited storage capacity, and there is a demand for reducing the size of the object model database (DB) as much as possible in order to improve the object recognition speed.
一方、実空間の中に存在している物体は、その場所によって偏りがある。すなわち、例えば文房具店の中であれば文房具の比率が高くなり、郊外の森林公園の中であれば自然物の比率が高くなるように、周囲に存在する物体はその場所の特性に応じて偏っているのである。しかしながら、従来の物体認識では、このような場所の特性による物体の偏りを意識していなかった。 On the other hand, an object existing in real space is biased depending on its location. That is, for example, the ratio of stationery is high in stationery stores, and the ratio of natural objects is high in suburban forest parks. It is. However, the conventional object recognition is not aware of the object bias due to such location characteristics.
そこで、上述の課題を解決するために、本発明は、物体モデルDBのサイズを低減し、かつ、場所の特性に応じた照合処理を行うことが可能な物体認識装置、物体認識システムおよび物体認識方法を提供することを目的とする。 Therefore, in order to solve the above-described problem, the present invention reduces the size of the object model DB and can perform collation processing according to the location characteristics, an object recognition system, and an object recognition It aims to provide a method.
上述の課題を解決するために、本発明の物体認識装置は、画像データを取得する撮影手段と、物体認識装置の位置情報を取得する位置情報取得手段と、前記位置情報取得手段より取得された位置情報に基づいて決定された物体モデルデータベースに記憶されている各物体における特徴点と、前記撮影手段により撮影された画像データから抽出した特徴点とを照合する特徴点照合手段と、前記特徴点照合手段により特徴点が最も類似していると判断される物体に関する情報を提示する提示手段と、を備えている。 In order to solve the above-described problems, an object recognition apparatus of the present invention is acquired by a photographing unit that acquires image data, a position information acquisition unit that acquires position information of the object recognition device, and the position information acquisition unit. Feature point matching means for matching feature points of each object stored in the object model database determined based on position information with feature points extracted from image data photographed by the photographing means; and the feature points Presenting means for presenting information relating to an object whose feature points are determined to be most similar by the matching means.
また、本発明の物体認識方法は、画像データを取得する撮影ステップと、物体認識装置の位置情報を取得する位置情報取得ステップと、前記位置情報取得ステップより取得された位置情報に基づいて決定された物体モデルデータベースに記憶されている各物体における特徴点と、前記撮影ステップにより撮影された画像データから抽出した特徴点とを照合する特徴点照合ステップと、前記特徴点照合ステップにより特徴点が最も類似していると判断される物体に関する情報を提示する提示ステップと、を備えている。 The object recognition method of the present invention is determined based on the photographing step for acquiring image data, the position information acquisition step for acquiring position information of the object recognition device, and the position information acquired from the position information acquisition step. A feature point matching step that matches a feature point of each object stored in the object model database with a feature point extracted from the image data captured in the imaging step, and the feature point matching step is the most characteristic point. A presenting step for presenting information on an object determined to be similar.
この発明によれば、取得された位置情報に基づいて決定された物体モデルデータベースに記憶されている各物体における特徴点と、撮影された画像データから抽出した特徴点とを照合し、特徴点が最も類似していると判断される物体に関する情報を提示する。これにより、位置に応じて適切な物体モデルデータベースを利用することができ、少ない容量の物体モデルデータベースで精度よく物体認識を行うことができる。さらに、少ない容量の物体モデルデータベースを用いることで、比較的短時間で物体認識処理を行うことができる。 According to the present invention, the feature point in each object stored in the object model database determined based on the acquired position information is collated with the feature point extracted from the captured image data, and the feature point is Information about the object judged to be the most similar is presented. Thus, an appropriate object model database can be used according to the position, and object recognition can be performed with high accuracy using an object model database with a small capacity. Furthermore, object recognition processing can be performed in a relatively short time by using a small-capacity object model database.
また、本発明の物体認識装置は、前記物体認識装置が向いている方向を示す方位情報を取得する方位情報取得手段を備え、前記特徴点照合手段は、位置情報に加えて、前記方位情報取得手段により取得された方位情報に基づいて決定された物体モデルデータベースに記憶されている各物体における特徴点と、前記撮影手段により撮影された画像データから抽出した特徴点とを照合することが好ましい。 Moreover, the object recognition device of the present invention includes azimuth information acquisition means for acquiring azimuth information indicating the direction in which the object recognition device is facing, and the feature point matching means acquires the azimuth information in addition to position information. Preferably, the feature points of each object stored in the object model database determined based on the orientation information acquired by the means are matched with the feature points extracted from the image data photographed by the photographing means.
この発明によれば、位置情報に加えて、方位情報に基づいて決定された物体モデルデータベースに記憶されている各物体における特徴点と、画像データから抽出した特徴点とを照合することにより、位置および方位に応じた適切な物体モデルデータベースを利用することができ、少ない容量の物体モデルデータベースで精度よく物体認識を行うことができる。 According to this invention, in addition to the position information, by comparing the feature points of each object stored in the object model database determined based on the orientation information with the feature points extracted from the image data, In addition, an appropriate object model database corresponding to the direction can be used, and object recognition can be performed with high accuracy using an object model database with a small capacity.
また、本発明の物体認識装置は、前記位置情報取得手段により取得された位置情報を、複数の物体モデルデータベースを記憶するサーバに送信する送信手段と、前記サーバから位置情報に応じて返信された物体モデルデータベースを受信する受信手段と、を備え、前記特徴点照合手段は、前記受信手段により受信された物体モデルデータベースに基づいて照合処理を行うことが好ましい。 Further, the object recognition apparatus of the present invention is replied in response to the position information from the transmission means for transmitting the position information acquired by the position information acquisition means to a server that stores a plurality of object model databases. Receiving means for receiving an object model database, and the feature point matching means preferably performs matching processing based on the object model database received by the receiving means.
この発明によれば、取得された位置情報を、複数の物体モデルデータベースを記憶するサーバに送信し、サーバから位置情報に応じて返信された物体モデルデータベースを受信し、受信された物体モデルデータベースに基づいて照合処理を行う。これにより、物体認識装置側では、物体モデルデータベースの全てを有する必要が無く、低容量のメモリで精度よく物体認識処理を行うことができる。 According to the present invention, the acquired position information is transmitted to a server storing a plurality of object model databases, the object model database returned according to the position information from the server is received, and the received object model database is stored in the received object model database. Based on this, a matching process is performed. Thus, the object recognition apparatus does not need to have all of the object model database, and can perform object recognition processing with high accuracy using a low-capacity memory.
また、本発明の物体認識システムは、上記物体認識装置と、当該物体認識装置と通信するサーバとを備える物体認識システムにおいて、前記サーバは、それぞれの物体の特徴点を示す特徴点データを記述する物体モデルデータベースから、前記位置情報取得手段により取得された位置情報に基づいて、前記物体認識装置における照合対象となる物体モデルデータベースを決定する決定手段と、前記決定手段により決定された物体モデルデータベースを前記物体認識装置に送信する送信手段と、を備えている。 The object recognition system of the present invention is an object recognition system including the object recognition device and a server that communicates with the object recognition device, and the server describes feature point data indicating feature points of each object. Based on the position information acquired by the position information acquisition means from the object model database, a determination means for determining an object model database to be collated in the object recognition device; and an object model database determined by the determination means Transmitting means for transmitting to the object recognition device.
また、本発明の物体認識方法は、物体認識装置と、前記物体認識装置と通信するサーバとを備える物体認識システムにおける物体認識方法において、前記物体認識装置は、画像データを取得する撮影ステップと、物体認識装置の位置情報を取得する位置情報取得ステップと、前記位置情報取得ステップより取得された位置情報に基づいて決定された物体モデルデータベースに記憶されている各物体における特徴点と、前記撮影ステップにより撮影された画像データから抽出した特徴点とを照合する特徴点照合ステップと、前記特徴点照合ステップにより特徴点が最も類似していると判断される物体に関する情報を提示する提示ステップと、を備え、前記サーバは、それぞれの物体の特徴点を示す特徴点データを記述する物体モデルデータベースに基づいて、前記位置情報取得ステップにより取得された位置情報に基づいて、前記物体認識装置における照合対象となる物体モデルデータベースを決定する決定ステップと、前記決定ステップにより決定された物体モデルデータベースを前記物体認識装置に送信する送信ステップと、を備えている。 The object recognition method of the present invention is an object recognition method in an object recognition system comprising an object recognition device and a server that communicates with the object recognition device, wherein the object recognition device obtains image data; and A position information acquisition step of acquiring position information of the object recognition device; a feature point in each object stored in an object model database determined based on the position information acquired from the position information acquisition step; and the imaging step A feature point matching step that matches feature points extracted from the image data captured by the step, and a presentation step that presents information about an object that is determined to be the most similar feature point by the feature point matching step. The server includes an object model database describing feature point data indicating feature points of each object. Based on the position information acquired by the position information acquisition step, a determination step of determining an object model database to be collated in the object recognition device, and the object model database determined by the determination step And a transmission step of transmitting to the object recognition device.
この発明によれば、サーバにおいて、それぞれの物体の特徴点を示す特徴点データを記述する物体モデルデータベースに基づいて、取得された位置情報に基づいて、物体認識装置における照合対象となる物体モデルデータベースを決定し、決定された物体モデルデータベースを物体認識装置に送信することができる。これにより、物体認識装置の位置に応じて適切に定められた物体モデルを、物体認識装置に送信することができ、物体認識装置では精度よく物体認識処理を行うことができる。 According to the present invention, in the server, based on the object model database describing the feature point data indicating the feature point of each object, based on the acquired position information, the object model database to be collated in the object recognition device And the determined object model database can be transmitted to the object recognition device. Accordingly, an object model appropriately determined according to the position of the object recognition device can be transmitted to the object recognition device, and the object recognition device can perform object recognition processing with high accuracy.
また、本発明の物体認識システムのサーバにおいて、前記決定手段は、前記位置情報取得手段により取得された位置情報に加えて、前記物体認識装置の方位情報に基づいて物体モデルデータベースを決定することが好ましい。 In the server of the object recognition system of the present invention, the determination unit may determine an object model database based on the orientation information of the object recognition device in addition to the position information acquired by the position information acquisition unit. preferable.
この発明によれば、位置情報に加えて、物体認識装置の方位情報に基づいて物体モデルデータベースを決定することで、位置および方位に応じた適切な物体モデルデータベースを利用することができ、物体認識装置側において少ないメモリ容量で精度よく物体認識処理を行うことができる。 According to the present invention, by determining the object model database based on the azimuth information of the object recognition device in addition to the position information, an appropriate object model database corresponding to the position and azimuth can be used. Object recognition processing can be performed with high accuracy on the apparatus side with a small memory capacity.
また、本発明の物体認識システムのサーバにおいて、前記決定手段は、複数の物体モデルデータベースから、一の物体モデルデータベースを決定することが好ましい。 In the server of the object recognition system of the present invention, it is preferable that the determining means determines one object model database from a plurality of object model databases.
この発明によれば、複数の物体モデルデータベースから、一の物体モデルデータベースを決定することで、少ない容量のデータベースを利用して制度よく物体認識処理を行うことができる。 According to the present invention, by determining one object model database from a plurality of object model databases, the object recognition process can be performed systematically using a database with a small capacity.
また、本発明の物体認識システムのサーバにおいて、前記決定手段は、複数の物体モデルデータベースのうち、いくつかの物体モデルデータベースを組み合わせることで一の物体モデルデータベースを生成し、照合対象となる一の物体モデルデータベースを決定することが好ましい。 In the server of the object recognition system of the present invention, the determining unit generates one object model database by combining several object model databases among a plurality of object model databases, and Preferably, an object model database is determined.
この発明によれば、複数の物体モデルデータベースのうち、いくつかの物体モデルデータベースを組み合わせることで、一の物体モデルデータベースを生成し、照合対象となる一の物体モデルデータベースを決定することができ、適切な物体モデルデータベースを構築することができ、物体認識装置側においては少ないメモリ容量で、精度よく物体認識処理を行うことができる。 According to the present invention, by combining several object model databases among a plurality of object model databases, it is possible to generate one object model database and determine one object model database to be collated, An appropriate object model database can be constructed, and object recognition processing can be performed with high accuracy with a small memory capacity on the object recognition apparatus side.
また、本発明の物体認識システムのサーバにおいて、前記決定手段は、一の物体モデルデータベース全体から複数の物体モデルを選択して、一の物体モデルデータベースを生成することで、照合対象となる一の物体モデルデータベースを決定することが好ましい。 In the server of the object recognition system of the present invention, the determination unit selects a plurality of object models from the entire one object model database and generates one object model database. Preferably, an object model database is determined.
この発明によれば、一の物体モデルデータベース全体から複数の物体モデルを選択して、一の物体モデルデータベースを生成することで、照合対象となる一の物体モデルデータベースを決定することができ、必要な物体モデルのみからなる一の物体モデルデータベースを構築することができる。よって、物体認識装置側においては、少ないメモリ容量で精度よく物体認識処理を行うことができる。 According to the present invention, by selecting a plurality of object models from one entire object model database and generating one object model database, it is possible to determine one object model database to be collated, which is necessary. It is possible to construct an object model database consisting only of simple object models. Therefore, the object recognition apparatus can accurately perform object recognition processing with a small memory capacity.
また、本発明の物体認識システムは、物体認識装置と、前記物体認識装置と通信するサーバとを備える物体認識システムにおいて、前記物体認識装置は、画像データを取得する撮影手段と、物体認識装置の位置情報を取得する位置情報取得手段と、前記サーバから送信される物体に関する情報を提示する提示手段と、前記サーバは、それぞれの物体の特徴点を示す特徴点データを記述する物体モデルデータベースから、前記位置情報取得手段により取得された位置情報に基づいて、前記物体認識装置における照合対象となる物体モデルデータベースを決定する決定手段と、前記位置情報取得手段より取得された位置情報に基づいて決定された物体モデルデータベースに記憶されている各物体における特徴点と、前記撮影手段により撮影された画像データから抽出した特徴点とを照合する特徴点照合手段と、前記特徴点照合手段により特徴点が最も類似していると判断される物体に関する情報を前記物体認識装置に送信する送信手段と、を備えている。 Further, the object recognition system of the present invention is an object recognition system comprising an object recognition device and a server that communicates with the object recognition device, wherein the object recognition device includes a photographing means for acquiring image data, and an object recognition device. Position information acquisition means for acquiring position information, presentation means for presenting information on an object transmitted from the server, and the server from an object model database describing feature point data indicating feature points of each object, Based on the position information acquired by the position information acquisition means, a determination means for determining an object model database to be collated in the object recognition device, and a position information acquired by the position information acquisition means. Feature points of each object stored in the object model database and the image taken by the imaging means A feature point matching unit that matches feature points extracted from image data, a transmission unit that transmits information about an object that is judged to be most similar by the feature point matching unit to the object recognition device, and It has.
この発明によれば、物体認識装置において取得した位置情報と特徴点データは、サーバに送信され、サーバにおいて、その位置情報に応じて定められた物体モデルデータベースを利用して、送信された特徴点データに対する照合処理を行うことができる。よって、物体認識装置の処理負荷を軽減しつつ、位置に応じた適切な物体モデルデータベースを利用して、精度のよい物体認識処理を実現することができる。 According to the present invention, the position information and feature point data acquired by the object recognition device are transmitted to the server, and the server uses the object model database determined according to the position information to transmit the feature points. A verification process can be performed on the data. Therefore, accurate object recognition processing can be realized using an appropriate object model database corresponding to the position while reducing the processing load of the object recognition apparatus.
本発明によれば、位置に応じて適切な物体モデルデータベースを利用することができ、少ない容量の物体モデルデータベースで精度よく物体認識を行うことができる。さらに、少ない容量の物体モデルデータベースを用いることで、比較的短時間で物体認識処理を行うことができる。 According to the present invention, an appropriate object model database can be used according to the position, and object recognition can be performed with high accuracy using an object model database with a small capacity. Furthermore, object recognition processing can be performed in a relatively short time by using a small-capacity object model database.
添付図面を参照しながら本発明の実施形態を説明する。可能な場合には、同一の部分には同一の符号を付して、重複する説明を省略する。 Embodiments of the present invention will be described with reference to the accompanying drawings. Where possible, the same parts are denoted by the same reference numerals, and redundant description is omitted.
図1は、本実施形態の物体認識システムのシステム構成図である。図1に示されるように、この物体認識システムは、携帯端末100および物体モデルDBサーバ200から構成されている。この携帯端末100は、基地局120を介してネットワーク上に配置されている物体モデルDBサーバ200とアクセスすることができる。そして、図1では、携帯端末100は、対象物150を撮影すると、その特徴点を物体モデルDBサーバ200に記憶されている物体モデルDBの特徴点と照合して、その対象物150に関するメッセージを表示することができる。以下、携帯端末100および物体モデルDBサーバ200についてさらに詳細に説明する。
FIG. 1 is a system configuration diagram of an object recognition system of the present embodiment. As shown in FIG. 1, the object recognition system includes a
図2は、携帯端末100の機能構成を示すブロック図である。図2に示されるとおり、この携帯端末100は、位置情報取得部101(位置情報取得手段)、方位センサ102(方位情報取得手段)、カメラ部103(撮影手段)、入力部104、表示部105(提示手段)、特徴点抽出部106(特徴点抽出手段)、特徴点照合部107(特徴点照合手段)、通信部108および記憶部109を含んで構成されている。
FIG. 2 is a block diagram illustrating a functional configuration of the
図3は、携帯端末100のハードウェア構成図である。図2に示される携帯端末100は、物理的には、図3に示すように、CPU11、主記憶装置であるRAM12及びROM13、入力デバイスであるキーボード及びマウス等の入力装置14、ディスプレイ等の出力装置15、ネットワークカード等のデータ送受信デバイスである通信モジュール16、ハードディスク等の補助記憶装置17などを含むコンピュータシステムとして構成されている。図2において説明した各機能は、図3に示すCPU11、RAM12等のハードウェア上に所定のコンピュータソフトウェアを読み込ませることにより、CPU11の制御のもとで入力装置14、出力装置15、通信モジュール16を動作させるとともに、RAM12や補助記憶装置17におけるデータの読み出し及び書き込みを行うことで実現される。以下、図2に示す機能ブロックに基づいて、各機能ブロックを説明する。
FIG. 3 is a hardware configuration diagram of the
位置情報取得部101は、GPS(Global Positioning System)を利用して携帯端末100の現在位置を示す意義情報を取得する部分である。
The position
方位センサ102は、携帯端末100が向いている方向を検出する部分であり、例えば、地磁気センサを用いて携帯端末100のカメラ部103の撮影方向を検出する。
The
カメラ部103は、実際の空間を撮影する部分であり、撮影により得られた画像データは表示部105に表示される。
The
入力部104は、ユーザによる操作を受け付ける部分であり、例えば、テンキーなどのボタンにより構成されている。
The
表示部105は、カメラ部103により撮影された画像データおよび特徴点照合部107において照合された結果である物体に関する情報(例えば、物体の名称)を重畳して表示する部分である。
The
特徴点抽出部106は、カメラ部103により撮影された画像データ全体の特徴点、または当該画像データに含まれているオブジェクトの特徴点を抽出する部分である。例えば、特徴点抽出部106は、特徴点抽出のためのアルゴリズムとして、SIFT、またはSURFを利用する。SIFTを利用した場合、特徴点抽出部106は、所定個数(例えば114個)のキーポイントを抽出し、それぞれのキーポイントにおける、座標(X座標、Y座標)、スケール、向き、および特徴を示す128次元のベクトルを抽出する。このキーポイントの抽出処理は、DoG処理を行うことでスケールスペースにおける極値探索を行い、キーポイントの位置とスケールを決定することができる。そして、そのキーポイントの座標の周辺領域(スケールの範囲内)における128個の輝度の勾配情報が求められ、128次元ベクトルとして取得される。
The feature
なお、SURFにおいても同様に、キーポイントと、そのキーポイントにおける特徴量をベクトルで表したものが取得され、これら情報に基づいた照合処理を行うことを可能にしている。 Similarly, in SURF, a key point and a vector representing the feature value at the key point are acquired, and collation processing based on the information can be performed.
特徴点照合部107は、特徴点抽出部106において抽出された特徴点と、記憶部109に記憶されている物体モデルDBに記述されている特徴点との照合処理を行う部分である。SIFTを利用した場合、特徴点照合部107は、それぞれの特徴点における128次元ベクトルを比較することにより、照合処理を行う。そして、特徴点照合部107は、物体モデルDBに記述されている複数の物体モデルのうち、最近傍である特徴ベクトルを有する物体モデルに所定点を投票する。例えば、特徴点照合部107は、対象画像から例えば抽出された100個の特徴点の一つ一つについて最近傍となる特徴点を持っている物体モデルに投票を行う。ここで、最近傍というのはユークリッド距離が最も近いことを意味する。最後の特徴点まで投票が終了したところで、最も投票数の多かった、すなわち特徴点が最も類似している物体モデルを、画像データから認識された物体であると判定する。そして、特徴点照合部107は、物体モデルDBから対応する物体の名称を読み出し、表示部105に出力する。
The feature
なお、特徴点照合部107は、一般物体認識(Classification)および特定物体認識(Identification)に対しても対応可能である。例えば、物体モデルDBには、抽象的な物体の総称である「くるま」の特徴点データを記述しており、またさらに具体的な特定の車種の特徴データを記述している場合、特徴点照合部107は、照合結果によっては、「自動車」といった一般的な名称を読み出してもよいし、またさらに詳細な車種名まで読み出すようにしてもよい。この場合、「自動車」の方の特徴点データは、特定の車種を特定するための特徴点データと比較して、大まかな特徴点データから構成されている。また、特徴点照合部107において、所定数の投票数をそれぞれの物体モデルにおいて得られておらず、一般物体認識のための物体モデルにおいて所定数の得票数が得られている場合には、その一般物体認識のための物体モデルである「自動車」という名称を物体モデルDBから読み出すようにしてもよい。
The feature
通信部108は、ネットワークと接続するための通信処理を行う部分であり、携帯端末100においては、無線通信による通信処理を実行する部分である。例えば、通信部108は、携帯端末100の位置情報および撮影方向を示す方位情報を物体モデルDBサーバ200に対して送信し、物体モデルDBサーバ200においては、その位置情報および方位情報に応じて定められた物体モデルDBを、物体モデルDBサーバ200から受信する。
The
記憶部109は、物体モデルDBサーバ200から、通信部108において受信された物体モデルDBを記憶する部分である。
The
このように構成された携帯端末100は、物体モデルDBサーバ200から、位置情報に応じた物体モデルDBを取得し、その物体モデルDBを用いた特徴点の照合処理を行うことで、適切な物体認識処理を行うことができる。
The
つぎに、物体モデルDBサーバ200の構成について説明する。図4は、物体モデルDBサーバ200の機能構成を示すブロック図である。図4に示されるように、物体モデルDBサーバ200は、通信部201(送信手段、受信手段)、ゾーン特定部202、ゾーン定義DB203、物体モデルDB選択部204(決定手段)、および物体モデルDB格納部205(物体モデルDB)を含んで構成されている。この物体モデルDBサーバ200も、携帯端末100と同じくコンピュータシステムから構成されているものであり、プログラムに従った動作を行うことにより、上述の各機能を実行することができる。以下、構成要素について説明する。
Next, the configuration of the object
通信部201は、携帯端末100と通信処理を実行する部分であり、例えば、携帯端末100から送信された位置情報および方位情報を受信し、その位置情報および方位情報に応じて決定された物体モデルDBを携帯端末100に送信する部分である。
The
ゾーン特定部202は、ゾーン定義DB203を参照して、携帯端末100から送信された位置情報に対応するゾーンを特定する部分である。なお、ゾーン特定部202は、携帯端末100の実際の位置に基づいてゾーンを特定する方法のほか、携帯端末100の実際に位置している範囲および撮影する方向に基づいて、撮影しているゾーンを特定するようにしてもよい。例えば、ゾーン特定部202は、携帯端末100から送信された位置情報および方位情報に基づいて、撮影している範囲は分かるため、それら情報に基づいてゾーンを特定することができる。なお、複数のゾーンが重なっているなど、携帯端末100の位置に応じたゾーンが複数存在する場合がある。この場合には、複数のゾーンを特定してもよいし、方位情報に基づいていずれのゾーンに向いているものか判断して、一のゾーンを特定するようにしてもよい。
The
ゾーン定義DB203は、ゾーンを定義した情報を記述する部分であり、例えば中心位置および範囲半径によりゾーンを定義している。なお、円形でゾーンを定義することに限定するものではなく、矩形でゾーンを定義してもよいし、三角形、そのほか多角形によりゾーンを定義してもよい。
The
図5に、ゾーン定義DB203に記憶されているゾーン定義DBの具体例を示す。図5に示されているように、ゾーン定義DBは、そのゾーンの中心位置を示す中心位置情報、その範囲(半径)、ゾーンを識別するためのゾーンID、ゾーンの名称を対応付けて記述している。
FIG. 5 shows a specific example of the zone definition DB stored in the
物体モデルDB選択部204は、物体モデルDB格納部205に記憶されている複数の物体モデルDBから、携帯端末100から受信した位置情報に基づいて、対応する一のゾーンを選択し、その一のゾーンに応じた物体モデルDBを物体モデルDB格納部205から抽出し、通信部201を介して携帯端末100に配信する部分である。
The object model
なお、物体モデルDB選択部204は、一のゾーンに対応する一の物体モデルDBを選択する方法のほか、複数の物体モデルDBから、投票数の上位いくつかの物体モデルDBを選択し、これらを組み合わせて一の物体モデルDBとしてもよいし、物体モデルDB全体から一部の物体モデルを抽出して、新たな一の物体モデルDBを生成してもよい。
In addition to the method of selecting one object model DB corresponding to one zone, the object model
物体モデルDB格納部205は、各物体の特徴点を示す物体モデルを記述する物体モデルDBを記憶する部分である。この物体モデルDBは、例えば、図6に示されるように、物体モデルID、物体の名称、物体の特徴点からなる物体モデルを記述している。物体の特徴点は、上述のSIFTにより特徴点が抽出されたものである場合には、キーポイントの座標およびそのキーポイントの128次元ベクトルからなるものである。
The object model
さらにこの物体モデルDB格納部205は、ゾーンごとに物体モデルDBを記憶するものであり、ゾーン001に対応する物体モデルDB205a、ゾーン002に対応する物体モデルDB205bなどのように、ゾーンごとの物体モデルDBを記憶している。
Further, the object model
なお、図4においては、ゾーンに対応する物体モデルDBが予め個別に準備されているが、物体モデルDBの一部を構成するためのサブユニットが複数用意されており、物体モデルDB選択部204は、ゾーンに応じて、そのサブユニットが適宜組み合わせて一つの物体モデルDBを構築するようにしてもよい。
In FIG. 4, the object model DB corresponding to the zone is individually prepared in advance, but a plurality of subunits for configuring a part of the object model DB are prepared, and the object model
また、物体モデルDB格納部205において、全ての物体モデルを登録したマスターDBを構築しておき、物体モデルDB選択部204は、一のゾーンに対応した物体モデルを抽出することにより、一のゾーンに対応する物体モデルDBを動的に生成するようにしてもよい。例えば、物体モデルDBには、物体モデルに加えて、物体のカテゴリーなどの属性情報も対応付けて記述されており、一方、ゾーン定義DB203においても、ゾーンごとに属性情報が付加されており、ゾーンの属性情報に基づいて対応する物体モデルを抽出して、物体モデルDBを構築するようにしてもよい。例えば、森林にユーザが入った場合には、“昆虫”、“植物”といった属性情報が付加されている物体モデルを抽出することで、森林に存在する物体を認識するための物体モデルDBを構築するようにしてもよい。
Also, in the object model
つぎに、このように構成された携帯端末100および物体モデルDBサーバ200の処理について説明する。図7は、携帯端末100および物体モデルDBサーバ200の処理を示すフローチャートである。
Next, processing of the
まず、物体認識のための処理起動の操作が行われると、位置情報取得部101が起動し、位置情報が取得され(S101)、カメラ部103が起動して、撮影処理が行われ、ライブビュー表示として、カメラ部103により撮影された画像データが表示部105に表示される(S102)。物体認識メニューに入ると(S103;YES)、物体モデルDBサーバ200に、位置情報取得部101により取得された位置情報が、通信部108により送信される(S104)。
First, when a process activation operation for object recognition is performed, the position
物体モデルDBサーバ200においては、通信部201により位置情報が受信され(S201)、位置情報から携帯端末100の位置が所属するゾーンが、ゾーン特定部202により特定される(S202)。特定されたゾーンに対応した物体モデルDBは、物体モデルDB選択部204により選択された物体モデルDBは、通信部201により携帯端末100に送信される(S203)。
In the object
携帯端末100において、物体モデルDBサーバ200から送信された物体モデルDBは通信部108により受信される(S105)。そして、ユーザ操作により、カメラ部103において撮影された画像データに対して物体認識処理を行うため、物体認識ボタン(入力部104に配置されている)が押下されると(S106:YES)、特徴点抽出部106により、画像データに対して特徴点の抽出処理が行われる(S107)。ここで抽出された特徴点は、受信された物体モデルDBを参照して、特徴点照合部107により、特徴点の照合処理が行われる(S108)。
In the
そして、この特徴点の照合処理の結果、最も近いと思われる特徴点を有する物体モデルが特徴点照合部107により特定され、特定された物体モデルの名称が抽出され、表示部105により、名称が画像データに重畳表示される(S110)。
As a result of the feature point matching process, the object model having the closest feature point is identified by the feature
このようにして、物体モデルDBは、携帯端末100の位置に応じて決定され、携帯端末100においては、決定された物体モデルDBを利用して、物体認識処理を実行することができる。これにより、その位置に応じた物体モデルDBを利用することができ、少ない容量のデータベースを利用して、効率的な物体認識処理を行うことができる。
Thus, the object model DB is determined according to the position of the
つぎに、変形例について説明する。図8は、変形例における携帯端末100aの機能を示すブロック図である。この変形例における携帯端末100aは、物体モデルDBサーバ200を利用することなく、その位置に応じた物体モデルDBを切り替えて、効率的な物体認識処理を行うことができる。
Next, a modified example will be described. FIG. 8 is a block diagram illustrating functions of the
この携帯端末100aは、位置情報取得部101、方位センサ102、カメラ部103、入力部104、表示部105、特徴点抽出部106、特徴点照合部107、通信部108、記憶部109に加えて、さらに、ゾーン特定部202a、ゾーン定義DB203a、物体モデルDB選択部204a、および物体モデルDB格納部205xを備えている。
The
この変形例における携帯端末100aによれば、位置情報取得部101において取得された位置情報に基づいて、ゾーン特定部202aがゾーンを特定し、物体モデルDB選択部204aは、ゾーンに応じた一の物体モデルDBを決定し、そして、特徴点照合部107は、決定された物体モデルDBを利用して照合処理を行い、物体認識処理を行うことができる。
According to the
各構成要素については、ゾーン特定部202a、ゾーン定義DB203a、物体モデルDB選択部204a、および物体モデルDB格納部205xは、それぞれ上述の実施形態におけるゾーン特定部202、ゾーン定義DB203、物体モデルDB選択部204、および物体モデルDB格納部205と同機能を有するものであり、その説明は省略する。
For each component, the
また、更なる変形例として、図9および図10に示されるような携帯端末100bおよび物体モデルDBサーバ200bが考えられる。図9は、変形例における携帯端末100bの機能を示すブロック図であり、図10は、変形例における物体モデルDBサーバ200bの機能を示すブロック図である。
Further, as a further modification, a
図9に示されるように、この携帯端末100bは、位置情報取得部101、方位センサ102、カメラ部103、入力部104、表示部105、特徴点抽出部106、通信部108、記憶部109から構成されている。
As illustrated in FIG. 9, the
また、図10に示されるように、物体モデルDBサーバ200bは、通信部201、ゾーン特定部202、ゾーン定義DB203、物体モデルDB選択部204、および物体モデルDB格納部205に加えて、特徴点照合部107aを備えている。
Also, as shown in FIG. 10, the object
そして、この携帯端末100bは、特徴点抽出部106において抽出された特徴点データを位置情報とともに物体モデルDBサーバ200bに送信する。
Then, the
物体モデルDBサーバ200bにおいては、ゾーン特定部202は、位置情報に基づいてゾーンを特定し、そのゾーンに基づいて物体モデルDB選択部204は、物体モデルDBを決定する。そして、特徴点照合部107aは、ここで決定された物体モデルDBを利用して、携帯端末100bから送信された特徴点データの照合処理を行い、物体認識処理を行う。照合の結果得られた、物体に関する情報である、物体の名称は携帯端末100bに送信され、表示部105において表示される。このようにして、携帯端末100の処理負荷を軽減することもできる。
In the object
つぎに、本実施形態の携帯端末100および物体モデルDBサーバ200の作用効果について説明する。
Next, operational effects of the
本実施形態の携帯端末100において、特徴点照合部107は、位置情報取得部101により取得された位置情報に基づいて決定された物体モデルDBに記述されている各物体における特徴点と、特徴点抽出部106により抽出された、カメラ部103により撮影された画像データから抽出した特徴点とを照合する。なお、物体モデルDBは、携帯端末100における照合対象として物体モデルDBサーバ200において決定されてもよいし、変形例あるように携帯端末100において決定するようにしてもよい。
In the
そして、特徴点照合部107によりその特徴点が最も類似していると判断される物体に関する情報が記憶部109(物体モデルDB)から読み出され、例えば物体の名称を表示部105は、表示する。これにより、位置に応じて適切な物体モデルDBを利用することができ、少ない容量の物体モデルDBで精度よく物体認識を行うことができる。さらに、少ない容量の物体モデルDBを用いることで、比較的短時間で物体認識処理を行うことができる。
Then, information on the object whose feature points are determined to be most similar by the feature
なお、特徴点照合部107は、変形例にも記載しているように、物体モデルDB200bに備え、物体モデルDB200bにおいて照合処理を行うようにしてもよい。
Note that the feature
また、本実施形態の携帯端末100は、携帯端末100の方位を検出するための方位センサ102を備え、特徴点照合部107は、位置情報に加えて、方位情報に基づいて決定された物体モデルDBに記憶されている各物体における特徴点と、画像データから抽出した特徴点とを照合することにより、位置および方位に応じた適切な物体モデルDBを利用することができ、少ない容量の物体モデルDBで精度よく物体認識を行うことができる。
In addition, the
また、本実施形態の携帯端末100において、通信部108は、位置情報取得部101により取得された位置情報を、複数の物体モデルDB205a〜205dを備える物体モデルDBサーバ200に送信し、当該物体モデルDBサーバ200から位置情報に応じて定められた物体モデルDBを受信し、特徴点照合部107は、受信された物体モデルDBに基づいて照合処理を行う。これにより、物体認識装置側では、物体モデルDBの全てを有する必要が無く、低容量のメモリで精度よく物体認識処理を行うことができる。
In the
また、本実施形態の物体認識システムにおける物体モデルDBサーバ200において、通信部201は、携帯端末100から位置情報を受信し、物体モデルDB選択部204は、それぞれの物体の特徴点を示す特徴点データを記述する物体モデルDB格納部205を参照して、取得された位置情報に基づいて、物体認識装置における照合対象となる物体モデルDBを決定する。そして、物体モデルDB選択部204は、通信部201を介して、決定された物体モデルDBを携帯端末100に送信することができる。これにより、物体認識装置の位置に応じて適切に定められた物体モデルを、物体認識装置に送信することができ、物体認識装置では精度よく物体認識処理を行うことができる。
In the object
なお、本実施形態においては、ゾーン特定部202が、携帯端末100の位置からゾーンを決定し、物体モデルDB選択部204は、ゾーン定義DB203を参照して、物体モデルDB格納部205に記憶されている物体モデルDB205a〜205dからゾーンに対応する一の物体モデルDBを選択して、通信部201を介して携帯端末100に送信する。
In the present embodiment, the
また、本実施形態の物体認識システムにおいては、位置情報に加えて、携帯端末100の方位情報を、通信部201が受信し、ゾーン特定部202および物体モデルDB選択部204は、その方位情報をも考慮して一の物体モデルDBを決定することで、位置および方位に応じた適切な物体モデルDBを利用することができ、物体認識装置側において少ないメモリ容量で精度のよく物体認識処理を行うことができる。
In the object recognition system of the present embodiment, the
なお、物体モデルDB選択部204は、複数の物体モデルDB205aから205dのうち、いくつかの物体モデルDBを組み合わせることで、一の物体モデルDBを生成し、照合対象となる一の物体モデルDBを決定することができ、適切な物体モデルDBを構築することができ、物体認識装置側においては少ないメモリ容量で、精度よく物体認識処理を行うことができる。
Note that the object model
また、物体モデルDB選択部204は、一の物体モデルDB全体から複数の物体モデルを選択して、一の物体モデルDBを生成することで、照合対象となる一の物体モデルDBを決定することができ、必要な物体モデルのみからなる一の物体モデルDBを構築することができる。よって、物体認識装置側においては、少ないメモリ容量で精度よく物体認識処理を行うことができる。
In addition, the object model
100、100a、100b…携帯端末、101…位置情報取得部、102…方位センサ、103…カメラ部、104…入力部、105…表示部、106…特徴点抽出部、107…特徴点照合部、107a…特徴点照合部、108…通信部、109…記憶部、120…基地局、150…オブジェクト、200、200b…物体モデルDBサーバ、201…通信部、202、202a…ゾーン特定部、203、203a…ゾーン定義DB、204、204a…物体モデルDB選択部、205、205x…物体モデルDB格納部。
DESCRIPTION OF
Claims (11)
携帯端末の位置情報を取得する位置情報取得手段と、
前記位置情報取得手段より取得された位置情報に基づいて決定された物体モデルデータベースに記憶されている各物体における特徴点と、前記撮影手段により撮影された画像データから抽出した特徴点とを照合する特徴点照合手段と、
前記特徴点照合手段により特徴点が最も類似していると判断される物体に関する情報を提示する提示手段と、
を備える物体認識装置。 Photographing means for acquiring image data;
Position information acquisition means for acquiring position information of the mobile terminal;
The feature points of each object stored in the object model database determined based on the position information acquired by the position information acquisition unit are compared with the feature points extracted from the image data captured by the imaging unit. Feature point matching means;
Presenting means for presenting information relating to an object whose feature points are determined to be most similar by the feature point matching means;
An object recognition apparatus comprising:
前記特徴点照合手段は、位置情報に加えて、前記方位情報取得手段により取得された方位情報に基づいて決定された物体モデルデータベースに記憶されている各物体における特徴点と、前記撮影手段により撮影された画像データから抽出した特徴点とを照合することを特徴とする請求項1に記載の物体認識装置。 Azimuth information acquisition means for acquiring azimuth information indicating the direction in which the object recognition device is facing;
The feature point matching means captures the feature points of each object stored in the object model database determined based on the orientation information acquired by the orientation information acquisition means, in addition to the position information, and the imaging means. The object recognition apparatus according to claim 1, wherein a feature point extracted from the obtained image data is collated.
前記サーバから位置情報に応じて返信された物体モデルデータベースを受信する受信手段と、を備え、
前記特徴点照合手段は、前記受信手段により受信された物体モデルデータベースに基づいて照合処理を行うことを特徴とする請求項1または2に記載の物体認識装置。 Transmitting means for transmitting the position information acquired by the position information acquiring means to a server that stores a plurality of object model databases;
Receiving means for receiving an object model database returned according to the position information from the server,
The object recognition apparatus according to claim 1, wherein the feature point matching unit performs a matching process based on the object model database received by the receiving unit.
前記サーバは、
それぞれの物体の特徴点を示す特徴点データを記述する物体モデルデータベースから、前記位置情報取得手段により取得された位置情報に基づいて、前記物体認識装置における照合対象となる物体モデルデータベースを決定する決定手段と、
前記決定手段により決定された物体モデルデータベースを前記物体認識装置に送信する送信手段と、
を備える物体認識システム。 In an object recognition system provided with the object recognition device according to any one of claims 1 to 3 and a server which communicates with the object recognition device.
The server
Determination to determine an object model database to be collated in the object recognition device based on position information acquired by the position information acquisition unit from an object model database describing feature point data indicating feature points of each object Means,
Transmitting means for transmitting the object model database determined by the determining means to the object recognition device;
An object recognition system comprising:
前記決定手段は、前記位置情報取得手段により取得された位置情報に加えて、前記物体認識装置の方位情報に基づいて物体モデルデータベースを決定することを特徴とする請求項4に記載の物体認識システム。 In the server,
5. The object recognition system according to claim 4, wherein the determination unit determines an object model database based on azimuth information of the object recognition device in addition to the position information acquired by the position information acquisition unit. .
前記決定手段は、
複数の物体モデルデータベースから、一の物体モデルデータベースを決定することを特徴とする請求項4または5に記載の物体認識システム。 In the server,
The determining means includes
6. The object recognition system according to claim 4, wherein one object model database is determined from a plurality of object model databases.
前記決定手段は、
複数の物体モデルデータベースのうち、いくつかの物体モデルデータベースを組み合わせることで一の物体モデルデータベースを生成し、照合対象となる一の物体モデルデータベースを決定することを特徴とする請求項4または5に記載の物体認識システム。 In the server,
The determining means includes
6. The object model database is generated by combining several object model databases among a plurality of object model databases, and one object model database to be collated is determined. The object recognition system described.
前記決定手段は、
一の物体モデルデータベース全体から複数の物体モデルを選択して、一の物体モデルデータベースを生成することで、照合対象となる一の物体モデルデータベースを決定することを特徴とする請求項4または5に記載の物体認識システム。 In the server,
The determining means includes
6. The object model database to be collated is determined by selecting a plurality of object models from the entire object model database and generating the object model database. The object recognition system described.
画像データを取得する撮影手段と、
物体認識装置の位置情報を取得する位置情報取得手段と、
それぞれの物体の特徴点を示す特徴点データを記述する物体モデルデータベースから、前記位置情報取得手段により取得された位置情報に基づいて、特徴点の照合対象となる物体モデルデータベースを決定する決定手段と、
前記位置情報取得手段より取得された位置情報に基づいて決定された物体モデルデータベースに記憶されている各物体における特徴点と、前記撮影手段により撮影された画像データから抽出した特徴点とを照合する特徴点照合手段と、
前記特徴点照合手段により特徴点が最も類似していると判断される物体に関する情報を提示する提示手段と、
を備える物体認識システム。 In an object recognition system comprising an object recognition device and a server communicating with the object recognition device,
Photographing means for acquiring image data;
Position information acquisition means for acquiring position information of the object recognition device;
Determining means for determining an object model database to be a target for matching feature points based on position information acquired by the position information acquiring means from an object model database describing feature point data indicating the feature points of each object; ,
The feature points of each object stored in the object model database determined based on the position information acquired by the position information acquisition unit are compared with the feature points extracted from the image data captured by the imaging unit. Feature point matching means;
Presenting means for presenting information relating to an object whose feature points are determined to be most similar by the feature point matching means;
An object recognition system comprising:
端末の位置情報を取得する位置情報取得ステップと、
前記位置情報取得ステップより取得された位置情報に基づいて決定された物体モデルデータベースに記憶されている各物体における特徴点と、前記撮影ステップにより撮影された画像データから抽出した特徴点とを照合する特徴点照合ステップと、
前記特徴点照合ステップにより特徴点が最も類似していると判断される物体に関する情報を提示する提示ステップと、
を備える物体認識方法。 A shooting step for acquiring image data;
A location information acquisition step for acquiring location information of the terminal;
The feature points of each object stored in the object model database determined based on the position information acquired in the position information acquisition step are collated with the feature points extracted from the image data captured in the imaging step. A feature point matching step;
A presenting step of presenting information about an object that is determined to have the most similar feature points by the feature point matching step;
An object recognition method comprising:
画像データを取得する撮影ステップと、
物体認識装置の位置情報を取得する位置情報取得ステップと、
それぞれの物体の特徴点を示す特徴点データを記述する物体モデルデータベースに基づいて、前記位置情報取得ステップにより取得された位置情報に基づいて、特徴点の照合対象となる物体モデルデータベースを決定する決定ステップと、
前記位置情報取得ステップより取得された位置情報に基づいて決定された物体モデルデータベースに記憶されている各物体における特徴点と、前記撮影ステップにより撮影された画像データから抽出した特徴点とを照合する特徴点照合ステップと、
前記特徴点照合ステップにより特徴点が最も類似していると判断される物体に関する情報を提示する提示ステップと、
を備える物体認識方法。 In an object recognition method in an object recognition system comprising an object recognition device and a server that communicates with the object recognition device,
A shooting step for acquiring image data;
A position information acquisition step of acquiring position information of the object recognition device;
Determination based on the object model database describing the feature point data indicating the feature points of each object, and determining the object model database to be the target of feature point matching based on the position information acquired by the position information acquisition step Steps,
The feature points of each object stored in the object model database determined based on the position information acquired in the position information acquisition step are collated with the feature points extracted from the image data captured in the imaging step. A feature point matching step;
A presenting step of presenting information about an object that is determined to have the most similar feature points by the feature point matching step;
An object recognition method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010112185A JP5685390B2 (en) | 2010-05-14 | 2010-05-14 | Object recognition device, object recognition system, and object recognition method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010112185A JP5685390B2 (en) | 2010-05-14 | 2010-05-14 | Object recognition device, object recognition system, and object recognition method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011242861A true JP2011242861A (en) | 2011-12-01 |
JP5685390B2 JP5685390B2 (en) | 2015-03-18 |
Family
ID=45409470
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010112185A Expired - Fee Related JP5685390B2 (en) | 2010-05-14 | 2010-05-14 | Object recognition device, object recognition system, and object recognition method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5685390B2 (en) |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013089004A1 (en) * | 2011-12-15 | 2013-06-20 | 日本電気株式会社 | Video processing system, video processing method, video processing device for portable terminal or for server and method for controlling and program for controlling same |
WO2013088994A1 (en) * | 2011-12-14 | 2013-06-20 | 日本電気株式会社 | Video processing system, video processing method, and video processing device for portable terminal or for server and method for controlling and program for controlling same |
JP2013222447A (en) * | 2012-04-19 | 2013-10-28 | Kddi Corp | Information presentation system |
JP2015049372A (en) * | 2013-09-02 | 2015-03-16 | 有限会社Bruce Interface | Foreign language learning support device and foreign language learning support program |
JPWO2013089042A1 (en) * | 2011-12-16 | 2015-04-27 | 日本電気株式会社 | Information processing system, information processing method, information processing apparatus and control method and control program thereof, communication terminal and control method and control program thereof |
JPWO2013115202A1 (en) * | 2012-01-30 | 2015-05-11 | 日本電気株式会社 | Information processing system, information processing method, information processing apparatus and control method and control program thereof, communication terminal and control method and control program thereof |
JPWO2013115204A1 (en) * | 2012-01-30 | 2015-05-11 | 日本電気株式会社 | Information processing system, information processing method, information processing apparatus and control method and control program thereof, communication terminal and control method and control program thereof |
JPWO2013115093A1 (en) * | 2012-01-30 | 2015-05-11 | 日本電気株式会社 | Information processing system, information processing method, information processing apparatus and control method and control program thereof, communication terminal and control method and control program thereof |
JP2016530640A (en) * | 2013-09-06 | 2016-09-29 | ローベルト ボッシュ ゲゼルシャフト ミット ベシュレンクテル ハフツング | Method and controller for recognizing an object in image information |
JP2017054491A (en) * | 2015-09-11 | 2017-03-16 | インテル・コーポレーション | Technologies for object recognition for internet-of-things edge devices |
JP6434666B1 (en) * | 2018-02-26 | 2018-12-05 | 京セラ株式会社 | Electronic device, control method and program |
JP2019070887A (en) * | 2017-10-06 | 2019-05-09 | 株式会社バサイ | Object recognition device for recognizing place and object by two steps |
CN109902759A (en) * | 2019-03-12 | 2019-06-18 | 上海云从企业发展有限公司 | Pictures describe method and device |
JP2019149791A (en) * | 2018-11-08 | 2019-09-05 | 京セラ株式会社 | Electronic device, control method, and program |
KR20190107076A (en) * | 2017-07-13 | 2019-09-18 | 얀마 가부시키가이샤 | Object identification system |
JP2020080057A (en) * | 2018-11-13 | 2020-05-28 | NeoX株式会社 | AR library system |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002259969A (en) * | 2000-12-25 | 2002-09-13 | Matsushita Electric Ind Co Ltd | Image detector, program and recording medium |
JP2005033518A (en) * | 2003-07-14 | 2005-02-03 | Toshiba Corp | Information collection system |
JP2005044075A (en) * | 2003-07-25 | 2005-02-17 | Sharp Corp | Information processing apparatus, information processing method, information processing program and computer-readable recording medium storing the information processing program |
JP2006119797A (en) * | 2004-10-20 | 2006-05-11 | Sony Ericsson Mobilecommunications Japan Inc | Information providing system and mobile temrinal |
-
2010
- 2010-05-14 JP JP2010112185A patent/JP5685390B2/en not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002259969A (en) * | 2000-12-25 | 2002-09-13 | Matsushita Electric Ind Co Ltd | Image detector, program and recording medium |
JP2005033518A (en) * | 2003-07-14 | 2005-02-03 | Toshiba Corp | Information collection system |
JP2005044075A (en) * | 2003-07-25 | 2005-02-17 | Sharp Corp | Information processing apparatus, information processing method, information processing program and computer-readable recording medium storing the information processing program |
JP2006119797A (en) * | 2004-10-20 | 2006-05-11 | Sony Ericsson Mobilecommunications Japan Inc | Information providing system and mobile temrinal |
Cited By (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9355317B2 (en) | 2011-12-14 | 2016-05-31 | Nec Corporation | Video processing system, video processing method, video processing device for mobile terminal or server and control method and control program thereof |
WO2013088994A1 (en) * | 2011-12-14 | 2013-06-20 | 日本電気株式会社 | Video processing system, video processing method, and video processing device for portable terminal or for server and method for controlling and program for controlling same |
JPWO2013088994A1 (en) * | 2011-12-14 | 2015-04-27 | 日本電気株式会社 | Video processing system, video processing method, video processing apparatus for portable terminal or server, and control method and control program therefor |
WO2013089004A1 (en) * | 2011-12-15 | 2013-06-20 | 日本電気株式会社 | Video processing system, video processing method, video processing device for portable terminal or for server and method for controlling and program for controlling same |
US9754169B2 (en) | 2011-12-16 | 2017-09-05 | Nec Corporation | Information processing system, information processing method, information processing device and control method and control program thereof, and communication terminal and control method and control program thereof |
JPWO2013089042A1 (en) * | 2011-12-16 | 2015-04-27 | 日本電気株式会社 | Information processing system, information processing method, information processing apparatus and control method and control program thereof, communication terminal and control method and control program thereof |
US9792528B2 (en) | 2012-01-30 | 2017-10-17 | Nec Corporation | Information processing system, information processing method, information processing apparatus and control method and control program thereof, and communication terminal and control method and control program thereof |
JPWO2013115093A1 (en) * | 2012-01-30 | 2015-05-11 | 日本電気株式会社 | Information processing system, information processing method, information processing apparatus and control method and control program thereof, communication terminal and control method and control program thereof |
JPWO2013115202A1 (en) * | 2012-01-30 | 2015-05-11 | 日本電気株式会社 | Information processing system, information processing method, information processing apparatus and control method and control program thereof, communication terminal and control method and control program thereof |
JPWO2013115204A1 (en) * | 2012-01-30 | 2015-05-11 | 日本電気株式会社 | Information processing system, information processing method, information processing apparatus and control method and control program thereof, communication terminal and control method and control program thereof |
JP2013222447A (en) * | 2012-04-19 | 2013-10-28 | Kddi Corp | Information presentation system |
JP2015049372A (en) * | 2013-09-02 | 2015-03-16 | 有限会社Bruce Interface | Foreign language learning support device and foreign language learning support program |
JP2016530640A (en) * | 2013-09-06 | 2016-09-29 | ローベルト ボッシュ ゲゼルシャフト ミット ベシュレンクテル ハフツング | Method and controller for recognizing an object in image information |
US9842262B2 (en) | 2013-09-06 | 2017-12-12 | Robert Bosch Gmbh | Method and control device for identifying an object in a piece of image information |
CN106529384A (en) * | 2015-09-11 | 2017-03-22 | 英特尔公司 | Technologies for object recognition for internet-of-things edge devices |
JP2017054491A (en) * | 2015-09-11 | 2017-03-16 | インテル・コーポレーション | Technologies for object recognition for internet-of-things edge devices |
KR102363216B1 (en) | 2017-07-13 | 2022-02-14 | 얀마 파워 테크놀로지 가부시키가이샤 | Object identification system |
KR20190107076A (en) * | 2017-07-13 | 2019-09-18 | 얀마 가부시키가이샤 | Object identification system |
KR102252245B1 (en) | 2017-07-13 | 2021-05-13 | 얀마 파워 테크놀로지 가부시키가이샤 | Object identification system |
KR20210054024A (en) * | 2017-07-13 | 2021-05-12 | 얀마 파워 테크놀로지 가부시키가이샤 | Object identification system |
JP2019070887A (en) * | 2017-10-06 | 2019-05-09 | 株式会社バサイ | Object recognition device for recognizing place and object by two steps |
US10542161B2 (en) | 2018-02-26 | 2020-01-21 | Kyocera Corporation | Electronic device, control method, and recording medium |
JP2019148899A (en) * | 2018-02-26 | 2019-09-05 | 京セラ株式会社 | Electronic device, control method, and program |
JP6434666B1 (en) * | 2018-02-26 | 2018-12-05 | 京セラ株式会社 | Electronic device, control method and program |
JP2019149791A (en) * | 2018-11-08 | 2019-09-05 | 京セラ株式会社 | Electronic device, control method, and program |
JP2020080057A (en) * | 2018-11-13 | 2020-05-28 | NeoX株式会社 | AR library system |
JP7250308B2 (en) | 2018-11-13 | 2023-04-03 | NeoX株式会社 | AR library system |
CN109902759B (en) * | 2019-03-12 | 2021-03-30 | 恒睿(重庆)人工智能技术研究院有限公司 | Picture set description method and device |
CN109902759A (en) * | 2019-03-12 | 2019-06-18 | 上海云从企业发展有限公司 | Pictures describe method and device |
Also Published As
Publication number | Publication date |
---|---|
JP5685390B2 (en) | 2015-03-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5685390B2 (en) | Object recognition device, object recognition system, and object recognition method | |
CN113630551B (en) | Electronic device providing various functions by application using camera and operating method thereof | |
CN107885430B (en) | Audio playing method and device, storage medium and electronic equipment | |
US9015029B2 (en) | Camera dictionary based on object recognition | |
CN105517679B (en) | Determination of the geographic location of a user | |
CN109189879B (en) | Electronic book display method and device | |
JP5963609B2 (en) | Image processing apparatus and image processing method | |
US11017263B2 (en) | Apparatus and method for recognizing object in image | |
US12039791B2 (en) | Image processing method, and electronic device supporting same | |
US8917957B2 (en) | Apparatus for adding data to editing target data and displaying data | |
WO2016199662A1 (en) | Image information processing system | |
CN111859002B (en) | Interest point name generation method and device, electronic equipment and medium | |
US20230230318A1 (en) | Method for updating 3-dimensional map using image, and electronic device for supporting same | |
US11501409B2 (en) | Electronic device for image synthesis and operating method thereof | |
JP2013109773A (en) | Feature matching method and article recognition system | |
CN112465517A (en) | Anti-counterfeiting verification method and device and computer readable storage medium | |
JP2013077099A (en) | Position information distribution server, position information distribution system, position information distribution method, program and recording medium | |
US20130339271A1 (en) | Evaluation system, evaluation method, and storage medium | |
CN112989922B (en) | Face recognition method, device, equipment and storage medium based on artificial intelligence | |
JP5536124B2 (en) | Image processing system and image processing method | |
KR20180020654A (en) | Method for providing communication service based on augment reality | |
US12008221B2 (en) | Method for providing tag, and electronic device for supporting same | |
CN113808343B (en) | Book information warehousing method and electronic equipment | |
JP6375084B1 (en) | Computer system, hand-drawn object specifying method and program | |
CN115797479B (en) | Landmark image generation method, device, computer equipment and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130206 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20131025 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20131029 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20131226 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140603 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140804 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150113 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150119 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5685390 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313117 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |