JP2011242861A - Object recognition device, object recognition system and object recognition method - Google Patents

Object recognition device, object recognition system and object recognition method Download PDF

Info

Publication number
JP2011242861A
JP2011242861A JP2010112185A JP2010112185A JP2011242861A JP 2011242861 A JP2011242861 A JP 2011242861A JP 2010112185 A JP2010112185 A JP 2010112185A JP 2010112185 A JP2010112185 A JP 2010112185A JP 2011242861 A JP2011242861 A JP 2011242861A
Authority
JP
Japan
Prior art keywords
object model
position information
object recognition
feature point
model database
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010112185A
Other languages
Japanese (ja)
Other versions
JP5685390B2 (en
Inventor
Keiichi Ochiai
桂一 落合
Shin Hasegawa
慎 長谷川
Takeshi Ninchoji
毅 忍頂寺
Masaichi Yamauchi
政一 山内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Gaia Holdings Corp
Original Assignee
NTT Docomo Inc
Gaia Holdings Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc, Gaia Holdings Corp filed Critical NTT Docomo Inc
Priority to JP2010112185A priority Critical patent/JP5685390B2/en
Publication of JP2011242861A publication Critical patent/JP2011242861A/en
Application granted granted Critical
Publication of JP5685390B2 publication Critical patent/JP5685390B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an object recognition device, object recognition system and object recognition method for reducing the size of an object model DB to perform collation in accordance with the feature of a place.SOLUTION: A mobile terminal 100 includes a feature point collation unit 107 that collates a feature point of each object written in an object model database and determined based on the position information acquired by a position information acquiring unit 101 with a feature point extracted by a feature point extraction unit 106 and from image data captured by a camera unit 103, and reads information on the object determined to have the highest similarity in feature point from a storage unit 109 (object model DB). A display unit 105 displays the name of the object or the like.

Description

本発明は、物体を認識する物体認識装置、物体認識システムおよび物体認識方法に関する。   The present invention relates to an object recognition apparatus, an object recognition system, and an object recognition method for recognizing an object.

コンピュータビジョンの分野において、カメラ等で取得した画像から複数の特徴点を抽出し、データベースに登録された物体モデルの特徴点と照合することで物体認識を行う技術が知られている。このような物体認識技術で用いられる特徴点抽出のアルゴリズムとしては、SIFT(Scale-Invariant Feature Transform)やSURF(Speeded Up Robust Features)が知られている。SIFTについては、例えば、米国特許6711293(特許文献1)に、その詳細が記載されている。このSIFTにおいては、データベースに登録した物体モデル数が多いほど認識できる物体の種類は増えることになる。   In the field of computer vision, a technique is known in which object recognition is performed by extracting a plurality of feature points from an image acquired by a camera or the like and comparing them with feature points of an object model registered in a database. As algorithm for feature point extraction used in such object recognition technology, SIFT (Scale-Invariant Feature Transform) and SURF (Speeded Up Robust Features) are known. The details of SIFT are described in, for example, US Pat. No. 6,711,293 (Patent Document 1). In this SIFT, the types of objects that can be recognized increase as the number of object models registered in the database increases.

米国特許6711293U.S. Pat. 特表2009−535680Special table 2009-535680

このように物体認識処理を実現するには物体モデルDBを予めメモリに格納しておく必要がある。しかしながら、一般的にメモリには記憶容量には限りがあり、また物体認識速度を向上させるため、物体モデルデータベース(DB)のサイズは極力低減したいという要望がある。   Thus, in order to realize the object recognition processing, the object model DB needs to be stored in the memory in advance. However, in general, memory has a limited storage capacity, and there is a demand for reducing the size of the object model database (DB) as much as possible in order to improve the object recognition speed.

一方、実空間の中に存在している物体は、その場所によって偏りがある。すなわち、例えば文房具店の中であれば文房具の比率が高くなり、郊外の森林公園の中であれば自然物の比率が高くなるように、周囲に存在する物体はその場所の特性に応じて偏っているのである。しかしながら、従来の物体認識では、このような場所の特性による物体の偏りを意識していなかった。   On the other hand, an object existing in real space is biased depending on its location. That is, for example, the ratio of stationery is high in stationery stores, and the ratio of natural objects is high in suburban forest parks. It is. However, the conventional object recognition is not aware of the object bias due to such location characteristics.

そこで、上述の課題を解決するために、本発明は、物体モデルDBのサイズを低減し、かつ、場所の特性に応じた照合処理を行うことが可能な物体認識装置、物体認識システムおよび物体認識方法を提供することを目的とする。   Therefore, in order to solve the above-described problem, the present invention reduces the size of the object model DB and can perform collation processing according to the location characteristics, an object recognition system, and an object recognition It aims to provide a method.

上述の課題を解決するために、本発明の物体認識装置は、画像データを取得する撮影手段と、物体認識装置の位置情報を取得する位置情報取得手段と、前記位置情報取得手段より取得された位置情報に基づいて決定された物体モデルデータベースに記憶されている各物体における特徴点と、前記撮影手段により撮影された画像データから抽出した特徴点とを照合する特徴点照合手段と、前記特徴点照合手段により特徴点が最も類似していると判断される物体に関する情報を提示する提示手段と、を備えている。   In order to solve the above-described problems, an object recognition apparatus of the present invention is acquired by a photographing unit that acquires image data, a position information acquisition unit that acquires position information of the object recognition device, and the position information acquisition unit. Feature point matching means for matching feature points of each object stored in the object model database determined based on position information with feature points extracted from image data photographed by the photographing means; and the feature points Presenting means for presenting information relating to an object whose feature points are determined to be most similar by the matching means.

また、本発明の物体認識方法は、画像データを取得する撮影ステップと、物体認識装置の位置情報を取得する位置情報取得ステップと、前記位置情報取得ステップより取得された位置情報に基づいて決定された物体モデルデータベースに記憶されている各物体における特徴点と、前記撮影ステップにより撮影された画像データから抽出した特徴点とを照合する特徴点照合ステップと、前記特徴点照合ステップにより特徴点が最も類似していると判断される物体に関する情報を提示する提示ステップと、を備えている。   The object recognition method of the present invention is determined based on the photographing step for acquiring image data, the position information acquisition step for acquiring position information of the object recognition device, and the position information acquired from the position information acquisition step. A feature point matching step that matches a feature point of each object stored in the object model database with a feature point extracted from the image data captured in the imaging step, and the feature point matching step is the most characteristic point. A presenting step for presenting information on an object determined to be similar.

この発明によれば、取得された位置情報に基づいて決定された物体モデルデータベースに記憶されている各物体における特徴点と、撮影された画像データから抽出した特徴点とを照合し、特徴点が最も類似していると判断される物体に関する情報を提示する。これにより、位置に応じて適切な物体モデルデータベースを利用することができ、少ない容量の物体モデルデータベースで精度よく物体認識を行うことができる。さらに、少ない容量の物体モデルデータベースを用いることで、比較的短時間で物体認識処理を行うことができる。   According to the present invention, the feature point in each object stored in the object model database determined based on the acquired position information is collated with the feature point extracted from the captured image data, and the feature point is Information about the object judged to be the most similar is presented. Thus, an appropriate object model database can be used according to the position, and object recognition can be performed with high accuracy using an object model database with a small capacity. Furthermore, object recognition processing can be performed in a relatively short time by using a small-capacity object model database.

また、本発明の物体認識装置は、前記物体認識装置が向いている方向を示す方位情報を取得する方位情報取得手段を備え、前記特徴点照合手段は、位置情報に加えて、前記方位情報取得手段により取得された方位情報に基づいて決定された物体モデルデータベースに記憶されている各物体における特徴点と、前記撮影手段により撮影された画像データから抽出した特徴点とを照合することが好ましい。   Moreover, the object recognition device of the present invention includes azimuth information acquisition means for acquiring azimuth information indicating the direction in which the object recognition device is facing, and the feature point matching means acquires the azimuth information in addition to position information. Preferably, the feature points of each object stored in the object model database determined based on the orientation information acquired by the means are matched with the feature points extracted from the image data photographed by the photographing means.

この発明によれば、位置情報に加えて、方位情報に基づいて決定された物体モデルデータベースに記憶されている各物体における特徴点と、画像データから抽出した特徴点とを照合することにより、位置および方位に応じた適切な物体モデルデータベースを利用することができ、少ない容量の物体モデルデータベースで精度よく物体認識を行うことができる。   According to this invention, in addition to the position information, by comparing the feature points of each object stored in the object model database determined based on the orientation information with the feature points extracted from the image data, In addition, an appropriate object model database corresponding to the direction can be used, and object recognition can be performed with high accuracy using an object model database with a small capacity.

また、本発明の物体認識装置は、前記位置情報取得手段により取得された位置情報を、複数の物体モデルデータベースを記憶するサーバに送信する送信手段と、前記サーバから位置情報に応じて返信された物体モデルデータベースを受信する受信手段と、を備え、前記特徴点照合手段は、前記受信手段により受信された物体モデルデータベースに基づいて照合処理を行うことが好ましい。   Further, the object recognition apparatus of the present invention is replied in response to the position information from the transmission means for transmitting the position information acquired by the position information acquisition means to a server that stores a plurality of object model databases. Receiving means for receiving an object model database, and the feature point matching means preferably performs matching processing based on the object model database received by the receiving means.

この発明によれば、取得された位置情報を、複数の物体モデルデータベースを記憶するサーバに送信し、サーバから位置情報に応じて返信された物体モデルデータベースを受信し、受信された物体モデルデータベースに基づいて照合処理を行う。これにより、物体認識装置側では、物体モデルデータベースの全てを有する必要が無く、低容量のメモリで精度よく物体認識処理を行うことができる。   According to the present invention, the acquired position information is transmitted to a server storing a plurality of object model databases, the object model database returned according to the position information from the server is received, and the received object model database is stored in the received object model database. Based on this, a matching process is performed. Thus, the object recognition apparatus does not need to have all of the object model database, and can perform object recognition processing with high accuracy using a low-capacity memory.

また、本発明の物体認識システムは、上記物体認識装置と、当該物体認識装置と通信するサーバとを備える物体認識システムにおいて、前記サーバは、それぞれの物体の特徴点を示す特徴点データを記述する物体モデルデータベースから、前記位置情報取得手段により取得された位置情報に基づいて、前記物体認識装置における照合対象となる物体モデルデータベースを決定する決定手段と、前記決定手段により決定された物体モデルデータベースを前記物体認識装置に送信する送信手段と、を備えている。   The object recognition system of the present invention is an object recognition system including the object recognition device and a server that communicates with the object recognition device, and the server describes feature point data indicating feature points of each object. Based on the position information acquired by the position information acquisition means from the object model database, a determination means for determining an object model database to be collated in the object recognition device; and an object model database determined by the determination means Transmitting means for transmitting to the object recognition device.

また、本発明の物体認識方法は、物体認識装置と、前記物体認識装置と通信するサーバとを備える物体認識システムにおける物体認識方法において、前記物体認識装置は、画像データを取得する撮影ステップと、物体認識装置の位置情報を取得する位置情報取得ステップと、前記位置情報取得ステップより取得された位置情報に基づいて決定された物体モデルデータベースに記憶されている各物体における特徴点と、前記撮影ステップにより撮影された画像データから抽出した特徴点とを照合する特徴点照合ステップと、前記特徴点照合ステップにより特徴点が最も類似していると判断される物体に関する情報を提示する提示ステップと、を備え、前記サーバは、それぞれの物体の特徴点を示す特徴点データを記述する物体モデルデータベースに基づいて、前記位置情報取得ステップにより取得された位置情報に基づいて、前記物体認識装置における照合対象となる物体モデルデータベースを決定する決定ステップと、前記決定ステップにより決定された物体モデルデータベースを前記物体認識装置に送信する送信ステップと、を備えている。   The object recognition method of the present invention is an object recognition method in an object recognition system comprising an object recognition device and a server that communicates with the object recognition device, wherein the object recognition device obtains image data; and A position information acquisition step of acquiring position information of the object recognition device; a feature point in each object stored in an object model database determined based on the position information acquired from the position information acquisition step; and the imaging step A feature point matching step that matches feature points extracted from the image data captured by the step, and a presentation step that presents information about an object that is determined to be the most similar feature point by the feature point matching step. The server includes an object model database describing feature point data indicating feature points of each object. Based on the position information acquired by the position information acquisition step, a determination step of determining an object model database to be collated in the object recognition device, and the object model database determined by the determination step And a transmission step of transmitting to the object recognition device.

この発明によれば、サーバにおいて、それぞれの物体の特徴点を示す特徴点データを記述する物体モデルデータベースに基づいて、取得された位置情報に基づいて、物体認識装置における照合対象となる物体モデルデータベースを決定し、決定された物体モデルデータベースを物体認識装置に送信することができる。これにより、物体認識装置の位置に応じて適切に定められた物体モデルを、物体認識装置に送信することができ、物体認識装置では精度よく物体認識処理を行うことができる。   According to the present invention, in the server, based on the object model database describing the feature point data indicating the feature point of each object, based on the acquired position information, the object model database to be collated in the object recognition device And the determined object model database can be transmitted to the object recognition device. Accordingly, an object model appropriately determined according to the position of the object recognition device can be transmitted to the object recognition device, and the object recognition device can perform object recognition processing with high accuracy.

また、本発明の物体認識システムのサーバにおいて、前記決定手段は、前記位置情報取得手段により取得された位置情報に加えて、前記物体認識装置の方位情報に基づいて物体モデルデータベースを決定することが好ましい。   In the server of the object recognition system of the present invention, the determination unit may determine an object model database based on the orientation information of the object recognition device in addition to the position information acquired by the position information acquisition unit. preferable.

この発明によれば、位置情報に加えて、物体認識装置の方位情報に基づいて物体モデルデータベースを決定することで、位置および方位に応じた適切な物体モデルデータベースを利用することができ、物体認識装置側において少ないメモリ容量で精度よく物体認識処理を行うことができる。   According to the present invention, by determining the object model database based on the azimuth information of the object recognition device in addition to the position information, an appropriate object model database corresponding to the position and azimuth can be used. Object recognition processing can be performed with high accuracy on the apparatus side with a small memory capacity.

また、本発明の物体認識システムのサーバにおいて、前記決定手段は、複数の物体モデルデータベースから、一の物体モデルデータベースを決定することが好ましい。   In the server of the object recognition system of the present invention, it is preferable that the determining means determines one object model database from a plurality of object model databases.

この発明によれば、複数の物体モデルデータベースから、一の物体モデルデータベースを決定することで、少ない容量のデータベースを利用して制度よく物体認識処理を行うことができる。   According to the present invention, by determining one object model database from a plurality of object model databases, the object recognition process can be performed systematically using a database with a small capacity.

また、本発明の物体認識システムのサーバにおいて、前記決定手段は、複数の物体モデルデータベースのうち、いくつかの物体モデルデータベースを組み合わせることで一の物体モデルデータベースを生成し、照合対象となる一の物体モデルデータベースを決定することが好ましい。   In the server of the object recognition system of the present invention, the determining unit generates one object model database by combining several object model databases among a plurality of object model databases, and Preferably, an object model database is determined.

この発明によれば、複数の物体モデルデータベースのうち、いくつかの物体モデルデータベースを組み合わせることで、一の物体モデルデータベースを生成し、照合対象となる一の物体モデルデータベースを決定することができ、適切な物体モデルデータベースを構築することができ、物体認識装置側においては少ないメモリ容量で、精度よく物体認識処理を行うことができる。   According to the present invention, by combining several object model databases among a plurality of object model databases, it is possible to generate one object model database and determine one object model database to be collated, An appropriate object model database can be constructed, and object recognition processing can be performed with high accuracy with a small memory capacity on the object recognition apparatus side.

また、本発明の物体認識システムのサーバにおいて、前記決定手段は、一の物体モデルデータベース全体から複数の物体モデルを選択して、一の物体モデルデータベースを生成することで、照合対象となる一の物体モデルデータベースを決定することが好ましい。   In the server of the object recognition system of the present invention, the determination unit selects a plurality of object models from the entire one object model database and generates one object model database. Preferably, an object model database is determined.

この発明によれば、一の物体モデルデータベース全体から複数の物体モデルを選択して、一の物体モデルデータベースを生成することで、照合対象となる一の物体モデルデータベースを決定することができ、必要な物体モデルのみからなる一の物体モデルデータベースを構築することができる。よって、物体認識装置側においては、少ないメモリ容量で精度よく物体認識処理を行うことができる。   According to the present invention, by selecting a plurality of object models from one entire object model database and generating one object model database, it is possible to determine one object model database to be collated, which is necessary. It is possible to construct an object model database consisting only of simple object models. Therefore, the object recognition apparatus can accurately perform object recognition processing with a small memory capacity.

また、本発明の物体認識システムは、物体認識装置と、前記物体認識装置と通信するサーバとを備える物体認識システムにおいて、前記物体認識装置は、画像データを取得する撮影手段と、物体認識装置の位置情報を取得する位置情報取得手段と、前記サーバから送信される物体に関する情報を提示する提示手段と、前記サーバは、それぞれの物体の特徴点を示す特徴点データを記述する物体モデルデータベースから、前記位置情報取得手段により取得された位置情報に基づいて、前記物体認識装置における照合対象となる物体モデルデータベースを決定する決定手段と、前記位置情報取得手段より取得された位置情報に基づいて決定された物体モデルデータベースに記憶されている各物体における特徴点と、前記撮影手段により撮影された画像データから抽出した特徴点とを照合する特徴点照合手段と、前記特徴点照合手段により特徴点が最も類似していると判断される物体に関する情報を前記物体認識装置に送信する送信手段と、を備えている。   Further, the object recognition system of the present invention is an object recognition system comprising an object recognition device and a server that communicates with the object recognition device, wherein the object recognition device includes a photographing means for acquiring image data, and an object recognition device. Position information acquisition means for acquiring position information, presentation means for presenting information on an object transmitted from the server, and the server from an object model database describing feature point data indicating feature points of each object, Based on the position information acquired by the position information acquisition means, a determination means for determining an object model database to be collated in the object recognition device, and a position information acquired by the position information acquisition means. Feature points of each object stored in the object model database and the image taken by the imaging means A feature point matching unit that matches feature points extracted from image data, a transmission unit that transmits information about an object that is judged to be most similar by the feature point matching unit to the object recognition device, and It has.

この発明によれば、物体認識装置において取得した位置情報と特徴点データは、サーバに送信され、サーバにおいて、その位置情報に応じて定められた物体モデルデータベースを利用して、送信された特徴点データに対する照合処理を行うことができる。よって、物体認識装置の処理負荷を軽減しつつ、位置に応じた適切な物体モデルデータベースを利用して、精度のよい物体認識処理を実現することができる。   According to the present invention, the position information and feature point data acquired by the object recognition device are transmitted to the server, and the server uses the object model database determined according to the position information to transmit the feature points. A verification process can be performed on the data. Therefore, accurate object recognition processing can be realized using an appropriate object model database corresponding to the position while reducing the processing load of the object recognition apparatus.

本発明によれば、位置に応じて適切な物体モデルデータベースを利用することができ、少ない容量の物体モデルデータベースで精度よく物体認識を行うことができる。さらに、少ない容量の物体モデルデータベースを用いることで、比較的短時間で物体認識処理を行うことができる。   According to the present invention, an appropriate object model database can be used according to the position, and object recognition can be performed with high accuracy using an object model database with a small capacity. Furthermore, object recognition processing can be performed in a relatively short time by using a small-capacity object model database.

本実施形態の物体認識システムの構成を示すシステム構成図である。It is a system configuration figure showing the composition of the object recognition system of this embodiment. 携帯端末100の構成を示すブロック図である。2 is a block diagram showing a configuration of a mobile terminal 100. FIG. 携帯端末100のハードウェア構成を示すブロック図である。2 is a block diagram showing a hardware configuration of a mobile terminal 100. FIG. 物体モデルデータベース(DB)サーバの構成を示すブロック図である。It is a block diagram which shows the structure of an object model database (DB) server. ゾーン定義データベース(DB)のデータ形式の一例を示す説明図である。It is explanatory drawing which shows an example of the data format of a zone definition database (DB). 物体モデルデータベース(DB)のデータ形式の一例を示す説明図である。It is explanatory drawing which shows an example of the data format of an object model database (DB). 物体認識システムの物体認識動作のフローチャートである。It is a flowchart of the object recognition operation | movement of an object recognition system. 変形例における携帯端末100aの機能を示すブロック図である。It is a block diagram which shows the function of the portable terminal 100a in a modification. 変形例における携帯端末100bの機能を示すブロック図である。It is a block diagram which shows the function of the portable terminal 100b in a modification. 変形例における物体モデルデータベース(DB)サーバ200bの機能を示すブロック図である。It is a block diagram which shows the function of the object model database (DB) server 200b in a modification.

添付図面を参照しながら本発明の実施形態を説明する。可能な場合には、同一の部分には同一の符号を付して、重複する説明を省略する。   Embodiments of the present invention will be described with reference to the accompanying drawings. Where possible, the same parts are denoted by the same reference numerals, and redundant description is omitted.

図1は、本実施形態の物体認識システムのシステム構成図である。図1に示されるように、この物体認識システムは、携帯端末100および物体モデルDBサーバ200から構成されている。この携帯端末100は、基地局120を介してネットワーク上に配置されている物体モデルDBサーバ200とアクセスすることができる。そして、図1では、携帯端末100は、対象物150を撮影すると、その特徴点を物体モデルDBサーバ200に記憶されている物体モデルDBの特徴点と照合して、その対象物150に関するメッセージを表示することができる。以下、携帯端末100および物体モデルDBサーバ200についてさらに詳細に説明する。   FIG. 1 is a system configuration diagram of an object recognition system of the present embodiment. As shown in FIG. 1, the object recognition system includes a mobile terminal 100 and an object model DB server 200. The portable terminal 100 can access the object model DB server 200 arranged on the network via the base station 120. In FIG. 1, when the mobile terminal 100 captures the object 150, the mobile terminal 100 collates the feature point with the feature point of the object model DB stored in the object model DB server 200, and displays a message regarding the object 150. Can be displayed. Hereinafter, the portable terminal 100 and the object model DB server 200 will be described in more detail.

図2は、携帯端末100の機能構成を示すブロック図である。図2に示されるとおり、この携帯端末100は、位置情報取得部101(位置情報取得手段)、方位センサ102(方位情報取得手段)、カメラ部103(撮影手段)、入力部104、表示部105(提示手段)、特徴点抽出部106(特徴点抽出手段)、特徴点照合部107(特徴点照合手段)、通信部108および記憶部109を含んで構成されている。   FIG. 2 is a block diagram illustrating a functional configuration of the mobile terminal 100. As shown in FIG. 2, the mobile terminal 100 includes a position information acquisition unit 101 (position information acquisition unit), a direction sensor 102 (direction information acquisition unit), a camera unit 103 (imaging unit), an input unit 104, and a display unit 105. (Presentation means), a feature point extraction unit 106 (feature point extraction unit), a feature point collation unit 107 (feature point collation unit), a communication unit 108, and a storage unit 109.

図3は、携帯端末100のハードウェア構成図である。図2に示される携帯端末100は、物理的には、図3に示すように、CPU11、主記憶装置であるRAM12及びROM13、入力デバイスであるキーボード及びマウス等の入力装置14、ディスプレイ等の出力装置15、ネットワークカード等のデータ送受信デバイスである通信モジュール16、ハードディスク等の補助記憶装置17などを含むコンピュータシステムとして構成されている。図2において説明した各機能は、図3に示すCPU11、RAM12等のハードウェア上に所定のコンピュータソフトウェアを読み込ませることにより、CPU11の制御のもとで入力装置14、出力装置15、通信モジュール16を動作させるとともに、RAM12や補助記憶装置17におけるデータの読み出し及び書き込みを行うことで実現される。以下、図2に示す機能ブロックに基づいて、各機能ブロックを説明する。   FIG. 3 is a hardware configuration diagram of the mobile terminal 100. As shown in FIG. 3, the portable terminal 100 shown in FIG. 2 physically includes a CPU 11, a RAM 12 and a ROM 13 that are main storage devices, an input device 14 such as a keyboard and a mouse that are input devices, and an output such as a display. The computer 15 includes a device 15, a communication module 16 that is a data transmission / reception device such as a network card, an auxiliary storage device 17 such as a hard disk, and the like. Each function described in FIG. 2 has the input device 14, the output device 15, and the communication module 16 under the control of the CPU 11 by reading predetermined computer software on the hardware such as the CPU 11 and the RAM 12 shown in FIG. 3. This is realized by reading and writing data in the RAM 12 and the auxiliary storage device 17. Hereinafter, each functional block will be described based on the functional blocks shown in FIG.

位置情報取得部101は、GPS(Global Positioning System)を利用して携帯端末100の現在位置を示す意義情報を取得する部分である。   The position information acquisition unit 101 is a part that acquires significance information indicating the current position of the mobile terminal 100 using GPS (Global Positioning System).

方位センサ102は、携帯端末100が向いている方向を検出する部分であり、例えば、地磁気センサを用いて携帯端末100のカメラ部103の撮影方向を検出する。   The direction sensor 102 is a part that detects the direction in which the mobile terminal 100 is facing, and detects the shooting direction of the camera unit 103 of the mobile terminal 100 using, for example, a geomagnetic sensor.

カメラ部103は、実際の空間を撮影する部分であり、撮影により得られた画像データは表示部105に表示される。   The camera unit 103 is a part that images an actual space, and image data obtained by the imaging is displayed on the display unit 105.

入力部104は、ユーザによる操作を受け付ける部分であり、例えば、テンキーなどのボタンにより構成されている。   The input unit 104 is a part that receives an operation by the user, and is configured by a button such as a numeric keypad.

表示部105は、カメラ部103により撮影された画像データおよび特徴点照合部107において照合された結果である物体に関する情報(例えば、物体の名称)を重畳して表示する部分である。   The display unit 105 is a part that superimposes and displays the image data captured by the camera unit 103 and information (for example, the name of the object) related to the object as a result of collation by the feature point collation unit 107.

特徴点抽出部106は、カメラ部103により撮影された画像データ全体の特徴点、または当該画像データに含まれているオブジェクトの特徴点を抽出する部分である。例えば、特徴点抽出部106は、特徴点抽出のためのアルゴリズムとして、SIFT、またはSURFを利用する。SIFTを利用した場合、特徴点抽出部106は、所定個数(例えば114個)のキーポイントを抽出し、それぞれのキーポイントにおける、座標(X座標、Y座標)、スケール、向き、および特徴を示す128次元のベクトルを抽出する。このキーポイントの抽出処理は、DoG処理を行うことでスケールスペースにおける極値探索を行い、キーポイントの位置とスケールを決定することができる。そして、そのキーポイントの座標の周辺領域(スケールの範囲内)における128個の輝度の勾配情報が求められ、128次元ベクトルとして取得される。   The feature point extraction unit 106 is a part that extracts the feature points of the entire image data photographed by the camera unit 103 or the feature points of the objects included in the image data. For example, the feature point extraction unit 106 uses SIFT or SURF as an algorithm for feature point extraction. When SIFT is used, the feature point extraction unit 106 extracts a predetermined number (for example, 114) of key points, and shows coordinates (X coordinate, Y coordinate), scale, orientation, and features at each key point. A 128-dimensional vector is extracted. In the key point extraction process, the extreme value search in the scale space is performed by performing the DoG process, and the position and scale of the key point can be determined. Then, 128 pieces of luminance gradient information in the peripheral area (within the range of the scale) of the coordinates of the key point are obtained and acquired as a 128-dimensional vector.

なお、SURFにおいても同様に、キーポイントと、そのキーポイントにおける特徴量をベクトルで表したものが取得され、これら情報に基づいた照合処理を行うことを可能にしている。   Similarly, in SURF, a key point and a vector representing the feature value at the key point are acquired, and collation processing based on the information can be performed.

特徴点照合部107は、特徴点抽出部106において抽出された特徴点と、記憶部109に記憶されている物体モデルDBに記述されている特徴点との照合処理を行う部分である。SIFTを利用した場合、特徴点照合部107は、それぞれの特徴点における128次元ベクトルを比較することにより、照合処理を行う。そして、特徴点照合部107は、物体モデルDBに記述されている複数の物体モデルのうち、最近傍である特徴ベクトルを有する物体モデルに所定点を投票する。例えば、特徴点照合部107は、対象画像から例えば抽出された100個の特徴点の一つ一つについて最近傍となる特徴点を持っている物体モデルに投票を行う。ここで、最近傍というのはユークリッド距離が最も近いことを意味する。最後の特徴点まで投票が終了したところで、最も投票数の多かった、すなわち特徴点が最も類似している物体モデルを、画像データから認識された物体であると判定する。そして、特徴点照合部107は、物体モデルDBから対応する物体の名称を読み出し、表示部105に出力する。   The feature point matching unit 107 is a part that performs a matching process between the feature points extracted by the feature point extraction unit 106 and the feature points described in the object model DB stored in the storage unit 109. When SIFT is used, the feature point matching unit 107 performs matching processing by comparing 128-dimensional vectors at the respective feature points. Then, the feature point matching unit 107 votes a predetermined point to an object model having a feature vector that is the nearest among a plurality of object models described in the object model DB. For example, the feature point matching unit 107 votes for an object model having the closest feature point for each of 100 feature points extracted from the target image, for example. Here, the nearest neighbor means that the Euclidean distance is the shortest. When voting has been completed up to the last feature point, the object model having the largest number of votes, that is, the most similar feature point is determined to be an object recognized from the image data. Then, the feature point matching unit 107 reads the name of the corresponding object from the object model DB and outputs it to the display unit 105.

なお、特徴点照合部107は、一般物体認識(Classification)および特定物体認識(Identification)に対しても対応可能である。例えば、物体モデルDBには、抽象的な物体の総称である「くるま」の特徴点データを記述しており、またさらに具体的な特定の車種の特徴データを記述している場合、特徴点照合部107は、照合結果によっては、「自動車」といった一般的な名称を読み出してもよいし、またさらに詳細な車種名まで読み出すようにしてもよい。この場合、「自動車」の方の特徴点データは、特定の車種を特定するための特徴点データと比較して、大まかな特徴点データから構成されている。また、特徴点照合部107において、所定数の投票数をそれぞれの物体モデルにおいて得られておらず、一般物体認識のための物体モデルにおいて所定数の得票数が得られている場合には、その一般物体認識のための物体モデルである「自動車」という名称を物体モデルDBから読み出すようにしてもよい。   The feature point matching unit 107 can also deal with general object recognition (Classification) and specific object recognition (Identification). For example, in the object model DB, feature point data of “car”, which is a generic term for abstract objects, is described, and moreover, when specific feature data of a specific vehicle type is described, feature point matching is performed. The unit 107 may read a general name such as “automobile” depending on the collation result, or may read a more detailed car model name. In this case, the feature point data for the “automobile” is composed of rough feature point data as compared with the feature point data for specifying a specific vehicle type. Further, in the feature point matching unit 107, when a predetermined number of votes is not obtained in each object model and a predetermined number of votes is obtained in the object model for general object recognition, The name “automobile” that is an object model for general object recognition may be read from the object model DB.

通信部108は、ネットワークと接続するための通信処理を行う部分であり、携帯端末100においては、無線通信による通信処理を実行する部分である。例えば、通信部108は、携帯端末100の位置情報および撮影方向を示す方位情報を物体モデルDBサーバ200に対して送信し、物体モデルDBサーバ200においては、その位置情報および方位情報に応じて定められた物体モデルDBを、物体モデルDBサーバ200から受信する。   The communication unit 108 is a part that performs communication processing for connecting to a network, and the mobile terminal 100 is a part that executes communication processing by wireless communication. For example, the communication unit 108 transmits the position information of the mobile terminal 100 and the direction information indicating the shooting direction to the object model DB server 200, and the object model DB server 200 determines the position information and the direction information according to the position information and the direction information. The obtained object model DB is received from the object model DB server 200.

記憶部109は、物体モデルDBサーバ200から、通信部108において受信された物体モデルDBを記憶する部分である。   The storage unit 109 is a part that stores the object model DB received by the communication unit 108 from the object model DB server 200.

このように構成された携帯端末100は、物体モデルDBサーバ200から、位置情報に応じた物体モデルDBを取得し、その物体モデルDBを用いた特徴点の照合処理を行うことで、適切な物体認識処理を行うことができる。   The mobile terminal 100 configured as described above acquires an object model DB corresponding to position information from the object model DB server 200, and performs a matching process of feature points using the object model DB, so that an appropriate object is obtained. Recognition processing can be performed.

つぎに、物体モデルDBサーバ200の構成について説明する。図4は、物体モデルDBサーバ200の機能構成を示すブロック図である。図4に示されるように、物体モデルDBサーバ200は、通信部201(送信手段、受信手段)、ゾーン特定部202、ゾーン定義DB203、物体モデルDB選択部204(決定手段)、および物体モデルDB格納部205(物体モデルDB)を含んで構成されている。この物体モデルDBサーバ200も、携帯端末100と同じくコンピュータシステムから構成されているものであり、プログラムに従った動作を行うことにより、上述の各機能を実行することができる。以下、構成要素について説明する。   Next, the configuration of the object model DB server 200 will be described. FIG. 4 is a block diagram showing a functional configuration of the object model DB server 200. As shown in FIG. 4, the object model DB server 200 includes a communication unit 201 (transmission unit, reception unit), a zone identification unit 202, a zone definition DB 203, an object model DB selection unit 204 (determination unit), and an object model DB. The storage unit 205 (object model DB) is included. This object model DB server 200 is also composed of a computer system, similar to the portable terminal 100, and can execute the functions described above by performing operations according to the program. Hereinafter, the components will be described.

通信部201は、携帯端末100と通信処理を実行する部分であり、例えば、携帯端末100から送信された位置情報および方位情報を受信し、その位置情報および方位情報に応じて決定された物体モデルDBを携帯端末100に送信する部分である。   The communication unit 201 is a part that executes communication processing with the mobile terminal 100. For example, the communication unit 201 receives position information and orientation information transmitted from the mobile terminal 100, and determines an object model determined according to the position information and orientation information. This is the part that transmits the DB to the mobile terminal 100.

ゾーン特定部202は、ゾーン定義DB203を参照して、携帯端末100から送信された位置情報に対応するゾーンを特定する部分である。なお、ゾーン特定部202は、携帯端末100の実際の位置に基づいてゾーンを特定する方法のほか、携帯端末100の実際に位置している範囲および撮影する方向に基づいて、撮影しているゾーンを特定するようにしてもよい。例えば、ゾーン特定部202は、携帯端末100から送信された位置情報および方位情報に基づいて、撮影している範囲は分かるため、それら情報に基づいてゾーンを特定することができる。なお、複数のゾーンが重なっているなど、携帯端末100の位置に応じたゾーンが複数存在する場合がある。この場合には、複数のゾーンを特定してもよいし、方位情報に基づいていずれのゾーンに向いているものか判断して、一のゾーンを特定するようにしてもよい。   The zone specifying unit 202 is a part that specifies a zone corresponding to the position information transmitted from the mobile terminal 100 with reference to the zone definition DB 203. In addition to the method of specifying the zone based on the actual position of the mobile terminal 100, the zone specifying unit 202 captures the zone based on the range where the mobile terminal 100 is actually located and the shooting direction. May be specified. For example, the zone specifying unit 202 can identify the zone based on the information because the shooting range is known based on the position information and the direction information transmitted from the mobile terminal 100. Note that there may be a plurality of zones according to the position of the mobile terminal 100, such as a plurality of zones overlapping each other. In this case, a plurality of zones may be specified, or one zone may be specified by determining which zone is suitable based on the azimuth information.

ゾーン定義DB203は、ゾーンを定義した情報を記述する部分であり、例えば中心位置および範囲半径によりゾーンを定義している。なお、円形でゾーンを定義することに限定するものではなく、矩形でゾーンを定義してもよいし、三角形、そのほか多角形によりゾーンを定義してもよい。   The zone definition DB 203 is a part describing information defining a zone. For example, the zone is defined by the center position and the range radius. It should be noted that the zone is not limited to being defined by a circle, but may be defined by a rectangle, a zone may be defined by a triangle, or other polygon.

図5に、ゾーン定義DB203に記憶されているゾーン定義DBの具体例を示す。図5に示されているように、ゾーン定義DBは、そのゾーンの中心位置を示す中心位置情報、その範囲(半径)、ゾーンを識別するためのゾーンID、ゾーンの名称を対応付けて記述している。   FIG. 5 shows a specific example of the zone definition DB stored in the zone definition DB 203. As shown in FIG. 5, the zone definition DB describes center position information indicating the center position of the zone, its range (radius), zone ID for identifying the zone, and zone name in association with each other. ing.

物体モデルDB選択部204は、物体モデルDB格納部205に記憶されている複数の物体モデルDBから、携帯端末100から受信した位置情報に基づいて、対応する一のゾーンを選択し、その一のゾーンに応じた物体モデルDBを物体モデルDB格納部205から抽出し、通信部201を介して携帯端末100に配信する部分である。   The object model DB selection unit 204 selects one corresponding zone from the plurality of object model DBs stored in the object model DB storage unit 205 based on the position information received from the mobile terminal 100, and The object model DB corresponding to the zone is extracted from the object model DB storage unit 205 and distributed to the mobile terminal 100 via the communication unit 201.

なお、物体モデルDB選択部204は、一のゾーンに対応する一の物体モデルDBを選択する方法のほか、複数の物体モデルDBから、投票数の上位いくつかの物体モデルDBを選択し、これらを組み合わせて一の物体モデルDBとしてもよいし、物体モデルDB全体から一部の物体モデルを抽出して、新たな一の物体モデルDBを生成してもよい。   In addition to the method of selecting one object model DB corresponding to one zone, the object model DB selection unit 204 selects several object model DBs with the highest number of votes from a plurality of object model DBs, and these May be combined into one object model DB, or a part of the object model may be extracted from the entire object model DB to generate a new one object model DB.

物体モデルDB格納部205は、各物体の特徴点を示す物体モデルを記述する物体モデルDBを記憶する部分である。この物体モデルDBは、例えば、図6に示されるように、物体モデルID、物体の名称、物体の特徴点からなる物体モデルを記述している。物体の特徴点は、上述のSIFTにより特徴点が抽出されたものである場合には、キーポイントの座標およびそのキーポイントの128次元ベクトルからなるものである。   The object model DB storage unit 205 is a part that stores an object model DB that describes an object model indicating a feature point of each object. For example, as shown in FIG. 6, the object model DB describes an object model including an object model ID, an object name, and an object feature point. When the feature point of the object is extracted by the above-described SIFT, the feature point is composed of the coordinates of the key point and a 128-dimensional vector of the key point.

さらにこの物体モデルDB格納部205は、ゾーンごとに物体モデルDBを記憶するものであり、ゾーン001に対応する物体モデルDB205a、ゾーン002に対応する物体モデルDB205bなどのように、ゾーンごとの物体モデルDBを記憶している。   Further, the object model DB storage unit 205 stores an object model DB for each zone, and an object model for each zone such as an object model DB 205a corresponding to the zone 001, an object model DB 205b corresponding to the zone 002, and the like. DB is stored.

なお、図4においては、ゾーンに対応する物体モデルDBが予め個別に準備されているが、物体モデルDBの一部を構成するためのサブユニットが複数用意されており、物体モデルDB選択部204は、ゾーンに応じて、そのサブユニットが適宜組み合わせて一つの物体モデルDBを構築するようにしてもよい。   In FIG. 4, the object model DB corresponding to the zone is individually prepared in advance, but a plurality of subunits for configuring a part of the object model DB are prepared, and the object model DB selection unit 204 is prepared. Depending on the zone, the subunits may be combined as appropriate to construct one object model DB.

また、物体モデルDB格納部205において、全ての物体モデルを登録したマスターDBを構築しておき、物体モデルDB選択部204は、一のゾーンに対応した物体モデルを抽出することにより、一のゾーンに対応する物体モデルDBを動的に生成するようにしてもよい。例えば、物体モデルDBには、物体モデルに加えて、物体のカテゴリーなどの属性情報も対応付けて記述されており、一方、ゾーン定義DB203においても、ゾーンごとに属性情報が付加されており、ゾーンの属性情報に基づいて対応する物体モデルを抽出して、物体モデルDBを構築するようにしてもよい。例えば、森林にユーザが入った場合には、“昆虫”、“植物”といった属性情報が付加されている物体モデルを抽出することで、森林に存在する物体を認識するための物体モデルDBを構築するようにしてもよい。   Also, in the object model DB storage unit 205, a master DB in which all object models are registered is constructed, and the object model DB selection unit 204 extracts one object model corresponding to one zone, so that one zone is extracted. An object model DB corresponding to the above may be dynamically generated. For example, in the object model DB, attribute information such as an object category is also described in association with the object model. On the other hand, in the zone definition DB 203, attribute information is added for each zone. The corresponding object model may be extracted based on the attribute information, and the object model DB may be constructed. For example, when a user enters a forest, an object model DB for recognizing an object existing in the forest is constructed by extracting an object model to which attribute information such as “insect” and “plant” is added. You may make it do.

つぎに、このように構成された携帯端末100および物体モデルDBサーバ200の処理について説明する。図7は、携帯端末100および物体モデルDBサーバ200の処理を示すフローチャートである。   Next, processing of the mobile terminal 100 and the object model DB server 200 configured as described above will be described. FIG. 7 is a flowchart showing processing of the mobile terminal 100 and the object model DB server 200.

まず、物体認識のための処理起動の操作が行われると、位置情報取得部101が起動し、位置情報が取得され(S101)、カメラ部103が起動して、撮影処理が行われ、ライブビュー表示として、カメラ部103により撮影された画像データが表示部105に表示される(S102)。物体認識メニューに入ると(S103;YES)、物体モデルDBサーバ200に、位置情報取得部101により取得された位置情報が、通信部108により送信される(S104)。   First, when a process activation operation for object recognition is performed, the position information acquisition unit 101 is activated, position information is acquired (S101), the camera unit 103 is activated, shooting processing is performed, and live view is performed. As a display, the image data photographed by the camera unit 103 is displayed on the display unit 105 (S102). When the object recognition menu is entered (S103; YES), the position information acquired by the position information acquisition unit 101 is transmitted to the object model DB server 200 by the communication unit 108 (S104).

物体モデルDBサーバ200においては、通信部201により位置情報が受信され(S201)、位置情報から携帯端末100の位置が所属するゾーンが、ゾーン特定部202により特定される(S202)。特定されたゾーンに対応した物体モデルDBは、物体モデルDB選択部204により選択された物体モデルDBは、通信部201により携帯端末100に送信される(S203)。   In the object model DB server 200, position information is received by the communication unit 201 (S201), and a zone to which the position of the mobile terminal 100 belongs is specified by the zone specifying unit 202 from the position information (S202). The object model DB corresponding to the identified zone is transmitted to the portable terminal 100 by the communication unit 201 (S203).

携帯端末100において、物体モデルDBサーバ200から送信された物体モデルDBは通信部108により受信される(S105)。そして、ユーザ操作により、カメラ部103において撮影された画像データに対して物体認識処理を行うため、物体認識ボタン(入力部104に配置されている)が押下されると(S106:YES)、特徴点抽出部106により、画像データに対して特徴点の抽出処理が行われる(S107)。ここで抽出された特徴点は、受信された物体モデルDBを参照して、特徴点照合部107により、特徴点の照合処理が行われる(S108)。   In the portable terminal 100, the object model DB transmitted from the object model DB server 200 is received by the communication unit 108 (S105). When an object recognition button (arranged in the input unit 104) is pressed to perform object recognition processing on image data captured by the camera unit 103 by a user operation (S106: YES), the feature The point extraction unit 106 performs feature point extraction processing on the image data (S107). The feature points extracted here are subjected to feature point matching processing by the feature point matching unit 107 with reference to the received object model DB (S108).

そして、この特徴点の照合処理の結果、最も近いと思われる特徴点を有する物体モデルが特徴点照合部107により特定され、特定された物体モデルの名称が抽出され、表示部105により、名称が画像データに重畳表示される(S110)。   As a result of the feature point matching process, the object model having the closest feature point is identified by the feature point matching unit 107, the name of the identified object model is extracted, and the name is displayed by the display unit 105. The image data is superimposed and displayed (S110).

このようにして、物体モデルDBは、携帯端末100の位置に応じて決定され、携帯端末100においては、決定された物体モデルDBを利用して、物体認識処理を実行することができる。これにより、その位置に応じた物体モデルDBを利用することができ、少ない容量のデータベースを利用して、効率的な物体認識処理を行うことができる。   Thus, the object model DB is determined according to the position of the mobile terminal 100, and the mobile terminal 100 can execute the object recognition process using the determined object model DB. Thereby, the object model DB corresponding to the position can be used, and an efficient object recognition process can be performed using a database with a small capacity.

つぎに、変形例について説明する。図8は、変形例における携帯端末100aの機能を示すブロック図である。この変形例における携帯端末100aは、物体モデルDBサーバ200を利用することなく、その位置に応じた物体モデルDBを切り替えて、効率的な物体認識処理を行うことができる。   Next, a modified example will be described. FIG. 8 is a block diagram illustrating functions of the mobile terminal 100a according to the modification. The mobile terminal 100a in this modification can perform an efficient object recognition process by switching the object model DB according to the position without using the object model DB server 200.

この携帯端末100aは、位置情報取得部101、方位センサ102、カメラ部103、入力部104、表示部105、特徴点抽出部106、特徴点照合部107、通信部108、記憶部109に加えて、さらに、ゾーン特定部202a、ゾーン定義DB203a、物体モデルDB選択部204a、および物体モデルDB格納部205xを備えている。   The mobile terminal 100a includes a position information acquisition unit 101, an orientation sensor 102, a camera unit 103, an input unit 104, a display unit 105, a feature point extraction unit 106, a feature point matching unit 107, a communication unit 108, and a storage unit 109. Furthermore, a zone specifying unit 202a, a zone definition DB 203a, an object model DB selection unit 204a, and an object model DB storage unit 205x are provided.

この変形例における携帯端末100aによれば、位置情報取得部101において取得された位置情報に基づいて、ゾーン特定部202aがゾーンを特定し、物体モデルDB選択部204aは、ゾーンに応じた一の物体モデルDBを決定し、そして、特徴点照合部107は、決定された物体モデルDBを利用して照合処理を行い、物体認識処理を行うことができる。   According to the mobile terminal 100a in this modification, the zone specifying unit 202a specifies a zone based on the position information acquired by the position information acquiring unit 101, and the object model DB selecting unit 204a The object model DB is determined, and the feature point matching unit 107 can perform the object recognition process by performing the matching process using the determined object model DB.

各構成要素については、ゾーン特定部202a、ゾーン定義DB203a、物体モデルDB選択部204a、および物体モデルDB格納部205xは、それぞれ上述の実施形態におけるゾーン特定部202、ゾーン定義DB203、物体モデルDB選択部204、および物体モデルDB格納部205と同機能を有するものであり、その説明は省略する。   For each component, the zone identification unit 202a, the zone definition DB 203a, the object model DB selection unit 204a, and the object model DB storage unit 205x are respectively the zone identification unit 202, the zone definition DB 203, and the object model DB selection in the above-described embodiment. This has the same function as the unit 204 and the object model DB storage unit 205, and a description thereof will be omitted.

また、更なる変形例として、図9および図10に示されるような携帯端末100bおよび物体モデルDBサーバ200bが考えられる。図9は、変形例における携帯端末100bの機能を示すブロック図であり、図10は、変形例における物体モデルDBサーバ200bの機能を示すブロック図である。   Further, as a further modification, a portable terminal 100b and an object model DB server 200b as shown in FIGS. 9 and 10 can be considered. FIG. 9 is a block diagram illustrating functions of the mobile terminal 100b in the modification, and FIG. 10 is a block diagram illustrating functions of the object model DB server 200b in the modification.

図9に示されるように、この携帯端末100bは、位置情報取得部101、方位センサ102、カメラ部103、入力部104、表示部105、特徴点抽出部106、通信部108、記憶部109から構成されている。   As illustrated in FIG. 9, the mobile terminal 100 b includes a position information acquisition unit 101, an orientation sensor 102, a camera unit 103, an input unit 104, a display unit 105, a feature point extraction unit 106, a communication unit 108, and a storage unit 109. It is configured.

また、図10に示されるように、物体モデルDBサーバ200bは、通信部201、ゾーン特定部202、ゾーン定義DB203、物体モデルDB選択部204、および物体モデルDB格納部205に加えて、特徴点照合部107aを備えている。   Also, as shown in FIG. 10, the object model DB server 200b includes a feature point in addition to the communication unit 201, the zone specifying unit 202, the zone definition DB 203, the object model DB selection unit 204, and the object model DB storage unit 205. A collation unit 107a is provided.

そして、この携帯端末100bは、特徴点抽出部106において抽出された特徴点データを位置情報とともに物体モデルDBサーバ200bに送信する。   Then, the mobile terminal 100b transmits the feature point data extracted by the feature point extraction unit 106 to the object model DB server 200b together with the position information.

物体モデルDBサーバ200bにおいては、ゾーン特定部202は、位置情報に基づいてゾーンを特定し、そのゾーンに基づいて物体モデルDB選択部204は、物体モデルDBを決定する。そして、特徴点照合部107aは、ここで決定された物体モデルDBを利用して、携帯端末100bから送信された特徴点データの照合処理を行い、物体認識処理を行う。照合の結果得られた、物体に関する情報である、物体の名称は携帯端末100bに送信され、表示部105において表示される。このようにして、携帯端末100の処理負荷を軽減することもできる。   In the object model DB server 200b, the zone specifying unit 202 specifies a zone based on the position information, and the object model DB selecting unit 204 determines the object model DB based on the zone. Then, using the object model DB determined here, the feature point matching unit 107a performs matching processing of feature point data transmitted from the mobile terminal 100b, and performs object recognition processing. The name of the object, which is information about the object obtained as a result of the collation, is transmitted to the mobile terminal 100 b and displayed on the display unit 105. In this way, the processing load on the mobile terminal 100 can be reduced.

つぎに、本実施形態の携帯端末100および物体モデルDBサーバ200の作用効果について説明する。   Next, operational effects of the mobile terminal 100 and the object model DB server 200 of the present embodiment will be described.

本実施形態の携帯端末100において、特徴点照合部107は、位置情報取得部101により取得された位置情報に基づいて決定された物体モデルDBに記述されている各物体における特徴点と、特徴点抽出部106により抽出された、カメラ部103により撮影された画像データから抽出した特徴点とを照合する。なお、物体モデルDBは、携帯端末100における照合対象として物体モデルDBサーバ200において決定されてもよいし、変形例あるように携帯端末100において決定するようにしてもよい。   In the mobile terminal 100 of the present embodiment, the feature point matching unit 107 includes a feature point and a feature point in each object described in the object model DB determined based on the position information acquired by the position information acquiring unit 101. The feature point extracted from the image data photographed by the camera unit 103 extracted by the extraction unit 106 is collated. The object model DB may be determined in the object model DB server 200 as a collation target in the mobile terminal 100, or may be determined in the mobile terminal 100 as in a modified example.

そして、特徴点照合部107によりその特徴点が最も類似していると判断される物体に関する情報が記憶部109(物体モデルDB)から読み出され、例えば物体の名称を表示部105は、表示する。これにより、位置に応じて適切な物体モデルDBを利用することができ、少ない容量の物体モデルDBで精度よく物体認識を行うことができる。さらに、少ない容量の物体モデルDBを用いることで、比較的短時間で物体認識処理を行うことができる。   Then, information on the object whose feature points are determined to be most similar by the feature point matching unit 107 is read from the storage unit 109 (object model DB), and for example, the display unit 105 displays the name of the object. . Accordingly, an appropriate object model DB can be used according to the position, and object recognition can be performed with high accuracy using an object model DB with a small capacity. Furthermore, object recognition processing can be performed in a relatively short time by using a small-capacity object model DB.

なお、特徴点照合部107は、変形例にも記載しているように、物体モデルDB200bに備え、物体モデルDB200bにおいて照合処理を行うようにしてもよい。   Note that the feature point matching unit 107 may be provided in the object model DB 200b and perform the matching process in the object model DB 200b as described in the modification.

また、本実施形態の携帯端末100は、携帯端末100の方位を検出するための方位センサ102を備え、特徴点照合部107は、位置情報に加えて、方位情報に基づいて決定された物体モデルDBに記憶されている各物体における特徴点と、画像データから抽出した特徴点とを照合することにより、位置および方位に応じた適切な物体モデルDBを利用することができ、少ない容量の物体モデルDBで精度よく物体認識を行うことができる。   In addition, the mobile terminal 100 of this embodiment includes an orientation sensor 102 for detecting the orientation of the mobile terminal 100, and the feature point matching unit 107 is an object model determined based on the orientation information in addition to the position information. By comparing the feature points of each object stored in the DB with the feature points extracted from the image data, an appropriate object model DB corresponding to the position and orientation can be used, and an object model with a small capacity Object recognition can be performed with high accuracy in the DB.

また、本実施形態の携帯端末100において、通信部108は、位置情報取得部101により取得された位置情報を、複数の物体モデルDB205a〜205dを備える物体モデルDBサーバ200に送信し、当該物体モデルDBサーバ200から位置情報に応じて定められた物体モデルDBを受信し、特徴点照合部107は、受信された物体モデルDBに基づいて照合処理を行う。これにより、物体認識装置側では、物体モデルDBの全てを有する必要が無く、低容量のメモリで精度よく物体認識処理を行うことができる。   In the mobile terminal 100 of the present embodiment, the communication unit 108 transmits the position information acquired by the position information acquisition unit 101 to the object model DB server 200 including a plurality of object model DBs 205a to 205d, and the object model The object model DB determined according to the position information is received from the DB server 200, and the feature point matching unit 107 performs matching processing based on the received object model DB. As a result, the object recognition apparatus does not need to have all of the object model DB, and can perform object recognition processing with high accuracy using a low-capacity memory.

また、本実施形態の物体認識システムにおける物体モデルDBサーバ200において、通信部201は、携帯端末100から位置情報を受信し、物体モデルDB選択部204は、それぞれの物体の特徴点を示す特徴点データを記述する物体モデルDB格納部205を参照して、取得された位置情報に基づいて、物体認識装置における照合対象となる物体モデルDBを決定する。そして、物体モデルDB選択部204は、通信部201を介して、決定された物体モデルDBを携帯端末100に送信することができる。これにより、物体認識装置の位置に応じて適切に定められた物体モデルを、物体認識装置に送信することができ、物体認識装置では精度よく物体認識処理を行うことができる。   In the object model DB server 200 in the object recognition system of the present embodiment, the communication unit 201 receives position information from the mobile terminal 100, and the object model DB selection unit 204 is a feature point indicating a feature point of each object. With reference to the object model DB storage unit 205 describing the data, the object model DB to be collated in the object recognition apparatus is determined based on the acquired position information. Then, the object model DB selection unit 204 can transmit the determined object model DB to the mobile terminal 100 via the communication unit 201. Accordingly, an object model appropriately determined according to the position of the object recognition device can be transmitted to the object recognition device, and the object recognition device can perform object recognition processing with high accuracy.

なお、本実施形態においては、ゾーン特定部202が、携帯端末100の位置からゾーンを決定し、物体モデルDB選択部204は、ゾーン定義DB203を参照して、物体モデルDB格納部205に記憶されている物体モデルDB205a〜205dからゾーンに対応する一の物体モデルDBを選択して、通信部201を介して携帯端末100に送信する。   In the present embodiment, the zone specifying unit 202 determines a zone from the position of the mobile terminal 100, and the object model DB selection unit 204 is stored in the object model DB storage unit 205 with reference to the zone definition DB 203. One object model DB corresponding to the zone is selected from the existing object model DBs 205 a to 205 d and transmitted to the mobile terminal 100 via the communication unit 201.

また、本実施形態の物体認識システムにおいては、位置情報に加えて、携帯端末100の方位情報を、通信部201が受信し、ゾーン特定部202および物体モデルDB選択部204は、その方位情報をも考慮して一の物体モデルDBを決定することで、位置および方位に応じた適切な物体モデルDBを利用することができ、物体認識装置側において少ないメモリ容量で精度のよく物体認識処理を行うことができる。   In the object recognition system of the present embodiment, the communication unit 201 receives the orientation information of the mobile terminal 100 in addition to the position information, and the zone identification unit 202 and the object model DB selection unit 204 receive the orientation information. By considering one object model DB, an appropriate object model DB corresponding to the position and orientation can be used, and the object recognition process is performed with high accuracy and low memory capacity on the object recognition device side. be able to.

なお、物体モデルDB選択部204は、複数の物体モデルDB205aから205dのうち、いくつかの物体モデルDBを組み合わせることで、一の物体モデルDBを生成し、照合対象となる一の物体モデルDBを決定することができ、適切な物体モデルDBを構築することができ、物体認識装置側においては少ないメモリ容量で、精度よく物体認識処理を行うことができる。   Note that the object model DB selection unit 204 generates one object model DB by combining several object model DBs among the plurality of object model DBs 205a to 205d, and selects one object model DB to be collated. Therefore, an appropriate object model DB can be constructed, and the object recognition process can be performed with high accuracy with a small memory capacity on the object recognition apparatus side.

また、物体モデルDB選択部204は、一の物体モデルDB全体から複数の物体モデルを選択して、一の物体モデルDBを生成することで、照合対象となる一の物体モデルDBを決定することができ、必要な物体モデルのみからなる一の物体モデルDBを構築することができる。よって、物体認識装置側においては、少ないメモリ容量で精度よく物体認識処理を行うことができる。   In addition, the object model DB selection unit 204 selects a plurality of object models from the entire one object model DB and generates one object model DB, thereby determining one object model DB to be collated. Thus, it is possible to construct one object model DB consisting only of necessary object models. Therefore, the object recognition apparatus can accurately perform object recognition processing with a small memory capacity.

100、100a、100b…携帯端末、101…位置情報取得部、102…方位センサ、103…カメラ部、104…入力部、105…表示部、106…特徴点抽出部、107…特徴点照合部、107a…特徴点照合部、108…通信部、109…記憶部、120…基地局、150…オブジェクト、200、200b…物体モデルDBサーバ、201…通信部、202、202a…ゾーン特定部、203、203a…ゾーン定義DB、204、204a…物体モデルDB選択部、205、205x…物体モデルDB格納部。

DESCRIPTION OF SYMBOLS 100, 100a, 100b ... Portable terminal, 101 ... Position information acquisition part, 102 ... Direction sensor, 103 ... Camera part, 104 ... Input part, 105 ... Display part, 106 ... Feature point extraction part, 107 ... Feature point collation part, 107a ... feature point matching unit 108 ... communication unit 109 ... storage unit 120 ... base station 150 ... object 200, 200b ... object model DB server 201 ... communication unit 202, 202a ... zone specifying unit 203 203a ... Zone definition DB, 204, 204a ... Object model DB selection unit, 205, 205x ... Object model DB storage unit.

Claims (11)

画像データを取得する撮影手段と、
携帯端末の位置情報を取得する位置情報取得手段と、
前記位置情報取得手段より取得された位置情報に基づいて決定された物体モデルデータベースに記憶されている各物体における特徴点と、前記撮影手段により撮影された画像データから抽出した特徴点とを照合する特徴点照合手段と、
前記特徴点照合手段により特徴点が最も類似していると判断される物体に関する情報を提示する提示手段と、
を備える物体認識装置。
Photographing means for acquiring image data;
Position information acquisition means for acquiring position information of the mobile terminal;
The feature points of each object stored in the object model database determined based on the position information acquired by the position information acquisition unit are compared with the feature points extracted from the image data captured by the imaging unit. Feature point matching means;
Presenting means for presenting information relating to an object whose feature points are determined to be most similar by the feature point matching means;
An object recognition apparatus comprising:
前記物体認識装置が向いている方向を示す方位情報を取得する方位情報取得手段を備え、
前記特徴点照合手段は、位置情報に加えて、前記方位情報取得手段により取得された方位情報に基づいて決定された物体モデルデータベースに記憶されている各物体における特徴点と、前記撮影手段により撮影された画像データから抽出した特徴点とを照合することを特徴とする請求項1に記載の物体認識装置。
Azimuth information acquisition means for acquiring azimuth information indicating the direction in which the object recognition device is facing;
The feature point matching means captures the feature points of each object stored in the object model database determined based on the orientation information acquired by the orientation information acquisition means, in addition to the position information, and the imaging means. The object recognition apparatus according to claim 1, wherein a feature point extracted from the obtained image data is collated.
前記位置情報取得手段により取得された位置情報を、複数の物体モデルデータベースを記憶するサーバに送信する送信手段と、
前記サーバから位置情報に応じて返信された物体モデルデータベースを受信する受信手段と、を備え、
前記特徴点照合手段は、前記受信手段により受信された物体モデルデータベースに基づいて照合処理を行うことを特徴とする請求項1または2に記載の物体認識装置。
Transmitting means for transmitting the position information acquired by the position information acquiring means to a server that stores a plurality of object model databases;
Receiving means for receiving an object model database returned according to the position information from the server,
The object recognition apparatus according to claim 1, wherein the feature point matching unit performs a matching process based on the object model database received by the receiving unit.
請求項1から3のいずれか一項に記載の物体認識装置と、前記物体認識装置と通信するサーバとを備える物体認識システムにおいて、
前記サーバは、
それぞれの物体の特徴点を示す特徴点データを記述する物体モデルデータベースから、前記位置情報取得手段により取得された位置情報に基づいて、前記物体認識装置における照合対象となる物体モデルデータベースを決定する決定手段と、
前記決定手段により決定された物体モデルデータベースを前記物体認識装置に送信する送信手段と、
を備える物体認識システム。
In an object recognition system provided with the object recognition device according to any one of claims 1 to 3 and a server which communicates with the object recognition device.
The server
Determination to determine an object model database to be collated in the object recognition device based on position information acquired by the position information acquisition unit from an object model database describing feature point data indicating feature points of each object Means,
Transmitting means for transmitting the object model database determined by the determining means to the object recognition device;
An object recognition system comprising:
前記サーバにおいて、
前記決定手段は、前記位置情報取得手段により取得された位置情報に加えて、前記物体認識装置の方位情報に基づいて物体モデルデータベースを決定することを特徴とする請求項4に記載の物体認識システム。
In the server,
5. The object recognition system according to claim 4, wherein the determination unit determines an object model database based on azimuth information of the object recognition device in addition to the position information acquired by the position information acquisition unit. .
前記サーバにおいて、
前記決定手段は、
複数の物体モデルデータベースから、一の物体モデルデータベースを決定することを特徴とする請求項4または5に記載の物体認識システム。
In the server,
The determining means includes
6. The object recognition system according to claim 4, wherein one object model database is determined from a plurality of object model databases.
前記サーバにおいて、
前記決定手段は、
複数の物体モデルデータベースのうち、いくつかの物体モデルデータベースを組み合わせることで一の物体モデルデータベースを生成し、照合対象となる一の物体モデルデータベースを決定することを特徴とする請求項4または5に記載の物体認識システム。
In the server,
The determining means includes
6. The object model database is generated by combining several object model databases among a plurality of object model databases, and one object model database to be collated is determined. The object recognition system described.
前記サーバにおいて、
前記決定手段は、
一の物体モデルデータベース全体から複数の物体モデルを選択して、一の物体モデルデータベースを生成することで、照合対象となる一の物体モデルデータベースを決定することを特徴とする請求項4または5に記載の物体認識システム。
In the server,
The determining means includes
6. The object model database to be collated is determined by selecting a plurality of object models from the entire object model database and generating the object model database. The object recognition system described.
物体認識装置と、前記物体認識装置と通信するサーバとを備える物体認識システムにおいて、
画像データを取得する撮影手段と、
物体認識装置の位置情報を取得する位置情報取得手段と、
それぞれの物体の特徴点を示す特徴点データを記述する物体モデルデータベースから、前記位置情報取得手段により取得された位置情報に基づいて、特徴点の照合対象となる物体モデルデータベースを決定する決定手段と、
前記位置情報取得手段より取得された位置情報に基づいて決定された物体モデルデータベースに記憶されている各物体における特徴点と、前記撮影手段により撮影された画像データから抽出した特徴点とを照合する特徴点照合手段と、
前記特徴点照合手段により特徴点が最も類似していると判断される物体に関する情報を提示する提示手段と、
を備える物体認識システム。
In an object recognition system comprising an object recognition device and a server communicating with the object recognition device,
Photographing means for acquiring image data;
Position information acquisition means for acquiring position information of the object recognition device;
Determining means for determining an object model database to be a target for matching feature points based on position information acquired by the position information acquiring means from an object model database describing feature point data indicating the feature points of each object; ,
The feature points of each object stored in the object model database determined based on the position information acquired by the position information acquisition unit are compared with the feature points extracted from the image data captured by the imaging unit. Feature point matching means;
Presenting means for presenting information relating to an object whose feature points are determined to be most similar by the feature point matching means;
An object recognition system comprising:
画像データを取得する撮影ステップと、
端末の位置情報を取得する位置情報取得ステップと、
前記位置情報取得ステップより取得された位置情報に基づいて決定された物体モデルデータベースに記憶されている各物体における特徴点と、前記撮影ステップにより撮影された画像データから抽出した特徴点とを照合する特徴点照合ステップと、
前記特徴点照合ステップにより特徴点が最も類似していると判断される物体に関する情報を提示する提示ステップと、
を備える物体認識方法。
A shooting step for acquiring image data;
A location information acquisition step for acquiring location information of the terminal;
The feature points of each object stored in the object model database determined based on the position information acquired in the position information acquisition step are collated with the feature points extracted from the image data captured in the imaging step. A feature point matching step;
A presenting step of presenting information about an object that is determined to have the most similar feature points by the feature point matching step;
An object recognition method comprising:
物体認識装置と、前記物体認識装置と通信するサーバとを備える物体認識システムにおける物体認識方法において、
画像データを取得する撮影ステップと、
物体認識装置の位置情報を取得する位置情報取得ステップと、
それぞれの物体の特徴点を示す特徴点データを記述する物体モデルデータベースに基づいて、前記位置情報取得ステップにより取得された位置情報に基づいて、特徴点の照合対象となる物体モデルデータベースを決定する決定ステップと、
前記位置情報取得ステップより取得された位置情報に基づいて決定された物体モデルデータベースに記憶されている各物体における特徴点と、前記撮影ステップにより撮影された画像データから抽出した特徴点とを照合する特徴点照合ステップと、
前記特徴点照合ステップにより特徴点が最も類似していると判断される物体に関する情報を提示する提示ステップと、
を備える物体認識方法。
In an object recognition method in an object recognition system comprising an object recognition device and a server that communicates with the object recognition device,
A shooting step for acquiring image data;
A position information acquisition step of acquiring position information of the object recognition device;
Determination based on the object model database describing the feature point data indicating the feature points of each object, and determining the object model database to be the target of feature point matching based on the position information acquired by the position information acquisition step Steps,
The feature points of each object stored in the object model database determined based on the position information acquired in the position information acquisition step are collated with the feature points extracted from the image data captured in the imaging step. A feature point matching step;
A presenting step of presenting information about an object that is determined to have the most similar feature points by the feature point matching step;
An object recognition method comprising:
JP2010112185A 2010-05-14 2010-05-14 Object recognition device, object recognition system, and object recognition method Active JP5685390B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010112185A JP5685390B2 (en) 2010-05-14 2010-05-14 Object recognition device, object recognition system, and object recognition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010112185A JP5685390B2 (en) 2010-05-14 2010-05-14 Object recognition device, object recognition system, and object recognition method

Publications (2)

Publication Number Publication Date
JP2011242861A true JP2011242861A (en) 2011-12-01
JP5685390B2 JP5685390B2 (en) 2015-03-18

Family

ID=45409470

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010112185A Active JP5685390B2 (en) 2010-05-14 2010-05-14 Object recognition device, object recognition system, and object recognition method

Country Status (1)

Country Link
JP (1) JP5685390B2 (en)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013088994A1 (en) * 2011-12-14 2013-06-20 日本電気株式会社 Video processing system, video processing method, and video processing device for portable terminal or for server and method for controlling and program for controlling same
WO2013089004A1 (en) * 2011-12-15 2013-06-20 日本電気株式会社 Video processing system, video processing method, video processing device for portable terminal or for server and method for controlling and program for controlling same
JP2013222447A (en) * 2012-04-19 2013-10-28 Kddi Corp Information presentation system
JP2015049372A (en) * 2013-09-02 2015-03-16 有限会社Bruce Interface Foreign language learning support device and foreign language learning support program
JPWO2013089042A1 (en) * 2011-12-16 2015-04-27 日本電気株式会社 Information processing system, information processing method, information processing apparatus and control method and control program thereof, communication terminal and control method and control program thereof
JPWO2013115204A1 (en) * 2012-01-30 2015-05-11 日本電気株式会社 Information processing system, information processing method, information processing apparatus and control method and control program thereof, communication terminal and control method and control program thereof
JPWO2013115202A1 (en) * 2012-01-30 2015-05-11 日本電気株式会社 Information processing system, information processing method, information processing apparatus and control method and control program thereof, communication terminal and control method and control program thereof
JPWO2013115093A1 (en) * 2012-01-30 2015-05-11 日本電気株式会社 Information processing system, information processing method, information processing apparatus and control method and control program thereof, communication terminal and control method and control program thereof
JP2016530640A (en) * 2013-09-06 2016-09-29 ローベルト ボッシュ ゲゼルシャフト ミット ベシュレンクテル ハフツング Method and controller for recognizing an object in image information
JP2017054491A (en) * 2015-09-11 2017-03-16 インテル・コーポレーション Technologies for object recognition for internet-of-things edge devices
JP6434666B1 (en) * 2018-02-26 2018-12-05 京セラ株式会社 Electronic device, control method and program
JP2019070887A (en) * 2017-10-06 2019-05-09 株式会社バサイ Object recognition device for recognizing place and object by two steps
CN109902759A (en) * 2019-03-12 2019-06-18 上海云从企业发展有限公司 Pictures describe method and device
JP2019149791A (en) * 2018-11-08 2019-09-05 京セラ株式会社 Electronic device, control method, and program
KR20190107076A (en) * 2017-07-13 2019-09-18 얀마 가부시키가이샤 Object identification system
JP2020080057A (en) * 2018-11-13 2020-05-28 NeoX株式会社 AR library system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002259969A (en) * 2000-12-25 2002-09-13 Matsushita Electric Ind Co Ltd Image detector, program and recording medium
JP2005033518A (en) * 2003-07-14 2005-02-03 Toshiba Corp Information collection system
JP2005044075A (en) * 2003-07-25 2005-02-17 Sharp Corp Information processing apparatus, information processing method, information processing program and computer-readable recording medium storing the information processing program
JP2006119797A (en) * 2004-10-20 2006-05-11 Sony Ericsson Mobilecommunications Japan Inc Information providing system and mobile temrinal

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002259969A (en) * 2000-12-25 2002-09-13 Matsushita Electric Ind Co Ltd Image detector, program and recording medium
JP2005033518A (en) * 2003-07-14 2005-02-03 Toshiba Corp Information collection system
JP2005044075A (en) * 2003-07-25 2005-02-17 Sharp Corp Information processing apparatus, information processing method, information processing program and computer-readable recording medium storing the information processing program
JP2006119797A (en) * 2004-10-20 2006-05-11 Sony Ericsson Mobilecommunications Japan Inc Information providing system and mobile temrinal

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9355317B2 (en) 2011-12-14 2016-05-31 Nec Corporation Video processing system, video processing method, video processing device for mobile terminal or server and control method and control program thereof
WO2013088994A1 (en) * 2011-12-14 2013-06-20 日本電気株式会社 Video processing system, video processing method, and video processing device for portable terminal or for server and method for controlling and program for controlling same
JPWO2013088994A1 (en) * 2011-12-14 2015-04-27 日本電気株式会社 Video processing system, video processing method, video processing apparatus for portable terminal or server, and control method and control program therefor
WO2013089004A1 (en) * 2011-12-15 2013-06-20 日本電気株式会社 Video processing system, video processing method, video processing device for portable terminal or for server and method for controlling and program for controlling same
US9754169B2 (en) 2011-12-16 2017-09-05 Nec Corporation Information processing system, information processing method, information processing device and control method and control program thereof, and communication terminal and control method and control program thereof
JPWO2013089042A1 (en) * 2011-12-16 2015-04-27 日本電気株式会社 Information processing system, information processing method, information processing apparatus and control method and control program thereof, communication terminal and control method and control program thereof
US9792528B2 (en) 2012-01-30 2017-10-17 Nec Corporation Information processing system, information processing method, information processing apparatus and control method and control program thereof, and communication terminal and control method and control program thereof
JPWO2013115093A1 (en) * 2012-01-30 2015-05-11 日本電気株式会社 Information processing system, information processing method, information processing apparatus and control method and control program thereof, communication terminal and control method and control program thereof
JPWO2013115204A1 (en) * 2012-01-30 2015-05-11 日本電気株式会社 Information processing system, information processing method, information processing apparatus and control method and control program thereof, communication terminal and control method and control program thereof
JPWO2013115202A1 (en) * 2012-01-30 2015-05-11 日本電気株式会社 Information processing system, information processing method, information processing apparatus and control method and control program thereof, communication terminal and control method and control program thereof
JP2013222447A (en) * 2012-04-19 2013-10-28 Kddi Corp Information presentation system
JP2015049372A (en) * 2013-09-02 2015-03-16 有限会社Bruce Interface Foreign language learning support device and foreign language learning support program
JP2016530640A (en) * 2013-09-06 2016-09-29 ローベルト ボッシュ ゲゼルシャフト ミット ベシュレンクテル ハフツング Method and controller for recognizing an object in image information
US9842262B2 (en) 2013-09-06 2017-12-12 Robert Bosch Gmbh Method and control device for identifying an object in a piece of image information
CN106529384A (en) * 2015-09-11 2017-03-22 英特尔公司 Technologies for object recognition for internet-of-things edge devices
JP2017054491A (en) * 2015-09-11 2017-03-16 インテル・コーポレーション Technologies for object recognition for internet-of-things edge devices
KR102363216B1 (en) 2017-07-13 2022-02-14 얀마 파워 테크놀로지 가부시키가이샤 Object identification system
KR20190107076A (en) * 2017-07-13 2019-09-18 얀마 가부시키가이샤 Object identification system
KR102252245B1 (en) 2017-07-13 2021-05-13 얀마 파워 테크놀로지 가부시키가이샤 Object identification system
KR20210054024A (en) * 2017-07-13 2021-05-12 얀마 파워 테크놀로지 가부시키가이샤 Object identification system
JP2019070887A (en) * 2017-10-06 2019-05-09 株式会社バサイ Object recognition device for recognizing place and object by two steps
JP2019148899A (en) * 2018-02-26 2019-09-05 京セラ株式会社 Electronic device, control method, and program
US10542161B2 (en) 2018-02-26 2020-01-21 Kyocera Corporation Electronic device, control method, and recording medium
JP6434666B1 (en) * 2018-02-26 2018-12-05 京セラ株式会社 Electronic device, control method and program
JP2019149791A (en) * 2018-11-08 2019-09-05 京セラ株式会社 Electronic device, control method, and program
JP2020080057A (en) * 2018-11-13 2020-05-28 NeoX株式会社 AR library system
JP7250308B2 (en) 2018-11-13 2023-04-03 NeoX株式会社 AR library system
CN109902759B (en) * 2019-03-12 2021-03-30 恒睿(重庆)人工智能技术研究院有限公司 Picture set description method and device
CN109902759A (en) * 2019-03-12 2019-06-18 上海云从企业发展有限公司 Pictures describe method and device

Also Published As

Publication number Publication date
JP5685390B2 (en) 2015-03-18

Similar Documents

Publication Publication Date Title
JP5685390B2 (en) Object recognition device, object recognition system, and object recognition method
CN107977674B (en) Image processing method, image processing device, mobile terminal and computer readable storage medium
CN113630551B (en) Electronic device providing various functions by application using camera and operating method thereof
CN107885430B (en) Audio playing method and device, storage medium and electronic equipment
US9015029B2 (en) Camera dictionary based on object recognition
CN105517679B (en) Determination of the geographic location of a user
CN109189879B (en) Electronic book display method and device
JP5963609B2 (en) Image processing apparatus and image processing method
US8917957B2 (en) Apparatus for adding data to editing target data and displaying data
US20220101638A1 (en) Image processing method, and electronic device supporting same
JP2017004252A (en) Image information processing system
JP2013109773A (en) Feature matching method and article recognition system
US20230230318A1 (en) Method for updating 3-dimensional map using image, and electronic device for supporting same
KR20190021130A (en) Method for detecting similar image based on facial image and the appratus thereof
JP2013077099A (en) Position information distribution server, position information distribution system, position information distribution method, program and recording medium
US9147109B2 (en) Method for adding business card information into contact list
CN112465517A (en) Anti-counterfeiting verification method and device and computer readable storage medium
CN112215964A (en) Scene navigation method and device based on AR
JP6171705B2 (en) Map information acquisition program, map information acquisition method, and map information acquisition device
JP5536124B2 (en) Image processing system and image processing method
US11501409B2 (en) Electronic device for image synthesis and operating method thereof
US20230185434A1 (en) Method for providing tag, and electronic device for supporting same
US11297242B2 (en) Imaging apparatus which generates title images for classifying a plurality of captured images and inserts the title images as separate images within the plurality of captured images
CN112751928B (en) Cross-terminal information interconnection method, device, computer equipment and storage medium
JP6375084B1 (en) Computer system, hand-drawn object specifying method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130206

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131025

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131029

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140603

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140804

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150113

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150119

R150 Certificate of patent or registration of utility model

Ref document number: 5685390

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250