JP5946315B2 - Image search system - Google Patents
Image search system Download PDFInfo
- Publication number
- JP5946315B2 JP5946315B2 JP2012095036A JP2012095036A JP5946315B2 JP 5946315 B2 JP5946315 B2 JP 5946315B2 JP 2012095036 A JP2012095036 A JP 2012095036A JP 2012095036 A JP2012095036 A JP 2012095036A JP 5946315 B2 JP5946315 B2 JP 5946315B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- feature point
- feature points
- feature
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
携帯端末のカメラ機能により映し出された画像に対応する原画像をデータベースから取り出し、この原画像と関連する情報を提供する画像検索システム、画像検索装置およびコンピュータプログラムに関する。 The present invention relates to an image search system, an image search apparatus, and a computer program that extract an original image corresponding to an image displayed by a camera function of a portable terminal from a database and provide information related to the original image.
携帯端末にはカメラ機能が付与されることが普通になり、撮影対象物に向けて携帯端末をかざすように移動させるとカメラレンズの映し出す範囲が携帯端末の所定のエリアに表示される。この映し出された画像に関連する情報に対してリアルタイムにアクセスできるならば、各種プレゼンテーションや教育など多方面に応用できる。
このような観点から、携帯電話で撮影した画像に類似する画像をデータベースから抽出するシステムとして例えば、特許文献1に開示された「情報処理装置および携帯端末」がある。
The mobile terminal is usually provided with a camera function, and when the mobile terminal is moved over the object to be photographed, the range where the camera lens is displayed is displayed in a predetermined area of the mobile terminal. If information related to the projected image can be accessed in real time, it can be applied to various presentations and education.
From this point of view, there is an “information processing apparatus and portable terminal” disclosed in
上記の特許文献1では、ユーザは画像内の注目する領域を指定し、その領域を重視した特徴点抽出・照合によって検索の精度を高めようとしている。しかしこれには以下の欠点がある。1枚の画像の中から領域を指定するためには人間の目によって区分けが必要となり、撮影画像から瞬時に検索結果を得るという用途には不向きである。じっくり腰をすえて検索しようという場合なら領域指定も良いが、例えば営業先での商品検索などあわただしい状況下での利用には使いづらい。また領域指定が難しい場合もある。例えば用紙一面に文字が印刷されているパンフレットなどを撮影する場合である。
また、特許文献1では、「画像」に動画像が含まれるか否かが明示されていない。仮に動画像が含まれるとしてもどのような処理がなされるのか言及がない。もし動画像も検索対象に含めるように機能を拡張しようとすると、人間が領域を指定する点がネックとなる。
このような点に鑑み、本発明は撮影された画像全体を検索キーとしても検索の精度を落とさず、静止画像だけでなく動画像も対象とする動画検索サービスを提供することを目的とする。
In the above-mentioned
Further,
In view of the above, an object of the present invention is to provide a moving image search service that targets not only a still image but also a moving image without reducing the accuracy of a search even if the entire captured image is used as a search key.
上記の目的を達成するために、本発明は、画像検索システムであって、
ユーザの入力を受け付ける入力手段と、
撮像手段により得られた静止画像又は動画像(以下、「撮影画像」)を表示する出力手段と、
表示された撮影画像の特徴点を抽出する特徴点抽出手段と、
予め収集されている画像群の特徴点が格納されている原画像特徴点データベースと、
前記抽出された撮影画像の特徴点と前記原画像特徴点データベースから取り出した特徴点と照合し、条件に合う画像(以下、「当たり画像」)を特定する情報を取り出す特徴点照合手段と、
当たり画像を特定する情報に基づいて、その当たり画像に関連する情報を取得する画像関連情報取得手段と、
を備えを備え、前記特徴点抽出手段は、動画像を特徴点抽出対象とする場合、複数枚の静止画像をとり、各静止画像の特徴点を抽出し、一連の静止画像の特徴点を集めて動画像の特徴点とすることを特徴とする。
ここで、「撮像手段」とは、携帯端末に内蔵されているカメラ機能を想定している。このような構成による発明の目的は、携帯端末に映し出された画像と類似する画像を登録されている原画像群から探しだすことであり、さまざまな応用が考えられる。第2の実施形態で記載した営業担当者が客先で本システムを利用してプレゼンテーションをするのは応用例の一つである。
「当たり画像を特定する情報」とは、画像IDあるいはhash文字列などをいう。
本発明では、検索対象が動画像である場合、複数枚の静止画像をとり、各静止画像の特徴点を集めて動画像の特徴点とする。これにより、本発明は静止画像だけでなく動画像にも対応できることになり、例えばテレビ画面を撮影し、この特徴点からどのテレビ局の何の番組の画面であるかを判定することも可能である。
To achieve the above object, the present invention provides an image search system comprising:
Input means for accepting user input;
Output means for displaying a still image or a moving image (hereinafter referred to as “captured image”) obtained by the imaging means;
Feature point extraction means for extracting feature points of the displayed captured image;
An original image feature point database in which feature points of pre-collected image groups are stored;
A feature point collating unit that collates the feature points of the extracted captured image with the feature points extracted from the original image feature point database, and extracts information that specifies an image that satisfies a condition (hereinafter referred to as “winning image”);
Image-related information acquisition means for acquiring information related to the winning image based on the information specifying the winning image;
The feature point extraction means takes a plurality of still images, extracts feature points of each still image, and collects a series of feature points of a still image when a moving image is a feature point extraction target. And feature points of moving images .
Here, the “imaging means” is assumed to be a camera function built in the portable terminal. An object of the invention having such a configuration is to search for an image similar to the image displayed on the mobile terminal from the registered original image group, and various applications are conceivable. The sales representative described in the second embodiment makes a presentation using this system at the customer's site as one of application examples.
“Information specifying a hit image” refers to an image ID or a hash character string.
In the present invention, when the search target is a moving image, a plurality of still images are taken and the feature points of each still image are collected and used as the feature points of the moving image. As a result, the present invention can cope with not only still images but also moving images. For example, it is possible to shoot a TV screen and determine what program screen of which TV station is based on this feature point. .
上記の目的を達成するために、本発明の画像検索システムは次の態様をとることもできる。すなわち、サーバと携帯端末が通信ネットワークを介して接続され、
前記携帯端末は、
ユーザの入力を受け付ける入力手段と、
撮像手段により得られた撮影画像を表示する出力手段と、
表示された撮影画像の特徴点を抽出する特徴点抽出手段と、
抽出された撮影画像の特徴点を前記サーバに送信して当たり画像の特定を要求する画像検索要求送信手段と、
検索結果を受信する画像検索結果受信手段と
当たり画像に関連付けられて蓄積されている情報を取得する画像関連情報取得手段と、
を備え、前記特徴点抽出手段は、動画像を特徴点抽出対象とする場合、複数枚の静止画像をとり、各静止画像の特徴点を抽出し、一連の静止画像の特徴点を集めて動画像の特徴点とするとともに、
前記サーバは、
原画像の特徴点が格納されている原画像特徴点データベースと、
前記画像検索装置から受信した特徴点と前記原画像特徴点データベースから取り出した特徴点とを照合し、当たり画像を取り出す特徴点照合手段と、
を備えることを特徴とするものである。
このように、処理負荷のかかる特徴点の照合処理はサーバが担うので、大量の画像データも処理可能となり検索精度が高まる。
In order to achieve the above object, the image search system of the present invention can take the following modes. In other words, the server and the mobile terminal are connected via a communication network,
The portable terminal is
Input means for accepting user input;
Output means for displaying a photographed image obtained by the imaging means;
Feature point extraction means for extracting feature points of the displayed captured image;
Image search request transmission means for transmitting the feature points of the extracted captured image to the server and requesting the identification of the hit image;
An image search result receiving means for receiving a search result, an image related information acquiring means for acquiring information stored in association with the winning image, and
The feature point extraction means takes a plurality of still images, extracts the feature points of each still image, collects the feature points of a series of still images, As feature points of the image,
The server
An original image feature point database storing feature points of the original image;
A feature point collating unit that collates a feature point received from the image search device with a feature point extracted from the original image feature point database, and extracts a hit image;
It is characterized by providing.
As described above, since the server performs the matching processing of the feature point which requires a processing load, a large amount of image data can be processed, and the search accuracy is improved.
本発明は上記の目的を達するために、原画像の特徴点を抽出し、前記原画像特徴点データベースに登録する特徴点作成手段を備えることが好ましい。
つまり、予め特徴点集合を自動作成する機能を備えているのであるから、携帯端末の操作時にリアルタイムの特徴点照合が行えることになる。
In order to achieve the above object, the present invention preferably includes a feature point creating means for extracting feature points of the original image and registering them in the original image feature point database.
That is, since a function for automatically creating a feature point set is provided in advance, real-time feature point matching can be performed when operating the mobile terminal.
本発明は上記の目的を達するために、前記特徴点照合手段は、撮影画像の特徴点とユークリッド距離が近い特徴点を多数もつ原画像を候補画像として抽出し、抽出した各候補画像について位置関係保存の判定処理を行い、位置関係が保存されていると判定された候補画像を当たり画像とみなすことが好ましい。
このように位置関係保存の判定処理を併用すれば、抽出結果の精度を高めることができる。撮影画像の特徴点と原画像の特徴点との距離の比較だけでは、抽出結果にノイズを含むおそれがあるからである。
「位置関係保存の判定」とは、距離的に近いと判定された撮影画像の特徴点の集合と候補画像側の特徴点の集合とのそれぞれから対応する1個の特徴点を取り出し、各集合の重心と取り出した特徴点とのベクトルを基準として他の特徴点が左右いずれの側にあるかを調べ、各集合から取り出した対応する特徴点が同じ側にあれば点数化し、点数が所定の値以上であれば位置関係が保存されていると判定することをいう。
In order to achieve the above object, the feature point matching unit extracts, as candidate images, original images having many feature points that are close to Euclidean distances from the feature points of the captured image, and the positional relationship between the extracted candidate images. It is preferable to perform a storage determination process and regard a candidate image determined to have a stored positional relationship as a winning image.
If the determination processing for storing the positional relationship is used in combination, the accuracy of the extraction result can be improved. This is because the extraction result may include noise only by comparing the distance between the feature point of the captured image and the feature point of the original image.
“Determining whether to save the positional relationship” means taking out one corresponding feature point from each of the set of feature points of the photographed image determined to be close in distance and the set of feature points on the candidate image side, Based on the vector of the center of gravity and the extracted feature points, the other feature points are examined on the left or right side. If the corresponding feature points extracted from each set are on the same side, the points are scored. If the value is greater than or equal to the value, it is determined that the positional relationship is stored.
画像の撮影から当たり画像の検索までが短時間で処理されるので、携帯端末でなんらかの画像を撮影するとただちに関連ある情報へのアクセスが可能となる。
そのため、本発明は営業支援ツールとして営業担当者が客先での商品検索及び関連情報入手に利用すると効果的である。例えば営業担当者が客先で本システムを利用してプレゼンテーションをするのも応用例の一つである。従来の画像とその関連情報とが混然一体となった営業用資料では分厚いカタログになってしまって手軽には持ち運べないし、また混乱・手落ちも発生しやすい。そこで情報を自分の携帯端末と簡単なパンフレットとに分割するわけである。この両者を相互補完的に使用することによって営業効率を上げることができる。
また本発明では、データベースには画像そのものではなくその特徴点が格納されている。その結果、著作権の問題が回避でき、またプライバシーに係わるような営業にも対応できる。
Since the process from image capture to hit image search is processed in a short time, it is possible to access relevant information as soon as any image is captured by the mobile terminal.
Therefore, the present invention is effective when a salesperson uses it as a sales support tool to search for products at a customer and obtain related information. For example, a sales representative makes a presentation using this system at a customer site. Business materials that are a mixture of conventional images and related information become thick catalogs that cannot be easily carried around, and are apt to cause confusion and omissions. Therefore, the information is divided into one's own mobile terminal and a simple pamphlet. By using both of these in a mutually complementary manner, business efficiency can be improved.
In the present invention, the database stores not the image itself but its feature points. As a result, the copyright problem can be avoided and the business related to privacy can be handled.
《第1の実施形態》
以下、図面を参照しながら本発明の一実施の形態のシステム(以下、「本システム」)について説明する。
<< First Embodiment >>
Hereinafter, a system according to an embodiment of the present invention (hereinafter, “the present system”) will be described with reference to the drawings.
本システムは、図1に示すように、ユーザが使用する携帯端末1と画像検索サービスを提供するサーバ2と、適宜外部のWebサーバ3とから構成され、それぞれがインターネットNなどの通信ネットワークを介して接続している。
As shown in FIG. 1, this system includes a
携帯端末1は、スマートフォンのような可搬型の情報処理装置である。
携帯端末1は、入力手段4と、出力手段5と、撮像手段6と、記憶手段7と、処理手段8と、図示しない通信インターフェース手段を有する。
The
The
入力手段4には、出力手段5の画面に重ねて配置されるタッチパネルが含まれる。特徴点抽出プログラムの起動・終了の指示や、Webサーバ3へのアクセスなどはこの入力手段4を介して行われる。
出力手段5はディスプレイ画面が必須であり、適宜スピーカも含まれる。
撮像手段6は、カメラレンズ及び撮像素子であり、本システムで用いられる携帯端末はこのような画像撮影機能が必須である。
The
A display screen is essential for the output means 5, and a speaker is also included as appropriate.
The image pickup means 6 is a camera lens and an image pickup device , and such an image shooting function is indispensable for a portable terminal used in this system.
記憶手段7には、処理手段8による各種処理を実現するコンピュータプログラム、これらのプログラムの実行の際に必要となるパラメータ類や処理の中間結果などが格納される。本システムで使用される携帯端末は、撮影画像の特徴点を抽出するプログラムを実行するために必要なメモリを備えていることが必須である。 The storage means 7 stores a computer program that implements various processes by the processing means 8, parameters necessary for executing these programs, intermediate results of the processes, and the like. The portable terminal used in this system must have a memory necessary for executing a program for extracting feature points of a captured image.
処理手段8は、特徴点抽出手段9、画像検索要求送信手段10、画像検索結果受信手段11、画像関連情報取得手段12を有する。
特徴点抽出手段9は、撮像手段6によって画面5上に映し出された撮影画像から、特徴点を抽出する。
画像検索要求送信手段10は、抽出された撮影画像の特徴点をサーバ2に送信する。この特徴点は画像検索のための検索キーとなるものである。検索キーとするのは特徴点であって撮影画像自体ではない。直接画像を送信すれば、著作権上の問題が発生したり、人物や人家が写ったりしているとプライバシー侵害のおそれも生ずるからである。
画像検索結果受信手段11は、サーバ2において検索キーに相当すると判定された特徴点が抽出されたならば、その特徴点に対応する画像に関連する情報、つまりユーザが撮影した画像と関連あると考えられる情報が送信されてくるので、これを受信する。例えば、ある店の入り口を撮影した場合、その店のWebサイトのURLを受信する、といったことが考えられる。
画像関連情報取得手段12は、サーバ2から送信された情報に基づいて、自分が撮影した画像に関連する情報にアクセスする手段である。例えば、サーバ2からURLが送信されたならば、そのURLに基づいて該当するWebサイトにアクセスする。
The processing unit 8 includes a feature
The feature
The image search
If the feature point determined to correspond to the search key in the
The image related information acquisition unit 12 is a unit for accessing information related to an image taken by the user based on information transmitted from the
処理手段8に含まれる各手段9〜12の分類は、説明の便宜のためであり、各手段が截然と分かれているわけではない。これらの手段は所定のプログラムを携帯端末1が実装することにより実現される。つまり、このシステムは携帯端末向けの応用ソフト(アプリ)として、例えばAPKファイルなどの形式でユーザに提供されることを想定している。
The classification of the
サーバ2は、記憶手段13と、処理手段14と、図示しない入出力手段や通信インターフェース手段を有する情報処理装置である。
The
記憶手段13は、検索対象となる情報を格納する原画像情報記憶手段15と、各種処理の中間結果などを格納するメモリ(図示せず)やコンピュータプログラムの格納手段などから構成される。
原画像情報記憶手段15には、原画像特徴点データベース(以下、「特徴点DB」)16と特徴点インデックスデータベース(以下、「インデックスDB」)17と原画像関連情報データベース(以下、「関連情報DB」)18が含まれる。これらのデータベースについては後で説明する。
The
The original image information storage means 15 includes an original image feature point database (hereinafter referred to as “feature point DB”) 16, a feature point index database (hereinafter referred to as “index DB”) 17, and an original image related information database (hereinafter referred to as “related information”). DB ") 18. These databases will be described later.
サーバ2の処理手段14は、特徴点作成手段19と、検索キー受信手段20と、特徴点照合手段21と、当たり画像情報送信手段22とを有する。
特徴点作成手段19は、原画像の特徴点と、照合時探索用のインデックスを作成して特徴点DB16とインデックスDB17に登録しておく。
検索キー受信手段20は、携帯端末1から画像検索キーである特徴点情報を受信する。
特徴点照合手段21は、受信した検索キーを、予め特徴点DB16に登録された原画像の特徴点と照合し、最も近い特徴点を最も多く持つ原画像を、当たり画像とする。
当たり画像情報送信手段22は、当たり画像に関する情報、例えばURLを関連情報DB18から取り出して携帯端末1に送信する。
The
The feature point creation means 19 creates the feature points of the original image and the index for search during matching, and registers them in the feature point DB 16 and the index DB 17.
The search key receiving unit 20 receives feature point information that is an image search key from the
The feature point collating means 21 collates the received search key with the feature points of the original image registered in the feature point DB 16 in advance, and sets the original image having the most closest feature points as the hit image.
The winning image
次に、本システムの動作について、図2に従い説明する。
サーバ2側で、原画像の特徴点と、照合時探索用のインデックスを作成しておく(ステップS1)。この処理は、ステップS2以降の処理とは独立に行われ、システム運用までに行われるとともに、システム運用開始後も適宜更新処理がなされる。
特徴点抽出には、たとえば公知のORB(Oriented FAST and Rotated BRIEF)アルゴリズムを使用する。
(詳細は、http://www.willowgarage.com/papers/orb-efficient-alternative-sift-or-surfなどを参照)
数千〜数万の原画像の特徴点を取って特徴点DB16及びインデックスDB17に格納する。このように特徴点の抽出をあらかじめ行っておくので特徴点照合処理が高速化できる。
Next, the operation of this system will be described with reference to FIG.
On the
For the feature point extraction, for example, a known ORB ( Oriented FAST and Rotated BRIEF ) algorithm is used.
(See http://www.willowgarage.com/papers/orb-efficient-alternative-sift-or-surf for details)
The feature points of thousands to tens of thousands of original images are taken and stored in the feature point DB 16 and the index DB 17. Since feature points are extracted in this way, feature point matching processing can be speeded up.
特徴点DB16には、原画像の個数分だけ特徴点情報が格納されている。データ構造は図3に示すように、原画像1個につき、特徴点が属する画像ID(intまたは原画像のhash文字列)、原画像から取得した特徴点の数(画像により巾がある)、特徴点ベクトルの値(32個のint値)を有する。
さらに、縮小画像から取得した特徴点の数と特徴点ベクトルの値、および拡大画像から取得した特徴点の数と特徴点ベクトルの値も有する。
ここで注意することは原画像そのもののデータは持っていないことである。特徴点ベクトルは16方向あり、それぞれ1組のX座標とY座標の値を持つので、特徴点ベクトルの値は各特徴点につき合計32個ある。ベクトルを16方向と細かくとったことと、特徴点ベクトルの値の型をintとしたことによって、検索のスピードと精度を高めることができる。
この実施形態ではORBアルゴリズムを使用するが、このアルゴリズムはサイズの変化に弱いという欠点がある。この欠点を補い精度を維持するために、原画像だけでなく縮小画像および拡大画像の特徴点も同時にデータベースに格納しておく。縮小画像および拡大画像の特徴点も必要なのは、被写体が同じであっても、解像度によって特徴点の個数や抽出される特徴点が異なってくるからである。
Feature point information is stored in the feature point DB 16 by the number of original images. As shown in FIG. 3, the data structure includes, for each original image, an image ID to which the feature point belongs (int or hash character string of the original image), the number of feature points acquired from the original image (there is a width depending on the image), It has the value of a feature point vector (32 int values).
Furthermore, it also has the number of feature points and feature point vector values acquired from the reduced image, and the number of feature points and feature point vector values acquired from the enlarged image.
It should be noted here that the original image itself has no data. There are 16 feature point vectors, each having a set of X and Y coordinate values, so there are a total of 32 feature point vector values for each feature point. The speed and accuracy of the search can be improved by taking the vectors as fine as 16 directions and by setting the value type of the feature point vector to int.
This embodiment uses an ORB algorithm, but this algorithm has the disadvantage of being vulnerable to size changes. In order to compensate for this defect and maintain accuracy, not only the original image but also the feature points of the reduced image and the enlarged image are stored in the database at the same time. The feature points of the reduced image and the enlarged image are also necessary because the number of feature points and the extracted feature points differ depending on the resolution even if the subject is the same.
インデックスDB17の作成には、flann(Fast Library forApproximate Nearest Neighbors)アルゴリズムが用いられる。flannアルゴリズムは、高次元特徴量に関するK-近傍探索の高速な近似計算法であり、これに基づいてインデックスのツリーが作成され、このツリーに沿って照合が実行されていく。具体的にはOpenCV(Open Source Computer Vision Library)を利用するわけであるが、公知であり且つ関数の利用レベルになるのでその詳細は省略する。 For the creation of the index DB 17, a flann (Fast Library for Proximity Nearest Neighbors) algorithm is used. The flann algorithm is a high-speed approximate calculation method for K-neighbor search related to high-dimensional features, and based on this, an index tree is created, and matching is executed along this tree. Specifically, OpenCV (Open Source Computer Vision Library) is used, but since it is a publicly known function usage level, its details are omitted.
関連情報DB18には、特徴点が属する画像ID(あるいはhash文字列)と対応づけて、その画像と関連のある情報が格納されている。
The
次に、携帯端末1が、カメラレンズをかざして画面上に映し出した画像から、特徴点を抽出する(ステップS2)。1画像につき特徴点の個数は数百になることもある。抽出のアルゴリズムはステップS1とまったく同じである。
抽出された特徴点は画像検索キーとしてサーバ2に送信される(ステップS3)。
Next, the
The extracted feature points are transmitted to the
サーバ2は 受信した特徴点を、登録された原画像の特徴点と照合する(ステップS4)。
図4にしたがい、特徴点の照合処理を説明する。
原画像の個数をJ個とし、ステップS101でループ変数jを1に初期化する。次に特徴点DB16から原画像の特徴点データを取り出して(ステップS102)、検索キーの各特徴点にユークリッド距離が最も近い特徴点の個数を点数化し、記憶手段13に中間処理結果として格納する(ステップS103)。格納する情報は、検索キーのどの特徴点がどの原画像のどの特徴点と対応するかであり、位置関係保存の判定処理で参照される。ステップS104では、j=Jであるかを判定し、j=Jでなければ、ループ変数jに1を加算し(ステップS105)、ステップS102へ戻って同様に処理を繰り返す。
j=Jであれば、中間処理結果から最も点数の高い原画像を候補画像としてK個抽出する(ステップS106)。ここまでは、ノイズ除去は考慮しない。つまり全データをシグナル(=本来のデータ)とみなして処理するので候補画像は多めに採用されることになる。
The
The feature point matching process will be described with reference to FIG.
The number of original images is J, and a loop variable j is initialized to 1 in step S101. Next, the feature point data of the original image is extracted from the feature point DB 16 (step S102), the number of feature points having the Euclidean distance closest to each feature point of the search key is scored, and stored in the storage means 13 as an intermediate processing result. (Step S103). The information to be stored is which feature point of the search key corresponds to which feature point of which original image, and is referred to in the determination process of the positional relationship storage. In step S104, it is determined whether j = J. If j = J is not satisfied, 1 is added to the loop variable j (step S105), and the process returns to step S102 and is repeated in the same manner.
If j = J, K original images having the highest score are extracted as candidate images from the intermediate processing result (step S106). So far, noise removal is not considered. That is, since all data is processed as signals (= original data), more candidate images are employed.
以下の処理はノイズを除去することを主眼とする。ノイズ除去にも色々な手法があるが、本発明では位置関係が保存されているか否かを判定することにより行う。
この処理は、対応関係をよりグローバルにチェックする処理といえる。ノイズにはグローバルな法則性はないと考えられるから、ノイズがあるために採用されることになった画像はこの段階で排除されることになる。
先ずステップS107で、ループ変数kを1に初期化する。このkは、前段で設定された採用候補画像数=Kまで、後段でカウントアップされていくことになる。あわせてステップS107では、カウンタ変数iを0に初期化する。
次にステップS108で、抽出した原画像について、最も点数の高い順に位置関係の保存を調べる。即ち、携帯端末1で撮影された撮影画像の特徴点と特定の候補画像内の特徴点を1対1で対応付ける。ここで対応づけられた特徴点集合に於いて、撮影画像側の特徴点集合をサブセットAとし、候補画像側の特徴点集合をサブセットBとする。サブセットAはステップS103において中間処理結果として格納された検索キーの特徴点の集合であり、サブセットBはある原画像の特徴点の集合である。
サブセットAおよびサブセットBのそれぞれについて、特徴点の位置から重心Ga,Gbを計算する。
次に、サブセットA側から2点を取り、点1A、点2Aとする。点1A、点2Aに対応するサブセットB内の点を点1B、点2Bとする。重心Ga―>点1Aに対する点2Aの左右の位置と、重心Gb―>点1Bに対する点2Bの左右の位置が同じかを調べる。これを全ての2点の組み合わせで調べ、一致している個数の全体に対する割合を計算する。この割合が予め設定してあった閾値以上であれば、位置関係が保存されていると判定する。つまりその候補画像は、ノイズチェックもパスしたことになる。
The following processing focuses on removing noise. There are various methods for removing noise. In the present invention, it is performed by determining whether or not the positional relationship is stored.
This process can be said to be a process for checking the correspondence relationship more globally. Since it is thought that there is no global law for noise, images that are adopted because of noise will be eliminated at this stage.
First, in step S107, the loop variable k is initialized to 1. This k is counted up in the subsequent stage until the number of adoption candidate images set in the previous stage = K. At the same time, in step S107, the counter variable i is initialized to zero.
In step S108, the extracted original images are checked for the storage of positional relationships in order of highest score. That is, the feature point of the photographed image photographed by the
For each of subset A and subset B, centroids Ga and Gb are calculated from the positions of the feature points.
Next, two points are taken from the subset A side to be point 1A and point 2A. Points in subset B corresponding to point 1A and point 2A are point 1B and point 2B. It is checked whether the left and right positions of the point 2A with respect to the center of gravity Ga-> point 1A and the left and right positions of the point 2B with respect to the center of gravity Gb-> point 1B are the same. This is examined for all combinations of two points, and the ratio of the number of matching numbers to the whole is calculated. If this ratio is equal to or greater than a preset threshold value, it is determined that the positional relationship is stored. That is, the candidate image has also passed the noise check.
位置関係が保存されていれば(ステップS108でYes)、カウンタ変数iをインクリメントし、この原画像を中間処理結果として保存しておく(ステップS109)。続いて、k=Kであるかを判定し(ステップS110)、k=Kでなければ、ループ変数kに1を加算し(ステップS111)、ステップS108へ戻って同様に処理を繰り返す。
k=Kであれば(ステップS110でYes),位置関係保存のチェックにパスした原画像があるか否かを判定する(ステップS112)。パスした原画像があれば(ステップS112でYes),i個の原画像の中でステップS108における一致率が最も高いものを当たり画像とする(ステップS113)。
パスした原画像が一つもなければ(ステップS112でNo)、当たり画像はないとみなしてもよいが、次のようにユーザに当たり画像を提示してもよい(ステップS114)。すなわち、K個の中から予め定めてある上限値K2までを当たり画像と見なす(K>K2>=1)。K2個選ぶ基準については予めルールを決めておく。ステップS103で得られた点数を重視するか、あるいはステップS108で得られた一致率を重視するかなどである。
If the positional relationship is stored (Yes in step S108), the counter variable i is incremented, and this original image is stored as an intermediate processing result (step S109). Subsequently, it is determined whether k = K (step S110). If k = K is not satisfied, 1 is added to the loop variable k (step S111), and the process returns to step S108 and the same process is repeated.
If k = K (Yes in step S110), it is determined whether or not there is an original image that has passed the positional relationship storage check (step S112). If there is a passed original image (Yes in step S112), the i original images having the highest matching rate in step S108 are determined as hit images (step S113).
If there is no passed original image (No in step S112), it may be considered that there is no winning image, but the winning image may be presented to the user as follows (step S114). That is, from K pieces up to a predetermined upper limit value K2 is regarded as a hit image (K>K2> = 1). Rules are determined in advance for the criteria for selecting K2. Whether importance is attached to the score obtained in step S103, or whether the matching rate obtained in step S108 is important.
サーバ2は、当該当たり画像に関連する情報を関連情報DB18から取り出して携帯端末1に送信する(ステップS5)。
携帯端末1は、 サーバ2から受信した情報にもとづいて、撮影画像に関連する情報の提供を受ける(ステップS6)。例えば、提供を受けた情報がURLであれば、このURLに基づいてWebサーバ3にアクセスしてWebページを取得して画面に表示させる。
このように本システムは、携帯端末のカメラで撮影した画像について、関連する情報をその場で取得し表示させることができるので、ビジネス、教育、娯楽などさまざまな場面で活用することが期待される。
The
The
In this way, this system can acquire and display related information on the spot for images taken with the camera of a mobile terminal, so it is expected to be used in various situations such as business, education, and entertainment. .
《第2の実施形態》
以下、本発明の第2の実施の形態のシステムについて説明する。
このシステムは第1の実施の形態と比べ、携帯端末において画像の撮影、特徴点の抽出、登録済原画像の特徴点との照合、当たり画像のID取り出しまでを行い、サーバには当たり画像に関する情報の問い合わせのみを行う点で第1の実施形態と相違する。
以下、図面を参照しながら主に第1の実施形態との相違点を説明する。図中、第1の実施形態と機能が同じものには同一の符号を付する。
<< Second Embodiment >>
The system according to the second embodiment of the present invention will be described below.
Compared with the first embodiment, this system performs shooting of an image, extraction of feature points, collation with feature points of a registered original image, and extraction of a hit image ID in a portable terminal. It differs from the first embodiment in that only information inquiry is performed.
The differences from the first embodiment will be mainly described below with reference to the drawings. In the figure, components having the same functions as those of the first embodiment are denoted by the same reference numerals.
《1.本システムの構成》
本システムは、図5に示すように、ユーザが使用する携帯端末101と画像検索を利用した情報提供サービスを行うサーバ102と、適宜外部のWebサーバ3とから構成され、それぞれがインターネットNなどの通信ネットワークを介して接続している。
<< 1. Configuration of this system >>
As shown in FIG. 5, the system includes a
携帯端末101は、スマートフォンのような可搬型の情報処理装置である。
携帯端末101は、入力手段4と、出力手段5と、撮像手段6と、記憶手段103と、処理手段104と、図示しない通信インターフェース手段を有する。
The
The
記憶手段103は、検索対象となる情報を格納する原画像情報記憶手段105と、各種処理の中間結果などを格納するメモリ(図示せず)やコンピュータプログラムの格納手段などから構成される。本システムで使用される携帯端末は、撮影画像の特徴点を抽出するプログラムや特徴点同士を照合するプログラムを実行するために必要なメモリを備えていることが必須である。
原画像情報記憶手段105には、原画像特徴点データベース(以下、「特徴点DB」)106が含まれる。特徴点DB106については後で説明する。
The
The original image
処理手段104は、特徴点抽出手段107、特徴点照合手段108、当たり画像情報取得手段109、画像関連情報取得手段110を有する。
特徴点抽出手段107は、撮像手段6によって画面5上に映し出された撮影画像から、特徴点を抽出する。
特徴点照合手段108は、撮影画像から抽出した特徴点を、予め特徴点DB106に登録された原画像の特徴点と照合し、最も近い特徴点を最も多く持つ原画像を当たり画像とする。
当たり画像情報取得手段109は、当たり画像に関する情報をサーバ102に要求し、受信する。
画像関連情報取得手段110は、サーバ102から送信された情報に基づいて、自分が撮影した画像に関連する情報にアクセスする手段である。例えば、サーバ102からURLが送信されたならば、そのURLに基づいて該当するWebサーバ3にアクセスし、取得したWebページを画面5に表示させる。
The
The feature point extraction unit 107 extracts feature points from the photographed image displayed on the screen 5 by the
The feature point collating means 108 collates the feature points extracted from the photographed image with the feature points of the original image registered in advance in the
The winning image information acquisition unit 109 requests and receives information related to the winning image from the
The image related
処理手段104に含まれる各手段107〜110の分類は、説明の便宜のためであり、各手段が截然と分かれているわけではない。これらの手段はAPKファイルの形式で提供されるプログラムを携帯端末101が実装することにより実現される。つまり、このシステムは携帯端末向けの応用ソフト(アプリ)としてユーザに提供されることを想定している。ただし、第1の実施形態と異なり、原画像の特徴点データもアプリとともに提供される。
The classification of the respective means 107 to 110 included in the processing means 104 is for convenience of explanation, and the respective means are not clearly separated. These means are realized by the
サーバ102は、記憶手段111と、処理手段112と、図示しない入出力手段や通信インターフェース手段を有する情報処理装置である。
The
記憶手段111には、原画像に関連する情報を格納する原画像関連情報記憶手段113を有する。
処理手段112には、携帯端末101から要求された当たり画像に関する情報を送信する当たり画像情報送信手段114を有する。
The storage unit 111 includes an original image related
The
次に、本システムの動作について、図6に従い説明する。
アプリとともに、原画像の特徴点を格納した特徴点DB106を記憶手段103に格納しておく(ステップS201)。特徴点DB106の格納は、ステップS202以降の処理とは独立に行われ、アプリの実装時に行われるとともに、適宜更新も可能である。このように、予め特徴点集合を準備しているので、リアルタイムに特徴点の照合が行える。
Next, the operation of this system will be described with reference to FIG.
The
特徴点抽出のアルゴリズムは、第1の実施形態と同様である。
ただし原画像の個数は、携帯端末101のメモリ容量およびCPUの能力を考慮すると、50〜60個くらいが適当である。
この実施形態では、第1の実施形態と異なりインデックスDBは予め作成しない。原画像の個数も50個程度と少ないことから、撮影画像の特徴点と照合する際、原画像の特徴点データを読み込んだ時にインデックスを作成してメモリ上に持つようにする。
The algorithm for feature point extraction is the same as in the first embodiment.
However, considering the memory capacity of the
In this embodiment, unlike the first embodiment, the index DB is not created in advance. Since the number of original images is as small as about 50, when collating with feature points of a captured image, an index is created and stored in the memory when feature point data of the original image is read.
特徴点DB106には、原画像の個数分だけ特徴点情報が格納されている。データ構造は第1の実施形態と同様であって図3に示すように、原画像1個につき、特徴点が属する画像ID(intまたは原画像のhash文字列)、原画像から取得した特徴点の数、特徴点ベクトルの値(32個の整数値)を有する。さらに、縮小画像から取得した特徴点の数と特徴点ベクトルの値、および拡大画像から取得した特徴点の数と特徴点ベクトルの値も有する。
The
カメラレンズをかざして画面上に映し出した撮影画像から、特徴点を抽出する(ステップS202)。抽出のアルゴリズムはステップS201とまったく同じであり、特徴点の個数は数百個くらいである。
撮影画像の特徴点と登録された原画像の特徴点と照合する(ステップS203)。
各特徴点に対して、最も近い特徴点を多数持つ原画像データを候補画像として抽出した後、各候補画像について位置関係保存の判定を行い、当たり画像を決定する(ステップS204)のは、第1の実施形態と同様である。
Feature points are extracted from the captured image projected on the screen with the camera lens held up (step S202). The extraction algorithm is exactly the same as in step S201, and the number of feature points is about several hundred.
The feature point of the captured image is collated with the registered feature point of the original image (step S203).
After extracting original image data having a number of closest feature points with respect to each feature point as a candidate image, determination of saving of positional relationship is performed for each candidate image, and a winning image is determined (step S204). This is the same as the first embodiment.
サーバ102側に当たり画像のIDを送信する(ステップS205)。
サーバ102は受信したIDに応じた当たり画像の情報を原画像関連情報記憶手段113から取り出して送信する(ステップS206)。
サーバ102から受信した当たり画像の情報に応じて、コンテンツを表示する(ステップS207)。
The ID of the hit image is transmitted to the
The
The content is displayed according to the information of the hit image received from the server 102 (step S207).
この第2の実施形態の活用例として、営業担当の社員に本実施形態の携帯端末を持たせる場合について説明する。
普通、営業担当者は商品情報を載せたパンフレットを客先に持参するが、このパンフレットは客によって変わる。そうでなければ分厚いカタログになってしまう。また時間と共に変化する(値段、在庫の有無、情報用サイトのURLなど)。その度に新しいパンフレットを作成するわけにはいかない。そこで本発明を活用することになる。
先ずその客に関連のありそうな商品(50個程度)を撮影して特徴点DB106を作成し、自分の携帯端末101に格納する。もちろん作成済みのものをそのまま利用してもよいし、
作成済みのものをコンパクト化してもよい。あるいは臨機応変に客先を訪問する直前に作成してもよい。このように本願発明のシステムを携帯端末に実装すると、極めてハンディーな営業支援ツールとなるのである。なお原画像を撮影する際は後の画像照合を考慮して、通常の画像・縮小画像・拡大画像の3種類を撮る。更に印刷してその客向けの当座のパンフレットを作成してもよい。商品のパンフレットを原画像にするのは、それが最も変化しにくいからである(パンフレットの更新は、新モデルが追加された時ぐらいで頻繁にはないと考えられる)。関連情報(例:WebサイトのURL)の変化などはパンフレットと無関係に自分の携帯端末だけで吸収しておけばよい。
営業担当者はそのパンフレットと携帯端末を客先に持参する。客先でパンフレットの説明をする際、そのパンフレットの上で携帯端末101のカメラレンズをかざすようにして撮影する。携帯端末101の処理手段104は特徴点の抽出および格納済の特徴点との照合を行い、撮影されたパンフレットはどれかを認識する。認識されたパンフレットに関連するさらに詳しい情報を画面に表示する。
このようにすれば、営業担当者は携帯端末101とせいぜい50商品程度のパンフレットしか持参しなくても、客先で適切かつ詳細な説明をしたり、客の質問に答えたりすることが可能となる。
As an application example of the second embodiment, a case where an employee in charge of sales has the portable terminal of this embodiment will be described.
Normally, sales representatives bring pamphlets with product information to customers, but these pamphlets vary from customer to customer. Otherwise it will be a thick catalog. It also changes over time (price, availability, URL of information site, etc.). You can't create a new brochure each time. Therefore, the present invention is utilized.
First, a
You may make it compact. Alternatively, it may be created immediately before visiting the customer in a flexible manner. Thus, when the system of the present invention is mounted on a portable terminal, it becomes an extremely handy sales support tool. Note that when capturing an original image, three types of images, a normal image, a reduced image, and an enlarged image are taken in consideration of later image matching. You can also print it to create a temporary brochure for the customer. The product pamphlet is made the original image because it is the least likely to change (the pamphlet will not be updated as often as new models are added). Changes in related information (e.g., website URL) may be absorbed only by one's own portable terminal regardless of the pamphlet.
The sales representative brings the pamphlet and mobile terminal to the customer. When the customer explains the brochure, the user takes a picture while holding the camera lens of the
In this way, the sales representative can give an appropriate and detailed explanation or answer the customer's questions even if he / she only brings the
この第2の実施形態の他の活用例として、動画像の検索がある。
ここでは、図7の左側に示すような順で出現する静止画像F1、F2、F3及びF4を含む動画像を例に説明する。動画像の場合は、特徴点DB106には各静止画像の特徴点データを格納する。特徴点DB106にはこれら4画像の特徴点データが格納されるとともに、各画像には一意の画像ID(あるいはhash文字列)が対応づけられている。なお、特徴点DB106には静止画像か動画像かを区別する情報は設定されていない。携帯端末101の撮像手段6をこの動画像にかざすと静止画像F1〜F4のそれぞれと同一でなくとも類似した静止画像U1〜U4を取得でき、これら静止画像から抽出した特徴点を特徴点DB106中の特徴点データと照合する。その結果、当たり画像としてF1→F2→F3→F4の順で抽出される。携帯端末101は、サーバ102にこれらの当たり画像の画像IDを送信する。
サーバ102は、図8にデータ格納例を示すような原画像関連情報記憶手段113を参照してF1〜F4に対応する動画像の関連情報を抽出し、携帯端末101に送信する。
図8に示すように携帯端末101の画面には動画像(D1)が表示されていたが、サーバ102から関連情報を受信すると、画面表示を関連情報(D2)に変更する。携帯端末101は画面表示されたURLをもとにWebサーバ3にアクセスなどして当該動画像と関連ある情報を収集することができる。
なお、図8で画像ID欄に1個のIDが登録されているのは原画像が静止画像の場合である。携帯端末101における特徴点抽出と特徴点照合の各処理では撮影画像が静止画像か動画像かは区別せず、サーバ102側で受信した画像IDによって静止画像か動画像かが区別できる。
Another utilization example of the second embodiment is a search for moving images.
Here, a moving image including still images F1, F2, F3, and F4 that appear in the order shown on the left side of FIG. 7 will be described as an example. In the case of a moving image, the feature point data of each still image is stored in the
The
As shown in FIG. 8, the moving image (D1) is displayed on the screen of the
In FIG. 8, one ID is registered in the image ID column when the original image is a still image. In each process of feature point extraction and feature point matching in the
上記の第1〜第2の実施形態の処理フローやデータベースの構造は例示にすぎず、これらに限るものではない。たとえば、特徴点抽出のアルゴリズムとしてORBを用いていたが、これに限るものではない。
また、第2の実施形態では、当たり画像に関連する情報をサーバに問い合わせているが、携帯端末に原画像に対応付けて関連情報も格納しておき、当たり画像が見つかれば、この関連情報を参照して画面表示してもよい。
さらに、本願発明の動画検索機能を、例えば現在放送中のテレビ番組を特定するために用いることも可能である。サーバ側で各テレビ局の番組の画像から逐次特徴点を抽出しキューに格納する。一方、あるテレビ番組を見ているユーザは携帯端末のカメラ機能で撮影して特徴点を抽出し、サーバに送信する。サーバは受信した特徴点をキューに格納済の特徴点データと照合し、どのテレビ局が現在放送している番組であるかを特定する。このテレビ番組を特定する機能は、視聴率の推定をはじめ種々の分野での利用が考えうる。
The processing flows and database structures of the first and second embodiments described above are merely examples, and are not limited thereto. For example, the ORB is used as the feature point extraction algorithm, but the present invention is not limited to this.
In the second embodiment, the server is inquired about information related to the hit image. However, the related information is also stored in the portable terminal in association with the original image. It may be displayed on the screen with reference.
Furthermore, the moving image search function of the present invention can be used, for example, to identify a television program currently being broadcast. On the server side, feature points are sequentially extracted from the images of the programs of each television station and stored in a queue. On the other hand, a user watching a certain TV program takes a picture with the camera function of the mobile terminal, extracts a feature point, and transmits it to the server. The server collates the received feature point with the feature point data stored in the queue, and identifies which TV station is the program currently being broadcast. This function of specifying a television program can be considered to be used in various fields including audience rating estimation.
携帯端末のカメラ機能で撮影した画像に関連する情報を、リアルタイムで画面表示などができるので、特に客先での営業支援ツールとして有効である。また、携帯端末に情報誌のような役割も持たせることにより携帯端末の可能性をさらに拡げることができる。
Since information related to images taken by the camera function of the mobile terminal can be displayed on the screen in real time, it is particularly effective as a sales support tool at customers. Moreover, the possibility of a portable terminal can be further expanded by giving the portable terminal a role like an information magazine.
1:携帯端末、2:サーバ2、3:Webサーバ、
4:入力手段、5:出力手段6:撮像手段、7:記憶手段、8:処理手段、
9:特徴点抽出手段、10:画像検索要求送信手段、11:画像検索結果受信手段、
12:画像関連情報取得手段、13:記憶手段、14:処理手段、
15:原画像情報記憶手段、
16:原画像特徴点データベース(特徴点DB)、
17:特徴点インデックスデータベース(インデックスDB)、
18:原画像関連情報データベース(関連情報DB)、
19:特徴点作成手段、20:検索キー受信手段、21:特徴点照合手段、
22:当たり画像情報送信手段
101:携帯端末、102:サーバ、103:記憶手段、104:処理手段、
105:原画像情報記憶手段、106:原画像特徴点データベース(特徴点DB)、
107:特徴点抽出手段、108:特徴点照合手段、109:当たり画像情報取得手段、110:画像関連情報取得手段、111:記憶手段、112:処理手段、
113:原画像関連情報記憶手段、114:当たり画像情報送信手段、
N:インターネット
1: mobile terminal, 2:
4: input means, 5: output means 6: imaging means, 7: storage means, 8: processing means,
9: Feature point extracting means, 10: Image search request transmitting means, 11: Image search result receiving means,
12: Image related information acquisition means, 13: Storage means, 14: Processing means,
15: Original image information storage means,
16: Original image feature point database (feature point DB),
17: Feature point index database (index DB),
18: Original image related information database (related information DB),
19: feature point creating means, 20: search key receiving means, 21: feature point collating means,
22: Hit image information transmission means 101: Mobile terminal, 102: Server, 103: Storage means, 104: Processing means,
105: Original image information storage means, 106: Original image feature point database (feature point DB),
107: feature point extraction means, 108: feature point collation means, 109: hit image information acquisition means, 110: image related information acquisition means, 111: storage means, 112: processing means,
113: Original image related information storage means, 114: Hit image information transmission means,
N: Internet
Claims (2)
撮像手段により得られた静止画像又は動画像(以下、「撮影画像」)を表示する出力手段と、
表示された撮影画像の特徴点を抽出する特徴点抽出手段と、
予め収集されている画像群の特徴点が格納されている原画像特徴点データベースと、
前記抽出された撮影画像の特徴点と前記原画像特徴点データベースから取り出した特徴点と照合し、条件に合う画像(以下、「当たり画像」)を特定する情報を取り出す特徴点照合手段と、
当たり画像を特定する情報に基づいて、その当たり画像に関連する情報を取得する画像関連情報取得手段と、を備え、
前記特徴点抽出手段は、動画像を特徴点抽出対象とする場合、複数枚の静止画像をとり、各静止画像の特徴点を抽出し、一連の静止画像の特徴点を集めて動画像の特徴点とする、ことを特徴とする画像検索システム。 Input means for accepting user input;
Output means for displaying a still image or a moving image (hereinafter referred to as “captured image”) obtained by the imaging means;
Feature point extraction means for extracting feature points of the displayed captured image;
An original image feature point database in which feature points of pre-collected image groups are stored;
A feature point collating unit that collates the feature points of the extracted captured image with the feature points extracted from the original image feature point database, and extracts information that specifies an image that satisfies a condition (hereinafter referred to as “winning image”);
Image-related information acquisition means for acquiring information related to the winning image based on the information specifying the winning image ,
When the moving image is a feature point extraction target, the feature point extracting unit takes a plurality of still images, extracts the feature points of each still image, collects the feature points of a series of still images, and collects the feature points of the moving image. An image search system characterized by a point .
前記携帯端末は、
ユーザの入力を受け付ける入力手段と、
撮像手段により得られた撮影画像を表示する出力手段と、
表示された撮影画像の特徴点を抽出する特徴点抽出手段と、
抽出された撮影画像の特徴点を前記サーバに送信して当たり画像の特定を要求する画像検索要求送信手段と、
検索結果を受信する画像検索結果受信手段と
当たり画像を特定する情報に基づいて、関連情報を取得する画像関連情報取得手段と、
を備え、前記特徴点抽出手段は、動画像を特徴点抽出対象とする場合、複数枚の静止画像をとり、各静止画像の特徴点を抽出し、一連の静止画像の特徴点を集めて動画像の特徴点とするとともに、
前記サーバは、
原画像の特徴点が格納されている原画像特徴点データベースと、
前記携帯端末から受信した特徴点と前記原画像特徴点データベースから取り出した特徴点とを照合し、当たり画像を特定する情報を取り出す特徴点照合手段と、
を備えることを特徴とする画像検索システム。
The server and mobile device are connected via a communication network,
The portable terminal is
Input means for accepting user input;
Output means for displaying a photographed image obtained by the imaging means;
Feature point extraction means for extracting feature points of the displayed captured image;
Image search request transmission means for transmitting the feature points of the extracted captured image to the server and requesting the identification of the hit image;
An image search result receiving unit for receiving a search result, an image related information acquiring unit for acquiring related information based on information for identifying a hit image,
The feature point extraction means takes a plurality of still images, extracts the feature points of each still image, collects the feature points of a series of still images, As feature points of the image,
The server
An original image feature point database storing feature points of the original image;
A feature point matching unit that compares feature points received from the portable terminal with feature points extracted from the original image feature point database, and extracts information for identifying a hit image;
An image search system comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012095036A JP5946315B2 (en) | 2012-04-18 | 2012-04-18 | Image search system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012095036A JP5946315B2 (en) | 2012-04-18 | 2012-04-18 | Image search system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013222406A JP2013222406A (en) | 2013-10-28 |
JP5946315B2 true JP5946315B2 (en) | 2016-07-06 |
Family
ID=49593299
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012095036A Active JP5946315B2 (en) | 2012-04-18 | 2012-04-18 | Image search system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5946315B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2015178014A1 (en) * | 2014-05-23 | 2017-04-20 | 株式会社 スプリックス | Learning support system, learning support server, learning support method, and learning support program |
KR101531530B1 (en) | 2014-12-31 | 2015-06-25 | (주)스타넥스 | Image analysis method, apparatus and computer readable medium |
JP6514632B2 (en) * | 2015-12-22 | 2019-05-15 | Kddi株式会社 | INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING METHOD, INFORMATION PROCESSING APPARATUS, SERVER, AND PROGRAM |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4413633B2 (en) * | 2004-01-29 | 2010-02-10 | 株式会社ゼータ・ブリッジ | Information search system, information search method, information search device, information search program, image recognition device, image recognition method and image recognition program, and sales system |
WO2007004522A1 (en) * | 2005-06-30 | 2007-01-11 | Olympus Corporation | Search system and search method |
US7764849B2 (en) * | 2006-07-31 | 2010-07-27 | Microsoft Corporation | User interface for navigating through images |
JP4988408B2 (en) * | 2007-04-09 | 2012-08-01 | 株式会社デンソー | Image recognition device |
JP5249088B2 (en) * | 2009-03-03 | 2013-07-31 | Kddi株式会社 | Image search system |
JP2010205121A (en) * | 2009-03-05 | 2010-09-16 | Sony Ericsson Mobile Communications Ab | Information processor and portable terminal |
-
2012
- 2012-04-18 JP JP2012095036A patent/JP5946315B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2013222406A (en) | 2013-10-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10891671B2 (en) | Image recognition result culling | |
CN106462728B (en) | System and method for the identification based on characteristics of image | |
US12038977B2 (en) | Visual recognition using user tap locations | |
CN109871815B (en) | Method and device for inquiring monitoring information | |
US9076069B2 (en) | Registering metadata apparatus | |
WO2017000109A1 (en) | Search method, search apparatus, user equipment, and computer program product | |
US8805123B2 (en) | System and method for video recognition based on visual image matching | |
JP5395920B2 (en) | Search device, search method, search program, and computer-readable recording medium storing the program | |
JP2008090838A (en) | System and method for image capture and identification | |
JP2010152897A (en) | Method and system for dynamic presentation of targeted information in mixed media reality recognition system | |
US20140223319A1 (en) | System, apparatus and method for providing content based on visual search | |
US11275780B2 (en) | Image search device, image search method, electronic device and control method therefor | |
JP5808371B2 (en) | Image recognition apparatus, image recognition method, and image recognition program | |
US20160267186A1 (en) | Apparatus and method for determining user attention using a deep-content-classification (dcc) system | |
JP5946315B2 (en) | Image search system | |
CN110263830B (en) | Image processing method, device and system and storage medium | |
KR20200023095A (en) | Method of management of goods information and service device thereof | |
WO2022140879A1 (en) | Identity recognition method, terminal, server, and system | |
US20180189602A1 (en) | Method of and system for determining and selecting media representing event diversity | |
Çalışır et al. | Mobile multi-view object image search | |
JP6210554B2 (en) | Recognition device, recognition program, and recognition method | |
KR20200024540A (en) | Providing Method of summary information for an image searching and service device thereof | |
JP2020035086A (en) | Information processing system, information processing apparatus and program | |
JP6420162B2 (en) | Image search device, image search method, and image search program | |
JP5967036B2 (en) | Image search system, information processing apparatus, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150408 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160323 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160328 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160407 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160520 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160531 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5946315 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |