JP2015062090A - Video processing system, video processing method, video processing device for portable terminal or server, and control method and control program of the same - Google Patents
Video processing system, video processing method, video processing device for portable terminal or server, and control method and control program of the same Download PDFInfo
- Publication number
- JP2015062090A JP2015062090A JP2011273940A JP2011273940A JP2015062090A JP 2015062090 A JP2015062090 A JP 2015062090A JP 2011273940 A JP2011273940 A JP 2011273940A JP 2011273940 A JP2011273940 A JP 2011273940A JP 2015062090 A JP2015062090 A JP 2015062090A
- Authority
- JP
- Japan
- Prior art keywords
- feature
- local
- video
- recognition
- video processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 248
- 238000000034 method Methods 0.000 title claims description 103
- 238000003672 processing method Methods 0.000 title claims 2
- 239000013598 vector Substances 0.000 claims abstract description 119
- 230000005540 biological transmission Effects 0.000 claims description 23
- 230000009466 transformation Effects 0.000 claims description 2
- 239000000284 extract Substances 0.000 abstract description 2
- 230000008569 process Effects 0.000 description 68
- 238000010586 diagram Methods 0.000 description 45
- 238000012795 verification Methods 0.000 description 34
- 238000004891 communication Methods 0.000 description 17
- 238000003384 imaging method Methods 0.000 description 9
- 238000004519 manufacturing process Methods 0.000 description 9
- 238000012937 correction Methods 0.000 description 6
- 238000001514 detection method Methods 0.000 description 6
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 4
- 230000008859 change Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000013139 quantization Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000010187 selection method Methods 0.000 description 2
- 230000001174 ascending effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000007493 shaping process Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/5838—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Library & Information Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
本発明は、映像中に存在する複数の物をリアルタイムに同定するための技術に関する。 The present invention relates to a technique for identifying a plurality of objects existing in a video in real time.
上記技術分野において、特許文献1には、売り場の写真画像の色補正、サイズ補正および歪み補正を行なって、個々の商品の商品マスターとマッチングすることにより、商品の棚割モデルを短時間に精度良く作成する技術が記載されている。
In the above technical field,
しかしながら、上記文献に記載の技術では、売り場の写真画像の色補正、サイズ補正および歪み補正が必要なので、複数の商品をリアルタイムに同定して報知することはできない。 However, since the techniques described in the above documents require color correction, size correction, and distortion correction of photographic images on the sales floor, it is impossible to identify and notify a plurality of products in real time.
本発明の目的は、上述の課題を解決する技術を提供することにある。 The objective of this invention is providing the technique which solves the above-mentioned subject.
上記目的を達成するため、本発明に係る装置は、
複数の認識対象物と、前記複数の認識対象物の画像内のそれぞれm1,m2,…,mk個の特徴点のそれぞれを含むm1,m2,…,mk個の局所領域のそれぞれについて生成された、それぞれ1次元からi1,i2,…,ik次元までの特徴ベクトルからなるm1,m2,…,mk個の第1局所特徴量とを、対応付けて記憶する第1局所特徴量記憶手段と、
映像中の画像からn個の特徴点を抽出し、前記n個の特徴点のそれぞれを含むn個の局所領域について、それぞれ1次元からj次元までの特徴ベクトルからなるn個の第2局所特徴量を生成する第2局所特徴量生成手段と、
前記第1局所特徴量の次元数i1,i2,…,ikおよび前記第2局所特徴量の次元数jのうち、より少ない次元数を選択し、選択した前記次元数までの特徴ベクトルからなる前記n個の第2局所特徴量に、選択した前記次元数までの特徴ベクトルからなる前記m1,m2,…,mk個の第1局所特徴量のそれぞれについて所定割合以上が対応すると判定した場合に、前記映像中の前記画像に前記所定割合以上が対応した複数の認識対象物が存在すると認識する認識手段と、
前記認識手段が認識した複数の認識対象物を示す情報を前記映像中の前記複数の認識対象物が存在する画像に表示する表示手段と、
を備えることを特徴とする。
In order to achieve the above object, an apparatus according to the present invention provides:
Generated for each of a plurality of recognition objects and m1, m2,..., Mk local regions each including m1, m2,..., Mk feature points in the images of the plurality of recognition objects. , First local feature storage means for storing m1, m2,..., Mk first local feature amounts each consisting of feature vectors from one dimension to i1, i2,.
N feature points are extracted from the image in the video, and n second local features each consisting of a feature vector from the first dimension to the jth dimension for each of the n local regions including each of the n feature points. Second local feature generating means for generating a quantity;
The number of dimensions i1, i2,..., Ik of the first local feature quantity and the dimension number j of the second local feature quantity are selected, and the feature vector consisting of the feature vector up to the selected dimension number is selected. When it is determined that n second local feature amounts correspond to a predetermined ratio or more for each of the m1, m2,..., mk first local feature amounts including feature vectors up to the selected number of dimensions, Recognition means for recognizing that there are a plurality of recognition objects corresponding to the predetermined ratio or more in the image in the video;
Display means for displaying information indicating a plurality of recognition objects recognized by the recognition means on an image in which the plurality of recognition objects exist in the video;
It is characterized by providing.
上記目的を達成するため、本発明に係る方法は、
複数の認識対象物と、前記複数の認識対象物の画像内のそれぞれm1,m2,…,mk個の特徴点のそれぞれを含むm1,m2,…,mk個の局所領域のそれぞれについて生成された、それぞれ1次元からi1,i2,…,ik次元までの特徴ベクトルからなるm1,m2,…,mk個の第1局所特徴量とを、対応付けて記憶する第1局所特徴量記憶手段を備えた映像処理装置の制御方法であって、
映像中の画像からn個の特徴点を抽出し、前記n個の特徴点のそれぞれを含むn個の局所領域について、それぞれ1次元からj次元までの特徴ベクトルからなるn個の第2局所特徴量を生成する第2局所特徴量生成ステップと、
前記第1局所特徴量の次元数i1,i2,…,ikおよび前記第2局所特徴量の次元数jのうち、より少ない次元数を選択し、選択した前記次元数までの特徴ベクトルからなる前記n個の第2局所特徴量に、選択した前記次元数までの特徴ベクトルからなる前記m1,m2,…,mk個の第1局所特徴量のそれぞれについて所定割合以上が対応すると判定した場合に、前記映像中の前記画像に前記所定割合以上が対応した複数の認識対象物が存在すると認識する認識ステップと、
前記認識ステップにおいて認識した複数の認識対象物を示す情報を前記映像中の前記複数の認識対象物が存在する画像に表示する表示ステップと、
を含むことを特徴とする。
In order to achieve the above object, the method according to the present invention comprises:
Generated for each of a plurality of recognition objects and m1, m2,..., Mk local regions each including m1, m2,..., Mk feature points in the images of the plurality of recognition objects. , M1, m2,..., Mk first local feature amounts each comprising feature vectors from one dimension to i1, i2,. A control method for a video processing apparatus,
N feature points are extracted from the image in the video, and n second local features each consisting of a feature vector from the first dimension to the jth dimension for each of the n local regions including each of the n feature points. A second local feature generation step for generating a quantity;
The number of dimensions i1, i2,..., Ik of the first local feature quantity and the dimension number j of the second local feature quantity are selected, and the feature vector consisting of the feature vector up to the selected dimension number is selected. When it is determined that n second local feature amounts correspond to a predetermined ratio or more for each of the m1, m2,..., mk first local feature amounts including feature vectors up to the selected number of dimensions, A recognition step for recognizing that there are a plurality of recognition objects corresponding to the predetermined ratio or more in the image in the video;
A display step of displaying information indicating a plurality of recognition objects recognized in the recognition step on an image in which the plurality of recognition objects exist in the video;
It is characterized by including.
上記目的を達成するため、本発明に係るプログラムは、
複数の認識対象物と、前記複数の認識対象物の画像内のそれぞれm1,m2,…,mk個の特徴点のそれぞれを含むm1,m2,…,mk個の局所領域のそれぞれについて生成された、それぞれ1次元からi1,i2,…,ik次元までの特徴ベクトルからなるm1,m2,…,mk個の第1局所特徴量とを、対応付けて記憶する第1局所特徴量記憶手段を備えた映像処理装置の制御プログラムであって、
映像中の画像からn個の特徴点を抽出し、前記n個の特徴点のそれぞれを含むn個の局所領域について、それぞれ1次元からj次元までの特徴ベクトルからなるn個の第2局所特徴量を生成する第2局所特徴量生成ステップと、
前記第1局所特徴量の次元数i1,i2,…,ikおよび前記第2局所特徴量の次元数jのうち、より少ない次元数を選択し、選択した前記次元数までの特徴ベクトルからなる前記n個の第2局所特徴量に、選択した前記次元数までの特徴ベクトルからなる前記m1,m2,…,mk個の第1局所特徴量のそれぞれについて所定割合以上が対応すると判定した場合に、前記映像中の前記画像に前記所定割合以上が対応した複数の認識対象物が存在すると認識する認識ステップと、
前記認識ステップにおいて認識した複数の認識対象物を示す情報を前記映像中の前記複数の認識対象物が存在する画像に表示する表示ステップと、
をコンピュータに実行させることを特徴とする。
In order to achieve the above object, a program according to the present invention provides:
Generated for each of a plurality of recognition objects and m1, m2,..., Mk local regions each including m1, m2,..., Mk feature points in the images of the plurality of recognition objects. , M1, m2,..., Mk first local feature amounts each comprising feature vectors from one dimension to i1, i2,. A video processing device control program,
N feature points are extracted from the image in the video, and n second local features each consisting of a feature vector from the first dimension to the jth dimension for each of the n local regions including each of the n feature points. A second local feature generation step for generating a quantity;
The number of dimensions i1, i2,..., Ik of the first local feature quantity and the dimension number j of the second local feature quantity are selected, and the feature vector consisting of the feature vector up to the selected dimension number is selected. When it is determined that n second local feature amounts correspond to a predetermined ratio or more for each of the m1, m2,..., mk first local feature amounts including feature vectors up to the selected number of dimensions, A recognition step for recognizing that there are a plurality of recognition objects corresponding to the predetermined ratio or more in the image in the video;
A display step of displaying information indicating a plurality of recognition objects recognized in the recognition step on an image in which the plurality of recognition objects exist in the video;
Is executed by a computer.
上記目的を達成するため、本発明に係るシステムは、
ネットワークを介して接続される携帯端末用の映像処理装置とサーバ用の映像処理装置とを有する映像処理システムであって、
複数の認識対象物と、前記複数の認識対象物の画像内のそれぞれm1,m2,…,mk個の特徴点のそれぞれを含むm1,m2,…,mk個の局所領域のそれぞれについて生成された、それぞれ1次元からi1,i2,…,ik次元までの特徴ベクトルからなるm1,m2,…,mk個の第1局所特徴量とを、対応付けて記憶する第1局所特徴量記憶手段と、
映像中の画像からn個の特徴点を抽出し、前記n個の特徴点のそれぞれを含むn個の局所領域について、それぞれ1次元からj次元までの特徴ベクトルからなるn個の第2局所特徴量を生成する第2局所特徴量生成手段と、
前記第1局所特徴量の次元数i1,i2,…,ikおよび前記第2局所特徴量の次元数jのうち、より少ない次元数を選択し、選択した前記次元数までの特徴ベクトルからなる前記n個の第2局所特徴量に、選択した前記次元数までの特徴ベクトルからなる前記m1,m2,…,mk個の第1局所特徴量のそれぞれについて所定割合以上が対応すると判定した場合に、前記映像中の前記画像に前記所定割合以上が対応した複数の認識対象物が存在すると認識する認識手段と、
前記認識手段が認識した複数の認識対象物を示す情報を前記映像中の前記複数の認識対象物が存在する画像に表示する表示手段と、
を備えることを特徴とする。
In order to achieve the above object, a system according to the present invention provides:
A video processing system having a video processing device for a mobile terminal and a video processing device for a server connected via a network,
Generated for each of a plurality of recognition objects and m1, m2,..., Mk local regions each including m1, m2,..., Mk feature points in the images of the plurality of recognition objects. , First local feature storage means for storing m1, m2,..., Mk first local feature amounts each consisting of feature vectors from one dimension to i1, i2,.
N feature points are extracted from the image in the video, and n second local features each consisting of a feature vector from the first dimension to the jth dimension for each of the n local regions including each of the n feature points. Second local feature generating means for generating a quantity;
The number of dimensions i1, i2,..., Ik of the first local feature quantity and the dimension number j of the second local feature quantity are selected, and the feature vector consisting of the feature vector up to the selected dimension number is selected. When it is determined that n second local feature amounts correspond to a predetermined ratio or more for each of the m1, m2,..., mk first local feature amounts including feature vectors up to the selected number of dimensions, Recognition means for recognizing that there are a plurality of recognition objects corresponding to the predetermined ratio or more in the image in the video;
Display means for displaying information indicating a plurality of recognition objects recognized by the recognition means on an image in which the plurality of recognition objects exist in the video;
It is characterized by providing.
上記目的を達成するため、本発明に係る方法は、
ネットワークを介して接続される携帯端末用の映像処理装置とサーバ用の映像処理装置とを有し、複数の認識対象物と、前記複数の認識対象物の画像内のそれぞれm1,m2,…,mk個の特徴点のそれぞれを含むm1,m2,…,mk個の局所領域のそれぞれについて生成された、それぞれ1次元からi1,i2,…,ik次元までの特徴ベクトルからなるm1,m2,…,mk個の第1局所特徴量とを、対応付けて記憶する第1局所特徴量記憶手段を備えた映像処理システムにおける映像処理方法であって、
映像中の画像からn個の特徴点を抽出し、前記n個の特徴点のそれぞれを含むn個の局所領域について、それぞれ1次元からj次元までの特徴ベクトルからなるn個の第2局所特徴量を生成する第2局所特徴量生成ステップと、
前記第1局所特徴量の次元数i1,i2,…,ikおよび前記第2局所特徴量の次元数jのうち、より少ない次元数を選択し、選択した前記次元数までの特徴ベクトルからなる前記n個の第2局所特徴量に、選択した前記次元数までの特徴ベクトルからなる前記m1,m2,…,mk個の第1局所特徴量のそれぞれについて所定割合以上が対応すると判定した場合に、前記映像中の前記画像に前記所定割合以上が対応した複数の認識対象物が存在すると認識する認識ステップと、
前記認識ステップにおいて認識した複数の認識対象物を示す情報を前記映像中の前記複数の認識対象物が存在する画像に表示する表示ステップと、
を含むことを特徴とする。
In order to achieve the above object, the method according to the present invention comprises:
A mobile terminal video processing apparatus and a server video processing apparatus connected via a network, each having a plurality of recognition objects and m1, m2,. ..., mk local regions including mk feature points, m1, m2,..., each of feature vectors from one dimension to i1, i2,. , Mk first local feature values in association with each other, and a first local feature value storing means for storing the image data in association with each other.
N feature points are extracted from the image in the video, and n second local features each consisting of a feature vector from the first dimension to the jth dimension for each of the n local regions including each of the n feature points. A second local feature generation step for generating a quantity;
The number of dimensions i1, i2,..., Ik of the first local feature quantity and the dimension number j of the second local feature quantity are selected, and the feature vector consisting of the feature vector up to the selected dimension number is selected. When it is determined that n second local feature amounts correspond to a predetermined ratio or more for each of the m1, m2,..., mk first local feature amounts including feature vectors up to the selected number of dimensions, A recognition step for recognizing that there are a plurality of recognition objects corresponding to the predetermined ratio or more in the image in the video;
A display step of displaying information indicating a plurality of recognition objects recognized in the recognition step on an image in which the plurality of recognition objects exist in the video;
It is characterized by including.
本発明によれば、認識精度を維持しながら、映像中の複数の認識対象物に対してリアルタイムで認識結果を報知できる。 ADVANTAGE OF THE INVENTION According to this invention, a recognition result can be alert | reported with respect to the several recognition target object in an image | video in real time, maintaining recognition accuracy.
以下に、図面を参照して、本発明の実施の形態について例示的に詳しく説明する。ただし、以下の実施の形態に記載されている構成要素は単なる例示であり、本発明の技術範囲をそれらのみに限定する趣旨のものではない。 Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the drawings. However, the constituent elements described in the following embodiments are merely examples, and are not intended to limit the technical scope of the present invention only to them.
[第1実施形態]
本発明の第1実施形態としての映像処理装置100について、図1を用いて説明する。映像処理装置100は、映像中の画像内の複数の認識対象物を、認識精度を維持してリアルタイムに認識する装置である。
[First Embodiment]
A
図1に示すように、映像処理装置100は、第1局所特徴量記憶部110と、第2局所特徴量生成部120と、認識部130と、表示部140と、を含む。第1局所特徴量記憶部110は、複数の認識対象物111−1〜111−kと、複数の認識対象物の画像内のそれぞれm1,m2,…,mk個の特徴点のそれぞれを含むm1,m2,…,mk個の局所領域のそれぞれについて生成された、それぞれ1次元からi1,i2,…,ik次元までの特徴ベクトルからなるm1,m2,…,mk個の第1局所特徴量112−1〜112−kとを、対応付けて記憶する。第2局所特徴量生成部120は、映像中の画像101からn個の特徴点を121抽出し、n個の特徴点のそれぞれを含むn個の局所領域122について、それぞれ1次元からj次元までの特徴ベクトルからなるn個の第2局所特徴量123を生成する。認識部130は、第1局所特徴量の次元数i1,i2,…,ikおよび第2局所特徴量の次元数jのうち、より少ない次元数を選択する。認識部130は、選択した次元数までの特徴ベクトルからなるn個の第2局所特徴量に、選択した次元数までの特徴ベクトルからなるm1,m2,…,mk個の第1局所特徴量のそれぞれについて所定割合以上が対応するか否かを判定する。認識部130は、対応すると判定した場合に、映像中の画像101に所定割合以上が対応した複数の認識対象物が存在すると認識する。表示部140は、認識部130が認識した複数の認識対象物を示す情報141を映像中の複数の認識対象物が存在する画像に表示する。
As shown in FIG. 1, the
本実施形態によれば、認識精度を維持しながら、映像中の複数の認識対象物に対してリアルタイムで認識結果を報知できる。 According to this embodiment, a recognition result can be notified to a plurality of recognition objects in a video in real time while maintaining recognition accuracy.
[第2実施形態]
次に、本発明の第2実施形態に係る映像処理装置について説明する。本実施形態においては、携帯端末としての映像処理装置が、撮像中の映像内の複数の認識対象物を認識して、映像中の認識対象物に対してリアルタイムに認識結果を表示する映像処理を説明する。本実施形態では、認識対象物の名称をリアルタイムに表示する例を説明する。なお、本実施形態においては、携帯端末により撮像した映像に対する処理について説明するが、映像は映像コンテンツの再生処理や、放送番組の視聴においても同様に適応される。
[Second Embodiment]
Next, a video processing apparatus according to the second embodiment of the present invention will be described. In the present embodiment, the video processing device as a mobile terminal recognizes a plurality of recognition objects in the image being captured, and performs video processing for displaying the recognition result on the recognition object in the video in real time. explain. In this embodiment, an example will be described in which the names of recognition objects are displayed in real time. In the present embodiment, processing for video captured by a mobile terminal will be described. However, video is similarly applied to video content reproduction processing and broadcast program viewing.
本実施形態によれば、ユーザが映像を視聴中、その映像内の複数の認識対象物についての認識結果を、認識精度を維持しながら映像上でリアルタイムにユーザに知らせることができる。 According to this embodiment, while a user is viewing a video, it is possible to notify the user of the recognition results for a plurality of recognition objects in the video on the video in real time while maintaining the recognition accuracy.
《本実施形態に係る映像処理の説明》
図2は、本実施形態に係る映像処理装置200による映像処理を説明する図である。図2には、1つの処理例を示すがこれに限定されない。
<< Description of Video Processing According to this Embodiment >>
FIG. 2 is a diagram for explaining video processing by the
図2においては、観光客などユーザが、視界内の搭やビルなどの建築物を知りたい場合や、行き先や自分の現在地を知りたい場合に、携帯端末で認識対象物を含む映像を撮像した例を示すものである。携帯端末としての映像処理装置200の表示画面210には、図2の左図に示すように、撮像中の映像表示領域211とタッチパネルの指示ボタン表示領域212とが表示されている。なお、映像表示領域211に表示されている建築物は、撮像中の映像がそのまま表示されたものであり、静止画(写真)ではない。本実施形態においては、その表示映像に対してリアルタイムの認識処理が行なわれ、図2の右の表示画面220の映像表示領域221には、複数の建築物のそれぞれの名前222〜224が表示される。ユーザは、かかる映像表示領域221から、例えば、観光案内などが無くても、目的地や自分の現在地を知ることができる。
In FIG. 2, when a user such as a tourist wants to know a building such as a tower or a building in the field of view, or wants to know a destination or his / her current location, the mobile terminal captures an image including a recognition target object. An example is given. On the
《映像処理装置の機能構成》
図3は、本実施形態に係る映像処理装置200の機能構成を示すブロック図である。
《Functional configuration of video processing device》
FIG. 3 is a block diagram showing a functional configuration of the
映像処理装置200は、映像を取得する撮像部310を有する。撮像された映像は、表示部360に表示されると共に、局所特徴量生成部320に入力される。局所特徴量生成部320は、撮像された映像から局所特徴量を生成する(詳細は図4A参照)。局所特徴量DB330には、あらかじめ個々の認識対象物、図2のスカイツリー/ビルなど単体、から局所特徴量生成部320と同様のアルゴリズムで生成された局所特徴量が、認識対象物と対応付けられて格納されている。かかる局所特徴量DB330の内容は、通信制御部390を介して局所特徴量受信部380が受信してもよい。
The
照合部340は、撮像された映像から局所特徴量生成部320で生成された局所特徴量中に、局所特徴量DB330に格納されている局所特徴量に対応するデータがあるか否かを照合する。照合部340は、対応するデータがあれば、撮影された映像中に認識対象物があると判定する。なお、局所特徴量が対応するというのは、同じ局所特徴量が在るというだけでなく、その順序や配置が同じ対象物から取得し得るか否かを判断することを含んでもよい(図4G参照)。
The
照合結果生成部350は、照合部340の照合結果から表示部360に表示するためのデータを生成する。かかるデータには、認識対象物の名称や認識エラーなどのデータも含まれる。表示部360は、撮像部310で撮像された映像に照合結果を重畳して表示する。また、照合結果生成部350が生成したデータは、通信制御部390を介して外部に送信されてもよい。操作部370は、映像処理装置200のキーやタッチパネル(図2の指示ボタンなど)を含み、撮像部310などの映像処理装置200の動作を操作する。
The verification
なお、本実施形態の映像処理装置200は、撮像中の映像に限定されず、再生中の映像や放送中の映像においても適用可能である。その場合には、撮像部310を映像再生部や映像受信部に置き換えればよい。
Note that the
《局所特徴量生成部》
図4Aは、本実施形態に係る局所特徴量生成部320の構成を示すブロック図である。
<< Local feature generator >>
FIG. 4A is a block diagram illustrating a configuration of the local feature
局所特徴量生成部320は、特徴点検出部411、局所領域取得部412、サブ領域分割部413、サブ領域特徴ベクトル生成部414、および次元選定部415を含んで構成される。
The local feature
特徴点検出部411は、画像データから特徴的な点(特徴点)を多数検出し、各特徴点の座標位置、スケール(大きさ)、および角度を出力する。
The feature
局所領域取得部412は、検出された各特徴点の座標値、スケール、および角度から、特徴量抽出を行う局所領域を取得する。
The local
サブ領域分割部413は、局所領域をサブ領域に分割する。例えば、サブ領域分割部413は、局所領域を16ブロック(4×4ブロック)に分割することも、局所領域を25ブロック(5×5ブロック)に分割することもできる。なお、分割数は限定されない。本実施形態においては、以下、局所領域を25ブロック(5×5ブロック)に分割する場合を代表して説明する。
The sub
サブ領域特徴ベクトル生成部414は、局所領域のサブ領域ごとに特徴ベクトルを生成する。サブ領域の特徴ベクトルとしては、例えば、勾配方向ヒストグラムを用いることができる。
The sub-region feature
次元選定部415は、サブ領域の位置関係に基づいて、近接するサブ領域の特徴ベクトル間の相関が低くなるように、局所特徴量として出力する次元を選定する(例えば、次元の削除や間引きをする)。また、次元選定部415は、単に次元を選定するだけではなく、選定の優先順位を決定することができる。すなわち、次元選定部415は、例えば、隣接するサブ領域間では同一の勾配方向の次元が選定されないように、優先順位をつけて次元を選定することができる。そして、次元選定部415は、選定した次元から構成される特徴ベクトルを、局所特徴量として出力する。なお、次元選定部415は、優先順位に基づいて次元を並び替えた状態で、局所特徴量を出力することができる。
The
《局所特徴量生成部の処理》
図4B〜図4Fは、本実施形態に係る局所特徴量生成部320の処理を示す図である。
<< Processing of local feature generator >>
4B to 4F are diagrams illustrating processing of the local feature
まず、図4Bは、局所特徴量生成部320における、特徴点検出/局所領域取得/サブ領域分割/特徴ベクトル生成の一連の処理を示す図である。かかる一連の処理については、米国特許第6711293号明細書や、David G. Lowe著、「Distinctive image features from scale-invariant key points」、(米国)、International Journal of Computer Vision、60(2)、2004年、p. 91-110を参照されたい。
First, FIG. 4B is a diagram illustrating a series of processing of feature point detection / local region acquisition / sub-region division / feature vector generation in the local feature
(特徴点検出部)
図4Bの421は、図4Aの特徴点検出部411において、映像中の画像から特徴点を検出した状態を示す図である。以下、1つの特徴点421aを代表させて局所特徴量の生成を説明する。特徴点421aの矢印の起点が特徴点の座標位置を示し、矢印の長さがスケール(大きさ)を示し、矢印の方向が角度を示す。ここで、スケール(大きさ)や方向は、対象映像に従って輝度や彩度、色相などを選択できる。また、図4Bの例では、60度間隔で6方向の場合を説明するが、これに限定されない。
(Feature point detector)
421 in FIG. 4B is a diagram illustrating a state in which feature points are detected from an image in the video in the feature
(局所領域取得部)
図4Aの局所領域取得部412は、例えば、特徴点421aの起点を中心にガウス窓422aを生成し、このガウス窓422aを略含む局所領域422を生成する。図4Bの例では、局所領域取得部412は正方形の局所領域422を生成したが、局所領域は円形であっても他の形状であってもよい。この局所領域を各特徴点について取得する。
(Local area acquisition unit)
For example, the local
(サブ領域分割部)
次に、サブ領域分割部413において、上記特徴点421aの局所領域422に含まれる各画素のスケールおよび角度をサブ領域423に分割した状態が示されている。なお、図4Bでは4×4=16画素をサブ領域とする5×5=25のサブ領域に分割した例を示す。しかし、サブ領域は、4×4=16や他の形状、分割数であってもよい。
(Sub-region division part)
Next, a state in which the scale and angle of each pixel included in the
(サブ領域特徴ベクトル生成部)
サブ領域特徴ベクトル生成部414は、サブ領域内の各画素のスケールを8方向の角度単位にヒストグラムを生成して量子化し、サブ領域の特徴ベクトル424とする。すなわち、特徴点検出部411が出力する角度に対して正規化された方向である。そして、サブ領域特徴ベクトル生成部414は、サブ領域ごとに量子化された8方向の頻度を集計し、ヒストグラムを生成する。この場合、サブ領域特徴ベクトル生成部414は、各特徴点に対して生成される25サブ領域ブロック×6方向=150次元のヒストグラムにより構成される特徴ベクトルを出力する。また、勾配方向を8方向に量子化するだけに限らず、4方向、8方向、10方向など任意の量子化数に量子化してよい。勾配方向をD方向に量子化する場合、量子化前の勾配方向をG(0〜2πラジアン)とすると、勾配方向の量子化値Qq(q=0,…,D−1)は、例えば式(1)や式(2)などで求めることができるが、これに限られない。
(Sub-region feature vector generator)
The sub-region feature
Qq=floor(G×D/2π) …(1)
Qq=round(G×D/2π)modD …(2)
ここで、floor()は小数点以下を切り捨てる関数、round()は四捨五入を行う関数、modは剰余を求める演算である。また、サブ領域特徴ベクトル生成部414は勾配ヒストグラムを生成するときに、単純な頻度を集計するのではなく、勾配の大きさを加算して集計してもよい。また、サブ領域特徴ベクトル生成部414は勾配ヒストグラムを集計するときに、画素が属するサブ領域だけではなく、サブ領域間の距離に応じて近接するサブ領域(隣接するブロックなど)にも重み値を加算するようにしてもよい。また、サブ領域特徴ベクトル生成部414は量子化された勾配方向の前後の勾配方向にも重み値を加算するようにしてもよい。なお、サブ領域の特徴ベクトルは勾配方向ヒストグラムに限られず、色情報など、複数の次元(要素)を有するものであればよい。本実施形態においては、サブ領域の特徴ベクトルとして、勾配方向ヒストグラムを用いることとして説明する。
Qq = floor (G × D / 2π) (1)
Qq = round (G × D / 2π) mod D (2)
Here, floor () is a function for rounding off the decimal point, round () is a function for rounding off, and mod is an operation for obtaining a remainder. Further, when generating the gradient histogram, the sub-region feature
(次元選定部)
次に、図4C〜図4Fに従って、局所特徴量生成部320における、次元選定部415に処理を説明する。
(Dimension selection part)
Next, processing will be described in the
次元選定部415は、サブ領域の位置関係に基づいて、近接するサブ領域の特徴ベクトル間の相関が低くなるように、局所特徴量として出力する次元(要素)を選定する(間引きする)。より具体的には、次元選定部415は、例えば、隣接するサブ領域間では少なくとも1つの勾配方向が異なるように次元を選定する。なお、本実施形態では、次元選定部415は近接するサブ領域として主に隣接するサブ領域を用いることとするが、近接するサブ領域は隣接するサブ領域に限られず、例えば、対象のサブ領域から所定距離内にあるサブ領域を近接するサブ領域とすることもできる。
The
図4Cは、局所領域を5×5ブロックのサブ領域に分割し、勾配方向を6方向431aに量子化して生成された150次元の勾配ヒストグラムの特徴ベクトル431から次元を選定する場合の一例を示す図である。図4Cの例では、150次元(5×5=25サブ領域ブロック×6方向)の特徴ベクトルから次元の選定が行われている。
FIG. 4C shows an example of selecting a dimension from a
(局所領域の次元選定)
図4Cは、局所特徴量生成部320における、特徴ベクトルの次元数の選定処理の様子を示す図である。
(Dimension selection of local area)
FIG. 4C is a diagram illustrating a state of a feature vector dimension number selection process in the local feature
図4Cに示すように、次元選定部415は、150次元の勾配ヒストグラムの特徴ベクトル431から半分の75次元の勾配ヒストグラムの特徴ベクトル432を選定する場合に、隣接する左右、上下のサブ領域ブロックでは、同一の勾配方向の次元が選定されないように、次元を選定することができる。
As shown in FIG. 4C, when selecting a half 75-dimensional gradient
この例では、勾配方向ヒストグラムにおける量子化された勾配方向をq(q=0,1,2,3,4,5)とした場合に、q=0,2,4の要素を選定するブロックと、q=1,3,5の要素を選定するサブ領域ブロックとが交互に並んでいる。そして、図4Cの例では、隣接するサブ領域ブロックで選定された勾配方向を合わせると、全6方向となっている。 In this example, when the quantized gradient direction in the gradient direction histogram is q (q = 0, 1, 2, 3, 4, 5), a block for selecting elements of q = 0, 2, 4 and , Q = 1, 3, and 5 are alternately arranged with sub-region blocks for selecting elements. In the example of FIG. 4C, when the gradient directions selected in the adjacent sub-region blocks are combined, there are six directions.
また、次元選定部415は、75次元の勾配ヒストグラムの特徴ベクトル432から50次元の勾配ヒストグラムの特徴ベクトル433を選定する場合は、斜め45度に位置するサブ領域ブロック間で、1つの方向のみが同一になる(残り1つの方向は異なる)ように次元を選定することができる。
In addition, when the
また、次元選定部415は、50次元の勾配ヒストグラムの特徴ベクトル433から25次元の勾配ヒストグラムの特徴ベクトル434を選定する場合は、斜め45度に位置するサブ領域ブロック間で、選定される勾配方向が一致しないように次元を選定することができる。図4Cに示す例では、次元選定部415は、1次元から25次元までは各サブ領域から1つの勾配方向を選定し、26次元から50次元までは2つの勾配方向を選定し、51次元から75次元までは3つの勾配方向を選定している。
In addition, when the
このように、隣接するサブ領域ブロック間で勾配方向が重ならないように、また全勾配方向が均等に選定されることが望ましい。また同時に、図4Cに示す例のように、局所領域の全体から均等に次元が選定されることが望ましい。なお、図4Cに示した次元選定方法は一例であり、この選定方法に限らない。 In this way, it is desirable that the gradient directions are selected uniformly so that the gradient directions do not overlap between adjacent sub-region blocks. At the same time, as in the example shown in FIG. 4C, it is desirable that dimensions be selected uniformly from the entire local region. Note that the dimension selection method illustrated in FIG. 4C is an example, and is not limited to this selection method.
(局所領域の優先順位)
図4Dは、局所特徴量生成部320における、サブ領域からの特徴ベクトルの選定順位の一例を示す図である。
(Local area priority)
FIG. 4D is a diagram illustrating an example of the selection order of feature vectors from sub-regions in the local feature
次元選定部415は、単に次元を選定するだけではなく、特徴点の特徴に寄与する次元から順に選定するように、選定の優先順位を決定することができる。すなわち、次元選定部415は、例えば、隣接するサブ領域ブロック間では同一の勾配方向の次元が選定されないように、優先順位をつけて次元を選定することができる。そして、次元選定部415は、選定した次元から構成される特徴ベクトルを、局所特徴量として出力する。なお、次元選定部415は、優先順位に基づいて次元を並び替えた状態で、局所特徴量を出力することができる。
The
すなわち、次元選定部415は、1〜25次元、26次元〜50次元、51次元〜75次元の間は、例えば図4Dの441に示すようなサブ領域ブロックの順番で次元を追加するように選定していってもよい。図4Dの441に示す優先順位を用いる場合、次元選定部415は、中心に近いサブ領域ブロックの優先順位を高くして、勾配方向を選定していくことができる。
That is, the
図4Eの451は、図4Dの選定順位に従って、150次元の特徴ベクトルの要素の番号の一例を示す図である。この例では、5×5=25ブロックをラスタスキャン順に番号p(p=0,1,…,25)で表し、量子化された勾配方向をq(q=0,1,2,3,4,5)とした場合に、特徴ベクトルの要素の番号を6×p+qとしている。 451 in FIG. 4E is a diagram illustrating an example of element numbers of 150-dimensional feature vectors in accordance with the selection order in FIG. 4D. In this example, 5 × 5 = 25 blocks are represented by numbers p (p = 0, 1,..., 25) in raster scan order, and the quantized gradient direction is represented by q (q = 0, 1, 2, 3, 4). , 5), the element number of the feature vector is 6 × p + q.
図4Fの461は、図4Eの選定順位による150次元の順位が、25次元単位に階層化されていることを示す図である。すなわち、図4Fの461は、図4Dの441に示した優先順位に従って図4Eに示した要素を選定していくことにより得られる局所特徴量の構成例を示す図である。次元選定部415は、図4Fに示す順序で次元要素を出力することができる。具体的には、次元選定部415は、例えば150次元の局所特徴量を出力する場合、図4Fに示す順序で全150次元の要素を出力することができる。また、次元選定部415は、例えば25次元の局所特徴量を出力する場合、図4Fに示す1行目(76番目、45番目、83番目、…、120番目)の要素471を図4Fに示す順(左から右)に出力することができる。また、次元選定部415は、例えば50次元の局所特徴量を出力する場合、図4Fに示す1行目に加えて、図4Fに示す2行目の要素472を図4Fに示す順(左から右)に出力することができる。
461 in FIG. 4F is a diagram showing that the 150-dimensional order according to the selection order in FIG. 4E is hierarchized in units of 25 dimensions. That is, 461 in FIG. 4F is a diagram showing a configuration example of local feature amounts obtained by selecting the elements shown in FIG. 4E according to the priority order shown in 441 in FIG. 4D. The
ところで、図4Fに示す例では、局所特徴量は階層的な構造となっている。すなわち、例えば、25次元の局所特徴量と150次元の局所特徴量とにおいて、先頭の25次元分の局所特徴量における要素471〜476の並びは同一となっている。このように、次元選定部415は、階層的(プログレッシブ)に次元を選定することにより、アプリケーションや通信容量、端末スペックなどに応じて、任意の次元数の局所特徴量、すなわち任意のサイズの局所特徴量を抽出して出力することができる。また、次元選定部415が、階層的に次元を選定し、優先順位に基づいて次元を並び替えて出力することにより、異なる次元数の局所特徴量を用いて、画像の照合を行うことができる。例えば、75次元の局所特徴量と50次元の局所特徴量を用いて画像の照合が行われる場合、先頭の50次元だけを用いることにより、局所特徴量間の距離計算を行うことができる。
Incidentally, in the example shown in FIG. 4F, the local feature amount has a hierarchical structure. That is, for example, in the 25-dimensional local feature value and the 150-dimensional local feature value, the arrangement of the
なお、図4Dの441から図4Fに示す優先順位は一例であり、次元を選定する際の順序はこれに限られない。例えば、ブロックの順番に関しては、図4Dの441の例の他に、図4Dの442や図4Dの443に示すような順番でもよい。また、例えば、すべてのサブ領域からまんべんなく次元が選定されるように優先順位が定められることとしてもよい。また、局所領域の中央付近が重要として、中央付近のサブ領域の選定頻度が高くなるように優先順位が定められることとしてもよい。また、次元の選定順序を示す情報は、例えば、プログラムにおいて規定されていてもよいし、プログラムの実行時に参照されるテーブル等(選定順序記憶部)に記憶されていてもよい。 Note that the priorities shown in FIG. 4D from 441 to FIG. 4F are examples, and the order of selecting dimensions is not limited to this. For example, regarding the order of blocks, in addition to the example of 441 in FIG. 4D, the order as shown in 442 in FIG. 4D and 443 in FIG. 4D may be used. Further, for example, the priority order may be set so that dimensions are selected from all the sub-regions. Also, the vicinity of the center of the local region may be important, and the priority order may be determined so that the selection frequency of the sub-region near the center is increased. Further, the information indicating the dimension selection order may be defined in the program, for example, or may be stored in a table or the like (selection order storage unit) referred to when the program is executed.
また、次元選定部415は、サブ領域ブロックを1つ飛びに選択して、次元の選定を行ってもよい。すなわち、あるサブ領域では6次元が選定され、当該サブ領域に近接する他のサブ領域では0次元が選定される。このような場合においても、近接するサブ領域間の相関が低くなるようにサブ領域ごとに次元が選定されていると言うことができる。
In addition, the
また、局所領域やサブ領域の形状は、正方形に限られず、任意の形状とすることができる。例えば、局所領域取得部412が、円状の局所領域を取得することとしてもよい。この場合、サブ領域分割部413は、円状の局所領域を例えば複数の局所領域を有する同心円に9分割や17分割のサブ領域に分割することができる。この場合においても、次元選定部415は、各サブ領域において、次元を選定することができる。
Further, the shape of the local region and the sub-region is not limited to a square, and can be an arbitrary shape. For example, the local
以上、図4B〜図4Fに示したように、本実施形態の局所特徴量生成部320によれば、局所特徴量の情報量を維持しながら生成された特徴ベクトルの次元が階層的に選定される。この処理により、認識精度を維持しながらリアルタイムでの対象物認識と認識結果の表示が可能となる。なお、局所特徴量生成部320の構成および処理は本例に限定されない。認識精度を維持しながらリアルタイムでの対象物認識と認識結果の表示が可能となる他の処理が当然に適用できる。
As described above, as illustrated in FIGS. 4B to 4F, according to the local feature
《照合部》
図4Gは、本実施形態に係る照合部340の処理を示す図である。
<Verification part>
FIG. 4G is a diagram illustrating processing of the
図4Gは、図2の映像中の建築物を認識する照合例を示す図である。あらかじめ認識対象物(本例では、スカイツリー、○○ビル、××鉄道、△△体育館を含む建物)から本実施形態に従い生成された局所特徴量は、局所特徴量DB330に格納されている。一方、左図の携帯端末としての映像処理装置200の表示画面230中の映像表示領域231からは、本実施形態に従い局所特徴量が生成される。そして、局所特徴量DB330に格納された局所特徴量のそれぞれが、映像表示領域231から生成された局所特徴量中にあるか否かが照合される。
FIG. 4G is a diagram illustrating a collation example for recognizing a building in the video of FIG. Local feature amounts generated according to the present embodiment from recognition objects (in this example, buildings including a sky tree, a XX building, a XX railway, and a ΔΔ gymnasium) are stored in the local
図4Gに示すように、照合部340は、局所特徴量DB330に格納されている局所特徴量481〜484と局所特徴量が合致する各特徴点を細線にように関連付ける。なお、照合部340は、局所特徴量の所定割合以上が一致する場合を特徴点の合致とする。そして、照合部340は、関連付けられた特徴点の位置関係が線形関係であれば、認識対象物であると認識する。このような対応する特徴点の集合による認識を行なえば、サイズの大小や向きの違い(視点の違い)、あるいは反転などによっても認識が可能である。また、所定数以上の関連付けられた特徴点があれば認識精度が得られるので、一部が視界から隠れていても認識対象物の認識が可能である。ここで、認識のための局所特徴量の合致条件や特徴点数の条件は、同じであってもよいし、認識対象が異なる場合は異なる条件を設定してもよい。
As illustrated in FIG. 4G, the
なお、本実施形態の照合部340の照合処理では、特徴点座標と局所特徴量とに基づいて照合が行なわれるが、合致する認識対象物から生成された局所特徴量と映像中の画像から生成された局所特徴量との配列順序の線形関係のみによっても、認識が可能である。一方、本実施形態では、2次元画像によって説明されているが、3次元の特徴点座標を使用しても、同様の処理が可能である。
In the matching process of the
(局所特徴量生成データ)
図5は、本実施形態に係る局所特徴量生成データ500の構成を示す図である。これらのデータは、図7のRAM740に記憶保持される。
(Local feature generation data)
FIG. 5 is a diagram showing a configuration of local feature
局所特徴量生成データ500には、入力画像ID501に対応付けて、複数の検出された検出特徴点502,特徴点座標503および特徴点に対応する局所領域情報504が記憶される。そして、各検出特徴点502,特徴点座標503および局所領域情報504に対応付けて、複数のサブ領域ID505,サブ領域情報506,各サブ領域に対応する特徴ベクトル507および優先順位を含む選定次元508が記憶される。
In the local feature
以上のデータから各検出特徴点502に対して生成された局所特徴量509が記憶される。
A
(局所特徴量DB)
図6は、本実施形態に係る局所特徴量DB330の構成を示す図である。
(Local feature DB)
FIG. 6 is a diagram showing a configuration of the
局所特徴量DB330において、それぞれの認識対象物の局所特徴量は、認識対象物の認識に適切な、異なる特徴点数および/または異なる特徴ベクトルの次元数で格納されている。
In the local
例えば、局所特徴量DB331は、他の認識対象物との相関が低いので特徴点数25/次元数25により局所特徴量が格納されている。また、局所特徴量DB332は、他の認識対象物との相関が少しあるので特徴点数50/次元数25により局所特徴量が格納されている。また、局所特徴量DB333は、他の認識対象物との相関があるで特徴点数100/次元数50により局所特徴量が格納されている。また、局所特徴量DB334は、他の認識対象物との相関が高いので特徴点数150/次元数50により局所特徴量が格納されている。
For example, since the local
各局所特徴量DB331〜334には、認識対象物IDと認識対象物名に対応付けて、第1番局所特徴量から第m番局所特徴量を記憶する。なお、mは正の整数であり、認識対象物に対応して異なる数でよい。また、本実施形態においては、それぞれの局所特徴量と共に照合処理に使用される特徴点座標が記憶される。
Each local
《映像処理装置のハードウェア構成》
図7は、本実施形態に係る映像処理装置200のハードウェア構成を示すブロック図である。
<< Hardware configuration of video processing device >>
FIG. 7 is a block diagram showing a hardware configuration of the
図7で、CPU710は演算制御用のプロセッサであり、プログラムを実行することで携帯端末である映像処理装置200の各機能構成部を実現する。ROM720は、初期データおよびプログラムなどの固定データおよびプログラムを記憶する。また、通信制御部390は通信制御部であり、本実施形態においては、ネットワークを介して他の装置と通信する。なお、CPU710は1つに限定されず、複数のCPUであっても、あるいは画像処理用のGPU(Graphics Processing Unit)を含んでもよい。
In FIG. 7, a
RAM740は、CPU710が一時記憶のワークエリアとして使用するランダムアクセスメモリである。RAM740には、本実施形態の実現に必要なデータを記憶する領域が確保されている。入力映像741は、撮像部310が撮像して入力された入力映像を記憶する領域である。特徴点データ742は、入力映像741から検出した特徴点座標、スケール、角度を含む特徴点データを記憶する領域である。局所特徴量生成テーブル500は、図5で示した局所特徴量生成テーブルを記憶する領域である。照合結果743は、入力映像から生成された局所特徴量と局所特徴量DB330に格納された局所特徴量との照合から認識された、複数の認識対象物を含む照合結果を記憶する領域である。照合結果表示データ744は、照合結果743をユーザに報知するための照合結果表示データを記憶する領域である。なお、音声出力をする場合には、照合結果音声データが含まれてもよい。入力映像/照合結果重畳データ745は、入力映像741に照合結果743を重畳した表示部360に表示される入力映像/照合結果重畳データを記憶する領域である。入出力データ746は、入出力インタフェース760を介して入出力される入出力データを記憶する領域である。送受信データ747は、通信制御部390を介して送受信される送受信データを記憶する領域である。
The
ストレージ750には、データベースや各種のパラメータ、あるいは本実施形態の実現に必要な以下のデータまたはプログラムが記憶されている。局所特徴量DB330は、図6に示した局所特徴量DBが格納される領域である。照合結果表示フォーマット751は、照合結果を表示するフォーマットを生成するために使用される照合結果表示フォーマットが格納される領域である。
The
ストレージ750には、以下のプログラムが格納される。携帯端末制御プログラム752は、本映像処理装置200の全体を制御する携帯端末制御プログラムが格納される領域である。局所特徴量生成モジュール753は、携帯端末制御プログラム752において、入力映像から図4B〜図4Fに従って局所特徴量を生成する局所特徴量生成モジュールが格納される領域である。照合制御モジュール754は、携帯端末制御プログラム752において、入力映像から生成された局所特徴量と局所特徴量DB330に格納された局所特徴量とを照合する照合制御モジュールが格納される領域である。照合結果報知モジュール755は、照合結果を表示または音声によりユーザに報知するための照合結果報知モジュールが格納される領域である。
The
入出力インタフェース760は、入出力機器との入出力データをインタフェースする。入出力インタフェース760には、表示部360、操作部370であるタッチパネルやキーボード、スピーカ764、マイク765、撮像部310が接続される。入出力機器は上記例に限定されない。また、GPS(Global Positioning System)位置生成部766は、GPS衛星からの信号に基づいて現在位置を取得する。
The input /
なお、図7には、本実施形態に必須なデータやプログラムのみが示されており、本実施形態に関連しないデータやプログラムは図示されていない。 FIG. 7 shows only data and programs essential to the present embodiment, and does not illustrate data and programs not related to the present embodiment.
《映像処理装置の処理手順》
図8は、本実施形態に係る映像処理装置200の処理手順を示すフローチャートである。このフローチャートは、図7のCPU710によってRAM740を用いて実行され、図3の各機能構成部を実現する。
《Processing procedure of video processing device》
FIG. 8 is a flowchart showing a processing procedure of the
まず、ステップS811において、対象物認識を行なうための映像入力があったか否かを判定する。また、携帯端末の機能として、ステップS821においては受信を判定し、ステップS831においては送信を判定する。いずれでもなければ、ステップS841において他の処理を行なう。 First, in step S811, it is determined whether or not there is a video input for performing object recognition. As a function of the mobile terminal, reception is determined in step S821, and transmission is determined in step S831. Otherwise, other processing is performed in step S841.
映像入力があればステップS813に進んで、入力映像から局所特徴量生成処理を実行する(図9A参照)。次に、ステップS815において、照合処理を実行する(図9B参照)。ステップS817においては、照合処理の結果を入力映像に重畳して映像/照合結果重畳表示処理を実行する。ステップS819において、対象物認識を行なう処理を終了するかを判定する。終了は、例えば図2の指示ボタン表示領域212にあるリセットボタンで行なわれる。終了でなければステップS813に戻って、映像入力の対象物認識を繰り返す。
If there is video input, the process proceeds to step S813, and local feature generation processing is executed from the input video (see FIG. 9A). Next, in step S815, collation processing is executed (see FIG. 9B). In step S817, the result of the collation process is superimposed on the input video, and the video / collation result superimposed display process is executed. In step S819, it is determined whether or not to finish the object recognition process. The end is performed, for example, by a reset button in the instruction
受信であり、局所特徴量DB用のデータをダウンロードする場合は、ステップS823において局所特徴量DB用データを受信して、ステップS825において局所特徴量DBに記憶する。一方、その他の携帯端末としてのデータ受信であれば、ステップS827において受信処理を行なう。また、送信であり、局所特徴量DB用のデータをアップロードする場合は、ステップS833において入力映像から生成した局所特徴量を局所特徴量DB用データとして送信する。一方、その他の携帯端末としてのデータ送信であれば、ステップS835において送信処理を行なう。携帯端末としてのデータ送受信処理については、本実施形態の特徴ではないので詳細な説明は省略する。 When receiving and downloading local feature DB data, the local feature DB data is received in step S823 and stored in the local feature DB in step S825. On the other hand, if it is data reception as another portable terminal, reception processing is performed in step S827. In addition, when uploading local feature DB data, the local feature generated from the input video is transmitted as local feature DB data in step S833. On the other hand, if it is data transmission as another portable terminal, transmission processing is performed in step S835. The data transmission / reception processing as a portable terminal is not a feature of the present embodiment, and thus detailed description thereof is omitted.
(局所特徴量生成処理)
図9Aは、本実施形態に係る局所特徴量生成処理S813の処理手順を示すフローチャートである。
(Local feature generation processing)
FIG. 9A is a flowchart illustrating a processing procedure of local feature generation processing S813 according to the present embodiment.
まず、ステップS911において、入力映像から特徴点の位置座標、スケール、角度を検出する。ステップS913において、ステップS911で検出された特徴点の1つに対して局所領域を取得する。次に、ステップS915において、局所領域をサブ領域に分割する。ステップS917においては、各サブ領域の特徴ベクトルを生成して局所領域の特徴ベクトルを生成する。ステップS911からS917の処理は図4Bに図示されている。 First, in step S911, the position coordinates, scale, and angle of the feature points are detected from the input video. In step S913, a local region is acquired for one of the feature points detected in step S911. Next, in step S915, the local area is divided into sub-areas. In step S917, a feature vector for each sub-region is generated to generate a feature vector for the local region. The processing from step S911 to S917 is illustrated in FIG. 4B.
次に、ステップS919において、ステップS917において生成された局所領域の特徴ベクトルに対して次元選定を実行する。次元選定については、図4D〜図4Fに図示されている。 Next, in step S919, dimension selection is performed on the feature vector of the local region generated in step S917. The dimension selection is illustrated in FIGS. 4D to 4F.
ステップS921においては、ステップS911で検出した全特徴点について局所特徴量の生成と次元選定とが終了したかを判定する。終了していない場合はステップS913に戻って、次の1つの特徴点について処理を繰り返す。 In step S921, it is determined whether the generation of local feature values and dimension selection have been completed for all feature points detected in step S911. If not completed, the process returns to step S913, and the process is repeated for the next one feature point.
(照合処理)
図9Bは、本実施形態に係る照合処理S815の処理手順を示すフローチャートである。
(Verification process)
FIG. 9B is a flowchart showing the processing procedure of the collation processing S815 according to the present embodiment.
まず、ステップS931において、初期化として、パラメータp=1,q=0を設定する。次に、ステップS933において、ステップS813において生成した局所特徴量の次元数jを取得する。 First, in step S931, parameters p = 1 and q = 0 are set as initialization. Next, in step S933, the dimension number j of the local feature amount generated in step S813 is acquired.
ステップS935〜S945のループにおいて、p>m(m=認識対象物の特徴点数)となるまで各局所特徴量の照合を繰り返す。まず、ステップS935において、局所特徴量DB330に格納された認識対象物の第p番局所特徴量の次元数jのデータを取得する。すなわち、最初の1次元からj次元を取得する。次に、ステップS937において、ステップS935において取得した第p番局所特徴量と入力映像から生成した全特徴点の局所特徴量を順に照合して、類似か否かを判定する。ステップS939においては、局所特徴量間の照合の結果から類似度が閾値αを超えるか否かを判断し、超える場合はステップS941において、局所特徴量と、入力映像と認識対象物とにおける合致した特徴点の位置関係との組みを記憶する。そして、合致した特徴点数のパラメータであるqを1つカウントアップする。ステップS943においては、認識対象物の特徴点を次の特徴点に進め(p←p+1)、認識対象物の全特徴点の照合が終わってない場合には(p≦m)、ステップS935に戻って合致する局所特徴量の照合を繰り返す。なお、閾値αは、認識対象物によって求められる認識精度に対応して変更可能である。ここで、他の認識対象物との相関が低い認識対象物であれば認識精度を低くしても、正確な認識が可能である。
In the loop of steps S935 to S945, the collation of each local feature amount is repeated until p> m (m = number of feature points of recognition target object). First, in step S935, data of the dimension number j of the p-th local feature amount of the recognition target stored in the local
認識対象物の全特徴点との照合が終了すると、ステップS945からS947に進んで、ステップS947〜S953において、認識対象物が入力映像に存在するか否かが判定される。まず、ステップS947において、認識対象物の特徴点数pの内で入力映像の特徴点の局所特徴量と合致した特徴点数qの割合が、閾値βを超えたか否かを判定する。超えていればステップS949に進んで、認識対象物候補として、さらに、入力映像の特徴点と認識対象物の特徴点との位置関係が、線形変換が可能な関係であるか否かを判定する。すなわち、ステップS941において局所特徴量が合致したとして記憶した、入力映像の特徴点と認識対象物の特徴点との位置関係が、回転や反転、視点の位置変更などの変化によっても可能な位置関係なのか、不可能な位置関係なのかを判定する。かかる判定方法は幾何学的に既知であるので、詳細な説明は省略する。ステップS951において、整形変換可能か否かの判定結果により、線形変換可能であればステップS953に進んで、照合した認識対象物が入力映像に存在すると判定する。なお、閾値βは、認識対象物によって求められる認識精度に対応して変更可能である。ここで、他の認識対象物との相関が低い、あるいは一部分からでも特徴が判断可能な認識対象物であれば合致した特徴点が少なくても、正確な認識が可能である。すなわち、一部分が隠れて見えなくても、あるいは特徴的な一部分が見えてさえいれば、対象物の認識が可能である。 When collation with all the feature points of the recognition target object is completed, the process proceeds from step S945 to S947. In steps S947 to S953, it is determined whether or not the recognition target object exists in the input video. First, in step S947, it is determined whether or not the ratio of the feature point number q that matches the local feature amount of the feature point of the input video among the feature point number p of the recognition target object exceeds the threshold value β. If exceeded, the process proceeds to step S949, and it is further determined as a recognition object candidate whether the positional relationship between the feature point of the input video and the feature point of the recognition object is a relationship that allows linear transformation. . That is, the positional relationship between the feature point of the input image and the feature point of the recognition target that is stored as the local feature amount matches in step S941 is possible even by a change such as rotation, inversion, or change of the viewpoint position. It is determined whether it is a positional relationship that is impossible or impossible. Since such a determination method is geometrically known, detailed description thereof is omitted. In step S951, if linear conversion is possible based on the determination result of whether or not shaping conversion is possible, the process proceeds to step S953, where it is determined that the collated recognition target object exists in the input video. The threshold value β can be changed according to the recognition accuracy required by the recognition object. Here, accurate recognition is possible even if there are few matching feature points as long as the recognition object has a low correlation with other recognition objects or a feature can be determined even from a part. That is, even if a part is hidden and cannot be seen, or if a characteristic part is visible, the object can be recognized.
ステップS955においては、局所特徴量DB330に未照合の認識対象物が残っているか否かを判定する。まだ認識対象物が残っていれば、ステップS957において次の認識対象物を設定して、パラメータp=1,q=0に初期化し、ステップS935に戻って照合を繰り返す。
In step S955, it is determined whether or not an unmatched recognition target remains in the
なお、かかる照合処理の説明からも明らかなように、あらゆる分野の認識対象物を局所特徴量DB330に記憶して、全認識対象物を携帯端末で照合する処理は、負荷が非常に大きくなる。したがって、例えば、入力映像からの対象物認識の前にユーザが対象物の分野をメニューから選択して、その分野を局所特徴量DB330から検索して照合することが考えられる。また、局所特徴量DB330にユーザが使用する分野(例えば、図2の例であれば建築物など)の局所特徴量のみをダウンロードすることによっても、負荷を軽減できる。
As is clear from the description of the collation processing, the processing for storing recognition objects in all fields in the
[第3実施形態]
次に、本発明の第3実施形態に係る映像処理装置について説明する。本実施形態に係る映像処理装置は、上記第2実施形態と比べると、映像中から認識した複数の認識対象物を組み合わせることによって、映像全体が何を表わすかを認識する点で異なる。例えば、複数の建築物の認識から現在地や行き先を認識する。あるいは、複数の部品の認識から製品を認識する。その他の構成および動作は、第2実施形態と同様であるため、同じ構成および動作については説明を省略する。
[Third Embodiment]
Next, a video processing apparatus according to the third embodiment of the present invention will be described. The video processing apparatus according to the present embodiment is different from the second embodiment in that it recognizes what the entire video represents by combining a plurality of recognition objects recognized from the video. For example, the present location and the destination are recognized from the recognition of a plurality of buildings. Alternatively, a product is recognized from recognition of a plurality of parts. Other configurations and operations are the same as those of the second embodiment, and thus description of the same configurations and operations is omitted.
本実施形態によれば、ユーザが映像を視聴中、その映像全体が表わす認識対象物についての認識結果を、認識精度を維持しながら映像上でリアルタイムにユーザに知らせることができる。 According to the present embodiment, while the user is viewing the video, the recognition result of the recognition target object represented by the entire video can be notified to the user in real time on the video while maintaining the recognition accuracy.
《本実施形態に係る映像処理》
図10は、本実施形態に係る映像処理装置1000による映像処理を説明する図である。
<< Video processing according to this embodiment >>
FIG. 10 is a diagram for explaining video processing by the
まず、図10の上段は、観光客などユーザが、視界内の搭やビルなどの建築物を知りたい場合や、行き先や自分の現在地を知りたい場合に、携帯端末で認識対象物を含む映像を撮像した例を示すものである。 First, the upper part of FIG. 10 shows an image including an object to be recognized on a mobile terminal when a user such as a tourist wants to know a building such as a tower or a building in the field of view or wants to know a destination or his / her current location. The example which imaged is shown.
携帯端末としての映像処理装置1000の表示画面1010には、図10上段の左図に示すように、撮像中の映像表示領域1011とタッチパネルの指示ボタン表示領域1012とが表示されている。なお、映像表示領域1011に表示されている建築物は、撮像中の映像がそのまま表示されたものであり、静止画(写真)ではない。
On the
本実施形態においては、その表示映像に対してリアルタイムの認識処理が行なわれ、図10上段の中央の表示画面1020の映像表示領域1021には、それぞれの建築物の名前1022が表示される。
In this embodiment, real-time recognition processing is performed on the display image, and the
さらに、本実施形態においては、認識された複数の建築物の映像内の配置や距離、角度などから、映像処理装置1000で撮像しているユーザの現在地を認識して、図10上段の右の表示画面1030の映像表示領域1031には、現在地周囲の地図上の現在地マーク1033と現在地の住所1032とがリアルタイムに表示されている。あるいは、スピーカから音声出力されてもよい。ユーザは、かかる映像表示領域1031から、例えば、観光案内などが無くても、目的地や自分の現在地を知ることができる。
Furthermore, in the present embodiment, the current location of the user imaged by the
図10の下段は、製品を撮像すると、映像中の各部品を認識すると共に、それら複数部品を有する製品を認識して表示する例を示したものである。 The lower part of FIG. 10 shows an example in which, when a product is imaged, each part in the video is recognized and a product having these parts is recognized and displayed.
携帯端末としての映像処理装置1000の表示画面1040には、図10下段の左図に示すように、撮像中の映像表示領域1041とタッチパネルの指示ボタン表示領域1042とが表示されている。なお、映像表示領域1041に表示されている製品は、撮像中の映像がそのまま表示されたものであり、静止画(写真)ではない。
On the
本実施形態においては、その表示映像に対してリアルタイムの認識処理が行なわれ、図10下段の中央の表示画面1050の映像表示領域1051には、それぞれの部品の名前1052が表示される。
In the present embodiment, real-time recognition processing is performed on the display image, and the
さらに、本実施形態においては、認識された複数の部品の映像内の配置や距離、角度などから、映像処理装置1000で撮像している製品を認識して、図10下段の右の表示画面1060の映像表示領域1061には、製品名1062がリアルタイムに表示されている。あるいは、スピーカから音声出力されてもよい。かかる映像表示領域1061から、例えば、製品を知ることができる。
Furthermore, in the present embodiment, the product imaged by the
なお、認識対象は上記例に限定されない。全体映像を認識対象物の配置から認識できるものであれば、いずれにも適用できる。 The recognition target is not limited to the above example. Any video can be applied as long as the entire video can be recognized from the arrangement of the recognition objects.
《映像処理装置の機能構成》
図11は、本実施形態に係る映像処理装置1000の機能構成を示すブロック図である。なお、映像処理装置1000の機能構成は、第2実施形態の映像処理装置200に関連情報を表示する構成が追加された構成であるので、同じ構成要素には同じ参照番号を付し、説明は省略する。
《Functional configuration of video processing device》
FIG. 11 is a block diagram showing a functional configuration of the
映像処理装置1000は、照合部340による映像中の複数の照合結果を保持する複数照合結果保持部1110を有する(図12参照)。また、複数の照合結果の組み合わせから、映像を認識するための組み合わせ識別DB1120を有する(図13参照)。
The
なお、音声出力があればスピーカから出力される。また、組み合わせ識別DB1120に格納される組み合わせ情報は、通信制御部390(図11には不図示)を介してダウンロードされる構成であってもよい。
If there is an audio output, it is output from the speaker. Further, the combination information stored in the
(複数照合結果保持部)
図12は、本実施形態に係る複数照合結果保持部1110の構成を示す図である。
(Multiple verification result holding part)
FIG. 12 is a diagram illustrating a configuration of the multiple matching
複数照合結果保持部1110は、照合結果の認識対象物ID1201および認識対象物名1202に対応付けて、映像中の位置1203、向き(角度)1204、サイズ(距離)1205を記憶する。
The multiple matching
(組み合わせ識別DB1120)
図13は、本実施形態に係る組み合わせ識別DB1120の構成を示す図である。
(Combination identification DB 1120)
FIG. 13 is a diagram showing a configuration of the
組み合わせ識別DB1120には、2つの種類がある。1つは組み合わせ識別DB1310であり、複数の認識対象物の位置関係が分からなくても、映像が認識可能なものが格納される。組み合わせ識別DB1310は、複数の認識対象物1311の組み合わせに対応付けて、照合映像ID1312と照合映像名1313とが記憶される。
There are two types of
もう1つは組み合わせ識別DB1320であり、複数の認識対象物の位置関係を考慮して、映像を認識するものが格納される。組み合わせ識別DB1320は、複数の認識対象物と位置1321の組み合わせに対応付けて、照合映像ID1322と照合映像名1323とが記憶される。
The other is a
《映像処理装置のハードウェア構成》
図14は、本実施形態に係る映像処理装置1000のハードウェア構成を示すブロック図である。なお、映像処理装置1000の構成の、第2実施形態の図7の構成との相違点は、複数の認識対象物の組み合わせ照合の構成である。他の構成は同様であるので、図7と同じ参照番号を付し説明は省略する。
<< Hardware configuration of video processing device >>
FIG. 14 is a block diagram showing a hardware configuration of the
RAM1440の1110には、図12に示した複数照合結果が保持される。また、組み合わせ照合結果1441は、組み合わせ照合結果を記憶する領域である。そして、ストレージ1450の組み合わせ識別DB1120は、図13に示した組み合わせ識別DBが格納される猟奇である。組み合わせ識別DB1452は、本実施形態の携帯端末制御プログラムか格納される領域である(図15参照)。映像照合制御モジュール1456は、携帯端末制御プログラム1452において、複数の認識対象物から映像照合を行なう映像照合制御モジュールが格納される領域である(図16参照)。
A plurality of collation results shown in FIG. The combination matching result 1441 is an area for storing the combination matching result. And the
《映像処理装置の処理手順》
図15は、本実施形態に係る映像処理装置1000の処理手順を示すフローチャートである。このフローチャートは、図14のCPU710によってRAM740を用いて実行され、図11の各機能構成部を実現する。
《Processing procedure of video processing device》
FIG. 15 is a flowchart showing a processing procedure of the
なお、図15において、第2実施形態の図8との相違は、複数認識対象物による映像照合処理の追加である。他の処理は図8と同様であるので、同じステップには同じステップ番号を付し、説明は省略する。 In FIG. 15, the difference from the second embodiment shown in FIG. 8 is the addition of video collation processing using a plurality of recognition objects. Since the other processes are the same as those in FIG. 8, the same steps are denoted by the same step numbers and description thereof is omitted.
ステップS815における照合処理の後に、ステップS1501において、複数認識対象物による映像照合処理が行なわれる(図16参照)。 After the matching process in step S815, in step S1501, a video matching process using a plurality of recognition objects is performed (see FIG. 16).
(映像照合処理)
図16は、本実施形態に係る映像照合処理S1501の処理手順を示すフローチャートである。
(Video verification process)
FIG. 16 is a flowchart showing a processing procedure of the video collation processing S1501 according to the present embodiment.
まず、ステップS1601において、映像中から認識した複数の認識対象物(また位置)を取得する。そして、ステップS1603において、組み合わせ識別DB1120を参照して、複数の認識対象物(位置)の組み合わせから映像の照合を行なう。
First, in step S1601, a plurality of recognition objects (or positions) recognized from the video are acquired. In step S1603, with reference to the
ステップS1605において、照合する映像があるか否かを判定する。照合映像があればステップS1607に進んで、照合映像に関連する情報を取得してリターンする。
[第4実施形態]
次に、本発明の第4実施形態に係る映像処理システムについて説明する。本実施形態に係る映像処理システムは、上記第2実施形態および第3実施形態と比べると、携帯端末は、映像の局所特徴量を生成してサーバに送信し、サーバによって認識された認識対象物や映像全体の認識結果を受信する点で異なる。本実施形態の携帯端末とサーバ間の通信において、本実施形態の局所特徴量生成における容量削減がリアルタイム処理に有効となる。
In step S1605, it is determined whether there is an image to be verified. If there is a collation video, the process proceeds to step S1607 to acquire information related to the collation video and return.
[Fourth Embodiment]
Next, a video processing system according to the fourth embodiment of the present invention will be described. Compared with the second embodiment and the third embodiment described above, the video processing system according to the present embodiment generates a local feature amount of video and transmits it to the server, and the recognition target object recognized by the server. And receiving the recognition result of the entire video. In communication between the mobile terminal and the server of this embodiment, capacity reduction in local feature generation of this embodiment is effective for real-time processing.
本実施形態によれば、携帯端末の負荷を軽減して、ユーザが映像を視聴中、その映像内の認識対象物および映像についての認識結果あるいはさらにリンク情報を、認識精度を維持しながら映像上でリアルタイムにユーザに知らせることができる。 According to the present embodiment, the load on the mobile terminal is reduced, and while the user is viewing the video, the recognition target object and the recognition result or the link information in the video are displayed on the video while maintaining the recognition accuracy. Can inform the user in real time.
《本実施形態に係る映像処理》
図17は、本実施形態に係る映像処理システム1700による映像処理を説明する図である。
<< Video processing according to this embodiment >>
FIG. 17 is a diagram for explaining video processing by the
映像処理システム1700は、第2実施形態および第3実施形態において示した携帯端末である映像処理装置のように、映像入力と局所特徴量生成処理と照合処理とを自己完結的に行なわない。すなわち、携帯端末である映像処理装置1710は映像入力と局所特徴量生成処理とを行ない、ネットワーク1770で接続された照合サーバである映像処理装置1720が照合などの負荷の大きな処理を行なう。かかる処理においては、ネットワーク1770上を転送する局所特徴量の容量の大小が照合速度や通信のトラフィックに影響する。本実施形態の図4A〜図4Fに従って生成した精度を保った局所特徴量の容量削減により、入力映像内の対象物認識や映像認識と認識結果の入力映像への重畳表示がリアルタイムに可能となる。なお、本実施形態においては、さらに、符号化処理により、入力映像内の対象物認識と認識結果の入力映像への重畳表示がより高速に可能とする。
The
図17の映像処理システム1700は、端末装置である映像処理装置1710と、映像処理装置1710とネットワーク1770を介して接続する照合サーバである映像処理装置1720とを有する。また、ネットワーク1770には、サービス情報を保持してリンク情報によりユーザに提供するサービス提供サーバ1730も接続されている。
A
照合サーバである映像処理装置1720は、認識対象物の照合処理に使用する局所特徴量DB1721と、映像の照合処理に使用する組み合わせ識別DB1722と、リンク情報の提供に使用するリンク情報DB1723とを有する。
The
図17には、端末装置である映像処理装置1710の1つの処理例が示されている。図10にも示した、製品を撮像すると、映像中の各部品を認識すると共に、それら複数部品を有する製品を認識して表示する例を示したものである。
FIG. 17 shows one processing example of the
携帯端末としての映像処理装置1710の表示画面1740には、左図に示すように、撮像中の映像表示領域1741とタッチパネルの指示ボタン表示領域1742とが表示されている。なお、映像表示領域1741に表示されている製品は、撮像中の映像をそのまま表示したものであり、静止画(写真)ではない。
On the
本実施形態においては、その表示映像に対してリアルタイムの認識処理が行なわれ、中央の表示画面1750の映像表示領域1751には、それぞれの部品の名前1752が表示される。
In this embodiment, real-time recognition processing is performed on the display video, and the
さらに、本実施形態においては、認識された複数の部品の映像内の配置や距離、角度などから、映像処理装置1710で撮像している製品を認識して、右の表示画面1760の映像表示領域1761には、製品名1762およびその関連情報へのリンク情報1763がリアルタイムに表示されている。あるいは、スピーカから音声出力されてもよい。かかる映像表示領域1761から、例えば、製品の情報を知ることができる。
Furthermore, in the present embodiment, the product imaged by the
《映像処理システムの映像処理手順》
図18は、本実施形態に係る映像処理システム1700の映像処理手順を示すシーケンス図である。なお、ステップS1800において、必要であれば、照合サーバから本実施形態に係るアプリケーションをダウンロードする。
《Video processing procedure of video processing system》
FIG. 18 is a sequence diagram showing a video processing procedure of the
まず、ステップS1801においては、携帯端末および照合サーバのアプリケーションを起動し、初期化する。携帯端末は、ステップS1803において、撮像部310により映像を撮影する。携帯端末は次にステップS1805において、局所特徴量を生成する。そして、携帯端末は、ステップS1807において、生成した局所特徴量と特徴点の位置座標を符号化して、ステップS1809において、ネットワークを介して照合サーバに送信する。
First, in step S1801, the mobile terminal and the verification server application are activated and initialized. In step S1803, the portable terminal captures an image using the
照合サーバでは、ステップS1811において、局所特徴量DB1721の認識対象物の局所特徴量と受信した局所特徴量との照合により、映像中の対象物を認識する。ステップS1813においては、複数の認識対象物の照合が終了するまで照合処理を繰り返す。次に、ステップS1815において、組み合わせ識別DB1722を参照して照合結果の複数の認識対象物による映像照合を行なう。そして、照合サーバは、ステップS1817において、リンク情報DB1723を参照して、認識対象物に対応するリンク情報を取得する。そして、ステップS1819において、絵認識対象物と映像の照合結果とリンク情報とを携帯端末に返信する。
In the collation server, in step S1811, the object in the video is recognized by collating the local feature quantity of the recognition target object in the local
携帯端末は、ステップS1821において、入力映像に受信した認識対象物とリンク情報とを重畳して表示する(図17の製品名1762やリンク情報1763に相当)。ステップS1823においてリンク先が指示されればステップS1825に進んで、図17のサービス提供サーバ1730などのリンク先サーバに、照合映像IDに基づいてアクセスを行なう。
In step S1821, the portable terminal superimposes and displays the received recognition target object and link information on the input video (corresponding to the
サービス提供サーバは、ステップS1827において、関連情報DBから照合映像の関連情報(文書や音、または画像)を読み出す。そして、ステップS1829において、照合映像の関連情報を携帯端末にダウンロードする。携帯端末では、受信した照合映像の関連情報を入力映像に重畳表示したり、音声再生したりして、ユーザに入力映像の対象物を報知する。 In step S1827, the service providing server reads related information (document, sound, or image) of the collation video from the related information DB. In step S1829, the related information of the collation video is downloaded to the mobile terminal. In the mobile terminal, the related information of the received verification video is superimposed and displayed on the input video, or the audio is played back, and the target of the input video is notified to the user.
本実施形態においては、かかる一連の処理がリアルタイムで実現され、ユーザは入力映像に認識対象物名および照合映像名や関連情報の表示を見ることができる。 In the present embodiment, such a series of processing is realized in real time, and the user can see the display of the recognition object name, the collation video name, and related information on the input video.
《携帯端末用の映像処理装置の機能構成》
図19Aは、本実施形態に係る携帯端末用の映像処理装置1710の機能構成を示すブロック図である。なお、映像処理装置1710の機能構成は、第2実施形態の映像処理装置200から照合処理に関連する構成を無くし、代わりに、局所特徴量の送信構成と照合結果の受信構成を追加した構成であるので、図3と同じ構成要素には同じ参照番号を付し、説明は省略する。
<Functional configuration of video processing device for portable terminal>
FIG. 19A is a block diagram illustrating a functional configuration of a
映像処理装置1710は、通信制御部390を介して局所特徴量生成部320で生成した局所特徴量および特徴点座標を送信するために、それらを符号化する符号化部1930を有する(図19B参照)。
The
一方、通信制御部390を介して照合結果/リンク情報受信部1950で受信したデータから、照合サーバにおいて認識した認識対象物名や照合映像などやリンク情報を取得する。取得されたデータを入力映像に重畳した表示画面を生成して、表示部360に表示する。また、音声データがある場合には、スピーカから出力される。
On the other hand, from the data received by the verification result / link
(符号化部)
図19Bは、本実施形態に係る符号化部1930を示すブロック図である。なお、符号化部は本例に限定されず、他の符号化処理も適用可能である。
(Encoding part)
FIG. 19B is a block diagram showing an
符号化部1930は、局所特徴量生成部320の特徴点検出部411から特徴点の座標を入力して、座標値を操作する座標値走査部1931を有する。座標値走査部1931は、画像をある特定の走査方法に従って走査し、特徴点の2次元座標値(X座標値とY座標値)を1次元のインデックス値に変換する。このインデックス値は、走査に従った原点からの走査距離である。なお、走査方向については、制限はない。
The
また、特徴点のインデックス値をソートし、ソート後の順列の情報を出力するソート部1932を有する。ここでソート部1932は、例えば昇順にソートする。また降順にソートしてもよい。
In addition, a
また、ソートされたインデックス値における、隣接する2つのインデックス値の差分値を算出し、差分値の系列を出力する差分算出部1933を有する。
Further, a
そして、差分値の系列を系列順に符号化する差分符号化部1934を有する。差分値の系列の符号化は、例えば固定ビット長の符号化でもよい。固定ビット長で符号化する場合、そのビット長はあらかじめ規定されていてもよいが、これでは考えられうる差分値の最大値を表現するのに必要なビット数を要するため、符号化サイズは小さくならない。そこで、差分符号化部1934は、固定ビット長で符号化する場合、入力された差分値の系列に基づいてビット長を決定することができる。具体的には、例えば、差分符号化部1934は、入力された差分値の系列から差分値の最大値を求め、その最大値を表現するのに必要なビット数(表現ビット数)を求め、求められた表現ビット数で差分値の系列を符号化することができる。
And it has the
一方、ソートされた特徴点のインデックス値と同じ順列で、対応する特徴点の局所特徴量を符号化する局所特徴量符号化部1935を有する。ソートされたインデックス値と同じ順列で符号化することで、差分符号化部1934で符号化された座標値と、それに対応する局所特徴量とを1対1で対応付けることが可能となる。局所特徴量符号化部1935は、本実施形態においては、1つの特徴点に対する150次元の局所特徴量から次元選定された局所特徴量を、例えば1次元を1バイトで符号化し、次元数のバイトで符号化することができる。
On the other hand, it has a local
《サーバ用の映像処理装置の機能構成》
図20は、本実施形態に係るサーバ用の映像処理装置1720の機能構成を示すブロック図である。
<< Functional configuration of server video processing apparatus >>
FIG. 20 is a block diagram showing a functional configuration of the server
サーバ用の映像処理装置1720は、通信制御部2010を有する。復号部2020は、通信制御部2010を介して携帯端末から受信した、符号化された局所特徴量および特徴点座標を復号する。そして、照合部2030において、局所特徴量DB1721の認識対象物の局所特徴量と照合する。複数照合結果保持部2040は、照合部2030の照合結果の複数の認識対象物を映像中の位置などと共に保持する。映像照合部2050は、組み合わせ識別DB1722を参照して、複数の認識対象物から映像を照合する。リンク情報所得部2060は、照合結果の映像と対応してリンク情報DB1723から取得されたリンク情報を取得する。これら照合部2030の認識対象物と、映像照合部2050の照合映像と、リンク情報取得部2060のリンク情報とから、送信データ生成部2070において、送信データが生成される。送信データは、送信部2080から通信制御部2010を介して携帯端末に返信される。
The server
(リンク情報DB)
図21は、本実施形態に係るリンク情報DB1723の構成を示す図である。
(Link information DB)
FIG. 21 is a diagram showing the configuration of the
リンク情報記憶部であるリンク情報DB1723は、照合映像ID2101に対応付けて、リンク先アドレス2102とリンク先表示画像2103とからなるリンク情報が記憶される。なお、かかるリンク情報DB1723は、組み合わせ識別DB1722や局所特徴量DB1721と一体に準備されてもよい。
The
《携帯端末用の映像処理装置のハードウェア構成》
図22は、本実施形態に係る携帯端末用の映像処理装置1710のハードウェア構成を示すブロック図である。なお、携帯端末用の映像処理装置1710のハードウェア構成は、第2実施形態の映像処理装置200から照合処理に関連する構成を無くし、代わりに、局所特徴量の送信構成と照合結果の受信構成を追加した構成であるので、図7と同じ構成要素には同じ参照番号を付し、説明は省略する。
<< Hardware configuration of video processing device for portable terminal >>
FIG. 22 is a block diagram showing a hardware configuration of a
RAM2240は、CPU710が一時記憶のワークエリアとして使用するランダムアクセスメモリである。RAM2240には、本実施形態の実現に必要なデータを記憶する領域が確保されている。組み合わせ照合結果2241は、照合サーバから受信した組み合わせ照合結果を記憶する領域である。リンク情報2242は、照合サーバから受信したリンク情報を記憶する領域である。入力映像/照合結果/リンク情報重畳データ2245は、入力映像/照合結果/リンク情報を重畳した入力映像/照合結果/リンク情報重畳データを記憶する領域である。
The
ストレージ2250には、データベースや各種のパラメータ、あるいは本実施形態の実現に必要な以下のデータまたはプログラムが記憶されている。表示フォーマット2251は、認識対象物や映像の照合結果/リンク情報を表示するフォーマットを生成するために使用される表示フォーマットが格納される領域である。ストレージ2250には、以下のプログラムが格納される。携帯端末制御プログラム2252は、本映像処理装置1710の全体を制御する携帯端末制御プログラムが格納される領域である。局所特徴量送信モジュール2253は、携帯端末制御プログラム2252において、生成された局所特徴量および特徴点座標を符号化して照合サーバに送信する局所特徴量送信モジュールが格納される領域である。照合結果受信モジュール2254には、照合結果/リンク情報を受信して表示または音声によりユーザに報知するための照合結果受信モジュールが格納される領域である。リンク先アクセスモジュール2255は、表示されたリンク情報を指示された場合に、リンク先をアクセスして関連情報をダウンロードするための、リンク先アクセスモジュールが格納される領域である。
The
なお、図22には、本実施形態に必須なデータやプログラムのみが示されており、本実施形態に関連しないデータやプログラムは図示されていない。 Note that FIG. 22 shows only data and programs essential to the present embodiment, and data and programs not related to the present embodiment are not shown.
《携帯端末用の映像処理装置の処理手順》
図23は、本実施形態に係る携帯端末用の映像処理装置1620の処理手順を示すフローチャートである。このフローチャートは、図22のCPU710によってRAM2240を用いて実行され、図19Aの各機能構成部を実現する。
<< Processing procedure of video processing device for mobile terminal >>
FIG. 23 is a flowchart illustrating a processing procedure of the video processing device 1620 for the portable terminal according to the present embodiment. This flowchart is executed by the
まず、ステップS2311において、対象物認識を行なうための映像入力があったか否かを判定する。また、携帯端末の機能として、ステップS2321においては受信を判定する。いずれでもなければ、ステップS2331においてその他の処理を行なう。なお、通常の送信処理については説明を省略する。 First, in step S2311, it is determined whether or not there is a video input for performing object recognition. As a function of the mobile terminal, reception is determined in step S2321. Otherwise, other processing is performed in step S2331. Note that description of normal transmission processing is omitted.
映像入力があればステップS2313に進んで、入力映像から局所特徴量生成処理を実行する(図9A参照)。次に、ステップS2315において、局所特徴量および特徴点座標を符号化する(図24Aおよび図24B参照)。ステップS2317においては、符号化されたデータを照合サーバに送信する。 If there is video input, the process proceeds to step S2313 to execute local feature generation processing from the input video (see FIG. 9A). Next, in step S2315, local feature quantities and feature point coordinates are encoded (see FIGS. 24A and 24B). In step S2317, the encoded data is transmitted to the verification server.
データ受信の場合はステップS2323に進んで、照合サーバからの認識結果の受信か/リンク先サーバからの関連情報の受信かを判定する。認識結果であればステップS2325に進んで、受信した認識結果とリンク先情報を入力映像に重畳して表示する。一方、関連情報であればステップS2327に進んで、リンク先サーバからの関連情報を表示あるいは音声出力する。 In the case of data reception, the process proceeds to step S2323, and it is determined whether the recognition result is received from the verification server or the related information is received from the link destination server. If it is a recognition result, it will progress to step S2325 and will superimpose and display the received recognition result and link destination information on an input image | video. On the other hand, if it is related information, it will progress to step S2327 and the related information from a link destination server will be displayed or audio | voice output.
(符号化処理)
図24Aは、本実施形態に係る符号化処理S2315の処理手順を示すフローチャートである。
(Encoding process)
FIG. 24A is a flowchart showing the processing procedure of the encoding processing S2315 according to the present embodiment.
まず、ステップS2411において、特徴点の座標値を所望の順序で走査する。次に、ステップS2413において、走査した座標値をソートする。ステップS2415において、ソートした順に座標値の差分値を算出する。ステップS2417においては、差分値を符号化する(図24B参照)。そして、ステップS2419において、座標値のソート順に局所特徴量を符号化する。なお、差分値の符号化と局所特徴量の符号化とは並列に行なってもよい。 First, in step S2411, the coordinate values of feature points are scanned in a desired order. Next, in step S2413, the scanned coordinate values are sorted. In step S2415, a coordinate difference value is calculated in the sorted order. In step S2417, the difference value is encoded (see FIG. 24B). In step S2419, local feature amounts are encoded in the coordinate value sorting order. The difference value encoding and the local feature amount encoding may be performed in parallel.
(差分値の符号化処理)
図24Bは、本実施形態に係る差分値の符号化処理S2417の処理手順を示すフローチャートである。
(Difference processing)
FIG. 24B is a flowchart illustrating a processing procedure of difference value encoding processing S2417 according to the present embodiment.
まず、ステップS2421において、差分値が符号化可能な値域内であるか否かを判定する。符号化可能な値域内であればステップS2427に進んで、差分値を符号化する。そして、ステップS2429へ移行する。符号化可能な値域内でない場合(値域外)はステップS2423に進んで、エスケープコードを符号化する。そしてステップS2425において、ステップS2427の符号化とは異なる符号化方法で差分値を符号化する。そして、ステップS2429へ移行する。ステップS2429では、処理された差分値が差分値の系列の最後の要素であるかを判定する。最後である場合は、処理が終了する。最後でない場合は、再度ステップS2421に戻って、差分値の系列の次の差分値に対する処理が実行される。 First, in step S2421, it is determined whether or not the difference value is within a codeable range. If it is within the range that can be encoded, the process proceeds to step S2427 to encode the difference value. Then, control goes to a step S2429. If it is not within the range that can be encoded (outside the range), the process proceeds to step S2423 to encode the escape code. In step S2425, the difference value is encoded by an encoding method different from the encoding in step S2427. Then, control goes to a step S2429. In step S2429, it is determined whether the processed difference value is the last element in the series of difference values. If it is the last, the process ends. When it is not the last, it returns to step S2421 again and the process with respect to the next difference value of the series of a difference value is performed.
《サーバ用の映像処理装置のハードウェア構成》
図25は、本実施形態に係るサーバ用の映像処理装置1720のハードウェア構成を示すブロック図である。
<< Hardware configuration of video processing device for server >>
FIG. 25 is a block diagram showing a hardware configuration of the server
図25で、CPU2510は演算制御用のプロセッサであり、プログラムを実行することで照合サーバである映像処理装置1620の各機能構成部を実現する。ROM2520は、初期データおよびプログラムなどの固定データおよびプログラムを記憶する。また、通信制御部2010は通信制御部であり、本実施形態においては、ネットワークを介して他の装置と通信する。なお、CPU2510は1つに限定されず、複数のCPUであっても、あるいは画像処理用のGPUを含んでもよい。
In FIG. 25, a
RAM2540は、CPU2510が一時記憶のワークエリアとして使用するランダムアクセスメモリである。RAM2540には、本実施形態の実現に必要なデータを記憶する領域が確保されている。受信した局所特徴量2541は、携帯端末から受信した特徴点座標を含む局所特徴量を記憶する領域である。読出した局所特徴量2542は、局所特徴量DB1721から読み出した特徴点座標を含むと局所特徴量を記憶する領域である。複数の認識対象物照合結果2543は、受信した局所特徴量と局所特徴量DB330に格納された局所特徴量との照合から認識された、複数の認識対象物照合結果を記憶する領域である。映像認識結果2544は、組み合わせ識別DB1722を参照して、複数の認識対象物の組み合わせから映像認識した映像認識結果を記憶する領域である。リンク情報2545は、認識対象物に対応してリンク情報DB1723から検索されたリンク情報を記憶する領域である。送受信データ2546は、通信制御部2010を介して送受信される送受信データを記憶する領域である。
The
ストレージ2550には、データベースや各種のパラメータ、あるいは本実施形態の実現に必要な以下のデータまたはプログラムが記憶されている。局所特徴量DB1721は、図6に示したと同様の局所特徴量DBが格納される領域である。なお、照合サーバにおいては処理能力や記憶容量は十分であるので、全分野の局所特徴量を格納してもよい。組み合わせ識別DB1722は、図13に示したと同様の組み合わせ識別DBが格納される領域である。リンク情報DB1723は、図21に示したリンク情報DBが格納される領域である。
The
ストレージ2550には、以下のプログラムが格納される。照合サーバ制御プログラム2351は、本映像処理装置1720の全体を制御する照合サーバ制御プログラムが格納される領域である。局所特徴量モジュール2552は、照合サーバ制御プログラム2551において、認識対象部の画像から局所特徴量モジュールが格納される領域である。対象物認識制御モジュール2553には、照合サーバ制御プログラム2551において、受信した局所特徴量と局所特徴量DB330に格納された局所特徴量とを照合して対象物を認識する対象物認識制御モジュールが格納される領域である。映像認識制御モジュール2554には、複数の認識対象物の組み合わせから組み合わせ識別DB1722を参照して映像を認識する映像認識制御モジュールが格納される領域である。リンク情報取得モジュール2555には、認識された映像に対応してリンク情報DB723からリンク情報を取得するリンク情報取得モジュールが格納される領域である。
The
なお、図25には、本実施形態に必須なデータやプログラムのみが示されており、本実施形態に関連しないデータやプログラムは図示されていない。 In FIG. 25, only data and programs essential to the present embodiment are shown, and data and programs not related to the present embodiment are not shown.
《サーバ用の映像処理装置の処理手順》
図26は、本実施形態に係るサーバ用の映像処理装置1720の処理手順を示すフローチャートである。このフローチャートは、図25のCPU2510によりRAM2540を使用して実行され、図20の各機能構成部を実現する。
<< Processing procedure of server video processing apparatus >>
FIG. 26 is a flowchart showing a processing procedure of the server
まず、ステップS2611において、局所特徴量DBの生成か否かを判定する。また、ステップS2621において、携帯端末からの局所特徴量受信かを判定する。いずれでもなければ、ステップS2631において他の処理を行なう。 First, in step S2611, it is determined whether or not a local feature DB is generated. In step S2621, it is determined whether a local feature amount is received from the mobile terminal. Otherwise, other processing is performed in step S2631.
局所特徴量DBの生成であればステップS2613に進んで、局所特徴量DB生成処理を実行する(図27A参照)。また、局所特徴量の受信であればステップS2623に進んで、対象物認識/映像認識/リンク情報取得処理を実行する(図27B参照)。そして、ステップS2625において、認識対象物とリンク情報とを携帯端末に送信する。 If it is generation of a local feature DB, the process proceeds to step S2613, and local feature DB generation processing is executed (see FIG. 27A). If the local feature amount is received, the process advances to step S2623 to execute object recognition / video recognition / link information acquisition processing (see FIG. 27B). In step S2625, the recognition target object and link information are transmitted to the mobile terminal.
(局所特徴量DB生成処理)
図27Aは、本実施形態に係る局所特徴量DB生成処理S2613の処理手順を示すフローチャートである。
(Local feature DB generation processing)
FIG. 27A is a flowchart showing a processing procedure of local feature DB generation processing S2613 according to the present embodiment.
まず、ステップS2711において、認識対象物の画像を取得する。ステップS2713においては、特徴点の位置座標、スケール、角度を検出する。ステップS2715において、ステップS2713で検出された特徴点の1つに対して局所領域を取得する。次に、ステップS2717において、局所領域をサブ領域に分割する。ステップS2719においては、各サブ領域の特徴ベクトルを生成して局所療育の特徴ベクトルを生成する。ステップS2713からS2719の処理は図4Bに図示されている。 First, in step S2711, an image of a recognition object is acquired. In step S2713, the position coordinates, scale, and angle of the feature point are detected. In step S2715, a local region is acquired for one of the feature points detected in step S2713. Next, in step S2717, the local area is divided into sub-areas. In step S2719, feature vectors for each sub-region are generated to generate feature vectors for local medical treatment. The processing from step S2713 to S2719 is illustrated in FIG. 4B.
次に、ステップS2721において、ステップS2719において生成された局所領域の特徴ベクトルに対して次元選定を実行する。次元選定については、図4D〜図4Fに図示されている。しかしながら、局所特徴量DB1721の生成においては、次元選定における階層化を実行するが、生成されたすべての特徴ベクトルを格納するのが望ましい。
Next, in step S2721, dimension selection is performed on the feature vector of the local region generated in step S2719. The dimension selection is illustrated in FIGS. 4D to 4F. However, in the generation of the
ステップS2723においては、ステップS2713で検出した全特徴点について局所特徴量の生成と次元選定とが終了したかを判定する。終了していない場合はステップS2713に戻って、次の1つの特徴点について処理を繰り返す。全特徴点について終了した場合はステップS2725に進んで、認識対象物に対応付けて局所特徴量と特徴点座標を局所特徴量DB1721に登録する。
In step S2723, it is determined whether the generation of local feature values and dimension selection have been completed for all feature points detected in step S2713. If not completed, the process returns to step S2713 to repeat the process for the next one feature point. When all the feature points have been completed, the process proceeds to step S2725, and the local feature amount and the feature point coordinates are registered in the local
ステップS2727においては、他の認識対象物があるか否かを判定する。他の認識対象物があればステップS2711に戻って、認識対象物の画像を取得して処理を繰り返す。 In step S2727, it is determined whether there is another recognition object. If there is another recognition object, the process returns to step S2711 to acquire an image of the recognition object and repeat the process.
(認識対象物/リンク情報取得処理)
図27Bは、本実施形態に係る認識対象物/リンク情報取得処理S2623の処理手順を示すフローチャートである。
(Recognized object / link information acquisition process)
FIG. 27B is a flowchart showing the processing procedure of the recognition object / link information acquisition processing S2623 according to the present embodiment.
まず、ステップS2731において、局所特徴量DB1721から1つの認識対象物の局所特徴量を取得する。そして、ステップS2733において、認識対象物の局所特徴量とッ携帯端末から受信した局所特徴量との照合を行なう。なお、ステップS2733の照合処理は、携帯端末が行なう図9Bの照合処理と基本的に同様であり、詳細な説明は省略する。
First, in step S2731, the local feature amount of one recognition target is acquired from the local
ステップS2735において、合致したか否かを判定する。合致していればステップS2737に進んで、合致した認識対象物を記憶する。そして、ステップS2739においては、映像中の全認識対象物を照合したかを判定し、まだであればステップS2731に戻って、映像中の対象物認識処理を繰り返す。 In step S2735, it is determined whether or not they match. If they match, the process proceeds to step S2737 to store the matched recognition object. In step S2739, it is determined whether all recognition objects in the video have been collated. If not, the process returns to step S2731, and the object recognition process in the video is repeated.
全認識対応物を照合したと判定すればステップS2741に進んで、組み合わせ識別DB1722を参照して、複数の認識対象物の組み合わせから映像を認識する。次に、リンク情報DB1622から認識映像に対応するリンク情報を取得する。
If it is determined that all the corresponding recognition objects have been collated, the process proceeds to step S2741, and the video is recognized from the combination of a plurality of recognition objects with reference to the
[他の実施形態]
以上、実施形態を参照して本発明を説明したが、本発明は上記実施形態に限定されものではない。本発明の構成や詳細には、本発明のスコープ内で当業者が理解し得る様々な変更をすることができる。また、それぞれの実施形態に含まれる別々の特徴を如何様に組み合わせたシステムまたは装置も、本発明の範疇に含まれる。
[Other Embodiments]
Although the present invention has been described with reference to the embodiments, the present invention is not limited to the above embodiments. Various changes that can be understood by those skilled in the art can be made to the configuration and details of the present invention within the scope of the present invention. In addition, a system or an apparatus in which different features included in each embodiment are combined in any way is also included in the scope of the present invention.
また、本発明は、複数の機器から構成されるシステムに適用されてもよいし、単体の装置に適用されてもよい。さらに、本発明は、実施形態の機能を実現する制御プログラムが、システムあるいは装置に直接あるいは遠隔から供給される場合にも適用可能である。したがって、本発明の機能をコンピュータで実現するために、コンピュータにインストールされる制御プログラム、あるいはその制御プログラムを格納した媒体、その制御プログラムをダウンロードさせるWWW(World Wide Web)サーバも、本発明の範疇に含まれる。 In addition, the present invention may be applied to a system composed of a plurality of devices, or may be applied to a single device. Furthermore, the present invention can also be applied to a case where a control program that realizes the functions of the embodiments is supplied directly or remotely to a system or apparatus. Therefore, in order to realize the functions of the present invention on a computer, a control program installed in the computer, a medium storing the control program, and a WWW (World Wide Web) server that downloads the control program are also included in the scope of the present invention. include.
Claims (19)
映像中の画像からn個の特徴点を抽出し、前記n個の特徴点のそれぞれを含むn個の局所領域について、それぞれ1次元からj次元までの特徴ベクトルからなるn個の第2局所特徴量を生成する第2局所特徴量生成手段と、
前記第1局所特徴量の次元数i1,i2,…,ikおよび前記第2局所特徴量の次元数jのうち、より少ない次元数を選択し、選択した前記次元数までの特徴ベクトルからなる前記n個の第2局所特徴量に、選択した前記次元数までの特徴ベクトルからなる前記m1,m2,…,mk個の第1局所特徴量のそれぞれについて所定割合以上が対応すると判定した場合に、前記映像中の前記画像に前記所定割合以上が対応した複数の認識対象物が存在すると認識する認識手段と、
前記認識手段が認識した複数の認識対象物を示す情報を前記映像中の前記複数の認識対象物が存在する画像に表示する表示手段と、
を備えることを特徴とする映像処理装置。 Generated for each of a plurality of recognition objects and m1, m2,..., Mk local regions each including m1, m2,..., Mk feature points in the images of the plurality of recognition objects. , First local feature storage means for storing m1, m2,..., Mk first local feature amounts each consisting of feature vectors from one dimension to i1, i2,.
N feature points are extracted from the image in the video, and n second local features each consisting of a feature vector from the first dimension to the jth dimension for each of the n local regions including each of the n feature points. Second local feature generating means for generating a quantity;
The number of dimensions i1, i2,..., Ik of the first local feature quantity and the dimension number j of the second local feature quantity are selected, and the feature vector consisting of the feature vector up to the selected dimension number is selected. When it is determined that n second local feature amounts correspond to a predetermined ratio or more for each of the m1, m2,..., mk first local feature amounts including feature vectors up to the selected number of dimensions, Recognition means for recognizing that there are a plurality of recognition objects corresponding to the predetermined ratio or more in the image in the video;
Display means for displaying information indicating a plurality of recognition objects recognized by the recognition means on an image in which the plurality of recognition objects exist in the video;
A video processing apparatus comprising:
前記表示手段は、さらに、前記リンク情報を前記映像中の画像に重畳して表示することを特徴とする請求項1または2に記載の映像処理装置。 Link information storage means for storing link information for accessing related information related to the video in association with the video identified by the recognition means;
The video processing apparatus according to claim 1, wherein the display unit further displays the link information superimposed on an image in the video.
前記リンク情報に従って、前記関連情報をアクセスするダウンロード手段と、
をさらに備え、
前記表示手段は、さらに、前記関連情報を前記映像中の画像に重畳して表示することを特徴とする請求項1または2に記載の映像処理装置。 Link information storage means for storing link information for accessing related information related to the video in association with the video identified by the recognition means;
Download means for accessing the related information according to the link information;
Further comprising
The video processing apparatus according to claim 1, wherein the display unit further displays the related information superimposed on an image in the video.
前記第2局所特徴量生成手段は、前記n個の第2局所特徴量と、前記映像中の画像内における前記n個の特徴点の位置座標との組みを保持し、
前記認識手段は、前記n個の第2局所特徴量とその位置座標との組の集合と、前記m1,m2,…,mk個の第1局所特徴量とその位置座標との組の所定割合以上の集合とが線形変換の関係であると判定した場合に、前記映像中の前記画像内に前記複数の認識対象物が存在すると認識することを特徴とする請求項1乃至4のいずれか1項に記載の映像処理装置。 The first local feature amount storage means includes the m1, m2,..., Mk first local feature amounts and the m1, m2,..., Mk features in the respective images of the plurality of recognition objects. Memorize the set of point coordinates and
The second local feature quantity generation means holds a set of the n second local feature quantities and the position coordinates of the n feature points in the image in the video,
The recognizing means is a predetermined ratio of a set of the n second local feature values and their position coordinates, and a set of the m1, m2,..., Mk first local feature values and their position coordinates. 5. The apparatus according to claim 1, wherein the plurality of recognition objects are recognized to exist in the image in the video when it is determined that the set is in a linear transformation relationship. The video processing apparatus according to the item.
映像中の画像からn個の特徴点を抽出し、前記n個の特徴点のそれぞれを含むn個の局所領域について、それぞれ1次元からj次元までの特徴ベクトルからなるn個の第2局所特徴量を生成する第2局所特徴量生成ステップと、
前記第1局所特徴量の次元数i1,i2,…,ikおよび前記第2局所特徴量の次元数jのうち、より少ない次元数を選択し、選択した前記次元数までの特徴ベクトルからなる前記n個の第2局所特徴量に、選択した前記次元数までの特徴ベクトルからなる前記m1,m2,…,mk個の第1局所特徴量のそれぞれについて所定割合以上が対応すると判定した場合に、前記映像中の前記画像に前記所定割合以上が対応した複数の認識対象物が存在すると認識する認識ステップと、
前記認識ステップにおいて認識した複数の認識対象物を示す情報を前記映像中の前記複数の認識対象物が存在する画像に表示する表示ステップと、
を含むことを特徴とする映像処理装置の制御方法。 Generated for each of a plurality of recognition objects and m1, m2,..., Mk local regions each including m1, m2,..., Mk feature points in the images of the plurality of recognition objects. , M1, m2,..., Mk first local feature amounts each comprising feature vectors from one dimension to i1, i2,. A control method for a video processing apparatus,
N feature points are extracted from the image in the video, and n second local features each consisting of a feature vector from the first dimension to the jth dimension for each of the n local regions including each of the n feature points. A second local feature generation step for generating a quantity;
The number of dimensions i1, i2,..., Ik of the first local feature quantity and the dimension number j of the second local feature quantity are selected, and the feature vector consisting of the feature vector up to the selected dimension number is selected. When it is determined that n second local feature amounts correspond to a predetermined ratio or more for each of the m1, m2,..., mk first local feature amounts including feature vectors up to the selected number of dimensions, A recognition step for recognizing that there are a plurality of recognition objects corresponding to the predetermined ratio or more in the image in the video;
A display step of displaying information indicating a plurality of recognition objects recognized in the recognition step on an image in which the plurality of recognition objects exist in the video;
A control method for a video processing apparatus, comprising:
映像中の画像からn個の特徴点を抽出し、前記n個の特徴点のそれぞれを含むn個の局所領域について、それぞれ1次元からj次元までの特徴ベクトルからなるn個の第2局所特徴量を生成する第2局所特徴量生成ステップと、
前記第1局所特徴量の次元数i1,i2,…,ikおよび前記第2局所特徴量の次元数jのうち、より少ない次元数を選択し、選択した前記次元数までの特徴ベクトルからなる前記n個の第2局所特徴量に、選択した前記次元数までの特徴ベクトルからなる前記m1,m2,…,mk個の第1局所特徴量のそれぞれについて所定割合以上が対応すると判定した場合に、前記映像中の前記画像に前記所定割合以上が対応した複数の認識対象物が存在すると認識する認識ステップと、
前記認識ステップにおいて認識した複数の認識対象物を示す情報を前記映像中の前記複数の認識対象物が存在する画像に表示する表示ステップと、
をコンピュータに実行させることを特徴とする制御プログラム。 Generated for each of a plurality of recognition objects and m1, m2,..., Mk local regions each including m1, m2,..., Mk feature points in the images of the plurality of recognition objects. , M1, m2,..., Mk first local feature amounts each comprising feature vectors from one dimension to i1, i2,. A video processing device control program,
N feature points are extracted from the image in the video, and n second local features each consisting of a feature vector from the first dimension to the jth dimension for each of the n local regions including each of the n feature points. A second local feature generation step for generating a quantity;
The number of dimensions i1, i2,..., Ik of the first local feature quantity and the dimension number j of the second local feature quantity are selected, and the feature vector consisting of the feature vector up to the selected dimension number is selected. When it is determined that n second local feature amounts correspond to a predetermined ratio or more for each of the m1, m2,..., mk first local feature amounts including feature vectors up to the selected number of dimensions, A recognition step for recognizing that there are a plurality of recognition objects corresponding to the predetermined ratio or more in the image in the video;
A display step of displaying information indicating a plurality of recognition objects recognized in the recognition step on an image in which the plurality of recognition objects exist in the video;
A control program for causing a computer to execute.
複数の認識対象物と、前記複数の認識対象物の画像内のそれぞれm1,m2,…,mk個の特徴点のそれぞれを含むm1,m2,…,mk個の局所領域のそれぞれについて生成された、それぞれ1次元からi1,i2,…,ik次元までの特徴ベクトルからなるm1,m2,…,mk個の第1局所特徴量とを、対応付けて記憶する第1局所特徴量記憶手段と、
映像中の画像からn個の特徴点を抽出し、前記n個の特徴点のそれぞれを含むn個の局所領域について、それぞれ1次元からj次元までの特徴ベクトルからなるn個の第2局所特徴量を生成する第2局所特徴量生成手段と、
前記第1局所特徴量の次元数i1,i2,…,ikおよび前記第2局所特徴量の次元数jのうち、より少ない次元数を選択し、選択した前記次元数までの特徴ベクトルからなる前記n個の第2局所特徴量に、選択した前記次元数までの特徴ベクトルからなる前記m1,m2,…,mk個の第1局所特徴量のそれぞれについて所定割合以上が対応すると判定した場合に、前記映像中の前記画像に前記所定割合以上が対応した複数の認識対象物が存在すると認識する認識手段と、
前記認識手段が認識した複数の認識対象物を示す情報を前記映像中の前記複数の認識対象物が存在する画像に表示する表示手段と、
を備えることを特徴とする映像処理システム。 A video processing system having a video processing device for a mobile terminal and a video processing device for a server connected via a network,
Generated for each of a plurality of recognition objects and m1, m2,..., Mk local regions each including m1, m2,..., Mk feature points in the images of the plurality of recognition objects. , First local feature storage means for storing m1, m2,..., Mk first local feature amounts each consisting of feature vectors from one dimension to i1, i2,.
N feature points are extracted from the image in the video, and n second local features each consisting of a feature vector from the first dimension to the jth dimension for each of the n local regions including each of the n feature points. Second local feature generating means for generating a quantity;
The number of dimensions i1, i2,..., Ik of the first local feature quantity and the dimension number j of the second local feature quantity are selected, and the feature vector consisting of the feature vector up to the selected dimension number is selected. When it is determined that n second local feature amounts correspond to a predetermined ratio or more for each of the m1, m2,..., mk first local feature amounts including feature vectors up to the selected number of dimensions, Recognition means for recognizing that there are a plurality of recognition objects corresponding to the predetermined ratio or more in the image in the video;
Display means for displaying information indicating a plurality of recognition objects recognized by the recognition means on an image in which the plurality of recognition objects exist in the video;
A video processing system comprising:
前記第2局所特徴量生成手段と、
前記n個の第2局所特徴量を符号化し、前記ネットワークを介して前記サーバ用の映像処理装置に送信する第1送信手段と、
前記サーバ用の映像処理装置において認識された認識対象物を示す情報を、前記サーバ用の映像処理装置から受信する第1受信手段と、
を備え、
前記サーバ用の映像処理装置は、
前記第1局所特徴量記憶手段と、
符号化された前記n個の第2局所特徴量を、前記携帯端末用の映像処理装置から受信して復号する第2受信手段と、
前記認識手段と、
前記認識手段が認識した前記認識対象物を示す情報を、前記ネットワークを介して前記携帯端末用の映像処理装置に送信する第2送信手段と、
を備えることを特徴とする請求項12に記載の映像処理システム。 The video processing device for the portable terminal is:
The second local feature quantity generating means;
First transmitting means for encoding the n second local feature values and transmitting the encoded second local feature values to the server video processing apparatus via the network;
First receiving means for receiving information indicating a recognition object recognized by the server video processing device from the server video processing device;
With
The server video processing device is:
The first local feature storage means;
Second receiving means for receiving and decoding the n second local feature values encoded from the video processing device for the mobile terminal;
The recognition means;
Second transmission means for transmitting information indicating the recognition object recognized by the recognition means to the video processing device for the portable terminal via the network;
The video processing system according to claim 12, further comprising:
映像中の画像からn個の特徴点を抽出し、前記n個の特徴点のそれぞれを含むn個の局所領域について、それぞれ1次元からj次元までの特徴ベクトルからなるn個の第2局所特徴量を生成する第2局所特徴量生成手段と、
前記n個の第2局所特徴量を符号化し、前記ネットワークを介して前記サーバ用の映像処理装置に送信する第1送信手段と、
前記サーバ用の映像処理装置において認識された複数の認識対象物を示す情報を、前記サーバ用の映像処理装置から受信する第1受信手段と、
受信した前記複数の認識対象物を示す情報を前記映像中の前記対象物が存在する画像に表示する表示手段と、
を備えることを特徴とする映像処理装置。 A video processing apparatus for a portable terminal in the video processing system according to claim 11 or 12,
N feature points are extracted from the image in the video, and n second local features each consisting of a feature vector from the first dimension to the jth dimension for each of the n local regions including each of the n feature points. Second local feature generating means for generating a quantity;
First transmitting means for encoding the n second local feature values and transmitting the encoded second local feature values to the server video processing apparatus via the network;
First receiving means for receiving, from the server video processing device, information indicating a plurality of recognition objects recognized by the server video processing device;
Display means for displaying the received information indicating the plurality of recognition objects on an image in which the objects are present in the video;
A video processing apparatus comprising:
映像中の画像からn個の特徴点を抽出し、前記n個の特徴点のそれぞれを含むn個の局所領域について、それぞれ1次元からj次元までの特徴ベクトルからなるn個の第2局所特徴量を生成する第2局所特徴量生成ステップと、
前記n個の第2局所特徴量を符号化し、前記ネットワークを介して前記サーバ用の映像処理装置に送信する第1送信ステップと、
前記サーバ用の映像処理装置において認識された複数の認識対象物を示す情報を、前記サーバ用の映像処理装置から受信する第1受信ステップと、
受信した前記複数の認識対象物を示す情報を前記映像中の前記対象物が存在する画像に表示する表示ステップと、
を含むことを特徴とする映像処理装置の制御方法。 A method for controlling a video processing device for a portable terminal in the video processing system according to claim 11 or 12,
N feature points are extracted from the image in the video, and n second local features each consisting of a feature vector from the first dimension to the jth dimension for each of the n local regions including each of the n feature points. A second local feature generation step for generating a quantity;
A first transmission step of encoding the n second local feature amounts and transmitting the encoded second local feature amounts to the server video processing apparatus via the network;
A first receiving step of receiving, from the server video processing device, information indicating a plurality of recognition objects recognized by the server video processing device;
A display step for displaying the received information indicating the plurality of recognition objects on an image in which the objects exist in the video;
A control method for a video processing apparatus, comprising:
映像中の画像からn個の特徴点を抽出し、前記n個の特徴点のそれぞれを含むn個の局所領域について、それぞれ1次元からj次元までの特徴ベクトルからなるn個の第2局所特徴量を生成する第2局所特徴量生成ステップと、
前記n個の第2局所特徴量を符号化し、前記ネットワークを介して前記サーバ用の映像処理装置に送信する第1送信ステップと、
前記サーバ用の映像処理装置において認識された複数の認識対象物を示す情報を、前記サーバ用の映像処理装置から受信する第1受信ステップと、
受信した前記複数の認識対象物を示す情報を前記映像中の前記対象物が存在する画像に表示する表示ステップと、
をコンピュータに実行させることを特徴とする制御プログラム。 A control program for a video processing device for a portable terminal in the video processing system according to claim 11 or 12,
N feature points are extracted from the image in the video, and n second local features each consisting of a feature vector from the first dimension to the jth dimension for each of the n local regions including each of the n feature points. A second local feature generation step for generating a quantity;
A first transmission step of encoding the n second local feature amounts and transmitting the encoded second local feature amounts to the server video processing apparatus via the network;
A first receiving step of receiving, from the server video processing device, information indicating a plurality of recognition objects recognized by the server video processing device;
A display step for displaying the received information indicating the plurality of recognition objects on an image in which the objects exist in the video;
A control program for causing a computer to execute.
複数の認識対象物と、前記複数の認識対象物の画像内のそれぞれm1,m2,…,mk個の特徴点のそれぞれを含むm1,m2,…,mk個の局所領域のそれぞれについて生成された、それぞれ1次元からi1,i2,…,ik次元までの特徴ベクトルからなるm1,m2,…,mk個の第1局所特徴量とを、対応付けて記憶する第1局所特徴量記憶手段と、
符号化された前記n個の第2局所特徴量を、前記携帯端末用の映像処理装置から受信して復号する第2受信手段と、
前記第1局所特徴量の次元数i1,i2,…,ikおよび前記第2局所特徴量の次元数jのうち、より少ない次元数を選択し、選択した前記次元数までの特徴ベクトルからなる前記n個の第2局所特徴量に、選択した前記次元数までの特徴ベクトルからなる前記m1,m2,…,mk個の第1局所特徴量のそれぞれについて所定割合以上が対応すると判定した場合に、前記映像中の前記画像に前記所定割合以上が対応した複数の認識対象物が存在すると認識する認識手段と、
前記認識手段が認識した複数の認識対象物を示す情報を、前記ネットワークを介して前記携帯端末用の映像処理装置に送信する第2送信手段と、
を備えることを特徴とするサーバ用の映像処理装置。 A video processing apparatus for a server in the video processing system according to claim 11 or 12,
Generated for each of a plurality of recognition objects and m1, m2,..., Mk local regions each including m1, m2,..., Mk feature points in the images of the plurality of recognition objects. , First local feature storage means for storing m1, m2,..., Mk first local feature amounts each consisting of feature vectors from one dimension to i1, i2,.
Second receiving means for receiving and decoding the n second local feature values encoded from the video processing device for the mobile terminal;
The number of dimensions i1, i2,..., Ik of the first local feature quantity and the dimension number j of the second local feature quantity are selected, and the feature vector consisting of the feature vector up to the selected dimension number is selected. When it is determined that n second local feature amounts correspond to a predetermined ratio or more for each of the m1, m2,..., mk first local feature amounts including feature vectors up to the selected number of dimensions, Recognition means for recognizing that there are a plurality of recognition objects corresponding to the predetermined ratio or more in the image in the video;
Second transmission means for transmitting information indicating a plurality of recognition objects recognized by the recognition means to the video processing device for portable terminal via the network;
A video processing apparatus for a server, comprising:
符号化された前記n個の第2局所特徴量を、前記携帯端末用の映像処理装置から受信して復号する第2受信ステップと、
前記第1局所特徴量の次元数i1,i2,…,ikおよび前記第2局所特徴量の次元数jのうち、より少ない次元数を選択し、選択した前記次元数までの特徴ベクトルからなる前記n個の第2局所特徴量に、選択した前記次元数までの特徴ベクトルからなる前記m1,m2,…,mk個の第1局所特徴量のそれぞれについて所定割合以上が対応すると判定した場合に、前記映像中の前記画像に前記所定割合以上が対応した複数の認識対象物が存在すると認識する認識ステップと、
前記認識ステップにおいて認識した複数の認識対象物を示す情報を、前記ネットワークを介して前記携帯端末用の映像処理装置に送信する第2送信ステップと、
を含むことを特徴とするサーバ用の映像処理装置の制御方法。 13. The video processing system according to claim 11 or 12, comprising a plurality of recognition objects and m1, m2,..., Mk feature points, respectively, in the images of the plurality of recognition objects. ..., corresponding to m1, m2, ..., mk first local features generated from feature vectors from 1 to i1, i2, ..., ik, respectively, generated for each of mk local regions. A method for controlling a video processing apparatus for a server provided with first local feature storage means for storing,
A second receiving step of receiving and decoding the encoded second local feature values from the video processing device for the mobile terminal;
The number of dimensions i1, i2,..., Ik of the first local feature quantity and the dimension number j of the second local feature quantity are selected, and the feature vector consisting of the feature vector up to the selected dimension number is selected. When it is determined that n second local feature amounts correspond to a predetermined ratio or more for each of the m1, m2,..., mk first local feature amounts including feature vectors up to the selected number of dimensions, A recognition step for recognizing that there are a plurality of recognition objects corresponding to the predetermined ratio or more in the image in the video;
A second transmission step of transmitting information indicating a plurality of recognition objects recognized in the recognition step to the video processing device for the portable terminal via the network;
A method for controlling a video processing apparatus for a server, comprising:
符号化された前記n個の第2局所特徴量を、前記携帯端末用の映像処理装置から受信して復号する第2受信ステップと、
前記第1局所特徴量の次元数i1,i2,…,ikおよび前記第2局所特徴量の次元数jのうち、より少ない次元数を選択し、選択した前記次元数までの特徴ベクトルからなる前記n個の第2局所特徴量に、選択した前記次元数までの特徴ベクトルからなる前記m1,m2,…,mk個の第1局所特徴量のそれぞれについて所定割合以上が対応すると判定した場合に、前記映像中の前記画像に前記所定割合以上が対応した複数の認識対象物が存在すると認識する認識ステップと、
前記認識ステップにおいて認識した複数の認識対象物を示す情報を、前記ネットワークを介して前記携帯端末用の映像処理装置に送信する第2送信ステップと、
をコンピュータに実行させることを特徴とする制御プログラム。 13. The video processing system according to claim 11 or 12, comprising a plurality of recognition objects and m1, m2,..., Mk feature points, respectively, in the images of the plurality of recognition objects. ..., corresponding to m1, m2, ..., mk first local features generated from feature vectors from 1 to i1, i2, ..., ik, respectively, generated for each of mk local regions. A control program for a video processing apparatus for a server provided with first local feature storage means for storing
A second receiving step of receiving and decoding the encoded second local feature values from the video processing device for the mobile terminal;
The number of dimensions i1, i2,..., Ik of the first local feature quantity and the dimension number j of the second local feature quantity are selected, and the feature vector consisting of the feature vector up to the selected dimension number is selected. When it is determined that n second local feature amounts correspond to a predetermined ratio or more for each of the m1, m2,..., mk first local feature amounts including feature vectors up to the selected number of dimensions, A recognition step for recognizing that there are a plurality of recognition objects corresponding to the predetermined ratio or more in the image in the video;
A second transmission step of transmitting information indicating a plurality of recognition objects recognized in the recognition step to the video processing device for the portable terminal via the network;
A control program for causing a computer to execute.
映像中の画像からn個の特徴点を抽出し、前記n個の特徴点のそれぞれを含むn個の局所領域について、それぞれ1次元からj次元までの特徴ベクトルからなるn個の第2局所特徴量を生成する第2局所特徴量生成ステップと、
前記第1局所特徴量の次元数i1,i2,…,ikおよび前記第2局所特徴量の次元数jのうち、より少ない次元数を選択し、選択した前記次元数までの特徴ベクトルからなる前記n個の第2局所特徴量に、選択した前記次元数までの特徴ベクトルからなる前記m1,m2,…,mk個の第1局所特徴量のそれぞれについて所定割合以上が対応すると判定した場合に、前記映像中の前記画像に前記所定割合以上が対応した複数の認識対象物が存在すると認識する認識ステップと、
前記認識ステップにおいて認識した複数の認識対象物を示す情報を前記映像中の前記複数の認識対象物が存在する画像に表示する表示ステップと、
を含むことを特徴とする映像処理方法。 A mobile terminal video processing apparatus and a server video processing apparatus connected via a network, each having a plurality of recognition objects and m1, m2,. ..., mk local regions including mk feature points, m1, m2,..., each of feature vectors from one dimension to i1, i2,. , Mk first local feature values in association with each other, and a first local feature value storing means for storing the image data in association with each other.
N feature points are extracted from the image in the video, and n second local features each consisting of a feature vector from the first dimension to the jth dimension for each of the n local regions including each of the n feature points. A second local feature generation step for generating a quantity;
The number of dimensions i1, i2,..., Ik of the first local feature quantity and the dimension number j of the second local feature quantity are selected, and the feature vector consisting of the feature vector up to the selected dimension number is selected. When it is determined that n second local feature amounts correspond to a predetermined ratio or more for each of the m1, m2,..., mk first local feature amounts including feature vectors up to the selected number of dimensions, A recognition step for recognizing that there are a plurality of recognition objects corresponding to the predetermined ratio or more in the image in the video;
A display step of displaying information indicating a plurality of recognition objects recognized in the recognition step on an image in which the plurality of recognition objects exist in the video;
A video processing method comprising:
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011273940A JP2015062090A (en) | 2011-12-15 | 2011-12-15 | Video processing system, video processing method, video processing device for portable terminal or server, and control method and control program of the same |
PCT/JP2012/081852 WO2013089041A1 (en) | 2011-12-15 | 2012-12-07 | Video processing system, video processing method, video processing device for portable terminal or for server, and method for controlling and program for controlling same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011273940A JP2015062090A (en) | 2011-12-15 | 2011-12-15 | Video processing system, video processing method, video processing device for portable terminal or server, and control method and control program of the same |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015062090A true JP2015062090A (en) | 2015-04-02 |
Family
ID=48612492
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011273940A Pending JP2015062090A (en) | 2011-12-15 | 2011-12-15 | Video processing system, video processing method, video processing device for portable terminal or server, and control method and control program of the same |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2015062090A (en) |
WO (1) | WO2013089041A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020507173A (en) * | 2017-01-11 | 2020-03-05 | アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited | Image recognition method and apparatus based on augmented reality |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000293685A (en) * | 1999-04-06 | 2000-10-20 | Toyota Motor Corp | Scene recognizing device |
JP2003248825A (en) * | 2002-02-22 | 2003-09-05 | Fuji Xerox Co Ltd | Device and method for image processing, image processing program, and storage medium |
JP5164222B2 (en) * | 2009-06-25 | 2013-03-21 | Kddi株式会社 | Image search method and system |
US9135277B2 (en) * | 2009-08-07 | 2015-09-15 | Google Inc. | Architecture for responding to a visual query |
JP5521676B2 (en) * | 2010-03-19 | 2014-06-18 | 富士通株式会社 | Image processing apparatus and image processing program |
-
2011
- 2011-12-15 JP JP2011273940A patent/JP2015062090A/en active Pending
-
2012
- 2012-12-07 WO PCT/JP2012/081852 patent/WO2013089041A1/en active Application Filing
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020507173A (en) * | 2017-01-11 | 2020-03-05 | アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited | Image recognition method and apparatus based on augmented reality |
US10614341B2 (en) | 2017-01-11 | 2020-04-07 | Alibaba Group Holding Limited | Image recognition based on augmented reality |
US10762382B2 (en) | 2017-01-11 | 2020-09-01 | Alibaba Group Holding Limited | Image recognition based on augmented reality |
Also Published As
Publication number | Publication date |
---|---|
WO2013089041A1 (en) | 2013-06-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6153086B2 (en) | Video processing system, video processing method, video processing apparatus for portable terminal or server, and control method and control program therefor | |
JP6168355B2 (en) | Information processing system, information processing method, communication terminal, control method thereof, and control program | |
US9792528B2 (en) | Information processing system, information processing method, information processing apparatus and control method and control program thereof, and communication terminal and control method and control program thereof | |
KR101293776B1 (en) | Apparatus and Method for providing augmented reality using object list | |
CN104936283B (en) | Indoor orientation method, server and system | |
CN202502670U (en) | Image processing apparatus | |
CN104081433B (en) | Conversion between image coordinate and map reference | |
CN111323024B (en) | Positioning method and device, equipment and storage medium | |
US9886789B2 (en) | Device, system, and process for searching image data based on a three-dimensional arrangement | |
KR101335617B1 (en) | Method and device for implementing augmented reality in mobile environment | |
JP2011242861A (en) | Object recognition device, object recognition system and object recognition method | |
WO2013115092A1 (en) | Video processing system, video processing method, video processing device, and control method and control program therefor | |
US9418284B1 (en) | Method, system and computer program for locating mobile devices based on imaging | |
US9053566B1 (en) | Real estate blueprint and panoramic video visualization | |
WO2013089041A1 (en) | Video processing system, video processing method, video processing device for portable terminal or for server, and method for controlling and program for controlling same | |
JP2006285546A (en) | Information providing system, database server, portable communication terminal | |
JP5681920B2 (en) | Map information system, terminal device, server device, and program | |
JP2015062089A (en) | Video processing system, video processing method, video processing device for portable terminal or server, and control method and control program of the same | |
JP6131859B2 (en) | Information processing system, information processing method, information processing apparatus and control method and control program thereof, communication terminal and control method and control program thereof | |
JP6041156B2 (en) | Information processing system, information processing method, and information processing program | |
KR101810533B1 (en) | Apparatus and method for inputing a point of interest to map service by using image matching | |
KR20140111106A (en) | Method for generating database based on image, method for providing a searching service of road and apparatus for performing the method | |
JP5636983B2 (en) | Image output apparatus, image output method, and program | |
JP2021005142A (en) | Map generation device, map representation data processing device, production method of map image, and program | |
JP2018205375A (en) | Information processing device and program |