JP2012203823A - Image recognition device - Google Patents

Image recognition device Download PDF

Info

Publication number
JP2012203823A
JP2012203823A JP2011070223A JP2011070223A JP2012203823A JP 2012203823 A JP2012203823 A JP 2012203823A JP 2011070223 A JP2011070223 A JP 2011070223A JP 2011070223 A JP2011070223 A JP 2011070223A JP 2012203823 A JP2012203823 A JP 2012203823A
Authority
JP
Japan
Prior art keywords
image
unit
feature amount
recognition
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011070223A
Other languages
Japanese (ja)
Inventor
Masaru Sugano
勝 菅野
Tomohiko Takahashi
知彦 高橋
Hitoshi Naito
整 内藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2011070223A priority Critical patent/JP2012203823A/en
Publication of JP2012203823A publication Critical patent/JP2012203823A/en
Withdrawn legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an image recognition device capable of reducing erroneous recognition in the case of recognizing an object, and suppressing the costs of recognition processing.SOLUTION: A recognition area selection part 12 selects a characteristic area in an image obtained by an image photographing part 11. A selection area validation part 13 validates only the characteristic area as the object of recognition. An image featured value calculation part 14 calculates an image featured value in the validated area. An image featured value comparison part 16 compares the calculated image featured value with the image featured value of a preliminarily prepared reference image. A result output part 17 outputs the identifier of the reference image having the image featured value determined to be the most approximate to the calculated image featured value as a recognition result. Media associated with the recognition result may be displayed.

Description

本発明は、画像認識装置に関し、特に、携帯端末などのカメラで撮影した画像を低い計算負荷で認識することが可能な、画像認識装置に関する。   The present invention relates to an image recognition apparatus, and more particularly, to an image recognition apparatus that can recognize an image captured by a camera such as a portable terminal with a low calculation load.

カメラで撮影された画像を認識する画像認識装置は、種々の分野に適用されている。例えば、画像認識装置により認識された画像を元に種々の管理を行ったり、認識された画像に関連する情報をユーザに提供することもできる。   An image recognition device that recognizes an image captured by a camera is applied to various fields. For example, various managements can be performed based on the image recognized by the image recognition apparatus, and information related to the recognized image can be provided to the user.

特許文献1には、対象物を認識する際、その形状が変形などの影響を受けても、輪郭に対応する直線成分や曲線成分を抽出することで、予め与えられた対象物との照合が可能な画像認識装置が開示されている。   In Patent Document 1, even when the shape of an object is recognized, even if its shape is affected by deformation or the like, a linear component or a curve component corresponding to the contour is extracted so that it can be compared with a predetermined object. A possible image recognition device is disclosed.

特許文献2には、複数の対象物が含まれる画像において、窓関数などの注目領域を設定し、注目領域内のRGB色空間のヒストグラムを求め、注目領域の位置や大きさを変化させながら予め登録された対象物の存在を判定する画像認識検索装置が開示されている。   In Patent Document 2, in an image including a plurality of objects, an attention area such as a window function is set, a histogram of the RGB color space in the attention area is obtained, and the position and size of the attention area are changed in advance. An image recognition / retrieval device that determines the presence of a registered object is disclosed.

特開平7−73317号公報JP-A-7-73317 特開平9−128542号公報JP-A-9-128542

特許文献1で開示されている画像認識装置は、撮像部で取得された画像情報の全てを用いて画像認識を行う。このため、例えば、入力画像が認識対象の他に複雑な背景などを含む場合、多数の直線成分や曲線成分が抽出される可能性があり、対象物を誤認識するという問題があった。   The image recognition apparatus disclosed in Patent Document 1 performs image recognition using all of the image information acquired by the imaging unit. For this reason, for example, when the input image includes a complicated background in addition to the recognition target, there is a possibility that a large number of straight line components and curved line components may be extracted, which causes a problem of erroneous recognition of the target.

特許文献2で開示されている画像認識検索装置は、注目領域のみを認識対象としている。しかし、これでは、注目領域の位置や大きさを変化させながら画像特徴量を計算する必要があるため、画像特徴量の算出に必要な処理コストが増大し、特に、計算リソースが限定された携帯端末などでは、妥当な性能が得られない可能性があった。   The image recognition / retrieval device disclosed in Patent Literature 2 recognizes only an attention area. However, in this case, it is necessary to calculate the image feature amount while changing the position and size of the region of interest, so that the processing cost required for calculating the image feature amount increases, and in particular, a mobile phone with limited calculation resources. There was a possibility that reasonable performance could not be obtained with terminals.

本発明の目的は、上記課題を解決し、対象物の認識での誤認識を低減すると同時に、認識処理のコストを抑制することができる画像認識装置を提供することにある。   The objective of this invention is providing the image recognition apparatus which can suppress the cost of recognition processing while solving the said subject and reducing the misrecognition in recognition of a target object.

上記課題を解決するため、本発明は、外界を撮影して画像を取得する画像撮影部と、前記画像撮影部により取得された画像から特徴的な領域を選択する認識領域選択部と、前記認識領域選択部により選択された特徴的な領域が認識対象とされるように有効化し、それ以外の領域が認識対象から除外されるように無効化する選択領域有効化部と、前記選択領域有効化部により有効化された領域における画像特徴量を算出する画像特徴量算出部と、前記画像特徴量算出部により算出された画像特徴量と予め用意された参照画像の画像特徴量を比較する画像特徴量比較部と、前記画像特徴量比較部による比較結果に従って、前記画像特徴量算出部により算出された画像特徴量と最も近似するとされた画像特徴量を有する参照画像の識別子を認識結果として出力する結果出力部を具備したことを基本的特徴としている。     In order to solve the above problems, the present invention provides an image capturing unit that captures an image of the outside world and acquires an image, a recognition region selecting unit that selects a characteristic region from the image acquired by the image capturing unit, and the recognition A selection region enabling unit that enables the characteristic region selected by the region selection unit to be recognized as a recognition target, and disables other regions so as to be excluded from the recognition target; and the selection region validation An image feature amount calculation unit that calculates an image feature amount in an area validated by the unit, and an image feature amount that compares the image feature amount calculated by the image feature amount calculation unit with an image feature amount of a reference image prepared in advance According to the comparison result by the amount comparison unit and the image feature amount comparison unit, the result of recognizing the identifier of the reference image having the image feature amount most approximated to the image feature amount calculated by the image feature amount calculation unit It is basically characterized by including the result output section which to output.

本発明によれば、カメラ付き携帯電話などで画像認識を行う際、認識対象を撮影した画像が複雑な背景などを含んでいても誤認識を低減することができる。   According to the present invention, when image recognition is performed with a camera-equipped mobile phone or the like, erroneous recognition can be reduced even if an image obtained by capturing a recognition target includes a complicated background.

また、より少ない処理コストで画像認識を行うことができるため、携帯電話などといったリソースが限定された端末においても、画像認識処理を問題なく動作させることができる。   In addition, since image recognition can be performed at a lower processing cost, the image recognition process can be operated without any problem even in a terminal with limited resources such as a mobile phone.

さらに、処理コストの低減によって画像認識の高速化が見込まれるため、対象となる画像を認識してから認識結果に関連付けられたメディアの再生を行うまでの時間を短縮化することができ、認識対象が頻繁に変化する場合にも妥当な性能が得られる。   Furthermore, since the speed of image recognition is expected to be reduced by reducing processing costs, the time from recognition of the target image to playback of the media associated with the recognition result can be shortened. Reasonable performance can be obtained even when the frequency changes frequently.

本発明に係る画像認識装置の第1実施形態を示すブロック図である。1 is a block diagram showing a first embodiment of an image recognition apparatus according to the present invention. 入力画像および有効入力画像の具体例を示す図である。It is a figure which shows the specific example of an input image and an effective input image. 入力画像から2個の特徴的な領域が選択された場合の画像認識装置の動作を説明する図である。It is a figure explaining operation | movement of the image recognition apparatus when two characteristic area | regions are selected from the input image. 本発明を、特に広告映像を対象として画像認識を行う画像認識装置に適用した場合の構成を示すブロック図である。It is a block diagram which shows the structure at the time of applying this invention to the image recognition apparatus which recognizes an image especially for advertising video.

以下、図面を参照して本発明を説明する。図1は、本発明に係る画像認識装置の第1実施形態を示すブロック図である。   The present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing a first embodiment of an image recognition apparatus according to the present invention.

本実施形態の画像認識装置10は、例えば、カメラ付き携帯電話であり、画像撮影部11、認識領域選択部12、選択領域有効化部13、画像特徴量算出部14、画像特徴量比較部15、認識結果出力部16、認識結果表示部17、参照画像特徴量格納部18およびメディアファイル格納部19を備える。   The image recognition apparatus 10 of the present embodiment is, for example, a camera-equipped mobile phone, and includes an image photographing unit 11, a recognition region selection unit 12, a selection region validation unit 13, an image feature amount calculation unit 14, and an image feature amount comparison unit 15. A recognition result output unit 16, a recognition result display unit 17, a reference image feature amount storage unit 18, and a media file storage unit 19.

画像撮影部11は、例えば、携帯電話が備えるカメラであり、画像認識装置10の入力画像として外界の画像を取得する。   The image capturing unit 11 is, for example, a camera included in a mobile phone, and acquires an image of the outside world as an input image of the image recognition device 10.

認識領域選択部12は、画像撮影部11からの入力画像(画面)から特徴的な領域を選択する。ここでは、入力画像内の特徴を検出し、該特徴を元に直接的に特徴的な領域を選択するという手法を用いる。このような手法を用いることにより、注目領域を事前に設定して該注目領域の位置や大きさを変化させながら画像特徴量を計算しつつ画像内から注目領域を探索するという処理に比べて処理負担を軽減することができる。なお、ここで選択する特徴的な領域の数は、1つだけに限られるものではなく、任意数でよい。また、選択する特徴的な領域の大きさや形状も任意であり、例えば矩形、その他の形状でよい。入力画像から特徴的な領域を選択する具体的手法については、後で詳細に説明する。   The recognition area selection unit 12 selects a characteristic area from the input image (screen) from the image photographing unit 11. Here, a technique of detecting a feature in the input image and directly selecting a characteristic region based on the feature is used. By using such a method, processing is performed in comparison with the process of searching for the attention area from the image while calculating the image feature amount while setting the attention area in advance and changing the position and size of the attention area. The burden can be reduced. Note that the number of characteristic regions selected here is not limited to one, but may be an arbitrary number. Also, the size and shape of the characteristic region to be selected are arbitrary, and may be, for example, a rectangle or other shapes. A specific method for selecting a characteristic region from the input image will be described in detail later.

選択領域有効化部13は、認識領域選択部12により選択された特徴的な領域を有効化した入力画像(以下、有効入力画像)を生成する。すなわち、選択領域有効化部13は、認識領域選択部12により選択された特徴的な領域が認識処理の対象とされるように限定するための有効化処理を行う。特徴的な領域の有効化は、特徴的な領域以外の領域に属する画素の画素値が後続の画像特徴量算出部14での特徴量算出の際に無視されるようにするものであり、例えば、認識領域選択部12により選択された特徴的な領域に属する画素の画素値をそのままとし、特徴的な領域以外の領域に属する画素の画素値を認識処理に影響を及ぼさない単一の値(例えば0)で上書きすることで実現できる。   The selection area validation unit 13 generates an input image (hereinafter referred to as an effective input image) in which the characteristic area selected by the recognition area selection unit 12 is validated. That is, the selection area validation unit 13 performs an validation process for limiting the characteristic area selected by the recognition area selection unit 12 to be a recognition process target. The validation of the characteristic area is such that the pixel values of pixels belonging to areas other than the characteristic area are ignored in the feature quantity calculation in the subsequent image feature quantity calculation unit 14, for example, The pixel value of the pixel belonging to the characteristic region selected by the recognition region selection unit 12 is left as it is, and the pixel value of the pixel belonging to the region other than the characteristic region is not affected by the recognition process ( For example, it can be realized by overwriting with 0).

画像特徴量算出部14は、選択領域有効化部13からの有効入力画像を対象として、認識領域選択部12により選択された特徴的な領域ごとに画像特徴量を算出する。認識領域選択部12によりN個の特徴的な領域が選択された場合には、N通りの有効入力画像に対してそれぞれ画像特徴量を算出すればよい。画像特徴量としては任意の特徴量を利用することができ、認識領域選択部12での特徴的な領域の選択の際に既に得られている画像特徴量もそのまま利用することもできる。   The image feature amount calculation unit 14 calculates an image feature amount for each characteristic region selected by the recognition region selection unit 12 with the effective input image from the selection region validation unit 13 as a target. When N characteristic regions are selected by the recognition region selection unit 12, the image feature amount may be calculated for each of N effective input images. An arbitrary feature amount can be used as the image feature amount, and the image feature amount already obtained when the recognition region selection unit 12 selects a characteristic region can also be used as it is.

参照画像特徴量格納部15は、参照画像の画像特徴量を予め格納している。画像特徴量比較部16は、画像特徴量算出部14により算出された有効入力画像の画像特徴量と参照画像特徴量格納部15に格納されている参照画像の画像特徴量を比較する。   The reference image feature amount storage unit 15 stores image feature amounts of reference images in advance. The image feature amount comparison unit 16 compares the image feature amount of the effective input image calculated by the image feature amount calculation unit 14 with the image feature amount of the reference image stored in the reference image feature amount storage unit 15.

認識結果出力部17は、画像特徴量比較部16での比較結果に従って、有効入力画像の画像特徴量と最も近似した画像特徴量を有する参照画像の識別子(対象物名など)などを認識結果として出力する。   The recognition result output unit 17 uses, as a recognition result, an identifier (such as an object name) of a reference image having an image feature amount that is closest to the image feature amount of the effective input image according to the comparison result in the image feature amount comparison unit 16. Output.

認識結果表示部18は、認識結果出力部17から出力された認識結果を含む文字列や画像、選択領域の形状などを表示する。さらに、参照画像の識別子などと関連付けて任意のメディアをメディアファイル格納部19に格納しておけば、認識結果出力部17が出力する識別子などに関連するメディアをメディアファイル格納部19から取得して認識結果表示部18で結果画像として表示させることができる。   The recognition result display unit 18 displays a character string and an image including the recognition result output from the recognition result output unit 17, the shape of the selected region, and the like. Further, if an arbitrary medium is stored in the media file storage unit 19 in association with the identifier of the reference image, the media related to the identifier output by the recognition result output unit 17 is acquired from the media file storage unit 19. The recognition result display unit 18 can display the result image.

次に、具体例をあげて図1の画像認識装置10の動作を説明する。図2は、入力画像および有効入力画像の具体例を示す図である。   Next, the operation of the image recognition apparatus 10 in FIG. 1 will be described with a specific example. FIG. 2 is a diagram illustrating specific examples of an input image and an effective input image.

画像撮影部11からの入力画像が、例えば、図2(a)であるとすると、認識領域選択部12は、図2(a)の破線内を特徴的な領域として選択し、該領域の画像を有効とした図2(b)を有効入力画像として出力する。ここでは、特徴的な領域以外の領域に属する画素の画素値を0(黒)で上書きしている。   If the input image from the image photographing unit 11 is, for example, FIG. 2A, the recognition area selecting unit 12 selects the inside of the broken line in FIG. FIG. 2B in which the above is valid is output as an effective input image. Here, pixel values of pixels belonging to regions other than the characteristic region are overwritten with 0 (black).

認識領域選択部12での特徴的な領域の選択は、例えば、特徴点分布を利用することで可能である。特徴点分布は、画像内のコーナなどの特徴点を検出し、検出された特徴点間の距離を用いて計算される。例えば、1つの特徴点Fに着目したとき、その周囲に存在し、かつ特徴点Fとの距離が所定の閾値THより小さい特徴点の集合を特徴点Fに関する特徴点集合{F}と定める。全ての特徴点または任意にサンプリングした特徴点について特徴点集合を求め、特徴点集合で構成される画像内の領域が所定数以上の特徴点を有するとき、当該領域を特徴的な領域として選択することができる。 The selection of a characteristic area by the recognition area selection unit 12 can be performed by using, for example, a feature point distribution. The feature point distribution is calculated by detecting feature points such as corners in the image and using the distance between the detected feature points. For example, when attention is paid to one feature point F N , a set of feature points existing around the feature point F N and having a distance from the feature point F N smaller than a predetermined threshold TH is a feature point set {F N }. A feature point set is obtained for all feature points or arbitrarily sampled feature points, and when the region in the image composed of the feature point sets has a predetermined number or more, the region is selected as a feature region. be able to.

また、特徴的な領域の選択は、エッジ特徴を利用することでも可能である。エッジ特徴を利用する場合には、画像撮影部11からの入力画像に対してエッジ強調フィルタによるエッジ強調を適用し、これにより取得されたエッジが閉領域を構成するとき、当該領域を特徴的な領域とみなすことができる。   A characteristic region can also be selected by using an edge feature. When using an edge feature, edge enhancement by an edge enhancement filter is applied to an input image from the image capturing unit 11, and when the edge obtained thereby constitutes a closed region, the region is characterized. It can be regarded as an area.

また、直線の数や色の分布、テクスチャの複雑さ、テクスチャの類似性などから特徴的な領域を選択することも可能である。例えば、直線の数から特徴的な領域を選択する場合には、画像撮影部11からの入力画像に対してハフ変換などによる直線検出を適用した後、画像全体に対する所定方向・所定数の線を引き、検出された直線と所定方向・所定数の直線とが一定以上の密度で交差する領域を特徴的な領域として選択することができる。   It is also possible to select a characteristic region from the number of straight lines, color distribution, texture complexity, texture similarity, and the like. For example, when selecting a characteristic region from the number of straight lines, after applying straight line detection such as Hough transform to the input image from the image capturing unit 11, a predetermined direction and a predetermined number of lines for the entire image are applied. In addition, a region where the detected straight line and a predetermined direction and a predetermined number of straight lines intersect at a certain density or more can be selected as a characteristic region.

さらに、以上の特徴的な領域の選択手法を適宜組み合わせて特徴的な領域を選択することもできる。   Furthermore, a characteristic region can be selected by appropriately combining the above characteristic region selection methods.

画像特徴量算出部14は、選択領域有効化部13からの有効入力画像を対象として、認識領域選択部12により選択された特徴的な領域ごとに画像特徴量を算出する。もし、領域選択部12によって入力画像からN個の特徴的な領域が選択された場合には、N通りの有効入力画像に対して画像特徴量を算出する。   The image feature amount calculation unit 14 calculates an image feature amount for each characteristic region selected by the recognition region selection unit 12 with the effective input image from the selection region validation unit 13 as a target. If N characteristic regions are selected from the input image by the region selection unit 12, image feature amounts are calculated for N effective input images.

図3は、入力画像から2個の特徴的な領域が選択された場合の画像認識装置10の動作を説明する図である。ここでは、領域選択部12によって入力画像が図3(a)であり、該入力画像から2個の特徴的な領域A、Bが選択された場合を示している。   FIG. 3 is a diagram for explaining the operation of the image recognition apparatus 10 when two characteristic regions are selected from the input image. Here, the input image is shown in FIG. 3A by the region selection unit 12, and two characteristic regions A and B are selected from the input image.

認識領域選択部12は、領域Aの画像を有効とした有効入力画像(図3(b))と領域Bの画像を有効とした有効入力画像(図3(c))を出力する。ここでも、特徴的な領域以外の領域に属する画素の画素値を0(黒)で上書きしている。   The recognition area selection unit 12 outputs an effective input image (FIG. 3B) in which the image of the area A is effective and an effective input image (FIG. 3C) in which the image of the area B is effective. Again, the pixel values of pixels belonging to areas other than the characteristic area are overwritten with 0 (black).

画像特徴量算出部14は、有効入力画像(図3(b)、図3(c))それぞれについて画像特徴量を算出する。すなわち、まず、領域Aのみを残して領域Bも含めて除外し、領域Aから画像特徴量を算出する。次に、領域Bのみを残して領域Aも含めて除外し、領域Bから画像特徴量を算出する。   The image feature amount calculation unit 14 calculates an image feature amount for each of the effective input images (FIGS. 3B and 3C). That is, first, the image feature amount is calculated from the region A by leaving only the region A and excluding the region B. Next, the image feature amount is calculated from the region B by leaving only the region B and excluding the region A.

画像特徴量算出部14が算出する画像特徴量としては任意の特徴量を利用することができる。例えば、スケール不変特徴変換(SIFT)や画像モーメントなどを利用することができる。   As the image feature amount calculated by the image feature amount calculation unit 14, an arbitrary feature amount can be used. For example, scale invariant feature transformation (SIFT) or image moment can be used.

スケール不変特徴変換(SIFT)は、「Distinctive Image Feature from Scale-invariant Keypoints」(David Lowe, International Journal of Computer Vision)に記載の方法で抽出することができる。   Scale invariant feature transformation (SIFT) can be extracted by the method described in “Distinctive Image Feature from Scale-invariant Keypoints” (David Lowe, International Journal of Computer Vision).

2次元画像をF(x, y)としたとき、(m+n)次画像モーメントMmnは、式(1)によって算出される。このとき、2次元画像は2値化してもよい。
When the two-dimensional image is F (x, y), the (m + n) next image moment M mn is calculated by the equation (1). At this time, the two-dimensional image may be binarized.

また、(M10/M00, M01/M00)は重心を表し、この重心に対する重心モーメントμmnは、平行移動に不変である。重心モーメントμmnは、式(2)で算出される。
Further, (M 10 / M 00 , M 01 / M 00 ) represents the center of gravity, and the center of gravity moment μ mn with respect to this center of gravity is invariant to translation. The center of gravity moment μ mn is calculated by the equation (2).

さらに、μ00で正規化された重心モーメントηij(i+j≧2)は、拡大縮小に不変である。正規化重心モーメントηijは、式(3)で算出される。
Further, the center-of-gravity moment η ij (i + j ≧ 2) normalized by μ 00 is invariant to enlargement / reduction. The normalized centroid moment η ij is calculated by the equation (3).

なお、SIFTは、ノイズなどに頑強であるが特徴量の次元数が大きくなる。一方、画像モーメントは、特徴量の次元数が小さいがノイズなどに脆弱である。SIFTと画像モーメントの長所・短所を考慮して、認識対象や用途に応じてそれらの特徴量を任意に組み合わせて使うこともできる。   SIFT is robust against noise and the like, but has a large number of feature dimensions. On the other hand, the image moment has a small dimension of the feature quantity, but is vulnerable to noise. Considering the advantages and disadvantages of SIFT and image moment, you can use any combination of these features according to the recognition target and application.

画像特徴量比較部16は、有効入力画像から算出された画像特徴量と参照画像特徴量格納部15に予め格納されている参照画像の画像特徴量と比較する。参照画像の画像特徴量は、任意の形式で格納しておくことができるが、有効入力画像の画像特徴量と比較する際には、両者の形式を統一して比較する。   The image feature amount comparison unit 16 compares the image feature amount calculated from the effective input image with the image feature amount of the reference image stored in advance in the reference image feature amount storage unit 15. The image feature amount of the reference image can be stored in an arbitrary format, but when comparing with the image feature amount of the effective input image, both formats are unified and compared.

画像特徴量比較部16での比較には、例えば、画像特徴量間距離の測定などを利用可能である。例えば、画像特徴量として画像モーメントを用い、正規化重心モーメントとしてη02とη20との距離dを測定するには、式(4)を用いればよい。
For the comparison by the image feature quantity comparison unit 16, for example, measurement of the distance between the image feature quantities can be used. For example, in order to measure the distance d between η 02 and η 20 as the normalized centroid moment using the image moment as the image feature amount, the equation (4) may be used.

ここで、qηijは、有効入力画像の正規化重心モーメント、rηijは参照画像の正規化重心モーメントを表す。なお、i, j(i+j≧2)には任意のものを使用することができる。 Here, qη ij represents the normalized centroid moment of the effective input image, and rη ij represents the normalized centroid moment of the reference image. Note that any one of i, j (i + j ≧ 2) can be used.

認識結果出力部17は、画像特徴量比較部16での画像特徴量の比較結果に従って、有効入力画像の画像特徴量と最も近似した画像特徴量を有する参照画像の識別子(対象物名など)など、例えば、式(4)の距離dのうち最小の値を与える参照画像の識別子などを認識結果として出力する。   The recognition result output unit 17 is an identifier of a reference image (such as an object name) having an image feature amount that is closest to the image feature amount of the effective input image according to the comparison result of the image feature amount in the image feature amount comparison unit 16. For example, the identifier of the reference image that gives the minimum value among the distances d in Expression (4) is output as the recognition result.

認識結果表示部18では、認識結果出力部17が出力する参照画像の識別子などを含む文字列や画像、選択領域の形状などを表示する。参照画像に識別子などの代わりに該識別子などと関連付けられたメディアなどを再生するようにしてもよい。   The recognition result display unit 18 displays a character string and an image including the identifier of the reference image output from the recognition result output unit 17 and the shape of the selected region. Instead of an identifier or the like, a medium associated with the identifier or the like may be reproduced in the reference image.

参照画像に識別子などと関連付けられたメディアの再生は、図1に示すように、参照画像の識別子などと関連付けられたメディアを格納するメディアファイル格納部19を設け、認識結果出力部17が出力する参照画像の識別子などにより該識別子と関連付けられたメディアをメディアファイル格納部19から取得し、該メディアを認識結果表示部18に送出することで実現できる。   As shown in FIG. 1, the media file storage unit 19 for storing the media associated with the identifier of the reference image is provided for reproduction of the media associated with the identifier or the like in the reference image, and the recognition result output unit 17 outputs the media. This can be realized by acquiring the media associated with the identifier from the identifier of the reference image from the media file storage unit 19 and sending the media to the recognition result display unit 18.

認識結果表示部18で再生するメディアとしては、静止画や動画、アニメーション、音声、サウンドなどが利用でき、これらはメディアファイル格納部19に予め格納しておくことができる。   As media to be played back by the recognition result display unit 18, still images, moving images, animations, sounds, sounds, and the like can be used, and these can be stored in the media file storage unit 19 in advance.

図3(d)は、入力画像から2個の特徴的な領域A、Bが選択された場合の結果表示画像を示している。ここでは、式(4)の距離dを算出により領域A、Bに対してそれぞれ「XXビールの詳細へ」、「ビールに合うYYスナック」が認識結果として得られた場合の結果表示画像を示している。図示するように、複数の領域についての認識結果を一画面として重畳表示してもよいし、所定タイミングで順次切り換えて重畳表示してもよい。また、後述するように、この認識結果の表示から「XXビール」や「YYスナック」のWEBサイトへ誘導するようにすることもできる。   FIG. 3D shows a result display image when two characteristic areas A and B are selected from the input image. Here, the result display image is shown when the distance d in Equation (4) is calculated and the recognition results for “XX beer details” and “YY snacks for beer” are obtained for regions A and B, respectively. ing. As shown in the figure, the recognition results for a plurality of areas may be superimposed and displayed as one screen, or may be sequentially switched and displayed at a predetermined timing. Further, as will be described later, it is possible to guide to the “XX beer” or “YY snack” website from the display of the recognition result.

以上では、画像認識装置10が参照画像特徴量格納部15および画像特徴比較部16を備えるものとして説明したが、参照画像特徴量格納部15および画像特徴比較部16を備えるのに代えて、ネットワーク経由で接続されたサーバを利用することもできる。この場合には、サーバに参照画像特徴量格納部15および画像特徴比較部16としての機能を持たせ、画像特徴量算出部14で算出した有効入力画像の画像特徴量を任意の形式に変換してサーバに送信し、サーバにおいて有効入力画像の画像特徴量と参照画像の画像特徴量を比較し、その比較結果に従って有効入力画像の画像特徴量と最も近似した画像特徴量を有する参照画像の識別子などをネットワーク経由で画像認識装置10に通知するようにすればよい。   In the above, the image recognition device 10 has been described as including the reference image feature amount storage unit 15 and the image feature comparison unit 16, but instead of including the reference image feature amount storage unit 15 and the image feature comparison unit 16, a network It is also possible to use a server connected via the Internet. In this case, the server is provided with functions as the reference image feature amount storage unit 15 and the image feature comparison unit 16, and the image feature amount of the effective input image calculated by the image feature amount calculation unit 14 is converted into an arbitrary format. The image feature quantity of the effective input image is compared with the image feature quantity of the reference image in the server, and the identifier of the reference image having the image feature quantity closest to the image feature quantity of the effective input image according to the comparison result Or the like may be notified to the image recognition apparatus 10 via the network.

また、画像特徴量算出部14を備えるのに代えてサーバを利用することもできる。この場合には、サーバに画像特徴量算出部14としての機能を持たせ、有効入力画像そのものを画像認識装置10からサーバに送信し、サーバにおいて有効入力画像から画像特徴量を算出し、さらに有効入力画像からの画像特徴量と参照画像の画像特徴量を比較するようにすればよい。これによれば、画像認識装置10で画像特徴量を算出する必要がないので、画像特徴量の算出コストが大きい場合に画像認識装置10の処理負荷を軽減できる。   Further, instead of providing the image feature quantity calculation unit 14, a server may be used. In this case, the server is provided with a function as the image feature amount calculation unit 14, the effective input image itself is transmitted from the image recognition apparatus 10 to the server, the image feature amount is calculated from the effective input image in the server, and the effective What is necessary is just to compare the image feature-value from an input image with the image feature-value of a reference image. According to this, since it is not necessary for the image recognition device 10 to calculate the image feature amount, the processing load on the image recognition device 10 can be reduced when the image feature amount calculation cost is high.

さらに、メディアファイル格納部19は、ネットワークに接続されたものでもよく、認識結果出力部17を備えるのに代えてサーバを利用することもできる。これによれば、例えば、サーバに認識結果出力部17としての機能を持たせ、該サーバに認識結果出力部17としての機能により出力される認識結果と併せて、該認識結果に関連付けられたメディアをネットワークから取得して画像認識装置10に送信し、画像認識装置10で認識結果やメディアを再生するようにすることができる。メディアを画面撮影部11による入力画像に重畳させて再生させてもよい。   Further, the media file storage unit 19 may be connected to a network, and instead of including the recognition result output unit 17, a server can be used. According to this, for example, a server is provided with a function as the recognition result output unit 17, and a medium associated with the recognition result is combined with the recognition result output by the function as the recognition result output unit 17 in the server. Can be acquired from the network and transmitted to the image recognition apparatus 10, and the image recognition apparatus 10 can reproduce the recognition result and media. The media may be reproduced by being superimposed on the input image by the screen photographing unit 11.

図4は、本発明を、特に広告映像を対象として画像認識を行う画像認識装置に適用した場合の構成を示すブロック図である。   FIG. 4 is a block diagram showing a configuration in a case where the present invention is applied to an image recognition apparatus that performs image recognition particularly for advertisement video.

本画像認識装置40は、例えば、カメラ付き携帯電話であり、画像撮影部41、広告商品領域選択部42、広告商品領域有効化部43、画像特徴量算出部44、画像特徴量比較部46、関連URL取得部47、関連WEB表示部48および蓄積媒体45を備える。   The image recognition device 40 is, for example, a camera-equipped mobile phone, and includes an image photographing unit 41, an advertisement product region selection unit 42, an advertisement product region validation unit 43, an image feature amount calculation unit 44, an image feature amount comparison unit 46, A related URL acquisition unit 47, a related web display unit 48, and a storage medium 45 are provided.

画像撮影部41は、テレビ放送を受信するテレビ50の画面を撮影する。画像撮影部41により広告映像のテレビ画面が撮影されると、広告商品領域選択部42は、その入力画像から広告商品領域を特徴的な領域として選択する。   The image capturing unit 41 captures a screen of the television 50 that receives the television broadcast. When the television screen of the advertising video is captured by the image capturing unit 41, the advertising product area selection unit 42 selects the advertising product area as a characteristic area from the input image.

画像撮影部41がテレビ50の画面を撮影するとき、どの広告映像の画面がテレビ50で表示されているかを外部から通知してもよい。例えば、テレビ50の画面が現在放映中の広告映像やテレビ番組の画面であれば、テレビ局またはテレビ局を代表する事業者のサーバから、どの広告映像やテレビ番組が放映されているかの情報を配信する。画像認識装置40では、サーバから配信された情報を受信し、該情報から認識対象となる広告映像やテレビ番組を事前知識として利用することにより、画像撮影部41が撮影した画面に含まれる広告商品領域を限定的に選択することができる。   When the image photographing unit 41 shoots the screen of the television 50, it may be notified from the outside which advertising video screen is displayed on the television 50. For example, if the screen of TV 50 is the screen of an advertising video or TV program that is currently being broadcast, information about which advertising video or TV program is being broadcast is delivered from the server of the TV station or a provider representing the TV station. . The image recognition device 40 receives the information distributed from the server, and uses the advertisement video or TV program to be recognized from the information as prior knowledge, thereby including the advertisement product included in the screen captured by the image capturing unit 41 A limited area can be selected.

また、テレビ50の画面が録画再生装置に一旦録画されて再生された広告映像やテレビ番組の画面であれば、どの広告映像やテレビ番組が再生されているかの情報を録画再生装置から画像認識装置40に通知すればよい。この通知は、例えば、録画再生装置と画像認識装置40の間での近距離無線などを利用し、再生中の広告映像やテレビ番組に関する情報を送受信することで可能である。   Further, if the screen of the television 50 is a screen of an advertisement video or TV program once recorded and played back by the recording / playback device, information on which advertising video or TV program is played back from the recording / playback device to the image recognition device. Just notify 40. This notification can be made, for example, by using short-range wireless communication between the recording / playback apparatus and the image recognition apparatus 40, and transmitting / receiving information related to the advertisement video or TV program being played back.

さらに、予め対象となる広告映像やテレビ番組を解析し、時間的に連続する複数枚の参照画像の画像特徴量を保持しておけば、画像撮影部41により撮影された1枚の画面から広告商品領域を特定しやすくなる。尚、参照画像において広告商品領域を事前に特定しておいてもよい。   Furthermore, if the target advertisement video or TV program is analyzed in advance and the image feature quantities of a plurality of reference images that are continuous in time are stored, the advertisement is displayed from one screen shot by the image shooting unit 41. It becomes easy to specify the product area. Note that the advertisement product area may be specified in advance in the reference image.

広告商品領域有効化部43は、広告商品領域選択部42により選択された特徴的な領域を有効化した入力画像を生成する。広告商品領域選択部42により選択された特徴的な領域以外の領域については、単に無視してもよいし、単一の値に変換してもよい。   The advertisement product area validation unit 43 generates an input image in which the characteristic area selected by the advertisement product area selection unit 42 is validated. Regions other than the characteristic region selected by the advertisement product region selection unit 42 may be simply ignored or converted into a single value.

画像特徴量算出部44は、広告商品領域有効化部43からの有効入力画像を対象として、広告商品領域選択部42により選択された特徴的な領域の画像特徴量を算出する。   The image feature amount calculation unit 44 calculates the image feature amount of the characteristic region selected by the advertisement product region selection unit 42 for the effective input image from the advertisement product region validation unit 43 as a target.

蓄積媒体45は、予め登録されている広告商品画像を参照画像とし、該参照画像から予め算出された画像特徴量を格納している。また、蓄積媒体45は、参照画像の広告商品の識別子と各識別子に関連付けられたWEBサイトのURLが記述されたファイルを格納している。これらの参照画像の画像特徴量、WEBサイトのURLは、広告アグリゲータ60などから取得することができる。   The storage medium 45 uses an advertisement product image registered in advance as a reference image, and stores image feature amounts calculated in advance from the reference image. Further, the storage medium 45 stores a file in which the identifier of the advertisement product of the reference image and the URL of the website associated with each identifier are described. The image feature amount of the reference image and the URL of the website can be acquired from the advertisement aggregator 60 or the like.

画像特徴量比較部46は、広告商品領域選択部42により選択された特徴的な領域の画像特徴量と蓄積媒体45に格納されている参照画像の特徴量を比較する。関連URL取得部47は、画像特徴量比較部46での比較結果に従って、有効入力画像の画像特徴量と最も近似した画像特徴量を有する参照画像の識別子に関連付けられたWEBサイトのURL を蓄積媒体45から取得する。   The image feature amount comparison unit 46 compares the image feature amount of the characteristic area selected by the advertisement product region selection unit 42 with the feature amount of the reference image stored in the storage medium 45. The related URL acquisition unit 47 stores the URL of the website associated with the identifier of the reference image having the image feature amount most similar to the image feature amount of the effective input image according to the comparison result in the image feature amount comparison unit 46. Get from 45.

関連WEB表示部48は、WEBブラウザを起動し、関連URL取得部47により取得されたWEBサイトのURLを用いて広告主などのサーバ70のWEBページにアクセスする。これにより、広告映像の広告商品に関連付けられたWEBサイトを開き、ユーザを広告商品の詳細情報が閲覧できるサイトや広告商品を購入できるサイトなどに簡易に誘導することができる。   The related WEB display unit 48 activates a WEB browser and accesses the WEB page of the server 70 such as an advertiser using the URL of the WEB site acquired by the related URL acquisition unit 47. Thereby, the WEB site associated with the advertisement product of the advertisement video is opened, and the user can be easily guided to a site where the detailed information of the advertisement product can be viewed, a site where the advertisement product can be purchased, and the like.

以上、実施形態について説明したが、本発明は、上記実施形態に限定されるものではない。例えば、図4は、本発明を、広告映像を対象として画像認識を行う画像認識装置に適用した場合の例であるが、例えば、テレビ出演者を対象として画像認識を行う画像認識装置に本発明を適用することもできる。すなわち、テレビ画面の映像から出演者顔領域を特徴的な領域として選択し、該特徴的な領域における画像特徴量を元に認識される出演者に関連付けられたWEBサイトなどの情報を表示させることができる。   As mentioned above, although embodiment was described, this invention is not limited to the said embodiment. For example, FIG. 4 is an example of the case where the present invention is applied to an image recognition apparatus that performs image recognition on an advertising video. For example, the present invention is applied to an image recognition apparatus that performs image recognition on a TV performer. Can also be applied. That is, the performer face area is selected as a characteristic area from the video on the TV screen, and information such as a website associated with the performer recognized based on the image feature amount in the characteristic area is displayed. Can do.

また、画像撮影部により取得された画像そのままでなく、選択部や画像特徴量抽出部や画像特徴量比較部で処理しやすいように処理した画像を認識領域選択部に入力するようしてもよい。例えば、画像撮影部により取得された画像の歪みを推定し、これにより推定された歪みに基づいて歪み補正した画像を認識領域選択部に入力してもよく、また、拡大や回転処理後の画像を認識領域選択部に入力してもよい。なお、画像の歪み補正、拡大や回転処理の技術は既知であり、ここで用いる技術は限定されない。   Further, instead of the image acquired by the image capturing unit as it is, an image processed so as to be easily processed by the selection unit, the image feature amount extraction unit, or the image feature amount comparison unit may be input to the recognition region selection unit. . For example, the distortion of the image acquired by the image capturing unit may be estimated, and an image corrected for distortion based on the estimated distortion may be input to the recognition area selection unit. May be input to the recognition area selector. Note that the techniques for image distortion correction, enlargement, and rotation processing are known, and the techniques used here are not limited.

10,40・・・画像認識装置、11,41・・・画像撮影部、12・・・認識領域選択部、13・・・選択領域有効化部、14,44・・・画像特徴量算出部、15,46・・・画像特徴量比較部、16・・・認識結果出力部、17・・・認識結果表示部、18・・・参照画像特徴量格納部、19・・・メディアファイル格納部、42・・・広告商品領域選択部、43・・・広告商品領域有効化部、47・・・関連URL取得部、48・・・関連WEB表示部、45・・・蓄積媒体   10, 40 ... Image recognition device, 11, 41 ... Image capturing unit, 12 ... Recognition region selection unit, 13 ... Selection region validation unit, 14, 44 ... Image feature amount calculation unit , 15, 46 ... image feature amount comparison unit, 16 ... recognition result output unit, 17 ... recognition result display unit, 18 ... reference image feature amount storage unit, 19 ... media file storage unit 42 ... Advertisement product area selection part 43 ... Advertisement product area validation part 47 ... Related URL acquisition part 48 ... Related web display part 45 ... Storage medium

Claims (14)

外界を撮影して画像を取得する画像撮影部と、
前記画像撮影部により取得された画像から特徴的な領域を選択する認識領域選択部と、
前記認識領域選択部により選択された特徴的な領域が認識対象とされるように有効化し、それ以外の領域が認識対象から除外されるように無効化する選択領域有効化部と、
前記選択領域有効化部により有効化された領域における画像特徴量を算出する画像特徴量算出部と、
前記画像特徴量算出部により算出された画像特徴量と予め用意された参照画像の画像特徴量を比較する画像特徴量比較部と、
前記画像特徴量比較部による比較結果に従って、前記画像特徴量算出部により算出された画像特徴量と最も近似するとされた画像特徴量を有する参照画像の識別子を認識結果として出力する結果出力部を具備したことを特徴とする画像認識装置。
An image shooting unit for shooting the outside world and acquiring images;
A recognition region selection unit that selects a characteristic region from the image acquired by the image photographing unit;
A selection region enabling unit that enables the characteristic region selected by the recognition region selection unit to be a recognition target and disables the other region to be excluded from the recognition target;
An image feature amount calculation unit for calculating an image feature amount in the region validated by the selection region validation unit;
An image feature amount comparing unit that compares the image feature amount calculated by the image feature amount calculating unit with an image feature amount of a reference image prepared in advance;
A result output unit that outputs, as a recognition result, an identifier of a reference image having an image feature amount that is closest to the image feature amount calculated by the image feature amount calculation unit according to a comparison result by the image feature amount comparison unit; An image recognition apparatus characterized by that.
前記選択領域有効化部は、前記認識領域選択部により選択された特徴的な領域以外の領域に属する画素の値を単一の値とすることを特徴とする請求項1に記載の画像認識装置。   The image recognition apparatus according to claim 1, wherein the selection area validation unit sets a value of a pixel belonging to an area other than the characteristic area selected by the recognition area selection unit as a single value. . 前記画像特徴量算出部は、スケール不変特徴変換、画像モーメントの少なくともいずれかを画像特徴量として算出することを特徴とする請求項1または2に記載の画像認識装置。   The image recognition apparatus according to claim 1, wherein the image feature amount calculation unit calculates at least one of scale invariant feature conversion and image moment as an image feature amount. 前記画像特徴算出部を具備するのに代えて、ネットワーク経由で接続されたサーバを利用することを特徴とする請求項1ないし3のいずれか1つに記載の画像認識装置。   4. The image recognition apparatus according to claim 1, wherein a server connected via a network is used instead of including the image feature calculation unit. 5. 前記特徴量比較部は、前記認識領域選択部により選択された特徴的な領域における特徴量と前記参照画像の特徴量との距離を計算することを特徴とする請求項1ないし4のいずれか1つに記載の画像認識装置。   The feature amount comparison unit calculates a distance between the feature amount in the characteristic region selected by the recognition region selection unit and the feature amount of the reference image. The image recognition apparatus described in one. 前記参照画像の画像特徴量は、画像認識装置内の蓄積媒体に格納されていることを特徴とする請求項1ないし4のいずれか1つに記載の画像認識装置。   5. The image recognition apparatus according to claim 1, wherein the image feature amount of the reference image is stored in a storage medium in the image recognition apparatus. 前記参照画像の画像特徴量は、ネットワーク経由で接続されたサーバに格納されており、前記特徴量比較部を具備するのに代えて、前記サーバを利用することを特徴とする請求項1ないし5のいずれか1つに記載の画像認識装置。   6. The image feature quantity of the reference image is stored in a server connected via a network, and the server is used instead of including the feature quantity comparison unit. The image recognition apparatus as described in any one of these. 前記結果出力部を具備するのに代えて、ネットワーク経由で接続されたサーバを利用し、それによる認識結果をネットワーク経由で受信することを特徴とする項1ないし7のいずれか1つに記載の画像認識装置。   8. Instead of providing the result output unit, a server connected via a network is used, and a recognition result thereby is received via the network. Image recognition device. さらに、認識結果に関連付けられたメディアを取得し、該メディアを再生するメディア再生部を具備したことを特徴とする請求項1ないし8のいずれか1つに記載の画像認識装置。   The image recognition apparatus according to claim 1, further comprising a media playback unit that acquires media associated with the recognition result and plays back the media. 前記メディア再生部は、前記画像撮影部により取得された画像に前記メディアを重畳して再生することを特徴とする請求項9に記載の画像認識装置。   The image recognition apparatus according to claim 9, wherein the media reproduction unit reproduces the medium superimposed on the image acquired by the image photographing unit. 前記画像撮影部により撮影される外界がテレビ画面であり、前記認識領域選択部により選択される特徴的な領域が広告商品領域であり、前記メディア再生部は、当該広告商品に関連付けられたメディアを再生することを特徴とする請求項9または10に記載の画像認識装置。   The outside world photographed by the image photographing unit is a television screen, the characteristic region selected by the recognition region selecting unit is an advertising product region, and the media reproducing unit displays media associated with the advertising product. The image recognition apparatus according to claim 9 or 10, wherein reproduction is performed. 前記画像撮影部により撮影される外界がテレビ画面であり、前記認識領域選択部により選択される特徴的な領域が出演者顔領域であり、前記メディア再生部は、当該出演者に関連付けられたWEBサイトの情報を表示することを特徴とする請求項9または10に記載の画像認識装置。   The outside world photographed by the image photographing unit is a television screen, the characteristic region selected by the recognition region selecting unit is a performer face region, and the media reproduction unit is configured to use a WEB associated with the performer. The image recognition apparatus according to claim 9 or 10, wherein information on a site is displayed. さらに、前記画像撮影部により取得された画像の歪みを推定する歪推定部と、前記歪推定部により推定された歪みに基づいて前記画像撮影部により取得された画像を補正する歪み補正部を具備し、
前記画像特徴量算出部は、前記歪み補正部により補正された画像の特徴的な領域における画像特徴量を算出することを特徴とする請求項1ないし12のいずれか1つに記載の画像認識装置。
And a distortion estimation unit that estimates distortion of the image acquired by the image capturing unit, and a distortion correction unit that corrects the image acquired by the image capturing unit based on the distortion estimated by the distortion estimation unit. And
The image recognition apparatus according to claim 1, wherein the image feature amount calculation unit calculates an image feature amount in a characteristic region of the image corrected by the distortion correction unit. .
さらに、前記画像撮影部により取得された画像を拡大する画像拡大部、前記画像撮影部により取得された画像を回転する画像回転部の少なくともいずれかを具備し、
前記画像特徴量算出部は、前記画像拡大部、前記画像回転部により拡大、回転された画像の特徴的な領域から画像特徴量を算出することを特徴とする請求項1ないし13のいずれか1つに記載の画像認識装置。
Furthermore, it comprises at least one of an image enlarging unit for enlarging the image acquired by the image capturing unit and an image rotating unit for rotating the image acquired by the image capturing unit,
The image feature amount calculation unit calculates an image feature amount from a characteristic region of the image enlarged and rotated by the image enlargement unit and the image rotation unit. The image recognition apparatus described in one.
JP2011070223A 2011-03-28 2011-03-28 Image recognition device Withdrawn JP2012203823A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011070223A JP2012203823A (en) 2011-03-28 2011-03-28 Image recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011070223A JP2012203823A (en) 2011-03-28 2011-03-28 Image recognition device

Publications (1)

Publication Number Publication Date
JP2012203823A true JP2012203823A (en) 2012-10-22

Family

ID=47184723

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011070223A Withdrawn JP2012203823A (en) 2011-03-28 2011-03-28 Image recognition device

Country Status (1)

Country Link
JP (1) JP2012203823A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103903249A (en) * 2012-12-27 2014-07-02 纽海信息技术(上海)有限公司 Image matching system and method
JP2016508769A (en) * 2013-01-28 2016-03-24 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Medical image processing
KR101804471B1 (en) * 2016-06-30 2017-12-04 주식회사 이누씨 Method And Apparatus for Analyzing Video
JP2018180610A (en) * 2017-04-04 2018-11-15 株式会社ミクシィ Information processing apparatus, information distribution method and information distribution program
JP2021508109A (en) * 2017-12-19 2021-02-25 テレフオンアクチーボラゲット エルエム エリクソン(パブル) Head-mounted display device and its method

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103903249A (en) * 2012-12-27 2014-07-02 纽海信息技术(上海)有限公司 Image matching system and method
CN103903249B (en) * 2012-12-27 2017-10-13 北京京东尚科信息技术有限公司 Image matching system and method
JP2016508769A (en) * 2013-01-28 2016-03-24 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Medical image processing
KR101804471B1 (en) * 2016-06-30 2017-12-04 주식회사 이누씨 Method And Apparatus for Analyzing Video
JP2018180610A (en) * 2017-04-04 2018-11-15 株式会社ミクシィ Information processing apparatus, information distribution method and information distribution program
JP2021508109A (en) * 2017-12-19 2021-02-25 テレフオンアクチーボラゲット エルエム エリクソン(パブル) Head-mounted display device and its method
JP7012163B2 (en) 2017-12-19 2022-01-27 テレフオンアクチーボラゲット エルエム エリクソン(パブル) Head-mounted display device and its method
US11380018B2 (en) 2017-12-19 2022-07-05 Telefonaktiebolaget Lm Ericsson (Publ) Head-mounted display device and method thereof
US11935267B2 (en) 2017-12-19 2024-03-19 Telefonaktiebolaget Lm Ericsson (Publ) Head-mounted display device and method thereof

Similar Documents

Publication Publication Date Title
US9754183B2 (en) System and method for providing additional information using image matching
US9628837B2 (en) Systems and methods for providing synchronized content
CN109325933B (en) Method and device for recognizing copied image
WO2018028583A1 (en) Subtitle extraction method and device, and storage medium
CN110189378A (en) A kind of method for processing video frequency, device and electronic equipment
Chen et al. Streaming mobile augmented reality on mobile phones
WO2019042404A1 (en) Image processing method, terminal, and storage medium
US9275448B2 (en) Flash/no-flash imaging for binarization
KR101923177B1 (en) Appratus and method for providing augmented reality information based on user
KR20150105479A (en) Realization method and device for two-dimensional code augmented reality
TWI588590B (en) Video generating system and method thereof
WO2022160857A1 (en) Image processing method and apparatus, and computer-readable storage medium and electronic device
CN112771572B (en) Object tracking based on user-specified initialization points
JP2012203823A (en) Image recognition device
JP5832656B2 (en) Method and apparatus for facilitating detection of text in an image
JP2012105205A (en) Key frame extractor, key frame extraction program, key frame extraction method, imaging apparatus, and server device
Taspinar et al. Camera identification of multi-format devices
CN111144156B (en) Image data processing method and related device
JP2011203790A (en) Image verification device
CN112488072A (en) Method, system and equipment for acquiring face sample set
US11647294B2 (en) Panoramic video data process
JP6340675B1 (en) Object extraction device, object recognition system, and metadata creation system
KR101359286B1 (en) Method and Server for Providing Video-Related Information
JPWO2020261546A1 (en) Information processing equipment, information processing systems, information processing methods, and programs
Novozámský et al. Extended IMD2020: a large‐scale annotated dataset tailored for detecting manipulated images

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140603