JP4870721B2 - Image feature extraction apparatus, image feature extraction method, program, and recording medium - Google Patents
Image feature extraction apparatus, image feature extraction method, program, and recording medium Download PDFInfo
- Publication number
- JP4870721B2 JP4870721B2 JP2008141612A JP2008141612A JP4870721B2 JP 4870721 B2 JP4870721 B2 JP 4870721B2 JP 2008141612 A JP2008141612 A JP 2008141612A JP 2008141612 A JP2008141612 A JP 2008141612A JP 4870721 B2 JP4870721 B2 JP 4870721B2
- Authority
- JP
- Japan
- Prior art keywords
- color
- color edge
- image
- edge
- extraction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、画像からその特徴を抽出するための技術に関し、特に、画像から色エッジペアを抽出するための技術に関するものである。 The present invention relates to a technique for extracting features from an image, and more particularly to a technique for extracting a color edge pair from an image.
画像から地図や設計図、文字列等の細い線によって描かれた線図形を検出し、画像の背景と分離するために用いることができる技術として例えば特許文献1に記載された技術がある。
As a technique that can be used to detect a line figure drawn by thin lines such as a map, a design drawing, and a character string from an image and separate it from the background of the image, there is a technique described in
この技術では、輝度が不連続に変化するような特徴であるエッジ(以下、"輝度エッジ"と呼ぶ)を画像から特徴量として抽出し、上り勾配エッジと下り勾配エッジとをペア(以下、"輝度エッジペア"と呼ぶ)として扱い、線図形の抽出に用いている。
しかしながら、上記従来の技術では、画像から特徴量として輝度エッジを抽出しているため、その背景と色は異なるが輝度が類似している線図形においては輝度エッジの強度が小さくなる。そのため、このような場合は、輝度エッジペアの作成が困難となり、十分な性能を発揮することができなかった。 However, in the above conventional technique, since a luminance edge is extracted as a feature amount from an image, the intensity of the luminance edge is small in a line figure that is different in color from the background but has similar luminance. Therefore, in such a case, it becomes difficult to create a luminance edge pair, and sufficient performance cannot be exhibited.
本発明は上記の点に鑑みてなされたものであり、線図形とその背景との間で輝度が類似している場合でも、エッジペア(色エッジペア)を適切に抽出することを可能とする技術を提供することを目的とする。 The present invention has been made in view of the above points, and provides a technique that makes it possible to appropriately extract an edge pair (color edge pair) even when the luminance is similar between a line figure and its background. The purpose is to provide.
上記の課題を解決するために、本発明は、線図形を含む画像から色エッジペアを抽出するための画像特徴抽出装置であって、画像格納手段から前記画像を取得する画像取得手段と、前記画像から色エッジを絶対値として抽出する色エッジ抽出手段と、前記色エッジ抽出手段により抽出された色エッジの中から色エッジペア候補集合を抽出し、線図形が局所的に類似する色を有するという性質に基づく色エッジペア抽出条件を満足する色エッジペア候補を、色エッジペアとして前記色エッジペア候補集合の中から抽出する色エッジペア抽出手段と、を備え、前記色エッジペア抽出条件は、色エッジペア候補を構成する第1の色エッジと第2の色エッジにおいて、前記第1の色エッジの周囲にある画素のうち、前記第2の色エッジに近い側にある画素の色と、前記第2の色エッジの周囲にある画素のうち、前記第1の色エッジに近い側にある画素の色とが類似していることという条件であることを特徴とする画像特徴抽出装置として構成される。
また、本発明は、線図形を含む画像から色エッジペアを抽出するための画像特徴抽出装置であって、画像格納手段から前記画像を取得する画像取得手段と、前記画像から色エッジを抽出する色エッジ抽出手段と、前記色エッジ抽出手段により抽出された色エッジの中から色エッジペア候補集合を抽出し、線図形が局所的に類似する色を有するという性質に基づく色エッジペア抽出条件を満足する色エッジペア候補を、色エッジペアとして前記色エッジペア候補集合の中から抽出する色エッジペア抽出手段と、を備え、前記色エッジペア抽出条件は、色エッジペア候補を構成する第1の色エッジと第2の色エッジにおいて、前記第1の色エッジの周囲にある画素のうち、前記第2の色エッジに近い側にある画素の色と、前記第2の色エッジの周囲にある画素のうち、前記第1の色エッジに近い側にある画素の色とが類似していることという条件、前記第1の色エッジ近傍における色の変化ベクトルと、前記第2の色エッジ近傍における色の変化ベクトルとがほぼ逆方向となっていることという条件、及び前記第1の色エッジと前記第2の色エッジの間にある複数の画素間の色の変化量が小さいことという条件の3つの条件を含み、前記色エッジペア抽出手段は、前記3つの条件のうちの少なくとも1つの条件を満足する色エッジペア候補を、色エッジペアとして前記色エッジペア候補集合の中から抽出することを特徴とする画像特徴抽出装置として構成してもよい。
In order to solve the above-described problems, the present invention provides an image feature extraction device for extracting a color edge pair from an image including a line figure, the image acquisition unit acquiring the image from an image storage unit, and the image Color edge extracting means for extracting color edges as absolute values from the color edge pair color candidate extraction set from the color edges extracted by the color edge extracting means, and the line figure has a locally similar color Color edge pair extraction means for extracting a color edge pair candidate satisfying a color edge pair extraction condition based on the color edge pair from the color edge pair candidate set as a color edge pair , and the color edge pair extraction condition comprises a first color edge pair candidate. In one color edge and the second color edge, among the pixels around the first color edge, the pixel is on the side closer to the second color edge And color-containing, among pixels around the second color edge, the image first is the color of the pixel on the side close to the color edges characterized in that it is a condition that it is similar Configured as a feature extraction device.
The present invention also provides an image feature extraction device for extracting a color edge pair from an image including a line figure, an image acquisition unit for acquiring the image from an image storage unit, and a color for extracting a color edge from the image A color that satisfies a color edge pair extraction condition based on a property of extracting a color edge pair candidate set from the color edges extracted by the edge extraction means and the color edge extraction means, and the line figure has a locally similar color Color edge pair extraction means for extracting an edge pair candidate as a color edge pair from the color edge pair candidate set, wherein the color edge pair extraction condition includes a first color edge and a second color edge constituting the color edge pair candidate And the color of the pixel on the side closer to the second color edge among the pixels around the first color edge and the circumference of the second color edge. Among the pixels in the pixel, the condition that the color of the pixel closer to the first color edge is similar, the color change vector in the vicinity of the first color edge, and the second color edge The condition that the color change vector in the vicinity is substantially opposite, and the amount of color change between the plurality of pixels between the first color edge and the second color edge is small. The color edge pair extracting unit extracts a color edge pair candidate that satisfies at least one of the three conditions as a color edge pair from the color edge pair candidate set. You may comprise as an image feature extraction apparatus.
また、本発明は、上記画像特徴抽出装置の処理動作に対応した方法、プログラム、及び当該プログラムを記録したコンピュータ読み取り可能な記録媒体として構成してもよい。 The present invention may also be configured as a method, a program corresponding to the processing operation of the image feature extraction apparatus, and a computer-readable recording medium on which the program is recorded.
本発明によれば、線図形とその背景との間で輝度が類似している場合でも、色エッジペアを適切に抽出することが可能になる。これにより、画像中の線図形領域を高精度に抽出することが可能となる。 According to the present invention, it is possible to appropriately extract a color edge pair even when the luminance is similar between the line figure and its background. This makes it possible to extract a line figure region in the image with high accuracy.
以下、図面を参照して本発明の実施の形態を説明する。なお、実施の形態において、色情報は高次元の情報であり、例えば3次元の情報である。3次元の情報で色を表現するモデルとしては、例えばRGB、HSV、HSI、YUV、LUV、LAB、XYZ等があるが、本発明はどのような色表現方法に対しても適用できるものである。
(第1の実施の形態)
<装置構成>
図1に、本実施の形態における画像特徴抽出装置1の機能構成図を示す。図1に示すように、本実施の形態における画像特徴抽出装置1は、画像格納部11、画像取得部12、色エッジ抽出部13、色エッジペア抽出部14、ペア性判定部15、及び入出力部16を有する。
Embodiments of the present invention will be described below with reference to the drawings. In the embodiment, the color information is high-dimensional information, for example, three-dimensional information. For example, RGB, HSV, HSI, YUV, LUV, LAB, XYZ, and the like are models for expressing colors with three-dimensional information, but the present invention can be applied to any color expression method. .
(First embodiment)
<Device configuration>
FIG. 1 shows a functional configuration diagram of an image
画像格納部11は、本実施の形態における処理対象となる画像データ(単に画像と呼ぶことにする)を格納するとともに、画像取得部12から画像要求を受信し、当該画像要求に係る画像を画像取得部12に返す機能部である。
The
画像格納部11は、画像特徴抽出装置1として使用されるコンピュータにおける磁気ディスク装置、光ディスク装置、メモリ等で構成される。また、画像格納部11を画像特徴抽出装置1内部に備えることに代えて、画像特徴抽出装置1とは別の装置としてネットワーク上に配置することとしてもよい。例えば、画像格納部11として、画像特徴抽出装置1とネットワークを介して接続されるサーバ装置を用いることができる。
The
なお、本実施の形態において、"画像"は映像(動画像)でもよいし、静止画像でもよい。また、画像の内容も特に限定されるものでなく、その内容としては例えば、自然画像、人工画像、顔画像、文書を画像化したデータ等がある。また、画像格納部11に格納される画像には、事前に前処理等が施されていてもよい。
In the present embodiment, the “image” may be a video (moving image) or a still image. Also, the content of the image is not particularly limited. Examples of the content include a natural image, an artificial image, a face image, and data obtained by imaging a document. In addition, the image stored in the
図2に、画像データの画像格納部11への格納方法の例を示す。図2に示すように、この例では、画素(画素の位置)毎に色の成分値が連続的に格納されている。
FIG. 2 shows an example of a method for storing image data in the
画像取得部12は、画像格納部11に対して画像要求信号を送り、画像格納部11から画像を取得し、取得した画像を色エッジ抽出部13に出力する機能部である。色エッジ抽出部13は、画像取得部12から受け取った画像に対して色エッジ抽出処理を実施し、その結果を色エッジペア抽出部14に渡す機能部である。色エッジペア抽出部14は、色エッジ抽出処理結果から色エッジペア候補を特定するとともに、ペア性判定部15を用いて、色エッジペア候補から色エッジペアを抽出し、それを入出力部16に渡す機能部である。
The
なお、画像特徴抽出装置1は、CPUと、メモリやハードディスク等の記憶装置とを含む一般的なコンピュータに、本実施の形態で説明する処理に対応するプログラムを実行させることにより実現されるものであり、上述した各機能部は、コンピュータに当該プログラムが実行されて実現される機能部である。従って、例えば、各機能部間での情報のやりとりは、実際にはメモリ等の記憶装置を介して行われるものである。上記プログラムは、メモリ等の記録媒体に格納し、そこからコンピュータにインストールすることもできるし、ネットワーク上のサーバからダウンロードするようにしてもよい。
The image
<画像特徴抽出装置1の動作>
以下、図3に示すフローチャートに沿って、画像特徴抽出装置1の動作について説明する。
<Operation of Image
Hereinafter, the operation of the image
まず、画像取得部12が、例えば入出力部16から入力される情報に基づき、処理対象となる画像を要求する画像要求信号を画像格納部11に対して送ることにより、画像格納部11から画像を取得し、当該画像を色エッジ抽出部13に渡す(ステップ1)。
First, the
なお、ここで取得した画像が動画像であった場合には、画像取得部12は、動画像から各フレームを抽出する処理を行い、抽出した各フレームを色エッジ抽出部13に出力し、以下の処理が各フレーム(画像)毎に行われることになる。
In addition, when the image acquired here is a moving image, the
続いて、色エッジ抽出部13は、画像取得部12から受け取った画像から色エッジを抽出し、色エッジ情報として色エッジペア抽出部14に渡す処理を行う(ステップ2)。
Subsequently, the color
色エッジの抽出技術としては、色情報が不連続に変化する部分を特徴として抽出することが可能な技術を利用する。このような技術としては、従来から提案されている多くのエッジ抽出技術を利用することができる。例えば、単純差分及びその絶対値を用いるエッジ抽出技術、DoG(微分ガウシアン)演算子を用いるエッジ抽出技術、ソーベルやプレウィット等のエッジ検出演算子を用いるエッジ抽出技術、ラプラシアン演算子を用いるエッジ抽出技術、MAX-MIN演算子を用いるエッジ抽出技術、等のうちのいずれも利用できる。もちろん、ここに挙げていない技術を用いてもよい。 As a color edge extraction technique, a technique that can extract a portion where color information changes discontinuously as a feature is used. As such a technique, many conventionally proposed edge extraction techniques can be used. For example, edge extraction technology using simple difference and its absolute value, edge extraction technology using DoG (differential Gaussian) operator, edge extraction technology using edge detection operators such as Sobel and Prewitt, edge extraction using Laplacian operator Any of a technology, an edge extraction technology using a MAX-MIN operator, and the like can be used. Of course, techniques not listed here may be used.
一例として、ソーベル演算子(3×3)と絶対値を組み合わせた方法を採用する場合において、縦縞エッジの抽出を行う場合の色エッジ抽出部13の処理例を説明する。
As an example, a processing example of the color
ある注目画素(成分値e)の近傍の画素(成分値a〜i)がサブブロックにおいて図4(A)に示すように配置されている場合に、色エッジ抽出部13は、このサブブロックに対して図4(B)に示す3×3ソーベル演算子を適用して絶対値をとることにより、|c−a|+2|f−d|+|i−g|(|・|は・の絶対値)を計算し、これを注目画素の位置の特定の成分のエッジの値とする。なお、ここでの成分とは例えば色情報のR成分等である。
When pixels (component values a to i) in the vicinity of a certain pixel of interest (component value e) are arranged as shown in FIG. 4A in the sub-block, the color
色エッジ抽出部13は、画像の各画素の各色成分毎にエッジ抽出技術を適用して、画素毎に、色成分毎の色エッジ値を算出する。また、色エッジ抽出部13は、画素毎に、各色成分の色エッジ値の和、もしくは各色成分の色エッジ値からなるベクトルの長さを求め、それを出力すべき色エッジ値とする。なお、各色成分の色エッジ値を1つの色エッジ値にする処理は上記のものに限られるわけではない。
The color
そして、色エッジ抽出部13は、画素の位置と色エッジ値との組み合わせを色エッジ情報として色エッジペア抽出部14に渡す。
Then, the color
色エッジペア抽出部14は、色エッジ抽出部13から受け取った色エッジ情報から色エッジペアの候補となる2つの色エッジの組である色エッジペア候補の集合を生成し、メモリ等の記憶装置に保持しておく(ステップ3)。なお、元の画像の情報(画素位置と色成分の情報)はメモリ等に保持されており、処理の中で必要であれば適宜取得できるものとする。
The color edge
色エッジペア候補を生成する処理において、色エッジペア抽出部14は、例えば、2つの色エッジのエッジ値が閾値以上かつ、それらが予め定められた位置関係にある、かつ、2つの色エッジ間の距離が予め定めた値以下のものを色エッジペア候補として抽出する処理を行う。上記予め定められた位置関係とは、例えば、2つの色エッジが同一Y座標位置上で左右に並んでいる、あるいは、同一X座標位置上で上下に並んでいる等である。
In the process of generating the color edge pair candidate, the color edge
次に、色エッジペア抽出部14は、ペア性判定部15を用いたペア性判定処理に移る。
Next, the color edge
ここではまず、色エッジペア抽出部14は、ステップ3において生成した色エッジペア候補の中にペア性が未判定のものがあるかどうかをチェックする(図3のステップ4)。未判定のものがない場合(ステップ4のNo)、全ての色エッジペア候補に対するペア性判定が済んだことになるので処理を終了する(ステップ8)。
Here, first, the color edge
未判定のものがある場合(ステップ4のYes)、未判定の色エッジペア候補の集合から1つの色エッジペア候補(色エッジ画素の位置を含む情報)を選択し、その色エッジペア候補をペア性判定部15に渡し、ペア性判定部15に当該色エッジペア候補のペア性を判定させる(ステップ5)。
If there is an undetermined one (Yes in step 4), one color edge pair candidate (information including the position of the color edge pixel) is selected from the set of undetermined color edge pair candidates, and the color edge pair candidate is determined as a pair property Then, the
ペア性判定部15は、色エッジペア抽出部14から受け取った色エッジペア候補が色エッジペアのペア性判定条件を満たしているかどうかを判定する。
The pair
ペア性判定条件としては、以下に示すペア性判定条件1〜3を用いる。本実施の形態では、これらのうちの少なくとも1つの条件を満たすものを色エッジペアであると判定する。なお、これらの条件は文字等の線図形の色が局所的には一定であるという性質に着目した条件である。また、ペア性判定条件は下記のものに限定されるわけではない。
As the pairing determination conditions, the following
ペア性判定条件1:色エッジペア候補を構成する2つの色エッジ(色エッジ部分の画素の点)について、相手の色エッジ側にある画素同士の色が類似していること。つまり、この条件は、色エッジペア候補を構成する第1の色エッジと第2の色エッジにおいて、第1の色エッジの周囲にある画素のうち、第2の色エッジに近い側にある画素の色と、第2の色エッジの周囲にある画素のうち、第1の色エッジに近い側にある画素の色とが類似していることという条件である。 Pairability determination condition 1: The colors of pixels on the other color edge side are similar for two color edges (pixel points of the color edge portion) constituting a color edge pair candidate. In other words, this condition is that, among the pixels around the first color edge in the first color edge and the second color edge constituting the color edge pair candidate, the pixel closer to the second color edge is selected. This is a condition that the color and the color of the pixel near the first color edge among the pixels around the second color edge are similar.
色が類似していると判定するための色の類似判定基準としては例えば以下のものがある。 Examples of color similarity determination criteria for determining that colors are similar include the following.
・各画素の色情報の成分値の差の絶対値の和が一定値以下であること。これは例えば、(R成分値の差の絶対値)+(G成分値の差の絶対値)+(G成分値の差の絶対値)が一定値以下であるということである。 -The sum of the absolute values of the difference between the component values of the color information of each pixel is not more than a certain value. This is, for example, that (absolute value of difference in R component value) + (absolute value of difference in G component value) + (absolute value of difference in G component value) is equal to or less than a certain value.
・各画素の色間の距離(例えば、RGB空間でのユークリッド距離)が一定値以下であること。 The distance between colors of each pixel (for example, Euclidean distance in RGB space) is not more than a certain value.
ペア性判定条件1について図5(a)を参照して更に説明する。色エッジペア候補を構成する色エッジの画素101、104が図5(a)に示すように存在する場合において、画素101の相手の色エッジ(画素104)側にある画素は画素102であり、画素104の相手の色エッジ(画素101)側にある画素は画素103である。これらの画素102、103同士を相手の色エッジ側にある画素同士と称している。図5(a)に示す例では、各色エッジにおいて、当該色エッジの画素と、他方の色エッジに近い側の画素とは隣接しているが、必ずしも隣接している必要はない。例えば、画素101と画素102との間、及び画素103と画素104との間は、それぞれ1〜数画素分離れていてもよい。
The
図5(a)に示す例においては、画素102、103の色が類似している場合に、ペア性判定部15は、色エッジペア候補101、104はペア性判定条件を満たしていると判定する。
In the example shown in FIG. 5A, when the colors of the
対象の線図形が文字である場合において、このペア性判定条件1を用いることにより、文字を構成する線の輪郭に色エッジペアが集中して抽出される。ここで、色エッジペア候補選定において、色エッジペア候補間の距離を文字の大きさや文字線の太さに応じて適切に設定することにより、文字の周辺以外に検出される色エッジペアを抑制することもできる。
When the target line figure is a character, by using this
ペア性判定条件2:色エッジペア候補の各色エッジの近傍の画素における色の変化ベクトルがほぼ逆方向であること。つまり、この条件は、色エッジペア候補を構成する第1の色エッジと第2の色エッジにおいて、第1の色エッジ近傍における色の変化ベクトルと、第2の色エッジ近傍における変化ベクトルとがほぼ逆方向となっていることという条件である。 Pairing determination condition 2: The color change vector in the pixel in the vicinity of each color edge of the color edge pair candidate is substantially in the reverse direction. That is, this condition is that the color change vector in the vicinity of the first color edge and the change vector in the vicinity of the second color edge are substantially the same at the first color edge and the second color edge constituting the color edge pair candidate. The condition is that the direction is opposite.
なお、例えば、RGB色空間の中で、R成分、G成分、B成分が全て0の画素から、R成分が255、G成分とB成分が0の画素に向けた色の変化ベクトルは、R成分が255、G成分、B成分ともに0のベクトルである。このベクトルと逆ベクトルとは、R成分が−255、G成分、B成分が0のベクトルである。 For example, in the RGB color space, a color change vector from a pixel in which R component, G component, and B component are all 0 to a pixel in which R component is 255, G component, and B component is 0 is R The component is a vector of 255, and the G component and B component are both zero. The vector and the inverse vector are vectors having an R component of −255, a G component, and a B component of 0.
色エッジの近傍の画素とは、例えば、色エッジペア候補を構成する2つの色エッジペアのうちの一方の色エッジ(開始点色エッジと呼ぶ)から他方の色エッジ(終点色エッジと呼ぶ)に向かうベクトルの方向に並ぶ2つの画素であって、開始点色エッジ側においては、開始点色エッジから上記ベクトルと垂直方向に引いた線上において開始点色エッジの近傍に存在する画素(開始点色エッジを含む)と当該画素の上記ベクトルの方向側に並ぶ画素との2つの画素であり、終点色エッジ側においては、終点色エッジから上記ベクトルと垂直方向に引いた線上において終点色エッジの近傍に存在する画素(終点色エッジを含む)と当該画素の上記ベクトルの方向の逆方向側に並ぶ画素との2つの画素である。そして、色エッジの近傍の画素の色の変化ベクトルとは、例えば、開始点色エッジ側においては、上記近傍の画素のうちの開始点色エッジ側に存在する画素の色から、近傍の画素のうちの終点色エッジ側に存在する画素の色への変化ベクトルであり、終点色エッジ側においては、近傍の画素のうちの開始点色エッジ側に存在する画素の色から、近傍の画素のうちの終点エッジ側に存在する画素の色への変化ベクトルである。 The pixel in the vicinity of the color edge is, for example, from one color edge (referred to as a start point color edge) of two color edge pairs constituting a color edge pair candidate to the other color edge (referred to as an end point color edge). Two pixels lined up in the direction of the vector, and on the start point color edge side, pixels existing in the vicinity of the start point color edge on the line drawn from the start point color edge in the direction perpendicular to the vector (start point color edge) And the pixels lined up in the direction of the vector of the pixel. On the end color edge side, on the line drawn from the end point color edge in the direction perpendicular to the vector, it is in the vicinity of the end color edge. There are two pixels: an existing pixel (including an end color edge) and a pixel arranged on the opposite side of the vector direction of the pixel. The color change vector of the pixel in the vicinity of the color edge is, for example, on the start point color edge side, from the color of the pixel existing on the start point color edge side in the vicinity pixel, It is a change vector to the color of the pixel existing on the end color edge side, and on the end color edge side, from the color of the pixel existing on the start point color edge side of the neighboring pixels, This is a change vector to the color of a pixel existing on the end edge side of.
また、色エッジの近傍の画素の色の変化ベクトルとして、開始点色エッジ側において、開始点色エッジから上記ベクトルと垂直方向に引いた線上において開始点色エッジの近傍に存在する複数の画素(例えば開始点色エッジとその上下にある2つの画素の3画素)の色の平均から、当該複数の画素のそれぞれについて上記ベクトルの方向側に並ぶ複数の画素(例えば上記3画素に隣接して上記ベクトルの方向側に並ぶ3画素)の色の平均への変化ベクトルを用い、終点色エッジ側において、終点色エッジから上記ベクトルと垂直方向に引いた線上において終点色エッジの近傍に存在する複数の画素(例えば終点色エッジとその上下にある2つの画素の3画素)の色の平均から、当該複数の画素のそれぞれについて上記ベクトルの逆方向側に並ぶ複数の画素(例えば上記3画素に隣接して上記ベクトルの逆方向側に並ぶ3画素)の色の平均を引いた変化ベクトルを用いてもよい。
Further, as a color change vector of a pixel in the vicinity of the color edge, on the start point color edge side, a plurality of pixels (in the vicinity of the start point color edge on a line drawn from the start point color edge in the direction perpendicular to the vector) ( For example, from the average of the colors of the start point color edge and the two pixels above and below it, a plurality of pixels lined up in the direction of the vector for each of the plurality of pixels (for example, adjacent to the three pixels described above) (3 pixels arranged in the direction direction of the vector) using a change vector to the average color, and on the end color edge side, a plurality of pixels existing in the vicinity of the end color edge on the line drawn from the end color edge in the direction perpendicular to the vector From the average of the colors of pixels (for example, the end point color edge and the three pixels above and below it), each of the plurality of pixels is aligned in the opposite direction of the vector. A plurality of pixels may be used change vector obtained by subtracting the average color (adjacent to e.g. the 3
図5(a)に示す例では、色エッジペア候補の一方の色エッジ101の近傍で、画像の画素の色が黒から黄に変化しており、色エッジペア候補の他方の色エッジ104の近傍では色が黄から黒に変化しており、ペア性判定条件2を満たすため、ペア性判定部15は、色エッジペア候補101、104は色エッジペアであると判定する。なお、もちろん、画素101から画素102への色の変化ベクトルと、画素103から画素104への色の変化ベクトルとをペア性判定条件2におけるペア性判定に用いてよい。
In the example shown in FIG. 5A, the color of the pixel of the image changes from black to yellow in the vicinity of one
また、上述したように、図5(b)における画素201、101、301の色の平均から画素202、102、302の色の平均への変化ベクトルと、画素203、103、303の色の平均から画素204、104、304の色の平均への変化ベクトルとをペア性判定に用いてもよい。
Further, as described above, the change vector from the average color of the
ペア性判定条件3:色ヘッジペア候補の2つの色エッジ間での色の変化量が小さいこと。
例えば、この条件は、色エッジペア候補の2つの色エッジ間を結ぶ線分上の画素の各色成分の最大値、最小値の差が予め定めた値以下であることである。また、例えば、色エッジペア候補の2つの色エッジ間を結ぶ線分上の画素の色間の距離(RGB空間でのユークリッド距離等)の最大値が予め定めた値以下であることである。
Pairing determination condition 3: The amount of color change between two color edges of a color hedge pair candidate is small.
For example, this condition is that the difference between the maximum value and the minimum value of each color component of a pixel on a line segment connecting two color edges of a color edge pair candidate is not more than a predetermined value. Further, for example, the maximum value of the distance between the colors of the pixels on the line segment connecting the two color edges of the color edge pair candidate (such as the Euclidean distance in the RGB space) is not more than a predetermined value.
上記のペア性判定条件に基づきペア性判定を行ったペア性判定部15は、色エッジペア抽出部14から受け取った色エッジペア候補に対するペア性判定結果を色エッジペア抽出部14に返し、色エッジペア抽出部14は、ペア性判定部15から色エッジペア候補のペア性判定結果を受け取る。ペア性判定結果を満たしていた場合(図3のステップ6のYes)、色エッジペア抽出部14は、その色エッジペアを色エッジペア抽出結果として入出力部16に渡す。色エッジペア抽出結果には、色エッジペアに含まれる2つの色エッジの位置(画素の位置)、色成分の値、色エッジ値が含まれる。
The
ペア性判定結果を満たしていない場合(ステップ6のNo)、色エッジペア抽出部14は、ステップ4の処理に戻り、未判定の色エッジペア候補があればその色エッジペア候補に対して上述したペア性判定処理を行うことになる。
When the pairedness determination result is not satisfied (No in Step 6), the color edge
色エッジペア抽出部14から色エッジペア抽出結果を受け取った入出力部16は、色エッジペア抽出結果を色エッジペア情報として出力する(ステップ7)。この出力は画像等の形で可視化してもよいし、リスト等の形で他の機能部に入力してさらに処理を付加することとしてもよい。そして、ステップ4に処理を戻す。
The input / output unit 16 that has received the color edge pair extraction result from the color edge
なお、上記の例では、色エッジペア抽出部14は、色エッジペア候補一組毎にペア性判定部15を利用したペア性判定処理を行っているが、色エッジペア候補を全てペア性判定部15に渡し、ペア性を満たす全ての色エッジペアの情報をペア性判定部15から受信し、その情報に基づき、全ての色エッジペア抽出結果を生成し、出力することとしてもよい。
In the above example, the color edge
(第2の実施の形態)
以下、第1の実施の形態における処理方法により抽出された特徴量(色エッジペアの色エッジ)の利用方法の一例として、当該特徴量をテロップ文字列領域抽出に用いる例について説明する。ここで説明する構成を用いることにより、第1の実施の形態において抽出される画像特徴を効果的に活用しつつ、精度高くテロップ文字列領域を抽出することができる。
(Second Embodiment)
Hereinafter, as an example of a method of using the feature amount (color edge of the color edge pair) extracted by the processing method according to the first embodiment, an example in which the feature amount is used for telop character string region extraction will be described. By using the configuration described here, it is possible to extract the telop character string region with high accuracy while effectively utilizing the image feature extracted in the first embodiment.
<装置構成>
図6に、本実施の形態におけるテロップ文字列領域抽出装置20の機能構成図を示す。図6に示すように、本実施の形態におけるテロップ文字列領域抽出装置20は、データ格納部21、画像取得部22、特徴量抽出部23、テロップ文字列領域形状取得部24、密集度算出用情報取得部25、テロップ文字列領域抽出部26、及び入出力部27を有する。
<Device configuration>
FIG. 6 shows a functional configuration diagram of the telop character string
データ格納部21は、本実施の形態における処理で用いられるデータを格納するとともに、各機能部からデータ要求を受信し、当該データ要求に係るデータを要求元の機能部に返す機能部である。図7に、本実施の形態においてデータ格納部21に格納されるデータの例を示す。図7に示すように、データ格納部21には、画像IDと対応付けて、画像データ(単に"画像"と呼ぶことにする)とテロップ文字列領域形状情報を保持するテーブル(図7(a))と、テロップ文字列領域形状情報に対応付けて密集度算出領域形状情報と重み係数分布情報を保持するテーブル(図7(b))とが格納されている。各情報の内容については、装置動作の説明の際に説明する。
The
データ格納部21は、テロップ文字列領域抽出装置20として使用されるコンピュータにおける磁気ディスク装置、光ディスク装置、メモリ等で構成される。また、データ格納部21をテロップ文字列領域抽出装置20内部に備えることに代えて、テロップ文字列領域抽出装置20とは別の装置としてネットワーク上に配置することとしてもよい。例えば、データ格納部21として、テロップ文字列領域抽出装置20とネットワークを介して接続されるサーバ装置を用いることができる。
The
なお、本実施の形態においても、"画像"は映像(動画像)でもよいし、静止画像でもよい。 Also in this embodiment, the “image” may be a video (moving image) or a still image.
画像取得部22は、データ格納部21に対して画像要求信号を送り、データ格納部21から画像を取得し、取得した画像を特徴量抽出部23に出力する機能部である。特徴量抽出部23は、画像取得部22から受け取った画像に対して特徴量抽出処理を実施し、その結果と画像IDとをテロップ文字列領域形状取得部24に渡す機能部である。
The
本実施の形態では、特徴量抽出部23は、第1の実施の形態における色エッジ抽出部13、色エッジペア抽出部14、ペア性判定部15を含み、特徴量抽出処理結果として、色エッジペア情報を出力する。
In the present embodiment, the feature
テロップ文字列領域形状取得部24は、データ格納部21からテロップ文字列領域形状情報を取得する機能部である。
The telop character string region
また、密集度算出用情報取得部25は、データ格納部21から密集度算出に必要な情報を取得し、その情報等をテロップ文字列領域抽出部26に渡す機能部である。テロップ文字列領域抽出部26は、密集度算出用情報取得部25から受け取った情報等を用いて、特徴量抽出処理結果からテロップ文字列領域を抽出する機能部である。また、テロップ文字列領域抽出部26は、更に、密集度算出用情報取得部25から受け取った情報を用いて、テロップ文字列領域における領域終端の精密抽出を行う機能も有している。入出力部27は、データの入出力をするための機能部である。
The density calculation
なお、テロップ文字列領域抽出装置20は、CPUと、メモリやハードディスク等の記憶装置とを含む一般的なコンピュータに、本実施の形態で説明する処理に対応するプログラムを実行させることにより実現されるものであり、上述した各機能部は、コンピュータに当該プログラムが実行されて実現される機能部である。従って、例えば、各機能部間での情報のやりとりは、実際にはメモリ等の記憶装置を介して行われるものである。上記プログラムは、メモリ等の記録媒体に格納し、そこからコンピュータにインストールすることもできるし、ネットワーク上のサーバからダウンロードするようにしてもよい。
The telop character string
<テロップ文字列領域抽出装置20の動作>
次に、本実施の形態におけるテロップ文字列領域抽出装置20の動作について、図8に示すフローチャートに沿って説明する。
<Operation of Telop Character String
Next, the operation of the telop character string
まず、画像取得部22は、取得するべき画像を示す画像IDを、入力情報として入出力部27から受信する。そして、画像取得部22は、データ格納部21から当該画像IDに対応する画像を取得し、その画像を特徴量抽出部23に渡す(ステップ11)。なお、ここで取得した画像が動画像であった場合には、画像取得部22は、動画像から各フレームを抽出する処理を行い、抽出した各フレームを特徴量抽出部23に出力し、以下の処理が各フレーム(画像)毎に行われることになる。
First, the
特徴量抽出部23は、画像取得部22から渡された画像に対して第1の実施の形態で説明した色エッジペア情報を取得する特徴量抽出処理を実施し、特徴量抽出処理結果(色エッジペア情報)と画像IDとをテロップ文字列領域形状取得部24に渡す(ステップ12)。
The feature
続いて、テロップ文字列領域形状取得部24は、特徴量抽出部23から受け取った画像IDを用い、データ格納部21から当該画像IDに対応するテロップ文字列領域形状情報を取得し、テロップ文字列領域形状情報、及び特徴量抽出結果を密集度算出用情報取得部25に渡す(ステップ13)。
Subsequently, the telop character string region
テロップ文字列領域形状情報とは、抽出しようとしているテロップ文字列領域の形状を示す情報である。本実施の形態では、テロップ文字列領域として矩形(長方形)を用いることとしており、テロップ文字列領域形状情報は、抽出対象のテロップ文字列領域を包含(外接)する矩形が縦長であるか、横長であるかを示す情報である。テロップ文字列領域形状情報は、例えば、「縦」もしくは「横」を示す1ビットの情報である。 The telop character string region shape information is information indicating the shape of the telop character string region to be extracted. In the present embodiment, a rectangle (rectangle) is used as the telop character string region. In the telop character string region shape information, the rectangle that includes (circumscribes) the telop character string region to be extracted is either vertically long or horizontally long. It is information indicating whether or not. The telop character string region shape information is, for example, 1-bit information indicating “vertical” or “horizontal”.
続いて、密集度算出用情報取得部25は、テロップ文字列領域形状取得部24から受け取ったテロップ文字列領域形状情報を用いて、データ格納部21から当該テロップ文字列領域形状情報に対応する密集度算出領域形状情報を取得し、当該密集度算出領域形状情報と特徴量抽出結果とをテロップ文字列領域抽出部26に渡す(ステップ14)。密集度算出領域形状情報は、後述する密集度算出に用いるサブブロック(局所領域)の形状を示す情報であり、例えば、サブブロックの縦方向の画素数と横方向の画素数を有する情報である。そして、本実施の形態において、当該サブブロックは、テロップ文字列領域形状情報が「横」を示す情報である場合は、横に長い長方形であり、テロップ文字列領域形状情報が「縦」を示す情報である場合は、縦に長い長方形であることとしている。サブブロックが横に長い長方形である場合、その長方形は例えば縦1×横10の比率の長方形であり、例えば、縦10画素×横100画素の長方形である。このようなサブブロックを採用することにより、テロップ文字列が連続する方向の特徴量の連続性を優先的に考慮した密集度算出が可能となり、テロップ文字列領域の抽出精度を向上させることができる。
Subsequently, the congestion degree calculation
続いてテロップ文字列領域抽出部26は、テロップ文字列領域抽出処理を行う(ステップ15)。ここでは、テロップ文字列領域抽出部26は、特徴量抽出結果(各画素の値が色エッジ値である画像)の各画素に対して、密集度算出領域形状情報に対応するサブブロックを適用し、サブブロック内に含まれる各画素の特徴量(色エッジ値)の和を算出する。この和を、各画素に対する密集度と呼ぶ。つまり、ある画素に注目した場合、その注目画素を中心とするサブブロックに含まれる各画素の特徴量の和が、その注目画素における密集度になる。
Subsequently, the telop character string
この密集度を特徴量抽出結果の全画素について求める。なお、全画素について密集度を求める代わりに、予め定めた間隔の画素毎に求めることとしてもよい。また、テロップ文字列が存在しないことがわかっている部分を除く予め定めた位置の画素についてだけ密集度を求めることとしてもよい。 This density is obtained for all pixels of the feature amount extraction result. In addition, it is good also as calculating | requiring for every pixel of the predetermined space | interval instead of calculating | requiring a density about all the pixels. Alternatively, the density may be obtained only for a pixel at a predetermined position excluding a portion where it is known that a telop character string does not exist.
そして、テロップ文字列領域抽出部26は更に、密集度算出結果に対してクラスタリング処理を実施し、密集度がある閾値より高い画素が一定以上の面積に集合している領域を検出する。そして、クラスタ(密集度がある閾値より高い画素のまとまり)を形成する画素数が予め定めた閾値以上の場合に、そのクラスタをテロップ文字列領域であると判断する。
Then, the telop character string
続いて、テロップ文字列領域抽出部26は、テロップ文字列領域であると判断された領域に対してその外接矩形を求める等の整形処理を実施し、整形処理後のテロップ文字列領域をテロップ文字列領域抽出結果とする。テロップ文字列領域抽出結果には、整形後の領域の輪郭を示す情報、例えば、長方形(矩形)であれば4つの頂点の座標値を含む。
Subsequently, the telop character string
このテロップ文字列領域抽出結果をそのまま出力することとしてもよいが、本実施の形態では、テロップ文字列領域をより精密に求めるために、多値傾斜重みによる領域終端の精密抽出処理(以下、精密抽出処理と呼ぶ)を行うこととしている(ステップ16)。この精密抽出処理を図9のフローチャートに沿って説明する。 Although this telop character string region extraction result may be output as it is, in this embodiment, in order to obtain the telop character string region more precisely, the region end precision extraction processing (hereinafter referred to as “precision”) is performed using multi-value gradient weights. (Referred to as extraction processing) (step 16). This precise extraction process will be described with reference to the flowchart of FIG.
また、以下では、テロップ文字列領域形状情報が「横」を示す情報である場合を例にとって説明を行う。更に、図8のステップ15で求められたテロップ文字列領域の左上の頂点の座標値が(Xl、Yu)、右下の頂点の座標値が(Xr、Yd)であるものとする。なお、この時点で、テロップ文字列領域抽出結果、特徴量抽出結果、テロップ文字列領域形状情報等はメモリ等の記憶装置に保持されており、以下の処理では当該記憶装置から必要なデータが適宜読み出されて処理が行われる。
In the following, a case where the telop character string region shape information is information indicating “horizontal” will be described as an example. Further, it is assumed that the coordinate value of the upper left vertex of the telop character string area obtained in
精密抽出処理において、まず、密集度算出用情報取得部25は、テロップ文字列領域形状情報に対応する重み係数分布情報をデータ格納部21から取得する(ステップ61)。
In the precise extraction process, first, the density calculation
本実施の形態では、テロップ文字列領域形状情報が「横」を示す情報である場合、図8のステップ15で抽出されたテロップ文字列領域(横長の長方形)の左端部分と右端部分に対して、領域終端の精密抽出処理を行い、テロップ文字列領域形状情報が「縦」を示す情報である場合は、上端部分と下端部分に対して、領域終端の精密抽出処理を行うこととしている。従って、データ格納部21には、図7(b)に示すように、テロップ文字列領域形状情報「横」に対して、左端部分に対応する重み係数分布情報と右端部分に対応する重み係数分布情報が格納され、テロップ文字列領域形状情報「縦」に対して、上端部分に対応する重み係数分布情報と下端部分に対応する重み係数分布情報が格納されている。
In the present embodiment, when the telop character string region shape information is information indicating “horizontal”, the left and right end portions of the telop character string region (horizontal rectangle) extracted in
本例では、テロップ文字列領域形状情報は「横」であるから、ステップ61において、密集度算出用情報取得部25は、左端部分に対応する重み係数分布情報と右端部分に対応する重み係数分布情報をデータ格納部21から取得する。
In this example, since the telop character string region shape information is “horizontal”, in step 61, the density calculation
テロップ文字列領域形状情報が「横」の場合、後述する精密抽出処理用領域として、テロップ文字列領域の縦方向と同じ画素数を縦方向の画素数として持ち、横方向の画素数として重み係数分布情報により指定される画素数を持つ領域を用いる。つまり、テロップ文字列領域形状情報が「横」の場合における重み係数分布情報は、この精密抽出処理用領域の横方向の長さ(画素数、wとする)と、横方向における重みの分布の情報を含む。例えば、重み係数分布情報は、精密抽出処理用領域の横方向の長さ(画素数)が5画素であり、左から数えて最初の画素位置(画素1)の重み係数が5、2番目の重み係数が4、3番目の重み係数が3、4番目の重み係数が2、5番目の重み係数が1、等の情報を含む。 When the telop character string area shape information is “horizontal”, the same number of pixels as the vertical direction of the telop character string area is used as the vertical extraction pixel area, and the weighting factor is used as the horizontal pixel number. An area having the number of pixels specified by the distribution information is used. In other words, when the telop character string area shape information is “horizontal”, the weight coefficient distribution information includes the horizontal length (number of pixels, w) of the precision extraction processing area and the weight distribution in the horizontal direction. Contains information. For example, in the weighting factor distribution information, the length (number of pixels) in the horizontal direction of the precise extraction processing region is 5 pixels, and the weighting factor of the first pixel position (pixel 1) counted from the left is 5, It includes information such as a weighting factor of 4, a third weighting factor of 3, a fourth weighting factor of 2, a fifth weighting factor of 1, and the like.
以下、この重み係数分布情報の例に基づき、左端部分の領域終端精密抽出処理について説明する。なお、右端部分の領域終端精密抽出処理についても行われるが、左端部分の領域終端精密抽出処理と同様(方向が反対になるだけ)であるので、以下では左端部分の領域終端精密抽出処理のみを説明するものである。
図9のステップ61において密集度算出用情報取得部25が取得した左端部分に対応する重み係数分布情報はテロップ文字列領域抽出部26に渡される。
Hereinafter, based on the example of the weighting factor distribution information, the region end precise extraction processing of the left end portion will be described. It should be noted that the area end precise extraction process at the right end part is also performed, but is the same as the area end precise extraction process at the left end part (only the direction is reversed). Explain.
The weight coefficient distribution information corresponding to the left end portion acquired by the density calculation
テロップ文字列領域抽出部26は、当該重み係数分布情報を用いて、テロップ文字列領域の縦方向と同じ画素数を縦方向の画素数として持ち、重み係数分布情報で指定される画素数と同じ画素数を横方向の画素数として持つ精密抽出処理用領域を設け、重み係数分布情報を用いて、精密抽出処理用領域における重み係数分布を、左側の重みが重くなるように設定する(ステップ62)。なお、右端の精密抽出を行う場合には精密抽出処理用領域における重み係数分布を、右側の重みが重くなるように設定する。つまり、テロップ文字列領域中心側に比べてテロップ文字列領域終端側の重みが大きくなるように重み付けをする。
The telop character string
図10は、本例における精密抽出処理を説明するための図であり、図10の上段の602は、精密抽出処理用領域における重み係数分布の例を示している。また、図10の603は、本例における横方向の長さが5の精密抽出処理用領域(精密抽出処理においては、この領域を横方向に移動させながら重み付き密集度を求めることになる)を示している。また、601として、色エッジペアを構成する色エッジ点の集合が示されている。 FIG. 10 is a diagram for explaining the precise extraction process in this example, and 602 in the upper part of FIG. 10 shows an example of the weight coefficient distribution in the precise extraction process region. Further, reference numeral 603 in FIG. 10 denotes a precision extraction processing area having a horizontal length of 5 in this example (in the precision extraction process, the weighted density is obtained while moving this area in the horizontal direction). Is shown. Reference numeral 601 denotes a set of color edge points constituting the color edge pair.
テロップ文字列領域の抽出に使用したサブブロックの横の画素数をbとした場合に、テロップ文字列領域抽出部26は、精密抽出処理用領域の左上端の座標値を、例えば(Xl−b/2、Yu)として、処理対象の特徴量画像における各画素の特徴量値(色エッジ値)と、精密抽出処理用領域に対応する画素位置にある重み値との積を精密抽出処理用領域内にある全ての画素に対して算出し、それらの和を算出する(ステップ63)。この和を重み付き密集度と呼ぶ。
When the number of horizontal pixels of the sub-block used for the extraction of the telop character string region is b, the telop character string
テロップ文字列領域抽出部26は、精密抽出処理用領域の左上端の座標値を(Xl−b/2,Yu)〜(Xl+b/2、Yu)まで1画素分の幅ずつ移動させながら、重み付き密集度を順次算出する(ステップ63)。なお、上記の例では開始点を(Xl−b/2、Yu)とし、終了点を(Xl+b/2、Yu)としているが、この幅をもっと広くとってよいことはいうまでもない。例えば、(Xl−b、Yu)から(Xl+b、Yu)まで重み付き密集度を順次算出してもよい。
The telop character string
そして、テロップ文字列領域抽出部26は、この重み付き密集度の値が予め設定した閾値を越える(又は閾値以上となる)ときの精密抽出処理用領域の左上端の座標値を(X0、Yu)とし、このときのテロップ文字列領域の左側の座標値をXlからX0に変更する(ステップ64)。つまり、テロップ文字列領域の左端を、このときの精密抽出処理用領域の左端の位置とする。図10の下段には、精密抽出処理用領域を横にずらしながら算出した重み付き密集度がグラフの形で表示されており、605の位置で重み付き密集度が閾値を超えたことが示されている。
Then, the telop character string
テロップ文字列領域抽出部26は、図8のステップ15で得られた全てのテロップ文字列領域に対して、上下もしくは左右の端の精密抽出を実施後のテロップ文字列領域情報と画像IDとを入出力部27に渡し、入出力部27がこれらの情報を出力する(図8のステップ17)。
The telop character string
なお、左右端、上下端の精密抽出を行うことのほか、例えば、左下隅の端を精密に検出する場合には、精密抽出処理用領域において左下の重みを大きくし、左下から離れるに従って重みを小さくした重み分布を用いることにより、左下隅の特徴量の変化を感度良くとらえ、左下隅の端を精度良く検出することも可能である。 In addition to performing precise extraction of the left and right edges and upper and lower edges, for example, when precisely detecting the lower left corner edge, the lower left weight is increased in the precision extraction processing area, and the weight is increased as the distance from the lower left is increased. By using a reduced weight distribution, it is possible to detect the change in the feature quantity at the lower left corner with high sensitivity and to detect the end of the lower left corner with high accuracy.
なお、上述した例では、テロップ文字列領域形状情報が、予めデータ格納部21に格納されている場合の処理例を示しているが、テロップ文字列領域形状を抽出する処理を用いてテロップ文字列領域形状情報を取得してもよい。例えば、予めいくつかの方向(例えば、縦方向及び横方向)を定めておき、それぞれの方向に応じた形状の局所領域を用いてテロップ文字列領域を抽出した後、どの方向に応じた形状の局所領域を用いて抽出した結果が最も良い結果かを判定し、その方向をテロップ文字列領域形状情報として出力する処理を行ってテロップ文字列領域形状情報を取得してもよい。
In the above-described example, the telop character string area shape information is shown as an example of processing in the case where the
(本発明の実施の形態の効果について)
従来技術ではエッジを抽出するために輝度を用いていたため、背景と線図形の輝度が類似する場合に輝度エッジペアの抽出に失敗することがあったが、本発明の実施の形態では、輝度が類似している場合でも色情報を積極的に用いて色の違いを検出することで、色情報が不連続に変化するような特徴である色エッジを抽出し、ペア性判定条件を適用して色エッジペアの抽出が可能となっている。
(Regarding the effect of the embodiment of the present invention)
In the prior art, the luminance is used to extract the edge, and thus the extraction of the luminance edge pair may fail when the luminance of the background and the line figure is similar. In the embodiment of the present invention, the luminance is similar. Color information is actively used to detect color differences, color edges that are characteristic of color information discontinuously changing are extracted, and color conditions are applied by applying pairing criteria. Edge pairs can be extracted.
つまり、2次元以上(多くの場合3次元)の高次元情報である色情報を積極的に用いることにより、輝度が類似する場合でも線図形と背景とを分離することができる。 That is, by actively using color information that is two-dimensional or higher (in many cases, three-dimensional) high-dimensional information, it is possible to separate the line figure and the background even when the luminance is similar.
また、従来技術において輝度エッジペアを作成する場合には、輝度の勾配方向を用いて上り勾配のエッジと下り勾配のエッジとをペアとするように処理していたが、高次元情報である色情報においては、勾配の上り下りの定義が困難であるため、従来の方法ではペアの判定ができない。そこで、本実施の形態では、色エッジペアを作成するためのペア性判定条件を新しく導入し、これにより、色エッジに対してもペアを作成することが可能となる。 In addition, when creating a luminance edge pair in the prior art, processing was performed so as to pair an ascending edge and a descending edge using a luminance gradient direction, but color information that is high-dimensional information is used. Since it is difficult to define the gradient up and down, a conventional method cannot determine a pair. Therefore, in the present embodiment, a pairness determination condition for creating a color edge pair is newly introduced, whereby a pair can be created for a color edge.
以上のように、本実施の形態では、輝度ではなく色情報を用いることで、輝度が類似した背景の場合でもエッジペア(色エッジペア)を抽出でき、それにより線図形領域を抽出することが可能となり、背景領域から線図形領域を分離することが可能となる。 As described above, in this embodiment, by using color information instead of luminance, edge pairs (color edge pairs) can be extracted even in the case of backgrounds with similar luminance, and thereby it is possible to extract a line figure region. It is possible to separate the line figure area from the background area.
本発明は、上記の実施の形態に限定されることなく、特許請求の範囲内において、種々変更・応用が可能である。 The present invention is not limited to the above-described embodiments, and various modifications and applications are possible within the scope of the claims.
1 画像特徴抽出装置
11 画像格納部
12 画像取得部
13 色エッジ抽出部
14 色エッジペア抽出部
15 ペア性判定部
16 入出力部
20 テロップ文字列領域抽出装置
21 データ格納部
22 画像取得部
23 特徴量抽出部
24 テロップ文字列領域形状取得部
25 密集度算出用情報取得部
26 テロップ文字列領域抽出部
27 入出力部
DESCRIPTION OF
Claims (6)
画像格納手段から前記画像を取得する画像取得手段と、
前記画像から色エッジを絶対値として抽出する色エッジ抽出手段と、
前記色エッジ抽出手段により抽出された色エッジの中から色エッジペア候補集合を抽出し、線図形が局所的に類似する色を有するという性質に基づく色エッジペア抽出条件を満足する色エッジペア候補を、色エッジペアとして前記色エッジペア候補集合の中から抽出する色エッジペア抽出手段と、を備え、
前記色エッジペア抽出条件は、
色エッジペア候補を構成する第1の色エッジと第2の色エッジにおいて、前記第1の色エッジの周囲にある画素のうち、前記第2の色エッジに近い側にある画素の色と、前記第2の色エッジの周囲にある画素のうち、前記第1の色エッジに近い側にある画素の色とが類似していることという条件である
ことを特徴とする画像特徴抽出装置。 An image feature extraction device for extracting a color edge pair from an image including a line figure,
Image acquisition means for acquiring the image from the image storage means;
Color edge extracting means for extracting a color edge from the image as an absolute value ;
A color edge pair candidate set is extracted from the color edges extracted by the color edge extraction means, and color edge pair candidates satisfying the color edge pair extraction condition based on the property that the line figure has a locally similar color comprising a color edge pair extracting means for extracting from the color edge pair candidate set as the edge pair, and
The color edge pair extraction condition is:
In the first color edge and the second color edge constituting the color edge pair candidate, among the pixels around the first color edge, the color of the pixel closer to the second color edge; 2. An image feature extraction apparatus according to claim 1, wherein the image feature extraction device has a condition that among the pixels around the second color edge, the color of the pixel closer to the first color edge is similar .
画像格納手段から前記画像を取得する画像取得手段と、
前記画像から色エッジを抽出する色エッジ抽出手段と、
前記色エッジ抽出手段により抽出された色エッジの中から色エッジペア候補集合を抽出し、線図形が局所的に類似する色を有するという性質に基づく色エッジペア抽出条件を満足する色エッジペア候補を、色エッジペアとして前記色エッジペア候補集合の中から抽出する色エッジペア抽出手段と、を備え、
前記色エッジペア抽出条件は、
色エッジペア候補を構成する第1の色エッジと第2の色エッジにおいて、前記第1の色エッジの周囲にある画素のうち、前記第2の色エッジに近い側にある画素の色と、前記第2の色エッジの周囲にある画素のうち、前記第1の色エッジに近い側にある画素の色とが類似していることという条件、
前記第1の色エッジ近傍における色の変化ベクトルと、前記第2の色エッジ近傍における色の変化ベクトルとがほぼ逆方向となっていることという条件、及び
前記第1の色エッジと前記第2の色エッジの間にある複数の画素間の色の変化量が小さいことという条件
の3つの条件を含み、
前記色エッジペア抽出手段は、前記3つの条件のうちの少なくとも1つの条件を満足する色エッジペア候補を、色エッジペアとして前記色エッジペア候補集合の中から抽出する
ことを特徴とする画像特徴抽出装置。 An image feature extraction device for extracting a color edge pair from an image including a line figure,
Image acquisition means for acquiring the image from the image storage means;
Color edge extraction means for extracting a color edge from the image;
A color edge pair candidate set is extracted from the color edges extracted by the color edge extraction means, and color edge pair candidates satisfying the color edge pair extraction condition based on the property that the line figure has a locally similar color comprising a color edge pair extracting means for extracting from the color edge pair candidate set as the edge pair, and
The color edge pair extraction condition is:
In the first color edge and the second color edge constituting the color edge pair candidate, among the pixels around the first color edge, the color of the pixel closer to the second color edge; A condition that among the pixels around the second color edge, the color of the pixel on the side closer to the first color edge is similar,
A condition that a color change vector in the vicinity of the first color edge and a color change vector in the vicinity of the second color edge are substantially in opposite directions; and
A condition that the amount of change in color between a plurality of pixels between the first color edge and the second color edge is small.
Including the following three conditions:
The image feature extraction apparatus, wherein the color edge pair extraction unit extracts a color edge pair candidate satisfying at least one of the three conditions as a color edge pair from the color edge pair candidate set .
画像格納手段から前記画像を取得する画像取得ステップと、
前記画像から色エッジを絶対値として抽出する色エッジ抽出ステップと、
前記色エッジ抽出ステップにおいて抽出された色エッジの中から色エッジペア候補集合を抽出し、線図形が局所的に類似する色を有するという性質に基づく色エッジペア抽出条件を満足する色エッジペア候補を、色エッジペアとして前記色エッジペア候補集合の中から抽出する色エッジペア抽出ステップと、を備え、
前記色エッジペア抽出条件は、
色エッジペア候補を構成する第1の色エッジと第2の色エッジにおいて、前記第1の色エッジの周囲にある画素のうち、前記第2の色エッジに近い側にある画素の色と、前記第2の色エッジの周囲にある画素のうち、前記第1の色エッジに近い側にある画素の色とが類似していることという条件である
ことを特徴とする画像特徴抽出方法。 An image feature extraction method executed by an image feature extraction apparatus for extracting a color edge pair from an image including a line figure,
An image acquisition step of acquiring the image from an image storage means;
A color edge extraction step for extracting a color edge from the image as an absolute value ;
A color edge pair candidate set is extracted from the color edges extracted in the color edge extraction step, and color edge pair candidates satisfying a color edge pair extraction condition based on the property that the line figure has a locally similar color comprising a color edge pair extracting from the color edge pair candidate set as the edge pair, and
The color edge pair extraction condition is:
In the first color edge and the second color edge constituting the color edge pair candidate, among the pixels around the first color edge, the color of the pixel closer to the second color edge; An image feature extraction method characterized in that the condition is that the color of a pixel near the first color edge among pixels around the second color edge is similar .
画像格納手段から前記画像を取得する画像取得ステップと、
前記画像から色エッジを抽出する色エッジ抽出ステップと、
前記色エッジ抽出ステップにおいて抽出された色エッジの中から色エッジペア候補集合を抽出し、線図形が局所的に類似する色を有するという性質に基づく色エッジペア抽出条件を満足する色エッジペア候補を、色エッジペアとして前記色エッジペア候補集合の中から抽出する色エッジペア抽出ステップと、を備え、
前記色エッジペア抽出条件は、
色エッジペア候補を構成する第1の色エッジと第2の色エッジにおいて、前記第1の色エッジの周囲にある画素のうち、前記第2の色エッジに近い側にある画素の色と、前記第2の色エッジの周囲にある画素のうち、前記第1の色エッジに近い側にある画素の色とが類似していることという条件、
前記第1の色エッジ近傍における色の変化ベクトルと、前記第2の色エッジ近傍における色の変化ベクトルとがほぼ逆方向となっていることという条件、及び
前記第1の色エッジと前記第2の色エッジの間にある複数の画素間の色の変化量が小さいことという条件
の3つの条件を含み、
前記色エッジペア抽出ステップにおいて、前記画像特徴抽出装置は、前記3つの条件のうちの少なくとも1つの条件を満足する色エッジペア候補を、色エッジペアとして前記色エッジペア候補集合の中から抽出する
ことを特徴とする画像特徴抽出方法。 An image feature extraction method executed by an image feature extraction apparatus for extracting a color edge pair from an image including a line figure,
An image acquisition step of acquiring the image from an image storage means;
A color edge extraction step of extracting a color edge from the image;
A color edge pair candidate set is extracted from the color edges extracted in the color edge extraction step, and color edge pair candidates satisfying a color edge pair extraction condition based on the property that the line figure has a locally similar color comprising a color edge pair extracting from the color edge pair candidate set as the edge pair, and
The color edge pair extraction condition is:
In the first color edge and the second color edge constituting the color edge pair candidate, among the pixels around the first color edge, the color of the pixel closer to the second color edge; A condition that among the pixels around the second color edge, the color of the pixel on the side closer to the first color edge is similar,
A condition that a color change vector in the vicinity of the first color edge and a color change vector in the vicinity of the second color edge are substantially in opposite directions; and
A condition that the amount of change in color between a plurality of pixels between the first color edge and the second color edge is small.
Including the following three conditions:
In the color edge pair extraction step, the image feature extraction device extracts a color edge pair candidate satisfying at least one of the three conditions as a color edge pair from the color edge pair candidate set. Image feature extraction method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008141612A JP4870721B2 (en) | 2008-05-29 | 2008-05-29 | Image feature extraction apparatus, image feature extraction method, program, and recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008141612A JP4870721B2 (en) | 2008-05-29 | 2008-05-29 | Image feature extraction apparatus, image feature extraction method, program, and recording medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009289076A JP2009289076A (en) | 2009-12-10 |
JP4870721B2 true JP4870721B2 (en) | 2012-02-08 |
Family
ID=41458229
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008141612A Active JP4870721B2 (en) | 2008-05-29 | 2008-05-29 | Image feature extraction apparatus, image feature extraction method, program, and recording medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4870721B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009289075A (en) * | 2008-05-29 | 2009-12-10 | Nippon Telegr & Teleph Corp <Ntt> | Graphic area extracting apparatus, graphic area extracting method, program, and recording medium |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6864549B2 (en) * | 2017-05-09 | 2021-04-28 | 株式会社キーエンス | Image inspection equipment |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3470938B2 (en) * | 1997-05-20 | 2003-11-25 | 日本電信電話株式会社 | Method and apparatus for detecting telop character display frame |
-
2008
- 2008-05-29 JP JP2008141612A patent/JP4870721B2/en active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009289075A (en) * | 2008-05-29 | 2009-12-10 | Nippon Telegr & Teleph Corp <Ntt> | Graphic area extracting apparatus, graphic area extracting method, program, and recording medium |
Also Published As
Publication number | Publication date |
---|---|
JP2009289076A (en) | 2009-12-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Hu et al. | Deep level sets for salient object detection | |
JP3833153B2 (en) | Image processing method and apparatus | |
JP5742399B2 (en) | Image processing apparatus and program | |
JP5923713B2 (en) | Image processing apparatus, imaging apparatus, and image processing method | |
Roeder et al. | A computational image analysis glossary for biologists | |
CN104899586B (en) | Method and device is identified to the word content for including in image | |
EP2980755B1 (en) | Method for partitioning area, and inspection device | |
JP5765026B2 (en) | Image processing apparatus and program | |
CN107871321B (en) | Image segmentation method and device | |
CN110945537B (en) | Training device, recognition device, training method, recognition method, and program | |
Dey et al. | Script independent approach for multi-oriented text detection in scene image | |
KR101992044B1 (en) | Information processing apparatus, method, and computer program | |
RU2581786C1 (en) | Determination of image transformations to increase quality of optical character recognition | |
CN103548056A (en) | Image-processing device, image-capturing device, and image-processing method | |
JP4207883B2 (en) | Gaze guidance degree calculation system | |
KR101478709B1 (en) | Method and apparatus for extracting and generating feature point and feature descriptor rgb-d image | |
Oliveira et al. | A novel Genetic Algorithms and SURF-Based approach for image retargeting | |
CN113688846B (en) | Object size recognition method, readable storage medium, and object size recognition system | |
JP6744126B2 (en) | Character recognition device, character recognition program, character recognition method | |
JP4870721B2 (en) | Image feature extraction apparatus, image feature extraction method, program, and recording medium | |
JP5731027B2 (en) | Direction determining apparatus, direction determining method, and computer-readable recording medium | |
JP2008134791A (en) | Image processor and image processing program | |
JP2017102500A (en) | Area extraction device, area extraction program, and area extraction method | |
JP4986934B2 (en) | Graphic region extraction apparatus, graphic region extraction method, program, and recording medium | |
JP2011150627A (en) | Method, device, and program for detecting passage |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20091120 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110613 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110726 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110926 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20111115 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20111117 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4870721 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20141125 Year of fee payment: 3 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |