JP4870721B2 - Image feature extraction apparatus, image feature extraction method, program, and recording medium - Google Patents

Image feature extraction apparatus, image feature extraction method, program, and recording medium Download PDF

Info

Publication number
JP4870721B2
JP4870721B2 JP2008141612A JP2008141612A JP4870721B2 JP 4870721 B2 JP4870721 B2 JP 4870721B2 JP 2008141612 A JP2008141612 A JP 2008141612A JP 2008141612 A JP2008141612 A JP 2008141612A JP 4870721 B2 JP4870721 B2 JP 4870721B2
Authority
JP
Japan
Prior art keywords
color
color edge
image
edge
extraction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008141612A
Other languages
Japanese (ja)
Other versions
JP2009289076A (en
Inventor
慈郎 長尾
聡 嶌田
行信 谷口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2008141612A priority Critical patent/JP4870721B2/en
Publication of JP2009289076A publication Critical patent/JP2009289076A/en
Application granted granted Critical
Publication of JP4870721B2 publication Critical patent/JP4870721B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像からその特徴を抽出するための技術に関し、特に、画像から色エッジペアを抽出するための技術に関するものである。   The present invention relates to a technique for extracting features from an image, and more particularly to a technique for extracting a color edge pair from an image.

画像から地図や設計図、文字列等の細い線によって描かれた線図形を検出し、画像の背景と分離するために用いることができる技術として例えば特許文献1に記載された技術がある。   As a technique that can be used to detect a line figure drawn by thin lines such as a map, a design drawing, and a character string from an image and separate it from the background of the image, there is a technique described in Patent Document 1, for example.

この技術では、輝度が不連続に変化するような特徴であるエッジ(以下、"輝度エッジ"と呼ぶ)を画像から特徴量として抽出し、上り勾配エッジと下り勾配エッジとをペア(以下、"輝度エッジペア"と呼ぶ)として扱い、線図形の抽出に用いている。
特開平11−205679号公報
In this technique, an edge that is a feature whose luminance changes discontinuously (hereinafter referred to as “luminance edge”) is extracted from the image as a feature quantity, and an ascending edge and a descending gradient edge are paired (hereinafter referred to as “ It is used as a line figure extraction.
JP-A-11-205679

しかしながら、上記従来の技術では、画像から特徴量として輝度エッジを抽出しているため、その背景と色は異なるが輝度が類似している線図形においては輝度エッジの強度が小さくなる。そのため、このような場合は、輝度エッジペアの作成が困難となり、十分な性能を発揮することができなかった。   However, in the above conventional technique, since a luminance edge is extracted as a feature amount from an image, the intensity of the luminance edge is small in a line figure that is different in color from the background but has similar luminance. Therefore, in such a case, it becomes difficult to create a luminance edge pair, and sufficient performance cannot be exhibited.

本発明は上記の点に鑑みてなされたものであり、線図形とその背景との間で輝度が類似している場合でも、エッジペア(色エッジペア)を適切に抽出することを可能とする技術を提供することを目的とする。   The present invention has been made in view of the above points, and provides a technique that makes it possible to appropriately extract an edge pair (color edge pair) even when the luminance is similar between a line figure and its background. The purpose is to provide.

上記の課題を解決するために、本発明は、線図形を含む画像から色エッジペアを抽出するための画像特徴抽出装置であって、画像格納手段から前記画像を取得する画像取得手段と、前記画像から色エッジを絶対値として抽出する色エッジ抽出手段と、前記色エッジ抽出手段により抽出された色エッジの中から色エッジペア候補集合を抽出し、線図形が局所的に類似する色を有するという性質に基づく色エッジペア抽出条件を満足する色エッジペア候補を、色エッジペアとして前記色エッジペア候補集合の中から抽出する色エッジペア抽出手段とを備え、前記色エッジペア抽出条件は、色エッジペア候補を構成する第1の色エッジと第2の色エッジにおいて、前記第1の色エッジの周囲にある画素のうち、前記第2の色エッジに近い側にある画素の色と、前記第2の色エッジの周囲にある画素のうち、前記第1の色エッジに近い側にある画素の色とが類似していることという条件であることを特徴とする画像特徴抽出装置として構成される。
また、本発明は、線図形を含む画像から色エッジペアを抽出するための画像特徴抽出装置であって、画像格納手段から前記画像を取得する画像取得手段と、前記画像から色エッジを抽出する色エッジ抽出手段と、前記色エッジ抽出手段により抽出された色エッジの中から色エッジペア候補集合を抽出し、線図形が局所的に類似する色を有するという性質に基づく色エッジペア抽出条件を満足する色エッジペア候補を、色エッジペアとして前記色エッジペア候補集合の中から抽出する色エッジペア抽出手段と、を備え、前記色エッジペア抽出条件は、色エッジペア候補を構成する第1の色エッジと第2の色エッジにおいて、前記第1の色エッジの周囲にある画素のうち、前記第2の色エッジに近い側にある画素の色と、前記第2の色エッジの周囲にある画素のうち、前記第1の色エッジに近い側にある画素の色とが類似していることという条件、前記第1の色エッジ近傍における色の変化ベクトルと、前記第2の色エッジ近傍における色の変化ベクトルとがほぼ逆方向となっていることという条件、及び前記第1の色エッジと前記第2の色エッジの間にある複数の画素間の色の変化量が小さいことという条件の3つの条件を含み、前記色エッジペア抽出手段は、前記3つの条件のうちの少なくとも1つの条件を満足する色エッジペア候補を、色エッジペアとして前記色エッジペア候補集合の中から抽出することを特徴とする画像特徴抽出装置として構成してもよい。
In order to solve the above-described problems, the present invention provides an image feature extraction device for extracting a color edge pair from an image including a line figure, the image acquisition unit acquiring the image from an image storage unit, and the image Color edge extracting means for extracting color edges as absolute values from the color edge pair color candidate extraction set from the color edges extracted by the color edge extracting means, and the line figure has a locally similar color Color edge pair extraction means for extracting a color edge pair candidate satisfying a color edge pair extraction condition based on the color edge pair from the color edge pair candidate set as a color edge pair , and the color edge pair extraction condition comprises a first color edge pair candidate. In one color edge and the second color edge, among the pixels around the first color edge, the pixel is on the side closer to the second color edge And color-containing, among pixels around the second color edge, the image first is the color of the pixel on the side close to the color edges characterized in that it is a condition that it is similar Configured as a feature extraction device.
The present invention also provides an image feature extraction device for extracting a color edge pair from an image including a line figure, an image acquisition unit for acquiring the image from an image storage unit, and a color for extracting a color edge from the image A color that satisfies a color edge pair extraction condition based on a property of extracting a color edge pair candidate set from the color edges extracted by the edge extraction means and the color edge extraction means, and the line figure has a locally similar color Color edge pair extraction means for extracting an edge pair candidate as a color edge pair from the color edge pair candidate set, wherein the color edge pair extraction condition includes a first color edge and a second color edge constituting the color edge pair candidate And the color of the pixel on the side closer to the second color edge among the pixels around the first color edge and the circumference of the second color edge. Among the pixels in the pixel, the condition that the color of the pixel closer to the first color edge is similar, the color change vector in the vicinity of the first color edge, and the second color edge The condition that the color change vector in the vicinity is substantially opposite, and the amount of color change between the plurality of pixels between the first color edge and the second color edge is small. The color edge pair extracting unit extracts a color edge pair candidate that satisfies at least one of the three conditions as a color edge pair from the color edge pair candidate set. You may comprise as an image feature extraction apparatus.

また、本発明は、上記画像特徴抽出装置の処理動作に対応した方法、プログラム、及び当該プログラムを記録したコンピュータ読み取り可能な記録媒体として構成してもよい。   The present invention may also be configured as a method, a program corresponding to the processing operation of the image feature extraction apparatus, and a computer-readable recording medium on which the program is recorded.

本発明によれば、線図形とその背景との間で輝度が類似している場合でも、色エッジペアを適切に抽出することが可能になる。これにより、画像中の線図形領域を高精度に抽出することが可能となる。   According to the present invention, it is possible to appropriately extract a color edge pair even when the luminance is similar between the line figure and its background. This makes it possible to extract a line figure region in the image with high accuracy.

以下、図面を参照して本発明の実施の形態を説明する。なお、実施の形態において、色情報は高次元の情報であり、例えば3次元の情報である。3次元の情報で色を表現するモデルとしては、例えばRGB、HSV、HSI、YUV、LUV、LAB、XYZ等があるが、本発明はどのような色表現方法に対しても適用できるものである。
(第1の実施の形態)
<装置構成>
図1に、本実施の形態における画像特徴抽出装置1の機能構成図を示す。図1に示すように、本実施の形態における画像特徴抽出装置1は、画像格納部11、画像取得部12、色エッジ抽出部13、色エッジペア抽出部14、ペア性判定部15、及び入出力部16を有する。
Embodiments of the present invention will be described below with reference to the drawings. In the embodiment, the color information is high-dimensional information, for example, three-dimensional information. For example, RGB, HSV, HSI, YUV, LUV, LAB, XYZ, and the like are models for expressing colors with three-dimensional information, but the present invention can be applied to any color expression method. .
(First embodiment)
<Device configuration>
FIG. 1 shows a functional configuration diagram of an image feature extraction apparatus 1 according to the present embodiment. As shown in FIG. 1, the image feature extraction apparatus 1 according to the present embodiment includes an image storage unit 11, an image acquisition unit 12, a color edge extraction unit 13, a color edge pair extraction unit 14, a pairness determination unit 15, and an input / output Part 16.

画像格納部11は、本実施の形態における処理対象となる画像データ(単に画像と呼ぶことにする)を格納するとともに、画像取得部12から画像要求を受信し、当該画像要求に係る画像を画像取得部12に返す機能部である。   The image storage unit 11 stores image data to be processed in the present embodiment (simply referred to as an image), receives an image request from the image acquisition unit 12, and displays an image related to the image request as an image. This is a functional unit returned to the acquisition unit 12.

画像格納部11は、画像特徴抽出装置1として使用されるコンピュータにおける磁気ディスク装置、光ディスク装置、メモリ等で構成される。また、画像格納部11を画像特徴抽出装置1内部に備えることに代えて、画像特徴抽出装置1とは別の装置としてネットワーク上に配置することとしてもよい。例えば、画像格納部11として、画像特徴抽出装置1とネットワークを介して接続されるサーバ装置を用いることができる。   The image storage unit 11 includes a magnetic disk device, an optical disk device, a memory, and the like in a computer used as the image feature extraction device 1. Further, instead of providing the image storage unit 11 in the image feature extraction device 1, it may be arranged on the network as a device different from the image feature extraction device 1. For example, as the image storage unit 11, a server device connected to the image feature extraction device 1 via a network can be used.

なお、本実施の形態において、"画像"は映像(動画像)でもよいし、静止画像でもよい。また、画像の内容も特に限定されるものでなく、その内容としては例えば、自然画像、人工画像、顔画像、文書を画像化したデータ等がある。また、画像格納部11に格納される画像には、事前に前処理等が施されていてもよい。   In the present embodiment, the “image” may be a video (moving image) or a still image. Also, the content of the image is not particularly limited. Examples of the content include a natural image, an artificial image, a face image, and data obtained by imaging a document. In addition, the image stored in the image storage unit 11 may be pre-processed in advance.

図2に、画像データの画像格納部11への格納方法の例を示す。図2に示すように、この例では、画素(画素の位置)毎に色の成分値が連続的に格納されている。   FIG. 2 shows an example of a method for storing image data in the image storage unit 11. As shown in FIG. 2, in this example, color component values are stored continuously for each pixel (pixel position).

画像取得部12は、画像格納部11に対して画像要求信号を送り、画像格納部11から画像を取得し、取得した画像を色エッジ抽出部13に出力する機能部である。色エッジ抽出部13は、画像取得部12から受け取った画像に対して色エッジ抽出処理を実施し、その結果を色エッジペア抽出部14に渡す機能部である。色エッジペア抽出部14は、色エッジ抽出処理結果から色エッジペア候補を特定するとともに、ペア性判定部15を用いて、色エッジペア候補から色エッジペアを抽出し、それを入出力部16に渡す機能部である。   The image acquisition unit 12 is a functional unit that sends an image request signal to the image storage unit 11, acquires an image from the image storage unit 11, and outputs the acquired image to the color edge extraction unit 13. The color edge extraction unit 13 is a functional unit that performs color edge extraction processing on the image received from the image acquisition unit 12 and passes the result to the color edge pair extraction unit 14. The color edge pair extraction unit 14 specifies a color edge pair candidate from the color edge extraction processing result, and uses the pairness determination unit 15 to extract a color edge pair from the color edge pair candidate and pass it to the input / output unit 16 It is.

なお、画像特徴抽出装置1は、CPUと、メモリやハードディスク等の記憶装置とを含む一般的なコンピュータに、本実施の形態で説明する処理に対応するプログラムを実行させることにより実現されるものであり、上述した各機能部は、コンピュータに当該プログラムが実行されて実現される機能部である。従って、例えば、各機能部間での情報のやりとりは、実際にはメモリ等の記憶装置を介して行われるものである。上記プログラムは、メモリ等の記録媒体に格納し、そこからコンピュータにインストールすることもできるし、ネットワーク上のサーバからダウンロードするようにしてもよい。   The image feature extraction apparatus 1 is realized by causing a general computer including a CPU and a storage device such as a memory or a hard disk to execute a program corresponding to the processing described in the present embodiment. Each functional unit described above is a functional unit realized by executing the program on a computer. Therefore, for example, the exchange of information between the functional units is actually performed via a storage device such as a memory. The above program may be stored in a recording medium such as a memory and then installed in a computer from there, or may be downloaded from a server on a network.

<画像特徴抽出装置1の動作>
以下、図3に示すフローチャートに沿って、画像特徴抽出装置1の動作について説明する。
<Operation of Image Feature Extraction Apparatus 1>
Hereinafter, the operation of the image feature extraction apparatus 1 will be described with reference to the flowchart shown in FIG.

まず、画像取得部12が、例えば入出力部16から入力される情報に基づき、処理対象となる画像を要求する画像要求信号を画像格納部11に対して送ることにより、画像格納部11から画像を取得し、当該画像を色エッジ抽出部13に渡す(ステップ1)。   First, the image acquisition unit 12 sends an image request signal for requesting an image to be processed to the image storage unit 11 based on information input from the input / output unit 16, for example. And the image is passed to the color edge extraction unit 13 (step 1).

なお、ここで取得した画像が動画像であった場合には、画像取得部12は、動画像から各フレームを抽出する処理を行い、抽出した各フレームを色エッジ抽出部13に出力し、以下の処理が各フレーム(画像)毎に行われることになる。   In addition, when the image acquired here is a moving image, the image acquisition unit 12 performs a process of extracting each frame from the moving image, and outputs each extracted frame to the color edge extraction unit 13. This process is performed for each frame (image).

続いて、色エッジ抽出部13は、画像取得部12から受け取った画像から色エッジを抽出し、色エッジ情報として色エッジペア抽出部14に渡す処理を行う(ステップ2)。   Subsequently, the color edge extraction unit 13 performs a process of extracting a color edge from the image received from the image acquisition unit 12 and passing it to the color edge pair extraction unit 14 as color edge information (step 2).

色エッジの抽出技術としては、色情報が不連続に変化する部分を特徴として抽出することが可能な技術を利用する。このような技術としては、従来から提案されている多くのエッジ抽出技術を利用することができる。例えば、単純差分及びその絶対値を用いるエッジ抽出技術、DoG(微分ガウシアン)演算子を用いるエッジ抽出技術、ソーベルやプレウィット等のエッジ検出演算子を用いるエッジ抽出技術、ラプラシアン演算子を用いるエッジ抽出技術、MAX-MIN演算子を用いるエッジ抽出技術、等のうちのいずれも利用できる。もちろん、ここに挙げていない技術を用いてもよい。   As a color edge extraction technique, a technique that can extract a portion where color information changes discontinuously as a feature is used. As such a technique, many conventionally proposed edge extraction techniques can be used. For example, edge extraction technology using simple difference and its absolute value, edge extraction technology using DoG (differential Gaussian) operator, edge extraction technology using edge detection operators such as Sobel and Prewitt, edge extraction using Laplacian operator Any of a technology, an edge extraction technology using a MAX-MIN operator, and the like can be used. Of course, techniques not listed here may be used.

一例として、ソーベル演算子(3×3)と絶対値を組み合わせた方法を採用する場合において、縦縞エッジの抽出を行う場合の色エッジ抽出部13の処理例を説明する。   As an example, a processing example of the color edge extraction unit 13 in the case where vertical stripe edge extraction is performed when a method combining a Sobel operator (3 × 3) and an absolute value is employed will be described.

ある注目画素(成分値e)の近傍の画素(成分値a〜i)がサブブロックにおいて図4(A)に示すように配置されている場合に、色エッジ抽出部13は、このサブブロックに対して図4(B)に示す3×3ソーベル演算子を適用して絶対値をとることにより、|c−a|+2|f−d|+|i−g|(|・|は・の絶対値)を計算し、これを注目画素の位置の特定の成分のエッジの値とする。なお、ここでの成分とは例えば色情報のR成分等である。   When pixels (component values a to i) in the vicinity of a certain pixel of interest (component value e) are arranged as shown in FIG. 4A in the sub-block, the color edge extracting unit 13 includes the sub-block. On the other hand, by applying the 3 × 3 Sobel operator shown in FIG. 4B and taking the absolute value, | c−a | +2 | f−d | + | i−g | (| · | (Absolute value) is calculated, and this is used as the value of the edge of the specific component at the position of the target pixel. The component here is, for example, an R component of color information.

色エッジ抽出部13は、画像の各画素の各色成分毎にエッジ抽出技術を適用して、画素毎に、色成分毎の色エッジ値を算出する。また、色エッジ抽出部13は、画素毎に、各色成分の色エッジ値の和、もしくは各色成分の色エッジ値からなるベクトルの長さを求め、それを出力すべき色エッジ値とする。なお、各色成分の色エッジ値を1つの色エッジ値にする処理は上記のものに限られるわけではない。   The color edge extraction unit 13 applies an edge extraction technique for each color component of each pixel of the image, and calculates a color edge value for each color component for each pixel. Further, the color edge extraction unit 13 obtains, for each pixel, the sum of the color edge values of the respective color components or the length of a vector composed of the color edge values of the respective color components, and uses this as the color edge value to be output. Note that the process of setting the color edge value of each color component to one color edge value is not limited to the above.

そして、色エッジ抽出部13は、画素の位置と色エッジ値との組み合わせを色エッジ情報として色エッジペア抽出部14に渡す。   Then, the color edge extraction unit 13 passes the combination of the pixel position and the color edge value to the color edge pair extraction unit 14 as color edge information.

色エッジペア抽出部14は、色エッジ抽出部13から受け取った色エッジ情報から色エッジペアの候補となる2つの色エッジの組である色エッジペア候補の集合を生成し、メモリ等の記憶装置に保持しておく(ステップ3)。なお、元の画像の情報(画素位置と色成分の情報)はメモリ等に保持されており、処理の中で必要であれば適宜取得できるものとする。   The color edge pair extraction unit 14 generates a set of color edge pair candidates that are sets of two color edges that are candidates for color edge pairs from the color edge information received from the color edge extraction unit 13, and stores the set in a storage device such as a memory. (Step 3). It should be noted that the original image information (pixel position and color component information) is held in a memory or the like, and can be appropriately acquired if necessary during processing.

色エッジペア候補を生成する処理において、色エッジペア抽出部14は、例えば、2つの色エッジのエッジ値が閾値以上かつ、それらが予め定められた位置関係にある、かつ、2つの色エッジ間の距離が予め定めた値以下のものを色エッジペア候補として抽出する処理を行う。上記予め定められた位置関係とは、例えば、2つの色エッジが同一Y座標位置上で左右に並んでいる、あるいは、同一X座標位置上で上下に並んでいる等である。   In the process of generating the color edge pair candidate, the color edge pair extraction unit 14, for example, determines that the edge values of the two color edges are equal to or greater than a threshold value and are in a predetermined positional relationship, and the distance between the two color edges Is extracted as a color edge pair candidate. The predetermined positional relationship is, for example, that two color edges are arranged side by side on the same Y coordinate position, or are arranged vertically on the same X coordinate position.

次に、色エッジペア抽出部14は、ペア性判定部15を用いたペア性判定処理に移る。   Next, the color edge pair extraction unit 14 proceeds to a pairing determination process using the pairing determination unit 15.

ここではまず、色エッジペア抽出部14は、ステップ3において生成した色エッジペア候補の中にペア性が未判定のものがあるかどうかをチェックする(図3のステップ4)。未判定のものがない場合(ステップ4のNo)、全ての色エッジペア候補に対するペア性判定が済んだことになるので処理を終了する(ステップ8)。   Here, first, the color edge pair extraction unit 14 checks whether or not there is an unjudged pair of color edge pairs generated in step 3 (step 4 in FIG. 3). If there is no undetermined one (No in step 4), the pairness determination for all color edge pair candidates has been completed, and the process is terminated (step 8).

未判定のものがある場合(ステップ4のYes)、未判定の色エッジペア候補の集合から1つの色エッジペア候補(色エッジ画素の位置を含む情報)を選択し、その色エッジペア候補をペア性判定部15に渡し、ペア性判定部15に当該色エッジペア候補のペア性を判定させる(ステップ5)。   If there is an undetermined one (Yes in step 4), one color edge pair candidate (information including the position of the color edge pixel) is selected from the set of undetermined color edge pair candidates, and the color edge pair candidate is determined as a pair property Then, the pairing determination unit 15 determines the pairing of the color edge pair candidate (step 5).

ペア性判定部15は、色エッジペア抽出部14から受け取った色エッジペア候補が色エッジペアのペア性判定条件を満たしているかどうかを判定する。   The pair property determination unit 15 determines whether the color edge pair candidate received from the color edge pair extraction unit 14 satisfies the pair property determination condition of the color edge pair.

ペア性判定条件としては、以下に示すペア性判定条件1〜3を用いる。本実施の形態では、これらのうちの少なくとも1つの条件を満たすものを色エッジペアであると判定する。なお、これらの条件は文字等の線図形の色が局所的には一定であるという性質に着目した条件である。また、ペア性判定条件は下記のものに限定されるわけではない。   As the pairing determination conditions, the following pairing determination conditions 1 to 3 are used. In the present embodiment, it is determined that a color edge pair satisfies at least one of these conditions. These conditions are conditions that focus on the property that the color of a line figure such as a character is locally constant. Further, the pairing determination conditions are not limited to the following.

ペア性判定条件1:色エッジペア候補を構成する2つの色エッジ(色エッジ部分の画素の点)について、相手の色エッジ側にある画素同士の色が類似していること。つまり、この条件は、色エッジペア候補を構成する第1の色エッジと第2の色エッジにおいて、第1の色エッジの周囲にある画素のうち、第2の色エッジに近い側にある画素の色と、第2の色エッジの周囲にある画素のうち、第1の色エッジに近い側にある画素の色とが類似していることという条件である。   Pairability determination condition 1: The colors of pixels on the other color edge side are similar for two color edges (pixel points of the color edge portion) constituting a color edge pair candidate. In other words, this condition is that, among the pixels around the first color edge in the first color edge and the second color edge constituting the color edge pair candidate, the pixel closer to the second color edge is selected. This is a condition that the color and the color of the pixel near the first color edge among the pixels around the second color edge are similar.

色が類似していると判定するための色の類似判定基準としては例えば以下のものがある。   Examples of color similarity determination criteria for determining that colors are similar include the following.

・各画素の色情報の成分値の差の絶対値の和が一定値以下であること。これは例えば、(R成分値の差の絶対値)+(G成分値の差の絶対値)+(G成分値の差の絶対値)が一定値以下であるということである。   -The sum of the absolute values of the difference between the component values of the color information of each pixel is not more than a certain value. This is, for example, that (absolute value of difference in R component value) + (absolute value of difference in G component value) + (absolute value of difference in G component value) is equal to or less than a certain value.

・各画素の色間の距離(例えば、RGB空間でのユークリッド距離)が一定値以下であること。   The distance between colors of each pixel (for example, Euclidean distance in RGB space) is not more than a certain value.

ペア性判定条件1について図5(a)を参照して更に説明する。色エッジペア候補を構成する色エッジの画素101、104が図5(a)に示すように存在する場合において、画素101の相手の色エッジ(画素104)側にある画素は画素102であり、画素104の相手の色エッジ(画素101)側にある画素は画素103である。これらの画素102、103同士を相手の色エッジ側にある画素同士と称している。図5(a)に示す例では、各色エッジにおいて、当該色エッジの画素と、他方の色エッジに近い側の画素とは隣接しているが、必ずしも隣接している必要はない。例えば、画素101と画素102との間、及び画素103と画素104との間は、それぞれ1〜数画素分離れていてもよい。   The pairness determination condition 1 will be further described with reference to FIG. When the color edge pixels 101 and 104 constituting the color edge pair candidate exist as shown in FIG. 5A, the pixel on the color edge (pixel 104) side of the other side of the pixel 101 is the pixel 102. A pixel 103 on the color edge (pixel 101) side of 104 is a pixel 103. These pixels 102 and 103 are referred to as pixels on the other color edge side. In the example shown in FIG. 5A, in each color edge, the pixel of the color edge and the pixel closer to the other color edge are adjacent to each other, but are not necessarily adjacent to each other. For example, one to several pixels may be separated between the pixel 101 and the pixel 102 and between the pixel 103 and the pixel 104, respectively.

図5(a)に示す例においては、画素102、103の色が類似している場合に、ペア性判定部15は、色エッジペア候補101、104はペア性判定条件を満たしていると判定する。   In the example shown in FIG. 5A, when the colors of the pixels 102 and 103 are similar, the pairing determination unit 15 determines that the color edge pair candidates 101 and 104 satisfy the pairing determination condition. .

対象の線図形が文字である場合において、このペア性判定条件1を用いることにより、文字を構成する線の輪郭に色エッジペアが集中して抽出される。ここで、色エッジペア候補選定において、色エッジペア候補間の距離を文字の大きさや文字線の太さに応じて適切に設定することにより、文字の周辺以外に検出される色エッジペアを抑制することもできる。   When the target line figure is a character, by using this pairing determination condition 1, color edge pairs are concentrated and extracted on the outline of the line constituting the character. Here, in the selection of color edge pair candidates, by appropriately setting the distance between the color edge pair candidates according to the size of the character and the thickness of the character line, it is possible to suppress the color edge pairs detected outside the periphery of the character. it can.

ペア性判定条件2:色エッジペア候補の各色エッジの近傍の画素における色の変化ベクトルがほぼ逆方向であること。つまり、この条件は、色エッジペア候補を構成する第1の色エッジと第2の色エッジにおいて、第1の色エッジ近傍における色の変化ベクトルと、第2の色エッジ近傍における変化ベクトルとがほぼ逆方向となっていることという条件である。   Pairing determination condition 2: The color change vector in the pixel in the vicinity of each color edge of the color edge pair candidate is substantially in the reverse direction. That is, this condition is that the color change vector in the vicinity of the first color edge and the change vector in the vicinity of the second color edge are substantially the same at the first color edge and the second color edge constituting the color edge pair candidate. The condition is that the direction is opposite.

なお、例えば、RGB色空間の中で、R成分、G成分、B成分が全て0の画素から、R成分が255、G成分とB成分が0の画素に向けた色の変化ベクトルは、R成分が255、G成分、B成分ともに0のベクトルである。このベクトルと逆ベクトルとは、R成分が−255、G成分、B成分が0のベクトルである。   For example, in the RGB color space, a color change vector from a pixel in which R component, G component, and B component are all 0 to a pixel in which R component is 255, G component, and B component is 0 is R The component is a vector of 255, and the G component and B component are both zero. The vector and the inverse vector are vectors having an R component of −255, a G component, and a B component of 0.

色エッジの近傍の画素とは、例えば、色エッジペア候補を構成する2つの色エッジペアのうちの一方の色エッジ(開始点色エッジと呼ぶ)から他方の色エッジ(終点色エッジと呼ぶ)に向かうベクトルの方向に並ぶ2つの画素であって、開始点色エッジ側においては、開始点色エッジから上記ベクトルと垂直方向に引いた線上において開始点色エッジの近傍に存在する画素(開始点色エッジを含む)と当該画素の上記ベクトルの方向側に並ぶ画素との2つの画素であり、終点色エッジ側においては、終点色エッジから上記ベクトルと垂直方向に引いた線上において終点色エッジの近傍に存在する画素(終点色エッジを含む)と当該画素の上記ベクトルの方向の逆方向側に並ぶ画素との2つの画素である。そして、色エッジの近傍の画素の色の変化ベクトルとは、例えば、開始点色エッジ側においては、上記近傍の画素のうちの開始点色エッジ側に存在する画素の色から、近傍の画素のうちの終点色エッジ側に存在する画素の色への変化ベクトルであり、終点色エッジ側においては、近傍の画素のうちの開始点色エッジ側に存在する画素の色から、近傍の画素のうちの終点エッジ側に存在する画素の色への変化ベクトルである。   The pixel in the vicinity of the color edge is, for example, from one color edge (referred to as a start point color edge) of two color edge pairs constituting a color edge pair candidate to the other color edge (referred to as an end point color edge). Two pixels lined up in the direction of the vector, and on the start point color edge side, pixels existing in the vicinity of the start point color edge on the line drawn from the start point color edge in the direction perpendicular to the vector (start point color edge) And the pixels lined up in the direction of the vector of the pixel. On the end color edge side, on the line drawn from the end point color edge in the direction perpendicular to the vector, it is in the vicinity of the end color edge. There are two pixels: an existing pixel (including an end color edge) and a pixel arranged on the opposite side of the vector direction of the pixel. The color change vector of the pixel in the vicinity of the color edge is, for example, on the start point color edge side, from the color of the pixel existing on the start point color edge side in the vicinity pixel, It is a change vector to the color of the pixel existing on the end color edge side, and on the end color edge side, from the color of the pixel existing on the start point color edge side of the neighboring pixels, This is a change vector to the color of a pixel existing on the end edge side of.

また、色エッジの近傍の画素の色の変化ベクトルとして、開始点色エッジ側において、開始点色エッジから上記ベクトルと垂直方向に引いた線上において開始点色エッジの近傍に存在する複数の画素(例えば開始点色エッジとその上下にある2つの画素の3画素)の色の平均から、当該複数の画素のそれぞれについて上記ベクトルの方向側に並ぶ複数の画素(例えば上記3画素に隣接して上記ベクトルの方向側に並ぶ3画素)の色の平均への変化ベクトルを用い、終点色エッジ側において、終点色エッジから上記ベクトルと垂直方向に引いた線上において終点色エッジの近傍に存在する複数の画素(例えば終点色エッジとその上下にある2つの画素の3画素)の色の平均から、当該複数の画素のそれぞれについて上記ベクトルの逆方向側に並ぶ複数の画素(例えば上記3画素に隣接して上記ベクトルの逆方向側に並ぶ3画素)の色の平均を引いた変化ベクトルを用いてもよい。   Further, as a color change vector of a pixel in the vicinity of the color edge, on the start point color edge side, a plurality of pixels (in the vicinity of the start point color edge on a line drawn from the start point color edge in the direction perpendicular to the vector) ( For example, from the average of the colors of the start point color edge and the two pixels above and below it, a plurality of pixels lined up in the direction of the vector for each of the plurality of pixels (for example, adjacent to the three pixels described above) (3 pixels arranged in the direction direction of the vector) using a change vector to the average color, and on the end color edge side, a plurality of pixels existing in the vicinity of the end color edge on the line drawn from the end color edge in the direction perpendicular to the vector From the average of the colors of pixels (for example, the end point color edge and the three pixels above and below it), each of the plurality of pixels is aligned in the opposite direction of the vector. A plurality of pixels may be used change vector obtained by subtracting the average color (adjacent to e.g. the 3 pixels 3 pixels aligned in the opposite direction side of the vector).

図5(a)に示す例では、色エッジペア候補の一方の色エッジ101の近傍で、画像の画素の色が黒から黄に変化しており、色エッジペア候補の他方の色エッジ104の近傍では色が黄から黒に変化しており、ペア性判定条件2を満たすため、ペア性判定部15は、色エッジペア候補101、104は色エッジペアであると判定する。なお、もちろん、画素101から画素102への色の変化ベクトルと、画素103から画素104への色の変化ベクトルとをペア性判定条件2におけるペア性判定に用いてよい。   In the example shown in FIG. 5A, the color of the pixel of the image changes from black to yellow in the vicinity of one color edge 101 of the color edge pair candidate, and in the vicinity of the other color edge 104 of the color edge pair candidate. Since the color has changed from yellow to black and satisfies the pairing determination condition 2, the pairing determination unit 15 determines that the color edge pair candidates 101 and 104 are color edge pairs. Of course, the color change vector from the pixel 101 to the pixel 102 and the color change vector from the pixel 103 to the pixel 104 may be used for the pairing determination in the pairing determination condition 2.

また、上述したように、図5(b)における画素201、101、301の色の平均から画素202、102、302の色の平均への変化ベクトルと、画素203、103、303の色の平均から画素204、104、304の色の平均への変化ベクトルとをペア性判定に用いてもよい。   Further, as described above, the change vector from the average color of the pixels 201, 101, and 301 to the average color of the pixels 202, 102, and 302 in FIG. 5B and the average of the colors of the pixels 203, 103, and 303 To the average vector of the colors of the pixels 204, 104, and 304 may be used for pairing determination.

ペア性判定条件3:色ヘッジペア候補の2つの色エッジ間での色の変化量が小さいこと。
例えば、この条件は、色エッジペア候補の2つの色エッジ間を結ぶ線分上の画素の各色成分の最大値、最小値の差が予め定めた値以下であることである。また、例えば、色エッジペア候補の2つの色エッジ間を結ぶ線分上の画素の色間の距離(RGB空間でのユークリッド距離等)の最大値が予め定めた値以下であることである。
Pairing determination condition 3: The amount of color change between two color edges of a color hedge pair candidate is small.
For example, this condition is that the difference between the maximum value and the minimum value of each color component of a pixel on a line segment connecting two color edges of a color edge pair candidate is not more than a predetermined value. Further, for example, the maximum value of the distance between the colors of the pixels on the line segment connecting the two color edges of the color edge pair candidate (such as the Euclidean distance in the RGB space) is not more than a predetermined value.

上記のペア性判定条件に基づきペア性判定を行ったペア性判定部15は、色エッジペア抽出部14から受け取った色エッジペア候補に対するペア性判定結果を色エッジペア抽出部14に返し、色エッジペア抽出部14は、ペア性判定部15から色エッジペア候補のペア性判定結果を受け取る。ペア性判定結果を満たしていた場合(図3のステップ6のYes)、色エッジペア抽出部14は、その色エッジペアを色エッジペア抽出結果として入出力部16に渡す。色エッジペア抽出結果には、色エッジペアに含まれる2つの色エッジの位置(画素の位置)、色成分の値、色エッジ値が含まれる。   The pairing determination unit 15 that has performed the pairing determination based on the above pairing determination condition returns the pairing determination result for the color edge pair candidate received from the color edge pair extraction unit 14 to the color edge pair extraction unit 14, and the color edge pair extraction unit 14 receives the pairedness determination result of the color edge pair candidate from the pairedness determination unit 15. When the pairing determination result is satisfied (Yes in step 6 in FIG. 3), the color edge pair extraction unit 14 passes the color edge pair to the input / output unit 16 as the color edge pair extraction result. The color edge pair extraction result includes two color edge positions (pixel positions), color component values, and color edge values included in the color edge pair.

ペア性判定結果を満たしていない場合(ステップ6のNo)、色エッジペア抽出部14は、ステップ4の処理に戻り、未判定の色エッジペア候補があればその色エッジペア候補に対して上述したペア性判定処理を行うことになる。   When the pairedness determination result is not satisfied (No in Step 6), the color edge pair extraction unit 14 returns to the process of Step 4, and if there is an undetermined color edge pair candidate, the pairedness described above with respect to that color edge pair candidate. Judgment processing is performed.

色エッジペア抽出部14から色エッジペア抽出結果を受け取った入出力部16は、色エッジペア抽出結果を色エッジペア情報として出力する(ステップ7)。この出力は画像等の形で可視化してもよいし、リスト等の形で他の機能部に入力してさらに処理を付加することとしてもよい。そして、ステップ4に処理を戻す。   The input / output unit 16 that has received the color edge pair extraction result from the color edge pair extraction unit 14 outputs the color edge pair extraction result as color edge pair information (step 7). This output may be visualized in the form of an image or the like, or may be input to another function unit in the form of a list and further processed. Then, the process returns to step 4.

なお、上記の例では、色エッジペア抽出部14は、色エッジペア候補一組毎にペア性判定部15を利用したペア性判定処理を行っているが、色エッジペア候補を全てペア性判定部15に渡し、ペア性を満たす全ての色エッジペアの情報をペア性判定部15から受信し、その情報に基づき、全ての色エッジペア抽出結果を生成し、出力することとしてもよい。   In the above example, the color edge pair extraction unit 14 performs the pairing determination process using the pairing determination unit 15 for each color edge pair candidate set, but all the color edge pair candidates are transferred to the pairing determination unit 15. It is also possible to receive information on all color edge pairs satisfying the pair property from the pair property determination unit 15 and generate and output all color edge pair extraction results based on the information.

(第2の実施の形態)
以下、第1の実施の形態における処理方法により抽出された特徴量(色エッジペアの色エッジ)の利用方法の一例として、当該特徴量をテロップ文字列領域抽出に用いる例について説明する。ここで説明する構成を用いることにより、第1の実施の形態において抽出される画像特徴を効果的に活用しつつ、精度高くテロップ文字列領域を抽出することができる。
(Second Embodiment)
Hereinafter, as an example of a method of using the feature amount (color edge of the color edge pair) extracted by the processing method according to the first embodiment, an example in which the feature amount is used for telop character string region extraction will be described. By using the configuration described here, it is possible to extract the telop character string region with high accuracy while effectively utilizing the image feature extracted in the first embodiment.

<装置構成>
図6に、本実施の形態におけるテロップ文字列領域抽出装置20の機能構成図を示す。図6に示すように、本実施の形態におけるテロップ文字列領域抽出装置20は、データ格納部21、画像取得部22、特徴量抽出部23、テロップ文字列領域形状取得部24、密集度算出用情報取得部25、テロップ文字列領域抽出部26、及び入出力部27を有する。
<Device configuration>
FIG. 6 shows a functional configuration diagram of the telop character string region extraction device 20 in the present embodiment. As shown in FIG. 6, the telop character string region extraction device 20 in the present embodiment includes a data storage unit 21, an image acquisition unit 22, a feature amount extraction unit 23, a telop character string region shape acquisition unit 24, and a density calculation unit. An information acquisition unit 25, a telop character string region extraction unit 26, and an input / output unit 27 are included.

データ格納部21は、本実施の形態における処理で用いられるデータを格納するとともに、各機能部からデータ要求を受信し、当該データ要求に係るデータを要求元の機能部に返す機能部である。図7に、本実施の形態においてデータ格納部21に格納されるデータの例を示す。図7に示すように、データ格納部21には、画像IDと対応付けて、画像データ(単に"画像"と呼ぶことにする)とテロップ文字列領域形状情報を保持するテーブル(図7(a))と、テロップ文字列領域形状情報に対応付けて密集度算出領域形状情報と重み係数分布情報を保持するテーブル(図7(b))とが格納されている。各情報の内容については、装置動作の説明の際に説明する。   The data storage unit 21 is a functional unit that stores data used in the processing according to the present embodiment, receives a data request from each functional unit, and returns data related to the data request to the functional unit that is the request source. FIG. 7 shows an example of data stored in the data storage unit 21 in the present embodiment. As shown in FIG. 7, the data storage unit 21 stores image data (simply referred to as “image”) and telop character string region shape information in association with the image ID (FIG. 7A). )) And a table (FIG. 7B) that stores the density calculation area shape information and the weight coefficient distribution information in association with the telop character string area shape information. The contents of each information will be described when the apparatus operation is described.

データ格納部21は、テロップ文字列領域抽出装置20として使用されるコンピュータにおける磁気ディスク装置、光ディスク装置、メモリ等で構成される。また、データ格納部21をテロップ文字列領域抽出装置20内部に備えることに代えて、テロップ文字列領域抽出装置20とは別の装置としてネットワーク上に配置することとしてもよい。例えば、データ格納部21として、テロップ文字列領域抽出装置20とネットワークを介して接続されるサーバ装置を用いることができる。   The data storage unit 21 includes a magnetic disk device, an optical disk device, a memory, and the like in a computer used as the telop character string region extraction device 20. Further, instead of providing the data storage unit 21 in the telop character string region extraction device 20, it may be arranged on the network as a device different from the telop character string region extraction device 20. For example, as the data storage unit 21, a server device connected to the telop character string region extraction device 20 via a network can be used.

なお、本実施の形態においても、"画像"は映像(動画像)でもよいし、静止画像でもよい。   Also in this embodiment, the “image” may be a video (moving image) or a still image.

画像取得部22は、データ格納部21に対して画像要求信号を送り、データ格納部21から画像を取得し、取得した画像を特徴量抽出部23に出力する機能部である。特徴量抽出部23は、画像取得部22から受け取った画像に対して特徴量抽出処理を実施し、その結果と画像IDとをテロップ文字列領域形状取得部24に渡す機能部である。   The image acquisition unit 22 is a functional unit that sends an image request signal to the data storage unit 21, acquires an image from the data storage unit 21, and outputs the acquired image to the feature amount extraction unit 23. The feature amount extraction unit 23 is a functional unit that performs feature amount extraction processing on the image received from the image acquisition unit 22 and passes the result and the image ID to the telop character string region shape acquisition unit 24.

本実施の形態では、特徴量抽出部23は、第1の実施の形態における色エッジ抽出部13、色エッジペア抽出部14、ペア性判定部15を含み、特徴量抽出処理結果として、色エッジペア情報を出力する。   In the present embodiment, the feature amount extraction unit 23 includes the color edge extraction unit 13, the color edge pair extraction unit 14, and the pairness determination unit 15 in the first embodiment, and color edge pair information is obtained as a result of the feature amount extraction processing. Is output.

テロップ文字列領域形状取得部24は、データ格納部21からテロップ文字列領域形状情報を取得する機能部である。   The telop character string region shape acquisition unit 24 is a functional unit that acquires telop character string region shape information from the data storage unit 21.

また、密集度算出用情報取得部25は、データ格納部21から密集度算出に必要な情報を取得し、その情報等をテロップ文字列領域抽出部26に渡す機能部である。テロップ文字列領域抽出部26は、密集度算出用情報取得部25から受け取った情報等を用いて、特徴量抽出処理結果からテロップ文字列領域を抽出する機能部である。また、テロップ文字列領域抽出部26は、更に、密集度算出用情報取得部25から受け取った情報を用いて、テロップ文字列領域における領域終端の精密抽出を行う機能も有している。入出力部27は、データの入出力をするための機能部である。   The density calculation information acquisition unit 25 is a functional unit that acquires information necessary for density calculation from the data storage unit 21 and passes the information to the telop character string region extraction unit 26. The telop character string region extraction unit 26 is a functional unit that extracts the telop character string region from the feature amount extraction processing result using the information received from the density calculation information acquisition unit 25. Further, the telop character string region extraction unit 26 further has a function of performing precise extraction of the region end in the telop character string region using the information received from the density calculation information acquisition unit 25. The input / output unit 27 is a functional unit for inputting / outputting data.

なお、テロップ文字列領域抽出装置20は、CPUと、メモリやハードディスク等の記憶装置とを含む一般的なコンピュータに、本実施の形態で説明する処理に対応するプログラムを実行させることにより実現されるものであり、上述した各機能部は、コンピュータに当該プログラムが実行されて実現される機能部である。従って、例えば、各機能部間での情報のやりとりは、実際にはメモリ等の記憶装置を介して行われるものである。上記プログラムは、メモリ等の記録媒体に格納し、そこからコンピュータにインストールすることもできるし、ネットワーク上のサーバからダウンロードするようにしてもよい。   The telop character string region extraction device 20 is realized by causing a general computer including a CPU and a storage device such as a memory or a hard disk to execute a program corresponding to the processing described in the present embodiment. Each functional unit described above is a functional unit realized by executing the program on a computer. Therefore, for example, the exchange of information between the functional units is actually performed via a storage device such as a memory. The above program may be stored in a recording medium such as a memory and then installed in a computer from there, or may be downloaded from a server on a network.

<テロップ文字列領域抽出装置20の動作>
次に、本実施の形態におけるテロップ文字列領域抽出装置20の動作について、図8に示すフローチャートに沿って説明する。
<Operation of Telop Character String Region Extraction Device 20>
Next, the operation of the telop character string region extraction device 20 in the present embodiment will be described with reference to the flowchart shown in FIG.

まず、画像取得部22は、取得するべき画像を示す画像IDを、入力情報として入出力部27から受信する。そして、画像取得部22は、データ格納部21から当該画像IDに対応する画像を取得し、その画像を特徴量抽出部23に渡す(ステップ11)。なお、ここで取得した画像が動画像であった場合には、画像取得部22は、動画像から各フレームを抽出する処理を行い、抽出した各フレームを特徴量抽出部23に出力し、以下の処理が各フレーム(画像)毎に行われることになる。   First, the image acquisition unit 22 receives an image ID indicating an image to be acquired from the input / output unit 27 as input information. Then, the image acquisition unit 22 acquires an image corresponding to the image ID from the data storage unit 21, and passes the image to the feature amount extraction unit 23 (step 11). If the acquired image is a moving image, the image acquiring unit 22 performs a process of extracting each frame from the moving image, and outputs each extracted frame to the feature amount extracting unit 23. This process is performed for each frame (image).

特徴量抽出部23は、画像取得部22から渡された画像に対して第1の実施の形態で説明した色エッジペア情報を取得する特徴量抽出処理を実施し、特徴量抽出処理結果(色エッジペア情報)と画像IDとをテロップ文字列領域形状取得部24に渡す(ステップ12)。   The feature amount extraction unit 23 performs the feature amount extraction processing for acquiring the color edge pair information described in the first embodiment on the image passed from the image acquisition unit 22, and the feature amount extraction processing result (color edge pair) Information) and the image ID are passed to the telop character string region shape acquisition unit 24 (step 12).

続いて、テロップ文字列領域形状取得部24は、特徴量抽出部23から受け取った画像IDを用い、データ格納部21から当該画像IDに対応するテロップ文字列領域形状情報を取得し、テロップ文字列領域形状情報、及び特徴量抽出結果を密集度算出用情報取得部25に渡す(ステップ13)。   Subsequently, the telop character string region shape acquisition unit 24 acquires the telop character string region shape information corresponding to the image ID from the data storage unit 21 using the image ID received from the feature amount extraction unit 23, and the telop character string. The region shape information and the feature amount extraction result are passed to the density calculation information acquisition unit 25 (step 13).

テロップ文字列領域形状情報とは、抽出しようとしているテロップ文字列領域の形状を示す情報である。本実施の形態では、テロップ文字列領域として矩形(長方形)を用いることとしており、テロップ文字列領域形状情報は、抽出対象のテロップ文字列領域を包含(外接)する矩形が縦長であるか、横長であるかを示す情報である。テロップ文字列領域形状情報は、例えば、「縦」もしくは「横」を示す1ビットの情報である。   The telop character string region shape information is information indicating the shape of the telop character string region to be extracted. In the present embodiment, a rectangle (rectangle) is used as the telop character string region. In the telop character string region shape information, the rectangle that includes (circumscribes) the telop character string region to be extracted is either vertically long or horizontally long. It is information indicating whether or not. The telop character string region shape information is, for example, 1-bit information indicating “vertical” or “horizontal”.

続いて、密集度算出用情報取得部25は、テロップ文字列領域形状取得部24から受け取ったテロップ文字列領域形状情報を用いて、データ格納部21から当該テロップ文字列領域形状情報に対応する密集度算出領域形状情報を取得し、当該密集度算出領域形状情報と特徴量抽出結果とをテロップ文字列領域抽出部26に渡す(ステップ14)。密集度算出領域形状情報は、後述する密集度算出に用いるサブブロック(局所領域)の形状を示す情報であり、例えば、サブブロックの縦方向の画素数と横方向の画素数を有する情報である。そして、本実施の形態において、当該サブブロックは、テロップ文字列領域形状情報が「横」を示す情報である場合は、横に長い長方形であり、テロップ文字列領域形状情報が「縦」を示す情報である場合は、縦に長い長方形であることとしている。サブブロックが横に長い長方形である場合、その長方形は例えば縦1×横10の比率の長方形であり、例えば、縦10画素×横100画素の長方形である。このようなサブブロックを採用することにより、テロップ文字列が連続する方向の特徴量の連続性を優先的に考慮した密集度算出が可能となり、テロップ文字列領域の抽出精度を向上させることができる。   Subsequently, the congestion degree calculation information acquisition unit 25 uses the telop character string region shape information received from the telop character string region shape acquisition unit 24 to transmit the congestion corresponding to the telop character string region shape information from the data storage unit 21. The degree calculation area shape information is acquired, and the density calculation area shape information and the feature amount extraction result are passed to the telop character string area extraction unit 26 (step 14). The density calculation area shape information is information indicating the shape of a sub-block (local area) used for density calculation, which will be described later, and is information having the number of pixels in the vertical direction and the number of pixels in the horizontal direction, for example. . In this embodiment, when the telop character string area shape information is information indicating “horizontal”, the sub-block is a rectangle that is horizontally long, and the telop character string area shape information indicates “vertical”. In the case of information, it is assumed to be a vertically long rectangle. When the sub-block is a horizontally long rectangle, the rectangle is, for example, a rectangle having a ratio of 1 × 10 in the vertical direction, for example, a rectangle having 10 pixels in the vertical direction × 100 pixels in the horizontal direction. By adopting such a sub-block, it is possible to calculate the density with priority given to the continuity of the feature amount in the direction in which the telop character strings continue, and the extraction accuracy of the telop character string region can be improved. .

続いてテロップ文字列領域抽出部26は、テロップ文字列領域抽出処理を行う(ステップ15)。ここでは、テロップ文字列領域抽出部26は、特徴量抽出結果(各画素の値が色エッジ値である画像)の各画素に対して、密集度算出領域形状情報に対応するサブブロックを適用し、サブブロック内に含まれる各画素の特徴量(色エッジ値)の和を算出する。この和を、各画素に対する密集度と呼ぶ。つまり、ある画素に注目した場合、その注目画素を中心とするサブブロックに含まれる各画素の特徴量の和が、その注目画素における密集度になる。   Subsequently, the telop character string region extraction unit 26 performs a telop character string region extraction process (step 15). Here, the telop character string region extraction unit 26 applies a sub-block corresponding to the density calculation region shape information to each pixel of the feature amount extraction result (an image in which each pixel value is a color edge value). Then, the sum of the feature values (color edge values) of each pixel included in the sub-block is calculated. This sum is called the density for each pixel. That is, when attention is paid to a certain pixel, the sum of the feature values of each pixel included in the sub-block centered on the target pixel is the density of the target pixel.

この密集度を特徴量抽出結果の全画素について求める。なお、全画素について密集度を求める代わりに、予め定めた間隔の画素毎に求めることとしてもよい。また、テロップ文字列が存在しないことがわかっている部分を除く予め定めた位置の画素についてだけ密集度を求めることとしてもよい。   This density is obtained for all pixels of the feature amount extraction result. In addition, it is good also as calculating | requiring for every pixel of the predetermined space | interval instead of calculating | requiring a density about all the pixels. Alternatively, the density may be obtained only for a pixel at a predetermined position excluding a portion where it is known that a telop character string does not exist.

そして、テロップ文字列領域抽出部26は更に、密集度算出結果に対してクラスタリング処理を実施し、密集度がある閾値より高い画素が一定以上の面積に集合している領域を検出する。そして、クラスタ(密集度がある閾値より高い画素のまとまり)を形成する画素数が予め定めた閾値以上の場合に、そのクラスタをテロップ文字列領域であると判断する。   Then, the telop character string region extraction unit 26 further performs clustering processing on the density calculation result, and detects a region where pixels having a density higher than a certain threshold are gathered in a certain area or more. When the number of pixels forming a cluster (a group of pixels having a density higher than a certain threshold) is equal to or greater than a predetermined threshold, the cluster is determined to be a telop character string region.

続いて、テロップ文字列領域抽出部26は、テロップ文字列領域であると判断された領域に対してその外接矩形を求める等の整形処理を実施し、整形処理後のテロップ文字列領域をテロップ文字列領域抽出結果とする。テロップ文字列領域抽出結果には、整形後の領域の輪郭を示す情報、例えば、長方形(矩形)であれば4つの頂点の座標値を含む。   Subsequently, the telop character string area extraction unit 26 performs a shaping process such as obtaining a circumscribed rectangle for the area determined to be a telop character string area, and the telop character string area after the shaping process is converted into a telop character string. This is the column area extraction result. The telop character string region extraction result includes information indicating the contour of the region after shaping, for example, the coordinate values of four vertices in the case of a rectangle (rectangle).

このテロップ文字列領域抽出結果をそのまま出力することとしてもよいが、本実施の形態では、テロップ文字列領域をより精密に求めるために、多値傾斜重みによる領域終端の精密抽出処理(以下、精密抽出処理と呼ぶ)を行うこととしている(ステップ16)。この精密抽出処理を図9のフローチャートに沿って説明する。   Although this telop character string region extraction result may be output as it is, in this embodiment, in order to obtain the telop character string region more precisely, the region end precision extraction processing (hereinafter referred to as “precision”) is performed using multi-value gradient weights. (Referred to as extraction processing) (step 16). This precise extraction process will be described with reference to the flowchart of FIG.

また、以下では、テロップ文字列領域形状情報が「横」を示す情報である場合を例にとって説明を行う。更に、図8のステップ15で求められたテロップ文字列領域の左上の頂点の座標値が(Xl、Yu)、右下の頂点の座標値が(Xr、Yd)であるものとする。なお、この時点で、テロップ文字列領域抽出結果、特徴量抽出結果、テロップ文字列領域形状情報等はメモリ等の記憶装置に保持されており、以下の処理では当該記憶装置から必要なデータが適宜読み出されて処理が行われる。   In the following, a case where the telop character string region shape information is information indicating “horizontal” will be described as an example. Further, it is assumed that the coordinate value of the upper left vertex of the telop character string area obtained in step 15 of FIG. 8 is (Xl, Yu) and the coordinate value of the lower right vertex is (Xr, Yd). At this time, the telop character string region extraction result, the feature amount extraction result, the telop character string region shape information, and the like are held in a storage device such as a memory. In the following processing, necessary data is appropriately stored from the storage device. It is read and processed.

精密抽出処理において、まず、密集度算出用情報取得部25は、テロップ文字列領域形状情報に対応する重み係数分布情報をデータ格納部21から取得する(ステップ61)。   In the precise extraction process, first, the density calculation information acquisition unit 25 acquires weight coefficient distribution information corresponding to the telop character string region shape information from the data storage unit 21 (step 61).

本実施の形態では、テロップ文字列領域形状情報が「横」を示す情報である場合、図8のステップ15で抽出されたテロップ文字列領域(横長の長方形)の左端部分と右端部分に対して、領域終端の精密抽出処理を行い、テロップ文字列領域形状情報が「縦」を示す情報である場合は、上端部分と下端部分に対して、領域終端の精密抽出処理を行うこととしている。従って、データ格納部21には、図7(b)に示すように、テロップ文字列領域形状情報「横」に対して、左端部分に対応する重み係数分布情報と右端部分に対応する重み係数分布情報が格納され、テロップ文字列領域形状情報「縦」に対して、上端部分に対応する重み係数分布情報と下端部分に対応する重み係数分布情報が格納されている。   In the present embodiment, when the telop character string region shape information is information indicating “horizontal”, the left and right end portions of the telop character string region (horizontal rectangle) extracted in step 15 of FIG. When the telop character string region shape information is information indicating “vertical”, the region ending precise extraction processing is performed on the upper end portion and the lower end portion. Therefore, as shown in FIG. 7B, the data storage unit 21 stores the weight coefficient distribution information corresponding to the left end portion and the weight coefficient distribution corresponding to the right end portion with respect to the telop character string region shape information “horizontal”. Information is stored, and for the telop character string region shape information “vertical”, weight coefficient distribution information corresponding to the upper end portion and weight coefficient distribution information corresponding to the lower end portion are stored.

本例では、テロップ文字列領域形状情報は「横」であるから、ステップ61において、密集度算出用情報取得部25は、左端部分に対応する重み係数分布情報と右端部分に対応する重み係数分布情報をデータ格納部21から取得する。   In this example, since the telop character string region shape information is “horizontal”, in step 61, the density calculation information acquisition unit 25 performs weight coefficient distribution information corresponding to the left end portion and weight coefficient distribution corresponding to the right end portion. Information is acquired from the data storage unit 21.

テロップ文字列領域形状情報が「横」の場合、後述する精密抽出処理用領域として、テロップ文字列領域の縦方向と同じ画素数を縦方向の画素数として持ち、横方向の画素数として重み係数分布情報により指定される画素数を持つ領域を用いる。つまり、テロップ文字列領域形状情報が「横」の場合における重み係数分布情報は、この精密抽出処理用領域の横方向の長さ(画素数、wとする)と、横方向における重みの分布の情報を含む。例えば、重み係数分布情報は、精密抽出処理用領域の横方向の長さ(画素数)が5画素であり、左から数えて最初の画素位置(画素1)の重み係数が5、2番目の重み係数が4、3番目の重み係数が3、4番目の重み係数が2、5番目の重み係数が1、等の情報を含む。   When the telop character string area shape information is “horizontal”, the same number of pixels as the vertical direction of the telop character string area is used as the vertical extraction pixel area, and the weighting factor is used as the horizontal pixel number. An area having the number of pixels specified by the distribution information is used. In other words, when the telop character string area shape information is “horizontal”, the weight coefficient distribution information includes the horizontal length (number of pixels, w) of the precision extraction processing area and the weight distribution in the horizontal direction. Contains information. For example, in the weighting factor distribution information, the length (number of pixels) in the horizontal direction of the precise extraction processing region is 5 pixels, and the weighting factor of the first pixel position (pixel 1) counted from the left is 5, It includes information such as a weighting factor of 4, a third weighting factor of 3, a fourth weighting factor of 2, a fifth weighting factor of 1, and the like.

以下、この重み係数分布情報の例に基づき、左端部分の領域終端精密抽出処理について説明する。なお、右端部分の領域終端精密抽出処理についても行われるが、左端部分の領域終端精密抽出処理と同様(方向が反対になるだけ)であるので、以下では左端部分の領域終端精密抽出処理のみを説明するものである。
図9のステップ61において密集度算出用情報取得部25が取得した左端部分に対応する重み係数分布情報はテロップ文字列領域抽出部26に渡される。
Hereinafter, based on the example of the weighting factor distribution information, the region end precise extraction processing of the left end portion will be described. It should be noted that the area end precise extraction process at the right end part is also performed, but is the same as the area end precise extraction process at the left end part (only the direction is reversed). Explain.
The weight coefficient distribution information corresponding to the left end portion acquired by the density calculation information acquisition unit 25 in step 61 of FIG. 9 is passed to the telop character string region extraction unit 26.

テロップ文字列領域抽出部26は、当該重み係数分布情報を用いて、テロップ文字列領域の縦方向と同じ画素数を縦方向の画素数として持ち、重み係数分布情報で指定される画素数と同じ画素数を横方向の画素数として持つ精密抽出処理用領域を設け、重み係数分布情報を用いて、精密抽出処理用領域における重み係数分布を、左側の重みが重くなるように設定する(ステップ62)。なお、右端の精密抽出を行う場合には精密抽出処理用領域における重み係数分布を、右側の重みが重くなるように設定する。つまり、テロップ文字列領域中心側に比べてテロップ文字列領域終端側の重みが大きくなるように重み付けをする。   The telop character string region extraction unit 26 has the same number of pixels in the vertical direction as the vertical direction of the telop character string region using the weight coefficient distribution information, and is the same as the number of pixels specified by the weight coefficient distribution information. A precise extraction processing region having the number of pixels as the number of pixels in the horizontal direction is provided, and the weighting factor distribution in the precise extraction processing region is set using the weighting factor distribution information so that the left side weight becomes heavy (step 62). ). Note that when performing the right-side precision extraction, the weighting coefficient distribution in the precision extraction processing region is set so that the right-side weight becomes heavier. That is, weighting is performed so that the weight on the telop character string region end side becomes larger than that on the telop character string region center side.

図10は、本例における精密抽出処理を説明するための図であり、図10の上段の602は、精密抽出処理用領域における重み係数分布の例を示している。また、図10の603は、本例における横方向の長さが5の精密抽出処理用領域(精密抽出処理においては、この領域を横方向に移動させながら重み付き密集度を求めることになる)を示している。また、601として、色エッジペアを構成する色エッジ点の集合が示されている。   FIG. 10 is a diagram for explaining the precise extraction process in this example, and 602 in the upper part of FIG. 10 shows an example of the weight coefficient distribution in the precise extraction process region. Further, reference numeral 603 in FIG. 10 denotes a precision extraction processing area having a horizontal length of 5 in this example (in the precision extraction process, the weighted density is obtained while moving this area in the horizontal direction). Is shown. Reference numeral 601 denotes a set of color edge points constituting the color edge pair.

テロップ文字列領域の抽出に使用したサブブロックの横の画素数をbとした場合に、テロップ文字列領域抽出部26は、精密抽出処理用領域の左上端の座標値を、例えば(Xl−b/2、Yu)として、処理対象の特徴量画像における各画素の特徴量値(色エッジ値)と、精密抽出処理用領域に対応する画素位置にある重み値との積を精密抽出処理用領域内にある全ての画素に対して算出し、それらの和を算出する(ステップ63)。この和を重み付き密集度と呼ぶ。   When the number of horizontal pixels of the sub-block used for the extraction of the telop character string region is b, the telop character string region extraction unit 26 uses, for example, the coordinate value of the upper left corner of the precise extraction processing region as (Xl-b / 2, Yu) is the product of the feature value (color edge value) of each pixel in the feature value image to be processed and the weight value at the pixel position corresponding to the precise extraction processing region. It calculates with respect to all the pixels in the inside, and calculates the sum (step 63). This sum is called weighted congestion.

テロップ文字列領域抽出部26は、精密抽出処理用領域の左上端の座標値を(Xl−b/2,Yu)〜(Xl+b/2、Yu)まで1画素分の幅ずつ移動させながら、重み付き密集度を順次算出する(ステップ63)。なお、上記の例では開始点を(Xl−b/2、Yu)とし、終了点を(Xl+b/2、Yu)としているが、この幅をもっと広くとってよいことはいうまでもない。例えば、(Xl−b、Yu)から(Xl+b、Yu)まで重み付き密集度を順次算出してもよい。   The telop character string region extraction unit 26 performs weighting while moving the coordinate value of the upper left corner of the precise extraction processing region from (Xl−b / 2, Yu) to (Xl + b / 2, Yu) by the width of one pixel. The degree of congestion is calculated sequentially (step 63). In the above example, the starting point is (Xl−b / 2, Yu) and the ending point is (Xl + b / 2, Yu). For example, the weighted density from (Xl−b, Yu) to (Xl + b, Yu) may be calculated sequentially.

そして、テロップ文字列領域抽出部26は、この重み付き密集度の値が予め設定した閾値を越える(又は閾値以上となる)ときの精密抽出処理用領域の左上端の座標値を(X0、Yu)とし、このときのテロップ文字列領域の左側の座標値をXlからX0に変更する(ステップ64)。つまり、テロップ文字列領域の左端を、このときの精密抽出処理用領域の左端の位置とする。図10の下段には、精密抽出処理用領域を横にずらしながら算出した重み付き密集度がグラフの形で表示されており、605の位置で重み付き密集度が閾値を超えたことが示されている。   Then, the telop character string region extraction unit 26 calculates the coordinate value of the upper left corner of the precise extraction processing region (X0, Yu) when the weighted density value exceeds a preset threshold value (or exceeds a threshold value). ), And the coordinate value on the left side of the telop character string area at this time is changed from Xl to X0 (step 64). That is, the left end of the telop character string area is set as the left end position of the precision extraction processing area at this time. In the lower part of FIG. 10, the weighted density calculated while shifting the precision extraction processing area to the side is displayed in the form of a graph, and it is shown that the weighted density exceeds the threshold at the position 605. ing.

テロップ文字列領域抽出部26は、図8のステップ15で得られた全てのテロップ文字列領域に対して、上下もしくは左右の端の精密抽出を実施後のテロップ文字列領域情報と画像IDとを入出力部27に渡し、入出力部27がこれらの情報を出力する(図8のステップ17)。   The telop character string region extraction unit 26 uses the telop character string region information and the image ID after performing the precise extraction of the top and bottom or left and right edges for all the telop character string regions obtained in step 15 of FIG. The data is passed to the input / output unit 27, and the input / output unit 27 outputs the information (step 17 in FIG. 8).

なお、左右端、上下端の精密抽出を行うことのほか、例えば、左下隅の端を精密に検出する場合には、精密抽出処理用領域において左下の重みを大きくし、左下から離れるに従って重みを小さくした重み分布を用いることにより、左下隅の特徴量の変化を感度良くとらえ、左下隅の端を精度良く検出することも可能である。   In addition to performing precise extraction of the left and right edges and upper and lower edges, for example, when precisely detecting the lower left corner edge, the lower left weight is increased in the precision extraction processing area, and the weight is increased as the distance from the lower left is increased. By using a reduced weight distribution, it is possible to detect the change in the feature quantity at the lower left corner with high sensitivity and to detect the end of the lower left corner with high accuracy.

なお、上述した例では、テロップ文字列領域形状情報が、予めデータ格納部21に格納されている場合の処理例を示しているが、テロップ文字列領域形状を抽出する処理を用いてテロップ文字列領域形状情報を取得してもよい。例えば、予めいくつかの方向(例えば、縦方向及び横方向)を定めておき、それぞれの方向に応じた形状の局所領域を用いてテロップ文字列領域を抽出した後、どの方向に応じた形状の局所領域を用いて抽出した結果が最も良い結果かを判定し、その方向をテロップ文字列領域形状情報として出力する処理を行ってテロップ文字列領域形状情報を取得してもよい。   In the above-described example, the telop character string area shape information is shown as an example of processing in the case where the data storage unit 21 stores the telop character string area shape information in advance. Area shape information may be acquired. For example, several directions (for example, a vertical direction and a horizontal direction) are determined in advance, and after extracting a telop character string region using a local region having a shape corresponding to each direction, a shape corresponding to which direction is determined. The telop character string region shape information may be acquired by determining whether the result extracted using the local region is the best result and outputting the direction as the telop character string region shape information.

(本発明の実施の形態の効果について)
従来技術ではエッジを抽出するために輝度を用いていたため、背景と線図形の輝度が類似する場合に輝度エッジペアの抽出に失敗することがあったが、本発明の実施の形態では、輝度が類似している場合でも色情報を積極的に用いて色の違いを検出することで、色情報が不連続に変化するような特徴である色エッジを抽出し、ペア性判定条件を適用して色エッジペアの抽出が可能となっている。
(Regarding the effect of the embodiment of the present invention)
In the prior art, the luminance is used to extract the edge, and thus the extraction of the luminance edge pair may fail when the luminance of the background and the line figure is similar. In the embodiment of the present invention, the luminance is similar. Color information is actively used to detect color differences, color edges that are characteristic of color information discontinuously changing are extracted, and color conditions are applied by applying pairing criteria. Edge pairs can be extracted.

つまり、2次元以上(多くの場合3次元)の高次元情報である色情報を積極的に用いることにより、輝度が類似する場合でも線図形と背景とを分離することができる。   That is, by actively using color information that is two-dimensional or higher (in many cases, three-dimensional) high-dimensional information, it is possible to separate the line figure and the background even when the luminance is similar.

また、従来技術において輝度エッジペアを作成する場合には、輝度の勾配方向を用いて上り勾配のエッジと下り勾配のエッジとをペアとするように処理していたが、高次元情報である色情報においては、勾配の上り下りの定義が困難であるため、従来の方法ではペアの判定ができない。そこで、本実施の形態では、色エッジペアを作成するためのペア性判定条件を新しく導入し、これにより、色エッジに対してもペアを作成することが可能となる。   In addition, when creating a luminance edge pair in the prior art, processing was performed so as to pair an ascending edge and a descending edge using a luminance gradient direction, but color information that is high-dimensional information is used. Since it is difficult to define the gradient up and down, a conventional method cannot determine a pair. Therefore, in the present embodiment, a pairness determination condition for creating a color edge pair is newly introduced, whereby a pair can be created for a color edge.

以上のように、本実施の形態では、輝度ではなく色情報を用いることで、輝度が類似した背景の場合でもエッジペア(色エッジペア)を抽出でき、それにより線図形領域を抽出することが可能となり、背景領域から線図形領域を分離することが可能となる。   As described above, in this embodiment, by using color information instead of luminance, edge pairs (color edge pairs) can be extracted even in the case of backgrounds with similar luminance, and thereby it is possible to extract a line figure region. It is possible to separate the line figure area from the background area.

本発明は、上記の実施の形態に限定されることなく、特許請求の範囲内において、種々変更・応用が可能である。   The present invention is not limited to the above-described embodiments, and various modifications and applications are possible within the scope of the claims.

画像特徴抽出装置1の機能構成図である。2 is a functional configuration diagram of the image feature extraction device 1. FIG. 画像データの画像格納部11への格納方法の例を示す図である。It is a figure which shows the example of the storage method to the image storage part 11 of image data. 画像特徴抽出装置1の動作を説明するためのフローチャートである。4 is a flowchart for explaining the operation of the image feature extraction apparatus 1. エッジ抽出の例を説明するための図である。It is a figure for demonstrating the example of edge extraction. ペア性判定条件を説明するための図である。It is a figure for demonstrating pair property determination conditions. テロップ文字列領域抽出装置20の機能構成図である。3 is a functional configuration diagram of a telop character string region extraction device 20. FIG. データ格納部21に格納されるデータの例を示す図である。4 is a diagram illustrating an example of data stored in a data storage unit 21. FIG. テロップ文字列領域抽出装置20の動作を説明するためのフローチャートである。4 is a flowchart for explaining the operation of the telop character string region extraction device 20. 精密抽出処理のフローチャートである。It is a flowchart of a precision extraction process. 精密抽出処理の例を説明するための図である。It is a figure for demonstrating the example of a precision extraction process.

符号の説明Explanation of symbols

1 画像特徴抽出装置
11 画像格納部
12 画像取得部
13 色エッジ抽出部
14 色エッジペア抽出部
15 ペア性判定部
16 入出力部
20 テロップ文字列領域抽出装置
21 データ格納部
22 画像取得部
23 特徴量抽出部
24 テロップ文字列領域形状取得部
25 密集度算出用情報取得部
26 テロップ文字列領域抽出部
27 入出力部
DESCRIPTION OF SYMBOLS 1 Image feature extraction apparatus 11 Image storage part 12 Image acquisition part 13 Color edge extraction part 14 Color edge pair extraction part 15 Pair property determination part 16 Input / output part 20 Telop character string area extraction apparatus 21 Data storage part 22 Image acquisition part 23 Feature value Extraction unit 24 Telop character string region shape acquisition unit 25 Information acquisition unit for density calculation 26 Telop character string region extraction unit 27 Input / output unit

Claims (6)

線図形を含む画像から色エッジペアを抽出するための画像特徴抽出装置であって、
画像格納手段から前記画像を取得する画像取得手段と、
前記画像から色エッジを絶対値として抽出する色エッジ抽出手段と、
前記色エッジ抽出手段により抽出された色エッジの中から色エッジペア候補集合を抽出し、線図形が局所的に類似する色を有するという性質に基づく色エッジペア抽出条件を満足する色エッジペア候補を、色エッジペアとして前記色エッジペア候補集合の中から抽出する色エッジペア抽出手段とを備え
前記色エッジペア抽出条件は、
色エッジペア候補を構成する第1の色エッジと第2の色エッジにおいて、前記第1の色エッジの周囲にある画素のうち、前記第2の色エッジに近い側にある画素の色と、前記第2の色エッジの周囲にある画素のうち、前記第1の色エッジに近い側にある画素の色とが類似していることという条件である
ことを特徴とする画像特徴抽出装置。
An image feature extraction device for extracting a color edge pair from an image including a line figure,
Image acquisition means for acquiring the image from the image storage means;
Color edge extracting means for extracting a color edge from the image as an absolute value ;
A color edge pair candidate set is extracted from the color edges extracted by the color edge extraction means, and color edge pair candidates satisfying the color edge pair extraction condition based on the property that the line figure has a locally similar color comprising a color edge pair extracting means for extracting from the color edge pair candidate set as the edge pair, and
The color edge pair extraction condition is:
In the first color edge and the second color edge constituting the color edge pair candidate, among the pixels around the first color edge, the color of the pixel closer to the second color edge; 2. An image feature extraction apparatus according to claim 1, wherein the image feature extraction device has a condition that among the pixels around the second color edge, the color of the pixel closer to the first color edge is similar .
線図形を含む画像から色エッジペアを抽出するための画像特徴抽出装置であって、
画像格納手段から前記画像を取得する画像取得手段と、
前記画像から色エッジを抽出する色エッジ抽出手段と、
前記色エッジ抽出手段により抽出された色エッジの中から色エッジペア候補集合を抽出し、線図形が局所的に類似する色を有するという性質に基づく色エッジペア抽出条件を満足する色エッジペア候補を、色エッジペアとして前記色エッジペア候補集合の中から抽出する色エッジペア抽出手段とを備え
前記色エッジペア抽出条件は、
色エッジペア候補を構成する第1の色エッジと第2の色エッジにおいて、前記第1の色エッジの周囲にある画素のうち、前記第2の色エッジに近い側にある画素の色と、前記第2の色エッジの周囲にある画素のうち、前記第1の色エッジに近い側にある画素の色とが類似していることという条件、
前記第1の色エッジ近傍における色の変化ベクトルと、前記第2の色エッジ近傍における色の変化ベクトルとがほぼ逆方向となっていることという条件、及び
前記第1の色エッジと前記第2の色エッジの間にある複数の画素間の色の変化量が小さいことという条件
の3つの条件を含み、
前記色エッジペア抽出手段は、前記3つの条件のうちの少なくとも1つの条件を満足する色エッジペア候補を、色エッジペアとして前記色エッジペア候補集合の中から抽出する
ことを特徴とする画像特徴抽出装置。
An image feature extraction device for extracting a color edge pair from an image including a line figure,
Image acquisition means for acquiring the image from the image storage means;
Color edge extraction means for extracting a color edge from the image;
A color edge pair candidate set is extracted from the color edges extracted by the color edge extraction means, and color edge pair candidates satisfying the color edge pair extraction condition based on the property that the line figure has a locally similar color comprising a color edge pair extracting means for extracting from the color edge pair candidate set as the edge pair, and
The color edge pair extraction condition is:
In the first color edge and the second color edge constituting the color edge pair candidate, among the pixels around the first color edge, the color of the pixel closer to the second color edge; A condition that among the pixels around the second color edge, the color of the pixel on the side closer to the first color edge is similar,
A condition that a color change vector in the vicinity of the first color edge and a color change vector in the vicinity of the second color edge are substantially in opposite directions; and
A condition that the amount of change in color between a plurality of pixels between the first color edge and the second color edge is small.
Including the following three conditions:
The image feature extraction apparatus, wherein the color edge pair extraction unit extracts a color edge pair candidate satisfying at least one of the three conditions as a color edge pair from the color edge pair candidate set .
線図形を含む画像から色エッジペアを抽出するための画像特徴抽出装置が実行する画像特徴抽出方法であって、
画像格納手段から前記画像を取得する画像取得ステップと、
前記画像から色エッジを絶対値として抽出する色エッジ抽出ステップと、
前記色エッジ抽出ステップにおいて抽出された色エッジの中から色エッジペア候補集合を抽出し、線図形が局所的に類似する色を有するという性質に基づく色エッジペア抽出条件を満足する色エッジペア候補を、色エッジペアとして前記色エッジペア候補集合の中から抽出する色エッジペア抽出ステップとを備え
前記色エッジペア抽出条件は、
色エッジペア候補を構成する第1の色エッジと第2の色エッジにおいて、前記第1の色エッジの周囲にある画素のうち、前記第2の色エッジに近い側にある画素の色と、前記第2の色エッジの周囲にある画素のうち、前記第1の色エッジに近い側にある画素の色とが類似していることという条件である
ことを特徴とする画像特徴抽出方法。
An image feature extraction method executed by an image feature extraction apparatus for extracting a color edge pair from an image including a line figure,
An image acquisition step of acquiring the image from an image storage means;
A color edge extraction step for extracting a color edge from the image as an absolute value ;
A color edge pair candidate set is extracted from the color edges extracted in the color edge extraction step, and color edge pair candidates satisfying a color edge pair extraction condition based on the property that the line figure has a locally similar color comprising a color edge pair extracting from the color edge pair candidate set as the edge pair, and
The color edge pair extraction condition is:
In the first color edge and the second color edge constituting the color edge pair candidate, among the pixels around the first color edge, the color of the pixel closer to the second color edge; An image feature extraction method characterized in that the condition is that the color of a pixel near the first color edge among pixels around the second color edge is similar .
線図形を含む画像から色エッジペアを抽出するための画像特徴抽出装置が実行する画像特徴抽出方法であって、
画像格納手段から前記画像を取得する画像取得ステップと、
前記画像から色エッジを抽出する色エッジ抽出ステップと、
前記色エッジ抽出ステップにおいて抽出された色エッジの中から色エッジペア候補集合を抽出し、線図形が局所的に類似する色を有するという性質に基づく色エッジペア抽出条件を満足する色エッジペア候補を、色エッジペアとして前記色エッジペア候補集合の中から抽出する色エッジペア抽出ステップとを備え
前記色エッジペア抽出条件は、
色エッジペア候補を構成する第1の色エッジと第2の色エッジにおいて、前記第1の色エッジの周囲にある画素のうち、前記第2の色エッジに近い側にある画素の色と、前記第2の色エッジの周囲にある画素のうち、前記第1の色エッジに近い側にある画素の色とが類似していることという条件、
前記第1の色エッジ近傍における色の変化ベクトルと、前記第2の色エッジ近傍における色の変化ベクトルとがほぼ逆方向となっていることという条件、及び
前記第1の色エッジと前記第2の色エッジの間にある複数の画素間の色の変化量が小さいことという条件
の3つの条件を含み、
前記色エッジペア抽出ステップにおいて、前記画像特徴抽出装置は、前記3つの条件のうちの少なくとも1つの条件を満足する色エッジペア候補を、色エッジペアとして前記色エッジペア候補集合の中から抽出する
ことを特徴とする画像特徴抽出方法。
An image feature extraction method executed by an image feature extraction apparatus for extracting a color edge pair from an image including a line figure,
An image acquisition step of acquiring the image from an image storage means;
A color edge extraction step of extracting a color edge from the image;
A color edge pair candidate set is extracted from the color edges extracted in the color edge extraction step, and color edge pair candidates satisfying a color edge pair extraction condition based on the property that the line figure has a locally similar color comprising a color edge pair extracting from the color edge pair candidate set as the edge pair, and
The color edge pair extraction condition is:
In the first color edge and the second color edge constituting the color edge pair candidate, among the pixels around the first color edge, the color of the pixel closer to the second color edge; A condition that among the pixels around the second color edge, the color of the pixel on the side closer to the first color edge is similar,
A condition that a color change vector in the vicinity of the first color edge and a color change vector in the vicinity of the second color edge are substantially in opposite directions; and
A condition that the amount of change in color between a plurality of pixels between the first color edge and the second color edge is small.
Including the following three conditions:
In the color edge pair extraction step, the image feature extraction device extracts a color edge pair candidate satisfying at least one of the three conditions as a color edge pair from the color edge pair candidate set. Image feature extraction method.
請求項3又は4に記載の画像特徴抽出方法における各ステップを、前記画像特徴抽出装置として使用されるコンピュータに実行させるためのプログラム。   A program for causing a computer used as the image feature extraction apparatus to execute each step in the image feature extraction method according to claim 3 or 4. 請求項5に記載されたプログラムを格納したコンピュータ読み取り可能な記録媒体。   A computer-readable recording medium storing the program according to claim 5.
JP2008141612A 2008-05-29 2008-05-29 Image feature extraction apparatus, image feature extraction method, program, and recording medium Active JP4870721B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008141612A JP4870721B2 (en) 2008-05-29 2008-05-29 Image feature extraction apparatus, image feature extraction method, program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008141612A JP4870721B2 (en) 2008-05-29 2008-05-29 Image feature extraction apparatus, image feature extraction method, program, and recording medium

Publications (2)

Publication Number Publication Date
JP2009289076A JP2009289076A (en) 2009-12-10
JP4870721B2 true JP4870721B2 (en) 2012-02-08

Family

ID=41458229

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008141612A Active JP4870721B2 (en) 2008-05-29 2008-05-29 Image feature extraction apparatus, image feature extraction method, program, and recording medium

Country Status (1)

Country Link
JP (1) JP4870721B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009289075A (en) * 2008-05-29 2009-12-10 Nippon Telegr & Teleph Corp <Ntt> Graphic area extracting apparatus, graphic area extracting method, program, and recording medium

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6864549B2 (en) * 2017-05-09 2021-04-28 株式会社キーエンス Image inspection equipment

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3470938B2 (en) * 1997-05-20 2003-11-25 日本電信電話株式会社 Method and apparatus for detecting telop character display frame

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009289075A (en) * 2008-05-29 2009-12-10 Nippon Telegr & Teleph Corp <Ntt> Graphic area extracting apparatus, graphic area extracting method, program, and recording medium

Also Published As

Publication number Publication date
JP2009289076A (en) 2009-12-10

Similar Documents

Publication Publication Date Title
Hu et al. Deep level sets for salient object detection
JP3833153B2 (en) Image processing method and apparatus
JP5742399B2 (en) Image processing apparatus and program
JP5923713B2 (en) Image processing apparatus, imaging apparatus, and image processing method
Roeder et al. A computational image analysis glossary for biologists
CN104899586B (en) Method and device is identified to the word content for including in image
EP2980755B1 (en) Method for partitioning area, and inspection device
JP5765026B2 (en) Image processing apparatus and program
CN107871321B (en) Image segmentation method and device
CN110945537B (en) Training device, recognition device, training method, recognition method, and program
Dey et al. Script independent approach for multi-oriented text detection in scene image
KR101992044B1 (en) Information processing apparatus, method, and computer program
RU2581786C1 (en) Determination of image transformations to increase quality of optical character recognition
CN103548056A (en) Image-processing device, image-capturing device, and image-processing method
JP4207883B2 (en) Gaze guidance degree calculation system
KR101478709B1 (en) Method and apparatus for extracting and generating feature point and feature descriptor rgb-d image
Oliveira et al. A novel Genetic Algorithms and SURF-Based approach for image retargeting
CN113688846B (en) Object size recognition method, readable storage medium, and object size recognition system
JP6744126B2 (en) Character recognition device, character recognition program, character recognition method
JP4870721B2 (en) Image feature extraction apparatus, image feature extraction method, program, and recording medium
JP5731027B2 (en) Direction determining apparatus, direction determining method, and computer-readable recording medium
JP2008134791A (en) Image processor and image processing program
JP2017102500A (en) Area extraction device, area extraction program, and area extraction method
JP4986934B2 (en) Graphic region extraction apparatus, graphic region extraction method, program, and recording medium
JP2011150627A (en) Method, device, and program for detecting passage

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091120

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110613

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110726

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110926

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111115

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111117

R150 Certificate of patent or registration of utility model

Ref document number: 4870721

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141125

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350