JP2014186549A - Image processor, image processing program and image processing method - Google Patents

Image processor, image processing program and image processing method Download PDF

Info

Publication number
JP2014186549A
JP2014186549A JP2013060992A JP2013060992A JP2014186549A JP 2014186549 A JP2014186549 A JP 2014186549A JP 2013060992 A JP2013060992 A JP 2013060992A JP 2013060992 A JP2013060992 A JP 2013060992A JP 2014186549 A JP2014186549 A JP 2014186549A
Authority
JP
Japan
Prior art keywords
straight line
image processing
black pixel
search window
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013060992A
Other languages
Japanese (ja)
Other versions
JP6155740B2 (en
Inventor
Yutaka Katsuyama
裕 勝山
Yoshinobu Hotta
悦伸 堀田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2013060992A priority Critical patent/JP6155740B2/en
Publication of JP2014186549A publication Critical patent/JP2014186549A/en
Application granted granted Critical
Publication of JP6155740B2 publication Critical patent/JP6155740B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To detect a search window with high accuracy.SOLUTION: An image processor 100 acquires image data of a television program or the like, and generates edge image data 122 by extracting an edge from the image data. The image processor 100 extracts horizontal straight lines from the edge image data 122. The image processor 100 extracts a black pixel connection area obtained by connecting edges in the edge image data 122, and determines, as a search window, a combination of straight lines having the black pixel connection area within a predetermined range between combinations of the plurality of straight lines.

Description

本発明は、画像処理装置等に関する。   The present invention relates to an image processing apparatus and the like.

テレビ番組のCM(Commercial Message)等で検索窓が表示される場合がある。例えば、ユーザは、検索窓に表示されたキーワードを覚えておき、PC(Personal Computer)等を利用して覚えておいたキーワードをWeb検索することで、CMの内容に関して更に多くの情報を得ることができる。   A search window may be displayed in a TV program CM (Commercial Message) or the like. For example, the user can acquire more information regarding the contents of the CM by remembering the keyword displayed in the search window and searching the keyword using a PC (Personal Computer) or the like. Can do.

また、近年では、静止画像から検索窓を検出し、検索窓内の文字列を認識する各種の技術がある。ここでは一例として、従来技術1および従来技術2について説明する。   In recent years, there are various techniques for detecting a search window from a still image and recognizing a character string in the search window. Here, as an example, the prior art 1 and the prior art 2 will be described.

従来技術1は、入力画像からエッジを抽出し、エッジの輪郭線により囲まれた矩形状の領域を抽出する。そして、従来技術1は、矩形状の領域内の画素値の分散値が閾値以下となる領域を、検索窓として判定し、検索窓の領域を2値化して文字認識を行う。   Prior art 1 extracts an edge from an input image, and extracts a rectangular region surrounded by the outline of the edge. The conventional technique 1 determines an area where the variance of pixel values within a rectangular area is equal to or less than a threshold value as a search window, and binarizes the area of the search window to perform character recognition.

従来技術2は、エッジ画像に対してラドン変換を行うことで、色々な角度の線分を抽出し、線分の隣接関係を用いて閉領域を形成する線分集合を抽出する。そして、従来技術2は、閉領域を形成する線分集合を多角形に近似し、該多角形が所定の条件を満たす場合に、多角形に対応する領域を検索窓として判定する。例えば、従来技術2は、多角形を構成する辺のうち最長の2本を選択し、選択した線分が画像に対して平行であり、かつ多角形全体が横長領域の場合に、多角形に対応する領域を検索窓とする。   Prior art 2 extracts line segments of various angles by performing Radon transform on the edge image, and extracts a line segment set that forms a closed region using the adjacency relation of the line segments. Then, the related art 2 approximates the line segment set forming the closed region to a polygon, and determines the region corresponding to the polygon as a search window when the polygon satisfies a predetermined condition. For example, the conventional technique 2 selects the longest two of the sides constituting the polygon, the selected line segment is parallel to the image, and the entire polygon is a horizontally long region. Let the corresponding area be the search window.

特開2012−160023号公報JP 2012-160023 A 特開2002−015283号公報JP 2002-015283 A 特開平8−317195号公報JP-A-8-317195 特開2009−44658号公報JP 2009-44658 A 特開2009−188886号公報JP 2009-188886 A 特開2010−152800号公報JP 2010-152800 A

しかしながら、上述した従来技術では、精度良く検索窓を検出することができないという問題がある。   However, the above-described conventional technique has a problem that the search window cannot be detected with high accuracy.

例えば、従来技術1,2では、強いエッジだけを抽出すると、エッジの輪郭線が途切れる場合があり、閉領域を抽出することができず、検索窓を抽出することができない。また、強いエッジだけでなく、弱いエッジを含めてエッジ抽出を行うと、検索窓に対応するエッジの他に、背景領域や検索窓内のキーワードからもエッジが抽出され、正しい検索窓を識別することができない。   For example, in the conventional techniques 1 and 2, if only a strong edge is extracted, the edge outline may be interrupted, the closed region cannot be extracted, and the search window cannot be extracted. In addition, when edge extraction is performed including not only strong edges but also weak edges, edges are extracted not only from edges corresponding to the search window but also from keywords in the background area and search window, and the correct search window is identified. I can't.

一つの側面では、精度良く検索窓を検出することができる画像処理装置、画像処理プログラムおよび画像処理方法を提供することを目的とする。   An object of one aspect is to provide an image processing apparatus, an image processing program, and an image processing method that can detect a search window with high accuracy.

第1の案では、画像処理装置は、直線抽出部と判定部とを有する。直線抽出部は、画像からエッジを抽出したエッジ画像を基にして、水平方向の複数の直線を抽出する。判定部は、エッジ画像内のエッジを連結させた黒画素連結領域を抽出し、複数の直線の組みの間に所定の範囲内の黒画素連結領域を有する直線の組み合わせを判定する。   In the first plan, the image processing apparatus includes a straight line extraction unit and a determination unit. The straight line extraction unit extracts a plurality of horizontal lines based on an edge image obtained by extracting edges from the image. The determination unit extracts a black pixel connection region obtained by connecting edges in the edge image, and determines a combination of straight lines having a black pixel connection region within a predetermined range between a plurality of straight line combinations.

本発明の一実施態様によれば、画像処理装置によれば、精度良く検索窓を検出することができる。   According to the embodiment of the present invention, the image processing apparatus can detect the search window with high accuracy.

図1は、本実施例に係るTVの構成の一例を示す図である。FIG. 1 is a diagram illustrating an example of a configuration of a TV according to the present embodiment. 図2は、本実施例に係る画像処理装置の構成を示す図である。FIG. 2 is a diagram illustrating the configuration of the image processing apparatus according to the present embodiment. 図3は、画像データの一例を示す図である。FIG. 3 is a diagram illustrating an example of image data. 図4は、エッジ画像データの一例を示す図である。FIG. 4 is a diagram illustrating an example of edge image data. 図5は、直線テーブルのデータ構造の一例を示す図である。FIG. 5 is a diagram illustrating an example of the data structure of the straight line table. 図6は、黒画素連結領域テーブルのデータ構造の一例を示す図である。FIG. 6 is a diagram illustrating an example of the data structure of the black pixel connection area table. 図7は、直線抽出部の処理を説明するための図である。FIG. 7 is a diagram for explaining processing of the straight line extraction unit. 図8は、直線抽出部が抽出した各直線の一例を示す図である。FIG. 8 is a diagram illustrating an example of each straight line extracted by the straight line extraction unit. 図9は、黒画素連結領域抽出部の処理を説明するための図である。FIG. 9 is a diagram for explaining the processing of the black pixel connection region extraction unit. 図10は、判定部の処理を説明するための図(1)である。FIG. 10 is a diagram (1) for explaining the processing of the determination unit. 図11は、判定部が生成する対応管理情報の一例を示す図である。FIG. 11 is a diagram illustrating an example of correspondence management information generated by the determination unit. 図12は、判定部の処理を説明するための図(2)である。FIG. 12 is a diagram (2) for explaining the processing of the determination unit. 図13は、判定部の処理を説明するための図(3)である。FIG. 13 is a diagram (3) for explaining the processing of the determination unit. 図14は、判定部の処理を説明するための図(4)である。FIG. 14 is a diagram (4) for explaining the processing of the determination unit. 図15は、判定部の処理を説明するための図(5)である。FIG. 15 is a diagram (5) for explaining the processing of the determination unit. 図16は、判定部の処理を説明するための図(6)である。FIG. 16 is a diagram (6) for explaining the processing of the determination unit. 図17は、判定部の処理を説明するための図(7)である。FIG. 17 is a diagram (7) for explaining the processing of the determination unit. 図18は、判定部の処理を説明するための図(8)である。FIG. 18 is a diagram (8) for explaining the process of the determination unit. 図19は、判定部の処理を説明するための図(9)である。FIG. 19 is a diagram (9) for explaining the processing of the determination unit. 図20は、判定部の処理を説明するための図(10)である。FIG. 20 is a diagram (10) for explaining the processing of the determination unit. 図21は、本実施例に係る画像処理装置の処理手順を示すフローチャートである。FIG. 21 is a flowchart illustrating the processing procedure of the image processing apparatus according to the present embodiment. 図22は、本実施例に係る検索窓領域検出処理の処理手順を示すフローチャートである。FIG. 22 is a flowchart illustrating a processing procedure of search window area detection processing according to the present embodiment. 図23は、直線ペア抽出処理の処理手順を示すフローチャートである。FIG. 23 is a flowchart illustrating a processing procedure of straight line pair extraction processing. 図24は、黒画素連結領域と直線ペアとの位置関係に基づいて直線ペアを選択する処理手順を示すフローチャートである。FIG. 24 is a flowchart illustrating a processing procedure for selecting a straight line pair based on the positional relationship between the black pixel connection region and the straight line pair. 図25は、直線ペア間の領域に対して文字認識を実行し文字認識の確信度を基にして直線ペアを選択する処理手順を示すフローチャートである。FIG. 25 is a flowchart showing a processing procedure for executing character recognition on an area between straight line pairs and selecting a straight line pair based on the certainty of character recognition. 図26は、特定文字を基にして直線ペアを選択する処理手順を示すフローチャートである。FIG. 26 is a flowchart showing a processing procedure for selecting a straight line pair based on a specific character. 図27は、画像処理装置のその他の実施例を説明するための図である。FIG. 27 is a diagram for explaining another embodiment of the image processing apparatus. 図28は、制御プログラムを実行するコンピュータの一例を示す図である。FIG. 28 is a diagram illustrating an example of a computer that executes a control program.

以下に、本願の開示する画像処理装置、画像処理プログラムおよび画像処理方法の実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。   Embodiments of an image processing apparatus, an image processing program, and an image processing method disclosed in the present application will be described below in detail with reference to the drawings. Note that the present invention is not limited to the embodiments.

本実施例に係るTVの構成の一例について説明する。図1は、本実施例に係るTVの構成の一例を示す図である。図1に示すように、このTV50は、チューナー51、モニタ52、通信部53、リモコン受信部54、TV制御部55、画像処理装置100を有する。チューナー51、モニタ52、通信部53、リモコン受信部54、TV制御部55、画像処理装置100は、接続線60によって相互に電気的に接続される。TV50は、ネットワーク10を介して図示しない各種のサーバに接続される。その他の構成は、周知のTVと同様であるため、ここでは説明を省略する。   An example of the configuration of the TV according to the present embodiment will be described. FIG. 1 is a diagram illustrating an example of a configuration of a TV according to the present embodiment. As shown in FIG. 1, the TV 50 includes a tuner 51, a monitor 52, a communication unit 53, a remote control reception unit 54, a TV control unit 55, and an image processing device 100. The tuner 51, the monitor 52, the communication unit 53, the remote control receiving unit 54, the TV control unit 55, and the image processing apparatus 100 are electrically connected to each other via a connection line 60. The TV 50 is connected to various servers (not shown) via the network 10. Since other configurations are the same as those of the well-known TV, description thereof is omitted here.

チューナー51は、アンテナ5を利用してテレビ放送を受信する装置である。チューナー51は、テレビ放送の情報を、TV制御部55に出力する。   The tuner 51 is a device that receives a television broadcast using the antenna 5. The tuner 51 outputs TV broadcast information to the TV control unit 55.

モニタ52は、TV制御部55から出力されるテレビ放送の情報を表示する表示装置である。また、モニタ52は、画像処理装置100から出力される情報を表示する。画像処理装置100から出力される情報には、テレビ番組のCM等で表示される検索窓のキーワードのWeb検索結果等が含まれる。   The monitor 52 is a display device that displays information on the television broadcast output from the TV control unit 55. The monitor 52 displays information output from the image processing apparatus 100. The information output from the image processing apparatus 100 includes a Web search result of a keyword in a search window displayed in a TV program CM or the like.

通信部53は、ネットワーク10を介して図示しない各種のサーバとデータ通信を実行する処理部である。後述する画像処理装置100は、通信部53を介して、外部のサーバ等とデータをやり取りする。通信部53は、例えば、NIC(Network Interface Card)等の通信装置に対応する。   The communication unit 53 is a processing unit that performs data communication with various servers (not shown) via the network 10. The image processing apparatus 100 described later exchanges data with an external server or the like via the communication unit 53. The communication unit 53 corresponds to a communication device such as a NIC (Network Interface Card).

リモコン受信部54は、利用者の操作するリモコン(リモートコントローラ)からの情報を受信する装置である。リモコン受信部54は、受信した情報を、TV制御部55に出力する。なお、リモコン受信部54は、検索窓に表示されたキーワードに関する検索要求を受け付けた場合には、検索要求を、画像処理装置100に出力する。   The remote control receiving unit 54 is a device that receives information from a remote controller (remote controller) operated by a user. The remote control receiving unit 54 outputs the received information to the TV control unit 55. When receiving a search request regarding the keyword displayed in the search window, the remote control receiving unit 54 outputs the search request to the image processing apparatus 100.

TV制御部55は、TV50全体を制御する装置である。例えば、TV制御部55は、チューナー51が受信する各テレビ番組の情報のうち、リモコンによって指定されたチャンネルの番組をモニタ52に出力して表示させる。また、TV制御部55は、モニタ52に表示させているテレビ番組の映像データを、画像処理装置100に出力する。   The TV control unit 55 is a device that controls the entire TV 50. For example, the TV control unit 55 outputs the program of the channel designated by the remote controller from the information of each TV program received by the tuner 51 to the monitor 52 for display. Further, the TV control unit 55 outputs the video data of the television program displayed on the monitor 52 to the image processing apparatus 100.

画像処理装置100は、テレビ番組で表示される検索窓を抽出する装置である。また、画像処理装置100は、検索窓に含まれるキーワードをWeb検索し、検索結果をモニタ52に表示させる。   The image processing apparatus 100 is an apparatus that extracts a search window displayed in a television program. Further, the image processing apparatus 100 performs a Web search for keywords included in the search window and causes the monitor 52 to display the search results.

図1に示した画像処理装置100の構成の一例について説明する。図2は、本実施例に係る画像処理装置の構成を示す図である。図2に示すように、この画像処理装置100は、インタフェース部110、記憶部120、制御部130を有する。   An example of the configuration of the image processing apparatus 100 illustrated in FIG. 1 will be described. FIG. 2 is a diagram illustrating the configuration of the image processing apparatus according to the present embodiment. As illustrated in FIG. 2, the image processing apparatus 100 includes an interface unit 110, a storage unit 120, and a control unit 130.

インタフェース部110は、例えば、TV制御部55との間でデータ通信を実行する処理部である。また、インタフェース部110は、通信部53を介して、ネットワーク10上のサーバとデータ通信を実行する。後述する制御部130は、インタフェース部110を介して、TV制御部55、サーバ等とデータをやり取りする。   The interface unit 110 is a processing unit that executes data communication with the TV control unit 55, for example. The interface unit 110 performs data communication with a server on the network 10 via the communication unit 53. The control unit 130 described later exchanges data with the TV control unit 55, the server, and the like via the interface unit 110.

記憶部120は、画像データ121、エッジ画像データ122、直線テーブル123、黒画素連結領域テーブル124、検索窓領域データ125を記憶する。記憶部120は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ(Flash Memory)などの半導体メモリ素子などの記憶装置に対応する。   The storage unit 120 stores image data 121, edge image data 122, a straight line table 123, a black pixel connection area table 124, and search window area data 125. The storage unit 120 corresponds to a storage device such as a semiconductor memory element such as a random access memory (RAM), a read only memory (ROM), and a flash memory.

画像データ121は、テレビ番組の映像データから抽出された静止画像のデータである。図3は、画像データの一例を示す図である。   The image data 121 is still image data extracted from video data of a television program. FIG. 3 is a diagram illustrating an example of image data.

エッジ画像データ122は、画像データ121からエッジを抽出されることで生成される画像データである。図4は、エッジ画像データの一例を示す図である。なお、画像122bは、エッジ画像122の領域122aを拡大したものである。   The edge image data 122 is image data generated by extracting an edge from the image data 121. FIG. 4 is a diagram illustrating an example of edge image data. The image 122b is an enlargement of the region 122a of the edge image 122.

直線テーブル123は、エッジ画像データ122から抽出される水平方向の直線の情報を保持するテーブルである。図5は、直線テーブルのデータ構造の一例を示す図である。図5に示すように、この直線テーブル123は、直線識別情報と、始点座標と、終点座標とを対応付ける。直線識別情報は、エッジ画像データ122から抽出される水平方向の直線を一意に識別する情報である。始点座標は、水平方向の直線の始点座標を示す。終点座標は、水平方向の直線の終点座標を示す。   The straight line table 123 is a table that holds horizontal straight line information extracted from the edge image data 122. FIG. 5 is a diagram illustrating an example of the data structure of the straight line table. As shown in FIG. 5, the straight line table 123 associates straight line identification information, start point coordinates, and end point coordinates. The straight line identification information is information that uniquely identifies a horizontal straight line extracted from the edge image data 122. The start point coordinates indicate the start point coordinates of a straight line in the horizontal direction. The end point coordinate indicates the end point coordinate of a straight line in the horizontal direction.

黒画素連結領域テーブル124は、エッジ画像データのエッジを連結させた黒画素連結領域の情報を保持するテーブルである。例えば、黒画素連結領域は、矩形に近似される。図6は、黒画素連結領域テーブルのデータ構造の一例を示す図である。図6に示すように、この黒画素連結領域テーブル124は、黒画素識別情報と、左上矩形座標と、右下矩形座標とを対応付ける。黒画素識別情報は、黒画素連結領域を一意に識別する情報である。左上矩形座標は、黒画素連結領域の左上隅の座標を示す。右下矩形座標は、黒画素連結領域の右下隅の座標を示す。   The black pixel connection area table 124 is a table that holds information on black pixel connection areas in which edges of edge image data are connected. For example, the black pixel connection area is approximated to a rectangle. FIG. 6 is a diagram illustrating an example of the data structure of the black pixel connection area table. As shown in FIG. 6, this black pixel connection area table 124 associates black pixel identification information, upper left rectangular coordinates, and lower right rectangular coordinates. Black pixel identification information is information that uniquely identifies a black pixel connection region. The upper left rectangular coordinates indicate the coordinates of the upper left corner of the black pixel connection area. The lower right rectangular coordinates indicate the coordinates of the lower right corner of the black pixel connection area.

検索窓領域データ125は、後述する検索窓検出部133によって検出された画像データ121上の検索窓の領域を示す情報を含む。例えば、検索窓領域データ125は、画面データ121上の検索窓の座標に対応する。   The search window area data 125 includes information indicating a search window area on the image data 121 detected by the search window detection unit 133 described later. For example, the search window area data 125 corresponds to the coordinates of the search window on the screen data 121.

制御部130は、取得部131、変換部132、検索窓検出部133、文字認識処理部134、Web検索部135を有する。制御部130は、例えば、ASIC(Application Specific Integrated Circuit)や、FPGA(Field Programmable Gate Array)などの集積装置に対応する。また、制御部130は、例えば、CPUやMPU(Micro Processing Unit)等の電子回路に対応する。   The control unit 130 includes an acquisition unit 131, a conversion unit 132, a search window detection unit 133, a character recognition processing unit 134, and a web search unit 135. The control unit 130 corresponds to an integrated device such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array). The control unit 130 corresponds to an electronic circuit such as a CPU or MPU (Micro Processing Unit).

なお、制御部130は、リモコン受信部54から検索要求を取得したことを契機にして、処理を開始しても良い。   Note that the control unit 130 may start the process when the search request is acquired from the remote control reception unit 54.

取得部131は、TV制御部55から映像データを取得する処理部である。取得部131は、取得した映像データから、静止画像となる画像データを抽出し、抽出した画像データを記憶部120に記憶させる。   The acquisition unit 131 is a processing unit that acquires video data from the TV control unit 55. The acquisition unit 131 extracts image data to be a still image from the acquired video data, and stores the extracted image data in the storage unit 120.

変換部132は、画像データ121からエッジを抽出することにより、エッジ画像データ122を生成する処理部である。例えば、変換部132は、画像データ121をグレースケール(Grayscale)画像データに変換する。そして、変換部132は、グレースケール画像データに対して、Canny Edge等のアルゴリズムを適用することで、エッジ画像データ122を生成する。   The conversion unit 132 is a processing unit that generates the edge image data 122 by extracting an edge from the image data 121. For example, the conversion unit 132 converts the image data 121 into grayscale image data. Then, the conversion unit 132 generates the edge image data 122 by applying an algorithm such as Canny Edge to the grayscale image data.

検索窓検出部133は、検索窓を検出する処理部である。検索窓検出部133は、直線抽出部133aと、黒画素連結領域抽出部133bと、判定部133cとを有する。   The search window detection unit 133 is a processing unit that detects a search window. The search window detection unit 133 includes a straight line extraction unit 133a, a black pixel connection region extraction unit 133b, and a determination unit 133c.

直線抽出部133aは、エッジ画像データ122から水平方向の直線を抽出する処理部である。直線抽出部133aは、抽出した直線の情報を直線テーブル123に登録する。   The straight line extraction unit 133 a is a processing unit that extracts a straight line in the horizontal direction from the edge image data 122. The straight line extraction unit 133 a registers the extracted straight line information in the straight line table 123.

直線抽出部133aの処理を具体的に説明する。直線抽出部133aは、エッジ画像データ122から小線分抽出した後に、各小線分を統合することで、水平方向の直線を得る。小線分を抽出する処理について説明する。   The process of the straight line extraction unit 133a will be specifically described. The straight line extraction unit 133a obtains a horizontal straight line by integrating the small line segments after extracting the small line segments from the edge image data 122. A process for extracting a small line segment will be described.

図7は、直線抽出部の処理を説明するための図である。直線抽出部133aは、エッジ画像データ122に対して、32画素幅の短冊領域を設定する。直線抽出部133aは、各短冊領域のy座標毎に、黒画素の横投影ヒストグラムp(i)を作成する。iはy座標を示す。例えば、短冊領域のy座標(y1)について、黒画素の画素数が30画素の場合には、p(y1)の値は、30となる。   FIG. 7 is a diagram for explaining processing of the straight line extraction unit. The straight line extraction unit 133 a sets a strip area having a width of 32 pixels for the edge image data 122. The straight line extraction unit 133a creates a horizontal projection histogram p (i) of black pixels for each y coordinate of each strip area. i represents the y coordinate. For example, for the y coordinate (y1) of the strip area, when the number of black pixels is 30, the value of p (y1) is 30.

直線抽出部133aは、下記の直線抽出条件1〜3の何れか一つの条件を満たす場合に、y座標iの短冊幅の小線分を抽出する。直線抽出条件1は、p(i)の値が30以上という条件である。直線抽出条件2は、p(i)の値と、p(i+1)の値とを加算した値が、30以上という条件である。直線抽出条件3は、p(i)の値と、p(i+1)の値と、p(i−1)の値とを加算した値が30以上という条件である。エッジの直線が水平方向から若干ずれた場合でも、係る直線を、直線抽出条件2,3によって救済することができる。   The straight line extraction unit 133a extracts a short line segment having a strip width of y-coordinate i when any one of the following straight line extraction conditions 1 to 3 is satisfied. Line extraction condition 1 is a condition that the value of p (i) is 30 or more. The straight line extraction condition 2 is a condition that the value obtained by adding the value of p (i) and the value of p (i + 1) is 30 or more. The straight line extraction condition 3 is a condition that the value obtained by adding the value of p (i), the value of p (i + 1), and the value of p (i−1) is 30 or more. Even if the straight line of the edge is slightly deviated from the horizontal direction, the straight line can be relieved by the straight line extraction conditions 2 and 3.

例えば、図7の短冊領域1aのあるy座標iについて、直線抽出条件1〜3の何れか一つの条件を満たす場合に、直線抽出部133aは、短冊領域1a内のy座標i上の直線1bを抽出する。直線抽出部133aは、他の短冊領域についても同様の処理を繰り返し実行することで、小線分を抽出する。   For example, for a certain y coordinate i in the strip area 1a of FIG. 7, when any one of the straight line extraction conditions 1 to 3 is satisfied, the straight line extraction unit 133a sets the straight line 1b on the y coordinate i in the strip area 1a. To extract. The straight line extraction unit 133a extracts a small line segment by repeatedly executing the same processing for other strip regions.

直線抽出部133aは、小線分を抽出した後に、各小線分を横方向に統合することで、水平方向の直線を得る。例えば、直線抽出部133aは、各小線分の始点座標および終点座標を比較し、横方向に連続する各小線分を統合する。図8は、直線抽出部が抽出した各直線の一例を示す図である。直線抽出部133aは、統合した各直線の情報を、直線テーブル123に登録する。   The straight line extracting unit 133a obtains a horizontal straight line by extracting the small line segments and then integrating the small line segments in the horizontal direction. For example, the straight line extraction unit 133a compares the start point coordinates and end point coordinates of each small line segment, and integrates each small line segment that is continuous in the horizontal direction. FIG. 8 is a diagram illustrating an example of each straight line extracted by the straight line extraction unit. The straight line extraction unit 133 a registers the information of each integrated straight line in the straight line table 123.

図2の説明に戻る。黒画素連結領域抽出部133bは、エッジ画像データ122に含まれる各エッジを連結することで黒画素連結領域を抽出する処理部である。例えば、黒画素連結領域抽出部133bは、エッジ画像データ122に対して、ラベリングを実行し、同じラベルの塊の外接矩形を求める。黒画素連結領域抽出部133bは、外接矩形で近似した黒画素連結領域の情報を、黒画素連結領域テーブル124に登録する。   Returning to the description of FIG. The black pixel connection region extraction unit 133b is a processing unit that extracts black pixel connection regions by connecting the edges included in the edge image data 122. For example, the black pixel connection region extraction unit 133b performs labeling on the edge image data 122 and obtains a circumscribed rectangle of the same label lump. The black pixel connection area extraction unit 133 b registers information on the black pixel connection area approximated by a circumscribed rectangle in the black pixel connection area table 124.

図9は、黒画素連結領域抽出部の処理を説明するための図である。図9に示すように、黒画素連結領域抽出部133bがラベリング処理を実行することで、複数の外接矩形が抽出される。   FIG. 9 is a diagram for explaining the processing of the black pixel connection region extraction unit. As shown in FIG. 9, the black pixel connection area extraction unit 133b executes a labeling process, whereby a plurality of circumscribed rectangles are extracted.

判定部133cは、直線テーブル123および黒画素連結領域テーブル124を基にして、検索窓の領域を判定する処理部である。判定部133cは、判定した検索窓の領域の情報を、検索窓領域データ125に登録する。以下において、判定部133cの処理を具体的に説明する。判定部133cは、直線と黒画素連結領域とを対応付ける処理、直線のペアを判定する処理、検索窓を構成する直線のペアを判定する処理を実行する。また、判定部133は、候補領域を抽出する処理を実行する。   The determination unit 133c is a processing unit that determines the region of the search window based on the straight line table 123 and the black pixel connection region table 124. The determination unit 133c registers the determined search window area information in the search window area data 125. Hereinafter, the processing of the determination unit 133c will be specifically described. The determination unit 133c executes processing for associating a straight line with a black pixel connection region, processing for determining a straight line pair, and processing for determining a straight line pair constituting the search window. In addition, the determination unit 133 executes processing for extracting candidate regions.

判定部133cが、直線と黒画素連結領域とを対応付ける処理について説明する。図10は、判定部の処理を説明するための図(1)である。まず、判定部133cは、直線との距離が同一となる黒画素連結領域の組みを判定し、それぞれを対応付ける。例えば、図10に示す例では、直線2aと、黒画素連結領域3a,3b,3c,3d,3e,3fとの距離がそれぞれ同一となる。このため、判定部133cは、直線2aと、黒画素連結領域3a〜3fを対応付ける。また、直線2aと、黒画素連結領域4a,4b,4c,4d,4eとの距離がそれぞれ同一となる。このため、判定部133cは、直線2aと、黒画素連結領域4a〜4fとを対応付ける。   A process in which the determination unit 133c associates a straight line with a black pixel connection region will be described. FIG. 10 is a diagram (1) for explaining the processing of the determination unit. First, the determination unit 133c determines a set of black pixel connection regions that have the same distance from the straight line, and associates them with each other. For example, in the example shown in FIG. 10, the distances between the straight line 2a and the black pixel connection regions 3a, 3b, 3c, 3d, 3e, and 3f are the same. For this reason, the determination unit 133c associates the straight line 2a with the black pixel connection regions 3a to 3f. The distances between the straight line 2a and the black pixel connection regions 4a, 4b, 4c, 4d, and 4e are the same. For this reason, the determination unit 133c associates the straight line 2a with the black pixel connection regions 4a to 4f.

判定部133cは、対応付けた直線の直線識別情報と、各黒画素連結領域の黒画素識別情報とを対応付けて、対応管理情報に登録する。図11は、判定部が生成する対応管理情報の一例を示す図である。   The determination unit 133c registers the associated straight line identification information and the black pixel identification information of each black pixel connection region in association management information in association with each other. FIG. 11 is a diagram illustrating an example of correspondence management information generated by the determination unit.

判定部133cが直線のペアを判定する処理について説明する。例えば、判定部133cは、直線テーブル123および黒画素連結領域テーブル124を基にして、各直線の長さの差が所定の閾値未満でy方向に重複し、且つ、各直線間に黒画素連結領域が存在する場合に、係る各直線をペアとする。判定部133cは、各直線のペアの情報をペア管理情報に登録する。ここでは図示を省略するが、ペア管理情報は、ペアとなる各直線の直線識別情報が対応付けられる情報である。   A process in which the determination unit 133c determines a straight line pair will be described. For example, based on the straight line table 123 and the black pixel connection region table 124, the determination unit 133c overlaps in the y direction when the length difference between the straight lines is less than a predetermined threshold, and connects the black pixels between the straight lines. When a region exists, each straight line is paired. The determination unit 133c registers information on each straight line pair in the pair management information. Although illustration is omitted here, the pair management information is information associated with the straight line identification information of each straight line forming a pair.

判定部133cが検索窓を構成する直線のペアを判定する処理について説明する。図12は、判定部の処理を説明するための図(2)である。判定部133cは、上記対応付けた直線のペアを選択し、選択した直線に対応付けられた黒画素連結領域が所定の条件を満たす場合に、選択した直線のペアを、検索窓を構成する直線のペアとして判定する。具体的に、式(1)に示す条件を満たす場合に、選択した直線のペアを、検索窓を構成する直線のペアとして判定する。式(1)の閾値は、利用者が適宜設定する値である。   A process in which the determination unit 133c determines a pair of straight lines constituting the search window will be described. FIG. 12 is a diagram (2) for explaining the processing of the determination unit. The determination unit 133c selects the pair of straight lines associated with each other, and when the black pixel connection region associated with the selected straight line satisfies a predetermined condition, the determination unit 133c selects the pair of straight lines that form the search window. Judge as a pair. Specifically, when the condition shown in Expression (1) is satisfied, the selected straight line pair is determined as a straight line pair constituting the search window. The threshold value of the formula (1) is a value set by the user as appropriate.

直線ペアに対応付けられた黒画素連結領域のうち、直線ペアで共通する黒画素連結領域の数/直線ペアに対応付けられた黒画素連結領域の数(ただし、重複する黒画素連結領域は、1つとカウントする)>閾値・・・(1)   Of the black pixel connection areas associated with the straight line pairs, the number of black pixel connection areas common to the straight line pairs / the number of black pixel connection areas associated with the straight line pairs (however, the overlapping black pixel connection areas are Count as 1)> Threshold ... (1)

式(1)の内容を、図12を用いて説明する。図12では、直線2aと直線2bとが直線ペアとなっている。直線2aには、黒画素連結領域4a,4b,4c,4d,4eが対応付けられている。直線2bには、黒画素連結領域4a,4b,4c,4e,4fが対応付けられている。また、直線ペアで共通する黒画素連結領域は、黒画素連結領域4a,4b,4c,4eとなる。このため、図12に示す例では、直線ペアに対応付けられた黒画素連結領域のうち、直線ペアで共通する黒画素連結領域の数は「4」となり、直線ペアに対応付けられた黒画素連結領域の数は「6」となる。すなわち、直線ペアに黒画素連結領域4f、4dが更に対応付けられる。   The contents of equation (1) will be described with reference to FIG. In FIG. 12, the straight line 2a and the straight line 2b form a straight line pair. The black pixel connection areas 4a, 4b, 4c, 4d, and 4e are associated with the straight line 2a. The black pixel connection areas 4a, 4b, 4c, 4e, and 4f are associated with the straight line 2b. Further, the black pixel connection areas common to the straight line pairs are black pixel connection areas 4a, 4b, 4c, and 4e. For this reason, in the example illustrated in FIG. 12, among the black pixel connection regions associated with the straight line pair, the number of black pixel connection regions common to the straight line pair is “4”, and the black pixels associated with the straight line pair The number of connected areas is “6”. That is, the black pixel connection regions 4f and 4d are further associated with the straight line pair.

判定部が候補領域を抽出する処理について説明する。図13は、判定部の処理を説明するための図(3)である。図13に示す直線ペア2a,2bは、上記の処理により、検索窓を構成する直線のペアとして判定されたものとする。判定部133cは、直線ペア2a,2b内の領域にある黒画素連結領域4a〜4fを囲む領域3aを候補領域として抽出する。   A process in which the determination unit extracts candidate areas will be described. FIG. 13 is a diagram (3) for explaining the processing of the determination unit. It is assumed that the straight line pairs 2a and 2b shown in FIG. 13 are determined as straight line pairs constituting the search window by the above processing. The determination unit 133c extracts a region 3a surrounding the black pixel connection regions 4a to 4f in the region in the straight line pairs 2a and 2b as a candidate region.

図14は、判定部の処理を説明するための図(4)である。判定部133cは、抽出した2つの候補領域がほぼ同じy座標を持ち、隣接し、且つ、線分、黒画素連結領域のy方向位置がほぼ同じ場合に、2つの候補領域を統合する。例えば、図14に示す例では、2つの候補領域3a,3bの左上および右下のy座標の差が閾値未満であり、かつ、直線2aおよび直線2cのy座標の差が閾値未満であり、かつ、直線2bおよび直線2dのy座標の差が閾値未満とする。また、黒画素連結領域4a〜4fの重心のy方向位置と、黒画素連結領域4g〜4lの重心のy方向位置との差が閾値未満であるとする。この場合には、判定部133cは、候補領域3a,3bを統合して、候補領域3cを生成する。   FIG. 14 is a diagram (4) for explaining the processing of the determination unit. The determination unit 133c integrates the two candidate areas when the two extracted candidate areas have substantially the same y-coordinate, are adjacent, and the y-direction positions of the line segment and the black pixel connection area are substantially the same. For example, in the example shown in FIG. 14, the difference between the upper left and lower right y coordinates of the two candidate areas 3a and 3b is less than the threshold, and the difference between the y coordinates of the straight line 2a and the straight line 2c is less than the threshold. The difference between the y-coordinates of the straight line 2b and the straight line 2d is less than the threshold value. Further, it is assumed that the difference between the y-direction position of the center of gravity of the black pixel connection areas 4a to 4f and the y-direction position of the center of gravity of the black pixel connection areas 4g to 4l is less than the threshold value. In this case, the determination unit 133c integrates the candidate areas 3a and 3b to generate the candidate area 3c.

図15は、判定部の処理を説明するための図(5)である。ここでは、候補領域3d,3eを用いて説明する。判定部133cは、候補領域3dの左端から左方向に32画素の地点を開始点とし、右方向に縦方向の黒画素投影ヒストグラムでピーク点を検索し、ピーク点を候補領域の左端とする。また、候補領域3dの右端から右方向に32画素の地点を開始点とし、左方向に縦方向の黒画素投影ヒストグラムでピーク点を検索し、ピーク点を候補領域の右端とする。判定部133cが係る処理を実行することで、候補領域3dの領域は、候補領域3fとなる。判定部133cは、候補領域3eについても同様の処理を実行することで、候補領域3eの領域は、候補領域3gとなる。   FIG. 15 is a diagram (5) for explaining the processing of the determination unit. Here, a description will be given using the candidate areas 3d and 3e. The determination unit 133c searches for a peak point with a black pixel projection histogram in the left direction from the left end of the candidate area 3d, starting from a point of 32 pixels leftward, and sets the peak point as the left end of the candidate area. Further, a point of 32 pixels in the right direction from the right end of the candidate area 3d is used as a start point, a peak point is searched for in the black pixel projection histogram in the vertical direction in the left direction, and the peak point is set as the right end of the candidate area. By executing the processing related to the determination unit 133c, the candidate area 3d becomes the candidate area 3f. The determination unit 133c performs the same process on the candidate region 3e, so that the candidate region 3e becomes the candidate region 3g.

図16は、判定部の処理を説明するための図(6)である。ここでは、候補領域3h,3iを用いて説明する。判定部133cは、候補領域の4辺の1画素内部の領域を走査して、白画素から黒画素あるいは黒画素から白画素に変化する回数を計数する。判定部133cは、変化する回数が閾値以上の場合には、対応する候補領域を削除する。例えば、候補領域3hについて、候補領域の4辺の1画素内部の領域を走査すると、変化する回数が閾値未満となる。このため、判定部133cは、候補領域3hを残す。これに対して、候補領域3iについて、候補領域の4辺の1画素内部の領域を走査すると、変化する回数が閾値以上となる。このため、判定部133cは、候補領域3iを削除する。   FIG. 16 is a diagram (6) for explaining the processing of the determination unit. Here, a description will be given using the candidate areas 3h and 3i. The determination unit 133c scans the area inside one pixel of the four sides of the candidate area, and counts the number of times of change from the white pixel to the black pixel or from the black pixel to the white pixel. The determination unit 133c deletes the corresponding candidate area when the number of changes is equal to or greater than the threshold. For example, regarding the candidate area 3h, when the area inside one pixel on the four sides of the candidate area is scanned, the number of changes is less than the threshold. For this reason, the determination unit 133c leaves the candidate area 3h. On the other hand, for the candidate area 3i, when the area inside one pixel of the four sides of the candidate area is scanned, the number of changes becomes equal to or greater than the threshold. For this reason, the determination unit 133c deletes the candidate area 3i.

図17は、判定部の処理を説明するための図(7)である。判定部133cは、座標が類似する各候補領域を統合する。ここでは、候補領域3j,3kを用いて説明する。また、候補領域3jのx座標のうち、最小のx座標をxmin1とし、最大のx座標をxmax1とする。候補領域3jのy座標のうち、最小のy座標をymin1とし、最大のy座標をymax1とする。また、候補領域3kのx座標のうち、最小のx座標をxmin2とし、最大のx座標をxmax2とする。候補領域3jのy座標のうち、最小のy座標をymin2とし、最大のy座標をymax2とする。   FIG. 17 is a diagram (7) for explaining the processing of the determination unit. The determination unit 133c integrates candidate areas with similar coordinates. Here, a description will be given using candidate areas 3j and 3k. Also, among the x coordinates of the candidate area 3j, the minimum x coordinate is xmin1, and the maximum x coordinate is xmax1. Among the y coordinates of the candidate area 3j, the minimum y coordinate is ymin1, and the maximum y coordinate is ymax1. Further, among the x coordinates of the candidate area 3k, the minimum x coordinate is xmin2, and the maximum x coordinate is xmax2. Among the y coordinates of the candidate area 3j, the minimum y coordinate is ymin2, and the maximum y coordinate is ymax2.

判定部133cは、式(2)に示す条件を満たす場合に、候補領域3j,3kを統合する。例えば、判定部133cは、候補領域3j,3kを統合することで、候補領域3lを生成する。   The determination unit 133c integrates the candidate areas 3j and 3k when the condition shown in Expression (2) is satisfied. For example, the determination unit 133c generates the candidate region 3l by integrating the candidate regions 3j and 3k.

|xmin1−xmin2|+|xmax1−xmax2|+|ymin1−ymin2|+|ymax1−ymax2|<閾値・・・(2)   | Xmin1-xmin2 | + | xmax1-xmax2 | + | ymin1-ymin2 | + | ymax1-ymax2 | <threshold value (2)

図18は、判定部の処理を説明するための図(8)である。判定部133cは、候補領域内で、左右端点から一定距離離れているところで、縦方向の黒画素投影ヒストグラムのピーク点が存在する場合には、候補領域を分割する。ここでは、候補領域3mを用いて説明する。例えば、候補領域3m内で、縦方向の黒画素投影ヒストグラムのピーク点6aが存在する場合には、判定部133cは、候補領域3mを、ピーク点6aの位置を基準として、候補領域3n,3oに分割する。   FIG. 18 is a diagram (8) for explaining the process of the determination unit. The determination unit 133c divides the candidate region when the peak point of the black pixel projection histogram in the vertical direction exists at a certain distance from the left and right end points in the candidate region. Here, a description will be given using the candidate area 3m. For example, when the peak point 6a of the black pixel projection histogram in the vertical direction exists in the candidate area 3m, the determination unit 133c determines the candidate area 3m as a reference based on the position of the peak point 6a. Divide into

図19は、判定部の処理を説明するための図(9)である。判定部133cは、候補領域に含まれる黒画素連結領域に対して文字認識をそれぞれ実行する。判定部133cは、各文字認識結果の確信度の平均値が閾値未満の場合に、候補領域を削除する。ここでは、候補領域3p,3qを用いて説明する。なお、黒画素連結領域に対して文字認識を実行する技術や、確信度を算出する技術は、如何なる従来技術を利用しても良い。判定部133cは、例えば、候補領域3pに対して文字認識を実行し、各文字認識結果の確信度の平均値が、閾値以上の場合には、候補領域3pを残す。   FIG. 19 is a diagram (9) for explaining the processing of the determination unit. The determination unit 133c performs character recognition on each black pixel connection area included in the candidate area. The determination unit 133c deletes the candidate area when the average value of the certainty factor of each character recognition result is less than the threshold value. Here, description will be made using candidate regions 3p and 3q. Note that any conventional technique may be used as the technique for performing character recognition on the black pixel connection area and the technique for calculating the certainty factor. For example, the determination unit 133c performs character recognition on the candidate region 3p, and leaves the candidate region 3p when the average value of the certainty factor of each character recognition result is equal to or greater than a threshold value.

なお、判定部133cは、各文字認識結果の確信度の平均値が閾値以上の場合であっても、候補領域に特定の文字が含まれている場合には、候補領域を削除する。例えば、文字認識で認識された文字に「検」、「索」または「Q」の文字が含まれる場合に、候補領域を削除する。例えば、検索の意味を示す虫眼鏡マークに対する文字認識結果が「Q」となる場合がある。候補領域3qに対して文字認識を実行すると、「検」、「索」の文字が含まれるので、判定部133cは、候補領域3qを削除する。なお、判定部133cは、「検」、「索」または「Q」を含む候補領域の座標を記録しておく。   Note that the determination unit 133c deletes the candidate area if the candidate area includes a specific character even if the certainty factor of each character recognition result is equal to or greater than the threshold. For example, the candidate area is deleted when the characters recognized by character recognition include the characters “verification”, “search”, or “Q”. For example, the character recognition result for the magnifying glass mark indicating the meaning of the search may be “Q”. When character recognition is performed on the candidate area 3q, since the characters “verification” and “search” are included, the determination unit 133c deletes the candidate area 3q. Note that the determination unit 133c records the coordinates of the candidate area including “check”, “search”, or “Q”.

図20は、判定部の処理を説明するための図(10)である。判定部133cは、上記処理によって、候補領域が複数存在する場合に、以下に説明する処理を実行しても良い。判定部133cは、「検」、「索」または「Q」の文字が含まれる領域が存在した場合には、係る領域の左右にある最も近い領域を検索窓として検出する。例えば、図10に示す例では、領域3rに、「検索」が含まれており、領域3rの左右に最も近い領域は候補領域3sとなる。このため、判定部133cは、候補領域3rを検索窓の領域として検出する。判定部133cは、検出した検索窓の情報を検索窓領域データ125に登録する。   FIG. 20 is a diagram (10) for explaining the processing of the determination unit. The determination unit 133c may execute the process described below when there are a plurality of candidate areas by the above process. When there is a region including the characters “detect”, “search”, or “Q”, the determination unit 133c detects the closest region on the left and right of the region as a search window. For example, in the example shown in FIG. 10, “search” is included in the region 3r, and the region closest to the left and right of the region 3r is the candidate region 3s. Therefore, the determination unit 133c detects the candidate area 3r as a search window area. The determination unit 133c registers the detected search window information in the search window area data 125.

図2の説明に戻る。文字認識処理部134は、検索窓の領域に対して文字認識を実行し、文字認識結果となるキーワードをWeb検索部135に出力する処理部である。文字認識処理部134は、検索窓領域データに登録された検索窓の座標を基にして、エッジ画像データ上の検索窓の領域を特定し、特定した領域に対して文字認識を実行する。領域に対して文字認識を実行する処理は、如何なる従来技術を用いても良い。   Returning to the description of FIG. The character recognition processing unit 134 is a processing unit that performs character recognition on the search window area and outputs a keyword that is a character recognition result to the Web search unit 135. The character recognition processing unit 134 specifies a search window area on the edge image data based on the search window coordinates registered in the search window area data, and performs character recognition on the specified area. Any conventional technique may be used for performing character recognition on the area.

Web検索部135は、文字認識処理部134から取得するキーワードに対してWeb検索を実行する処理部である。例えば、Web検索部135は、ネットワーク10に接続されたサーバにアクセスして、Web検索を実行する。Web検索部135は、検索結果を、モニタ52に表示する。   The Web search unit 135 is a processing unit that executes a Web search for a keyword acquired from the character recognition processing unit 134. For example, the web search unit 135 accesses a server connected to the network 10 and executes a web search. The web search unit 135 displays the search result on the monitor 52.

次に、本実施例に係る画像処理装置100の処理手順について説明する。図21は、本実施例に係る画像処理装置の処理手順を示すフローチャートである。例えば、図21に示す処理は、検索要求を受け付けたことを契機にして実行される。   Next, a processing procedure of the image processing apparatus 100 according to the present embodiment will be described. FIG. 21 is a flowchart illustrating the processing procedure of the image processing apparatus according to the present embodiment. For example, the process shown in FIG. 21 is executed when a search request is accepted.

図21に示すように、画像処理装置100は、映像データから1フレームの画像データを取得し(ステップS101)、検索窓領域検出処理を実行する(ステップS102)。   As shown in FIG. 21, the image processing apparatus 100 acquires one frame of image data from video data (step S101), and executes search window area detection processing (step S102).

画像処理装置100は、検索窓領域に対して文字認識処理を実行し(ステップS103)、Web検索を実行する(ステップS104)。そして、画像処理装置100は、検索結果を出力する(ステップS105)。   The image processing apparatus 100 executes a character recognition process on the search window area (step S103), and executes a web search (step S104). Then, the image processing apparatus 100 outputs the search result (step S105).

次に、図21に示した検索窓領域検出処理について説明する。図22は、本実施例に係る検索窓領域検出処理の処理手順を示すフローチャートである。図22に示すように、画像処理装置100は、画像データ121からエッジ画像データ122を生成する(ステップS110)。画像処理装置100は、黒画素連結領域を抽出する(ステップS111)。   Next, the search window area detection process shown in FIG. 21 will be described. FIG. 22 is a flowchart illustrating a processing procedure of search window area detection processing according to the present embodiment. As shown in FIG. 22, the image processing apparatus 100 generates edge image data 122 from the image data 121 (step S110). The image processing apparatus 100 extracts a black pixel connection area (step S111).

画像処理装置100は、エッジ画像データから水平方向の直線を抽出する(ステップS112)。画像処理装置100は、直線ペア抽出処理を実行する(ステップS113)。画像処理装置100は、直線ペアのうち、直線ペア間に黒画素が存在するペアのみを選択する(ステップS114)。画像処理装置100は、選択した直線ペアが1つであるか否かを判定する(ステップS115)。画像処理装置100は、選択した直線ペアが1つの場合には(ステップS115,Yes)、ステップS121に移行する。   The image processing apparatus 100 extracts a horizontal straight line from the edge image data (step S112). The image processing apparatus 100 executes straight line pair extraction processing (step S113). The image processing apparatus 100 selects only a pair in which black pixels exist between the straight line pairs among the straight line pairs (step S114). The image processing apparatus 100 determines whether or not the selected straight line pair is one (step S115). If the selected straight line pair is one (step S115, Yes), the image processing apparatus 100 proceeds to step S121.

一方、画像処理装置100は、選択した直線ペアが2つ以上の場合には(ステップS115,No)、ステップS116に移行する。画像処理装置100は、黒画素連結領域と直線ペアとの位置関係に基づいて、直線ペアを選択する処理を実行する(ステップS116)。画像処理装置100は、選択した直線ペアが1つであるか否かを判定する(ステップS117)。画像処理装置100は、選択した直線ペアが1つの場合には(ステップS117,Yes)、ステップS121に移行する。   On the other hand, if there are two or more selected straight line pairs (step S115, No), the image processing apparatus 100 proceeds to step S116. The image processing apparatus 100 executes a process of selecting a straight line pair based on the positional relationship between the black pixel connection region and the straight line pair (step S116). The image processing apparatus 100 determines whether or not the selected straight line pair is one (step S117). When the selected straight line pair is one (step S117, Yes), the image processing apparatus 100 proceeds to step S121.

一方、画像処理装置100は、選択した直線ペアが2つ以上の場合には(ステップS117,No)、ステップS118に移行する。画像処理装置100は、直線ペア間の領域に対して文字認識を実行し、文字認識の確信度を基にして直線ペアを選択する処理を実行する(ステップS118)。画像処理装置100は、選択した直線ペアが1つであるか否かを判定する(ステップS119)。画像処理装置100は、選択した直線ペアが1つの場合には(ステップS119,Yes)、ステップS121に移行する。   On the other hand, when the number of selected straight line pairs is two or more (step S117, No), the image processing apparatus 100 proceeds to step S118. The image processing apparatus 100 performs character recognition on the area between the straight line pairs, and executes a process of selecting a straight line pair based on the certainty of character recognition (step S118). The image processing apparatus 100 determines whether there is one selected straight line pair (step S119). When the selected straight line pair is one (step S119, Yes), the image processing apparatus 100 proceeds to step S121.

一方、画像処理装置100は、選択した直線ペアが2つ以上の場合には(ステップS119,No)、特定文字を基にして、直線ペアを選択する(ステップS120)。画像処理装置100は、直線ペアの領域座標を抽出する(ステップS121)。   On the other hand, when there are two or more selected straight line pairs (step S119, No), the image processing apparatus 100 selects a straight line pair based on the specific character (step S120). The image processing apparatus 100 extracts the region coordinates of the straight line pair (step S121).

次に、図22のステップS113に示した直線ペア抽出処理について説明する。図23は、直線ペア抽出処理の処理手順を示すフローチャートである。図23に示すように、画像処理装置100は、iに1を設定する(ステップS130)。画像処理装置100は、iの値に1を加算した値をjに設定する(ステップS131)。   Next, the straight line pair extraction process shown in step S113 of FIG. 22 will be described. FIG. 23 is a flowchart illustrating a processing procedure of straight line pair extraction processing. As shown in FIG. 23, the image processing apparatus 100 sets 1 to i (step S130). The image processing apparatus 100 sets a value obtained by adding 1 to the value of i to j (step S131).

画像処理装置100は、i番目の直線と、j番目の直線とを選択する(ステップS132)。画像処理装置100は、i番目の直線とj番目の直線とがほぼ同じ長さで、y方向に重複するか否かを判定する(ステップS133)。画像処理装置100は、i番目の直線とj番目の直線とがほぼ同じ長さでない、または、y方向に重複しない場合には(ステップS133,No)、ステップS136に移行する。   The image processing apparatus 100 selects the i-th straight line and the j-th straight line (step S132). The image processing apparatus 100 determines whether or not the i-th straight line and the j-th straight line have substantially the same length and overlap in the y direction (step S133). If the i-th straight line and the j-th straight line are not substantially the same length or do not overlap in the y direction (step S133, No), the image processing apparatus 100 proceeds to step S136.

一方、画像処理装置100は、i番目の直線とj番目の直線とがほぼ同じ長さで、y方向に重複する場合には(ステップS133,Yes)、ステップS134に移行する。画像処理装置100は、直線ペア間に黒画素が存在するか否かを判定する(ステップS134)。画像処理装置100は、直線ペア間に黒画素が存在しない場合には(ステップS134,No)、ステップS136に移行する。   On the other hand, when the i-th straight line and the j-th straight line have substantially the same length and overlap in the y direction (step S133, Yes), the image processing apparatus 100 proceeds to step S134. The image processing apparatus 100 determines whether there is a black pixel between the straight line pair (step S134). If there is no black pixel between the straight line pairs (step S134, No), the image processing apparatus 100 proceeds to step S136.

一方、画像処理装置100は、直線ペア間に黒画素が存在する場合には(ステップS134,Yes)、直線ペアを記録する(ステップS135)。   On the other hand, if there is a black pixel between the straight line pair (step S134, Yes), the image processing apparatus 100 records the straight line pair (step S135).

画像処理装置100は、jの値が「N−1」の値未満であるか否かを判定する(ステップS136)。Nは、直線の総数である。画像処理装置100は、jの値が「N−1」の値未満である場合には(ステップS136,Yes)、jの値に1を加算した値を、jに設定し(ステップS137)、ステップS132に移行する。   The image processing apparatus 100 determines whether or not the value of j is less than the value of “N−1” (step S136). N is the total number of straight lines. If the value of j is less than the value of “N−1” (step S136, Yes), the image processing apparatus 100 sets a value obtained by adding 1 to the value of j to j (step S137). The process proceeds to step S132.

一方、画像処理装置100は、jの値が「N−1」の値未満でない場合には(ステップS136,No)、iの値が「N−1」の値未満であるか否かを判定する(ステップS138)。画像処理装置100は、iの値が「N−1」の値未満である場合には(ステップS138,Yes)、iの値に1を加算した値を、iに設定し(ステップS139)、ステップS131に移行する。   On the other hand, when the value of j is not less than the value of “N−1” (step S136, No), the image processing apparatus 100 determines whether the value of i is less than the value of “N−1”. (Step S138). When the value of i is less than the value of “N−1” (step S138, Yes), the image processing apparatus 100 sets a value obtained by adding 1 to the value of i to i (step S139). The process proceeds to step S131.

一方、画像処理装置100は、iの値が「N−1」の値未満でない場合には(ステップS138,No)、直線ペア抽出処理を終了する。   On the other hand, when the value of i is not less than the value of “N−1” (No in step S138), the image processing apparatus 100 ends the straight line pair extraction process.

次に、図22のステップS116に示した黒画素連結領域と直線ペアとの位置関係に基づいて直線ペアを選択する処理について説明する。図24は、黒画素連結領域と直線ペアとの位置関係に基づいて直線ペアを選択する処理手順を示すフローチャートである。   Next, the process of selecting a straight line pair based on the positional relationship between the black pixel connection region and the straight line pair shown in step S116 of FIG. 22 will be described. FIG. 24 is a flowchart illustrating a processing procedure for selecting a straight line pair based on the positional relationship between the black pixel connection region and the straight line pair.

図24に示すように、画像処理装置100は、iに1を設定する(ステップS150)。画像処理装置100は、iの値に1を加算した値をjに設定する(ステップS151)。画像処理装置100は、i番目の直線と、j番目の直線とを選択する(ステップS152)。   As shown in FIG. 24, the image processing apparatus 100 sets 1 to i (step S150). The image processing apparatus 100 sets a value obtained by adding 1 to the value of i to j (step S151). The image processing apparatus 100 selects the i-th straight line and the j-th straight line (step S152).

画像処理装置100は、i番目の直線とj番目の直線との間の距離が一定の矩形を選択する(ステップS153)。画像処理装置100は、式(1)の条件を満たすか否かを判定する(ステップS154)。式(1)の条件を満たさない場合には(ステップS155,No)、ステップS157に移行する。   The image processing apparatus 100 selects a rectangle having a constant distance between the i-th straight line and the j-th straight line (step S153). The image processing apparatus 100 determines whether or not the condition of Expression (1) is satisfied (step S154). When the condition of formula (1) is not satisfied (step S155, No), the process proceeds to step S157.

一方、画像処理装置100は、式(1)の条件を満たす場合には(ステップS155,Yes)、条件を満たす直線ペアを記録する(ステップS156)。画像処理装置100は、jの値が「N−1」の値未満であるか否かを判定する(ステップS157)。Nは、直線の総数である。画像処理装置100は、jの値が「N−1」の値未満である場合には(ステップS157,Yes)、jの値に1を加算した値を、jに設定し(ステップS158)、ステップS152に移行する。   On the other hand, when the condition of the expression (1) is satisfied (step S155, Yes), the image processing apparatus 100 records a straight line pair that satisfies the condition (step S156). The image processing apparatus 100 determines whether or not the value of j is less than the value of “N−1” (step S157). N is the total number of straight lines. If the value of j is less than the value of “N−1” (step S157, Yes), the image processing apparatus 100 sets a value obtained by adding 1 to the value of j to j (step S158), The process proceeds to step S152.

一方、画像処理装置100は、jの値が「N−1」の値未満でない場合には(ステップS157,No)、ステップS159に移行する。画像処理装置100は、iの値が「N−1」の値未満であるか否かを判定する(ステップS159)。画像処理装置100は、iの値が「N−1」の値未満である場合には(ステップS159,Yes)、iの値に1を加算した値を、iに設定し(ステップS160)、ステップS151に移行する。   On the other hand, when the value of j is not less than the value of “N−1” (No at Step S157), the image processing apparatus 100 proceeds to Step S159. The image processing apparatus 100 determines whether or not the value of i is less than the value of “N−1” (step S159). If the value of i is less than the value of “N−1” (Yes in step S159), the image processing apparatus 100 sets a value obtained by adding 1 to the value of i to i (step S160). The process proceeds to step S151.

一方、画像処理装置100は、iの値が「N−1」の値未満でない場合には(ステップS159,No)、黒画素連結領域と直線ペアとの位置関係に基づいて直線ペアを選択する処理を終了する。   On the other hand, when the value of i is not less than “N−1” (No in step S159), the image processing apparatus 100 selects a straight line pair based on the positional relationship between the black pixel connection region and the straight line pair. The process ends.

次に、図22のステップS118に示した直線ペア間の領域に対して文字認識を実行し、文字認識の確信度を基にして直線ペアを選択する処理について説明する。図25は、直線ペア間の領域に対して文字認識を実行し、文字認識の確信度を基にして直線ペアを選択する処理手順を示すフローチャートである。   Next, a process of performing character recognition on the area between straight line pairs shown in step S118 of FIG. 22 and selecting straight line pairs based on the certainty of character recognition will be described. FIG. 25 is a flowchart showing a processing procedure for executing character recognition on an area between straight line pairs and selecting a straight line pair based on the certainty of character recognition.

図25に示すように、画像処理装置100は、iに1を設定する(ステップS180)。画像処理装置100は、i番目の直線ペアの内側に対して文字認識を実行し、各文字の確信度の平均値を算出する(ステップS181)。   As shown in FIG. 25, the image processing apparatus 100 sets 1 to i (step S180). The image processing apparatus 100 performs character recognition on the inside of the i-th straight line pair, and calculates an average value of the certainty factor of each character (step S181).

画像処理装置100は、認識結果の文字がノイズ文字でなく、かつ、平均値が閾値以上か否かを判定する(ステップS182)。画像処理装置100は、認識結果の文字がノイズ文字である場合、または、平均値が閾値未満の場合には(ステップS182,No)、ステップS184に移行する。   The image processing apparatus 100 determines whether the recognition result character is not a noise character and the average value is greater than or equal to a threshold value (step S182). If the recognition result character is a noise character, or if the average value is less than the threshold value (No in step S182), the image processing apparatus 100 proceeds to step S184.

一方、画像処理装置100は、認識結果の文字がノイズ文字でなく、かつ、平均値が閾値以上の場合には(ステップS182,Yes)、i番目の直線ペアを記録する(ステップS183)。画像処理装置100は、iの値が「N−1」の値未満であるか否かを判定する(ステップS184)。画像処理装置100は、iの値が「N−1」の値未満の場合には(ステップS184,Yes)、iの値に1を加算した値を、iに設定し(ステップS185)、ステップS181に移行する。   On the other hand, if the recognition result character is not a noise character and the average value is equal to or greater than the threshold (Yes in step S182), the image processing apparatus 100 records the i-th straight line pair (step S183). The image processing apparatus 100 determines whether or not the value of i is less than the value of “N−1” (step S184). When the value of i is less than the value “N−1” (step S184, Yes), the image processing apparatus 100 sets a value obtained by adding 1 to the value of i to i (step S185), The process proceeds to S181.

一方、画像処理装置100は、iの値が「N−1」の値未満でない場合には(ステップS184,No)、処理を終了する。   On the other hand, when the value of i is not less than the value of “N−1” (No in step S184), the image processing apparatus 100 ends the process.

次に、図22のステップS120に示した特定文字を基にして直線ペアを選択する処理について説明する。図26は、特定文字を基にして直線ペアを選択する処理手順を示すフローチャートである。   Next, processing for selecting a straight line pair based on the specific character shown in step S120 of FIG. 22 will be described. FIG. 26 is a flowchart showing a processing procedure for selecting a straight line pair based on a specific character.

図26に示すように、画像処理装置100は、iに1を設定する(ステップS190)。画像処理装置100は、i番目の直線ペアの領域の上下端の延長線に囲まれる範囲で、画像端までの領域、かつ、i番目の直線ペア以外の領域を文字認識する(ステップS191)。画像処理装置100は、文字認識結果に「検索」等の特定文字が存在するか否かを判定する(ステップS192)。   As shown in FIG. 26, the image processing apparatus 100 sets 1 to i (step S190). The image processing apparatus 100 recognizes characters in the area surrounded by the extension lines at the upper and lower ends of the i-th straight pair area and the area other than the i-th straight pair (step S191). The image processing apparatus 100 determines whether or not a specific character such as “search” exists in the character recognition result (step S192).

画像処理装置100は、文字認識結果に「検索」等の特定文字が存在しない場合には(ステップS192,No)、ステップS195に移行する。一方、画像処理装置100は、文字認識結果に「検索」等の特定文字が存在する場合には(ステップS192,Yes)、ステップS193に移行する。   If there is no specific character such as “search” in the character recognition result (step S192, No), the image processing apparatus 100 proceeds to step S195. On the other hand, when a specific character such as “search” is present in the character recognition result (step S192, Yes), the image processing apparatus 100 proceeds to step S193.

画像処理装置100は、候補領域から「検索」等の特定文字までの距離が最も近いか否かを判定する(ステップS193)。画像処理装置100は、候補領域から「検索」等の特定文字までの距離が最も近くない場合には(ステップS193,No)、ステップS195に移行する。   The image processing apparatus 100 determines whether the distance from the candidate area to a specific character such as “search” is the shortest (step S193). If the distance from the candidate area to a specific character such as “search” is not the shortest (step S193, No), the image processing apparatus 100 proceeds to step S195.

画像処理装置100は、画像処理装置100は、候補領域から「検索」等の特定文字までの距離が最も近い場合には(ステップS193,Yes)、最も近い候補領域を記憶する(ステップS194)。   When the distance from the candidate area to a specific character such as “search” is the shortest (step S193, Yes), the image processing apparatus 100 stores the closest candidate area (step S194).

画像処理装置100は、iの値が「N−1」の値未満であるか否かを判定する(ステップS195)。画像処理装置100は、iの値が「N−1」の値未満である場合には(ステップS195,Yes)、iの値に1を加算した値を、iに設定し(ステップS196)、ステップS191に移行する。一方、画像処理装置100は、iの値が「N−1」の値未満でない場合には(ステップS195,No)、処理を終了する。   The image processing apparatus 100 determines whether or not the value of i is less than the value of “N−1” (step S195). When the value of i is less than “N−1” (Yes in step S195), the image processing apparatus 100 sets a value obtained by adding 1 to the value of i to i (step S196). The process proceeds to step S191. On the other hand, if the value of i is not less than “N−1” (No in step S195), the image processing apparatus 100 ends the process.

次に、本実施例に係る画像処理装置100の効果について説明する。画像処理装置100は、エッジ画像データ122を基にして、水平方向の複数の直線を抽出し、複数の直線の組の間に所定の範囲内の画素連結領域を有する直線の組み合わせを判定する。このように、画像処理装置100が判定した直線の組み合わせは、検索窓を構成する矩形の上側の直線と下側の直線であるといえ、精度良く検索窓を検出することができる。また、画像処理装置100は、水平方向以外の直線を抽出しないので、ノイズとなる直線を抽出することを防ぐことができると共に、処理負荷を軽減することもできる。   Next, effects of the image processing apparatus 100 according to the present embodiment will be described. The image processing apparatus 100 extracts a plurality of horizontal straight lines based on the edge image data 122 and determines a combination of straight lines having a pixel connection region within a predetermined range between the plurality of straight line sets. Thus, it can be said that the combination of straight lines determined by the image processing apparatus 100 is the upper straight line and the lower straight line of the rectangle constituting the search window, and the search window can be detected with high accuracy. Further, since the image processing apparatus 100 does not extract straight lines other than in the horizontal direction, it is possible to prevent the extraction of straight lines that become noise and to reduce the processing load.

また、画像処理装置100は、直線毎に該直線との距離が同一の複数の黒画素連結領域を対応付け、直線毎に対応付けられた黒画素連結領域をそれぞれ比較し、比較した各黒画素連結領域の一部が一致する直線の組み合わせを判定する。このように、検索窓にはキーワードに相当する黒画素が存在するという特性をいかして、画像処理装置100が判定を行うことで、キーワードを含む検索窓を精度良く検出することができる。   In addition, the image processing apparatus 100 associates a plurality of black pixel connection regions having the same distance from the straight line for each straight line, compares the black pixel connection regions associated with each straight line, and compares each black pixel. A combination of straight lines that match a part of the connected area is determined. Thus, the search window including the keyword can be detected with high accuracy by making the image processing apparatus 100 make a determination using the characteristic that the search window has a black pixel corresponding to the keyword.

また、画像処理装置100は、更に、直線の組みの間の領域を候補領域として文字認識を実行し、文字認識結果の確信度を基にして、候補領域が検索窓であるか否かを判定する。このため、複数の候補領域の中から、検索窓に相当する領域を精度よく抽出することができる。   Further, the image processing apparatus 100 further performs character recognition using a region between the pair of straight lines as a candidate region, and determines whether the candidate region is a search window based on the certainty of the character recognition result. To do. For this reason, it is possible to accurately extract a region corresponding to the search window from a plurality of candidate regions.

また、画像処理装置100は、候補領域に特定文字が含まれる場合に、該特定文字を含む候補領域に対して水平方向に存在する他の候補領域を選択し、選択した候補領域が検索窓であるか否かを判定する。通常、検索窓の横には「検索」などの特定文字が表示される場合がある。このため、該特定文字を含む候補領域に対して水平方向に存在する他の候補領域を選択することで、複数の候補領域の中から、検索窓に相当する領域を精度よく抽出することができる。   When the candidate area includes a specific character, the image processing apparatus 100 selects another candidate area that exists in the horizontal direction with respect to the candidate area including the specific character, and the selected candidate area is displayed in the search window. It is determined whether or not there is. Usually, a specific character such as “search” may be displayed beside the search window. For this reason, by selecting another candidate area that exists in the horizontal direction with respect to the candidate area including the specific character, an area corresponding to the search window can be accurately extracted from the plurality of candidate areas. .

また、画像処理装置100は、検索窓に含まれる文字に関連する情報を、ネットワーク上から検索し、検索結果を表示させるので、利用者が煩雑な操作を行わなくても、テレビ番組のCMで検索窓に表示されたキーワードに関する詳しい情報を利用者に通知することができる。   Further, the image processing apparatus 100 searches for information related to characters included in the search window from the network and displays the search result, so that the user can perform a TV program CM without performing complicated operations. Detailed information about the keywords displayed in the search window can be notified to the user.

ところで、上述した画像処理装置100の実施例は上記のものに限られない。このため、以下では、画像処理装置100のその他の実施例について説明する。画像処理装置100は、例えば、デジタルカメラが撮影した検索窓を含む画像データを取得し、取得した画像データから検索窓の領域を検出しても良い。係る画像データから検索窓を検出する処理は、上記の画像処理装置とほぼ同じであるが、線分と黒画素連結領域との対応付ける処理が一部異なるので、以下において説明する。   By the way, the embodiment of the image processing apparatus 100 described above is not limited to the above. For this reason, other embodiments of the image processing apparatus 100 will be described below. For example, the image processing apparatus 100 may acquire image data including a search window captured by a digital camera, and detect a search window area from the acquired image data. The process for detecting the search window from the image data is almost the same as that of the image processing apparatus described above, but the process for associating the line segment with the black pixel connection area is partially different, and will be described below.

図27は、画像処理装置のその他の実施例を説明するための図である。画像処理装置100は、デジタルカメラが撮影したテレビ画像の画像データからエッジ画像を抽出し、横方向の直線を抽出する。例えば、画像処理装置100は、水平方向を基準として、直線の角度が所定の角度以内の直線を抽出する。これは、デジタルカメラで画像データを撮影した場合には、検索窓の水平方向の直線が斜めに写ってしまうことを考慮した処理である。図27に示す例では、画像処理装置100は、直線2cおよび2dを抽出する。また、画像処理装置100が、直線ペアを選択する場合には、各直線の長さの差が所定の閾値未満でy方向に重複し、且つ、各直線間に黒画素連結領域が存在する場合に、係る各直線をペアとする。   FIG. 27 is a diagram for explaining another embodiment of the image processing apparatus. The image processing apparatus 100 extracts an edge image from image data of a television image captured by a digital camera, and extracts a horizontal straight line. For example, the image processing apparatus 100 extracts a straight line whose angle is within a predetermined angle with respect to the horizontal direction. This is a process that takes into account that when a digital camera captures image data, the horizontal straight line of the search window appears obliquely. In the example shown in FIG. 27, the image processing apparatus 100 extracts straight lines 2c and 2d. In addition, when the image processing apparatus 100 selects a straight line pair, the difference in length between the straight lines is less than a predetermined threshold and overlaps in the y direction, and a black pixel connection region exists between the straight lines. Each straight line is a pair.

画像処理装置100は、直線と黒画素連結領域とを対応付ける場合には、黒画素連結領域の矩形の隅と、直線との距離がそれぞれ同一となる黒画素連結領域を対応付ける。例えば、黒画素連結領域4h,4i,4j,4k,4mの左上隅と、直線2cとの距離は同一である。このため、直線2cと、黒画素連結領域4h,4i,4j,4k,4mとを対応付ける。また、黒画素連結領域4h,4i,4j,4l,4mの左下隅と、直線2dとの距離は同一である。このため、直線2dと、黒画素連結領域4h,4i,4j,4l,4mとを対応付ける。   When the straight line and the black pixel connection area are associated with each other, the image processing apparatus 100 associates the black corner connection area where the distance between the rectangular corner of the black pixel connection area and the straight line is the same. For example, the distance between the upper left corner of the black pixel connection areas 4h, 4i, 4j, 4k, and 4m and the straight line 2c is the same. Therefore, the straight line 2c is associated with the black pixel connection areas 4h, 4i, 4j, 4k, and 4m. The distances between the lower left corners of the black pixel connection areas 4h, 4i, 4j, 4l, and 4m and the straight line 2d are the same. Therefore, the straight line 2d is associated with the black pixel connection areas 4h, 4i, 4j, 4l, and 4m.

画像処理装置100は、直線2cと直線2dとの関係が、上記実施例で示した式(1)の条件を満たす場合に、直線2cと直線2dとの直線ペアを、検索窓の候補領域として判定する。その他の処理は、上記実施例と同様である。画像処理装置がこのような処理を実行することで、デジタルカメラで撮影した画像からでも検索窓を精度良く検出することができる。   When the relationship between the straight line 2c and the straight line 2d satisfies the condition of the expression (1) shown in the above embodiment, the image processing apparatus 100 uses the straight line pair of the straight line 2c and the straight line 2d as a search window candidate area. judge. Other processes are the same as in the above embodiment. By executing such processing by the image processing apparatus, it is possible to detect the search window with high accuracy even from an image captured by a digital camera.

また、上記実施例では、画像処理装置100が、TV50に内蔵されている場合について説明したが、これに限定されるものではない。例えば、ネットワーク10のサーバ装置内に、画像処理装置100と同様の機能を設けてもよい。例えば、TV制御部55は、検索要求を取得した場合に、映像データをサーバに送信し、サーバ装置は、上記画像処理装置100と同様の処理を実行して、検索窓を抽出し、検索窓のキーワードの検索結果を、TV制御部55に通知しても良い。TV制御部55は、通知された検索結果を、モニタ52に表示させる。また、例えばデジタルカメラ、スマートフォン、携帯電話等の携帯型カメラを備えた装置において、画像処理装置100と同様の機能を設けてもよい。この場合は、ハードウェア構成は、画像取得部、画像処理装置、通信部、モニタとなり、画像取得部で取得された画像が画像処理装置に入力され、画像処理装置で検索窓内のテキストを取得して、それを通信部へ送り、インターネット検索を行い、その結果を通信部で取得し、モニタに表示することになる。   In the above embodiment, the case where the image processing apparatus 100 is built in the TV 50 has been described. However, the present invention is not limited to this. For example, a function similar to that of the image processing apparatus 100 may be provided in the server apparatus of the network 10. For example, when the search request is acquired, the TV control unit 55 transmits the video data to the server, and the server device executes the same processing as the image processing device 100 to extract the search window, and The keyword search result may be notified to the TV control unit 55. The TV control unit 55 causes the monitor 52 to display the notified search result. Further, for example, in a device including a portable camera such as a digital camera, a smartphone, or a mobile phone, a function similar to that of the image processing device 100 may be provided. In this case, the hardware configuration is an image acquisition unit, an image processing device, a communication unit, and a monitor. The image acquired by the image acquisition unit is input to the image processing device, and the text in the search window is acquired by the image processing device. Then, it is sent to the communication unit, Internet search is performed, the result is acquired by the communication unit, and displayed on the monitor.

次に、上記の実施例に示した画像処理装置100と同様の機能を実現する画像処理プログラムを実行するコンピュータの一例を説明する。図28は、制御プログラムを実行するコンピュータの一例を示す図である。   Next, an example of a computer that executes an image processing program that realizes the same function as the image processing apparatus 100 described in the above embodiment will be described. FIG. 28 is a diagram illustrating an example of a computer that executes a control program.

図28に示すように、コンピュータ200は、各種演算処理を実行するCPU201と、ユーザからのデータの入力を受け付ける入力装置202と、ディスプレイ203を有する。また、コンピュータ200は、記憶媒体からプログラム等を読取る読み取り装置204と、ネットワークを介して他のコンピュータとの間でデータの授受を行うインタフェース装置205とを有する。また、コンピュータ200は、各種情報を一時記憶するRAM206と、ハードディスク装置207を有する。そして、各装置201〜207は、バス208に接続される。   As illustrated in FIG. 28, the computer 200 includes a CPU 201 that executes various arithmetic processes, an input device 202 that receives input of data from a user, and a display 203. The computer 200 also includes a reading device 204 that reads a program and the like from a storage medium, and an interface device 205 that exchanges data with other computers via a network. The computer 200 also includes a RAM 206 that temporarily stores various information and a hard disk device 207. The devices 201 to 207 are connected to the bus 208.

ハードディスク装置207は、例えば、直線抽出プログラム207a、判定プログラム207bを有する。CPU201は、各プログラム207a,207bを読み出してRAM206に展開する。   The hard disk device 207 includes, for example, a line extraction program 207a and a determination program 207b. The CPU 201 reads out each program 207a, 207b and develops it in the RAM 206.

直線抽出プログラム207aは、直線抽出プロセス206aとして機能する。判定プログラム207bは、判定プロセス206bとして機能する。   The straight line extraction program 207a functions as a straight line extraction process 206a. The determination program 207b functions as a determination process 206b.

例えば、直線抽出プロセス206aは、直線抽出部133aに対応する。判定プロセス206bは、判定部133cに対応する。   For example, the line extraction process 206a corresponds to the line extraction unit 133a. The determination process 206b corresponds to the determination unit 133c.

なお、各プログラム207a,207bについては、必ずしも最初からハードディスク装置207に記憶させておかなくてもよい。例えば、コンピュータ200に挿入されるフレキシブルディスク(FD)、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に各プログラムを記憶させておく。そして、コンピュータ200がこれらから各プログラム207a,207bを読み出して実行するようにしてもよい。   Note that the programs 207a and 207b are not necessarily stored in the hard disk device 207 from the beginning. For example, each program is stored in a “portable physical medium” such as a flexible disk (FD), a CD-ROM, a DVD disk, a magneto-optical disk, and an IC card inserted into the computer 200. Then, the computer 200 may read and execute the programs 207a and 207b from these.

以上の各実施例を含む実施形態に関し、さらに以下の付記を開示する。   The following supplementary notes are further disclosed with respect to the embodiments including the above examples.

(付記1)画像からエッジを抽出したエッジ画像を基にして、水平方向の複数の直線を抽出する直線抽出部と、
前記エッジ画像内のエッジを連結させた黒画素連結領域を抽出し、前記複数の直線の組みの間に所定の範囲内の黒画素連結領域を有する直線の組み合わせを判定する判定部と
を有することを特徴とする画像処理装置。
(Appendix 1) A straight line extraction unit that extracts a plurality of horizontal straight lines based on an edge image obtained by extracting edges from an image;
A determination unit that extracts a black pixel connection region obtained by connecting edges in the edge image, and determines a combination of straight lines having a black pixel connection region within a predetermined range between the plurality of straight line combinations. An image processing apparatus.

(付記2)前記判定部は、直線毎に該直線との距離が同一の複数の黒画素連結領域を対応付け、直線毎に対応付けられた黒画素連結領域をそれぞれ比較し、比較した各黒画素連結領域の一部が一致する直線の組み合わせを判定することを特徴とする付記1に記載の画像処理装置。 (Additional remark 2) The said determination part matches the some black pixel connection area | region with the same distance with this straight line for every straight line, compares each black pixel connection area matched for every straight line, and compares each black The image processing apparatus according to appendix 1, wherein a combination of straight lines in which a part of the pixel connection area matches is determined.

(付記3)前記判定部は、直線毎に該直線と黒画素連結領域の所定の隅との距離が同一となる複数の黒画素連結領域を対応付けることを特徴とする付記2に記載の画像処理装置。 (Additional remark 3) The said determination part matches the some black pixel connection area | region where the distance of this straight line and the predetermined | prescribed corner of a black pixel connection area | region becomes the same for every straight line, The image processing of Additional remark 2 characterized by the above-mentioned apparatus.

(付記4)前記判定部は、更に、直線の組みの間の領域を検索窓候補領域として文字認識を実行し、文字認識結果の確信度を基にして、前記検索窓候補領域が検索窓であるか否かを判定することを特徴とする付記1、2または3に記載の画像処理装置。 (Additional remark 4) The said determination part further performs character recognition by making the area | region between the group of straight lines into a search window candidate area | region, and based on the certainty of a character recognition result, the said search window candidate area | region is a search window. 4. The image processing apparatus according to appendix 1, 2, or 3, wherein it is determined whether or not there is any.

(付記5)前記判定部は、前記検索窓候補領域に特定文字が含まれる場合に、該特定文字を含む検索窓候補領域に対して水平方向に存在する他の検索窓候補領域を選択し、選択した検索窓候補領域が検索窓であるか否かを判定することを特徴とする付記4に記載の画像処理装置。 (Supplementary Note 5) When the search window candidate area includes a specific character, the determination unit selects another search window candidate area that exists in a horizontal direction with respect to the search window candidate area including the specific character, The image processing apparatus according to appendix 4, wherein it is determined whether or not the selected search window candidate area is a search window.

(付記6)前記判定部が判定した検索窓に含まれる文字に関連する情報を、ネットワーク上から検索する検索部を更に有することを特徴とする付記4または5に記載の画像処理装置。 (Supplementary note 6) The image processing apparatus according to supplementary note 4 or 5, further comprising a search unit that searches the network for information related to characters included in the search window determined by the determination unit.

(付記7)コンピュータに、
画像からエッジを抽出したエッジ画像を基にして、水平方向の複数の直線を抽出し、
前記エッジ画像内のエッジを連結させた黒画素連結領域を抽出し、前記複数の直線の組みの間に所定の範囲内の黒画素連結領域を有する直線の組み合わせを判定する
各処理を実行させることを特徴とする画像処理プログラム。
(Appendix 7)
Based on the edge image extracted from the image, to extract a plurality of horizontal straight lines,
Extracting a black pixel connection region obtained by connecting edges in the edge image, and executing each process for determining a combination of straight lines having a black pixel connection region within a predetermined range between the plurality of straight line combinations. An image processing program characterized by the above.

(付記8)前記判定する処理は、直線毎に該直線との距離が同一の複数の黒画素連結領域を対応付け、直線毎に対応付けられた黒画素連結領域をそれぞれ比較し、比較した各黒画素連結領域の一部が一致する直線の組み合わせを判定することを特徴とする付記7に記載の画像処理プログラム。 (Supplementary note 8) The determination process is performed by associating a plurality of black pixel connection regions having the same distance from the straight line for each straight line, comparing the black pixel connection regions associated with each straight line, and comparing The image processing program according to appendix 7, wherein a combination of straight lines in which a part of the black pixel connection region matches is determined.

(付記9)前記判定する処理は、直線毎に該直線と黒画素連結領域の所定の隅との距離が同一となる複数の黒画素連結領域を対応付けることを特徴とする付記7に記載の画像処理プログラム。 (Supplementary note 9) The image according to supplementary note 7, wherein the determining process associates, for each straight line, a plurality of black pixel connection regions having the same distance between the straight line and a predetermined corner of the black pixel connection region. Processing program.

(付記10)前記判定する処理は、更に、直線の組みの間の領域を検索窓候補領域として文字認識を実行し、文字認識結果の確信度を基にして、前記検索窓候補領域が検索窓であるか否かを判定することを特徴とする付記7、8または9に記載の画像処理プログラム。 (Additional remark 10) The said determination process further performs character recognition by making the area | region between the group of straight lines into a search window candidate area | region, and based on the certainty of a character recognition result, the said search window candidate area | region is a search window. 10. The image processing program according to appendix 7, 8 or 9, wherein it is determined whether or not.

(付記11)前記判定する処理は、前記検索窓候補領域に特定文字が含まれる場合に、該特定文字を含む検索窓候補領域に対して水平方向に存在する他の検索窓候補領域を選択し、選択した検索窓候補領域が検索窓であるか否かを判定することを特徴とする付記10に記載の画像処理プログラム。 (Supplementary Note 11) When the search window candidate area includes a specific character, the determination process selects another search window candidate area that exists in a horizontal direction with respect to the search window candidate area including the specific character. The image processing program according to appendix 10, wherein it is determined whether or not the selected search window candidate area is a search window.

(付記12)判定した検索窓に含まれる文字に関連する情報を、ネットワーク上から検索する処理を更に実行させることを特徴とする付記10または11に記載の画像処理プログラム。 (Additional remark 12) The image processing program as described in additional remark 10 or 11 which further performs the process which searches the information relevant to the character contained in the determined search window from a network.

(付記13)コンピュータが実行する画像処理方法であって、
画像からエッジを抽出したエッジ画像を基にして、水平方向の複数の直線を抽出し、
前記エッジ画像内のエッジを連結させた黒画素連結領域を抽出し、前記複数の直線の組みの間に所定の範囲内の黒画素連結領域を有する直線の組み合わせを判定する
各処理を実行することを特徴とする画像処理方法。
(Supplementary note 13) An image processing method executed by a computer,
Based on the edge image extracted from the image, to extract a plurality of horizontal straight lines,
Extracting a black pixel connection region obtained by connecting edges in the edge image, and determining each combination of straight lines having a black pixel connection region within a predetermined range between the plurality of straight line combinations. An image processing method characterized by the above.

(付記14)前記判定する処理は、直線毎に該直線との距離が同一の複数の黒画素連結領域を対応付け、直線毎に対応付けられた黒画素連結領域をそれぞれ比較し、比較した各黒画素連結領域の一部が一致する直線の組み合わせを判定することを特徴とする付記13に記載の画像処理方法。 (Supplementary Note 14) The determination process is performed by associating a plurality of black pixel connection regions having the same distance from the straight line for each straight line, comparing the black pixel connection regions associated with each straight line, and comparing The image processing method according to appendix 13, wherein a combination of straight lines in which a part of the black pixel connection region matches is determined.

(付記15)前記判定する処理は、直線毎に該直線と黒画素連結領域の所定の隅との距離が同一となる複数の黒画素連結領域を対応付けることを特徴とする付記13に記載の画像処理方法。 (Supplementary note 15) The image according to supplementary note 13, wherein the determining process associates, for each straight line, a plurality of black pixel connection regions having the same distance between the straight line and a predetermined corner of the black pixel connection region. Processing method.

(付記16)前記判定する処理は、更に、直線の組みの間の領域を検索窓候補領域として文字認識を実行し、文字認識結果の確信度を基にして、前記検索窓候補領域が検索窓であるか否かを判定することを特徴とする付記13、14または15に記載の画像処理方法。 (Additional remark 16) The said determination process further performs character recognition by making the area | region between the group of straight lines into a search window candidate area | region, and based on the certainty of a character recognition result, the said search window candidate area | region is a search window. 16. The image processing method according to appendix 13, 14 or 15, wherein it is determined whether or not.

(付記17)前記判定する処理は、前記検索窓候補領域に特定文字が含まれる場合に、該特定文字を含む検索窓候補領域に対して水平方向に存在する他の検索窓候補領域を選択し、選択した検索窓候補領域が検索窓であるか否かを判定することを特徴とする付記16に記載の画像処理方法。 (Supplementary Note 17) When the search window candidate area includes a specific character, the determination process selects another search window candidate area that exists in the horizontal direction with respect to the search window candidate area including the specific character. The image processing method according to appendix 16, wherein it is determined whether or not the selected search window candidate area is a search window.

(付記18)判定した検索窓に含まれる文字に関連する情報を、ネットワーク上から検索する処理を更に実行することを特徴とする付記16または17に記載の画像処理方法。 (Supplementary note 18) The image processing method according to supplementary note 16 or 17, further comprising a process of searching the network for information related to the character included in the determined search window.

10 ネットワーク
50 TV
100 画像処理装置
10 network 50 TV
100 Image processing apparatus

Claims (8)

画像からエッジを抽出したエッジ画像を基にして、水平方向の複数の直線を抽出する直線抽出部と、
前記エッジ画像内のエッジを連結させた黒画素連結領域を抽出し、前記複数の直線の組みの間に所定の範囲内の黒画素連結領域を有する直線の組み合わせを判定する判定部と
を有することを特徴とする画像処理装置。
A line extraction unit that extracts a plurality of horizontal lines based on an edge image obtained by extracting edges from the image;
A determination unit that extracts a black pixel connection region obtained by connecting edges in the edge image, and determines a combination of straight lines having a black pixel connection region within a predetermined range between the plurality of straight line combinations. An image processing apparatus.
前記判定部は、直線毎に該直線との距離が同一の複数の黒画素連結領域を対応付け、直線毎に対応付けられた黒画素連結領域をそれぞれ比較し、比較した各黒画素連結領域の一部が一致する直線の組み合わせを判定することを特徴とする請求項1に記載の画像処理装置。   The determination unit associates, for each straight line, a plurality of black pixel connection regions having the same distance from the straight line, compares the black pixel connection regions associated with each straight line, and compares each of the compared black pixel connection regions. The image processing apparatus according to claim 1, wherein a combination of straight lines that partially match each other is determined. 前記判定部は、直線毎に該直線と黒画素連結領域の所定の隅との距離が同一となる複数の黒画素連結領域を対応付けることを特徴とする請求項2に記載の画像処理装置。   The image processing apparatus according to claim 2, wherein the determination unit associates, for each straight line, a plurality of black pixel connection regions having the same distance between the straight line and a predetermined corner of the black pixel connection region. 前記判定部は、更に、直線の組みの間の領域を検索窓候補領域として文字認識を実行し、文字認識結果の確信度を基にして、前記検索窓候補領域が検索窓であるか否かを判定することを特徴とする請求項1、2または3に記載の画像処理装置。   The determination unit further performs character recognition using a region between the pair of straight lines as a search window candidate region, and based on the certainty of the character recognition result, whether or not the search window candidate region is a search window. The image processing apparatus according to claim 1, wherein: 前記判定部は、前記検索窓候補領域に特定文字が含まれる場合に、該特定文字を含む検索窓候補領域に対して水平方向に存在する他の検索窓候補領域を選択し、選択した検索窓候補領域が検索窓であるか否かを判定することを特徴とする請求項4に記載の画像処理装置。   When the search window candidate area includes a specific character, the determination unit selects another search window candidate area that exists in a horizontal direction with respect to the search window candidate area including the specific character, and selects the selected search window The image processing apparatus according to claim 4, wherein it is determined whether the candidate area is a search window. 前記判定部が判定した検索窓に含まれる文字に関連する情報を、ネットワーク上から検索する検索部を更に有することを特徴とする請求項4または5に記載の画像処理装置。   The image processing apparatus according to claim 4, further comprising a search unit that searches the network for information related to characters included in the search window determined by the determination unit. コンピュータに、
画像からエッジを抽出したエッジ画像を基にして、水平方向の複数の直線を抽出し、
前記エッジ画像内のエッジを連結させた黒画素連結領域を抽出し、前記複数の直線の組みの間に所定の範囲内の黒画素連結領域を有する直線の組み合わせを判定する
各処理を実行させることを特徴とする画像処理プログラム。
On the computer,
Based on the edge image extracted from the image, to extract a plurality of horizontal straight lines,
Extracting a black pixel connection region obtained by connecting edges in the edge image, and executing each process for determining a combination of straight lines having a black pixel connection region within a predetermined range between the plurality of straight line combinations. An image processing program characterized by the above.
コンピュータが実行する画像処理方法であって、
画像からエッジを抽出したエッジ画像を基にして、水平方向の複数の直線を抽出し、
前記エッジ画像内のエッジを連結させた黒画素連結領域を抽出し、前記複数の直線の組みの間に所定の範囲内の黒画素連結領域を有する直線の組み合わせを判定する
各処理を実行することを特徴とする画像処理方法。
An image processing method executed by a computer,
Based on the edge image extracted from the image, to extract a plurality of horizontal straight lines,
Extracting a black pixel connection region obtained by connecting edges in the edge image, and determining each combination of straight lines having a black pixel connection region within a predetermined range between the plurality of straight line combinations. An image processing method characterized by the above.
JP2013060992A 2013-03-22 2013-03-22 Image processing apparatus, image processing program, and image processing method Active JP6155740B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013060992A JP6155740B2 (en) 2013-03-22 2013-03-22 Image processing apparatus, image processing program, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013060992A JP6155740B2 (en) 2013-03-22 2013-03-22 Image processing apparatus, image processing program, and image processing method

Publications (2)

Publication Number Publication Date
JP2014186549A true JP2014186549A (en) 2014-10-02
JP6155740B2 JP6155740B2 (en) 2017-07-05

Family

ID=51834057

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013060992A Active JP6155740B2 (en) 2013-03-22 2013-03-22 Image processing apparatus, image processing program, and image processing method

Country Status (1)

Country Link
JP (1) JP6155740B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03265999A (en) * 1990-03-15 1991-11-27 Sumitomo Electric Ind Ltd Automatic car number reader
JP2009044658A (en) * 2007-08-10 2009-02-26 Fujitsu Ltd Keyword extraction method
JP2009188886A (en) * 2008-02-08 2009-08-20 Omron Corp Information processing apparatus and program for information processing apparatus
JP2010152800A (en) * 2008-12-26 2010-07-08 Kddi Corp Image processing apparatus, image processing method and program
JP2012003480A (en) * 2010-06-16 2012-01-05 Nippon Hoso Kyokai <Nhk> Telop character area detector and program
JP2012160023A (en) * 2011-01-31 2012-08-23 Toshiba Corp Character extracting device, display method, and character extracting method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03265999A (en) * 1990-03-15 1991-11-27 Sumitomo Electric Ind Ltd Automatic car number reader
JP2009044658A (en) * 2007-08-10 2009-02-26 Fujitsu Ltd Keyword extraction method
JP2009188886A (en) * 2008-02-08 2009-08-20 Omron Corp Information processing apparatus and program for information processing apparatus
JP2010152800A (en) * 2008-12-26 2010-07-08 Kddi Corp Image processing apparatus, image processing method and program
JP2012003480A (en) * 2010-06-16 2012-01-05 Nippon Hoso Kyokai <Nhk> Telop character area detector and program
JP2012160023A (en) * 2011-01-31 2012-08-23 Toshiba Corp Character extracting device, display method, and character extracting method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
島田 隆寛 外3名: "ビジョン技術を利用した商業・マーケティング支援", 画像ラボ 第25巻 第3号, vol. 第25巻 第3号, JPN6016041471, 10 March 2014 (2014-03-10), JP, pages 65 - 68, ISSN: 0003553111 *

Also Published As

Publication number Publication date
JP6155740B2 (en) 2017-07-05

Similar Documents

Publication Publication Date Title
US11295114B2 (en) Creation of representative content based on facial analysis
US9098888B1 (en) Collaborative text detection and recognition
WO2019041519A1 (en) Target tracking device and method, and computer-readable storage medium
US10438086B2 (en) Image information recognition processing method and device, and computer storage medium
KR101050866B1 (en) Character recognition devices, character recognition programs, and character recognition methods
WO2019033574A1 (en) Electronic device, dynamic video face recognition method and system, and storage medium
WO2018228118A1 (en) Method and device for identifying similar pictures and storage medium
US9082000B2 (en) Image processing device and image processing method
US10621730B2 (en) Missing feet recovery of a human object from an image sequence based on ground plane detection
CN111666907B (en) Method, device and server for identifying object information in video
EP2827284A1 (en) Key word detection device, control method and control program for same, and display apparatus
WO2020078215A1 (en) Video-based information acquisition method and device
CN110619656B (en) Face detection tracking method and device based on binocular camera and electronic equipment
EP3910590A2 (en) Method and apparatus of processing image, electronic device, and storage medium
JP6365024B2 (en) Service providing apparatus, method, and program
CN111080665B (en) Image frame recognition method, device, equipment and computer storage medium
WO2018184255A1 (en) Image correction method and device
TW202042179A (en) Method and computing device for adjusting region of interest
JP6155740B2 (en) Image processing apparatus, image processing program, and image processing method
JP4550768B2 (en) Image detection method and image detection apparatus
CN115457055A (en) Illuminance meter value identification method, electronic device, and storage medium
WO2017128273A1 (en) Error block determination
JP6244887B2 (en) Information processing apparatus, image search method, and program
JP7452120B2 (en) Image processing method, image processing program, and image processing device
WO2023123213A1 (en) Hand pressing depth measurement method and apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151106

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160927

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170509

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170522

R150 Certificate of patent or registration of utility model

Ref document number: 6155740

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150