JP6845169B2 - Image processing equipment, image processing methods and programs - Google Patents

Image processing equipment, image processing methods and programs Download PDF

Info

Publication number
JP6845169B2
JP6845169B2 JP2018043466A JP2018043466A JP6845169B2 JP 6845169 B2 JP6845169 B2 JP 6845169B2 JP 2018043466 A JP2018043466 A JP 2018043466A JP 2018043466 A JP2018043466 A JP 2018043466A JP 6845169 B2 JP6845169 B2 JP 6845169B2
Authority
JP
Japan
Prior art keywords
image
feature amount
overhead line
parameter
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018043466A
Other languages
Japanese (ja)
Other versions
JP2019159595A (en
Inventor
進 窪田
進 窪田
小坂谷 達夫
達夫 小坂谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Digital Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Digital Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Digital Solutions Corp filed Critical Toshiba Corp
Priority to JP2018043466A priority Critical patent/JP6845169B2/en
Publication of JP2019159595A publication Critical patent/JP2019159595A/en
Application granted granted Critical
Publication of JP6845169B2 publication Critical patent/JP6845169B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明の実施形態は、画像処理装置、画像処理方法及びプログラムに関する。 Embodiments of the present invention relate to image processing devices, image processing methods and programs.

送電線のような空中に張り渡した架線(以下、架空線と表記)の保守及び管理の一つとして、当該架空線の空撮画像(映像)を用いた点検が行われている。 As one of the maintenance and management of overhead lines (hereinafter referred to as overhead lines) stretched in the air such as power transmission lines, inspections are carried out using aerial images (videos) of the overhead lines.

この点検においては、空撮画像を作業者が目視で確認することにより架空線の異常の有無が判断される。 In this inspection, the presence or absence of an abnormality in the overhead line is determined by visually checking the aerial image by the operator.

しかしながら、このような点検作業には多大な労力と時間が必要となる。このため、架空線の点検作業の省力化が望まれている。 However, such inspection work requires a great deal of labor and time. Therefore, labor saving in the inspection work of overhead lines is desired.

これに対して、近年では、空撮画像に対する画像処理によって自動的に架空線の異常の有無を判別することが検討されているが、効率的な画像処理を行うためには、空撮画像中の架空線の位置(架空線を含む領域)を検出することが必要である。 On the other hand, in recent years, it has been studied to automatically determine the presence or absence of abnormalities in overhead lines by image processing on aerial images, but in order to perform efficient image processing, the aerial image It is necessary to detect the position of the overhead line (the area including the overhead line).

特許第4255065号公報Japanese Patent No. 4255065

そこで、本発明が解決しようとする課題は、高い精度で画像から架空線の位置を検出することが可能な画像処理装置、画像処理方法及びプログラムを提供することにある。 Therefore, an object to be solved by the present invention is to provide an image processing device, an image processing method, and a program capable of detecting the position of an overhead line from an image with high accuracy.

実施形態によれば、画像中の架空線の位置を検出する画像処理装置が提供される。前記画像処理装置は、取得手段と、検出手段とを具備する。前記取得手段は、前記架空線の位置を検出する対象となる画像を取得する。前記検出手段は、前記取得された画像中でエッジの方向が略均質な直線上の領域を架空線の位置として検出する。前記検出手段は、抽出手段と、投票手段と、第1算出手段と、決定手段とを含む。前記抽出手段は、前記画像中の複数の特徴量抽出位置の各々において複数の要素からなる特徴量を抽出する。前記投票手段は、前記抽出された特徴量を、当該特徴量が抽出された特徴量抽出位置に基づいてパラメータ空間に投票する。前記第1算出手段は、前記パラメータ空間に投票された特徴量に基づいて、前記画像中の直線を表すパラメータ毎に、エッジの方向が略均質な直線状の領域であることが反映された評価値を算出する。前記決定手段は、前記算出された評価値に基づいて前記架空線の位置に相当する直線を表すパラメータを決定する。 According to the embodiment, an image processing device for detecting the position of an overhead line in an image is provided. The image processing device includes acquisition means and detection means. The acquisition means acquires an image to be detected for detecting the position of the overhead line. The detection means detects a region on a straight line in which the direction of the edge is substantially homogeneous in the acquired image as the position of the overhead line. The detection means includes an extraction means, a voting means, a first calculation means, and a determination means. The extraction means extracts a feature amount composed of a plurality of elements at each of the plurality of feature amount extraction positions in the image. The voting means votes the extracted feature amount in the parameter space based on the feature amount extraction position where the feature amount is extracted. The first calculation means is an evaluation that reflects that the edge direction is a substantially uniform linear region for each parameter representing a straight line in the image based on the feature amount voted in the parameter space. Calculate the value. The determination means determines a parameter representing a straight line corresponding to the position of the overhead line based on the calculated evaluation value.

画像から直線状の領域を検出する手法について説明するための図。The figure for demonstrating the technique of detecting a linear region from an image. 直線を表すパラメータθ及びρの関係性を表す図。The figure which shows the relationship of the parameters θ and ρ which represent a straight line. 素線を撚り合わせて形成された架空線の一例を示す図。The figure which shows an example of the overhead wire formed by twisting the strands. 第1の実施形態に係る画像処理装置の機能構成の一例を示すブロック図。The block diagram which shows an example of the functional structure of the image processing apparatus which concerns on 1st Embodiment. 画像処理装置のハードウェア構成の一例を示す図。The figure which shows an example of the hardware composition of an image processing apparatus. 画像処理装置の処理手順の一例を示すフローチャート。The flowchart which shows an example of the processing procedure of an image processing apparatus. 特徴量抽出位置について説明するための図。The figure for demonstrating the feature amount extraction position. 構造テンソルを概念的に説明するための図。A diagram for conceptually explaining a structural tensor. パラメータ空間について概念的に説明するための図。The figure for conceptually explaining the parameter space. パラメータ空間に投票された特徴量の総和から変換される構造テンソルについて説明するための図。The figure for demonstrating the structure tensor which is converted from the sum of the features voted in the parameter space. 架空線の幅を算出する処理について説明するための図。The figure for demonstrating the process of calculating the width of an overhead line. 第2の実施形態に係る画像処理装置の機能構成の一例を示すブロック図。The block diagram which shows an example of the functional structure of the image processing apparatus which concerns on 2nd Embodiment. 画像処理装置の処理手順の一例を示すフローチャート。The flowchart which shows an example of the processing procedure of an image processing apparatus. パラメータによって表される直線を含む領域上に設定される複数のパターン認識対象領域について説明するための図。The figure for demonstrating a plurality of pattern recognition target areas set on the area containing a straight line represented by a parameter.

以下、図面を参照して、各実施形態について説明する。
(第1の実施形態)
まず、第1の実施形態について説明する。本実施形態に係る画像処理装置は、例えば空撮画像(映像)を用いて送電線のような架空線の点検を行う際に、当該画像中の架空線の位置を求めるために用いられる。
Hereinafter, each embodiment will be described with reference to the drawings.
(First Embodiment)
First, the first embodiment will be described. The image processing apparatus according to the present embodiment is used to obtain the position of an overhead line in an image when inspecting an overhead line such as a power transmission line using, for example, an aerial image (video).

ここで、一般的に架空線は、コンクリート柱または鉄塔等によって空中に張り渡されているため、全体としては懸垂曲線を描いているが、上記した点検の際は異常を確認可能なように部分的に拡大して撮影(空撮)される。このため、画像中の架空線は概ね直線とみなすことができる。よって、画像から直線状の領域を検出することによって架空線の位置を求めることができる。 Here, since the overhead line is generally stretched in the air by concrete columns or steel towers, it draws a catenary curve as a whole, but it is a part so that abnormalities can be confirmed during the above inspection. It is magnified and photographed (aerial photography). Therefore, the overhead line in the image can be regarded as a straight line. Therefore, the position of the overhead line can be obtained by detecting a linear region from the image.

画像から直線状の領域を検出する手法として、Hough変換が知られている。図1に示すように、画像中の点(x,y)を通る直線を角度θと任意に設定された座標原点からの距離ρとで表すものとすると、当該直線の式は、ρ=xcosθ+ysinθとなる。 The Hough transform is known as a method for detecting a linear region from an image. As shown in FIG. 1, assuming that a straight line passing through a point (x, y) in an image is represented by an angle θ and a distance ρ from an arbitrarily set coordinate origin, the formula of the straight line is ρ = xcosθ + ysinθ. It becomes.

なお、点(x,y)を通る直線は無数に存在するが、当該点(x,y)を通る直線を表すパラメータθ及びρの関係性は、図2に示すように表される。このようなパラメータθ及びρの関係性によれば、θに対してρの値が一意に定まる。 There are innumerable straight lines passing through the point (x, y), but the relationship between the parameters θ and ρ representing the straight line passing through the point (x, y) is shown as shown in FIG. According to the relationship between the parameters θ and ρ, the value of ρ is uniquely determined with respect to θ.

Hough変換においては、画像中のエッジ点等の検出対象の候補となる全ての点の各々を通る様々な直線のパラメータを上記した式を用いて算出してパラメータ空間に投票する。この投票結果から集積点を特定することにより、一本の直線のパラメータを求めることができる。 In the Hough transform, parameters of various straight lines passing through each of all the points that are candidates for detection such as edge points in the image are calculated using the above equation and voted in the parameter space. By specifying the accumulation point from this voting result, the parameter of one straight line can be obtained.

しかしながら、架空線は図3に示すような素線を撚り合わせて形成される撚り線であることが一般的である。このため、上記したように架空線の位置を検出する場合、Hough変換では安定した検出を行うことができない可能性がある。 However, the overhead wire is generally a stranded wire formed by twisting the strands as shown in FIG. Therefore, when detecting the position of the overhead line as described above, there is a possibility that stable detection cannot be performed by the Hough transform.

具体的には、Hough変換は画像全体から一本の直線を検出する手法であるが、当該画像(空撮画像)に雑多な背景が含まれている場合、当該背景における多数のエッジ点の影響で誤ったパラメータ(つまり、直線)が検出されることがある。これに対して、エッジ点におけるエッジの方向を求めることにより、投票するパラメータ(例えば、θ)の範囲を限定するという対策がとられる場合があるが、架空線のような撚り線の場合、撚り合わせた素線は架空線の方向に対して斜め方向のエッジを形成するため、この対策は有効に機能しない。 Specifically, the Hough transform is a method of detecting a single straight line from the entire image, but when the image (aerial image) contains a miscellaneous background, the influence of many edge points on the background. Incorrect parameters (ie, straight lines) may be detected in. On the other hand, a measure may be taken to limit the range of parameters to vote (for example, θ) by finding the direction of the edge at the edge point, but in the case of a stranded wire such as an overhead wire, the stranded wire is twisted. This measure does not work effectively because the combined strands form an edge diagonal to the direction of the overhead line.

このため、本実施形態に係る画像処理装置においては、画像中に散在するエッジの方向を直線を表すパラメータ空間で集積し解析することにより、画像中でエッジの方向が略均質な直線状の領域を架空線の位置として検出するものとする。 Therefore, in the image processing apparatus according to the present embodiment, by accumulating and analyzing the directions of edges scattered in the image in a parameter space representing a straight line, a linear region in which the direction of the edges is substantially uniform in the image is formed. Shall be detected as the position of the overhead line.

以下、本実施形態に係る画像処理装置について説明する。図4は、本実施形態に係る画像処理装置の機能構成の一例を示すブロック図である。 Hereinafter, the image processing apparatus according to the present embodiment will be described. FIG. 4 is a block diagram showing an example of the functional configuration of the image processing apparatus according to the present embodiment.

図4に示すように、画像処理装置10は、画像取得部11、特徴抽出部12、投票部13、評価値算出部14及びパラメータ決定部15を含む。 As shown in FIG. 4, the image processing device 10 includes an image acquisition unit 11, a feature extraction unit 12, a voting unit 13, an evaluation value calculation unit 14, and a parameter determination unit 15.

画像取得部11は、架空線の位置を検出する対象となる画像(以下、対象画像と表記)を取得する。対象画像は、架空線が空撮された画像であり、例えばヘリコプターのような航空機から撮影された画像であってもよいし、ドローン等を用いて撮影された画像であってもよい。 The image acquisition unit 11 acquires an image (hereinafter referred to as a target image) to be detected for detecting the position of the overhead line. The target image is an image of an overhead line taken aerial, and may be an image taken from an aircraft such as a helicopter, or an image taken using a drone or the like.

以下に説明する特徴抽出部12、投票部13、評価値算出部14及びパラメータ決定部15は、上記した画像中でエッジの方向が略均質な直線状の領域を架空線の位置として検出する検出部として機能する。 The feature extraction unit 12, the voting unit 13, the evaluation value calculation unit 14, and the parameter determination unit 15 described below detect a linear region having substantially uniform edge directions as the position of an overhead line in the above image. Functions as a department.

特徴抽出部12は、対象画像中の複数の特徴量抽出位置の各々において複数の要素からなる特徴量を抽出する。 The feature extraction unit 12 extracts a feature amount composed of a plurality of elements at each of the plurality of feature amount extraction positions in the target image.

投票部13は、特徴抽出部12によって抽出された特徴量を、当該特徴量が抽出された特徴量抽出位置に基づいてパラメータ空間に投票する。 The voting unit 13 votes the feature amount extracted by the feature extraction unit 12 in the parameter space based on the feature amount extraction position from which the feature amount is extracted.

評価値算出部14は、投票部13による投票結果(パラメータ空間に投票された特徴量)に基づいて、対象画像中の直線を表すパラメータ毎の評価値を算出する。なお、本実施形態において、パラメータとは、上記したθ及びρの組を含むものとする。 The evaluation value calculation unit 14 calculates an evaluation value for each parameter representing a straight line in the target image based on the voting result (feature amount voted in the parameter space) by the voting unit 13. In this embodiment, the parameter includes the above-mentioned set of θ and ρ.

パラメータ決定部15は、評価値算出部14によって算出された評価値に基づいて架空線の位置に相当する直線を表すパラメータを決定する。 The parameter determination unit 15 determines a parameter representing a straight line corresponding to the position of the overhead line based on the evaluation value calculated by the evaluation value calculation unit 14.

図5は、上記した画像処理装置のハードウェア構成の一例を示す。図5に示すように、画像処理装置10は、CPU101、不揮発性メモリ102、主メモリ103及び通信デバイス104等を備える。 FIG. 5 shows an example of the hardware configuration of the above-mentioned image processing device. As shown in FIG. 5, the image processing device 10 includes a CPU 101, a non-volatile memory 102, a main memory 103, a communication device 104, and the like.

CPU101は、画像処理装置10内の様々なコンポーネントの動作を制御するハードウェアプロセッサである。CPU101は、ストレージデバイスである不揮発性メモリ102から主メモリ103にロードされる様々なプログラムを実行する。CPU101によって実行されるプログラムには、オペレーティングシステム(OS)及び上記した画像から架空線の位置を検出するためのプログラム(以下、画像処理プログラムと表記)等が含まれる。また、CPU101は、例えばハードウェア制御のためのプログラムである基本入出力システム(BIOS)等も実行する。 The CPU 101 is a hardware processor that controls the operation of various components in the image processing device 10. The CPU 101 executes various programs loaded from the non-volatile memory 102, which is a storage device, into the main memory 103. The program executed by the CPU 101 includes an operating system (OS), a program for detecting the position of an overhead line from the above-mentioned image (hereinafter referred to as an image processing program), and the like. The CPU 101 also executes, for example, a basic input / output system (BIOS), which is a program for hardware control.

なお、上記した画像取得部11、特徴抽出部12、投票部13、評価値算出部14及びパラメータ決定部15の一部または全ては、CPU101(つまり、画像処理装置10のコンピュータ)に画像処理プログラムを実行させること、すなわちソフトウェアによって実現されるものとする。この画像処理プログラムは、コンピュータ読み取り可能な記憶媒体に格納して頒布されてもよいし、またはネットワークを通じて画像処理装置10にダウンロードされてもよい。なお、これらの各部11〜15の一部または全ては、IC(Integrated Circuit)等のハードウェアによって実現されてもよいし、当該ソフトウェア及びハードウェアの組み合わせ構成として実現されてもよい。 A part or all of the image acquisition unit 11, the feature extraction unit 12, the voting unit 13, the evaluation value calculation unit 14, and the parameter determination unit 15 described above are stored in the CPU 101 (that is, the computer of the image processing device 10) as an image processing program. That is, it shall be realized by software. The image processing program may be stored and distributed in a computer-readable storage medium, or may be downloaded to the image processing device 10 via a network. A part or all of each of these parts 11 to 15 may be realized by hardware such as an IC (Integrated Circuit), or may be realized as a combination configuration of the software and hardware.

通信デバイス104は、例えば有線または無線による外部の装置との通信を実行するように構成されたデバイスである。 The communication device 104 is a device configured to perform, for example, wired or wireless communication with an external device.

なお、図5においては、CPU101、不揮発性メモリ102、主メモリ103及び通信デバイス104のみが示されているが、画像処理装置10は、例えばHDD(Hard Disk Drive)及びSSD(Solid State Drive)のような他の記憶装置を備えていてもよいし、入力装置及び出力装置等を備えていてもよい。 Although only the CPU 101, the non-volatile memory 102, the main memory 103, and the communication device 104 are shown in FIG. 5, the image processing device 10 is, for example, an HDD (Hard Disk Drive) and an SSD (Solid State Drive). Such other storage devices may be provided, or an input device, an output device, and the like may be provided.

次に、図6のフローチャートを参照して、本実施形態に係る画像処理装置10の処理手順の一例について説明する。なお、図6に示す処理は、例えば架空線の点検を行う際に実行されるが、当該点検の前に予め実行されても構わない。 Next, an example of the processing procedure of the image processing apparatus 10 according to the present embodiment will be described with reference to the flowchart of FIG. The process shown in FIG. 6 is executed, for example, when inspecting an overhead line, but it may be executed in advance before the inspection.

まず、画像取得部11は、対象画像(架空線の位置を検出する対象となる画像)を取得する(ステップS1)。対象画像は、上記したように架空線が空撮された画像であるが、ネットワーク等を介して外部の装置から取得(受信)されてもよいし、画像処理装置10内の格納部(記憶装置)から取得されてもよい。 First, the image acquisition unit 11 acquires the target image (the target image for detecting the position of the overhead line) (step S1). The target image is an image in which an overhead line is aerial photographed as described above, but it may be acquired (received) from an external device via a network or the like, or a storage unit (storage device) in the image processing device 10. ) May be obtained.

なお、ステップS1において取得された対象画像がカラー画像等の多チャンネル画像である場合、画像取得部11は、当該対象画像を単色で表される画像(1チャンネル画像)に変換するものとする。なお、単色で表される画像には、1つの画素に対して1つの画素値を有するモノクロ画像等が含まれる。 When the target image acquired in step S1 is a multi-channel image such as a color image, the image acquisition unit 11 shall convert the target image into an image represented by a single color (1 channel image). The image represented by a single color includes a monochrome image or the like having one pixel value for one pixel.

以下の説明においては、画像取得部11によって変換処理が施された画像についても便宜的に対象画像と称する。 In the following description, the image that has been converted by the image acquisition unit 11 is also referred to as a target image for convenience.

次に、特徴抽出部12は、対象画像上に多数配置された所定の特徴量抽出位置の各々において、当該特徴量抽出位置周辺の画像の輝度勾配ベクトルに基づいて算出される特徴量を抽出する(ステップS2)。 Next, the feature extraction unit 12 extracts a feature amount calculated based on the brightness gradient vector of the image around the feature amount extraction position at each of a large number of predetermined feature amount extraction positions arranged on the target image. (Step S2).

以下、ステップS2の処理について具体的に説明する。まず、図7を参照して、特徴量抽出位置について説明する。本実施形態において、対象画像200上には、図7に示すように特徴量抽出位置201が概ね等間隔に配置されている。なお、特徴量抽出位置201は、対象画像200を構成する画素と1対1に対応するように配置されていてもよいし、当該画素の間隔よりも大きな間隔で配置されていてもよい。 Hereinafter, the process of step S2 will be specifically described. First, the feature amount extraction position will be described with reference to FIG. 7. In the present embodiment, the feature amount extraction positions 201 are arranged at substantially equal intervals on the target image 200 as shown in FIG. 7. The feature amount extraction positions 201 may be arranged so as to have a one-to-one correspondence with the pixels constituting the target image 200, or may be arranged at intervals larger than the intervals of the pixels.

また、特徴量抽出位置201に対しては、当該特徴量抽出位置201を包含する一定の領域である特徴量抽出領域202が設定されている。図7に示すように、特徴量抽出領域202は、隣接する他の特徴量抽出領域と重なるように設定されていてもよい。 Further, for the feature amount extraction position 201, a feature amount extraction area 202, which is a certain area including the feature amount extraction position 201, is set. As shown in FIG. 7, the feature amount extraction area 202 may be set so as to overlap with other adjacent feature amount extraction areas.

なお、特徴量抽出領域202は、特徴量抽出位置201を中心とする円形状を有するものとして示されているが、他の形状等であってもよい。 Although the feature amount extraction region 202 is shown to have a circular shape centered on the feature amount extraction position 201, it may have another shape or the like.

特徴抽出部12は、上記したように設定されている各特徴量抽出位置について以下に説明する構造テンソルを求める。 The feature extraction unit 12 obtains a structural tensor described below for each feature extraction position set as described above.

ここで、対象画像の点(x,y)における水平微分、垂直微分をそれぞれl(x,y)、l(x,y)とする。この水平微分及び垂直微分(輝度勾配ベクトルの要素)は、ソーベルフィルタ等を用いたフィルタ演算で求めることができる。また、対象画像上に配置された特徴量抽出位置のうちのi番目の特徴量抽出位置について設定されている特徴量抽出領域に含まれる画素の集合をPとする。なお、対象画像上に配置された特徴量抽出位置の数はLであり、i={1,2,…,L}であるものとする。 Here, horizontal differentiation at a point of the target image (x, y), respectively vertical differentiation l x (x, y), l y (x, y) to. The horizontal derivative and the vertical derivative (elements of the luminance gradient vector) can be obtained by a filter calculation using a Sobel filter or the like. Moreover, the set of pixels included in the feature amount extraction area set for the i-th feature quantity extraction position of the arranged feature quantity extraction position on the target image and P i. It is assumed that the number of feature amount extraction positions arranged on the target image is L, and i = {1, 2, ..., L}.

この場合、i番目の特徴量抽出位置における構造テンソルAは以下の式(1)で求められる。なお、式(1)におけるw(w,y)は(x,y)における所定の重みである。 In this case, the structure tensor A i in the i-th feature quantity extraction position can be determined by the following equation (1). Note that w (w, y) in the equation (1) is a predetermined weight in (x, y).

Figure 0006845169

上記した式(1)によって求められる構造テンソルAは、対象画像中のi番目の特徴量抽出位置について設定されている特徴量抽出領域における輝度勾配ベクトルの統計量であり、2×2の対称行列となる。
Figure 0006845169

Structure tensor A i obtained by the equation (1) described above is a statistic of the intensity gradient vectors in the feature amount extraction area set for the i-th feature quantity extraction position in the target image, the 2 × 2 symmetric It becomes a matrix.

具体的には、輝度勾配ベクトルは図8の左側に示すような輝度の変化の特徴(例えば、輝度の高い方向)を表すベクトルであり、構造テンソルAは図8の右側に示すような当該輝度勾配ベクトルの分布を表す。 Specifically, the brightness gradient vector is a vector representing a characteristic of a change in luminance as shown in the left side of FIG. 8 (e.g., high brightness direction), the structure tensor A i is the as shown in the right side of FIG. 8 Represents the distribution of the luminance gradient vector.

ここで、構造テンソルAによって表される輝度勾配ベクトルの分布が楕円形状で表されるものとすると、当該楕円形状の長軸の方向は第1固有ベクトル、当該長軸の長さ(長径)の2乗は第1固有値、当該楕円形状の短軸の方向(第1固有ベクトルに直交する方向)は第2固有ベクトル、当該短軸の長さ(短径)の2乗は第2固有値に相当する。 Here, assuming that the distribution of the brightness gradient vector represented by the structural tensor Ai is represented by an elliptical shape, the direction of the major axis of the elliptical shape is the first eigenvector and the length (major axis) of the major axis. The square corresponds to the first eigenvalue, the direction of the elliptical minor axis (direction orthogonal to the first eigenvector) corresponds to the second eigenvector, and the square of the length (minor axis) of the minor axis corresponds to the second eigenvalue.

この場合、構造テンソルAの第1固有値は、当該構造テンソルAの第1固有ベクトルの方向の輝度勾配ベクトルの分散を表す。また、構造テンソルAの第2固有値は、当該構造テンソルAの第2固有ベクトルの方向の輝度勾配ベクトルの分散を表す。したがって、例えば構造テンソルAの第1固有値が第2固有値に対して顕著に大きければ、当該構造テンソルAを求めた特徴量抽出領域内の輝度勾配ベクトルは特定の方向に偏っていることが分かる。 In this case, the first eigenvalue of the structure tensor A i represents the variance of the direction of the intensity gradient vectors of the first eigenvector of the structure tensor A i. The second eigenvalue of the structure tensor A i represents the variance of the direction of the intensity gradient vectors of the second eigenvector of the structure tensor A i. Thus, for example, if the first eigenvalue of the structure tensor A i is significantly larger with respect to the second eigenvalue, intensity gradient vectors of the feature extraction region determined the structure tensor A i is be biased in a particular direction I understand.

特徴抽出部12は、上記した構造テンソルAの要素の線形結合を、i番目の特徴量抽出位置の特徴量として抽出する。ここで、構造テンソルAは、上記したように2×2の対称行列であるので、上三角成分の3つの要素(1行1列成分、1行2列成分、2行2列成分)のみで表現することが可能である。この上三角成分のうちの1行1列成分をa11、1行2列成分をa12、2行2列成分をa22とすると、特徴抽出部12は、このa11、a12及びa22の3つの要素からなるベクトルを特徴量として抽出する。 Feature extraction unit 12, a linear combination of the elements of the structure tensor A i described above, is extracted as a feature quantity of the i-th feature quantity extraction position. Here, since the structural tensor Ai is a 2 × 2 symmetric matrix as described above, only the three elements of the upper triangular component (1 row 1 column component, 1 row 2 column component, 2 row 2 column component) are used. It can be expressed by. When the a 12, 2 × 2 matrix components of one row and one column component a 11, 1 row 2 column component of the upper triangular component is a 22, feature extraction unit 12, the a 11, a 12 and a A vector consisting of 22 three elements is extracted as a feature quantity.

すなわち、本実施形態において特徴抽出部12によって抽出される特徴量(複数の特徴量抽出位置の各々において抽出される特徴量)は、当該特徴量抽出位置における勾配ベクトル(輝度勾配ベクトル)の要素の2次式の和で表される複数の要素からなる特徴量を含む。 That is, the feature amount extracted by the feature extraction unit 12 in the present embodiment (feature amount extracted at each of the plurality of feature amount extraction positions) is an element of the gradient vector (brightness gradient vector) at the feature amount extraction position. It includes a feature quantity consisting of a plurality of elements represented by the sum of quadratic equations.

なお、特徴抽出部12によって抽出される特徴量は、後述する評価値を算出することが可能なものであればよく、例えばa11−a22とa12との2つの要素からなるベクトル等であってもよいし、他のものであってもよい。 The feature amount extracted by the feature extraction unit 12 may be any one capable of calculating an evaluation value described later, for example, a vector consisting of two elements a 11 −a 22 and a 12 and the like. It may be present or it may be something else.

特徴抽出部12は、このような処理を特徴量抽出位置(特徴量抽出領域)毎に行うことによって、対象画像上に配置された特徴量抽出位置の各々について特徴量を抽出することができる。 By performing such processing for each feature amount extraction position (feature amount extraction area), the feature extraction unit 12 can extract the feature amount for each of the feature amount extraction positions arranged on the target image.

なお、特徴抽出部12は、対象画像上に配置された全ての特徴量抽出位置について特徴量を抽出しなくても構わない。具体的には、対象画像よりも前に取得されたフレーム(画像)から検出された架空線の位置等によって対象画像中の架空線の位置(存在範囲)が予測可能な場合には、当該予測された範囲内に存在する特徴量抽出位置についてのみ特徴量が抽出されるようにしてもよい。また、対象画像において特定の情報(例えば、時刻)等が表示される領域が存在するような場合には、当該領域内に存在する特徴量抽出位置については特徴量を抽出しない(つまり、特徴量抽出の対象外とする)ようにしてもよい。 The feature extraction unit 12 does not have to extract the feature amount for all the feature amount extraction positions arranged on the target image. Specifically, if the position (existence range) of the overhead line in the target image can be predicted by the position of the overhead line detected from the frame (image) acquired before the target image, the prediction is made. The feature amount may be extracted only for the feature amount extraction position existing in the specified range. In addition, when there is an area in which specific information (for example, time) is displayed in the target image, the feature amount is not extracted for the feature amount extraction position existing in the area (that is, the feature amount). It may be excluded from the extraction target).

再び図6に戻ると、投票部13は、ステップS12において抽出された特徴量を、当該特徴量が抽出された各特徴量抽出位置に基づいてパラメータ空間に投票する(ステップS3)。 Returning to FIG. 6 again, the voting unit 13 votes the feature amount extracted in step S12 in the parameter space based on each feature amount extraction position from which the feature amount is extracted (step S3).

ここで、図9を参照して、ステップS3において特徴量が投票されるパラメータ空間(投票空間)について概念的に説明する。 Here, with reference to FIG. 9, the parameter space (voting space) in which the feature amount is voted in step S3 will be conceptually described.

上記したように対象画像中の直線を角度θ及び距離ρの2つのパラメータで表すものとすると、本実施形態においては、θの値域をM個の区間に分割し、このように分割された各区間の代表値をθ(j={1,2,…,M})とする。同様に、ρの値域をN個の区間に分割し、このように分割された各区間の代表値をρ(k={1,2,…,N})とする。なお、各区間の代表値は、例えば当該区間に対応する値の中央値とする。 Assuming that the straight line in the target image is represented by two parameters of the angle θ and the distance ρ as described above, in the present embodiment, the range of θ is divided into M sections, and each of the divided sections is divided in this way. Let the representative value of the interval be θ j (j = {1, 2, ..., M}). Similarly, the range of ρ is divided into N intervals, and the representative value of each interval divided in this way is ρ k (k = {1, 2, ..., N}). The representative value of each section is, for example, the median value of the value corresponding to the section.

本実施形態においては、このように量子化されたパラメータ空間300のパラメータ(θ,ρ)の全てについて、特徴量を投票するための記憶領域vjkが用意されている。なお、図9において、例えば記憶領域301はパラメータ(θ,ρ)について用意された記憶領域v11を示し、例えば記憶領域302はパラメータ(θ,ρ)について用意された記憶領域vMNを示している。 In the present embodiment, a storage area v jk for voting the feature quantity is prepared for all the parameters (θ j , ρ k ) of the parameter space 300 quantized in this way. In FIG. 9, for example, the storage area 301 shows the storage area v 11 prepared for the parameters (θ 1 , ρ 1 ), and for example, the storage area 302 shows the storage area v prepared for the parameters (θ M , ρ N ). Shows MN .

Figure 0006845169

投票部13は、上記した処理をi={1,2,…,L}とj={1,2,…,M}の組み合わせ(つまり、特徴量抽出位置とθの組み合わせ)毎に実行する。
Figure 0006845169

The voting unit 13 executes the above processing for each combination of i = {1, 2, ..., L} and j = {1, 2, ..., M} (that is, a combination of the feature amount extraction position and θ). ..

例えば特徴量抽出位置が点(x,y)である場合、投票部13は、特徴量抽出位置(x,y)及び式(2)に基づいてθに対応するρの値を算出し、当該算出されたρの値に最も近いρk´を特定する。投票部13は、上記したパラメータ空間300のパラメータ(θ,ρk´)について用意された記憶領域v1k´に、特徴量抽出位置(x,y)について抽出された特徴量fを投票する。 For example, when the feature amount extraction position is a point (x 1 , y 1 ), the voting unit 13 uses the feature amount extraction position (x 1 , y 1 ) and the value of ρ corresponding to θ 1 based on the equation (2). Is calculated, and ρ k ′ closest to the calculated value of ρ is specified. The voting unit 13 has the feature amount f 1 extracted for the feature amount extraction position (x 1 , y 1 ) in the storage area v 1 k'prepared for the parameters (θ 1 , ρ k' ) of the parameter space 300 described above. To vote.

次に、投票部13は、特徴量抽出位置(x,y)及び式(2)に基づいてθに対応するρの値を算出し、当該算出されたρの値に最も近いρk´を特定する。投票部13は、パラメータ空間300のパラメータ(θ,ρk´)について用意された記憶領域v1k´に、特徴量抽出位置(x,y)について抽出された特徴量fを投票する。 Next, the voting unit 13 calculates the value of ρ corresponding to θ 2 based on the feature amount extraction position (x 1 , y 1 ) and the equation (2), and ρ closest to the calculated value of ρ. Identify k'. The voting unit 13 votes the feature amount f 1 extracted for the feature amount extraction position (x 1 , y 1 ) in the storage area v 1 k'prepared for the parameters (θ 2 , ρ k') of the parameter space 300. To do.

なお、θに対応するρの値から特定されたρk´とθに対応するρの値から特定されたρk´とは、同一であってもよいし、異なっていてもよい。 Note that the k'[rho identified from the value of [rho corresponding to 2 [rho k'and theta identified from the value of [rho corresponding to theta 1, may be the same or may be different.

同様の処理がθまで実行されると、特徴量抽出位置(x,y)についての投票処理が完了する。このような投票処理が全ての特徴量抽出位置(つまり、1番目〜L番目の特徴量抽出位置)について実行されることによって、投票部13は、ステップS2において各特徴量抽出位置について抽出された特徴量をパラメータ空間300の各パラメータに投票することができる。 When the same process is executed up to θ M , the voting process for the feature extraction position (x 1 , y 1) is completed. By executing such a voting process for all the feature amount extraction positions (that is, the first to Lth feature amount extraction positions), the voting unit 13 was extracted for each feature amount extraction position in step S2. Features can be voted on for each parameter in the parameter space 300.

このような投票部13による投票結果によれば、パラメータ空間300には、例えば複数の特徴量抽出位置の特徴量が投票(加算)されているパラメータ及び特徴量が投票されていないパラメータ等が存在する。 According to the voting result by the voting unit 13, for example, the parameter space 300 includes a parameter in which the feature amount of a plurality of feature amount extraction positions is voted (added) and a parameter in which the feature amount is not voted. To do.

なお、ここでは特徴量抽出位置とθの全ての組み合わせについて処理が実行されるものとして説明したが、例えば前のフレームから検出された架空線の位置等によって対象画像中の架空線の位置が予測可能な場合には、当該予測された範囲に対応するパラメータに限定して特徴量を投票するようにしてもよい。これによれば、投票部13における処理量を削減することが可能となる。 Although the processing is described here assuming that the processing is executed for all combinations of the feature amount extraction position and θ, the position of the overhead line in the target image is predicted by, for example, the position of the overhead line detected from the previous frame. If possible, the features may be voted on only for the parameters corresponding to the predicted range. According to this, it is possible to reduce the processing amount in the voting unit 13.

また、式(2)に基づいて算出されたθに対応するρの値に最も近いρk´を特定し、パラメータ(θ,ρk´)について用意された記憶領域vjk´に特徴量が投票されるものとして説明したが、θに対応するρの値に近い複数のρk´を特定し、当該ρの値と当該ρk´との差分に基づいて按分された特徴量が、複数のパラメータ(θ,ρk´)にそれぞれ投票されるようにしてもよい。すなわち、例えばθに対応するρの値に近い複数のρk´をρk´1及びρk´2で表すものとすると、1つのθについて(θ,ρk´1)及び(θ,ρk´2)の2組のパラメータに特徴量が投票されてもよい。 Further, ρ k ′ closest to the value of ρ corresponding to θ j calculated based on the equation (2) is specified, and the storage area v jk ′ prepared for the parameters (θ j , ρ k ′ ) is characteristic. Although the amount is explained as being voted , a plurality of ρ k'that are close to the value of ρ corresponding to θ j are specified, and the feature amount is apportioned based on the difference between the value of ρ and the value of ρ k'. However, a plurality of parameters (θ j , ρ k ′ ) may be voted for respectively. That is, for example , assuming that a plurality of ρ k ′ close to the value of ρ corresponding to θ j are represented by ρ k ′ 1 and ρ k ′ 2, for one θ j , (θ j , ρ k ′ 1) and ( The feature quantity may be voted for two sets of parameters of θ j and ρ k ′ 2).

再び図6に戻ると、評価値算出部14は、ステップS3において各パラメータに投票された特徴量に基づいて、当該パラメータ毎に評価値を算出する(ステップS4)。 Returning to FIG. 6 again, the evaluation value calculation unit 14 calculates the evaluation value for each parameter based on the feature amount voted for each parameter in step S3 (step S4).

以下、ステップS4の処理について具体的に説明する。ここでは、評価値算出部14は、パラメータ(θ,ρ)の評価値を算出するものとする。この場合、評価値算出部14は、パラメータ空間においてパラメータ(θ,ρ)に対して投票された特徴量の総和に対して評価値を算出する。 Hereinafter, the process of step S4 will be specifically described. Here, it is assumed that the evaluation value calculation unit 14 calculates the evaluation value of the parameter (θ j , ρ k ). In this case, the evaluation value calculation unit 14 calculates the evaluation value with respect to the sum of the feature quantities voted for the parameters (θ j , ρ k) in the parameter space.

ここで、上記した構造テンソルAの上三角成分であるa11、a12及びa22の3つの要素からなるベクトルを特徴量として用いている場合において、パラメータ(θ,ρ)に対して投票された特徴量の総和が例えばb11、b12及びb22の3つの要素からなるベクトルである場合を想定する。この場合、パラメータ(θ,ρ)に対して投票された特徴量の総和は、1行1列成分をb11、1行2列成分をb12、2行1列成分をb12、2行2列成分をb22とする2×2の対称行列である構造テンソルAjkに変換することができる。 Here, in the case of using a vector of three elements of a 11, a 12 and a 22 is a triangular component on the structure tensor A i described above as the characteristic amount, the parameter (θ j, ρ k) to It is assumed that the sum of the features voted in the above is a vector consisting of three elements , for example, b 11 , b 12 and b 22. In this case, the parameter (θ j, ρ k) the sum of the voting feature amount with respect to the first row of the first column component b 11, one row two rows component b 12, 2 rows and one column component b 12, It can be converted into a structure tensor A jk which is a 2 × 2 symmetric matrix having a 2-row 2-column component as b 22.

上記した構造テンソルAは対象画像中のi番目の特徴量抽出領域における輝度勾配ベクトルの分布を表していたが、構造テンソルAjkは、図10に示すようにパラメータ(θ,ρ)によって表される直線に沿った領域400において算出された構造テンソルとみなすことができ、当該領域400における輝度勾配ベクトルの分布を表しているといえる。 The above-mentioned structural tensor A i represented the distribution of the brightness gradient vector in the i-th feature amount extraction region in the target image, but the structural tensor A jk has parameters (θ j , ρ k ) as shown in FIG. It can be regarded as a structural tensor calculated in the region 400 along the straight line represented by, and can be said to represent the distribution of the brightness gradient vector in the region 400.

すなわち、このような構造テンソルAjkの第1固有値が第2固有値に対して顕著に大きければ、(θ,ρ)で表される直線に沿った領域400上に方向が揃ったエッジが並んでいることがわかる。 That is, if the first eigenvalue of such a structural tensor A jk is significantly larger than the second eigenvalue, an aligned edge is formed on the region 400 along the straight line represented by (θ j , ρ k). You can see that they are lined up.

このため、本実施形態において、評価値算出部14は、構造テンソルAjkの第1固有値及び第2固有値の差分sjkを評価値として算出するものとする。 Therefore, in the present embodiment, the evaluation value calculation unit 14 calculates the difference s jk between the first eigenvalue and the second eigenvalue of the structural tensor A jk as the evaluation value.

構造テンソルAjkの上三角成分を上記したようにb11,b12,b22とすると、構造テンソルAjkの第1固有値及び第2固有値の差分sjkは、以下の式(3)により算出される。 Calculating the triangular component on the structure tensor A jk and b 11, b 12, b 22 as described above, the difference s jk of the first eigenvalue and a second eigenvalue of the structure tensor A jk is the following formula (3) Will be done.

Figure 0006845169

評価値算出部14は、上記したパラメータ空間のパラメータの全てについて上記した式(3)に基づいて評価値(第1固有値及び第2固有値の差分)を算出する。なお、評価値の算出処理は、パラメータ空間の全てのパラメータのうち、ステップS3において特徴量が投票されたパラメータについてのみ実行されるようにしてもよい。
Figure 0006845169

The evaluation value calculation unit 14 calculates the evaluation value (difference between the first eigenvalue and the second eigenvalue) based on the above equation (3) for all the parameters in the above parameter space. The evaluation value calculation process may be executed only for the parameter whose feature amount is voted in step S3 among all the parameters in the parameter space.

この場合、評価値は構造テンソルの対角成分の差と非対角成分との2つの値があれば算出可能であるため、ステップS2において抽出される特徴量としては、上記したように構造テンソルの対角成分の差(つまり、a11−a22)と非対角成分(つまり、a12)とを要素とする2次元ベクトルとしてもよい。このような構成によれば、メモリ量や処理量(計算量)を削減することができる。 In this case, the evaluation value can be calculated if there are two values, the difference between the diagonal components of the structural tensor and the off-diagonal component. Therefore, the feature amount extracted in step S2 is the structural tensor as described above. It may be a two-dimensional vector whose elements are the difference between the diagonal components (that is, a 11 −a 22 ) and the off-diagonal component (that is, a 12). According to such a configuration, the amount of memory and the amount of processing (calculation amount) can be reduced.

また、ここでは評価値として式(3)に示す差分sjkが算出されるものとして説明したが、評価値を差分sjkの2乗とすれば、平方根の演算が不要になるため、更に計算量を削減することが可能となる。 Further, here, the difference s jk shown in the equation (3) is calculated as the evaluation value, but if the evaluation value is the square of the difference s jk , the square root calculation becomes unnecessary, so further calculation is performed. It is possible to reduce the amount.

再び図6に戻ると、パラメータ決定部15は、ステップS4においてパラメータ毎に算出された評価値に基づいて、対象画像中の架空線の位置に相当する直線を表すパラメータを決定する(ステップS5)。 Returning to FIG. 6 again, the parameter determination unit 15 determines a parameter representing a straight line corresponding to the position of the overhead line in the target image based on the evaluation value calculated for each parameter in step S4 (step S5). ..

ここで、ステップS4においてパラメータ毎に算出された評価値のうち、例えばパラメータ(θ,ρ)について算出された評価値sopが最大値であるものとすると、パラメータ(θ,ρ)を架空線の位置に相当する直線を表すパラメータとして決定する。なお、θは上記したθ〜θのうちの1つであり、ρは上記したρ〜ρのうちの1つである。 Here, it is assumed that among the evaluation values calculated for each parameter in step S4, for example, the evaluation value sop calculated for the parameter (θ o , ρ p ) is the maximum value, and the parameter (θ o , ρ p). ) Is determined as a parameter representing a straight line corresponding to the position of the overhead line. Note that θ o is one of the above-mentioned θ 1 to θ M , and ρ p is one of the above-mentioned ρ 1 to ρ N.

なお、パラメータ毎に算出された評価値を関数s(θ,ρ)であるものとみなし、パラメータ空間においてパラメータ(θ,ρ)の周辺に位置するパラメータの評価値に基づいてs(θ,ρ)の近傍をパラボラフィッティングで近似し、当該近似した関数の最大値を得ることができるθ,ρを架空線の位置に相当する直線を表すパラメータとして決定してもよい。 The evaluation value calculated for each parameter is regarded as a function s (θ, ρ), and s (θ) is based on the evaluation value of the parameter located around the parameter (θ o , ρ p) in the parameter space. The vicinity of o , ρ p ) may be approximated by parabolic fitting, and θ, ρ, which can obtain the maximum value of the approximated function, may be determined as a parameter representing a straight line corresponding to the position of the overhead line.

ステップS5において決定されたパラメータは、例えばネットワークを介して架空線の異常の有無を判別する処理を実行する外部の装置に出力されてもよいし、不揮発性メモリ102等の記憶装置に出力されて、当該画像処理装置10内で管理されてもよい。 The parameter determined in step S5 may be output to an external device that executes a process of determining the presence or absence of an abnormality in the overhead line via the network, or is output to a storage device such as the non-volatile memory 102. , May be managed in the image processing apparatus 10.

上記したように本実施形態においては、架空線の位置を検出する対象となる画像(対象画像)を取得し、当該対象画像中でエッジの方向が略均質な直線状の領域を架空線の位置として検出する。すなわち、本実施形態においては、上記した図3に示すように架空線に沿った方向(長手方向)ではエッジの向きが一様となる点に着目し、構造テンソルを用いてHough変換を拡張することによってエッジの向きが揃っている直線状の領域を架空線が存在する位置として検出する。 As described above, in the present embodiment, the target image (target image) for detecting the position of the overhead line is acquired, and the position of the overhead line is defined as a linear region in which the edge direction is substantially homogeneous in the target image. Detect as. That is, in the present embodiment, as shown in FIG. 3 described above, the Hough transform is extended by using the structural tensor, paying attention to the point that the direction of the edge becomes uniform in the direction along the overhead line (longitudinal direction). As a result, a linear region in which the directions of the edges are aligned is detected as the position where the overhead line exists.

本実施形態においては、このような構成により、人手を介さず、高い精度で画像から架空線の位置を検出することが可能となる。 In the present embodiment, such a configuration makes it possible to detect the position of the overhead line from the image with high accuracy without human intervention.

なお、本実施形態においては、対象画像中の複数の特徴量抽出位置の各々において複数の要素からなる特徴量を抽出し、当該抽出された特徴量を当該特徴量が抽出された特徴量抽出位置に基づいてパラメータ空間に投票し、当該パラメータ空間に投票された特徴量に基づいて対象画像中の直線を表すパラメータ毎に評価値を算出する。本実施形態においては、このように算出された評価値に基づいて架空線の位置に相当する直線を表すパラメータを決定する。なお、複数の特徴量抽出位置の各々において抽出される特徴量は、当該特徴量抽出位置における勾配ベクトルの要素の2次式の和で表される複数の要素からなる特徴量を含む。また、本実施形態においては、パラメータ空間においてパラメータに投票された特徴量の総和に基づいて構造テンソルを算出し、当該算出された構造テンソルの第1固有値と第2固有値との差分を当該パラメータの評価値として算出する。本実施形態においては、このような処理が実行されることによって、上記した対象画像中でエッジの方向が略均質な直線状の領域の検出を実現することが可能となる。 In the present embodiment, a feature amount composed of a plurality of elements is extracted at each of a plurality of feature amount extraction positions in the target image, and the extracted feature amount is used as the feature amount extraction position from which the feature amount is extracted. The parameter space is voted based on the above, and the evaluation value is calculated for each parameter representing a straight line in the target image based on the feature amount voted in the parameter space. In the present embodiment, the parameter representing the straight line corresponding to the position of the overhead line is determined based on the evaluation value calculated in this way. The feature amount extracted at each of the plurality of feature amount extraction positions includes a feature amount composed of a plurality of elements represented by the sum of the quadratic equations of the elements of the gradient vector at the feature amount extraction position. Further, in the present embodiment, the structural tensor is calculated based on the sum of the feature quantities voted for the parameters in the parameter space, and the difference between the first eigenvalue and the second eigenvalue of the calculated structural tensor is used as the parameter. Calculated as an evaluation value. In the present embodiment, by executing such a process, it is possible to realize the detection of a linear region having substantially uniform edge directions in the above-mentioned target image.

ここで、対象画像がカラー画像等の多チャンネル画像である場合には本実施形態における輝度勾配ベクトルを定義することが困難である。このため、対象画像がカラー画像等である場合には、当該対象画像を単色で表される画像(1つの画素に対して1つの画素値を有するモノクロ画像)のような明暗を定義しやすい画像に変換する。このような構成によれば、対象画像において適切に輝度勾配ベクトルを定義することができ、架空線の位置の検出精度を向上させることが可能となる。 Here, when the target image is a multi-channel image such as a color image, it is difficult to define the luminance gradient vector in the present embodiment. Therefore, when the target image is a color image or the like, it is easy to define light and darkness such as an image in which the target image is represented by a single color (a monochrome image having one pixel value for one pixel). Convert to. According to such a configuration, the luminance gradient vector can be appropriately defined in the target image, and the detection accuracy of the position of the overhead line can be improved.

また、本実施形態においては架空線の位置に相当する直線を表すパラメータとして角度θ及び距離ρを決定する(出力する)ものとして説明したが、当該パラメータとして対象画像中の架空線の幅を更に求めるようにしてもよい。 Further, in the present embodiment, the angle θ and the distance ρ are determined (output) as parameters representing the straight line corresponding to the position of the overhead line, but the width of the overhead line in the target image is further increased as the parameters. You may ask for it.

ここで、上記したようにパラメータ毎に算出される評価値sjkのうちの評価値sopが最大値であるものとし、パラメータ(θ,ρ)が架空線の位置に相当する直線を表すパラメータとして決定されたものとする。この場合、対象画像において、架空線は、座標原点から角度θの方向であって距離ρの位置に存在することになる。 Here, the evaluation value s op of the evaluation value s jk are calculated for each parameter as described above is assumed to be the maximum value, the straight line parameters (θ o, ρ p) corresponds to the position of the overhead wire It shall be determined as a parameter to be represented. In this case, in the target image, the overhead line exists in the direction of the angle θ o from the coordinate origin and at the position of the distance ρ p.

この場合において、上記した評価値sjkを位置(j,k)に対する画素値とみなすものとすると、角度θを固定し、距離ρを変化させた場合に得られる評価値は、図11に示すように変化する。この図11において、評価値が低い部分は架空線以外(背景)の領域に相当し、評価値が高い部分は架空線が存在する領域に相当する。これによれば、評価値が最大となる位置から見て左右方向に最初に閾値を下回る点を架空線と背景との境界とみなし、当該各点に対応する距離ρを特定することによって架空線の幅を算出することが可能となる。 In this case, assuming that the above-mentioned evaluation value s jk is regarded as a pixel value with respect to the position (j, k), the evaluation value obtained when the angle θ o is fixed and the distance ρ is changed is shown in FIG. It changes as shown. In FIG. 11, the portion having a low evaluation value corresponds to the region other than the overhead line (background), and the portion having a high evaluation value corresponds to the region where the overhead line exists. According to this, the point that first falls below the threshold value in the left-right direction when viewed from the position where the evaluation value is maximum is regarded as the boundary between the overhead line and the background, and the overhead line is specified by specifying the distance ρ corresponding to each point. It becomes possible to calculate the width of.

このように算出された架空線の幅は上記した架空線の異常の有無を判別する処理(以下、異常判別処理と表記)において利用することが可能であり、当該異常判別の精度向上に寄与することができる。 The width of the overhead line calculated in this way can be used in the above-mentioned process of determining the presence or absence of an abnormality in the overhead line (hereinafter referred to as an abnormality determination process), and contributes to improving the accuracy of the abnormality determination. be able to.

なお、異常判別処理は、外部の装置で実行されてもよいし、画像処理装置10に含まれる判別部(図示せず)によって実行されてもよい。異常判別処理は、例えば異常のある架空線の画像及び異常のない架空線の画像を学習することによって構築された学習モデル等を用いて実行されてもよいし、他の手法により実行されても構わない。このような異常判別処理によれば、例えば空撮画像(映像)を作業者が目視で確認する等の労力及び時間を大幅に削減し、架空線の点検作業の省力化を実現することができる。 The abnormality discrimination process may be executed by an external device, or may be executed by a discrimination unit (not shown) included in the image processing device 10. The abnormality discrimination process may be executed using, for example, a learning model constructed by learning an image of an overhead line having an abnormality and an image of an overhead line without an abnormality, or may be executed by another method. I do not care. According to such an abnormality determination process, it is possible to significantly reduce the labor and time required for the operator to visually check the aerial image (video), for example, and to save the labor for the inspection work of the overhead line. ..

本実施形態においては画像処理装置10が1つの装置であるものとして説明したが、例えば画像処理装置10が複数の装置によって実現され、図4に示す各部11〜15の各々が複数の装置に分散されていても構わない。 In the present embodiment, the image processing device 10 has been described as one device, but for example, the image processing device 10 is realized by a plurality of devices, and each of the parts 11 to 15 shown in FIG. 4 is distributed to the plurality of devices. It doesn't matter if it is done.

(第2の実施形態)
次に、第2の実施形態について説明する。なお、本実施形態においては、前述した第1の実施形態と同様の部分についての詳しい説明は省略し、異なる部分について主に述べる。
(Second embodiment)
Next, the second embodiment will be described. In this embodiment, detailed description of the same parts as those of the first embodiment described above will be omitted, and different parts will be mainly described.

図12は、本実施形態に係る画像処理装置の機能構成の一例を示すブロック図である。図12において、図4と同様の部分については同一の参照符号が付されている。 FIG. 12 is a block diagram showing an example of the functional configuration of the image processing apparatus according to the present embodiment. In FIG. 12, the same reference numerals are given to the same parts as those in FIG.

図12に示すように、本実施形態に係る画像処理装置10は、前述した第1の実施形態において説明した画像取得部11、特徴抽出部12、投票部13、評価値算出部14及びパラメータ決定部15に加えて、判定部16を含む。 As shown in FIG. 12, the image processing apparatus 10 according to the present embodiment includes the image acquisition unit 11, the feature extraction unit 12, the voting unit 13, the evaluation value calculation unit 14, and the parameter determination described in the first embodiment described above. In addition to the unit 15, the determination unit 16 is included.

判定部16は、パラメータ決定部15によって決定されたパラメータによって表される直線上(つまり、当該パラメータに対応する対象画像中の領域)に架空線が存在するか否かを判定する。 The determination unit 16 determines whether or not an overhead line exists on a straight line represented by the parameter determined by the parameter determination unit 15 (that is, a region in the target image corresponding to the parameter).

本実施形態に係る画像処理装置10は、このような判定部16を備える点で、前述した第1の実施形態とは異なる。 The image processing device 10 according to the present embodiment is different from the above-described first embodiment in that the image processing device 10 includes such a determination unit 16.

次に、図13のフローチャートを参照して、本実施形態に係る画像処理装置10の処理手順の一例について説明する。 Next, an example of the processing procedure of the image processing apparatus 10 according to the present embodiment will be described with reference to the flowchart of FIG.

まず、図6に示すステップS1〜S5の処理に相当するステップS11〜S15の処理が実行される。 First, the processes of steps S11 to S15 corresponding to the processes of steps S1 to S5 shown in FIG. 6 are executed.

ステップS15の処理が実行されると、判定部16は、当該ステップS15において決定されたパラメータによって表される直線を含む領域(以下、対象領域と表記)に架空線が存在するか否かを判定する(ステップS16)。 When the process of step S15 is executed, the determination unit 16 determines whether or not an overhead line exists in the region including the straight line represented by the parameter determined in step S15 (hereinafter referred to as the target region). (Step S16).

ここで、図14を参照して、ステップS16の処理について説明する。図14は、対象画像500中の対象領域501を示している。 Here, the process of step S16 will be described with reference to FIG. FIG. 14 shows a target region 501 in the target image 500.

ステップS16において、判定部16は、対象領域501上に複数のパターン認識対象領域を設定する。図14においては、複数のパターン認証対象領域として領域502〜506が設定されている。 In step S16, the determination unit 16 sets a plurality of pattern recognition target areas on the target area 501. In FIG. 14, areas 502 to 506 are set as a plurality of pattern authentication target areas.

判定部16は、対象領域501上に設定された複数のパターン認識対象領域502〜506内の画像が架空線である(当該画像に架空線が含まれている)か否かを判定する。なお、この判定処理には、例えばニューラルネットワーク等を用いた一般的な2クラス識別器を用いることができる。なお、識別器は、予め大量の架空線画像と非架空線画像とを学習しておくものとする。このような識別器によれば、各パターン認識対象領域502〜506内の画像が架空線であるか否かを判定することができる。なお、識別器は、サポートベクターマシン(SVM)等の他の手法によるものであってもよい。 The determination unit 16 determines whether or not the images in the plurality of pattern recognition target areas 502 to 506 set on the target area 501 are overhead lines (the images include the overhead lines). For this determination process, for example, a general two-class classifier using a neural network or the like can be used. The classifier shall learn a large number of overhead line images and non-overhead line images in advance. According to such a discriminator, it is possible to determine whether or not the image in each pattern recognition target area 502 to 506 is an overhead line. The classifier may be a discriminator by another method such as a support vector machine (SVM).

判定部16は、上記したパターン認識対象領域502〜506のうちの予め定められた割合以上のパターン認識対象領域内の画像が架空線であると判定された場合に、対象領域501に架空線が存在すると判定する。具体的には、予め定められた割合が例えば0.8であるものとすると、4つ以上のパターン認識対象領域において画像が架空線であると判定された場合に対象領域501に架空線が存在すると判定される。 When the determination unit 16 determines that the image in the pattern recognition target area equal to or larger than the predetermined ratio of the pattern recognition target areas 502 to 506 described above is an overhead line, the determination unit 16 establishes an overhead line in the target area 501. Determined to exist. Specifically, assuming that the predetermined ratio is, for example, 0.8, an overhead line exists in the target area 501 when the image is determined to be an overhead line in four or more pattern recognition target areas. Then it is judged.

再び図13に戻ると、ステップS16において対象領域に架空線が存在すると判定された場合(ステップS16のYES)、ステップS15において決定されたパラメータが架空線の位置に相当する直線を表すパラメータとして出力される(ステップS17)。 Returning to FIG. 13 again, when it is determined in step S16 that an overhead line exists in the target area (YES in step S16), the parameter determined in step S15 is output as a parameter representing a straight line corresponding to the position of the overhead line. (Step S17).

一方、対象領域に架空線が存在しないと判定された場合(ステップS16のNO)、ステップS17の処理は実行されず、ステップS15において決定されたパラメータは出力されない。 On the other hand, when it is determined that the overhead line does not exist in the target area (NO in step S16), the process of step S17 is not executed, and the parameter determined in step S15 is not output.

本実施形態においては、対象画像中の対象領域(パラメータ決定部15によって決定されたパラメータによって表される直線上)に架空線が存在するか否かを判定する構成により、架空線の位置に相当する蓋然性が高い直線を表すパラメータを出力するようなことが可能となり、架空線の位置の検出精度を向上させることができる。 In the present embodiment, it corresponds to the position of the overhead line by the configuration of determining whether or not the overhead line exists in the target area (on the straight line represented by the parameter determined by the parameter determination unit 15) in the target image. It is possible to output a parameter representing a straight line with a high probability of being performed, and it is possible to improve the detection accuracy of the position of the overhead line.

なお、本実施形態においては、判定部16による判定結果を利用することによって、空撮映像を構成する複数の画像の各々において架空線が存在するか否かを判別することが可能である。これによれば、多数の架空線を順繰りに追跡した長時間の空撮映像において、個々の架空線が撮影されている区間(追跡区間)が不明な場合であっても、当該架空線が存在するフレーム(画像)のみを抽出して異常判定処理を実行することによって、架空線の点検作業の大幅な省力化を実現することが可能となる。 In the present embodiment, it is possible to determine whether or not an overhead line exists in each of the plurality of images constituting the aerial image by using the determination result by the determination unit 16. According to this, even if the section (tracking section) in which each overhead line is photographed is unknown in a long-time aerial image in which a large number of overhead lines are tracked in sequence, the overhead line exists. By extracting only the frame (image) to be processed and executing the abnormality determination process, it is possible to realize a significant labor saving in the inspection work of the overhead line.

以上述べた少なくとも1つの実施形態によれば、高い精度で画像から架空線お位置を検出することが可能な画像処理装置、画像処理方法及びプログラムを提供することができる。 According to at least one embodiment described above, it is possible to provide an image processing device, an image processing method, and a program capable of detecting the position of an overhead line from an image with high accuracy.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 Although some embodiments of the present invention have been described, these embodiments are presented as examples and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the gist of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, as well as in the scope of the invention described in the claims and the equivalent scope thereof.

10…画像処理装置、11…画像取得部、12…特徴抽出部、13…投票部、14…評価値算出部、15…パラメータ決定部、16…判定部、101…CPU、102…不揮発性メモリ、103…主メモリ、104…通信デバイス。 10 ... Image processing device, 11 ... Image acquisition unit, 12 ... Feature extraction unit, 13 ... Voting unit, 14 ... Evaluation value calculation unit, 15 ... Parameter determination unit, 16 ... Judgment unit, 101 ... CPU, 102 ... Non-volatile memory , 103 ... Main memory, 104 ... Communication device.

Claims (9)

画像中の架空線の位置を検出する画像処理装置において、
前記架空線の位置を検出する対象となる画像を取得する取得手段と、
前記取得された画像中でエッジの方向が略均質な直線状の領域を架空線の位置として検出する検出手段と
を具備し、
前記検出手段は、
前記画像中の複数の特徴量抽出位置の各々において複数の要素からなる特徴量を抽出する抽出手段と、
前記抽出された特徴量を、当該特徴量が抽出された特徴量抽出位置に基づいてパラメータ空間に投票する投票手段と、
前記パラメータ空間に投票された特徴量に基づいて、前記画像中の直線を表すパラメータ毎に、エッジの方向が略均質な直線状の領域であることが反映された評価値を算出する第1算出手段と、
前記算出された評価値に基づいて前記架空線の位置に相当する直線を表すパラメータを決定する決定手段と
を含む
像処理装置。
In an image processing device that detects the position of an overhead line in an image
An acquisition means for acquiring an image to be detected for the position of the overhead line, and
It is provided with a detecting means for detecting a linear region having substantially uniform edge directions in the acquired image as an overhead line position.
The detection means
An extraction means for extracting a feature amount composed of a plurality of elements at each of a plurality of feature amount extraction positions in the image, and an extraction means.
A voting means for voting the extracted feature amount in the parameter space based on the feature amount extraction position where the feature amount was extracted, and
The first calculation for calculating an evaluation value reflecting that the edge direction is a substantially homogeneous linear region for each parameter representing a straight line in the image based on the feature amount voted in the parameter space. Means and
As a determination means for determining a parameter representing a straight line corresponding to the position of the overhead line based on the calculated evaluation value.
including
Images processing device.
前記複数の特徴量抽出位置の各々において抽出される特徴量は、当該特徴量抽出位置における勾配ベクトルの要素の2次式の和で表される複数の要素からなる特徴量を含む請求項記載の画像処理装置。 Feature amount extracted in each of the plurality of feature quantity extraction position, according to claim 1, further comprising a feature amount including a plurality of elements is expressed by the sum of the quadratic components of the gradient vector in the feature quantity extraction position Image processing equipment. 前記第1算出手段は、前記パラメータ空間においてパラメータに投票された特徴量の総和に基づいて構造テンソルを算出し、当該算出された構造テンソルの第1固有値と第2固有値との差分を当該パラメータの評価値として算出する請求項または記載の画像処理装置。 The first calculation means calculates a structural tensor based on the sum of the feature quantities voted for the parameter in the parameter space, and calculates the difference between the first eigenvalue and the second eigenvalue of the calculated structural tensor of the parameter. The image processing apparatus according to claim 1 or 2, which is calculated as an evaluation value. 前記取得手段は、前記取得された画像を単色で表される画像に変換する変換手段を含む請求項のいずれか一項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 3 , wherein the acquisition means includes a conversion means for converting the acquired image into an image represented by a single color. 前記検出手段は、前記決定されたパラメータに基づいて前記画像中の架空線の幅を算出する第2算出手段を更に含む請求項のいずれか一項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 3 , wherein the detection means further includes a second calculation means for calculating the width of an overhead line in the image based on the determined parameter. 前記画像中の前記決定されたパラメータによって表される直線上に架空線が存在するかを判定する判定手段を更に具備する請求項のいずれか一項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 3 , further comprising a determination means for determining whether or not an overhead line exists on a straight line represented by the determined parameter in the image. 前記検出された架空線の位置に基づく前記取得された画像に対する画像処理によって当該架空線の異常の有無を判別する判別手段を更に具備する請求項1〜のいずれか一項に記載の画像処理装置。 The image processing according to any one of claims 1 to 6 , further comprising a discriminating means for determining the presence or absence of an abnormality in the overhead line by image processing on the acquired image based on the position of the detected overhead line. apparatus. 画像中の架空線の位置を検出する画像処理装置が実行する画像処理方法であって、
前記架空線の位置を検出する対象となる画像を取得するステップと、
前記取得された画像中でエッジの方向が略均質な直線状の領域を架空線の位置として検出するステップと
を具備し、
前記検出するステップは、
前記画像中の複数の特徴量抽出位置の各々において複数の要素からなる特徴量を抽出するステップと、
前記抽出された特徴量を、当該特徴量が抽出された特徴量抽出位置に基づいてパラメータ空間に投票するステップと、
前記パラメータ空間に投票された特徴量に基づいて、前記画像中の直線を表すパラメータ毎に、エッジの方向が略均質な直線状の領域であることが反映された評価値を算出するステップと、
前記算出された評価値に基づいて前記架空線の位置に相当する直線を表すパラメータを決定するステップと
を含む
像処理方法。
An image processing method executed by an image processing device that detects the position of an overhead line in an image.
A step of acquiring an image to be detected for the position of the overhead line, and
It includes a step of detecting a linear region having substantially uniform edge directions in the acquired image as an overhead line position .
The step to detect is
A step of extracting a feature amount composed of a plurality of elements at each of a plurality of feature amount extraction positions in the image, and a step of extracting the feature amount.
A step of voting the extracted feature amount in the parameter space based on the feature amount extraction position where the feature amount was extracted, and
Based on the feature amount voted in the parameter space, a step of calculating an evaluation value reflecting that the edge direction is a substantially homogeneous linear region for each parameter representing a straight line in the image, and a step of calculating the evaluation value.
With the step of determining the parameter representing the straight line corresponding to the position of the overhead line based on the calculated evaluation value.
including
Images processing method.
画像中の架空線の位置を検出する画像処理装置のコンピュータによって実行されるプログラムであって、
前記コンピュータに、
前記架空線の位置を検出する対象となる画像を取得するステップと、
前記取得された画像中でエッジの方向が略均質な直線状の領域を架空線の位置として検出するステップと
を実行させ
前記検出するステップは、
前記画像中の複数の特徴量抽出位置の各々において複数の要素からなる特徴量を抽出するステップと、
前記抽出された特徴量を、当該特徴量が抽出された特徴量抽出位置に基づいてパラメータ空間に投票するステップと、
前記パラメータ空間に投票された特徴量に基づいて、前記画像中の直線を表すパラメータ毎に、エッジの方向が略均質な直線状の領域であることが反映された評価値を算出するステップと、
前記算出された評価値に基づいて前記架空線の位置に相当する直線を表すパラメータを決定するステップと
を含む
ログラム。
A program executed by the computer of an image processing device that detects the position of an overhead line in an image.
On the computer
A step of acquiring an image to be detected for the position of the overhead line, and
The step of detecting a linear region having substantially uniform edge directions in the acquired image as the position of an overhead line is executed .
The step to detect is
A step of extracting a feature amount composed of a plurality of elements at each of a plurality of feature amount extraction positions in the image, and a step of extracting the feature amount.
A step of voting the extracted feature amount in the parameter space based on the feature amount extraction position where the feature amount was extracted, and
Based on the feature amount voted in the parameter space, a step of calculating an evaluation value reflecting that the edge direction is a substantially homogeneous linear region for each parameter representing a straight line in the image, and a step of calculating the evaluation value.
With the step of determining the parameter representing the straight line corresponding to the position of the overhead line based on the calculated evaluation value.
including
Program.
JP2018043466A 2018-03-09 2018-03-09 Image processing equipment, image processing methods and programs Active JP6845169B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018043466A JP6845169B2 (en) 2018-03-09 2018-03-09 Image processing equipment, image processing methods and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018043466A JP6845169B2 (en) 2018-03-09 2018-03-09 Image processing equipment, image processing methods and programs

Publications (2)

Publication Number Publication Date
JP2019159595A JP2019159595A (en) 2019-09-19
JP6845169B2 true JP6845169B2 (en) 2021-03-17

Family

ID=67993628

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018043466A Active JP6845169B2 (en) 2018-03-09 2018-03-09 Image processing equipment, image processing methods and programs

Country Status (1)

Country Link
JP (1) JP6845169B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102095443B1 (en) * 2019-10-17 2020-05-26 엘아이지넥스원 주식회사 Method and Apparatus for Enhancing Image using Structural Tensor Based on Deep Learning

Also Published As

Publication number Publication date
JP2019159595A (en) 2019-09-19

Similar Documents

Publication Publication Date Title
CN112380952B (en) Power equipment infrared image real-time detection and identification method based on artificial intelligence
CN102073846B (en) Method for acquiring traffic information based on aerial images
CN110502982B (en) Method and device for detecting obstacles in expressway and computer equipment
US20190147283A1 (en) Deep convolutional neural networks for crack detection from image data
US7127107B2 (en) Land partition data generating method and apparatus
JP2018092628A (en) Method and system for automated object detection from aerial image
US11586863B2 (en) Image classification method and device
JP2020080141A (en) Vehicle classification from laser scanner using fisher and profile signature
JP6798854B2 (en) Target number estimation device, target number estimation method and program
JP5257274B2 (en) MOBILE BODY DETECTING DEVICE, MOBILE BODY DETECTING METHOD, AND COMPUTER PROGRAM
CN113112480B (en) Video scene change detection method, storage medium and electronic device
CN111709421A (en) Bird identification method and device, computer equipment and storage medium
JP4946878B2 (en) Image identification apparatus and program
CN109034239B (en) Remote sensing image classification method, and site selection method and device for distributed wind power plant
US20170053172A1 (en) Image processing apparatus, and image processing method
CN103514460B (en) Video monitoring multi-view-angle vehicle detecting method and device
US9953238B2 (en) Image processing method and system for extracting distorted circular image elements
JP6845169B2 (en) Image processing equipment, image processing methods and programs
CN111008956A (en) Beam bottom crack detection method, system, device and medium based on image processing
CN107578001B (en) Method and device for testing resolution of fingerprint acquisition equipment
EP3783563A1 (en) Recognition device, recognition method, and recognition program
JP2014016710A (en) Object detection device and program
DE112020005223T5 (en) Object tracking device and object tracking method
WO2016092783A1 (en) Information processing apparatus, method for processing information, discriminator generating apparatus, method for generating discriminator, and program
JP6326622B2 (en) Human detection device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191008

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201030

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201110

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210126

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210225

R150 Certificate of patent or registration of utility model

Ref document number: 6845169

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150