JP2011170400A - Program, method, and apparatus for identifying facility - Google Patents

Program, method, and apparatus for identifying facility Download PDF

Info

Publication number
JP2011170400A
JP2011170400A JP2010030864A JP2010030864A JP2011170400A JP 2011170400 A JP2011170400 A JP 2011170400A JP 2010030864 A JP2010030864 A JP 2010030864A JP 2010030864 A JP2010030864 A JP 2010030864A JP 2011170400 A JP2011170400 A JP 2011170400A
Authority
JP
Japan
Prior art keywords
image
storage unit
angle
data storage
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2010030864A
Other languages
Japanese (ja)
Inventor
Toshiaki Ohashi
敏明 大橋
Takao Komata
孝夫 小俣
Toshiki Nagumo
俊喜 南雲
Shigeki Ueno
滋樹 上野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokyo Electric Power Company Holdings Inc
Original Assignee
Tokyo Electric Power Co Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo Electric Power Co Inc filed Critical Tokyo Electric Power Co Inc
Priority to JP2010030864A priority Critical patent/JP2011170400A/en
Publication of JP2011170400A publication Critical patent/JP2011170400A/en
Withdrawn legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To identify facilities such as a utility pole and a steel tower which have been photographed. <P>SOLUTION: This method performs image recognition processing to a first image stored in an image data storage portion for storing an image whose reference line perpendicular to an upper side or a bottom side is specified and which is photographed so that a distance of the upper side or the bottom side is in proportion to an angle viewed from a photographing point, photographing position data of the photographing point, and an azimuth angle of the reference line, extracts an image portion of facilities to be identified, the facilities including the utility pole and the steel tower, calculates a displacement angle of the image portion from a relationship between a straight line passing through the extracted image portion, and the reference line, calculates an azimuth angle of the image portion based on the displacement angle, and the azimuth angle of the reference line, and extracts an identifier of the facilities to be identified closest to the photographing point among the facilities to be identified included in a range specified from the photographing position data of the photographing point and the calculated azimuth angle of the image portion from a facilities data storage portion in which the identifier of the facilities to be identified and position data are registered. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、画像において電柱や鉄塔などの設備を識別するための技術に関する。   The present invention relates to a technique for identifying equipment such as utility poles and steel towers in an image.

例えば特開2001−273481号公報には、架空配線された電柱を簡便に作業性よく写真撮影し、これを規格化し、一元的に管理するための技術が開示されている。より具体的には、電柱を広角の3次元像の魚眼像として撮像し、魚眼像の情報を2次元映像の情報に変換し、2次元映像の情報をビジュアル画像に変換して記録もしくは表示し、又は、ビジュアル画像をさらにデジタル情報に変換して記録もしくは表示し、電柱の全景・設置環境を確認する。しかし、カメラの方向が異なると共に、走行している車両からの画像を処理するものではない。   For example, Japanese Patent Application Laid-Open No. 2001-273481 discloses a technique for easily taking a photograph of a utility pole wired overhead, standardizing it, and managing it centrally. More specifically, the utility pole is imaged as a wide-angle three-dimensional fisheye image, the fisheye image information is converted into two-dimensional video information, and the two-dimensional video information is converted into a visual image for recording or recording. Display or further convert the visual image into digital information, record or display it, and check the entire view and installation environment of the utility pole. However, the direction of the camera is different and the image from the traveling vehicle is not processed.

また、特開2002−357557号公報には、道路や周辺施設等のチェックするにあたり作業者の労力負担を軽減することのできる、道路や周辺施設等の管理システムが開示されている。具体的には、巡回車に搭載された撮影カメラにより取得された道路や周辺施設等の映像データを記録するデータ記録部と、映像データを画像処理することにより、道路や周辺施設等の異常を検出する画像処理部と、第1の日付の撮影により取得された第1映像データと比較すべき映像データを、第1の日付とは異なる第2の日付の撮影により取得された第2映像データ群から特定する映像データ特定部とを備える。そして、画像処理部は、第1映像データと第2映像データとを画像処理技術を用いて比較対照することにより、道路や周辺施設等の異常を検出するものである。撮影された設備が地図上のどの設備であるかを識別するようなことは考慮されていない。   Japanese Laid-Open Patent Publication No. 2002-357557 discloses a management system for roads and surrounding facilities that can reduce the labor burden on workers when checking roads and surrounding facilities. Specifically, abnormalities in roads and surrounding facilities can be detected by image processing the video data and a data recording unit that records video data such as roads and surrounding facilities acquired by a camera mounted on a patrol car. Second video data acquired by shooting on a second date different from the first date, image data to be detected and video data to be compared with the first video data acquired by shooting on the first date A video data specifying unit for specifying from the group. The image processing unit detects abnormalities such as roads and surrounding facilities by comparing and contrasting the first video data and the second video data using an image processing technique. It is not considered to identify which equipment on the map is the equipment taken.

さらに、特開平10−294932号公報には、巡視作業等で撮影する位置が事前に指定されている場所での撮影を自動的に行うデジタル画像撮影装置が開示されている。具体的には、撮影予定場所の一覧を格納したデータベースと、現在位置を計測するDGPS(Differential Global Positioning System)と、データベースとDGPSの位置情報からデータベースに記録されている位置の範囲内に入ったことを識別する手段と、デジタル的に画像を撮影する手段と、撮影された画像を記録する手段とを備える。そして、撮影場所の範囲内に入ったと判断された場合に撮影手段で撮影した画像を記録手段に記録する。これによれば、巡視箇所の撮影を自動化することが可能となる。また、撮影の位置が正確に分かっていなくても、機器や地点の名称で指定することにより撮影場所の設定を行うことが可能となる。しかしながら、画像から、特定の設備を識別するような技術が開示されているわけではない。   Further, Japanese Patent Application Laid-Open No. 10-294932 discloses a digital image photographing apparatus that automatically performs photographing at a place where a photographing position for a patrol work or the like is designated in advance. Specifically, a database that stores a list of planned shooting locations, a DGPS (Differential Global Positioning System) that measures the current position, and the position information recorded in the database from the database and DGPS position information. Means for identifying this, means for digitally capturing an image, and means for recording the captured image. Then, when it is determined that the image is within the range of the shooting location, the image shot by the shooting means is recorded in the recording means. According to this, it becomes possible to automate the photographing of the inspection place. Even if the shooting position is not accurately known, it is possible to set the shooting location by specifying the name of the device or the spot. However, a technique for identifying a specific facility from an image is not disclosed.

特開2001−273481号公報Japanese Patent Laid-Open No. 2001-273481 特開2002−357557号公報JP 2002-357557 A 特開平10−294932号公報JP-A-10-294932

道路や道路周辺に設置された電柱や鉄塔などの設備を1つ1つ人が巡回するのは非常にコストがかかるため、このコストを下げるために自動車を走行中に設備の画像を撮影することが考えられる。しかしながら、撮影された設備が、管理しているどの設備であるかを自動的に識別するような技術は従来存在していない。   It is very expensive for one person to go around the facilities such as power poles and steel towers installed around the road and the roads. To reduce this cost, take an image of the equipment while driving the car. Can be considered. However, there is no conventional technique for automatically identifying which equipment is being photographed.

従って、本発明の目的は、撮影された電柱や鉄塔などの設備を識別するための新規な技術を提供することである。   Accordingly, an object of the present invention is to provide a novel technique for identifying facilities such as photographed utility poles and steel towers.

本発明の設備識別方法は、(A)上辺又は底辺に垂直な基準線又は基準点が特定されており且つ上辺又は底辺上の距離が撮影点から見込む角度に比例するように撮影された第1画像と当該撮影点の撮影位置データと基準線又は基準点の方位角とを格納する第1画像データ格納部に格納されている第1画像に対して、画像認識処理を実施し、電柱及び鉄塔を含む識別対象設備の画像部分を抽出するステップと、(B)抽出された画像部分を通る直線と基準線又は基準点を通り上辺又は底辺に垂直な直線との関係から画像部分の変位角を算出すると共に、当該変位角と第1画像データ格納部に格納されている基準線又は基準点の方位角とにより、画像部分の方位角を算出する方位角算出ステップと、(C)第1画像データ格納部に格納されている撮影点の撮影位置データと算出された画像部分の方位角とから特定される範囲に含まれる識別対象設備のうち最も撮影点に近い識別対象設備の識別子を、識別対象設備の識別子と位置データとが登録されている設備データ格納部から抽出するステップとを含む。   In the equipment identification method of the present invention, (A) a first reference image or reference point perpendicular to the upper side or the bottom side is specified, and the first image is taken so that the distance on the upper side or the bottom side is proportional to the angle viewed from the imaging point. Image recognition processing is performed on the first image stored in the first image data storage unit that stores the image, the shooting position data of the shooting point, and the reference line or the azimuth angle of the reference point. And (B) calculating the displacement angle of the image part from the relationship between the straight line passing through the extracted image part and the straight line passing through the reference line or reference point and perpendicular to the top or bottom side. An azimuth angle calculating step for calculating an azimuth angle of the image portion based on the displacement angle and the azimuth angle of the reference line or the reference point stored in the first image data storage unit; and (C) the first image Stored in the data storage Among the identification target facilities included in the range specified from the shooting position data of the shadow point and the calculated azimuth angle of the image portion, the identifier of the identification target facility closest to the shooting point is the identifier of the identification target facility and the position data. Extracting from the registered facility data storage unit.

このようにすれば、カメラが設置された車両が走行しながら撮影された画像であっても、電柱や鉄塔などの比較的細い設備でも適切に識別できるようになる。   In this way, even an image taken while a vehicle in which a camera is installed travels can be properly identified even with relatively thin equipment such as utility poles and steel towers.

また、上で述べた方位角算出ステップが、基準線又は基準点を通り上辺又は底辺に垂直な直線から、抽出された画像部分を通る直線までの距離から画像部分の変位角を算出するステップと、変位角と方位角との和により、画像部分の方位角を算出するステップとを含むようにしても良い。第1画像の定義より、距離が分かれば角度が判明するため、設備の方位角が得られるようになる。   The azimuth angle calculating step described above includes a step of calculating a displacement angle of the image part from a distance from a straight line passing through the reference line or the reference point and perpendicular to the upper side or the bottom side to the straight line passing through the extracted image part; The step of calculating the azimuth angle of the image portion by the sum of the displacement angle and the azimuth angle may be included. From the definition of the first image, the angle can be determined if the distance is known, so that the azimuth angle of the facility can be obtained.

さらに、上記設備識別方法は、天頂に向けた魚眼レンズで撮影され且つ第2画像データ格納部に格納されている第2画像に対して極座標逆変換により第1画像を生成し、第1画像データ格納部に格納するステップをさらに含むようにしても良い。このようにすれば、安価に第1画像を得ることができるようになる。   Further, the equipment identification method generates a first image by inverse polar coordinate transformation on a second image taken with a fisheye lens facing the zenith and stored in the second image data storage unit, and stores the first image data. The method may further include a step of storing in the unit. In this way, the first image can be obtained at a low cost.

なお、上で述べた方位角算出ステップが、第1画像に対して極座標変換により第3画像を生成するステップと、第3画像において画像部分に相当する部分を通る直線と基準線又は基準点を通り上辺又は底辺に垂直な直線に相当する第2の直線とがなす角度を、画像部分の変位角として算出するステップとを含むようにしてもよい。このような極座標変換を実施することによって、例えば電線などを認識するような後続の処理もやりやすくなる。   Note that the azimuth angle calculating step described above includes a step of generating a third image by polar coordinate conversion on the first image, a straight line passing through a portion corresponding to the image portion in the third image, a reference line or a reference point. And calculating a displacement angle of the image portion as an angle formed by a second straight line corresponding to a straight line perpendicular to the top or bottom of the street. By performing such polar coordinate conversion, for example, subsequent processing such as recognizing an electric wire can be easily performed.

なお、上で述べたような処理をハードウエアに実施させるためのプログラムを作成することができ、当該プログラムは、例えばフレキシブル・ディスク、CD−ROM、光磁気ディスク、半導体メモリ、ハードディスク等のコンピュータ読み取り可能な記憶媒体又は記憶装置に格納される。なお、処理途中のデータについては、コンピュータのメモリ等の記憶装置に一時保管される。   It is possible to create a program for causing the hardware to perform the processing described above, and the program can be read by a computer such as a flexible disk, a CD-ROM, a magneto-optical disk, a semiconductor memory, and a hard disk. It is stored in a possible storage medium or storage device. Note that data being processed is temporarily stored in a storage device such as a computer memory.

本発明によれば、撮影された設備を適切に識別することができるようになる。   According to the present invention, it is possible to appropriately identify a photographed facility.

図1は、撮影の様子を示す模式図である。FIG. 1 is a schematic diagram showing a state of photographing. 図2は、測定装置の機能ブロック図である。FIG. 2 is a functional block diagram of the measuring apparatus. 図3は、測定処理の処理フローを示す図である。FIG. 3 is a diagram illustrating a process flow of the measurement process. 図4は、第1の実施の形態において撮影される画像の一例を示す図である。FIG. 4 is a diagram illustrating an example of an image captured in the first embodiment. 図5は、撮影された画像と共に格納されるデータの一例を示す図である。FIG. 5 is a diagram illustrating an example of data stored together with a captured image. 図6は、第1の実施の形態における解析装置の機能ブロック図である。FIG. 6 is a functional block diagram of the analysis apparatus according to the first embodiment. 図7は、第1の実施の形態における解析処理の処理フローを示す図である。FIG. 7 is a diagram illustrating a processing flow of analysis processing according to the first embodiment. 図8は、極座標逆変換について説明するための図である。FIG. 8 is a diagram for explaining the inverse polar coordinate transformation. 図9は、極座標逆変換について説明するための図である。FIG. 9 is a diagram for explaining the inverse polar coordinate transformation. 図10は、画像認識処理について説明するための図である。FIG. 10 is a diagram for explaining the image recognition processing. 図11は、設備識別処理の処理フローを示す図である。FIG. 11 is a diagram illustrating a processing flow of equipment identification processing. 図12は、認識された設備と進行方向との変位角を算出する処理を説明するための図である。FIG. 12 is a diagram for explaining processing for calculating the displacement angle between the recognized equipment and the traveling direction. 図13は、設備識別のための処理を説明するための図である。FIG. 13 is a diagram for explaining processing for equipment identification. 図14は、設備位置DBに格納されるデータの一例を示す図である。FIG. 14 is a diagram illustrating an example of data stored in the equipment position DB. 図15は、識別結果格納部に格納されるデータの一例を示す図である。FIG. 15 is a diagram illustrating an example of data stored in the identification result storage unit. 図16は、極座標変換後の処理について説明するための図である。FIG. 16 is a diagram for explaining processing after polar coordinate conversion. 図17は、第3の実施の形態における解析装置の機能ブロック図である。FIG. 17 is a functional block diagram of the analysis apparatus according to the third embodiment. 図18は、第3の実施の形態における解析処理の処理フローを示す図である。FIG. 18 is a diagram illustrating a processing flow of analysis processing according to the third embodiment. 図19は、コンピュータの機能ブロック図である。FIG. 19 is a functional block diagram of a computer.

[実施の形態1]
本実施の形態では、図1に示すように、車両100にカメラ200を搭載し、この車両100が道路を走行して、カメラ200により所定間隔で撮影を行うものとする。以下でも述べるように、車両100には、測定装置300も搭載されており、当該測定装置300に含まれるGPS(Global Positioning System)装置の測定間隔に応じて所定間隔が決定される。また、本実施の形態では、カメラ200には、魚眼レンズが用いられており、魚眼レンズを天頂に向けた形で設置する。
[Embodiment 1]
In the present embodiment, as shown in FIG. 1, a camera 200 is mounted on a vehicle 100, the vehicle 100 travels on a road, and shooting is performed at a predetermined interval by the camera 200. As will be described below, the vehicle 100 is also equipped with a measurement device 300, and a predetermined interval is determined according to a measurement interval of a GPS (Global Positioning System) device included in the measurement device 300. In the present embodiment, a fisheye lens is used for the camera 200, and the fisheye lens is installed in a shape facing the zenith.

図2に車両100に搭載される測定装置300の機能ブロック図を示す。測定装置300は、GPS装置311と、画像データ格納処理部313と、画像データ格納部315とを有する。画像データ格納処理部313は、所定間隔でカメラ200に画像の撮影を実施させ、当該カメラ200で撮影された画像の画像データとGPS装置311において測定された撮影位置データ等とを対応付けて画像データ格納部315に格納する。   FIG. 2 shows a functional block diagram of the measuring apparatus 300 mounted on the vehicle 100. The measurement apparatus 300 includes a GPS device 311, an image data storage processing unit 313, and an image data storage unit 315. The image data storage processing unit 313 causes the camera 200 to capture images at predetermined intervals, and associates image data captured by the camera 200 with imaging position data measured by the GPS device 311 and the like. Store in the data storage unit 315.

図3に測定装置300の処理フローを示す。画像データ格納処理部313は、撮影時刻になるまで待機し(ステップS1)、所定時間経過して撮影時刻になると、カメラ200に対して指示を行う。カメラ200は、画像データ格納処理部313からの指示に応じて撮影を行い(ステップS3)、撮影した画像の画像データを画像データ格納処理部313に出力する。画像データ格納処理部313は、カメラ200からの画像データを、GPS装置311によって測定された、画像撮影時刻の撮影位置データ及び進行方向データと共に、画像データ格納部315に格納する(ステップS5)。このような処理を、処理終了を指示されるまで繰り返す(ステップS7)。   FIG. 3 shows a processing flow of the measuring apparatus 300. The image data storage processing unit 313 waits until the shooting time is reached (step S1), and instructs the camera 200 when the predetermined time elapses and the shooting time is reached. The camera 200 performs shooting according to an instruction from the image data storage processing unit 313 (step S3), and outputs the image data of the captured image to the image data storage processing unit 313. The image data storage processing unit 313 stores the image data from the camera 200 in the image data storage unit 315 together with the shooting position data and the traveling direction data of the image shooting time measured by the GPS device 311 (step S5). Such a process is repeated until the end of the process is instructed (step S7).

なお、進行方向データは、方位角であり、例えば直前に測定された位置と今回測定された位置とを結ぶ直線から、その方位角を算出する。   The traveling direction data is an azimuth angle. For example, the azimuth angle is calculated from a straight line connecting the position measured immediately before and the position measured this time.

画像データ格納部315に格納されるデータの一例を図4及び図5に示す。図4に、本実施の形態において魚眼レンズを伴うカメラ200で撮影された画像の一例を示す。図4のように、本実施の形態では、円形の画像部分の中心が天頂を向くように調整されており、車両100への設置態様によって、予め画像内の進行方向を特定しておく。本実施の形態では、図4の画像において水平左方向が進行方向であるものとする。   An example of data stored in the image data storage unit 315 is shown in FIGS. FIG. 4 shows an example of an image taken by the camera 200 with a fisheye lens in the present embodiment. As shown in FIG. 4, in the present embodiment, the center of the circular image portion is adjusted so as to face the zenith, and the traveling direction in the image is specified in advance according to the installation mode on the vehicle 100. In the present embodiment, it is assumed that the horizontal left direction is the traveling direction in the image of FIG.

また、画像データ格納部315には、図5のようなデータが、画像データ毎に対応付けられて格納される。すなわち、撮影位置データとして緯度経度と、進行方向である方位角とが格納される。緯度経度ではなく、X座標値及びY座標値を算出した上で、格納しても良い。画像データ格納部315に格納されたデータは、以下で述べる解析処理に用いられる。   The image data storage unit 315 stores data as shown in FIG. 5 in association with each image data. That is, latitude and longitude and an azimuth that is a traveling direction are stored as shooting position data. Instead of the latitude and longitude, an X coordinate value and a Y coordinate value may be calculated and stored. Data stored in the image data storage unit 315 is used for analysis processing described below.

次に、画像データ格納部315に格納されたデータを用いて、画像中の特定の設備(本実施の形態では電柱及び鉄塔)を識別する処理を行う解析装置400を説明する。図6に、解析装置400の機能ブロック図を示す。解析装置400は、(A)画像データ格納部315と、(B)画像データ格納部315に格納されている画像データに対して極座標逆変換処理を実施する画像変換部411と、(C)画像変換部411の処理結果を格納する第2画像データ格納部413と、(D)認識ルールデータ格納部419と、(E)認識ルールデータ格納部419に格納される認識ルールを生成する画像学習部417と、(F)認識ルールデータ格納部419に格納されている認識ルールデータを用いて第2画像データ格納部413に格納されている画像データに対して画像認識処理を実施する画像認識部415と、(G)画像認識部415の処理結果を格納する認識結果格納部421と、(H)認識結果格納部421に格納されているデータを用いて処理を行う設備角度算出部423と、(I)設備角度算出部423の処理結果を格納する設備角度格納部425と、(J)各設備について位置データを格納する設備位置データベース(DB)429と、(K)設備角度格納部425及び認識結果格納部421と設備位置DB429とに格納されているデータと用いて設備識別処理を実施する設備識別部427と、(L)設備識別部427による処理結果を格納する識別結果格納部431と、(M)識別結果格納部431に格納されているデータを出力する出力部433とを有する。   Next, an analysis apparatus 400 that performs processing for identifying specific equipment (electric poles and steel towers in the present embodiment) in an image using data stored in the image data storage unit 315 will be described. FIG. 6 shows a functional block diagram of the analysis apparatus 400. The analysis apparatus 400 includes (A) an image data storage unit 315, (B) an image conversion unit 411 that performs polar coordinate inverse conversion processing on the image data stored in the image data storage unit 315, and (C) an image. A second image data storage unit 413 that stores the processing result of the conversion unit 411; (D) a recognition rule data storage unit 419; and (E) an image learning unit that generates a recognition rule stored in the recognition rule data storage unit 419. 417 and (F) an image recognition unit 415 that performs image recognition processing on the image data stored in the second image data storage unit 413 using the recognition rule data stored in the recognition rule data storage unit 419. (G) a recognition result storage unit 421 that stores the processing result of the image recognition unit 415, and (H) equipment that performs processing using the data stored in the recognition result storage unit 421. Degree calculation unit 423, (I) equipment angle storage unit 425 for storing the processing result of equipment angle calculation unit 423, (J) equipment position database (DB) 429 for storing position data for each equipment, and (K) The equipment identification unit 427 that performs equipment identification processing using the equipment angle storage unit 425 and the data stored in the recognition result storage unit 421 and the equipment position DB 429, and (L) the processing result by the equipment identification unit 427 is stored. An identification result storage unit 431; and (M) an output unit 433 that outputs data stored in the identification result storage unit 431.

次に、解析装置400の処理内容を図7乃至図15を用いて説明する。まず、画像変換部411は、画像データ格納部315に格納されている画像のうち未処理の画像を特定する(図7:ステップS11)。そして、画像変換部411は、特定された画像について、極座標逆変換処理を実施し、処理後の画像データ及び画像データに対応付けられているデータ(撮影位置データ及び進行方向データ)を第2画像データ格納部413に格納する(ステップS13)。   Next, processing contents of the analysis apparatus 400 will be described with reference to FIGS. First, the image conversion unit 411 specifies an unprocessed image among the images stored in the image data storage unit 315 (FIG. 7: Step S11). Then, the image conversion unit 411 performs polar coordinate inverse conversion processing on the identified image, and the image data after the processing and the data associated with the image data (imaging position data and traveling direction data) are the second image. The data is stored in the data storage unit 413 (step S13).

ステップS13については図8を用いて説明する。なお、円形の画像部分の中心位(Cx,Cy)を特定しておく。さらに、円形の画像部分の半径rも特定しておく。   Step S13 will be described with reference to FIG. The center position (Cx, Cy) of the circular image portion is specified in advance. Furthermore, the radius r of the circular image portion is also specified.

さらに、カメラ200を車両100に設置する場合には、以下の演算が簡単になるように、進行方向が画像上の0度、90度など分かりやすい位置になるように調整しておく。なお、本実施の形態では0度が進行方向である。また、図8では、水平方向右が−180度であり、反時計回りに角度が設定されているものとする。   Furthermore, when the camera 200 is installed in the vehicle 100, the traveling direction is adjusted so that it can be easily understood such as 0 degrees and 90 degrees on the image so that the following calculation is simplified. In the present embodiment, 0 degree is the traveling direction. In FIG. 8, it is assumed that the horizontal right is −180 degrees and the angle is set counterclockwise.

このような前提の下、以下の演算を行う。
(1)極座標逆変換後の画像として、幅2πr[画素]、高さr[画素]の矩形の画像を用意する。
(2)極座標逆変換後の画像における水平軸の座標に相当する変数xを、−πrからπrまで、1刻みで変化させながら以下の演算を繰り返す。
(ア)角度変数angle=x*(360/(2πr))(以下、(1)式と呼ぶ。)を算出し、画像の中心からangle度の方向に長さrの線分を引く。図8では、矢印1001乃至1003のような長さrの線分を設定する。
(イ)線分に沿って矢印方向に距離1[画素]毎に画素値を読み取り、極座標逆変換後の画像において左端からxの位置に、読み取った画素値を上から下に垂直に描画する。
Under these assumptions, the following calculation is performed.
(1) A rectangular image having a width of 2πr [pixel] and a height of r [pixel] is prepared as an image after the inverse polar coordinate transformation.
(2) The following calculation is repeated while changing the variable x corresponding to the coordinate of the horizontal axis in the image after the inverse polar coordinate transformation from −πr to πr in increments of 1.
(A) The angle variable angle = x * (360 / (2πr)) (hereinafter referred to as equation (1)) is calculated, and a line segment of length r is drawn from the center of the image in the direction of angle degree. In FIG. 8, a line segment having a length r such as arrows 1001 to 1003 is set.
(A) A pixel value is read at a distance of 1 [pixel] in the direction of the arrow along the line segment, and the read pixel value is drawn vertically from top to bottom at the position x from the left end in the image after the inverse polar coordinate transformation. .

そうすると、例えば図9に示すような画像が生成される。図9の例では、左端が−180度、右端が179度、中心部(本実施の形態では進行方向)が0度となっており、高さはrである。そして、図9に示すように、図8に示された矢印1001乃至1003は、同じ参照番号が付されている鉛直方向矢印にマッピングされる。このように、この矩形の画像の上辺は図8の画像の中心に対応している。また、上で述べた(ア)及び(イ)の処理により、この矩形の画像の底辺(本例では上辺でも同じ)の長さ(距離とも呼ぶ)が、撮影位置(撮影点とも呼ぶ)から見込む角度に比例するようになっている。すなわち、距離が分かれば角度が分かるようになっている。距離と角度の関係は(1)式のとおりであり、距離が分かれば角度も分かるようになる。また、進行方向は0度であるから、図9では上辺及び底辺に垂直な直線で表されるが、この直線上のいずれかの点を進行方向を表す点として特定するようにしても良い。なお、このような極座標逆変換の演算はよく知られており、これ以上述べない。   Then, for example, an image as shown in FIG. 9 is generated. In the example of FIG. 9, the left end is −180 degrees, the right end is 179 degrees, the center (the traveling direction in the present embodiment) is 0 degrees, and the height is r. Then, as shown in FIG. 9, the arrows 1001 to 1003 shown in FIG. 8 are mapped to the vertical arrows having the same reference numbers. Thus, the upper side of this rectangular image corresponds to the center of the image in FIG. In addition, by the processes (a) and (b) described above, the length (also referred to as distance) of the bottom of this rectangular image (also referred to as the upper side in this example) is determined from the shooting position (also referred to as shooting point). It is proportional to the expected angle. That is, if the distance is known, the angle can be understood. The relationship between the distance and the angle is as shown in the equation (1). If the distance is known, the angle can be understood. Further, since the traveling direction is 0 degree, it is represented by a straight line perpendicular to the upper side and the bottom side in FIG. 9, but any point on this straight line may be specified as a point representing the traveling direction. Note that such polar coordinate inverse transformation is well known and will not be described further.

図8のような画像を得るには比較的安価な魚眼レンズを用いることができるが、図8のような画像では、電柱や鉄塔の方向が一定とならないために電柱や鉄塔を認識することは困難である。従って、図9のような画像に変換すれば、電柱や鉄塔の方向が一定となるため、比較的容易に認識することができる。   Although a relatively inexpensive fish-eye lens can be used to obtain an image as shown in FIG. 8, in the image as shown in FIG. 8, it is difficult to recognize the utility pole or tower because the direction of the utility pole or tower is not constant. It is. Therefore, if the image is converted into an image as shown in FIG. 9, the direction of the utility pole and the steel tower becomes constant, so that it can be recognized relatively easily.

次に、画像認識部415は、認識ルールデータ格納部419に格納されている認識ルールに従って、第2画像データ格納部413に格納されている極座標逆変換後の画像について、識別対象設備(認識対象設備であるが、識別対象設備と同じであり、電柱及び鉄塔など)の認識処理を実施し、処理結果として認識された設備を示すマークを含む画像データを第2画像データ格納部413に格納されている撮影位置データ及び進行方向データと共に認識結果格納部421に格納する(ステップS15)。   Next, the image recognizing unit 415 performs identification target equipment (recognition target) on the image after the polar coordinate inverse transformation stored in the second image data storage unit 413 in accordance with the recognition rule stored in the recognition rule data storage unit 419. Although it is an equipment, it is the same as the equipment to be identified and performs recognition processing of utility poles, steel towers, etc.), and image data including a mark indicating the equipment recognized as the processing result is stored in the second image data storage unit 413 It is stored in the recognition result storage unit 421 together with the photographing position data and the traveling direction data (step S15).

この認識処理自体はよく知られた技術であり、多数の電柱や鉄塔の画像を画像学習部417に入力し、これに対してよく知られた学習アルゴリズムによって画像学習部417は学習を行って認識ルールを生成し、認識ルールのデータを認識ルールデータ格納部419に格納しておく。その後必要なタイミングで、画像認識部415は、認識ルールデータ格納部419に格納されている認識ルールに従って画像認識処理を実施する。   This recognition process itself is a well-known technique, and a large number of utility poles and steel tower images are input to the image learning unit 417, and the image learning unit 417 learns and recognizes them using a well-known learning algorithm. A rule is generated and recognition rule data is stored in the recognition rule data storage unit 419. Thereafter, at a necessary timing, the image recognition unit 415 performs image recognition processing in accordance with the recognition rules stored in the recognition rule data storage unit 419.

例えば、図9に示した画像では、図10において太線枠1101で示すように、電柱が認識される。太線枠1101は、マークである。   For example, in the image shown in FIG. 9, a utility pole is recognized as shown by a thick line frame 1101 in FIG. 10. A thick line frame 1101 is a mark.

そして、設備角度算出部423及び設備識別部427は、認識結果格納部421及び設備位置DB429に格納されているデータを用いて、設備識別処理を実施する(ステップS17)。設備識別処理については、図11乃至図15を用いて説明する。   And the equipment angle calculation part 423 and the equipment identification part 427 implement an equipment identification process using the data stored in the recognition result storage part 421 and equipment position DB429 (step S17). The facility identification process will be described with reference to FIGS.

まず、設備角度算出部423は、認識結果格納部421に格納されているデータのうち未処理の認識結果を特定する(図11:ステップS21)。そして、特定された認識結果から、識別対象設備の方位角を算出し、設備角度格納部425に格納する(ステップS22)。まず、進行方向を表す直線1111(図12)から、ステップS15で認識された設備を含む矩形1101(図10)の中心線1102までの距離dを算出する。なお、図12の例では、中央から左の角度が負、右の角度が正となっているので、直線1111から左側に中心線1102が含まれる場合には距離dは負の値となり、直線1111から右側に中心線1102が含まれる場合には距離dは正の値となる。図12の例では、中心線1102は直線1111より左側にあるので、距離dは負の値となる。   First, the equipment angle calculation unit 423 specifies an unprocessed recognition result among the data stored in the recognition result storage unit 421 (FIG. 11: step S21). Then, the azimuth angle of the identification target equipment is calculated from the identified recognition result, and stored in the equipment angle storage unit 425 (step S22). First, the distance d from the straight line 1111 representing the traveling direction (FIG. 12) to the center line 1102 of the rectangle 1101 (FIG. 10) including the equipment recognized in step S15 is calculated. In the example of FIG. 12, since the left angle from the center is negative and the right angle is positive, when the center line 1102 is included on the left side from the straight line 1111, the distance d is a negative value. When the center line 1102 is included on the right side from 1111, the distance d is a positive value. In the example of FIG. 12, since the center line 1102 is on the left side of the straight line 1111, the distance d is a negative value.

そして、上で述べた(1)式に従って、距離dから変位角angleを算出する。例えば、変位角(−30度)が算出されたものとする。そして、認識結果格納部421に格納されている進行方向データである方位角と、算出された変位角との和により、識別すべき設備の方位角を算出する。図5に示すように進行方向データである方位角が278度であるから、設備の方位角は248度(=278−30)と算出される。   Then, the displacement angle “angle” is calculated from the distance “d” according to the equation (1) described above. For example, it is assumed that the displacement angle (−30 degrees) is calculated. Then, the azimuth angle of the facility to be identified is calculated based on the sum of the azimuth angle that is the traveling direction data stored in the recognition result storage unit 421 and the calculated displacement angle. As shown in FIG. 5, since the azimuth angle which is the traveling direction data is 278 degrees, the azimuth angle of the equipment is calculated as 248 degrees (= 278-30).

次に、設備識別部427は、認識結果格納部421に格納されている撮影位置データを読み出し、設備位置DB429に登録されている設備(電柱及び鉄塔など)のうち撮影位置から、予め定められている半径Rの設備の設備名を抽出する(ステップS23)。図13に一例を示す。点1203が撮影位置であり、この点1203を中心とする半径Rの範囲に含まれる設備を抽出する。なお、図13において黒丸が電柱を表しており、図13に示している電柱が抽出される。また、図14に、設備位置DB429に格納されるデータの一例を示す。図14の例では、設備名(235号柱など)と、当該設備の緯度経度で表される位置データとが格納されている。本ステップの処理については、緯度経度の値をX座標値及びY座標値に変換してから行うようにしても良い。   Next, the facility identification unit 427 reads out the shooting position data stored in the recognition result storage unit 421, and is determined in advance from the shooting position among the facilities (electric poles, steel towers, etc.) registered in the facility position DB 429. The equipment name of the equipment with the radius R is extracted (step S23). An example is shown in FIG. A point 1203 is an imaging position, and equipment included in a radius R range centered on the point 1203 is extracted. In FIG. 13, black circles represent utility poles, and the utility poles shown in FIG. 13 are extracted. FIG. 14 shows an example of data stored in the equipment position DB 429. In the example of FIG. 14, an equipment name (such as column 235) and position data represented by the latitude and longitude of the equipment are stored. The processing in this step may be performed after converting the values of latitude and longitude into X coordinate values and Y coordinate values.

そして、設備識別部427は、ステップS23において抽出された設備のうち、ステップS22で算出された方位角で特定される方向1202を中心とする所定角αに入る設備に絞り込む(ステップS25)。図13の例では、電柱1211に絞り込まれる。すなわち、電柱1211の設備名を特定し、例えばメインメモリなどの記憶装置に格納する。   And the equipment identification part 427 narrows down to the equipment which falls into the predetermined angle (alpha) centering on the direction 1202 specified by the azimuth calculated in step S22 among the equipment extracted in step S23 (step S25). In the example of FIG. 13, the electric pole 1211 is narrowed down. That is, the facility name of the utility pole 1211 is specified and stored in a storage device such as a main memory.

その後、設備識別部427は、ステップS25で絞り込まれて残った設備の数が「0」であるか判断する(ステップS27)。残った設備の数が「0」であれば、該当設備がないということなので、設備識別部427は、「該当なし」を表すデータを、認識結果格納部421に格納されている画像データのうちマーク内の画像データと共に識別結果格納部431に格納する(ステップS29)。そして、元の処理に戻る。   Thereafter, the facility identification unit 427 determines whether the number of facilities remaining after narrowing down in step S25 is “0” (step S27). If the number of remaining facilities is “0”, it means that there is no corresponding facility. Therefore, the facility identification unit 427 uses the data indicating “not applicable” among the image data stored in the recognition result storage unit 421. The image data in the mark is stored in the identification result storage unit 431 (step S29). Then, the process returns to the original process.

一方、残った設備の数が「0」ではない場合、設備識別部427は、残った設備の数が「1」であるか判断する(ステップS31)。残った設備の数が「1」であれば、設備識別部427は、残った設備の設備名及び認識結果格納部421に格納されている画像データのうちマーク内の画像データを識別結果格納部431に格納する(ステップS33)。そして、元の処理に戻る。   On the other hand, when the number of remaining facilities is not “0”, the facility identification unit 427 determines whether the number of remaining facilities is “1” (step S31). If the number of the remaining facilities is “1”, the facility identification unit 427 identifies the image data in the mark among the facility names of the remaining facilities and the image data stored in the recognition result storage unit 421. It stores in 431 (step S33). Then, the process returns to the original process.

さらに、残った設備の数が「1」ではない場合、設備識別部427は、ステップS25で絞り込まれて残った設備のうち、最も撮影位置に近い設備の設備名及び認識結果格納部421に格納されている画像データのうち当該設備についてのマーク内の画像データを識別結果格納部431に格納する(ステップS35)。そして、元の処理に戻る。   Furthermore, when the number of remaining facilities is not “1”, the facility identification unit 427 stores the facility name and the recognition result storage unit 421 of the facility closest to the photographing position among the remaining facilities narrowed down in step S25. The image data in the mark for the equipment among the image data being stored is stored in the identification result storage unit 431 (step S35). Then, the process returns to the original process.

識別結果格納部431には、例えば図15に示すようなデータが格納される。すなわち、識別された設備の設備名(例えば236号柱)と当該設備の画像データとが対応付けて格納される。   For example, data as shown in FIG. 15 is stored in the identification result storage unit 431. That is, the equipment name of the identified equipment (for example, column 236) and the image data of the equipment are stored in association with each other.

設備識別部427は、認識結果格納部421に格納されている全ての認識結果について処理したか判断する(ステップS37)。未処理の認識結果が存在していれば、ステップS21に戻る。一方、全ての認識結果について処理した場合には、元の処理に戻る。   The facility identification unit 427 determines whether all the recognition results stored in the recognition result storage unit 421 have been processed (step S37). If there is an unprocessed recognition result, the process returns to step S21. On the other hand, when all the recognition results have been processed, the process returns to the original process.

図7の説明に戻って、画像変換部411は、画像データ格納部315に格納されている全ての画像について処理したか判断する(ステップS19)。未処理の画像が存在していれば、ステップS11に戻る。一方、全ての画像について処理した場合には、出力部433は、識別結果格納部431に格納されている処理結果である画像データ及び設備名を、表示装置や印刷装置などの出力装置に出力する(ステップS20)。例えば、ユーザからの指示に応じて、要求されたデータのみを出力するようにしても良い。   Returning to the description of FIG. 7, the image conversion unit 411 determines whether all the images stored in the image data storage unit 315 have been processed (step S19). If an unprocessed image exists, the process returns to step S11. On the other hand, when all the images have been processed, the output unit 433 outputs the image data and the equipment name that are the processing results stored in the identification result storage unit 431 to an output device such as a display device or a printing device. (Step S20). For example, only requested data may be output in response to an instruction from the user.

以上のような処理を実施すれば、電柱や鉄塔といった細長い設備についても、安価なカメラにて識別することができるようになる。   By carrying out the processing as described above, it becomes possible to identify an elongated facility such as a utility pole or a steel tower with an inexpensive camera.

[実施の形態2]
第1の実施の形態の解析装置400は、例えば図6の点線の構成を含むような形に変形することも可能である。
[Embodiment 2]
The analysis apparatus 400 according to the first embodiment can be modified into a shape including, for example, the configuration of the dotted line in FIG.

すなわち、解析装置400は、さらに、認識結果格納部421に格納されている画像データに対して極座標変換処理を実施する第2画像変換部451と、第2画像変換部451の処理結果である第3画像データ格納部453とを有する。なお、設備角度算出部423の処理内容も、第1の実施の形態とは異なる。   That is, the analysis apparatus 400 further includes the second image conversion unit 451 that performs polar coordinate conversion processing on the image data stored in the recognition result storage unit 421, and the processing results of the second image conversion unit 451. 3 image data storage unit 453. The processing content of the equipment angle calculation unit 423 is also different from that in the first embodiment.

以下、異なる部分についてのみ説明する。第2画像変換部451は、画像変換部411の逆処理である極座標変換を実施する。すなわち、画像認識部415による認識結果であるマークである太線枠1101及び中心線1102を含む画像データを、元の画像データに戻す。例えば、図10に示したような画像データを、図16に示すような画像データに変換する。図16に示すように、太線枠1101は、極座標変換で歪んだ形のマーク1101bに変形される。また、中心線1102は、底辺及び上辺に対して垂直な直線であるから、図16のような画像の中心を通過する直線1102bに変換される。   Only different parts will be described below. The second image conversion unit 451 performs polar coordinate conversion that is the reverse process of the image conversion unit 411. That is, the image data including the thick line frame 1101 and the center line 1102 which are marks that are the recognition results by the image recognition unit 415 are returned to the original image data. For example, the image data as shown in FIG. 10 is converted into the image data as shown in FIG. As shown in FIG. 16, the thick line frame 1101 is transformed into a mark 1101b distorted by polar coordinate transformation. Since the center line 1102 is a straight line perpendicular to the bottom and top sides, the center line 1102 is converted into a straight line 1102b passing through the center of the image as shown in FIG.

その後、設備角度算出部423は、図16に示すような画像における進行方向を表す直線1501と直線1102bとの角度βを算出する。図16に示すような画像であれば、反時計回りで角度が設定されているので、進行方向を表す直線より上方の直線に対する角度の場合には負の変位角が算出され、進行方向を表す直線より下方の直線に対する角度の場合には正の変位角が算出される。図16の例で、β=−30度であると算出された場合には、進行方向の方位角278度から248度(=278−30)が算出される。以下の処理については、第1の実施の形態と同じである。   Thereafter, the equipment angle calculation unit 423 calculates an angle β between the straight line 1501 and the straight line 1102b representing the traveling direction in the image as illustrated in FIG. In the case of an image as shown in FIG. 16, since the angle is set counterclockwise, a negative displacement angle is calculated in the case of an angle relative to a straight line above the traveling direction, and represents the traveling direction. In the case of an angle with respect to a straight line below the straight line, a positive displacement angle is calculated. In the example of FIG. 16, when it is calculated that β = −30 degrees, the azimuth angle 278 degrees to 248 degrees (= 278-30) in the traveling direction is calculated. The following processing is the same as that of the first embodiment.

このように第2画像変換部451を設けて元の画像データに戻すことによって、電柱や鉄塔につながっている電線を識別しやすくなるという効果がある。図10のような画像では、電柱や鉄塔については認識しやすくなるが、電線は逆に歪んでしまって認識しにくくなっている。これに対して、電柱や鉄塔を認識した上で、図16に示すように元の画像に戻せば、電柱や鉄塔が分かっているという点を用いて、歪みが小さくなっている電線を特定することが容易になるという効果がある。   Thus, by providing the 2nd image conversion part 451 and returning to the original image data, there exists an effect that it becomes easy to identify the electric wire connected to the utility pole or the steel tower. In the image as shown in FIG. 10, the utility poles and the steel tower are easily recognized, but the wires are distorted and are difficult to recognize. On the other hand, after recognizing a utility pole and a steel tower, if it returns to the original image as shown in FIG. 16, it will identify the power pole and the steel tower using the point that the power pole and the steel tower are known. There is an effect that it becomes easy.

[実施の形態3]
本実施の形態では、第1及び第2の実施の形態とは異なるカメラ200を用いる。本実施の形態におけるカメラ200は、魚眼レンズではなく、複数のカメラによって撮影を行うカメラであって、図9のような画像を合成するカメラである。このようなカメラの場合、撮影された画像では、上辺又は底辺上の距離が撮影点から見込む角度にほぼ比例する画像が得られる。すなわち、角度演算に多少誤差が含まれることになる。また、360度回転して撮影を行うようなカメラを採用する場合もある。なお、図9のような画像において、進行方向を示す直線又は点が特定されているものとする。
[Embodiment 3]
In the present embodiment, a camera 200 different from the first and second embodiments is used. The camera 200 in the present embodiment is a camera that captures images with a plurality of cameras instead of a fisheye lens, and is a camera that combines images as shown in FIG. In the case of such a camera, in the captured image, an image in which the distance on the upper side or the bottom side is substantially proportional to the angle viewed from the shooting point is obtained. That is, some errors are included in the angle calculation. In some cases, a camera that rotates 360 degrees and performs shooting may be employed. It is assumed that a straight line or a point indicating the traveling direction is specified in the image as shown in FIG.

また、画像データ格納処理部313は、図9のような画像に対応付けて図5に示したデータを格納する。   The image data storage processing unit 313 stores the data shown in FIG. 5 in association with the image as shown in FIG.

そして、本実施の形態における解析装置500は、図17に示すような構成を有する。なお、図6と同じ機能を果たす又は同様なデータを保持する要素については同じ参照符号を付与している。すなわち、解析装置500は、(A)画像データ格納部315と、(B)認識ルールデータ格納部419と、(C)認識ルールデータ格納部419に格納される認識ルールを生成する画像学習部417と、(D)認識ルールデータ格納部419に格納されている認識ルールデータを用いて画像データ格納部315に格納されている画像データに対して画像認識処理を実施する画像認識部415と、(E)画像認識部415の処理結果を格納する認識結果格納部421と、(F)認識結果格納部421に格納されているデータを用いて処理を行う設備角度算出部423と、(G)設備角度算出部423の処理結果を格納する設備角度格納部425と、(H)各設備について位置データを格納する設備位置DB429と、(I)設備角度格納部425及び認識結果格納部421と設備位置DB429とに格納されているデータと用いて設備識別処理を実施する設備識別部427と、(J)設備識別部427による処理結果を格納する識別結果格納部431と、(K)識別結果格納部431に格納されているデータを出力する出力部433とを有する。   And the analysis apparatus 500 in this Embodiment has a structure as shown in FIG. Note that elements having the same function as in FIG. 6 or holding similar data are given the same reference numerals. That is, the analysis apparatus 500 includes (A) an image data storage unit 315, (B) a recognition rule data storage unit 419, and (C) an image learning unit 417 that generates recognition rules stored in the recognition rule data storage unit 419. (D) an image recognition unit 415 that performs image recognition processing on image data stored in the image data storage unit 315 using the recognition rule data stored in the recognition rule data storage unit 419; E) a recognition result storage unit 421 that stores the processing result of the image recognition unit 415, (F) an equipment angle calculation unit 423 that performs processing using data stored in the recognition result storage unit 421, and (G) equipment Equipment angle storage section 425 for storing the processing result of the angle calculation section 423, (H) equipment position DB 429 for storing position data for each equipment, and (I) equipment angle storage section 4 5 and the equipment identification part 427 which performs equipment identification processing using the data stored in the recognition result storage part 421 and the equipment position DB 429, and (J) the identification result storage part which stores the processing result by the equipment identification part 427 431, and (K) an output unit 433 that outputs data stored in the identification result storage unit 431.

このように解析装置400の一部の構成要素を除去した構成になっている。   In this way, the configuration is such that some components of the analysis apparatus 400 are removed.

次に、図18を用いて解析装置400の処理を説明する。まず、画像認識部415は、画像データ格納部315に格納されている画像のうち未処理の画像を特定する(ステップS41)。そして、画像認識部415は、認識ルールデータ格納部419に格納されている認識ルールに従って、画像データ格納部315に格納されている画像について、識別対象設備(認識対象設備であるが、識別対象設備と同じであり、電柱及び鉄塔など)の認識処理を実施し、処理結果として認識された設備を含むマークを含む画像データを画像データ格納部315に格納されている撮影位置データ及び進行方向データと共に認識結果格納部421に格納する(ステップS43)。このステップは、ステップS15と同じ処理である。第1の実施の形態と同様に、例えば図9に示した画像では、図10において太線枠1101で示すように、電柱を認識する。   Next, processing of the analysis apparatus 400 will be described using FIG. First, the image recognition unit 415 specifies an unprocessed image among the images stored in the image data storage unit 315 (step S41). Then, the image recognizing unit 415 recognizes the image stored in the image data storage unit 315 in accordance with the recognition rule stored in the recognition rule data storage unit 419. The image data including the mark including the equipment recognized as the processing result, together with the shooting position data and the traveling direction data stored in the image data storage unit 315. The result is stored in the recognition result storage unit 421 (step S43). This step is the same process as step S15. Similar to the first embodiment, for example, in the image shown in FIG. 9, a utility pole is recognized as shown by a thick line frame 1101 in FIG. 10.

そして、設備角度算出部423及び設備識別部427は、認識結果格納部421及び設備位置DB429に格納されているデータを用いて、設備識別処理を実施する(ステップS45)。この設備識別処理については、図11乃至図15を用いて説明された処理と同様である。   Then, the equipment angle calculation unit 423 and the equipment identification unit 427 perform equipment identification processing using the data stored in the recognition result storage unit 421 and the equipment position DB 429 (step S45). This facility identification process is the same as the process described with reference to FIGS.

その後、画像認識部415は、画像データ格納部315に格納されている全ての画像について処理したか判断する(ステップS47)。未処理の画像が存在していれば、ステップS41に戻る。一方、全ての画像について処理した場合には、出力部433は、識別結果格納部431に格納されている処理結果である画像データ及び設備名を、表示装置や印刷装置などの出力装置に出力する(ステップS49)。例えば、ユーザからの指示に応じて、要求されたデータのみを出力するようにしても良い。   Thereafter, the image recognition unit 415 determines whether all the images stored in the image data storage unit 315 have been processed (step S47). If an unprocessed image exists, the process returns to step S41. On the other hand, when all the images have been processed, the output unit 433 outputs the image data and the equipment name that are the processing results stored in the identification result storage unit 431 to an output device such as a display device or a printing device. (Step S49). For example, only requested data may be output in response to an instruction from the user.

以上のような処理を実施すれば、上辺又は底辺上の距離が撮影点から見込む角度に比例するように撮影された画像があれば、電柱や鉄塔といった細長い設備を適切に識別することができるようになる。   If the above processing is performed, if there is an image shot so that the distance on the upper side or the bottom side is proportional to the angle viewed from the shooting point, it is possible to appropriately identify a long and narrow facility such as a utility pole or a steel tower. become.

以上本技術の実施の形態を説明したが、本技術はこれに限定されるものではない。例えば、車両100で移動しながら撮影するような例を示したが、車両100以外の方法で移動しつつ撮影するようにしても良い。また、測定装置及び解析装置の機能ブロック図は一例であって、必ずしも実際のプログラムモジュール構成と一致しない場合もある。   Although the embodiment of the present technology has been described above, the present technology is not limited to this. For example, although an example in which shooting is performed while moving with the vehicle 100 has been shown, shooting may be performed while moving with a method other than the vehicle 100. Further, the functional block diagrams of the measurement apparatus and the analysis apparatus are examples, and may not necessarily match the actual program module configuration.

さらに、処理フローについても処理結果が変わらない限りにおいて処理ステップの順番を入れ替えたり、並列実行するようにしても良い。   Furthermore, as for the processing flow, as long as the processing result does not change, the order of the processing steps may be changed or executed in parallel.

また、測定装置と解析装置が別装置の例を示しているが、1台の装置で上で述べた機能を全て実施するようにしても良いし、さらに多くの装置にて全ての機能を実現するようにしても良い。さらに、上でも述べたように電線など関連する設備などを併せて識別するようにしても良い。また、所定時間経過後に同一設備について画像データを取得し、予め定められた観点において比較するような処理を行うようにしても良い。   In addition, although the measurement device and the analysis device are examples of separate devices, all the functions described above may be performed by one device, or all the functions can be realized by more devices. You may make it do. Furthermore, as described above, related facilities such as electric wires may be identified together. Further, after a predetermined time has elapsed, image data may be acquired for the same equipment, and a process of comparing from a predetermined viewpoint may be performed.

なお、測定装置及び解析装置はコンピュータ装置であって、図19に示すように当該コンピュータ装置においては、メモリ2501(記憶部)とCPU2503(処理部)とハードディスク・ドライブ(HDD)2505と表示装置2509に接続される表示制御部2507とリムーバブル・ディスク2511用のドライブ装置2513と入力装置2515とネットワークに接続するための通信制御部2517とがバス2519で接続されている。オペレーティング・システム(OS)及びWebブラウザを含むアプリケーション・プログラムは、HDD2505に格納されており、CPU2503により実行される際にはHDD2505からメモリ2501に読み出される。必要に応じてCPU2503は、表示制御部2507、通信制御部2517、ドライブ装置2513を制御して、必要な動作を行わせる。また、処理途中のデータについては、メモリ2501に格納され、必要があればHDD2505に格納される。このようなコンピュータは、上で述べたCPU2503、メモリ2501などのハードウエアとOS及び必要なアプリケーション・プログラムとが有機的に協働することにより、上で述べたような各種機能を実現する。   Note that the measurement device and the analysis device are computer devices, and as shown in FIG. 19, in the computer device, a memory 2501 (storage unit), a CPU 2503 (processing unit), a hard disk drive (HDD) 2505, and a display device 2509. A display control unit 2507 connected to the computer, a drive device 2513 for a removable disk 2511, an input device 2515, and a communication control unit 2517 for connecting to a network are connected by a bus 2519. Application programs including an operating system (OS) and a Web browser are stored in the HDD 2505, and are read from the HDD 2505 to the memory 2501 when executed by the CPU 2503. If necessary, the CPU 2503 controls the display control unit 2507, the communication control unit 2517, and the drive device 2513 to perform necessary operations. Further, data in the middle of processing is stored in the memory 2501 and stored in the HDD 2505 if necessary. Such a computer realizes various functions as described above by organically cooperating hardware such as the CPU 2503 and the memory 2501 described above with the OS and necessary application programs.

200 カメラ
311 GPS装置 313 画像データ格納処理部
315 画像データ格納部
411 画像変換部 413 第2画像データ格納部
415 画像認識部 417 画像学習部
419 認識ルールデータ格納部 421 認識結果格納部
423 設備角度算出部 425 設備角度格納部
427 設備識別部 429 設備位置DB
431 識別結果格納部 433 出力部
451 第2画像変換部 453 第3画像データ格納部
200 Camera 311 GPS Device 313 Image Data Storage Processing Unit 315 Image Data Storage Unit 411 Image Conversion Unit 413 Second Image Data Storage Unit 415 Image Recognition Unit 417 Image Learning Unit 419 Recognition Rule Data Storage Unit 421 Recognition Result Storage Unit 423 Equipment Angle Calculation Part 425 equipment angle storage part 427 equipment identification part 429 equipment position DB
431 Identification result storage unit 433 Output unit 451 Second image conversion unit 453 Third image data storage unit

Claims (6)

上辺又は底辺に垂直な基準線又は基準点が特定されており且つ前記上辺又は底辺上の距離が撮影点から見込む角度に比例するように撮影された第1画像と当該撮影点の撮影位置データと前記基準線又は前記基準点の方位角とを格納する第1画像データ格納部に格納されている前記第1画像に対して、画像認識処理を実施し、電柱及び鉄塔を含む識別対象設備の画像部分を抽出するステップと、
抽出された前記画像部分を通る直線と前記基準線又は前記基準点を通り前記上辺又は底辺に垂直な直線との関係から前記画像部分の変位角を算出すると共に、当該変位角と前記第1画像データ格納部に格納されている前記基準線又は前記基準点の方位角とにより、前記画像部分の方位角を算出する方位角算出ステップと、
前記第1画像データ格納部に格納されている前記撮影点の撮影位置データと算出された前記画像部分の方位角とから特定される範囲に含まれる前記識別対象設備のうち最も前記撮影点に近い識別対象設備の識別子を、前記識別対象設備の識別子と位置データとが登録されている設備データ格納部から抽出するステップと、
を、コンピュータに実行させるためプログラム。
A first image photographed such that a reference line or a reference point perpendicular to the top side or the bottom side is specified and a distance on the top side or the bottom side is proportional to an angle viewed from the photographing point, and photographing position data of the photographing point; Image recognition processing is performed on the first image stored in the first image data storage unit that stores the reference line or the azimuth angle of the reference point, and an image of an identification target facility including a utility pole and a steel tower Extracting a portion;
The displacement angle of the image portion is calculated from the relationship between the extracted straight line passing through the image portion and the straight line passing through the reference line or the reference point and perpendicular to the upper side or the bottom side, and the displacement angle and the first image are calculated. An azimuth calculation step for calculating an azimuth angle of the image portion based on the azimuth angle of the reference line or the reference point stored in the data storage unit;
Of the identification target equipment included in the range specified by the shooting position data of the shooting point stored in the first image data storage unit and the calculated azimuth angle of the image portion, the closest to the shooting point. Extracting the identifier of the identification target facility from the facility data storage unit in which the identifier of the identification target facility and the position data are registered;
A program for causing a computer to execute.
前記方位角算出ステップが、
前記基準線又は前記基準点を通り前記上辺又は底辺に垂直な直線から、抽出された前記画像部分を通る直線までの距離から前記画像部分の変位角を算出するステップと、
前記変位角と前記方位角との和により、前記画像部分の方位角を算出するステップと、
を含む請求項1記載のプログラム。
The azimuth calculation step includes
Calculating a displacement angle of the image portion from a distance from the reference line or a straight line passing through the reference point and perpendicular to the upper side or the bottom side to a straight line passing through the extracted image portion;
Calculating the azimuth angle of the image portion by the sum of the displacement angle and the azimuth angle;
The program according to claim 1, including:
天頂に向けた魚眼レンズで撮影され且つ第2画像データ格納部に格納されている第2画像に対して極座標逆変換により前記第1画像を生成し、前記第1画像データ格納部に格納するステップ
をさらに前記コンピュータに実行させるための請求項1又は2記載のプログラム。
The step of generating the first image by inverse polar coordinate transformation with respect to a second image taken with a fisheye lens facing the zenith and stored in the second image data storage unit, and storing the first image in the first image data storage unit. The program according to claim 1 or 2, further causing the computer to execute the program.
前記方位角算出ステップが、
前記第1画像に対して極座標変換により第3画像を生成するステップと、
前記第3画像において前記画像部分に相当する部分を通る直線と前記基準線又は前記基準点を通り前記上辺又は底辺に垂直な直線に相当する第2の直線とがなす角度を、前記画像部分の変位角として算出するステップと、
を含む請求項1又は3記載のプログラム。
The azimuth calculation step includes
Generating a third image by polar coordinate transformation on the first image;
In the third image, an angle formed by a straight line passing through a portion corresponding to the image portion and a second straight line passing through the reference line or the reference point and corresponding to a straight line perpendicular to the top side or the bottom side is defined by the image portion. Calculating the displacement angle;
The program according to claim 1 or 3, comprising:
上辺又は底辺に垂直な基準線又は基準点が特定されており且つ前記上辺又は底辺上の距離が撮影点から見込む角度に比例するように撮影された第1画像と当該撮影点の撮影位置データと前記基準線又は前記基準点の方位角とを格納する第1画像データ格納部に格納されている前記第1画像に対して、画像認識処理を実施し、電柱及び鉄塔を含む識別対象設備の画像部分を抽出するステップと、
抽出された前記画像部分を通る直線と前記基準線又は前記基準点を通り前記上辺又は底辺に垂直な直線との関係から前記画像部分の変位角を算出すると共に、当該変位角と前記第1画像データ格納部に格納されている前記基準線又は前記基準点の方位角とにより、前記画像部分の方位角を算出する方位角算出ステップと、
前記第1画像データ格納部に格納されている前記撮影点の撮影位置データと算出された前記画像部分の方位角とから特定される範囲に含まれる前記識別対象設備のうち最も前記撮影点に近い識別対象設備の識別子を、前記識別対象設備の識別子と位置データとが登録されている設備データ格納部から抽出するステップと、
を含み、コンピュータにより実行される設備識別方法。
A first image photographed such that a reference line or a reference point perpendicular to the top side or the bottom side is specified and a distance on the top side or the bottom side is proportional to an angle viewed from the photographing point, and photographing position data of the photographing point; Image recognition processing is performed on the first image stored in the first image data storage unit that stores the reference line or the azimuth angle of the reference point, and an image of an identification target facility including a utility pole and a steel tower Extracting a portion;
The displacement angle of the image portion is calculated from the relationship between the extracted straight line passing through the image portion and the straight line passing through the reference line or the reference point and perpendicular to the upper side or the bottom side, and the displacement angle and the first image are calculated. An azimuth calculation step for calculating an azimuth angle of the image portion based on the azimuth angle of the reference line or the reference point stored in the data storage unit;
Of the identification target equipment included in the range specified by the shooting position data of the shooting point stored in the first image data storage unit and the calculated azimuth angle of the image portion, the closest to the shooting point. Extracting the identifier of the identification target facility from the facility data storage unit in which the identifier of the identification target facility and the position data are registered;
A facility identification method executed by a computer.
上辺又は底辺に垂直な基準線又は基準点が特定されており且つ前記上辺又は底辺上の距離が撮影点から見込む角度に比例するように撮影された第1画像と当該撮影点の撮影位置データと前記基準線又は前記基準点の方位角とを格納する第1画像データ格納部に格納されている前記第1画像に対して、画像認識処理を実施し、電柱及び鉄塔を含む識別対象設備の画像部分を抽出する手段と、
抽出された前記画像部分を通る直線と前記基準線又は前記基準点を通り前記上辺又は底辺に垂直な直線との関係から前記画像部分の変位角を算出すると共に、当該変位角と前記第1画像データ格納部に格納されている前記基準線又は前記基準点の方位角とにより、前記画像部分の方位角を算出する手段と、
前記第1画像データ格納部に格納されている前記撮影点の撮影位置データと算出された前記画像部分の方位角とから特定される範囲に含まれる前記識別対象設備のうち最も前記撮影点に近い識別対象設備の識別子を、前記識別対象設備の識別子と位置データとが登録されている設備データ格納部から抽出する手段と、
を有する設備識別装置。
A first image photographed such that a reference line or a reference point perpendicular to the top side or the bottom side is specified and a distance on the top side or the bottom side is proportional to an angle viewed from the photographing point, and photographing position data of the photographing point; Image recognition processing is performed on the first image stored in the first image data storage unit that stores the reference line or the azimuth angle of the reference point, and an image of an identification target facility including a utility pole and a steel tower Means for extracting the part;
The displacement angle of the image portion is calculated from the relationship between the extracted straight line passing through the image portion and the straight line passing through the reference line or the reference point and perpendicular to the upper side or the bottom side, and the displacement angle and the first image are calculated. Means for calculating an azimuth angle of the image portion based on the azimuth angle of the reference line or the reference point stored in a data storage unit;
Of the identification target equipment included in the range specified by the shooting position data of the shooting point stored in the first image data storage unit and the calculated azimuth angle of the image portion, the closest to the shooting point. Means for extracting the identifier of the identification target facility from the facility data storage unit in which the identifier of the identification target facility and the position data are registered;
An equipment identification device having
JP2010030864A 2010-02-16 2010-02-16 Program, method, and apparatus for identifying facility Withdrawn JP2011170400A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010030864A JP2011170400A (en) 2010-02-16 2010-02-16 Program, method, and apparatus for identifying facility

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010030864A JP2011170400A (en) 2010-02-16 2010-02-16 Program, method, and apparatus for identifying facility

Publications (1)

Publication Number Publication Date
JP2011170400A true JP2011170400A (en) 2011-09-01

Family

ID=44684498

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010030864A Withdrawn JP2011170400A (en) 2010-02-16 2010-02-16 Program, method, and apparatus for identifying facility

Country Status (1)

Country Link
JP (1) JP2011170400A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014093931A (en) * 2012-11-07 2014-05-19 Toshiba Corp Power theft detection support device, power theft detection support method and program
JP2015185050A (en) * 2014-03-26 2015-10-22 三菱電機株式会社 Facility location automatic recognition device
JP2019032684A (en) * 2017-08-08 2019-02-28 中国電力株式会社 Patrol and inspection system
JP2019179305A (en) * 2018-03-30 2019-10-17 東北電力株式会社 Utility pole management system and utility pole management method
JP2020004121A (en) * 2018-06-28 2020-01-09 大日本印刷株式会社 Information processor, information processing method, and program

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014093931A (en) * 2012-11-07 2014-05-19 Toshiba Corp Power theft detection support device, power theft detection support method and program
JP2015185050A (en) * 2014-03-26 2015-10-22 三菱電機株式会社 Facility location automatic recognition device
JP2019032684A (en) * 2017-08-08 2019-02-28 中国電力株式会社 Patrol and inspection system
JP2019179305A (en) * 2018-03-30 2019-10-17 東北電力株式会社 Utility pole management system and utility pole management method
JP7011515B2 (en) 2018-03-30 2022-01-26 東北電力株式会社 Utility pole management system and utility pole management method
JP2020004121A (en) * 2018-06-28 2020-01-09 大日本印刷株式会社 Information processor, information processing method, and program
JP7059829B2 (en) 2018-06-28 2022-04-26 大日本印刷株式会社 Information processing equipment, information processing methods and programs

Similar Documents

Publication Publication Date Title
JP5776546B2 (en) Road surface inspection program and road surface inspection device
JP5776545B2 (en) Road surface inspection program and road surface inspection device
CN110142785A (en) A kind of crusing robot visual servo method based on target detection
CN102917171B (en) Based on the small target auto-orientation method of pixel
JP6261815B1 (en) Crowd monitoring device and crowd monitoring system
CN111141311B (en) Evaluation method and system of high-precision map positioning module
JP2011123008A (en) Measuring method, measuring program, and measuring device
US11842516B2 (en) Homography through satellite image matching
CN109523471A (en) A kind of conversion method, system and the device of ground coordinate and wide angle cameras picture coordinate
JP2011170400A (en) Program, method, and apparatus for identifying facility
JP5183152B2 (en) Image processing device
JP3466169B2 (en) Management system for roads and surrounding facilities
KR20160014413A (en) The Apparatus and Method for Tracking Objects Based on Multiple Overhead Cameras and a Site Map
CN107767687A (en) Free parking space detection method and system based on binocular stereo vision
US11703820B2 (en) Monitoring management and control system based on panoramic big data
CN111292360A (en) Method and system for recommending ship driving route
JP2009140402A (en) Information display device, information display method, information display program, and recording medium with recorded information display program
CN106960027B (en) The UAV Video big data multidate association analysis method of spatial information auxiliary
CN116309851B (en) Position and orientation calibration method for intelligent park monitoring camera
JP2009052907A (en) Foreign matter detecting system
JP2004364212A (en) Object photographing apparatus, object photographing method and object photographing program
CN115982824A (en) Construction site worker space management method and device, electronic equipment and storage medium
JP6509546B2 (en) Image search system and image search method
CN114882003A (en) Method, medium and computing device for detecting shooting pose change of camera
JP2016133356A (en) Sagging degree simulator and computer program

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20130507