JP2005315846A - Three-dimensional information extraction device and method, computer-readable recording medium recording program, and program - Google Patents

Three-dimensional information extraction device and method, computer-readable recording medium recording program, and program Download PDF

Info

Publication number
JP2005315846A
JP2005315846A JP2005019789A JP2005019789A JP2005315846A JP 2005315846 A JP2005315846 A JP 2005315846A JP 2005019789 A JP2005019789 A JP 2005019789A JP 2005019789 A JP2005019789 A JP 2005019789A JP 2005315846 A JP2005315846 A JP 2005315846A
Authority
JP
Japan
Prior art keywords
target
height
dimensional information
principal component
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005019789A
Other languages
Japanese (ja)
Inventor
Tsuyoshi Miyamura
剛志 宮村
Yasutaka Tokuhara
康隆 徳原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Space Software Co Ltd
Original Assignee
Mitsubishi Space Software Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Space Software Co Ltd filed Critical Mitsubishi Space Software Co Ltd
Priority to JP2005019789A priority Critical patent/JP2005315846A/en
Publication of JP2005315846A publication Critical patent/JP2005315846A/en
Pending legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To automatically extract three-dimensional information related to the height of a target and elements (for example, structure in ships) for constituting the target, regarding a three-dimensional information extraction device based on images related to the target of ships, or the like. <P>SOLUTION: For target images read by an image reading section 1, a main component analysis section 3 calculates the main component information, such as the main component direction, center of gravity, starting point, and ending point. A resampling section 4 normalizes target images, based on the main component information. A three-dimensional information calculating section 5 calculates the three-dimensional information related to the height of a target, the elements (for example, structure in ships) for constituting the target, based on the normalized target images. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、船舶等の目標に係る画像に基づく3次元情報抽出装置に係り、目標の高さや、目標を構成する要素(例えば、船舶の構造物等)に関する3次元情報を自動的に抽出する技術に関する。   The present invention relates to a three-dimensional information extraction apparatus based on an image relating to a target such as a ship, and automatically extracts three-dimensional information related to the height of the target and elements constituting the target (for example, a ship structure). Regarding technology.

図26は、撮影画像に含まれる目標物の高さ成分の概念を示す図である。斜視撮影された画像は、ある仰角(θ)を持って撮影されている為、画像中には目標の高さの成分が含まれている。例えば、h1の実際の高さが、画像上の高さ成分h1´として現れる。   FIG. 26 is a diagram illustrating the concept of the height component of the target included in the captured image. Since a perspective image is captured with a certain elevation angle (θ), the image includes a target height component. For example, the actual height of h1 appears as a height component h1 ′ on the image.

従来は、斜視撮影された画像から、以下のような(1)と(2)の手順で『高さ』諸元の算出を行っていた。
(1)画像の濃淡に基づいて、目標の高さ成分の長さ(画素数)を目視で判定する。以下に例を示して説明する。
Conventionally, the “height” specification is calculated from an obliquely photographed image by the following procedures (1) and (2).
(1) The length (number of pixels) of the target height component is visually determined based on the density of the image. An example will be described below.

図27は、ビルの高さ成分を示す図である。ビルの部分のうち淡い色調部分を高さ成分と判定して、その高さ成分の長さ(画素数)を数える。   FIG. 27 is a diagram showing a height component of a building. The light color portion of the building portion is determined as the height component, and the length (number of pixels) of the height component is counted.

図28は、船舶の高さ成分を示す図である。船舶の場合には、構造物の高さを算出対象とする。その為、構造物の高さ成分の長さ(画素数)を数える。   FIG. 28 is a diagram illustrating a height component of a ship. In the case of a ship, the height of the structure is the calculation target. Therefore, the length (number of pixels) of the height component of the structure is counted.

(2)(1)で求めた長さ(画素数)を衛星と目標の幾何関係式に適用して、実際の『高さ』諸元を算出する。図29は、高さ成分算出の概念を示す図である。長さh1´をSinθで除することにより、実際の高さh1が得られる(正確には更に所定倍率を乗ずる。)。   (2) The actual “height” specifications are calculated by applying the length (number of pixels) obtained in (1) to the geometric relationship between the satellite and the target. FIG. 29 is a diagram illustrating the concept of calculating the height component. By dividing the length h1 ′ by Sinθ, the actual height h1 is obtained (more precisely, a predetermined magnification is multiplied).

しかし、上述の方法は、ビルのような簡単な形状の対象物にのみ適用が可能であって、船舶のように複雑な形状の目標に適用することが困難である。例えば、図28において複雑な形状の目標である船舶の高さ諸元を目視にて判定することは困難である。尚、ここで言う船舶の高さとは、船底から最も高い構造物の上までの距離のことである。   However, the above-described method can be applied only to an object having a simple shape such as a building, and is difficult to apply to a target having a complicated shape such as a ship. For example, in FIG. 28, it is difficult to visually determine the height of a ship, which is a target having a complicated shape. In addition, the height of the ship said here is the distance from the ship bottom to the top of the highest structure.

また、人間による主観に依存するため、定量的な評価が困難であるという問題もある。例えば、図26〜図28の目標についての画素数を計測する場合に、計測者によるバラツキが生じる。特に、図27のように高さ成分の方向が画像の垂線方向に対して傾きを持つときには、さらに定量的な評価が困難となる。
特開2003−187219号公報 特開2000−020692号公報 特開2001−201342号公報
Another problem is that quantitative evaluation is difficult because it depends on human subjectivity. For example, when the number of pixels for the targets in FIGS. 26 to 28 is measured, variation by the measurer occurs. In particular, when the direction of the height component has an inclination with respect to the normal direction of the image as shown in FIG. 27, further quantitative evaluation becomes difficult.
JP 2003-187219 A JP 2000-020692 A JP 2001-200142 A

本発明は、上記した従来技術の欠点を除くためになされたものであって、その目的とするところは、計算機にて自動的に目標の高さ情報を算出し、計測の手間を軽減し、定量的な評価を可能とすることである。   The present invention was made in order to eliminate the above-described drawbacks of the prior art, and the object of the present invention is to automatically calculate target height information by a computer, thereby reducing the labor of measurement, It is to enable quantitative evaluation.

さらに、計算機にて複雑な形状をした目標の高さ及び詳細な3次元情報(目標上の構造
物の長さ、幅、高さ、構造物始点位置、構造物終点位置)を自動的に算出することである。
Furthermore, the target height and detailed three-dimensional information (length, width, height of the target structure, the start position of the structure, the end position of the structure) are automatically calculated by a computer. It is to be.

本発明に係る3次元情報抽出装置は、
以下の要素を有することを特徴とする
(1)目標画像の少なくとも主成分方向を算出する主成分分析部
(2)主成分方向により目標画像を正規化するリサンプリング部
(3)正規化された目標画像に基づいて、目標の高さを算出する高さ算出部。
The three-dimensional information extraction apparatus according to the present invention is
(1) Principal component analysis unit for calculating at least the principal component direction of the target image (2) Resampling unit for normalizing the target image by the principal component direction (3) Normalized A height calculation unit that calculates the target height based on the target image.

高さ算出部は、水平面と垂直面の境界を輝度の違いにより判定し、境界の高さを目標物の高さとして算出することを特徴とする。   The height calculation unit determines a boundary between a horizontal plane and a vertical plane based on a difference in luminance, and calculates the height of the boundary as the height of the target.

目標は、船舶であることを特徴とする。   The target is a ship.

本発明に係る3次元情報抽出方法は、
以下の要素を有することを特徴とする
(1)目標画像の少なくとも主成分方向を算出する主成分分析工程
(2)主成分方向により目標画像を正規化するリサンプリング工程
(3)正規化された目標画像に基づいて、目標の高さを算出する高さ算出工程。
The three-dimensional information extraction method according to the present invention includes:
(1) Principal component analysis step for calculating at least the principal component direction of the target image (2) Resampling step for normalizing the target image by the principal component direction (3) Normalized A height calculating step for calculating a target height based on the target image.

本発明に係るプログラムを記録したコンピュータ読み取り可能な記録媒体は、
3次元情報抽出装置となるコンピュータに、以下の処理を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体であることを特徴とする
(1)目標画像の少なくとも主成分方向を算出する主成分分析処理
(2)主成分方向により目標画像を正規化するリサンプリング処理
(3)正規化された目標画像に基づいて、目標の高さを算出する高さ算出処理。
A computer-readable recording medium on which a program according to the present invention is recorded,
It is a computer-readable recording medium that records a program for causing a computer as a three-dimensional information extraction apparatus to execute the following processing. (1) A principal component for calculating at least a principal component direction of a target image Analysis processing (2) Resampling processing for normalizing the target image based on the principal component direction (3) Height calculation processing for calculating the target height based on the normalized target image.

本発明に係るプログラムは、
3次元情報抽出装置となるコンピュータに、以下の手順を実行させるためのプログラムであることを特徴とする
(1)目標画像の少なくとも主成分方向を算出する主成分分析手順
(2)主成分方向により目標画像を正規化するリサンプリング手順
(3)正規化された目標画像に基づいて、目標の高さを算出する高さ算出手順。
The program according to the present invention is:
It is a program for causing a computer as a three-dimensional information extraction device to execute the following procedure: (1) Principal component analysis procedure for calculating at least a principal component direction of a target image (2) Depending on the principal component direction Resampling procedure for normalizing the target image (3) A height calculation procedure for calculating the target height based on the normalized target image.

本発明においては、自動的に目標の高さ情報を算出することができる。また、複雑な形状をした目標の要素の3次元情報(例えば、構造物の長さ、幅、高さ、構造物始点位置、構造物終点位置)を自動的に算出することできる。   In the present invention, target height information can be automatically calculated. Further, it is possible to automatically calculate the three-dimensional information (for example, the length, width, height, structure start point position, structure end point position) of the target element having a complicated shape.

実施の形態1.
以下本発明を図面に示す実施例に基づいて説明する。
Embodiment 1 FIG.
Hereinafter, the present invention will be described based on embodiments shown in the drawings.

図1は、3次元情報抽出装置のソフトウエア構成を示す図である。3次元情報抽出装置は、画像読込部1、画像2値化部2、主成分分析部3、リサンプリング部4、3次元情報算出部5、算出結果書込部6、3次元情報表示部7、読込画像記憶部11、リサンプリング画像記憶部12、及び3次元情報記憶部13を有している。   FIG. 1 is a diagram illustrating a software configuration of the three-dimensional information extraction apparatus. The three-dimensional information extraction apparatus includes an image reading unit 1, an image binarizing unit 2, a principal component analyzing unit 3, a resampling unit 4, a three-dimensional information calculating unit 5, a calculation result writing unit 6, and a three-dimensional information display unit 7. A read image storage unit 11, a resampling image storage unit 12, and a three-dimensional information storage unit 13.

続いて、処理について説明する。図2は、全体処理フローを示す図である。まず、画像読込部1により、画像読込処理(S10)を行う。例えば、図3に示すような斜視撮影された船舶画像を読み込む。船舶は、目標の例である。   Next, processing will be described. FIG. 2 is a diagram showing an overall processing flow. First, the image reading unit 1 performs image reading processing (S10). For example, a ship image obtained by perspective shooting as shown in FIG. 3 is read. A ship is an example of a goal.

そして、画像2値化部2により、画像2値化処理(S20)を行う。この処理により、目標部分とそれ以外の部分を判定し、目標部分を1に、それ以外を0に変換する。   Then, the image binarization unit 2 performs image binarization processing (S20). By this processing, the target portion and other portions are determined, and the target portion is converted to 1 and the other portions are converted to 0.

次に、主成分分析部3により、主成分分析処理(S30)を行う。この処理により、目標の主成分方向(目標の向き)・重心・全長・全幅・面積などを算出する。特に、船舶の向きを用いる。そして、以降の処理は、常に正規化された方向に対して行われる。主成分分析処理(S30)については、図20〜図24を用いて、後述する。   Next, the principal component analysis unit 3 performs principal component analysis processing (S30). By this processing, the target principal component direction (target direction), the center of gravity, the total length, the full width, the area, and the like are calculated. In particular, the direction of the ship is used. The subsequent processes are always performed in the normalized direction. The principal component analysis process (S30) will be described later with reference to FIGS.

そして、リサンプリング部4により、リサンプリング処理(S40)を行う。この処理で、画像の回転・拡大・縮小により、各目標の主成分方向・重心・解像度(画素辺りの長さ)を正規化し、リサンプリングする。これにより、目標の向きが所定の方向に揃えられ、重心位置や縮小率も揃えられる。リサンプリング画像は、画像一時領域(大きさShip_x×Ship_y)に再格納される。   Then, the resampling unit 4 performs resampling processing (S40). In this processing, the principal component direction, the center of gravity, and the resolution (length per pixel) of each target are normalized and resampled by rotating, enlarging, and reducing the image. Thereby, the direction of the target is aligned in a predetermined direction, and the center of gravity position and the reduction rate are also aligned. The resampling image is re-stored in the temporary image area (size Ship_x × Ship_y).

3次元情報算出部5により、3次元情報算出処理(S50)を行う。この処理により、画像から目標の3次元情報を算出する。図4は、3次元情報の例を示す図である。この処理については、図5等を用いて後に詳述する。   The three-dimensional information calculation unit 5 performs a three-dimensional information calculation process (S50). With this processing, target three-dimensional information is calculated from the image. FIG. 4 is a diagram illustrating an example of three-dimensional information. This process will be described later in detail with reference to FIG.

算出結果書込部6により、算出結果書込処理(S60)を行う。この処理により、3次元情報算出処理(S50)において算出した目標の3次元情報をハードディスクあるいはテンポラリ領域へ書き込む。   The calculation result writing unit 6 performs a calculation result writing process (S60). By this process, the target three-dimensional information calculated in the three-dimensional information calculation process (S50) is written to the hard disk or the temporary area.

更に、3次元情報表示部7により、3次元情報表示処理(S70)を行う。この処理により、3次元情報算出処理(S50)において算出した目標の3次元情報を用いて、目標の立体像を作成することもできる。   Further, the three-dimensional information display unit 7 performs a three-dimensional information display process (S70). By this process, a target stereoscopic image can be created using the target three-dimensional information calculated in the three-dimensional information calculation process (S50).

続いて、3次元情報算出処理(S50)について説明する。図5は、3次元情報算出処理フローを示す図である。図6は、3次元情報算出部のソフトウエア構成を示す図である。側舷算出部51、構造物算出部52、構造部分算出部54を有している。またこれらは
、図に示した要素を有している。
Next, the three-dimensional information calculation process (S50) will be described. FIG. 5 is a diagram showing a three-dimensional information calculation processing flow. FIG. 6 is a diagram illustrating a software configuration of the three-dimensional information calculation unit. It has a scissors calculating unit 51, a structure calculating unit 52, and a structure part calculating unit 54. They also have the elements shown in the figure.

まず、側舷算出部51による側舷算出処理(S501)で、画像から側舷部分の高さを求める。また、求めた情報を用いて画像から以降の処理に必要な部分だけを抽出する。この処理については、図7を用いて後述する。   First, the height of a side wall part is calculated | required from an image by the side wall calculation process (S501) by the side wall calculation part 51. FIG. In addition, only the part necessary for the subsequent processing is extracted from the image using the obtained information. This process will be described later with reference to FIG.

次に、構造物算出部52による構造物算出処理(S502)で、構造物(目標を構成する要素の例)の3次元情報を算出する。また、求めた情報を用いて画像から以降の処理に必要な部分だけを抽出する。この処理については、図14を用いて後述する。   Next, in the structure calculation process (S502) by the structure calculation unit 52, three-dimensional information of the structure (an example of an element constituting the target) is calculated. In addition, only the part necessary for the subsequent processing is extracted from the image using the obtained information. This process will be described later with reference to FIG.

構造物数分、ループ処理を行う(S503)。構造物上の構造部分算出処理(S504)では、構造物上の構造部分に対し、構造物算出処理(S502)における構造物に対する処理と同様の処理を行う。これによって、構造物上の構造部分の3次元情報を算出する。構造部分算出部54による構造物上の構造部分算出処理(S504)については、図17を用いて後述する。   A loop process is performed for the number of structures (S503). In the structure part calculation process (S504) on the structure, the same process as the process on the structure in the structure calculation process (S502) is performed on the structure part on the structure. Thereby, the three-dimensional information of the structural part on the structure is calculated. The structure part calculation processing (S504) on the structure by the structure part calculation unit 54 will be described later with reference to FIG.

側舷算出処理(S501)について詳述する。図7は、側舷算出処理フローを示す図である。高さ算出処理(S5011)で、側舷部分の高さの算出を行う。この処理では、正規化された船舶の全長方向に1ラインづつ統計処理(平均値)を求めることで目標の高さを算出する。更に、処理該当部抽出処理(S5012)で、高さ算出処理(S5011)の結果を用いて、以降の処理に必要な部分だけ抽出する。処理該当部抽出処理(S5012)については、図13を用いて後述する。   The scissor calculation process (S501) will be described in detail. FIG. 7 is a diagram illustrating a side-calculation process flow. In the height calculation process (S5011), the height of the scissors portion is calculated. In this process, the target height is calculated by obtaining a statistical process (average value) for each line in the total length direction of the normalized ship. Further, in the process corresponding part extraction process (S5012), only the part necessary for the subsequent process is extracted using the result of the height calculation process (S5011). The process corresponding part extraction process (S5012) will be described later with reference to FIG.

高さの算出処理(S5011)について詳述する。まず、処理の概念について説明する。図8は、船舶画像の輝度分布の例を示す図である。図に示した通り、斜視撮影された画像に映し出された船舶構造物の側面での輝度は上面に比べて高い(低い)特徴がある。そこで、本発明では、甲板面(水平面の例)と側面(垂直面の例)部分の境界を輝度の違いにより側面の高さを判定し、目標物(目標物の構造物)の高さを算出する。   The height calculation process (S5011) will be described in detail. First, the concept of processing will be described. FIG. 8 is a diagram illustrating an example of the luminance distribution of the ship image. As shown in the figure, the brightness on the side surface of the ship structure projected in the perspective image is higher (lower) than the upper surface. Therefore, in the present invention, the height of the side surface is determined from the difference in luminance between the deck surface (example of horizontal surface) and the side surface (example of vertical surface), and the height of the target (the structure of the target) is determined. calculate.

図9は、斜視画像とX軸方向の輝度平均の例を示す図である。図(a)のような斜視画像において、Y軸(垂直軸)の1ライン毎にX軸(水平の軸)方向の統計値(ここでは平均値)を算出し、統計値のプロファイルを描くと図(b)のような輝度平均値となる。図(b)の矢印の長さは、側舷(構造物)の高さに比例するので、矢印部分の長さを計測すれば、1枚の画像から高さを算出することができる。   FIG. 9 is a diagram illustrating an example of a perspective image and luminance average in the X-axis direction. In the perspective image as shown in FIG. 1A, when a statistical value (average value in this case) in the X-axis (horizontal axis) direction is calculated for each line of the Y-axis (vertical axis), a profile of the statistical value is drawn. The brightness average value is as shown in FIG. Since the length of the arrow in FIG. (B) is proportional to the height of the scissors (structure), the height can be calculated from a single image by measuring the length of the arrow portion.

次に、具体的な処理について説明する。図10は、高さ算出処理フローを示す図である。Y軸方向の画素数分(I=1〜Y軸画素数)、ループ処理(S50111)を行う。S50112の輝度平均値算出処理では、X軸方向での輝度の平均値を算出する。この処理については、図11を用いて後述する。   Next, specific processing will be described. FIG. 10 is a diagram illustrating a height calculation processing flow. Loop processing (S50111) is performed for the number of pixels in the Y-axis direction (I = 1 to the number of Y-axis pixels). In the luminance average value calculation process of S50112, the average luminance value in the X-axis direction is calculated. This process will be described later with reference to FIG.

S50113の底面輝度平均判定処理では、I=1であるか、そうでないかを判定する。そして、I=1の場合には、S50114で、底面輝度平均設定処理を行う。この処理では、I=1の輝度平均を低面の輝度平均値とする。   In the bottom surface luminance average determination process of S50113, it is determined whether I = 1 or not. If I = 1, the bottom luminance average setting process is performed in S50114. In this process, the luminance average of I = 1 is set as the luminance average value of the lower surface.

S50115の高さ算出開始判定処理では、I>=2であるが、そうでないかを判定し、S50116の輝度平均値判定処理(その1)では、更にI番目の輝度平均値が底面輝度平均値+α(所定閾値)以上かを判定する。I>=2であって、I番目の輝度平均値が底面輝度平均値+α(所定閾値)以上の場合に、S50117の輝度平均値判定処理(その2)を行い、それ以外の場合には、次のY軸画素の処理ループに移行する。   In the height calculation start determination process in S50115, I> = 2, but it is determined whether or not, and in the luminance average value determination process (No. 1) in S50116, the I-th luminance average value is further converted to the bottom luminance average value. It is determined whether or not + α (predetermined threshold) or more. When I> = 2 and the I-th luminance average value is equal to or greater than the bottom surface luminance average value + α (predetermined threshold value), the luminance average value determination process (No. 2) of S50117 is performed. Otherwise, The processing shifts to the next Y-axis pixel processing loop.

S50117の輝度平均値判定処理(その2)では、I番目の輝度平均値が(I−1)番目の輝度平均値以上かを判定する。当該Y軸画素(I)の輝度平均値が、前のY軸画素(I−1)の輝度平均値以上よりも大きい場合には、S50118の側面画素カウンタインクリメント処理で、側面画素カウンタをインクリメントする。   In the luminance average value determination process (No. 2) in S50117, it is determined whether the I-th luminance average value is equal to or greater than the (I-1) -th luminance average value. When the luminance average value of the Y-axis pixel (I) is larger than the luminance average value of the previous Y-axis pixel (I-1), the side pixel counter is incremented by the side pixel counter increment processing in S50118. .

すべてのY軸画素について処理すると、S50119の高さ算出処理で、側面画素数にスケールファクタ(1画素の長さ)を乗じて、高さを算出する。   When all the Y-axis pixels have been processed, the height is calculated by multiplying the number of side pixels by a scale factor (length of one pixel) in the height calculation process of S50119.

前述のS50112の輝度平均値算出処理について詳述する。図11は、X軸方向輝度平均値算出処理フローを示す図である。
S501121に示す通り、X軸方向の画素数分、ループ処理を行う。S501122の輝度総和算出処理では、X=J番目,Y=I番目の輝度(I,J)を輝度総和SUM(I)に順次加算する。そして、ループ処理の終了後に、S501123の輝度平均値算出処理で、輝度総和SUM(I)をX軸画素数で割ることにより、X軸方向の輝度平均値Mean(I)を算出する。
The luminance average value calculation processing in S50112 will be described in detail. FIG. 11 is a diagram illustrating an X-axis direction luminance average value calculation processing flow.
As shown in S501212, loop processing is performed for the number of pixels in the X-axis direction. In the luminance sum calculation processing of S501212, the X = Jth and Y = Ith luminance (I, J) are sequentially added to the luminance sum SUM (I). Then, after the end of the loop processing, the luminance average value Mean (I) in the X-axis direction is calculated by dividing the luminance sum SUM (I) by the number of X-axis pixels in the luminance average value calculation processing in S501123.

この処理により、例えば図12に示すようなビルの『高さ』や船舶の『側舷の高さ』を自動算出することができる。   By this processing, for example, the “height” of the building and the “side height” of the ship as shown in FIG. 12 can be automatically calculated.

ここで、処理該当部抽出処理(S5012)について詳述する。S5012の処理該当部抽出処理(全長方向)では、前述の処理で区分された海、側舷、甲板面、(構造物側面、構造物上面)より、以降の処理に必要な部分のみを抽出する。図13は、処理該当部抽出処理のイメージを示す図である。   Here, the process relevant part extraction process (S5012) will be described in detail. In the processing corresponding part extraction processing (full length direction) in S5012, only the portion necessary for the subsequent processing is extracted from the sea, the side fence, the deck surface (the structure side surface, the structure upper surface) divided in the above-described processing. . FIG. 13 is a diagram illustrating an image of the processing relevant part extraction processing.

次に、構造物算出処理(S502)について詳述する。図14は、構造物算出処理フローを示す図である。S5021の構造物位置算出処理では、構造物特徴長さ、幅、構造物始点位置、構造物終点位置を抽出する。図15は、構造物位置算出処理のイメージを示す図である。   Next, the structure calculation process (S502) will be described in detail. FIG. 14 is a diagram illustrating a structure calculation processing flow. In the structure position calculation process of S5021, the structure feature length, width, structure start point position, and structure end point position are extracted. FIG. 15 is a diagram illustrating an image of the structure position calculation process.

具体的処理は、例えば、軸方向の画素から、長さ、幅、始点位置、終点位置を抽出する。   For example, the length, width, start point position, and end point position are extracted from the pixels in the axial direction.

そして、S5022の構造物高さ算出処理で、各構造物の高さを算出する。この処理は、S5011の処理と同様である。S5023の構造物抽出処理では、S5022の結果を用い、以降の処理に必要な構造物だけ抽出する。図16は、構造物抽出処理のイメージを示す図である。   And the height of each structure is calculated by the structure height calculation process of S5022. This process is the same as the process of S5011. In the structure extraction process of S5023, only the structure necessary for the subsequent processes is extracted using the result of S5022. FIG. 16 is a diagram illustrating an image of the structure extraction process.

次に、構造部分算出処理(S504)について詳述する。この処理は、図14に示した構造物算出処理(S502)で構造物に対して行った処理と同様の処理を、構造物(上位構成要素の例)上の構造部分(下位構成要素の例)に対して行う。その為、構造物位置算出処理(S5021)に相当する処理(構造部分位置算出処理)と、構造物高さ算出処理(S5022)に相当する処理(構造部分高さ算出処理)を行う。これらの処理では、構造部分の全幅方向の情報(構造部分の高さ+構造部分の幅)を算出する。図17は、構造部分位置算出処理及び構造部分高さ算出処理のイメージを示す図である。   Next, the structure part calculation process (S504) will be described in detail. This process is the same as the process performed on the structure in the structure calculation process (S502) shown in FIG. 14 except that the structure portion (example of lower component) on the structure (example of higher component). ) Therefore, a process (structure part position calculation process) corresponding to the structure position calculation process (S5021) and a process (structure part height calculation process) corresponding to the structure height calculation process (S5022) are performed. In these processes, information in the entire width direction of the structure part (height of the structure part + width of the structure part) is calculated. FIG. 17 is a diagram illustrating an image of the structure part position calculation process and the structure part height calculation process.

構造物抽出算出処理(S5023)に相当する処理(構造部分抽出算出処理)を行う。前述の処理で抽出された構造部分の情報を用いて、以降の処理に必要な部分を抽出する。図18は、構造部分抽出処理のイメージを示す図である。   A process (structure partial extraction calculation process) corresponding to the structure extraction calculation process (S5023) is performed. Using the information on the structure part extracted in the above process, a part necessary for the subsequent process is extracted. FIG. 18 is a diagram illustrating an image of the structure portion extraction process.

このようにして抽出された構造部分を更に処理対象として、前述と同様に高さ算出処理を繰り返すことで、更に詳細な構造部分の高さ情報と幅の情報を分離することができる。また、当該処理対象について同様に位置算出処理を繰り返することにより、詳細な構造部分を抽出することができる。これらの処理を繰り返すことで、複雑な形状をした目標の高さと詳細な船舶の3次元情報を知ることが可能となる。   By repeating the height calculation process in the same manner as described above with the structure portion thus extracted as a processing target, more detailed height information and width information of the structure portion can be separated. Further, by repeating the position calculation process for the processing target in the same manner, a detailed structure portion can be extracted. By repeating these processes, it is possible to know the target height having a complicated shape and detailed three-dimensional information of the ship.

また、上述のように求めた3次元情報を元に目標の立体像を作成することも可能となる。図19は、立体像の例を示す図である。   It is also possible to create a target stereoscopic image based on the three-dimensional information obtained as described above. FIG. 19 is a diagram illustrating an example of a stereoscopic image.

最後に、主成分分析部3による主成分分析処理(S30)について詳述する。
図20を用いて詳細に説明する。尚、x1、x2、…xn、y1、y2、…yn、μx、μy、Δx1、Δx2、…、Δxn、Δy1、Δy2、…、Δyn、C11、C12、C21、C22、p1、q1、p2、q2、L、Bは、書き換え可能な記憶領域に記憶される変数であり、sは、記憶領域に記憶されている定数である。
Finally, the principal component analysis process (S30) by the principal component analysis unit 3 will be described in detail.
This will be described in detail with reference to FIG. X1, x2,... Xn, y1, y2,... Yn, μx, μy, Δx1, Δx2,..., Δxn, Δy1, Δy2,. q2, L, and B are variables stored in a rewritable storage area, and s is a constant stored in the storage area.

先ず、重心算出処理(Step2001)において、成分画素群のX座標の平均値μx、及びY座標の平均値μyを算出し、成分画素群からなる領域の重心の座標(μx、μy)を求める。   First, in the center-of-gravity calculation process (Step 2001), the average value μx of the X coordinate of the component pixel group and the average value μy of the Y coordinate are calculated, and the coordinates (μx, μy) of the center of gravity of the region composed of the component pixel group are obtained.

成分画素群の画素数をn、各画素の座標を(x1、y1)、(x2、y2)、…、(xn、yn)とするとき、μx及びμyは下記(1)、(2)式により算出する。
μx=(x1+x2+…+xn)/n (1)
μy=(y1+y2+…+yn)/n (2)
When the number of pixels in the component pixel group is n and the coordinates of each pixel are (x1, y1), (x2, y2),..., (Xn, yn), μx and μy are the following formulas (1) and (2) Calculated by
μx = (x1 + x2 +... + xn) / n (1)
μy = (y1 + y2 +... + yn) / n (2)

重心算出処理(Step2001)の手順を、図21に示す。図中のsigma_x、sigma_y、nは、一時記憶領域に記憶される変数である。最小矩形内の各座標について(S2103)、目標船舶に含まれる場合に(S2104)、座標値を合算し(S2105)、その結果としてsigma_xとsigma_yを求め、それぞれ合算した座標数nで割って(S2106)、重心のx座標μxとy座標μyを求めている(S2107)。   The procedure of the center-of-gravity calculation process (Step 2001) is shown in FIG. In the figure, sigma_x, sigma_y, and n are variables stored in the temporary storage area. For each coordinate in the minimum rectangle (S2103), when included in the target ship (S2104), the coordinate values are summed (S2105), and as a result, sigma_x and sigma_y are obtained and divided by the summed number of coordinates n ( S2106), the x-coordinate μx and the y-coordinate μy of the center of gravity are obtained (S2107).

次に、相関行列の計算(Step2002〜Step2004)により、相関行列を求める。その為、先ず偏差算出処理(Step2002)において、成分画素群の各画素の前記重心からの偏差(Δx1,Δy1)〜(Δxn、Δyn)を算出する。各偏差は、重心(μx,μy)を座標原点とみなしたときの座標値にあたる。Δxi及びΔyi(1≦i≦n)は下記式(3)、(4)により算出する。
Δxi=xi−μx (3)
Δyi=yi−μy (4)
Next, a correlation matrix is obtained by calculating a correlation matrix (Step 2002 to Step 2004). Therefore, first, in the deviation calculation process (Step 2002), deviations (Δx1, Δy1) to (Δxn, Δyn) from the center of gravity of each pixel of the component pixel group are calculated. Each deviation corresponds to a coordinate value when the center of gravity (μx, μy) is regarded as the coordinate origin. Δxi and Δyi (1 ≦ i ≦ n) are calculated by the following formulas (3) and (4).
Δxi = xi−μx (3)
Δyi = yi−μy (4)

次に、偏差のベクトル化処理(Step2003)において、偏差のx成分からベクトルΔxを、偏差のy成分からベクトルΔyを得る。Δx及びΔyは下記式(5)、(6)により定義される。
Δx=(Δx1、Δx2、…、Δxn) (5)
Δy=(Δy1、Δy2、…、Δyn) (6)
Next, in the deviation vectorization process (Step 2003), a vector Δx is obtained from the x component of the deviation, and a vector Δy is obtained from the y component of the deviation. Δx and Δy are defined by the following formulas (5) and (6).
Δx = (Δx1, Δx2,..., Δxn) (5)
Δy = (Δy1, Δy2,..., Δyn) (6)

次に、相関行列算出処理(Step2004)において、ΔxとΔyの、2行2列の相関行列Cを算出する。Cの各成分はそれぞれ以下のように算出する。(・はベクトル内積の演算子である。)
C11 = Δx・Δx (7)
C12 = Δx・Δy (8)
C21 = Δy・Δx (9)
C22 = Δy・Δy (10)
Next, in a correlation matrix calculation process (Step 2004), a 2-by-2 correlation matrix C of Δx and Δy is calculated. Each component of C is calculated as follows. (・ Is a vector dot product operator.)
C11 = Δx · Δx (7)
C12 = Δx · Δy (8)
C21 = Δy · Δx (9)
C22 = Δy · Δy (10)

図22は、相関行列算出処理の詳細を示す図である。尚、x1、x2、…xn、y1、y2、…yn、μx、μy、C11、C12、C21、C22は、書き換え可能な記憶領域に記憶される変数である。   FIG. 22 is a diagram showing details of the correlation matrix calculation process. Note that x1, x2,... Xn, y1, y2,... Yn, μx, μy, C11, C12, C21, and C22 are variables stored in a rewritable storage area.

先ず、C11、C12、C22を0に初期化し(S2201)、最小矩形内の各座標について(S2202)、目標船舶に含まれる場合に(S2203)、xとμxの差分を求め、その差分を一時記憶し、その差分の二乗を求め、その二乗値を一時記憶し、その二乗値をC11に加算する。また、yとμyの差分を求め、その差分を一時記憶し、xとμxの差分とyとμyの差分を積算し、その積を一時記憶し、その積をC12に加算する。更に、yとμyの差分の二乗を求め、その二乗値を一時記憶し、その二乗値をC22に加算する(S2204)。   First, C11, C12, and C22 are initialized to 0 (S2201). For each coordinate in the minimum rectangle (S2202), if included in the target ship (S2203), the difference between x and μx is obtained and the difference is temporarily Store, calculate the square of the difference, temporarily store the square value, and add the square value to C11. Further, the difference between y and μy is obtained, the difference is temporarily stored, the difference between x and μx, the difference between y and μy is added, the product is temporarily stored, and the product is added to C12. Further, the square of the difference between y and μy is obtained, the square value is temporarily stored, and the square value is added to C22 (S2204).

次に、固有値及び固有ベクトルの計算(S2005,S2006)について説明する。先ず、全長方向算出処理(Step2005)において、相関行列Cの最大固有値λ1、及びそれに対応する固有ベクトル(p1,q1)を算出する。最大固有値λ1は下式により算出することができる。(尚、sqrt(X)はXの平方根を表す。)
λ1=
(C11+C22+sqrt((C11−C22)2+4・C12・C21))/2 (11)
Next, calculation of eigenvalues and eigenvectors (S2005, S2006) will be described. First, in the full length direction calculation process (Step 2005), the maximum eigenvalue λ1 of the correlation matrix C and the corresponding eigenvector (p1, q1) are calculated. The maximum eigenvalue λ1 can be calculated by the following equation. (Note that sqrt (X) represents the square root of X.)
λ1 =
(C11 + C22 + sqrt ((C11−C22) 2 + 4 · C12 · C21)) / 2 (11)

上式(11)で求めたλ1を用いて、p1及びq1を下式により算出することができる。
p1=C12/sqrt(C12・C21+(C11−λ1)2)
(12)
q1=(λ1−C11)/sqrt(C12・C21+(C11−λ1)2)
(13)
Using λ1 obtained by the above equation (11), p1 and q1 can be calculated by the following equation.
p1 = C12 / sqrt (C12 · C21 + (C11−λ1) 2)
(12)
q1 = (λ1-C11) / sqrt (C12 · C21 + (C11-λ1) 2)
(13)

ここで求まる(p1、q1)の向きは、船舶候補の成分画素群からなる領域の全長方向になる。何故ならば、重心(μx、μy)を通る直線に投影した各成分画素の直線上における位置(重心を基準点として一方を正方向、もう一方を負方向とする)の分散は、直線の方向が(p1、q1)の向きに一致するとき最大になるからである。このようにして、q1/p1により、船舶候補領域の進行方向を求めることができる。   The direction of (p1, q1) obtained here is the full length direction of the region composed of the candidate pixel component pixel groups. This is because the variance of the position on the straight line of each component pixel projected onto a straight line passing through the center of gravity (μx, μy) (one center is the positive direction and the other is the negative direction) is the direction of the straight line This is because it becomes maximum when the values coincide with the direction of (p1, q1). In this way, the traveling direction of the ship candidate region can be obtained by q1 / p1.

同様に、全幅方向算出処理(Step2006)において、相関行列Cの最小固有値λ2とそれに対応する固有ベクトル(p2、q2)を算出する。最小固有値λ2は下式により算出することができる。
λ2=
(C11+C22−sqrt((C11−C22)2+4・C12・C21))/2 (14)
Similarly, in the full width direction calculation process (Step 2006), the minimum eigenvalue λ2 of the correlation matrix C and the corresponding eigenvector (p2, q2) are calculated. The minimum eigenvalue λ2 can be calculated by the following equation.
λ2 =
(C11 + C22-sqrt ((C11-C22) 2 + 4 · C12 · C21)) / 2 (14)

式(14)で求めたλ2を用いてp2及びq2は下式により算出することができる。
p2=C12/sqrt(C12・C21+(C11−λ2)2)
(15)
q2=(λ2−C11)/sqrt(C12・C21+(C11−λ2)2)
(16)
P2 and q2 can be calculated by the following equation using λ2 obtained by equation (14).
p2 = C12 / sqrt (C12 · C21 + (C11−λ2) 2)
(15)
q2 = (λ2−C11) / sqrt (C12 · C21 + (C11−λ2) 2)
(16)

(p2、q2)の向きは、船舶候補領域の全幅方向になる。重心(μx、μy)を通る直線に投影した各成分画素の直線上における位置の分散は、直線の方向が(p2、q2)の向きに一致するとき最小になるからである。又、このようにして算出した全幅方向は、上で求めた全長方向と常に直交するという性質を持つ。   The direction of (p2, q2) is the full width direction of the ship candidate region. This is because the dispersion of the position of each component pixel projected onto the straight line passing through the center of gravity (μx, μy) is minimized when the direction of the straight line matches the direction of (p2, q2). Further, the full width direction calculated in this way has a property that it is always orthogonal to the full length direction obtained above.

図23は、固有値及び固有ベクトルの計算処理を示す図である。尚、C11、C12、C22、λ1、λ2、divisor11、divisor12、divisor21、divisor22、p1、q1、p2、q2は、書き換え可能な記憶領域に記憶される変数である。   FIG. 23 is a diagram illustrating a calculation process of eigenvalues and eigenvectors. Note that C11, C12, C22, λ1, λ2, divisor11, divisor12, divisor21, divisor22, p1, q1, p2, and q2 are variables stored in a rewritable storage area.

まず、λ1とλ2を求める(S2301)。C11とC22の差を求め、その差を一時記憶し、その差の二乗を求め、C11とC22の差の二乗値を一時記憶し、更に、C12の二乗を求め、C12の二乗値を一時記憶する。C11とC22の差の二乗値とC12の二乗値を加算し、その和を一時記憶し、その和の平方根を求め、その平方根を一時記憶し、C11とC22とその平方根を合算し、その結果の1/2をλ1として記憶する。また、C11とC22を加算し、その和から前述の平方根を差し引いて、その結果の1/2をλ2として記憶する。   First, λ1 and λ2 are obtained (S2301). The difference between C11 and C22 is obtained, the difference is temporarily stored, the square of the difference is obtained, the square value of the difference between C11 and C22 is temporarily stored, the square of C12 is further obtained, and the square value of C12 is temporarily stored. To do. Add the square value of the difference between C11 and C22 and the square value of C12, temporarily store the sum, find the square root of the sum, temporarily store the square root, add C11, C22 and the square root, and the result Is stored as λ1. Also, C11 and C22 are added, the above-mentioned square root is subtracted from the sum, and ½ of the result is stored as λ2.

次に、divisor11、divisor12、divisor21、及びdivisor22を求める(S2302)。C11からλ1を引いて、その差を一時記憶し、C11とλ1の差の二乗を求め、その二乗値を一時記憶する。その二乗値をC12の二乗値に加え、その和を一時記憶し、その和の平方根を求め、その平方根をdivisor11として記憶する。   Next, the divider 11, the divider 12, the divider 21, and the divider 22 are obtained (S2302). Subtract λ1 from C11, temporarily store the difference, obtain the square of the difference between C11 and λ1, and temporarily store the square value. The square value is added to the square value of C12, the sum is temporarily stored, the square root of the sum is obtained, and the square root is stored as the divider 11.

C22からλ1を引いて、その差を一時記憶し、C22とλ1の差の二乗を求め、その二乗値を一時記憶する。その二乗値をC12の二乗値に加え、その和を一時記憶し、その和の平方根を求め、その平方根をdivisor12として記憶する。   Subtract λ1 from C22, temporarily store the difference, obtain the square of the difference between C22 and λ1, and temporarily store the square value. The square value is added to the square value of C12, the sum is temporarily stored, the square root of the sum is obtained, and the square root is stored as divisor 12.

C11からλ2を引いて、その差を一時記憶し、C11とλ2の差の二乗を求め、その二乗値を一時記憶する。その二乗値をC12の二乗値に加え、その和を一時記憶し、その和の平方根を求め、その平方根をdivisor21として記憶する。   Subtract λ2 from C11, temporarily store the difference, obtain the square of the difference between C11 and λ2, and temporarily store the square value. The square value is added to the square value of C12, the sum is temporarily stored, the square root of the sum is obtained, and the square root is stored as the divider 21.

C22からλ2を引いて、その差を一時記憶し、C22とλ2の差の二乗を求め、その二乗値を一時記憶する。その二乗値をC12の二乗値に加え、その和を一時記憶し、その和の平方根を求め、その平方根をdivisor22として記憶する。   Subtract λ2 from C22, temporarily store the difference, obtain the square of the difference between C22 and λ2, and temporarily store the square value. The square value is added to the square value of C12, the sum is temporarily stored, the square root of the sum is obtained, and the square root is stored as the divider 22.

divisor11とdivisor12がともに0の場合、あるいは、divisor21とdivisor22がともに0の場合は(S2303)、固有ベクトルの方向が不定と判断する(S2304)。それ以外の場合は、p1とq1を求め、更に、p2とq2を求める。   When both the divider 11 and the divider 12 are 0, or when both the divider 21 and the divider 22 are 0 (S2303), it is determined that the direction of the eigenvector is indefinite (S2304). In other cases, p1 and q1 are obtained, and p2 and q2 are further obtained.

divisor11>divisor12の場合には(S2305)、C12をdivisor11で割り、その結果をp1として記憶し、λ1からC11を引き、その差を一時記憶し、その差をdivisor11で割り、その結果をq1として記憶する(S2306)。divisor11<divisor12の場合には(S2305)、λ1から
C22を引き、その差を一時記憶し、その差をdivisor12で割り、その結果をp1として記憶し、C12をdivisor12で割り、その結果をq1として記憶する(S2307)。
If divider11> divider12 (S2305), C12 is divided by divider11, the result is stored as p1, subtracts C11 from λ1, temporarily stores the difference, the difference is divided by divider11, and the result is q1. Store (S2306). If divisor11 <divider12 (S2305), subtract C22 from λ1, temporarily store the difference, divide by divisor12, store the result as p1, divide C12 by divisor12, and set the result as q1 Store (S2307).

divisor21>divisor22の場合には(S2308)、C12をdivisor21で割り、その結果をp2として記憶し、λ2からC11を引き、その差を一時記憶し、その差をdivisor21で割り、その結果をq2として記憶する(S2309)。divisor21<divisor22の場合には(S2308)、λ2からC22を引き、その差を一時記憶し、その差をdivisor22で割り、その結果をp2として記憶し、C12をdivisor22で割り、その結果をq2として記憶する(S2310)。   If divisor21> divider22 (S2308), C12 is divided by divisor21, the result is stored as p2, C11 is subtracted from λ2, the difference is temporarily stored, the difference is divided by divisor21, and the result is q2. Store (S2309). If divisor21 <divider22 (S2308), subtract C22 from λ2, temporarily store the difference, divide the difference by divider22, store the result as p2, divide C12 by divisor22, and set the result as q2 Store (S2310).

次に、長さ・幅の計算の処理(S2007,S2008)について説明する。先ず、全長算出処理(Step2007)において、全長Lを算出する。全長Lの算出は下式による。
L=(max(Δxi・p1+Δyi・q1)+
max(−Δxi・p1−Δyi・q1))・s (17)
Next, length / width calculation processing (S2007, S2008) will be described. First, in the total length calculation process (Step 2007), the total length L is calculated. The total length L is calculated according to the following formula.
L = (max (Δxi · p1 + Δyi · q1) +
max (−Δxi · p1−Δyi · q1)) · s (17)

但し、iは1〜n(nは成分画素群の画素数)についてとる。また、sは、衛星画像データのピクセルスペーシングであり、衛星画像データの1画素の一辺の長さである。全長Lは、重心(μx、μy)を通り、全長方向に平行な直線に投影した成分画素群の画素2点間の最大距離である。   However, i takes 1 to n (n is the number of pixels in the component pixel group). Moreover, s is the pixel spacing of the satellite image data, and is the length of one side of one pixel of the satellite image data. The total length L is the maximum distance between two pixels of the component pixel group projected on a straight line passing through the center of gravity (μx, μy) and parallel to the total length direction.

次に、全幅算出処理(Step2008)において、全幅Bを算出する。全幅Bの算出は下式による。
B=(max(Δxi・p2+Δyi・q2)+
max(−Δxi・p2−Δyi・q2))・s (18)
但し、iは1〜n(nは成分画素群の画素数)についてとる。全幅Bは重心(μx、μy)を通り全幅方向に平行な直線に投影した船舶画素群の画素2点間の最大距離である。
Next, the full width B is calculated in the full width calculation process (Step 2008). The total width B is calculated by the following formula.
B = (max (Δxi · p2 + Δyi · q2) +
max (−Δxi · p2−Δyi · q2)) · s (18)
However, i takes 1 to n (n is the number of pixels in the component pixel group). The full width B is the maximum distance between two pixels of the ship pixel group projected on a straight line passing through the center of gravity (μx, μy) and parallel to the full width direction.

図24は、長さ・幅の計算処理を示す図である。尚、min_z1、max_z1、min_z2、max_z2、z1、z2、x、y、μx、μy、p1、q1、p2、q2、length、widthは、書き換え可能な記憶領域に記憶される変数である。   FIG. 24 is a diagram illustrating a length / width calculation process. Note that min_z1, max_z1, min_z2, max_z2, z1, z2, x, y, μx, μy, p1, q1, p2, q2, length, and width are variables stored in a rewritable storage area.

先ず、min_z1、max_z1、min_z2、max_z2を0に初期化し(S2401)、最小矩形内の各座標について(S2402)、目標船舶に含まれる場合に(S2403)、z1とz2を算出し(S2404)、z1がmin_z1より小さい場合に(S2405)、min_z1にz1を記憶し(S1406)、z1がmax_z1より大きい場合に(S2407)、max_z1にz1を記憶し(S2408)、z2がmin_z2より小さい場合に(S2409)、min_z2にz2を記憶し(S2410)、z2がmax_z2より大きい場合に(S2411)、max_z2にz2を記憶する(S2412)。   First, min_z1, max_z1, min_z2, and max_z2 are initialized to 0 (S2401). For each coordinate in the minimum rectangle (S2402), if included in the target ship (S2403), z1 and z2 are calculated (S2404). When z1 is smaller than min_z1 (S2405), z1 is stored in min_z1 (S1406), when z1 is larger than max_z1 (S2407), z1 is stored in max_z1 (S2408), and when z2 is smaller than min_z2 ( S2409), z2 is stored in min_z2 (S2410). If z2 is larger than max_z2 (S2411), z2 is stored in max_z2 (S2412).

z1とz2は、以下の処理により算出する。xからμxを引いて、その差を一時記憶し、yからμyを引いて、その差を一時記憶する。そして、p1にxとμxの差を乗じて、p1・(x−μx)の積を一時記憶し、q1にyとμyの差を乗じて、q1・(y−μy)の積を一時記憶し、p1・(x−μx)の積とq1・(y−μy)の積を加算し、その和をz1として記憶する。また、p2にxとμxの差を乗じて、p2・(x−μx)の積を一時記憶し、q2にyとμyの差を乗じて、q2・(y−μy)の積を一時記憶し、p2・(x−μx)の積とq2・(y−μy)の積を加算し、その和をz2として記憶する
z1 and z2 are calculated by the following processing. Subtract μx from x to temporarily store the difference, subtract y from μy to temporarily store the difference. Then, p1 is multiplied by the difference between x and μx to temporarily store the product of p1 · (x−μx), and q1 is multiplied by the difference between y and μy to temporarily store the product of q1 · (y−μy). Then, the product of p1 · (x−μx) and the product of q1 · (y−μy) are added, and the sum is stored as z1. Also, p2 is multiplied by the difference between x and μx to temporarily store the product of p2 · (x−μx), and q2 is multiplied by the difference between y and μy to temporarily store the product of q2 · (y−μy). Then, the product of p2 · (x−μx) and the product of q2 · (y−μy) are added, and the sum is stored as z2.

最後に、max_z1からmin_z1を引いて、その差をlengthとして記憶し、max_z2からmin_z2を引いて、その差をwidthとして記憶する(S2414)。   Finally, min_z1 is subtracted from max_z1 and the difference is stored as length, and min_z2 is subtracted from max_z2 and the difference is stored as width (S2414).

3次元情報抽出装置は、コンピュータであり、各要素はプログラムにより処理を実行することができる。また、プログラムを記憶媒体に記憶させ、記憶媒体からコンピュータに読み取られるようにすることができる。   The three-dimensional information extraction apparatus is a computer, and each element can execute processing by a program. Further, the program can be stored in a storage medium so that the computer can read the program from the storage medium.

図25は、3次元情報抽出装置のハードウエア構成例を示す図である。この例では、バスに、演算装置2501、(インターフェースを介して)画像入力装置2502、メモリ2503、ハードディスク2504、表示装置2505が接続されている。プログラムは、例えばハードディスク2504に記憶されており、メモリ2503にロードされた状態で、順次演算装置2501に読み込まれ処理を行う。   FIG. 25 is a diagram illustrating a hardware configuration example of the three-dimensional information extraction apparatus. In this example, an arithmetic device 2501, an image input device 2502, a memory 2503, a hard disk 2504, and a display device 2505 are connected to the bus. The program is stored in, for example, the hard disk 2504, and is sequentially loaded into the arithmetic device 2501 and processed while being loaded in the memory 2503.

3次元情報抽出装置のソフトウエア構成を示す図である。It is a figure which shows the software structure of a three-dimensional information extraction apparatus. 全体処理フローを示す図である。It is a figure which shows the whole processing flow. 船舶画像の例を示す図である。It is a figure which shows the example of a ship image. 3次元情報の例を示す図である。It is a figure which shows the example of three-dimensional information. 3次元情報算出処理フローを示す図である。It is a figure which shows a three-dimensional information calculation process flow. 3次元情報算出部のソフトウエア構成を示す図である。It is a figure which shows the software structure of a three-dimensional information calculation part. 側舷算出処理フローを示す図である。It is a figure which shows a scissors calculation process flow. 船舶画像の輝度分布の例を示す図である。It is a figure which shows the example of the luminance distribution of a ship image. X軸方向の輝度平均の例を示す図である。It is a figure which shows the example of the brightness | luminance average of a X-axis direction. 高さ算出処理フローを示す図である。It is a figure which shows a height calculation process flow. X軸方向輝度平均値算出処理フローを示す図である。It is a figure which shows a X-axis direction luminance average value calculation processing flow. ビルの高さと船舶の側舷の高さを示す図である。It is a figure which shows the height of a building, and the height of the side of a ship. 処理該当部抽出処理のイメージを示す図である。It is a figure which shows the image of a process applicable part extraction process. 構造物算出処理フローを示す図である。It is a figure which shows a structure calculation process flow. 構造物位置算出処理のイメージを示す図である。It is a figure which shows the image of a structure position calculation process. 構造物抽出処理のイメージを示す図である。It is a figure which shows the image of a structure extraction process. 構造部分位置算出処理及び構造部分高さ算出処理のイメージを示す図である。It is a figure which shows the image of a structure part position calculation process and a structure part height calculation process. 構造部分抽出処理のイメージを示す図である。It is a figure which shows the image of a structure part extraction process. 立体像の例を示す図である。It is a figure which shows the example of a stereo image. 主成分分析処理のフローを示す図である。It is a figure which shows the flow of a principal component analysis process. 重心の計算の処理フローを示す図である。It is a figure which shows the processing flow of calculation of a gravity center. 相関行列の計算の処理フローを示す図である。It is a figure which shows the processing flow of calculation of a correlation matrix. 固有値及び固有ベクトルの計算の処理フローを示す図である。It is a figure which shows the processing flow of calculation of an eigenvalue and an eigenvector. 長さ・幅の計算の処理フローを示す図である。It is a figure which shows the processing flow of calculation of length and width. 3次元情報抽出装置のハードウエア構成を示す図である。It is a figure which shows the hardware constitutions of a three-dimensional information extraction apparatus. 撮影画像に含まれる目標物の高さ成分の概念を示す図である。It is a figure which shows the concept of the height component of the target contained in a picked-up image. ビルの高さ成分を示す図である。It is a figure which shows the height component of a building. 船舶の高さ成分を示す図である。It is a figure which shows the height component of a ship. 高さ成分算出の概念を示す図である。It is a figure which shows the concept of height component calculation.

符号の説明Explanation of symbols

1 画像読込部、2 画像2値化部、3 主成分分析部、4 リサンプリング部、5
3次元情報算出部、6 算出結果書込部、7 3次元情報表示部、11 読込画像記憶部、12 リサンプリング画像記憶部、13 及び3次元情報記憶部、51 側舷算出部、52 構造物算出部、54 構造部分算出部。
1 image reading unit, 2 image binarization unit, 3 principal component analysis unit, 4 resampling unit, 5
3D information calculation unit, 6 calculation result writing unit, 7 3D information display unit, 11 read image storage unit, 12 resampling image storage unit, 13 and 3D information storage unit, 51 lateral flaw calculation unit, 52 structure Calculation part, 54 Structure part calculation part.

Claims (6)

以下の要素を有することを特徴とする3次元情報抽出装置
(1)目標画像の少なくとも主成分方向を算出する主成分分析部
(2)主成分方向により目標画像を正規化するリサンプリング部
(3)正規化された目標画像に基づいて、目標の高さを算出する高さ算出部。
A three-dimensional information extraction device having the following elements: (1) a principal component analysis unit that calculates at least a principal component direction of a target image; (2) a resampling unit that normalizes the target image by the principal component direction (3 ) A height calculator that calculates the target height based on the normalized target image.
高さ算出部は、水平面と垂直面の境界を輝度の違いにより判定し、境界の高さを目標物の高さとして算出することを特徴とする請求項1記載の3次元情報抽出装置。 The three-dimensional information extraction apparatus according to claim 1, wherein the height calculation unit determines a boundary between the horizontal plane and the vertical plane based on a difference in luminance, and calculates the height of the boundary as the height of the target. 目標は、船舶であることを特徴とする請求項1に記載の3次元情報抽出装置。   The three-dimensional information extraction apparatus according to claim 1, wherein the target is a ship. 以下の要素を有することを特徴とする3次元情報抽出方法
(1)目標画像の少なくとも主成分方向を算出する主成分分析工程
(2)主成分方向により目標画像を正規化するリサンプリング工程
(3)正規化された目標画像に基づいて、目標の高さを算出する高さ算出工程。
A three-dimensional information extraction method having the following elements: (1) a principal component analysis step for calculating at least a principal component direction of a target image (2) a resampling step for normalizing the target image with the principal component direction (3 ) A height calculating step for calculating the target height based on the normalized target image.
3次元情報抽出装置となるコンピュータに、以下の処理を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体
(1)目標画像の少なくとも主成分方向を算出する主成分分析処理
(2)主成分方向により目標画像を正規化するリサンプリング処理
(3)正規化された目標画像に基づいて、目標の高さを算出する高さ算出処理。
A computer-readable recording medium that records a program for causing a computer serving as a three-dimensional information extraction apparatus to execute the following processing. (1) Principal component analysis processing for calculating at least a principal component direction of a target image. Resampling process for normalizing the target image according to direction (3) Height calculation process for calculating the target height based on the normalized target image.
3次元情報抽出装置となるコンピュータに、以下の手順を実行させるためのプログラム(1)目標画像の少なくとも主成分方向を算出する主成分分析手順
(2)主成分方向により目標画像を正規化するリサンプリング手順
(3)正規化された目標画像に基づいて、目標の高さを算出する高さ算出手順。
A program for causing a computer to be a three-dimensional information extraction apparatus to execute the following procedure: (1) a principal component analysis procedure for calculating at least a principal component direction of a target image; Sampling procedure (3) A height calculation procedure for calculating the target height based on the normalized target image.
JP2005019789A 2004-03-31 2005-01-27 Three-dimensional information extraction device and method, computer-readable recording medium recording program, and program Pending JP2005315846A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005019789A JP2005315846A (en) 2004-03-31 2005-01-27 Three-dimensional information extraction device and method, computer-readable recording medium recording program, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004101844 2004-03-31
JP2005019789A JP2005315846A (en) 2004-03-31 2005-01-27 Three-dimensional information extraction device and method, computer-readable recording medium recording program, and program

Publications (1)

Publication Number Publication Date
JP2005315846A true JP2005315846A (en) 2005-11-10

Family

ID=35443415

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005019789A Pending JP2005315846A (en) 2004-03-31 2005-01-27 Three-dimensional information extraction device and method, computer-readable recording medium recording program, and program

Country Status (1)

Country Link
JP (1) JP2005315846A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104063896A (en) * 2014-06-24 2014-09-24 南京大学 3D building model structure discovery method based on transformation space
JP2020085805A (en) * 2018-11-30 2020-06-04 Arithmer株式会社 Dimension data calculation device, program, method, product manufacturing device, and product manufacturing system
JP2020179662A (en) * 2019-07-01 2020-11-05 Arithmer株式会社 Information processing device, information processing method, dimensional data calculation device, product manufacturing device
US11922649B2 (en) 2018-11-30 2024-03-05 Arithmer Inc. Measurement data calculation apparatus, product manufacturing apparatus, information processing apparatus, silhouette image generating apparatus, and terminal apparatus

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104063896A (en) * 2014-06-24 2014-09-24 南京大学 3D building model structure discovery method based on transformation space
JP2020085805A (en) * 2018-11-30 2020-06-04 Arithmer株式会社 Dimension data calculation device, program, method, product manufacturing device, and product manufacturing system
US11922649B2 (en) 2018-11-30 2024-03-05 Arithmer Inc. Measurement data calculation apparatus, product manufacturing apparatus, information processing apparatus, silhouette image generating apparatus, and terminal apparatus
JP2020179662A (en) * 2019-07-01 2020-11-05 Arithmer株式会社 Information processing device, information processing method, dimensional data calculation device, product manufacturing device

Similar Documents

Publication Publication Date Title
US5642293A (en) Method and apparatus for determining surface profile and/or surface strain
JP4907219B2 (en) System and method for automatic parameter determination in machine vision
US9633281B2 (en) Point cloud matching method
CN109934847B (en) Method and device for estimating posture of weak texture three-dimensional object
US20170308736A1 (en) Three dimensional object recognition
US7456831B2 (en) Method for generating 3D mesh based on unorganized sparse 3D points
JPH0685183B2 (en) Identification method of 3D object by 2D image
EP3477597A1 (en) 3d modeling method based on point cloud data
CN110675487A (en) Three-dimensional face modeling and recognizing method and device based on multi-angle two-dimensional face
WO2010004466A1 (en) Three dimensional mesh modeling
KR20100098641A (en) Invariant visual scene and object recognition
WO2012100225A1 (en) Systems and methods for generating a three-dimensional shape from stereo color images
JP2016179534A (en) Information processor, information processing method, program
WO2021024499A1 (en) Reinforcing bar determination device and reinforcing bar determination method
JP6172432B2 (en) Subject identification device, subject identification method, and subject identification program
JP3078166B2 (en) Object recognition method
JP7033439B2 (en) Ishigaki management system, stone wall management method and computer program
JP2005315846A (en) Three-dimensional information extraction device and method, computer-readable recording medium recording program, and program
US8238619B2 (en) Method of extracting ridge line and valley line from three-dimensional point data
JP2007025902A (en) Image processor and image processing method
CN113269897A (en) Method, device and equipment for acquiring surface point cloud and storage medium
JP7227481B2 (en) Stone locating program, stone locating system, and stone locating device
Hołowko et al. Color-based algorithm for automatic merging of multiview 3D point clouds
JP4324123B2 (en) Model data display program, model data display device, and model data display method
CN113033248A (en) Image identification method and device and computer readable storage medium