JP2013134114A - Image processor - Google Patents

Image processor Download PDF

Info

Publication number
JP2013134114A
JP2013134114A JP2011283660A JP2011283660A JP2013134114A JP 2013134114 A JP2013134114 A JP 2013134114A JP 2011283660 A JP2011283660 A JP 2011283660A JP 2011283660 A JP2011283660 A JP 2011283660A JP 2013134114 A JP2013134114 A JP 2013134114A
Authority
JP
Japan
Prior art keywords
image
similarity
time
unit
sea surface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011283660A
Other languages
Japanese (ja)
Inventor
Haruko Kato
晴子 河東
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2011283660A priority Critical patent/JP2013134114A/en
Publication of JP2013134114A publication Critical patent/JP2013134114A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To estimate a time when a photographic image is photographed on the basis of the photographic image of a mobile body and the photographic image of a sea wave being a background.SOLUTION: An image processor includes: a separation part 2 for separating verification target image data obtained by photographing a mobile body on a sea surface into a mobile body image indicating the mobile body and a background image including a sea wave other than the mobile body; a scale estimation part 3 for estimating the three-dimensional coordinate of the sea wave in the background image; an FFT processing part 4 for acquiring a sea wave spectrum; a Hasselmans conversion part 5 for performing the Hasselmans conversion of the sea wave spectrum acquired by the FFT processing part 4 and acquiring an estimation synthetic aperture radar image; a measured image storage part 7 for storing multiple measured images obtained by photographing a prescribed area at a predetermined time interval together with each photographic time; and an evaluation comparison part 6 for calculating a similarity degree indicating similarity between the estimation synthetic aperture radar image acquired by the Hasselmans conversion part 5 and each measured image stored in the measured image storage part 7, and estimating the photographic time of verification target image data by using the photographic time of the measured image indicating high similarity.

Description

この発明は、海面上の移動体の撮影画像から、当該画像が撮影された時刻を推定する画像処理装置に関するものである。   The present invention relates to an image processing apparatus that estimates the time at which an image is captured from a captured image of a moving object on the sea surface.

従来の衛星、航空機搭載の合成開口レーダからの海洋画像は、リアルタイム/準リアルタイムの波浪情報の提供、あるいは波浪予測数値モデルの精度向上などに利用されている。また、合成開口レーダの海洋画像は環境事故状況把握や、法的資料として使用される(例えば、非特許文献1参照)。   Marine images from conventional satellite and aircraft-borne synthetic aperture radars are used to provide real-time / quasi-real-time wave information or improve the accuracy of wave prediction numerical models. In addition, the marine image of the synthetic aperture radar is used as an environmental accident situation grasp and legal material (for example, see Non-Patent Document 1).

一方、海洋波形状をスペクトラムで現し、これを非線形変換して、対応する合成開口レーダ画像(仮想)を作成する技術も知られている(例えば、非特許文献2参照)。非特許文献2によれば、海面波スペクトラムをハッセルマン変換することにより、対応する合成開口レーダ画像が得られ、また、合成開口レーダ画像を逆ハッセルマン変換することにより、対応する海面波スペクトラムが得られる。   On the other hand, a technique is also known in which the ocean wave shape is represented by a spectrum, and this is nonlinearly transformed to create a corresponding synthetic aperture radar image (virtual) (see, for example, Non-Patent Document 2). According to Non-Patent Document 2, a corresponding synthetic aperture radar image is obtained by performing Hasselman transform on the sea surface wave spectrum, and a corresponding sea surface wave spectrum is obtained by performing inverse Hasselman transform on the synthetic aperture radar image. can get.

また、合成開口レーダ画像生成のために、海洋波形状をランダムにモデル化する技術も知られている(例えば、非特許文献3参照)。
さらに、撮影画像から、顔や船舶等の特定物体を背景から認識識別する方法が多数知られている(例えば、非特許文献4参照)。
In addition, a technique for randomly modeling the ocean wave shape for generating a synthetic aperture radar image is also known (see, for example, Non-Patent Document 3).
Furthermore, there are many known methods for recognizing and identifying a specific object such as a face or a ship from the background from a captured image (see, for example, Non-Patent Document 4).

大内和夫、リモートセンシングのための合成開口レーダの基礎、1.2合成開口レーダの応用分野、1.2.1 海洋、東京電機大学出版局、2004年1月20日Kazuo Ouchi, Basics of Synthetic Aperture Radar for Remote Sensing, 1.2 Fields of Application of Synthetic Aperture Radar, 1.2.1 Ocean, Tokyo Denki University Press, January 20, 2004 K. Hasselmann et al., On the nonlinear mapping of an ocean wave spectrum into a synthetic aperture radar image spectrum and its inversion, Journal of Geophysical research, Vol.96, No.C6, pp. 10,713−10,729, June 15, 1991 )K. Hasselmann et al. , On the non-linear mapping of an ocean wave spectrum into a synthetic approach, radical image spectrum and it's inversion, Journal of Geology. 96, no. C6, pp. 10, 713-10, 729, June 15, 1991) F. Berizzi et al., Sea−wave fractal spectrum for SAR remote sensing, IEE Proc. −Radar, Sonar Navig., Vol.I48, No.2, pp.56−66,April 2001F. Belizzi et al. Sea-wave fractal spectrum for SAR remote sensing, IEEE Proc. -Radar, Sonar Navig. , Vol. I48, no. 2, pp. 56-66, April 2001 山下隆義、藤吉弘亘、特定物体認識に有効な特徴量、情報処理学会 研究報告CVIM 165 Nov. 2008、pp.221−236Takayoshi Yamashita, Hironobu Fujiyoshi, Features Effective for Specific Object Recognition, Information Processing Society of Japan Research Report CVIM 165 Nov. 2008, pp. 221-236

しかしながら、上述した非特許文献1から非特許文献3に開示された従来の合成開口レーダによるリモートセンシング技術では、船舶等の移動目標物と背景の海面との相互の位置関係が実画像と異なる相互位置にあり、撮影時刻が既知の合成開口レーダ画像と、撮影時刻が未知の海面上の船舶の2次元写真とから、移動目標部を手掛かりとして相互に比較することにより、画像が撮影された時刻を推定することは困難であるという課題があった。   However, in the conventional remote sensing technology using synthetic aperture radar disclosed in Non-Patent Document 1 to Non-Patent Document 3 described above, the mutual positional relationship between a moving target such as a ship and the background sea level is different from that of the actual image. The time at which the image was captured by comparing the synthetic aperture radar image at the position where the capturing time is known and the two-dimensional photograph of the ship on the sea surface where the capturing time is unknown by comparing each other with the moving target as a clue. There was a problem that it was difficult to estimate.

また、従来の海面波スペクトラムと合成開口レーダ画像の変換アルゴリズムでは、数式で表現された海面波スペクトラムと、合成開口レーダ画像とを、相互に変換/逆変換するのみでは、移動目標物の2次元画像が撮影された時刻を推定することは困難であるという課題があった。   Further, in the conventional algorithm for converting a sea surface wave spectrum and a synthetic aperture radar image, it is only necessary to convert / reverse the sea surface wave spectrum expressed by a mathematical formula and the synthetic aperture radar image to each other. There was a problem that it was difficult to estimate the time when the image was taken.

この発明は、上記のような課題を解決するためになされたもので、移動体の撮影画像と背景の海面波の撮影画像から、当該撮影画像が撮影された時刻を推定することを目的とする。   The present invention has been made to solve the above-described problems, and an object thereof is to estimate the time at which the photographed image was photographed from the photographed image of the moving body and the photographed image of the sea wave in the background. .

この発明に係る画像処理装置は、海面上の移動体を撮影した検証対象画像データを、移動体を示す移動体画像と移動体以外の海面波を含む背景画像とに分離する分離部と、分離部が分離した移動体画像内の移動体の縮尺に基づいて、背景画像の海面波の3次元座標を推定するスケール推定部と、スケール推定部が推定した海面波の3次元座標を高速フーリエ変換し、海面波スペクトラムを取得するFFT処理部と、FFT処理部が取得した海面波スペクトラムをハッセルマン変換し、推定合成開口レーダ画像を取得するハッセルマン変換部と、所定領域をあらかじめ設定された時間間隔で撮影した複数の実測画像を、撮影時刻と共に記憶する実測画像記憶部と、ハッセルマン変換部が取得した推定合成開口レーダ画像と、実測画像記憶部に記憶された各実測画像との類似性を示す類似度を算出し、高い類似度を示す実測画像の撮影時刻を用いて検証対象画像データの撮影時刻を推定する評価比較部とを備えるものである。   An image processing apparatus according to the present invention includes: a separation unit that separates verification target image data obtained by capturing a moving object on the sea surface into a moving object image indicating the moving object and a background image including sea surface waves other than the moving object; A scale estimation unit that estimates the three-dimensional coordinates of the sea surface wave in the background image based on the scale of the moving object in the moving body image separated from the unit, and a fast Fourier transform of the three-dimensional coordinates of the sea surface wave estimated by the scale estimation unit An FFT processing unit that acquires the sea surface wave spectrum, a Hasselman conversion unit that acquires the estimated synthetic aperture radar image by performing Hasselman conversion on the sea surface wave spectrum acquired by the FFT processing unit, and a predetermined area in advance. A plurality of measured images captured at intervals are recorded in the measured image storage unit that stores the captured time together with the shooting time, the estimated synthetic aperture radar image acquired by the Hasselman conversion unit, and the measured image storage unit. By the similarity calculating that shows similarity with the measured image is one and a evaluation comparing unit for estimating the shooting time of the verification target image data using the imaging time of the actual image showing high similarity.

この発明によれば、移動体の撮影画像と背景の海面波の撮影画像から、当該撮影画像が撮影された時刻を推定することができる。   According to the present invention, it is possible to estimate the time when the captured image was captured from the captured image of the moving body and the captured image of the sea wave in the background.

実施の形態1による画像処理装置の構成を示すブロック図である。1 is a block diagram illustrating a configuration of an image processing device according to Embodiment 1. FIG. 実施の形態1による画像処理装置の動作を示すフローチャートである。3 is a flowchart illustrating an operation of the image processing apparatus according to the first embodiment. 実施の形態1による画像処理装置の類似性テーブルを示す図である。6 is a diagram illustrating a similarity table of the image processing apparatus according to Embodiment 1. FIG. 実施の形態1による画像処理装置の類似性算出部の動作を示すフローチャートである。6 is a flowchart illustrating an operation of a similarity calculation unit of the image processing apparatus according to the first embodiment. 実施の形態1による画像処理装置の推定時刻算出部の動作を示すフローチャートである。6 is a flowchart illustrating an operation of an estimated time calculation unit of the image processing apparatus according to the first embodiment. 実施の形態1による画像処理装置の推定時刻算出部の重み付け処理を示す図である。6 is a diagram illustrating weighting processing of an estimated time calculation unit of the image processing apparatus according to Embodiment 1. FIG. 実施の形態2による画像処理装置の構成を示すブロック図である。6 is a block diagram illustrating a configuration of an image processing device according to Embodiment 2. FIG. 実施の形態2による画像処理装置の動作を示すフローチャートである。6 is a flowchart illustrating an operation of the image processing apparatus according to the second embodiment. 実施の形態2による画像処理装置のハッセルマン逆変換部の動作を示すフローチャートである。10 is a flowchart illustrating an operation of a Hasselman inverse transform unit of the image processing apparatus according to the second embodiment. 実施の形態2による画像処理装置の類似性算出部の動作を示すフローチャートである。10 is a flowchart illustrating an operation of a similarity calculation unit of the image processing apparatus according to the second embodiment.

実施の形態1.
図1は、この発明の実施の形態1による画像処理装置の構成を示すブロック図である。図1において、画像処理装置10は、読込部1、分離部2、スケール推定部3、FFT処理部4、ハッセルマン変換部5、評価比較部6および実測画像記憶部7で構成されている。なお、この実施の形態1では、海面上の船舶などの移動体を撮影した場合を例に説明する。
読込部1は、検証対象となる撮影画像(以下、検証対象画像と称する)を電子データに変換する。電子データに変換する方法として例えば、紙媒体に印刷された撮影画像を二次元の画素に分割し、それぞれの画素の濃淡をテーブルに保持する方法が挙げられる。該方法以外にも一般的な電子データ変換方法を適用可能である。なお、紙媒体に印刷された撮影画像ではなく、電子データで撮影画像が入力された場合には、電子データの入力の受け付けのみを行う。
Embodiment 1 FIG.
FIG. 1 is a block diagram showing a configuration of an image processing apparatus according to Embodiment 1 of the present invention. In FIG. 1, the image processing apparatus 10 includes a reading unit 1, a separation unit 2, a scale estimation unit 3, an FFT processing unit 4, a Hasselman conversion unit 5, an evaluation comparison unit 6, and a measured image storage unit 7. In the first embodiment, a case where a moving body such as a ship on the sea surface is photographed will be described as an example.
The reading unit 1 converts a captured image to be verified (hereinafter referred to as a verification target image) into electronic data. As a method for converting to electronic data, for example, there is a method in which a photographed image printed on a paper medium is divided into two-dimensional pixels, and the density of each pixel is held in a table. Besides this method, a general electronic data conversion method can be applied. Note that when a captured image is input as electronic data instead of a captured image printed on a paper medium, only the input of electronic data is accepted.

分離部2は、検証対象画像の電子データから、船舶などの移動体を示す移動体画像と、移動体以外の海面波などを含む背景画像に分離する。移動体画像と背景画像の分離には、移動体と背景の海面波では隣接する画素の輝度が異なることを利用したピクセル差分などの方法を適用する。移動体と背景の海面波の分離に用いる画像認識方法の詳細は上述した非特許文献4などに記載されている。スケール推定部3は、分離部2から入力される移動体画像中の移動体の形状から移動体の種類(例えば、船種)および大きさを推定し、推定した移動体の種類および大きさに基づいて背景画像中の海面波の大きさを推定して海面波の3次元画像を生成する。   The separation unit 2 separates the electronic data of the verification target image into a moving body image indicating a moving body such as a ship and a background image including a sea wave other than the moving body. For the separation of the moving body image and the background image, a method such as pixel difference using the fact that the luminance of adjacent pixels is different between the sea wave of the moving body and the background is applied. Details of the image recognition method used for separation of the moving body and the sea wave of the background are described in Non-Patent Document 4 and the like described above. The scale estimation unit 3 estimates the type (for example, ship type) and size of the moving object from the shape of the moving object in the moving object image input from the separation unit 2, and sets the estimated type and size of the moving object. Based on this, the size of the sea wave in the background image is estimated to generate a three-dimensional image of the sea wave.

FFT処理部4は、海面波の3次元画像に高速フーリエ変換(FFT)処理を行い、海面波スペクトラムを算出する。ハッセルマン変換部5は、FFT処理部4から入力される海面波スペクトラムにハッセルマン変換を施し、推定合成開口レーダ画像を取得する。なお、ハッセルマン変換の詳細は非特許文献3などに開示されているため、記載を省略する。評価比較部6は、ハッセルマン変換部5から入力される推定合成開口レーダ画像と、実測画像記憶部7に記憶された実測画像とを比較し、読込部1が読み込んだ検証対象画像が撮影された日時を推定し、推定日時情報として出力する。   The FFT processing unit 4 performs a fast Fourier transform (FFT) process on the three-dimensional image of the sea surface wave to calculate a sea surface wave spectrum. The Hasselman transform unit 5 performs Hasselman transform on the sea surface wave spectrum input from the FFT processing unit 4 to obtain an estimated synthetic aperture radar image. Note that details of the Hasselman transform are disclosed in Non-Patent Document 3 and the like, and thus description thereof is omitted. The evaluation comparison unit 6 compares the estimated synthetic aperture radar image input from the Hasselman conversion unit 5 with the actual measurement image stored in the actual measurement image storage unit 7, and the verification target image read by the reading unit 1 is captured. The estimated date and time are estimated and output as estimated date and time information.

実測画像記憶部7は、あらかじめ所定の時間間隔τ(例えば、2時間毎など)で、所定の空間を撮影した撮影画像の電子データ(以下、実測画像データと称する)を、撮影された日時情報や位置情報と共に格納する。時刻を示す時間情報と共に格納する。なお、図1では実測画像記憶部7を画像処理装置10内に設ける構成を示したが、画像処理装置10外の記憶手段として構成してもよい。
なお、この実施の形態1では、図1に示すようにユーザから検証対象画像が撮影された日付や大まかな撮影場所に関する情報が提供され、提供された情報から候補領域Lおよび候補時間帯Tを設定し、検証対象画像の撮影時刻を推定するものとする。
The measured image storage unit 7 captures electronic data (hereinafter referred to as measured image data) of a photographed image obtained by photographing a predetermined space at a predetermined time interval τ (for example, every two hours) in advance. And location information. Stored together with time information indicating the time. Although FIG. 1 shows a configuration in which the measured image storage unit 7 is provided in the image processing apparatus 10, it may be configured as a storage unit outside the image processing apparatus 10.
In the first embodiment, as shown in FIG. 1, the user is provided with information about the date when the verification target image was taken and a rough shooting location, and the candidate area L and the candidate time zone T are determined from the provided information. It is set to estimate the shooting time of the verification target image.

図2は、実施の形態1による画像処理装置の動作を示すフローチャートである。
読込部1は、検証対象画像を読み込み電子データに変換する(ステップST1)。
分離部2は、ステップST1で変換された検証対象画像の電子データを移動体画像と背景画像に分離する(ステップST2)。スケール推定部3は、ステップST2で分離された移動物体画像の移動体形状から移動体の種別および大きさを推定し、検証対象画像の縮尺を推定する(ステップST3)。さらにスケール推定部3は、ステップST3で推定した検証対象画像の縮尺およびステップST2で分離された背景画像に基づいて海面波の3次元画像を生成する(ステップST4)。FFT処理部4は、海面波の3次元画像に高速フーリエ変換を行い、海面波スペクトラムを取得する(ステップST5)。ハッセルマン変換部5は、海面波スペクトラムにハッセルマン変換を行い、推定合成開口レーダ画像を取得する(ステップST6)。評価比較部6は、ステップST6で取得された推定合成開口レーダ画像と、実測画像記憶部7に記憶された候補領域Lおよび候補時間帯Tの条件を満たす実測画像とを比較し、検証対象の撮影画像が撮影された時刻を推定し(ステップST7)、推定した時刻を推定日時情報として出力し(ステップST8)、処理を終了する。
FIG. 2 is a flowchart showing the operation of the image processing apparatus according to the first embodiment.
The reading unit 1 reads the verification target image and converts it into electronic data (step ST1).
The separation unit 2 separates the electronic data of the verification target image converted in step ST1 into a moving body image and a background image (step ST2). The scale estimation unit 3 estimates the type and size of the moving object from the moving object shape of the moving object image separated in step ST2, and estimates the scale of the verification target image (step ST3). Furthermore, the scale estimation unit 3 generates a three-dimensional image of sea surface waves based on the scale of the verification target image estimated in step ST3 and the background image separated in step ST2 (step ST4). The FFT processing unit 4 performs a fast Fourier transform on the three-dimensional image of the sea surface wave, and acquires a sea surface wave spectrum (step ST5). The Hasselman transform unit 5 performs Hasselman transform on the sea surface wave spectrum and acquires an estimated synthetic aperture radar image (step ST6). The evaluation comparison unit 6 compares the estimated synthetic aperture radar image acquired in step ST6 with the actual measurement image satisfying the candidate region L and the candidate time zone T stored in the actual measurement image storage unit 7, and the verification target The time when the captured image was captured is estimated (step ST7), the estimated time is output as estimated date and time information (step ST8), and the process is terminated.

次に、評価比較部6の詳細について説明する。
図1に示すように、評価比較部6は、類似性算出部61、類似性テーブル記憶部62および推定時刻算出部63で構成されている。
類似性算出部61には、外部より候補領域Lおよび候補時間帯Tに関する情報が入力される。類似性算出部61は、入力された候補領域Lおよび候補時間帯Tの条件を満たす複数の実測画像を実測画像記憶部7から読み込み、読み込んだ実測画像と、ハッセルマン変換部5から入力される推定合成開口レーダ画像との類似性を示す類似度を算出する。類似性の代表的な算出方法は、二次元の画素毎の相関をとる方法であるが、その他の一般的な方法を適用してもよい。さらに類似性算出部61は、実測画像の撮影時刻と算出した類似度とを対応付けて示した類似性テーブルを作成し、類似性テーブル記憶部62に格納する。
Next, details of the evaluation comparison unit 6 will be described.
As shown in FIG. 1, the evaluation comparison unit 6 includes a similarity calculation unit 61, a similarity table storage unit 62, and an estimated time calculation unit 63.
Information on the candidate region L and the candidate time zone T is input to the similarity calculation unit 61 from the outside. The similarity calculation unit 61 reads a plurality of actually measured images that satisfy the conditions of the input candidate region L and candidate time zone T from the actually measured image storage unit 7, and inputs the read actual images and the Hasselman conversion unit 5. A similarity indicating similarity to the estimated synthetic aperture radar image is calculated. A typical calculation method of similarity is a method of obtaining a correlation for each two-dimensional pixel, but other general methods may be applied. Further, the similarity calculation unit 61 creates a similarity table in which the actual image capturing time and the calculated similarity are associated with each other, and stores the similarity table in the similarity table storage unit 62.

図3は、実施の形態1による画像処理装置の類似性テーブル記憶部に記憶される類似性テーブルの一例を示す図である。
類似性テーブルは、ある日付の位置c1における時刻tでの推定合成開口レーダ画像と実測画像の類似性を示す表である。図3の例では時刻tは6:00、8:00、・・・、20:00に対応した各類似度が格納されている。時刻tは、候補時間帯Tの条件を満たす実測画像が撮影された時刻であり、所定の時間間隔τで撮影されていることを示している。図3の例では時間間隔τ=2:00で撮影された実測画像との類似度が算出されている。類似度は、推定合成開口レーダ画像と実測画像との相関値(0≦類似度≦1)を示し、類似度=0の場合には相関が無く、類似度=1の場合には相関が強いことを示している。
なお、図3の例では、時刻tと類似度とを対応付けた類似性テーブルを示しているが、日付情報や位置情報などその他の情報も対応付けて格納することが可能である。
FIG. 3 is a diagram illustrating an example of a similarity table stored in the similarity table storage unit of the image processing apparatus according to the first embodiment.
The similarity table is a table showing the similarity between the estimated synthetic aperture radar image and the measured image at time t at a position c1 on a certain date. In the example of FIG. 3, the similarities corresponding to 6:00, 8:00,..., 20:00 are stored at time t. The time t is the time when the actual measurement image that satisfies the condition of the candidate time zone T is captured, and indicates that the image is captured at a predetermined time interval τ. In the example of FIG. 3, the degree of similarity with the actually measured image taken at the time interval τ = 2: 00 is calculated. The similarity indicates a correlation value (0 ≦ similarity ≦ 1) between the estimated synthetic aperture radar image and the actually measured image. When similarity = 0, there is no correlation, and when similarity = 1, the correlation is strong. It is shown that.
In the example of FIG. 3, a similarity table in which the time t and the similarity are associated with each other is shown, but other information such as date information and position information can also be associated and stored.

推定時刻算出部63は、類似性テーブル記憶部62に格納された類似性テーブルを参照し、類似度が最大となる時刻t1および類似度が2番目に大きくなる時刻t2を選択し、選択した時刻t1およびt2に基づいて検証対象画像の撮影時刻を推定する。
図3(a)に示す類似性テーブルを参照した場合、時刻t1として時刻12:00が選択され、時刻t2として時刻14:00が選択される。同様に、図3(b)に示す類似性テーブルを参照した場合、時刻t1として時刻18:00が選択され、時刻t2として時刻6:00が選択される。
The estimated time calculation unit 63 refers to the similarity table stored in the similarity table storage unit 62, selects the time t1 at which the similarity is the maximum and the time t2 at which the similarity is the second largest, and the selected time The photographing time of the verification target image is estimated based on t1 and t2.
When referring to the similarity table shown in FIG. 3A, time 12:00 is selected as time t1, and time 14:00 is selected as time t2. Similarly, when referring to the similarity table shown in FIG. 3B, time 18:00 is selected as time t1, and time 6:00 is selected as time t2.

次に、評価比較部6の動作を図4および図5を参照しながら説明する。
図4は、実施の形態1による画像処理装置の類似性算出部の動作を示すフローチャートである。
類似性算出部61は、ハッセルマン変換部5から推定合成開口レーダ画像が入力されると(ステップST11)、実測画像記憶部7から時刻t、位置cの実測画像を取得する(ステップST12)。次に、ステップST11で取得した推定合成開口レーダ画像と、ステップST12で取得した実測画像の類似度を算出し(ステップST13)、算出した類似度と実測画像の撮影時刻を示す時刻tとを関連付けて類似性テーブルに書き込む(ステップST14)。その後、検証対象の撮影画像が撮影されたと考えられる候補時間内の全ての時刻tについて類似度を算出したか否か判定する(ステップST15)。全ての時刻tについて類似度を算出していない(ステップST15;NO)場合、時刻tに時間間隔τを加算し(ステップST16)、ステップST12の処理に戻る。一方、全ての時刻tについて類似度を算出した(ステップST15;YES)場合、類似性テーブルを類似性テーブル記憶部62に格納し(ステップST17)、処理を終了する。
Next, the operation of the evaluation comparison unit 6 will be described with reference to FIGS.
FIG. 4 is a flowchart showing the operation of the similarity calculation unit of the image processing apparatus according to the first embodiment.
When the estimated synthetic aperture radar image is input from the Hasselman conversion unit 5 (step ST11), the similarity calculation unit 61 acquires the actual measurement image at time t and position c from the actual measurement image storage unit 7 (step ST12). Next, the similarity between the estimated synthetic aperture radar image acquired in step ST11 and the actually measured image acquired in step ST12 is calculated (step ST13), and the calculated similarity is associated with the time t indicating the shooting time of the actually measured image. Is written in the similarity table (step ST14). Thereafter, it is determined whether or not the similarity has been calculated for all the times t within the candidate time during which the captured image to be verified is captured (step ST15). When the similarity is not calculated for all times t (step ST15; NO), the time interval τ is added to the time t (step ST16), and the process returns to step ST12. On the other hand, when the similarity is calculated for all times t (step ST15; YES), the similarity table is stored in the similarity table storage unit 62 (step ST17), and the process is terminated.

図5は、実施の形態1による画像処理装置の推定時刻算出部の動作を示すフローチャートである。
推定時刻算出部63は、類似性テーブル記憶部62に記憶された類似性テーブルを参照し、候補時間帯Tの全ての類似度を読み込む(ステップST21)。ステップST21で読み込んだ類似度のうち、類似度が最大となる時刻t1を選択し(ステップST22)、さらに類似度が2番目に高い時刻t2を選択する(ステップST23)。続いて推定時刻算出部63は、ステップST22で選択した時刻t1と、ステップST23で選択した時刻t2が隣り合う時刻であるか否か、すなわち時刻t1と時刻t2の差が時間間隔τであるか否か判定を行う(ステップST24)。
FIG. 5 is a flowchart showing the operation of the estimated time calculation unit of the image processing apparatus according to the first embodiment.
The estimated time calculation unit 63 refers to the similarity table stored in the similarity table storage unit 62, and reads all similarities in the candidate time zone T (step ST21). Of the similarities read in step ST21, a time t1 at which the similarity is the maximum is selected (step ST22), and a time t2 having the second highest similarity is selected (step ST23). Subsequently, the estimated time calculation unit 63 determines whether or not the time t1 selected in step ST22 and the time t2 selected in step ST23 are adjacent times, that is, the difference between the time t1 and the time t2 is the time interval τ. It is determined whether or not (step ST24).

時刻t1と時刻t2が隣り合う時刻である場合(ステップST24;YES)、時刻t1と時刻t2との間に類似度が「1」となる時刻が存在すると仮定し、時刻t1と時刻t2の類似度の差分で、時刻t1と時刻t2の間で重み付けを行った時刻twを算出し(ステップST25)、算出した時刻twを推定日時情報として出力し(ステップST26)、処理を終了する。一方、時刻t1と時刻t2が隣り合う時刻でない場合(ステップST24;NO)、時刻t1と時刻t2の2値を推定日時情報として出力し(ステップST27)、処理を終了する。   When the time t1 and the time t2 are adjacent times (step ST24; YES), it is assumed that there is a time when the similarity is “1” between the time t1 and the time t2, and the similarity between the time t1 and the time t2 The time tw that is weighted between the time t1 and the time t2 is calculated based on the degree difference (step ST25), the calculated time tw is output as the estimated date and time information (step ST26), and the process ends. On the other hand, when the time t1 and the time t2 are not adjacent times (step ST24; NO), the binary values of the time t1 and the time t2 are output as estimated date and time information (step ST27), and the process is terminated.

図5のフローチャートで示した動作を、図3で示した類似性テーブルの具体例を用いて説明する。
まず、図3(a)の類似性テーブルを参照する場合について説明する。
推定時刻算出部63は、ステップST22,23として最大の類似度「0.9」を有する時刻12:00を時刻t1に選択し、2番目に大きい類似度「0.7」を有する時刻14:00を時刻t2に選択する。ステップST24;YESとして、時刻t1=12:00と時刻t2=14:00の時間間隔がτ=2:00であると判定されることから、ステップST25の処理に進む。ステップST25として、類似度(t1)=0.9と類似度(t2)=0.7の差分で、時刻t1と時刻t2間の重み付けを行った時刻tw=12:30を算出する。時刻twの算出を図6に示している。ステップST26として算出した時刻twを推定日時情報として出力する。
The operation shown in the flowchart of FIG. 5 will be described using a specific example of the similarity table shown in FIG.
First, the case of referring to the similarity table of FIG.
The estimated time calculation unit 63 selects the time 12:00 having the maximum similarity “0.9” as the time ST1 as steps ST22 and ST23, and the time 14 having the second largest similarity “0.7”: 00 is selected at time t2. Step ST24; YES, since it is determined that the time interval between time t1 = 12: 00 and time t2 = 14: 00 is τ = 2: 00, the process proceeds to step ST25. As step ST25, the time tw = 12: 30 is calculated by weighting between the time t1 and the time t2 with the difference between the similarity (t1) = 0.9 and the similarity (t2) = 0.7. The calculation of the time tw is shown in FIG. The time tw calculated as step ST26 is output as estimated date and time information.

次に、図3(b)の類似性テーブルを参照する場合について説明する。
推定時刻算出部63は、ステップST22,23として最大の類似度「0.9」を有する時刻18:00を時刻t1に選択し、2番目に大きい類似度「0.8」を有する時刻6:00を時刻t2に選択する。ステップST24;NOとして、時刻t1=18:00と時刻t2=6:00の時間間隔がτ=2:00でないと判定されることから、ステップST26として時刻t1=18:00と時刻t2=6:00の2値を推定日時情報として出力する。
Next, the case of referring to the similarity table of FIG.
The estimated time calculation unit 63 selects time 18:00 having the maximum similarity “0.9” as the time ST1 as steps ST22 and ST23, and time 6 having the second largest similarity “0.8”: 00 is selected at time t2. Step ST24; NO, since it is determined that the time interval between time t1 = 18: 00 and time t2 = 6: 00 is not τ = 2: 00, time t1 = 18: 00 and time t2 = 6 as step ST26. : 00 binary value is output as estimated date and time information.

以上のように、この実施の形態1によれば、移動体画像の移動体の形状から検証対象画像の縮尺を推定し、推定した縮尺に基づいて背景画像から海面波の3次元画像を生成するスケール推定部3と、海面波スペクトラムを取得するFFT処理部4と、海面波スペクトラムから推定合成開口レーダ画像を取得するハッセルマン変換部5と、推定合成開口レーダ画像と実測画像とを比較し、検証対象画像が撮影された時刻を推定する評価比較部6とを備えるように構成したので、移動体画像と背景画像の海面波から、検証対象画像が撮影された時刻を推定することができる。具体的には、撮影時刻が既知の合成開口レーダ画像と、撮影時刻が未知の海面上の移動体の2次元画像とを、当該移動体を基準として相互に比較し、2次元画像の撮影時刻を推定することができる。   As described above, according to the first embodiment, the scale of the verification target image is estimated from the shape of the moving body of the moving body image, and a three-dimensional sea surface wave is generated from the background image based on the estimated scale. The scale estimation unit 3, the FFT processing unit 4 for acquiring the sea surface wave spectrum, the Hasselman conversion unit 5 for acquiring the estimated synthetic aperture radar image from the sea surface wave spectrum, the estimated synthetic aperture radar image and the measured image are compared, Since the evaluation comparison unit 6 that estimates the time at which the verification target image is captured is provided, the time at which the verification target image is captured can be estimated from the sea wave of the moving body image and the background image. Specifically, a synthetic aperture radar image with a known photographing time and a two-dimensional image of a moving body on the sea surface with an unknown photographing time are compared with each other based on the moving object, and the photographing time of the two-dimensional image is obtained. Can be estimated.

また、この実施の形態1によれば、複数の実測画像と推定合成開口レーダ画像との類似性を示す類似度を算出し、算出した類似度と実測画像の撮影時刻とを対応付けて示した類似性テーブルを作成する類似性算出部61と、類似度が最大となる時刻t1および類似度が2番目に大きくなる時刻t2を選択し、選択した時刻t1およびt2に基づいて検証対象画像の撮影時刻を推定する推定時刻算出部63とを備えるように構成したので、画像の類似性に基づいて検証対象画像が撮影された時刻を推定することができる。   Further, according to the first embodiment, the similarity indicating the similarity between the plurality of actually measured images and the estimated synthetic aperture radar image is calculated, and the calculated similarity and the photographing time of the actually measured image are shown in association with each other. The similarity calculation unit 61 that creates the similarity table, the time t1 at which the degree of similarity is the maximum, and the time t2 at which the degree of similarity is the second largest are selected, and the verification target image is captured based on the selected times t1 and t2. Since it is configured to include the estimated time calculation unit 63 that estimates the time, it is possible to estimate the time when the verification target image was captured based on the similarity of the images.

このように、実施の形態1によれば、背景画像の海面波を用いて海面状の移動体が撮影された時刻を推定する際に、合成開口レーダの画像では、船舶などの移動物体と背景との相互位置が実際とはずれて見える場合にも、正しい撮影時刻を算出することができる。これにより、船舶事故の船舶保険、海難審判、環境損害賠償などの判断資料あるいは参考資料として提出される事故状況の写真と、船舶からの申告情報(時間、場所等)が正しいか否か判定することができる。   As described above, according to the first embodiment, when estimating the time when the sea-like moving body is captured using the sea wave of the background image, the synthetic aperture radar image uses the moving object such as a ship and the background. The correct shooting time can be calculated even when the mutual position of the image appears to deviate from the actual position. As a result, it is judged whether or not the accident situation photo and the report information (time, place, etc.) submitted by the ship are correct, as well as a judgment document for ship accidents, marine accident trials, compensation for environmental damage, etc. or reference materials. be able to.

なお、上述した実施の形態1では、外部から候補領域Lおよび候補時間帯Tに関する情報が評価比較部6に入力される構成を示したが、これらの情報の入力が行われず、実測画像記憶部7に記憶された全ての実測画像と推定合成開口レーダ画像とを比較して類似度を算出するように構成してもよい。また、検証対象画像が電子データで入力された場合には、当該電子データに含まれる撮影時刻から候補時間帯Tを設定してもよい。このように、候補領域Lおよび候補時間帯Tの設定方法は適宜変更可能である。   In the first embodiment described above, the configuration in which the information regarding the candidate region L and the candidate time zone T is input to the evaluation comparison unit 6 from the outside has been described. However, such information is not input, and the measured image storage unit 7 may be configured to compare all the measured images stored in 7 and the estimated synthetic aperture radar image to calculate the similarity. In addition, when the verification target image is input as electronic data, the candidate time zone T may be set from the shooting time included in the electronic data. Thus, the setting method of the candidate area | region L and the candidate time slot | zone T can be changed suitably.

実施の形態2.
上述した実施の形態1では、検証対象画像から取得した海面波スペクトラムに対して、ハッセルマン変換を行う構成を示したが、この実施の形態2では実測画像記憶部7に記憶された実測画像にハッセルマン逆変換を行う構成を示す。
図7は、実施の形態2の画像処理装置の構成を示すブロック図である。なお、以下では、実施の形態1による画像処理装置10の構成要素と同一または相当する部分には実施の形態1で使用した符号と同一の符号を付して説明を省略または簡略化する。
Embodiment 2. FIG.
In the first embodiment described above, the configuration for performing the Hasselman transform on the sea surface wave spectrum acquired from the verification target image is shown. However, in the second embodiment, the actual measurement image stored in the actual measurement image storage unit 7 is displayed. The structure which performs Hasselman reverse transformation is shown.
FIG. 7 is a block diagram illustrating a configuration of the image processing apparatus according to the second embodiment. In the following description, the same or corresponding parts as the components of the image processing apparatus 10 according to the first embodiment are denoted by the same reference numerals as those used in the first embodiment, and description thereof is omitted or simplified.

まず、読込部1からFFT処理部4は実施の形態1と同一の構成である。なお、この実施の形態2では、FFT処理部4が生成した海面波スペクトラムを、検証対象海面波スペクトラムと称する。この検証対象海面波スペクトラムは、評価比較部6´の類似性算出部61´に出力される。
ハッセルマン逆変換部8は、読込部1から検証対象画像の読み込みを示す読み込み情報が入力されると、実測画像記憶部7から読み出した実測画像に、ハッセルマン逆変換を施し、実測画像海面波スペクトラムを取得する。取得した実測画像海面波スペクトラムは、日時情報や位置情報などと共に海面波スペクトラム記憶部9に記憶する。ハッセルマン逆変換の詳細は非特許文献3などに開示されているため、記載を省略する。
なお、この実施の形態2では、図7に示すようにユーザから検証対象画像が撮影された日付や大まかな撮影場所に関する情報が提供され、提供された情報から候補領域Lおよび候補時間帯Tを設定し、検証対象画像の撮影時刻を推定するものとする。
First, the reading unit 1 to the FFT processing unit 4 have the same configuration as that of the first embodiment. In the second embodiment, the sea surface wave spectrum generated by the FFT processing unit 4 is referred to as a verification target sea surface wave spectrum. This sea surface wave spectrum to be verified is output to the similarity calculation unit 61 ′ of the evaluation comparison unit 6 ′.
When the reading information indicating the reading of the verification target image is input from the reading unit 1, the Hasselman inverse transformation unit 8 performs Hasselman inverse transformation on the actual measurement image read from the actual measurement image storage unit 7, and the actual measurement image sea wave Get the spectrum. The acquired actual measurement image sea surface wave spectrum is stored in the sea surface wave spectrum storage unit 9 together with date and time information and position information. Details of the Hasselman inverse transform are disclosed in Non-Patent Document 3 and the like, and thus the description thereof is omitted.
In the second embodiment, as shown in FIG. 7, the user is provided with information on the date when the verification target image was taken and the rough shooting location, and the candidate area L and the candidate time zone T are determined from the provided information. It is set to estimate the shooting time of the verification target image.

評価比較部6´は、類似性算出部61´、類似性テーブル記憶部62および推定時刻算出部63で構成される。類似性算出部61´は、FFT処理部4から入力される検証対象海面波スペクトラムと、海面波スペクトラム記憶部9に記憶された複数の実測画像海面波スペクトラムとの類似度を算出し、実測画像の撮影時刻と算出した類似度とを対応付けて示した類似性テーブルを作成し、類似性テーブル記憶部62に格納する。推定時刻算出部63が、類似性テーブルに基づいて検証対象の撮影時刻を推定する処理は実施の形態1と同様であり、二次元の画素毎の相関をとる方法や、その他の一般的な方法を適用可能である。   The evaluation comparison unit 6 ′ includes a similarity calculation unit 61 ′, a similarity table storage unit 62, and an estimated time calculation unit 63. The similarity calculation unit 61 ′ calculates the similarity between the verification-target sea surface wave spectrum input from the FFT processing unit 4 and a plurality of actually measured image sea surface wave spectra stored in the sea surface wave spectrum storage unit 9. A similarity table in which the photographing time and the calculated similarity are associated with each other is created and stored in the similarity table storage unit 62. The process by which the estimated time calculation unit 63 estimates the photographing time to be verified based on the similarity table is the same as that in the first embodiment, and a method for obtaining a correlation for each two-dimensional pixel, and other general methods Is applicable.

次に、実施の形態2の画像処理装置10´の動作について説明する。
図8は、実施の形態2の画像処理装置の動作を示すフローチャートである。なお、実施の形態1による画像処理装置10と同一のステップには図2で使用した符号と同一の符号を付し、説明を省略または簡略化する。
FFT処理部4は、ステップST4で生成された海面波の3次元画像に高速フーリエ変換を行い、検証対象海面波スペクトラムを取得する(ステップST5´)。
一方、ステップST1において検証対象画像が読み込まれると、ハッセルマン逆変換部8は、実測画像記憶部7から候補領域Lおよび候補時間帯Tの条件を満たす実測画像を取得し(ステップST31)、取得した実測画像にハッセルマン逆変換を施し、実測画像海面波スペクトラムを取得し、日時情報や位置情報などと共に海面波スペクトラム記憶部9に格納する(ステップST32)。
Next, the operation of the image processing apparatus 10 ′ according to the second embodiment will be described.
FIG. 8 is a flowchart showing the operation of the image processing apparatus according to the second embodiment. The same steps as those of the image processing apparatus 10 according to the first embodiment are denoted by the same reference numerals as those used in FIG. 2, and the description thereof is omitted or simplified.
The FFT processing unit 4 performs fast Fourier transform on the three-dimensional image of the sea surface wave generated in step ST4, and obtains a verification target sea surface wave spectrum (step ST5 ').
On the other hand, when the verification target image is read in step ST1, the Hasselman inverse transform unit 8 acquires a measured image satisfying the candidate region L and the candidate time zone T from the measured image storage unit 7 (step ST31). The actually measured image is subjected to Hasselman inverse transformation to acquire the actually measured image sea surface wave spectrum and stored in the sea surface wave spectrum storage unit 9 together with the date and time information and the position information (step ST32).

評価比較部6´は、ステップST31で格納された実測画像海面波スペクトラムと、ステップST5´で取得された検証対象画像海面波スペクトラムとを比較して検証対象画像が撮影された時刻を推定し(ステップST33)、推定した時刻を推定日時情報として出力し(ステップST8)、処理を終了する。   The evaluation comparison unit 6 ′ estimates the time when the verification target image was captured by comparing the actually measured image sea surface wave spectrum stored in step ST31 with the verification target image sea surface wave spectrum acquired in step ST5 ′. Step ST33), the estimated time is output as estimated date and time information (step ST8), and the process is terminated.

次に、ハッセルマン逆変換部8の動作について説明する。
図9は、実施の形態2の画像処理装置のハッセルマン逆変換部の動作を示すフローチャートである。
ハッセルマン逆変換部8は、実測画像記憶部7から候補領域Lおよび候補時間帯Tの条件を満たす時刻t、位置cの実測画像を読み出す(ステップST41)。ステップST41で読み出した実測画像にハッセルマン逆変換を行って実測画像海面波スペクトラムを取得し(ステップST42)、取得した実測画像海面波スペクトラムを日時情報や位置情報などと共に海面波スペクトラム記憶部9に格納する(ステップST43)。その後、候補時間帯Tの全ての時刻の実測画像について実測画像海面波スペクトラムを取得したか否か判定する(ステップST44)。全ての時刻の実測画像について実測画像海面波スペクトラムを取得していない場合(ステップST44;NO)、時刻tに時間間隔τを加算し(ステップST45)、ステップST41の処理に戻る。一方、全ての時刻の実測画像について実測画像海面波スペクトラムを取得した場合(ステップST44;YES)、処理を終了する。
Next, the operation of the Hasselman inverse transform unit 8 will be described.
FIG. 9 is a flowchart illustrating the operation of the Hasselman inverse transform unit of the image processing apparatus according to the second embodiment.
The Hasselman inverse transform unit 8 reads the measured image at time t and position c that satisfy the conditions of the candidate region L and the candidate time zone T from the measured image storage unit 7 (step ST41). The actual measurement image read out in step ST41 is subjected to Hasselman inverse transform to acquire the actual measurement image sea surface wave spectrum (step ST42). Store (step ST43). Thereafter, it is determined whether or not the measured image sea surface wave spectrum has been acquired for the measured images at all times in the candidate time zone T (step ST44). When the measured image sea surface wave spectrum is not acquired for the measured images at all times (step ST44; NO), the time interval τ is added to the time t (step ST45), and the process returns to step ST41. On the other hand, when the measured image sea surface wave spectrum is acquired for the measured images at all times (step ST44; YES), the process is terminated.

次に、評価比較部6´の類似性算出部61´の動作について説明する。
図10は、実施の形態2の画像処理装置の類似性算出部の動作を示すフローチャートである。なお、実施の形態1の類似性算出部61と同一のステップには図4で使用した符号と同一の符号を付し、説明を省略または簡略化する。
類似性算出部61´は、FFT処理部4から検証対象海面波スペクトラムが入力されると(ステップST51)、海面波スペクトラム記憶部9から時刻t、位置cの実測画像海面波スペクトラムを取得する(ステップST52)。次に、ステップST51で取得した検証対象海面波スペクトラムと、ステップST52で取得した実測画像海面波スペクトラムの類似度を算出し(ステップST53)、算出した類似度と実測画像の撮影時刻を示す時刻tとを関連付けて類似性テーブルに書き込む(ステップST14)。その後、候補時間帯T内の全ての時刻tについて類似度を算出したか否か判定を行う(ステップST15)。全ての時刻tについて類似度を算出していない(ステップST15;NO)場合、時刻tに時間間隔τを加算し(ステップST16)、ステップST52の処理に戻る。一方、全ての時刻tについて類似度を算出した(ステップST15;YES)場合、類似性テーブルを類似性テーブル記憶部62に格納し(ステップST17)、処理を終了する。
Next, the operation of the similarity calculation unit 61 ′ of the evaluation comparison unit 6 ′ will be described.
FIG. 10 is a flowchart illustrating the operation of the similarity calculation unit of the image processing apparatus according to the second embodiment. Note that the same steps as those in the similarity calculation unit 61 of the first embodiment are denoted by the same reference numerals as those used in FIG. 4, and the description thereof is omitted or simplified.
When the verification target sea surface wave spectrum is input from the FFT processing unit 4 (step ST51), the similarity calculating unit 61 ′ obtains an actually measured image sea surface wave spectrum at time t and position c from the sea surface wave spectrum storage unit 9 ( Step ST52). Next, the similarity between the verification-target sea surface wave spectrum acquired in step ST51 and the actually measured image sea surface wave spectrum acquired in step ST52 is calculated (step ST53). And are written in the similarity table (step ST14). Thereafter, it is determined whether or not the similarity is calculated for all times t in the candidate time zone T (step ST15). When the similarity is not calculated for all times t (step ST15; NO), the time interval τ is added to the time t (step ST16), and the process returns to step ST52. On the other hand, when the similarity is calculated for all times t (step ST15; YES), the similarity table is stored in the similarity table storage unit 62 (step ST17), and the process is terminated.

上述した類似性算出部61´が生成した類似性テーブルを用いた推定時刻算出部63の処理動作は、実施の形態1と同一であるため、説明を省略する。   Since the processing operation of the estimated time calculation unit 63 using the similarity table generated by the similarity calculation unit 61 ′ described above is the same as that in the first embodiment, description thereof is omitted.

以上のように、この実施の形態2によれば、移動体画像の移動体の形状から検証対象画像の縮尺を推定し、推定した縮尺に基づいて背景画像から海面波の3次元画像を生成するスケール推定部3と、海面波スペクトラムを取得するFFT処理部4と、実測画像にハッセルマン逆変換処理を施し、実測画像海面波スペクトラムを取得するハッセルマン逆変換部8と、検証対象海面波スペクトラムと実測画像海面波スペクトラムとを比較し、検証対象画像が撮影された時刻を推定する評価比較部6´とを備えるように構成したので、移動体画像と背景画像の海面波から、検証対象画像が撮影された時刻を推定することができる。具体的には、撮影時刻が既知の実測画像海面波スペクトラムと、撮影時刻が未知の検証対象海面波スペクトラムとを、検証対象画像中の移動体を基準として相互に比較し、検証対象画像の撮影時刻を推定することができる。   As described above, according to the second embodiment, the scale of the verification target image is estimated from the shape of the moving body of the moving body image, and a three-dimensional image of the sea surface wave is generated from the background image based on the estimated scale. Scale estimation unit 3, FFT processing unit 4 that acquires the sea surface wave spectrum, Hasselman inverse transform processing that performs the Hasselman inverse transform process on the measured image and acquires the measured image sea surface wave spectrum, and the sea surface wave spectrum to be verified And the evaluation image sea surface wave spectrum, and the evaluation comparison unit 6 ′ for estimating the time at which the verification target image was captured is provided. Therefore, the verification target image is obtained from the sea wave of the moving body image and the background image. Can be estimated. Specifically, the sea surface wave spectrum of the measured image with the known shooting time and the sea surface wave spectrum of the verification target with the unknown shooting time are compared with each other based on the moving object in the verification target image, and the verification target image is shot. Time can be estimated.

また、この実施の形態2によれば、検証対象海面波スペクトラムと実測画像海面波スペクトラムとの類似性を示す類似度を算出し、算出した類似度と実測画像の撮影時刻とを対応付けて示した類似性テーブルを作成する類似性算出部61´と、類似度が最大となる時刻t1および類似度が2番目に大きくなる時刻t2を選択し、選択した時刻t1およびt2に基づいて検証対象画像の撮影時刻を推定する推定時刻算出部63とを備えるように構成したので、画像の類似性に基づいて検証対象画像が撮影された時刻を推定することができる。   Further, according to the second embodiment, the similarity indicating the similarity between the verification target sea surface wave spectrum and the actually measured image sea surface wave spectrum is calculated, and the calculated similarity and the photographing time of the actually measured image are shown in association with each other. The similarity calculation unit 61 ′ that creates the similarity table, the time t1 at which the degree of similarity becomes maximum, and the time t2 at which the degree of similarity becomes the second largest are selected, and the verification target image is based on the selected times t1 and t2. The estimated time calculation unit 63 that estimates the shooting time is provided, so that the time when the verification target image was shot can be estimated based on the similarity of the images.

このように、実施の形態2によれば、背景画像の海面波を用いて海面状の移動体が撮影された時刻を推定する際に、検証対象海面波スペクトラムでは、船舶などの移動物体と背景との相互位置が実際とはずれて見える場合にも、正しい撮影時刻を算出することができる。これにより、船舶事故の船舶保険、海難審判、環境損害賠償などの判断資料あるいは参考資料として提出される事故状況の写真と、船舶からの申告情報(時間、場所等)が正しいか否か判定することができる。   As described above, according to the second embodiment, when estimating the time when a sea surface-like moving body is captured using the sea surface wave of the background image, the verification target sea surface wave spectrum uses the moving object such as a ship and the background. The correct shooting time can be calculated even when the mutual position of the image appears to deviate from the actual position. As a result, it is judged whether or not the accident situation photo and the report information (time, place, etc.) submitted by the ship are correct, as well as a judgment document for ship accidents, marine accident trials, compensation for environmental damage, etc. or reference materials. be able to.

なお、上述した実施の形態2では、外部から候補領域Lおよび候補時間帯Tに関する情報がハッセルマン逆変換部8に入力される構成を示したが、これらの情報の入力が行われず、実測画像記憶部7に記憶された全ての実測画像に対してハッセルマン逆変換を施して実測画像海面波スペクトラムを取得し、類似性算出部61´が類似度を算出するように構成してもよい。また、検証対象画像が電子データで入力された場合には、当該電子データに含まれる撮影時刻から候補時間帯Tを設定してもよい。このように、候補領域Lおよび候補時間帯Tの設定方法は適宜変更可能である。   In the above-described second embodiment, the configuration in which information related to the candidate region L and the candidate time zone T is input to the Hasselman inverse transform unit 8 from the outside has been described. It may be configured such that the Hasselman inverse transform is performed on all actually measured images stored in the storage unit 7 to obtain the actually measured image sea surface wave spectrum, and the similarity calculating unit 61 ′ calculates the similarity. In addition, when the verification target image is input as electronic data, the candidate time zone T may be set from the shooting time included in the electronic data. Thus, the setting method of the candidate area | region L and the candidate time slot | zone T can be changed suitably.

また、上述した実施の形態1および実施の形態2では、候補領域Lに対して1つの位置cを割り当てる例を示したが、候補領域L内に複数の位置c1、c2、・・・cnを設定し、当該位置c1、c2、・・・cnと時刻tについて類似度を算出することも可能である。   In the first embodiment and the second embodiment described above, an example in which one position c is assigned to the candidate area L has been described. However, a plurality of positions c1, c2,. It is also possible to calculate the similarity for the positions c1, c2,... Cn and time t.

なお、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。   In the present invention, within the scope of the invention, any combination of the embodiments, or any modification of any component in each embodiment, or omission of any component in each embodiment is possible. .

1 読込部、2 分離部、3 スケール推定部、4 FFT処理部、5 ハッセルマン変換部、6,6´ 評価比較部、7 実測画像記憶部、8 ハッセルマン逆変換部、9 海面波スペクトラム記憶部、10、10´ 画像処理装置、61,61´ 類似性算出部、62 類似性テーブル記憶部、63 推定時刻算出部。   DESCRIPTION OF SYMBOLS 1 Reading part, 2 Separation part, 3 Scale estimation part, 4 FFT processing part, 5 Hasselman conversion part, 6,6 'Evaluation comparison part, 7 Actual measurement image storage part, 8 Hasselman reverse conversion part, 9 Sea surface wave spectrum storage Sections, 10, 10 ′ image processing apparatus, 61, 61 ′ similarity calculation section, 62 similarity table storage section, 63 estimated time calculation section.

Claims (4)

海面上の移動体を撮影した検証対象画像データを、前記移動体を示す移動体画像と前記移動体以外の海面波を含む背景画像とに分離する分離部と、
前記分離部が分離した移動体画像内の移動体の縮尺に基づいて、前記背景画像の海面波の3次元座標を推定するスケール推定部と、
前記スケール推定部が推定した海面波の3次元座標を高速フーリエ変換し、海面波スペクトラムを取得するFFT処理部と、
前記FFT処理部が取得した海面波スペクトラムをハッセルマン変換し、推定合成開口レーダ画像を取得するハッセルマン変換部と、
所定領域をあらかじめ設定された時間間隔で撮影した複数の実測画像を、撮影時刻と共に記憶する実測画像記憶部と、
前記ハッセルマン変換部が取得した推定合成開口レーダ画像と、前記実測画像記憶部に記憶された各実測画像との類似性を示す類似度を算出し、高い類似度を示す実測画像の撮影時刻を用いて前記検証対象画像データの撮影時刻を推定する評価比較部とを備えた画像処理装置。
A separation unit that separates verification target image data obtained by photographing a moving body on the sea surface into a moving body image indicating the moving body and a background image including sea waves other than the moving body;
A scale estimation unit that estimates the three-dimensional coordinates of the sea surface wave of the background image based on the scale of the moving body in the moving body image separated by the separation unit;
An FFT processing unit for performing a fast Fourier transform on the three-dimensional coordinates of the sea surface wave estimated by the scale estimation unit and obtaining a sea surface wave spectrum;
A Hasselman transform that obtains an estimated synthetic aperture radar image by Hasselman transforming the sea surface wave spectrum obtained by the FFT processor;
An actual image storage unit for storing a plurality of actual images obtained by imaging a predetermined area at a preset time interval together with an imaging time;
A similarity indicating the similarity between the estimated synthetic aperture radar image acquired by the Hasselman conversion unit and each measured image stored in the measured image storage unit is calculated, and the photographing time of the measured image indicating a high similarity is calculated. An image processing apparatus comprising: an evaluation comparison unit that estimates a photographing time of the verification target image data.
前記評価比較部は、
前記ハッセルマン変換部が取得した推定合成開口レーダ画像と、前記実測画像記憶部に記憶された各実測画像との前記類似度を算出し、算出した類似度と対応する前記実測画像の撮影時刻とを関連付けて示した類似性テーブルを作成する類似性算出部と、
前記類似性算出部が作成した類似性テーブルを記憶する類似性テーブル記憶部と、
前記類似性テーブル記憶部に記憶された類似性テーブルを参照し、類似度の高い上位2値を選択し、選択した2値の類似度に対応する2つの実測画像の撮影時刻が連続する場合に、前記選択した2値の類似度の大きさで重み付けを行い、類似度が最大となる撮影時刻を前記検証対象画像データの撮影時刻と推定し、前記選択した2値の類似度に対応する2つの実測画像の撮影時刻が連続しない場合に、該2つの実測画像の撮影時刻を前記検証対象画像データの撮影時刻と推定する評価比較部とを備えた請求項1記載の画像処理装置。
The evaluation comparison unit
The similarity between the estimated synthetic aperture radar image acquired by the Hasselman transform unit and each measured image stored in the measured image storage unit is calculated, and the photographing time of the measured image corresponding to the calculated similarity is calculated. A similarity calculation unit that creates a similarity table showing
A similarity table storage unit that stores a similarity table created by the similarity calculation unit;
When the similarity table stored in the similarity table storage unit is referenced, the top two values having the highest similarity are selected, and the shooting times of the two actually measured images corresponding to the selected binary similarity are consecutive. The selected binary similarity is weighted, and the shooting time at which the similarity is maximized is estimated as the shooting time of the verification target image data, and 2 corresponding to the selected binary similarity. The image processing apparatus according to claim 1, further comprising: an evaluation comparison unit that estimates a shooting time of the two actually measured images as a shooting time of the verification target image data when the shooting times of the two actually measured images are not continuous.
海面上の移動体を撮影した検証対象画像データを、前記移動体を示す移動体画像と前記移動体以外の海面波を含む背景画像とに分離する分離部と、
前記分離部が分離した移動体画像内の移動体の縮尺に基づいて、前記背景画像の海面波の3次元座標を推定するスケール推定部と、
前記スケール推定部が推定した海面波の3次元座標を高速フーリエ変換し、検証対象画像海面波スペクトラムを取得するFFT処理部と、
所定領域をあらかじめ設定された時間間隔で撮影した複数の実測画像を、撮影時刻と共に記憶する実測画像記憶部と、
前記実測画像記憶部に記憶された実測画像をハッセルマン逆変換し、実測画像海面波スペクトラムを取得するハッセルマン逆変換部と、
前記ハッセルマン逆変換部が取得した実測画像海面波スペクトラムを、撮影時刻と共に記憶する海面波スペクトラム記憶部と、
前記FFT処理部が取得した検証対象画像海面波スペクトラムと、前記海面波スペクトラム記憶部に記憶された実測画像海面波スペクトラムとの類似性を示す類似度を算出し、高い類似度を示す実測画像海面波スペクトラムを有する実測画像の撮影時刻を用いて前記検証対象画像データの撮影時刻を推定する評価比較部とを備えた画像処理装置。
A separation unit that separates verification target image data obtained by photographing a moving body on the sea surface into a moving body image indicating the moving body and a background image including sea waves other than the moving body;
A scale estimation unit that estimates the three-dimensional coordinates of the sea surface wave of the background image based on the scale of the moving body in the moving body image separated by the separation unit;
An FFT processing unit that performs fast Fourier transform on the three-dimensional coordinates of the sea surface wave estimated by the scale estimation unit, and obtains a verification target image sea surface wave spectrum;
An actual image storage unit for storing a plurality of actual images obtained by imaging a predetermined area at a preset time interval together with an imaging time;
Hasselman inverse transform of the actual measurement image stored in the actual measurement image storage unit to obtain the actual measurement image sea surface wave spectrum; and
The sea surface wave spectrum storage unit that stores the measured image sea surface wave spectrum acquired by the Hasselman inverse transform unit together with the photographing time;
Calculate the similarity indicating the similarity between the verification target image sea surface wave spectrum acquired by the FFT processing unit and the actual image sea surface wave spectrum stored in the sea surface wave spectrum storage unit, and measure the actual image sea surface indicating the high similarity An image processing apparatus comprising: an evaluation comparison unit configured to estimate a shooting time of the verification target image data using a shooting time of an actually measured image having a wave spectrum.
前記評価比較部は、
前記FFT処理部が取得した検証対象画像海面波スペクトラムと、前記海面波スペクトラム記憶部に記憶された実測画像海面波スペクトラムとの前記類似度を算出し、算出した類似度と対応する前記実測画像の撮影時刻とを関連付けて示した類似性テーブルを作成する類似性算出部と、
前記類似性算出部が作成した類似性テーブルを記憶する類似性テーブル記憶部と、
前記類似性テーブル記憶部に記憶された類似性テーブルを参照し、類似度の高い上位2値を選択し、選択した2値の類似度に対応する2つの実測画像の撮影時刻が連続する場合に、前記選択した2値の類似度の大きさで重み付けを行い、類似度が最大となる撮影時刻を前記検証対象画像データの撮影時刻と推定し、前記選択した2値の類似度に対応する2つの実測画像の撮影時刻が連続しない場合に、該2つの実測画像の撮影時刻を前記検証対象画像データの撮影時刻と推定する評価比較部とを備えた請求項3記載の画像処理装置。
The evaluation comparison unit
The similarity between the verification target image sea surface wave spectrum acquired by the FFT processing unit and the actually measured image sea surface wave spectrum stored in the sea surface wave spectrum storage unit is calculated, and the measured image corresponding to the calculated similarity is calculated. A similarity calculation unit that creates a similarity table showing the shooting time in association with each other;
A similarity table storage unit that stores a similarity table created by the similarity calculation unit;
When the similarity table stored in the similarity table storage unit is referenced, the top two values having the highest similarity are selected, and the shooting times of the two actually measured images corresponding to the selected binary similarity are consecutive. The selected binary similarity is weighted, and the shooting time at which the similarity is maximized is estimated as the shooting time of the verification target image data, and 2 corresponding to the selected binary similarity. The image processing apparatus according to claim 3, further comprising: an evaluation comparison unit that estimates a shooting time of the two actually measured images as a shooting time of the verification target image data when the shooting times of the two actually measured images are not consecutive.
JP2011283660A 2011-12-26 2011-12-26 Image processor Pending JP2013134114A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011283660A JP2013134114A (en) 2011-12-26 2011-12-26 Image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011283660A JP2013134114A (en) 2011-12-26 2011-12-26 Image processor

Publications (1)

Publication Number Publication Date
JP2013134114A true JP2013134114A (en) 2013-07-08

Family

ID=48910914

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011283660A Pending JP2013134114A (en) 2011-12-26 2011-12-26 Image processor

Country Status (1)

Country Link
JP (1) JP2013134114A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109613536A (en) * 2019-01-11 2019-04-12 中国电子科技集团公司第三十八研究所 A kind of satellite-borne SAR real-time processing device and method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109613536A (en) * 2019-01-11 2019-04-12 中国电子科技集团公司第三十八研究所 A kind of satellite-borne SAR real-time processing device and method
CN109613536B (en) * 2019-01-11 2020-08-21 中国电子科技集团公司第三十八研究所 Satellite-borne SAR real-time processing device and method

Similar Documents

Publication Publication Date Title
JP5449119B2 (en) Method and system for determining parallax search range in stereo video
US20080152200A1 (en) 3d face reconstruction from 2d images
CN107767358B (en) Method and device for determining ambiguity of object in image
CN105243376A (en) Living body detection method and device
KR101891410B1 (en) Apparatus for classifying target of inverse synthetic aperture radar image using trace transform and method thereof
CN103080979A (en) System and method for synthesizing portrait sketch from photo
Jin et al. Nonhomogeneous noise removal from side-scan sonar images using structural sparsity
KR20190082593A (en) System and Method for Reidentificating Object in Image Processing
CN108537822B (en) Moving target tracking method based on weighted confidence estimation
JP5710940B2 (en) Image processing apparatus, image processing method, and image processing program
JPWO2019215819A1 (en) Synthetic Aperture Radar Image Analysis System, Synthetic Aperture Radar Image Analysis Method and Synthetic Aperture Radar Image Analysis Program
KR101478709B1 (en) Method and apparatus for extracting and generating feature point and feature descriptor rgb-d image
CN109074643B (en) Orientation-based object matching in images
JP2015148895A (en) object number distribution estimation method
JP2013134114A (en) Image processor
JP5755516B2 (en) Object shape estimation device
KR20190080641A (en) a Method for Indoor Reconstruction
CN108460773B (en) Sonar image segmentation method based on offset field level set
CN117880479A (en) Computing unit and method for estimating depth map from digital hologram, encoding method of video sequence, computer program
CN112085779B (en) Wave parameter estimation method and device
KR100888751B1 (en) Apparatus and method for recognizing object
EP2245593A2 (en) A method of estimating a motion of a multiple camera system, a multiple camera system and a computer program product
Gu et al. A method for automatic detection of underwater objects using forward-looking imaging sonar
KR101064224B1 (en) Real-time estimation of pose pose of objects through the combination of recognition and tracking
CN111428565A (en) Point cloud identification point positioning method and device based on deep learning