JP2014048131A - Image processing device, method, and program - Google Patents

Image processing device, method, and program Download PDF

Info

Publication number
JP2014048131A
JP2014048131A JP2012190664A JP2012190664A JP2014048131A JP 2014048131 A JP2014048131 A JP 2014048131A JP 2012190664 A JP2012190664 A JP 2012190664A JP 2012190664 A JP2012190664 A JP 2012190664A JP 2014048131 A JP2014048131 A JP 2014048131A
Authority
JP
Japan
Prior art keywords
cloud
image
image processing
unit
distribution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012190664A
Other languages
Japanese (ja)
Inventor
Tomokazu Kawahara
智一 河原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2012190664A priority Critical patent/JP2014048131A/en
Publication of JP2014048131A publication Critical patent/JP2014048131A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing device capable of estimating a state of the atmosphere.SOLUTION: An image processing device includes an acquisition section, a detector, an estimation section, and an output section. The acquisition section acquires an image of the sky. The detector detects the distribution of cloud by using a pixel value included in the image. The estimation section estimates a state of the atmosphere at a predetermined place from a pickup point of the image and the distribution. The output section outputs the information on the state of the atmosphere.

Description

本発明の実施形態は、画像処理装置、方法及びプログラムに関する。   Embodiments described herein relate generally to an image processing apparatus, a method, and a program.

撮像画像から空模様を判定する技術が開示されている。撮像画像の画像データを用いて
彩度及び明度を計算し、空模様を判定する。
A technique for determining a sky pattern from a captured image is disclosed. Saturation and brightness are calculated using the image data of the captured image, and a sky pattern is determined.

特開2012−8097号公報JP 2012-8097 A

Srinivasa G. Narasimhan, Shree K. Nayar “Shedding Light on the Weather” (Computer Vision and Pattern Recognition 2003/6/16、p.665-672)Srinivasa G. Narasimhan, Shree K. Nayar “Shedding Light on the Weather” (Computer Vision and Pattern Recognition 2003/6/16, p.665-672)

曇の状態によって異なる空模様を判定するだけでなく、より詳細な雲の状態に関する情
報を得なければ、大気の状態を推定することが難しい。
It is difficult not only to determine the sky pattern depending on the cloudy state, but also to estimate the atmospheric state without obtaining more detailed information about the cloud state.

本発明が解決しようとする課題は大気の状態をより詳細に推定することが可能な画像処
理装置を提供することである。
The problem to be solved by the present invention is to provide an image processing apparatus capable of estimating the atmospheric state in more detail.

実施形態の画像処理装置は、取得部と検出部と推定部と出力部を備える。取得部は空の
画像を取得する。検出部は画像に含まれる画素値を用いて雲の分布を検出する。推定部は
画像の撮像地点と分布とからを予め決められた場所の大気の状態を推定する。出力部は大
気の状態に関する情報を出力する。
The image processing apparatus according to the embodiment includes an acquisition unit, a detection unit, an estimation unit, and an output unit. The acquisition unit acquires an empty image. The detection unit detects a cloud distribution using pixel values included in the image. The estimation unit estimates the state of the atmosphere at a predetermined location based on the image capturing point and distribution. The output unit outputs information related to atmospheric conditions.

第1の実施形態の装置の例を示す構成図。The block diagram which shows the example of the apparatus of 1st Embodiment. 第1の実施形態の装置の例を示すフローチャート。The flowchart which shows the example of the apparatus of 1st Embodiment. 第2の実施形態の装置の例を示す構成図。The block diagram which shows the example of the apparatus of 2nd Embodiment. 雲の種類とパターンとを対応づけた例を示す図。The figure which shows the example which matched the kind and pattern of the cloud. 第2の実施形態の装置の例を示すフローチャート。The flowchart which shows the example of the apparatus of 2nd Embodiment. 第3の実施形態の装置の例を示す構成図。The block diagram which shows the example of the apparatus of 3rd Embodiment. 第3の実施形態の装置の例を示すフローチャート。The flowchart which shows the example of the apparatus of 3rd Embodiment. 画像処理装置のハードウェア構成の一例を示すブロック図。The block diagram which shows an example of the hardware constitutions of an image processing apparatus.

以下、本発明の実施形態について図面を参照して詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

(第1の実施形態)
第1の実施形態に係る画像処理装置1は、カメラで撮影した空の画像を使い、大気を計
測するものである。
(First embodiment)
The image processing apparatus 1 according to the first embodiment measures the atmosphere using a sky image taken by a camera.

画像処理装置1は、入力としてカメラで撮影した空の画像を取得し、画像中の雲の分布
を検出する。雲の有無からカメラとその雲を結ぶ方向の大気の状態、例えば雲水量または
雨水量に関する水蒸気量などを推定する。
The image processing apparatus 1 acquires a sky image taken by a camera as an input, and detects a cloud distribution in the image. The state of the atmosphere in the direction connecting the camera and the cloud, for example, the amount of cloud water or the amount of water vapor related to the amount of rain water is estimated from the presence or absence of the cloud.

図1は、本実施形態の画像処理装置1を表すブロック図である。画像処理装置1は、取
得部11と、検出部12と、推定部13と、出力部14とを備える。
FIG. 1 is a block diagram showing an image processing apparatus 1 of the present embodiment. The image processing apparatus 1 includes an acquisition unit 11, a detection unit 12, an estimation unit 13, and an output unit 14.

取得部11は、画像を取得する。画像は、例えば地上や建物に設置されたカメラで空を
撮影したものを使用する。また、魚眼レンズ等を使い全天を撮影したものでもよい。
The acquisition unit 11 acquires an image. For example, an image obtained by photographing the sky with a camera installed on the ground or a building is used. Alternatively, the whole sky may be photographed using a fisheye lens or the like.

検出部12は、取得した画像から雲を検出する。画像中の雲を検出することで、雲のあ
る領域と雲のない領域を抽出する。
The detection unit 12 detects a cloud from the acquired image. By detecting clouds in the image, areas with clouds and areas without clouds are extracted.

推定部13は、検出した画像中の雲の位置と設置されたカメラの位置と方角から上空の
大気の状態を推定する。画像中の各画素の雲の有無から、例えば雲のある領域は水蒸気量
が多い、雲のない領域は水蒸気量が少ないと推定する。
The estimation unit 13 estimates the state of the atmosphere in the sky from the position of the cloud in the detected image, the position and direction of the installed camera. From the presence or absence of a cloud of each pixel in the image, for example, it is estimated that a region with a cloud has a large amount of water vapor, and a region without a cloud has a small amount of water vapor.

出力部14は、推定した大気の状態を出力する。   The output unit 14 outputs the estimated atmospheric state.

以上、画像処理装置1の構成について説明した。   The configuration of the image processing apparatus 1 has been described above.

図2は、画像処理装置1の処理を表すフローチャートである。図2のフローチャートに
示す処理は取得部11が画像を取得するたびに行われる。
FIG. 2 is a flowchart showing processing of the image processing apparatus 1. The process shown in the flowchart of FIG. 2 is performed every time the acquisition unit 11 acquires an image.

ステップS11において、取得部11は画像を取得する(S11)。取得部11は取得
した画像を検出部12に供給する。
In step S11, the acquisition unit 11 acquires an image (S11). The acquisition unit 11 supplies the acquired image to the detection unit 12.

ステップS12において、検出部12は画像から雲を検出し、画像中の雲の領域と雲の
ない領域を推定部13に供給する。
In step S <b> 12, the detection unit 12 detects a cloud from the image, and supplies the cloud region and the cloudless region in the image to the estimation unit 13.

雲の検出は、画像の画素ごとに画素値を基準に行う。所定の閾値範囲内の時はその画素
を雲と判定し、範囲外のときは雲がないと判定する。より具体的には、快晴時に撮影した
場合の画像である快晴画像の各画素の画素値を用いる。例えば、予めカメラの位置と撮影
範囲とを計測し、当該カメラの位置と当該撮影範囲と太陽の位置とをから、光の拡散モデ
ルに基づいて当該快晴画像の画素値を算出してよい。ここで、光の拡散モデルには、非特
許文献1記載のものを用いてもよい。
Cloud detection is performed based on the pixel value for each pixel of the image. When the pixel is within the predetermined threshold range, the pixel is determined as a cloud, and when the pixel is out of the range, it is determined that there is no cloud. More specifically, the pixel value of each pixel of a clear image, which is an image taken when clear, is used. For example, the camera position and the shooting range may be measured in advance, and the pixel value of the clear image may be calculated based on the light diffusion model from the camera position, the shooting range, and the sun position. Here, the light diffusion model described in Non-Patent Document 1 may be used.

また予め過去に撮影した画像と、その時の太陽の位置とを記憶しておき、取得された太
陽の位置に近い、過去の画像の領域のうちで、輝度を算出すべき画素に雲が存在しない領
域を選び、その画素の輝度を用いて、現在の快晴画像の輝度値を算出してよい。ここで、
雲が存在しない領域とは、過去に撮影した画像が複数枚ある場合には、輝度値が変化して
いない領域であってよい。あるいは、輝度を算出すべき画素に雲が存在していないものが
複数ある場合には、その平均値から当該快晴画像における輝度値を算出してもよい。
In addition, an image captured in the past and the position of the sun at that time are stored in advance, and there is no cloud in the pixel whose luminance is to be calculated in the past image area close to the acquired position of the sun. A region may be selected, and the luminance value of the current clear image may be calculated using the luminance of the pixel. here,
The area where there is no cloud may be an area where the luminance value has not changed when there are a plurality of images taken in the past. Alternatively, when there are a plurality of pixels for which the luminance is to be calculated without a cloud, the luminance value in the clear image may be calculated from the average value.

また、出力は雲の有無の2値ではなく、ない状態の0からある状態の1までの連続値に
してもよい。また、判定には輝度の代わりに明度や彩度を使ってもよい。また、各画素の
色を色空間の点とみなし、学習等で予め設定した色空間上の関数の出力を判定結果として
もよい。
Further, the output may be a continuous value from 0 in a state where there is no cloud to 1 in a state where there is no cloud. For the determination, brightness or saturation may be used instead of luminance. Alternatively, the color of each pixel may be regarded as a point in the color space, and the output of a function on the color space preset by learning or the like may be used as the determination result.

検出部12が推定部13に出力する雲の領域と雲がない領域のデータは、画像の各画素
に雲があるなら1、雲がないなら0を割り当てたマスク画像でよい。また、判定値が連続
値の場合はその値を入れる。
The data of the cloud region and the cloudless region output from the detection unit 12 to the estimation unit 13 may be a mask image assigned 1 if there is a cloud in each pixel of the image and 0 if there is no cloud. If the judgment value is a continuous value, that value is entered.

また、雲の判定を画像の画素毎ではなく、矩形などの領域ごとに行なっても良い。判定
は、領域内の画素の画素値や明度、彩度などの平均を用いて判定する。また、他に分散、
最大値や最小値を用いてもよい。出力するデータは、雲領域の矩形の右上と左下の頂点の
座標および雲の判定値の組である。この場合は、矩形領域の外が雲のない領域とみなす。
Further, cloud determination may be performed not for each pixel of the image but for each region such as a rectangle. The determination is made using an average of pixel values, brightness, and saturation of the pixels in the region. Also distributed,
A maximum value or a minimum value may be used. The data to be output is a set of coordinates of the upper right and lower left vertices of the rectangle of the cloud region and a cloud judgment value. In this case, the outside of the rectangular area is regarded as a cloudless area.

ステップS13において、推定部13はカメラの設置位置、方向および雲の領域と雲の
ない領域から上空の大気の状態を推定し、出力部14に推定結果を出力する。カメラの設
置位置は、画像が撮像された時の緯度・経度等を用いる。位置と撮像方向から、画像の各
画素に対応する空の方向を計算する。画素の雲判定値を用いて、雲のある場合はその方向
の水蒸気量が多い、雲のない場合は水蒸気量を少ないとする。また、0から1の連続値の
場合は、値に応じてその方向の水蒸気量を推定する。雲の判定を領域単位で行う場合は、
領域ごとに前記の処理を行う。
In step S <b> 13, the estimation unit 13 estimates the atmospheric state of the sky from the camera installation position, direction, cloud region, and cloudless region, and outputs the estimation result to the output unit 14. As the installation position of the camera, the latitude and longitude when the image is taken are used. From the position and the imaging direction, the sky direction corresponding to each pixel of the image is calculated. It is assumed that the amount of water vapor in the direction is large when there is a cloud, and the amount of water vapor is small when there is no cloud, using the cloud judgment value of the pixel. In the case of a continuous value from 0 to 1, the amount of water vapor in that direction is estimated according to the value. When performing cloud judgment by region,
The above processing is performed for each region.

推定部13が出力部14に出力する上空の大気の状態のデータは、カメラの位置、方向
およびその方向に対して推定した水蒸気量の組である。また、大気を3次元メッシュに区
切り、各点の座標と推定した水蒸気量の組みでもよい。
The data of the atmosphere in the sky output from the estimation unit 13 to the output unit 14 is a set of the position and direction of the camera and the amount of water vapor estimated with respect to that direction. Alternatively, the atmosphere may be divided into a three-dimensional mesh, and a set of coordinates of each point and an estimated water vapor amount may be used.

ステップS14において、出力部14は推定した上空の大気の状態を出力する。   In step S14, the output unit 14 outputs the estimated state of the atmosphere in the sky.

本実施形態によれば、大気の状態をより詳細に推定することが可能になる。また、カメ
ラで撮像した空の画像を用いることでカメラを中心として各方向の大気の状態を推定する
ことができる。
According to the present embodiment, it is possible to estimate the state of the atmosphere in more detail. In addition, it is possible to estimate the state of the atmosphere in each direction around the camera by using a sky image captured by the camera.

(第2の実施形態)
第2の実施形態にかかわる画像処理装置2は、雲の種類によってその雲の高さ(雲底な
ど)が分かることを利用し、画像に写っている雲の検出に加えて雲の種類の認識も行う点
が第1の実施形態と異なる。また、雲の種類から雲の高さも推定する点が第1の実施形態
と異なる。以下、第1の実施形態と異なる部分について説明する。
(Second Embodiment)
The image processing apparatus 2 according to the second embodiment uses the fact that the height of the cloud (cloud bottom, etc.) is known by the type of cloud, and recognizes the type of cloud in addition to the detection of the cloud reflected in the image. Is different from the first embodiment. Moreover, the point which also estimates the height of a cloud from the kind of cloud differs from 1st Embodiment. Hereinafter, a different part from 1st Embodiment is demonstrated.

図3は、画像処理装置2を表すブロック図である。画像処理装置2は、画像処理装置1
と比較して、検出部12が抽出部22に置き換わり、推定部13が推定部23に置き換わ
ったものである。抽出部22は、検出12と識別部221とパターン記憶部222を備え
る。
FIG. 3 is a block diagram showing the image processing apparatus 2. The image processing device 2 is the image processing device 1
As compared with the above, the detection unit 12 is replaced with the extraction unit 22, and the estimation unit 13 is replaced with the estimation unit 23. The extraction unit 22 includes a detection unit 12, an identification unit 221, and a pattern storage unit 222.

抽出部22は、画像から雲を検出し、その雲の種類の識別を行う。雲の種類とは、形状
等によって区分されるものである。例えば、層状雲、対流雲(積乱雲等)のおおまかな分
類である。雲底(高度等)と形状を合わせたより詳細な雲の分類、上層雲(うろこ雲など
)、下層雲(雨雲など)、雷雲(関乱雲など)の分類であればなおよい。雲の種類は地域
によって異なるため、カメラが設置された場所に応じてこれらのテーブルを切り替えても
良い。また、テーブルに地域と雲の出現確率の組を加え、雲の種類識別時にカメラが設置
された地域の出現確率を使用しても良い。
The extraction unit 22 detects a cloud from the image and identifies the type of the cloud. The cloud type is classified according to the shape or the like. For example, it is a rough classification of stratiform clouds and convective clouds (cumulonimbus clouds, etc.). It is even better if the classification of the cloud is more detailed by combining the shape with the cloud base (altitude, etc.), the upper cloud (e.g., scale cloud), the lower cloud (e.g., rain cloud), and the thunder cloud (e.g., turbulent cloud). Since the types of clouds vary depending on the region, these tables may be switched according to the location where the camera is installed. Alternatively, a set of the area and cloud appearance probability may be added to the table, and the appearance probability of the area where the camera is installed may be used when identifying the cloud type.

識別部221は、画像に対して検出した雲の領域を切り出し、パターン記憶部222に
格納されたパターンとの照合を行い、雲の種類を識別し、対応する雲の高さを出力する。
The identifying unit 221 cuts out the detected cloud region from the image, compares the detected cloud region with the pattern stored in the pattern storage unit 222, identifies the cloud type, and outputs the corresponding cloud height.

パターン記憶部223は、雲の種類、雲の高さおよび雲のパターンの組を格納する。図4
は雲の種類、雲の高さと雲のパターンのテーブルの一例である。雲のパターンは、領域の
画素値や明度、彩度等を並べたベクトルで保持される。
The pattern storage unit 223 stores a set of cloud type, cloud height, and cloud pattern. FIG.
Is an example of a table of cloud types, cloud heights and cloud patterns. The cloud pattern is held as a vector in which pixel values, brightness, saturation, and the like of the region are arranged.

推定部23は、雲の位置、雲の高さ、設置されたカメラの位置と方向から上空の大気の
状態を推定する。画像中の各画素の雲の有無から方向を、雲の高さから前記方向の雲の奥
行を推定し、雲の有無または判定値でその領域の水蒸気量を推定する。
The estimation unit 23 estimates the state of the atmosphere in the sky from the position of the cloud, the height of the cloud, and the position and direction of the installed camera. A direction is estimated from the presence or absence of a cloud of each pixel in the image, and the depth of the cloud in the direction is estimated from the height of the cloud, and the amount of water vapor in the region is estimated from the presence or absence of the cloud or a determination value.

以上、画像処理装置2の構成について、第1の実施形態と異なる部分について説明した
Heretofore, the configuration of the image processing apparatus 2 has been described for the parts that are different from the first embodiment.

図5は画像処理装置2の処理を表すフローチャートである。図5のフローチャートに示
す処理は取得部11が画像を取得するたびに行われる。以下、第1の実施形態と異なる部
分について説明する。
FIG. 5 is a flowchart showing processing of the image processing apparatus 2. The process shown in the flowchart of FIG. 5 is performed every time the acquisition unit 11 acquires an image. Hereinafter, a different part from 1st Embodiment is demonstrated.

ステップS22について、検出部12で検出した雲の分布に基づいて、雲の種類を識別
する。
In step S22, the type of cloud is identified based on the cloud distribution detected by the detection unit 12.

まず、検出した雲の分布に基づき、雲領域を切り出す。次に、切り出した雲領域を予め
定めた大きさに正規化し、パターン記憶部222に格納した雲パターンとマッチングを行
う。マッチングのスコアが予め定めた閾値を超え、最も高いものをその雲の種類とする。
もし、閾値を超えるものがない場合は識別不可とする。また、カメラの設置場所から導出
される雲の種類の出現確率がある場合、雲の種類の各マッチングスコアに対応する出現確
率を掛けたものをスコアとして使用してもよい。識別した雲の種類から、パターン記憶部
222に格納されたテーブルを使い、その雲の高さを推定する。識別部221は推定部2
3に画像中の雲の判定値および各雲の高さを供給する。
First, the cloud region is cut out based on the detected cloud distribution. Next, the extracted cloud region is normalized to a predetermined size and matched with the cloud pattern stored in the pattern storage unit 222. The cloud having the highest matching score exceeding a predetermined threshold is defined as the cloud type.
If there is nothing exceeding the threshold, the identification is impossible. When there is an appearance probability of a cloud type derived from the camera installation location, a score obtained by multiplying each cloud type matching score by the appearance probability may be used. From the identified cloud type, the height of the cloud is estimated using a table stored in the pattern storage unit 222. The identification unit 221 is an estimation unit 2
3 is supplied with the judgment value of the cloud in the image and the height of each cloud.

ステップS23について、推定部23はカメラの位置、方向および雲の領域とその奥行
きから出力部14に推定結果を出力する。カメラの設置位置および方向から、画像の各画
素に対応する空の方向を計算し、雲の高さからその方向の奥行きを計算する。
About step S23, the estimation part 23 outputs an estimation result to the output part 14 from the position of a camera, a direction, and the cloud area | region and its depth. The direction of the sky corresponding to each pixel of the image is calculated from the installation position and direction of the camera, and the depth in that direction is calculated from the height of the cloud.

その画素の雲判定値から、雲のある場合はその位置の水蒸気量が多い、雲のない場合は
水蒸気量を少ないとする。また、0から1の連続値の場合は、値に応じてその位置の水蒸
気量を推定する。雲の判定を領域単位で行う場合は、領域ごとに前記の処理を行う。
From the cloud judgment value of the pixel, it is assumed that when there is a cloud, the amount of water vapor at that position is large, and when there is no cloud, the amount of water vapor is small. In the case of a continuous value from 0 to 1, the amount of water vapor at that position is estimated according to the value. When the cloud determination is performed in units of regions, the above process is performed for each region.

推定部23が出力部14に出力する上空の大気の状態のデータは、カメラの位置、方向
およびその方向に対して推定した水蒸気量の組である。また、大気を3次元メッシュに区
切り、各点の座標と推定した水蒸気量の組みでもよい。
The data of the atmosphere in the sky output from the estimation unit 23 to the output unit 14 is a set of the position and direction of the camera and the amount of water vapor estimated with respect to that direction. Alternatively, the atmosphere may be divided into a three-dimensional mesh, and a set of coordinates of each point and an estimated water vapor amount may be used.

以上、画像処理装置2の処理について、第1の実施形態と異なる部分について説明した
As above, the processing of the image processing apparatus 2 has been described for the parts different from the first embodiment.

本実施形態によれば、大気の状態をより詳細に推定することが可能になる。また、カメラ
で撮影した空の画像から、大気の状態を推定することができる。
According to the present embodiment, it is possible to estimate the state of the atmosphere in more detail. In addition, the atmospheric state can be estimated from the sky image taken by the camera.

(第3の実施形態)
第3の実施形態にかかわる画像処理装置3は、時系列の画像を複数枚利用し、雲の動き
を検出することでその雲の位置の風向きも推定する点が第1および第2の実施形態と異な
る。以下、第2の実施形態と異なる部分について説明する。
(Third embodiment)
The image processing apparatus 3 according to the third embodiment uses a plurality of time-series images and detects the cloud movement to estimate the wind direction of the cloud position in the first and second embodiments. And different. Hereinafter, a different part from 2nd Embodiment is demonstrated.

画像処理装置3は、入力として時間的に連続した複数枚の画像列を入力として受け、1
枚ずつ処理を行う。例えば動画像を利用すればよい。
The image processing apparatus 3 receives a plurality of time-sequential image sequences as an input as an input.
Process one by one. For example, a moving image may be used.

図6は、画像処理装置3を表すブロック図である。画像処理装置3は、顔像処理装置2
と比較して、抽出部22が抽出部32に置き換わり、推定部23が推定部33に置き換わ
ったものである。抽出部32は、検出12と識別部221とパターン記憶部222と追跡
部321と雲記憶部322を備える。
FIG. 6 is a block diagram showing the image processing apparatus 3. The image processing device 3 is a face image processing device 2.
As compared with the above, the extraction unit 22 is replaced with the extraction unit 32, and the estimation unit 23 is replaced with the estimation unit 33. The extraction unit 32 includes a detection unit 12, an identification unit 221, a pattern storage unit 222, a tracking unit 321, and a cloud storage unit 322.

抽出部32は、画像から雲を検出し、その雲の種類の識別し、過去の画像と比較して雲
の追跡を行う。また、検出した画像と雲の位置を保存する。
The extraction unit 32 detects a cloud from the image, identifies the type of the cloud, and tracks the cloud in comparison with past images. Also, the detected image and cloud position are stored.

追跡部321は、検出部12で検出した雲の位置と雲記憶部322に格納された過去の
画像と雲の位置から対応を取り、雲の動きを推定する。雲の位置の対応は、過去の画像か
ら雲領域を切り出し、画像とマッチングすることで行う。対応がついた各雲の動きを出力
する。
The tracking unit 321 takes a correspondence from the cloud position detected by the detection unit 12 and the past image stored in the cloud storage unit 322 and the cloud position, and estimates the movement of the cloud. The correspondence of the cloud position is performed by cutting out a cloud region from a past image and matching it with the image. Outputs the movement of each cloud that has a response.

雲記憶部322は、取得部11で取得した画像と検出部12で検出した雲の位置を記憶
する。取得した画像の代わりに、雲の位置に基づいて、切り出した雲の画像を保持しても
良い。
The cloud storage unit 322 stores the image acquired by the acquisition unit 11 and the cloud position detected by the detection unit 12. Instead of the acquired image, a clipped cloud image may be held based on the cloud position.

推定部33は、雲の位置、雲の高さ、雲の動き、設置されたカメラの位置と方向から上
空の大気の状態を推定する。画像中の各画素の雲の有無から方向を、雲の高さから奥行き
を推定し、雲の動きからその地点での風向きを推定し、雲の有無または判定値でその領域
の水蒸気量を推定する。
The estimation unit 33 estimates the state of the atmosphere in the sky from the position of the cloud, the height of the cloud, the movement of the cloud, and the position and direction of the installed camera. Estimate the direction from the presence or absence of clouds at each pixel in the image, estimate the depth from the height of the clouds, estimate the wind direction at that point from the movement of the clouds, and estimate the amount of water vapor in the area by the presence or absence of clouds or the judgment value To do.

以上、画像処理装置3の構成について、第2の実施形態と異なる部分について説明した
As above, the configuration of the image processing apparatus 3 has been described with respect to the differences from the second embodiment.

図7は画像処理装置3の処理を表すフローチャートである。図7のフローチャートに示す
処理は取得部11が画像を取得するたびに行われる。以下、第2の実施形態と異なる部分
について説明する。
FIG. 7 is a flowchart showing processing of the image processing apparatus 3. The process shown in the flowchart of FIG. 7 is performed every time the acquisition unit 11 acquires an image. Hereinafter, a different part from 2nd Embodiment is demonstrated.

ステップS321について、現在の雲と過去の雲のマッチングを行い、雲の動きを検出す
る。まず、雲記憶部322に記憶されたと過去の画像と雲の位置から雲領域を切り出し過
去の雲画像を生成する。次に検出部12で検出した雲の位置と画像から現在の雲画像を生
成し、過去の雲画像と現在の雲画像のマッチングを行う。マッチングできた雲画像につい
て、過去の雲の位置と現在の雲の位置から動きを抽出し、推定部33に供給する。
In step S321, the current cloud and the past cloud are matched, and the movement of the cloud is detected. First, when stored in the cloud storage unit 322, a cloud region is cut out from the past image and the cloud position to generate a past cloud image. Next, a current cloud image is generated from the position and image of the cloud detected by the detection unit 12, and the past cloud image and the current cloud image are matched. For the cloud images that have been matched, the movement is extracted from the past cloud position and the current cloud position, and is supplied to the estimation unit 33.

ステップS322について、画像と検出部12で検出した雲の位置を雲記憶部322に記
憶する。
In step S322, the image and the cloud position detected by the detection unit 12 are stored in the cloud storage unit 322.

ステップS33について、雲抽出部22で検出した雲の位置に基づいて、雲の種類を識別
する。まず、検出した雲の位置に基づき、雲領域を切り出す。次に、切り出した雲領域を
予め定めた大きさに正規化し、パターン記憶部23に格納した雲パターンとマッチングを
行う。マッチングのスコアが予め定めた閾値を超え、最も高いものをその雲の種類とする
。もし、閾値を超えるものがない場合は識別不可とする。識別した雲の種類から、パター
ン記憶部23に格納されたテーブルを使い、その雲の高さを推定する。抽出部22は推定
部24に画像中の雲の判定値および各雲の高さを供給する。
In step S33, the type of cloud is identified based on the cloud position detected by the cloud extraction unit 22. First, a cloud region is cut out based on the detected cloud position. Next, the extracted cloud region is normalized to a predetermined size, and matching with the cloud pattern stored in the pattern storage unit 23 is performed. The cloud having the highest matching score exceeding a predetermined threshold is defined as the cloud type. If there is nothing exceeding the threshold, the identification is impossible. From the identified cloud type, the height of the cloud is estimated using a table stored in the pattern storage unit 23. The extraction unit 22 supplies the estimation value of the cloud in the image and the height of each cloud to the estimation unit 24.

以上、画像処理装置3の処理について、第2の実施形態と異なる部分について説明した。 As above, the processing of the image processing apparatus 3 has been described for the parts different from the second embodiment.

本実施形態によれば、大気の状態をより詳細に推定することが可能になる。また、カメ
ラで撮像した空の画像を用いることでカメラを中心として各方向の大気の状態を推定する
ことができる。
According to the present embodiment, it is possible to estimate the state of the atmosphere in more detail. In addition, it is possible to estimate the state of the atmosphere in each direction around the camera by using a sky image captured by the camera.

図8は、画像処理装置1、2、3のハードウェア構成の一例を表すブロック図である。
図8に住めすように、画像処理装置1、2、3はCPU801と、画像中から顔と物体の
認識を行う認識プログラムなどを記憶するROM802と、RAM803と、認識テーブ
ルなどを記憶するHDD804と、HDD804とのインタフェイスであるI/F805
と、画像入力用のインタフェイスであるI/F806と、マウスやキーボードなどの入力
装置807と、入力装置807とのインタフェイスであるI/F806と、ディスプレイ
などの表示装置808と、表示装置808とのインタフェイスであるI/F810と、バ
ス88とを備えており、通常のコンピュータを利用したハードウェア構成となっている。
なおCPU801、ROM802、RAM803、I/F805、I/F806、I/F
816、及びI/F810は、バス811を介して互いに接続されている。
FIG. 8 is a block diagram illustrating an example of a hardware configuration of the image processing apparatuses 1, 2, and 3.
As illustrated in FIG. 8, the image processing apparatuses 1, 2, and 3 have a CPU 801, a ROM 802 that stores a recognition program that recognizes a face and an object from an image, a RAM 803, and an HDD 804 that stores a recognition table and the like. , I / F 805 which is an interface with HDD 804
An I / F 806 that is an interface for image input, an input device 807 such as a mouse and a keyboard, an I / F 806 that is an interface with the input device 807, a display device 808 such as a display, and a display device 808 I / F 810 and a bus 88 are provided, and a hardware configuration using a normal computer is provided.
CPU 801, ROM 802, RAM 803, I / F 805, I / F 806, I / F
816 and I / F 810 are connected to each other via a bus 811.

画像処理装置1、2、3では、CPU801が、ROM802からプログラムをRAM8
03上に読み出して実行することにより、上記各部(検出部、検出部、推定部等)がコン
ピュータ上で実現され、HDD804に記憶されている照合データ等を用いて、I/F8
06から画像の処理を行う。
In the image processing apparatuses 1, 2, and 3, the CPU 801 loads a program from the ROM 802 to the RAM 8.
The above-described units (detection unit, detection unit, estimation unit, etc.) are realized on a computer by reading them onto 03, and using the collation data stored in the HDD 804, the I / F 8
The image is processed from 06.

なお、プログラムはHDD804に記憶されていてもよい。また、プログラムは、イン
ストール可能な形式又は実行可能な形式のファイルでCD−ROM、CD−R、メモリカ
ード、DVD、フレキシブルディスク(FD)等のコンピュータで読み取り可能な記憶媒
体に記憶されて提供されるようにしてもよい。また、プログラムを、インターネット等の
ネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさ
せることにより提供するようにしてもよい。また、プログラムを、インターネット等のネ
ットワーク経由で提供または配布するようにしてもよい。また、図4のテーブルは、RO
M802に記憶されていてもよい。また、画像をHDD804に記憶しておき、I/F8
05から画像を入力するようにしてもよい。
Note that the program may be stored in the HDD 804. The program is a file in an installable or executable format, and is provided by being stored in a computer-readable storage medium such as a CD-ROM, CD-R, memory card, DVD, or flexible disk (FD). You may make it do. Further, the program may be provided by being stored on a computer connected to a network such as the Internet and downloaded via the network. The program may be provided or distributed via a network such as the Internet. In addition, the table of FIG.
It may be stored in M802. Also, the image is stored in the HDD 804 and the I / F 8
An image may be input from 05.

以上のように、画像処理装置1、2、3では、上空を撮影した画像から雲を検出し、その
結果とカメラの設置位置と方向から上空の水蒸気量などの気象状態を推定することが可能
となる。これにより、レーダのように電磁波を照射する装置を必要とせず、設置が容易な
気象観測装置を実現することができる。また、第2の実施形態によれば、マッチングによ
る雲の種類の識別を行うことで、雲の種類と雲の高さの関係から雲の3次元的な位置を推
定し、上空の気象状態を3次元的に推定することができる。また第3の実施形態によれば
、過去の画像とのマッチングを行うことで雲の移動を検出し、水蒸気量の他に風向きも3
次元的に推定することができる。
As described above, in the image processing apparatuses 1, 2, and 3, it is possible to detect a cloud from an image obtained by shooting the sky, and to estimate a weather condition such as the amount of water vapor in the sky from the result and the installation position and direction of the camera. It becomes. As a result, a weather observation device that is easy to install can be realized without the need for a device that radiates electromagnetic waves like a radar. Further, according to the second embodiment, by identifying the cloud type by matching, the three-dimensional position of the cloud is estimated from the relationship between the cloud type and the cloud height, and the weather condition in the sky is determined. It can be estimated three-dimensionally. Further, according to the third embodiment, the movement of the cloud is detected by matching with the past image, and in addition to the water vapor amount, the wind direction is 3
It can be estimated dimensionally.

以上のように上記実施形態によれば、大気の状態をより詳細に推定することが可能にな
る。
As described above, according to the embodiment, it is possible to estimate the atmospheric state in more detail.

11・・・取得部、12・・・検出部、13・・・推定部、14・・・出力部、221・
・・識別部、222・・・パターン記憶部、321・・・追跡部、322・・・雲記憶部
DESCRIPTION OF SYMBOLS 11 ... Acquisition part, 12 ... Detection part, 13 ... Estimation part, 14 ... Output part, 221 *
..Identification unit, 222... Pattern storage unit, 321... Tracking unit, 322.

Claims (7)

空の画像を取得する取得部と
前記画像に含まれる画素値を用いて雲の分布を検出する検出部と
前記画像の撮像地点と前記分布とからを予め決められた場所の大気の状態を推定する推
定部と
前記大気の状態に関する情報を出力する出力部と
を備える画像処理装置。
An acquisition unit for acquiring a sky image, a detection unit for detecting a cloud distribution using pixel values included in the image, and estimating an atmospheric state at a predetermined location based on the image capturing point and the distribution An image processing apparatus comprising: an estimation unit that performs an output; and an output unit that outputs information related to the atmospheric state.
前記雲の分布と予め記憶されたパターンとを照合し、前記雲の種類を識別する識別部を
更に備え、
前記推定部は、前記雲の地理的な位置と前記雲の種類とから大気の状態を推定する推定
部とを備えることを特徴とする請求項1記載の画像処理装置。
The cloud distribution and the pattern stored in advance are collated, further comprising an identification unit for identifying the cloud type,
The image processing apparatus according to claim 1, wherein the estimation unit includes an estimation unit that estimates an atmospheric state from a geographical position of the cloud and the type of the cloud.
前記検出部は、過去の空の画像と雲の分布を記憶する記憶部と、
前記検出した雲と過去の雲とを照合し、雲の移動を検出する追跡部とを更に備え、
前記推定部は前記場所の水蒸気量と、前記雲の移動から風向きとを推定することを特徴
とする請求項2記載の画像処理装置。
The detection unit includes a storage unit that stores a past sky image and a cloud distribution;
A tracking unit that detects the movement of the cloud by comparing the detected cloud with the past cloud, and further comprising:
The image processing apparatus according to claim 2, wherein the estimation unit estimates an amount of water vapor at the location and a wind direction from the movement of the cloud.
前記推定部は、前記雲の高さを更に用いて大気の状態を推定することを特徴とする請求
項2または3記載の画像処理装置。
The image processing apparatus according to claim 2, wherein the estimation unit estimates an atmospheric state by further using the height of the cloud.
前記パターンを記憶する記憶部を更に有し、
前記パターンは雲の種類と対応する複数の画像であることを特徴とする請求項2乃至4い
ずれか1項記載の画像処理装置。
A storage unit for storing the pattern;
The image processing apparatus according to claim 2, wherein the pattern is a plurality of images corresponding to cloud types.
空の画像を取得し、
前記画像に含まれる画素値を用いて雲の分布を検出し、
前記画像の撮像地点と前記分布とからを予め決められた場所の大気の状態を推定し、
前記大気の状態に関する情報を出力する
画像処理方法。
Get an empty image,
Detecting a cloud distribution using pixel values included in the image;
Estimating the state of the atmosphere in a predetermined place from the imaging point of the image and the distribution,
An image processing method for outputting information relating to the atmospheric state.
コンピュータを
空の画像を取得する取得手段と、
前記画像に含まれる画素値を用いて雲の分布を検出する検出手段と、
前記画像の撮像地点と前記分布とからを予め決められた場所の大気の状態を推定する推
定手段と、
前記大気の状態に関する情報を出力する出力手段
として機能させる画像処理プログラム。
An acquisition means for acquiring an empty image from the computer;
Detecting means for detecting a cloud distribution using pixel values included in the image;
Estimating means for estimating the state of the atmosphere in a predetermined place from the imaging point of the image and the distribution;
An image processing program that functions as output means for outputting information relating to the atmospheric state.
JP2012190664A 2012-08-30 2012-08-30 Image processing device, method, and program Pending JP2014048131A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012190664A JP2014048131A (en) 2012-08-30 2012-08-30 Image processing device, method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012190664A JP2014048131A (en) 2012-08-30 2012-08-30 Image processing device, method, and program

Publications (1)

Publication Number Publication Date
JP2014048131A true JP2014048131A (en) 2014-03-17

Family

ID=50607964

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012190664A Pending JP2014048131A (en) 2012-08-30 2012-08-30 Image processing device, method, and program

Country Status (1)

Country Link
JP (1) JP2014048131A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017067597A (en) * 2015-09-30 2017-04-06 株式会社東芝 River information system and detection method
JP2017067487A (en) * 2015-09-28 2017-04-06 国立大学法人 鹿児島大学 Data processing method, data processing device, and program
JP2017532579A (en) * 2014-09-26 2017-11-02 レユニワット Detection apparatus and method for identifying and monitoring clouds in an empty observation region
JP2018054455A (en) * 2016-09-29 2018-04-05 株式会社Subaru Cloud position estimation device, cloud position estimation method and cloud position estimation program
WO2020027167A1 (en) * 2018-08-02 2020-02-06 Nec Corporation System, method, and non-transitory, computer-readable medium containing instructions for image processing
US10712473B2 (en) 2016-09-15 2020-07-14 Kabushiki Kaisha Toshiba Weather data processing apparatus and method using weather radar

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004170202A (en) * 2002-11-19 2004-06-17 Casio Comput Co Ltd Weather prediction server, portable electronic equipment, and program
JP2011137612A (en) * 2009-12-28 2011-07-14 Toshiba Corp Device for calculating solar radiation and air conditioning control system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004170202A (en) * 2002-11-19 2004-06-17 Casio Comput Co Ltd Weather prediction server, portable electronic equipment, and program
JP2011137612A (en) * 2009-12-28 2011-07-14 Toshiba Corp Device for calculating solar radiation and air conditioning control system

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017532579A (en) * 2014-09-26 2017-11-02 レユニワット Detection apparatus and method for identifying and monitoring clouds in an empty observation region
JP2017067487A (en) * 2015-09-28 2017-04-06 国立大学法人 鹿児島大学 Data processing method, data processing device, and program
JP2017067597A (en) * 2015-09-30 2017-04-06 株式会社東芝 River information system and detection method
US10712473B2 (en) 2016-09-15 2020-07-14 Kabushiki Kaisha Toshiba Weather data processing apparatus and method using weather radar
JP2018054455A (en) * 2016-09-29 2018-04-05 株式会社Subaru Cloud position estimation device, cloud position estimation method and cloud position estimation program
WO2020027167A1 (en) * 2018-08-02 2020-02-06 Nec Corporation System, method, and non-transitory, computer-readable medium containing instructions for image processing
US10650498B2 (en) 2018-08-02 2020-05-12 Nec Corporation System, method, and non-transitory, computer-readable medium containing instructions for image processing

Similar Documents

Publication Publication Date Title
KR101283262B1 (en) Method of image processing and device thereof
JP6554169B2 (en) Object recognition device and object recognition system
JP6144656B2 (en) System and method for warning a driver that visual recognition of a pedestrian may be difficult
JP6428266B2 (en) COLOR CORRECTION DEVICE, COLOR CORRECTION METHOD, AND COLOR CORRECTION PROGRAM
US10452922B2 (en) IR or thermal image enhancement method based on background information for video analysis
JP2014048131A (en) Image processing device, method, and program
US9047673B2 (en) Apparatus and method for extracting target, and recording medium storing program for performing the method
EP2959454A1 (en) Method, system and software module for foreground extraction
JP2008192131A (en) System and method for performing feature level segmentation
KR20150136225A (en) Method and Apparatus for Learning Region of Interest for Detecting Object of Interest
US9014426B2 (en) Method and device for the detection of moving objects in a video image sequence
WO2013102797A1 (en) System and method for detecting targets in maritime surveillance applications
JP2007011490A (en) Device and method for detecting road parameter
JP2014021602A (en) Image processor and image processing method
CN107316318A (en) Aerial target automatic testing method based on multiple subarea domain Background fitting
EP2791865B1 (en) System and method for estimating target size
JP5651659B2 (en) Object detection system and program
JP6275022B2 (en) Image monitoring device
JP6326622B2 (en) Human detection device
US20180150966A1 (en) System and method for estimating object size
EP4006829A1 (en) Information processing device, data generation method, and non-transitory computer-readable medium having program stored thereon
JPWO2018110377A1 (en) Video surveillance device
JP2014053859A (en) Mobile object observation system
JP7453668B2 (en) Learning processing device, learning processing method, object detection device, object detection method, and program
JP6239334B2 (en) Object image extraction apparatus and object image extraction method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140408

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20150216

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20150218

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150306

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150313

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150821