JP2014048131A - Image processing device, method, and program - Google Patents
Image processing device, method, and program Download PDFInfo
- Publication number
- JP2014048131A JP2014048131A JP2012190664A JP2012190664A JP2014048131A JP 2014048131 A JP2014048131 A JP 2014048131A JP 2012190664 A JP2012190664 A JP 2012190664A JP 2012190664 A JP2012190664 A JP 2012190664A JP 2014048131 A JP2014048131 A JP 2014048131A
- Authority
- JP
- Japan
- Prior art keywords
- cloud
- image
- image processing
- unit
- distribution
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
本発明の実施形態は、画像処理装置、方法及びプログラムに関する。 Embodiments described herein relate generally to an image processing apparatus, a method, and a program.
撮像画像から空模様を判定する技術が開示されている。撮像画像の画像データを用いて
彩度及び明度を計算し、空模様を判定する。
A technique for determining a sky pattern from a captured image is disclosed. Saturation and brightness are calculated using the image data of the captured image, and a sky pattern is determined.
曇の状態によって異なる空模様を判定するだけでなく、より詳細な雲の状態に関する情
報を得なければ、大気の状態を推定することが難しい。
It is difficult not only to determine the sky pattern depending on the cloudy state, but also to estimate the atmospheric state without obtaining more detailed information about the cloud state.
本発明が解決しようとする課題は大気の状態をより詳細に推定することが可能な画像処
理装置を提供することである。
The problem to be solved by the present invention is to provide an image processing apparatus capable of estimating the atmospheric state in more detail.
実施形態の画像処理装置は、取得部と検出部と推定部と出力部を備える。取得部は空の
画像を取得する。検出部は画像に含まれる画素値を用いて雲の分布を検出する。推定部は
画像の撮像地点と分布とからを予め決められた場所の大気の状態を推定する。出力部は大
気の状態に関する情報を出力する。
The image processing apparatus according to the embodiment includes an acquisition unit, a detection unit, an estimation unit, and an output unit. The acquisition unit acquires an empty image. The detection unit detects a cloud distribution using pixel values included in the image. The estimation unit estimates the state of the atmosphere at a predetermined location based on the image capturing point and distribution. The output unit outputs information related to atmospheric conditions.
以下、本発明の実施形態について図面を参照して詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
(第1の実施形態)
第1の実施形態に係る画像処理装置1は、カメラで撮影した空の画像を使い、大気を計
測するものである。
(First embodiment)
The
画像処理装置1は、入力としてカメラで撮影した空の画像を取得し、画像中の雲の分布
を検出する。雲の有無からカメラとその雲を結ぶ方向の大気の状態、例えば雲水量または
雨水量に関する水蒸気量などを推定する。
The
図1は、本実施形態の画像処理装置1を表すブロック図である。画像処理装置1は、取
得部11と、検出部12と、推定部13と、出力部14とを備える。
FIG. 1 is a block diagram showing an
取得部11は、画像を取得する。画像は、例えば地上や建物に設置されたカメラで空を
撮影したものを使用する。また、魚眼レンズ等を使い全天を撮影したものでもよい。
The
検出部12は、取得した画像から雲を検出する。画像中の雲を検出することで、雲のあ
る領域と雲のない領域を抽出する。
The
推定部13は、検出した画像中の雲の位置と設置されたカメラの位置と方角から上空の
大気の状態を推定する。画像中の各画素の雲の有無から、例えば雲のある領域は水蒸気量
が多い、雲のない領域は水蒸気量が少ないと推定する。
The
出力部14は、推定した大気の状態を出力する。
The
以上、画像処理装置1の構成について説明した。
The configuration of the
図2は、画像処理装置1の処理を表すフローチャートである。図2のフローチャートに
示す処理は取得部11が画像を取得するたびに行われる。
FIG. 2 is a flowchart showing processing of the
ステップS11において、取得部11は画像を取得する(S11)。取得部11は取得
した画像を検出部12に供給する。
In step S11, the
ステップS12において、検出部12は画像から雲を検出し、画像中の雲の領域と雲の
ない領域を推定部13に供給する。
In step S <b> 12, the
雲の検出は、画像の画素ごとに画素値を基準に行う。所定の閾値範囲内の時はその画素
を雲と判定し、範囲外のときは雲がないと判定する。より具体的には、快晴時に撮影した
場合の画像である快晴画像の各画素の画素値を用いる。例えば、予めカメラの位置と撮影
範囲とを計測し、当該カメラの位置と当該撮影範囲と太陽の位置とをから、光の拡散モデ
ルに基づいて当該快晴画像の画素値を算出してよい。ここで、光の拡散モデルには、非特
許文献1記載のものを用いてもよい。
Cloud detection is performed based on the pixel value for each pixel of the image. When the pixel is within the predetermined threshold range, the pixel is determined as a cloud, and when the pixel is out of the range, it is determined that there is no cloud. More specifically, the pixel value of each pixel of a clear image, which is an image taken when clear, is used. For example, the camera position and the shooting range may be measured in advance, and the pixel value of the clear image may be calculated based on the light diffusion model from the camera position, the shooting range, and the sun position. Here, the light diffusion model described in Non-Patent
また予め過去に撮影した画像と、その時の太陽の位置とを記憶しておき、取得された太
陽の位置に近い、過去の画像の領域のうちで、輝度を算出すべき画素に雲が存在しない領
域を選び、その画素の輝度を用いて、現在の快晴画像の輝度値を算出してよい。ここで、
雲が存在しない領域とは、過去に撮影した画像が複数枚ある場合には、輝度値が変化して
いない領域であってよい。あるいは、輝度を算出すべき画素に雲が存在していないものが
複数ある場合には、その平均値から当該快晴画像における輝度値を算出してもよい。
In addition, an image captured in the past and the position of the sun at that time are stored in advance, and there is no cloud in the pixel whose luminance is to be calculated in the past image area close to the acquired position of the sun. A region may be selected, and the luminance value of the current clear image may be calculated using the luminance of the pixel. here,
The area where there is no cloud may be an area where the luminance value has not changed when there are a plurality of images taken in the past. Alternatively, when there are a plurality of pixels for which the luminance is to be calculated without a cloud, the luminance value in the clear image may be calculated from the average value.
また、出力は雲の有無の2値ではなく、ない状態の0からある状態の1までの連続値に
してもよい。また、判定には輝度の代わりに明度や彩度を使ってもよい。また、各画素の
色を色空間の点とみなし、学習等で予め設定した色空間上の関数の出力を判定結果として
もよい。
Further, the output may be a continuous value from 0 in a state where there is no cloud to 1 in a state where there is no cloud. For the determination, brightness or saturation may be used instead of luminance. Alternatively, the color of each pixel may be regarded as a point in the color space, and the output of a function on the color space preset by learning or the like may be used as the determination result.
検出部12が推定部13に出力する雲の領域と雲がない領域のデータは、画像の各画素
に雲があるなら1、雲がないなら0を割り当てたマスク画像でよい。また、判定値が連続
値の場合はその値を入れる。
The data of the cloud region and the cloudless region output from the
また、雲の判定を画像の画素毎ではなく、矩形などの領域ごとに行なっても良い。判定
は、領域内の画素の画素値や明度、彩度などの平均を用いて判定する。また、他に分散、
最大値や最小値を用いてもよい。出力するデータは、雲領域の矩形の右上と左下の頂点の
座標および雲の判定値の組である。この場合は、矩形領域の外が雲のない領域とみなす。
Further, cloud determination may be performed not for each pixel of the image but for each region such as a rectangle. The determination is made using an average of pixel values, brightness, and saturation of the pixels in the region. Also distributed,
A maximum value or a minimum value may be used. The data to be output is a set of coordinates of the upper right and lower left vertices of the rectangle of the cloud region and a cloud judgment value. In this case, the outside of the rectangular area is regarded as a cloudless area.
ステップS13において、推定部13はカメラの設置位置、方向および雲の領域と雲の
ない領域から上空の大気の状態を推定し、出力部14に推定結果を出力する。カメラの設
置位置は、画像が撮像された時の緯度・経度等を用いる。位置と撮像方向から、画像の各
画素に対応する空の方向を計算する。画素の雲判定値を用いて、雲のある場合はその方向
の水蒸気量が多い、雲のない場合は水蒸気量を少ないとする。また、0から1の連続値の
場合は、値に応じてその方向の水蒸気量を推定する。雲の判定を領域単位で行う場合は、
領域ごとに前記の処理を行う。
In step S <b> 13, the
The above processing is performed for each region.
推定部13が出力部14に出力する上空の大気の状態のデータは、カメラの位置、方向
およびその方向に対して推定した水蒸気量の組である。また、大気を3次元メッシュに区
切り、各点の座標と推定した水蒸気量の組みでもよい。
The data of the atmosphere in the sky output from the
ステップS14において、出力部14は推定した上空の大気の状態を出力する。
In step S14, the
本実施形態によれば、大気の状態をより詳細に推定することが可能になる。また、カメ
ラで撮像した空の画像を用いることでカメラを中心として各方向の大気の状態を推定する
ことができる。
According to the present embodiment, it is possible to estimate the state of the atmosphere in more detail. In addition, it is possible to estimate the state of the atmosphere in each direction around the camera by using a sky image captured by the camera.
(第2の実施形態)
第2の実施形態にかかわる画像処理装置2は、雲の種類によってその雲の高さ(雲底な
ど)が分かることを利用し、画像に写っている雲の検出に加えて雲の種類の認識も行う点
が第1の実施形態と異なる。また、雲の種類から雲の高さも推定する点が第1の実施形態
と異なる。以下、第1の実施形態と異なる部分について説明する。
(Second Embodiment)
The
図3は、画像処理装置2を表すブロック図である。画像処理装置2は、画像処理装置1
と比較して、検出部12が抽出部22に置き換わり、推定部13が推定部23に置き換わ
ったものである。抽出部22は、検出12と識別部221とパターン記憶部222を備え
る。
FIG. 3 is a block diagram showing the
As compared with the above, the
抽出部22は、画像から雲を検出し、その雲の種類の識別を行う。雲の種類とは、形状
等によって区分されるものである。例えば、層状雲、対流雲(積乱雲等)のおおまかな分
類である。雲底(高度等)と形状を合わせたより詳細な雲の分類、上層雲(うろこ雲など
)、下層雲(雨雲など)、雷雲(関乱雲など)の分類であればなおよい。雲の種類は地域
によって異なるため、カメラが設置された場所に応じてこれらのテーブルを切り替えても
良い。また、テーブルに地域と雲の出現確率の組を加え、雲の種類識別時にカメラが設置
された地域の出現確率を使用しても良い。
The
識別部221は、画像に対して検出した雲の領域を切り出し、パターン記憶部222に
格納されたパターンとの照合を行い、雲の種類を識別し、対応する雲の高さを出力する。
The identifying
パターン記憶部223は、雲の種類、雲の高さおよび雲のパターンの組を格納する。図4
は雲の種類、雲の高さと雲のパターンのテーブルの一例である。雲のパターンは、領域の
画素値や明度、彩度等を並べたベクトルで保持される。
The pattern storage unit 223 stores a set of cloud type, cloud height, and cloud pattern. FIG.
Is an example of a table of cloud types, cloud heights and cloud patterns. The cloud pattern is held as a vector in which pixel values, brightness, saturation, and the like of the region are arranged.
推定部23は、雲の位置、雲の高さ、設置されたカメラの位置と方向から上空の大気の
状態を推定する。画像中の各画素の雲の有無から方向を、雲の高さから前記方向の雲の奥
行を推定し、雲の有無または判定値でその領域の水蒸気量を推定する。
The
以上、画像処理装置2の構成について、第1の実施形態と異なる部分について説明した
。
Heretofore, the configuration of the
図5は画像処理装置2の処理を表すフローチャートである。図5のフローチャートに示
す処理は取得部11が画像を取得するたびに行われる。以下、第1の実施形態と異なる部
分について説明する。
FIG. 5 is a flowchart showing processing of the
ステップS22について、検出部12で検出した雲の分布に基づいて、雲の種類を識別
する。
In step S22, the type of cloud is identified based on the cloud distribution detected by the
まず、検出した雲の分布に基づき、雲領域を切り出す。次に、切り出した雲領域を予め
定めた大きさに正規化し、パターン記憶部222に格納した雲パターンとマッチングを行
う。マッチングのスコアが予め定めた閾値を超え、最も高いものをその雲の種類とする。
もし、閾値を超えるものがない場合は識別不可とする。また、カメラの設置場所から導出
される雲の種類の出現確率がある場合、雲の種類の各マッチングスコアに対応する出現確
率を掛けたものをスコアとして使用してもよい。識別した雲の種類から、パターン記憶部
222に格納されたテーブルを使い、その雲の高さを推定する。識別部221は推定部2
3に画像中の雲の判定値および各雲の高さを供給する。
First, the cloud region is cut out based on the detected cloud distribution. Next, the extracted cloud region is normalized to a predetermined size and matched with the cloud pattern stored in the
If there is nothing exceeding the threshold, the identification is impossible. When there is an appearance probability of a cloud type derived from the camera installation location, a score obtained by multiplying each cloud type matching score by the appearance probability may be used. From the identified cloud type, the height of the cloud is estimated using a table stored in the
3 is supplied with the judgment value of the cloud in the image and the height of each cloud.
ステップS23について、推定部23はカメラの位置、方向および雲の領域とその奥行
きから出力部14に推定結果を出力する。カメラの設置位置および方向から、画像の各画
素に対応する空の方向を計算し、雲の高さからその方向の奥行きを計算する。
About step S23, the
その画素の雲判定値から、雲のある場合はその位置の水蒸気量が多い、雲のない場合は
水蒸気量を少ないとする。また、0から1の連続値の場合は、値に応じてその位置の水蒸
気量を推定する。雲の判定を領域単位で行う場合は、領域ごとに前記の処理を行う。
From the cloud judgment value of the pixel, it is assumed that when there is a cloud, the amount of water vapor at that position is large, and when there is no cloud, the amount of water vapor is small. In the case of a continuous value from 0 to 1, the amount of water vapor at that position is estimated according to the value. When the cloud determination is performed in units of regions, the above process is performed for each region.
推定部23が出力部14に出力する上空の大気の状態のデータは、カメラの位置、方向
およびその方向に対して推定した水蒸気量の組である。また、大気を3次元メッシュに区
切り、各点の座標と推定した水蒸気量の組みでもよい。
The data of the atmosphere in the sky output from the
以上、画像処理装置2の処理について、第1の実施形態と異なる部分について説明した
。
As above, the processing of the
本実施形態によれば、大気の状態をより詳細に推定することが可能になる。また、カメラ
で撮影した空の画像から、大気の状態を推定することができる。
According to the present embodiment, it is possible to estimate the state of the atmosphere in more detail. In addition, the atmospheric state can be estimated from the sky image taken by the camera.
(第3の実施形態)
第3の実施形態にかかわる画像処理装置3は、時系列の画像を複数枚利用し、雲の動き
を検出することでその雲の位置の風向きも推定する点が第1および第2の実施形態と異な
る。以下、第2の実施形態と異なる部分について説明する。
(Third embodiment)
The
画像処理装置3は、入力として時間的に連続した複数枚の画像列を入力として受け、1
枚ずつ処理を行う。例えば動画像を利用すればよい。
The
Process one by one. For example, a moving image may be used.
図6は、画像処理装置3を表すブロック図である。画像処理装置3は、顔像処理装置2
と比較して、抽出部22が抽出部32に置き換わり、推定部23が推定部33に置き換わ
ったものである。抽出部32は、検出12と識別部221とパターン記憶部222と追跡
部321と雲記憶部322を備える。
FIG. 6 is a block diagram showing the
As compared with the above, the
抽出部32は、画像から雲を検出し、その雲の種類の識別し、過去の画像と比較して雲
の追跡を行う。また、検出した画像と雲の位置を保存する。
The
追跡部321は、検出部12で検出した雲の位置と雲記憶部322に格納された過去の
画像と雲の位置から対応を取り、雲の動きを推定する。雲の位置の対応は、過去の画像か
ら雲領域を切り出し、画像とマッチングすることで行う。対応がついた各雲の動きを出力
する。
The
雲記憶部322は、取得部11で取得した画像と検出部12で検出した雲の位置を記憶
する。取得した画像の代わりに、雲の位置に基づいて、切り出した雲の画像を保持しても
良い。
The
推定部33は、雲の位置、雲の高さ、雲の動き、設置されたカメラの位置と方向から上
空の大気の状態を推定する。画像中の各画素の雲の有無から方向を、雲の高さから奥行き
を推定し、雲の動きからその地点での風向きを推定し、雲の有無または判定値でその領域
の水蒸気量を推定する。
The
以上、画像処理装置3の構成について、第2の実施形態と異なる部分について説明した
。
As above, the configuration of the
図7は画像処理装置3の処理を表すフローチャートである。図7のフローチャートに示す
処理は取得部11が画像を取得するたびに行われる。以下、第2の実施形態と異なる部分
について説明する。
FIG. 7 is a flowchart showing processing of the
ステップS321について、現在の雲と過去の雲のマッチングを行い、雲の動きを検出す
る。まず、雲記憶部322に記憶されたと過去の画像と雲の位置から雲領域を切り出し過
去の雲画像を生成する。次に検出部12で検出した雲の位置と画像から現在の雲画像を生
成し、過去の雲画像と現在の雲画像のマッチングを行う。マッチングできた雲画像につい
て、過去の雲の位置と現在の雲の位置から動きを抽出し、推定部33に供給する。
In step S321, the current cloud and the past cloud are matched, and the movement of the cloud is detected. First, when stored in the
ステップS322について、画像と検出部12で検出した雲の位置を雲記憶部322に記
憶する。
In step S322, the image and the cloud position detected by the
ステップS33について、雲抽出部22で検出した雲の位置に基づいて、雲の種類を識別
する。まず、検出した雲の位置に基づき、雲領域を切り出す。次に、切り出した雲領域を
予め定めた大きさに正規化し、パターン記憶部23に格納した雲パターンとマッチングを
行う。マッチングのスコアが予め定めた閾値を超え、最も高いものをその雲の種類とする
。もし、閾値を超えるものがない場合は識別不可とする。識別した雲の種類から、パター
ン記憶部23に格納されたテーブルを使い、その雲の高さを推定する。抽出部22は推定
部24に画像中の雲の判定値および各雲の高さを供給する。
In step S33, the type of cloud is identified based on the cloud position detected by the
以上、画像処理装置3の処理について、第2の実施形態と異なる部分について説明した。
As above, the processing of the
本実施形態によれば、大気の状態をより詳細に推定することが可能になる。また、カメ
ラで撮像した空の画像を用いることでカメラを中心として各方向の大気の状態を推定する
ことができる。
According to the present embodiment, it is possible to estimate the state of the atmosphere in more detail. In addition, it is possible to estimate the state of the atmosphere in each direction around the camera by using a sky image captured by the camera.
図8は、画像処理装置1、2、3のハードウェア構成の一例を表すブロック図である。
図8に住めすように、画像処理装置1、2、3はCPU801と、画像中から顔と物体の
認識を行う認識プログラムなどを記憶するROM802と、RAM803と、認識テーブ
ルなどを記憶するHDD804と、HDD804とのインタフェイスであるI/F805
と、画像入力用のインタフェイスであるI/F806と、マウスやキーボードなどの入力
装置807と、入力装置807とのインタフェイスであるI/F806と、ディスプレイ
などの表示装置808と、表示装置808とのインタフェイスであるI/F810と、バ
ス88とを備えており、通常のコンピュータを利用したハードウェア構成となっている。
なおCPU801、ROM802、RAM803、I/F805、I/F806、I/F
816、及びI/F810は、バス811を介して互いに接続されている。
FIG. 8 is a block diagram illustrating an example of a hardware configuration of the
As illustrated in FIG. 8, the
An I / F 806 that is an interface for image input, an
816 and I /
画像処理装置1、2、3では、CPU801が、ROM802からプログラムをRAM8
03上に読み出して実行することにより、上記各部(検出部、検出部、推定部等)がコン
ピュータ上で実現され、HDD804に記憶されている照合データ等を用いて、I/F8
06から画像の処理を行う。
In the
The above-described units (detection unit, detection unit, estimation unit, etc.) are realized on a computer by reading them onto 03, and using the collation data stored in the
The image is processed from 06.
なお、プログラムはHDD804に記憶されていてもよい。また、プログラムは、イン
ストール可能な形式又は実行可能な形式のファイルでCD−ROM、CD−R、メモリカ
ード、DVD、フレキシブルディスク(FD)等のコンピュータで読み取り可能な記憶媒
体に記憶されて提供されるようにしてもよい。また、プログラムを、インターネット等の
ネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさ
せることにより提供するようにしてもよい。また、プログラムを、インターネット等のネ
ットワーク経由で提供または配布するようにしてもよい。また、図4のテーブルは、RO
M802に記憶されていてもよい。また、画像をHDD804に記憶しておき、I/F8
05から画像を入力するようにしてもよい。
Note that the program may be stored in the
It may be stored in M802. Also, the image is stored in the
An image may be input from 05.
以上のように、画像処理装置1、2、3では、上空を撮影した画像から雲を検出し、その
結果とカメラの設置位置と方向から上空の水蒸気量などの気象状態を推定することが可能
となる。これにより、レーダのように電磁波を照射する装置を必要とせず、設置が容易な
気象観測装置を実現することができる。また、第2の実施形態によれば、マッチングによ
る雲の種類の識別を行うことで、雲の種類と雲の高さの関係から雲の3次元的な位置を推
定し、上空の気象状態を3次元的に推定することができる。また第3の実施形態によれば
、過去の画像とのマッチングを行うことで雲の移動を検出し、水蒸気量の他に風向きも3
次元的に推定することができる。
As described above, in the
It can be estimated dimensionally.
以上のように上記実施形態によれば、大気の状態をより詳細に推定することが可能にな
る。
As described above, according to the embodiment, it is possible to estimate the atmospheric state in more detail.
11・・・取得部、12・・・検出部、13・・・推定部、14・・・出力部、221・
・・識別部、222・・・パターン記憶部、321・・・追跡部、322・・・雲記憶部
DESCRIPTION OF
..Identification unit, 222... Pattern storage unit, 321... Tracking unit, 322.
Claims (7)
前記画像に含まれる画素値を用いて雲の分布を検出する検出部と
前記画像の撮像地点と前記分布とからを予め決められた場所の大気の状態を推定する推
定部と
前記大気の状態に関する情報を出力する出力部と
を備える画像処理装置。 An acquisition unit for acquiring a sky image, a detection unit for detecting a cloud distribution using pixel values included in the image, and estimating an atmospheric state at a predetermined location based on the image capturing point and the distribution An image processing apparatus comprising: an estimation unit that performs an output; and an output unit that outputs information related to the atmospheric state.
更に備え、
前記推定部は、前記雲の地理的な位置と前記雲の種類とから大気の状態を推定する推定
部とを備えることを特徴とする請求項1記載の画像処理装置。 The cloud distribution and the pattern stored in advance are collated, further comprising an identification unit for identifying the cloud type,
The image processing apparatus according to claim 1, wherein the estimation unit includes an estimation unit that estimates an atmospheric state from a geographical position of the cloud and the type of the cloud.
前記検出した雲と過去の雲とを照合し、雲の移動を検出する追跡部とを更に備え、
前記推定部は前記場所の水蒸気量と、前記雲の移動から風向きとを推定することを特徴
とする請求項2記載の画像処理装置。 The detection unit includes a storage unit that stores a past sky image and a cloud distribution;
A tracking unit that detects the movement of the cloud by comparing the detected cloud with the past cloud, and further comprising:
The image processing apparatus according to claim 2, wherein the estimation unit estimates an amount of water vapor at the location and a wind direction from the movement of the cloud.
項2または3記載の画像処理装置。 The image processing apparatus according to claim 2, wherein the estimation unit estimates an atmospheric state by further using the height of the cloud.
前記パターンは雲の種類と対応する複数の画像であることを特徴とする請求項2乃至4い
ずれか1項記載の画像処理装置。 A storage unit for storing the pattern;
The image processing apparatus according to claim 2, wherein the pattern is a plurality of images corresponding to cloud types.
前記画像に含まれる画素値を用いて雲の分布を検出し、
前記画像の撮像地点と前記分布とからを予め決められた場所の大気の状態を推定し、
前記大気の状態に関する情報を出力する
画像処理方法。 Get an empty image,
Detecting a cloud distribution using pixel values included in the image;
Estimating the state of the atmosphere in a predetermined place from the imaging point of the image and the distribution,
An image processing method for outputting information relating to the atmospheric state.
空の画像を取得する取得手段と、
前記画像に含まれる画素値を用いて雲の分布を検出する検出手段と、
前記画像の撮像地点と前記分布とからを予め決められた場所の大気の状態を推定する推
定手段と、
前記大気の状態に関する情報を出力する出力手段
として機能させる画像処理プログラム。 An acquisition means for acquiring an empty image from the computer;
Detecting means for detecting a cloud distribution using pixel values included in the image;
Estimating means for estimating the state of the atmosphere in a predetermined place from the imaging point of the image and the distribution;
An image processing program that functions as output means for outputting information relating to the atmospheric state.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012190664A JP2014048131A (en) | 2012-08-30 | 2012-08-30 | Image processing device, method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012190664A JP2014048131A (en) | 2012-08-30 | 2012-08-30 | Image processing device, method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014048131A true JP2014048131A (en) | 2014-03-17 |
Family
ID=50607964
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012190664A Pending JP2014048131A (en) | 2012-08-30 | 2012-08-30 | Image processing device, method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014048131A (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017067597A (en) * | 2015-09-30 | 2017-04-06 | 株式会社東芝 | River information system and detection method |
JP2017067487A (en) * | 2015-09-28 | 2017-04-06 | 国立大学法人 鹿児島大学 | Data processing method, data processing device, and program |
JP2017532579A (en) * | 2014-09-26 | 2017-11-02 | レユニワット | Detection apparatus and method for identifying and monitoring clouds in an empty observation region |
JP2018054455A (en) * | 2016-09-29 | 2018-04-05 | 株式会社Subaru | Cloud position estimation device, cloud position estimation method and cloud position estimation program |
WO2020027167A1 (en) * | 2018-08-02 | 2020-02-06 | Nec Corporation | System, method, and non-transitory, computer-readable medium containing instructions for image processing |
US10712473B2 (en) | 2016-09-15 | 2020-07-14 | Kabushiki Kaisha Toshiba | Weather data processing apparatus and method using weather radar |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004170202A (en) * | 2002-11-19 | 2004-06-17 | Casio Comput Co Ltd | Weather prediction server, portable electronic equipment, and program |
JP2011137612A (en) * | 2009-12-28 | 2011-07-14 | Toshiba Corp | Device for calculating solar radiation and air conditioning control system |
-
2012
- 2012-08-30 JP JP2012190664A patent/JP2014048131A/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004170202A (en) * | 2002-11-19 | 2004-06-17 | Casio Comput Co Ltd | Weather prediction server, portable electronic equipment, and program |
JP2011137612A (en) * | 2009-12-28 | 2011-07-14 | Toshiba Corp | Device for calculating solar radiation and air conditioning control system |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017532579A (en) * | 2014-09-26 | 2017-11-02 | レユニワット | Detection apparatus and method for identifying and monitoring clouds in an empty observation region |
JP2017067487A (en) * | 2015-09-28 | 2017-04-06 | 国立大学法人 鹿児島大学 | Data processing method, data processing device, and program |
JP2017067597A (en) * | 2015-09-30 | 2017-04-06 | 株式会社東芝 | River information system and detection method |
US10712473B2 (en) | 2016-09-15 | 2020-07-14 | Kabushiki Kaisha Toshiba | Weather data processing apparatus and method using weather radar |
JP2018054455A (en) * | 2016-09-29 | 2018-04-05 | 株式会社Subaru | Cloud position estimation device, cloud position estimation method and cloud position estimation program |
WO2020027167A1 (en) * | 2018-08-02 | 2020-02-06 | Nec Corporation | System, method, and non-transitory, computer-readable medium containing instructions for image processing |
US10650498B2 (en) | 2018-08-02 | 2020-05-12 | Nec Corporation | System, method, and non-transitory, computer-readable medium containing instructions for image processing |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101283262B1 (en) | Method of image processing and device thereof | |
JP6554169B2 (en) | Object recognition device and object recognition system | |
JP6144656B2 (en) | System and method for warning a driver that visual recognition of a pedestrian may be difficult | |
JP6428266B2 (en) | COLOR CORRECTION DEVICE, COLOR CORRECTION METHOD, AND COLOR CORRECTION PROGRAM | |
US10452922B2 (en) | IR or thermal image enhancement method based on background information for video analysis | |
JP2014048131A (en) | Image processing device, method, and program | |
US9047673B2 (en) | Apparatus and method for extracting target, and recording medium storing program for performing the method | |
EP2959454A1 (en) | Method, system and software module for foreground extraction | |
JP2008192131A (en) | System and method for performing feature level segmentation | |
KR20150136225A (en) | Method and Apparatus for Learning Region of Interest for Detecting Object of Interest | |
US9014426B2 (en) | Method and device for the detection of moving objects in a video image sequence | |
WO2013102797A1 (en) | System and method for detecting targets in maritime surveillance applications | |
JP2007011490A (en) | Device and method for detecting road parameter | |
JP2014021602A (en) | Image processor and image processing method | |
CN107316318A (en) | Aerial target automatic testing method based on multiple subarea domain Background fitting | |
EP2791865B1 (en) | System and method for estimating target size | |
JP5651659B2 (en) | Object detection system and program | |
JP6275022B2 (en) | Image monitoring device | |
JP6326622B2 (en) | Human detection device | |
US20180150966A1 (en) | System and method for estimating object size | |
EP4006829A1 (en) | Information processing device, data generation method, and non-transitory computer-readable medium having program stored thereon | |
JPWO2018110377A1 (en) | Video surveillance device | |
JP2014053859A (en) | Mobile object observation system | |
JP7453668B2 (en) | Learning processing device, learning processing method, object detection device, object detection method, and program | |
JP6239334B2 (en) | Object image extraction apparatus and object image extraction method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140408 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20150216 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20150218 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150306 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150313 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20150821 |