JP7397781B2 - 学習装置、学習方法および予測装置 - Google Patents

学習装置、学習方法および予測装置 Download PDF

Info

Publication number
JP7397781B2
JP7397781B2 JP2020174153A JP2020174153A JP7397781B2 JP 7397781 B2 JP7397781 B2 JP 7397781B2 JP 2020174153 A JP2020174153 A JP 2020174153A JP 2020174153 A JP2020174153 A JP 2020174153A JP 7397781 B2 JP7397781 B2 JP 7397781B2
Authority
JP
Japan
Prior art keywords
learning
information
point
water level
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020174153A
Other languages
English (en)
Other versions
JP2022065522A (ja
Inventor
剛 大野
一教 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Taisei Corp
Original Assignee
Taisei Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Taisei Corp filed Critical Taisei Corp
Priority to JP2020174153A priority Critical patent/JP7397781B2/ja
Publication of JP2022065522A publication Critical patent/JP2022065522A/ja
Application granted granted Critical
Publication of JP7397781B2 publication Critical patent/JP7397781B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A10/00TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE at coastal zones; at river basins
    • Y02A10/40Controlling or monitoring, e.g. of flood or hurricane; Forecasting, e.g. risk assessment or mapping

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は、学習装置、学習方法および予測装置に関する。
近年、地球温暖化の影響により豪雨災害が増加しており、河川では外水、内水氾濫に依る被害が増えている。河川工事においても、水位の上昇により作業員や建設資機材(重機や資材)への被害(流出、沈没など)が発生する可能性がある。その為、河川工事において事前に水位を予測し工事関係者に周知することは、作業員や建設資機材(重機や資材)を守る上で重要である。
従来から、河川工事現場に対して出水警報システムを適用することが行われている。従来の出水警報システムの構成例を図16に示す。図16に示す出水警報システムでは、気象庁から雨に関する情報を取得し、また、国土交通省から河川に関する情報を取得し、これらの情報を解析することによって河川の水位を予測する。予測した河川の水位や予測に基づく警報は、インターネットや携帯メールなどを介して工事地点にいる工事関係者に通知される。従来の出水警報システムでは、水理公式に基づいた物理モデル(水位予測モデル)により河川水位を予測しており、例えば(1)「数値モデル」、(2)「回帰モデル」、(3)「累積雨量モデル」、(4)「保存則モデル」などの物理モデルが利用される(例えば、特許文献1、2参照)。
「数値モデル」は、予測地点より上流の水位や降雨分布、土地利用、標高を入力値として分布型流出解析により工事地点の水位を求める物理モデルである。「回帰モデル」は、予測地点より上流の観測所水位と予測地点の水位の回帰式を求め、回帰式から予測地点の水位を予測する物理モデルである。「累積雨量モデル」は、予測地点より上流の流域内における雨量と予測地点の水位の関係から出水の有無を判断する物理モデルである。「保存則モデル」は、予測地点より上流の流域内における雨量と予測地点の水位の関係から予測地点の水位を予測する物理モデルである。
特開2019-045290号公報 特開2008-015916号公報
従来の水位予測モデルは、水位予測モデルの構築に必要な過去データの整理や水位予測モデルに用いるパラメータのチューニングに時間と手間を要することが多々あった。その結果、従来の水位予測モデルには、例えば以下の課題があった。
第一に、線状降水帯などで下流域のみに豪雨が発生した場合、工事地点の水位を予測することが難しいという課題がある(特に、回帰モデル)。
第二に、上流に水位観測所が無い(または少ない)場合、工事地点の水位を予測できないという課題がある。
第三に、予測モデルの構築に手間と時間を要するという課題がある。
第四に、予測時間が2~3時間程度の場合、工事関係者の退避は可能だが、工事ヤード内の重機や資機材を退避、養生させることができないという課題があった。工事ヤード内の重機や資機材を退避、養生させるために、少なくとも10時間程度、可能であれば20時間前に工事地点の水位を知りたいという要望もあった。
このような観点から、本発明は、事前の準備が簡単であると共に精度の良い予測を実現可能である学習装置、学習方法および予測装置を提供する。
本発明に係る学習装置は、ある第一時点での河川の水位と、前記第一時点よりも過去の時間的に連続した二つ以上の第二時点での代表点情報および降雨量情報との組を学習データとして取得する学習データ取得部と、学習器を有しており、前記学習データを用いて前記学習器を機械学習させる学習処理部とを備える。
前記代表点情報は、前記河川の集水域の少なくとも一部を含む範囲内における降雨の強度を重さに見立てた場合における前記範囲の重心である代表点に関する情報であり、前記降雨量情報は、前記範囲の降雨量に関する情報である。
前記学習処理部は、時間的に連続した二つ以上の第三時点における代表点情報および降雨量情報を入力することによって前記第三時点よりも未来の第四時点での前記河川の水位を出力するように前記学習器を学習させる。
本発明に係る学習装置においては、機械学習を用いることでパラメータチューニングの手間が減る(学習時にパラメータを設定する)ので、従来よりも事前の準備に要する労力が軽減される。また、学習データに用いる代表点情報は、降雨の強度分布が反映されているので、当該学習データを用いて学習した学習器を用いると、様々な降雨パターンに対して水位を予測することができる。
降雨の強度分布を色の変化で示した雨雲画像から前記代表点情報および前記降雨量情報を算出する画像処理部をさらに備えてもよい。
雨雲画像は日本全域をカバーしており、また入手が容易(例えば気象庁から購入可能)なので、雨雲画像を用いれば、日本全域の任意の地点における水位を容易に予測することができる。また、天気予報の雨雲画像(将来の雨雲画像)を用いることで長時間先の水位を予測することができるので、時間的な余裕をもって工事ヤード内の重機や資機材を退避、養生させることが可能である。なお、雨雲画像そのものを用いて学習を行わない理由は、雨雲画像の全データ(全ピクセル値)を用いると、データ数が画像の解像度に依存して1画像当たり数万~数十万データとなってしまい、例えばニューラルネットワークの係数(重み)が収束しない、多大な計算時間がかかるなどの課題が発生するためである。
本発明に係る学習装置は、ある第一時点での河川の水位と、前記第一時点よりも過去の少なくとも一つ以上の第二時点での代表点情報および降雨量情報との組を学習データとして取得する学習データ取得部と、学習器を有しており、前記学習データを用いて前記学習器を機械学習させる学習処理部と、を備える。
前記代表点情報は、前記河川の集水域の少なくとも一部を含む範囲内における降雨の強度分布が反映された代表点に関する情報であり、前記降雨量情報は、前記範囲の降雨量に関する情報である。
前記学習処理部は、少なくとも一つ以上の第三時点における代表点情報および降雨量情報を入力することによって前記第三時点よりも未来の第四時点での前記河川の水位を出力するように前記学習器を学習させる。
また、この学習装置は、降雨の強度分布を色の変化で示した雨雲画像から前記代表点情報および前記降雨量情報を算出する画像処理部をさらに備える。前記画像処理部は、前記第二時点での前記雨雲画像を構成する各ピクセルのRGB値を輝度値に変換し、前記輝度値を重さに見立てた場合における前記範囲の重心を前記代表点として算出し、当該重心の位置および予め決められた基準点から当該重心までの距離を前記代表点情報として求める。また、前記画像処理部は、前記第二時点での前記範囲における各ピクセルの前記輝度値から算出した統計値を前記降雨量情報として求める。
前記学習データ取得部は、前記第一時点よりも過去の時点であって、降雨による水位変化の影響がおよぶ時間帯に含まれる第五時点での水位をさらに含めた学習データを取得してもよい。その場合、前記学習処理部は、時間的に連続した二つ以上の第三時点における代表点情報および降雨量情報と、前記第五時点に対応する第六時点での水位とを入力することによって、前記第四時点での前記河川の水位を出力するように前記学習器を学習させる。
このようにすると、基準となる水位の情報が学習データに反映されるので、さらに精度の良い予測を実現可能である。
本発明に係る学習方法は、ある第一時点での河川の水位と、前記第一時点よりも過去の時間的に連続した二つ以上の第二時点での代表点情報および降雨量情報との組を学習データとして取得する学習データ取得工程と、前記学習データを用いて学習器を機械学習させる学習処理工程とを有する。
前記代表点情報は、前記河川の集水域の少なくとも一部を含む範囲内における降雨の強度を重さに見立てた場合における前記範囲の重心である代表点に関する情報であり、前記降雨量情報は、前記範囲の降雨量に関する情報である。
前記学習処理工程では、時間的に連続した二つ以上の第三時点における代表点情報および降雨量情報を入力することによって前記第三時点よりも未来の第四時点での前記河川の水位を出力するように前記学習器を学習させる。
本発明に係る学習方法においては、機械学習を用いることでパラメータチューニングの手間が減る(学習時にパラメータを設定する)ので、従来よりも事前の準備に要する労力が軽減される。また、学習データに用いる代表点情報は、降雨の強度分布が反映されているので、当該学習データを用いて学習した学習器を用いると、様々な降雨パターンに対して水位を予測することができる。
本発明に係る予測装置は、上記記載の学習方法によって学習した学習済みの学習器を備え、前記第三時点における代表点情報および降雨量情報を前記学習済みの学習器に入力することによって前記第四時点での前記河川の水位を予測するものである。
本発明に係る予測装置を用いることにより、様々な降雨パターンに対して水位を予測することができる。
本発明によれば、事前の準備が簡単であると共に精度の良い予測を実現可能である。
本発明の第1実施形態に係る学習装置および予測装置の機能構成図である。 河川および集水域のイメージ図である。 画像処理部の処理を説明するための図であり、(a)は雨雲画像の例示であり、(b)は集水域内の雨雲画像を抽出した集水域画像の例示であり、(c)は代表点の例示である。 本発明の第1実施形態における学習データ群の一例である。 本発明の第1実施形態に係る学習方法および予測方法のフローチャートの例示である。 江尻観測所における2007~2018年の水位変化は示すグラフである。 予測試験の実施手順を示すフローチャートである。 交差検証におけるテストデータと学習データとの関係を示す図である。 2016年の実測水位と第1実施形態での予測試験における予測水位とを比較した図であり、(a)は2016/6/1~2016/11/30の範囲のグラフであり、(b)は(a)の部分拡大図である。 2017年の実測水位と第1実施形態での予測試験における予測水位とを比較した図であり、(a)は2017/6/1~2017/11/30の範囲のグラフであり、(b)は(a)の部分拡大図である。 2018年の実測水位と第1実施形態での予測試験における予測水位とを比較した図であり、(a)は2018/6/1~2018/11/30の範囲のグラフであり、(b)は(a)の部分拡大図である。 本発明の第2実施形態に係る学習データ群の一例である。 2016年の実測水位と第2実施形態での予測試験における予測水位とを比較した図であり、(a)は2016/6/1~2016/11/30の範囲のグラフであり、(b)は(a)の部分拡大図である。 2017年の実測水位と第2実施形態での予測試験における予測水位とを比較した図であり、(a)は2017/6/1~2017/11/30の範囲のグラフであり、(b)は(a)の部分拡大図である。 2018年の実測水位と第2実施形態での予測試験における予測水位とを比較した図であり、(a)は2018/6/1~2018/11/30の範囲のグラフであり、(b)は(a)の部分拡大図である。 従来の出水警報システムの構成例である。
以下、本発明の実施をするための形態を、適宜図面を参照しながら詳細に説明する。各図は、本発明を十分に理解できる程度に、概略的に示してあるに過ぎない。よって、本発明は、図示例のみに限定されるものではない。なお、各図において、共通する構成要素や同様な構成要素については、同一の符号を付し、それらの重複する説明を省略する。
[第1実施形態]
<第1実施形態に係る学習装置および予測装置の構成について>
図1を参照して、第1実施形態に係る学習装置10および予測装置20について説明する。図1は、第1実施形態に係る学習装置10および予測装置20の機能構成図である。なお、学習装置10および予測装置20を一つの装置として構成することもできる。
学習装置10は、河川の集水域(「流域」とも呼ばれる)での降雨の状況と当該河川の水位との関係を学習する装置である。学習装置10は、雨雲画像Fを処理することによって得られる情報を用いて機械学習を行う。
予測装置20は、河川の集水域での降雨の状況から当該河川の所定時間後の水位を予測する装置である。予測装置20は、雨雲画像Fを処理することによって得られる情報を用いて水位の予測を行う。
雨雲画像Fは、降雨の強度分布を色の変化で示したRGB画像である。雨雲画像Fは、例えば気象庁が公表したものであってよい。雨雲画像Fにおける強度分布では、例えば水色、青色、緑色、黄緑色、黄色、橙色、紫色、赤色の順に降雨の強度が強まることを表す(つまり、水色が弱雨であり、赤色が強雨である)。雨雲画像Fには、学習(または予測)を行う河川の集水域における降雨の強度分布が示されている。雨雲画像Fには、河川の集水域全体の強度分布が示されているのが望ましいが、必ずしも全体が示されていなくてもよい(つまり、河川の集水域の一部が示されていてもよい)。雨雲画像Fは、いつの時点の強度分布であるかを示す情報(例えば、日時)を有しているのが望ましい。
以下では、学習段階で使用する雨雲画像Fを特に「雨雲画像F1」と表記し、また、予測段階で使用する雨雲画像Fを特に「雨雲画像F2」と表記する場合がある。
(学習装置の構成)
図1に示すように、学習装置10は、画像処理部11と、学習データ取得部12と、学習処理部13とを備える。画像処理部11、学習データ取得部12および学習処理部13は、CPU(Central Processing Unit)によるプログラム実行処理や、専用回路等により実現される。これらの機能がプログラム実行処理により実現する場合、当該機能を実現するためのプログラムが図示しない記憶部に格納される。
画像処理部11には、雨雲画像F1が入力される。画像処理部11に入力される雨雲画像F1の数は特に制限がなく、例えば一時間ごとの雨雲画像F1が入力される。画像処理部11は、雨雲画像F1から代表点情報および降雨量情報を求める。
ここでの代表点は、河川の集水域の降雨の強度分布が反映されたものであり、雨雲画像F1を画像処理することによって求められる。代表点は、例えば降雨の強度を重さに見立てた場合の集水域の重心である。代表点情報は、例えば代表点の位置、予め決められた基準点から代表点までの距離である。
降雨量情報は、河川の集水域の降雨量に関する情報であり、例えば集水域全体の統計値(例えば平均値)である。降雨量情報は、雨雲画像F1を画像処理することによって求められる。なお、降雨量情報は、実測値であってよい。
図2および図3を参照して、画像処理部11の処理について説明する。図2は、河川および集水域のイメージ図である。図3は、画像処理部の処理を説明するための図であり、(a)は雨雲画像F1の例示であり、(b)は集水域内の雨雲画像を抽出した集水域画像Eの例示であり、(c)は代表点の例示である。
図2では、河川を符号K1で表し、集水域を符号K2で表している。集水域K2は、降った雨が河川K1に流れ込む領域を示しており、集水域K2に降った雨は河川K1を介して海K3に流出する。集水域K2は、例えば国土交通省が公開している流域図に基づくものであってよい。また、河川K1の下流には観測所K4が設けられており、河川K1の水位を計測できる。河川K1の上流に降った雨が観測所K4での水位変化に影響を与えるまでの時間は、河川K1の特徴により決定され、例えば河川の長さや高低差によって決まる。なお、図2に示す河川K1は、阿武隈川である。
画像処理部11は、雨雲画像F1(図3(a)参照)から集水域K2部分の画像である集水域画像E(図3(b)参照)を抽出し、集水域画像Eを構成する各ピクセルのRGB値を輝度値に変換する。輝度値は、グレー値などとも呼ばれる。RGB値から輝度値への変換は、例えば式(1)を用いて行う。
・輝度値 = 255-(0.587 * r値 + 0.114 * g値+ 0.299 * b値) ・・式(1)
降雨の強度分布では、水色が弱雨、赤が強雨なので、輝度変換することによって水色の輝度値が「0(ゼロ)」に近く、赤色の輝度値が「255」に近くなるように輝度変換の式を構築する。つまり、強度分布での降雨の強度に対応させて、RGB値の赤、青、緑に重み付けをしている。これにより、画像処理部11は、集水域画像E(図3(b)参照)を輝度変換したグレー画像D(図3(c)参照)を作成する。
また、画像処理部11は、グレー画像D(図3(c)参照)を構成する各ピクセルの輝度値を重さに見立てた場合における集水域K2の重心Gを代表点として算出する。集水域K2の重心の算出は、雨雲画像F1(図3(a)参照)に設定した基準点(ここでは、原点O)から各ピクセルまでの距離(例えば、座標値)と輝度値の大きさとから重心を求めることが可能であり、例えば式(2)を用いて行う。ここでの原点Oは、雨雲画像F1の左下頂点であり、雨雲画像F1を構成する辺にx軸、y軸を設定しており、x座標値およびy座標値は、例えば、ピクセルの位置(配列)に対応している。
・重心Gのx座標xG = (x1m1+ x2m2 + … + xnmn) / (m1 + m2 + … + mn) ・・式(2)
ここで、「x1,x2, … ,xn」は、原点Oから各ピクセルまでのx軸方向の距離(x座標値)であり、「m1,m2, … ,mn」は、各ピクセルの輝度値である。重心Gのy座標値についても同様に算出し、重心Gの重心座標(xG, yG)が求まる。
そして、画像処理部11は、重心Gの位置(重心座標(xG, yG))および基準点(ここでは原点O)から重心Gまでの距離Lを代表値情報とする。また、画像処理部11は、グレー画像D(図3(c)参照)を構成する各ピクセルの輝度値の統計値を算出し、算出した統計値を降雨量情報とする。統計値は、例えばグレー画像Dを構成する各ピクセルの輝度値の平均値でよい。
図1に示す学習データ取得部12は、観測所で計測した河川の水位と、画像処理部11によって求められた重心Gの位置(重心座標(xG, yG))、原点Oから重心Gまでの距離Lおよびグレー画像Dにおける輝度値の平均値とを組み合わせて学習データとして整理する。観測所で計測した河川の水位は、例えば国土交通省が公表したものであってよい。学習データ取得部12は、例えば水位の予測を行う者(以下では、「ユーザ」と呼ぶ)の指示に従って学習データを整理する。なお、河川の水位、重心Gの位置、重心Gまでの距離Lおよび輝度値の平均値を組み合わせた状態で予め記憶部に登録しておき、学習データ取得部12が登録されていた情報を学習データとして取得してもよい。記憶部は、通信回線を介して接続される装置が備えるものであってもよい(例えば、クラウドシステム)。以下では、整理した学習データのまとまりを「学習データ群」と呼ぶ場合がある。
学習データ取得部12によって整理された学習データ群の一例を図4に示す。図4に示す学習データ群は、水位測定時刻が異なる複数の学習データによって構成されている。図4に示す学習データ群には、2007年~2018年における情報が含まれており、各年度の情報は6月~11月において一時間ごとに計測した水位に対応する情報となっている。各々の学習データは、「水位測定時刻」と、「水位」と、水位測定時刻の14時間前から5時間前までの一時間ごとの「重心座標」、「重心までの距離」および「集水域内の雨量」と、で構成される。図4に示す集水域内の雨量としては、グレー画像Dを構成する各ピクセルの輝度値の平均値が登録されているが、実際に計測した雨量であってもよい。このように、学習データ取得部12は、ある第一時点(図4の水位測定時刻)での河川の水位と、前記第一時点よりも過去の少なくとも一つ以上の第二時点(図4での水位測定時刻の14時間前から5時間前の時刻)での代表点情報および降雨量情報との組を学習データとして取得する。
図1に示す学習処理部13は、学習器を有しており、学習データ取得部12で取得した学習データを用いて学習器を機械学習させる。学習器は、機械学習における学習システムであり、与えられたデータを基に分類・予測・判定などした結果と正答となる実際の結果とを比較し、各種パラメータを調整することで良い結果を導くことが可能になる。学習器は、例えばニューラルネットワークであり、本実施形態でもニューラルネットワークを想定して説明する。なお、学習器は、「学習モデル」などとも呼ばれる。
ニューラルネットワークは、周知のように人間の脳の動きをコンピュータに模倣させる目的で生まれた情報処理手法である。ニューラルネットワークは、複雑な非線形処理を得意とし、学習機能を用いることで説明変数と目的変数の関係を定式化する必要がないという特徴を持つ。ニューラルネットワークは、一般的に入力層、中間層、出力層で構成される。入力層には説明変数が入力され、出力層からは目的変数が出力される。中間層は、両者を関係づける役割を担っている。中間層の層数および各中間層のニューロン数には制約が無く、任意に設定することができる。
学習器を学習させる方法は特に限定されず、例えば誤差逆伝播法によって学習器を学習させる。具体的には、学習データを構成する水位測定時刻の14時間前から5時間前までの一時間ごとの「重心座標」、「重心までの距離」および「集水域内の雨量」が入力層に入力され、出力層から出力される結果と当該水位測定時刻における「水位」との誤差に基づいて中間層を調整する。つまり、学習処理部13は、少なくとも一つ以上の第三時点における代表点情報および降雨量情報を入力することによって前記第三時点よりも未来の第四時点での河川の水位を出力するように学習器を機械学習させる。学習させる学習データの数は特に限定されず、例えば期待する精度に到達することで学習を終了する。
(予測装置の構成)
図1に示すように、予測装置20は、画像処理部21と、予測データ取得部22と、予測処理部23とを備える。画像処理部21、予測データ取得部22および予測処理部23は、CPU(Central Processing Unit)によるプログラム実行処理や、専用回路等により実現される。これらの機能がプログラム実行処理により実現する場合、当該機能を実現するためのプログラムが図示しない記憶部に格納される。
画像処理部21には、雨雲画像F2が入力される。画像処理部21に入力される雨雲画像F2の数は特に制限がなく、例えば一時間ごとの雨雲画像F2が入力される。画像処理部21は、雨雲画像F2から代表点情報および降雨量情報を求める。画像処理部21の処理は、学習段階における画像処理部11の処理と同様であるので詳細な説明を省略する。なお、雨雲画像F2は、過去のもの(例えば実測したもの)であってもよいし、未来のもの(例えば予報したもの)であってもよい。つまり、過去の実際の雨雲画像F2から数時間後(例えば、現在または近い未来)の水位を予測することもできるし、予報として公表された未来の雨雲画像F2からさらに数時間後の水位を予測することもできる。
図1に示す予測データ取得部22は、画像処理部21によって求められた重心Gの位置(重心座標(xG, yG))、原点Oから重心Gまでの距離Lおよびグレー画像Dにおける輝度値の平均値とを組み合わせて予測データとして整理する。なお、河川の水位、重心Gの位置、重心Gまでの距離Lおよび輝度値の平均値を組み合わせた状態で予め記憶部に登録しておき、予測データ取得部22が登録されていた情報を予測データとして取得してもよい。記憶部は、通信回線を介して接続される装置が備えるものであってもよい(例えば、クラウドシステム)。予測データは、雨雲画像F1と同様の形式の雨雲画像F2を用いて算出されたものであることが望ましい。このように、予測データ取得部22は、少なくとも一つ以上の第三時点(本実施形態では水位を予測する時刻の14時間前から5時間前の時刻)での代表点情報および降雨量情報との組を学習データとして取得する。
図1に示す予測処理部23は、学習済みの学習器を有している。学習済みの学習器は、学習装置10によって学習器を機械学習させたものである。つまり、学習済みの学習器は、少なくとも一つ以上の第三時点における代表点情報および降雨量情報を入力することによって第三時点よりも未来の第四時点での河川の水位を出力するように学習されたものである。予測処理部23は、予測データ取得部22で取得した予測データを学習済みの学習器に入力することによって、予測データに含まれる第三時点よりも未来の第四時点での河川の水位を予測し、予測した結果を出力する。
<第1実施形態に係る学習方法および予測方法について>
図5を参照して(適宜、図1ないし図4を参照)、第1実施形態に係る学習方法および予測方法について説明する。図5は、第1実施形態に係る学習方法および予測方法のフローチャートの例示である。
図5に示すように、第1実施形態に係る学習方法に対応する予測モデルの構築工程(ステップS10)は、入力データ(過去)の準備工程(ステップS11)と、パラメータチューニング工程(ステップS12)と、予測精度の判定工程(ステップS13)とを主に有する。また、第1実施形態に係る予測方法に対応する水位予測工程(ステップS20)は、入力データ(リアルタイム)の準備工程(ステップS21)と、予測手法による計算工程(ステップS22)と、予測結果の確認工程(ステップS23)と、工事関係者への提供工程(ステップS24)とを主に有する。
(入力データ(過去)の準備工程(ステップS11))
ユーザは、予測モデル(学習器)の学習に用いる雨雲画像F1および計測した河川の水位の情報を準備する。ユーザは、例えば一時間ごとの雨雲画像F1および河川の水位情報を準備する。河川の水位は、予測する地点に対応した場所の水位であり、例えば国土交通省が公表したものであってよい。雨雲画像F1は、例えば気象庁が公表したものでよく、気象庁が公表する情報は日本全国を網羅しているので、手間と時間をかけずに雨雲画像F1を準備できる。
学習装置10の画像処理部11は、上述した手法を用いて雨雲画像F1(図3(a)参照)から代表点情報および降雨量情報を算出する。代表点情報は、例えば集水域K2の重心Gの位置(重心座標(xG, yG))および基準点(ここでは原点O)から重心Gまでの距離Lである。また、降雨量情報は、例えば集水域K2を構成する各ピクセルの輝度値の平均値である。学習データ取得部12は、観測所で計測した河川の水位と、画像処理部11によって求められた重心Gの位置(重心座標(xG, yG))、原点Oから重心Gまでの距離Lおよびグレー画像Dにおける輝度値の平均値とを組み合わせて学習データとして整理する。整理された学習データは図示しない記憶部に格納される。
(パラメータチューニング工程(ステップS12))
学習装置10の学習データ取得部12は、学習データを順次取得し、学習処理部13は、取得した学習データを用いて学習器を機械学習させる。学習器としてニューラルネットワークを想定した場合、学習データによって中間層を調整する。学習処理部13は、少なくとも一つ以上の第三時点における代表点情報および降雨量情報を入力することによって前記第三時点よりも未来の第四時点での河川の水位を出力するように学習器を機械学習させる。
(予測精度の判定工程(ステップS13))
本工程では、学習を行った学習器の予測精度を判定し、予測精度がユーザが設定した基準を満たしている場合に学習工程を終了する(予測精度「良」の場合)。一方、学習器の予測精度が設定した基準を満たしていない場合(予測精度「不良」の場合)にパラメータチューニング工程(ステップS12)を引き続き実施し、学習工程を継続する。なお、パラメータチューニング工程(ステップS12)および予測精度の判定工程(ステップS13)は、交差検証によって実現されてもよい。交差検証を用いて学習を行う場合、例えば整理したデータのうち予測する年のデータをテストデータとして、それ以外を学習データに分類して各年の水位を予測する。詳細は後記する。
(入力データ(リアルタイム)の準備工程(ステップS21))
ユーザは、河川の水位の予測に用いる雨雲画像F2を準備する。ユーザは、例えば一時間ごとの雨雲画像F2を準備する。雨雲画像F2は、例えば気象庁が公表したものでよい。予測装置20の画像処理部21は、ステップS11の準備工程と同じようにして雨雲画像F2から代表点情報および降雨量情報を算出する。そして、予測データ取得部22は、画像処理部21によって求められた重心Gの位置(重心座標(xG, yG))、原点Oから重心Gまでの距離Lおよびグレー画像Dにおける輝度値の平均値とを組み合わせて予測データとして整理する。
(予測手法による計算工程(ステップS22))
予測装置20の予測データ取得部22は、予測データを取得し、予測処理部23は、予測データを学習済みの学習器に入力することで河川の水位を予測する。学習済みの学習器は、少なくとも一つ以上の第三時点における代表点情報および降雨量情報を入力することによって第三時点よりも未来の第四時点での河川の水位を出力するように学習されたものである。
(予測結果の確認工程(ステップS23)および工事関係者への提供工程(ステップS24))
ユーザは、ステップS22で予測された水位の予測結果を確認し、例えば必要に応じて工事関係者へ予測水位の情報を提供する。工事関係者は、提供される予測水位に基づいて、工事ヤード内の重機や資機材を退避、養生などさせる。
<第1実施形態に係る学習装置および予測装置の効果>
以上のように、第1実施形態に係る学習装置10および予測装置20では、学習および予測に雨雲画像Fを用いることで、様々な降雨パターンに対して水位を予測することができる。
また、気象庁が公表する天気予報の雨雲画像Fは全国をカバーしているため、任意の地点において水位を予測することができる。
また、雨雲画像Fは入手が容易であると共に、学習器としてニューラルネットワークを用いることでパラメータチューニングの手間が軽減するので、水位予測手法の構築や必要データ収集の手間や時間が従来よりも抑制される。
また、気象庁が公表する天気予報の雨雲画像Fを用いることで、長時間先の水位予測が可能となり、時間的な余裕をもって工事ヤード内の重機や資機材を退避、養生も可能である。
第1実施形態に係る学習装置10および予測装置20の効果を検証するために、実際のデータを用いた予測試験を行ったので説明する。
予測試験では、阿武隈川の江尻観測所を事例に、雨雲画像Fを用いて機械学習の一手法であるニューラルネットワーク(NN)により江尻観測所の水位を予測した。阿武隈川は、図2の符号K1で示す河川であり、江尻観測所は、図2の符号K4に示す位置にある。阿武隈川の流路長は約250kmであり、流域面積は約5,200km2である。図2に示すように、江尻観測所は阿武隈川の下流部に位置している。
2007~2018年の12年分のデータを用いて予測試験を行った。江尻観測所における、2007~2018年の水位変化は図6に示す通りである。水位は年間を通して平均で「T.P.+6m」程度で推移しており、降雨や融雪により「T.P.+8m」を超える出水が複数回(図6では合計44回)発生した。本発明では雨雲画像を用いるため、降雨のみの影響で水位が変動する6~11月における江尻観測所の水位を予測する。
予測試験の実施手順を図7に示す。図7は、予測試験の実施手順を示すフローチャートである。予測試験では、まず雨雲画像Fから集水域(流域)内のデータを抽出し(ステップS121)、抽出した範囲の各ピクセルのRGB値を「0~255」の輝度値に変換する(ステップS122)。次に、2007~2018年の期間において1時間ごとに雨雲画像Fの重心位置と重心までの距離、および雨量を画像から求める(ステップS123)。
続いて、2007~2018年の6~11月における江尻観測所での1時間ごとの水位と、水位を観測した時刻から5~14時間さかのぼった雨雲画像Fの重心に関する情報などを組み合わせてデータを整理する(ステップS124)。発明者が江尻観測所における水位変動と降雨について調べたところ、江尻観測所の水位は江尻観測所の上流で降雨が発生してから5~14時間後に上昇する傾向が見られたため、データ整理では5~14時間前の雨雲画像Fから算出した情報を用いている。データ整理を行った結果を図4に示す。なお、5~14時間前の雨雲画像Fの重心に関する情報を採用することは、雨雲の移動方向を考慮することにもなる。
次に、整理したデータのうち予測する年のデータをテストデータとし、それ以外を学習データに分類して、2007~2018年の各年の水位を予測する交差検証を行った(ステップS125~ステップS126)。交差検証におけるテストデータと学習データとの関係を図8に示す。図8に示すように、例えば水位を予測する年が2007年の場合、2007年のデータをテストデータとし、それ以外の2008~2018年を学習データに分類する。
予測試験の結果の一例として、2016~2018年の実測水位と予測試験における予測水位の比較を図9~図11に示す。図9~図11では、実測水位を太線で示し、予測水位を細線で示してる。図9~図11に示すように、実際の水位が上昇、下降した時に予測水位も上昇、下降しており、水位変動の状況(例えば大規模な水位変動の有無判断)を予測できているといえる。なお、図中の二点鎖線に示すように、水位に多少の差異が生じており、出水時は水位が上昇、下降する時間と水位に特に大きな差異が発生している。
[第2実施形態]
第1実施形態では、予測試験の結果として示した通り、予測水位の上昇、下降の動きは実測水位と類似した結果を得ることができ、雨雲画像Fを用いた水位予測が可能であることが分かった。また、大規模な水位変動の有無についても予測できた。しかし、実測値と予測値には常に水位差が発生した。差異の要因として、入力情報に予測地点の水位の基準値が含まれていないことが考えられた。そこで、第2実施形態では、予測地点である江尻観測所における過去の水位(例えば数時間~十数時間前の水位)を学習データおよび予測データに加える。なお、学習データおよび予測データの内容以外の構成などは第1実施形態と同様である。その為、以下では相違点についてのみ説明する。
第2実施形態での学習データ取得部12によって整理された学習データ群の一例を図12に示す。図12に示す学習データ群は、水位測定時刻が異なる複数の学習データによって構成されている。図12に示す学習データ群には、2007年~2018年における情報が含まれており、各年度の情報は6月~11月において一時間ごとに計測した水位に対応する情報となっている。各々の学習データには、基準となる過去(図12では9時間前)の水位の情報が新たに追加されている。これにより、第2実施形態での各々の学習データは、「水位測定時刻」と、「水位」と、「水位測定時刻よりも過去の水位」と、水位測定時刻の14時間前から5時間前までの一時間ごとの「重心座標」、「重心までの距離」および「集水域内の雨量」と、で構成される。
このように、第2実施形態での学習データ取得部12は、ある第一時点(図12の水位測定時刻)での河川の水位と、前記第一時点よりも過去の第五時点(図12での水位測定時刻の9時間前の時刻)での水位と、前記第一時点よりも過去の少なくとも一つ以上の第二時点(図12での水位測定時刻の14時間前から5時間前の時刻)での代表点情報および降雨量情報との組を学習データとして取得する。水位測定時刻よりも過去の第五時点は、降雨による水位変化の影響がおよぶ時間帯に含まれる時刻であるのがよい。発明者が阿武隈川の江尻観測所における水位変動と降雨について調べたところ、江尻観測所の水位は江尻観測所の上流で降雨が発生してから5~14時間後に上昇する傾向が見られたため、この場合での第五時点は、5~14時間内の何れかの時刻であるのがよい。
第五時点での水位を含む学習データを用いて学習される学習済みの学習器は、少なくとも一つ以上の第三時点における代表点情報および降雨量情報と、第五時点に対応する第六時点での水位とを入力することによって、第三時点よりも未来の第四時点での河川の水位を出力するように学習されたものとなる。「第五時点に対応する第六時点」は、第六時点から第四時点までの時間が、第五時点から第一時点までの時間と等しくなる時点である。
<第2実施形態に係る学習装置および予測装置の効果>
第2実施形態に係る学習装置10および予測装置20の効果を検証するために、実際のデータを用いた予測試験を行ったので説明する。第2実施形態での予測試験は第1実施形態と同様であり、阿武隈川の江尻観測所を事例に、雨雲画像Fを用いて機械学習の一手法であるニューラルネットワーク(NN)により江尻観測所の水位を予測した。阿武隈川は、図2の符号K1で示す河川であり、江尻観測所は、図2の符号K4に示す位置にある。阿武隈川の流路長は約250kmであり、流域面積は約5,200km2である。図2に示すように、江尻観測所は阿武隈川の下流部に位置している。
第2実施形態での予測試験の結果の一例として、2016~2018年の実測水位と予測試験における予測水位の比較を図13~図15に示す。図13~図15では、実測水位を太線で示し、予測水位を細線で示してる。図13~図15を見ると、第1実施形態での予測試験の結果を示す図9~図11に比べて実測値と予測値との水位差が小さくなっていることが分かる。特に、6~11月の変化をみると、出水時以外においては実測値と予測値とがおおむね一致している。
以上説明した第2実施形態に係る学習装置10および予測装置20によっても、第1実施形態と略同等の効果を奏することができる。
また、第2実施形態では、学習データに予測地点において基準となる過去の水位を含めることで、より精度よく水位を予測できる。
以上、本発明の実施形態について説明したが、本発明はこれに限定されるものではなく、特許請求の範囲の趣旨を変えない範囲で実施することができる。
第1,2実施形態では、集水域全体の代表点を求めていたが、集水域の一部の範囲における代表点を求めてもよい。つまり、代表点は、河川の集水域の少なくとも一部を含む範囲内における降雨の強度分布が反映されたものであってよく、代表点情報は、河川の集水域の少なくとも一部を含む範囲内における降雨の強度分布が反映された情報である。降雨量情報についても同様である。
また、集水域を分割し、分割した各々の分割領域の代表点を求めてもよい。集水域を分割する方法は特に限定されず、例えば集水域を均等に分割してもよいし、河川が分岐している場合に分岐した河川ごとに領域を分割してもよい。その場合、各分割領域の代表点情報を学習データに含めてもよいし、各代表点から求めた情報(例えば、各代表点を加算した情報や平均した情報)を学習データに含めてもよい。
10 学習装置
11 画像処理部
12 学習データ取得部
13 学習処理部
20 予測装置
21 画像処理部
22 予測データ取得部
23 予測処理部
F,F1,F2 雨雲画像

Claims (6)

  1. ある第一時点での河川の水位と、前記第一時点よりも過去の時間的に連続した二つ以上の第二時点での代表点情報および降雨量情報との組を学習データとして取得する学習データ取得部と、
    学習器を有しており、前記学習データを用いて前記学習器を機械学習させる学習処理部と、を備え、
    前記代表点情報は、前記河川の集水域の少なくとも一部を含む範囲内における降雨の強度を重さに見立てた場合における前記範囲の重心である代表点に関する情報であり、
    前記降雨量情報は、前記範囲の降雨量に関する情報であり、
    前記学習処理部は、時間的に連続した二つ以上の第三時点における代表点情報および降雨量情報を入力することによって前記第三時点よりも未来の第四時点での前記河川の水位を出力するように前記学習器を学習させる、
    ことを特徴とする学習装置。
  2. 降雨の強度分布を色の変化で示した雨雲画像から前記代表点情報および前記降雨量情報を算出する画像処理部をさらに備える、
    ことを特徴とする請求項1に記載の学習装置。
  3. ある第一時点での河川の水位と、前記第一時点よりも過去の少なくとも一つ以上の第二時点での代表点情報および降雨量情報との組を学習データとして取得する学習データ取得部と、
    学習器を有しており、前記学習データを用いて前記学習器を機械学習させる学習処理部と、を備え、
    前記代表点情報は、前記河川の集水域の少なくとも一部を含む範囲内における降雨の強度分布が反映された代表点に関する情報であり、
    前記降雨量情報は、前記範囲の降雨量に関する情報であり、
    前記学習処理部は、少なくとも一つ以上の第三時点における代表点情報および降雨量情報を入力することによって前記第三時点よりも未来の第四時点での前記河川の水位を出力するように前記学習器を学習させ、
    降雨の強度分布を色の変化で示した雨雲画像から前記代表点情報および前記降雨量情報を算出する画像処理部をさらに備え、
    前記画像処理部は、
    前記第二時点での前記雨雲画像を構成する各ピクセルのRGB値を輝度値に変換し、前記輝度値を重さに見立てた場合における前記範囲の重心を前記代表点として算出し、当該重心の位置および予め決められた基準点から当該重心までの距離を前記代表点情報として求め、
    前記第二時点での前記範囲における各ピクセルの前記輝度値から算出した統計値を前記降雨量情報として求める、
    ことを特徴とする学習装置。
  4. 前記学習データ取得部は、前記第一時点よりも過去の時点であって、降雨による水位変化の影響がおよぶ時間帯に含まれる第五時点での水位をさらに含めた学習データを取得し、
    前記学習処理部は、時間的に連続した二つ以上の第三時点における代表点情報および降雨量情報と、前記第五時点に対応する第六時点での水位とを入力することによって、前記第四時点での前記河川の水位を出力するように前記学習器を学習させる、
    ことを特徴とする請求項1ないし請求項3の何れか一項に記載の学習装置。
  5. ある第一時点での河川の水位と、前記第一時点よりも過去の時間的に連続した二つ以上の第二時点での代表点情報および降雨量情報との組を学習データとして取得する学習データ取得工程と、
    前記学習データを用いて学習器を機械学習させる学習処理工程と、を有し、
    前記代表点情報は、前記河川の集水域の少なくとも一部を含む範囲内における降雨の強度を重さに見立てた場合における前記範囲の重心である代表点に関する情報であり、
    前記降雨量情報は、前記範囲の降雨量に関する情報であり、
    前記学習処理工程では、時間的に連続した二つ以上の第三時点における代表点情報および降雨量情報を入力することによって前記第三時点よりも未来の第四時点での前記河川の水位を出力するように前記学習器を学習させる、
    ことを特徴とする学習方法。
  6. 請求項5に記載の学習方法によって学習した学習済みの学習器を備え、前記第三時点における代表点情報および降雨量情報を前記学習済みの学習器に入力することによって前記第四時点での前記河川の水位を予測する、
    ことを特徴とする予測装置。
JP2020174153A 2020-10-15 2020-10-15 学習装置、学習方法および予測装置 Active JP7397781B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020174153A JP7397781B2 (ja) 2020-10-15 2020-10-15 学習装置、学習方法および予測装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020174153A JP7397781B2 (ja) 2020-10-15 2020-10-15 学習装置、学習方法および予測装置

Publications (2)

Publication Number Publication Date
JP2022065522A JP2022065522A (ja) 2022-04-27
JP7397781B2 true JP7397781B2 (ja) 2023-12-13

Family

ID=81386258

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020174153A Active JP7397781B2 (ja) 2020-10-15 2020-10-15 学習装置、学習方法および予測装置

Country Status (1)

Country Link
JP (1) JP7397781B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7529059B2 (ja) 2021-02-15 2024-08-06 富士通株式会社 浸水予測プログラム、浸水予測装置および機械学習方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003014868A (ja) 2001-06-28 2003-01-15 Foundation Of River & Basin Integrated Communications Japan 洪水予測情報提供システム
US20040133530A1 (en) 2003-01-06 2004-07-08 Weatherdata, Inc. Normalized and animated inundation maps
JP2010237732A (ja) 2009-03-30 2010-10-21 Kimigafuchigakuen Sojo Univ 降雨による河川氾濫予測情報を導出する端末及びプログラム
JP2019094640A (ja) 2017-11-20 2019-06-20 日本無線株式会社 水位予測方法、水位予測プログラム及び水位予測装置
JP2020134300A (ja) 2019-02-19 2020-08-31 富士通株式会社 予測方法、予測プログラム及び情報処理装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08305856A (ja) * 1995-05-01 1996-11-22 Nippon Telegr & Teleph Corp <Ntt> 画像の系統的分類方法及び装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003014868A (ja) 2001-06-28 2003-01-15 Foundation Of River & Basin Integrated Communications Japan 洪水予測情報提供システム
US20040133530A1 (en) 2003-01-06 2004-07-08 Weatherdata, Inc. Normalized and animated inundation maps
JP2010237732A (ja) 2009-03-30 2010-10-21 Kimigafuchigakuen Sojo Univ 降雨による河川氾濫予測情報を導出する端末及びプログラム
JP2019094640A (ja) 2017-11-20 2019-06-20 日本無線株式会社 水位予測方法、水位予測プログラム及び水位予測装置
JP2020134300A (ja) 2019-02-19 2020-08-31 富士通株式会社 予測方法、予測プログラム及び情報処理装置

Also Published As

Publication number Publication date
JP2022065522A (ja) 2022-04-27

Similar Documents

Publication Publication Date Title
CN111047099B (zh) 一种区域性山洪风险预测方法及系统
CN109243205B (zh) 一种沿海水上交通安全风险监测与预警系统及方法
Velasco et al. Week-ahead rainfall forecasting using multilayer perceptron neural network
Makarynskyy Improving wave predictions with artificial neural networks
CN111665575B (zh) 一种基于统计动力的中长期降雨分级耦合预报方法及系统
CN112785043B (zh) 一种基于时序注意力机制的洪水预报方法
KR102446493B1 (ko) 확률분포에 기반한 가뭄 예측 방법 및 이를 위한 장치
CN110471131B (zh) 高空间分辨率的精细化大气水平能见度自动预报方法及系统
CN105426646A (zh) 桥梁智慧度综合评估指标选取及量化方法
Banihabib et al. Hybrid DARIMA-NARX model for forecasting long-term daily inflow to Dez reservoir using the North Atlantic Oscillation (NAO) and rainfall data
CN111178585A (zh) 基于多算法模型融合的故障接报量预测方法
Darbandi et al. River flow simulation using a multilayer perceptron-firefly algorithm model
CN110533239A (zh) 一种智慧城市空气品质高精度测量方法
JP7397781B2 (ja) 学習装置、学習方法および予測装置
CN115691049A (zh) 一种基于深度学习的对流初生预警方法
Gönnert et al. A multi-method approach to develop extreme storm surge events to strengthen the resilience of highly vulnerable coastal areas
CN114841518A (zh) 一种内河助航标志服役状态评价方法
Choi et al. Automatic sea fog detection and estimation of visibility distance on CCTV
Chao et al. A spatio-temporal neural network learning system for city-scale carbon storage capacity estimating
CN117194926A (zh) 陆上风电基地吊装窗口期预测方法及系统
Rohaimi et al. 3 Hours ahead of time flood water level prediction using NNARX structure: Case study pahang
Kolukula et al. Improving cyclone wind fields using deep convolutional neural networks and their application in extreme events
Sabililah et al. Time Series Forecasting of Sea Level by Using Transformer Approach, with a Case Study in Pangandaran, Indonesia
Achite et al. Application of multiple spatial interpolation approaches to annual rainfall data in the Wadi Cheliff basin (north Algeria)
Cannas et al. Neural network models to forecast hydrological risk

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230912

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230913

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231110

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231128

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231201

R150 Certificate of patent or registration of utility model

Ref document number: 7397781

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150