JP2018010513A - 情報処理システム、自動運用装置、運用端末、方法およびプログラム - Google Patents

情報処理システム、自動運用装置、運用端末、方法およびプログラム Download PDF

Info

Publication number
JP2018010513A
JP2018010513A JP2016139334A JP2016139334A JP2018010513A JP 2018010513 A JP2018010513 A JP 2018010513A JP 2016139334 A JP2016139334 A JP 2016139334A JP 2016139334 A JP2016139334 A JP 2016139334A JP 2018010513 A JP2018010513 A JP 2018010513A
Authority
JP
Japan
Prior art keywords
control information
information
control
unit
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016139334A
Other languages
English (en)
Other versions
JP7035302B2 (ja
Inventor
幹人 荻野
Mikihito Ogino
幹人 荻野
順一郎 石井
Junichiro Ishii
順一郎 石井
正典 杉浦
Masanori Sugiura
杉浦  正典
岡本 博
Hiroshi Okamoto
博 岡本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2016139334A priority Critical patent/JP7035302B2/ja
Publication of JP2018010513A publication Critical patent/JP2018010513A/ja
Application granted granted Critical
Publication of JP7035302B2 publication Critical patent/JP7035302B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)

Abstract

【課題】事前に制御ルールを定める必要なく、対象物を管制する装置の制御をより高精度に自動化する技術を提供すること。【解決手段】地上局の状態を表す情報と地上局周辺の環境を表す情報とを含む判断情報を取得する判断情報取得部101と、判断情報を記憶する判断情報記憶部102と、判断情報に基づいて決定された地上局に対する制御内容を表す制御情報を取得する制御情報取得部103と、制御情報を記憶する制御情報記憶部104と、制御情報を地上局に送信して地上局を制御する地上局制御部105と、判断情報および制御情報を学習データとして機械学習を行う学習部106と、学習結果を記憶する学習結果記憶部107と、判断情報に対して学習結果を適用することにより制御情報を算出する制御情報算出部108と、を備える。【選択図】 図1

Description

本発明は、管制対象物との通信を行う地上局を制御する技術に関する。
地上局は、管制対象物との通信を行うために地上に設けられる設備からなる。管制対象物としては、例えば人工衛星がある。一般的には、運用者が、地上局を制御する運用を行う。例えば、運用者は、各種の判断情報に基づいて地上局の制御内容を判断し、決定した制御内容を表す制御情報を、地上局制御装置を介して地上局に送信する。判断情報としては、地上局の各設備の状態を表す情報や地上局周辺の環境情報等がある。また、地上局の各設備としては、例えば、送受信設備や変復調設備等がある。また、各設備の状態を表す情報としては、例えば、送受信設備から得られるAGC(Automatic Gain Control)ゲイン値がある。また、地上局周辺の環境情報としては、例えば、気象情報がある。このような判断情報に基づく制御内容の運用者による判断は、一定の基準によりなされる場合もあるものの、運用者の経験と勘によるところが多い。また、このような判断には、ヒューマンエラーの可能性がある上に、判断にかかる時間が長いという問題がある。また、制御内容が適切でなかった場合、再度制御を行うという手間が生じる。
そこで、運用者による制御内容の判断を、計算機に代わりに行わせて自動化する技術が知られている。例えば、特許文献1に記載された関連技術は、人工衛星からの受信信号のキャリアレベルとノイズレベルとの比をモニタし、モニタした値に基づいて、地上局の送信電力を制御する。
また、例えば、特許文献2に記載された関連技術は、知識ベース部と、データベース部とを用いて、推論機構部が、地上局の各設備からのデータを解析し、各設備を制御する。知識ベース部は、人工衛星を管制するノウハウが体系的に整理された情報を格納する。データベース部は、人工衛星を管制するのに必要な各種値が体系的に整理された情報を格納する。
また、例えば、特許文献3に記載された関連技術は、複数の人工衛星の現在の状態に応じて、各人工衛星の軌道や姿勢を制御する。このとき、この関連技術は、知識ベース部と、推論部とを用いて、人工衛星の管制に関する新たな知識を学習しながら、複数の人工衛星に対する各種制御の順番を知識に基づき最適化する。知識ベース部は、過去に打ち上げられた人工衛星の設計データや試験データ、人工衛星に対する過去の管制に関する情報等を蓄積していくよう構成されている。
特開2007−215113号公報 特開平5−181508号公報 特許第3206907号公報
しかしながら、上述した一般的な技術および関連技術には以下の課題がある。
まず、運用者が地上局の制御内容を判断する一般的な技術では、次の問題がある。運用者による判断には時間がかかる。また、誤った制御をした場合、修正するのにも時間がかかる。また、人間による判断では時間がかかり過ぎて難しい運用が存在する。例えば、気象の変化が激しく、人工衛星との通信品質の状態が、短時間に変化する場合、運用者による判断では間に合わない。また、運用者は人間のため、ヒューマンエラーの懸念がある。
また、特許文献1〜2に記載された関連技術は、計算機が運用者に代わって制御内容を判断するために、判断情報に対してどのような制御内容を選択するかという制御ルールをあらかじめ作成しておく必要がある。制御ルールをあらかじめ作成しておくことは、運用者にとって難しい場合がある。
例えば、特許文献1に記載された関連技術は、受信信号のキャリアレベルとノイズレベルとの比が晴天時の値より劣化したか否かや、ノイズレベルが初期値より上がっているか否か等に基づいて、どのように送信電力を制御するかというルールを事前に定めている。この関連技術では、受信信号のキャリアレベルとノイズレベルとが、判断情報であるといえる。このように、判断情報が少なければ、制御ルールをあらかじめ定めておくことは比較的容易である。しかしながら、判断情報が増えると、制御ルールの作成は複雑となる。そのため、この関連技術は、判断情報が多いケースに適用することは難しい。
また、特許文献2に記載された関連技術は、人工衛星を管制するノウハウをあらかじめ整理して知識ベース部を構築しておく必要がある。そのようなノウハウは膨大な量であると考えられるため、これらをあらかじめ整理しておくことは容易ではない。
このように、地上局の運用を自動化するために事前に定めた制御ルールを用いる関連技術では、制御ルールの作成作業が、運用者にとって難しい場合がある。また、制御ルールの作成には、意味付けが必要である上、意味付けの理由が「過去の運用による経験」など曖昧となる事が多い。このため、制御ルールの最適化が困難である。
例えば、降雨量が0〜100で判断情報として運用者に提示される時、80以上で運用終了制御を送信する制御ルールをあらかじめ作成しておくとする。この時、なぜ80以上に設定したのか、という「80」という数字に対する意味付けが必要となる。理由が明確な場合もあるが、「過去の運用による経験」など、曖昧な理由となる事も多い。このような曖昧な理由に基づき制御ルールを作成するのは困難である。
また、特許文献3に記載された関連技術は、過去に打ち上げられた人工衛星の設計データや試験データ、過去の管制に関する情報等に基づいて、新たな知識を獲得することにより、複数の人工衛星の管制を行う。ここで、人工衛星に対する管制を適切に行うためには、地上局と人工衛星との間の通信状態を最適化するよう地上局を制御する必要がある。そのためには、人工衛星に関する過去のデータや現在の人工衛星の状態だけでなく、地上局の状態や地上局周辺の環境も考慮する必要がある。しかしながら、この関連技術は、人工衛星に関する過去のデータに基づき獲得した知識に基づくだけでは、地上局を精度よく制御することは難しい。
本発明は、上述の課題を解決するためになされたものである。すなわち、本発明は、事前に制御ルールを定める必要なく、対象物を管制する装置の制御をより高精度に自動化する技術を提供することを目的とする。
本発明の情報処理システムは、管制対象物との通信を行う地上局の状態を表す情報と前記地上局周辺の環境を表す情報とを含む判断情報を取得する判断情報取得部と、前記判断情報を記憶する判断情報記憶部と、前記判断情報に基づいて決定された前記地上局に対する制御内容を表す制御情報を取得する制御情報取得部と、前記制御情報を記憶する制御情報記憶部と、前記制御情報を前記地上局に送信して前記地上局を制御する地上局制御部と、前記判断情報記憶部に記憶された前記判断情報および前記制御情報記憶部に記憶された前記制御情報を学習データとして機械学習を行う学習部と、前記機械学習の学習結果を記憶する学習結果記憶部と、前記判断情報に対して、前記学習結果記憶部に記憶された前記学習結果を適用することにより、前記制御情報を算出する制御情報算出部と、を備える。
また、本発明の自動運用装置は、上述の情報処理システムにおいて、前記判断情報記憶部と、前記制御情報記憶部と、前記学習部と、前記学習結果記憶部と、前記制御情報算出部とを有する。
また、本発明の運用端末は、上述の情報処理システムにおいて、前記制御情報取得部を有する。
また、本発明の方法は、管制対象物との通信を行う地上局の状態を表す情報と前記地上局周辺の環境を表す情報とを含む判断情報、および、前記判断情報に基づいて決定された前記地上局に対する制御内容を表す制御情報を学習データとして機械学習を行い、前記判断情報に対して前記学習結果を適用することにより、前記制御情報を算出する。
また、本発明のプログラムは、管制対象物との通信を行う地上局の状態を表す情報と前記地上局周辺の環境を表す情報とを含む判断情報、および、前記判断情報に基づいて決定された前記地上局に対する制御内容を表す制御情報を学習データとして機械学習を行う機械学習ステップと、前記判断情報に対して前記学習結果を適用することにより、前記制御情報を算出する制御情報算出ステップと、をコンピュータ装置に実行させる。
本発明は、事前に制御ルールを定める必要なく、対象物を管制する装置の制御をより高精度に自動化する技術を提供することができる。
本発明の第1の実施の形態としての情報処理システムの構成を示すブロック図である。 本発明の第1の実施の形態としての情報処理システムを構成する装置の一例を示すブロック図である。 本発明の第1の実施の形態としての情報処理システムを構成する各装置のハードウェア構成の一例を示す図である。 本発明の第1の実施の形態としての情報処理システムが判断情報を取得する動作を説明するフローチャートである。 本発明の第1の実施の形態としての情報処理システムが制御情報を取得して地上局に送信する動作を説明するフローチャートである。 本発明の第1の実施の形態としての情報処理システムが機械学習を行う動作を説明するフローチャートである。 本発明の第1の実施の形態としての情報処理システムが制御情報を算出する動作を説明するフローチャートである。 本発明の第2の実施の形態としての情報処理システムの構成を示すブロック図である。 本発明の第2の実施の形態としての情報処理システムを構成する装置の一例を示すブロック図である。 本発明の第2の実施の形態の第1の運用モードにおいて情報処理システムが評価値を取得する動作を説明するフローチャートである。 本発明の第2の実施の形態の第1の運用モードにおいて情報処理システムが機械学習を行う動作を説明するフローチャートである。 本発明の第2の実施の形態の第2の運用モードにおいて情報処理システムが制御情報を取得して送信する動作を説明するフローチャートである。 本発明の第2の実施の形態の第2の運用モードにおいて情報処理システムが評価値を取得する動作を説明するフローチャートである。 本発明の第2の実施の形態の第2の運用モードにおいて情報処理システムが制御情報を算出する動作を説明するフローチャートである。 本発明の第2の実施の形態の第3の運用モードにおいて情報処理システムが制御情報を算出して地上局に送信する動作を説明するフローチャートである。 本発明の第2の実施の形態において情報処理システムが運用モードを切り替える動作を説明するフローチャートである。 本発明の第2の実施の形態の具体例を説明するブロック図である。 本発明の第2の実施の形態の具体例において判断情報記憶部に記憶される判断情報の一例を説明する図である。 本発明の第2の実施の形態の具体例において用いられる気象情報の一例を説明する図である。 本発明の第2の実施の形態の具体例において制御情報記憶部に記憶される制御情報の一例を説明する図である。 本発明の第2の実施の形態の具体例において評価値記憶部に記憶される評価値の一例を説明する図である。 本発明の第2の実施の形態の具体例において構築される学習結果の出力層の構成の一例を説明する図である。 本発明の第2の実施の形態の具体例において構築される学習結果の出力層と比較するための他の出力層の構成の一例を説明する図である。 本発明の第2の実施の形態の具体例において構築される学習結果の出力層と比較するためのさらに他の出力層の構成の一例を説明する図である。
以下、本発明の実施の形態について、図面を参照して詳細に説明する。
(第1の実施の形態)
本発明の第1の実施の形態としての情報処理システム1の機能ブロック構成を図1に示す。図1において、情報処理システム1は、判断情報取得部101と、判断情報記憶部102と、制御情報取得部103と、制御情報記憶部104と、地上局制御部105と、学習部106と、学習結果記憶部107と、制御情報算出部108とを含む。情報処理システム1は、管制対象物との通信を行う地上局を制御するシステムである。地上局は、各種の設備によって構成される。
ここで、情報処理システム1のハードウェア構成の一例を、図2および図3を参照して説明する。図2に示すように、情報処理システム1の各機能ブロックは、地上局制御装置300と、自動運用装置400と、運用端末500とに分散して構成可能である。これらの各装置は、ネットワークを介して互いに通信可能に接続される。例えば、地上局制御装置300は、判断情報取得部101と、地上局制御部105とを含む。また、自動運用装置400は、判断情報記憶部102と、制御情報記憶部104と、学習結果記憶部107と、学習部106と、制御情報算出部108とを含む。また、運用端末500は、制御情報取得部103を含む。
この場合、例えば、図3に示すように、地上局制御装置300は、CPU(Central Processing Unit)3001と、メモリ3002と、ネットワークインタフェース3005とを含むコンピュータ装置によって構成される。メモリ3002は、RAM(Random Access Memory)、ROM(Read Only Memory)、補助記憶装置(ハードディスク等)等によって構成される。ネットワークインタフェース3005は、ネットワークに接続するインタフェースである。また、自動運用装置400は、CPU4001と、メモリ4002と、ネットワークインタフェース4005とを含むコンピュータ装置によって構成される。メモリ4002は、RAM、ROM、補助記憶装置等によって構成される。ネットワークインタフェース4005は、ネットワークに接続するインタフェースである。また、運用端末500は、CPU5001と、メモリ5002と、出力装置5003と、入力装置5004と、ネットワークインタフェース5005とを含むコンピュータ装置によって構成される。メモリ5002は、RAM、ROM、補助記憶装置等によって構成される。出力装置5003は、ディスプレイ装置やプリンタ等のように、情報を出力する装置によって構成される。入力装置5004は、キーボードやマウス等のように、ユーザ操作の入力を受け付ける装置によって構成される。ネットワークインタフェース5005は、ネットワークに接続するインタフェースである。
この場合、判断情報取得部101および地上局制御部105は、地上局制御装置300のネットワークインタフェース3005と、メモリ3002に記憶されたプログラムおよび各種データを読み込んで実行するCPU3001とによって構成される。また、判断情報記憶部102と、制御情報記憶部104と、学習結果記憶部107とは、自動運用装置400のメモリ4002によって構成される。また、学習部106は、自動運用装置400のメモリ4002に記憶されたプログラムおよび各種データを読み込んで実行するCPU4001によって構成される。また、制御情報算出部108は、自動運用装置400のネットワークインタフェース4005と、メモリ4002に記憶されたプログラムおよび各種データを読み込んで実行するCPU4001とによって構成される。また、制御情報取得部103は、運用端末500のネットワークインタフェース5005と、出力装置5003と、入力装置5004と、メモリ5002に記憶されたプログラムおよび各種データを読み込んで実行するCPU5001とによって構成される。ただし、情報処理システム1およびその各機能ブロックのハードウェア構成は、上述の構成に限定されない。
次に、各機能ブロックの詳細について説明する。
判断情報取得部101は、判断情報を取得する。判断情報は、地上局の状態を表す情報および地上局周辺の環境を表す情報を含む。例えば、判断情報取得部101は、地上局を構成する各設備から、その状態を表す情報を取得する。また、例えば、判断情報取得部101は、地上局周辺の環境を検出する付帯設備から、環境を表す情報を取得する。
判断情報記憶部102は、判断情報取得部101によって取得された判断情報を記憶する。
制御情報取得部103は、判断情報に基づき決定された制御情報を取得する。制御情報は、地上局に対する制御内容を表す。例えば、制御情報取得部103は、判断情報を出力装置5003に出力し、出力に応じて入力装置5004から入力される情報を、制御情報として取得してもよい。そのような制御情報は、典型的には、提示された判断情報に基づく運用者の判断により決定された制御内容を表している。
制御情報記憶部104は、制御情報取得部103によって取得された制御情報を記憶する。
なお、制御情報記憶部104の制御情報および判断情報記憶部102の判断情報は、どの制御情報がどの判断情報に基づいて決定されたかが照合可能に関連付けられる。例えば、制御情報記憶部104では、制御情報に識別情報が付与されて記憶されるとする。この場合、判断情報記憶部102では、判断情報が、その判断情報を用いて決定された制御情報の識別情報に関連付けられて記憶される。
あるいは、判断情報記憶部102において、判断情報に識別情報が付与されて記憶されてもよい。この場合、制御情報記憶部104では、制御情報が、その決定に用いた判断情報の識別情報に関連付けられて記憶される。
なお、判断情報および制御情報は、これらに限らず、どの制御情報がどの判断情報に基づいて決定されたかを照合可能であれば、どのような形式でどのような情報と共に記憶されても構わない。
地上局制御部105は、制御情報取得部103によって取得された制御情報を地上局に送信することにより、地上局を制御する。
学習部106は、判断情報記憶部102に記憶された判断情報および制御情報記憶部104に記憶された制御情報を学習データとして機械学習を行う。具体的には、学習部106は、記憶された各判断情報を入力としてその判断情報に基づいて決定された制御情報が出力されるような演算を、学習結果として生成すればよい。そして、学習部106は、機械学習の学習結果を、学習結果記憶部107に記憶する。
制御情報算出部108は、判断情報に対して、学習結果記憶部107に記憶された学習結果を適用することにより、制御情報を算出する。ここで、制御情報算出部108は、学習結果を適用する判断情報として、判断情報記憶部102から、直近に記憶された1つまたは複数の判断情報を読み込む。そのような1つまたは複数の判断情報は、例えば、算出を行う時点までの所定期間内に取得されたものであってもよい。
また、制御情報算出部108は、算出した制御情報を出力する。出力先は、地上局制御部105であってもよい。この場合、地上局制御部105は、制御情報算出部108によって算出された制御情報を、地上局に送信することになる。
以上のように構成された情報処理システム1の動作を、図面を参照して説明する。
まず、情報処理システム1が、判断情報を取得する動作を図4に示す。
図4では、まず、判断情報取得部101は、判断情報を取得する(ステップA11)。例えば、判断情報は、地上局を構成する各設備から送信される。また、判断情報は、地上局周辺の環境を検出する付帯設備から送信される。
次に、判断情報取得部101は、取得した判断情報を、判断情報記憶部102に記憶する(ステップA12)。なお、このステップで記憶された判断情報は、この時点では、制御情報に関連付けられていない。
以上の動作を、情報処理システム1は繰り返す。
次に、情報処理システム1が、制御情報を取得して地上局に送信する動作を図5に示す。
図5では、まず、制御情報取得部103は、判断情報記憶部102から、制御情報を決定するために用いる判断情報を読み込む(ステップB11)。
例えば、直近N秒間に受信された1つ以上の判断情報に基づき制御内容が決定されるよう定められているとする。Nは正数である。この場合、制御情報取得部103は、判断情報記憶部102において、直近N秒間に追加された判断情報を読み込めばよい。
次に、制御情報取得部103は、ステップB11で取得された判断情報に基づき決定された制御情報を取得する(ステップB12)。
前述のように、制御情報取得部103は、出力装置5003に該当する判断情報を出力し、出力に応じて入力装置5004を介して入力される制御情報を取得してもよい。
次に、制御情報取得部103は、取得した制御情報を地上局制御部105に出力する。そして、地上局制御部105は、制御情報を地上局に送信することにより、地上局を制御する(ステップB13)。
次に、制御情報取得部103は、取得した制御情報を、制御情報記憶部104に記憶する(ステップB14)。
次に、制御情報取得部103は、ステップB11で読み込まれた判断情報と、ステップB12で取得された制御情報とを関連付ける(ステップB15)。前述のように、例えば、制御情報に識別情報を付与している場合、ステップB11で取得された判断情報に、ステップB12で取得された制御情報の識別情報を追加して関連付ければよい。
以上の動作を、情報処理システム1は繰り返す。
次に、情報処理システム1が、学習を行う動作を図6に示す。
図6では、まず、学習部106は、判断情報記憶部102および制御情報記憶部104にそれぞれ記憶された情報を照合して学習データを生成する(ステップC11)。
ここで、学習データは、判断情報と、その判断情報に基づいて決定された制御情報との組である。なお、学習データは、必ずしも1つずつの判断情報および制御情報からなる組でなくてもよい。例えば、直近N秒間に受信された1つ以上の判断情報に基づき制御内容が決定されるよう定められているとする。また、一度に複数種類の制御内容が決定されるよう定められているとする。この場合、学習データは、1つまたは複数の判断情報および1つまたは複数の制御情報からなる組であってもよい。
次に、学習部106は、学習データに基づき機械学習を行う(ステップC12)。
具体的には、学習部106は、学習データの判断情報を入力信号として、その判断情報の組となる制御情報を教師信号として、入力信号に基づき教師信号が出力されるような演算を導出すればよい。
次に、学習部106は、機械学習の学習結果を、学習結果記憶部107に記憶する(ステップC13)。
以上で、情報処理システム1は、学習を行う動作を終了する。
次に、情報処理システム1が、制御情報を算出する動作を図7に示す。
図7では、まず、制御情報算出部108は、判断情報記憶部102から、制御情報を決定するために用いる判断情報を読み込む(ステップD11)。
例えば、直近N秒間に受信された1つ以上の判断情報に基づき制御内容が決定されるよう定められている場合、制御情報算出部108は、判断情報記憶部102において、直近N秒間に追加された判断情報を読み込めばよい。
次に、制御情報算出部108は、読み込んだ判断情報に対して、学習結果記憶部107に記憶された学習結果を適用することにより、制御情報を算出し出力する(ステップD12)。
前述のように、出力先が地上局制御部105である場合、地上局制御部105は、制御情報算出部108によって算出された制御情報を、地上局に対して送信することになる。
以上で、情報処理システム1は、制御制御情報を算出する動作を終了する。
次に、本発明の第1の実施の形態の効果について述べる。
本発明の第1の実施の形態としての情報処理システムは、事前に制御ルールを定める必要なく、対象物を管制する装置の制御をより高精度に自動化することができる。
その理由について説明する。本実施の形態では、判断情報取得部が、管制対象物との通信を行う地上局の状態を表す情報および前記地上局周辺の環境を表す情報を含む判断情報を取得する。判断情報記憶部には、取得された判断情報が記憶される。また、制御情報取得部が、判断情報に基づいて決定された地上局に対する制御内容を表す制御情報を取得する。制御情報記憶部には、取得された制御情報が記憶される。そして、地上局制御部が、取得された制御情報を地上局に送信して地上局を制御する。そして、学習部が、判断情報記憶部に記憶された判断情報および制御情報記憶部に記憶された制御情報を学習データとして機械学習を行う。学習結果記憶部には、機械学習の学習結果が記憶される。そして、制御情報算出部が、判断情報に対して、学習結果記憶部に記憶された学習結果を適用することにより、制御情報を算出するからである。
このように、本実施の形態は、地上局の状態および地上局周辺の環境を表す判断情報と、判断情報に基づき運用者によって決定された制御情報との組を学習データとして機械学習を行うので、制御ルールをあらかじめ作成する必要がない。そして、本実施の形態は、そのような機械学習の学習結果を用いて、判断情報に基づき制御情報を算出するので、ベテランの運用者と同様な地上局の制御を、ベテランの運用者以上に短時間で判断して実行することができる。さらに、本実施の形態は、そのような機械学習の学習結果を用いて、判断情報に基づき制御情報を算出するので、運用者の判断に基づく制御で起こり得るヒューマンエラーを生じさせない。
つまり、本実施の形態は、学習部による機械学習によって、意味づけ等を必要とせずに、人手では作成が難しいような制御ルールである学習結果を自動的に作成可能としている。また、本実施の形態は、そのような制御ルールである機械学習の学習結果を生成するために充分な量の学習データを、判断情報取得部および制御情報取得部が取得して記憶する。このように、本実施の形態は、制御ルールの作成や学習データの収集にかかる人的コストを必要としない。
また、本実施の形態は、管制対象物に関する過去のデータや過去の制御情報だけでなく、地上局の状態や地上局周辺の環境を表す各種の判断情報に基づいて機械学習を行う。このため、地上局をとりまく状況の変化に応じて高精度に制御情報を算出するための制御ルールが自動的に作成される。したがって、本実施の形態は、このように生成された制御ルールを用いて制御情報算出部が制御情報を算出することにより、運用者では難しい早急な制御内容の判断を可能とする。例えば、地上局の状態や地上局周辺の環境が急激に変化する場合でも、本実施の形態は、急激な変化に応じて早急に制御内容を判断し制御情報を地上局に送信することができる。その結果、本実施の形態は、地上局の状態を最適化して管制対象物との間の通信品質をより高精度に向上させる。
なお、図7のステップD12において、制御情報算出部による制御情報の出力先が、地上局制御部である例について説明したが、出力先は、制御情報取得部であってもよい。出力先が制御情報取得部である場合、制御情報取得部は、図5のステップB12において、制御情報の決定に用いる判断情報と共に、算出された制御情報を参考情報として、出力装置に出力する。そして、制御情報取得部は、これらの情報の出力に応じて入力装置から入力される情報を、制御情報として取得すればよい。この場合、そのような制御情報は、判断情報と、参考情報として提示された制御情報とに基づいて、運用者により決定された制御内容を表している。このように、本実施の形態は、制御情報算出部により運用を自動化する用途の他に、制御情報算出部による算出結果を運用者に提示して運用者の判断を支援する用途としても好適である。
(第2の実施の形態)
次に、本発明の第2の実施の形態について図面を参照して詳細に説明する。なお、本実施の形態の説明において参照する各図面において、本発明の第1の実施の形態と同一の構成および同様に動作するステップには同一の符号を付して本実施の形態における詳細な説明を省略する。
まず、本発明の第2の実施の形態としての情報処理システム2の構成を図8に示す。情報処理システム2は、本発明の第1の実施の形態としての情報処理システム1に対して、制御情報取得部103に替えて制御情報取得部203と、学習部106に替えて学習部206と、制御情報算出部108に替えて制御情報算出部208とを備える点が異なる。また、評価値取得部209と、評価値記憶部210と、運用モード切替部211とをさらに備える点が異なる。
ここで、情報処理システム2のハードウェア構成の一例について説明する。図9に示すように、情報処理システム2の各機能ブロックは、地上局制御装置300と、自動運用装置410と、運用端末510とに分散して構成可能である。これらの各装置は、ネットワークを介して互いに通信可能に接続される。地上局制御装置300の構成は、図2を参照して説明した本発明の第1の実施の形態と同様である。また、自動運用装置410は、判断情報記憶部102と、制御情報記憶部104と、学習結果記憶部107と、評価値記憶部210と、学習部206と、制御情報算出部208とを含む。また、運用端末510は、制御情報取得部203と、評価値取得部209と、運用モード切替部211とを含む。
この場合、地上局制御装置300と、自動運用装置410と、運用端末510と、各装置に配置された各機能ブロックは、図3を参照して説明した本発明の第1の実施の形態と同様のハードウェア要素によって構成される。また、評価値記憶部210は、自動運用装置410のメモリ4002によって構成される。また、評価値取得部209および運用モード切替部211は、次のように構成される。すなわち、これらの各機能ブロックは、運用端末510のネットワークインタフェース5005と、出力装置5003と、入力装置5004と、メモリ5002に記憶されたプログラムおよび各種データを読み込んで実行するCPU5001とによって構成される。ただし、情報処理システム2およびその各機能ブロックのハードウェア構成は、上述の構成に限定されない。
次に、各機能ブロックの詳細について説明する。
制御情報取得部203は、後述する第1の運用モードでは、本発明の第1の実施の形態における制御情報取得部103と同様に構成される。
また、制御情報取得部203は、後述する第2の運用モードでは、本発明の第1の実施の形態における制御情報取得部103と略同様に構成されるが、次の点が異なる。すなわち、第2の運用モードでは、制御情報取得部203は、判断情報記憶部102から読み込んだ判断情報と、読み込んだ判断情報に基づいて制御情報算出部208により算出された制御情報とに基づいて決定された制御情報を取得する。例えば、制御情報取得部203は、判断情報記憶部102から読み込んだ判断情報と、読み込んだ判断情報に基づいて制御情報算出部208により算出された制御情報とを出力装置5003に出力してもよい。そして、制御情報取得部203は、出力に応じて入力装置5004から入力される情報を、制御情報として取得すればよい。
また、制御情報取得部203は、第2の運用モードでは、入力により取得した制御情報を制御情報記憶部104に記憶することに加えて、制御情報算出部208により算出された制御情報を制御情報記憶部104に記憶する。そして制御情報取得部203は、判断情報記憶部102から読み込んだ判断情報と、入力により取得した制御情報とを関連付けることに加えて、判断情報記憶部102から読み込んだ判断情報と、制御情報算出部208により算出された制御情報とを関連付ける。
また、制御情報取得部203は、後述する第3の運用モードでは、機能しないよう構成される。
評価値取得部209は、制御情報に対する評価値を取得して、評価値記憶部210に記憶する。例えば、評価値取得部209は、そのような評価値を、運用端末510の入力装置5004から取得してもよい。また、評価値取得部209は、評価の対象となった制御情報の識別情報に関連付けて、該当する評価値を評価値記憶部210に記憶する。
評価対象となる制御情報は、第1の運用モードおよび第2の運用モードで若干異なる。第1の運用モードでは、評価対象となる制御情報は、制御情報取得部203によって取得され地上局に送信された制御情報である。このような制御情報に対する評価値は、運用者による判断に基づく制御結果に対する評価を表していると言える。第2の運用モードでは、制御情報取得部203によって取得され地上局に送信された制御情報に加えて、制御情報算出部208によって算出された制御情報が評価対象となる。このような制御情報に対する評価値は、学習結果の精度に関する評価を表していると言える。
また、評価値取得部209は、第3の運用モードでは、機能しないよう構成される。
学習部206は、本発明の第1の実施の形態における学習部106と略同様に構成されるが、制御の種類ごとに機械学習を行う点と、学習データとして採用する情報を絞り込む点とが異なる。
具体的には、学習部206は、制御情報が表す制御の種類ごとに、その種類の制御情報と、その制御情報を決定する際に用いられた1つ以上の判断情報との組を学習データとして生成する。そして、学習部206は、そのような学習データのうち、所定条件を満たす評価値の評価対象となった制御情報を含む学習データを用いて、機械学習を行う。例えば、評価値が、値が大きいほど評価が高いことを表す数値として定義されているとする。この場合、所定条件とは、評価値が閾値以上であることであってもよい。そして、学習部206は、学習結果記憶部107に、制御の種類ごとの学習結果を記憶する。
また、学習部206は、第1の運用モードおよび第2の運用モードで機能し、第3の運用モードで機能しないよう構成される。
制御情報算出部208は、判断情報に対して、制御の種類ごとの学習結果を適用することにより、制御情報を算出して出力する。出力先は、第2の運用モードおよび第3の運用モードで異なる。
第2の運用モードでは、制御情報算出部208は、制御情報の算出結果を制御情報取得部203に出力する。また、第3の運用モードでは、制御情報算出部208は、制御情報の算出結果を地上局制御部105に出力する。
また、制御情報算出部208は、第2の運用モードおよび第3の運用モードで機能し、第1の運用モードで機能しないよう構成される。
運用モード切替部211は、第1の運用モード、第2の運用モード、および、第3の運用モードのいずれかへの切り替えを実行する。
第1の運用モードは、制御情報取得部203および学習部206が機能して制御情報算出部208が機能しない運用モードである。第1の運用モードでは、制御情報取得部203は、運用者等の入力による制御情報を取得する。例えば、第1の運用モードでは、制御情報取得部203は、読み込んだ判断情報を出力装置5003に出力し、出力に応じて入力装置5004から入力される制御情報を取得して、地上局制御部105に送信すればよい。また、第1の運用モードでは、評価値取得部209は、運用者の入力による制御情報に対する評価値を取得する。そして、学習部206は、判断情報と、運用者の入力による制御情報との組み合わせのうち、評価値が所定条件を満たす組合せを学習データとして、機械学習を行うことになる。つまり、第1の運用モードは、自動運用装置410を導入する初期の段階で、運用者による運用を行いながら自動化のための機械学習を行うモードとして適している。
また、第2の運用モードは、制御情報取得部203、学習部206および制御情報算出部208が共に機能する運用モードである。第2の運用モードでは、制御情報取得部203は、運用者等の入力による制御情報と、制御情報算出部208からの制御情報を共に取得する。例えば、制御情報取得部203は、読み込んだ判断情報と、その判断情報に基づき制御情報算出部208によって算出された制御情報とを、出力装置5003に出力する。そして、制御情報取得部203は、これらの情報の出力に応じて入力装置5004から入力される制御情報を取得して、地上局制御部105に送信すればよい。また、制御情報算出部208は、制御情報取得部203の要求に応じて制御情報を算出し、算出結果を制御情報取得部203に出力する。また、評価値取得部209は、運用者の入力による制御情報に対する評価値と、制御情報算出部208によって算出された制御情報に対する評価値とを取得して記憶する。そして、学習部206は、判断情報と、運用者により入力された制御情報または算出された制御情報との組み合わせのうち、評価値が所定条件を満たす組合せを学習データとして機械学習を行うことになる。つまり、第2の運用モードは、第1の運用モードでの機械学習の結果を正式な運用に適用する前に、機械学習の結果の精度を確認しさらに精度を高めるモードとして適している。
また、第3の運用モードは、制御情報取得部203および学習部206が機能せずに、制御情報算出部208が機能する運用モードである。第3の運用モードでは、制御情報算出部208は、読み込んだ判断情報に基づいて算出した制御情報を地上局制御部105に送信する。送信された制御情報は、地上局制御部105により地上局に対して送信される。つまり、第3の運用モードは、第1および第2の運用モードでの機械学習の学習結果を用いて、地上局の制御を自動化したモードとして適している。
例えば、運用モード切替部211は、運用端末510の入力装置5004を介して入力される情報に基づいて、運用モードを切り替えてもよい。あるいは、運用モード切替部211は、事前に定められたスケジュールにしたがって、運用モードを切り替えてもよい。
以上のように構成された情報処理システム2の動作について、図面を参照して説明する。なお、以下の動作の説明において、異なる装置に配置された機能ブロック間で情報をやり取りする場合には、装置間で通信が行われているものとして、明示的な説明を省略する。
まず、第1の運用モードでの情報処理システム2の動作について説明する。
第1の運用モードにおいて、情報処理システム2が判断情報を取得する動作は、図4を参照して説明した本発明の第1の実施の形態と同様である。
また、第1の運用モードにおいて、情報処理システム2が制御情報を取得して地上局に送信する動作は、図5を参照して説明した本発明の第1の実施の形態と同様である。
次に、第1の運用モードにおいて、情報処理システム2が評価値を取得する動作を図10に示す。
図10では、まず、評価値取得部209は、図5のステップB12で取得された制御情報を出力する(ステップE21)。このとき、評価値取得部209は、制御情報と共に、その制御情報による地上局の制御の結果を表す情報を併せて出力してもよい。出力先は、例えば、出力装置5003であってもよい。
次に、評価値取得部209は、制御情報に対する評価値を取得する(ステップE22)。例えば、評価値取得部209は、入力装置5004を介して評価値を取得してもよい。
次に、評価値取得部209は、取得した評価値を、評価対象の制御情報の識別情報と関連付けて、評価値記憶部210に記憶する(ステップE23)。
以上で、情報処理システム2は、評価値を取得する動作を終了する。
なお、図10に示した評価値の取得動作は、図5に示した制御情報の取得動作に続いて実行されるようにしてもよい。これにより、運用者は、制御情報の入力と、評価値の入力とを続いて行うことができ、運用者の負担が軽減される。
次に、第1の運用モードにおいて、情報処理システム2が学習を行う動作を図11に示す。
図11では、まず、学習部206は、判断情報記憶部102および制御情報記憶部104にそれぞれ記憶された情報を照合し、制御情報と、その制御情報の決定に用いられた1つ以上の判断情報との組を、学習データとして生成する(ステップC21)。
次に、学習部206は、評価値記憶部210を参照することにより、所定条件を満たす評価値に関連付けられた評価情報を含む学習データを、ステップC21で生成した学習データから抽出する(ステップC22)。
次に、学習部206は、制御の種類毎にステップC23〜C24の動作を実行する。
ここでは、まず、学習部206は、抽出した学習データを用いて、判断情報を入力とし、該当する種類の制御情報を教師信号とする機械学習を行う(ステップC23)。
次に、学習部206は、機械学習の学習結果を、学習結果記憶部107に記憶する(ステップC24)。
以上の動作を、全ての種類の制御情報について終了すると、情報処理システム2は、学習を行う動作を終了する。
以上で、第1の運用モードにおける情報処理システム2の動作の説明を終了する。
次に、第2の運用モードでの情報処理システム2の動作について説明する。
第2の運用モードにおいて、情報処理システム2が判断情報を取得する動作は、図4を参照して説明した本発明の第1の実施の形態と同様である。
次に、第2の運用モードにおいて、情報処理システム2が制御情報を取得して地上局に送信する動作を、図12に示す。
図12において、制御情報取得部203は、本発明の第1の実施の形態と同様にステップB11を実行し、判断情報記憶部102から、制御情報の決定に用いる判断情報を取得する。
次に、制御情報取得部203は、ステップB11で取得した判断情報を制御情報算出部208に出力し、その結果、制御情報算出部208によって算出される制御情報を取得する(ステップB21)。
次に、制御情報取得部203は、読み込んだ判断情報と、制御情報算出部208によって算出された制御情報とに基づいて決定された制御情報を取得する(ステップB22)。例えば、制御情報取得部203は、読み込んだ判断情報と算出された制御情報とを出力装置5003に出力し、出力に応じて入力装置5004から入力される情報を、制御情報として取得してもよい。
次に、制御情報取得部203は、本発明の第1の実施の形態と同様にステップB13を実行する。これにより、取得された制御情報が地上局に送信される。
次に、制御情報取得部203は、ステップB21で制御情報算出部208によって算出された制御情報と、ステップB22で取得された制御情報とを、制御情報記憶部104に記憶する(ステップB24)。
次に、制御情報取得部203は、本発明の第1の実施の形態と同様にステップB15を実行する。これにより、制御情報と、その決定または算出に用いられた判断情報とが関連づけられる。
以上で、情報処理システム2は、制御情報を取得して地上局に送信する動作を終了する。
次に、第2の運用モードにおいて、情報処理システム2が評価値を取得する動作を図13に示す。
図13では、まず、評価値取得部209は、図10に示したステップE21〜E23を実行する。これにより、評価値取得部209は、図12のステップB22で入力により取得された制御情報に対する評価値を取得し記憶する。
次に、評価値取得部209は、図12に示したステップB21において算出された制御情報を出力する(ステップE24)。
次に、評価値取得部209は、算出された制御情報に対する評価値を取得する(ステップE25)。例えば、評価値取得部209は、入力装置5004を介して評価値を取得してもよい。
次に、評価値取得部209は、取得した評価値を、算出された制御情報の識別情報と関連付けて、評価値記憶部210に記憶する(ステップE26)。
以上で、情報処理システム2は、評価値を取得する動作を終了する。
このようにして記憶された判断情報、制御情報および評価値を用いて、第2の運用モードにおいて情報処理システム2が学習を行う動作については、図11を用いて説明した第1の運用モードの学習動作と同様である。
次に、第2の運用モードにおいて、情報処理システム2が、制御情報を算出する動作を図14に示す。この動作は、図12に示したステップB21において制御情報取得部203から要求されることにより開始される。
図14では、まず、制御情報算出部208は、制御情報取得部203から、制御情報の算出に用いる判断情報を取得する(ステップD21)。
次に、制御情報算出部208は、取得した判断情報に対して、制御の種類毎に学習結果を適用し、制御情報を算出する(ステップD22)。そして、制御情報算出部208は、算出した制御情報を、制御情報取得部203に出力する。
以上で、情報処理システム2が制御情報を算出する動作の説明を終了する。
次に、第3の運用モードでの情報処理システム2の動作について説明する。
第3の運用モードにおいて、情報処理システム2が判断情報を取得する動作は、図4を参照して説明した本発明の第1の実施の形態と同様である。
また、第3の運用モードでは、制御情報取得部203および学習部206は動作しない。
ここでは、第3の運用モードにおいて、情報処理システム2が制御情報を算出して地上局に送信する動作を、図15を用いて説明する。
ここでは、まず、制御情報算出部208は、判断情報記憶部102から、制御情報の算出に用いる判断情報を読み込む(ステップD31)。
次に、制御情報算出部208は、読み込んだ判断情報に対して、制御の種類毎に学習結果を適用し、制御情報を算出する。そして、制御情報算出部208は、算出した制御情報を、地上局制御部105に送信する(ステップD32)。
ここで、制御情報の内容が地上局の現在の状況を変更する内容でない場合(ステップD33でNo)、情報処理システム2は、この種類の制御情報に関する処理を終了する。
一方、制御情報の内容が地上局の現在の状況を変更する内容である場合(ステップD33でNo)、地上局制御部105は、制御情報を、地上局に対して送信する(ステップD34)。
全種類の制御情報についてステップD32〜D34の処理を終了すると、情報処理システム2は、運用を終了するか否かを判断する(ステップD35)。
運用を終了しない場合、情報処理システム2は、ステップD31からの処理を繰り返す。運用を終了する場合、情報処理システム2は、動作を終了する。
以上で、情報処理システム2が制御情報を算出して地上局に送信する動作の説明を終了する。
以上で、第1〜第3の運用モードにおける情報処理システム2の動作の説明を終了する。
次に、情報処理システム2が、運用モードを切り替える動作を図16に示す。
図16では、まず、運用端末410の運用モード切替部211は、運用モードを指定する情報を取得する(ステップF21)。運用モードを指定する情報は、第1、第2、および第3の運用モードのいずれかを表す情報である。運用モードを指定する情報は、入力装置5004を介して取得されてもよい。
ここで、第1の運用モードを指定する情報が取得された場合(ステップF22で第1の運用モード)について説明する。この場合、運用モード切替部211は、制御情報算出部208、学習部206、判断情報取得部101および評価値取得部209を、次のように制御する(ステップF23)。
すなわち、この場合、運用モード切替部211は、制御情報取得部203に、図5に示した制御情報の取得動作を実行させるよう制御する。また、運用モード切替部211は、評価値取得部209に、図10に示した評価値の取得動作を実行させるよう制御する。また、運用モード切替部211は、学習部206に、図11に示した学習動作を実行させるよう制御する。また、運用モード切替部211は、制御情報算出部208を機能させないよう制御する。
これにより、情報処理システム2は、判断情報に基づく運用者の判断により決定された制御情報を用いた運用を行いながら、そのような運用者の判断を学習部206により学習するモードとなる。
また、第2の運用モードを指定する情報が取得された場合(ステップF22で第2の運用モード)について説明する。この場合、運用モード切替部211は、制御情報算出部208、学習部206、判断情報取得部101および評価値取得部209を、次のように制御する(ステップF24)。
すなわち、この場合、運用モード切替部211は、制御情報取得部203に、図12に示した制御情報の取得動作を実行させるよう制御する。また、運用モード切替部211は、評価値取得部209に、図13に示した評価値の取得動作を実行させるよう制御する。また、運用モード切替部211は、学習部206に、図11に示した学習動作を実行させるよう制御する。また、運用モード切替部211は、制御情報算出部208に、図14に示した制御情報の算出動作を実行させるよう制御する。
これにより、情報処理システム2は、学習結果に基づき算出した制御情報を運用者に対して提案として提示し、最終的に運用者によって判断された制御情報を用いて運用を行いながら、学習部206による学習を継続するモードとなる。
また、第3の運用モードを指定する情報が取得された場合(ステップF22で第3の運用モード)について説明する。この場合、運用モード切替部211は、制御情報算出部208、学習部206、判断情報取得部101および評価値取得部209を、次のように制御する(ステップF25)。
すなわち、この場合、運用モード切替部211は、制御情報取得部203および学習部206を機能させないよう制御する。また、運用モード切替部211は、評価値取得部209を機能させないよう制御する。また、運用モード切替部211は、制御情報算出部208に、図15に示した制御情報の算出動作を実行させるよう制御する。
これにより、情報処理システム2は、第1および第2の運用モードによって調整された学習結果を用いて算出される制御情報を用いて、運用を自動化したモードとなる。
次に、情報処理システム2の動作を具体例で示す。
この具体例では、管制対象物は、人工衛星であるものとする。また、図17に示すように、情報処理システム2は、人工衛星に対応して地上に設けられた地上局の送受信設備および変復調設備に接続される。また、情報処理システム2は、地上局周辺の天候を検出する付帯設備に接続される。
ここでは、判断情報としては、送受信設備から送信されるAGC(Automatic Gain Control)受信レベルおよび現ループバンド、変復調設備から送信される現ビットレート、および、付帯設備から送信される現在の気象情報および気象予報情報があるとものする。これらの判断情報は、地上局制御装置300に対して送信される。
また、制御情報としては、送受信設備に対するループバンド設定制御、変復調設備に対するビットレート設定制御、および、運用を終了する制御の3種類があるものとする。
まず、図4に示した動作により、判断情報記憶部102に記憶される判断情報の一例を、図18に示す。図18において、各行は、同時に取得された判断情報のエントリを表す。各エントリは、タグ、取得日時、および、上述した各種の判断情報から構成される。
各エントリにおいて、取得日時は、そのエントリの判断情報が取得された日時を表す。また、AGC受信レベル、現ループバンド、および現ビットレートについては、取得された値がそのまま格納される。また、現在の気象情報および気象予報情報は、図19に示す対応表に基づく値が格納される。現在の気象情報は、その情報が取得された時点での気象を表す。また、気象予報情報は、その情報が取得された時点以降、所定期間までの所定間隔毎の気象の予報を表す。図19の例では、各エントリにおいて、気象予報情報は、その情報が取得された時点から2時間後までの30分毎の気象の予報を表す計4個の数値からなる。
また、各エントリにおいて、タグは、そのエントリの判断情報を用いて決定された制御情報の識別情報を表す。ここでは、制御情報の識別情報は、制御日時である。つまり、タグには、後述する制御情報記憶部104における該当するエントリの制御日時が格納される。なお、タグは、判断情報のエントリが作成された時点では、まだ格納されていなくてもよい。タグは、例えば、図5または図12に示したステップB15において格納される。
この例では、制御情報を決定する処理を実行する時点の直近N秒間において取得された判断情報が、制御情報の決定に用いられるものとする。例えば、図18では、1〜5行目までの各エントリに、同一の制御情報の識別情報である制御日時「xxx-xx xx:xx」がタグとして格納されている。つまり、1〜5行目までの判断情報は、制御日時「xxx-xx xx:xx」を識別情報とする制御情報が決定される際に用いられた判断情報である。
次に、図5または図12に示した動作により、制御情報記憶部104に記憶される制御情報の一例を、図20に示す。図20において、各行は、制御情報取得部203によって地上局制御装置300を介して地上局に送信された制御情報のエントリを表す。各エントリは、制御日時、ビットレート設定値、ループバンド設定値および運用終了制御値からなる。制御日時は、この制御情報が取得または算出された日時を表す。また、ビットレート設定値は、変復調設備のビットレートを当該値に設定する制御を表す。また、ループバンド設定値は、送受信設備のループバンドを当該値に設定する制御を表す。また、運用終了制御値は、1がオフ(運用終了)を表し、0がオン(運用継続)を表す。
次に、図10または図13に示した動作により、評価値記憶部210に記憶される評価値の一例を、図21に示す。図21において、各行は、評価値のエントリを表す。各エントリは、タグと、評価値とからなる。タグは、評価対象である制御情報の識別情報(ここでは制御日時)を表す。評価値は、ここでは、0から100までの任意の整数をとるよう定義されている。100は、最も良い評価を表し、0は、最も悪い評価を表す。評価値には、ステップE22またはE25において運用者等によって入力された値が格納される。
次に、このような具体例において、情報処理システム2が学習を行う動作について説明する。なお、この動作は、第1および第2の運用モードにおいて実行される。
まず、学習部206は、図18の判断情報記憶部102と、図20の制御情報記憶部104とを照合し、制御情報と、その制御日時がタグとして格納された1つ以上の判断情報との組を、学習データとして生成する(ステップC21)。
次に、学習部206は、図21の制御情報記憶部104を参照することにより、評価値が閾値(例えば50)より低いエントリを抽出し、そのタグが示す制御情報を含む学習データを、ステップC21で生成した学習データから削除する(ステップC22)。
これにより、質の悪い学習データが取り除かれ、質の良い学習データが抽出される。
次に、学習部206は、ステップC22で残った学習データを用いて、制御の種類毎に、機械学習を行う。ここでは、機械学習のアルゴリズムとして、M(Mは正の整数)個の層を持つ階層型ニューラルネットワークを用いるとする(ステップC23)。
まず、ニューラルネットワークの入力信号は、次式1で表される。
Figure 2018010513
ここで、Nは、制御情報の決定に用いられる判断情報の数を表している。ここでは、制御情報の決定には、制御日時の直近N秒間に取得された判断情報が用いられ、判断情報が1秒毎に取得されるとする。したがって、学習データは、N個の判断情報と、1つの制御情報とからなる。式1では、N秒間に取得されたN個の現ビットレートを代表する値をBRと表し、N個の現ループバンドを代表する値をLBと表している。代表する値は、N個のうちの最新の値、平均値、最大値、最小値等であってもよいが、その他の統計値であってもよい。また、N秒間に取得されたN個のAGC受信レベルをLV={LV(1),・・・,LV(N)}と表している。また、N秒間に取得されたN個の気象情報をWI={WI(1),・・・,WI(N)}と表している。また、N秒間に取得されたN個の気象予報情報を代表する情報をFC={FC(1),・・・,FC(4)}と表している。1つの気象予報情報が4つの数値からなるため、ここでは、N個の気象予報情報を代表する情報として、例えば、最新の気象予報情報の4つの値FC(1)〜FC(4)が採用されている。ただし、N個の気象予報応報を代表する情報は、その他の統計情報であってもよい。
また、ニューラルネットワークの第m層における第j番目のニューロンの出力をo(m,j)と表すと、第一層の出力は、入力信号を用いて、次式2で表される。
Figure 2018010513
また、他の層の出力は、次式3で表される。
Figure 2018010513
ここで、w(j,i,m−1)は、第m−1層の第i番目のニューロンから出力され第m層の第j番目のニューロンに入力される値に対して乗算される重みを表す。また、Lm−1は、第m−1層のニューロンの数を表す。また、f(x)は活性化関数を表し、例えば、次式4を用いるとする。
Figure 2018010513
また、ニューラルネットワークの学習手法として、例えば、誤差逆伝搬法を用いるとする。誤差逆伝搬法では、次式5に示すように、出力層の出力と教師信号との二乗誤差を最小にするように、重みwの計算が行われる。
Figure 2018010513
ここで、y(i)は、教師信号を表す。例えば、ビットレート設定値に関する制御情報を教師信号とする機械学習について考える。また、例えば、ビットレートとして設定可能な値が、50、100、150の3つであることを想定する。この場合、y(1)に設定値50を割り当て、y(2)に設定値100を割り当て、y(3)に設定値150を割り当てる。ここで、学習データの制御情報のビットレート設定値が50である場合、教師信号としては、y(1)=1,y(2)=0,y(3)=0が適用される。つまり、y(i)は、割り当てられた設定値が教師信号の設定値であるか否かを1または0で表している。
このようにして、学習部206は、ビットレート設定制御、ループバンド設定制御、運用終了制御に対するニューラルネットワークを個別に構築し、逆誤差伝搬法によって重みを計算する。そして、学習部206は、ビットレート設定制御に対する重み、ループバンド設定制御に対する重み、運用終了制御に対する重みをそれぞれ算出する。
つまり、学習部206は、学習データの判断情報を入力信号とし、学習データの制御情報に含まれるビットレート設定値を教師信号として、1つ目のニューラルネットワークの重み学習を行う。また、学習部206は、学習データの判断情報を入力信号とし、学習データの制御情報に含まれるループバンド設定値を教師信号として、2つ目のニューラルネットワークの重み学習を行う。また、学習部206は、学習データの判断情報を入力信号とし、学習データの制御情報に含まれる運用終了制御値を教師信号として、3つ目のニューラルネットワークの重み学習を行う。
次に、学習部206は、制御情報の種類毎に求めた重みを学習結果として、学習結果記憶部107に記憶する(ステップC24)。
以上で、この具体例において、情報処理システム2が学習を行う動作の説明を終了する。
次に、このように構築された制御の種類ごとのニューラルネットワークを用いて、情報処理システム2が制御情報を算出する動作について説明する。なお、ここでは、第3の運用モードにおける制御情報の算出を例として説明する。
ここでは、まず、制御情報算出部208は、図18に示した判断情報記憶部102から、現在時刻までの直近N秒間に追加された判断情報を読み込む(ステップD31)。
次に、制御情報算出部208は、読み込んだ判断情報を式1に示した入力信号とする。そして、制御情報算出部208は、学習結果記憶部107から、ビットレート設定制御について構築したニューラルネットワークの重みを読み込み、それぞれ、式2および式3を繰り返し適用することによって、出力層の出力を算出する。
そして、制御情報算出部208は、出力層のニューロンの中で、最も1に近い値を出力したニューロンに割り当てられた制御を選択する。例えば、図22に示すように、ビットレート設定制御のニューラルネットワーク出力層(第M層)がo(M,1),o(M,2),o(M,3)の3個のニューロンで構成されているとする。また、ビットレートとして設定可能な値が50、100、150の3つで、o(M,1)に50、o(M,2)に100、o(M,3)に150が割り当てられているとする。この時、制御情報算出部208が、o(M,1)=0.24、o(M,2)=0.89、o(M,3)=0.10を算出したものとする。この場合、制御情報算出部208は、ビットレートを設定する制御情報として、最も1に近いo(M,2)=0.89に割り当てられたビットレート設定値100を選択する(テップD32)。
そして、制御情報算出部208は、ビットレート設定値100を、地上局制御部105に送信する。
そして、地上局制御部105は、受信したビットレート設定値100が、現在の送受信設備の設定を変更する内容であるか否かを判断する。変更する内容である場合に(ステップD33でYes)、地上局制御部105は、ビットレート設定値100を、地上局に送信する(ステップD34)。
同様に、情報処理システム2は、ループバンド設定制御および運用終了制御についても、同様にステップD32〜D34を実行する。
そして、情報処理システム2は、運用終了制御について算出された制御情報が運用終了でなかった場合(ステップD35でNo)、ステップD31からの動作を繰り返す。
一方、情報処理システム2は、運用終了制御について算出された制御情報が運用終了であった場合(ステップD35でYes)、動作を終了する。
このように、この具体例では、機械学習として適用したニューラルネットワークを、制御の種類毎に個別に構築する。また、ニューラルネットワークの出力層のニューロン数を、その種類の制御において指定し得る制御値の個数と同数にする。これにより、本実施の形態の具体例は、制御情報の演算精度を高めている。
なお、本実施の形態の具体例と比較するため、機械学習としてニューラルネットワークを制御の種類毎に構築しないケースについて説明する。この場合、例えば、図23に示すように、出力層のo(M,1)にビットレート設定値を割り当て、o(M,2)にループバンド設定値を割り当て、O(M,3)に運用終了制御値(運用終了の必要性を表す0〜1までの任意の実数値)を割り当てたとする。運用終了制御値は、閾値(例えば0.5)以上が算出された場合に、制御情報として運用終了を表す1が採用されるとする。この時、o(M,1)=256、o(M,2)=100、O(M,3)=0.8が出力されたとする。この場合、ビットレート設定値が256であり、ループバンド設定値が100であり、運用終了制御値が1である制御情報が算出されることになる。このような機械学習は、1つのニューラルネットワークを用いて異なる種類の制御に関する重みの学習を行わなければならない。したがって、本実施の形態の具体例のように制御の種類毎にニューラルネットワークを個別に構築する場合に比べて、演算精度が低下することになる。
また、本実施の形態の具体例と比較するため、機械学習として制御の種類毎にニューラルネットワークを構築する場合であっても、図24に示すように、出力層のニューロンを1つにしてその出力値を設定値として適用するケースについて説明する。しかしながら、出力層の1つのニューロンから出力される値を設定値として採用する場合、設定値として算出され得る値が多岐に渡ることになり、その分、制御情報の演算精度が低下する。これに対し、本実施の形態の具体例では、出力層のニューロンの数を、指定し得る設定値の個数と同数にしている。これにより、本実施の形態は、各ニューロンの出力値を比較することができ、各ニューロンの出力値に多少の誤差が生じていても、誤差を吸収してより適切な設定値を選択できる可能性を高くしている。
以上で、具体例の説明を終了する。
次に、本発明の第2の実施の形態の効果について述べる。
本実施の形態としての情報処理システムは、事前に制御ルールを定める必要なく、対象物を管制する装置の制御をさらに高精度に自動化することができる。
その理由について説明する。本実施の形態は、本発明の第1の実施の形態と同様の構成に加えて、評価値取得部が、制御情報に対する評価値を取得して、評価値記憶部に記憶する。そして、学習部が、所定条件を満たす評価値の評価対象となった制御情報を含む学習データを用いて、機械学習を行うからである。
これにより、本実施の形態は、運用者による判断に基づく制御情報や、制御情報算出部によって算出された制御情報のうち、評価の低い制御情報を学習の対象から除外して、機械学習を行うことができる。その結果、本実施の形態は、制御情報の演算精度をさらに高めることができる。また、本実施の形態は、評価値を用いることにより、制御情報の算出を自動化する性能の評価を、運用を行いながら実施することができ、その結果、評価にかかる技術者等の人的コストを大幅に削減する。
さらに、本実施の形態では、学習部が、制御情報が表す制御の種類ごとに機械学習を行い、制御情報算出部が、判断情報に対して、制御の種類ごとの学習結果を適用することにより、制御情報を算出して出力するからである。
これにより、本実施の形態は、異なる種類の制御情報を1つの機械学習で導出させるよう学習する場合と比較して、学習の精度を高め、その結果、制御情報の演算精度を高めることができる。
さらに、本実施の形態では、運用モード切替部が、第1、第2および第3の運用モードのいずれかに切り替えて運用を行うからである。第1の運用モードは、制御情報取得部および学習部を機能させて制御情報算出部を機能させない運用モードである。第2の運用モードは、制御情報取得部、学習部および制御情報算出部を共に機能させる運用モードである。また、第3の運用モードは、制御情報取得部および学習部を機能させずに制御情報算出部を機能させる運用モードである。
このように、本実施の形態は、第1〜第3の運用モードを切り替え可能に提供することで、運用者による運用から、自動化による運用まで、短期間で段階的に移行することを可能とする。
なお、本実施の形態の具体例において、管制対象物が人工衛星である例について説明したが、管制対象物は、人工衛星に限定されない。例えば、管制対象物は、航空レーダを用いて管制を行う航空機であってもよい。
また、本実施の形態の具体例において、判断情報として、現ビットレート、現ループバンド、気象情報、気象予報情報を採用する例について説明した。これに限らず、判断情報としては、地上局の状態や地上局周辺の環境を表すその他の各種の情報を適用可能である。
例えば、本実施の形態の具体例において、判断情報の1つは、管制対象物との通信を行うアンテナ周辺の環境を表す情報であってもよい。また、アンテナ周辺の環境を検出する付帯設備として、アンテナ周辺を監視するカメラが適用されてもよい。この場合、本実施の形態は、環境情報として、気象情報だけでなく、アンテナ周辺に鳥が飛んでいる等の環境を基に、電波の質が悪いため運用を終了させる、等の運用者による制御を学習して自動化に用いることが可能である。
また、例えば、本実施の形態の具体例において、判断情報の1つは、アンテナの方位角および仰角を表す情報であってもよい。この場合、本実施の形態は、地上局の状態として、アンテナが向いている方向も考慮した運用者による制御を学習して自動化に用いることが可能である。
また、本実施の形態の具体例において、図19に示した気象情報の種類は、これらに限らない。また、これらの情報は、必ずしも数値で表される必要はない。
また、本実施の形態の具体例において、図20に示したように、制御の種類として、ループバンド設定制御、ビットレート設定制御、運用終了制御の3種類を適用した例について説明したが、制御の種類は、これらに限定されない。
また、本実施の形態の具体例において、学習データとして採用するための評価値の所定条件として、閾値以上であることを例示した。これに限らず、評価値の所定条件は、他の条件や、複数の条件の組み合わせであってもよい。
また、上述した本発明の各実施の形態において、情報処理システムの各機能ブロックが、地上局制御装置、自動運用装置、および、運用端末の各装置に分散されて実現される例について説明した。これに限らず、情報処理システムの各機能ブロックは、その他の任意の構成の複数の装置上に分散して実現されてもよい。また、情報処理システムの各機能ブロックは、1つのコンピュータ装置上に実現されてもよい。
また、上述した本発明の各実施の形態において、情報処理システムの各機能ブロックが、メモリに記憶されたコンピュータ・プログラムを実行するCPUによって実現される例を中心に説明した。これに限らず、各機能ブロックの一部、全部、または、それらの組み合わせは、専用のハードウェアにより実現されていてもよい。
また、上述した本発明の各実施の形態において、各フローチャートを参照して説明した情報処理システムの動作を、本発明のコンピュータ・プログラムとしてコンピュータ装置の記憶装置(記憶媒体)に格納しておく。そして、係るコンピュータ・プログラムを当該CPUが読み出して実行するようにしてもよい。そして、このような場合において、本発明は、係るコンピュータ・プログラムのコードあるいは記憶媒体によって構成される。
また、上述した各実施の形態は、適宜組み合わせて実施されることが可能である。
また、本発明は、上述した各実施の形態に限定されず、様々な態様で実施されることが可能である。
1、2 情報処理システム
101 判断情報取得部
102 判断情報記憶部
103、203 制御情報取得部
104 制御情報記憶部
105 地上局制御部
106、206 学習部
107 学習結果記憶部
108、208 制御情報算出部
209 評価値取得部
210 評価値記憶部
211 運用モード切替部
300 地上局制御装置
400、410 自動運用装置
500、510 運用端末
3001、4001、5001 CPU
3002、4002、5002 メモリ
5003 出力装置
5004 入力装置
3005、4005、5005 ネットワークインタフェース

Claims (10)

  1. 管制対象物との通信を行う地上局の状態を表す情報と前記地上局周辺の環境を表す情報とを含む判断情報を取得する判断情報取得部と、
    前記判断情報を記憶する判断情報記憶部と、
    前記判断情報に基づいて決定された前記地上局に対する制御内容を表す制御情報を取得する制御情報取得部と、
    前記制御情報を記憶する制御情報記憶部と、
    前記制御情報を前記地上局に送信して前記地上局を制御する地上局制御部と、
    前記判断情報記憶部に記憶された前記判断情報および前記制御情報記憶部に記憶された前記制御情報を学習データとして機械学習を行う学習部と、
    前記機械学習の学習結果を記憶する学習結果記憶部と、
    前記判断情報に対して、前記学習結果記憶部に記憶された前記学習結果を適用することにより、前記制御情報を算出する制御情報算出部と、
    を備えた情報処理システム。
  2. 前記制御情報算出部は、算出した前記制御情報を前記地上局制御部に送信し、
    前記地上局制御部は、前記制御情報算出部から受信した前記制御情報を前記地上局に送信することを特徴とする請求項1に記載の情報処理システム。
  3. 前記制御情報算出部は、算出した前記制御情報を前記制御情報取得部に送信し、
    前記制御情報取得部は、前記制御情報算出部から受信した前記制御情報と前記判断情報とに基づいて決定された前記制御情報を取得することを特徴とする請求項1または請求項2に記載の情報処理システム。
  4. 前記制御情報に対する評価を表す評価値を取得する評価値取得部と、
    前記評価値を記憶する評価値記憶部と、
    をさらに備え、
    前記学習部は、前記学習データのうち、所定条件を満たす前記評価値の評価対象となった前記制御情報を含む学習データを用いて、前記機械学習を行うことを特徴とする請求項1から請求項3のいずれか1項に記載の情報処理システム。
  5. 前記学習部は、前記制御情報が表す制御の種類ごとに前記機械学習を行い、
    前記制御情報算出部は、前記判断情報に対して、前記制御の種類ごとの前記学習結果を適用することにより、前記制御情報を算出することを特徴とする請求項1から請求項4のいずれか1項に記載の情報処理システム。
  6. 前記制御情報取得部および前記学習部を機能させて前記制御情報算出部を機能させない第1の運用モード、前記制御情報取得部、前記学習部および前記制御情報算出部を共に機能させる第2の運用モード、並びに、前記制御情報取得部および前記学習部を機能させずに前記制御情報算出部を機能させる第3の運用モードのいずれかに切り替える運用モード切替部をさらに備えることを特徴とする請求項1から請求項5のいずれか1項に記載の情報処理システム。
  7. 請求項1から請求項6のいずれか1項に記載の情報処理システムにおいて、
    前記判断情報記憶部と、前記制御情報記憶部と、前記学習部と、前記学習結果記憶部と、前記制御情報算出部とを有する自動運用装置。
  8. 請求項1から請求項6のいずれか1項に記載の情報処理システムにおいて、
    前記制御情報取得部を有する運用端末。
  9. 管制対象物との通信を行う地上局の状態を表す情報と前記地上局周辺の環境を表す情報とを含む判断情報、および、前記判断情報に基づいて決定された前記地上局に対する制御内容を表す制御情報を学習データとして機械学習を行い、
    前記判断情報に対して前記学習結果を適用することにより、前記制御情報を算出する方法。
  10. 管制対象物との通信を行う地上局の状態を表す情報と前記地上局周辺の環境を表す情報とを含む判断情報、および、前記判断情報に基づいて決定された前記地上局に対する制御内容を表す制御情報を学習データとして機械学習を行う機械学習ステップと、
    前記判断情報に対して前記学習結果を適用することにより、前記制御情報を算出する制御情報算出ステップと、
    をコンピュータ装置に実行させるプログラム。
JP2016139334A 2016-07-14 2016-07-14 情報処理システム、自動運用装置、運用端末、方法およびプログラム Active JP7035302B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016139334A JP7035302B2 (ja) 2016-07-14 2016-07-14 情報処理システム、自動運用装置、運用端末、方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016139334A JP7035302B2 (ja) 2016-07-14 2016-07-14 情報処理システム、自動運用装置、運用端末、方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2018010513A true JP2018010513A (ja) 2018-01-18
JP7035302B2 JP7035302B2 (ja) 2022-03-15

Family

ID=60994323

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016139334A Active JP7035302B2 (ja) 2016-07-14 2016-07-14 情報処理システム、自動運用装置、運用端末、方法およびプログラム

Country Status (1)

Country Link
JP (1) JP7035302B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111160545A (zh) * 2019-12-31 2020-05-15 北京三快在线科技有限公司 人工神经网络处理系统及其数据处理方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07319509A (ja) * 1989-03-13 1995-12-08 Hitachi Ltd プロセス運転支援方法およびシステム
US6321065B1 (en) * 1998-10-30 2001-11-20 Trw Inc. Performance enhancement of open-loop power control for satellite communication systems
JP2007215113A (ja) * 2006-02-13 2007-08-23 Toshiba Corp 衛星通信システムの地上局装置
JP2011194928A (ja) * 2010-03-17 2011-10-06 Mitsubishi Electric Corp 衛星運用システム、これに用いる運用計画サーバ装置
JP2015053584A (ja) * 2013-09-06 2015-03-19 株式会社Nttドコモ 無線基地局、無線通信システム及び無線通信方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07319509A (ja) * 1989-03-13 1995-12-08 Hitachi Ltd プロセス運転支援方法およびシステム
US6321065B1 (en) * 1998-10-30 2001-11-20 Trw Inc. Performance enhancement of open-loop power control for satellite communication systems
JP2007215113A (ja) * 2006-02-13 2007-08-23 Toshiba Corp 衛星通信システムの地上局装置
JP2011194928A (ja) * 2010-03-17 2011-10-06 Mitsubishi Electric Corp 衛星運用システム、これに用いる運用計画サーバ装置
JP2015053584A (ja) * 2013-09-06 2015-03-19 株式会社Nttドコモ 無線基地局、無線通信システム及び無線通信方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111160545A (zh) * 2019-12-31 2020-05-15 北京三快在线科技有限公司 人工神经网络处理系统及其数据处理方法

Also Published As

Publication number Publication date
JP7035302B2 (ja) 2022-03-15

Similar Documents

Publication Publication Date Title
CN111091200B (zh) 训练模型的更新方法、系统、智能设备、服务器及存储介质
CN110276446B (zh) 模型训练和选择推荐信息的方法和装置
US7509235B2 (en) Method and system for forecasting reliability of assets
CN110956202B (zh) 基于分布式学习的图像训练方法、系统、介质及智能设备
CN113011529B (zh) 文本分类模型的训练方法、装置、设备及可读存储介质
CN112631240A (zh) 航天器故障主动检测方法及装置
WO2020240808A1 (ja) 学習装置、分類装置、学習方法、分類方法、学習プログラム、及び分類プログラム
US20240095529A1 (en) Neural Network Optimization Method and Apparatus
CN110689359A (zh) 对模型进行动态更新的方法及装置
CN110633802A (zh) 策略搜索装置、方法及记录介质
US20230162018A1 (en) Dimensional reduction of correlated vectors
CN111831892A (zh) 信息推荐方法、信息推荐装置、服务器及存储介质
CN110135428A (zh) 图像分割处理方法和装置
CN117540822A (zh) 跨移动边缘网络的联邦类增量学习方法、设备和存储介质
CN113850669A (zh) 用户分群方法、装置、计算机设备及计算机可读存储介质
JP7035302B2 (ja) 情報処理システム、自動運用装置、運用端末、方法およびプログラム
CN116664250A (zh) 内容信息的推荐方法、装置、服务器及存储介质
US20220027142A1 (en) Computer-implemented method and device for the update management of different versions of distributed software with the aid of machine learning methods
CN115935089A (zh) 一种基于rpa技术的上车点推荐优化方法和系统
US11934899B2 (en) Information processing device, prediction method, and non-transitory computer-readable storage medium storing program
JP7464115B2 (ja) 学習装置、学習方法および学習プログラム
WO2021229625A1 (ja) 学習装置、学習方法および学習プログラム
CN114298870A (zh) 一种路径规划方法、装置、电子设备及计算机可读介质
US10873550B2 (en) Methods for communication in a communication network for reduced data traffic
WO2023166564A1 (ja) 推定装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190617

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200728

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200818

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201001

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210427

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210625

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20211021

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220214

R151 Written notification of patent or utility model registration

Ref document number: 7035302

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151