JP7477764B2 - 情報処理プログラム、情報処理方法、および情報処理装置 - Google Patents

情報処理プログラム、情報処理方法、および情報処理装置 Download PDF

Info

Publication number
JP7477764B2
JP7477764B2 JP2020138525A JP2020138525A JP7477764B2 JP 7477764 B2 JP7477764 B2 JP 7477764B2 JP 2020138525 A JP2020138525 A JP 2020138525A JP 2020138525 A JP2020138525 A JP 2020138525A JP 7477764 B2 JP7477764 B2 JP 7477764B2
Authority
JP
Japan
Prior art keywords
result
inference
cleansing
frame image
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020138525A
Other languages
English (en)
Other versions
JP2022034699A (ja
Inventor
壮 多々納
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2020138525A priority Critical patent/JP7477764B2/ja
Publication of JP2022034699A publication Critical patent/JP2022034699A/ja
Application granted granted Critical
Publication of JP7477764B2 publication Critical patent/JP7477764B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、情報処理プログラム、情報処理方法、および情報処理装置に関する。
可視光またはレーダなどにより、観測の対象となる対象物(人物、車両、船舶、航空機など)の画像を撮影することができる。レーダを用いた場合、夜間でも画像の撮影が可能である。
対象物を撮影した画像をコンピュータにより解析することで、対象物についての様々な情報を得ることができる。例えば対象物が人物であれば、その人物の性別や体型などの情報を得ることができる。また対象物が船舶であれば、その船舶の種別(漁船、貨物船など)や大きさなどの情報を得ることができる。画像の解析には、例えばAI(Artificial Intelligence)などの機械学習の技術を利用することができる。
観測のために撮影した画像には、さまざまな要因により突発的にぼやけやノイズが生じる。ぼやけやノイズが生じると、画像内での対象物の特徴が不鮮明になり、その画像は対象物の解析には適さない画像となる。
解析に適さない画像を抽出する技術としては、例えば対象画像がぼけ画像であるか否かを容易に、かつ、精度よく判定するぼけ画像判定方法が提案されている。また画像に基づく対象物の分類に関する技術として、教師データの分布状況の把握を好適に支援する教師データ作成支援装置が提案されている。さらに、ユーザと対話的に識別器を学習する処理において精度の高い識別器を学習するのに適切な情報を表示する情報処理装置も提案されている。
特開2010-231695号公報 特開2019-66993号公報 特開2018-142097号公報
画像の特徴量を所定のパラメータと比較することで、解析に利用することが不適切な画像を特定することができる。この場合、解析精度を向上させるには、パラメータに適切な値を設定することが重要となる。しかし、従来は、解析結果だけが表示され、その解析結果の精度が悪い場合に、ユーザは解析に利用することが不適切な画像が正しく排除されたのか否かを判断することができない。そのためユーザは、パラメータの値を何度も変えながら、解析精度が向上するまで解析処理を繰り返すこととなる。このようにパラメータを用いた解析に不適切な画像の排除に手間がかかり、精度の良い解析結果を得るまでに時間がかかっている。
1つの側面では、本発明は、解析に不適切な画像の排除処理の効率化を図ることを目的とする。
1つの案では、以下の処理をコンピュータに実行させる情報処理プログラムが提供される。
コンピュータは、機械学習で得られた学習済モデルを用いて、動画データに含まれる複数のフレーム画像それぞれに表されている対象物の推論結果を取得する。次にコンピュータは、予め設定されたパラメータに基づいて、動画データに含まれる複数のフレーム画像それぞれの推論結果を利用することが適切か否かを判定する。次にコンピュータは、動画データ内での先頭から複数のフレーム画像それぞれまでの、推論結果を利用することが適切であると判定された第1のフレーム画像それぞれの第1の推論結果を累積させた累積結果を算出する。次にコンピュータは、複数のフレーム画像それぞれについて算出された推論結果の時系列変化を示す第1のグラフと、複数のフレーム画像それぞれについて算出された累積結果の時系列変化を示す第2のグラフとを生成する。そしてコンピュータは、第1のグラフと第2のグラフとを、第1のフレーム画像の第1の推論結果または第1の累積結果の表示領域と、推論結果を利用することが不適切であると判定された第2のフレーム画像の第2の推論結果または第2の累積結果の表示領域とを異なる表示態様で表示させる。
1態様によれば、解析に不適切な画像の排除処理の効率化を図ることができる。
第1の実施の形態に係る情報処理方法の一例を示す図である。 船舶の類識別のためのシステム構成の一例を示す図である。 航空機内の情報処理システムの一例を示す図である。 本実施の形態に用いるコンピュータのハードウェアの一例を示す図である。 クレンジングの重要性を説明する図である。 解析装置の機能の一例を示す図である。 パラメータ管理テーブルの一例を示す図である。 フレーム画像の特徴量に基づく散布図の一例を示す図である。 クレンジング結果テーブルの一例を示す図である。 推論結果テーブルの一例を示す図である。 累積結果テーブルの一例を示す図である。 学習処理の手順の一例を示すフローチャートである。 クレンジング結果確認画面の一例を示す図である。 船舶の類識別処理の手順の一例を示すアクティビティ図である。 解析結果表示画面の一例を示す図である。 クレンジング対象を明示しない場合の解析結果表示画面の例(比較例)を示す図である。 クレンジング対象を明示した解析結果表示画面の第1の例を示す図である。 クレンジング対象を明示した解析結果表示画面の第2の例を示す図である。
以下、本実施の形態について図面を参照して説明する。なお各実施の形態は、矛盾のない範囲で複数の実施の形態を組み合わせて実施することができる。
〔第1の実施の形態〕
まず第1の実施の形態について説明する。
図1は、第1の実施の形態に係る情報処理方法の一例を示す図である。情報処理装置10は、例えば情報処理プログラムを実行することにより、情報処理方法を実施することができる。情報処理装置10は、記憶部11と処理部12とを有する。記憶部11は、例えば情報処理装置10が有するメモリ、またはストレージ装置である。処理部12は、例えば情報処理装置10が有するプロセッサ、または演算回路である。
記憶部11は、動画データ1を記憶する。動画データ1には、複数のフレーム画像1a,1b,・・・が含まれる。
処理部12は、機械学習で得られた学習済モデルを用いて、動画データ1に含まれる複数のフレーム画像1a,1b,・・・それぞれに表されている対象物の推論結果を取得する。対象物が船舶の場合、例えば推論結果として船舶の類識別の結果が得られる。次に処理部12は、予め設定されたパラメータに基づいて、動画データに含まれる複数のフレーム画像1a,1b,・・・それぞれの推論結果を利用することが適切か否かを判定する。パラメータは、例えばフレーム画像を解析して得られる特徴量についての閾値である。その場合、処理部12は、フレーム画像の特徴量と、パラメータとして設定された閾値との大小の比較結果に基づいて、そのフレーム画像から算出した推論結果を利用することが適切か否かを判定する。
処理部12は、動画データ1内での先頭から複数のフレーム画像1a,1b,・・・それぞれまでの、推論結果を利用することが適切であると判定された第1のフレーム画像それぞれの推論結果(第1の推論結果)を累積させた累積結果を算出する。累積結果は、例えば動画データ1の先頭のフレーム画像から累積結果の算出対象となるフレーム画像までに含まれる第1のフレーム画像それぞれの第1の推論結果に示される値の平均値である。
次に処理部12は、第1のグラフ2と第2のグラフ3とを生成する。第1のグラフ2は、複数のフレーム画像1a,1b,・・・それぞれの推論結果の時系列変化を示すグラフである。第1のグラフの横軸は例えばフレーム画像のフレーム番号であり、縦軸は例えば推論結果に示される船舶の種別ごとの、写っている船舶がその種別の船舶である確率である。第2のグラフ3は、複数のフレーム画像1a,1b,・・・それぞれまでの、推論結果を利用することが適切であると判定された第1のフレーム画像に対する推論結果を累積させた累積結果を示すグラフである。第2のグラフの横軸は例えばフレーム画像のフレーム番号であり、縦軸は例えば推論結果に示される船舶の種別ごとの、写っている船舶がその種別の船舶である確率の平均値である。
そして処理部12は、生成した第1のグラフ2と第2のグラフ3とを含む表示画面4をモニタに表示させる。その際、処理部12は、第1のフレーム画像の第1の推論結果または第1の累積結果の表示領域2a,3aと、推論結果を利用することが不適切であると判定された第2のフレーム画像の第2の推論結果または第2の累積結果の表示領域2b,3bとを異なる表示態様で表示させる。なお、動画データ1内の最後のフレーム画像まで推論が完了したときの累積結果が、動画データ1に関する解析結果となる。
これにより、パラメータに基づいて推論結果の累積の対象から除外された第2のフレーム画像を容易に把握することができる。そして、第1のグラフ2を参照すれば、第2のフレーム画像の推論結果を確認することができ、累積の対象から除外することが適切であったのか否かを判断できる。例えば他の多くのフレーム画像と大きく異なる推論結果となっているフレーム画像が第2のフレーム画像として累積の対象外になっていれば、不適切な画像の排除処理が正しく行われていると判断できる。逆に、例えば他の多くのフレーム画像と大きく異なる推論結果が第1のフレーム画像の累積結果として累積の対象になっていれば、利用することが不適切な推論結果の排除処理の精度が不十分であると判断できる。このように不適切な画像の排除処理の良否を容易に判断できることで、不適切な画像の排除処理の精度が不十分な場合のパラメータの修正を迅速に行うことができ、解析に不適切な画像の排除処理の効率化を図ることができる。
また処理部12は、生成された動画データ1をリアルタイムに処理し、第1のグラフ2と第2のグラフ3とを更新することもできる。例えば処理部12は、動画データ1から一フレーム画像が読み込まれるごとに、一フレーム画像の推論結果の取得、一フレーム画像までの第1のフレーム画像それぞれの推論結果を累積させた累積結果の算出、第1のグラフ2と第2のグラフ3との更新を行う。処理部12は、第1のグラフ2と第2のグラフ3とを更新するごとに、更新した第1のグラフ2と第2のグラフ3を表示させる。このようなリアルタイムの処理により、例えば監視カメラなどで撮影された動画データから、フレーム画像ごとの推論結果と累積結果とを、グラフによって即座に表示させることができる。その結果、解析に利用するのが不適切なフレーム画像の推論結果が累積結果に利用された場合に、そのことをユーザが迅速に把握することができる。そしてユーザは、パラメータの修正などを行い、フレーム画像を解析に利用することが適切か否かの判定の精度を向上させることができる。
さらに処理部12は、動画データ1内の第2のフレーム画像が連続する範囲をユーザの操作入力に応じて変更することで、各フレーム画像の推論結果を累積の対象とするか否かについて修正することができる。例えば処理部12は、第2のフレーム画像が連続する範囲をモニタに表示させる。次に処理部12は、表示した範囲の開始位置となる第2のフレーム画像、または範囲の終了位置となる第2のフレーム画像を変更する入力を受け付ける。処理部12は、入力により範囲に新たに含まれる第1のフレーム画像の推論結果を、累積結果の算出における累積の対象から除外し、入力により範囲から外れる第2のフレーム画像の推論結果を、累積結果の算出における累積の対象に含める。これにより、解析に不適切な画像の排除処理を容易に行うことが可能となる。
〔第2の実施の形態〕
次に第2の実施の形態について説明する。第2の実施の形態は、光学/電波センサ(可視光また赤外線などの光によるカメラ、その他の各種レーダを含む)によって船舶の類識別を自動で行う場合に、類識別の自動判定に不適切な画像の除去の効率化を図るものである。なお、処理に悪影響を与えると考えられるデータを除外し、学習後の識別機の性能を向上させる処理は、データクレンジングと呼ばれる。以下の説明では、類識別の自動判定に不適切な画像(またはその画像に対する推論結果)を除去する処理を、クレンジングと呼ぶ。
図2は、船舶の類識別のためのシステム構成の一例を示す図である。図2の例では、航空機30に光学/電波センサ装置31が搭載されている。光学/電波センサ装置31は、光や電波を含む電磁波を用いて対象物の画像を生成する装置である。光学/電波センサ装置31は、例えば船舶41に電磁波を照射し、反射して返ってきた信号を分析して、船舶41の画像を生成することができる。
航空機30には、光学/電波センサ装置31で取得した画像を解析する情報処理システムが搭載されている。また航空機30から地上のデータセンタ42へ光学/電波センサ装置31で取得した画像を送信し、データセンタ42のコンピュータに画像を解析させることもできる。
図3は、航空機内の情報処理システムの一例を示す図である。航空機30は、光学/電波センサ装置31に加え、サーバ32、通信装置33、アンテナ34、および解析装置100を有する。
光学/電波センサ装置31は、アンテナ31aと光学/電波センサ画像生成部31bとを有する。アンテナ31aは、船舶41などの対象物への電磁波を送信し、対象物で反射した電磁波を受信する。光学/電波センサ画像生成部31bは、アンテナ31aで受信した信号を解析し、光学/電波センサのフレーム画像を生成する。光学/電波センサ装置31は、所定のフレームレートに応じた間隔でフレーム画像を生成する。生成されたフレーム画像を時系列で表示すると、船舶41などの対象物の動画像となる。光学/電波センサ装置31は、生成したフレーム画像をサーバ32に送信する。
サーバ32は、光学/電波センサ装置31から送られたフレーム画像を取得し、内部のストレージ装置に格納する。サーバ32には通信装置33と解析装置100が接続されている。通信装置33は、アンテナ34を介して地上のデータセンタ42と無線により通信する。サーバ32は、通信装置33を用いて、フレーム画像をデータセンタ42に送信することができる。またサーバ32は、フレーム画像を解析装置100に送信することもできる。
解析装置100は、サーバ32から取得したフレーム画像を解析し、フレーム画像に映し出された船舶の種別を判定する類識別を行う。例えば解析装置100には、光学/電波センサで得られるフレーム画像に基づく船舶類識別用の機械学習の学習済モデルが格納されている。解析装置100は、学習済モデルを用いて類識別を実行する。なお解析装置100は、類識別の際、前処理として画像のクレンジングを行い、解析に利用することが不適切なフレーム画像の推論結果を、最終的な類別判断に使用する情報から除外する。
図4は、本実施の形態に用いるコンピュータのハードウェアの一例を示す図である。解析装置100は、プロセッサ101によって装置全体が制御されている。プロセッサ101には、バス109を介してメモリ102と複数の周辺機器が接続されている。プロセッサ101は、マルチプロセッサであってもよい。プロセッサ101は、例えばCPU(Central Processing Unit)、MPU(Micro Processing Unit)、またはDSP(Digital Signal Processor)である。プロセッサ101がプログラムを実行することで実現する機能の少なくとも一部を、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)などの電子回路で実現してもよい。
メモリ102は、解析装置100の主記憶装置として使用される。メモリ102には、プロセッサ101に実行させるOS(Operating System)のプログラムやアプリケーションプログラムの少なくとも一部が一時的に格納される。また、メモリ102には、プロセッサ101による処理に利用する各種データが格納される。メモリ102としては、例えばRAM(Random Access Memory)などの揮発性の半導体記憶装置が使用される。
バス109に接続されている周辺機器としては、ストレージ装置103、グラフィック処理装置104、入力インタフェース105、光学ドライブ装置106、機器接続インタフェース107およびネットワークインタフェース108がある。
ストレージ装置103は、内蔵した記録媒体に対して、電気的または磁気的にデータの書き込みおよび読み出しを行う。ストレージ装置103は、コンピュータの補助記憶装置として使用される。ストレージ装置103には、OSのプログラム、アプリケーションプログラム、および各種データが格納される。なお、ストレージ装置103としては、例えばHDD(Hard Disk Drive)やSSD(Solid State Drive)を使用することができる。
グラフィック処理装置104には、モニタ21が接続されている。グラフィック処理装置104は、プロセッサ101からの命令に従って、画像をモニタ21の画面に表示させる。モニタ21としては、有機EL(Electro Luminescence)を用いた表示装置や液晶表示装置などがある。
入力インタフェース105には、キーボード22とマウス23とが接続されている。入力インタフェース105は、キーボード22やマウス23から送られてくる信号をプロセッサ101に送信する。なお、マウス23は、ポインティングデバイスの一例であり、他のポインティングデバイスを使用することもできる。他のポインティングデバイスとしては、タッチパネル、タブレット、タッチパッド、トラックボールなどがある。
光学ドライブ装置106は、レーザ光などを利用して、光ディスク24に記録されたデータの読み取り、または光ディスク24へのデータの書き込みを行う。光ディスク24は、光の反射によって読み取り可能なようにデータが記録された可搬型の記録媒体である。光ディスク24には、DVD(Digital Versatile Disc)、DVD-RAM、CD-ROM(Compact Disc Read Only Memory)、CD-R(Recordable)/RW(ReWritable)などがある。
機器接続インタフェース107は、解析装置100に周辺機器を接続するための通信インタフェースである。例えば機器接続インタフェース107には、メモリ装置25やメモリリーダライタ26を接続することができる。メモリ装置25は、機器接続インタフェース107との通信機能を搭載した記録媒体である。メモリリーダライタ26は、メモリカード27へのデータの書き込み、またはメモリカード27からのデータの読み出しを行う装置である。メモリカード27は、カード型の記録媒体である。
ネットワークインタフェース108は、ネットワーク20に接続されている。ネットワークインタフェース108は、ネットワーク20を介して、サーバ32との間でデータの送受信を行う。ネットワークインタフェース108は、例えばスイッチやルータなどの有線通信装置にケーブルで接続される有線通信インタフェースである。またネットワークインタフェース108は、基地局やアクセスポイントなどの無線通信装置に電波によって通信接続される無線通信インタフェースであってもよい。
解析装置100は、以上のようなハードウェアによって、第2の実施の形態の処理機能を実現することができる。なおデータセンタ42には、解析装置100と同様のハードウェアを有するコンピュータが設置されている。また、第1の実施の形態に示した情報処理装置10も、図4に示した解析装置100と同様のハードウェアにより実現することができる。
解析装置100は、例えばコンピュータ読み取り可能な記録媒体に記録されたプログラムを実行することにより、第2の実施の形態の処理機能を実現する。解析装置100に実行させる処理内容を記述したプログラムは、様々な記録媒体に記録しておくことができる。例えば、解析装置100に実行させるプログラムをストレージ装置103に格納しておくことができる。プロセッサ101は、ストレージ装置103内のプログラムの少なくとも一部をメモリ102にロードし、プログラムを実行する。また解析装置100に実行させるプログラムを、光ディスク24、メモリ装置25、メモリカード27などの可搬型記録媒体に記録しておくこともできる。可搬型記録媒体に格納されたプログラムは、例えばプロセッサ101からの制御により、ストレージ装置103にインストールされた後、実行可能となる。またプロセッサ101が、可搬型記録媒体から直接プログラムを読み出して実行することもできる。
ここで画像のクレンジングの重要性について説明する。
図5は、クレンジングの重要性を説明する図である。光学/電波センサ装置31から取得した動画(光学/電波センサ動画50)には、複数のフレーム画像51,52,53,・・・が含まれる。フレーム画像が正常画像であれば、船舶固有の船首、船尾、上部構造物の特徴などから、その船舶の類別を判別できる。しかし光学/電波センサで取得したフレーム画像51,52,53,・・・は、航空機30の振動や取得条件によって、突発的にぼやけやノイズが画像に生じる。フレーム画像にぼやけやノイズが生じると、フレーム画像内での対象物の特徴が不鮮明になる。例えば船首、船尾の位置、または上部構造物の形状が、ぼやけやノイズによって不鮮明となる。このようなフレーム画像は、対象物の類識別の利用には適さない。
このように光学/電波センサ動画50には、ぼやけ画像やノイズ画像のような、類識別に利用することが不適切なフレーム画像が含まれる。類識別に利用することが不適切なフレーム画像を人の判断で抽出することも可能であるが、この場合、録画した光学/電波センサ動画50の中からぼやけ画像またはノイズ画像かどうかを、ユーザがフレーム画像ごとに目視で判断することとなる。このような人の目視による判断をリアルタイムに実施するのは困難である。
なおフレーム画像の何らかの特徴量を算出し、その特徴量と予め設定された閾値とを比較することで、ぼやけ画像のようなクレンジング対象の画像を自動抽出することも可能である。この閾値は、第1の実施の形態で説明したパラメータの一例である。
閾値を用いてクレンジング対象の画像の自動抽出を行う場合、閾値に適切な値が設定されていないと、類識別の判定精度が向上しない。しかし、類識別の判定結果だけを見て、クレンジングに用いた閾値が適切なのか否か判断することは困難である。そこで解析装置100は、画像のクレンジングの過程を可視化することでクレンジングが適切であったか否かを容易に判断できるようにしている。
図6は、解析装置の機能の一例を示す図である。サーバ32は、画像取得部32aと画像データ記憶部32bとを有している。
画像取得部32aは、光学/電波センサ装置31から光学/電波センサ動画50のフレーム画像51,52,53,・・・を取得する。画像取得部32aは、取得したフレーム画像を画像データ記憶部32bに格納する。
画像データ記憶部32bは、フレーム画像を記憶する。画像データ記憶部32bは、例えば画像データ記憶部32bが有するメモリまたはストレージ装置の記憶領域の一部である。
解析装置100は、画像読み込み部110、クレンジング部120、学習部131、推論部132、記憶部140、および解析結果表示部150を有する。
画像読み込み部110は、サーバ32の画像データ記憶部32bから、フレーム画像を1つずつ読み込む。例えば画像読み込み部110は、画像データ記憶部32bに格納された画像に基づいて機械学習を行う場合であれば、過去に記録した光学/電波センサ動画50に含まれるフレーム画像を、時系列に先頭から順番に読み込む。そして画像読み込み部110は、読み込んだフレーム画像をクレンジング部120、および学習部131に送信する。
また画像読み込み部110は、リアルタイムの類識別を行う場合、画像取得部32aが画像データ記憶部32bに格納した最新のフレーム画像を読み込む。また画像読み込み部110は、過去に記録した光学/電波センサ動画50を用いた類識別を行う場合、その光学/電波センサ動画50に含まれるフレーム画像を、時系列に先頭から順番に読み込む。そして画像読み込み部110は、読み込んだフレーム画像をクレンジング部120、推論部132、および解析結果表示部150それぞれに送信する。
クレンジング部120は、フレーム画像のクレンジング処理を行う。例えばクレンジング部120は、画像の特徴量を算出する。特徴量は、フレーム画像の各画素値(輝度)を統計的に処理することで得られる値である。例えば画像のノイズの有無またはぼやけの有無の判別に利用可能な統計量が、特徴量として用いられる。ぼやけ画像を判定するための特徴量としては、例えば画素値の最大値と最小値の差を用いることができる。クレンジング部120は、フレーム画像の特徴量を予め設定された閾値と比較し、そのフレーム画像がクレンジング対象か否かを判断する。例えばクレンジング部120は、フレーム画像の特徴量が閾値を超えている場合に、そのフレーム画像をクレンジング対象とする。クレンジング部120は、フレーム画像ごとのクレンジング処理の結果を記憶部140のクレンジング結果テーブル142に格納する。
なおクレンジング部120は、特徴量の閾値として、解析結果表示部150から指定された閾値を使用する。例えばパラメータ管理テーブル141に、船舶の大きさ別の閾値セットを複数登録することができる。クレンジング部120は、解析結果表示部150から、どの大きさの船舶用の閾値セットを使用すべきかの指定を受け付ける。そしてクレンジング部120は、指定された閾値セットを用いてクレンジングを行う。
学習部131は、フレーム画像に基づいて機械学習を行う。例えば学習部131は、フレーム画像に写っている船舶の種別が何なのかを判別するためのモデル(関数、ニューラルネットワークなど)を学習する。その場合、学習部131は、教師データとして船舶の種別を示す情報の入力を受け付け、その船舶が写っている光学/電波センサ動画のフレーム画像を画像読み込み部110から取得する。そして、学習部131は、フレーム画像に対してモデルを適用した場合の出力値が教師データと一致するように、モデルのパラメータを調整する。学習部131は、学習が終了すると、そのとき最も評価の高いモデルを学習済モデルとして推論部132に送信する。
推論部132は、フレーム画像に写っている船舶の類識別を行う。例えば推論部132は、予め機械学習で学習させた学習済モデルを有している。推論部132は、フレーム画像を学習済モデルへの入力として、学習済モデルに従った推論処理による解析を行い、推論結果を出力する。推論結果としては、例えば船舶の種別ごとの、その種別である確率が出力される。推論部132は、推論結果を記憶部140内の推論結果テーブル143に格納する。
また推論部132は、1つのフレーム画像の解析が完了するごとに、それまでの推論結果を種別ごとに累積させた値を、累積結果に含まれる累積値として計算する。例えば推論部132は、種別ごとに、フレーム画像ごとに求められたその種別である確率の平均値を累積値とする。この際、推論部132は、クレンジング処理においてクレンジング対象とされたフレーム画像の推論結果は、累積の対象から除外する。推論部132は、計算した累積値を記憶部140の累積結果テーブル144に格納する。
記憶部140は、パラメータ管理テーブル141、クレンジング結果テーブル142、推論結果テーブル143、および累積結果テーブル144を記憶する。パラメータ管理テーブル141は、フレーム画像をクレンジングの対象とするか否かの判断基準となる特徴量の閾値が登録されたデータテーブルである。クレンジング結果テーブル142は、フレーム画像ごとのクレンジング処理の結果が登録されたデータテーブルである。推論結果テーブル143は、フレーム画像ごとの類識別の推論結果が登録されたデータテーブルである。累積結果テーブル144は、フレーム画像ごとの、そのフレーム画像までの推論結果の累積値が登録されたデータテーブルである。記憶部140は、例えばメモリ102またはストレージ装置103の記憶領域の一部である。
解析結果表示部150は、推論結果を示す解析結果表示画面をモニタ21に表示する。例えば解析結果表示部150は、フレーム画像ごとの推論結果の時系列変化を示すグラフと、累積結果の時系列変化を示すグラフとを並べて表示する。その際、解析結果表示部150は、クレンジング対象となったフレーム画像に対応する領域を、それ以外と異なる態様で表示する。例えば解析結果表示部150は、クレンジング対象となったフレーム画像に対応する領域の背景を灰色とし、それ以外の領域の背景を白色とする。
また解析結果表示部150は、解析結果表示画面を介して、特徴量の閾値の指定入力を受け付けることができる。解析結果表示部150は、特徴量の閾値の指定入力を受け付けると、入力に応じた閾値の指定情報をクレンジング部120に送信する。
このような機能を有する解析装置100によって、光学/電波センサ動画50に含まれるフレーム画像51,52,53,・・・のうちの、類識別に利用することが適切なフレーム画像の推論結果のみを用いて船舶41の類識別を行うことができる。そしてクレンジング処理の過程が視覚的に認識できるように、推論結果および累積結果が表示される。
なお、図6に示した各要素間を接続する線は通信経路の一部を示すものであり、図示した通信経路以外の通信経路も設定可能である。また、図6に示した各要素の機能は、例えば、その要素に対応するプログラムモジュールをコンピュータに実行させることで実現することができる。
図2に示したデータセンタ42は、サーバ32から取得した光学/電波センサ動画50を記憶するストレージ装置を有すると共に、解析装置100と同様の機能を有する。船舶の類識別用のモデルの学習をデータセンタ42のコンピュータで行わせる場合、解析装置100には学習部131が無くてもよい。その場合、解析装置100の推論部132は、データセンタ42から学習済モデルを取得する。
次に、記憶部140に格納されているデータテーブルの詳細について説明する。
図7は、パラメータ管理テーブルの一例を示す図である。パラメータ管理テーブル141には、例えば特徴量の名称に対応付けて、その特徴量における閾値とクレンジング対象とする条件とが設定されている。図7の例では、閾値としては、小型船舶の類識別に用いる小型用閾値、中型船舶の類識別に用いる中型用閾値、大型船舶の類識別に用いる大型用閾値が設けられている。クレンジング対象とする条件としては、例えば特徴量と閾値との大小関係についての条件が設定されている。フレーム画像の特徴量の値がクレンジング対象とする条件を満たす場合、そのフレーム画像はクレンジング対象となる。
図8は、フレーム画像の特徴量に基づく散布図の一例を示す図である。図8に示す散布図60では、横軸が特徴量A、縦軸が特徴量Bである。そして図7に示すパラメータ管理テーブル141における中型用閾値を適用した場合の座標上の領域の区分けが示されている。
特徴量Aの値が閾値「a2」以下であり、かつ特徴量Bの値が閾値「b2」以下の領域は、正常領域61である。正常領域61に属するフレーム画像は、クレンジング対象外である。特徴量Aの値が閾値「a2」より大きく、かつ特徴量Bの値が閾値「b2」以下の領域は、異常領域62である。特徴量Aの値が閾値「a2」以下であり、かつ特徴量Bの値が閾値「b2」より大きい領域は、異常領域63である。特徴量Aの値が閾値「a2」より大きく、かつ特徴量Bの値が閾値「b2」より大きい領域は、異常領域64である。異常領域62~64に属するフレーム画像はクレンジング対象である。
図9は、クレンジング結果テーブルの一例を示す図である。クレンジング結果テーブル142には、時系列で連続する1以上のクレンジング対象のフレーム画像を示すクレンジング範囲の識別番号(クレンジング範囲識別番号)に対応付けて、開始フレームと終了フレームとが設定されている。開始フレームは、クレンジング範囲の先頭のフレーム画像のフレーム番号である。終了フレームは、クレンジング範囲の最後尾のフレーム画像のフレーム番号である。
図10は、推論結果テーブルの一例を示す図である。推論結果テーブル143には、各フレーム画像のフレーム番号に対応付けて、推論結果と背景色とが設定されている。推論結果には、対応するフレーム画像に写っている船舶の類識別の推論結果が示されている。例えば推論結果には、AA船である確率、BB船である確率というように、船舶の種別ごとにその種別である確率が示されている。背景色は、推論結果をグラフで表示する際の対応するフレーム画像の推論結果の表示領域の背景の色である。例えば対応するフレーム画像がクレンジング対象外であれば背景色は白色であり、対応するフレーム画像がクレンジング対象であれば背景色は灰色である。
図11は、累積結果テーブルの一例を示す図である。累積結果テーブル144には、各フレーム画像のフレーム番号に対応付けて、累積結果と背景色とが設定されている。
累積結果は、対応するフレーム画像の推論結果およびそのフレーム画像より前に解析が行われたフレーム画像の推論結果を累積して得られた類識別の判断結果である。例えば最初のフレーム画像から対応するフレーム画像まで船舶の種別ごとの推論結果の平均値が、累積結果として設定される。
例えばフレーム番号「1」のフレーム画像の推論結果においてAA船である確率がa%であり、フレーム番号「2」のフレーム画像の推論結果においてAA船である確率がc%であるものとする。この場合、フレーム番号「2」のフレーム画像を解析した後の累積結果では、AA船である確率は{(a+c)/2}%となる。
なお累積結果に反映されるフレーム画像ごとの推論結果は、クレンジング対象外のフレーム画像の推論結果のみである。そのためクレンジング対象のフレーム画像の解析が行われてもその推論結果は累積結果に反映されず、そのフレーム画像の累積結果は、直前のフレーム画像の累積結果と同じ値となる。
背景色は、累積結果をグラフで表示する際の対応するフレーム画像の累積結果の表示領域の背景の色である。例えば対応するフレーム画像がクレンジング対象外であれば背景色は白色であり、対応するフレーム画像がクレンジング対象であれば背景色は灰色である。
次に学習処理の手順について説明する。以下の説明では解析装置100が学習処理を行うものとして説明するが、データセンタ42のコンピュータに学習処理を行わせてもよい。
図12は、学習処理の手順の一例を示すフローチャートである。以下、図12に示す処理をステップ番号に沿って説明する。
[ステップS101]画像読み込み部110は、光学/電波センサ動画50のフレーム画像をサーバ32の画像データ記憶部32bから読み込む。
[ステップS102]クレンジング部120は、取得したフレーム画像に対するクレンジング処理を行う。例えばクレンジング部120は、フレーム画像の画素単位の輝度を求め、輝度の値に基づいて所定の計算を行うことで1または複数の特徴量それぞれの値を算出する。クレンジング部120は、算出した各特徴量の値とパラメータ管理テーブル141に設定されている閾値とを比較し、クレンジングの条件が満たされるか否かを判断する。クレンジング部120は、クレンジングの条件が満たされた場合、処理対象のフレーム画像をクレンジング対象と判断する。なお船舶を大別したときの大分類(小型、中型、大型など)に応じて閾値が設定されている場合、クレンジング部120は、予め指定された大分類の閾値を用いてクレンジング処理を実行する。
クレンジング部120は、クレンジング処理を実施したフレーム画像を、メモリ102またはストレージ装置103に格納する。
[ステップS103]クレンジング部120は、学習に使用する光学/電波センサ動画50のすべてのフレーム画像に対するクレンジング処理が終了したか否かを判断する。クレンジング部120は、すべてのフレーム画像のクレンジング処理が終了した場合、処理をステップS104に進める。またクレンジング部120は、未処理のフレーム画像があれば、処理をステップS101に進める。
[ステップS104]クレンジング部120は、クレンジング結果の確認処理を行う。例えばクレンジング部120は、クレンジングの結果をクレンジング結果確認画面に表示する。そしてクレンジング部120は、ユーザから、クレンジング結果の修正入力を受け付ける。クレンジング部120は、ユーザからクレンジング結果の修正入力が行われると、その修正入力に従ってクレンジング結果(クレンジング対象とするフレーム画像を示す情報)を修正する。
クレンジング部120は、クレンジング結果確認処理が終了すると、クレンジング対象外のフレーム画像を学習部131に送信する。
[ステップS105]学習部131は、クレンジング対象外のフレーム画像に基づいて、船舶の類識別用のモデルを学習する。
[ステップS106]学習部131は、学習によって生成されたモデルを評価する。例えば学習部131は、教師データが付与された複数のフレーム画像をモデルに入力し、出力値が教師データと一致する割合によって、モデルを評価する。
[ステップS107]学習部131は、モデルの評価が良好(例えば出力値が教師データと一致する割合が所定値以上)か否かを判断する。学習部131は、モデルの評価が良好であれば、処理をステップS109に進める。また学習部131は、モデルの評価が良好でなければ、処理をステップS108に進める。
[ステップS108]クレンジング部120は、クレンジング処理における特徴量の閾値を調整し、処理をステップS101に進める。例えばクレンジング部120は、ユーザから、調整後との閾値の入力を受け付ける。そしてクレンジング部120は、入力された閾値をパラメータ管理テーブル141に設定する。
[ステップS109]学習部131は、評価が良好とされたモデルを、学習済モデルとして推論部132に送信する。
このようにして船舶の類識別用の学習済モデルが生成される。学習処理では、クレンジング処理を適切に実行することで、評価の高い学習済モデルを効率的に生成することができる。クレンジング処理の結果はクレンジング結果確認画面によって確認でき、クレンジング結果確認画面を介してクレンジング結果を修正することもできる。
図13は、クレンジング結果確認画面の一例を示す図である。クレンジング結果確認画面70には、クレンジング処理を実施する光学/電波センサ動画50の再生画像を表示する動画表示部71が設けられている。再生用のボタン72が押下されると光学/電波センサ動画50による動画像が動画表示部71に表示される。動画再生中に巻き戻し用のボタン73が押下されると、光学/電波センサ動画50の巻き戻し再生が行われる。また動画停止中に巻き戻し用のボタン73が押下されると、光学/電波センサ動画50の巻き戻し方向(逆方向)へのコマ送り再生が行われる。動画再生中に早送り用のボタン74が押下されると、光学/電波センサ動画50の早送り再生が行われる。動画停止中に早送り用のボタン74が押下されると、光学/電波センサ動画50の通常の再生方向(順方向)へのコマ送り再生が行われる。
クレンジング結果確認画面70には、さらに自動クレンジングの実施を指示するための、「Analyze」と表記されたボタン75が設けられている。ボタン75が押下されると光学/電波センサ動画50内の各フレーム画像の特徴量が求められ、特徴量の値と閾値との比較により、各フレーム画像がクレンジング対象か否かが判断される。
自動クレンジングの結果は、クレンジング対象表示部76に表示される。クレンジング対象表示部76には、クレンジング範囲ごとに、開始フレームのフレーム番号と終了フレームのフレーム番号との組が表示されている。クレンジング対象表示部76からユーザがクレンジング範囲を選択し、「Move To Frame」と表記されたボタン77を押下すると、動画表示部71には、選択されたクレンジング範囲の画像が表示される。
また動画表示部71にクレンジング対象外のフレーム画像が表示されているときに「Add Frame」と表記されたボタン78が押下されると、クレンジング部120により、表示されているフレーム画像を含むクレンジング範囲が生成される。そして、生成されたクレンジング範囲を示す情報がクレンジング対象表示部76に追加される。
クレンジング対象表示部76からユーザがクレンジング範囲を選択し、「Delete Frame」と表記されたボタン79を押下すると、クレンジング部120により、選択されたクレンジング範囲が削除される。削除されたクレンジング範囲に含まれるフレーム画像はクレンジング対象外となる。
動画表示部71の下にはシークバー80が表示されている。シークバー80には再生されているフレーム画像の光学/電波センサ動画50内での位置が示される。シークバー80の上には、クレンジング範囲オブジェクト81が表示されている。クレンジング範囲オブジェクト81は、クレンジング範囲をシークバー80上の位置で示す図形である。
クレンジング範囲オブジェクト81には、開始フレームの位置を示す開始フレーム指定部82と終了フレームの位置を示す終了フレーム指定部83とが含まれる。ユーザは、開始フレーム指定部82または終了フレーム指定部83を選択し、ドラッグアンドドロップ操作によって位置を移動させることで、クレンジング範囲を変更することができる。
ユーザは、クレンジング結果確認画面70によりクレンジング処理の結果を確認すると共に、クレンジング範囲が不適切な場合にはクレンジング範囲を修正する。そしてユーザが「Export」と表記されているボタン84を押下すると、クレンジング部120により、クレンジング結果が記憶部140内のクレンジング結果テーブル142に格納される。クレンジング結果テーブル142に格納されたクレンジング範囲の情報は、以降の学習処理で利用される。
学習処理が行われ学習済モデルが生成されると、その学習済モデルを用いて船舶の類識別が可能となる。類識別処理は、光学/電波センサ装置31から光学/電波センサ動画50のフレーム画像を取得するごとに、リアルタイムに実施することもできる。
以下、船舶の類識別処理の手順について詳細に説明する。
図14は、船舶の類識別処理の手順の一例を示すアクティビティ図である。以下、図14に示す処理をステップ番号に沿って説明する。
[ステップS201]画像読み込み部110は、光学/電波センサ動画50の表示画面において再生ボタンが押下されたか否かを判定する。画像読み込み部110は、再生ボタンが押下された場合、処理をステップS202に進める。また画像読み込み部110は、再生ボタンが押下されていなければ、ステップS201の判断処理を繰り返す。
[ステップS202]画像読み込み部110は、光学/電波センサ動画50の表示画面において停止ボタンが押下されたか否かを判断する。画像読み込み部110は、停止ボタンが押下された場合、船舶の類識別判定処理を終了する。また画像読み込み部110は、停止ボタンが押下されていない場合、処理をステップS203に進める。
[ステップS203]画像読み込み部110は、画像データ記憶部32bから光学/電波センサ動画50の再生における次のフレーム画像を読み込む。画像読み込み部110は、読み込んだフレーム画像をクレンジング部120、推論部132、および解析結果表示部150に送信する。
以下、ステップS204~S208の処理は、クレンジング部120、推論部132、および解析結果表示部150が並列に実行する。
[ステップS204]解析結果表示部150は、取得したフレーム画像を、メモリ102内の画面表示用の領域(例えばフレームバッファ)に描画する。例えば解析結果表示部150は、フレーム画像が所定の画像圧縮形式で圧縮されている場合、フレーム画像を伸張して、ピクセル単位の輝度を求める。そして解析結果表示部150は、ピクセル単位の輝度の値を画面表示用の領域に書き込む。
[ステップS205]推論部132は、取得したフレーム画像に対する推論処理を実施する。例えば推論部132は、機械学習によって学習された学習済モデルを用いて、船舶の類識別の推論を行う。推論部132は、推論処理により、既知の船舶の種別ごとに、フレーム画像に写っている船舶がその種別である確率を算出する。
[ステップS206]推論部132は、算出した船舶の種別ごとの確率を推論結果とするレコードを、記憶部140内の推論結果テーブル143に格納する。このとき、格納されたレコードに示される背景色は例えば白色である。
[ステップS207]クレンジング部120は、取得したフレーム画像に対するクレンジング処理を行う。例えばクレンジング部120は、フレーム画像の画素単位の輝度を求め、輝度の値に基づいて所定の計算を行うことで1または複数の特徴量それぞれの値を算出する。クレンジング部120は、算出した各特徴量の値とパラメータ管理テーブル141に設定されている閾値とを比較し、クレンジングの条件が満たされるか否かを判断する。クレンジング部120は、クレンジングの条件が満たされた場合、処理対象のフレーム画像をクレンジング対象と判断する。なお船舶を大別したときの大分類(小型、中型、大型など)に応じて閾値が設定されている場合、クレンジング部120は、予め指定された大分類の閾値を用いてクレンジング処理を実行する。
[ステップS208]クレンジング部120は、取得したフレーム画像のクレンジング結果を記憶部140内のクレンジング結果テーブル142に格納する。
例えばクレンジング部120は、取得したフレーム画像がクレンジング対象であり、直前のフレーム画像はクレンジング対象外であった場合、取得したフレーム画像をクレンジング範囲とするレコードを、クレンジング結果テーブルに追加する。追加されたレコードの開始フレームと終了フレームとの値は、取得したフレーム画像のフレーム番号である。
またクレンジング部120は、取得したフレーム画像と直前のフレーム画像とが共にクレンジング対象であった場合、直前のフレーム画像をクレンジング範囲に含むレコードのクレンジング範囲に、取得したフレーム画像を含める。例えばクレンジング部120は、該当するレコードの終了フレームの値を、取得したフレーム画像のフレーム番号に更新する。
クレンジング部120は、取得したフレーム画像がクレンジング対象外であれば、クレンジング結果テーブル142の内容を更新せずに、クレンジング処理を終了する。
[ステップS209]推論部132は、推論結果の格納が完了し、かつクレンジング処理が終了すると、取得したフレーム画像がクレンジング対象か否かを判断する。例えば推論部132は、クレンジング結果テーブル142を参照し、取得したフレーム画像のフレーム番号をクレンジング範囲に含むレコードがあるか否かを判断する。推論部132は、該当するレコードがある場合、クレンジング対象であると判断する。推論部132は、クレンジング対象である場合、処理をステップS212に進める。また推論部132は、クレンジング対象でなければ、処理をステップS210に進める。
[ステップS210]推論部132は、フレーム画像ごとの推論結果を累積させた値を計算する。例えば推論部132は、これまでに推論処理が実施され、推論結果が得られたフレーム画像のうちの、クレンジング対象外のフレーム画像の推論結果を推論結果テーブル143から取得する。推論部132は、取得した推論結果に基づいて、船舶の種別ごとに、該当種別である確率の平均値を求め、求めた平均値を累積結果とする。
[ステップS211]推論部132は、記憶部140内の累積結果テーブル144に、取得したフレーム画像の累積結果を格納する。例えば推論部132は、取得したフレーム画像のフレーム番号に対して、船舶の種類ごとの該当種類である確率の平均値を含む累積結果を対応付けたレコードを、累積結果テーブル144に登録する。この際、登録したレコードにおける背景色の値は例えば白色である。推論部132は、その後、処理をステップS214に進める。
[ステップS212]推論部132は、直前のフレーム画像に対応する累積結果をコピーし、取得したフレーム画像の累積結果として、記憶部140内の累積結果テーブル144に格納する。
[ステップS213]推論部132は、取得したフレーム画像の背景色を変更する。例えば推論部132は、推論結果テーブル143における取得したフレーム画像のフレーム番号が設定されたレコードの背景色を灰色に変更する。また推論部132は、累積結果テーブル144における取得したフレーム画像のフレーム番号が設定されたレコードの背景色を灰色に変更する。
[ステップS214]解析結果表示部150は、フレーム推論結果グラフを描画する。例えば解析結果表示部150は、推論結果テーブル143に示される各フレーム画像の推論結果に基づいて、メモリ102内の画面表示用の領域に、船舶の種別ごとのその種別である確率(フレーム画像ごとの値)の時系列変化を示す折れ線を描画する。さらに解析結果表示部150は、フレーム推論結果グラフの各フレーム画像の値が示される領域の背景を、推論結果テーブル143においてフレーム画像ごとに指定された背景色で描画する。
[ステップS215]解析結果表示部150は、累積結果グラフを描画する。例えば解析結果表示部150は、累積結果テーブル144に示される各フレーム画像の累積結果に基づいて、メモリ102内の画面表示用の領域に、船舶の種別ごとのその種別である確率(該当フレーム画像までの累積値)の時系列変化を示す折れ線を描画する。さらに解析結果表示部150は、累積結果グラフの各フレーム画像の値が示される領域の背景を、累積結果テーブル144においてフレーム画像ごとに指定された背景色で描画する。
[ステップS216]解析結果表示部150は、解析結果表示画面を更新する。解析結果表示部150は、その後、処理をステップS202に進める。
このようにして、1つのフレーム画像ごとに船舶の類識別の解析が行われ、逐次、推論結果がモニタ21に表示される。
図15は、解析結果表示画面の一例を示す図である。解析結果表示画面90には、クレンジング処理のノイズフィルタ(特徴量の閾値)を選択するための複数のボタン91a,91b,91c,91dが設けられている。「なし」と表記されているボタン91aは、ノイズフィルタを利用しない場合に押下するボタンである。「小型用フィルタ」と表記されているボタン91bは、小型船舶用のノイズフィルタを利用してクレンジング処理を行う場合に押下するボタンである。「中型用フィルタ」と表記されているボタン91cは、中型船舶用のノイズフィルタを利用してクレンジング処理を行う場合に押下するボタンである。「大型用フィルタ」と表記されているボタン91cは、大型船舶用のノイズフィルタを利用してクレンジング処理を行う場合に押下するボタンである。
解析結果表示画面90には、解析対象の光学/電波センサ動画50の再生画像を表示する動画表示部92が設けられている。再生用のボタン93が押下されると光学/電波センサ動画50による動画像が動画表示部92に表示される。巻き戻し用のボタン94が押下されると、光学/電波センサ動画50の巻き戻し再生が行われる。早送り用のボタン95が押下されると、光学/電波センサ動画50の早送り再生が行われる。動画表示部92の下にはシークバー96が表示されている。シークバー96には再生されているフレーム画像の光学/電波センサ動画50内での位置が示される。
解析結果表示画面90には、さらに、フレーム画像ごとの推論結果を示すグラフ表示部97と各フレーム画像までの累積結果を示すグラフ表示部98とが設けられている。グラフ表示部97とグラフ表示部98とに示されるグラフの横軸はフレーム番号であり、縦軸は確率である。
グラフ表示部97には、船舶の複数の種別(AA船、BB船、CC船)それぞれについて、フレーム画像に写っている船舶の種別が、その種別である確率のフレーム画像ごとの値が、折れ線で示されている。グラフ表示部97の右側には、最後に解析されたフレーム画像の推論結果が表示されている。
グラフ表示部98には、船舶の複数の種別(AA船、BB船、CC船)それぞれについて、フレーム画像に写っている船舶の種別が、その種別である確率のフレーム画像ごとの値の該当フレーム画像までの累積値が、折れ線で示されている。グラフ表示部98の右側には、最後に解析されたフレーム画像までの累積結果が表示されている。光学/電波センサ動画50内のすべてのフレーム画像の推論が完了した後のグラフ表示部98の右側に表示されている情報が、光学/電波センサ動画50に関する解析結果となる。図15の例では、光学/電波センサ動画50に写っている船舶の種別はAA船である可能性が最も高いという解析結果が得られている。
図15の例では、ノイズフィルタとして「なし」のボタン91aが選択されている。そのためクレンジング処理が実施されず、累積結果における解析精度が十分ではない。ユーザは、適切なノイズフィルタを選択して船舶の類識別を実行させることで、より高精度な解析が可能となる。そのとき、どのフレーム画像がクレンジング対象となったのかを分かりやすく表示することで、信頼性の高い解析が実施されたことをユーザに認識させることができる。換言すると、どのフレーム画像がクレンジング対象となったのかが表示されないと、クレンジング処理が適切に行われたことの確認が困難となる。
図16は、クレンジング対象を明示しない場合の解析結果表示画面の例(比較例)を示す図である。図16の例では、ノイズフィルタとして「中型用フィルタ」のボタン91cが選択されている。これにより中型船舶用に用意された閾値を用いてフレーム画像のクレンジング処理が行われている。クレンジング処理が行われたことで、解析結果におけるAA船である確率が高くなっている。すなわち光学/電波センサ動画50に写っている船舶はAA船であるとの解析結果の信頼性が高くなっている。
しかし、図16に示した解析結果表示画面90の例では、信頼性が高くなった根拠が示されていない。そのためユーザが、船舶の類識別の結果に間違いがないか光学/電波センサ動画50再生して確認する場合に、すべてのフレーム画像を表示させて確認することとなってしまい、確認に手間がかかる。またクレンジング対象とするか否かの判断を誤ったフレーム画像があっても、そのフレーム画像を特定するのに手間がかかる。
図17は、クレンジング対象を明示した解析結果表示画面の第1の例を示す図である。図17の例では、ノイズフィルタとして「中型用フィルタ」のボタン91cが選択されている。これにより中型船舶用に用意された閾値を用いてフレーム画像のクレンジング処理が行われている。クレンジング処理が行われたことで、累積結果におけるAA船である確率が高くなっている。すなわち光学/電波センサ動画50に写っている船舶はAA船であるとの判断結果の信頼性が高くなっている。
そして、グラフ表示部97,98それぞれにおけるクレンジング範囲内のフレーム画像に対応する領域の背景が、灰色で表示されている。図17では、灰色の背景で表示する領域を破線で囲んでいる。ユーザは、船舶の類識別の結果に間違いがないかを確認する場合、クレンジング範囲内のフレーム画像の類識別への利用が不適切であること、およびクレンジング範囲外のフレーム画像の類識別への利用が適切であることを確認することで、信頼性が向上した理由を理解できる。高い信頼性が得られている理由が明確となれば、ユーザは、船舶の類識別の判断結果が正しいと判断することができる。
また各フレーム画像がクレンジング対象か否かを明示しているため、クレンジング対象とするか否かの判断を誤ったフレーム画像があった場合に、そのフレーム画像を容易に特定することができる。
図18は、クレンジング対象を明示した解析結果表示画面の第2の例を示す図である。図18の例は、図17の例よりも短い期間の光学/電波センサ動画50を用いて船舶の類識別を行った場合の例である。光学/電波センサ動画50のフレーム数が少なくても、適切にクレンジング処理が実施されたことで、クレンジング対象外のフレーム画像に基づいて船舶の類識別を正しく判断できている。
このように解析装置100によれば、各フレーム画像の有用性(解析の利用が適切か否か)が可視化される。フレーム画像ごとの有用性が可視化されることによって、ユーザのデータ理解が容易になる。例えば、可視化によって光学/電波センサ動画50内の有用なフレーム画像または有用ではないフレーム画像の分布を確認し、どのような条件下で取得したフレーム画像が有用ではなくなるのかが解析できる。また可視化によって、ユーザは、推論時に入力されるフレーム画像の質を直観的に把握できる。またユーザは、フレーム画像の有用性の違いの分布状況に基づき、学習に有用なフレーム画像を効率的に収集することができる。
解析装置100は、学習時に自動クレンジングを行っている。そして解析装置100は、自動クレンジングの結果をクレンジング結果確認画面70に表示し、クレンジング対象の編集を可能としている。クレンジング結果確認画面70では、設定した閾値に基づきクレンジング対象をユーザが直観的な操作で編集できるインタフェースが提供されており、ユーザは提示された対象を確認し、修正する作業のみを行うことでデータクレンジングの作業が完了する。その結果、学習データ整備における作業負荷が大幅に軽減される。
またクレンジング結果確認画面70を用いたクレンジング作業環境が提供されることで、クレンジング作業の熟練が不要になり、作業の均一化が可能になる。しかもクレンジングをパラメータ(例えば特徴量ごとの閾値)で制御できるようになるため、クレンジングを自動かつ定量的に実行し、クレンジングの均一化を行うことが可能になる。クレンジングが適切に行われることで、学習に用いるフレーム画像の最適化が行われる。
さらに解析装置100は、推論時にも自動クレンジングを行う。推論時の自動クレンジングにより、クレンジング対象のフレーム画像を自動で判別し、類識別に悪影響を与えるフレーム画像の推論結果を、解析結果の計算に使用する対象から自動的に除外することができる。また推論時のクレンジングに用いるパラメータとして学習時と同じ値を用いることで、学習時と近い条件で推論時の自動クレンジングが行われる。学習時にクレンジングの最適化を行っていれば、推論時に同じパラメータでクレンジングを行うことで、船舶の類識別に有用なフレーム画像のみから最終的な解析結果を算出することができ、推論時の性能を向上させることができる。
しかも解析装置100は、解析結果を図17、図18に示すような解析結果表示画面90に表示する。これにより、自動クレンジングによる性能向上の結果をユーザが直観的に理解することが可能となる。このときユーザは、類識別対象の船舶の大きさによって事前に用意した閾値を切り替えることができる。これにより、対象の船舶に適したクレンジングを提供することが可能となる。さらにユーザは、解析結果表示画面90に可視化されたフレーム画像を確認しながら、パラメータ管理テーブル141に設定された閾値を操作することで、推論結果の性能をダイナミックに変更することもできる。
なおユーザは、推論時にクレンジング対象とするか否かの判断を誤ったフレーム画像があると判断した場合、学習処理のときと同様にクレンジング部120にクレンジング結果確認画面70(図13参照)を表示させることができる。そしてユーザは、クレンジング結果確認画面70を介してクレンジング範囲を修正し、例えば誤ってクレンジング対象となっていたフレーム画像をクレンジング対象外とすることができる。逆にユーザは、誤ってクレンジング対象外となっていたフレーム画像をクレンジング対象とすることもできる。このようにしてクレンジング対象とするフレーム画像の適性化を図り、再度、画像データ記憶部32bに記憶されている光学/電波センサ動画50に基づく船舶の類識別を行うことで、類識別の精度を向上させることができる。
〔その他の実施の形態〕
第2の実施の形態では、船舶の類識別を行っているが、他の動画像を用いた他の解析にも利用可能である。また動画像は、光学/電波センサ画像のようにレーダ画像ではなく、可視光を撮影した動画像であってもよい。
例えば町中の監視カメラの画像から、カメラの周辺にいる人数を計数する処理にも利用できる。この場合、例えば何らかの光の反射で、強い光がフレーム画像に写り込むとフレア現象が起きて、画像全体が白っぽくなることがある。このようなフレーム画像を用いて写り込んだ人の人数を数えても正しい人数とはならない。そこで正しく解析できないフレーム画像をクレンジング処理で除去することが有効となる。フレア現象が起きたフレーム画像を除去する場合、例えば各画素の輝度の平均値が所定の閾値以上の場合にクレンジング対象とすることができる。そのとき第2の実施の形態に示すようにクレンジング範囲を明確に表示することで、解析の精度を落とす原因となるフレーム画像が正しく除外されていることをユーザに認識させることができる。
以上、実施の形態を例示したが、実施の形態で示した各部の構成は同様の機能を有する他のものに置換することができる。また、他の任意の構成物や工程が付加されてもよい。さらに、前述した実施の形態のうちの任意の2以上の構成(特徴)を組み合わせたものであってもよい。
1 動画データ
1a,1b,・・・ フレーム画像
2 第1のグラフ
2a,2b,3a,3b 表示領域
3 第2のグラフ
4 表示画面
10 情報処理装置
11 記憶部
12 処理部

Claims (6)

  1. コンピュータに、
    機械学習で得られた学習済モデルを用いて、動画データに含まれる複数のフレーム画像それぞれに表されている対象物の推論結果を取得し、
    予め設定されたパラメータに基づいて、前記動画データに含まれる前記複数のフレーム画像それぞれの前記推論結果を利用することが適切か否かを判定し、
    前記動画データ内での先頭から前記複数のフレーム画像それぞれまでの、前記推論結果を利用することが適切であると判定された第1のフレーム画像それぞれの第1の推論結果を累積させた累積結果を算出し、
    前記複数のフレーム画像それぞれについて算出された前記推論結果の時系列変化を示す第1のグラフと、前記複数のフレーム画像それぞれについて算出された前記累積結果の時系列変化を示す第2のグラフとを生成し、
    前記第1のグラフと前記第2のグラフとを、前記第1のフレーム画像の前記第1の推論結果または第1の累積結果の表示領域と、前記推論結果を利用することが不適切であると判定された第2のフレーム画像の第2の推論結果または第2の累積結果の表示領域とを異なる表示態様で表示させる、
    処理を実行させる情報処理プログラム。
  2. 前記累積結果は、前記動画データの先頭のフレーム画像から前記累積結果の算出対象となるフレーム画像までに含まれる前記第1のフレーム画像それぞれの前記推論結果に示される値の平均値である、
    請求項1記載の情報処理プログラム。
  3. 前記動画データから一フレーム画像が読み込まれるごとに、前記一フレーム画像の前記推論結果の取得、前記一フレーム画像までの前記第1のフレーム画像それぞれの前記推論結果を累積させた前記累積結果の算出、前記第1のグラフと前記第2のグラフとの更新、および前記第1のグラフと前記第2のグラフとの表示を実行させる、
    請求項1または2に記載の情報処理プログラム。
  4. 前記第2のフレーム画像が連続する範囲を表示させ、前記範囲の開始位置となる前記第2のフレーム画像、または前記範囲の終了位置となる前記第2のフレーム画像を変更する入力を受け付け、前記入力により前記範囲に新たに含まれる前記第1のフレーム画像の前記推論結果を、前記累積結果の算出における累積の対象から除外し、前記入力により前記範囲から外れる前記第2のフレーム画像の前記推論結果を、前記累積結果の算出における累積の対象に含める、
    請求項1ないし3のいずれかに記載の情報処理プログラム。
  5. コンピュータが、
    機械学習で得られた学習済モデルを用いて、動画データに含まれる複数のフレーム画像それぞれに表されている対象物の推論結果を取得し、
    予め設定されたパラメータに基づいて、前記動画データに含まれる前記複数のフレーム画像それぞれの前記推論結果を利用することが適切か否かを判定し、
    前記動画データ内での先頭から前記複数のフレーム画像それぞれまでの、前記推論結果を利用することが適切であると判定された第1のフレーム画像それぞれの第1の推論結果を累積させた累積結果を算出し、
    前記複数のフレーム画像それぞれについて算出された前記推論結果の時系列変化を示す第1のグラフと、前記複数のフレーム画像それぞれについて算出された前記累積結果の時系列変化を示す第2のグラフとを生成し、
    前記第1のグラフと前記第2のグラフとを、前記第1のフレーム画像の前記第1の推論結果または第1の累積結果の表示領域と、前記推論結果を利用することが不適切であると判定された第2のフレーム画像の第2の推論結果または第2の累積結果の表示領域とを異なる表示態様で表示させる、
    情報処理方法。
  6. 機械学習で得られた学習済モデルを用いて、動画データに含まれる複数のフレーム画像それぞれに表されている対象物の推論結果を取得し、予め設定されたパラメータに基づいて、前記動画データに含まれる前記複数のフレーム画像それぞれの前記推論結果を利用することが適切か否かを判定し、前記動画データ内での先頭から前記複数のフレーム画像それぞれまでの、前記推論結果を利用することが適切であると判定された第1のフレーム画像それぞれの第1の推論結果を累積させた累積結果を算出し、前記複数のフレーム画像それぞれについて算出された前記推論結果の時系列変化を示す第1のグラフと、前記複数のフレーム画像それぞれについて算出された前記累積結果の時系列変化を示す第2のグラフとを生成し、前記第1のグラフと前記第2のグラフとを、前記第1のフレーム画像の前記第1の推論結果または第1の累積結果の表示領域と、前記推論結果を利用することが不適切であると判定された第2のフレーム画像の第2の推論結果または第2の累積結果の表示領域とを異なる表示態様で表示させる処理部、
    を有する情報処理装置。
JP2020138525A 2020-08-19 2020-08-19 情報処理プログラム、情報処理方法、および情報処理装置 Active JP7477764B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020138525A JP7477764B2 (ja) 2020-08-19 2020-08-19 情報処理プログラム、情報処理方法、および情報処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020138525A JP7477764B2 (ja) 2020-08-19 2020-08-19 情報処理プログラム、情報処理方法、および情報処理装置

Publications (2)

Publication Number Publication Date
JP2022034699A JP2022034699A (ja) 2022-03-04
JP7477764B2 true JP7477764B2 (ja) 2024-05-02

Family

ID=80443075

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020138525A Active JP7477764B2 (ja) 2020-08-19 2020-08-19 情報処理プログラム、情報処理方法、および情報処理装置

Country Status (1)

Country Link
JP (1) JP7477764B2 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015032133A (ja) 2013-08-02 2015-02-16 株式会社日立国際電気 物体検索システム
JP2016202347A (ja) 2015-04-17 2016-12-08 セイコーエプソン株式会社 生体情報処理システム、生体情報処理装置及び解析結果情報の生成方法
JP2019008638A (ja) 2017-06-27 2019-01-17 オムロン株式会社 見守り支援システム及びその制御方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015032133A (ja) 2013-08-02 2015-02-16 株式会社日立国際電気 物体検索システム
JP2016202347A (ja) 2015-04-17 2016-12-08 セイコーエプソン株式会社 生体情報処理システム、生体情報処理装置及び解析結果情報の生成方法
JP2019008638A (ja) 2017-06-27 2019-01-17 オムロン株式会社 見守り支援システム及びその制御方法

Also Published As

Publication number Publication date
JP2022034699A (ja) 2022-03-04

Similar Documents

Publication Publication Date Title
EP3637320B1 (en) Computer program, learning apparatus, detecting apparatus, learning method, and detecting method
CN111127425B (zh) 基于视网膜眼底图像的目标检测定位方法和装置
US20020071034A1 (en) Intruding object detection method and intruding object monitor apparatus which automatically set a threshold for object detection
WO2019206208A1 (zh) 基于机器学习的眼底图像检测方法、装置及系统
CN109697719B (zh) 一种图像质量评估方法、装置及计算机可读存储介质
US11915430B2 (en) Image analysis apparatus, image analysis method, and storage medium to display information representing flow quantity
CN110572636B (zh) 摄像头脏污检测方法、装置、存储介质及电子设备
CN111932596B (zh) 摄像头遮挡区域的检测方法、装置、设备和存储介质
CN109951635A (zh) 拍照处理方法、装置、移动终端以及存储介质
JPWO2018179361A1 (ja) 画像処理装置、画像処理方法、およびプログラム
JP2018181333A5 (ja)
US10455144B2 (en) Information processing apparatus, information processing method, system, and non-transitory computer-readable storage medium
US20190289202A1 (en) Image sensor
JP7446060B2 (ja) 情報処理装置、プログラム及び情報処理方法
JP4821355B2 (ja) 人物追跡装置、人物追跡方法および人物追跡プログラム
JPWO2018179360A1 (ja) 画像処理装置、画像処理方法、およびプログラム
CN108932465B (zh) 降低人脸检测误检率的方法、装置及电子设备
JP7477764B2 (ja) 情報処理プログラム、情報処理方法、および情報処理装置
CN112288697A (zh) 用于量化异常程度的方法、装置、电子设备及可读存储介质
JP7197000B2 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
US7646892B2 (en) Image inspecting apparatus, image inspecting method, control program and computer-readable storage medium
KR20210028966A (ko) 작물 이미지의 병해충 검출 방법 및 장치
US20220157050A1 (en) Image recognition device, image recognition system, image recognition method, and non-transitry computer-readable recording medium
CN112581472B (zh) 一种面向人机交互的目标表面缺陷检测方法
JP7414629B2 (ja) 学習用データ処理装置、学習装置、学習用データ処理方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230511

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240312

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240319

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240401

R150 Certificate of patent or registration of utility model

Ref document number: 7477764

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150