JP2022080133A - 情報処理システム、情報処理装置、情報処理方法及び学習モデルの生成方法 - Google Patents

情報処理システム、情報処理装置、情報処理方法及び学習モデルの生成方法 Download PDF

Info

Publication number
JP2022080133A
JP2022080133A JP2020191133A JP2020191133A JP2022080133A JP 2022080133 A JP2022080133 A JP 2022080133A JP 2020191133 A JP2020191133 A JP 2020191133A JP 2020191133 A JP2020191133 A JP 2020191133A JP 2022080133 A JP2022080133 A JP 2022080133A
Authority
JP
Japan
Prior art keywords
learning model
environment
learning
input data
recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020191133A
Other languages
English (en)
Inventor
一帆 平原
Kazuho Hirahara
淳二 倉本
Junji Kuramoto
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Solutions Ltd
Original Assignee
Hitachi Solutions Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Solutions Ltd filed Critical Hitachi Solutions Ltd
Priority to JP2020191133A priority Critical patent/JP2022080133A/ja
Publication of JP2022080133A publication Critical patent/JP2022080133A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)

Abstract

Figure 2022080133000001
【課題】学習用データの収集及び学習モデルの構築を容易にする技術を提供する。
【解決手段】本開示の情報処理システムは、入力データを取得するデータ入力装置と、前記入力データを機械学習する機械学習サーバと、前記機械学習サーバが生成したデータを記憶する記憶装置と、を備え、前記機械学習サーバは、前記入力データに含まれるオブジェクト及び環境をそれぞれ認識し、オブジェクト学習モデル及び環境学習モデルを個別に構築する学習モデル構築部と、前記オブジェクト学習モデルと前記環境学習モデルを用いて前記入力データに特定の事象が含まれるか否かを判別するための認識・判別ロジックを階層的に構築する認識・判別ロジック部と、を有することを特徴とする。
【選択図】図6

Description

本開示は、情報処理システム、情報処理装置、情報処理方法及び学習モデルの生成方法に関する。
近年、機械学習を用いたデータ解析システムが普及している。このようなシステムとして、例えば、機械学習システムを用いて映像データを解析することにより特定の条件にあてはまるシーンを検出したり、各シーンを予め決められた基準により分類したりする技術が知られている。
特許文献1には、映像データを解析するシステムとして、「監視カメラ102で撮影された映像データを解析して、特定のカテゴリに属する事象を検出し、その検出結果を出力する映像解析手段と、映像データの映像と共に、映像に含まれる事象のカテゴリを設定するためのカテゴリ設定画面を表示させる表示制御手段と、カテゴリ設定画面に対するオペレータの操作に応じて設定されたカテゴリ情報を、映像データと共に学習用データとして蓄積する学習用データ蓄積手段と、を備える。映像解析手段は、学習用データ蓄積手段に蓄積された学習用データを用いて、学習処理を行なう。」という技術が開示されている(特許文献1の要約参照)。
このような映像解析システムにおいて映像シーンを解析するためには、機械学習システムの学習に用いる十分な量の学習用データを予め準備することが求められる。学習用データは、解析対象のデータに対して人手による検出作業や分類作業行うことにより生成される。機械学習システムは、生成された学習用データを用いて機械学習処理を行うことにより、学習結果として学習モデルを生成し、学習モデルを参照しながら、新たに与えられたデータを解析する。
学習用データの収集に関連して、特許文献2には、「時系列のデータから特定の基準に基づいて抽出したデータを分類することにより、機械学習システムの学習に用いる教師データを効率的に生成する。」という技術が開示されている。
特開2017-225122号公報 特開2016-76073号公報
従来の映像解析システムにおける機械学習方法では、学習用データをシーンごとに収集して学習モデルが構築される。したがって、特定の環境にある特定のオブジェクトが学習されるので、既に学習されたオブジェクトがある環境と同じ環境でなければ、新たに与えられたデータに出現するオブジェクトを解析することは難しい。このように、構築した学習モデルには汎用性がないため、様々な環境にあるオブジェクトを学習用データとして準備する必要があり、学習用データの収集及び学習モデルの構築に手間とコストがかかる。
そこで、本開示は、学習用データの収集及び学習モデルの構築を容易にする技術を提供する。
上記課題を解決するために、本開示の情報処理システムは、入力データを取得するデータ入力装置と、前記入力データを機械学習する機械学習サーバと、前記機械学習サーバが生成したデータを記憶する記憶装置と、を備え、前記機械学習サーバは、前記入力データに含まれるオブジェクト及び環境をそれぞれ認識し、オブジェクト学習モデル及び環境学習モデルを個別に構築する学習モデル構築部と、前記オブジェクト学習モデルと前記環境学習モデルを用いて前記入力データに特定の事象が含まれるか否かを判別するための認識・判別ロジックを階層的に構築する認識・判別ロジック部と、を有することを特徴とする。
本開示に関連する更なる特徴は、本明細書の記述、添付図面から明らかになるものである。また、本開示の態様は、要素及び多様な要素の組み合わせ及び以降の詳細な記述と添付される特許請求の範囲の様態により達成され実現される。本明細書の記述は典型的な例示に過ぎず、本開示の特許請求の範囲又は適用例を如何なる意味に於いても限定するものではない。
本開示の技術によれば、学習用データの収集及び学習モデルの構築が容易となる。上記以外の課題、構成及び効果は、以下の実施の形態の説明により明らかにされる。
映像解析システムの概略構成を示す模式図である。 映像解析システムの利用方法の概要を示す図である。 機械学習サーバにおける映像データの処理の概要を示す図である。 学習モデルの構築方法を示すフローチャートである。 学習モデルの構築方法を示す模式図である。 認識・判別ロジックの構築方法を示す模式図である。 学習モデルの更新方法を示すフローチャートである。 学習モデルの更新方法を示す模式図である。 映像解析方法を示すフローチャートである。 映像解析方法を示す模式図である。
以下、添付の図面を参照して本開示の実施形態について説明する。ただし、実施形態は本開示の技術を実現するための一例に過ぎず、本開示の技術的範囲を限定するものではない。
本明細書において、データ解析の一例として映像データ解析について説明するが、本開示の技術は、映像データ解析に限らず音声データ解析などの他のデータ解析にも適用することができる。
[第1の実施形態]
<映像解析システムの構成例>
図1は、第1の実施形態に係る映像解析システム100(情報処理システム)の概略構成を示す模式図である。映像解析システム100は、映像入力装置101、映像管理サーバ102、機械学習サーバ106、記憶装置110、判別結果表示端末113及びこれらを接続するLAN115を備える。
映像入力装置101(データ入力装置)は、任意の映像入力機能を持つ装置であり、映像解析の対象となる場所に設置される。映像入力装置101により取得された映像は、任意の形式の映像データ116としてメモリに記憶される。映像入力装置101としては、例えば監視カメラや中継用カメラなどの、映像を継続して入力する装置を用いることができるが、映像入力機能を持つ装置であれば実現方式に限定はない。映像入力装置101と映像管理サーバ102とは、無線又は有線の専用ネットワークで接続されており、互いに通信可能である。映像入力装置101は、取得した映像データ116を映像管理サーバ102に送信する。
映像管理サーバ102は、映像入力装置101から受信した映像データ116を管理するサーバであり、1つ以上のプロセッサ及びプロセッサに接続される1つ以上のメモリを有する。なお、映像入力装置101及び映像管理サーバ102は、これらの機能が1つの装置により実現されるように構成されていてもよい。映像管理サーバ102は、データ管理プログラム103、映像取得ログ104及び映像データ記憶部105を有する。
データ管理プログラム103は、映像管理サーバ102のメモリに格納され、プロセッサにより実行される。映像取得ログ104は、映像データ116の取得状況(例えば撮影日時、撮影場所など)を任意の形式で保存するファイルであり、任意の保存領域に保存される。映像データ記憶部105は、任意のデータベースを用いて構成することができる。映像管理サーバ102は、映像入力装置101から映像データ116を受信すると、データ管理プログラム103を実行することにより、映像取得ログ104に取得状況を記録し、映像データ記憶部105に任意の形式又は任意の圧縮方法により映像データ116を記録する。
機械学習サーバ106(情報処理装置)は、1つ以上のプロセッサ及びプロセッサに接続される1つ以上のメモリを有するサーバである。機械学習サーバ106のメモリには、オブジェクト・環境別学習モデル構築プログラム107、オブジェクト・環境別学習モデル更新プログラム108及び認識・判別ロジックプログラム109が格納される。これらのプログラムは、機械学習サーバ106のプロセッサにより実行される。機械学習サーバ106は、機械学習の段階(フロー状態)に応じて上記プログラムの少なくともいずれかを実行して、映像データ記憶部105に記録された映像データ116を読み出し、映像データ116を処理する。機械学習サーバ106の各プログラムによる処理の詳細は後述する。
記憶装置110は、機械学習サーバ106から送られてくるデータを記録するサーバであり、学習モデル記憶部111及び認識・判別ロジック記憶部112を有する。学習モデル記憶部111及び認識・判別ロジック記憶部112は、任意の記録媒体に格納された任意のデータベースにより構成することができる。
学習モデル記憶部111は、機械学習サーバ106のオブジェクト・環境別学習モデル構築プログラム107により構築された学習モデル及びオブジェクト・環境別学習モデル更新プログラム108により更新若しくは新たに構築された学習モデルを記録する。認識・判別ロジック記憶部112は、機械学習サーバ106の認識・判別ロジックプログラム109により構築された、映像データ116に特定の事象があるか否かを判別するための認識・判別ロジックを記録する。
判別結果表示端末113は、例えばタブレット端末、スマートフォン又は汎用コンピュータなどの、ディスプレイ(表示画面)を有する端末装置であるが、出力機能を持つ装置であれば実現方式に限定はない。判別結果表示端末113のメモリには判別結果表示プログラム114が記憶され、判別結果表示プログラム114は判別結果表示端末113のプロセッサにより実行される。判別結果表示端末113は、機械学習サーバ106から送られてくるデータ(判別結果及び映像データ116)を受け取り、判別結果表示プログラム114により処理して任意の出力方法で出力し、ディスプレイに表示する。判別結果表示端末113の数は、一台であってもよいし、複数台であってもよい。
図1においては、映像管理サーバ102、機械学習サーバ106及び記憶装置110は、それぞれ別個のサーバ装置として示されているが、これらの機能を1つの装置で実現するようにハードウェアを構成することもできる。
<映像解析システムの利用方法>
図2は、映像解析システム100の利用方法の概要を示す図である。以下において、映像解析システム100を導入した映像管理企業203において作業現場201の映像を解析し、作業現場201に危険な事象(リスク)があるか否かを判別する場合について説明する。映像入力装置101及び映像管理サーバ102は、作業現場201に設置される。映像入力装置101は、作業現場201の環境に応じて任意の数が設置されており、作業現場201の映像を取得する。映像管理サーバ102は、作業現場201ではなく、映像管理企業203内に設置されていてもよい。映像管理企業203は、機械学習サーバ106及び判別結果表示端末113を管理する。作業従事者202が所属する企業と映像管理企業203とは、同じ企業であってもよいし、異なる企業であってもよい。
ステップS201において、作業現場201において作業従事者202が作業する。
ステップS202において、映像管理サーバ102は、映像入力装置101が取得した映像データ116及び映像取得ログ104(映像情報)を機械学習サーバ106に送信する。機械学習サーバ106は、映像管理サーバ102から映像情報を取得する。
ステップS203において、機械学習サーバ106は、映像情報を解析する。機械学習サーバ106は、映像解析により、作業現場201に危険な事象があるか否かの判別結果(リスク検知結果)や、作業従事者202の行動改善が必要か否かの判別結果などを生成する。
ステップS204において、機械学習サーバ106は、映像情報(映像データ116及び映像取得ログ104)及び判別結果を判別結果表示端末113に送信する。判別結果表示端末113は、映像情報及び判別結果をディスプレイに表示することにより、映像管理企業203に所属する映像管理者204に提示する。
ステップS205において、映像管理者204は、判別結果表示端末113に表示された映像情報及び判別結果を参考にして、作業従事者202に対してフォローする。これにより、作業従事者202の安全性向上や効率性向上を実現することができる。
<機械学習サーバによる映像データの処理方法>
図3は、機械学習サーバ106における映像データ116の処理の概要を示す図である。映像データ記憶部105に記録された映像データ116は、機械学習サーバ106の機械学習の段階に応じて、オブジェクト・環境別学習モデル構築プログラム107(学習モデル構築部)により学習用映像301(学習用の入力データ)として読み込まれるか、オブジェクト・環境別学習モデル更新プログラム108(学習モデル構築部)により追加学習用映像302(追加学習用の入力データ)として読み込まれるか、又は認識・判別ロジックプログラム109(認識・判別ロジック部)により解析用映像303(解析対象の入力データ)として読み込まれる。学習用映像301及び追加学習用映像302には、当該映像に含まれるオブジェクト、環境(周辺環境)、事象などの正解を示すラベル(タグ)が予め人手により付されていてもよい。
<<学習段階>>
機械学習を行っていない初期時点において、機械学習サーバ106は、学習用映像301を読み込み、オブジェクト・環境別学習モデル構築プログラム107を実行して、任意の機械学習手法により学習用映像301を学習し、その学習結果としての学習モデルを新規作成する。機械学習サーバ106は、作成した学習モデルを記憶装置110の学習モデル記憶部111に記録する。また、機械学習サーバ106は、認識・判別ロジックプログラム109を実行して認識・判別ロジックを新規作成し、記憶装置110の認識・判別ロジック記憶部112に記録する。
機械学習がすでに一度以上行われ、記憶装置110に記録がある場合に、機械学習サーバ106は、追加学習用映像302を読み込み、オブジェクト・環境別学習モデル更新プログラム108を実行して、任意の機械学習手法により追加学習用映像302を学習して、その学習結果としての学習モデルを更新する。機械学習サーバ106は、更新した学習モデルを学習モデル記憶部111に記録する。また、機械学習サーバ106は、認識・判別ロジックプログラム109を実行して認識・判別ロジックを更新し、認識・判別ロジック記憶部112に記録する。
<<推論段階>>
機械学習がすでに一度以上行われ、記憶装置110に記録がある場合に、機械学習サーバ106は、解析用映像303を読み込み、認識・判別ロジックプログラム109を実行して、学習モデル記憶部111に記録された学習モデルと認識・判別ロジック記憶部112に記録された認識・判別ロジックとを用いて解析用映像303を解析し、特定の事象があるか否かを判別する。機械学習サーバ106は、判別結果表示端末113に判別結果を送信する。
<学習モデルの構築方法>
図4は、機械学習サーバ106による学習モデルの構築(生成)方法を示すフローチャートである。以下に説明する各処理は、実際には機械学習サーバ106のプロセッサが各プログラムを実行することにより実現されるが、機械学習サーバ106の各プログラムを処理の主体として説明する。
ステップS401において、オブジェクト・環境別学習モデル構築プログラム107は、映像管理サーバ102の映像データ記憶部105から学習用映像301を読み込む。
ステップS402において、オブジェクト・環境別学習モデル構築プログラム107は、任意の機械学習手法を用いて学習用映像301に含まれるオブジェクト及び環境(周辺環境)をそれぞれ認識し、映像を任意の数のオブジェクトと環境に分類する。学習用映像301に含まれる環境とは、例えば、工事現場、建設現場など、映像解析の対象となる作業場所の種類である。学習用映像301に含まれるオブジェクトとは、例えば、重機、脚立、作業員、警備員など、作業場所にある物体又は人物の種類である。
ステップS403において、オブジェクト・環境別学習モデル構築プログラム107は、認識したオブジェクトと環境のそれぞれについて学習モデルを構築し、学習モデル記憶部111に記録する。すなわち、オブジェクト・環境別学習モデル構築プログラム107は、周辺環境に依拠することなくオブジェクトを識別するように構成されたオブジェクト学習モデルと、オブジェクトに依拠することなく周辺環境を識別するように構成された環境学習モデルとを構築する。
ステップS404において、認識・判別ロジックプログラム109は、オブジェクト学習モデルと環境学習モデルを用いてオブジェクト及び環境のそれぞれを認識して映像に特定の事象があるか否かを判別するためのロジック(推論プログラム)を構築し、認識・判別ロジック記憶部112に記録する。
図5は、機械学習サーバ106による学習モデルの構築(生成)方法を示す模式図である。ただし、本図は、オブジェクト及び環境を分離してそれぞれの学習モデルを構築するイメージを示すものであり、学習モデルの数や名称は一例に過ぎない。
まず、オブジェクト・環境別学習モデル構築プログラム107は、学習用映像301を読み込み、任意の機械学習手法を用いて、学習用映像301を任意の数のオブジェクトと環境に分類する。次に、オブジェクト・環境別学習モデル構築プログラム107は、分類したオブジェクト及び環境のそれぞれの特徴を抽出して、オブジェクト・環境別学習済モデル501を構築し、学習モデル記憶部111に記録する。オブジェクト・環境別学習済モデル501は、例えば、オブジェクト及び環境のそれぞれから抽出した特徴量(パラメータ)を記述したニューラルネットワークなどの形式で作成することができる。
図5に示す例において、学習用映像301に含まれるある環境Aが工事現場である場合、オブジェクト・環境別学習モデル構築プログラム107は、学習用映像301から工事現場の映像の特徴を抽出し、環境A学習済モデル506を作成する。また、工事現場に含まれるオブジェクトが例えば重機(オブジェクトA)、脚立(オブジェクトB)及び作業員(オブジェクトC)である場合、オブジェクト・環境別学習モデル構築プログラム107は、これらのオブジェクトA~Cの特徴を抽出し、オブジェクトA学習済モデル503、オブジェクトB学習済モデル504及びオブジェクトC学習済モデル505を作成する。このように、オブジェクト・環境別学習モデル構築プログラム107は、オブジェクト学習モデルと環境学習モデルとを作成する。オブジェクト学習モデルは、周辺環境に依拠することなくオブジェクトを識別するように構成されており、環境学習モデルは、オブジェクトに依拠することなく周辺環境を識別するように構成されている。
認識・判別ロジックプログラム109は、オブジェクト及び環境のそれぞれを認識して映像に特定の事象があるか否かを判別するための認識・判別ロジック502を構築し、認識・判別ロジック記憶部112に記録する。認識・判別ロジック502は、例えば、オブジェクト・環境別学習済モデル501を用いた推論プログラムとして作成することができる。
<認識・判別ロジックの構築方法>
図6は、認識・判別ロジックプログラム109による認識・判別ロジック502の構築方法を示す模式図である。本実施形態においては、映像に危険な状態や状況(事象)があるか否かを判定するためのロジックを構築する場合について説明する。ただし、認識・判別ロジック層601、オブジェクト・環境学習済モデル層602を構築するイメージを示すものであり、それぞれに含まれるオブジェクトの数や名称は一例に過ぎない。
認識・判別ロジックプログラム109は、認識・判別ロジック層601及びオブジェクト・環境学習済モデル層602を有する。認識・判別ロジック層601は、オブジェクト間認識層603、オブジェクト・環境間認識層604、特定状態検知層605、特定状況検知層606、評価層607及び判別層608を有する。オブジェクト・環境学習済モデル層602は、記憶装置110の学習モデル記憶部111に記録された学習モデル(オブジェクトA学習済モデル503、オブジェクトB学習済モデル504、オブジェクトC学習済モデル505及び環境A学習済モデル506)を読み出す。
オブジェクト間認識層603は、オブジェクト・環境学習済モデル層602のオブジェクトそれぞれの距離や位置といったオブジェクト間の関係を認識し、その情報を記録する。オブジェクト・環境間認識層604は、オブジェクト・環境学習済モデル層602の各オブジェクトと環境との距離や位置といったオブジェクトと環境との間の関係を認識し、その情報を記録する。
特定状態検知層605及び特定状況検知層606は、人手による分類や特定のデータベース(不図示)などを用いて、オブジェクト間認識層603及びオブジェクト・環境間認識層604の情報のうち、特定の状態及び状況(本実施形態においては、リスクや危険がある状態及び状況)を検知する。例えば、特定状況検知層606は、上記の特定のデータベースとして工事現場安全基準データを参照して、重機(オブジェクトA)に作業員(オブジェクトC)が密接している場合は危険な状況であると検知する。また、特定状態検知層605は例えば、当該作業員が重機操作者の腕章をしている場合は、工事現場安全基準データに準拠した状態であると検知する。すなわち、特定状況検知層606はオブジェクト間又はオブジェクトと環境との間の関係にしたがって特定状況を検知し、特定状態検知層605はオブジェクト単体又は環境単体の特定状態を検知する。なお、特定状態検知層605及び特定状況検知層606は、企業や企業内の環境に応じて、参照するデータベースの切り替えが可能である。
評価層607は、特定状態検知層605及び特定状況検知層606の検知結果から、リスクや危険があるか否かを評価する。例えば、評価層607は、特定状況検知層606において重機に密接した作業員が検知されたとしても、特定状態検知層605において当該作業員が重機操作者の腕章をしていることが検知されている場合は、リスクや危険がないと評価する。反対に、特定状態検知層605において当該作業員が重機操作者の腕章をしていないことが検知されている場合は、評価層607は、リスクや危険があると評価する。
判別層608は、評価層607の評価結果に応じて、特定状態検知層605及び特定状況検知層606の検知結果をいずれの判別結果表示端末113に送信するかを判別する。
以上のように、認識・判別ロジックプログラム109は、学習用映像301(入力データ)を階層的に解析し、学習用映像301に危険な事象が含まれるか否かを振り分ける(学習する)ことで、新たに入力された映像データに危険な事象が含まれるか否かを判別するための認識・判別ロジック502(推論プログラム)を構築する。
図6の例において、認識・判別ロジック層601は、オブジェクト間認識層603及びオブジェクト・環境間認識層604(第1の層)、特定状態検知層605及び特定状況検知層606(第2の層)、評価層607(第3の層)、並びに判別層608(第4の層)の4段階の階層として構成されているが、映像解析の目的や種類に応じて、階層の数は増減させてもよい。
<学習モデルの更新方法>
図7は、機械学習サーバ106による学習モデルの更新方法を示すフローチャートである。以下に説明する各処理は、実際には機械学習サーバ106のプロセッサが各プログラムを実行することにより実現されるが、機械学習サーバ106の各プログラムを処理の主体として説明する。
ステップS701において、オブジェクト・環境別学習モデル更新プログラム108は、映像管理サーバ102の映像データ記憶部105から追加学習用映像302を読み込む。
ステップS702において、オブジェクト・環境別学習モデル更新プログラム108は、任意の機械学習手法を用いて追加学習用映像302に含まれるオブジェクト及び環境をそれぞれ認識し、映像を任意の数のオブジェクトと環境に分類する。
ステップS703において、オブジェクト・環境別学習モデル更新プログラム108は、認識したオブジェクト及び環境が既存の学習モデル(後述のオブジェクト・環境別既存学習済モデル801)に含まれるかを、任意の機械学習手法を用いて照合する。
ステップS704において、オブジェクト・環境別学習モデル更新プログラム108は、認識したオブジェクト及び環境が既存の学習モデルと一致するか否かを判定する。一致しない場合(No)は、処理はステップS705に移行する。一致する場合(Yes)は、処理はステップS706に移行する。
ステップS705において、オブジェクト・環境別学習モデル更新プログラム108は、新たに認識したオブジェクトと環境のそれぞれについて学習モデル(後述のオブジェクト・環境別追加学習済モデル802)を新たに構築し、学習モデル記憶部111に記録する。
ステップS706において、オブジェクト・環境別学習モデル更新プログラム108は、既存の学習モデル(オブジェクト・環境別既存学習済モデル801)を更新し、学習モデル記憶部111に記録する。
ステップS707において、認識・判別ロジックプログラム109は、認識・判別ロジック502を更新し、認識・判別ロジック記憶部112に記録する。
図8は、機械学習サーバ106による学習モデルの更新(生成)方法を示す模式図である。ただし、本図は、オブジェクト及び環境を分離してそれぞれの学習モデルを構築するイメージを示すものであり、学習モデルの数や名称は一例に過ぎない。
まず、オブジェクト・環境別学習モデル更新プログラム108は、追加学習用映像302を読み込み、任意の機械学習手法を用いて追加学習用映像302を任意の数のオブジェクトと環境に分類する。次に、オブジェクト・環境別学習モデル更新プログラム108は、分類したオブジェクト及び環境のそれぞれの特徴を抽出して、オブジェクト・環境別既存学習済モデル801と一致する場合は、オブジェクト・環境別既存学習済モデル801を更新する。一致しない場合は、オブジェクト・環境別学習モデル更新プログラム108は、オブジェクト・環境別追加学習済モデル802を構築し、学習モデル記憶部111に記録する。オブジェクト・環境別追加学習済モデル802は、例えば、オブジェクト及び環境のそれぞれから抽出した特徴(パラメータ)とその値を含むテーブル形式で作成することができる。
図8に示す例において、追加学習用映像302に含まれるある環境Bが建築現場である場合、オブジェクト・環境別学習モデル更新プログラム108は、追加学習用映像302から建築現場の映像の特徴を抽出し、環境B追加学習済モデル804を作成する。また、建築現場の映像(追加学習用映像302)に例えばとび職人(オブジェクトD)が含まれていた場合、オブジェクト・環境別学習モデル更新プログラム108は、オブジェクトDの特徴を抽出し、オブジェクトD追加学習済モデル803を作成する。建築現場の映像(追加学習用映像302)に脚立(オブジェクトB)が含まれていた場合、オブジェクト・環境別学習モデル更新プログラム108は、オブジェクト・環境別既存学習済モデル801のオブジェクトB学習済モデル504を更新する。
認識・判別ロジックプログラム109は、オブジェクト及び環境のそれぞれを認識して映像に特定の事象があるか否かを判別するための認識・判別ロジック502を更新し、認識・判別ロジック記憶部112に記録する。
<映像解析方法>
図9は、認識・判別ロジックプログラム109による映像解析方法を示すフローチャートである。
ステップS901において、認識・判別ロジックプログラム109は、映像管理サーバ102の映像データ記憶部105から解析用映像303を読み込む。
ステップS902において、認識・判別ロジックプログラム109は、任意の機械学習手法を用いて、解析用映像303に含まれるオブジェクト及び環境を認識する。
ステップS903において、認識・判別ロジックプログラム109は、オブジェクト・環境別学習済モデル501及び認識・判別ロジック502を用いて、任意の機械学習手法により、ステップS902で認識した映像を解析して特定の事象が含まれるか否かを判別し、いずれの判別結果表示端末113に送信するかを判別する。
ステップS904において、認識・判別ロジックプログラム109は、認識・判別ロジック層601の判別結果を判別結果表示端末113に送信する。判別結果表示端末113は、判別結果を受信すると、判別結果表示プログラム114を実行してディスプレイに表示する。
以上、解析用映像303を解析して特定の事象の判別結果を出力する処理について説明したが、機械学習サーバ106は、このような解析段階においても、解析用映像303を追加学習用映像302と同様に処理して更なる学習を行ってもよい。
図10は、認識・判別ロジックプログラム109による映像解析方法を示す模式図である。まず、認識・判別ロジックプログラム109は、解析用映像303を読み込み、任意の機械学習手法を用いて解析用映像303に含まれるオブジェクト及び環境を認識する。次に、認識・判別ロジックプログラム109は、既存のオブジェクト・環境別学習済モデル501及び認識・判別ロジック502を用いて、認識した映像を解析して特定の事象が含まれるか否かを判別する。また、認識・判別ロジックプログラム109は、認識・判別ロジック層601の判別結果を判別結果表示端末113に送信する。判別結果表示端末113は、判別結果表示プログラム114を実行して判別結果をディスプレイに表示する。
本実施形態において、1つの認識・判別ロジックプログラム109により学習段階の処理及び推論段階の処理が行われることを説明したが、学習段階における認識・判別ロジック502を構築するためのプログラムと、推論段階における認識・判別ロジック502を用いた映像解析用のプログラムとが別個に記述されていてもよい。
<まとめ>
以上のように、本実施形態に係る映像解析システム100において、機械学習サーバ106は、解析対象のシーンに出現するオブジェクトを認識するための学習モデルと、環境を認識するための学習モデルとを個別に構築し、階層型に認識・判別ロジックを構成する。機械学習サーバ106は、学習用データを追加する際には、追加認識用の学習モデル及び認識・判別ロジックを階層型の認識・判別ロジックに追加することで、認識・判別ロジックを拡張する。これにより、特定のオブジェクトの認識において特定の環境によらず認識が可能となり、特定の環境下の映像解析データを異なる環境下でも利用することができる。すなわち、汎用性を持った映像解析が可能となり、異なる環境下で再度データをゼロから収集する必要がない。結果としてデータの収集が容易になり、データ収集及び学習モデル構築のコストを抑えることができる。
[変形例]
本開示は、上述した実施形態に限定されるものでなく、様々な変形例を含んでいる。例えば、上述した実施形態は、本開示を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備える必要はない。また、ある実施形態の一部を他の実施形態の構成に置き換えることができる。また、ある実施形態の構成に他の実施形態の構成を加えることもできる。また、各実施形態の構成の一部について、他の実施形態の構成の一部を追加、削除又は置換することもできる。
101…映像入力装置
102…映像管理サーバ
103…データ管理プログラム
104…映像取得ログ
105…映像データ記憶部
106…機械学習サーバ
107…オブジェクト・環境別学習モデル構築プログラム
108…オブジェクト・環境別学習モデル更新プログラム
109…認識・判別ロジックプログラム
110…記憶装置
111…学習モデル記憶部
112…認識・判別ロジック記憶部
113…判別結果表示端末
114…判別結果表示プログラム
115…LAN
116…映像データ
201…作業現場
202…作業従事者
203…映像管理企業
204…映像管理者

Claims (10)

  1. 入力データを取得するデータ入力装置と、
    前記入力データを機械学習する機械学習サーバと、
    前記機械学習サーバが生成したデータを記憶する記憶装置と、を備え、
    前記機械学習サーバは、
    前記入力データに含まれるオブジェクト及び環境をそれぞれ認識し、オブジェクト学習モデル及び環境学習モデルを個別に構築する学習モデル構築部と、
    前記オブジェクト学習モデルと前記環境学習モデルを用いて前記入力データに特定の事象が含まれるか否かを判別するための認識・判別ロジックを階層的に構築する認識・判別ロジック部と、を有する
    ことを特徴とする情報処理システム。
  2. 前記機械学習サーバの解析結果を表示する表示端末をさらに備え、
    前記認識・判別ロジック部は、
    前記データ入力装置が収集した解析対象の入力データを受信し、
    前記解析対象の入力データに含まれるオブジェクト及び環境をそれぞれ認識し、
    前記オブジェクト学習モデル、前記環境学習モデル及び前記認識・判別ロジックを用いて、前記解析対象の入力データに前記特定の事象が含まれるか否かを判別し、
    前記判別の結果を前記表示端末に送信する
    ことを特徴とする請求項1に記載の情報処理システム。
  3. 前記学習モデル構築部は、
    前記データ入力装置から追加学習用の入力データを受信し、
    前記追加学習用の入力データに含まれるオブジェクト及び環境をそれぞれ認識し、
    前記オブジェクト学習モデル及び前記環境学習モデルを更新し、
    前記認識・判別ロジック部は、前記認識・判別ロジックを更新する
    ことを特徴とする請求項1又は2に記載の情報処理システム。
  4. 前記学習モデル構築部は、
    前記追加学習用の入力データから認識した前記オブジェクト及び前記環境が既存の前記オブジェクト学習モデル及び前記環境学習モデルと一致しない場合は、新たなオブジェクト学習モデル及び新たな環境学習モデルを構築し、
    前記追加学習用の入力データから認識した前記オブジェクト及び前記環境が既存の前記オブジェクト学習モデル及び前記環境学習モデルと一致する場合は、前記オブジェクト学習モデル及び前記環境学習モデルを更新する
    ことを特徴とする請求項3に記載の情報処理システム。
  5. 前記学習モデル構築部は、
    前記入力データに含まれる複数の前記オブジェクト及び前記環境をそれぞれ認識し、複数の前記オブジェクト学習モデル及び前記環境学習モデルを構築する
    ことを特徴とする請求項1~4いずれか1項に記載の情報処理システム。
  6. 前記認識・判別ロジック部は、
    前記複数の前記オブジェクト学習モデル及び前記環境学習モデル間の関係を求める第1の層と、
    前記関係に基づいて、前記特定の事象を検知する第2の層と、を有する
    ことを特徴とする請求項5に記載の情報処理システム。
  7. 前記認識・判別ロジック部は、
    前記第2の層における前記検知の結果を評価する第3の層をさらに有する
    ことを特徴とする請求項6に記載の情報処理システム。
  8. 入力データを受信し、前記入力データに含まれるオブジェクト及び環境をそれぞれ認識し、オブジェクト学習モデル及び環境学習モデルを構築する学習モデル構築部と、
    前記オブジェクト学習モデルと前記環境学習モデルを用いて前記入力データに特定の事象が含まれるか否かを判別するための認識・判別ロジックを階層的に構築する認識・判別ロジック部と、を備える
    ことを特徴とする情報処理装置。
  9. 情報処理装置のプロセッサにより実行される情報処理方法であって、
    入力データを受信するステップと、
    前記入力データに含まれるオブジェクト及び環境をそれぞれ認識し、オブジェクト学習モデル及び環境学習モデルを個別に構築するステップと、
    前記オブジェクト学習モデルと前記環境学習モデルを用いて前記入力データに特定の事象が含まれるか否かを判別するための認識・判別ロジックを階層的に構築するステップと、を含む
    ことを特徴とする情報処理方法。
  10. 情報処理装置のプロセッサにより実行される学習モデルの生成方法であって、
    入力データを受信するステップと、
    前記入力データに含まれるオブジェクトと前記オブジェクトの周辺環境をそれぞれ認識するステップと、
    前記認識したオブジェクトを識別するオブジェクト学習モデルを構築するステップと、
    前記認識した周辺環境を識別する環境学習モデルを構築するステップと、
    を含み、
    前記オブジェクト学習モデルは、前記周辺環境に依拠することなく前記オブジェクトを識別するように構成されており、
    前記環境学習モデルは、前記オブジェクトに依拠することなく前記周辺環境を識別するように構成されている
    ことを特徴とする学習モデルの生成方法。
JP2020191133A 2020-11-17 2020-11-17 情報処理システム、情報処理装置、情報処理方法及び学習モデルの生成方法 Pending JP2022080133A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020191133A JP2022080133A (ja) 2020-11-17 2020-11-17 情報処理システム、情報処理装置、情報処理方法及び学習モデルの生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020191133A JP2022080133A (ja) 2020-11-17 2020-11-17 情報処理システム、情報処理装置、情報処理方法及び学習モデルの生成方法

Publications (1)

Publication Number Publication Date
JP2022080133A true JP2022080133A (ja) 2022-05-27

Family

ID=81731702

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020191133A Pending JP2022080133A (ja) 2020-11-17 2020-11-17 情報処理システム、情報処理装置、情報処理方法及び学習モデルの生成方法

Country Status (1)

Country Link
JP (1) JP2022080133A (ja)

Similar Documents

Publication Publication Date Title
JP6446971B2 (ja) データ処理装置、データ処理方法、及び、コンピュータ・プログラム
US10514974B2 (en) Log analysis system, log analysis method and program recording medium
US7840515B2 (en) System architecture and process for automating intelligent surveillance center operations
CN104303218A (zh) 行为识别系统中的警报指令和聚焦警报指令
CN105653444A (zh) 基于互联网日志数据的软件缺陷故障识别方法和系统
CN105659263A (zh) 序列识别
CN111460312A (zh) 空壳企业识别方法、装置及计算机设备
KR102028930B1 (ko) 움직임 정보를 이용한 인공지능 학습기반의 이동객체 영상 분류처리 방법
CN110780965B (zh) 基于视觉的流程自动化方法、设备及可读存储介质
KR20210075511A (ko) 재난대응 추천방법 및 그 장치
CN110471945B (zh) 活跃数据的处理方法、系统、计算机设备和存储介质
CN115358155A (zh) 一种电力大数据异常预警方法、装置、设备及可读存储介质
Pande et al. Crime detection using data mining
CN113722134A (zh) 一种集群故障处理方法、装置、设备及可读存储介质
JP2022080133A (ja) 情報処理システム、情報処理装置、情報処理方法及び学習モデルの生成方法
CN116665305A (zh) 基于计算机视觉和知识图谱的工人行为检测方法和系统
CN115690514A (zh) 图像识别方法及相关设备
CN116597501A (zh) 视频分析算法及边缘设备
CN113919544B (zh) 犯罪预警方法、装置、计算机设备及存储介质
CN111882135B (zh) 一种物联网设备入侵检测方法及相关装置
CN114241400A (zh) 电网系统的监控方法及其装置、计算机可读存储介质
KR102179290B1 (ko) 워크로드 데이터에 대한 이상징후 판별 방법
CN109934302B (zh) 新类别识别方法和基于模糊理论和深度学习的机器人系统
CN112434648A (zh) 一种墙体形状变化检测方法及系统
CN113095110B (zh) 人脸数据动态入库的方法、装置、介质及电子设备