JP2021120820A - 計算プログラム、計算方法及び計算装置 - Google Patents

計算プログラム、計算方法及び計算装置 Download PDF

Info

Publication number
JP2021120820A
JP2021120820A JP2020014140A JP2020014140A JP2021120820A JP 2021120820 A JP2021120820 A JP 2021120820A JP 2020014140 A JP2020014140 A JP 2020014140A JP 2020014140 A JP2020014140 A JP 2020014140A JP 2021120820 A JP2021120820 A JP 2021120820A
Authority
JP
Japan
Prior art keywords
detection
time series
unit
section area
calculation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020014140A
Other languages
English (en)
Other versions
JP7415611B2 (ja
Inventor
彬 酒井
Akira Sakai
彬 酒井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2020014140A priority Critical patent/JP7415611B2/ja
Priority to EP20216076.8A priority patent/EP3859667A1/en
Priority to US17/129,730 priority patent/US11410289B2/en
Publication of JP2021120820A publication Critical patent/JP2021120820A/ja
Application granted granted Critical
Publication of JP7415611B2 publication Critical patent/JP7415611B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)
  • Complex Calculations (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)

Abstract

【課題】物体検知技術を利用した異常判定の精度を向上させること。【解決手段】計算装置は、対象物を撮影した動画データに含まれる複数フレーム画像それぞれについて、複数種類の特徴量それぞれの検出結果と複数フレーム画像の時系列とを対応付けた検出マップ情報について、時系列における所定幅の区間領域を設定する。計算装置は、検出マップ情報において、設定した区間領域の位置を時系列に沿って変更させた場合の、区間領域中の検出結果の分布状態を、区間領域の複数の位置それぞれについて取得する。計算装置は、複数の位置それぞれの分布状態を低次元空間へ射影した点の集合を示す分散表現を計算する。【選択図】図4

Description

本発明は、計算プログラム、計算方法及び計算装置に関する。
画像に写った物体を物体検知技術により検知した結果を利用して、当該物体に異常があるか否かを判定する技術が知られている。このような技術は、超音波画像を使った診察や、工業製品の不良品の検査等に利用される。
Joseph Redmon,Santosh Divvala,Ross Girshick,Ali Farhadi,"You Only Look Once: Unified, Real-Time Object Detection",arXiv:1506.02640v5 [cs.CV],9 May 2016
しかしながら、従来の技術には、異常判定の精度が低下する場合があるという問題がある。これは、物体検知の結果を利用して異常判定を行う場合、本来は物体の異常の有無に関与しない要素が判定結果に影響を与える場合があるためである。例えば、動画に写った物体を検知した結果を利用して異常判定を行う場合、当該動画の長さが異常判定の結果に影響を与えることがある。動画の長さは、物体に異常があるか否かには本来無関係である。
1つの側面では、物体検知技術を利用した異常判定の精度を向上させる。
1つの態様において、計算プログラムは、検出マップ情報について、時系列における所定幅の区間領域を設定する処理をコンピュータに実行させる。検出マップ情報は、対象物を撮影した動画データに含まれる複数フレーム画像それぞれについて、複数種類の特徴量それぞれの検出結果と複数フレーム画像の時系列とを対応付けた情報である。計算プログラムは、検出マップ情報において、設定した区間領域の位置を時系列に沿って変更させた場合の、区間領域中の検出結果の分布状態を、区間領域の複数の位置それぞれについて取得する処理をコンピュータに実行させる。計算プログラムは、複数の位置それぞれの分布状態を低次元空間へ射影した点の集合を示す分散表現を計算する処理をコンピュータに実行させる。
1つの側面では、物体検知技術を利用した異常判定の精度を向上させることができる。
図1は、計算装置の構成例を示すブロック図である。 図2は、検出マップ情報の一例を示す図である。 図3は、分散表現の計算方法を説明する図である。 図4は、検知対象物のbarcode like timelineの一例を示す図である。 図5は、検知対象物の分散表現の軌跡の一例を示す図である。 図6は、正常状態の対象物のbarcode like timelineの一例を示す図である。 図7は、正常状態の対象物の分散表現の軌跡の一例を示す図である。 図8は、学習装置の構成例を示すブロック図である。 図9は、検出処理の流れを示すフローチャートである。 図10は、判定処理の流れを示すフローチャートである。 図11は、学習処理の流れを示すフローチャートである。 図12は、ハードウェア構成例を説明する図である。
以下に、本発明に係る計算プログラム、計算方法及び計算装置の実施例を図面に基づいて詳細に説明する。なお、この実施例により本発明が限定されるものではない。また、各実施例は、矛盾のない範囲内で適宜組み合わせることができる。
図1を用いて、実施例に係る計算装置の構成を説明する。図1は、計算装置の構成例を示すブロック図である。図1に示すように、計算装置10は、センサ21からデータの入力を受け付ける。また、計算装置10は、ディスプレイ22に対しデータを出力する。
計算装置10は、画像から分散表現を計算し、分散表現を基に画像に写っている対象物に異常があるか否かを判定する。特に、計算装置10は、時系列上の複数の画像から分散表現を計算することができる。このような時系列上の複数の画像は、動画データを構成する各フレームの画像であってもよい。
センサ21は、異常判定の対象の画像を生成するための信号を取得する装置である。例えば、センサ21は、対象物に対して超音波を照射し、当該超音波の反射波を受信するプローブである。プローブは、例えば診察及び物体の非破壊検査に使われるものであってもよい。また、例えば、センサ21は、対象物を撮影するRGBカメラであってもよい。
なお、センサ21は、収集した信号をそのまま計算装置10に入力してもよいし、信号から生成した画像のデータを計算装置10に入力してもよい。つまり、計算装置10は、センサ21から受け取った信号を基に画像を生成してもよいし、センサ21から画像を受け取ってもよい。
図1に示すように、計算装置10は、入力部11、出力部12、記憶部13及び制御部14を有する。入力部11は、データを入力するためのインタフェースである。例えば、入力部11は、センサ21からのデータの入力を受け付ける。また、入力部11は、マウス及びキーボード等の入力装置を介してデータの入力を受け付けてもよい。また、出力部12は、データを出力するためのインタフェースである。例えば、出力部12は、ディスプレイ22等の出力装置にデータを出力する。
記憶部13は、データや制御部14が実行するプログラム等を記憶する記憶装置の一例であり、例えばハードディスクやメモリ等である。記憶部13は、検出マップ情報131、モデル情報132及び正常画像情報133を有する。
検出マップ情報131は、対象物を撮影した動画データに含まれる複数フレーム画像それぞれについて、複数種類の特徴量それぞれの検出結果と複数フレーム画像の時系列とを対応付けた情報の一例である。例えば本実施例では、検出マップ情報131は、フレーム画像のそれぞれに対応するxmlデータの集合であるものとする。また、各xmlデータには、複数種類の特徴量が記載されているものとする。
図2は、検出マップ情報の一例を示す図である。図2に示すように、検出マップ情報131は、xmlデータの集合である。xmlデータのfilename要素には、対応するフレーム画像のファイルのパスが記載される。
ここで、本実施例では、センサ21は、診察のためのプローブであるものとする。また、検出マップ情報131は、超音波画像から得られる特徴量であるものとする。特徴量には、フレーム画像にあらかじめ定められた各部位が写っている確率の高さに応じて算出される確信度が含まれるものとする。さらに、特徴量には、フレーム画像において各部位が存在すると推定される領域を表す矩形の、2つの頂点の座標が含まれるものとする。
xmlデータのname要素には、部位の名称が記載される。なお、xmlデータには、確信度が0でない、又は確信度が一定値以上の部位の情報のみが記載されるようにしてもよい。また、probability要素は、name要素に記載された部位の確信度を表している。対応する部位がフレーム画像の中に存在している確率が高いほど、確信度は大きくなる。
xmin要素及びymin要素は、矩形の1つの頂点の座標を表す。また、xmax要素及びymax要素は、xmin要素及びymin要素で表される頂点と辺を共有しない頂点の座標を表す。つまり、これらの2つの頂点の座標が決まれば、矩形の位置及び大きさが決まる。例えば、xmin要素及びymin要素で表される座標は矩形の左上の頂点を表す。また、xmax要素及びymax要素で表される座標は矩形の右下の頂点を表す。
図2に示されているxmlデータは、「frame001.jpg」という名前のフレーム画像のファイルに対応している。また、図2のxmlデータは、部位Aが、点(384, 219)及び点(517, 362)を頂点とする矩形領域に存在し、その確信度が0.772151112556であることを示している。また、図2のxmlデータは、部位Cが、点(242, 94)及び点(298, 174)を頂点とする矩形領域に存在し、その確信度が0.101077094674であることを示している。なお、座標は、例えばピクセル単位で表されたものであってもよい。
モデル情報132は、分散表現を計算するモデルを構築するためのパラメータ等の情報である。本実施例では、モデルはオートエンコーダであるものとする。この場合、モデル情報132は、オートエンコーダの各ユニットに設定される重み等のパラメータを含む。
正常画像情報133は、正常な状態にある対象物のフレーム画像に関する情報である。正常画像情報133は、フレーム画像そのものであってもよいし、フレーム画像の特徴量であってもよいし、フレーム画像の特徴量から得られた分散表現であってもよい。
制御部14は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)等によって、内部の記憶装置に記憶されているプログラムがRAMを作業領域として実行されることにより実現される。また、制御部14は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されるようにしてもよい。制御部14は、生成部141、検出部142、設定部143、取得部144、計算部145、判定部146及び表示制御部147を有する。
生成部141は、センサ21から入力されたデータを基にフレーム画像を生成する。センサ21からフレーム画像が入力される場合は、生成部141はフレーム画像を生成しなくてもよい。
検出部142は、フレーム画像から特徴量を抽出し、検出マップ情報131として記憶部13に格納する。検出部142は、各部位の画像を学習済みの検出モデルを使って確信度を含む特徴量の検出を行う。検出モデルは、例えば、YOLO、SSD(Single Shot MultiBox Detector)、Faster−RCNN(Regional Convolutional Neural Network)等の物体検出アルゴリズムを用いるものであってもよい。
検出部142は、複数フレーム画像のそれぞれについて、あらかじめ定められた複数の物体のそれぞれが存在する確率の高さに応じた指標である確信度を検出する。複数の物体は、検出対象の各部位に対応する。また、検出部142は、フレーム画像内の矩形領域であって、物体が存在する確率が所定の値以上である矩形領域の大きさ及び位置をさらに検出する。
設定部143、取得部144及び計算部145は、分散表現の計算に関する処理を行う。図3は、分散表現の計算方法を説明する図である。ここで、検出マップ情報131に含まれる少なくとも一部の特徴量は、時系列に沿ってマッピングすることができる。図3の符号30に示す図は、各部位の確信度を時系列にマッピングしたものである。つまり、検出マップ情報131は、複数種類の特徴量の種類を第1の軸とし、時系列を第2の軸とした2次元平面に検出結果をマッピングした2次元マップということができる。ここでは、このような図を、barcode like timelineと呼ぶ。また、barcode like timelineを単にタイムラインと呼ぶ場合がある。
図3の例では、確信度が大きいほどバーの色が濃くなる。以降、分散表現を計算するオートエンコーダが学習済みであるものとして、分散表現の計算方法を説明する。オートエンコーダの学習方法については後述する。
設定部143は、検出マップ情報131について、時系列における所定幅の区間領域を設定する。このような区間領域を、カーネルと呼ぶ。カーネルは、窓等と言い換えられてもよい。また、検出マップ情報131は、対象物を撮影した動画データに含まれる複数フレーム画像それぞれについて、複数種類の特徴量それぞれの検出結果と複数フレーム画像の時系列とを対応付けた情報の一例である。
取得部144は、検出マップ情報131において、設定した区間領域の位置を時系列に沿って変更させた場合の、区間領域中の検出結果の分布状態を、区間領域の複数の位置それぞれについて取得する。確信度及び矩形領域の座標は、分布状態の一例である。また、区間領域の複数の位置は、各時刻に対応する。つまり、取得部144は、各時刻に対応するフレーム画像における各部位の確信度、矩形領域の大きさ及び位置を、分布状態として検出マップ情報131から取得する。
計算部145は、複数の位置それぞれの分布状態を低次元空間へ射影した点の集合を示す分散表現を計算する。図3に示すように、計算部145は、中間層が2つのユニットによって構成されるオートエンコーダ40に、分布状態を入力することにより、2次元空間へ射影した点の集合を示す分散表現を計算する。オートエンコーダ40は、モデル情報132を基に構築される。また、オートエンコーダ40は、入力層410、中間ユニット421、中間ユニット422及び出力層430を有する。分散表現は、中間ユニット421及び中間ユニット422によって出力される中間特徴量である。
図4は、検知対象物のbarcode like timelineの一例を示す図である。図4は、部位ごとの確信度をbarcode like timelineで表し、分散表現を計算するための各種設定値を説明した図である。図4に示すように、タイムライン30は、n枚のフレーム画像を含む。
また、設定部143は、カーネルサイズf、ストライドsを設定する。つまり、連続するf枚のフレーム画像がカーネルを構成する。また、カーネルは、フレーム画像s枚分ずつスライドされる。例えば、t回目のスライドが行われた場合のカーネル301は、時刻tsから時刻(t+1)sまでのフレーム画像を含む。そして、t+1回目のスライドが行われた場合のカーネル302は、時刻(t+1)sから時刻(t+2)sまでのフレーム画像を含む。
ここで、t番目のフレーム画像の集合、すなわちカーネル301に含まれるフレーム画像を、mと表記する(0≦t≦T)。このとき、オートエンコーダのエンコーダ側の出力は、y=encoder(m)により得られる。計算部145は、全てのtについてのエンコーダ側の出力{y, y,…,y}を分散表現として得る。ただし、yはオートエンコーダの中間ユニットと同数の次元のベクトルであってもよい。
判定部146は、取得した分散表現と、対象物を撮影した判定対象動画データから得られた分散表現との比較に基づいて、判定対象動画データが異常状態の対象物を撮影したものであるか否かを判定する。また、表示制御部147は、2次元空間へ射影した点の時系列に沿った軌跡を画面に表示する。このように、異常状態の判定は、判定部146によって自動的に行われるものであってもよいし、表示制御部147によって表示された画面を見たユーザによって手動で行われるものであってもよい。
図5は、検知対象物の分散表現の軌跡の一例を示す図である。計算部145は、図4に示すタイムライン30をオートエンコーダ40に入力し、分散表現を計算する。そして、表示制御部147は、分散表現の軌跡を図5のように描画する。
ここで、設定部143は、カーネルサイズを10、ストライドを5に設定するものとする。また、図4では確信度のみをタイムライン30上に表示しているが、実際には、計算部145は、座標を含めた特徴量をオートエンコーダ40に入力する。つまり、図2に示すように、部位ごとに、probability要素、xmin要素、ymin要素、xmax要素、ymax要素の5つの要素の特徴量が存在する。また、部位の数は9とする。この場合、計算部145は、9(部位の数)×5(特徴量の数)×10(カーネルサイズ)=450個の値をオートエンコーダ40に入力する。また、オートエンコーダ40は、活性化関数としてsigmoidを用いるものとする。
ここで、図6及び図7を用いて、正常状態の対象物の分散表現について説明する。図6は、正常状態の対象物のbarcode like timelineの一例を示す図である。図7は、正常状態の対象物の分散表現の軌跡の一例を示す図である。
例えば、取得部144は、正常画像情報133から、図6に示す正常状態のタイムライン35を取得する。計算部145は、タイムライン35から、正常状態の対象物の分散表現を計算する。このとき、図6に示すように、設定部143は、タイムライン35に対して、検知対象物のタイムライン30に設定したものと同じカーネルサイズ及びストライドを設定する。一方で、タイムライン35のフレーム画像の枚数は、タイムライン30のフレーム画像の枚数と異なっていてもよい。なお、正常状態の対象物のタイムライン35は、オートエンコーダ40の学習に用いられるものであってもよい。
図4から図7に示す(1)から(5)は、事前に定められた、異常判定をする際に注目すべき局面を指し示している。図7に示すように、正常状態のタイムライン35から得られた分散表現は、表現は局面(2)、(3)内、及び局面(3)、(4)内の変動を捨象して表現している。一方、分散表現は、局面(2)、(3)から局面(3)、(4)への変化を強調して表現している。ここで、捨象は、軌跡の動きが小さいことを意味する。また、強調は、軌跡の動きが大きいことを意味する。
ここで、図7と図5を比べると、局面(3)、(4)における軌跡が大きく異なっている。具体的には、図7では、軌跡が座標(0,1)に近い位置を通過している。一方で、図5では、軌跡は座標(0,1)に近い位置を通過していない。このことから、ユーザは、図5が異常状態の分散表現の軌跡であることを判断できる。また、例えば、判定部146は、分散表現の軌跡が、座標(0.2,0.8)よりも左上にある領域を通らない場合に異常と判定することができる。
ここで、表示制御部147は、図5に示すような分散表現の軌跡を、出力部12を介してディスプレイ22に表示させることができる。さらに、表示制御部147は、図5に示すように、異常判定の根拠となる領域320を強調する枠を画面上に表示することができる。
図8を用いて、オートエンコーダ40の学習を行う学習装置の構成について説明する。図8は、学習装置の構成例を示すブロック図である。図8に示すように、学習装置50は、入力部51、出力部52、記憶部53及び制御部54を有する。入力部51は、データを入力するためのインタフェースである。出力部52は、データを出力するためのインタフェースである。
記憶部53は、データや制御部54が実行するプログラム等を記憶する記憶装置の一例であり、例えばハードディスクやメモリ等である。記憶部53は、検出マップ情報531、モデル情報532を有する。
検出マップ情報531は、検出マップ情報131と同様の形式のデータである。ただし、検出マップ情報531は、学習用に用意された正常な状態のフレーム画像から検出された特徴量等である。
モデル情報532は、モデル情報132と同様に、オートエンコーダ40を構築するためのパラメータ等である。ただし、モデル情報132が学習済みのパラメータであるのに対し、モデル情報532は、未学習又は学習中のパラメータであってもよい。
制御部54は、例えば、CPU、MPU、GPU等によって、内部の記憶装置に記憶されているプログラムがRAMを作業領域として実行されることにより実現される。また、制御部54は、例えば、ASICやFPGA等の集積回路により実現されるようにしてもよい。制御部54は、設定部541、取得部542、計算部543、更新部544を有する。
設定部541、取得部542、計算部543は、それぞれ設定部143、取得部144及び計算部145と同様の機能を有するものとする。更新部544は、計算部145による計算結果を基に、モデル情報532を更新する。
ここで、K個の正常状態の対象物のbarcode like timelineが用意されているものとする。このとき、k番目のbarcode like timelineのt番目のフレーム画像の集合、すなわち図6のカーネル351に含まれるフレーム画像を、m と表記する(0≦t≦T)。計算部543は、エンコーダ側の出力encoder(m )を計算し、さらにデコーダ側の出力decoder(encoder(m ))を計算する。
そして、更新部544は、損失関数Loss(decoder(encoder(m )))が最小化されるように、モデル情報532に含まれるエンコーダのパラメータθencoderとデコーダのパラメータθdecoderを更新する。ここで、更新部544は、以下の条件でモデル情報532の更新を行う。
学習パラメータ:adagrad
学習率:0.3
反復回数:10万回
バッチサイズ:1
損失関数:最小二乗誤差
図9を用いて、計算装置10による検出処理の流れを説明する。図9は、検出処理の流れを示すフローチャートである。検出処置は、主に計算装置10の生成部141及び検出部142によって行われる処理である。
図9に示すように、まず、計算装置10は、センサデータの入力を受け付ける(ステップS101)。次に、計算装置10は、センサデータからフレームごとの画像を生成する(ステップS102)。そして、計算装置10は、各画像における部位ごとの特徴量を検出し、検出した特徴量を検出マップ情報として記憶部13に格納する(ステップS103)。
図10を用いて、計算装置10による判定処理の流れを説明する。図10は、判定処理の流れを示すフローチャートである。判定処理は、主に計算装置10の計算部145及び判定部146によって行われる処理である。
図10に示すように、まず、計算装置10は、カーネルに関するパラメータを設定する(ステップS201)。次に、計算装置10は、カーネル内の各画像における各部位の特徴量を検出マップ情報131から取得する(ステップS202)。そして、計算装置10は、モデルにより特徴量をエンコードして分散表現を計算する(ステップS203)。
ここで、計算装置10は、未処理の画像があるか否かを判定する(ステップS204)。未処理の画像がある場合(ステップS204、Yes)、計算装置10は、カーネルをスライドし(ステップS205)、ステップS202に戻り処理を繰り返す。一方、未処理の画像がなくなった場合(ステップS204、No)、計算装置10は、分散表現の軌跡を描画し表示する(ステップS206)。また、計算装置10は、分散表現の軌跡から異常の有無を判定する(ステップS207)。
図11を用いて、学習装置50による学習処理の流れを説明する。図11は、学習処理の流れを示すフローチャートである。
図11に示すように、まず、学習装置50は、カーネルに関するパラメータを設定する(ステップS301)。次に、学習装置50は、カーネル内の各画像における各部位の特徴量を検出マップ情報531から取得する(ステップS302)。そして、学習装置50は、モデルにより特徴量をエンコードして分散表現を計算する(ステップS303)。また、学習装置50は、モデルにより分散表現をデコードした結果から損失関数を計算する(ステップS304)。さらに、学習装置50は、損失関数が小さくなるようにモデルを更新する(ステップS305)。
ここで、学習装置50は、未処理の画像があるか否かを判定する(ステップS306)。未処理の画像がある場合(ステップS306、Yes)、学習装置50は、カーネルをスライドし(ステップS307)、ステップS302に戻り処理を繰り返す。一方、未処理の画像がなくなった場合(ステップS306、No)、学習装置50は、学習処理の終了条件が充足されているか否かを判定する(ステップS308)。
学習処理の終了条件が充足されている場合(ステップS308、Yes)、学習装置50は、処理を終了する。一方、学習処理の終了条件が充足されていない場合(ステップS308、No)、学習装置50は、ステップS301に戻り処理を繰り返す。例えば、学習処理の終了条件は、ステップS301からS307までの処理が規定回数だけ繰り返されたこと等である。
これまで説明してきたように、設定部143は、対象物を撮影した動画データに含まれる複数フレーム画像それぞれについて、複数種類の特徴量それぞれの検出結果と複数フレーム画像の時系列とを対応付けた検出マップ情報について、時系列における所定幅の区間領域を設定する。取得部144は、検出マップ情報において、設定した区間領域の位置を時系列に沿って変更させた場合の、区間領域中の検出結果の分布状態を、区間領域の複数の位置それぞれについて取得する。計算部145は、複数の位置それぞれの分布状態を低次元空間へ射影した点の集合を示す分散表現を計算する。このように、計算装置10は、カーネルごとの分散表現を計算することができる。このため、計算装置10は、動画データの長さが分散表現に与える影響を小さくすることができる。その結果、本実施例によれば、物体検知技術を利用した異常判定の精度を向上する。
本実施例の効果をさらに詳細に説明する。まず、barcode like timelineのような、動画データからの物体検出の結果を時系列に並べたデータは、時系列方向の長さが不定形であり、また、物体の未検出、誤検出及び検出もれによるノイズを含むといった特徴がある。さらに、動画内には、数十フレームにわたってほぼ同一の画像が連続する部分や、数フレームのみの重要な部分が存在する場合がある。
従来、長さが不定形の時系列データに対する分散表現の獲得には、RNN等が用いられてきた。しかしながら、時系列データが持つ上記のような特徴から、RNN等の手法には、時系列データの長さ自体が分散表現に影響を与える、分散表現が時系列データ全体の様相を反映し、時系列の一局面の評価ができない、ノイズに対して鋭敏、といった問題があった。
一方、本実施例の計算装置10は、時系列データの一部であるカーネルを利用して、連続的に分散表現を計算する。この結果、図7の局面(2)、(3)に現れているように、動画の同じ局面が続く場合、分散表現は、同一の領域に留まる。このため、本実施例では、動画の長さ自体が分散表現に与える影響を小さくすることができる。さらに、本実施例ではカーネル内で特徴が平均化されるため、得られる分散表現はノイズに対して頑強になる。
動画データをプローブから得る場合、操作者によりプローブが移動されれば動画の局面は変化し、操作者がプローブを同一箇所に留めた場合は動画の同じ局面が続く。動画の局面の変化の態様は、撮影しようとしている対象物や、操作者のクセによっても異なることが考えられる。本実施例では、分散表現の軌跡を得ることにより、局面の変化要因の影響を小さくすることができる。
また、判定部146は、取得した分散表現と、対象物を撮影した判定対象動画データから得られた分散表現との比較に基づいて、判定対象動画データが異常状態の対象物を撮影したものであるか否かを判定する。例えば、判定部146は、正常状態の対象物の動画データを判定対象動画データとして得られた分散表現と、取得した分散表現との軌跡の違いを比較することにより、自動的に異常の判定を行うことができる。
また、検出部142は、複数フレーム画像のそれぞれについて、あらかじめ定められた複数の物体のそれぞれが存在する確率の高さに応じた指標である確信度を検出する。取得部144は、確信度を分布状態として取得する。これにより、計算装置10は、フレーム画像ごとの特徴により動画データの特徴を評価することができる。
また、検出部142は、フレーム画像内の矩形領域であって、物体が存在する確率が所定の値以上である矩形領域の大きさ及び位置をさらに検出し、取得部144は、確信度、矩形領域の大きさ及び位置を分布状態として取得する。これにより、動画内で物体の位置が変化した場合であっても、物体間の位置関係を把握することができる。
また、計算部145は、中間層が2つのユニットによって構成されるオートエンコーダに分布状態を入力することにより、2次元空間へ射影した点の集合を示す分散表現を計算する。このように、2次元という低次元に射影していることから、軌跡の評価や、ユーザによる直感的な特徴の把握が容易になる。
また、表示制御部147は、2次元空間へ射影した点の時系列に沿った軌跡を画面に表示する。これにより、ユーザは、対象物の動画データから得られる特徴を直感的に把握することができる。
また、検出マップ情報は、複数種類の特徴量の種類を第1の軸とし、時系列を第2の軸とした2次元平面に検出結果をマッピングした2次元マップである。
実施例では、プローブによる撮影対象の部位を、部位A、部位B等と表記したが、撮影対象の部位は、例えば心臓に関する各部位であることが考えられる。この場合、部位には、右心房、左心房、右心室、左心室等が含まれていてもよい。
また、実施例では、センサ21がプローブであるものとして説明を行った。一方で、センサ21はRGBカメラであってもよい。この場合、例えば、RGBカメラは、製造ラインにおいてコンベヤー上を移動する製品を動画として撮影する。そして、計算装置10は、動画から分散表現を計算する。計算装置10は、ここで得られた分散表現の軌跡と、正常な製品を撮影した動画から得られた分散表現の軌跡を比較することにより、不良品の判定をすることができる。
上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。また、実施例で説明した具体例、分布、数値等は、あくまで一例であり、任意に変更することができる。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散や統合の具体的形態は図示のものに限られない。つまり、その全部又は一部を、各種の負荷や使用状況等に応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。さらに、各装置にて行われる各処理機能は、その全部又は任意の一部が、CPU及び当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
図12は、ハードウェア構成例を説明する図である。図12に示すように、計算装置10は、通信インタフェース10a、HDD(Hard Disk Drive)10b、メモリ10c、プロセッサ10dを有する。また、図12に示した各部は、バス等で相互に接続される。
通信インタフェース10aは、ネットワークインタフェースカード等であり、他のサーバとの通信を行う。HDD10bは、図1に示した機能を動作させるプログラムやDBを記憶する。
プロセッサ10dは、図1に示した各処理部と同様の処理を実行するプログラムをHDD10b等から読み出してメモリ10cに展開することで、図1等で説明した各機能を実行するプロセスを動作させるハードウェア回路である。すなわち、このプロセスは、計算装置10が有する各処理部と同様の機能を実行する。具体的には、プロセッサ10dは、生成部141、検出部142、設定部143、取得部144、計算部145、判定部146及び表示制御部147と同様の機能を有するプログラムをHDD10b等から読み出す。そして、プロセッサ10dは、生成部141、検出部142、設定部143、取得部144、計算部145、判定部146及び表示制御部147等と同様の処理を実行するプロセスを実行する。
このように計算装置10は、プログラムを読み出して実行することで学習類方法を実行する情報処理装置として動作する。また、計算装置10は、媒体読取装置によって記録媒体から上記プログラムを読み出し、読み出された上記プログラムを実行することで上記した実施例と同様の機能を実現することもできる。なお、この他の実施例でいうプログラムは、計算装置10によって実行されることに限定されるものではない。例えば、他のコンピュータ又はサーバがプログラムを実行する場合や、これらが協働してプログラムを実行するような場合にも、本発明を同様に適用することができる。
このプログラムは、インターネット等のネットワークを介して配布することができる。また、このプログラムは、ハードディスク、フレキシブルディスク(FD)、CD−ROM、MO(Magneto−Optical disk)、DVD(Digital Versatile Disc)等のコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行することができる。
10 計算装置
11、51 入力部
12、52 出力部
13、53 記憶部
14、54 制御部
21 センサ
22 ディスプレイ
30、35 タイムライン
40 オートエンコーダ
50 学習装置
131、531 検出マップ情報
132、532 モデル情報
133 正常画像情報
141 生成部、
142 検出部
143、541 設定部
144、542 取得部
145、543 計算部
146 判定部
147 表示制御部
410 入力層
421、422 中間ユニット
430 出力層
544 更新部

Claims (9)

  1. 対象物を撮影した動画データに含まれる複数フレーム画像それぞれについて、複数種類の特徴量それぞれの検出結果と前記複数フレーム画像の時系列とを対応付けた検出マップ情報について、前記時系列における所定幅の区間領域を設定し、
    前記検出マップ情報において、設定した前記区間領域の位置を前記時系列に沿って変更させた場合の、前記区間領域中の前記検出結果の分布状態を、前記区間領域の複数の位置それぞれについて取得し、
    前記複数の位置それぞれの前記分布状態を低次元空間へ射影した点の集合を示す分散表現を計算する、
    処理をコンピュータに実行させることを特徴とする計算プログラム。
  2. 取得した前記分散表現と、前記対象物を撮影した判定対象動画データから得られた前記分散表現との比較に基づいて、前記判定対象動画データが異常状態の対象物を撮影したものであるか否かを判定する
    処理をさらに実行させることを特徴とする請求項1に記載の計算プログラム。
  3. 前記複数フレーム画像のそれぞれについて、あらかじめ定められた複数の物体のそれぞれが存在する確率の高さに応じた指標である確信度を検出する処理をさらに実行させ、
    前記取得する処理は、前記確信度を前記分布状態として取得することを特徴とする請求項1に記載の計算プログラム。
  4. 前記検出する処理は、前記フレーム画像内の矩形領域であって、前記物体が存在する確率が所定の値以上である矩形領域の大きさ及び位置をさらに検出し、
    前記取得する処理は、前記確信度、前記矩形領域の大きさ及び位置を前記分布状態として取得することを特徴とする請求項3に記載の計算プログラム。
  5. 前記計算する処理は、中間層が2つのユニットによって構成されるオートエンコーダに前記分布状態を入力することにより、2次元空間へ射影した点の集合を示す分散表現を計算することを特徴とする請求項1に記載の計算プログラム。
  6. 前記2次元空間へ射影した点の前記時系列に沿った軌跡を画面に表示する処理をさらに実行させることを特徴とする請求項5に記載の計算プログラム。
  7. 前記検出マップ情報は、前記複数種類の特徴量の種類を第1の軸とし、前記時系列を第2の軸とした2次元平面に前記検出結果をマッピングした2次元マップであることを特徴とする請求項1〜6のいずれか1項に記載の計算プログラム。
  8. 対象物を撮影した動画データに含まれる複数フレーム画像それぞれについて、複数種類の特徴量それぞれの検出結果と前記複数フレーム画像の時系列とを対応付けた検出マップ情報について、前記時系列における所定幅の区間領域を設定し、
    前記検出マップ情報において、設定した前記区間領域の位置を前記時系列に沿って変更させた場合の、前記区間領域中の前記検出結果の分布状態を、前記区間領域の複数の位置それぞれについて取得し、
    前記複数の位置それぞれの前記分布状態を低次元空間へ射影した点の集合を示す分散表現を計算する、
    処理をコンピュータが実行することを特徴とする計算方法。
  9. 対象物を撮影した動画データに含まれる複数フレーム画像それぞれについて、複数種類の特徴量それぞれの検出結果と前記複数フレーム画像の時系列とを対応付けた検出マップ情報について、前記時系列における所定幅の区間領域を設定する設定部と、
    前記検出マップ情報において、前記設定部が設定した前記区間領域の位置を前記時系列に沿って変更させた場合の、前記区間領域中の前記検出結果の分布状態を、前記区間領域の複数の位置それぞれについて取得し、
    前記複数の位置それぞれの前記分布状態を低次元空間へ射影した点の集合を示す分散表現を計算する計算部と、
    を有することを特徴とする計算装置。
JP2020014140A 2020-01-30 2020-01-30 計算プログラム、計算方法及び計算装置 Active JP7415611B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020014140A JP7415611B2 (ja) 2020-01-30 2020-01-30 計算プログラム、計算方法及び計算装置
EP20216076.8A EP3859667A1 (en) 2020-01-30 2020-12-21 Calculation program, calculation method, and calculation apparatus
US17/129,730 US11410289B2 (en) 2020-01-30 2020-12-21 Calculation method, calculation apparatus, and computer-readable recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020014140A JP7415611B2 (ja) 2020-01-30 2020-01-30 計算プログラム、計算方法及び計算装置

Publications (2)

Publication Number Publication Date
JP2021120820A true JP2021120820A (ja) 2021-08-19
JP7415611B2 JP7415611B2 (ja) 2024-01-17

Family

ID=73856413

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020014140A Active JP7415611B2 (ja) 2020-01-30 2020-01-30 計算プログラム、計算方法及び計算装置

Country Status (3)

Country Link
US (1) US11410289B2 (ja)
EP (1) EP3859667A1 (ja)
JP (1) JP7415611B2 (ja)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3946927B2 (ja) 2000-03-09 2007-07-18 株式会社東芝 目標判定システム及び判定方法
JP2002312790A (ja) 2001-04-12 2002-10-25 Matsushita Electric Ind Co Ltd 検知対象判定装置
EP1748387B1 (en) 2004-05-21 2018-12-05 Asahi Kasei Kabushiki Kaisha Devices for classifying the arousal state of the eyes of a driver, corresponding method and computer readable storage medium
JP2008140267A (ja) 2006-12-04 2008-06-19 National Institute Of Advanced Industrial & Technology 動作認識装置および動作認識処理方法
JP5496566B2 (ja) 2009-07-30 2014-05-21 将文 萩原 不審行動検知方法および不審行動検知装置
JP6453504B1 (ja) 2018-02-22 2019-01-16 エヌ・ティ・ティ・コミュニケーションズ株式会社 異常監視装置、異常監視方法および異常監視プログラム

Also Published As

Publication number Publication date
US20210241442A1 (en) 2021-08-05
JP7415611B2 (ja) 2024-01-17
EP3859667A1 (en) 2021-08-04
US11410289B2 (en) 2022-08-09

Similar Documents

Publication Publication Date Title
Yan et al. Left ventricle segmentation via optical-flow-net from short-axis cine MRI: preserving the temporal coherence of cardiac motion
US7783096B2 (en) Device systems and methods for imaging
US9674447B2 (en) Apparatus and method for adaptive computer-aided diagnosis
Wu et al. Online empirical evaluation of tracking algorithms
JP7231709B2 (ja) 情報処理システム、内視鏡システム、情報処理方法及び学習済みモデルの製造方法
JPWO2013005815A1 (ja) 物体検出装置、物体検出方法及びプログラム
US20230245314A1 (en) Automated medical image quality control system
JP4102785B2 (ja) Mtf測定方法および装置
EP4107662A1 (en) Out-of-distribution detection of input instances to a model
CN110570425B (zh) 一种基于深度强化学习算法的肺结节分析方法及装置
JP6821048B2 (ja) 画像処理装置、学習済みモデル生成方法、及び評価装置
JP6371515B2 (ja) X線画像処理装置、x線画像処理方法、及びプログラム
US20230110263A1 (en) Computer-implemented systems and methods for analyzing examination quality for an endoscopic procedure
JP6996303B2 (ja) 医用画像生成装置
JP2021120820A (ja) 計算プログラム、計算方法及び計算装置
JP7414629B2 (ja) 学習用データ処理装置、学習装置、学習用データ処理方法、およびプログラム
WO2022188102A1 (zh) 深度图像的修复方法及装置、摄像头组件及电子设备
Sorour et al. A Deep Learning System for Detecting Cardiomegaly Disease Based on CXR Image
Nithya et al. An Efficient PM-Multisampling Image Filtering with Enhanced CNN Architecture for Pneumonia Classfication
Atehortúa et al. Characterization of motion patterns by a spatio-temporal saliency descriptor in cardiac cine MRI
JP2022189200A (ja) 計算プログラム、計算方法、および計算装置
JP2007018269A (ja) 映像中の動き確率計算方法、映像中の動き確率マップ計算方法、変化検出方法、及びプログラム
US20240177420A1 (en) Human model recovery based on video sequences
JP2007286690A (ja) 移動ベクトル検出装置、移動ベクトル検出方法および移動ベクトル検出プログラム
WO2024108438A1 (zh) 一种速度编码磁共振成像的运动伪影校正方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221006

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230824

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230829

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231030

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231218

R150 Certificate of patent or registration of utility model

Ref document number: 7415611

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150