JP2021174213A - 特徴点の認識システムおよび認識方法 - Google Patents
特徴点の認識システムおよび認識方法 Download PDFInfo
- Publication number
- JP2021174213A JP2021174213A JP2020077107A JP2020077107A JP2021174213A JP 2021174213 A JP2021174213 A JP 2021174213A JP 2020077107 A JP2020077107 A JP 2020077107A JP 2020077107 A JP2020077107 A JP 2020077107A JP 2021174213 A JP2021174213 A JP 2021174213A
- Authority
- JP
- Japan
- Prior art keywords
- feature points
- image
- feature
- calculation unit
- subject
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 32
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 156
- 230000005856 abnormality Effects 0.000 claims abstract description 11
- 238000004364 calculation method Methods 0.000 claims description 190
- 238000012545 processing Methods 0.000 claims description 42
- 238000013135 deep learning Methods 0.000 claims description 29
- 238000001514 detection method Methods 0.000 claims description 13
- 230000000873 masking effect Effects 0.000 abstract description 3
- 230000002159 abnormal effect Effects 0.000 description 15
- 210000000988 bone and bone Anatomy 0.000 description 14
- 235000013372 meat Nutrition 0.000 description 10
- 238000010586 diagram Methods 0.000 description 3
- 238000002591 computed tomography Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000005251 gamma ray Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000012805 post-processing Methods 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- 238000007619 statistical method Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 241000287828 Gallus gallus Species 0.000 description 1
- 241001494479 Pecora Species 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 210000001981 hip bone Anatomy 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 244000144972 livestock Species 0.000 description 1
- 210000003689 pubic bone Anatomy 0.000 description 1
- 238000003307 slaughter Methods 0.000 description 1
- 238000001308 synthesis method Methods 0.000 description 1
- 210000004233 talus Anatomy 0.000 description 1
- 210000000689 upper leg Anatomy 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Abstract
【課題】被写体の画像から特徴点の位置情報を安定かつ正確に得る。【解決手段】この特徴点認識システムでは、第1アルゴリズム演算部が非マスク処理により求めた第1群の特徴点のデータと、第2アルゴリズム演算部のマスク処理を経て第3アルゴリズム演算部が検出した第2群の特徴点のデータとを比較し、データに異常があるか否かを判断することにより、被写体の特徴点を従来よりも正確かつ安定して認識する。【選択図】図3
Description
本発明は、例えば、食肉中の骨部を判別する場合などに使用可能な、深層学習を用いた特徴点の認識システムおよび認識方法に関する。
例えば、食肉を被写体として撮影して食肉中の骨部の特徴点を検出し、骨部を食肉処理ロボットで自動的に脱骨する場合などには、被写体中における特徴点の正確な位置情報を得る必要がある。
特許文献1には、X線照射装置から被写体に向けてX線を照射し、被写体を透過したX線透過画像を画像処理し、骨部などの特徴点の位置座標を得るシステムが開示されている。
特許文献1には、X線照射装置から被写体に向けてX線を照射し、被写体を透過したX線透過画像を画像処理し、骨部などの特徴点の位置座標を得るシステムが開示されている。
特許文献1のシステムでは、画像中の特徴点が存在すると予想される領域を固定座標でまず指定し、その領域内の画像について閾値処理による二値化やエッジ抽出などの画像処理手法を用いて捉えたい境界部分を抽出し、その形状から特徴点を求めている。
しかし、例えば前記食肉や人体のように形状やサイズ、肉付きなどに個体差がある被写体の場合、前記固定座標範囲から特徴点検出に必要な形状部分が外れたり、閾値処理の輝度値が想定外であったり、内部構造の不均一により不必要な形状が検出されて必要な特徴点を絞り込めない場合があった。
また、画像のノイズや照明光の変化による外乱を受けたり、被写体の表面状態が一様ではなく画像に影響を与えたり、撮影時の被写体の姿勢や形状の変化により様々に画像が影響を受けるため、形状やサイズが一定である人工物を被写体とする場合に比べて、画像処理による特徴点の正確な認識が難しかった。食肉処理システムに応用した場合などには、特徴点の認識位置に誤差があると、ナイフが骨に食い込む、食肉の無駄が生じるなどの問題が生じる。
以上のように、従来の技術では、被写体の画像から特徴点の位置情報を安定かつ正確に得る点で改善の余地があった。
[1] 本発明の一態様は、被写体から取得した画像から前記被写体の特徴点を認識する特徴点の認識システムであって、
前記被写体の画像を取得する画像取得部と、
前記画像取得部により取得された画像を、前記被写体の特徴点を深層学習した推論演算に従って演算処理し、第1群の特徴点を検出する第1アルゴリズム演算部と、
前記画像取得部により取得された画像を、前記被写体の特徴領域を深層学習した推論演算に従って演算処理し、特徴領域を検出する第2アルゴリズム演算部と、
前記第2アルゴリズム演算部で得られた前記特徴領域を用いて第2群の特徴点を検出する第3アルゴリズム演算部と、
前記第1アルゴリズム演算部が検出した前記第1群の特徴点のデータおよび前記第3アルゴリズム演算部が検出した前記第2群の特徴点のデータの少なくとも一方を用いて、前記被写体の特徴点を出力する演算部とを具備する。
前記被写体の画像を取得する画像取得部と、
前記画像取得部により取得された画像を、前記被写体の特徴点を深層学習した推論演算に従って演算処理し、第1群の特徴点を検出する第1アルゴリズム演算部と、
前記画像取得部により取得された画像を、前記被写体の特徴領域を深層学習した推論演算に従って演算処理し、特徴領域を検出する第2アルゴリズム演算部と、
前記第2アルゴリズム演算部で得られた前記特徴領域を用いて第2群の特徴点を検出する第3アルゴリズム演算部と、
前記第1アルゴリズム演算部が検出した前記第1群の特徴点のデータおよび前記第3アルゴリズム演算部が検出した前記第2群の特徴点のデータの少なくとも一方を用いて、前記被写体の特徴点を出力する演算部とを具備する。
この特徴点の認識システムによれば、前記第1アルゴリズム演算部が検出した前記第1群の特徴点のデータと、前記第2アルゴリズム演算部が特徴領域を検出した後に前記特徴領域を用いて前記第3アルゴリズム演算部が検出した前記第2群の特徴点のデータの少なくとも一方を選択的に用いて、前記被写体の特徴点を出力することにより、被写体の画像から特徴点の位置情報を安定かつより正確に得ることが可能である。
[2] 前記[1]の特徴点の認識システムにおいて、前記被写体の第2画像を取得する第2画像取得部と、前記第2画像取得部により取得された前記第2画像から第3群の特徴点を検出する第2画像演算部とをさらに有し、前記演算部は、前記第1アルゴリズム演算部が検出した前記第1群の特徴点のデータ、前記第3アルゴリズム演算部が検出した前記第2群の特徴点のデータ、および、前記第2画像演算部が検出した前記第3群の特徴点のデータのうち、少なくとも2つを用いて、前記被写体の特徴点の検出結果の正常・異常を検査してもよい。
この場合、前記演算部が、前記第1アルゴリズム演算部が検出した前記第1群の特徴点のデータ、前記第3アルゴリズム演算部が検出した前記第2群の特徴点のデータ、および、前記第2画像演算部が検出した前記第3群の特徴点のデータのうち、少なくとも2つを用いて前記被写体の特徴点の検出結果の正常・異常を検査することにより、被写体の画像から特徴点の位置情報をさらに安定かつ高い精度で得ることが可能である。
[3] 前記[1]または[2]の特徴点の認識システムにおいて、前記第2アルゴリズム演算部で得られた前記特徴領域のデータを、正常な特徴領域を深層学習した推論演算に従って演算し、前記第2アルゴリズム演算部で得られた前記特徴領域の正常性を判断する第4アルゴリズム演算部を具備してもよい。
この場合、前記第4アルゴリズム演算部が前記第2アルゴリズム演算部で得られた前記特徴領域のデータを、正常な特徴領域を深層学習した推論演算に従って演算し、前記第2アルゴリズム演算部で得られた前記特徴領域の正常性を判断することにより、被写体の画像から特徴点の位置情報をさらに安定かつ高い精度で得ることが可能である。
[4] 前記[1]〜[3]の特徴点の認識システムにおいて、前記演算部は、前記第1アルゴリズム演算部が検出した前記第1群の特徴点のデータ、前記第3アルゴリズム演算部が検出した前記第2群の特徴点のデータ、および、前記第2画像演算部が検出した前記第3群の特徴点のデータのうち少なくとも2つを相互に比較し、比較に用いた2つの特徴点のうちより精度が高いと判定された方を前記被写体の特徴点として選択して出力してもよい。この場合、前記比較により、被写体の画像から特徴点の位置情報をさらに安定かつ高い精度で得ることが可能である。
前記画像取得部は、X線画像、3D画像、CTスキャン画像、ガンマ線画像、紫外線画像、可視光画像、赤外線画像、RGB画像、および超音波探傷画像のうち少なくとも1種を取得してもよい。
[5] 本発明の他の態様は、被写体から取得した画像から前記被写体の特徴点を認識する特徴点の認識方法であって、
前記被写体の画像を取得する画像取得工程と、
前記画像取得工程で取得された画像を、前記被写体の特徴点を深層学習した推論演算に従って演算処理し、第1群の特徴点を検出する第1アルゴリズム演算工程と、
前記画像取得部により取得された画像を、前記被写体の特徴領域を深層学習した推論演算に従って演算処理し、特徴領域を検出する第2アルゴリズム演算工程と、
前記第2アルゴリズム演算部で得られた前記特徴領域を用いて第2群の特徴点を検出する第3アルゴリズム演算工程と、
前記第1アルゴリズム演算工程で検出した前記第1群の特徴点のデータおよび前記第3アルゴリズム演算工程で検出した前記第2群の特徴点のデータの少なくとも一方を用いて、前記被写体の特徴点を出力する演算工程とを具備する。
前記被写体の画像を取得する画像取得工程と、
前記画像取得工程で取得された画像を、前記被写体の特徴点を深層学習した推論演算に従って演算処理し、第1群の特徴点を検出する第1アルゴリズム演算工程と、
前記画像取得部により取得された画像を、前記被写体の特徴領域を深層学習した推論演算に従って演算処理し、特徴領域を検出する第2アルゴリズム演算工程と、
前記第2アルゴリズム演算部で得られた前記特徴領域を用いて第2群の特徴点を検出する第3アルゴリズム演算工程と、
前記第1アルゴリズム演算工程で検出した前記第1群の特徴点のデータおよび前記第3アルゴリズム演算工程で検出した前記第2群の特徴点のデータの少なくとも一方を用いて、前記被写体の特徴点を出力する演算工程とを具備する。
この特徴点の認識方法によれば、前記第1アルゴリズム演算工程で検出した前記第1群の特徴点のデータと、前記第2アルゴリズム演算工程で特徴領域を検出した後に前記特徴領域を用いて前記第3アルゴリズム演算工程で検出した前記第2群の特徴点のデータの少なくとも一方を選択的に用いて、前記被写体の特徴点を出力することにより、被写体の画像から特徴点の位置情報を安定かつより正確に得ることが可能である。
前記[5]の方法において、前記[2]〜[4]のシステムの動作における各工程と同様の工程を設けてもよい。その場合には、前記[2]〜[4]のシステムと同様の効果を得ることが可能である。
本発明に係る特徴点の認識システムおよび認識方法によれば、画像取得部が取得した被写体の画像から直接に検出した第1群の特徴点のデータと、前記画像から特徴領域を検出した後にこの特徴領域データを用いて検出した第2群の特徴点のデータの少なくとも一方を選択的に用いることにより、被写体の画像から特徴点の位置情報を安定かつより正確に得ることが可能である。
以下、実施形態を挙げて本発明を詳細に説明するが、本発明の技術的範囲はこれらの実施形態の構成によって限定されるものではなく、請求の範囲の記載に基づいて最も広く解釈されるべきである。下記の実施形態から一部構成を省いたり、既知の他の構成を付加することも可能である。
図1は、本発明の一実施形態の特徴点の認識システムを示す正面図である。この特徴点認識システム1は、被写体Pとして食肉を処理するものであり、被写体Pを運ぶコンベア2と、コンベア2上に置かれた被写体Pの透過X線画像を取得するX線画像取得部4と、X線画像取得部4のためにX線を発生させるX線発生装置(図示略)と、被写体Pの表面の3D画像を取得する3D画像取得部6(第2画像取得部)と、X線画像取得部4および3D画像取得部6からの出力信号を処理する画像処理装置8と、X線発生装置からのX線を遮蔽するためのシールド10とを具備する。X線画像取得部4による撮像タイミングと、3D画像取得部6による撮像タイミングは同時であってもよいし、同時でなくてもよい。また、X線画像取得部4および3D画像取得部6によって撮影する際の被写体Pの位置は同じであっても、異なっていてもよい。
この実施形態の特徴点認識システム1では、被写体Pが豚、牛、羊、および鶏などの家畜屠体の一部であり、被写体P内部の骨部Bの外周に沿う複数の特徴点の位置情報を取得する。図示しない後処理において、特徴点認識システム1が認識した特徴点の座標を使用して、例えば、ロボットアームが操作するナイフを動かすことにより、骨部Bと肉部の境界を切断し、被写体Pの肉部から骨部Bを取り出すなどの処理を行うことが可能である。
ただし、本発明は食肉への応用に限定されず、被写体Pとして人体を含む各種生物の生体、植物、または人工物中の、何らかの構造の特異点を求めるために用いてもよいし、特徴点の利用目的は限定されず、脱骨作業以外のいかなる目的に用いられてもよい。被写体Pを搬送するコンベア2は必ずしも用いる必要は無く、撮影時に被写体Pを何らかの手段で固定しておいてもよいし、または被写体Pを移動させながら画像を取得してもよい。
また、この実施形態では、画像取得部および第2画像取得部としてX線画像取得部4および3D画像取得部6を用いているが、本発明の画像取得部はこれらに限定されず、CTスキャン画像、ガンマ線画像、超音波探傷画像、紫外線画像、可視光画像、赤外線画像、またはRGB画像などを取得する画像取得部を用いてもよいし、二種類の画像を用いる代わりに、同一種の画像を被写体Pの異なる方向から取得した二つの画像を用いてもよいし、一つのみの画像を用いて特徴点を認識することも可能である。すなわち、第2画像取得部を用いない構成も可能である。
X線画像取得部4は、X線発生装置のX線管から放射され被写体Pを透過したX線をX線検出器で検出し、被写体Pの二次元のX線画像を取得する。X線画像取得部4が取得したX線画像のデータはX線画像取得部4の内部又は外部に設けられている記憶媒体に格納され、画像処理装置8へ伝達されて処理される。図4中の画像22はX線画像取得部4により取得されたX線画像の一例である。
3D画像取得部6は、コンベア2上に置かれた被写体Pの立体形状を把握するためのものである。3D画像取得部6の種類は限定されないが、例えば、被写体Pの表面にライン状の光線を走査しつつ照射し、カメラで被写体Pの表面からの反射光を測定することにより、被写体Pの立体形状を反映した3D画像を取得するものであってもよい。3D画像取得部6が取得した3D画像のデータは、3D画像取得部6の内部又は外部に設けられている記憶媒体に格納され、画像処理装置8へ伝達されて処理される。図13は3D画像取得部6が取得した3D画像の一例である。
図2は、画像処理装置8の構成を示すブロック図である。画像処理装置8は、第1アルゴリズム演算部12と、第2アルゴリズム演算部14と、第3アルゴリズム演算部16と、第4アルゴリズム演算部18と、演算部20とから主構成されている。
画像処理装置8は、回路部(circuitry)を含むコンピューター等のハードウェアがソフトウェアプログラムを実行することにより実現される。前記ハードウェアは、例えば、CPU(Central Processing Unit)、LSI(Large Scale Integration)、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)などである。上述したプログラムは、記憶媒体を備える記憶装置に格納されている。前記記憶媒体は、例えばHDD(Hard Disk Drive)、フラッシュメモリ、ROM(Read Only Memory)、DVD(Digital Versatile Disc)などである。さらに、上述したプログラムは、画像処理装置8が有する機能の一部を実現する差分プログラムであってもよい。
第1アルゴリズム演算部12は、X線画像取得部4からのX線画像データに基づき、被写体P内で検出すべき特徴点を深層学習した推論演算に従って演算処理し、第1群の特徴点を検出する。この実施形態では、これら特徴点は、後処理におけるナイフの移動軌跡を求めるための位置に対応する。
図4は第1アルゴリズム演算部12の演算処理を模式的に示し、X線画像取得部4が取得したX線画像22の二次元ピクセルデータが入力されることにより、予め求めるべき特徴点を深層学習した推論演算に従って演算処理し、各特徴点A,B,C,…,C6,C7,C8の正規化した(X,Y)座標24を出力する。
第1アルゴリズム演算部12の深層学習は、次のようにして行うことができる。図5に示すように、X線画像取得部4によって予め撮影したX線画像26を多数用意し、熟練者の判断に基づいて、これらX線画像26内に特徴点をプロットする。これにより、図6に示すように、X線画像28とそれに現れている特徴点の座標セット30が得られ、X線画像28と特徴点の座標セット30を教師データ32として深層学習させ、第1アルゴリズムを第1アルゴリズム演算部12内に構築すればよい。
第2アルゴリズム演算部14は、X線画像取得部4からのX線画像データに基づき、被写体P内の特徴領域を深層学習した推論演算に従って演算処理し、特徴領域を検出する。この実施形態では、これら特徴領域は、被写体Pの内部にある複数の骨の位置に対応する。この実施形態では、第2アルゴリズム演算部14が3D画像に対するマスク画像検出(S17)にも用いられ、この場合は第2画像演算部に対応する。
図7は第2アルゴリズム演算部14の演算処理を模式的に示し、X線画像取得部4が取得したX線画像34の二次元ピクセルデータが入力されることにより、予め求めるべき特徴領域を深層学習した推論演算に従って演算処理し、各特徴領域の(X,Y)座標範囲以外をマスクした画像データ36を出力する。
図8は、第2アルゴリズム演算部14が求めるべき複数の特徴領域(背景、下腿骨、大腿骨、皿骨、寛骨、尾骨、距骨、恥骨)の一例を示すマスク画像である。第2アルゴリズム演算部14の深層学習は、次のようにして行うことができる。X線画像取得部4によって予め撮影したX線画像を多数用意し、熟練者の判断に基づいて、これらX線画像内に図8に示す各骨に対応する特徴範囲を描く。これにより、X線画像とそれに現れている特徴領域の座標範囲セットが得られるから、これらのデータセットを教師データとして深層学習を行い、第2アルゴリズムを第2アルゴリズム演算部14内に構築すればよい。3D画像に対するマスク画像検出(S17)に第2アルゴリズム演算部14を用いる場合は、3D画像に対して同様に深層学習させればよい。
第3アルゴリズム演算部16は、第2アルゴリズム演算部14で得られた特徴領域のデータに基づき、被写体P内で検出すべき特徴点を深層学習した推論演算に従って演算処理し、第2群の特徴点を検出する。第3アルゴリズム演算部16が検出すべき特徴点は、第1アルゴリズム演算部12が検出すべき特徴点とそれぞれ同じ点であるが、第1アルゴリズム演算部12がX線画像から特徴点を直接求めるのに対して、第3アルゴリズム演算部16は第2アルゴリズム演算部14が求めた特徴領域に基づいて、特徴点を間接的に検出する点が異なっている。この実施形態では、第3アルゴリズム演算部16が、3D画像から得た特徴領域から特徴点を検出する特徴点検出(S18)にも用いられ、この場合は第2画像演算部に対応する。さらに、第3アルゴリズム演算部16は、第2アルゴリズム演算部14で得られた特徴領域のデータに基づき、画像処理手法を用いて被写体P内における第2群の特徴点を検出してもよい。
図9は第3アルゴリズム演算部16の演算処理を模式的に示し、第2アルゴリズム演算部14が求めた特殊領域によるマスク画像38の二次元ピクセルデータが入力されることにより、予め特徴点を深層学習した推論演算に従って演算処理し、各特徴点A,B,C,…,C6,C7,C8の正規化した(X,Y)座標40を出力する。
第3アルゴリズム演算部16の深層学習は、次のようにして行うことができる。第2アルゴリズム演算部14が求めた特殊領域によるマスク画像38を多数用意し、熟練者の判断に基づいて、これらマスク画像38内に特徴点をプロットする。これにより、マスク画像38とそれに現れている特徴点の座標セットが得られ、これらデータセットの多数を深層学習させて第3アルゴリズムを第3アルゴリズム演算部16内に構築すればよい。3D画像に対する特徴点検出(S18)に第3アルゴリズム演算部16を用いる場合は、3D画像に対して同様に深層学習させればよい。
図10は、第2アルゴリズム演算部14による特徴領域の検出が異常となったマスク画像42と、そのマスク画像42から第3アルゴリズム演算部16が検出したため特徴点の検出が異常になったX線画像44を示している。
第4アルゴリズム演算部18は、第2アルゴリズム演算部14で得られた特徴領域のデータを、正常な特徴領域を深層学習した推論演算に従って演算し、第2アルゴリズム演算部14で得られた特徴領域の正常性を判断する。これにより、例えば、図10に示す異常なマスク画像42を、正常な特徴領域を深層学習した推論演算に従って演算し、異常であると判断することができる。さらに、第4アルゴリズム演算部18において、統計的手法により予め得られた特徴領域のあり得る範囲と、第2アルゴリズム演算部14で得られた特徴領域のデータを比較し、第2アルゴリズム演算部14で得られた特徴領域の正常性を判断してもよい。
第4アルゴリズム演算部18の深層学習は、次のようにして行うことができる。第2アルゴリズム演算部14が求めた特殊領域によるマスク画像を多数用意し、熟練者の判断に基づいて、正常なマスク画像38(図9)と、異常なマスク画像42とを判断し、マスク画像と正常/異常の評価とをデータセットとして、これらデータセットの多数を深層学習させて第4アルゴリズムを第4アルゴリズム演算部18内に構築すればよい。
演算部20は、第1アルゴリズム演算部12が検出した第1群の特徴点のデータおよび第3アルゴリズム演算部16が検出した第2群の特徴点のデータの少なくとも一方を用いて、被写体Pの最終的な特徴点を出力する。演算部20の動作の詳細は、下記のフローチャートに関連させて説明する。
図3は、本実施形態の特徴点の認識システム1の動作を示すフローチャートであり、工程順に特徴点認識システム1の動作を説明する。
ステップS1において、X線画像取得部4が被写体PのX線画像(第1画像)を取得する。これにより、例えば図4中のX線画像22が撮像される。
ステップS2において、X線画像取得部4が取得したX線画像のデータは、画像処理装置8中の第1アルゴリズム演算部12により、被写体Pの特徴点を予め深層学習した推論演算(第1アルゴリズム)に従って演算処理され、第1アルゴリズム演算部12が第1群の特徴点を検出する。これにより、例えば、図4に示す各特徴点A,B,C,…,C6,C7,C8の正規化した(X,Y)座標24が求められる。
ステップS1において、X線画像取得部4が被写体PのX線画像(第1画像)を取得する。これにより、例えば図4中のX線画像22が撮像される。
ステップS2において、X線画像取得部4が取得したX線画像のデータは、画像処理装置8中の第1アルゴリズム演算部12により、被写体Pの特徴点を予め深層学習した推論演算(第1アルゴリズム)に従って演算処理され、第1アルゴリズム演算部12が第1群の特徴点を検出する。これにより、例えば、図4に示す各特徴点A,B,C,…,C6,C7,C8の正規化した(X,Y)座標24が求められる。
ステップS3において、X線画像取得部4が取得したX線画像のデータは、第2アルゴリズム演算部14により、被写体Pの特徴領域を深層学習した推論演算(第2アルゴリズム)に従って演算処理され、第2アルゴリズム演算部14が特徴領域を検出する。特徴領域の検出には、予め行われた深層学習により、被写体P内の骨の領域のみを抽出するマスク処理が行われる。これにより、例えば、図7中のマスク画像36が求められる。
ステップS4において、第2アルゴリズム演算部14が検出した特徴領域のデータは、第3アルゴリズム演算部16に渡され、第3アルゴリズム演算部16は第3アルゴリズムを用いて特徴領域のデータを用いて第2群の特徴点を検出する。これにより、例えば図9に示すような第2群の特徴点40が得られる。
ステップS5において、第2アルゴリズム演算部14が検出した特徴領域のデータは、第4アルゴリズム演算部18にも渡され、第4アルゴリズム演算部18は、第2アルゴリズム演算部14で得られた特徴領域のデータを、正常な特徴領域を深層学習した推論演算に従って演算し、特徴領域の正常性を判断し、その結果を形状スコアとして出力する。これにより、例えば、図10に示す異常なマスク画像42に対しては低い形状スコアが第4アルゴリズム演算部18から出力され、異常であると判定される。
ステップS6において、演算部20は、第3アルゴリズム演算部16からの第2群の特徴点のデータと、第4アルゴリズム演算部18からの形状スコアを受け、両者を照合して、第3アルゴリズム演算部16が検出した第2群の特徴点のデータが正常か否かを判別する。正常であれば、ステップS7へ進み、異常と判断されればステップS8へ進む。
ステップS7において、演算部20は、ステップS2で得られた第1アルゴリズム演算部12からの第1群の特徴点の座標データと、ステップS6で正常と判断された第3アルゴリズム演算部16からの第2群の特徴点の座標データとを比較する。第1群の特徴点のデータは、マスク処理が行われずに直接、特徴点を検出した非マスク処理による特徴点の座標データである。例えば、図14は第1アルゴリズム演算部12からの第1群の特徴点の座標データ52と、第3アルゴリズム演算部16からの第2群の特徴点の座標データ54とを、同一特徴点同士で比較して、差分が大きい場合には誤検知の可能性が高いことを示す模式図である。
ステップS7では、例えば、マスク処理を介して得られた第3アルゴリズム演算部16からの第2群の各特徴点の座標データから、非マスク処理により得られた第1アルゴリズム演算部12からの第1群の各特徴点の座標データの差分をとり、この差分が予め決めておいた一定の閾値を超えた特徴点があれば、その特徴点の座標は異常であると判断する。
ステップS8において、第2群の各特徴点の座標データと、後述するステップS18において3D画像(第2画像)から得られた第3群の各特徴点の座標データと比較する。この比較により、X線画像から得られた第2群の特徴点のデータと、3D画像から得られた第3群の特徴点のデータとの差分が一定の閾値以下であれば、その特徴点の異常はX線画像と3D画像とで共通して存在すると判断して、その特徴点の比較情報を無視せよとの命令を発する。一方、閾値より大きければ、異常フラグを立ててステップS19へ進む。
ステップS9において、ステップS7での比較により特徴点が正常であると判断された場合はステップS10へ進み、第1群および第2群の特徴点のデータの比較から異常と判断された場合もしくはステップS8から比較無効情報が出力されている場合には異常と判断してステップS11へ進む。
ステップS10において、正常と判断された第2群の特徴点のデータと、後述するステップS18で得られる3D画像から得られた第3群の特徴点のデータとを比較する。X線画像から得られた第2群の特徴点のデータと、3D画像から得られた第3群の特徴点のデータとの差分が、一定の閾値以下であれば、正常と判断し、閾値よりも大きければ、異常と判断する。
ステップS11において、ステップS9で検出した特徴点が正常ではないと判断された場合は、第2群の特徴点の座標データと、後述するステップS18において3D画像から得られた第3群の特徴点の座標データと比較する。この比較により、X線画像から得られた第2群の特徴点の座標データと、3D画像から得られた第3群の特徴点の座標データとの差分が一定の閾値以下であれば、その特徴点の異常はX線画像と3D画像とで共通して存在すると判断して、その特徴点の比較情報を無視せよとの命令を発発し、閾値より大きければ、異常フラグを立ててステップS19へ進む。
ステップS12において、ステップS10での比較により特徴点が正常であると判断された場合はステップS14へ進み、第1群および第2群の特徴点のデータの比較から異常と判断された場合もしくはステップS11から比較無効情報が出力されている場合には異常と判断してステップS13へ進む。
ステップS13において、X線画像から得られた第2群の特徴点の座標データと、3D画像から得られた第3群の特徴点の座標データとの差分が小さいか否かを判断し、差分が一定の閾値よりも小さければ、両者に共通する特徴点のデータについて、使用可能であると判断する。使用可能であると判断した場合にはステップS14へ進み、両者に共通する特徴点のデータについて使用可能ではないと判断した場合にはステップS19へ進む。
ステップS14において、X線画像から得られた第2群の特徴点のデータと、3D画像から得られた第3群の特徴点のデータとを合成し、送信すべき座標を最終決定する。合成方法の一例としては、両者の中間点の座標を計算し、その中間点の座標を最終的な特徴点のデータの座標としてもよい。他の例として、ステップ13において、X線画像から得られた第1群および第2群の特徴点のデータと、3D画像から得られた第3群の特徴点のデータの合計3種の座標の平均を、最終的な特徴点のデータとしてもよい。このように正常な2群または3群の特徴点データ群を平均して最終座標を求めることにより、最終的に求められる特徴点の座標の精度をさらに向上できる。
ステップS15において、ステップS14で合成された特徴点のデータを画像処理装置8から出力して、フローチャートの1サイクルが完了する。
一方、ステップ16において、3D画像取得部6により被写体Pを撮影し、3D画像取得部6が3D画像(第2画像)のデータを得る。ステップ16は、ステップS1と同時に行ってもよいし、ステップS1と同じではないタイミングで行ってもよい。
ステップ17において、3D画像取得部6が取得した3D画像のデータは、第2アルゴリズム演算部14(第2画像演算部の一部)により、被写体Pの特徴領域を深層学習した推論演算(第2アルゴリズム)に従って演算処理し、第2アルゴリズム演算部14が特徴領域を検出する。特徴領域の検出には、予め行われた深層学習により、被写体P内の骨の領域のみを抽出するマスク処理が行われる。深層学習の仕方は、先に述べたX線画像に関する特徴点の深層学習と同様に行えばよい。
ステップ18において、第2アルゴリズム演算部14が検出した特徴領域のデータは、第3アルゴリズム演算部16(第2画像演算部の一部)に渡され、第3アルゴリズム演算部16は第3アルゴリズムにより特徴領域のデータを用いて第3群の特徴点を検出する。検出された第3群の特徴点のデータをステップS8およびステップS10へ送る。
ステップ19において、ステップS8,S11,S14で異常フラグが立てられている場合には、ステップS1に戻って再度、撮影済みのX線画像および3D画像に基づき、ステップS1からやり直す。また、初期値がT=0であるリトライ回数T=1にする。ステップS1からS19を再び繰り返した場合には、リトライ回数Tを1ずつ加算していき、T=n(nは予め決めておく正の整数で2以上)となった場合には、T=0に初期化するとともに、今回の被写体Pに対する特徴点認識作業を中止して、作業員にアラームを発して、その被写体Pに対する特徴点の認識は失敗したものとして、人手による作業に委ねるか、特徴点認識システム1から被写体Pを排出する。作業員は、被写体Pを特徴点認識システム1から除去するか、人手による後工程を行うかする。
以上の特徴点認識システム1によれば、前記フローチャートに基づく動作により、第1アルゴリズム演算部12が非マスク処理により求めた第1群の特徴点のデータと、第2アルゴリズム演算部14のマスク処理を経て第3アルゴリズム演算部16が検出した第2群の特徴点のデータと比較し、一定の閾値以上に離れていれば異常と判断することにより、被写体Pの特徴点を従来よりも正確かつ安定して認識することが可能である。
これにより、例えば、図11に示すように、第2アルゴリズム演算部14で得られたマスク画像46が一見正常に見えた場合にも、このマスク画像46に基づいて得られた第2群の特徴点(図12)の各座標データを、第1アルゴリズム演算部12から得られた特徴点の各座標データと比較することにより、図12に示す特徴点F、G、Hのように異常を示している特徴点を検出することができ、再びステップS1からやり直して正しいデータを得たり、所定回数やり直しても正常なデータが得られなければその被写体Pについての処理を停止するなどの対応が可能となる。
さらにこの実施形態では、図13に示すような3D画像を第2画像として3D画像取得部6で取得し、この3D画像から得た第3群の特徴点の座標データとも比較を行っているから、さらに高い精度が得られる。第1画像を3D画像とし、第2画像をX線画像とすることもできるし、前述した他種の画像と交換しても用いてもよい。
なお、前記実施形態における3D画像に関連するステップは、省略することも可能である。
また、統計的手法により予め得られた統計的特徴点のデータとしては、単に特徴点同士の距離の最小値から最大値の範囲を多数のサンプルについて統計的に求めておき、これら統計的特徴点のデータと、第3アルゴリズム演算部16から得られた第2群の特徴点の各座標データおよび/または第1アルゴリズム演算部12から得られた特徴点の各座標データの正常または異常を判断させてもよい。
また、統計的手法により予め得られた統計的特徴点のデータとしては、単に特徴点同士の距離の最小値から最大値の範囲を多数のサンプルについて統計的に求めておき、これら統計的特徴点のデータと、第3アルゴリズム演算部16から得られた第2群の特徴点の各座標データおよび/または第1アルゴリズム演算部12から得られた特徴点の各座標データの正常または異常を判断させてもよい。
本発明の特徴点の認識システムおよび認識方法によれば、2つの手法で得られた第1群および第2群の特徴点を用いることにより、被写体の画像から特徴点の位置情報を安定かつより正確に得ることが可能である。
1 特徴点認識システム
2 コンベア
4 X線画像取得部(第1画像取得部)
6 3D画像取得部(第2画像取得部)
8 画像処理装置
10 シールド
12 第1アルゴリズム演算部
14 第2アルゴリズム演算部
16 第3アルゴリズム演算部
18 第4アルゴリズム演算部
20 演算部
22 X線画像(第1画像の例)
24 第1群の特徴点データ
32 教師データ
36 マスク画像
50 3D画像(第2画像の例)
2 コンベア
4 X線画像取得部(第1画像取得部)
6 3D画像取得部(第2画像取得部)
8 画像処理装置
10 シールド
12 第1アルゴリズム演算部
14 第2アルゴリズム演算部
16 第3アルゴリズム演算部
18 第4アルゴリズム演算部
20 演算部
22 X線画像(第1画像の例)
24 第1群の特徴点データ
32 教師データ
36 マスク画像
50 3D画像(第2画像の例)
Claims (5)
- 被写体から取得した画像から前記被写体の特徴点を認識する特徴点の認識システムであって、
前記被写体の画像を取得する画像取得部と、
前記画像取得部により取得された画像を、前記被写体の特徴点を深層学習した推論演算に従って演算処理し、第1群の特徴点を検出する第1アルゴリズム演算部と、
前記画像取得部により取得された画像を、前記被写体の特徴領域を深層学習した推論演算に従って演算処理し、特徴領域を検出する第2アルゴリズム演算部と、
前記第2アルゴリズム演算部で得られた前記特徴領域を用いて第2群の特徴点を検出する第3アルゴリズム演算部と、
前記第1アルゴリズム演算部が検出した前記第1群の特徴点のデータおよび前記第3アルゴリズム演算部が検出した前記第2群の特徴点のデータの少なくとも一方を用いて、前記被写体の特徴点を出力する演算部とを具備することを特徴とする特徴点の認識システム。 - 前記被写体の第2画像を取得する第2画像取得部と、
前記第2画像取得部により取得された前記第2画像から、第3群の特徴点を検出する第2画像演算部とをさらに有し、
前記演算部は、前記第1アルゴリズム演算部が検出した前記第1群の特徴点のデータ、前記第3アルゴリズム演算部が検出した前記第2群の特徴点のデータ、および、前記第2画像演算部が検出した前記第3群の特徴点のデータのうち、少なくとも2つを用いて、前記被写体の特徴点の検出結果の正常・異常を検査するすることを特徴とする請求項1に記載の特徴点の認識システム。 - 前記第2アルゴリズム演算部で得られた前記特徴領域のデータを、正常な特徴領域を深層学習した推論演算に従って演算し、前記第2アルゴリズム演算部で得られた前記特徴領域の正常性を判断する第4アルゴリズム演算部を具備することを特徴とする請求項1または2に記載の特徴点の認識システム。
- 前記演算部は、前記第1アルゴリズム演算部が検出した前記第1群の特徴点のデータ、前記第3アルゴリズム演算部が検出した前記第2群の特徴点のデータ、および、前記第2画像演算部が検出した前記第3群の特徴点のデータのうち少なくとも2つを相互に比較し、比較に用いた2つの特徴点のうちより精度が高いと判定された方を前記被写体の特徴点として選択して出力することを特徴とする請求項2に記載の特徴点の認識システム。
- 被写体から取得した画像から前記被写体の特徴点を認識する特徴点の認識方法であって、
前記被写体の画像を取得する画像取得工程と、
前記画像取得工程で取得された画像を、前記被写体の特徴点を深層学習した推論演算に従って演算処理し、第1群の特徴点を検出する第1アルゴリズム演算工程と、
前記画像取得工程により取得された画像を、前記被写体の特徴領域を深層学習した推論演算に従って演算処理し、特徴領域を検出する第2アルゴリズム演算工程と、
前記第2アルゴリズム演算工程で得られた前記特徴領域を用いて第2群の特徴点を検出する第3アルゴリズム演算工程と、
前記第1アルゴリズム演算工程で検出した前記第1群の特徴点のデータおよび前記第3アルゴリズム演算工程で検出した前記第2群の特徴点のデータの少なくとも一方を用いて、前記被写体の特徴点を出力する演算工程とを具備することを特徴とする特徴点の認識方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020077107A JP2021174213A (ja) | 2020-04-24 | 2020-04-24 | 特徴点の認識システムおよび認識方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020077107A JP2021174213A (ja) | 2020-04-24 | 2020-04-24 | 特徴点の認識システムおよび認識方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021174213A true JP2021174213A (ja) | 2021-11-01 |
Family
ID=78279664
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020077107A Pending JP2021174213A (ja) | 2020-04-24 | 2020-04-24 | 特徴点の認識システムおよび認識方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021174213A (ja) |
-
2020
- 2020-04-24 JP JP2020077107A patent/JP2021174213A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110796613B (zh) | 一种图像伪影的自动识别方法及装置 | |
CN107480677B (zh) | 一种识别三维ct图像中感兴趣区域的方法及装置 | |
CN109923554B (zh) | 图像处理 | |
JP4708362B2 (ja) | コンピュータで実施される方法 | |
JP3110045B2 (ja) | 医用コンピュータ断層撮影スキャンで病変を検出するための自動化された方法およびシステム | |
US7072435B2 (en) | Methods and apparatus for anomaly detection | |
Elsayed et al. | Automatic detection of the pulmonary nodules from CT images | |
KR20160103562A (ko) | 해부학적 계측점의 검출 | |
KR20160071241A (ko) | 컴퓨터 보조 진단 장치 및 방법 | |
US20160203604A1 (en) | Method for automatic detection of anatomical landmarks in volumetric data | |
WO2020218513A1 (ja) | 特徴点の認識システムおよび認識方法 | |
JP2004174232A (ja) | 画像セットのコンピュータ支援診断 | |
EP2965285A1 (en) | Scan region determining apparatus | |
JP2009100943A (ja) | 骨測定装置および骨画像処理方法 | |
CN111951215A (zh) | 一种图像检测方法、装置及计算机可读存储介质 | |
KR102255592B1 (ko) | 마진 라인의 정밀도 향상을 위한 치과용 ct 영상 처리 방법 | |
JP2021174213A (ja) | 特徴点の認識システムおよび認識方法 | |
Wei et al. | Automatic recognition of major fissures in human lungs | |
CN112770675A (zh) | 减少异物的x射线成像系统 | |
CN109223031A (zh) | 一种获得人体骨架的成像方法 | |
JP2017093879A (ja) | X線測定システム及びx線検出データ処理方法 | |
KR102354701B1 (ko) | 이미지 처리 장치 및 이에 의한 가상의 엑스선 이미지 생성 방법 | |
CN110349151B (zh) | 一种目标识别方法及装置 | |
JP6326555B2 (ja) | 縮小角度範囲を用いる回転c−アームコンピュータ断層撮影のための適応セグメンテーションを行う医用イメージングシステム又は方法 | |
CN113793316A (zh) | 一种超声扫查区域提取方法、装置、设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230407 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240208 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240220 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240404 |